JP7366563B2 - 画像生成装置、画像生成方法、及びプログラム - Google Patents

画像生成装置、画像生成方法、及びプログラム Download PDF

Info

Publication number
JP7366563B2
JP7366563B2 JP2019058994A JP2019058994A JP7366563B2 JP 7366563 B2 JP7366563 B2 JP 7366563B2 JP 2019058994 A JP2019058994 A JP 2019058994A JP 2019058994 A JP2019058994 A JP 2019058994A JP 7366563 B2 JP7366563 B2 JP 7366563B2
Authority
JP
Japan
Prior art keywords
image
pixel
pixels
color information
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019058994A
Other languages
English (en)
Other versions
JP2020160756A (ja
JP2020160756A5 (ja
Inventor
智裕 矢埜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019058994A priority Critical patent/JP7366563B2/ja
Priority to US16/815,434 priority patent/US11189081B2/en
Publication of JP2020160756A publication Critical patent/JP2020160756A/ja
Publication of JP2020160756A5 publication Critical patent/JP2020160756A5/ja
Application granted granted Critical
Publication of JP7366563B2 publication Critical patent/JP7366563B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本発明は、仮想視点画像を生成するための技術に関する。
近年、複数のカメラを異なる位置に設置して複数視点で同期撮影し、その撮影により得られた複数視点画像を用いて、カメラ設置位置の画像だけでなく任意の視点からなる仮想視点画像を生成する技術が注目されている。この複数視点画像に基づく仮想視点画像の生成は、複数のカメラで撮影した画像をサーバ等の画像処理部に集約し、前景背景分離、3次元形状データの生成、背景の生成、レンダリング等の処理を施すことで実現される。
ここで、仮想視点画像における背景の生成では、一般的に、予め用意したスタジアム等の背景の3次元形状データに色付けして、レンダリングすることが行われている。この色付け方法として、3次元形状データを構成するメッシュとカメラの撮影画像との間で求めた対応関係を用いてホモグラフィを計算し、撮影画像を射影変換によって変形して3次元形状データを構成するメッシュにテクスチャを対応付ける方法が知られている。特許文献1には、狭い画角で撮影された複数の画像に対応する3次元空間上の位置を、広角に撮影された画像を用いて特定することでパノラマ画像を作成し、射影変換により画像変換することで、3次元形状データにテクスチャを対応付ける技術が開示されている。
特開2017-182695号公報
但し、射影変換した画像に基づいて3次元形状データにテクスチャを対応付ける場合、3次元形状データを構成する要素の数に応じて各カメラ画像を射影変換する必要があるため、3次元形状データが複雑になれば要素の数が多くなり、処理負荷が大きくなる。即ち、計算リソースが増大する。
本発明は、この課題に鑑みてなされたものであって、その目的は、より少ない計算リソースで3次元形状データにテクスチャを対応付ける技術を提供することである。
本発明に係る画像処理装置は、景とは異なる背景の3次元形状データを取得する第1の取得手段と、前記背景の3次元形状データを構成する要素が割り当てられた2次元マップ情報を取得する第2の取得手段と、複数の撮影装置による第1の撮影タイミングでの撮影に基づく複数の第1の撮影画像と、当該複数の撮影装置による第2の撮影タイミングでの撮影に基づく複数の第2の撮影画像と、を取得する第3の取得手段と、前記2次元マップ情報複数の前記第1の撮影画像とに基づいて前記背景の3次元形状データを構成する要素の色情報を示す第1の色情報画像を生成し、当該第1の色情報画像の生成に用いた前記2次元マップ情報複数の前記第2の撮影画像とに基づいて前記背景の3次元形状データを構成する要素の色情報を示す第2の色情報画像を生成する生成手段と、前記第1の色情報画像上の画素に対応する複数の前記第1の撮影画像上の注目画素及びその周囲画素に重み付けし、前記第2の色情報画像上の画素に対応する複数の前記第2の撮影画像上の注目画素及びその周囲画素に重み付けする重み付け手段と、を有し、前記生成手段は、複数の前記第1の撮影画像上の注目画素及びその周囲画素それぞれの画素値と当該注目画素及びその周囲画素それぞれの画素に対し前記重み付け手段により付されたそれぞれの重みとの積によって得られた画素値を合成して、前記第1の色情報画像を生成し、複数の前記第2の撮影画像上の注目画素及びその周囲画素それぞれの画素値と当該注目画素及びその周囲画素それぞれの画素に対し前記重み付け手段により付されたそれぞれの重みとの積によって得られた画素値を合成して、前記第2の色情報画像を生成する、ことを特徴とする
本発明によれば、より少ない計算リソースで3次元形状データにテクスチャを対応付ける技術を提供することができる。
画像生成装置の構成を示す図である。 カメラを用いた撮影の様子とカメラにより撮影された画像を示す図である。 画像生成装置における仮想視点画像の生成処理の手順を示すフローチャートである。 テクスチャ画像上の画素とカメラ画像上の画素との対応付けに関する処理の手順を示すフローチャートである。 各種画像データを模式的に示した図である。 テクスチャ画像を示す図である。 レンダリング部により生成される仮想視点画像を示す図である。 複数台のカメラを用いて撮影する様子を示した図である。 テクスチャ画像上の画素とカメラ画像上の画素との対応付けに関する処理の手順を示すフローチャートである。 複数台のカメラの各々によって撮影された画像を示す図である。 画像の中心座標から画素までの距離を示す図である。 テクスチャ画像生成部により生成されたテクスチャ画像を模式的に示した図である。 画素の解像度を求める様子を示した図である。 画像生成装置の機能構成を示す図である。 画像生成装置における仮想視点画像の生成処理の手順を示すフローチャートである。 画像生成装置の機能構成を示す図である。
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。
<実施形態1>
図1は、本実施形態に係る画像生成装置100の構成を示す図である。図1(a)は画像生成装置100のハードウェア構成を示す図であり、図1(b)は画像生成装置100の機能構成を示す図である。以下、図1(a)、図1(b)の順に説明する。
図1(a)において、画像生成装置100は、CPU101、主記憶装置102、補助記憶装置103、外部インタフェース(I/F)104、GPU105を備え、それらは、内部バス106を介して、相互に通信可能に接続されている。
CPU101は、画像生成装置100全体を制御する中央演算処理装置である。主記憶装置102は、CPU101のワークエリアや種々のデータの一時的な記憶領域として機能する記憶装置である。主記憶装置102は、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等の記憶媒体を用いて実装される。
補助記憶装置103は、例えば、各種プログラム、各種設定情報、各種画像データ、カメラパラメータ、3次元形状データ、2次元マップ等の情報を記憶する記憶装置である。補助記憶装置103は、ROM(Read Only Memory)やフラッシュメモリ等の不揮発性メモリ、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、テープメディア等の記憶媒体を用いて実装される。
外部I/F104は、カメラ等の外部機器との通信に用いられる通信インタフェース、キーボード、マウス等のユーザによる各種操作を受け付ける入力インタフェース、外部ストレージとのファイルの入出力を行うための汎用的な入出力インタフェース等である。外部I/F104は、Ethernet、USB(Universal Serial Bus)等の物理的なケーブルの接続端子を有するインタフェース、又は無線LAN、Bluetooth(登録商標)等の無線を用いたインタフェース等で実装される。
GPU(Graphics Processing Unit)105は、画像処理演算を高速に実行するための演算装置である。GPU105は、仮想視点からの画像をレンダリングする処理を実行し、テレビ等の外部画像表示装置に対して、画像信号を出力する。なお、画像信号を出力するI/Fは、DVI、HDMI(登録商標)、Display Port(登録商標)、SDI等で実装される。また、GPU105は、主記憶装置102とは異なる主記憶装置を備えてもよい。加えて、GPU105は、CPU101で実行される各種演算の一部又は全てを実行することもできる。
以上、画像生成装置100のハードウェア構成について説明したが、図1(a)に示されるハードウェア構成とは別のハードウェア構成で実現することもできる。したがって、例えば、補助記憶装置103を、画像生成装置100の外部に構成させ、外部I/F104により接続するようにしてもよい。また、主記憶装置102及び補助記憶装置103を一つのハードウェアで実現することもできる。加えて、GPU105の代わりに、FPGA(Field-Programmable Gate Array)等の別のハードウェアを用いることもできる。その他、CPU101が補助記憶装置103に記憶されたプログラムに従って処理を実行することで、後述の図3、図4、図9、図15のフローチャートに示される画像処理が実現される。
次に、図1(b)を用いて、画像生成装置100の機能構成について説明する。画像生成装置100は、その機能として、カメラで撮影された画像から、3次元形状データのテクスチャ画像を生成し、仮想視点画像を生成する。画像生成装置100は、3次元形状データ取得部111、2次元マップ情報取得部112、カメラパラメータ取得部113、カメラ画像取得部114、画素対応付け部115、テクスチャ画像生成部116、レンダリング部117、操作部118を備える。なお、図1(b)に示す機能構成の一部又は全てを、ASIC、FPGA、GPU等のハードウェアにより実現することもできる。
テクスチャ画像とは、3次元形状データを構成する要素(例えば、メッシュ等)毎のテクスチャを示す画像である。また、テクスチャとは、色情報と輝度情報と彩度情報のうち少なくとも1つの情報を含むものである。
3次元形状データ取得部111は、テクスチャ画像の生成対象とする3次元形状データを取得し、その取得した3次元形状データを後述の画素対応付け部115及びレンダリング部117に送信する。ここで、3次元形状データとして、野球やサッカー等のスポーツのスタジアム、イベントホール、コンサートステージ等を想定することができる。なお、3次元形状データはこれらに限らず、カメラで撮影される被写体の形状データであれば、どのような3次元形状データでもよい。また、本実施形態では、3次元形状データとしてメッシュ化したメッシュモデルを用いるが、これに限らず、CADデータや点群データ等、後述の2次元マップ情報と関連付けられた3次元形状データであれば、どのような形式の3次元形状データでもよい。
2次元マップ情報取得部112は、3次元形状データ取得部111で取得した3次元形状データに対応する2次元マップ情報を取得し、その取得した2次元マップ情報を後述の画素対応付け部115及びレンダリング部117に送信する。ここで、2次元マップ情報は、3次元形状データを2次元画像と対応付けるための情報である。例えば、2次元マップ情報は0~1の範囲に正規化されたUV座標系で示され、また、2次元マップ情報としてメッシュモデルの各メッシュの頂点がUV座標系において1対1で対応付けられたデータが用いられる。
なお、2次元マップ情報は必ずしもこれに限られず、対応する画像データの画素座標と対応付けられたもの等、3次元形状データと2次元画像の画素とが対応付けられるものであれば、どのような形式でもよい。また、3次元形状データと2次元マップ情報は1つのファイルであってもよく、その場合、3次元形状データ取得部111が2次元マップ情報取得部112に2次元マップ情報を渡すようにしてもよい。
カメラパラメータ取得部113は、後述のカメラ画像取得部114により取得される画像を撮影したカメラに関する、予めキャリブレーションされたカメラパラメータを取得し、その取得したカメラパラメータを後述の画素対応付け部115に送信する。ここで、カメラパラメータは、カメラの位置や姿勢等を示す外部パラメータ、画素ピッチや画像中心等を示す内部パラメータ、レンズによる画像の歪みを示す歪みパラメータ、その他の各種設定パラメータ等に関する情報を含む。
カメラ画像取得部114は、同期された少なくとも1台以上のカメラと接続され、カメラで撮影された上述の3次元形状データに対応する被写体を撮影した画像を取得する。また、カメラ画像取得部114は、前景と背景を分離する機能を有し、前景を除去した画像を取得する。例えば、カメラ画像取得部114は、スタジアムであればフィールド上でプレーしている選手やイベントホールやコンサートステージ等であればイベントの出演者等を前景として、その前景を除去した背景画像を生成する。
画素対応付け部115は、2次元マップ情報、3次元形状データ、及びカメラパラメータを用いて、生成するテクスチャ画像上の画素とカメラ画像上(撮影画像上)の画素とを対応付ける。テクスチャ画像生成部116は、画素対応付け部115により対応付けられたカメラ画像上の画素をテクスチャ画像上の画素にコピーし、テクスチャ画像を生成する。テクスチャ画像生成部116は、生成したテクスチャ画像をレンダリング部117に送信する。なお、テクスチャ画像上のある画素について、複数台のカメラにより撮影されたカメラ画像上の画素との対応付けがなされている場合、画素対応付け部115は、適切な画素の選択や合成等を行ってもよい。
レンダリング部117は、3次元形状データ、2次元マップ情報、及びテクスチャ画像を用いて、ユーザの操作により設定された仮想的なカメラからの画像(仮想視点画像)をレンダリングする。
操作部118は、ジョイスティック、マウス、キーボード等の入力装置を介して入力されたユーザの仮想視点の設定に関する操作を受け付ける。また、操作部118は、3次元形状データ取得部111、2次元マップ情報取得部112、カメラパラメータ取得部113の処理に関するファイルの入出力指示等、画像生成装置100に対する各種操作をユーザから受け付ける。
図2は、カメラを用いた撮影の様子(図2(a))とカメラにより撮影された画像(図2(b))を模式的に示した図である。図2(a)において、スタジアム201は、サッカーグラウンド等の競技用のフィールド202を備える。
本実施形態では、フィールド202としてサッカーグラウンド(即ち、サッカーの試合を行うためのグラウンド)を例に説明するが、必ずしもこれに限られず、その他のスポーツを行うためのグラウンドであってもよい。また、フィールド202上に存在する、サッカーゴール、ネット、コーナーフラッグ等の構造物をスタジアム201に含めてもよい。
その他、3次元形状データに関して、競技用のスタジアムではなく、舞台、コンサート、イベント等を行うホール、体育館等の建物、森林、草原、砂漠等の平面等、3次元形状データを用意することができる対象であれば、どのようなものであってもよい。また、本実施形態では、便宜上、滑らかな曲線を有する形状としてスタジアム201が定義されているものとするが、例えば、三角形や四角形等の面に細かく分割され、多角形や多面体として近似されていてもよい。
カメラ203は、スタジアム201の客席に設置されているカメラを示している。カメラ203は、フィールド202のゴール前204付近が撮影された画像の中心となるように撮影するものである。そして、このカメラ203で撮影された画像を模式的に示したものが、図2(b)である。
なお、ここでは、カメラ203に関して、キャリブレーションにより位置や姿勢等のカメラパラメータが既に取得されているものとする。また、カメラ203は、Ethernet等の通信回線により、画像生成装置100に接続されている。その他、補足として、本実施形態では、カメラの台数を1台として説明しているが、カメラの台数は必ずしもこれに限定されず、複数台のカメラを用いてもよい。また、カメラ203に関して、カメラ画像取得部114と同様に、前景と背景を分離する機能を有し、分離した画像を画像生成装置100に送信するものとしてもよい。
次に、図3のフローチャートを用いて、本実施形態に係る画像生成装置100における仮想視点画像の生成処理の手順について説明する。なお、図3において、フローチャートの説明における記号「S」は、ステップを表すものとする。即ち、ここでは、フローチャートの各処理ステップS301~ステップS308をS301~S308と略記する。また、この点、以下のフローチャートの説明においても同様とする。
S301において、3次元形状データ取得部111は、例えば、CADデータ等の所定のファイルからユーザの撮影対象とする3次元形状データを取得し、その取得した3次元形状データを画素対応付け部115及びレンダリング部117に送信する。
S302において、2次元マップ情報取得部112は、所定のファイルからユーザにより3次元形状データに対応付けられた2次元マップ情報を取得し、その取得した2次元マップ情報を画素対応付け部115及びレンダリング部117に送信する。S303において、カメラパラメータ取得部113は、所定のファイルからカメラパラメータを取得し、その取得したカメラパラメータを画素対応付け部115に送信する。
S304において、画素対応付け部115は、取得した3次元形状データ、2次元マップ情報、及びカメラパラメータを用いて、生成するテクスチャ画像上の画素とカメラ画像上の画素との対応付けを実行する(S304)。なお、テクスチャ画像上の画素とカメラ画像上の画素との対応付けに関する情報は、テクスチャ画像生成部116に送信される。
ここで、図4のフローチャートを用いて、S304の処理(即ち、テクスチャ画像上の画素とカメラ画像上の画素との対応付けに関する処理)の詳細について説明を補足する。S401において、画素対応付け部115は、ベースとなる無地のテクスチャ画像を用意する。このベースとなる無地のテクスチャ画像に関して、任意のサイズや色を用いることができるが、ユーザによって、予め任意の色が指定されても、またファイルにより入力されてもよい。
S402において、画素対応付け部115は、S401で用意されたベースとなる無地のテクスチャ画像上の画素の中から未処理の画素を選択する(S402)。ここで、未処理の画素とは、後述のS403~S407の処理が未だ実行されていない画素のことである。図5(a)は、ベースとなるテクスチャ画像を示す模式図である。図5(a)において、画素対応付け部115は、ベースとなるテクスチャ画像501上の画素から、未処理の画素である座標502aの画素を選択する。
S403において、画素対応付け部115は、S402で選択された画素を2次元マップ情報取得部112から取得した2次元マップ情報上に投影する。図5(b)は、3次元形状データであるスタジアム201及びフィールド202に関連付けられた2次元マップ情報を模式的に示した模式図である。画素対応付け部115は、S402で選択された画素502aを2次元マップ503情報上に投影し、2次元マップ情報上の座標502bを取得する。
図5(b)において、メッシュ504はスタジアム201の外壁部、メッシュ505はフィールド202、メッシュ506はスタジアム201の客席部を示すメッシュである。なお、図5(b)では、説明の便宜上、各々のメッシュを1つのメッシュとして定義しているが、必ずしもこれに限られない。したがって、例えば、メッシュが多角形や多面体として定義されている場合、各々のメッシュは、三角形や四角形に分割されて定義される。
S404において、画素対応付け部115は、2次元マップ503情報上に投影された画素502a(即ち、2次元マップ503情報上の座標502b)がいずれかのメッシュに含まれるか否かを判定する。図5(b)において、座標502bはメッシュ505の内部の座標であることから、画素対応付け部115は、座標502bがメッシュ505に含まれると判定する。
画素対応付け部115は、2次元マップ503情報上に投影された画素502aがいずれのメッシュにも含まれていないと判定すると(S404 No)、処理をS402に返す。また、2次元マップ503情報上に投影された画素502aがいずれのメッシュにも含まれると判定すると(S404 Yes)、処理をS405に移行させる。
なお、本実施形態では、画素502aを2次元マップ情報上に投影する例を示したが、必ずしもこれに限られない。しがって、例えば、逆に、2次元マップ情報上のメッシュ504、505、506をベースとなるテクスチャ画像501上に投影し、座標502aが2次元マップ情報上のどのメッシュに含まれるかを判定してもよい。
S405において、画素対応付け部115は、3次元形状データから、2次元マップ503情報上に投影された画素502aが含まれるメッシュに関連付けられた座標502bに対応する3次元座標情報を計算する。
この3次元座標情報の計算について、図5(c)を用いて、説明を補足する。図5(c)は、スタジアム201及びフィールド202の3次元形状データの様子を示す模式図である。メッシュ505は3次元形状モデルのフィールド202に対応し、画素対応付け部115は、メッシュ505上の座標502bが図5(c)に示される3次元座標502cの位置であることを算出(導出)する。
S406において、画素対応付け部115は、カメラパラメータ取得部113から取得したカメラパラメータを用いて、算出した3次元座標をカメラ画像上の画素に変換する。ここで、図5(d)はカメラ203で撮影される画像を模式的に示した図であり、カメラ203のカメラパラメータを用いて、カメラ203のカメラ画像上に算出した3次元座標を投影すると、3次元座標502cは、画素502dとして変換される。
S407において、画素対応付け部115は、S402で選択されたテクスチャ画像上の画素とS406で変換されたカメラ画像上の画素とを対応付ける。具体的には、ベースとなるテクスチャ画像上の画素502aとS402からS406までの処理によって求められた画素502dを対応付ける。
S408において、画素対応付け部115は、ベースとなるテクスチャ画像501上の画素の全てに関して処理が終了していると判定すると(S408 Yes)、図4に示す処理を終了する。また、ベースとなるテクスチャ画像501上の画素の全てに関して処理が終了していないと判定すると(S408 No)、処理をS402に返す。このように、図4のフローチャートに示される処理を実行することで、テクスチャ画像上の画素とカメラ画像上の画素を対応付けることができる。
図3に戻り、S305において、カメラ画像取得部114は、カメラにより撮影された画像(カメラ画像)を取得し、その取得したカメラ画像をテクスチャ画像生成部116に送信する。S306において、テクスチャ画像生成部116は、テクスチャ画像上の画素とカメラ画像上の画素との対応付けに関する情報に基づいて、カメラ画像からテクスチャ画像を生成し、その生成したテクスチャ画像をレンダリング部117に送信する。
図6は、図3及び図4のフローチャートに示される処理を実行することにより生成されるテクスチャ画像を示す図である。より詳細には、図6は、図2(b)に示されるカメラ画像から、図3及び図4のフローチャートに示される処理を実行することで、テクスチャ画像上の画素に対応付けられたカメラ画像上の画素を用いることにより生成されるテクスチャ画像601を示している。
図6において、図2(b)に示されるカメラ画像上の各々の画素がテクスチャ画像に対応付けられ、フィールド202が符号602として、客席の一部が符号603及び符号604としてテクスチャ画像として生成されている。なお、テクスチャ画像601上の符号602、符号603、符号604以外の画素については、カメラ画像上の画素と対応していないため、何も処理されない。
S307において、レンダリング部117は、3次元形状データ、2次元マップ情報、テクスチャ画像、及びカメラパラメータを用いて、ユーザの操作により設定された仮想的なカメラからの画像(仮想視点画像)をレンダリングする。レンダリング部117は、そのレンダリングした画像を画像信号として外部画像表示装置に送信する。
図7は、レンダリング部117により生成される仮想視点画像を示す図である。
図7(a)は、2次元マップ情報、3次元形状データ、テクスチャ画像601を用いて生成されたスタジアムの3次元形状データ701と、仮想視点画像を撮影している仮想カメラ702の様子を模式的に示した図である。また、図7(b)は、図7(a)に示される状態で、仮想カメラ702からの画像をレンダリングした結果である。図7(b)を参照すると、カメラ203で撮影された画像が張り付けられた3次元形状データ701を、仮想カメラ702の視点からの画像がレンダリングされ、仮想視点画像が生成されている様子がわかる。S308において、画像生成装置100は、ユーザによる仮想視点画像の閲覧終了に関する指示があると(S308 Yes)、図3に示される処理を終了する。また、ユーザによる仮想視点画像の閲覧終了に関する指示がないと(S308 No)、処理をS305に返す。
以上、説明したように、本実施形態に係る画像生成装置によれば、カメラによって撮影された画像を用いて3次元形状データに対応するテクスチャ画像を生成することで、より少ない計算リソースで3次元形状データにテクスチャを対応付けることができる。
なお、本実施形態において、カメラ画像は、動画像(映像)であってもよい。その場合、図4のフローチャートに示される処理が既定の間隔で実行され、これにより、例えば、天候の変化、雲による影、その他、フィールド上の芝の変化等が反映されるようになり、静止画像よりも臨場感のある動画像を生成することができる。補足として、この場合、テクスチャ画像の更新は、最大で、動画のフレームレートによって映像が更新される毎に実行される。
また、本実施形態では、カメラの台数を、フィールドを映すカメラの1台として説明したが、必ずしもこれに限定されない。したがって、例えば、客席を映すカメラが追加され、本実施形態と同様に、観客席のテクスチャ画像を動画として生成すると、選手の応援の様子等が追加することができ、さらに臨場感の映像を生成することができる。このように、カメラの台数を増やすことで、テクスチャ画像601上に生成されるテクスチャ画像の領域を増やすことができ、2次元マップ情報で3次元形状データと対応付けられた範囲の全てにカメラ画素との対応を作成することもできる。
その他、本実施形態では、S301~S304の処理に関して、一度、処理が実行されると、カメラ画像が更新されても処理が実行されないことになっているが、必ずしもこれに限定されない。したがって、ユーザによって、3次元形状データ、2次元マップ情報、カメラパラメータ等のデータの変更が加えられる場合には、予め設定された任意のタイミングで、再度、上述の図3のフローチャートに示されるS301~S304の処理を実行してもよい。
また、S301~S303の処理に関してS304の処理が実行されるまでに実行されていればよく、また、S305の処理をS301~S303の処理と並行して実行してもよい。
<実施形態2>
上述のように、実施形態1では、カメラの台数を1台として説明したが、本実施形態では、カメラの台数を複数台として説明する。図8は、複数台のカメラとして、4台のカメラを用いた撮影の様子を模式的に示した図である。なお、図8に示されるように、カメラ801、802、803、804の4台のカメラには、通信回線805を介して、画像生成装置100が接続される。
カメラ801、802、803、804は、事前にキャリブレーションが実施され、撮影タイミングが同期されている。また、カメラ801、802、803、804は、通信回線805を用いて、撮影した画像を画像生成装置100に送信する。通信回線805は、例えば、Ethernet等で構成され、画像生成装置100とカメラ801、802、803、804との双方向の通信が可能な回線である。
画像生成装置100は、上述の図3のフローチャートに従ってテクスチャ画像を生成するが、ここでは、図3(実施形態1)と異なる点(具体的には、S304の画素対応付け処理及びS306のテクスチャ画像の生成処理)に着目して説明する。
図9は、S304の処理(即ち、テクスチャ画像上の画素とカメラ画像上の画素との対応付けに関する処理)の手順を示すフローチャートである。S401からS405までの処理を実行して、メッシュに関連付けられた座標に対応する3次元座標を計算すると、S901において、画素対応付け部115は、未だ画素値との対応付けを行っていないカメラを選択する。例えば、画素対応付け部115は、カメラ801を選択する。
S406及びS407でカメラ801のカメラ画像上の座標への変換が行われ、テクスチャ画像上の画素とカメラ画像上の画素を対応付けると、S902において、画素対応付け部115は、テクスチャ画像の画素に対するカメラ画像の画素の重みを計算する。ここで、カメラ画像の画素の重みとは、テクスチャ画像を生成する際に使用されるカメラ画像の画素を複数合成する際に各々の画素の影響度を示す相対的な割合のことである。
以下、図10、図11及び図12を用いて、画素対応付け部115で実行される重みの計算について説明する。図10は、各々のカメラによって撮影された画像を示す図である。図10(a)はカメラ801によって撮影された画像を示しており、同様に、図10(b)はカメラ802、図10(c)はカメラ803、図10(d)はカメラ804によって撮影された画像を示す。
テクスチャ画像上の画素について、各カメラによって撮影された画像上の画素に対応付けを行った結果が、図10において示される画素1001、画素1002、画素1003、画素1004である。この場合において、画素1001の重みの求め方に関して、図11を用いて説明する。
図11において、画素1001は、カメラ801で撮影された画像の中心1101に対して、x軸方向にx1、y軸方向にy1ずれた位置にあることがわかる。即ち、カメラ801で撮影された画像の中心座標から画素1001までの距離は、下式(1)で示される。
Figure 0007366563000001
同様に、カメラ802で撮影された画像の中心座標から画素1002までの距離、カメラ803で撮影された画像の中心座標から画素1003までの距離、カメラ804で撮影された画像の中心座標から画素1004までの距離を各々、算出する。ここで、重み付けに関して、画像の中心部に近付くにつれて重みが大きくなるようにするには、例えば、上式(1)の値の逆数を算出して、下式(2)の値を用いるようにする。
Figure 0007366563000002
このようにして、画素1002、画素1003、画素1004の各々についても同様に、カメラで撮影された画像の中心座標から画素までの距離の逆数を下式(3)、式(4)、式(5)として求める。
Figure 0007366563000003
Figure 0007366563000004
Figure 0007366563000005
続いて、S306のテクスチャ画像を生成する処理について説明する。図12は、テクスチャ画像生成部116により生成されたテクスチャ画像を模式的に示した図である。図12において、画素1201は、上述の画素1001から画素1004までの画素が対応付けられたテクスチャ画像の画素を示している。この画素1201を生成するために、上述の式(2)~式(5)を用いる。先ず、全ての重みを加算し、下式(6)とする。
Figure 0007366563000006
次に、各画素値に対して「画素値×重み/式(6)」を計算し、求めた各画素の値をすべて加算する。このように、カメラ801~804毎に撮影された画像の画素1001~1004の各々に対して対応する式(式(2)~(5))を適用し、さらに式(6)を計算し、「画素値×重み/式(6)」を求めることで、テクスチャ画像の画素1201を生成する。なお、上述の重み付けはあくまで一例であり、必ずしもこれに限定されない。したがって、例えば、下式(7)に示されるように、平方根を取らなくてもよい。
Figure 0007366563000007
また、例えば、中心部を1、周辺部を0又は0に近い値に正規化したマップ等を用いてもよい。即ち、中心座標からの距離を用いて、中心から周辺部に向かうにつれて重みが変化するような方法であればよく、周辺部は中心に対して重みが小さくなればよい。
さらに、本実施形態では、重み付けとして、カメラで撮影された画像の中心からの距離に従って重み付けを計算したが、必ずしもこれに限定されない。例えば、テクスチャ画像に対応するカメラ画像上の画素について解像度を求め、その解像度に基づいて重み付けを設定してもよい。また、その解像度の逆数に基づいて重み付けを設定してもよく、この場合、解像度の高い画素の重みをより大きくすることができる。
なお、カメラ上の画素の解像度は、計算によって求めてもよく、また、別途、センサや計測機器を用いて、解像度を測定してもよい。以下、この点について、図面を用いて説明を補足する。図13は、画素1001の解像度を求める様子を示した図である。図13において、先ず、カメラの光学中心1301から画素1001を構成する頂点のうち、1つの頂点を通る直線1302を求め、この直線1302が被写体であるフィールド202と交わる交点1303を求める。さらに、画素1001を構成する頂点のうち、残りの3頂点についても同様にフィールド202と交わる交点1303を算出することで、画素1001の3次元上の対応する面1304を求める。
次に、その面1304の面積の逆数を、各画素の重みとして記憶する。このように、カメラ画像上の画素を実際の3次元に置き換えて、さらに、面積の逆数を重みとして設定することで、解像度の高い画素の重みをより大きくすることができる。
図9の説明に戻り、S903において、画素対応付け部115は、選択したテクスチャ画像上の画素について、対象となるカメラ全ての画素の対応付けと重み付けが終了したら、処理をS409に移行させ、終了していなければ、処理をS901に返す。なお、補足として、上述の解像度の例では、画素1001と同様に、カメラ802の画素1002、カメラ803の画素1003、カメラ804の画素1004について、3次元上の対応する面の面積の逆数を求めた後に、処理をS409に移行させる。
なお、重み付けの方法として、テクスチャ画像上の画素に対応する面の有する法線ベクトルと、カメラの向きを示すベクトルについて、共に正規化したベクトルの内積を求め、内積の小さな画素について重みを大きくしてもよい。また、内積が正の値になる場合は、面の裏面と判定し、テクスチャ画像上の画素に対応付けたカメラ画像上の画素を用いなくてもよい。さらに、算出した内積に「-1」を掛けた値を重みとする方法等も考えられる。
その他、カメラの画素について、被写体との距離を用いた重み付けであってもよく、被写体との距離の逆数によって重み付けされてもよい。なお、被写体との距離は、演算によって求めてもよく、また、センサ等の計測機器を用いて計測してもよい。
加えて、カメラ801、802、803、804毎に、予めユーザによって、固定の重みが設定されてもよい。或いは、カメラの種類に応じて、重みが設定されてもよい。例えば、カメラのセンサ画素数、ダイナミックレンジ、取り付けられているレンズの種類等の性能の高いカメラの重みを大きくするようにしてもよい。
また、重み付け方法及びその方法におけるパラメータの設定変更等により、複数の方法によってテクスチャ画像を生成し、仮想視点画像の生成時において、これらの複数の方法によって生成されたテクスチャ画像を切り替えてレンダリングしてもよい。
また、重み付けの順位を上述のような方法で決定し、重みパラメータそのものは別途、与えられてもよい。例えば、優先順位の最も高いものを1としたときに、以降のカメラを1/2、1/3、1/4、・・・1/nのように付与してもよいし、ユーザが任意に比率を決定してもよい。
さらに、本実施形態では、カメラ801~カメラ804の4台全てのカメラを用いていたが、必ずしもこれに限られない。即ち、テクスチャ画像の画素1201を生成する際に、画素1001~画素1004の画素の各々に重みを付けて合成しているが、必ずしもこれに限られない。例えば、テクスチャ画像を生成する際に使用を予定する画素1001~画素1004に関して、付された重みの大きさの順位を比較し、その重みの大きさに応じて優先度を判定し、さらに、上位のN台分の画素のみを用いるようにしてもよい。なお、この場合、Nは少なくとも1以上の値である。例えば、Nを3とした場合、画素1004の重みが最も小さいとすると、画素1004を除く画素1001~画素1003の画素を用いて式(6)を算出し、画素1001~画素1003の画素を合成してもよい。
また、本実施形態では、テクスチャ画像上の画素とカメラ画像上の画素を1対1で対応させているが、必ずしもこれに限られず、求めた座標の周囲の画素を含めた画素を対応させて、その間にさらに重み付けを行ってもよい。この場合、例えば、対応する画素を1として、その周囲の画素を1/Nとして重み付けしてもよい。また、例えば、求めた座標の小数点以下の値を用いて、周囲の画素の重みを計算して重み付けしたり、求めた画素のX座標の小数点が大きくなるにつれて、X座標の正の方向に隣接する画素の重みを重くして重み付けしたりしてもよい。
補足として、本実施形態では、例えば、コーナーフラッグ等をスタジアム201に含めることを踏まえ、撮影タイミングを同期させた複数台のカメラを用いてテクスチャ画像を生成する例について説明したが、必ずしもこれに限られない。したがって、例えば、背景をスタジアムのみとして(即ち、背景が動的に変化しないものとして)、1台のカメラを用いて複数の位置や姿勢で撮影し、その撮影された複数の画像に重み付けしてテクスチャ画像を生成してもよい。
<実施形態3>
次に、実施形態3について説明する。図14は、本実施形態に係る画像生成装置1400の機能構成を示す図である。画像生成装置1400は、図14に示されるように、画像生成装置100の機能に加えて、さらに障害情報取得部1401を備える。障害情報取得部1401は、画像生成装置100に接続されているカメラと通信したり、ユーザからの入力によってカメラの障害情報を取得したりするものである。なお、本実施形態では、図8に示された画像生成装置100に代えて、画像生成装置1400を用いるものとし、その他の構成については同様であるものとする。
次に、図15のフローチャートを用いて、本実施形態に係る画像生成装置1400における仮想視点画像の生成処理の手順について説明する。なお、図15において、S301からS308までの各処理は、図3に示される処理と同様である。S1501において、障害情報取得部1401は、カメラから送信される障害情報やユーザにより入力される障害情報等によって、障害情報に変化が発生したか否かを判定する。即ち、障害情報取得部1401は、障害判定手段の一例としても機能する。
障害情報取得部1401は、例えば、カメラ801において障害が発生しているという情報を取得すると、画素対応付け部115にカメラ801に障害が起きているという情報を通知する。画素対応付け部115は、障害が発生していると通知されたカメラを除いて、画素の対応付けをやり直す。即ち、ここでは、カメラ801に障害が発生しているので、カメラ802~カメラ804を用いて画素の対応付けを行う。
なお、図15のフローチャートにおいて、初回の実行時には、障害情報に変化がないものとしてもよい。また、障害情報取得部1401は、カメラの障害情報を画素対応付け部115に送信することとしているが、必ずしもこれに限られない。例えば、テクスチャ画像生成部116にカメラの障害情報を通知し、テクスチャ画像生成部116は、障害が発生していると判定されたカメラで撮影されたカメラ画像を除外したカメラ画像を用いた重み付けの計算とテクスチャ画像を生成するようにしてもよい。
<実施形態4>
次に、実施形態4について説明する。図16は、本実施形態に係る画像生成装置1600の機能構成を示す図である。画像生成装置1600は、図16に示されるように、画像生成装置1400の機能に加えて、さらに画像読み込み部1601を備える。
画像読み込み部1601は、所定のファイルからテクスチャ画像等の画像データを読み込む。ここでは、例えば、フィールド上に敷き詰められた芝生を撮影した画像、その画像とは別の芝生画像、それらの芝生等の画像をタイル状に敷き詰めた画像の画像データ等が読み込まれる。又は、例えば、2次元マップ情報取得部112で読み込まれる2次元マップ情報ファイルに対して、予めユーザにより画像編集アプリケーションや画像作成アプリケーション等を使用して作成された画像を画像データとして読み込むようにしてもよい。若しくは、以前に3次元形状データと2次元マップ情報を用いて生成されたテクスチャ画像が存在する場合、それらを画像データとして読み込むようにしてもよい。
なお、画像読み込み部1601により読み込まれた画像データは、S306においてテクスチャ画像を生成する際に用いられる。より具体的には、テクスチャ画像生成部116は、画像読み込み部1601により読み込まれ、主記憶装置102に記憶された画像データに、生成された画素を上書きすることでテクスチャ画像を生成する。例えば、テクスチャ画像601の場合、符号602、符号603、符号604で示された領域を除いた部分は、画像読み込み部1601により読み込まれた画像データの画像と同一の画像となる。即ち、芝生の画像が読み込まれている場合において、フィールド202のカメラ203で撮影されていない領域には、符号602で示される領域を除いた領域について読み込まれたテクスチャ画像が用いられることになる。
本実施形態において、画像読み込み部1601により読み込まれた画像の画素のうち、カメラ画像と対応付けられる画素については、テクスチャ画像生成部116によりカメラ画像上の画素により上書きすることとしているが、必ずしもこれに限られない。したがって、例えば、画像読み込み部1601により読み込まれた画像の画素に関して、予めユーザによって重み付けがなされている場合、その重みを用いて、テクスチャ画像生成部116によりカメラ画像上の画素とともに合成してもよい。
また、画像読み込み部1601により読み込まれた画像データは、テクスチャ画像生成部116により生成されたテクスチャ画像に随時、或いは一定の間隔毎に置き換えられてもよい。この場合において、一部のカメラに障害が発生したとき、その障害が発生したカメラのみが撮影している領域については画像の更新は止まるが、テクスチャ画像の生成がなされなくなるという問題を回避することができる。また、上述のように、画像読み込み部1601により読み込まれた画像データの画像の画素に重み付けがなされた状態で合成される場合、障害が発生したカメラの影響を徐々に減らしながら、画像を更新することもできる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
111 3次元形状データ取得部
112 2次元マップ情報取得部
113 カメラパラメータ取得部
114 カメラ画像取得部
115 画素対応付け部
116 テクスチャ画像生成部
117 レンダリング部

Claims (10)

  1. 景とは異なる背景の3次元形状データを取得する第1の取得手段と、
    前記背景の3次元形状データを構成する要素が割り当てられた2次元マップ情報を取得する第2の取得手段と、
    複数の撮影装置による第1の撮影タイミングでの撮影に基づく複数の第1の撮影画像と、当該複数の撮影装置による第2の撮影タイミングでの撮影に基づく複数の第2の撮影画像と、を取得する第3の取得手段と、
    前記2次元マップ情報複数の前記第1の撮影画像とに基づいて前記背景の3次元形状データを構成する要素の色情報を示す第1の色情報画像を生成し、当該第1の色情報画像の生成に用いた前記2次元マップ情報複数の前記第2の撮影画像とに基づいて前記背景の3次元形状データを構成する要素の色情報を示す第2の色情報画像を生成する生成手段と、
    前記第1の色情報画像上の画素に対応する複数の前記第1の撮影画像上の注目画素及びその周囲画素に重み付けし、前記第2の色情報画像上の画素に対応する複数の前記第2の撮影画像上の注目画素及びその周囲画素に重み付けする重み付け手段と、
    を有し、
    前記生成手段は、
    複数の前記第1の撮影画像上の注目画素及びその周囲画素それぞれの画素値と当該注目画素及びその周囲画素それぞれの画素に対し前記重み付け手段により付されたそれぞれの重みとの積によって得られた画素値を合成して、前記第1の色情報画像を生成し、
    複数の前記第2の撮影画像上の注目画素及びその周囲画素それぞれの画素値と当該注目画素及びその周囲画素それぞれの画素に対し前記重み付け手段により付されたそれぞれの重みとの積によって得られた画素値を合成して、前記第2の色情報画像を生成する、
    ことを特徴とする画像処理装置。
  2. 前記撮影装置のパラメータを取得する第3の取得手段をさらに有し、
    前記生成手段は、前記2次元マップ情報複数の前記第1の撮影画像と複数の前記撮影装置のパラメータとに基づいて前記第1の色情報画像を生成し、当該第1の色情報画像の生成に用いた前記2次元マップ情報複数の前記第2の撮影画像と複数の前記撮影装置のパラメータとに基づいて前記第2の色情報画像を生成する、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記重み付け手段により付される重みは、前記第1及び第2の撮影画像における画素の解像度に応じて設定されることを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記重み付け手段により付される重みは、前記第1及び第2の撮影画像における中心からの距離に応じて設定されることを特徴とする請求項1または2に記載の画像処理装置。
  5. 前記重み付け手段により付される重みは、前記撮影装置の種類に応じて設定されることを特徴とする請求項1または2に記載の画像処理装置。
  6. 前記重み付け手段により付される重みは、前記3次元形状データの面の法線ベクトルと、複数の前記撮影装置それぞれの向きを示すベクトルとに応じて設定されることを特徴とする請求項1または2に記載の画像処理装置。
  7. 前記重み付け手段により付される重みは、複数の前記撮影装置それぞれと被写体との距離に応じて設定されることを特徴とする請求項1または2に記載の画像処理装置。
  8. 複数の前記撮影装置のいずれかに障害が発生しているか否かを判定する判定手段をさらに備え、
    前記生成手段は、
    障害が発生していると判定された撮影装置による第1の撮影画像の画素を用いず、他の撮影装置の第1の撮影画像を用いて前記第1の色情報画像を生成し、
    障害が発生していると判定された撮影装置による第2の撮影画像の画素を用いず、他の撮影装置の第2の撮影画像を用いて前記第2の色情報画像を生成する、
    ことを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
  9. 前景とは異なる背景の3次元形状データを取得する第1の取得ステップと、
    前記背景の3次元形状データを構成する要素が割り当てられた2次元マップ情報を取得する第2の取得ステップと、
    複数の撮影装置による第1の撮影タイミングでの撮影に基づく複数の第1の撮影画像と、当該複数の撮影装置による第2の撮影タイミングでの撮影に基づく複数の第2の撮影画像と、を取得する第3の取得ステップと、
    前記2次元マップ情報と複数の前記第1の撮影画像とに基づいて前記背景の3次元形状データを構成する要素の色情報を示す第1の色情報画像を生成する第1の生成ステップと、
    前記第1の色情報画像の生成に用いた前記2次元マップ情報と複数の前記第2の撮影画像とに基づいて前記背景の3次元形状データを構成する要素の色情報を示す第2の色情報画像を生成する第2の生成ステップと、
    前記第1の色情報画像上の画素に対応する複数の前記第1の撮影画像上の注目画素及びその周囲画素に重み付けし、前記第2の色情報画像上の画素に対応する複数の前記第2の撮影画像上の注目画素及びその周囲画素に重み付けする重み付けステップと、
    を含み、
    前記第1の生成ステップでは、複数の前記第1の撮影画像上の注目画素及びその周囲画素それぞれの画素値と当該注目画素及びその周囲画素それぞれの画素に対し前記重み付け手段により付されたそれぞれの重みとの積によって得られた画素値を合成して、前記第1の色情報画像を生成し、
    前記第2の生成ステップでは、複数の前記第2の撮影画像上の注目画素及びその周囲画素それぞれの画素値と当該注目画素及びその周囲画素それぞれの画素に対し前記重み付け手段により付されたそれぞれの重みとの積によって得られた画素値を合成して、前記第2の色情報画像を生成する、
    ことを特徴とする画像処理方法。
  10. コンピュータを、請求項1乃至8のいずれか一項に記載の画像処理装置として機能させるためのプログラム。
JP2019058994A 2019-03-26 2019-03-26 画像生成装置、画像生成方法、及びプログラム Active JP7366563B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019058994A JP7366563B2 (ja) 2019-03-26 2019-03-26 画像生成装置、画像生成方法、及びプログラム
US16/815,434 US11189081B2 (en) 2019-03-26 2020-03-11 Image generation apparatus, image generation method and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019058994A JP7366563B2 (ja) 2019-03-26 2019-03-26 画像生成装置、画像生成方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2020160756A JP2020160756A (ja) 2020-10-01
JP2020160756A5 JP2020160756A5 (ja) 2023-03-17
JP7366563B2 true JP7366563B2 (ja) 2023-10-23

Family

ID=72607583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019058994A Active JP7366563B2 (ja) 2019-03-26 2019-03-26 画像生成装置、画像生成方法、及びプログラム

Country Status (2)

Country Link
US (1) US11189081B2 (ja)
JP (1) JP7366563B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7245013B2 (ja) 2018-09-06 2023-03-23 キヤノン株式会社 制御装置及び制御方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018503151A (ja) 2014-04-30 2018-02-01 インテル・コーポレーション イベント空間で生じるイベントの3次元再構成における3次元再構成システムによる周囲の処理を制限するためのシステムおよび方法
WO2018043225A1 (ja) 2016-09-01 2018-03-08 パナソニックIpマネジメント株式会社 多視点撮像システム、三次元空間再構成システム、及び三次元空間認識システム
JP2019045991A (ja) 2017-08-30 2019-03-22 キヤノン株式会社 生成装置、生成方法、及びプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1862969A1 (en) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene
WO2016031254A1 (ja) * 2014-08-28 2016-03-03 ソニー株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP6733267B2 (ja) 2016-03-31 2020-07-29 富士通株式会社 情報処理プログラム、情報処理方法および情報処理装置
CN107527380B (zh) * 2016-06-20 2022-11-18 中兴通讯股份有限公司 图像处理方法和装置
JPWO2018021067A1 (ja) * 2016-07-29 2019-05-09 ソニー株式会社 画像処理装置および画像処理方法
US10559095B2 (en) * 2016-08-31 2020-02-11 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and medium
JP7320352B2 (ja) * 2016-12-28 2023-08-03 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元モデル送信方法、三次元モデル受信方法、三次元モデル送信装置及び三次元モデル受信装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018503151A (ja) 2014-04-30 2018-02-01 インテル・コーポレーション イベント空間で生じるイベントの3次元再構成における3次元再構成システムによる周囲の処理を制限するためのシステムおよび方法
WO2018043225A1 (ja) 2016-09-01 2018-03-08 パナソニックIpマネジメント株式会社 多視点撮像システム、三次元空間再構成システム、及び三次元空間認識システム
JP2019045991A (ja) 2017-08-30 2019-03-22 キヤノン株式会社 生成装置、生成方法、及びプログラム

Also Published As

Publication number Publication date
US11189081B2 (en) 2021-11-30
JP2020160756A (ja) 2020-10-01
US20200312014A1 (en) 2020-10-01

Similar Documents

Publication Publication Date Title
JP6425780B1 (ja) 画像処理システム、画像処理装置、画像処理方法及びプログラム
JP6687204B2 (ja) 投影イメージ生成方法およびその装置、イメージピクセルと深度値との間のマッピング方法
JP7007348B2 (ja) 画像処理装置
US20140218354A1 (en) View image providing device and method using omnidirectional image and 3-dimensional data
JP3450833B2 (ja) 画像処理装置及びその方法並びにプログラムコード、記憶媒体
US20020113865A1 (en) Image processing method and apparatus
JP6672315B2 (ja) 画像生成装置、及び画像表示制御装置
JP7353782B2 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2023207452A1 (zh) 基于虚拟现实的视频生成方法、装置、设备及介质
JP7196421B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
TW201921318A (zh) 用於產生場景之舖磚式三維影像表示之設備及方法
JP2019003428A (ja) 画像処理装置、画像処理方法及びプログラム
WO2020184174A1 (ja) 画像処理装置および画像処理方法
WO2018052100A1 (ja) 画像処理装置、画像処理方法、画像処理プログラム
CN113132708B (zh) 利用鱼眼相机获取三维场景图像的方法和装置、设备和介质
JP7366563B2 (ja) 画像生成装置、画像生成方法、及びプログラム
US20190355090A1 (en) Image generation apparatus and image display control apparatus
JP6637855B2 (ja) データ処理装置、データ処理方法およびコンピュータプログラム
US11847735B2 (en) Information processing apparatus, information processing method, and recording medium
JP2020166652A (ja) 画像処理装置、画像処理方法及びプログラム
KR101847996B1 (ko) 곡면 투사영역에 대한 이미지 투사 방법 및 이를 위한 투사 시스템
JP2014164497A (ja) 画像処理装置、画像処理方法及びプログラム
JP7278720B2 (ja) 生成装置、生成方法及びプログラム
JP2017215706A (ja) 映像合成方法、映像取得装置、映像合成装置、映像合成システム及びコンピュータプログラム。
JP7447403B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231011

R151 Written notification of patent or utility model registration

Ref document number: 7366563

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151