JP7451291B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP7451291B2
JP7451291B2 JP2020085191A JP2020085191A JP7451291B2 JP 7451291 B2 JP7451291 B2 JP 7451291B2 JP 2020085191 A JP2020085191 A JP 2020085191A JP 2020085191 A JP2020085191 A JP 2020085191A JP 7451291 B2 JP7451291 B2 JP 7451291B2
Authority
JP
Japan
Prior art keywords
virtual viewpoint
image
shadow
background image
shadow mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020085191A
Other languages
English (en)
Other versions
JP2021179835A (ja
JP2021179835A5 (ja
Inventor
圭吾 米田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020085191A priority Critical patent/JP7451291B2/ja
Priority to US17/314,344 priority patent/US11670043B2/en
Publication of JP2021179835A publication Critical patent/JP2021179835A/ja
Publication of JP2021179835A5 publication Critical patent/JP2021179835A5/ja
Application granted granted Critical
Publication of JP7451291B2 publication Critical patent/JP7451291B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/12Shadow map, environment map

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Description

本発明は、仮想視点画像を生成する画像処理技術に関するものである。
複数台の撮像装置で撮像して得られた画像を用いて、3次元空間内に仮想的に配置した仮想的な視点(仮想視点)からの映像を再現する技術として、仮想視点画像生成技術がある。
仮想視点画像は、例えば以下のような方法で生成される。まず、複数の撮像装置によりそれぞれ異なる方向からオブジェクトを撮像することで複数の画像(複数視点画像)が取得される。次に、複数視点画像から、前景画像と背景画像が取得される。前景画像とは、人物やボールなどの移動する所定のオブジェクト(動体)に対応する前景オブジェクト領域とその影領域を抽出した画像である。背景画像とは、競技場などの移動しない前景オブジェクト領域および影領域以外(不動体)の背景領域を抽出した画像である。また、前景の三次元形状を表す前景モデルと前景モデルに色付けするためのテクスチャデータとが前景画像に基づいて生成される。同様に、背景の三次元形状を表す背景モデルと背景の三次元形状を表す背景モデルに色づけするためのテクスチャデータが背景画像に基づいて生成される。そして、前景モデルと背景モデルに対してテクスチャデータをマッピングし、視点情報を示す仮想視点に応じてレンダリングを行うことにより、仮想視点画像が生成される。
仮想視点画像の生成には、前景オブジェクトが光源からの光に照らされて生じた影の描画も含まれるが、この影の描画に関して、特許文献1では、以下の方法が開示されている。仮想視点に基づき、背景画像から生成した背景変換画像と前景画像から生成した前景変換画像、及び撮像画像と背景画像の差分画像(影画像)から生成した影変換画像を合成することで影の描画を行う。これにより、撮像装置の個体差や、視点による見え方の違いによって、複数視点画像が異なる明るさや色の画像を含んでいても、不自然な色の変化を抑えつつ、影を含む背景領域の仮想視点画像データを生成することができる。
特開2019-61558号公報
しかしながら、特許文献1では、影変換画像に前景画像及び背景画像を使用するため、画像の高解像度化や撮像装置の台数が増加すると、仮想視点画像の生成に係るデータ量が増大する。
そこで、本発明は、仮想視点画像の生成において影を描画するためのデータ量を抑制することを目的とする。
本開示の技術は、複数の撮像装置で撮像して得られた複数の画像に基づく背景画像を取得する第1の取得手段と、前記複数の撮像装置で撮像して得られた複数の画像に基づく複数の前景画像から影領域を抽出した複数の影マスク画像を取得する第2の取得手段と、前記前景画像から前記影領域を除去することにより影無し前景画像を取得する第3の取得手段と、仮想視点に関する情報を取得する第4の取得手段と、前記仮想視点に関する情報および前記影無し前景画像に基づく仮想視点前景画像を生成する第1の生成手段と、前記仮想視点に関する情報および前記背景画像に基づく仮想視点背景画像を生成する第2の生成手段と、前記複数の影マスク画像に基づき、前記仮想視点背景画像に対して影を描画した影付き仮想視点背景画像を生成する第3の生成手段と、前記仮想視点前景画像と前記影付き仮想視点背景画像とに基づき、仮想視点画像を生成する第4の生成手段と、を備え、前記影付き仮想視点背景画像における影の濃さは、前記複数の影マスク画像に基づき決定される、ことを特徴とする。
本開示の技術によれば、仮想視点画像の生成において影を描画するためのデータ量を抑制することができる。
画像処理装置のハードウェア構成の一例を示す図である。 画像処理装置の機能構成の一例を示す図である。 仮想視点画像の生成方法を示す概略図である。 影付き仮想視点背景画像の生成方法を示す概略図である。 影の濃さの算出方法を示す概略図である。 画像処理の一例を示すフローチャートである。 画像処理装置のハードウェア構成の一例を示す図である。 画像処理装置の機能構成の一例を示す図である。 画像処理の一例を示すフローチャートである。
以下、添付図面を参照して本発明の好適な実施形態について詳細に説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。
[実施形態1]
実施形態1では、複数台の撮像装置から得られた撮像画像に基づき影マスク画像を生成し、その影マスク画像を用いて、仮想視点画像に前景の影を描画する処理を説明する。なお、本実施形態では、影マスク画像を二値画像として扱うが、これに限らず、多値画像、例えばグレースケール画像などでも良い。
<画像処理システムのハードウェア構成>
図1(a)は、本実施形態に係る、画像処理システム10の全体構成の一例を示す図である。なお、仮想視点画像とは、3次元空間内に仮想的に配置した、実際には存在しない撮像装置の視点(仮想視点)からの見えを表す画像であり、ユーザ及び/又は選任のオペレータ等が自由に仮想視点の位置及び姿勢を操作することによって生成される画像である。この仮想視点画像は、自由視点画像や任意視点画像などとも呼ばれる。また、特に断りがない限り、画像という文言が動画と静止画の両方の概念を含むものとして説明する。すなわち、画像処理システム10は、静止画及び動画の何れについても処理可能である。
画像処理システム10は、撮像システム101、画像処理装置102、情報処理装置103から構成され、仮想視点画像を生成することが可能である。
撮像システム101は、複数の撮像装置を異なる位置に配置し、同一のオブジェクトを多視点から同期撮像して複数視点画像を取得する。撮像システム101は、取得した複数視点画像を、画像処理装置102に送信する。
画像処理装置102は、受信した複数視点画像を元に、指定された仮想視点から見た仮想視点画像を生成する。画像処理装置102は、撮像システム101が有するどの撮像装置とも異なる視点から見た画像、つまり仮想視点画像を生成することができる。仮想視点は、後述する情報処理装置103が決定するカメラパラメータによって表現される。画像処理装置102は、受信した複数視点画像から順次仮想視点画像を生成し、生成した仮想視点画像を情報処理装置103に送信する。
情報処理装置103は、仮想視点を制御するためのコントローラと、仮想視点の状態などを表示する表示部を有する。コントローラは、キーボードやマウスといったユーザが入力操作を行うための一般的な入力デバイスの他、仮想視点を操縦するためのジョイスティック、つまみ、ジョグダイヤル等を含む。表示部は、ユーザに必要な情報を表示するための1又は複数の表示デバイス(以下、「モニタ」と表記)である。表示デバイスとして例えばタッチパネルディスプレイを採用した場合は、タッチパネルが上述のコントローラを兼ねることもできる。モニタには仮想視点画像又は仮想視点制御用のUI画面が表示され、ユーザはモニタを見ながら仮想視点の操作量、つまり移動方向、向き(姿勢)、回転、移動距離や移動速度などを指示する。情報処理装置103は、ユーザにより指示された操作量から仮想視点の仮想視点パラメータを決定し、それを画像処理装置102に送信する。仮想視点パラメータは、位置、姿勢、またはズームの少なくとも何れか1つを指定するためのパラメータを含んでもよい。仮想視点パラメータにより指定される仮想視点の位置は、3次元座標を示すものであってもよい。また、仮想視点パラメータにより指定される位置は、X軸、Y軸、Z軸の3軸の直交座標系の座標により示されてもよい。なお、原点は3次元空間内の任意の位置としてもよい。仮想視点パラメータにより指定される仮想視点の姿勢は、パン、チルト、ロールの3軸とのなす角度により示されてもよい。仮想視点パラメータにより指定される仮想視点のズームは、例えば、焦点距離の1軸により示される。情報処理装置103はこれらのパラメータを制御可能である。なお、仮想視点パラメータは他の要素を規定するパラメータを含んでもよいし、上述したパラメータの全てを含まなくてもよい。また、情報処理装置103は、画像処理装置102が生成した仮想視点画像を受信しモニタに表示することができる。
図1(b)は、画像処理装置102のハードウェア構成の一例を示す図である。画像処理装置102は、CPU111、RAM112、ROM113、通信部114で構成される。CPU111は、RAM112をワークメモリとして、ROM113に格納されたプログラムを実行し、画像処理装置102の各構成部を統括的に制御するプロセッサである。これにより、CPU111が、各種プログラムを実行することで、後述の図2に示す各処理部の機能が実現される。RAM112は、ROM113から読みだされたコンピュータプログラムや計算の途中結果などを一時的に記憶する。ROM113は、変更を必要としないコンピュータプログラムやデータを保持する。またROM113は、撮像装置のカメラパラメータ、背景モデル、図5の閾値1や閾値2などの影マスク画像から仮想視点画像に影を描画する上で必要なデータなどを格納する。通信部114は、EthernetやUSBなどの通信手段を有し、撮像システム101及び情報処理装置103との通信を行う。
<画像処理装置の機能構成>
図2は、画像処理装置102の、影マスク画像を用いた影描画処理に係る機能構成の一例を示す図である。
画像処理装置102は、通信制御部1001、仮想視点前景画像生成部1002、仮想視点背景画像生成部1003、影マスク画像生成部1004、影付き仮想視点背景画像生成部1005、及び合成画像生成部1006で構成される。
通信制御部1001は、通信部114を用いて、撮像システム101から複数視点画像、及び情報処理装置103から仮想視点パラメータなどの情報を受信する。そして通信制御部1001は、受信した情報を仮想視点前景画像生成部1002、仮想視点背景画像生成部1003、及び影マスク画像生成部1004に出力する。また、通信制御部1001は、合成画像生成部1006から仮想視点画像を受信し、情報処理装置103に送信する。
仮想視点前景画像生成部1002は、通信制御部1001から受信した複数視点画像と仮想視点パラメータに基づき、仮想視点から見た影の無い前景の画像である仮想視点前景画像を生成する。仮想視点前景画像生成部1002は、大別して、複数視点画像から前景画像を生成する処理および前景画像から影を除去する処理と、前景画像と仮想視点パラメータとに基づいて仮想視点から見た仮想視点前景画像を生成する処理とに分かれる。まず、仮想視点前景画像生成部1002は、複数視点画像に対して前景背景分離処理を行って前景画像を生成する。前景画像とは、撮像装置によりオブジェクトを撮像して得られた撮像画像から、動きのある領域(前景オブジェクト領域とその影領域)を抽出した画像である。抽出される動きのある領域とは、固定した撮像装置で同じ方向から撮像を行って得られた複数の撮像画像において、時系列上で隣接する撮像画像間で所定の大きさ以上の動きのある(その絶対位置や形が変化し得る)領域を指す。撮像装置が動きながら撮像した場合は、撮像画像間で動きのあるオブジェクトのうち、撮像装置の動き分を差し引いた動きが所定の大きさ以上のものを動的オブジェクト、すなわち前景オブジェクトとする。前景オブジェクトには、例えば、競技が行われるフィールド内にいる選手や審判などの人物、球技であればボールなど、またコンサートやエンタテイメントにおける歌手、演奏者、パフォーマー、司会者などがなり得る。
次に、仮想視点前景画像生成部1002は、前景画像から影領域を除去した影無し前景画像を生成する。光源が前景オブジェクトを照らすことで発生する前景オブジェクトの影も動体ではあるが、本実施形態では前景オブジェクトとその影とを区別して扱う。前景オブジェクトとその影の区別の仕方は後述する。
次に、仮想視点前景画像生成部1002は、影無し前景画像と予めROM113に記憶している撮像装置のカメラパラメータに基づき、前景オブジェクトの三次元形状を表す前景モデルと前景モデルに色付けするための前景テクスチャデータとを生成する。そして、仮想視点パラメータに基づき、前景モデルに対して前景テクスチャデータをマッピングすることで仮想視点前景画像を生成する。仮想視点前景画像生成部1002は、生成した仮想視点前景画像を合成画像生成部1006に出力する。なお、仮想視点前景画像の生成方法はこれに限定されず、前景モデルを用いずに影無し前景画像の射影変換により仮想視点前景画像を生成する方法など、種々の方法を用いることができる。
仮想視点背景画像生成部1003は、通信制御部1001から受信した複数視点画像と仮想視点パラメータに基づき、仮想視点から見た背景の画像である仮想視点背景画像を生成する。仮想視点背景画像生成部1003は、大別して、複数視点画像から背景画像を生成する処理と、背景画像と仮想視点パラメータとに基づいて仮想視点から見た仮想視点背景画像を生成する処理とに分かれる。まず、仮想視点背景画像生成部1003は、複数視点画像に対して前景背景分離処理を行って背景画像を生成する。背景画像とは、撮像画像から前景オブジェクト及び前景オブジェクトの影の領域を取り除いた画像である。この背景画像に写る背景オブジェクトは、固定した撮像装置で同じ方向から撮像を行って得られた複数の撮像画像において、時系列上で隣接する撮像画像間で動きが所定の大きさ未満のオブジェクトを指す。すなわち背景オブジェクトは、静止している、又は静止に近い状態が継続しているオブジェクトを指す。撮像装置が動きながら撮像した場合は、撮像画像間で動きのあるオブジェクトのうち、撮像装置の動き分を差し引いた動きが所定の大きさ未満であるものを背景オブジェクトとする。このような背景オブジェクトは、例えば、コンサート等のステージ、競技などのイベントを行うスタジアム、球技で使用するゴールなどの構造物、フィールド、などである。ただし、背景オブジェクトは、少なくとも前景オブジェクトやその影とは異なるオブジェクトであり、上記オブジェクトの他に、別の物体等が含まれていてもよい。
尚、背景画像については、前景オブジェクトが存在しない状況で背景オブジェクトのみを撮像して得られた複数視点画像を用いてもよく、この場合、前景背景分離の処理は省略できる。
次に、仮想視点背景画像生成部1003は、背景画像と予めROM113に記憶し取得した撮像装置のカメラパラメータ及びスタジアムなどの背景の三次元形状を表す背景モデルに基づき、背景モデルに色付けするための背景テクスチャデータを生成する。そして仮想視点背景画像生成部1003は、背景モデルに背景テクスチャデータをマッピングすることで仮想視点背景画像を生成する。仮想視点背景画像生成部1003は、生成した仮想視点背景画像を影付き仮想視点背景画像生成部1005に出力する。なお、仮想視点背景画像の生成方法は、仮想視点前景画像と同様に射影変換による方法など、これに限定されない。
影マスク画像生成部1004は、受信した複数視点画像から影マスク画像を生成する。影マスク画像生成部1004は、まず複数視点画像から前景オブジェクトとその影の両方を含む動体が映った動体領域と不動体が映った不動体領域を抽出し、前者を前景画像、後者を背景画像とする。尚、仮想視点前景画像生成部1002および仮想視点背景画像生成部1003で生成された前景画像および背景画像を取得してもよい。次に、前景画像を前景領域と影領域とに分離する。分離方法としては、例えば、撮像装置毎に、撮像範囲内の画素領域が不動体領域である別の撮像画像の画素値を予め保存しておく。そして、RGB空間において、各撮像画像の動体領域の画素値と、予め保存しておいた画素領域が不動体領域である別の撮像画像の画素値との差分を計算し、その差分値がある閾値以上であれば前景オブジェクト領域、閾値未満であれば影領域とする。この分離方法では、動体領域のうち、前景オブジェクトに比べて背景の不動体領域の色に一定程度類似する領域を影領域として検出することが可能である。
そして影マスク画像生成部1004は、動体領域を含む撮像画像の影領域を二値化し、影マスク画像を生成する。なお、影マスク画像の生成方法はこれに限らない。影マスク画像生成部1004は、生成した影マスク画像を影付き仮想視点背景画像生成部1005に出力する。ただし、前述したが、影マスク画像は二値画像に限らず多値画像でもよい。また、影マスク画像の情報量をより削減するため、影マスク画像から影領域のみを抽出してもよく、その場合、抽出した影マスク画像と撮像画像に対する抽出領域の位置を示す情報とを影付き仮想視点背景画像生成部1005に出力する。
影付き仮想視点背景画像生成部1005は、受信した仮想視点背景画像、影マスク画像、及び仮想視点パラメータに基づいて、仮想視点背景画像に影を描画する。仮想視点パラメータは、仮想視点背景画像生成部1003又は影マスク画像生成部1004を介して通信制御部1001から受信される。影マスク画像による仮想視点背景画像への影描画方法の詳細は、図4と図5を用いて後述する。影付き仮想視点背景画像生成部1005は、生成した影付き仮想視点背景画像を合成画像生成部1006に出力する。
合成画像生成部1006は、仮想視点前景画像生成部1002、影付き仮想視点背景画像生成部1005から入力した仮想視点前景画像と影付き仮想視点背景画像を合成することで前景、背景、影が描画された仮想視点画像を生成する。合成画像生成部1006は、生成した仮想視点画像を通信制御部1001に送信する。
ここで、図3(a)~(e)を用いて仮想視点画像の生成手順を簡単に説明する。図3(a)は、撮像装置群301がそれぞれ異なる方向からオブジェクトを撮像し、仮想視点302がどの撮像装置とも異なる位置及び姿勢でオブジェクトの方向を向いている様子を示す概略図である。撮像装置群301は、撮像システム101の一部を構成し、複数視点画像を画像処理装置102に送信する。仮想視点302の制御は、ユーザが情報処理装置103を操作することで行われる。情報処理装置103は、ユーザ入力に基づき仮想視点パラメータを決定し、決定した仮想視点パラメータを画像処理装置102に送信する。また、情報処理装置103は、画像処理装置102から仮想視点画像を受信し、モニタに映すことで、ユーザが仮想視点画像を見ることを可能とする。図3(b)は、仮想視点前景画像生成部1002が生成する仮想視点前景画像303である。仮想視点前景画像303は、撮像装置群301から送信された複数視点画像から生成された前景画像のうち影領域を除いた前景オブジェクト領域に基づき生成された前景モデル、前景テクスチャデータ、及び仮想視点パラメータに基づき生成される。図3(c)は、仮想視点背景画像生成部1003が生成する仮想視点背景画像304である。仮想視点背景画像304は、撮像装置群301から送信された複数視点画像から生成された背景画像に基づき生成された背景モデル、背景テクスチャデータ、及び仮想視点パラメータに基づき生成される。図3(d)は、影付き仮想視点背景画像生成部1005が生成する影付き仮想視点背景画像305である。影付き仮想視点背景画像305は、撮像装置群301から送信された複数視点画像から影マスク画像生成部1004が生成した影マスク画像、背景モデル、及び仮想視点パラメータに基づき生成される。図3(e)は、合成画像生成部1006が生成する仮想視点画像306である。仮想視点画像306は、仮想視点前景画像303と影付き仮想視点背景画像305を合成することで生成される。
以上の手順により、影マスク画像を用いて、前景オブジェクトの影を描画した最終的な仮想視点画像を生成することが可能となる。
<影マスク画像を用いた影付き仮想視点背景画像の描画方法>
ここで、複数の影マスク画像を用いて影付き仮想視点背景画像を描画する方法を図4と図5を用いて説明する。図4は、影描画方法の処理手順を説明する図である。処理401~処理406は、影描画のために必要な処理項目を表している。処理項目への矢印は入力データを、処理項目から外向きへの矢印は出力データを表している。
処理401は、仮想視点パラメータと背景モデルを入力とし、仮想視点から仮想視点背景画像の各画素に映るオブジェクトまでの距離データを算出して出力する。距離データは、Zバッファ法などを用いることで、点群やポリゴンなどの形状モデルデータから算出される。
処理402~処理406は、仮想視点背景画像の対象画素毎に行い、仮想視点背景画像に含まれる画素数分だけ繰り返す。
処理402は、対象画素の距離データと仮想視点パラメータを入力とし、距離データをワールド座標系の座標値に変換し出力する。ワールド座標系は、撮像装置が撮像するオブジェクトが位置する3D空間全体を表す座標系であり、X軸、Y軸、Z軸の3軸の直交座標系の座標により示される。処理403~処理404は、対象とする撮像装置毎に行い、撮像装置の台数分だけ繰り返す。
処理403は、座標値と対象とする撮像装置のカメラパラメータ、及び対象とする撮像装置の仮想視点背景画像と撮像時刻が同一の撮像画像から生成した影マスク画像を入力とする。そして処理403は、座標値をカメラパラメータに基づき影マスク画像に投影し、座標値が投影された影マスク画像上の画素領域と影マスク画像の影領域とが一致したか否かを判定し、その判定結果を出力する。
処理404は、判定結果を入力とし、座標値が投影された影マスク画像上の画素領域と影マス画像の影領域とが一致したと判定した回数(影判定回数)を出力する。したがって、全ての撮像装置が同一の影領域を撮像していた場合、影判定回数は撮像装置の台数と等しくなる。ただし、複数の撮像装置が同一の影を撮像していても、撮像画像から影領域を抽出したり、しなかったりすると、影判定回数は当該影を撮像した撮像装置の台数より減少する。また、同一の影でも色の濃い領域と薄い領域で影領域の検出率が異なる場合、影判定回数は色の濃い領域ほど増加する。
処理405は、影判定回数を入力とし、影の濃さを出力する。影の濃さをwとし、wは0.0から1.0までの範囲の値をとる。wが0.0であれば影がない状態、1であれば影を濃く描画、0.5であれば1の場合と比較して影の濃さが半分になる。影の濃さwの算出方法の詳細は後述する。
処理406は、影の濃さwと仮想視点背景画像の対象画素の画素値RGBbackgroundを入力として、影付き仮想視点背景画像の対象画素の画素値RGBshadowを出力する。影付き仮想視点背景画像の対象画素の画素値は、例えば、下記式1により算出する。式1により、仮想視点背景画像に黒色をブレンドし、影に相当する部分を暗くすることができる。なお、alphaは黒色を混ぜる量を定義し、0.0から1.0の範囲の値を持つ。
Figure 0007451291000001
ここで影の濃さwの算出方法を、図5を用いて説明する。図5のグラフ501は、横軸を影判定回数、縦軸を影の濃さとする。影の濃さwは、影判定回数、閾値1、及び閾値2により制御される。影判定回数が閾値2以上であれば、処理402で算出した座標値が多くの影マスク画像上に投影されていることから、当該座標値は影である確度が高いと考えられる。そのため、影の濃さwを1とする。影判定回数が閾値1以上かつ閾値2未満であれば、撮像装置の視点によっては、影領域でない可能性が高くなるため、影の濃さを線形的に変化させる。つまり、影判定回数に応じて影に濃淡を付けて描画することができる。影判定回数が閾値1未満の場合は、複数視点画像から影マスク画像を生成する際に影領域を誤検出した可能性が高いため、影の描画をしない。つまり、ノイズ除去が可能となる。
以上により、影マスク画像を用いて仮想視点背景画像に濃淡のついた影を描画することが可能となる。また、閾値1や閾値2のパラメータを設定することで、撮像装置と光源の位置関係による影の見え方の違いや撮像装置間の露出などの設定の違いによる影の映り方の違い等の影響を低減した自然な影を描画することができる。なお、本実施形態では、全ての撮像装置に関して影マスク画像が存在する場合はその影マスク画像を用いて影の濃さwを算出している。しかし、この算出方法に限定されず、例えば仮想視点から近い一部の撮像装置の撮像画像から生成された影マスク画像のみを使用して影の濃さwを算出してもよく、その場合はより影情報のデータ量を削減できる。また、影マスク画像がグレースケール画像の場合は、影マスク画像の濃淡情報を影の濃さwに反映してもよく、影の濃さwの算出方法は上記の方法に限らない。
さらに、上記の方法は、仮想視点背景画像の画素毎の仮想視点からの距離データをワールド座標系に変換し、それを各撮像装置の影マスク画像に投影したが、逆も可能である。すなわち、影マスク画像の画素毎の撮像装置から影までの距離データをワールド座標系に変換し、各影マスク画像の座標値を仮想視点背景画像に投影してもよい。その場合、仮想視点背景画像の同一画素に座標値が投影された回数で影の濃淡を決めてもよく、同一画素に座標値が投影された回数が多いほど影を濃く描画する。
<影マスク画像による影描画の制御>
図6は、本実施形態に係る、仮想視点画像への影マスク画像による影描画を制御する処理の流れを示すフローチャートである。図6に示すフローは、ROM113に格納された制御プログラムがRAM112に読み出され、CPU111がこれを実行することによって実現される。画像処理装置102が撮像システム101からの複数視点画像、及び情報処理装置103からの仮想視点パラメータを受信すると、図6のフローの実行が開始される。図6のフローの実行開始は、通信制御部1001による仮想視点前景画像生成部1002、仮想視点背景画像生成部1003、及び影マスク画像生成部1004への受信データの送信をトリガとしてもよい。
S601では、仮想視点前景画像生成部1002が、通信制御部1001からの入力データに基づき、仮想視点前景画像を生成する。生成した仮想視点前景画像は、合成画像生成部1006に出力される。
S602では、仮想視点背景画像生成部1003が、通信制御部1001からの入力データに基づき、仮想視点背景画像を生成する。生成した仮想視点背景画像は、影付き仮想視点背景画像生成部1005に渡される。
S603では、影マスク画像生成部1004が、通信制御部1001からの入力データに基づき、影マスク画像を生成する。生成した影マスク画像は、影付き仮想視点背景画像生成部1005に渡される。
S604では、影付き仮想視点背景画像生成部1005が、仮想視点背景画像生成部1003、影マスク画像生成部1004から受け取った仮想視点背景画像、影マスク画像、仮想視点パラメータに基づき、影付き仮想視点背景画像を生成する。生成した影付き仮想視点背景画像は、合成画像生成部1006に出力される。
S605では、合成画像生成部1006が、仮想視点前景画像生成部1002、影付き仮想視点背景画像生成部1005から受信した仮想視点前景画像と影付き仮想視点背景画像を合成することで仮想視点画像を生成する。生成した仮想視点画像は通信制御部1001に送信され、本フローは終了する。
本フローが終了した後、通信制御部1001は受信した仮想視点画像を情報処理装置103に送信する。
なお、図6に示すS601~S603は、逐次処理されるように記載しているが、これらは並列処理されてもよい。
以上説明したように、本実施形態では、複数視点画像から影マスク画像を生成し、生成した影マスク画像を用いて仮想視点画像に前景オブジェクトの影を描画する。このように、前景オブジェクトと前景オブジェクトの影とを別々に描画するための影情報を影マスク画像の重なり数として扱うことで、例えば影のカラー画像と比較して影の描画に関するデータ量および処理量を削減することが可能となる。
[実施形態2]
実施形態1では、1つの画像処理装置内で、複数視点画像から影マスク画像を生成し、その影マスク画像に基づいて、仮想視点画像に影を描画する処理を説明した。次に、画像処理装置が2つある状況下において、第1の画像処理装置で前景画像、背景画像、影マスク画像を生成し、第2の画像処理装置でそれら画像を用いて仮想視点画像を生成する態様を、実施形態2として説明する。なお、ハードウェア構成やソフトウェア構成において実施形態1と共通する部分は説明を省略ないしは簡略化し、以下では差異点を中心に説明を行うものとする。
図7は、本実施形態に係る、画像処理システム20の全体構成の一例を示す図である。
画像処理システム20は、撮像システム201、第1の画像処理装置202、第2の画像処理装置203、情報処理装置204から構成される。なお、撮像システム201と情報処理システム204はそれぞれ、図1の撮像システム101と情報処理装置103と同じである。
第1の画像処理装置202は、複数視点画像に基づいて、各撮像装置から得られた撮像画像から、影無し前景画像、背景画像、及び影マスク画像を生成する。第1の画像処理装置202は、それら画像を外部装置である第2の画像処理装置203に送信する。
第2の画像処理装置203は、外部装置である第1の画像処理装置202から受信した影無し前景画像、背景画像、及び影マスク画像と、情報処理装置204から受信した仮想視点パラメータに基づき、仮想視点画像を生成する。第2の画像処理装置203は、生成した仮想視点画像を情報処理装置204に送信する。
第1の画像処理装置及び第2の画像処理装置のハードウェア構成は図1(b)の画像処理装置102と同じである。
図8(a)、(b)はそれぞれ、第1の画像処理装置202と第2の画像処理装置203の機能構成の一例を示す図である。
通信制御部2011は、撮像システム201から複数視点画像を受信し、前景画像生成部2012、背景画像生成部2013、影マスク画像生成部2014に送信する。また、通信制御部2011は、前景画像生成部2012、背景画像生成部2013、影マスク画像生成部2014からそれぞれが生成した画像を受信し、第2の画像処理装置203に送信する。
影無し前景画像生成部2012、背景画像生成部2013、影マスク画像生成部2014はそれぞれ、受信した複数視点画像から前景画像、背景画像、影マスク画像を生成する。それぞれの画像の生成方法は、実施形態1で述べた方法と同様である。前景画像生成部2012、背景画像生成部2013、影マスク画像生成部2014はそれぞれ、生成した画像を通信制御部2011に送信する。
通信制御部2021は、第1の画像処理装置202から受信した影無し前景画像、背景画像、影マスク画像と、情報処理装置204から受信した仮想視点パラメータを仮想視点画像生成部2022に送信する。また、通信部2021は、仮想視点画像生成部2022から仮想視点画像を受信し、情報処理装置204に送信する。
仮想視点画像生成部2022は、通信制御部2021から受信した影無し前景画像、背景画像、影マスク画像、仮想視点パラメータに基づき仮想視点画像を生成する。仮想視点画像の生成方法は実施形態1と同様である。まず、影無し前景画像から仮想視点前景画像を生成し、次に背景画像から仮想視点背景画像を生成する。そして、影マスク画像を用いて仮想視点背景画像に影を描画した影付き仮想視点背景視点画像を生成する。最後に、仮想視点前景画像と影付き仮想視点背景画像を合成することで仮想視点画像を生成する。ただし、上記の画像の生成には、仮想視点パラメータや、ROM113から取得した撮像装置のカメラパラメータ又は背景モデルを適宜使用されるものとする。生成された仮想視点画像は、通信制御部2021に送信される。
図9は、本実施形態に係る、2つの画像処理装置によって影マスク画像を用いて仮想視点画像に影を描画する処理の流れの一例を示すフローチャートである。図9に示すフローは、第1の画像処理装置202及び第2の画像処理装置203により実行される。図9のフローは、第1の画像処理装置202が受信したデータを、撮像システム201から複数視点画像を受信し、影無し前景画像生成部2012、背景画像生成部2013、影マスク画像生成部2014に送信したことをトリガとして実行が開始される。
S901では、影無し前景画像生成部2012が、通信制御部2011からの入力データに基づき、複数視点画像から前景画像と背景画像とに分離し、さらに前景画像の前景オブジェクト領域と影領域とを分離して影無し前景画像を生成する。生成した影無し前景画像は、通信制御部2011に送信される。
S902では、背景画像生成部2013が、通信制御部2011からの入力データに基づき、複数視点画像から背景画像を生成する。生成した背景画像は、通信制御部2011に送信される。
S903では、影マスク画像生成部2014が、通信制御部2011からの入力データに基づき、影マスク画像を生成する。影マスク画像は、実施形態1と同様に、複数視点画像を前景画像と背景画像とに分離し、前景画像を前景オブジェクト領域と影領域とを分離し、さらに影領域を二値化処理することで生成する。生成した影マスク画像は、通信制御部2011に送信される。
S904では、通信制御部2011が、影無し前景画像生成部2012、背景画像生成部2013、影マスク画像生成部2014から受信した各画像を第2の画像処理装置203に送信する。
S905では、通信制御部2021が、第1の画像処理装置202から影無し前景画像、背景画像、影マスク画像を受信する。受信した各画像は、仮想視点画像生成部2022に送信される。
S906では、通信制御部2021が、情報処理装置204から仮想視点パラメータを受信する。受信した仮想視点パラメータは、仮想視点画像生成部2022に送信される。
S907では、仮想視点画像生成部2022が、通信制御部2021から受信した影マスク画像を用いて影を描画した仮想視点画像を生成する。仮想視点画像は、実施形態1と同様に、仮想視点前景画像および仮想視点背景画像を生成し、影マスク画像を用いて影付き仮想視点背景画像を生成し、仮想視点前景画像と影付き仮想視点背景画像とを合成して生成される。生成した仮想視点画像は、通信制御部2021に送信され、図9のフローが終了する。
図9のフローが終了した後、通信制御部2021は受信した仮想視点画像を情報処理装置204に送信する。なお、図9に示すS901~S903は、逐次処理されるように記載しているが、これらは並列処理されてもよい。
本実施形態によれば、2つの画像処理装置で仮想視点画像を生成する際に、一方で複数視点画像から影無し前景画像、背景画像、影マスク画像を生成し、もう一方でそれら画像に基づき仮想視点画像を生成する。その際に、画像処理装置間でデータ伝送が生じるが、影情報を影マスク画像とすることで、影情報をカラー画像とした場合に比べてデータ伝送量の削減が可能となる。なお、本実施形態では、2つの画像処理装置に限定して説明したが、前景画像、背景画像、影マスク画像を生成する画像処理装置をそれぞれ用意してもよく、画像処理装置は2つに限らない。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
1002 仮想視点前景画像生成部
1003 仮想視点背景画像生成部
1004 影マスク画像生成部
1005 影付き仮想視点背景画像生成部
1006 合成画像生成部

Claims (19)

  1. 複数の撮像装置で撮像して得られた複数の画像に基づく背景画像を取得する第1の取得手段と、
    前記複数の撮像装置で撮像して得られた複数の画像に基づく複数の前景画像から影領域を抽出した複数の影マスク画像を取得する第2の取得手段と、
    前記前景画像から前記影領域を除去することにより影無し前景画像を取得する第3の取得手段と、
    仮想視点に関する情報を取得する第4の取得手段と、
    前記仮想視点に関する情報および前記影無し前景画像に基づく仮想視点前景画像を生成する第1の生成手段と、
    前記仮想視点に関する情報および前記背景画像に基づく仮想視点背景画像を生成する第2の生成手段と、
    前記複数の影マスク画像に基づき、前記仮想視点背景画像に対して影を描画した影付き仮想視点背景画像を生成する第3の生成手段と、
    前記仮想視点前景画像と前記影付き仮想視点背景画像とに基づき、仮想視点画像を生成する第4の生成手段と、
    を備え、
    前記影付き仮想視点背景画像における影の濃さは、前記複数の影マスク画像に基づき決定される、
    ことを特徴とする画像処理装置。
  2. 前記第2の取得手段は、前記撮像装置の数に応じた数の前記複数の影マスク画像を取得し、
    前記第3の生成手段は、前記仮想視点背景画像の対象画素の位置が前記複数の影マスク画像の影領域と一致する回数に基づいて、前記対象画素に影を描画する際の画素値を決定する、ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記第3の生成手段は、前記仮想視点背景画像の画素値を、前記仮想視点背景画像の距離データが投影された位置が前記複数の影マスク画像の影領域と一致した回数に基づき変化させることにより前記影付き仮想視点背景画像を生成する、
    ことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記第3の生成手段は、前記仮想視点背景画像の距離データが投影された位置が前記複数の影マスク画像の影領域と一致した回数が所定の閾値以上である画素について、当該画素の画素値を変更する、
    ことを特徴とする請求項3に記載の画像処理装置。
  5. 前記第3の生成手段は、前記影付き仮想視点背景画像の前記影の濃さを、前記仮想視点背景画像の距離データが投影された位置が前記複数の影マスク画像の影領域と一致した回数に基づき設定する、
    ことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記第3の生成手段は、前記影付き仮想視点背景画像の前記影の濃さを、前記複数の影マスク画像の画素値に基づき設定する、
    ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記第3の生成手段は、前記仮想視点背景画像の距離データが投影された位置が前記複数の影マスク画像の影領域と一致した回数は、前記仮想視点背景画像が生成された撮像画像と撮像時刻が同一の撮像画像から生成された前記複数の影マスク画像を対象として数えた回数である、
    ことを特徴とする請求項3乃至5のいずれか1項に記載の画像処理装置。
  8. 前記複数の影マスク画像は、グレースケール画像である、
    ことを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 前記複数の影マスク画像は、二値画像である、
    ことを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  10. 複数の撮像装置で撮像して得られた複数の画像に基づく背景画像を取得し、
    前記複数の撮像装置で撮像して得られた複数の画像に基づく複数の前景画像から影領域を抽出した複数の影マスク画像を取得し、
    前記前景画像から前記影領域を除去することにより影無し前景画像を取得し、
    仮想視点に関する情報を取得し、
    前記仮想視点に関する情報および前記影無し前景画像に基づく仮想視点前景画像を生成し、
    前記仮想視点に関する情報および前記背景画像に基づく仮想視点背景画像を生成し、
    前記複数の影マスク画像に基づき、前記仮想視点背景画像に対して影を描画した影付き仮想視点背景画像を生成し、
    前記仮想視点前景画像と前記影付き仮想視点背景画像とに基づき、仮想視点画像を生成し、
    前記影付き仮想視点背景画像における影の濃さは、前記複数の影マスク画像に基づき決定される、
    ことを特徴とする画像処理方法。
  11. 前記撮像装置の数に応じた数の前記複数の影マスク画像を取得し、
    前記仮想視点背景画像の対象画素の位置が前記複数の影マスク画像の影領域と一致する回数に基づいて、前記対象画素に影を描画する際の画素値を決定する、
    ことを特徴とする請求項10に記載の画像処理方法。
  12. 前記仮想視点背景画像の画素値を、前記仮想視点背景画像の距離データが投影された位置が前記複数の影マスク画像の影領域と一致した回数に基づき変化させることにより前記影付き仮想視点背景画像を生成する、
    ことを特徴とする請求項10又は11に記載の画像処理方法。
  13. 前記仮想視点背景画像の距離データが投影された位置が前記複数の影マスク画像の影領域と一致した回数が所定の閾値以上である画素について、当該画素の画素値を変更する、
    ことを特徴とする請求項12に記載の画像処理方法。
  14. 前記影付き仮想視点背景画像の前記影の濃さを、前記仮想視点背景画像の距離データが投影された位置が前記複数の影マスク画像の影領域と一致した回数に基づき設定する、
    ことを特徴とする請求項10乃至13のいずれか1項に記載の画像処理方法。
  15. 前記影付き仮想視点背景画像の前記影の濃さを、前記複数の影マスク画像の画素値に基づき設定する、
    ことを特徴とする請求項10乃至14のいずれか1項に記載の画像処理方法。
  16. 前記仮想視点背景画像の距離データが投影された位置が前記複数の影マスク画像の影領域と一致した回数は、前記仮想視点背景画像が生成された撮像画像と撮像時刻が同一の撮像画像から生成された前記複数の影マスク画像を対象として数えた回数である、
    ことを特徴とする請求項12乃至14のいずれか1項に記載の画像処理方法。
  17. 前記複数の影マスク画像は、グレースケール画像である、
    ことを特徴とする請求項10乃至16のいずれか1項に記載の画像処理方法。
  18. 前記複数の影マスク画像は、二値画像である、
    ことを特徴とする請求項10乃至16のいずれか1項に記載の画像処理方法。
  19. コンピュータを請求項1乃至9のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2020085191A 2020-05-14 2020-05-14 画像処理装置、画像処理方法およびプログラム Active JP7451291B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020085191A JP7451291B2 (ja) 2020-05-14 2020-05-14 画像処理装置、画像処理方法およびプログラム
US17/314,344 US11670043B2 (en) 2020-05-14 2021-05-07 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020085191A JP7451291B2 (ja) 2020-05-14 2020-05-14 画像処理装置、画像処理方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2021179835A JP2021179835A (ja) 2021-11-18
JP2021179835A5 JP2021179835A5 (ja) 2023-05-22
JP7451291B2 true JP7451291B2 (ja) 2024-03-18

Family

ID=78511535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020085191A Active JP7451291B2 (ja) 2020-05-14 2020-05-14 画像処理装置、画像処理方法およびプログラム

Country Status (2)

Country Link
US (1) US11670043B2 (ja)
JP (1) JP7451291B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7003994B2 (ja) * 2017-08-08 2022-01-21 ソニーグループ株式会社 画像処理装置および方法
JPWO2021149526A1 (ja) * 2020-01-23 2021-07-29
JP2022032483A (ja) 2020-08-12 2022-02-25 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US11941729B2 (en) 2020-12-11 2024-03-26 Canon Kabushiki Kaisha Image processing apparatus, method for controlling image processing apparatus, and storage medium
US11756261B2 (en) * 2021-11-10 2023-09-12 Ford Global Technologies, Llc Single-perspective image relighting
US11776200B2 (en) * 2021-11-10 2023-10-03 Ford Global Technologies, Llc Image relighting
WO2023153792A1 (en) * 2022-02-08 2023-08-17 Samsung Electronics Co., Ltd. Electronic device and controlling method thereof
CN115134579A (zh) * 2022-06-16 2022-09-30 抖音视界(北京)有限公司 一种虚拟视点的生成方法、装置、存储介质及电子设备
WO2024089875A1 (ja) * 2022-10-28 2024-05-02 日本電信電話株式会社 配信制御システム、配信制御装置、配信制御方法、及びプログラム
CN115908162B (zh) * 2022-10-28 2023-07-04 中山职业技术学院 一种基于背景纹理识别的虚拟视点生成方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019031259A1 (ja) 2017-08-08 2019-02-14 ソニー株式会社 画像処理装置および方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7080613B2 (ja) 2017-09-27 2022-06-06 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP7051457B2 (ja) 2018-01-17 2022-04-11 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7170441B2 (ja) 2018-07-12 2022-11-14 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7330683B2 (ja) 2018-11-06 2023-08-22 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019031259A1 (ja) 2017-08-08 2019-02-14 ソニー株式会社 画像処理装置および方法

Also Published As

Publication number Publication date
JP2021179835A (ja) 2021-11-18
US11670043B2 (en) 2023-06-06
US20210358204A1 (en) 2021-11-18

Similar Documents

Publication Publication Date Title
JP7451291B2 (ja) 画像処理装置、画像処理方法およびプログラム
KR100845390B1 (ko) 영상 처리기, 영상 처리 방법, 기록 매체, 및 반도체 장치
CN104380338B (zh) 信息处理器以及信息处理方法
CN105513112B (zh) 图像处理方法和装置
JP2014238731A (ja) 画像処理装置、画像処理システム、および画像処理方法
JP5916248B2 (ja) 画像生成装置、画像生成方法、プログラムおよびコンピュータ読取り可能な情報記憶媒体
EP1033682A2 (en) Image processing apparatus and image processing method
JP7023696B2 (ja) 情報処理装置、情報処理方法及びプログラム
WO2008063167A1 (en) Methods and systems for color correction of 3d images
KR20080069601A (ko) 게임용 스테레오 비디오에 대하여 장치가 프로세스를실행할 수 있게 하는 정보를 저장하는 하나 이상의 컴퓨터판독가능 매체
JP2013235537A (ja) 画像作成装置、画像作成プログラム、及び記録媒体
JP7353782B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US11398007B2 (en) Video generation device, video generation method, program, and data structure
CN111882627A (zh) 图像处理方法、视频处理方法、装置、设备和存储介质
US20230024396A1 (en) A method for capturing and displaying a video stream
JP2022032483A (ja) 画像処理装置、画像処理方法、およびプログラム
US11941729B2 (en) Image processing apparatus, method for controlling image processing apparatus, and storage medium
Franke et al. Enhancing realism of mixed reality applications through real-time depth-imaging devices in x3d
Marques et al. Deep Light Source Estimation for Mixed Reality.
JP2004030408A (ja) 三次元画像表示装置及び表示方法
JP3651943B2 (ja) アイコン作成方法及び動画用のコマ作成方法
JP3230481B2 (ja) テレビジョン画像の合成方式
JP4161613B2 (ja) 画像処理方法
US11120606B1 (en) Systems and methods for image texture uniformization for multiview object capture
JP2021077078A (ja) 拡張仮想空間提供システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230512

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230512

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240306

R151 Written notification of patent or utility model registration

Ref document number: 7451291

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151