JP2020091534A - 画像処理装置、三次元形状データの生成方法およびプログラム - Google Patents

画像処理装置、三次元形状データの生成方法およびプログラム Download PDF

Info

Publication number
JP2020091534A
JP2020091534A JP2018226607A JP2018226607A JP2020091534A JP 2020091534 A JP2020091534 A JP 2020091534A JP 2018226607 A JP2018226607 A JP 2018226607A JP 2018226607 A JP2018226607 A JP 2018226607A JP 2020091534 A JP2020091534 A JP 2020091534A
Authority
JP
Japan
Prior art keywords
image
foreground
processing
captured
dimensional shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018226607A
Other languages
English (en)
Other versions
JP7250493B2 (ja
JP2020091534A5 (ja
Inventor
圭輔 森澤
Keisuke Morisawa
圭輔 森澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018226607A priority Critical patent/JP7250493B2/ja
Priority to US16/680,849 priority patent/US11200690B2/en
Publication of JP2020091534A publication Critical patent/JP2020091534A/ja
Publication of JP2020091534A5 publication Critical patent/JP2020091534A5/ja
Application granted granted Critical
Publication of JP7250493B2 publication Critical patent/JP7250493B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】三次元形状データを精度よく生成することを目的とする。【解決手段】生成装置104は次の各部を有する。取得部801は複数の方向からの撮像に基づいて得られた撮像画像ごとの前景マスク画像をそれぞれ取得する。不正マスク検出部802は、取得部801が取得した前景マスク画像のうち、不正な前景マスク画像を検出する。処理部803は、不正マスク検出部802が検出した不正な前景マスク画像に対して処理を行う。生成部804は、取得部801が取得した前景マスク画像のうち処理部803によって処理されていない前景マスク画像と、処理部803によって処理がされた画像と、に基づき前記前景の三次元形状データを生成する。【選択図】図8

Description

本発明は、複数視点の撮像画像による前景の三次元形状データの生成に関する。
異なる位置に設置された複数のカメラによって同期撮像し、当該撮像により得られた複数視点の画像を用いて実際には存在しない仮想カメラからの画像を再現する仮想視点画像を生成する技術がある。仮想視点画像の生成には、複数のカメラが撮像した前景の画像をサーバなどの画像処理部に集約し、当該画像処理部にて、前景の三次元形状データを生成することが行われている。
非特許文献1には、視体積交差法による前景の三次元形状データの生成方法が記載されている。視体積交差法では、前景となる対象物体を撮像したときの撮像面から、撮像面の前景の二次元シルエットを表す画像が生成される。また、視体積交差法では、カメラの投影中心から前景の二次元シルエットの輪郭上の各点を通すように三次元空間中に広がる錐体である視体積を考える。視体積交差法は、複数のカメラによる夫々の視体積の共通領域を求めることによって、前景の三次元形状データを生成する方法である。
Laurentini A:"The Visual Hull Concept for Silhouette-Based Image Understanding",IEEE Transcriptions Pattern Analysis and machine Intelligence, Vol.16, No.2, pp.150-162,Feb.1994
前景の三次元形状データを生成するための複数のカメラのうち、一部のカメラの故障等により、その一部のカメラによる撮像に基づく前景の二次元シルエットを表す画像が不適切なものとなる場合がある。その場合、視体積交差法による三次元形状データを生成すると、不適切な画像に基づく視体積と、正常な画像に基づく視体積との共通領域を求めることにより前景の三次元形状データが生成される。このため前景の三次元形状データを精度よく生成することができない虞がある。
本発明の一態様に係る画像処理装置は、複数の方向からの撮像に基づいて得られたオブジェクト領域を示す画像をそれぞれ取得する取得手段と、前記取得手段が取得した画像のうち、正常ではない画像を検出する検出手段と、前記検出手段によって検出された画像に対して処理を行う処理手段と、前記取得手段が取得した画像のうち前記処理手段によって処理されていない画像と、前記処理手段によって前記処理が行われた画像と、に基づき前記オブジェクトの三次元形状データを生成する生成手段と、を備えることを特徴とする。
本発明によれば、三次元形状データを精度よく生成することができる。
視体積交差法による三次元モデルの生成方法を示す図である。 不正な前景マスク画像に基づく三次元モデル生成方法を示す図である。 仮想視点画像生成システムの構成を示す図である。 仮想視点画像生成システムのカメラ配置の例を示した図である。 カメラが撮像した画像を示した図である。 前景マスク画像を示した図である。 前景テクスチャ画像を示した図である。 生成装置の機能ブロックを示した図である。 不正前景マスク画像を全白画像にする処理を示した図である。 生成装置における処理を示すフローチャート図である。 ボクセルによる前景の三次元モデルを表した図である。 前景矩形マスク画像を示した図である。 生成装置における処理を示すフローチャート図である。 前景矩形マスク画像を用いた処理を示す図である。 生成装置の機能ブロックを示した図である。 生成装置における処理を示すフローチャート図である。 前景マスク画像の前景領域を広げる処理を示した図である。 生成装置の機能ブロックを示した図である。 生成装置の処理を示すフローチャート図である。 閾値を用いた前景の三次元モデルの生成方法を示した図である。 生成装置の機能ブロックを示した図である。 生成装置における処理を示すフローチャート図である。 撮像画像上の前景の移動量を示した図である。
以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
<実施形態1>
本実施形態では、仮想視点画像の生成に用いられる前景の三次元形状データ(三次元モデル)を生成する形態を説明する。本実施形態の説明に先立ち、視体積交差法による三次元モデルの生成について説明する。
図1は、視体積交差法の基本原理を示す図である。図1(a)は、ある対象物体(オブジェクト)Cを撮像装置であるカメラにより撮像したときの図である。図1(a)における、カメラが撮像した撮像画像の撮像面Sオブジェクトを示す前景の二次元シルエットDaが得られる。図1(b)は、カメラの投影中心(Pa)から前景領域Daの輪郭上の各点を通すように、三次元空間中に広がる錐体を示す図である。この錐体のことを当該カメラによる視体積Vaと呼ぶ。
図1(c)ではこの複数の視体積によりオブジェクトの三次元(前景の三次元モデル)が求まる様子を示す図である。図1(c)のように、位置が異なる複数の異なるカメラによって同期撮像された画像に基づく前景領域(オブジェクト領域)からカメラごとの複数の視体積を求める。視体積交差法は、この複数のカメラの視体積の交差(共通領域)を求めることによって、オブジェクトの前景の三次元モデルを求める方法である。
ここで、画像の「前景」となるオブジェクトは仮想視点で任意の角度から見ることを可能とする対象物体である。本実施形態では競技場のフィールド上に存在する人物のことを指す。または、前景となりうるオブジェクトは、ボール、またはゴール等、画像パターンが予め定められている物体であってもよい。また、オブジェクトは動体であってもよいし、静止体であってもよい。「背景」は画像の前景以外の領域を指す。
前景の三次元モデルを用いて生成される仮想視点画像とは、実カメラとは異なる仮想カメラの位置及び向き等に基づいて生成される画像であり、自由視点画像や任意視点画像とも呼ばれる。例えば、仮想視点画像を生成する技術によれば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することが出来るため、通常の画像と比較してユーザに高臨場感を与えることが出来る。視体積交差法に基づく仮想視点画像生成システムも数多く開発されており、このようなシステムにおいては適切に前景の三次元モデルを生成することが求められている。
図2は、視体積交差法による前景の三次元モデルを生成するために、前景となる対象物体(オブジェクト)をカメラA〜Cにおいて撮像したときの図である。このとき、カメラBによる撮像がカメラの故障等により失敗し、カメラBによる撮像面から得られた前景領域200は、前景を示す領域がほとんどない画像となっている。このようなカメラの故障のほか、カメラと画像データを取得する画像処理装置とをつなぐ伝送系の異常、または不適切な撮像パラメータの設定等のため、前景領域がオブジェクトのシルエットを正しく表現しないことがある。この正常では無い状態を「不正」な状態と呼ぶ。図2の例では、カメラBの視体積と、カメラB以外による正常なカメラA、Cによる視体積と、の視体積の共通領域は無くなり、前景の三次元モデルが適切に生成されないことになる。
このため、本実施形態は後述するように、前景領域を示す画像(前景マスク画像)が不正である場合、その不正な前景マスク画像が前景の三次元モデルの生成に与える悪影響を抑制させるための処理を行う形態である。
[システム構成]
図3は、本実施形態に係る仮想視点画像生成システムの構成の一例を示すブロック図である。仮想視点画像生成システム100は、複数のカメラ101a〜101rからなるカメラアレイ101、複数の前景抽出装置102a〜102rで構成される前景抽出装置群102、制御装置103、生成装置104、レンダリング装置105を有する。前景抽出装置102a〜102r、制御装置103、生成装置104及びレンダリング装置105は、演算処理を行うCPU、演算処理の結果やプログラム等を記憶するメモリなどを備えた一般的な画像処理装置によって実現される。前景抽出装置102a〜102r、制御装置103、生成装置104及びレンダリング装置105は、CPUとは異なる専用の1又は複数のハードウェアあるいはGPU(Graphics Processing Unit)を有していてもよい。そして、CPUによる処理の少なくとも一部をGPUあるいは専用のハードウェアが行うようにしても良い。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、及びDSP(デジタルシグナルプロセッサ)等がある。
カメラアレイ101は、複数のカメラ101a〜101rで構成され、様々な角度の複数方向から前景となるオブジェクトを撮像して前景抽出装置群102へ撮像画像の画像データを出力する。図4は、カメラアレイ101を構成する全16台のカメラ101a〜101rの配置を、フィールド400を真上から見た俯瞰図において示した図である。図4に示すようにカメラは競技場402の周囲に配置され、全てのカメラ101a〜101rで共通したフィールド上の注視点401に向けて様々な角度から時刻同期して撮像する。
前景抽出装置群102は、夫々のカメラ101a〜101rに対応する前景抽出装置102a〜102rを有している。各前景抽出装置102a〜102rは、対応するカメラから出力された撮像画像の画像データから撮像画像に含まれる前景を示す前景領域(オブジェクト領域)を抽出する。そして各前景抽出装置102a〜102rは、対応するカメラごとに、撮像画像の前景領域とそれ以外の領域とを示す前景マスク画像、および前景のテクスチャを示す画像である前景テクスチャ画像を生成する。
ここで、図を用いて撮像画像と前景マスク画像と前景テクスチャ画像との説明をする。図5は、カメラアレイ101に属するカメラの1つである図4のカメラ101mによってフィールド400の注視点401を撮像した撮像画像500を示す図である。撮像画像500には5つの前景5a〜5eが含まれる。図6は、図5の撮像画像500の前景が前景領域として示された前景マスク画像600の例である。図6の前景マスク画像600のように、前景マスク画像は2値画像で表される。本実施形態では、前景マスク画像は、前景の領域を示す前景領域を白色で表し、前景領域以外の領域を黒で表した2値画像であるものとして説明する。前景マスク画像は後述する前景の三次元モデルの生成において利用される。
また、前景抽出装置102a〜102rは、対応するカメラによって撮像された撮像画像から前景を内包する矩形領域を算出する。図7(a)は、前景抽出装置102mが図5の撮像画像500から前景を検出し、前景を含む領域を矩形領域として検出したときの図である。図5の撮像画像500では前景は5つあるため図7(a)では5つの矩形領域が検出されていることを示している。
図6および図7(a)のように撮像画像から前景を検出する方法は限定しない。例えば、予め保持している撮像画像に対応する背景画像と、撮像画像との画素値を比較し、画素値に基づく値の差分が閾値を超えた画素によって構成される領域を前景領域と判定する方法を用いればよい。
図7(b)は、図7(a)で算出された矩形領域を切り出した夫々の矩形画像を表している。この矩形画像を前景テクスチャ画像7a〜7eと呼ぶ。前景テクスチャ画像7a〜7eは前景の三次元モデルに色付けを行う際に利用される。
制御装置103は、カメラアレイ101のカメラによって時刻同期され撮像された撮像画像の画像データからカメラ101a〜カメラ101rの位置や姿勢を示すカメラパラメータを算出し、生成装置104とレンダリング装置105に出力する。
カメラパラメータは、外部パラメータ、および内部パラメータで構成されている。外部パラメータは、回転行列および並進行列で構成されておりカメラの位置や姿勢を示すものである。一方、内部パラメータは、カメラの焦点距離や光学的中心などを含みカメラの画角や撮像センサの大きさなどを示すものである。カメラパラメータを算出する処理はキャリブレーションと呼ばれ、チェッカーボードのような特定パターンを撮像した複数枚の画像を用いて取得した三次元の世界座標系の点とそれに対応する二次元上の点との対応関係を用いることで求められる。
生成装置104は、制御装置103よりカメラパラメータを取得し、前景抽出装置群102から前景マスク画像と前景テクスチャ画像を取得する。そして生成装置104は取得した前景マスク画像から前景の三次元モデルを生成する。生成装置104は、生成した前景の三次元モデルのデータをレンダリング装置105に出力する。生成装置104が行う処理の詳細については後述する。
レンダリング装置105は、生成装置104から前景の三次元モデル、前景テクスチャ画像、および後述する可視性判定結果を取得する。また、制御装置103からカメラパラメータを取得する。レンダリング装置105はこれらのデータに基づき仮想視点画像を生成する。具体的には、カメラパラメータから前景テクスチャ画像と前景の三次元モデルとの位置関係を求め、三次元モデルを構成する各ボクセルに、前景テクスチャ画像の画素の色を基に色づけする。ボクセルの説明については後述する。仮想視点画像は、動画であっても、静止画であってもよい。
なお、本実施形態では前景抽出装置102a〜102rと生成装置104がスター型のトポロジーで接続されている形態であるが、ディジーチェーン接続によるリング型またはバス型等のトポロジーで接続されている形態であってもよい。
[生成装置の機能構成]
図8は、本実施形態における生成装置104の機能構成を示すブロック図である。生成装置104は、取得部801、不正マスク検出部802、処理部803、生成部804、不正テクスチャ検出部805、および可視性判定部806を有する。
取得部801は、前景抽出装置102a〜102rから各カメラ101a〜101rの撮像画像に基づく前景マスク画像、および前景テクスチャ画像等を取得する。不正マスク検出部802は、取得部801が取得した前景マスク画像から正常ではない「不正」な前景マスク画像を検出する。
処理部803は、不正な前景マスク画像が前景の三次元モデルの生成に与える影響を抑制させるための処理をする。処理の説明は後述する。
生成部804は、カメラアレイ101のカメラが撮像した撮像画像に基づく複数の前景マスク画像と、カメラアレイ101の位置や姿勢を示すカメラパラメータから視体積交差法により前景の三次元モデルを生成し、可視性判定部806へ出力する。
不正テクスチャ検出部805は、取得部801が取得した前景テクスチャ画像から不正な前景テクスチャ画像を検出する。可視性判定部806は、前景の三次元モデルを構成する各ボクセルがカメラアレイ101を構成する各カメラの画角内であるかを判定する。可視性判定部806による判定結果は、レンダリング装置105において前景の三次元モデルを構成する各ボクセルに色づけする際に利用される。
[処理部による処理の説明]
実施形態1では、処理部803は、不正な前景マスク画像が前景の三次元モデルの生成に与える影響を抑制させるための処理として、不正な前景マスク画像を、全ての領域が前景領域である画像に置き換える処理が行われる。本実施形態では、前景領域を示す色は白であることから、不正な前景マスク画像を全ての領域が白の画像(全白画像)に置き換える処理を行う。
ここで、本実施形態における処理部803の処理について図を用いて説明する。図9(a)は不正な前景マスク画像の一例を示す図である。カメラの画角内には前景となるオブジェクトが含まれているものの、当該カメラの故障等によりカメラの撮像画像から前景領域が正しく抽出されないことがある。このため図9(a)のように前景領域を示す白色の領域がほとんど含まれない不正な前景マスク画像が取得されることがある。
前述のとおり、前景の三次元モデルは、複数視点の前景領域から得られる夫々の視体積の共通領域から生成される。即ち、基本的に、前景となるオブジェクトを撮像する位置にある全てのカメラによる視体積が交差する共通領域に基づき前景の三次元モデルが生成される。しかし、図9(a)のように不正な前景マスク画像には正常な前景マスク画像に比べ前景領域がほとんど含まれない。このため不正な前景マスク画像に対応する視体積は、正常なマスク画像に対応する視体積に比べほとんど無い状態となるから、不正な前景マスク画像に対応する視体積は他のカメラによる視体積と交差しない。よって全てのカメラの視体積が交差する共通領域が無くなるため前景の三次元モデルの生成が正常に行われない虞がある。
図9(b)は図9(a)の不正な前景マスク画像に対して処理部803が処理を行ったことにより不正な前景マスク画像が、全白画像に置き換えられたことを示す図である。また図9(c)は不正な前景マスク画像が全白画像と置き換えられたことにより、全白画像に置き換えられた前景マスク画像による視体積と、それ以外の正常な前景マスク画像による前景の三次元モデルの生成の様子を示している。前景領域は白色の領域であることから、全白画像となった前景マスク画像の全ての領域が前景領域となる。このため全白画像の前景領域を通る視体積は最大となる。よって他の正常な前景マスク画像による視体積(図9(c)のカメラAおよびカメラCの視体積)の共通領域と、全白画像となった前景マスク画像による視体積(図9(c)カメラBの視体積)は交差する。このため、不正な前景マスク画像の影響により前景の三次元モデルが不必要に削られることを抑制することができる。つまり、正常な前景マスク画像による視体積の共通領域のみによって前景の三次元モデルを生成するのと同じ効果を生じさせることができる。
本実施形態では、不正な前景マスク画像が全白画像に置き換えられる処理がされるものとして説明するが、不正な前景マスク画像から置き換えられる画像の白の領域は全ての領域でなくてもよい。処理部803によって置き換えられた画像の前景領域を通る視体積が、他のカメラの視体積と交差するのに十分な大きさであればよい。
このように、不正な前景マスク画像を全白画像に置き換えることにより、後続の処理である前景の三次元モデルを生成する処理において、不正な前景マスク画像を除外する設定が不要となり前景の三次元モデルを生成する処理の継続が容易となる。
なお、他の形態として、前景領域を示す領域が黒であり、前景領域以外の領域を白で示す前景マスク画像が生成される形態が考えられる。このような形態においては、処理部803は不正な前景マスク画像の全領域に対して前景領域を示す色である黒にする処理が行われることになる。いずれにしても処理部803は、不正な前景マスク画像を全ての領域が前景領域である画像に置き換えるように処理をする。
[フローチャート]
図10は、生成装置104における前景の三次元モデルを生成する処理のフローチャートの一例を示す図である。図10のフローチャートで示される一連の処理は、生成装置104のCPU(不図示)がROM(不図示)に記憶されているプログラムコードをRAM(不図示)に展開し実行することにより行われる。なお、各処理の説明における記号「S」は、当該フローチャートにおけるステップであることを意味する。図10を用いて前景の三次元モデルを生成する一連の処理を説明する。
S1001において取得部801は、前景抽出装置群102よりカメラアレイ101の各カメラで同期撮像された撮像画像に基づき生成された前景マスク画像、および前景テクスチャ画像を取得する。また制御装置103からカメラアレイ101を構成する各カメラのカメラパラメータを取得する。
ここからは、カメラアレイ101を構成するカメラ101a〜101rのうち処理対象のカメラに基づく全ての前景マスク画像および全ての前景テクスチャ画像について、S1003〜S1006を繰り返す。
即ち、S1002においてカメラアレイを構成する未処理のカメラの中から処理対象のカメラが選択され、S1003〜S1006の処理が処理対象のカメラに対する前景マスク画像および前景テクスチャ画像について行われる。処理対象のカメラに対する処理が終了すると、再度、未処理のカメラの中から処理対象のカメラが選択される。未処理のカメラがなくなったら、S1007に進む。
S1003において不正マスク検出部802は、処理対象のカメラの前景マスク画像が不正であるかを検出する。前景マスク画像の画像データは、基になった撮像画像の情報等が付加されたデータヘッダを有している。不正マスク検出部802による前景マスク画像が不正かを検出する方法として、前景マスク画像のデータヘッダに含まれる情報と画像が整合していない、またはデータヘッダの情報に異常値がある場合には不正と検出する。例えば、不正マスク検出部802は、データヘッダに含まるべき情報が含まれていない、または前景マスク画像のデータヘッダに記憶されている前景の数と取得した前景マスク画像の前景領域の数が一致していない場合は不正な画像として検出する。
不正マスク検出部802が不正かを検出する手段にはこれに限られない。他にも、前景マスク画像のデータサイズが正常でない場合は不正な前景マスク画像であると検出する方法でもよい。または、不正マスク検出部802は、処理対象のカメラの撮像画像と、他のカメラによる撮像画像との前景の画素値を比較して差分が閾値以上ある場合、処理対象のカメラによる前景マスク画像は不正な画像と検出する方法でもよい。または、前景マスク画像の画像データの整合性を示すチェックサムが正しくない場合、不正と検出する方法でもよい。あるいは、取得部801が前景抽出装置群102から前景マスク画像の画像データを取得できなかったときも、不正マスク検出部802は処理対象のカメラによる前景マスク画像が不正な前景マスク画像であるものとして検出する方法でもよい。
不正な前景マスク画像として検出された場合(S1003:YES)、S1004において処理部803は、不正な前景マスク画像を全白画像に置き換える処理をする。そして、全白画像を処理対象のカメラの前景マスク画像として生成部804に出力する。S1004の処理が終了した場合、または前景マスク画像が不正として検出されなかった場合(S1003:NO)、S1005の処理に進む。
S1005において不正テクスチャ検出部805は、処理対象のカメラの前景テクスチャ画像から不正な画像を検出する。不正テクスチャ検出部805が不正かを検出する手段として、S1003において不正マスク検出部802が不正な前景マスク画像を検出する方法と同様の方法を用いればよい。例えば、取得した前景テクスチャ画像の画像データに含まれるデータヘッダに含まれる情報と画像が整合していない、またはデータヘッダの情報に異常値がある場合は不正な画像として検出する。
前景テクスチャ画像が不正な画像として検出された場合(S1005:YES)、S1006において可視性判定部806は、処理対象のカメラの情報を取得する。そして可視性判定部806は、処理対象のカメラに基づく前景テクスチャ画像の「可視性」を不可視として設定する。可視性が不可視と設定されることにより、レンダリング装置105において本フローチャートの終了後に行われる前景の三次元モデルに色づけを行う際に、不正な前景テクスチャ画像に基づき色づけが行われることを防ぐことができる。全てのカメラに対して処理が終了した場合、または前景テクスチャ画像が不正と検出されなかった場合(S1005:NO)はS1007に進む。
なお、本実施形態では、前景マスク画像と前景テクスチャ画像の両方の画像について不正な画像であるかの検出が行われる形態である。他にも、前景マスク画像と前景テクスチャ画像のどちらか一方の画像のみ不正であるかが検出され、不正と検出された場合は、もう一方の画像も自動的に不正な画像であるものとして後続の処理が行われる形態であってもよい。例えば、S1005における処理は行われず、S1003において不正マスク検出部802は処理対象のカメラによる前景マスク画像が不正な画像かの検出のみ行う。不正マスク検出部802が、前景マスク画像を不正と検出した場合、処理対象のカメラの前景テクスチャ画像についても不正な画像であるものとしてS1006の処理が行われる形態でもよい。
S1007において生成部804は、各カメラによる正常な前景マスク画像と処理部803によって処理された画像を基に前景の三次元モデルを生成する。本実施形態では三次元空間を構成する要素としてボクセルを用いて以下のような手順で行う。
図11はボクセルを説明するための図である。ボクセルとは、図11(a)で示すような微小な立方体のことである。図11(b)は前景の三次元モデルを生成するカメラの対象空間をボクセルの集合として表したものである。
対象空間のボクセルのうち処理対象のボクセルである1つの着目ボクセルを各カメラの前景マスク画像に射影したとき、各カメラの前景マスク画像の前景領域内に着目ボクセルの射影が収まるか否かが判定される。この判定の結果、各カメラの前景マスク画像のうち、着目ボクセルの射影が前景領域から外れる前景マスク画像が1つでも存在する場合、着目ボクセルは削除される。
一方、対象空間を撮像する全てのカメラによる前景マスク画像の前景領域の内部に着目ボクセルの射影が収まる場合、その着目ボクセルは前景を構成するボクセルと判定され着目ボクセルは残される。生成部804は、この一連の処理を対象空間の全てのボクセルに対して行うことにより、前景の三次元モデルを形成する。
図11(c)は図11(b)から、いずれのカメラの前景領域にも収まらなかったボクセルを削ることで、前景の形状が四角錐である三次元モデルがボクセルによって生成されたことを表している図である。例えば図11(b)の図におけるボクセル1101を着目ボクセルとしたとき、ボクセル1101の射影が前景領域から外れる前景マスク画像があったことからボクセル1101は削除されている。一方、図11(b)の図におけるボクセル1102を着目ボクセルとしたとき、ボクセル1102は対象空間を撮像する全てのカメラの前景マスク画像の前景領域の内部にボクセル1102の射影が収まることからボクセル1102は残されている。こうして図11(c)の前景の三次元モデルが生成されている。
なお、本実施形態は前景の三次元モデルを立方体のボクセルとして表すがこれに限られない。他にも例えば、三次元空間を構成する要素として点を用いて、前景の三次元モデルを点群で表してもよい。
S1008において可視性判定部806は、生成された前景の三次元モデルに対して前景の三次元モデルの表面上の各ボクセルの面がどのカメラから見えるかの判定をする「可視性判定」を行う。S1006において不正テクスチャ検出部805によって検出された不正な前景テクスチャ画像は、不可視として設定されている。前景テクスチャ画像が不可視と設定されると、可視性判定部806は、前景テクスチャ画像の基となった撮像画像を撮像したカメラの画角内にボクセルが含まれる場合であっても、当該ボクセルが見えるカメラとして判定しない。そして可視性判定部806による判定結果は、S1009においてレンダリング装置105に出力される。
この後の仮想視点画像を生成する処理として、レンダリング装置105では、可視性判定においてボクセルの面が見えると判定されたカメラの前景テクスチャ画像を用いて、当該ボクセルの面の色を決定する。このため、可視性判定部806が不正な前景テクスチャ画像を不可視と設定することにより、レンダリング装置105が不正な前景テクスチャ画像を用いて色づけすることを防ぐことができる。
S1009において可視性判定部806は、レンダリング装置105へ前景の三次元モデル、前景テクスチャ画像、可視性判定結果を出力する。
以上が、本実施形態に係る前景の三次元モデル生成の処理の内容である。動画の仮想視点画像を生成する場合には、上述の各ステップの処理をフレーム単位で繰り返し行い、フレーム毎に前景の三次元モデルが生成される。その後の処理としてレンダリング装置105において仮想視点画像が生成される。
以上説明したように本実施形態によれば、不正な前景マスク画像を全白画像とすることにより、不正な前景マスク画像によって生成される前景の三次元モデルの欠落を抑制することができる。よって、不正な前景マスク画像による影響を取り除いた前景の三次元モデルの生成が可能となる。また、不正な前景テクスチャ画像を不可視として設定することにより、不正な前景テクスチャ画像によって前景の三次元モデルに色付がされることを防ぐことができる。このため画質劣化を抑えた仮想視点画像の生成をすることができる。
<実施形態2>
実施形態1では、不正な前景マスク画像については全白画像になるように処理されるため、不正な前景マスク画像の一部に正常な前景領域が含まれている場合であっても、正常な前景領域は前景の三次元モデルの生成に用いられなかった。例えば、実施形態1では全てのカメラの前景マスク画像が不正である場合、ボクセル集合は削られずに前景の三次元モデルが生成されることになる。本実施形態は、前景マスク画像のうち、それぞれの前景領域ごとに生成される前景矩形マスク画像を用いて、当該前景矩形マスク画像ごとに不正な画像があるかの検出を行う形態である。
このため、本実施形態では、前景マスク画像のうち、一部に正常な前景領域が含まれている場合、正常な前景領域については前景の三次元モデル生成に寄与させることができる。本実施形態については、実施形態1からの差分を中心に説明する。特に明記しない部分については実施形態1と同じ構成および処理である。
本実施形態における前景抽出装置群102における各前景抽出装置102a〜102rの処理について図を用いて説明する。図12は、図7(b)で示した前景テクスチャ画像7a〜7eから前景の領域を抽出し、前景領域を白で表し前景以外の領域を黒で表した2値の画像である。この前景ごとの2値の画像を前景矩形マスク画像12a〜12eとよぶ。各カメラ101a〜101rに応じた前景抽出装置102a〜102rは、実施形態1で説明した前景マスク画像、前景テクスチャ画像に加えて、この前景矩形マスク画像を生成する。そして前景抽出装置102a〜102rは、前景矩形マスク画像の前景マスク画像上の座標を算出して、それぞれのデータを生成装置104に送信する。
前景抽出装置102a〜102rは、図6の前景マスク画像600を生成するにあたり複数の前景矩形マスク画像12a〜12eを対応する座標へ貼り付けることにより合成して前景マスク画像を生成してもよい。
[フローチャート]
図13は、本実施形態の生成装置104で行われる三次元モデルを生成する処理を説明するためのフローチャートの一例を示す図である。
S1301において取得部801は、前景抽出装置102a〜102rから各カメラ101a〜101rに応じた前景マスク画像、前景テクスチャ画像、前景矩形マスク画像、および前景矩形マスク画像の前景マスク画像上の座標を取得する。
S1302〜S1304の処理はS1002〜S1004の処理と同一であるため説明を省略する。
処理対象のカメラの前景マスク画像が不正であった場合、S1305において不正マスク検出部802は、処理対象のカメラが撮像した撮像画像に基づく前景矩形マスク画像を取得したかを判定する。前景マスク画像が不正として検出された場合であっても、前景矩形マスク画像は送信されることがあるためである。
前景矩形マスク画像を取得していると判定した場合(S1305:YES)、S1306において不正マスク検出部802は、前景ごとの前景矩形マスク画像が正常かを判定する。前景矩形マスク画像から正常な(不正ではない)画像を検出する方法は、S1303における不正な前景マスク画像を検出する方法と同様の方法を用いればよい。例えば、夫々の前景矩形マスク画像の画像データに含まれるデータヘッダの情報と画像が整合していない、またはデータヘッダの情報に異常値がある場合には不正と検出する。不正と検出されなかった場合は正常な画像とする方法を用いればよい。
不正ではない正常な前景矩形マスク画像がある場合(S1306:YES)、S1307において処理部803は、S1304において全白画像とした前景マスク画像上に、正常な前景矩形マスク画像を重畳する処理をする。その結果得られた画像を処理対象のカメラの前景マスク画像として生成部804に出力する。正常な前景矩形マスク画像が複数ある場合は、複数の正常な前景矩形マスク画像を全白画像上の重畳する処理をする。処理部803は、前景矩形マスク画像を重畳した画像を処理対象のカメラの前景マスク画像に置き換えて生成部804に出力する。
図14(a)は、正常な前景マスク画像であれば、図6の前景マスク画像600のように5つの前景領域が含まれる画像ではあるが、3つの前景領域しか含まれていない不正な前景マスク画像を示す図である。図14(a)の不正な前景マスク画像から前景の三次元モデルを生成すると、前景領域として認識されなかった前景の三次元モデルは、削られて劣化したものとなる。一方、実施形態1のように図14(a)の不正な前景マスク画像を全白画像に置き換えると、正常に前景のシルエットを表している前景領域についても、前景の三次元モデルの生成に用いられないことになる。
図14(b)は図14(a)の不正な前景マスク画像に含まれる正常な前景矩形マスク画像の例である。図14(c)は、全白画像に、正常な前景矩形マスク画像を重畳する処理がされた前景マスク画像である。この前景マスク画像が前景の三次元モデルの生成に用いられることにより、正常な前景矩形マスク画像については前景の三次元モデルに寄与させることができる。また、正常に前景領域が抽出できなかった前景の三次元モデルの生成においては、不正な前景マスク画像により三次元モデルが削られずに三次元モデルを生成させることができる。
なお、図14(c)のような前景マスク画像を生成する方法として全白画像に正常な前景矩形マスク画像を重畳させる方法を説明したが。他にも、処理部803は、不正な前景マスク画像から正常な前景領域を含む矩形の領域を検出し、不正な前景マスク画像に含まれる正常な前景領域を含む矩形の領域以外の領域を白の領域として処理した画像を前景マスク画像とする方法を用いてもよい。
前景矩形マスク画像が取得できなかった場合(S1305:NO)、正常な前景矩形マスク画像が無かった場合(S1306:NO)、処理部803は、不正な前景マスク画像を全白画像に置き換える。処理部803は、置き換えた全白画像を処理対象のカメラの前景マスク画像として生成部804に出力する。
S1308において不正テクスチャ検出部805は、処理対象のカメラの前景テクスチャ画像から不正な画像を検出する。不正テクスチャ検出部805が不正かを検出する手段として、S10005で説明した方法に加えて、S1306において不正と検出された前景矩形マスク画像については、対応する前景テクスチャ画像についても不正なものとして検出する方法を用いてもよい。S1309〜S1312の処理は、S1006〜S1009の処理と同一であるため説明は省略する。
以上説明したように本実施形態によれば、不正な前景マスク画像であっても、正常に前景の領域を示している領域については、当該前景の三次元モデルの生成に寄与させることができる。即ち、本実施形態は、不正な前景マスク画像のうち、正常な前景領域以外の領域に対しては三次元モデル生成に与える影響を抑制するための処理が行われることになる。このように処理されることにより、不正な前景マスク画像による前景の三次元モデル生成への影響を少なくし、画質劣化を抑えた仮想視点画像の生成を実現することができる。
<実施形態3>
本実施形態では、取得した前景マスク画像が不正として検出された場合、直前の正常な前景マスク画像の前景領域を広げる処理を行う。当該広げる処理がされた画像を不正な前景マスク画像と置き換えることにより、不正な前景マスク画像による前景の三次元モデルの品質劣化を抑制する形態である。本実施形態については、実施形態1からの差分を中心に説明する。特に明記しない部分については実施形態1と同じ構成および処理である。
[生成装置の機能構成]
図15は、本実施形態における生成装置104の構成を示すブロック図である。実施形態1と同一の処理ブロックについては同じ番号を付して説明を省略する。本実施形態の生成装置104は、取得部801、不正マスク検出部802、処理部803、生成部804、不正テクスチャ検出部805、可視性判定部806、マスク記憶部1501およびマスク取得部1502を有する。
マスク記憶部1501は、以前(過去)に生成され、不正と判定されなかったカメラごとの前景マスク画像を、対応するカメラと関連付けて記憶する。マスク記憶部1501は生成装置104のROM(不図示)またはHDD(不図示)等によって実現される。なお、マスク記憶部1501は生成装置104と異なる装置におけるROMまたはHDD等によって実現されてもよい。その場合、生成装置104は、ネットワーク等を介してマスク記憶部を有する他の装置と接続されることにより前景マスク画像を取得する。マスク取得部1502は、マスク記憶部から以前の前景マスク画像を取得する。
[フローチャート]
図16は、本実施形態の生成装置104で行われる三次元モデルを生成する処理を説明するためのフローチャートの一例を示す図である。S1601〜S1604はS1001〜S1004と同一の処理であるため説明を省略する。
前景マスク画像が不正として検出された場合(S1603:YES)S1604に進む。S1604においてマスク取得部1502は、処理対象のカメラと同一方向のカメラに基づく撮像画像によって以前に生成された前景マスク画像であって、不正として検出されなかった前景マスク画像をマスク記憶部1501から取得する。
以前に生成された前景マスク画像とは、例えば、動画の仮想視点画像を生成する場合には、本フローチャートの各ステップの処理がフレーム単位で繰り返し行われる。このため、処理中の現フレームに対して直前のフレームにおいて生成された前景マスク画像を取得する。
S1605において処理部803は、S1604において取得された、以前の前景マスク画像の前景領域を示す白色の領域を前景領域よりも広い領域にする処理をする。本実施形態では、前景領域を広げるための処理として膨張処理をする。そして処理部803は、処理対象のカメラの前景マスク画像を、処理された画像に置き換えて生成部804に出力する。
ここで膨張処理は、例えば、前景マスク画像の各画素を注目画素とし、注目画素の周囲を1画素で囲んだ単位領域ごとに膨張処理は行われる。具体的には、その注目画素が白色であればその単位領域の全ての画素(8画素)を注目画素と同じ白色にするような処理をする。なお、膨張処理の方法は限定しない。例えば、ある注目画素において、その注目画素の周辺に白色の画素が存在する場合は、その注目画素の画素値を白色の画素値にさせるような処理でもよい。
図17(a)は以前の前景マスク画像として図6で示した前景マスク画像600を取得し、前景マスク画像600の前景領域を膨張させた例を示す。前景領域を膨張させるための画素数は、S1601において取得された前景マスク画像の基の撮像画像が撮像された時間と、S1604において取得された前景マスク画像の基の撮像画像が撮像された時間とに基づき決定される。動画の場合、取得した前景マスク画像のフレームによる時間分だけ前景が動くことの可能な範囲を想定して決めればよい。例えば、競技場402で1秒間に60回の撮像が行われる場合であって、S1604において処理中の現フレームに対して直前のフレームに基づく前景マスク画像が取得される場合がある。この場合、直前のフレームと現フレームとの時間差である1/60秒間において前景である人物が動くことが可能な範囲を予め算出し、膨張処理において膨張させる画素数を決めればよい。
また、前景領域を広げる方法として膨張処理に限られない。他にも、処理部803は直前の前景マスク画像の位置・大きさから前景が存在し得る範囲が含まれる矩形領域のような所定の領域を算出する。そして処理部803は、図17(b)に示すように各前景領域を算出された矩形領域に置換し、当該画像を処理対象のカメラの前景マスク画像として用いる方法でもよい。
前景マスク画像が不正として検出されなかった場合(S1603:NO)、S1606において不正マスク検出部802は、正常な前景マスク画像を対象のカメラと時間とを関連付けてマスク記憶部1501に記憶する。S1607〜S1611までの処理は、S1005からS1009までの処理と同一であるため説明は省略する。
以上説明したように本実施形態によれば、不正な前景マスク画像であっても、不正な前景マスク画像を処理が行われた以前の前景マスク画像に置き換えることにより、不正な前景マスク画像による前景の三次元モデルの品質劣化の影響を抑制することができる。本実施形態において不正な前景マスク画像と置き換えられた画像(図17)は、前述の実施形態において置き換えられた画像(図9(b)または図14(c))に比べ、白の領域を少なくすることができる。このため、不正な前景マスク画像による前景の三次元モデル生成への影響を少なくし、画質劣化を抑えた仮想視点映像生を実現することができる。
なお、本実施形態では取得部801とマスク取得部1502は別のモジュールとして説明したが、1つの取得部が各取得部において取得するデータを取得する形態でもよい。
<実施形態4>
前述の実施形態において、生成部804は視体積交差法による前景の三次元モデルを生成する際に着目ボクセルの射影が前景領域から外れる前景マスク画像が1つでも存在する場合、着目ボクセルを削除し、前景の三次元モデルを生成する形態であった。
本実施形態では、ボクセルを削る前景マスク画像の数が1つではなく、場合によっては着目ボクセルが複数の前景マスク画像による前景領域外と判定された場合に着目ボクセルを削るように処理する形態である。本実施形態については実施形態1からの差分を中心に説明する。特に明記しない部分については実施形態1と同じ構成および処理である。
[生成装置の機能構成]
図18は、本実施形態における生成装置104の構成を示すブロック図である。実施形態1と同一の処理ブロックについては同じ番号を付して説明を省略する。本実施形態の生成装置104は、取得部801、不正マスク検出部802、生成部804、不正テクスチャ検出部805、可視性判定部806および閾値決定部1801を有する。閾値決定部1801は三次元モデル生成において着目ボクセルを削る際の閾値を決定する。詳細については後述する。
[フローチャート]
図19は、本実施形態の生成装置104で行われる三次元モデルを生成する処理を説明するためのフローチャートの一例を示す図である。S1901〜S1903の処理はS1001〜S1003の処理と同一であるため説明を省略する。
処理対象のカメラの前景マスク画像が不正と検出された場合(S1903:YES)、S1904において不正マスク検出部802は、不正な前景マスク画像の数に1を加算する。不正な前景マスク画像の数とは夫々のカメラ101a〜101rに対応する前景マスク画像のうち、不正と検出された前景マスク画像の数である。1905〜S1906の処理はS1005〜S1006の処理と同一であるため説明を省略する。
S1907において閾値決定部1801は、不正な前景マスク画像の数に基づき閾値を決定する。本実施形態では、閾値決定部1801は、不正な前景マスク画像の数を閾値として決定する。なお、閾値決定部1801による閾値の決定方法はこれに限られない。例えば不正な前景マスク画像の数が前景を同期撮像しているカメラの台数に近づくにつれて閾値を減らすように閾値を決定してもよい。
S1908において生成部804は、同期撮像された撮像画像による前景マスク画像を基に三次元モデルを生成する。生成部804は、前述したとおり、対象空間のボクセル集合のうち処理対象のボクセルである1つの着目ボクセルの射影が各前景マスク画像の前景領域内に収まるか否かを判定することにより三次元モデルを生成する。本実施形態では、この判定において、着目ボクセルの射影が前景領域から外れる前景マスク画像の数が閾値より大きいの場合のみ、着目ボクセルをボクセル集合から削除する。つまり、閾値以下の前景マスク画像だけでは三次元モデルの生成に寄与されないことになる。
図20は本実施形態に基づき、前景となるオブジェクトを撮像する5つのカメラA〜Eによって前景の三次元モデルの生成を説明するための図である。カメラA、カメラCが撮像した撮像画像に基づく前景マスク画像201、203は不正な前景マスク画像であり、カメラB、カメラD、カメラEの前景マスク画像202、204、205は正常な前景マスク画像であることを示している。このため、図20の状態では、不正な前景マスク画像の数は2であることから、不正な前景マスク画像の数から決定される閾値についても同じく2と決定される。
閾値が2の場合、処理対象のボクセルである着目ボクセルは、閾値である2より大きい3台のカメラによる前景マスク画像の前景領域に着目ボクセルが射影されていない場合、ボクセル集合から削られる。即ち、2台のカメラの前景領域に着目ボクセルが射影されていない場合であっても、残りの3台のカメラの前景マスク画像の前景領域に着目ボクセルが射影されていれば着目ボクセルは削られないで三次元モデルが生成される。
図20では、閾値である2つのカメラA、Cによる不正な前景マスク画像201、203の前景領域には着目ボクセルは射影されない。しかし、それだけでは着目ボクセルは削られず、他の3つの正常な前景マスク画像202、204、205のいずれかの前景領域においても着目ボクセルが射影されていない場合、着目ボクセルが削られる。このように閾値を用いて着目ボクセルが判定されることによって三次元モデルが生成されることになる。S1909〜S1910の処理はS1008〜S1009の処理と同一であるため説明を省略する。
以上説明したように本実施形態によれば、前景の三次元モデルを生成するための閾値を決定することにより、少数の不正な前景マスク画像により三次元モデルに含まれるべきボクセルが削られてしまうことを抑制することができる。よって前景の三次元モデルの品質劣化を抑制することができ、画質劣化を抑えた仮想視点映像生を実現することができる。
本実施形態については、三次元空間を構成する要素としてボクセルを用いて説明したが、前述したとおり、三次元空間を構成する要素として点を用いても実現可能である。
<実施形態5>
本実施形態は、取得した前景マスク画像のうち不正な前景マスク画像がある場合、前景の移動量に基づき直前の前景の三次元モデルを移動させることにより、新たな前景の三次元モデルを生成する形態である。このため不正な前景マスク画像を取得した場合であっても品質劣化の少ない前景の三次元モデルを生成することができる。本実施形態については、実施形態1からの差分を中心に説明する。特に明記しない部分については実施形態1と同じ構成および処理である。
[生成装置の機能構成]
図21は、本実施形態における生成装置104の構成を示すブロック図である。実施形態1と同一の処理ブロックについては同じ番号を付して説明を省略する。生成装置104は、取得部801、不正マスク検出部802、処理部803、生成部804、不正テクスチャ検出部805、および可視性判定部806を有する。さらに本実施形態における生成装置104は、画像データ記憶部2101、モデル記憶部2102、画像データ取得部2104、およびモデル取得部2105を有する。
画像データ記憶部2101は、取得部801が取得した以前の画像データ等のデータを記憶する。モデル記憶部2102は以前に生成された前景の三次元モデルを記憶する。画像データ記憶部2101およびモデル記憶部2102はROMまたはHDD等によって実現される。なお、画像データ記憶部2101およびモデル記憶部2102は生成装置104と異なる装置におけるROMまたはHDD等によって実現されてもよい。
移動量決定部2103は、ある期間の前景の移動量を決定する。画像データ取得部2104は、画像データ記憶部2101から以前の画像データを取得する。モデル取得部2105はモデル記憶部2102から以前に生成された前景の三次元モデルを取得する。
[フローチャート]
図22は、本実施形態の生成装置104で行われる前景の三次元モデルを生成する処理を説明するためのフローチャートの一例を示す図である。本実施形態では実施形態2と同様に、前景抽出装置群102における各前景抽出装置102a〜102rは、前景マスク画像および前景テクスチャ画像に加えて、前景矩形マスク画像を生成する。
S2201において取得部801は、前景抽出装置102a〜102rから各カメラ101a〜101rに応じた前景マスク画像、前景テクスチャ画像、前景矩形マスク画像、および前景矩形マスク画像の前景マスク画像上の座標を取得する。S2202〜S2203の処理はS1002〜S1003の処理と同一であるため説明を省略する。
前景マスク画像が不正として検出された場合(S2203:YES)、S2204において不正マスク検出部802は、不正な前景マスク画像の数に1を加算する。不正な前景マスク画像の数とは夫々のカメラ101a〜101rに対応する前景マスク画像のうち、不正と検出された前景マスク画像の数である。
前景マスク画像が不正として検出されなかった場合(S2203:NO)S2205において、不正マスク検出部802は、正常な前景マスク画像を、前景矩形マスク画像と、対象のカメラと、時間と、を関連付けて画像データ記憶部2101に記憶する。S2206〜S2207の処理についてはS1005〜S1006と、それぞれ同一の処理であるため説明を省略する。
S2208において不正マスク検出部802は、S2203において不正な前景マスク画像を検出した結果、不正な前景マスク画像があったかを判定する。本実施形態では、不正な前景マスク画像の数が1以上の場合は不正な前景マスク画像があると判定される。不正と判定された前景マスク画像があった場合(S2208:YES)、S2209に進む。
次のS2209〜S2211では、S2201において取得した各前景マスク画像によって前景の三次元モデルは生成されない。本実施形態では、不正な前景マスク画像が検出された場合、移動量と以前に生成された前景の三次元モデルに基づき前景の三次元モデルが推定され、前景の三次元モデルが生成される。
S2209において画像データ取得部2104は、S2201において取得部801が取得したデータのうち、不正と検出されていない前景マスク画像の中から第一の前景マスク画像を選択する。画像データ取得部2104は、第一の前景マスク画像の前景領域を示す前景矩形マスク画像とその座標データを取得する。
画像データ取得部2104は、さらに画像データ記憶部2101から、第一の前景マスク画像と同じ方向から以前に撮像された撮像画像に基づき生成された前景マスク画像であって、不正と検出されていない第二の前景マスク画像を選択する。そして、画像データ取得部2104は、画像データ記憶部2101から、第二の前景マスク画像の前景領域を示す前景矩形マスク画像とその座標データを取得する。
動画の仮想視点画像を生成する場合には、本フローチャートの各ステップの処理がフレーム単位で繰り返し行われる。このため、例えば第二の前景マスク画像として、画像データ取得部2104は、処理中の現フレームに対して直前のフレームにおいて取得された前景マスク画像を第二の前景マスク画像として選択し、前景矩形マスク画像を取得すればよい。また、第一の前景マスク画像は、現フレームにおいて不正と検出されなかった前景マスク画像のうち直前のフレームにおいても不正と検出されていない前景マスク画像が選択されればよい。
S2210において移動量決定部2103は、画像データ取得部2104が取得した第二のマスク画像が撮像された時間から本フローチャートにおける処理対象の時間である第一のマスク画像が撮像された時間までの前景の移動量(移動方向を含む)を算出する。移動量決定部2103は、算出した移動量に基づき前景の移動量を決定する。
本実施形態における前景の移動量を決定するための算出方法は、第一の前景マスク画像に含まれる前景矩形マスク画像と第二の前景マスク画像に含まれる前景矩形マスク画像との中心座標の差分に基づき算出される。
図23は、前景矩形マスク画像の中心座標の差分により各前景の移動量が算出された例である。図23(a)は第一の前景マスク画像の例を示した図であり、図23(b)は第二の前景マスク画像の例を示した図である。また、図23(c)は第二の前景マスク画像と、第一の前景マスク画像との前景毎に移動量が決定されたことを示す図である。図23(c)の矢印は、決定された移動方向と移動量を表している。
移動量決定部2103が移動量を決定するための算出方法は他にも、前景矩形マスク画像を用いずに前景領域の平均差分値により移動量を算出する方法でもよい。また、前景マスク画像または前景矩形マスク画像によらないで移動量を算定する方法であってもよい。例えば、図7(a)のように撮像画像における前景を含む領域を矩形領域として算出した画像と、以前に撮像された撮像画像から算出された同様の画像を用いて、矩形画像の中心座標の差分より算出する方法でもよい。または、複数のカメラにより各前景の移動量を算出する方法でもよい。また、移動量決定部2103は移動量を他の装置等から取得し、当該移動量を用いて前景の移動量を決定してもよい。
さらに、移動量決定部2103は、決定した前景の移動量を基に、第一の前景マスク画像を撮像したカメラのカメラパラメータを用いて三次元空間上の移動量を算出して決定する。
S2211においてモデル取得部2105は、モデル記憶部2102に記憶されている第二の前景マスク画像を含む前景マスク画像に基づき生成された前景の三次元モデルを取得する。次に生成部804は、取得された第二の前景マスク画像に基づく前景の三次元モデルを、三次元空間上の移動量に基づき移動させることで、S2201で取得した画像が同期撮像された時間である処理対象の時間の前景の三次元モデルを生成する。
一方、不正な前景マスク画像がなかった場合(S2208:NO)、S2212において生成部804は、S2201において取得された前景マスク画像に基づき前景の三次元モデルを生成する。生成方法は、S1007と同一であるため説明を省略する。S2213において生成部804は、生成した前景の三次元モデルをモデル記憶部2102に記憶する。
S2214において可視性判定部806は可視性判定を行う。ここで、S2211において移動量によって前景の三次元モデルを生成した場合は、カメラパラメータも移動量だけカメラ位置を移動させて可視性判定を行う。S2215はS1009と同一の処理であるため説明は省略する。
以上説明したように本実施形態においては、前景の移動量を決定することにより、以前に生成した前景の三次元モデルから、生成する三次元モデルの形状を推定することにより、前景の三次元モデルを生成する。このため、不正な前景マスク画像による前景の三次元モデルの品質劣化を抑制することができ、画質劣化を抑えた仮想視点映像生を実現することができる。
なお、本実施形態では取得部801と画像データ取得部2104とモデル取得部2105は別のモジュールとして説明したが、1つの取得部が各取得部において取得するデータを取得する形態でもよい。
<その他の実施形態>
上述した実施形態は、各カメラに対応した前景抽出装置が、各カメラの撮像画像の前景領域を抽出する形態として説明した。この他に前景抽出装置の有する機能も含む一つの画像処理装置が複数のカメラの画像データを取得して、当該画像処理装置が各カメラにおける前景マスク画像および前景テクスチャの生成をする形態であってもよい。
上述の実施形態では、不正マスク検出部802と不正テクスチャ検出部805は別のモジュールとして説明したが、1つの検出部が前景マスク画像、前景矩形マスク画像および前景テクスチャ画像が不正かを検出する形態でもよい。
上述した実施形態では、制御装置103、生成装置104、レンダリング装置105はそれぞれ別の装置であるものとして説明した。他にも、1つのまたは2つの装置により、制御装置103、生成装置104、レンダリング装置105の機能が実現されてもよい。例えば、前景の三次元モデルの生成と、仮想視点画像の生成を1つの画像処理装置によって行う形態でもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
104 生成装置
500 撮像画像
600 前景マスク画像
801 取得部
802 不正マスク検出部
803 処理部
804 生成部

Claims (26)

  1. 複数の方向からの撮像に基づいて得られたオブジェクト領域を示す画像をそれぞれ取得する取得手段と、
    前記取得手段が取得した画像のうち、正常ではない画像を検出する検出手段と、
    前記検出手段によって検出された画像に対して処理を行う処理手段と、
    前記取得手段が取得した画像のうち前記処理手段によって処理されていない画像と、前記処理手段によって前記処理が行われた画像と、に基づき前記オブジェクトの三次元形状データを生成する生成手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記処理手段は、前記処理として、前記検出手段によって検出された画像を、画像の全ての領域がオブジェクト領域であるように表された画像に、置き換える処理をする
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記検出手段は、正常ではない画像のうち正常な領域を検出し、
    前記処理手段は、前記処理として、前記検出手段によって検出された画像のうち、正常な領域とは異なる領域の一部がオブジェクト領域であるように表された画像に、置き換える処理をする
    ことを特徴とする請求項1に記載の画像処理装置。
  4. 前記正常な領域とは異なる領域の一部は、前記正常な領域を含む所定の領域以外の領域である
    ことを特徴とする請求項3に記載の画像処理装置。
  5. 前記取得手段は、前記検出手段によって検出された画像に対応する過去のオブジェクト領域を示す画像をさらに取得し、
    前記処理手段は、前記処理として、前記過去のオブジェクト領域を示す画像に含まれるオブジェクト領域を広げる処理がされた画像を、前記検出手段によって検出された画像と置き換える処理をする
    ことを特徴とする請求項1に記載の画像処理装置。
  6. 前記過去のオブジェクト領域を示す画像は、前記検出手段によって検出された画像に対応する撮像画像を得るための撮像と同じ方向から以前に撮像されて得られた撮像画像に基づくオブジェクト領域を示す画像である
    ことを特徴とする請求項5に記載の画像処理装置。
  7. 前記処理手段は、前記広げる処理として、膨張処理をする
    ことを特徴とする請求項5または6に記載の画像処理装置。
  8. 前記処理手段は、前記広げる処理として、オブジェクト領域を含む所定の領域の全ての領域がオブジェクト領域であるように置換する
    ことを特徴とする請求項5または6に記載の画像処理装置。
  9. 前記処理手段は、前記検出手段によって検出された画像に対応する撮像画像が撮像された時間と、前記過去のオブジェクト領域を示す画像に対応する撮像画像が撮像された時間と、の差において前記オブジェクトが動くことの可能な範囲に基づき、前記広げる処理における広げる大きさを決定する
    ことを特徴とする請求項5から8のいずれか1項に記載の画像処理装置。
  10. 複数の方向からの撮像に基づいて得られたオブジェクト領域を示す画像をそれぞれ取得する取得手段と、
    前記取得手段が取得した画像のうち、正常ではない画像を検出する検出手段と、
    前記検出手段によって検出された画像の数に基づき閾値を決定する決定手段と、
    三次元空間を構成する要素の集合のうち、夫々の前記オブジェクト領域を示す画像と前記閾値とに基づき、対象の要素が前記オブジェクトに属さない要素であると判定した場合、対象の要素を削ることにより、前記オブジェクトの三次元形状データを生成する生成手段と、
    を有することを特徴とする画像処理装置。
  11. 前記生成手段は、
    前記対象の要素の射影がオブジェクト領域から外れる前記オブジェクト領域を示す画像の数が、前記閾値より大きい場合には前記対象の要素を削るように構成され、
    前記対象の要素の射影がオブジェクト領域から外れる前記オブジェクト領域を示す画像の数が前記閾値以下の場合には、対象の前記要素を削らないことにより、前記オブジェクトの三次元形状データを生成する
    ことを特徴とする請求項10に記載の画像処理装置。
  12. 前記要素は、三次元空間を構成する点又はボクセルである
    ことを特徴とする請求項10または11に記載の画像処理装置。
  13. 前記決定手段は、
    前記検出手段によって検出された画像の数を前記閾値として決定する
    ことを特徴とする請求項10から12のいずれか1項に記載の画像処理装置。
  14. 以前に生成されたオブジェクトの三次元形状データを取得する取得手段と、
    前記取得手段により取得された前記オブジェクトの三次元形状データの基になった撮像画像が撮像された時間から対象の時間までの前記オブジェクトの移動量を決定する決定手段と、
    前記取得手段により取得された前記オブジェクトの三次元形状データを、前記決定手段により決定された移動量に基づき移動させることにより、前記対象の時間における前記オブジェクトの三次元形状データを生成する生成手段と、
    を有することを特徴とする画像処理装置。
  15. 前記取得手段は、
    前記オブジェクトを含み前記対象の時間において撮像された第一の撮像画像に基づいて得られた第一の画像と、前記オブジェクトを含み前記第一の撮像画像より以前に撮像された第二の撮像画像に基づいて得られた第二の画像とをさらに取得し、
    前記取得手段が取得する前記オブジェクトの三次元形状データは前記第二の撮像画像が撮像された時間における前記オブジェクトの三次元形状データであり、
    前記決定手段は
    前記第一の画像と、前記第二の画像とに基づき前記移動量を決定する
    ことを特徴とする請求項14に記載の画像処理装置。
  16. 前記第一の画像は前記第一の撮像画像に基づいて得られたオブジェクト領域を示す画像であり、前記第二の画像は前記第二の撮像画像に基づいて得られたオブジェクト領域を示す画像であり、
    前記決定手段は、
    前記第一の画像の前記オブジェクト領域を含んだ第一の領域と、前記第二の画像の前記オブジェクト領域を含んだ第二の領域と、の中心座標の差分より前記移動量を決定する
    ことを特徴とする請求項15に記載の画像処理装置。
  17. 前記取得手段は、
    さらに、前記第一の撮像画像が撮像された時間において複数の方向からの撮像に基づいて得られたオブジェクト領域を示す画像をそれぞれ取得し、
    前記取得手段が取得した前記オブジェクト領域を示す画像のうち、正常ではない画像を検出する検出手段をさらに有し、
    前記生成手段は、
    前記検出手段によって前記正常ではない画像が検出された場合は、前記取得手段により取得された前記オブジェクトの三次元形状データを前記決定手段により決定された前記移動量に基づき移動させることにより、前記対象の時間における前記オブジェクトの三次元形状データを生成する
    ことを特徴とする請求項15または16に記載の画像処理装置。
  18. 前記検出手段は、
    画像データにおけるデータヘッダ、データサイズ、およびチェックサムのうちの少なくとも1つに基づき、前記正常ではない画像を検出する
    ことを特徴とする請求項1から13または17のいずれか1項に記載の画像処理装置。
  19. 前記検出手段は、
    前記取得手段が画像を取得できなかった場合、前記正常ではない画像を検出したものとして処理する
    ことを特徴とする請求項18に記載の画像処理装置。
  20. 前記生成手段によって生成された前記オブジェクトの三次元形状データを用いて仮想視点画像を生成する第二の生成手段をさらに有する
    ことを特徴とする請求項1から19のいずれか1項に記載の画像処理装置。
  21. 前記取得手段は、
    前記オブジェクトのテクスチャを示す画像を、さらに取得し、
    前記取得手段が取得した夫々の前記オブジェクトのテクスチャを示す画像から正常ではない画像を検出する第二の検出手段をさらに有し、
    前記第二の生成手段は、
    前記第二の検出手段が正常ではないと検出したオブジェクトのテクスチャを示す画像は用いないで、前記仮想視点画像を生成する
    ことを特徴とする請求項20に記載の画像処理装置。
  22. 複数の方向からの撮像に基づいて得られたオブジェクト領域を示す画像をそれぞれ取得する取得ステップと、
    前記取得ステップによって取得した画像のうち、正常ではない画像を検出する検出ステップと、
    前記検出ステップによって検出された画像に対して処理を行う処理ステップと、
    前記取得ステップによって取得した画像のうち前記処理ステップによって処理されていない画像と、前記処理ステップによって前記処理が行われた画像と、に基づき前記オブジェクトの三次元形状データを生成する生成ステップと、
    を備えることを特徴とする三次元形状データの生成方法。
  23. 前記処理ステップは、
    前記処理として、前記検出ステップによって検出された画像を、画像の全ての領域がオブジェクト領域であるように表された画像に、置き換える処理をする
    ことを特徴とする請求項22に記載の三次元形状データの生成方法。
  24. 複数の方向からの撮像に基づいて得られたオブジェクト領域を示す画像をそれぞれ取得する取得ステップと、
    前記取得ステップによって取得した画像のうち、正常ではない画像を検出する検出ステップと、
    前記検出ステップによって検出された画像の数に基づき閾値を決定する決定ステップと、
    三次元空間を構成する要素の集合のうち、夫々の前記オブジェクト領域を示す画像と前記閾値とに基づき、対象の要素が前記オブジェクトに属さない要素であると判定した場合、対象の要素を削ることにより、前記オブジェクトの三次元形状データを生成する生成ステップと、
    を含むことを特徴とする三次元形状データの生成方法。
  25. 以前に生成されたオブジェクトの三次元形状データを取得する取得ステップと、
    前記取得ステップにより取得された前記オブジェクトの三次元形状データの基になった撮像画像が撮像された時間から対象の時間までの前記オブジェクトの移動量を決定する決定ステップと、
    前記取得ステップにより取得された前記オブジェクトの三次元形状データを、前記決定ステップにより決定された移動量に基づき移動させることにより、前記対象の時間における前記オブジェクトの三次元形状データを生成する生成ステップと、
    を含むことを特徴とする三次元形状データの生成方法。
  26. コンピュータを、請求項1から21のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2018226607A 2018-12-03 2018-12-03 画像処理装置、三次元形状データの生成方法およびプログラム Active JP7250493B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018226607A JP7250493B2 (ja) 2018-12-03 2018-12-03 画像処理装置、三次元形状データの生成方法およびプログラム
US16/680,849 US11200690B2 (en) 2018-12-03 2019-11-12 Image processing apparatus, three-dimensional shape data generation method, and non-transitory computer readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018226607A JP7250493B2 (ja) 2018-12-03 2018-12-03 画像処理装置、三次元形状データの生成方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2020091534A true JP2020091534A (ja) 2020-06-11
JP2020091534A5 JP2020091534A5 (ja) 2022-01-04
JP7250493B2 JP7250493B2 (ja) 2023-04-03

Family

ID=70849749

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018226607A Active JP7250493B2 (ja) 2018-12-03 2018-12-03 画像処理装置、三次元形状データの生成方法およびプログラム

Country Status (2)

Country Link
US (1) US11200690B2 (ja)
JP (1) JP7250493B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022029730A (ja) * 2020-08-05 2022-02-18 Kddi株式会社 3dモデル生成装置ならびに仮想視点映像生成装置、方法およびプログラム
JP2022038354A (ja) * 2020-08-26 2022-03-10 Kddi株式会社 仮想視点映像生成装置、方法およびプログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019161462A (ja) * 2018-03-13 2019-09-19 キヤノン株式会社 制御装置、画像処理システム、制御方法、及びプログラム
CN112819880B (zh) * 2021-01-07 2024-07-23 北京百度网讯科技有限公司 三维物体检测方法、装置、设备及存储介质
JP7465227B2 (ja) 2021-02-16 2024-04-10 Kddi株式会社 3dモデル生成装置、方法及びプログラム
US12020363B2 (en) * 2021-03-29 2024-06-25 Tetavi Ltd. Surface texturing from multiple cameras
CN114546125B (zh) * 2022-04-27 2022-08-09 北京影创信息科技有限公司 键盘跟踪方法及跟踪系统
JP2024130296A (ja) * 2023-03-14 2024-09-30 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008288908A (ja) * 2007-05-17 2008-11-27 Sharp Corp 画像表示装置及び画像表示方法
JP2009104366A (ja) * 2007-10-23 2009-05-14 Suzuki Motor Corp ステレオ画像処理方法
JP2010114760A (ja) * 2008-11-07 2010-05-20 Fujifilm Corp 撮影装置、指がかり通知方法およびプログラム
JP2016173248A (ja) * 2015-03-16 2016-09-29 株式会社リコー 視差値演算装置、物体認識装置、移動体機器制御システム及び視差演算用プログラム
JP2017211827A (ja) * 2016-05-25 2017-11-30 キヤノン株式会社 情報処理装置、制御方法、及び、プログラム

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6556704B1 (en) * 1999-08-25 2003-04-29 Eastman Kodak Company Method for forming a depth image from digital image data
WO2006097681A1 (en) * 2005-03-17 2006-09-21 British Telecommunications Public Limited Company Method of tracking objects in a video sequence
US7564476B1 (en) * 2005-05-13 2009-07-21 Avaya Inc. Prevent video calls based on appearance
WO2008039371A2 (en) * 2006-09-22 2008-04-03 Objectvideo, Inc. Video background replacement system
TWI390465B (zh) * 2009-06-19 2013-03-21 Primax Electronics Ltd 用於背景去除之影像處理方法
US9160938B2 (en) * 2010-04-12 2015-10-13 Wsi Corporation System and method for generating three dimensional presentations
WO2011162309A1 (ja) * 2010-06-23 2011-12-29 日本電気株式会社 物体領域抽出装置、方法、及び、プログラム
WO2012010220A2 (en) * 2010-07-19 2012-01-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Filling disocclusions in a virtual view
KR101798408B1 (ko) * 2011-01-03 2017-11-20 삼성전자주식회사 3d 디스플레이를 위한 고품질 멀티-뷰 영상의 생성 방법 및 장치
CN102985952B (zh) * 2011-05-12 2016-06-22 松下知识产权经营株式会社 图像生成装置及图像生成方法
US9401041B2 (en) * 2011-10-26 2016-07-26 The Regents Of The University Of California Multi view synthesis method and display devices with spatial and inter-view consistency
HUP1300328A3 (en) * 2013-05-23 2017-03-28 Mta Szamitastechnika Es Automatizalasi Ki Method and system for integrated three dimensional modelling
US10275935B2 (en) * 2014-10-31 2019-04-30 Fyusion, Inc. System and method for infinite synthetic image generation from multi-directional structured image array
US10051206B2 (en) * 2015-09-28 2018-08-14 Gopro, Inc. Automatic composition of video with dynamic background and composite frames selected based on frame and foreground object criteria
US20170372449A1 (en) * 2016-06-24 2017-12-28 Intel Corporation Smart capturing of whiteboard contents for remote conferencing
US10097793B2 (en) * 2016-07-14 2018-10-09 Intel Corporation Method and system of depth data filling of shadows for image processing
WO2018074252A1 (ja) * 2016-10-19 2018-04-26 ソニー株式会社 画像処理装置および画像処理方法
JP6857032B2 (ja) * 2017-01-05 2021-04-14 キヤノン株式会社 制御装置、システム、制御装置の制御方法
JP6878014B2 (ja) * 2017-01-13 2021-05-26 キヤノン株式会社 画像処理装置及びその方法、プログラム、画像処理システム
US10237532B2 (en) * 2017-03-07 2019-03-19 Trimble Ab Scan colorization with an uncalibrated camera
US10217195B1 (en) * 2017-04-17 2019-02-26 Amazon Technologies, Inc. Generation of semantic depth of field effect
JP6871801B2 (ja) * 2017-05-11 2021-05-12 キヤノン株式会社 画像処理装置、画像処理方法、情報処理装置、撮像装置および画像処理システム
CN107274438B (zh) * 2017-06-28 2020-01-17 山东大学 支持移动虚拟现实应用的单Kinect多人跟踪系统及方法
US10474988B2 (en) * 2017-08-07 2019-11-12 Standard Cognition, Corp. Predicting inventory events using foreground/background processing
EP3675060A4 (en) * 2017-08-22 2020-08-26 Sony Corporation IMAGE PROCESSING DEVICE AND IMAGE PROCESSING METHOD
JP7387434B2 (ja) * 2017-09-11 2023-11-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像生成方法および画像生成装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008288908A (ja) * 2007-05-17 2008-11-27 Sharp Corp 画像表示装置及び画像表示方法
JP2009104366A (ja) * 2007-10-23 2009-05-14 Suzuki Motor Corp ステレオ画像処理方法
JP2010114760A (ja) * 2008-11-07 2010-05-20 Fujifilm Corp 撮影装置、指がかり通知方法およびプログラム
JP2016173248A (ja) * 2015-03-16 2016-09-29 株式会社リコー 視差値演算装置、物体認識装置、移動体機器制御システム及び視差演算用プログラム
JP2017211827A (ja) * 2016-05-25 2017-11-30 キヤノン株式会社 情報処理装置、制御方法、及び、プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022029730A (ja) * 2020-08-05 2022-02-18 Kddi株式会社 3dモデル生成装置ならびに仮想視点映像生成装置、方法およびプログラム
JP7328942B2 (ja) 2020-08-05 2023-08-17 Kddi株式会社 3dモデル生成装置ならびに仮想視点映像生成装置、方法およびプログラム
JP2022038354A (ja) * 2020-08-26 2022-03-10 Kddi株式会社 仮想視点映像生成装置、方法およびプログラム
JP7393092B2 (ja) 2020-08-26 2023-12-06 Kddi株式会社 仮想視点映像生成装置、方法およびプログラム

Also Published As

Publication number Publication date
US11200690B2 (en) 2021-12-14
JP7250493B2 (ja) 2023-04-03
US20200175702A1 (en) 2020-06-04

Similar Documents

Publication Publication Date Title
JP7250493B2 (ja) 画像処理装置、三次元形状データの生成方法およびプログラム
JP6295645B2 (ja) 物体検出方法及び物体検出装置
Cheung et al. A real time system for robust 3D voxel reconstruction of human motions
JP7003994B2 (ja) 画像処理装置および方法
US9098908B2 (en) Generating a depth map
KR20190034092A (ko) 화상처리 장치, 화상처리 방법, 화상처리 시스템 및 기억매체
JP7179515B2 (ja) 装置、制御方法、及びプログラム
JP4839237B2 (ja) 3次元形状復元方法,3次元形状復元装置,その方法を実装した3次元形状復元プログラム及びそのプログラムを記録した記録媒体
US11798233B2 (en) Generation device, generation method and storage medium for three-dimensional model that remove a portion of the three-dimensional model
JP2019106064A (ja) 画像生成装置およびその制御方法、画像生成システム
US11935209B1 (en) Systems and methods for dynamic backfilling of a three-dimensional object
CN116051736A (zh) 一种三维重建方法、装置、边缘设备和存储介质
Zhang et al. Fragmentation guided human shape reconstruction
CN109874000A (zh) 图像处理装置、信息处理方法和存储介质
WO2020209108A1 (ja) 画像処理装置、3dモデル生成方法、およびプログラム
KR101725166B1 (ko) 2차원 이미지들을 이용하여 3차원 이미지를 재구성하는 방법 및 이를 위한 장치
CN116342831A (zh) 三维场景重建方法、装置、计算机设备及存储介质
JP2009301242A (ja) 頭部候補抽出方法、頭部候補抽出装置、頭部候補抽出プログラムおよびそのプログラムを記録した記録媒体
JP2020046960A (ja) 画像処理装置、画像処理装置の制御方法、およびプログラム
JP2020005089A (ja) 撮像システム、画像処理装置、画像処理方法およびプログラム
JP2024519361A (ja) マルチドローン群によって取り込まれたシーンの画像からの無関係なコンテンツの除去
Iwashita et al. Robust motion capture system against target occlusion using fast level set method
Shen et al. Local image quality metric for a distributed smart camera network with overlapping FOVs
JP2021018570A (ja) 画像処理装置、画像処理システム、画像処理方法およびプログラム
KR20060021566A (ko) 전경체 사영영상과 가상외피에 기반한 가상시점 3차원 장면 재구성 방법 및 시스템

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211118

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230322

R151 Written notification of patent or utility model registration

Ref document number: 7250493

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151