JP6425780B1 - 画像処理システム、画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理システム、画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP6425780B1
JP6425780B1 JP2017182795A JP2017182795A JP6425780B1 JP 6425780 B1 JP6425780 B1 JP 6425780B1 JP 2017182795 A JP2017182795 A JP 2017182795A JP 2017182795 A JP2017182795 A JP 2017182795A JP 6425780 B1 JP6425780 B1 JP 6425780B1
Authority
JP
Japan
Prior art keywords
image
information
camera
shape model
dimensional shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017182795A
Other languages
English (en)
Other versions
JP2019057248A (ja
Inventor
康文 ▲高▼間
康文 ▲高▼間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017182795A priority Critical patent/JP6425780B1/ja
Priority to US16/134,642 priority patent/US10701332B2/en
Priority to KR1020180111181A priority patent/KR102049245B1/ko
Priority to CN201811099924.6A priority patent/CN109561296B/zh
Priority to EP18196071.7A priority patent/EP3460761A1/en
Application granted granted Critical
Publication of JP6425780B1 publication Critical patent/JP6425780B1/ja
Publication of JP2019057248A publication Critical patent/JP2019057248A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T17/205Re-meshing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/293Generating mixed stereoscopic images; Generating mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

【課題】複数の仮想視点画像を容易に生成できるようにする。
【解決手段】被写体を複数のカメラで異なる方向から撮影した画像から推定された前記被写体の形状モデルを構成する各要素が前記複数のカメラのそれぞれから見えるか否かを示す可視性情報を、前記形状モデルを構成する各要素と関連付けて取得する取得手段と、前記形状モデルと前記形状モデルを構成する各要素の可視性情報とを用いて仮想視点画像を生成する生成手段とを有する。
【選択図】図2

Description

本発明は、特に、仮想空間に設定された仮想カメラの仮想視点画像を生成するために用いて好適な画像処理システム、画像処理装置、画像処理方法及びプログラムに関する。
実世界の複数の異なる位置・姿勢で設置されたカメラ(以下、実カメラ)により被写体を撮影して得られた画像から、仮想空間に任意の位置・姿勢で設定された仮想カメラの画像(以下、仮想視点画像とする)を実時間で生成したいというニーズがある。これが実現すれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することができるため、通常のテレビなどの視聴と比較してユーザは高臨場感を得ることができる。
しかし、複数の画像から被写体の3次元形状(以下、形状モデル)を推定する形状推定処理や、形状モデルがカメラから見えるか否かを判定する可視性判定処理に多くの時間を要するため、実時間で仮想視点画像を生成することは困難である。この課題を解決するために、特許文献1では、カメラと仮想カメラとの幾何関係を考慮して高速に仮想視点画像を生成する方法が提案されている。
特許第5945255号公報
仮想視点画像をユーザが視聴するケースとして、複数の仮想視点画像を視聴するケースがある。例えば、選手にクローズアップした仮想視点画像とグランド上の選手の動きを俯瞰した仮想視点画像とを同時に視聴するケースや、会場の多数の観客がスマートフォンなどでそれぞれに仮想カメラを操作して視聴するケースなどがある。同時に複数の仮想視点画像を生成するために、前述した形状推定処理や可視性判定処理を仮想視点毎に行うと、これらの処理を行うための情報量が膨大になる。特許文献1に記載の技術は、形状推定処理や可視性判定処理が仮想カメラに依存するため、複数の仮想視点画像を生成する場合には、その分必要な情報量が膨大になってしまう。特に、可視性判定処理に必要な距離画像は撮影画像のサイズやカメラ台数に応じて増加するので、複数の仮想視点画像を生成すると、転送時間の増加やデータ容量の増大化を招いてしまう。
本発明は前述の問題点に鑑み、複数の仮想視点画像を容易に生成できるようにすることを目的としている。
本発明に係る画像処理システムは、複数のカメラにより複数の方向から撮影することで得られる複数の撮影画像に基づいて仮想視点画像を生成する画像処理システムであって、前記複数のカメラの少なくとも何れかにより撮影されるオブジェクトの3次元形状モデルの構成要素に関する可視性情報であって、当該構成要素に対応する画素が撮影画像に含まれるか否かを前記複数の撮影画像のうちの1以上の撮影画像それぞれについて示す可視性情報を、記憶部に記憶させる記憶制御手段と、同一の時刻に対応する複数の異なる仮想視点を示す視点情報を取得する取得手段と、前記取得手段により取得される視点情報により特定される前記同一の時刻に対応する前記複数の異なる仮想視点に応じた複数の仮想視点画像を、前記複数の撮影画像と、前記3次元形状モデルと、前記記憶制御手段により前記記憶部に記憶された前記可視性情報とに基づいて生成する画像生成手段とを有することを特徴とする。
本発明によれば、複数の仮想視点画像を容易に生成することができる。
実施形態に係る画像生成装置のハードウェア構成例を示す図である。 第1の実施形態に係る画像処理システムにおける機能構成例を示すブロック図である。 第1の実施形態における仮想視点画像を生成する処理手順の一例を示すフローチャートである。 可視性情報としてのビット配列の例を示す図である。 第2の実施形態に係る画像処理システムにおける機能構成例を示すブロック図である。 第2の実施形態における仮想視点画像を生成する処理手順の一例を示すフローチャートである。 距離画像の中の被写体領域を囲む矩形領域を説明するための図である。
(第1の実施形態)
本実施形態では、推定した被写体の形状モデルの可視性情報を保存した後、前記可視性情報を用いて複数の仮想視点画像を生成する例を示す。ここで、可視性情報とは、形状モデルを構成する要素が、実世界の複数の異なる位置・姿勢で設置されたカメラ(実カメラ)のそれぞれから見えているか否かを示す情報である。以下では、形状モデルを構成する要素を3次元の点として説明する。なお、形状モデルを構成する要素はこれに限定されず、被写体を表すのに、被写体の有無を1ビットのフラグで表したり、メッシュなどの情報で表現したりしても構わない。なお、本実施形態では、仮想視点画像が静止画である場合を中心に説明するが、仮想視点画像は動画であってもよい。
[システム構成]
以下、本発明の実施形態について図面を参照して説明する。まず、図1及び図2を用いて、仮想視点画像を生成し出力する画像処理システムの構成について説明する。図1は、本実施形態に係る画像生成装置1のハードウェア構成例を示す図である。図2は、本実施形態に係る画像処理システムにおける機能構成例を示すブロック図である。本実施形態における画像処理システムは、画像生成装置1、撮像装置群2、および表示装置3を有する。
まず、図1に示す画像生成装置1のハードウェア構成例について説明する。
画像生成装置1は、CPU101と、ROM102と、RAM103と、HDD104と、表示I/F105と、入力部106と、通信I/F107とを有している。CPU101は、ROM102に記憶された制御プログラムを読み出して各種処理を実行する。RAM103は、CPU101の主メモリ、ワークエリア等の一時記憶領域として用いられる。HDD104は、各種データや各種プログラム等を記憶する。表示I/F105は、各種情報を表示装置3に出力する。入力部106は、キーボードやマウスを有し、ユーザによる各種操作を受け付ける。
通信I/F107は、ネットワークを介して外部装置との通信処理を行う。また、他の例としては、通信I/F107は、無線により外部装置との通信を行ってもよい。
なお、後述する画像生成装置1の機能や処理は、CPU101がROM102又はHDD104に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。また、他の例としては、CPU101は、ROM102等に替えて、SDカード等の記録媒体に格納されているプログラムを読み出してもよい。
なお、本実施形態では、画像生成装置は、1つのプロセッサ(CPU101)が1つのメモリ(ROM102)を用いて後述するフローチャートに示す各処理を実行するものとするが、他の様態であっても構わない。例えば複数のプロセッサや複数のRAM、ROM及びストレージを協働させて後述するフローチャートに示す各処理を実行することもできる。また、ハードウェア回路を用いて一部の処理を実行するようにしても良い。また、CPU以外のプロセッサを用いて後述する画像生成装置1の機能や処理を実現することとしてもよい。(例えば、CPUに替えてGPU(Graphics Processing Unit)を用いることとしてもよい。)
次に、図2を参照しながら本実施形態に係る画像処理システムについて説明する。
画像生成装置1は、撮像装置群2で撮影した同時刻の画像と各実カメラのカメラパラメータとを通信I/F107から取得し、仮想視点画像を生成する。そして、表示I/F105を経由して、生成した仮想視点画像を表示装置3へ送信する。カメラパラメータは外部パラメータと内部パラメータとで構成される。外部パラメータはカメラの位置及び姿勢の情報とし、内部パラメータは実カメラの焦点距離及びイメージセンサの中心座標の情報とする。
撮像装置群2は、複数の実カメラを含み、各実カメラはそれぞれ異なる方向から被写体を撮影する。本実施形態において、撮像装置群2に含まれる複数の実カメラはカメラを識別するためのカメラ番号を持つ。各実カメラは画像生成装置1と接続され、各実カメラの撮像画像や各実カメラのカメラパラメータをそれぞれ画像生成装置1に送信する。また、これらの実カメラは現実世界の1つの時刻情報で同期され、撮影した画像には時刻情報が付与される。なお、カメラパラメータは撮像画像に同期して送信しても構わないし、撮影前や必要に応じて非同期で送信しても構わない。
表示装置3は、画像生成装置1で生成された画像を受信し、仮想視点画像を表示する。
画像生成装置1は、カメラ情報取得部200、形状推定部210、距離推定部220、可視性情報保存部230、及び仮想視点画像生成部240を備えている。
カメラ情報取得部200は、撮像装置群2からカメラ情報として複数の実カメラで撮影された同時刻の撮像画像と各実カメラのカメラパラメータとをそれぞれ通信I/F107を経由して取得する。形状推定部210から仮想視点画像生成部240までの各部は、カメラパラメータをカメラ情報取得部200から取得する。
形状推定部210は、撮像画像とカメラパラメータとを用いて被写体の3次元形状を推定する。そして、形状推定結果である形状モデルを距離推定部220、可視性情報保存部230、及び仮想視点画像生成部240へ出力する。
距離推定部220は、形状モデルとカメラパラメータとを用いて、形状モデルの各点と撮像面との距離を推定し、その距離情報を可視性情報保存部230へ出力する。
可視性情報保存部230は、形状モデルと距離情報とを用いて、形状モデルの各点が、各実カメラから見えているか否かを示す可視性を判定し、その結果をHDD104に保存する。
仮想視点画像生成部240は、1枚の仮想視点画像を生成するために、1つの仮想視点情報(仮想カメラのカメラパラメータ)の指定を受け付け、指定に応じて仮想視点画像を生成する。仮想視点情報は、仮想視点を指定するユーザ(操作者)が入力部106を操作することで指定される。なお、仮想視点情報の指定に関してはこれに限定されず、被写体を認識するなどにより指定しても構わない。生成した仮想視点画像は表示装置3へ出力される。
[動作フロー]
図3のフローチャートを用いて、画像生成装置1の処理の流れを詳細に説明する。本フローチャートでは、S310は複数の実カメラで撮影した同時刻の画像と各カメラのカメラパラメータを取得するステップ、S320は形状推定処理のステップ、S230は距離推定処理のステップである。そして、S340は可視性判定してその結果を保存する処理のステップ、S350は入力された複数の仮想視点画像を生成して出力する処理のステップである。以下に、詳細なフローを説明する。
<S310>
S310では、カメラ情報取得部200は、カメラ情報として同時刻の各実カメラの撮像画像とカメラパラメータとを取得する。そして、取得したカメラパラメータを形状推定部210、距離推定部220、可視性情報保存部230、及び仮想視点画像生成部240に送る。また、カメラ情報取得部200は、各実カメラの撮像画像を形状推定部210へ送る。
<S320>
S320では、形状推定部210は、各実カメラの撮像画像とカメラパラメータとを取得し、被写体の3次元形状を推定する。そして、推定した結果の形状モデルを距離推定部220、可視性情報保存部230、及び仮想視点画像生成部240へ送る。
ここで、3次元形状を推定する処理は、例えば、被写体のシルエット画像を生成する処理と3次元形状を推定する処理とで構成される。シルエット画像は被写体領域を白、それ以外の領域を黒で表現した2値画像である。シルエット画像は被写体を撮影した撮像画像から、被写体が存在しない時に予め撮影した背景画像との差分を算出し、閾値以上をシルエット(前景領域)とする背景差分法などの一般的な手法で生成できる。ただし、シルエット画像を生成する方法はこれに限定されない。例えば、人体を認識するなどの方法を用いても構わない。
次に形状推定部210は、生成した全実カメラのシルエット画像とカメラパラメータとを用いて、被写体の3次元形状を推定する。3次元形状の推定には、例えば、Visual Hull手法を用いる。この処理の結果、被写体の形状モデルを表現した3D点群(3次元座標を持つ点の集合)が得られる。3D点群の座標Xwは、例えば、実世界の任意の位置を原点とする3つの直交する軸(x軸,y軸,z軸)を持つ世界座標系で表現される。
<S330>
S330では、距離推定部220は、各実カメラのカメラパラメータと形状推定部210によって得られた3D点群とを取得し、実カメラから被写体までの距離を推定する。そして、推定した結果の距離画像を可視性情報保存部230へ送る。
ここで、実カメラから被写体までの距離を推定し、距離画像を生成する方法について説明する。距離画像は撮像画像と同じ幅、高さとし、各画素には距離値が格納される。例えば、まず、3D点群の点Pの座標Xwに、外部行列Teをかけることで、カメラ座標系のカメラ座標Xcに変換する。ここで外部行列Teは実カメラの外部パラメータから構成される行列である。カメラ位置を原点に実カメラのレンズが向く方向をカメラ座標系のz軸の正とすると、カメラ座標Xcのz座標がその点を実カメラから見た場合の距離値である。
次に、カメラ座標Xcの画像座標Xiを算出し、距離値を格納する距離画像の座標を求める。画像座標Xiはカメラ座標Xcをz座標で正規化した正規化カメラ座標に内部行列Tiをかけることで算出される。なお、内部行列Tiは実カメラの内部パラメータから構成される行列である。画像座標Xiの画素に既に計算した別の点の距離値が格納されている場合、その値と画像座標Xiのz座標とを比較する。そして、z座標の方が小さい場合に、z座標を画像座標Xiにおける画素値として新しく格納する。3D点群の全ての点Pにこれらの処理を実行することで1台の実カメラの距離画像を生成することができる。さらに、全ての実カメラについて処理することで、全実カメラの距離画像を生成することができる。
<S340>
S340では、可視性情報保存部230は、各実カメラの距離画像及びカメラパラメータと、3D点群とを取得し、3D点群を構成する全点について可視性を判定し、その結果をHDD104に保存する。また、その結果を仮想視点画像生成部240へ送る。
可視性を判定してその結果を保存する方法について述べる。まず、3D点群の点Pの座標Xwをカメラ座標系と画像座標系とに変換し、カメラ座標Xcと画像座標Xiとを算出する。そして、画像座標Xiにおける距離画像の画素値とカメラ座標Xcのz座標(実カメラから点までの距離)とを比較する。この比較の結果、その差分dが閾値以下である場合は点Pは実カメラから可視と判定し、差分dが閾値を超える場合は点Pはカメラから不可視と判定する。以上の処理を全実カメラについて処理することで、1つの点Pがそれぞれの実カメラから見えるか否かを判定できる。さらに、3D点群の全点について処理することで可視性情報を生成することができる。
各点の可視性情報は、例えば実カメラごとに可視性がわかるようにビット配列で保存される。図4には、可視性情報としてのビット配列400の例を示す。ビット配列400は、最下位ビット410を1台目の実カメラ、最上位ビット420を実カメラの台数番目の実カメラの可視性情報とする。各ビットは、対応する実カメラの可視性を示しており、不可視の場合は0で表現され、可視の場合は1で表現されている。例えば、図4に示すビット配列400の場合は、1,2,5,7,8台目の実カメラから該当する点が見え、3,4,6台目の実カメラからはその該当する点が見えないことを8ビットで表現している。このようなビット配列を3D点群の点数分設けることで点毎に関連付けて全点の可視性情報を保存できる。なお、図4に示す例では可視性情報を0か1で表現したが、差分dを用いて段階的に表現しても良い。この場合、各点は実カメラ台数分の差分dを持つように表現される。
<S350>
S350では、仮想視点画像生成部240は、各実カメラのカメラパラメータ、3D点群、及び可視性情報を取得し、1つ以上の仮想視点画像を生成する。1つ以上の仮想視点画像に係る仮想視点は、ユーザの操作により入力部106を介して取得しても良いし、1つ以上の仮想カメラの位置・姿勢に基づいて予め決めておいても良い。1つ以上の仮想視点の取得手段は他のいかなる方法であっても良い。最後に、生成した1つ以上の仮想視点画像を、表示I/F105を介して表示装置3へ出力する。
ここで、仮想視点画像生成部240が仮想視点画像を生成する方法について説明する。仮想視点画像生成部240は、まず、仮想カメラから見た前景画像(被写体領域の画像)を生成する処理と背景画像を生成する処理とを実行する。そして、生成した背景画像に前景画像を合成することで仮想視点画像を生成する。
まず、仮想視点画像の前景画像を生成する方法について説明する。仮想視点画像の前景画像は3D点群に色を付け、色が付いた点群を既存のCGレンダリング手法によりレンダリングすることで生成できる。3D点群に色を付けるために、まず、3D点群と可視性情報とを参照し、色を付けたい点Pの座標Xwと可視性情報とを取得する。S340において、可視性情報は3D点群の各点に付与されているので、点Pとその可視性とは同じ識別番号で取得できる。
次に、可視性情報のビット配列を参照し、点Pが見える実カメラを特定する。特定した実カメラの画像座標系に点Pの座標Xwを変換し、撮影したカメラ画像上の画像座標Xiの画素を点Pの色とする。点Pが複数の実カメラから見えている場合は、それぞれの実カメラで撮影した画像から画素値を取得し、例えば、それらの平均値を点Pの色とする。3D点群の全点について同じ処理を繰り返すことで全点に色を付けることができる。点Pの可視性情報が1または0のビット配列ではなく段階的な値で表現されている場合、可視と判定された実カメラから取得した画素値の重み付き平均値を点Pの色とする。可視の判定は、ビット配列の場合と同様に、閾値を設けて特定する。重みは可視と判定された実カメラの差分dの比を算出することで得ることができる。ただし、これらの方法に限定されない。例えば、平均値ではなく、最も距離に近い実カメラから取得した画素値を用いるなどの方法を用いても構わない。
次に、仮想視点画像の背景画像を生成する。まず、背景3Dモデルにおいて例えば競技場などの建物の頂点を設定する。背景3Dモデルは、競技場などのCGモデルを予め作成し、システム内に保存しておいたCGモデルを用いる。これらの頂点を仮想視点に近い2台の実カメラ(第1のカメラ、第2のカメラとする)のカメラ座標系と仮想視点のカメラ座標系とに変換する。次に、仮想視点と第1のカメラとの対応点と、仮想視点と第2のカメラとの対応点とを用いて、仮想視点と第1のカメラとの間の第1の変換行列と、仮想視点と第2のカメラとの間の第2の変換行列とを算出する。仮想視点の背景画像の各画素値を算出するために、各画素の座標を第1及び第2の変換行列を用いて、それぞれの背景画像の座標系に変換し、変換後の座標の画素値を取得する。得られた2つの画素値の平均を算出することで背景画像の画素値とする。ただし、使用する実カメラの台数はこれに限定されない。仮想視点に近いn台の実カメラを用いる場合は、同様の点順で第1〜第nの変換行列を算出し、これらの変換行列を用いて変換後の座標を取得する。そして、n個の画素値の平均を背景画像の画素値とする。
このようにして得られた仮想視点画像の背景画像上に前景画像を重ねることで仮想視点画像が生成できる。さらに、仮想視点に依存しない3D点群や可視性情報は変えずに、仮想視点情報だけを変えて同じ処理を繰り返すことで、同時刻の複数の仮想視点画像を生成することができる。
以上のように本実施形態によれば、全実カメラの距離画像を保存せず、形状モデルを表現した3D点群のすべての点に関する可視性情報を保存することでデータ量を削減することができる。また、取得した可視性情報は、3D点群のすべての点に対応しているため、同時刻の複数の仮想視点画像を生成する際は、保存した可視性情報を共用することができる。そして、仮想カメラに依存する仮想視点画像の生成処理だけを複数回処理することで処理負荷の増大を防ぐことができる。
(第2の実施形態)
第1の実施形態では、仮想視点画像を生成する前に可視性情報を生成して保存し、その可視性情報を用いて3D点群に色を付けることで仮想視点の前景画像を生成した。本実施形態では、データ量を削減した距離画像を用いて3D点群の可視性を判定しながら3D点群に色を付け、仮想視点の前景画像を生成する例を示す。なお、本実施形態における画像生成装置のハードウェア構成は図1と同様であるため、説明は省略する。
[システム構成]
図5は、本実施形態における仮想視点画像を生成し出力する画像処理システムの機能構成例を示すブロック図である。本実施形態における画像処理システムも第1の実施形態と同様に、画像生成装置1、撮像装置群2、および表示装置3を有する。
画像生成装置1は、カメラ情報取得部200、形状推定部210、距離推定部220、距離画像保存部530、及び仮想視点画像生成部540を有する。なお、カメラ情報取得部200、形状推定部210、及び距離推定部220は第1の実施形態と同様であるので説明は省略する。
距離画像保存部530は、距離推定部220で生成した、撮像画像と同じ画像サイズの距離画像から、被写体を囲む矩形領域の画像を矩形領域距離画像として生成し、HDD104に保存する。そして、全実カメラ分の矩形領域距離画像を仮想視点画像生成部540へ出力する。
仮想視点画像生成部540は、矩形領域距離画像を用いて1つ以上の仮想視点画像を生成する。本実施形態では、矩形領域距離画像を用いて各点の可視性を判定しながら点の色付け処理を進めることで、仮想視点画像の前景画像を生成する。この点が第1の実施形態の仮想視点画像生成部240の処理と異なっている。
[動作フロー]
次に、図6のフローチャートを用いて、本実施形態に係る画像生成装置1の処理の流れを説明する。本フローチャートにおけるS310、S320、及びS330は第1の実施形態で説明した図3と処理内容は同様であるため、説明は省略する。S640は距離画像から被写体を囲む矩形領域を算出し、画像取得処理として、距離画像を切り出して矩形領域距離画像を取得して保存するステップである。そして、S650は、切り出した距離画像を用いて可視判定を処理しながら、点に色を付けるステップである。以下に、S640及びS650の詳細な処理を説明する。
<S640>
S640では、距離画像保存部530は、距離推定部220から距離画像を取得する。そして、各実カメラの距離画像中の被写体領域を囲む矩形領域を算出し、該距離画像からその矩形領域の画像を切り出して矩形領域距離画像を生成し、HDD104に保存する。また、距離画像保存部530は、矩形領域の情報と矩形領域距離画像とを仮想視点画像生成部540へ送信する。
ここで、各実カメラの距離画像から矩形領域距離画像を生成し、保存する方法について説明する。図7は、距離画像の中の被写体領域を囲む矩形領域を説明するための図である。距離画像700は、S330で生成されたある実カメラの距離画像である。まず、距離画像700を既存のラベリング処理により被写体領域710、711がラベリングされたラベリング画像を生成する。この結果、被写体領域710の画素値は1、被写体領域711の画素値は2、それ以外の画素値は0にラベリングされる。
矩形領域720は、頂点730、731の2点で表現され、これらの座標は距離画像の座標系740で表現される。矩形領域721についても同様である。頂点730、731は、ラベリング画像の画素値が1である画素集合において、X座標の最小値Xmin及び最大値Xmaxと、Y座標の最小値Ymin及び最大値Ymaxとを算出することで得られる。この結果、頂点730の座標は(Xmin,Ymin)、頂点731は(Xmax,Ymax)と表現できる。なお、矩形領域はS320の形状推定処理で生成するシルエット画像を基に、前述と同様の処理で算出しても良い。
得られた矩形領域の大きさを画像サイズとする矩形領域距離画像は、距離画像の矩形領域内の画素値I(X,Y)を矩形領域距離画像の画素Ir(Xr,Yr)にコピーすることで生成される。Xr,Yrは、頂点730を原点とする矩形領域距離画像の座標系741で表現され、Xr=X−Xmin,Yr=Y−Yminとして算出できる。ラベルの数が2以上の場合、各ラベルにおいて、矩形領域情報と矩形領域距離画像とを生成する。実カメラ毎に生成された矩形領域の情報および矩形領域距離画像は、いずれの実カメラの距離画像かを識別できるように、各実カメラのカメラ番号を付与して保存する。
<S650>
S650では、仮想視点画像生成部540は、各実カメラのカメラパラメータ、3D点群、矩形領域情報、及び矩形領域距離画像を取得し、3D点群の各点の可視性情報を判定しながら仮想視点の前景画像を生成する。そして、仮想視点の背景画像を、S350と同じ方法で生成し、その背景画像上に前景画像を重畳することで仮想視点画像を生成する。仮想視点画像生成部540は、生成した仮想視点画像を表示装置3へ送信する。
ここで、矩形領域距離画像を用いて3D点群の各点の可視性を判定しながら仮想視点の前景画像を生成する方法について説明する。まず、S350と同様に、3D点群に色を付け、色が付いた点群を既存のCGレンダリング手法によりレンダリングすることで仮想視点画像の前景画像を生成する。3D点群に色を付けるために、まず、3D点群と矩形領域距離画像の情報とを参照し、色を付ける点Pの座標Xwの可視性を判定する。
可視性を判定する際には、まず、3D点群の点Pの座標Xwをカメラ座標系と画像座標系とに変換し、カメラ座標Xcと画像座標Xiとを算出する。さらに、画像座標Xiから矩形領域距離画像の矩形領域の開始点の座標を引くことで、矩形領域距離画像の座標Xjを算出する。座標Xjにおける矩形領域距離画像の画素値とXcのz座標(実カメラから点までの距離)とを比較する。この比較の結果、その差分dが閾値以下である場合は、点Pは実カメラから可視と判定し、差分dが閾値を超える場合は、点Pは実カメラから不可視と判定する。この処理を全ての実カメラについて繰り返すことで点Pの可視性情報を生成することができる。
以上のように可視性情報を生成することによって、S350と同様の方法で点Pの色を算出することができる。以上の処理を3D点群の全点について処理することで3D点群に色を付けることができる。背景画像の生成方法は第1の実施形態と同様の手順であり、背景画像上に前景画像を重畳することで仮想視点画像を生成する。
以上のように本実施形態によれば、実カメラで撮影した画像サイズの距離画像を保存せず、被写体領域を囲む矩形領域にデータ量を削減した矩形領域距離画像を保存するようにした。これにより、同時刻に複数の仮想視点画像を生成する場合に、この矩形領域距離画像を用いて可視性を判定し、データ転送時間の増大やデータ容量の増加を防ぐことができる。
(その他の実施形態)
前述した実施形態では、画像生成装置において被写体の形状モデルを推定したが、形状推定部210及び距離推定部220の処理を別の装置で行ってもよい。この場合、カメラ情報取得部200は、さらに被写体の形状モデルを表現する3D点群と、距離画像とをその装置から取得するようにする。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
230 可視性情報保存部
240 仮想視点画像生成部

Claims (22)

  1. 複数のカメラにより複数の方向から撮影することで得られる複数の撮影画像に基づいて仮想視点画像を生成する画像処理システムであって、
    前記複数のカメラの少なくとも何れかにより撮影されるオブジェクトの3次元形状モデルの構成要素に関する可視性情報であって、当該構成要素に対応する画素が撮影画像に含まれるか否かを前記複数の撮影画像のうちの1以上の撮影画像それぞれについて示す可視性情報を、記憶部に記憶させる記憶制御手段と、
    同一の時刻に対応する複数の異なる仮想視点を示す視点情報を取得する取得手段と、
    前記取得手段により取得される視点情報により特定される前記同一の時刻に対応する前記複数の異なる仮想視点に応じた複数の仮想視点画像を、前記複数の撮影画像と、前記3次元形状モデルと、前記記憶制御手段により前記記憶部に記憶された前記可視性情報とに基づいて生成する画像生成手段とを有することを特徴とする画像処理システム。
  2. 前記複数の撮影画像のうちの1以上の撮影画像に基づいて前記3次元形状モデルを生成するモデル生成手段を有し、
    前記記憶制御手段は、前記モデル生成手段により生成される前記3次元形状モデルと前記可視性情報とを関連付けて前記記憶部に記憶させることを特徴とする請求項1に記載の画像処理システム。
  3. 前記3次元形状モデルの構成要素の位置情報と、当該構成要素とカメラとの距離に基づいて、当該構成要素に対応する画素が当該カメラによる撮影画像に含まれるかを判定する判定手段を有し、
    前記記憶制御手段は、前記判定手段による判定に基づく前記可視性情報を前記記憶部に記憶させることを特徴とする請求項1又は2に記載の画像処理システム。
  4. 前記画像生成手段は、前記仮想視点画像の画素のうち前記3次元形状モデルの構成要素に対応する画素の値を、前記可視性情報によって特定される撮影画像の当該構成要素に対応する画素の値に基づいて決定することで、前記仮想視点画像を生成することを特徴とする請求項1乃至3の何れか1項に記載の画像処理システム。
  5. 前記画像生成手段は、前記3次元形状モデルの構成要素に対応する画素を有する撮影画像が前記可視性情報によって複数特定される場合に、特定された複数の撮影画像から選択された撮影画像の画素の値に基づいて、前記仮想視点画像の画素のうち当該構成要素に対応する画素の値を決定することを特徴とする請求項4に記載の画像処理システム。
  6. 前記画像生成手段は、前記取得手段により前記視点情報が取得される前に前記記憶制御手段により前記記憶部に記憶された前記可視性情報を用いて、前記視点情報により特定される前記複数の異なる仮想視点に応じた複数の仮想視点画像を生成することを特徴とする請求項1乃至5の何れか1項に記載の画像処理システム。
  7. 前記画像生成手段は、前記複数の撮影画像と、前記3次元形状モデルと、前記記憶制御手段により前記記憶部に記憶された可視性情報とに基づいて前記オブジェクトの画像を生成し、生成された前記オブジェクトの画像と前記オブジェクトを含まない背景画像とを合成することで、前記仮想視点画像を生成することを特徴とする請求項1乃至6の何れか1項に記載の画像処理システム。
  8. 前記3次元形状モデルの構成要素は、3次元空間内の点の集まりとして前記3次元形状モデルが表される場合における点、又は、メッシュの集まりとして前記3次元形状モデルが表される場合におけるメッシュであることを特徴とする請求項1乃至7の何れか1項に記載の画像処理システム。
  9. 前記記憶制御手段により記憶される前記可視性情報は、前記複数のカメラの数に応じたビット配列で構成されることを特徴とする請求項1乃至8の何れか1項に記載の画像処理システム。
  10. 前記3次元形状モデルに対応するオブジェクトには人物が含まれることを特徴とする請求項1乃至9の何れか1項に記載の画像処理システム。
  11. 前記オブジェクトの3次元形状モデルの構成要素の位置を示す位置情報を取得する位置情報取得手段と、
    前記複数のカメラに含まれるカメラによる撮影により得られる撮影画像の前記オブジェクトに対応する画素について、当該画素に対応する前記オブジェクト上の3次元位置と当該カメラに応じた位置との距離を示す距離情報を取得する距離情報取得手段と、
    前記3次元形状モデルの構成要素に対応する画素が前記撮影画像に含まれるか否かを示す可視性情報を、前記距離情報取得手段により取得される距離情報と前記位置情報取得手段により取得される前記3次元形状モデルの当該構成要素の位置を示す位置情報とに基づいて生成する情報生成手段とを有し、
    前記記憶制御手段は、前記情報生成手段により生成された可視性情報を前記記憶部に記憶させることを特徴とする請求項1乃至10の何れか1項に記載の画像処理システム
  12. 前記距離情報取得手段により取得される距離情報は、前記複数のカメラに含まれるカメラによる撮影画像全体の画素それぞれについて当該画素に対応する3次元位置と当該カメラに応じた位置との距離を示す情報から、前記オブジェクトを含む部分領域に対応する画素についての情報を抽出することで得られる情報であることを特徴とする請求項11に記載の画像処理システム
  13. 前記複数のカメラに含まれるカメラの位置を示すカメラ情報を取得するカメラ情報取得手段を有し、
    前記情報生成手段は、前記カメラ情報取得手段により取得されるカメラ情報と、前記距離情報取得手段により取得される距離情報と、前記位置情報取得手段により取得される位置情報とに基づいて前記可視性情報を生成することを特徴とする請求項11又は12に記載の画像処理システム
  14. 複数のカメラの少なくとも何れかにより撮影されるオブジェクトの3次元形状モデルの構成要素に関する可視性情報であって、当該構成要素に対応する画素が撮影画像に含まれるか否かを前記複数のカメラによる複数の撮影画像のうちの1以上の撮影画像それぞれについて示す可視性情報を取得する第1取得手段と、
    同一の時刻に対応する複数の異なる仮想視点を示す視点情報を取得する第2取得手段と、
    前記第2取得手段により取得される視点情報により特定される前記同一の時刻に対応する前記複数の異なる仮想視点に応じた複数の仮想視点画像を、前記複数の撮影画像と、前記3次元形状モデルと、前記第1取得手段により取得された前記可視性情報とに基づいて生成する生成手段とを有することを特徴とする画像処理装置。
  15. 前記生成手段は、前記仮想視点画像の画素のうち前記3次元形状モデルの構成要素に対応する画素の値を、前記可視性情報によって特定される撮影画像の当該構成要素に対応する画素の値に基づいて決定することで、前記仮想視点画像を生成することを特徴とする請求項14に記載の画像処理装置。
  16. 前記生成手段は、前記3次元形状モデルの構成要素に対応する画素を有する撮影画像が前記可視性情報によって複数特定される場合に、特定された複数の撮影画像から選択された撮影画像の画素の値に基づいて、前記仮想視点画像の画素のうち当該構成要素に対応する画素の値を決定することを特徴とする請求項15に記載の画像処理装置。
  17. 複数のカメラにより複数の方向から撮影することで得られる複数の撮影画像に基づいて仮想視点画像を生成する画像処理方法であって、
    前記複数のカメラの少なくとも何れかにより撮影されるオブジェクトの3次元形状モデルの構成要素に関する可視性情報であって、当該構成要素に対応する画素が撮影画像に含まれるか否かを前記複数の撮影画像のうちの1以上の撮影画像それぞれについて示す可視性情報を、記憶部に記憶させる記憶制御工程と、
    同一の時刻に対応する複数の異なる仮想視点を示す視点情報を取得する取得工程と、
    前記取得工程において取得される視点情報により特定される前記同一の時刻に対応する前記複数の異なる仮想視点に応じた複数の仮想視点画像を、前記複数の撮影画像と、前記3次元形状モデルと、前記記憶制御工程において前記記憶部に記憶された可視性情報とに基づいて生成する画像生成工程とを有することを特徴とする画像処理方法。
  18. 前記3次元形状モデルの構成要素の位置情報と、当該構成要素とカメラとの距離に基づいて、当該構成要素に対応する画素が当該カメラによる撮影画像に含まれるかを判定する判定工程を有し、
    前記記憶制御工程においては、前記判定工程における判定に基づく前記可視性情報を前記記憶部に記憶させることを特徴とする請求項17に記載の画像処理方法。
  19. 前記画像生成工程は、前記仮想視点画像の画素のうち前記3次元形状モデルの構成要素に対応する画素の値を、前記可視性情報によって特定される撮影画像の当該構成要素に対応する画素の値に基づいて決定することで、前記仮想視点画像を生成することを特徴とする請求項17又は18に記載の画像処理方法。
  20. 前記オブジェクトの3次元形状モデルの構成要素の位置を示す位置情報を取得する位置情報取得工程と、
    前記複数のカメラに含まれるカメラによる撮影により得られる撮影画像の前記オブジェクトに対応する画素について、当該画素に対応する前記オブジェクト上の3次元位置と当該カメラに応じた位置との距離を示す距離情報を取得する距離情報取得工程と、
    前記3次元形状モデルの構成要素に対応する画素が前記撮影画像に含まれるか否かを示す可視性情報を、前記距離情報取得工程において取得される距離情報と前記位置情報取得工程において取得される前記3次元形状モデルの当該構成要素の位置を示す位置情報とに基づいて生成する情報生成工程とを有し、
    前記記憶制御工程は、前記情報生成工程において生成された可視性情報を前記記憶部に記憶させることを特徴とする請求項17乃至19の何れか1項に記載の画像処理方法。
  21. 前記複数のカメラに含まれるカメラの位置を示すカメラ情報を取得するカメラ情報取得工程を有し、
    前記情報生成工程は、前記カメラ情報取得工程において取得されるカメラ情報と、前記距離情報取得工程において取得される距離情報と、前記位置情報取得工程において取得される位置情報とに基づいて前記可視性情報を生成することを特徴とする請求項20に記載の画像処理方法。
  22. コンピュータを、請求項14乃至16の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2017182795A 2017-09-22 2017-09-22 画像処理システム、画像処理装置、画像処理方法及びプログラム Active JP6425780B1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017182795A JP6425780B1 (ja) 2017-09-22 2017-09-22 画像処理システム、画像処理装置、画像処理方法及びプログラム
US16/134,642 US10701332B2 (en) 2017-09-22 2018-09-18 Image processing apparatus, image processing method, image processing system, and storage medium
KR1020180111181A KR102049245B1 (ko) 2017-09-22 2018-09-18 화상처리 장치, 화상처리 방법, 화상처리 시스템 및 기억매체
CN201811099924.6A CN109561296B (zh) 2017-09-22 2018-09-20 图像处理装置、图像处理方法、图像处理系统和存储介质
EP18196071.7A EP3460761A1 (en) 2017-09-22 2018-09-21 Image processing apparatus, image processing method, image processing system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017182795A JP6425780B1 (ja) 2017-09-22 2017-09-22 画像処理システム、画像処理装置、画像処理方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018198368A Division JP6759300B2 (ja) 2018-10-22 2018-10-22 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP6425780B1 true JP6425780B1 (ja) 2018-11-21
JP2019057248A JP2019057248A (ja) 2019-04-11

Family

ID=63685593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017182795A Active JP6425780B1 (ja) 2017-09-22 2017-09-22 画像処理システム、画像処理装置、画像処理方法及びプログラム

Country Status (5)

Country Link
US (1) US10701332B2 (ja)
EP (1) EP3460761A1 (ja)
JP (1) JP6425780B1 (ja)
KR (1) KR102049245B1 (ja)
CN (1) CN109561296B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111539082A (zh) * 2020-04-26 2020-08-14 重庆水轮机厂有限责任公司 一种水轮机叶片三维模型快速重建方法
CN113538316A (zh) * 2021-08-24 2021-10-22 北京奇艺世纪科技有限公司 图像处理方法、装置、终端设备以及可读存储介质

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7027049B2 (ja) * 2017-06-15 2022-03-01 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US11017585B1 (en) * 2018-06-11 2021-05-25 Facebook, Inc. Systems and methods for capturing image data for recreation in a virtual environment
JP6511681B1 (ja) * 2018-10-15 2019-05-15 株式会社Mujin 形状情報生成装置、制御装置、積み降ろし装置、物流システム、プログラム、及び、制御方法
US11783443B2 (en) 2019-01-22 2023-10-10 Fyusion, Inc. Extraction of standardized images from a single view or multi-view capture
US10887582B2 (en) 2019-01-22 2021-01-05 Fyusion, Inc. Object damage aggregation
US11176704B2 (en) 2019-01-22 2021-11-16 Fyusion, Inc. Object pose estimation in visual data
US20220172474A1 (en) * 2019-04-12 2022-06-02 Sony Group Corporation Image processing apparatus, 3d model generation method, and program
WO2020230751A1 (ja) * 2019-05-16 2020-11-19 キヤノン株式会社 配置決定装置、システム、配置決定方法、及びプログラム
CN112446915B (zh) * 2019-08-28 2024-03-29 北京初速度科技有限公司 一种基于图像组的建图方法及装置
JP7418107B2 (ja) * 2019-09-20 2024-01-19 キヤノン株式会社 形状推定装置、形状推定方法及びプログラム
DE112020006061T5 (de) * 2019-12-09 2022-10-27 Sony Group Corporation Informationsverarbeitungsvorrichtung und -verfahren, programm und informationsverarbeitungssystem
EP4072147A4 (en) * 2019-12-30 2022-12-14 Huawei Technologies Co., Ltd. VIDEO STREAM PROCESSING METHOD, APPARATUS AND DEVICE AND MEDIA
US11776142B2 (en) 2020-01-16 2023-10-03 Fyusion, Inc. Structuring visual data
US11562474B2 (en) 2020-01-16 2023-01-24 Fyusion, Inc. Mobile multi-camera multi-view capture
JP7427467B2 (ja) 2020-02-14 2024-02-05 キヤノン株式会社 画像処理装置、画像処理方法、学習済みモデルの生成方法、およびプログラム
JP2021196951A (ja) * 2020-06-16 2021-12-27 キヤノン株式会社 画像処理装置、画像処理方法、プログラム、学習済みモデルの製造方法、および画像処理システム
US11605151B2 (en) 2021-03-02 2023-03-14 Fyusion, Inc. Vehicle undercarriage imaging
CN112837375B (zh) * 2021-03-17 2024-04-30 北京七维视觉传媒科技有限公司 用于真实空间内部的相机定位的方法和系统
CN115862089B (zh) * 2022-10-11 2023-09-26 深圳捷易建设集团有限公司 基于人脸识别的安防监控方法、装置、设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348213A (ja) * 1999-06-07 2000-12-15 Sanyo Electric Co Ltd 三次元画像生成装置、三次元画像生成表示装置、及びその方法並びに記録媒体
JP2002157603A (ja) * 2000-11-21 2002-05-31 Mixed Reality Systems Laboratory Inc 画像処理装置及びその方法並びに記憶媒体
JP2005050037A (ja) * 2003-07-31 2005-02-24 Canon Inc 画像処理方法および装置
JP2015045920A (ja) * 2013-08-27 2015-03-12 日本電信電話株式会社 仮想視点映像生成装置、仮想視点映像生成方法、及び仮想視点映像生成プログラム
JP2017509972A (ja) * 2014-02-21 2017-04-06 クアルコム,インコーポレイテッド ビュー非依存色等化3dシーンテクスチャ処理

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5945255B2 (ja) 1977-08-11 1984-11-05 京セラ株式会社 単調増加波形パルスを入力とする出力パルス時間巾制御回路
US6373487B1 (en) * 1999-09-17 2002-04-16 Hewlett-Packard Company Methods and apparatus for constructing a 3D model of a scene from calibrated images of the scene
US6525731B1 (en) * 1999-11-09 2003-02-25 Ibm Corporation Dynamic view-dependent texture mapping
JP5726646B2 (ja) * 2011-06-10 2015-06-03 株式会社東芝 画像処理装置、方法、及びプログラム
EP2803041B1 (en) 2012-01-13 2019-03-13 InterDigital Madison Patent Holdings Method for multi-view mesh texturing and corresponding device
US9846960B2 (en) 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
JP5295416B1 (ja) 2012-08-01 2013-09-18 ヤフー株式会社 画像処理装置、画像処理方法及び画像処理プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348213A (ja) * 1999-06-07 2000-12-15 Sanyo Electric Co Ltd 三次元画像生成装置、三次元画像生成表示装置、及びその方法並びに記録媒体
JP2002157603A (ja) * 2000-11-21 2002-05-31 Mixed Reality Systems Laboratory Inc 画像処理装置及びその方法並びに記憶媒体
JP2005050037A (ja) * 2003-07-31 2005-02-24 Canon Inc 画像処理方法および装置
JP2015045920A (ja) * 2013-08-27 2015-03-12 日本電信電話株式会社 仮想視点映像生成装置、仮想視点映像生成方法、及び仮想視点映像生成プログラム
JP2017509972A (ja) * 2014-02-21 2017-04-06 クアルコム,インコーポレイテッド ビュー非依存色等化3dシーンテクスチャ処理

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111539082A (zh) * 2020-04-26 2020-08-14 重庆水轮机厂有限责任公司 一种水轮机叶片三维模型快速重建方法
CN111539082B (zh) * 2020-04-26 2023-04-07 重庆水轮机厂有限责任公司 一种水轮机叶片三维模型快速重建方法
CN113538316A (zh) * 2021-08-24 2021-10-22 北京奇艺世纪科技有限公司 图像处理方法、装置、终端设备以及可读存储介质
CN113538316B (zh) * 2021-08-24 2023-08-22 北京奇艺世纪科技有限公司 图像处理方法、装置、终端设备以及可读存储介质

Also Published As

Publication number Publication date
KR20190034092A (ko) 2019-04-01
EP3460761A1 (en) 2019-03-27
US20190098277A1 (en) 2019-03-28
CN109561296A (zh) 2019-04-02
CN109561296B (zh) 2020-07-14
US10701332B2 (en) 2020-06-30
JP2019057248A (ja) 2019-04-11
KR102049245B1 (ko) 2019-11-28

Similar Documents

Publication Publication Date Title
JP6425780B1 (ja) 画像処理システム、画像処理装置、画像処理方法及びプログラム
JP6687204B2 (ja) 投影イメージ生成方法およびその装置、イメージピクセルと深度値との間のマッピング方法
JP4804256B2 (ja) 情報処理方法
US8817046B2 (en) Color channels and optical markers
JP5093053B2 (ja) 電子カメラ
JP5945255B2 (ja) 仮想視点映像生成装置、仮想視点映像生成方法、及び仮想視点映像生成プログラム
WO2019035155A1 (ja) 画像処理システム、画像処理方法、及びプログラム
JP5068732B2 (ja) 3次元形状生成装置
JP2019128641A (ja) 画像処理装置、画像処理方法及びプログラム
WO2020184174A1 (ja) 画像処理装置および画像処理方法
JP2016071645A (ja) オブジェクト3次元モデル復元方法、装置およびプログラム
JP6521352B2 (ja) 情報提示システム及び端末
CN111742352A (zh) 3d对象建模方法以及相关设备和计算机程序产品
JP2021128592A (ja) 画像処理装置、画像処理方法、学習済みモデルの生成方法、およびプログラム
JP6759300B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20120162215A1 (en) Apparatus and method for generating texture of three-dimensional reconstructed object depending on resolution level of two-dimensional image
JP2014164497A (ja) 画像処理装置、画像処理方法及びプログラム
KR102146839B1 (ko) 실시간 가상현실 구축을 위한 시스템 및 방법
JP6641313B2 (ja) 領域抽出装置及びプログラム
JP2020035218A (ja) 画像処理装置、方法及びプログラム
JP7322235B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP7418107B2 (ja) 形状推定装置、形状推定方法及びプログラム
JP2023026244A (ja) 画像生成装置および画像生成方法、プログラム
JP2021128673A (ja) 画像処理装置、画像処理方法及びプログラム
JP2021018570A (ja) 画像処理装置、画像処理システム、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180814

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180925

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181023

R151 Written notification of patent or utility model registration

Ref document number: 6425780

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151