JP2018194985A - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
JP2018194985A
JP2018194985A JP2017096867A JP2017096867A JP2018194985A JP 2018194985 A JP2018194985 A JP 2018194985A JP 2017096867 A JP2017096867 A JP 2017096867A JP 2017096867 A JP2017096867 A JP 2017096867A JP 2018194985 A JP2018194985 A JP 2018194985A
Authority
JP
Japan
Prior art keywords
camera
silhouette
image
viewpoints
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017096867A
Other languages
English (en)
Inventor
都市 雅彦
Masahiko Toshi
雅彦 都市
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017096867A priority Critical patent/JP2018194985A/ja
Publication of JP2018194985A publication Critical patent/JP2018194985A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】一部のカメラで観測されるオブジェクトの3次元形状を復元すること。【解決手段】画像処理装置1は、視点が異なる複数のカメラにより撮像された多視点画像を取得する取得部と、多視点画像に含まれる複数の画像から前景と背景を分離する分離部と、3次元形状を復元する対象とする3次元空間に含まれる要素がカメラ毎に視野外、または、視野内の背景あるいは視野内の前景に含まれるかを分類する分類部と、分類部で要素が視野内に分類されたカメラの視点を設定する設定部と、視体積交差法により設定部で設定された視点のカメラの画像の要素から3次元空間のオブジェクトの形状を推定する推定部と、を有する。【選択図】図1

Description

本発明は、画像処理装置、画像処理方法及び画像処理プログラムに関する。
自由視点映像という技術が知られている。例えば、視点が異なる複数のカメラが撮像する多視点画像から3次元形状を復元する。このような3次元形状を用いることにより、実際にはカメラが存在しない仮想的な視点から3次元モデルが観測される自由視点映像を生成できる。
例えば、多視点画像から3次元形状を復元する場合、多視点画像に含まれる各画像で前景と背景が分離されたシルエット画像を用いるVisual−Hullという技術が用いられることがある。Visual−Hullでは、複数の画像それぞれから背景を取り除いて、シルエット画像が生成される。カメラの焦点とシルエット画像とを結んでできるCone(視体積)が生成され、Cone同士が重なる3次元空間の要素をオブジェクトの3次元形状とみなす。このように3次元形状の復元にVisual−Hullを用いる場合、被写体となるオブジェクトを視野に収めるカメラの台数が多いほど形状推定の精度が向上する。なお、Visual−Hullは、視体積交差法とも呼ばれることがある。
特開2006−109172号公報 特開2009−74836号公報
しかしながら、上記の技術では、3次元形状を復元する対象とするオブジェクトが全てのカメラにより観測されることが前提とされる。それ故、一部のカメラにしか観測されないオブジェクトの3次元形状を復元することが困難である。
1つの側面では、本発明は、一部のカメラで観測されるオブジェクトの3次元形状を復元できる画像処理装置、画像処理方法及び画像処理プログラムを提供することを目的とする。
一態様では、画像処理装置は、視点が異なる複数のカメラにより撮像された多視点画像を取得する取得部と、前記多視点画像に含まれる複数の画像から前景と背景を分離する分離部と、3次元形状を復元する対象とする3次元空間に含まれる要素がカメラ毎に視野外、または、視野内の背景あるいは視野内の前景に含まれるかを分類する分類部と、前記分類部で要素が視野内に分類されたカメラの視点を設定する設定部と、視体積交差法により前記設定部で設定された視点のカメラの画像の要素から前記3次元空間のオブジェクトの形状を推定する推定部と、を有する。
一部のカメラで観測されるオブジェクトの3次元形状を復元できる。
図1は、実施例1に係る画像処理装置の機能的構成を示すブロック図である。 図2は、カメラ配置の一例を示す図である。 図3は、実施例2に係る3次元形状の復元システムの構成例を示す図である。 図4は、実施例2に係るサーバ装置の機能的構成を示すブロック図である。 図5は、ボクセルの一例を示す図である。 図6は、投影前後のボクセルの一例を示す図である。 図7は、実施例2に係る画像処理の手順を示すフローチャートである。 図8は、カメラ配置の一例を示す図である。 図9は、カメラ配置の一例を示す図である。 図10は、カメラ配置の一例を示す図である。 図11は、実施例3に係るサーバ装置の機能的構成を示すブロック図である。 図12は、Ray上の重複部分の一例を示す図である。 図13は、実施例3に係る画像処理の手順を示すフローチャートである。 図14は、実施例1〜実施例3に係る画像処理プログラムを実行するコンピュータのハードウェア構成例を示す図である。
以下に添付図面を参照して本願に係る画像処理装置、画像処理方法及び画像処理プログラムについて説明する。なお、この実施例は開示の技術を限定するものではない。そして、各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
図1は、実施例1に係る画像処理装置の機能的構成を示すブロック図である。図1に示すように、画像処理装置1は、取得部1Aと、分離部1Bと、分類部1Cと、設定部1Dと、推定部1Eとを有する。
取得部1Aは、視点が異なる複数のカメラにより撮像された多視点画像を取得する。分離部1Bは、多視点画像に含まれる複数の画像から前景と背景を分離する。分類部1Cは、3次元形状を復元する対象とする3次元空間に含まれる要素がカメラ毎に視野、例えば水平及び垂直の画角の外、視野内の背景または視野内の前景に含まれるかを分類する。設定部1Dは、分類部1Cで要素が視野内に分類されたカメラの視点を設定する。推定部1Eは、視体積交差法により設定部1Dで設定された視点のカメラの画像の要素から3次元空間のオブジェクトの形状を推定する。以下、視野内に分類されたカメラの視点数のことを「視野内視点数」と記載する場合がある。また、Visual−Hullによりカメラの光学中心と前景となるシルエットとが結ばれて生成された視体積が重なるカメラの視点数のことを「シルエット内視点数」と記載する場合がある。
このように、本実施例に係る画像処理装置1では、3次元形状を復元する対象とする要素が全てのカメラにより観測されないからと言って直ちに3次元形状の復元を放棄しない。すなわち、全てのカメラの視点の中でも前景にある要素が視野内に入っている視点を利用して3次元空間のオブジェクトの形状を推定する。したがって、本実施例に係る画像処理装置1によれば、一部のカメラで観測されるオブジェクトの3次元形状を復元できる。
さらに、本実施例に係る画像処理装置1では、設定部1Dは、分類部1Cで要素が視野内に分類されたカメラの視点数から、視点数の閾値を設定し、推定部Eは、Visual−Hullにより前景と特定されるカメラの視点数が、設定部1Dで設定された視点数の閾値以上となる要素から3次元空間のオブジェクトの形状を推定する。
すなわち、本実施例に係る画像処理装置1は、前景にある要素が視野内に入っている視点を利用する。ただし、本実施例に係る画像処理装置1は、視点数の閾値を設定し、前景と背景を間違った場合は、間違って前景と背景を判断している視点のデータを使わないようにする為に、閾値を使って視野内と判断されている領域でも使わない視点を許容するように制御する。
このとき、本実施例に係る画像処理装置1は、Visual−Hullによりカメラの光学中心と前景となるシルエットとが結ばれて生成された視体積が重なるカメラの視点数と比較する視点数の閾値を固定しない。例えば、カメラの総数に近付けて閾値を固定すると、カメラの視点数が閾値を下回る事態が多発する。この結果、3次元形状を復元する機会が損なわれる。また、閾値をゼロに近付けて固定すると、あるカメラでシルエット外と判定された3次元領域も推定結果として出力されることとなる。この結果、3次元空間上のオブジェクトが歪な形状で復元されてしまう。
図2は、カメラ配置の一例を示す図である。図2には、3次元空間上でカメラC1〜カメラCnのn台のカメラの視野が交差する様子が模式化されている。さらに、図2には、多視点画像のうちカメラC1、C5及びCnにより撮像された画像から前景および背景が分離されたシルエット画像c1、c5及びcnが抜粋して示されている。
図2に示すように、3次元空間上に存在するオブジェクトは、必ずしも全てのカメラC1〜Cnにより観測されるとは限らない。すなわち、3次元空間には、オブジェクトOb1、Ob2及びOb3の3つのオブジェクトが存在する。ところが、シルエット画像c1では、オブジェクトOb1に対応するシルエットCL11及びオブジェクトOb2に対応するシルエットCL12の2つのオブジェクトしか観測できない。また、シルエット画像cnでは、オブジェクトOb1に対応するシルエットCLn1及びオブジェクトOb3に対応するシルエットCLn3の2つのオブジェクトしか観測できない。一方、シルエット画像c5では、オブジェクトOb1に対応するシルエットCL51、オブジェクトOb2に対応するシルエットCL52及びオブジェクトOb3に対応するシルエットCL53の3つのオブジェクトが全て観測される。
このようなカメラ配置においても、本実施例に係る画像処理装置1は、オブジェクトOb1、Ob2及びOb3の3つのオブジェクトの3次元形状の復元を実現する。例えば、図2に黒の塗り潰しで示された領域における視野内視点数を15とし、図2に網点の塗り潰しで示された領域における視野内視点数を10としたとき、各領域で用いる視点数の閾値は、一例として、視野内視点数に所定の重みw、例えば「0.9」を付与することにより設定される。すなわち、図2に黒の塗り潰しで示された領域では、視野内視点数が15であるので、15×0.9の計算により、視点数の閾値が13.5に設定される。また、図2に網点の塗り潰しで示された領域では、視野内視点数が10であるので、10×0.9の計算により、視点数の閾値が9に設定される。なお、ここでは、一例として、視野内視点数に付与する重みを0.9とする場合を例示したが、これはあくまで一例であり、重みには任意の値を設定することができる。例えば、前景の対象があると判断できる割合で少なくとも0.5以上を上記の重みに設定するのが好ましい。
このように、本実施例に係る画像処理装置1では、3次元空間上に存在するオブジェクトが一部のカメラにしか観測されない場合でも、カメラの光学中心と前景とが重なるカメラの視点数と比較する視点数の閾値を適切に設定できる。したがって、本実施例に係る画像処理装置1によれば、一部のカメラで観測されるオブジェクトの3次元形状を復元できる。また、視野内視点数に応じて視点数の閾値を適切に変更できる。それ故、互いの距離が小さいカメラ間や互いの光軸が略平行であるカメラ間でしか観測されない要素まで3次元形状と推定されるのを抑制できる結果、3次元空間上のオブジェクトが歪な形状で復元されることも抑制できる。
以下の実施例2では、Visual−Hullの実装として、ボクセルを用いる場合を例示して3次元形状の復元を実現する画像処理装置1の実装例について説明する。
[システム構成]
図3は、実施例2に係る3次元形状の復元システムの構成例を示す図である。図3に示す3次元情報の復元システム2は、一側面として、視点が異なる複数のカメラ200が撮像する多視点画像から3次元空間上に存在するオブジェクトの3次元形状を復元する画像処理サービスを提供するものである。
図3に示すように、3次元形状の復元システム2には、サーバ装置20と、複数のカメラ200A〜200Nとが含まれる。以下では、カメラ200A〜200Nのことを「カメラ200」と記載する場合がある。
これらサーバ装置20及びカメラ200の間は、所定のネットワークNWを介して接続される。このネットワークNWは、有線または無線を問わず、インターネット、LAN(Local Area Network)やVPN(Virtual Private Network)などの任意の種類の通信網により構築することができる。
このように、図3に示す3次元形状の復元システム2では、多視点画像がネットワークNWを介してカメラ200からサーバ装置20へ伝送される場合を例示するが、これはあくまで伝送形態の一例であり、サーバ装置20及びカメラ200の間で必ずしも双方向に通信が行われずともかまわない。例えば、ネットワークNWを経由せず、多視点画像が放送波を介してカメラ200からサーバ装置20へ伝送されることとしてもかまわない。
サーバ装置20は、上記の画像処理サービスを提供するコンピュータである。サーバ装置20は、画像処理装置の一例である。
一実施形態として、サーバ装置20は、パッケージソフトウェア又はオンラインソフトウェアとして、上記の画像処理サービスの機能を実現する復元プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、サーバ装置20は、上記の画像処理サービスを提供するWebサーバとして実装することとしてもよいし、アウトソーシングによって上記の復元サービスを提供するクラウドとして実装することとしてもかまわない。
カメラ200は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を搭載する撮像装置である。
図3には、あくまで一例として、自由視点映像によるサッカー観戦を実現することを目的とするカメラ200の配置が示されている。例えば、サッカーのフィールドF上の3次元空間がサッカー観戦における3次元のオブジェクト、例えばボールや選手、審判などの試合関係者等が復元される。この場合、複数のカメラ200は、一例として、フィールドFの周囲からフィールドFの内部へ向けて配置される。このとき、複数のカメラ200の撮影範囲が組み合わさることによりフィールドFの全域が複数のカメラ200の撮影範囲に収まる配置で各カメラ200が設置されると共に、各カメラ200は、他のカメラ200との間で撮影範囲の一部が重複する状態で配置される。このような配置の下、複数のカメラ200がフレームごとに同期して撮影することにより、異なる視点ごとに同一のタイミングで撮影された複数の画像がフレーム単位で得られる。以下では、カメラ200A〜200Nにより同一のフレームで撮像された複数の画像のことを「多視点画像」と記載し、また、1つのカメラ200により時系列に撮像される一連の画像のことを「動画像」と記載する場合がある。
[サーバ装置20の構成]
次に、本実施例に係るサーバ装置20の機能的構成について説明する。図4は、実施例2に係るサーバ装置20の機能的構成を示すブロック図である。図4に示すように、サーバ装置20は、通信I/F(InterFace)部21と、記憶部23と、制御部25とを有する。なお、図4には、上記の画像処理サービスに関連するサーバ装置20の機能部が抜粋して示されているに過ぎず、図示以外の機能部、例えば既存のコンピュータがデフォルトまたはオプションで装備する機能部がサーバ装置20に備わることを妨げない。例えば、上記の多視点画像がカメラ200からサーバ装置20へ放送波や衛星波を介して伝搬される場合、放送波や衛星波の受信部をさらに有することとしてもかまわない。
通信I/F部21は、他の装置との間で通信制御を行うインタフェースである。
一実施形態として、通信I/F部21には、LANカードなどのネットワークインタフェースカードが対応する。例えば、通信I/F部21は、カメラ200から多視点画像を受信したり、また、撮像制御に関する指示、例えば電源ON/電源OFFの他、パンやチルトなどの指示をカメラ200へ送信したりする。
記憶部23は、制御部25で実行されるOS(Operating System)を始め、上記の画像処理サービスを実現する画像処理プログラムなどの各種プログラムに用いられるデータを記憶する記憶デバイスである。
一実施形態として、記憶部23は、サーバ装置20における補助記憶装置として実装される。例えば、補助記憶装置には、HDD(Hard Disk Drive)、光ディスクやSSD(Solid State Drive)などが対応する。この他、EPROM(Erasable Programmable Read Only Memory)などのフラッシュメモリも補助記憶装置に対応する。
記憶部23は、制御部25で実行されるプログラムに用いられるデータの一例として、ボクセル23aと、カメラパラメータ23bと、シルエット画像23cと、有効ボクセル23dとを記憶する。これらボクセル23a、カメラパラメータ23b、シルエット画像23c及び有効ボクセル23d以外にも、他の電子データを記憶することもできる。例えば、記憶部23には、カメラ200から伝送される各視点の動画像データなどを記憶することができる。なお、ここでは、多視点画像の撮影前に準備することが可能なボクセル23a及びカメラパラメータ23bの説明を先行して行う一方で、多視点画像の撮影後に生成されるシルエット画像23c及び有効ボクセル23dの説明は制御部25の説明にあずける。
ボクセル23aは、いわゆるボクセルデータである。図5は、ボクセルの一例を示す図である。図5に示すボクセルは、一例として、画像処理プログラムの設計関係者、あるいは自由視点映像の提供者や閲覧者等の関係者などにより、ユーザインタフェース等を介して、サイズ、例えば5cm×5cmや1cm×1cmが指定される。このサイズの指定にしたがって3次元形状を復元する対象とする3次元空間、例えばフィールドFにボクセルが定義される。このようにボクセルが定義されたデータがボクセルデータ23aとして記憶部23に保存される。なお、図5には、各ボクセルのサイズが一定である例が示されているが、前景となるオブジェクトの境界部に位置するボクセルを対象に当該ボクセルを所定数に分割することにより、境界部のボクセルのサイズを細かく設定することができる。
カメラパラメータ23bは、カメラ200に関するパラメータが定義されたデータである。例えば、カメラパラメータ23bは、カメラ200ごとにキャリブレーションを行うことにより設定することができる。このカメラパラメータ23bには、一例として、カメラ200の位置や向きなどの外部パラメータ及びカメラ200の画角やレンズの歪みなどの内部パラメータが含まれる。
制御部25は、サーバ装置20の全体制御を行う処理部である。
一実施形態として、制御部25は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などのハードウェアプロセッサにより実装することができる。ここでは、プロセッサの一例として、CPUやMPUを例示したが、汎用型および特化型を問わず、任意のプロセッサにより実装することができる。この他、制御部25は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによって実現されることとしてもかまわない。
制御部25は、図示しない主記憶装置として実装されるDRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)などのRAMのワークエリア上に、上記の画像処理プログラムを展開することにより、下記の処理部を仮想的に実現する。
制御部25は、図4に示すように、取得部25aと、分離部25bと、投影部25cと、視野判定部25dと、シルエット判定部25eと、設定部25fと、判定部25gとを有する。
取得部25aは、多視点画像を取得する処理部である。
一実施形態として、取得部25aは、カメラ200から伝送される多視点画像をフレーム単位で取得することができる。ここで、取得部25aが多視点画像を取得するソースは任意であってよく、カメラ200に限定されない。例えば、取得部25aは、多視点画像を蓄積するハードディスクや光ディスクなどの補助記憶装置またはメモリカードやUSB(Universal Serial Bus)メモリなどのリムーバブルメディアから読み出すことにより多視点画像を取得することもできる。この他、取得部25aは、外部装置からネットワークNWを介して受信することによって多視点画像を取得することもできる。
分離部25bは、前景と背景を分離する処理部である。ここで言う「前景」とは、カメラ200の視野内の3次元空間に存在するオブジェクトの中でも動体などのオブジェクトを指す一方で、「背景」とは、動体でないオブジェクトを指す。
一実施形態として、分離部25bは、取得部25aにより動画像のフレームがカメラ200ごとに取得される度に、当該フレームの画像から前景に対応するシルエットをカメラ200ごとに抽出する。例えば、分離部25bは、当該フレームの画像と、それよりも前に取得されたフレームの画像との間で画素値の差分を検出することにより、シルエットを抽出する。すなわち、分離部25bは、画像内に動体が観測されない可能性が高い背景のフレームの画像と、最新のフレームの画像との間で画素値の差が所定の閾値以上である画素を検出する。ここで、上記の背景のフレームの画像には、一例として、所定のフレーム数にわたってフレーム間の差分が検出されなかったフレームの画像などを利用することができる。このように抽出された画素は、ラベリングが実行されることによりブロブとして抽出することができる。その上で、分離部25bは、ラベリングにより抽出されたブロブに対応する画素の画素値を「1」に設定すると共に、それ以外の画素の画素値を「0」に設定する。これにより、前景に対応するシルエットが「白」で表現されると共に、背景に対応する領域が「黒」で表現されたシルエット画像を生成することができる。なお、ここでは、シルエット画像の一例として、2値化画像を生成する場合を例示したが、階調の数は「2」に限定されないのは言うまでもない。
このように生成されたシルエット画像が視点およびフレームごとにシルエット画像23cとして記憶部23に保存される。以下では、あくまで一例として、シルエット画像23cが記憶部23に保存されてから3次元形状の復元が実行される場合を例示するが、フレームごとに各視点のシルエット画像が生成される度に、当該フレームにおける3次元形状の復元が実行されることとしてもかまわない。
投影部25cは、カメラパラメータ23bを用いて、各種の投影処理を実行する処理部である。
一実施形態として、投影部25cは、サーバ装置20に対する外部指示、あるいはシルエット画像23cの生成終了などの任意の契機で処理を起動する。そして、投影部25cは、記憶部23に記憶されたボクセルデータ23aに定義されたボクセルのうち1つを選択する。さらに、投影部25cは、カメラ200A〜200Nのうち1つを選択する。その上で、投影部25cは、記憶部23に記憶されたカメラパラメータ23bを参照して、シルエット画像23cのうち先に選択されたカメラ200に対応するシルエット画像上に先に選択されたボクセルを投影する。
視野判定部25dは、投影後のボクセルがカメラ200の視野内であるか否かを判定する処理部である。
一実施形態として、視野判定部25dは、投影部25cにより投影されたボクセルが投影先のシルエット画像に含まれるか否かを判定する。例えば、視野判定部25dは、ボクセルが持つ8つの頂点がシルエット画像のフレーム内に含まれるか否かを判定する。このとき、少なくとも1つの頂点がシルエット画像のフレーム内に含まれる場合、当該ボクセルはカメラ200の視野内であると識別される。この場合、視野判定部25dは、図示しない内部メモリのワークエリアに保存される視野内視点数を1つインクリメントする。一方、1つの頂点もシルエット画像に含まれない場合、当該ボクセルはカメラ200の視野外であると識別される。
なお、ここでは、あくまで一例として、ボクセルの頂点を用いてカメラ200の視野内であるか否かを判定する場合を例示したが、ボクセルの重心がシルエット画像のフレーム内に含まれるか否かにより、カメラ200の視野内であるか否かを判定することもできる。また、ここでは、1つでも頂点がシルエット画像のフレーム内に含まれる場合に当該ボクセルがカメラ200の視野内であると判定される例を説明したが、フレーム内外を判定する頂点の数は任意に変更できるのは言うまでもない。例えば、頂点の半数以上がシルエット画像のフレーム内に含まれる場合に視野内であると判定することもできるし、1つでも頂点がシルエット画像のフレーム外である場合に視野外と判定することもできる。
シルエット判定部25eは、投影後のボクセルがシルエット画像のシルエット内であるか否かを判定する処理部である。
一実施形態として、シルエット判定部25eは、視野判定部25dによりボクセルがカメラ200の視野内であると判定された場合、次のような処理を実行する。すなわち、シルエット判定部25eは、ボクセルが持つ8つの頂点がシルエット画像上のシルエット内に含まれるか否かを判定する。このとき、少なくとも1つの頂点がシルエット画像上のシルエット内に含まれる場合、当該ボクセルはシルエット内であると識別される。この場合、シルエット判定部25eは、内部メモリのワークエリアに保存されるシルエット内視点数を1つインクリメントする。一方、1つの頂点もシルエット画像上のシルエット内に含まれない場合、当該ボクセルはシルエット外であると識別される。
図6は、投影前後のボクセルの一例を示す図である。図6には、シルエット画像23cのうちカメラ200Aのシルエット画像210Aおよびカメラ200Bのシルエット画像210Bが抜粋して示されている。これらシルエット画像210A及びシルエット画像210Bには、背景に対応する領域が黒で示される一方で、前景となるシルエットに対応する領域が白で示されている。さらに、図6には、ボクセルV1〜ボクセルV3の3つのボクセルがシルエット画像210A及びシルエット画像210Bに投影される場合が示されている。
例えば、ボクセルV1の場合、シルエット画像210A上のシルエット内にボクセルV1Aが投影されると共に、シルエット画像210B上のシルエット内にボクセルV1Bが投影される。このため、視野内視点数およびシルエット内視点数のいずれも「2」と識別される。また、ボクセルV2の場合、シルエット画像210Aのフレーム内ではあるが、シルエット外にボクセルV2Aが投影されると共に、シルエット画像210Bのシルエット内にボクセルV2Bが投影される。このため、視野内視点数が「2」と識別される一方で、シルエット内視点数が「1」と識別される。さらに、ボクセルV3の場合、シルエット画像210Aのフレーム外にボクセルV3Aが投影されると共に、シルエット画像210Bのフレーム内ではあるが、シルエット外にボクセルV3Bが投影される。このため、視野内視点数が「1」と識別されると共に、シルエット内視点数が「0」と識別される。
なお、ここでは、あくまで一例として、ボクセルの頂点を用いてシルエット内であるか否かを判定する場合を例示したが、ボクセルの重心がシルエット画像上のシルエット内に含まれるか否かにより、シルエット内であるか否かを判定することもできる。また、ここでは、1つでも頂点がシルエット画像のシルエット内に含まれる場合に当該ボクセルがシルエット内であると判定される例を説明したが、シルエット内外を判定する頂点の数は任意に変更できるのは言うまでもない。例えば、頂点の半数以上がシルエット画像のシルエット内に含まれる場合にシルエット内であると判定することもできるし、1つでも頂点がシルエット画像のシルエット外である場合にシルエット外と判定することもできる。
設定部25fは、カメラ200の光学中心およびシルエットが重なるカメラの視点数と比較する視点数の閾値を設定する処理部である。
一側面として、設定部25fは、内部メモリのワークエリアに保存された視野内視点数に比例する視点数の閾値を設定することができる。例えば、設定部25fは、下記の式(1)にしたがって視点数の閾値を設定することができる。下記の式(1)における「Th」は、視点数の閾値を指す。また、「ValidCam」は、視野内視点数を指す。また、「w」は、視野内視点数に応じた視点数の閾値を定める比例定数を指す。また、「Min−Th」は、視点数の閾値の最小値を指す。例えば、カメラ200の総数が「18」、Min−Thが「6」、w=0.9の環境下で視野内視点数が「15」と計数された場合、0.9×15および6のうち大きい方の値である13.5を選択し、視点数の閾値Thが13.5に設定される。
Th=max(w*(ValidCam),Min−Th)・・・(1)
他の側面として、設定部25fは、内部メモリのワークエリアに保存された視野内視点数から定数を減算することにより視点数の閾値を設定することもできる。例えば、設定部25fは、下記の式(2)にしたがって視点数の閾値を設定することができる。下記の式(2)における「Th」は、視点数の閾値を指す。また、「ValidCam」は、視野内視点数を指す。また、「n」は、視野内視点数に応じた視点数の閾値を定める定数を指す。また、「Min−Th」は、視点数の閾値の最小値を指す。例えば、カメラ200の総数が「18」、Min−Thが「6」、n=3の環境下で視野内視点数が「7」と計数された場合、7−3および6のうち大きい方の値である6を選択し、視点数の閾値Thが最小値である6に設定される。
Th=max((ValidCam−n),Min−Th)・・・(2)
更なる側面として、設定部25fは、内部メモリのワークエリアに保存された視野内視点数から求まる最低限度のカメラ数を視点数の閾値として設定することができる。例えば、設定部25fは、下記の式(3)にしたがって視点数の閾値を設定することができる。下記の式(3)における「Th」は、視点数の閾値を指す。また、「ValidCam」は、視野内視点数を指す。また、「w」は、視野内視点数に応じた視点数の閾値を定める比例定数を指す。但し、下記の式(3)には、「ValidCam<Min−ValidCamであるとき、Th=Max−Th」とする拘束条件が設定される。この「Max−Th」は、視点数の閾値の最大値、すなわちカメラ200の総数を指す。
Th=w*(ValidCam)・・・(3)
なお、上記の式(1)や上記の式(2)では、視野内視点数がMin−Thを下回る場合、実際にボクセルがオブジェクトの一部に該当する場合に有効ボクセルと認識させない場合を例示したが、視野内視点数がMin−Thを下回る場合、視点数の閾値Thを視野内視点数と同数に設定することもできる。これにより、3次元形状を復元する機会が損なわれるのを抑制することもできる。
判定部25gは、ボクセルが有効ボクセルであるか否かを判定する処理部である。ここで言う「有効ボクセル」とは、ボクセルの中でも3次元のオブジェクトの一部であるという認識が有効にされたボクセルのことを指す。
一実施形態として、判定部25gは、1つのボクセルにつき視野内外およびシルエット内外の判定がカメラ200ごとに実行された場合、次のような処理を実行する。すなわち、判定部25gは、内部メモリのワークエリアに保存されたシルエット内視点数が設定部25fにより設定された視点数の閾値以上であるか否かを判定する。ここで、シルエット内視点数が視点数の閾値以上である場合、当該ボクセルが3次元のオブジェクトの一部である有効ボクセルと認識される。この場合、判定部25gは、当該有効ボクセルを記憶部23に登録する。例えば、有効ボクセルの識別情報がリスト化されたデータが有効ボクセル23dとして記憶部23に登録される場合、判定部25gは、シルエット内視点数が視点数の閾値以上であるボクセルの識別情報を有効ボクセル23dのリストへ追加登録する。
このように得られた有効ボクセル23dを用いることにより、多視点画像から自由視点映像を生成することができる。この場合、有効ボクセルを映像面に投影し、多視点画像の対応画素の色を用いる「VoxelColoring」という手法を用いることができる。例えば、「VoxelColoring」については、「S.M.Seitz, C.M.Dyer ”Photorealistic scene reconstruction by voxel Coloring” Proc.」や「Computer Vision and Pattern Recognition 97, pages 1067-1073, 1999.」などの文献にしたがって実現できる。
[処理の流れ]
図7は、実施例2に係る画像処理の手順を示すフローチャートである。この処理は、一例として、サーバ装置20に対する外部指示、あるいはシルエット画像23cの生成終了などの任意の契機に開始される。
図7に示すように、投影部25cは、記憶部23に記憶されたボクセルデータ23aに定義されたボクセルのうち1つを選択する(ステップS201)。さらに、投影部25cは、カメラ200A〜200Nのうち1つを選択する(ステップS202)。その上で、投影部25cは、記憶部23に記憶されたカメラパラメータ23bを参照して、シルエット画像23cのうちステップS202で選択されたカメラ200に対応するシルエット画像上にステップS201で選択されたボクセルを投影する(ステップS203)。
続いて、視野判定部25dは、ステップS203で投影されたボクセルが投影先のシルエット画像のフレーム内に含まれるか否かを判定する(ステップS204)。このとき、ボクセルがシルエット画像のフレーム内に含まれる場合(ステップS204Yes)、視野判定部25dは、内部メモリのワークエリアに保存される視野内視点数を1つインクリメントする(ステップS205)。
そして、シルエット判定部25eは、ステップS203で投影されたボクセルがシルエット画像上のシルエット内に含まれるか否かを判定する(ステップS206)。このとき、ボクセルがシルエット画像上のシルエット内に含まれる場合(ステップS206Yes)、シルエット判定部25eは、内部メモリのワークエリアに保存されるシルエット内視点数を1つインクリメントする(ステップS207)。
また、ボクセルがシルエット画像のフレーム内に含まれない場合、あるいはボクセルがシルエット画像上のシルエット内に含まれない場合(ステップS204NoまたはステップS206No)、ステップS208の処理へ移行する。その後、全てのカメラ200が選択されるまで(ステップS208No)、上記のステップS202からステップS207までの処理を繰り返し実行する。
そして、全てのカメラ200が選択された場合(ステップS208Yes)、設定部25fは、内部メモリのワークエリアに保存された視野内視点数に基づいて視点数の閾値を設定する(ステップS209)。続いて、判定部25gは、内部メモリのワークエリアに保存されたシルエット内視点数がステップS209で設定された視点数の閾値以上であるか否かを判定する(ステップS210)。
ここで、シルエット内視点数が視点数の閾値以上である場合(ステップS210Yes)、当該ボクセルが3次元のオブジェクトの一部である有効ボクセルと認識される。この場合、判定部25gは、当該有効ボクセルを記憶部23の有効ボクセル23dに登録する(ステップS211)。一方、シルエット内視点数が視点数の閾値以上でない場合(ステップS210No)、当該ボクセルが有効ボクセルと認識されず、ステップS211の処理がスキップされる。
その後、全てのボクセルが選択されるまで(ステップS212No)、上記のステップS201からステップS211までの処理が繰り返し実行される。そして、全てのボクセルが選択された場合(ステップS212Yes)、処理を終了する。
なお、図7に示すステップS203からステップS207までの処理は、カメラ200ごとに並行して実行することができる。この場合、一例として、取得部25a、分離部25b、投影部25c、視野判定部25d及びシルエット判定部25eなどの処理部の機能を有するサーバ装置20をカメラ200ごとに設け、各サーバ装置20でステップS203からステップS207までの分散並列処理を実行させることができる。この場合、各サーバ装置で判定された視野内外およびシルエット内外の判定結果を取得し、視野内視点数およびシルエット内視点数を集計する処理部を設定部25f及び判定部25gの前段に設けることにより、上記の分散並列処理を実現できる。なお、当然のことながら、上記の「サーバ装置」は、物理マシンであっても仮想マシンであってもかまわない。
[効果の一側面]
上述してきたように、本実施例に係るサーバ装置20は、3次元空間上の要素がシルエット画像のフレーム内に含まれる視点数から視点数の閾値を設定し、シルエット画像上のシルエット内に含まれる視点数が視点数の閾値以上である要素から3次元空間のオブジェクトの形状を推定する。したがって、本実施例に係るサーバ装置20によれば、一部のカメラで観測されるオブジェクトの3次元形状を復元できる。また、視野内視点数に応じて視点数の閾値を適切に変更できる。それ故、互いの距離が小さいカメラ間や互いの光軸が略平行であるカメラ間でしか観測されない要素まで3次元形状と推定されるのを抑制できる結果、3次元空間上のオブジェクトが歪な形状で復元されることも抑制できる。
このように一部のカメラで観測されるオブジェクトの3次元形状の復元を実現できる場合、カメラ配置の制約も緩和できる。
図8〜図10は、カメラ配置の一例を示す図である。図8及び図9には、フィールドFの2つのゴール前を関心領域Rとし、当該関心領域Rが全てのカメラで観測されるようにカメラが配置される例が示されている。この場合、従来では、図8に示すように、Visual−Hullで3次元形状が復元される対象が関心領域Rに限定される。一方、本実施例では、関心領域R外の領域でも、Visual−Hullで3次元形状を復元できる。したがって、本実施例では、既存と同様のカメラ配置においても、Visual−Hullで3次元形状が復元される領域を広げることができる。また、図8には、全てのカメラの画角が同一である場合を例示したが、本実施例では、全てのカメラで観測されるカメラ配置に拘束されない。このため、図9に示すように、ズームカメラなど特定の領域を照準とするカメラを導入しても、図7等に示す処理内容を変更せずとも、3次元形状を復元できる。さらに、図8及び図9には、既存のカメラ配置を示したが、本実施例では、全てのカメラで観測されるカメラ配置に拘束されないので、図10に示すように、フィールドF上に関心領域Rを設定しないカメラ配置を自由にレイアウトできる。
以下の実施例3では、Visual−Hullの実装として、Rayを用いる場合を例示して3次元形状の復元を実現する画像処理装置1の他の実装例について説明する。
図11は、実施例3に係るサーバ装置30の機能的構成を示すブロック図である。図11には、図4に示すサーバ装置20に比べて機能の一部が異なる機能部および図4に示すサーバ装置20に記載がない機能部に異なる符号を付与する一方で、図4に示すサーバ装置20と同様の機能を発揮する機能部には同一の符号を付与している。以下、図4に示すサーバ装置20と同一の符号が付与された機能部については説明の重複を避ける観点からその説明を省略し、異なる符号が付与された機能部について説明を行う。
図11に示すサーバ装置30は、シルエット画像の中から選択された基準シルエット画像上のシルエットに対応する画素および基準シルエット画像に対応する視点のカメラ200の光学中心を結ぶ線、すなわちRayを基準シルエット画像以外の参照シルエット画像に投影することにより得られるエピポーラ線を用いて、各カメラ200の視点ごとにデプス画像を生成する。それ故、図11に示すサーバ装置30は、図4に示すサーバ装置20に比べて、3次元形状を表すデータとして、有効ボクセル23dの代わりに、各カメラ200の視点ごとのデプス画像33aが記憶部33に保存される点が異なる。
さらに、図11に示すサーバ装置30は、図4に示すサーバ装置20に比べて、制御部35内にエピポーラ線算出部35a、第1の視点数算出部35b、第2の視点数算出部35cおよび生成部35dを有する点が異なる。
エピポーラ線算出部35aは、エピポーラ線を算出する処理部である。
一実施形態として、エピポーラ線算出部35aは、カメラ200A〜200Nのうち1つを基準カメラとして選択する。一方、基準カメラとして選択されなかったカメラ200は以降で参照カメラと識別される。続いて、エピポーラ線算出部35aは、基準カメラの視点に対応する基準シルエット画像が持つ画素のうち前景となるシルエットを形成する画素を1つ選択する。さらに、エピポーラ線算出部35aは、参照カメラのうち1つを選択する。
その上で、エピポーラ線算出部35aは、基準カメラの光学中心および基準シルエット画像上のシルエットに対応する画素を結ぶ線を先に選択された参照シルエット画像に投影することにより、エピポーラ線を算出する。続いて、エピポーラ線算出部35aは、エピポーラ線の開始位置および終了位置を算出する。例えば、開始位置は、基準カメラの光学中心が参照シルエット画像に投影された点に対応する。また、終了位置は、3次元空間上で基準カメラの光学中心からシルエットに対応する画素へ通る直線を無限遠まで延伸した点に対応する。
そして、エピポーラ線算出部35aは、上記のエピポーラ線が参照シルエット画像のフレームの境界と交わる交点を算出する。このとき、エピポーラ線の開始位置が参照シルエット画像のフレーム外に存在する場合、エピポーラ線が参照シルエット画像と2回交わるので、2つの交点が算出される。以下、エピポーラ線が参照シルエット画像のフレームの境界と交わる交点のことを「フレーム境界の交点」と記載する場合がある。
その後、エピポーラ線算出部35aは、上記のエピポーラ線が参照シルエット画像上のシルエットの境界と交わる交点を算出する。このとき、参照シルエット画像上に複数のシルエットが存在する場合、エピポーラ線が複数のシルエットと交わるので、2つ以上の交点が算出される。以下、エピポーラ線が参照シルエット画像上のシルエットの境界と交わる交点のことを「シルエット境界の交点」と記載する場合がある。
その上で、エピポーラ線算出部35aは、フレーム境界の交点間を結ぶ線分およびシルエット境界の交点間を結ぶ線分を基準カメラの光学中心からの奥行き情報へ変換する。以下、フレーム境界の交点間を結ぶ線分のことを「フレーム内線分」と記載し、シルエット境界の交点間を結ぶ線分のことを「シルエット内線分」と記載する場合がある。
第1の視点数算出部35bは、視野内視点数を算出する処理部である。
一実施形態として、第1の視点数算出部35bは、参照カメラごとに、基準カメラの光学中心および基準シルエット画像上のシルエットに対応する画素を結ぶRay上にフレーム境界の交点間を結ぶフレーム内線分をプロットする。その上で、第1の視点数算出部35bは、参照カメラの間でフレーム内線分が重なる重複部分を抽出した上で、参照カメラの間で重なる個数が最大となる重複部分における個数を視野内視点数として算出する。このように算出された視野内視点数により、設定部25fは、上記の実施例2と同様に、視点数の閾値を設定することができる。
第2の視点数算出部35cは、シルエット内視点数を算出する処理部である。
一実施形態として、第2の視点数算出部35cは、参照カメラごとに、基準カメラの光学中心および基準シルエット画像上のシルエットに対応する画素を結ぶRay上にシルエット境界の交点間を結ぶシルエット内線分をプロットする。その上で、第2の視点数算出部35cは、参照カメラの間でシルエット内線分が重なる重複部分を抽出した上で、参照カメラの間で重なる個数が最大となる重複部分における個数をシルエット内視点数として算出する。
生成部35dは、デプス画像を生成する処理部である。
一実施形態として、生成部35dは、基準シルエット画像のシルエットに対応する画素のうちシルエット内視点数が視点数の閾値以上である画素ごとに、参照カメラの間で最大の個数の重複部分の奥行き情報を抽出する。続いて、生成部35dは、基準シルエット画像でシルエット内視点数が視点数の閾値以上である画素ごとに抽出された最大の個数の重複部分の奥行き情報にしたがって基準カメラに対応するデプス画像を生成する。その上で、生成部35dは、カメラごとに生成されたデプス画像をデプス画像35aとして記憶部33に保存する。
図12は、Ray上の重複部分の一例を示す図である。図12には、カメラ200のうちカメラ200Aを基準カメラとする場合の例が示されると共に、それ以外の参照カメラのうちカメラ200B、カメラ200C及びカメラ200Nが抜粋して示されている。さらに、図12には、基準シルエット画像210A上のシルエット内の画素(u1,v1)および基準カメラ200Aの光学中心O1を結ぶRayが示されている。なお、図12には、説明の便宜上、各参照カメラごとにRay上にプロットされるフレーム内線分およびシルエット内線分を個別に抜粋して示す。
図12に示すように、参照カメラ200Bに対応するRayには、参照シルエット画像210Bにおけるフレーム内線分が破線でプロットされると共に、参照シルエット画像210Bにおけるシルエット内線分が白の太線でプロットされている。さらに、参照カメラ200Cに対応するRayには、参照シルエット画像210Cにおけるフレーム内線分が破線でプロットされると共に、参照シルエット画像210Cにおけるシルエット内線分が白の太線でプロットされている。さらに、参照カメラ200Nに対応するRayには、参照シルエット画像210Nにおけるフレーム内線分が破線でプロットされると共に、参照シルエット画像210Nにおけるシルエット内線分が白の太線でプロットされている。
このように参照カメラごとにフレーム内線分およびシルエット内線分がプロットされている場合、参照カメラ200B、参照カメラ200C及び参照カメラ200Nの間で互いのフレーム内線分が重なる重複部分を抽出することができる。この場合、フレーム内線分が重なる最大の個数は3個となる。このため、視野内視点数が「3」と算出される。同様に、参照カメラ200B、参照カメラ200C及び参照カメラ200Nの間で互いのシルエット内線分が重なる重複部分を抽出することができる。この場合、シルエット内線分が重なる最大の個数は3個となる。このため、シルエット内視点数も「3」と算出される。そして、基準シルエット画像210A上の画素(u1,v1)のシルエット内視点数が視点数の閾値以上である場合、最大の個数の重複部分Pの奥行き情報がデプス画像における画素(u1,v1)のデプスの算出に用いられる。
図13は、実施例3に係る画像処理の手順を示すフローチャートである。この処理は、一例として、サーバ装置30に対する外部指示、あるいはシルエット画像23cの生成終了などの任意の契機に開始される。
図13に示すように、エピポーラ線算出部35aは、カメラ200A〜200Nのうち1つを基準カメラとして選択する(ステップS301)。ここで、基準カメラとして選択されなかったカメラ200は以降で参照カメラと識別される。続いて、エピポーラ線算出部35aは、基準カメラの視点に対応する基準シルエット画像が持つ画素のうち前景となるシルエットを形成する画素を1つ選択する(ステップS302)。さらに、エピポーラ線算出部35aは、参照カメラのうち1つを選択する(ステップS303)。
その上で、エピポーラ線算出部35aは、基準カメラの光学中心および基準シルエット画像上のシルエットに対応する画素を結ぶ線を先に選択された参照シルエット画像に投影することにより、エピポーラ線を算出する(ステップS304)。
続いて、エピポーラ線算出部35aは、エピポーラ線の開始位置および終了位置からエピポーラ線が参照シルエット画像のフレームの境界と交わる交点を算出する(ステップS305)。さらに、エピポーラ線算出部35aは、エピポーラ線が参照シルエット画像上のシルエットの境界と交わる交点を算出する(ステップS306)。
その上で、エピポーラ線算出部35aは、フレーム境界の交点間を結ぶフレーム内線分およびシルエット境界の交点間を結ぶシルエット内線分を基準カメラの光学中心からの奥行き情報へ変換する(ステップS307)。
その後、全ての参照カメラが選択されるまで(ステップS308No)、上記のステップS303からステップS307までの処理が繰り返し実行される。そして、全ての参照カメラが選択されると(ステップS308Yes)、第1の視点数算出部35bは、参照カメラごとに、基準カメラの光学中心および基準シルエット画像上のシルエットに対応する画素を結ぶRay上にフレーム内線分をプロットし、参照カメラの間で重なる個数が最大となる重複部分における個数を視野内視点数として算出する(ステップS309)。
また、第2の視点数算出部35cは、参照カメラごとに、基準カメラの光学中心および基準シルエット画像上のシルエットに対応する画素を結ぶRay上にシルエット内線分をプロットし、参照カメラの間で重なる個数が最大となる重複部分における個数をシルエット内視点数として算出する(ステップS310)。
そして、設定部25fは、ステップS309で算出された視野内視点数に基づいて視点数の閾値を設定する(ステップS311)。続いて、生成部35dは、ステップS310で算出されたシルエット内視点数がステップS311で設定された視点数の閾値以上であるか否かを判定する(ステップS312)。
ここで、シルエット内視点数が視点数の閾値以上である場合(ステップS312Yes)、基準シルエット画像上の画素が3次元のオブジェクトの一部であると推定できる。この場合、生成部35dは、ステップS302で選択された画素をデプス画像の生成に用いる画素と識別する(ステップS313)。なお、シルエット内視点数が視点数の閾値以上でない場合(ステップS312No)、ステップS313の処理がスキップされる。
その後、基準シルエット画像上でシルエットに対応する全ての画素が選択されるまで(ステップS314No)、上記のステップS302からステップS313までの処理が繰り返し実行される。そして、基準シルエット画像上でシルエットに対応する全ての画素が選択されると(ステップS314Yes)、生成部35dは、基準シルエット画像でシルエット内視点数が視点数の閾値以上である画素ごとに抽出された最大の個数の重複部分の奥行き情報からデプス画像を生成する(ステップS315)。その後、全てのカメラが基準カメラとして選択されるまで(ステップS316No)、上記のステップS301からステップS315までの処理を繰り返し実行し、全てのカメラが基準カメラとして選択されると(ステップS316Yes)、処理を終了する。
[効果の一側面]
上述してきたように、本実施例に係るサーバ装置30によれば、上記の実施例2と同様に、一部のカメラで観測されるオブジェクトの3次元形状を復元できる。さらに、本実施例に係るサーバ装置30によれば、上記の実施例2と同様に、3次元空間上のオブジェクトが歪な形状で復元されることも抑制できると共に、カメラ配置の制約も緩和できる。
さて、これまで開示の装置に関する実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施例を説明する。
[スタンドアローン]
上記の実施例2及び上記の実施例3では、上記の画像処理サービスを提供するサーバ装置20及び30を例示することによりクライアントサーバシステムにより実装例を示したが、スタンドアローンで実装されることとしてもかまわない。この場合、スタンドアローンで動作するコンピュータに上記の画像処理プログラムをインストールすることとすればよい。
[画像処理プログラム]
また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図14を用いて、上記の実施例と同様の機能を有する画像処理プログラムを実行するコンピュータの一例について説明する。
図14は、実施例1〜実施例3に係る画像処理プログラムを実行するコンピュータのハードウェア構成例を示す図である。図14に示すように、コンピュータ100は、操作部110aと、スピーカ110bと、カメラ110cと、ディスプレイ120と、通信部130とを有する。さらに、このコンピュータ100は、CPU150と、ROM160と、HDD170と、RAM180とを有する。これら110〜180の各部はバス140を介して接続される。
HDD170には、図14に示すように、上記の実施例1で示した機能部、上記の実施例2で示した機能部または上記の実施例3で示した機能部と同様の機能を発揮する画像処理プログラム170aが記憶される。この画像処理プログラム170aは、図1、図4または図11に示した機能部の各構成要素と同様、統合又は分離してもかまわない。すなわち、HDD170には、必ずしも上記の実施例1、上記の実施例2または上記の実施例3で示した全てのデータが格納されずともよく、処理に用いるデータがHDD170に格納されればよい。
このような環境の下、CPU150は、HDD170から画像処理プログラム170aを読み出した上でRAM180へ展開する。この結果、画像処理プログラム170aは、図14に示すように、画像処理プロセス180aとして機能する。この画像処理プロセス180aは、RAM180が有する記憶領域のうち画像処理プロセス180aに割り当てられた領域にHDD170から読み出した各種データを展開し、この展開した各種データを用いて各種の処理を実行する。例えば、画像処理プロセス180aが実行する処理の一例として、図7や図13に示す処理などが含まれる。なお、CPU150では、必ずしも上記の実施例1で示した全ての処理部が動作せずともよく、実行対象とする処理に対応する処理部が仮想的に実現されればよい。
なお、上記の画像処理プログラム170aは、必ずしも最初からHDD170やROM160に記憶されておらずともかまわない。例えば、コンピュータ100に挿入されるフレキシブルディスク、いわゆるFD、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に画像処理プログラム170aを記憶させる。そして、コンピュータ100がこれらの可搬用の物理媒体から画像処理プログラム170aを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN、WANなどを介してコンピュータ100に接続される他のコンピュータまたはサーバ装置などに画像処理プログラム170aを記憶させておき、コンピュータ100がこれらから画像処理プログラム170aを取得して実行するようにしてもよい。
1 画像処理装置
1A 取得部
1B 分離部
1C 分類部
1D 設定部
1F 推定部
2 復元システム
20 サーバ装置
21 通信I/F部
23 記憶部
23a ボクセル
23b カメラパラメータ
23c シルエット画像
23d 有効ボクセル
25 制御部
25a 取得部
25b 分離部
25c 投影部
25d 視野判定部
25e シルエット判定部
25f 設定部
25g 判定部

Claims (6)

  1. 視点が異なる複数のカメラにより撮像された多視点画像を取得する取得部と、
    前記多視点画像に含まれる複数の画像から前景と背景を分離する分離部と、
    3次元形状を復元する対象とする3次元空間に含まれる要素がカメラ毎に視野外、または、視野内の背景あるいは視野内の前景に含まれるかを分類する分類部と、
    前記分類部で要素が視野内に分類されたカメラの視点を設定する設定部と、
    視体積交差法により前記設定部で設定された視点のカメラの画像の要素から前記3次元空間のオブジェクトの形状を推定する推定部と、
    を有する画像処理装置。
  2. 前記設定部は、前記分類部で要素が視野内に分類されたカメラの視点数から、視点数の閾値を設定し、
    前記推定部は、前記視体積交差法により前記前景と特定されるカメラの視点数が、前記設定部で設定された前記視点数の閾値以上となる要素から前記3次元空間のオブジェクトの形状を推定する請求項1に記載の画像処理装置。
  3. 前記推定部は、前記視体積交差法により前記設定部で設定された視点のカメラの画像のボクセルから前記3次元空間のオブジェクトの形状を推定する請求項1に記載の画像処理装置。
  4. 前記推定部は、前記視体積交差法により前記設定部で設定された視点のカメラの画像の前記前景に対応する画素の奥行き情報から、前記3次元空間のオブジェクトの形状を推定する請求項1に記載の画像処理装置。
  5. 視点が異なる複数のカメラにより撮像された多視点画像を取得し、
    前記多視点画像に含まれる複数の画像から前景と背景を分離し、
    3次元形状を復元する対象とする3次元空間に含まれる要素がカメラ毎に視野外、または、視野内の背景あるいは視野内の前景に含まれるかを分類し、
    前記分類する処理で要素が視野内に分類されたカメラの視点を設定し、
    視体積交差法により前記設定する処理で設定された視点のカメラの画像の要素から前記3次元空間のオブジェクトの形状を推定する、
    処理をコンピュータが実行する画像処理方法。
  6. 視点が異なる複数のカメラにより撮像された多視点画像を取得し、
    前記多視点画像に含まれる複数の画像から前景と背景を分離し、
    3次元形状を復元する対象とする3次元空間に含まれる要素がカメラ毎に視野外、または、視野内の背景あるいは視野内の前景に含まれるかを分類し、
    前記分類する処理で要素が視野内に分類されたカメラの視点を設定し、
    視体積交差法により前記設定する処理で設定された視点のカメラの画像の要素から前記3次元空間のオブジェクトの形状を推定する、
    処理をコンピュータに実行させる画像処理プログラム。
JP2017096867A 2017-05-15 2017-05-15 画像処理装置、画像処理方法及び画像処理プログラム Pending JP2018194985A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017096867A JP2018194985A (ja) 2017-05-15 2017-05-15 画像処理装置、画像処理方法及び画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017096867A JP2018194985A (ja) 2017-05-15 2017-05-15 画像処理装置、画像処理方法及び画像処理プログラム

Publications (1)

Publication Number Publication Date
JP2018194985A true JP2018194985A (ja) 2018-12-06

Family

ID=64570343

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017096867A Pending JP2018194985A (ja) 2017-05-15 2017-05-15 画像処理装置、画像処理方法及び画像処理プログラム

Country Status (1)

Country Link
JP (1) JP2018194985A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022029730A (ja) * 2020-08-05 2022-02-18 Kddi株式会社 3dモデル生成装置ならびに仮想視点映像生成装置、方法およびプログラム
US20220172474A1 (en) * 2019-04-12 2022-06-02 Sony Group Corporation Image processing apparatus, 3d model generation method, and program
KR20220085693A (ko) * 2020-12-15 2022-06-22 광운대학교 산학협력단 3차원 체적 모델의 생성을 위한 다시점 카메라 기반의 반복적 캘리브레이션 방법
US11928831B2 (en) 2019-09-20 2024-03-12 Canon Kabushiki Kaisha Information processing apparatus, shape data generation method, and storage medium
JP7475831B2 (ja) 2019-09-20 2024-04-30 キヤノン株式会社 形状データ生成装置、形状データ生成方法、及び、プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008015863A (ja) * 2006-07-07 2008-01-24 Nippon Hoso Kyokai <Nhk> 距離情報出力装置及び3次元形状復元装置
JP2008191072A (ja) * 2007-02-07 2008-08-21 Nippon Telegr & Teleph Corp <Ntt> 3次元形状復元方法,3次元形状復元装置,その方法を実装した3次元形状復元プログラム及びそのプログラムを記録した記録媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008015863A (ja) * 2006-07-07 2008-01-24 Nippon Hoso Kyokai <Nhk> 距離情報出力装置及び3次元形状復元装置
JP2008191072A (ja) * 2007-02-07 2008-08-21 Nippon Telegr & Teleph Corp <Ntt> 3次元形状復元方法,3次元形状復元装置,その方法を実装した3次元形状復元プログラム及びそのプログラムを記録した記録媒体

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220172474A1 (en) * 2019-04-12 2022-06-02 Sony Group Corporation Image processing apparatus, 3d model generation method, and program
US11928831B2 (en) 2019-09-20 2024-03-12 Canon Kabushiki Kaisha Information processing apparatus, shape data generation method, and storage medium
JP7475831B2 (ja) 2019-09-20 2024-04-30 キヤノン株式会社 形状データ生成装置、形状データ生成方法、及び、プログラム
JP2022029730A (ja) * 2020-08-05 2022-02-18 Kddi株式会社 3dモデル生成装置ならびに仮想視点映像生成装置、方法およびプログラム
JP7328942B2 (ja) 2020-08-05 2023-08-17 Kddi株式会社 3dモデル生成装置ならびに仮想視点映像生成装置、方法およびプログラム
KR20220085693A (ko) * 2020-12-15 2022-06-22 광운대학교 산학협력단 3차원 체적 모델의 생성을 위한 다시점 카메라 기반의 반복적 캘리브레이션 방법
KR102533909B1 (ko) * 2020-12-15 2023-05-26 광운대학교 산학협력단 3차원 체적 모델의 생성을 위한 다시점 카메라 기반의 반복적 캘리브레이션 방법

Similar Documents

Publication Publication Date Title
US10701332B2 (en) Image processing apparatus, image processing method, image processing system, and storage medium
US10839521B2 (en) Image processing apparatus, image processing method, and computer-readable storage medium
JP2018194985A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
US9875547B2 (en) Method and apparatus for adjusting stereoscopic image parallax
US9600898B2 (en) Method and apparatus for separating foreground image, and computer-readable recording medium
CN106326832B (zh) 基于物体区域处理图像的装置及方法
KR101804205B1 (ko) 영상 처리 장치 및 방법
US10762649B2 (en) Methods and systems for providing selective disparity refinement
US10841555B2 (en) Image processing apparatus, image processing method, and storage medium
JP5886242B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP7023696B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2020197989A5 (ja) 画像処理システム、画像処理方法、およびプログラム
US11798233B2 (en) Generation device, generation method and storage medium for three-dimensional model that remove a portion of the three-dimensional model
JP7476375B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2019106145A (ja) 3次元モデルの生成装置、生成方法及びプログラム
CN110800020B (zh) 一种图像信息获取方法、图像处理设备及计算机存储介质
CN111343445A (zh) 动态调整深度解析度的装置及其方法
JP7275583B2 (ja) 背景モデル生成装置、背景モデル生成方法及び背景モデル生成プログラム
JP7192526B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6677980B2 (ja) パノラマビデオデータの処理装置、処理方法及び処理プログラム
EP3588437B1 (en) Apparatus that generates three-dimensional shape data, method and program
JP2002077941A (ja) 奥行き画像生成装置、奥行き画像生成方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
WO2020059575A1 (ja) 3次元画像生成装置、3次元画像生成方法、及びプログラム
JP2019106170A (ja) 3次元モデルの生成装置、生成方法及びプログラム
CN111369612A (zh) 一种三维点云图像生成方法及设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211012