JP7195785B2 - 3次元形状データを生成する装置、方法、及びプログラム - Google Patents

3次元形状データを生成する装置、方法、及びプログラム Download PDF

Info

Publication number
JP7195785B2
JP7195785B2 JP2018124702A JP2018124702A JP7195785B2 JP 7195785 B2 JP7195785 B2 JP 7195785B2 JP 2018124702 A JP2018124702 A JP 2018124702A JP 2018124702 A JP2018124702 A JP 2018124702A JP 7195785 B2 JP7195785 B2 JP 7195785B2
Authority
JP
Japan
Prior art keywords
reliability
spatial resolution
image
imaging
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018124702A
Other languages
English (en)
Other versions
JP2020004219A5 (ja
JP2020004219A (ja
Inventor
知宏 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018124702A priority Critical patent/JP7195785B2/ja
Priority to US16/446,774 priority patent/US11087482B2/en
Priority to EP19181923.4A priority patent/EP3588437B1/en
Publication of JP2020004219A publication Critical patent/JP2020004219A/ja
Publication of JP2020004219A5 publication Critical patent/JP2020004219A5/ja
Application granted granted Critical
Publication of JP7195785B2 publication Critical patent/JP7195785B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、オブジェクトの形状を推定する技術に関する。
従来、複数台のカメラによる撮像で取得した画像に基づき、オブジェクトまでの距離情報を得たり、オブジェクトの3次元形状データを生成したりする技術がある。このような技術の1つとして、オブジェクトのシルエット画像(例えば、オブジェクト領域の画素値が255、それ以外の領域の画素値が0となる2値画像)に基づき、視体積交差法を用いて、オブジェクトの3次元形状データを生成する手法がある。特許文献1は、オブジェクトの形状が滑らかであるという事前知識のもと、形状推定とシルエット画像の高精度化とを反復して行うことで、形状を精度良く推定する手法を開示している。
特開2011-43879号公報
特許文献1に記載の手法を用いた場合、反復処理に用いるオブジェクトの初期形状に欠損が発生した場合、事前知識を用いた反復処理によっても復元が困難である。また、初期形状の一部領域が、真の形状に比べ膨張してしまい、かつ膨張形状が滑らかな場合、この膨張形状を削除することが困難である。
そこで本発明は、上記の課題に鑑み、オブジェクトの形状を容易に且つ精度良く推定することを目的とする。
本発明の一実施形態は、オブジェクトを、複数の撮像装置により複数の方向から撮像することで取得される複数の画像を取得する取得手段と、前記複数の画像における空間分解能であって、前記オブジェクトの形状を表す3次元形状データを構成する候補である要素を前記撮像装置の画像平面に射影したときの当該要素に対応する領域の幅に基づいて決定される空間分解能に基づき、前記撮像装置の信頼度を決定する信頼度決定手段と、前記複数の画像と前記信頼度とに基づき、前記オブジェクトの形状を表す3次元形状データを生成する生成手段とを有することを特徴とする生成装置である。
本発明によれば、オブジェクトの形状を容易に且つ精度良く推定することができる。
第1の実施形態における撮像システムの概略構成図。 第1の実施形態における画像処理装置のハードウェア構成を示すブロック図。 第1の実施形態における画像処理装置のソフトウェア構成を示すブロック図。 第1の実施形態におけるオブジェクトの形状データ生成処理のフローチャート。 第1の実施形態における信頼度の導出手法を説明する概念図。 第1の実施形態における条件決定部305、形状生成部306が実行する処理の概念図。 第2の実施形態における画像処理装置のソフトウェア構成を示すブロック図。 第2の実施形態におけるオブジェクトの形状データ生成処理のフローチャート。 第3の実施形態における処理の概念図。 第4の実施形態における処理の概念図。
以下、図面を参照して本発明の実施形態を詳細に説明する。但し、以下の実施形態は本発明を限定するものではなく、また、以下で説明する特徴の組み合わせの全てが本発明の課題解決に必須のものとは限らない。尚、同一の構成については、同じ符号を付して説明する。また、以下に記載する構成要素の相対配置、形状等は、あくまで例示であり、本発明をそれらのみに限定する趣旨のものではない。
[第1の実施形態]
本実施形態では、画像上におけるオブジェクトの空間分解能に応じて、視体積交差法におけるシルエット内外判定の条件を切り替えて形状推定を行う。本実施形態によれば、空間分解能の高いオブジェクトの画像を優先的に使用することにより、簡易な処理で精度良く形状を推定することができる。尚、以下ではオブジェクトの形状を示す3次元形状データ(以下、形状データという)の形式が点群の場合を説明するが、メッシュやデプスマップ等の他のデータ形式でも本実施形態を同様に適用可能である。
<撮像システムについて>
以下、本実施形態における撮像システムについて、図1を用いて説明する。図1は、本実施形態における撮像システムの一例を示す。撮像システム100は、複数のカメラ101と、画像処理装置200とを有する。図1に示すように、オブジェクトを取り囲むように配置された複数のカメラ101を用いて、オブジェクトの撮像が行われる。複数のカメラ101は夫々、相異なる撮像位置からオブジェクトを撮像することで、画像群を得る。撮像位置とは、カメラが配置された位置である。図1の例では、屋外又は屋内の競技場に配置された複数のカメラ101を用いて、グラウンド(撮像フィールド)103上にいる選手102が撮像されている。
尚、図1はスポーツシーンへの応用例を示すが、本実施形態は任意のシーンにおけるオブジェクトの撮像に適用可能である。また、本実施形態では通常、オブジェクトとは、例えば選手102や球技におけるボール(不図示)のような、時系列で同じ方向から撮影を行った場合において動きのある(その絶対位置が変化し得る)物体(動体)を指す。しかし、本実施形態では、任意のオブジェクトの特定方法を採用することができ、背景のような静止物体をオブジェクトとして扱うこともできる。以上が、本実施形態における撮像システムの内容である。
<画像処理装置のハードウェア構成について>
以下、本実施形態における画像処理装置200のハードウェア構成について、図2を用いて説明する。図2は、画像処理装置200のハードウェア構成の一例を示すブロック図である。
CPU201は、画像処理装置200全体の動作制御を行い、具体的には、RAM202又はROM203等のメモリに格納されているプログラム及びデータを用いて各種の処理を実行する。これにより、CPU201は、後述するモジュール(図3参照)を実現したり、後述の処理(図4参照)を実行したりする。
RAM202は、ROM203又は記憶部204のようなメモリからロードされたプログラム及びデータを格納するためのエリアを有する。さらにRAM202は、CPU201が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM202は、各種のエリアを提供することができる。ROM203は、書き換え不要の設定データ、並びに、ブート時に必要なプログラム及びデータを格納している。
記憶部204は、プログラム及びデータを格納する記憶装置であり、例えばハードディスクドライブのような大容量情報記憶装置である。記憶部204は、オペレーティングシステム(以下OS)、並びに、後述する各処理をCPU201に実行させるためのプログラム及びデータを格納することができる。また、記憶部204は、処理対象となる画像又は動画像のデータを格納することができる。記憶部204に格納されているプログラムやデータは、CPU201による制御に従ってRAM202にロードされることにより、CPU201の処理対象となる。記憶部204は、ハードディスクドライブ以外に、CD-ROM若しくはDVD-ROM等の記憶媒体から情報を読み取る機器、又は、フラッシュメモリ若しくはUSBメモリ等のメモリ装置であっても良い。
CPU201は、出力インターフェース205を介して、出力インターフェース205に接続された表示装置207に表示用データを送ることにより、表示装置207に表示を行わせることができる。こうして、表示装置207は、CPU201による処理結果を画像や文字を用いて表示したり、投影したりすることができる。表示装置207として、例えば、CRT、液晶ディスプレイ等のディスプレイ装置、又は、プロジェクタ等の投影装置が考えられる。
CPU201、RAM202、ROM203、記憶部204、及び出力インターフェース205は、何れもバス206に接続されており、バス206を介して相互に通信することができる。尚、図2に示した構成は、画像処理装置200に適用可能なコンピュータ装置の構成の一例に過ぎない。以上が、本実施形態における画像処理装置200のハードウェア構成の内容である。
<形状データ生成処理について>
以下、本実施形態における画像処理装置200が実行する、オブジェクトの形状を推定する処理、言い換えると、オブジェクトの形状データを生成する処理(形状データ生成処理とする)について、図3及び図4を用いて説明する。図3は、本実施形態における画像処理装置200のソフトウェア構成(機能構成)の一例を示すブロック図であり、図4は、本実施形態における形状データ生成処理のフローチャートである。
図3に示すように、本実施形態における画像処理装置200は、画像取得部301と、カメラパラメータ取得部302と、位置取得部303と、信頼度導出部304と、条件決定部305と、形状生成部306とを有する。画像処理装置200のCPU201は、ROM203又は記憶部204内に格納されたプログラムをRAM202にロードし、該ロードしたプログラムを実行することで、上記の各モジュールを実現することができる。尚、画像処理装置200が、図3に示すモジュールのうち1つ以上のモジュールに相当する専用の処理回路を有しても良い。
以下、図3に示したモジュールにより行われる形状データ生成処理の流れについて、図4を用いて説明する。
ステップS401で、画像取得部301は、複数の異なる撮像位置に対応する、オブジェクトのシルエット画像群を取得する。以下、「ステップS~」を単純に「S~」と略記する。シルエット画像とは、各画素の取り得る値が2種類のみのデジタル画像、所謂2値画像であり、例えばオブジェクトが存在する領域の画素値が255、オブジェクトが存在しない領域の画素値が0の画像である。尚、デジタル画像であるシルエット画像を、シルエット画像データとも呼ぶ。
画像取得部301は、複数のカメラ101夫々に対する、互いに異なる方向から撮像された画像に基づき生成されたシルエット画像を、記憶部204から取得することができる。尚、カメラ101がシルエット画像データを生成可能な場合、画像取得部301は、カメラ101からシルエット画像データを直接取得しても良い。また、画像取得部301は、複数のカメラ101により略同時に得られた静止画像群を取得することができる。また、画像取得部301は、複数の異なる位置から撮像された動画像群を取得することもできる。例えば、画像取得部301は、複数のカメラ101により得られた動画像のうち、略同時に撮像されたフレーム画像群を取得することができる。
S402で、カメラパラメータ取得部302は、複数のカメラ101夫々の、カメラパラメータを取得する。カメラパラメータは、内部パラメータと、外部パラメータと、歪曲パラメータとを含む。内部パラメータは、画像中心の座標値と、カメラのレンズの焦点距離との少なくとも1つを含んで良い。外部パラメータは、カメラの位置と向きを表すパラメータである。本明細書では、外部パラメータとして、世界座標におけるカメラの位置ベクトル及び回転行列を用いるが、カメラの位置と向きを他の方法で記述する外部パラメータを用いても良い。歪曲パラメータは、カメラのレンズの歪曲を表す。このようなカメラパラメータに基づき、オブジェクトを撮像したカメラの位置と、カメラから画像の各画素に対応するオブジェクトへと向かう方向とを得ることができる。
尚、カメラパラメータの取得手法は特に限定されない。例えば、カメラパラメータは記憶部204に予め格納されていても良い。また、カメラパラメータは、複数視点からの画像データに基づきstructure from motion法を用いた推定を行うことで得ることができるし、チャート等を用いたキャリブレーションを行うことで得ることもできる。
S403で、位置取得部303は、オブジェクトの概略位置を示す情報として、オブジェクトを代表する点又はボクセルの3次元座標を導出する。オブジェクトを代表する点として例えば、オブジェクトの重心位置やオブジェクトを含むバウンディングボックスの頂点の一部を用いることができる。オブジェクトの概略位置を導出する具体的な方法として、例えば、解像度の粗いボクセルを用いた視体積交差法による方法が挙げられる。また、オブジェクト認識を行い、認識されたオブジェクトの一部についてステレオマッチング法を用いた距離推定を行うこともできる。他にも、オブジェクトまでの大まかな距離を取得するための、公知の他の方法を用いることができる。本ステップにより、位置取得部303は、カメラ101からオブジェクトまでの概略距離を取得する。
S404で、信頼度導出部304は、複数のカメラ101の夫々に対して、画像中におけるオブジェクトの空間分解能を導出する。
S405で、信頼度導出部304は、S404で導出した空間分解能に基づき信頼度を導出する。尚、S404~S405において、空間分解能及び信頼度を導出する手法については、図5を用いて後述する。
S406で、条件決定部305は、S405で導出した信頼度に基づき、シルエット内か否か判定する際に用いる条件(シルエットの内外判定条件とする)を決定する。尚、シルエットの内外判定条件を決定する際、予め定められた閾値を記憶部204等の記憶媒体から取得しても良いし、画像処理装置200の外部から取得しても良い。尚、本ステップにおけるシルエットの内外判定条件を決定する手法については、図6を用いて後述する。
S407で、形状生成部306は、シルエット画像群を用いて、S406で決定された条件に基づき、視体積交差法と同様の手法により形状データを生成する。尚、本ステップで用いる視体積交差法については、特許文献1にも開示されているように公知であるため、詳細な説明は省略する。以上が、画像処理装置200が実行する形状データ生成処理の内容である。
<信頼度の導出手法>
以下、本実施形態における信頼度の導出手法について、図5を用いて説明する。図5は、3次元空間中に設定されたボクセル501と、カメラ101との位置関係を示す。信頼度とは、3次元空間中に設定されるボクセルをカメラの画像平面に射影したとき、3次元空間上で該ボクセルにより表現されるオブジェクトと、カメラの撮像画像上で該ボクセルに対応するピクセルにより表現されるオブジェクトとが一致する度合いを示す。
以下の説明において、オブジェクトが存在する3次元空間はボクセルを用いて離散的に表される。つまり、対象となる3次元空間は、1辺の長さがΔ[mm]の正規格子であるボクセルで区切られる。各ボクセルの座標は、例えば(x座標,y座標,z座標)=(0,0,0)、(1,0,0)、(3,0,1)・・・のように、格子ベクトルを用いて表現できる。ボクセルに対応する3次元空間内での実際の物理的な位置は、このような格子ベクトルに正規格子の大きさΔを乗算することで得られる。Δとしては、例えば5mm等の値を採用することができる。
図5(a)は、所定サイズのボクセル501をカメラ101に射影した様子を表している。線506は、ボクセル501の中心部からカメラ101までの、カメラ101の光軸方向に沿った距離z[mm]を表す。また、線505及び線507は、ボクセル501の端部をカメラ101に射影する線である。線502は、ボクセルの1辺の長さΔ[mm]を表す。面504は、カメラ101の画像平面、言い換えると、カメラ101により得られる撮像画像の投影面を表す。以下では、カメラ101の、ピクセル単位で表した焦点距離をf[pix]する。
ボクセル501をカメラ101に射影する際、カメラ101から見てボクセル501が最も大きく見えるのは、ボクセル501の最も長い対角線(長さは√3Δ)が、カメラ101の光軸と直交する場合である。この場合、ボクセル501の、画像上での大きさは、以下の式(1)に従うピクセル幅d[pix]で表される。
Figure 0007195785000001
言い換えれば、ボクセル1辺の長さがΔの場合、画像上でのオブジェクトの空間分解能は概ねd[pix]で表現されることになる。ここでは、最もオブジェクトの解像度が低くなるケースを考慮し、ボクセルの最も長い対角線(長さは√3Δ)を用いてピクセル幅dを算出した。しかし、この最も長い対角線の代わりにボクセルの面、具体的には正方形の対角線(長さは√2Δ)、又は、ボクセルの1辺(長さはΔ)を用いてピクセル幅dを算出することもできる。
図5(b)は、画像510及び画像511にオブジェクト512が写っている場合にボクセル501を射影した様子を表している。尚、ボクセル501は、図示の都合上、大きく表示している。画像510は、式(1)を用いて算出したdが小さい場合(例えば1pix)の場合を示す一方、画像511は、式(1)を用いて算出したdが大きい場合(例えば5pix)の場合を示している。カメラ101とオブジェクト512との間の距離が長い場合や、カメラ101が広角の場合、カメラ101で撮像した画像は、画像510に示すような、射影されたボクセル内でオブジェクト境界が占める割合が大きい画像になる。一方、カメラ101とオブジェクト512との間の距離が短い場合や、カメラ101が望遠の場合、カメラ101で撮像した画像は、画像511に示すような、射影されたボクセル内でオブジェクト境界が占める割合が小さい画像になる。
画像510では、dが小さいため、所望の空間解像度Δ[mm]に対し、オブジェクト境界が分解しているとは言えない。そのため、オブジェクト境界の信頼度は低い。一方で、画像511では、dが大きいので、オブジェクト境界が十分分解しており、オブジェクト境界の信頼度は高い。これらを踏まえ、以下では、dの値を用いて信頼度を導出する。但し、dの値そのものを信頼度として用いるような場合に本実施形態を適用しても良い。 視体積交差法の実装形態の1つとして、Space Carving Method(以下SCM)が知られている。以下、SCMによる形状復元の原理について、図6を用いて説明する。
図6は、オブジェクトOBを取り囲むように配置した4台のカメラで、オブジェクトOBを撮像する様子を示す。図中の符号C1~C4は夫々、カメラ中心を表し、符号P1~P4は夫々、カメラの画像平面を表す。符号R1~R4はオブジェクトOBからカメラ中心C1~C4に向かう光線を表す。符号S1~S4は、オブジェクトOBを画像平面P1~P4に射影したときのシルエット画像の模式図を表す。ここでは、オブジェクトOBは球であるものとする。
SCMでは、予め決められた範囲内、具体的にはバウンディングボックス内に存在するボクセルの1つに着目する(このボクセルを、着目ボクセルとする)。着目ボクセル(ボクセルVとする)を画像平面P1~P4に射影したとき、シルエット画像S1~S4のシルエット(画素値が255の画素から成る領域)内にその射影が収まるか否かを判定する。この判定の結果、ボクセルVの射影がシルエットから外れるカメラが1つでも存在する場合、ボクセルVを削除する。一方、全てのシルエット画像S1~S4において、ボクセルVの射影がシルエット内部に収まる場合、オブジェクトOBを構成するボクセルとして、ボクセルVを残す。この一連の処理を、バウンディングボックス内の全てのボクセルに対して行うことにより、連結した凸形状のボクセルの集合であるビジュアルハル(VHと略記される)が生成される。以上が、SCMによる形状復元の原理である。
以下、本実施形態におけるシルエットの内外判定条件を決定する条件決定部305の動作について述べる。図6において、シルエット画像S1~S4各々におけるシルエット境界の信頼度は、前述した通り、式(1)で算出されるdの値を用いて導出されるものとする。ここでは、シルエット画像S1、S2の各々に対してd=5[pix]と算出され、シルエット画像S3に対してd=1.5[pix]と算出され、シルエット画像S4に対してd=0.5[pix]と算出された場合について考える。閾値d_th=2[pix]に対し、dの値がd_th以上の場合、信頼度“高”とする一方、dの値がd_th未満の場合、信頼度“低”とする。図6の場合、シルエット画像S1、S2の信頼度が“高”、シルエット画像S3、S4の信頼度が“低”である。条件決定部305は、信頼度に応じて、SCMでボクセルVを残す条件を変更する。以下では、ボクセルVが画角内に収まっているカメラのみを対象に説明を行う。
信頼度“高”のシルエット画像群(S_highとする)に対しては、ボクセルVを画像平面に射影した結果、全てのシルエット画像群S_highにボクセルVの射影が含まれる場合のみボクセルVを残す。この理由は、シルエット境界の空間分解能が十分高く、オブジェクトOBに属するボクセルVがシルエット外に出る確率が低いからである。
信頼度“低”のシルエット画像群(S_lowとする)に対しては、ボクセルVを画像平面に射影した結果、ボクセルVの射影がシルエットから外れる視点数が所定の閾値m以下の場合のみボクセルVを残す。例えば、信頼度が“低”のシルエット画像が5枚、m=1のケースでは、5枚中4枚までボクセルVの射影がシルエット内に収まっていれば、ボクセルVを残す。
以上、信頼度“低”のシルエット画像群S_lowを用いる形状推定時のシルエット内外判定条件を緩和するケースを説明したが、信頼度“低”のシルエット画像群S_lowを、そもそも形状推定に用いなくても良い。但し、このような場合であっても、信頼度“低”のカメラで撮像した画像にしか写っていないオブジェクトに対しては、信頼度“低”のシルエット画像群を用いた形状推定を行う。内外判定の条件としては、m’箇所の視点、つまりm’箇所の撮像位置において、ボクセルの射影がシルエット画像から外れても許容するものとする。m’はmと等しくても良いし、異なっても良い。例えば、m’=2とすることができる。
尚、ここでは、信頼度が2段階の値を取る場合を説明したが、信頼度は、2段階より多くの段階の値を取っても良い。例えば、“高”,“中”,“低”と段階的に(3段階で)設定することも可能である。また、シルエットが外れて良い視点の数mを、ピクセル幅dを代入する関数や、mとdとの対応関係を保持するテーブルを用いて導出しても良い。
<本実施形態の効果について>
本実施形態によれば、撮像画像における空間分解能の大きさに応じて信頼度を導出し、該導出した信頼度に基づき空間分解能の高いカメラで取得した画像を優先的に使用することで、オブジェクトの形状を精度良く推定することが可能になる。
[第2の実施形態]
本実施形態では、色情報の整合性を用いて、複数視点の2次元画像から3次元の情報を得る手法(所謂、多視点ステレオマッチング)により、形状推定を行う。尚、以下では既述の実施形態との差分について主に説明し、既述の実施形態と同様の内容については説明を適宜省略する。
本実施形態において、第1の実施形態と同様にシルエット画像を補助的に用いても良いが、基本的には撮像画像の色情報を用いる。以下では、色情報を用いたマッチングの評価値として、正規化相互相関(以下NCC)を採用する場合について説明する。
NCCでは、ターゲットとする点の近傍を含むパッチのRGB値をベクトル化し、ベクトル間の相関をとることでマッチングの度合いを評価する。マッチングの評価値としては、SSD(Sum of Squared Differences)やSAD(Sum of Absolute Differences)等を用いて良いし、その他の評価値を用いても良い。多視点ステレオマッチングでは、マッチングの評価値が最大(又は最小)となる点をオブジェクト表面の点と推定する。
<形状データ生成処理について>
以下、本実施形態における画像処理装置200が実行する形状データ生成処理について、図7及び図8を用いて説明する。図7は、本実施形態における画像処理装置200のソフトウェア構成(機能構成)の一例を示すブロック図であり、図8は、本実施形態における形状データ生成処理のフローチャートである。
図8中のS401~S405における処理は、第1の実施形態と同様である(図4参照)。
S801で、境界判定部701は、着目画素がオブジェクト境界の画素か判定する。本ステップの判定結果が真の場合、S802に進む一方、該判定結果が偽の場合、S803に進む。本ステップにおける、オブジェクト境界の画素であるか否かの判定は、シルエット画像に基づいて行っても良い。または、撮像画像において、Harrisコーナー検出など既存のエッジ検出法により判定しても良い。または、任意の物体検出法によりオブジェクトを検出した後にエッジを検出しても良い。尚、S801~S805の処理は、各撮像位置における画像の画素毎に実行される。
S802で、重み算出部702は、第1の実施形態で導出した空間分解能に基づき、境界用の重みをカメラ毎に導出する。
S803で、重み算出部702は、第1の実施形態で導出した空間分解能に基づき、(非境界用の)重みをカメラ毎に導出する。
S804で、評価値導出部703は、S802又はS803で導出した重みに基づき、マッチング評価値を導出する。尚、S802~S804における、重み及びマッチング評価値の導出手法の詳細については、後述する。
S805で、形状生成部704は、S804で導出されたマッチング評価値に基づき、オブジェクトの形状データを生成する。以上が、本実施形態における形状データ生成処理の内容である。
<重み、マッチング評価値の導出手法について>
以下では、実施形態1で用いる空間分解能に基づき、重みを算出する場合について説明する。尚、空間分解能の代わりに別のパラメータを用いて重みを算出しても良い。重みは、例えば以下の式(2)を用いて算出することができる。
Figure 0007195785000002
式(2)において、wnはn番目のカメラに対する重みを示し、dnは式(1)で算出される空間分解能であり、1ボクセルをn番目のカメラに射影したときの、該1ボクセルに対応する正方形における1辺の長さを表す。尚、重みwnを算出する式は式(2)に限定されず、重みwnが空間分解能dn(又は信頼度)に対して単調に増加する他の式を用いて良い。αは、全てのカメラの重みwnの和が1になるように決定する。また、マッチング評価値は、各カメラのNCCに、重みwnを乗算して平均を取ったものを採用する。
オブジェクト境界部においては、より空間分解能(又は信頼度)の高いものを優先的に使用するよう重みを定義することにより、オブジェクト境界の精度を向上させることができる。例えば、重みを式(3)のように定義する。
Figure 0007195785000003
式(3)におけるβは、式(2)のαと同様、全てのカメラの重みw’nの和が1になるように決定する。尚、重みを算出する式は、式(3)に限らず、式(2)に比べて空間分解能に対する増加率が高い関数であれば、別の式を用いて構わない。また、空間分解能(又は信頼度)と重みとの間の関係を保持するテーブルを、画像処理装置200が予め有しており、このテーブルを用いて、重み及びマッチング評価値を導出しても良い。また、予め決められた閾値未満の重みのカメラは、形状推定に使用しなくても良い。
<本実施形態の効果について>
本実施形態によれば、撮像画像における空間分解能又は信頼度に基づき、重みやマッチング評価値を導出する。これにより、空間分解能の高いカメラで取得した画像を優先的に使用することが可能になり、オブジェクトの形状を精度良く推定することが可能になる。尚、本実施形態は、本発明の他の実施形態と組み合わせて用いて良い。
[第3の実施形態]
本実施形態では、各カメラで用いる信頼度を予め導出しておく。
<本実施形態における処理の概念について>
以下、本実施形態における処理の概念について、図9を用いて説明する。図9(a)は、地面の領域(撮像フィールド)、つまりグラウンド103を真上から見た図である。本実施形態では、グラウンド103を小領域に分割し、各カメラに対する、該分割した小領域毎の信頼度を予め導出する。小領域としては、例えば一辺50cmの正方形をとることができる。
図9(a)は、グラウンド103を小領域に分割し、第1、第2の実施形態と同様、各小領域に含まれる代表的なボクセルを射影して各領域の信頼度を導出した結果を表している。図中の符号901は、複数ある小領域の一つを指している。図示の都合上、他の小領域は省略している。小領域におけるボクセルの代表的な位置は、小領域内であればどこでも良いが、ここではボクセルの中心を、代表的な位置とする。図示するように、カメラ101aに対しては、領域902の信頼度は“高”であり、領域903の信頼度は“中”であり、領域904の信頼度は“低”である。
図9(b)は、カメラ101aの撮像画像905における、選手102と、グラウンド103と、領域902~904との位置関係を表している。撮像画像905中でオブジェクトがいる領域を導出し、該導出した領域に対応する信頼度を、該オブジェクトの信頼度とする。図9(b)の例では、選手102が領域902に立っていることから、選手102の信頼度を領域902の信頼度、即ち“高”とする。尚、ここでは、信頼度が3段階の値を取る場合を説明したが、信頼度は、3段階より多くの段階の値を取っても良いし、2段階の値を取っても良い。また、各領域と信頼度との間の対応関係を保持するテーブルを画像処理装置200が予め有しており、該テーブルを用いて信頼度を導出しても良い。また、本実施形態は、本実施形態単独、又は、本発明の他の実施形態と組み合わせて用いることが可能である。
<本実施形態の効果について>
本実施形態によれば、信頼度を予め導出しておくことで、演算量を増大させることなく、オブジェクトの形状を精度良く推定することが可能になる。尚、本実施形態は、本発明の他の実施形態と組み合わせて用いて良い。
[第4の実施形態]
第1の実施形態、第2の実施形態では、空間分解能が低いカメラの、形状推定への寄与率を下げる場合について説明したが、本実施形態では、形状推定に用いるカメラの寄与率をカメラ配置も考慮して決定する。
<本実施形態における処理の概念について>
以下、本実施形態における処理の概念について、図10を用いて説明する。図10は、複数のカメラ101を8つのグループに分割した例を示す。図10において、原点を始点として伸長する半直線1001~1008は夫々、カメラ群を8つのグループに分割する線であり、隣り合う半直線同士で囲まれるカメラの集合を1つのグループとする。例えば、半直線1001と半直線1002とで囲まれるカメラ群の空間分解能が全て低い場合、これらのカメラに対する信頼度は低く設定され、その結果、これらのカメラの形状推定への寄与率が下がることになる。従って、このような場合、特定の方向から見た情報が欠落し、形状推定精度の低下につながりかねない。
そこで本実施形態では、各グループで少なくとも1台は形状推定に使用されるように、カメラ毎の重み、又は、使用するカメラを決定する。
例えば、低信頼度のカメラを形状推定に使用しないケースについて検討する。このケースで、あるグループに属する全てのカメラに対する空間分解能が所定の閾値より小さい場合に、そのグループに属するカメラのうち少なくとも1台は形状推定に使用するように、該少なくとも1台のカメラに対する信頼度を高く設定する。
他の一例として、信頼度に基づき重みを導出するケースについて検討する。このケースで、あるグループに属するカメラの重みがすべて閾値w_thを下回った場合に、グループ内の少なくとも1台のカメラの重みをw_thまで引き上げれば良い。尚、本実施形態で採用可能な方法はこれに限られず、形状推定に使用するカメラの分布に偏りが発生しない方法であれば、他の方法を採用して構わない。また、本実施形態は、他の実施形態と組み合わせて用いることが可能である。以上が、本実施形態における処理の概念の内容である。
<本実施形態の効果について>
本発明によれば、形状推定に使用するカメラの分布に偏りを発生させないようにしつつ、空間分解能の高いカメラを優先的に使用して形状推定を行うことで、オブジェクトの形状を精度良く推定することが可能になる。尚、本実施形態は、本発明の他の実施形態と組み合わせて用いて良い。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
301:画像取得部、302:カメラパラメータ取得部、303:位置取得部、304:信頼度導出部、305:条件決定部、306:形状生成部

Claims (15)

  1. オブジェクトを、複数の撮像装置により複数の方向から撮像することで取得される複数の画像を取得する取得手段と、
    前記複数の画像における空間分解能であって、前記オブジェクトの形状を表す3次元形状データを構成する候補である要素を前記撮像装置の画像平面に射影したときの当該要素に対応する領域の幅に基づいて決定される空間分解能に基づき、前記撮像装置の信頼度を決定する信頼度決定手段と、
    前記複数の画像と前記信頼度とに基づき、前記オブジェクトの形状を表す3次元形状データを生成する生成手段と
    を有することを特徴とする生成装置。
  2. 前記生成手段は、他の撮像装置よりも前記信頼度が高い撮像装置によって取得される画像に基づいて、前記3次元形状データを生成することを特徴とする請求項1に記載の生成装置。
  3. 前記要素を撮像装置の画像平面に射影したときのピクセルの幅を算出することにより、前記撮像装置の空間分解能を決定する空間分解能決定手段を更に有することを特徴とする請求項1又は2に記載の生成装置。
  4. 前記信頼度決定手段は、前記信頼度の値として、前記空間分解能に応じて変わる値を決定することを特徴とする請求項1乃至3の何れか1項に記載の生成装置。
  5. 前記信頼度決定手段は、前記信頼度の値として、前記空間分解能に応じて段階的に変わる値の何れかの値を決定することを特徴とする請求項1乃至3の何れか1項に記載の生成装置。
  6. 前記取得手段によって取得される複数の画像は、前記オブジェクトのシルエットを表す画像を含むことを特徴とする請求項1乃至5の何れか1項に記載の生成装置。
  7. 前記生成手段は、他の撮像装置よりも前記信頼度が高い撮像装置によって取得されたシルエット画像に基づき、前記3次元形状データを生成することを特徴とする請求項6に記載の生成装置。
  8. 前記生成手段は、前記信頼度に応じて変化する判定条件に従い、前記3次元形状データを構成する要素が前記オブジェクトに属するかを判定することを特徴とする請求項1乃至7の何れか1項に記載の生成装置。
  9. 前記空間分解能又は前記信頼度に基づき、多視点ステレオマッチングで用いる、重み及びマッチング評価値を決定する評価値決定手段を更に有することを特徴とする請求項1乃至8の何れか1項に記載の生成装置。
  10. 前記評価値決定手段は、他の撮像装置よりも前記信頼度が高い前記撮像装置に対する重みを、前記他の撮像装置に対する重みより、高く設定することを特徴とする請求項9に記載の生成装置。
  11. 前記信頼度決定手段は、前記空間分解能と、前記複数の撮像装置の配置に基づき、前記信頼度を導出することを特徴とする請求項1乃至10の何れか1項に記載の生成装置。
  12. 前記撮像装置により取得された画像において分割された撮像フィールドに対応する領域と前記信頼度との間の関係を保持する保持手段を更に有することを特徴とする請求項1乃至11の何れか1項に記載の生成装置。
  13. 前記信頼度決定手段は、前記オブジェクトが前記分割された撮像フィールドに対応する領域のうち何れに位置するかに基づき、前記信頼度を決定することを特徴とする請求項12に記載の生成装置。
  14. オブジェクトを、複数の撮像装置により複数の方向から撮像することで取得される複数の画像を取得するステップと、
    前記複数の画像における空間分解能であって、前記オブジェクトの形状を表す3次元形状データを構成する候補である要素を前記撮像装置の画像平面に射影したときの当該要素に対応する領域の幅に基づいて決定される空間分解能に基づき、前記撮像装置の信頼度を決定するステップと、
    前記複数の画像と前記信頼度とに基づき、前記オブジェクトの形状を表す3次元形状データを生成するステップと
    を有することを特徴とする方法。
  15. コンピュータを、請求項1乃至13の何れか1項に記載の生成装置として機能させるためのプログラム。
JP2018124702A 2018-06-29 2018-06-29 3次元形状データを生成する装置、方法、及びプログラム Active JP7195785B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018124702A JP7195785B2 (ja) 2018-06-29 2018-06-29 3次元形状データを生成する装置、方法、及びプログラム
US16/446,774 US11087482B2 (en) 2018-06-29 2019-06-20 Apparatus that generates three-dimensional shape data, method and storage medium
EP19181923.4A EP3588437B1 (en) 2018-06-29 2019-06-24 Apparatus that generates three-dimensional shape data, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018124702A JP7195785B2 (ja) 2018-06-29 2018-06-29 3次元形状データを生成する装置、方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2020004219A JP2020004219A (ja) 2020-01-09
JP2020004219A5 JP2020004219A5 (ja) 2021-08-05
JP7195785B2 true JP7195785B2 (ja) 2022-12-26

Family

ID=67003250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018124702A Active JP7195785B2 (ja) 2018-06-29 2018-06-29 3次元形状データを生成する装置、方法、及びプログラム

Country Status (3)

Country Link
US (1) US11087482B2 (ja)
EP (1) EP3588437B1 (ja)
JP (1) JP7195785B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7487266B2 (ja) 2022-08-15 2024-05-20 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013099169A1 (ja) 2011-12-27 2013-07-04 パナソニック株式会社 ステレオ撮影装置
JP2014520298A (ja) 2011-06-08 2014-08-21 エンパイア テクノロジー ディベロップメント エルエルシー 拡張現実表現のための二次元画像取込み
JP2017139725A (ja) 2016-02-03 2017-08-10 パナソニックIpマネジメント株式会社 映像表示方法及び映像表示装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011043879A (ja) 2009-08-19 2011-03-03 Kddi Corp マスク画像を抽出する方法及びプログラム並びにボクセルデータを構築する方法及びプログラム
US10262458B2 (en) * 2013-05-31 2019-04-16 Longsand Limited Three-dimensional object modeling
US10304203B2 (en) * 2015-05-14 2019-05-28 Qualcomm Incorporated Three-dimensional model generation
JP7013144B2 (ja) * 2016-10-12 2022-01-31 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014520298A (ja) 2011-06-08 2014-08-21 エンパイア テクノロジー ディベロップメント エルエルシー 拡張現実表現のための二次元画像取込み
WO2013099169A1 (ja) 2011-12-27 2013-07-04 パナソニック株式会社 ステレオ撮影装置
JP2017139725A (ja) 2016-02-03 2017-08-10 パナソニックIpマネジメント株式会社 映像表示方法及び映像表示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
西山 学,外1名,"3次元形状モデルを用いたカメラワークプランニング",情報処理学会研究報告,2002年05月09日,Vol. 2002,No. 34,p. 49-56

Also Published As

Publication number Publication date
EP3588437B1 (en) 2023-10-25
JP2020004219A (ja) 2020-01-09
US11087482B2 (en) 2021-08-10
EP3588437A1 (en) 2020-01-01
US20200005476A1 (en) 2020-01-02

Similar Documents

Publication Publication Date Title
CN112434709B (zh) 基于无人机实时稠密三维点云和dsm的航测方法及系统
JP6363863B2 (ja) 情報処理装置および情報処理方法
KR102316061B1 (ko) 화상 처리장치, 방법 및 컴퓨터 프로그램
US20180225866A1 (en) Generating a merged, fused three-dimensional point cloud based on captured images of a scene
WO2020039166A1 (en) Method and system for reconstructing colour and depth information of a scene
KR20180054487A (ko) Dvs 이벤트 처리 방법 및 장치
US10742852B2 (en) Image processing apparatus, object shape estimation method, and storage medium
US20190066363A1 (en) Image processing apparatus and image processing method
CN113494893A (zh) 一种三维激光扫描系统的标定方法、装置和计算机设备
CN109902675B (zh) 物体的位姿获取方法、场景重构的方法和装置
DK3189493T3 (en) PERSPECTIVE CORRECTION OF DIGITAL PHOTOS USING DEPTH MAP
JP6736422B2 (ja) 画像処理装置、画像処理の方法およびプログラム
CN113920275B (zh) 三角网格构建方法、装置、电子设备及可读存储介质
US11475629B2 (en) Method for 3D reconstruction of an object
JP7195785B2 (ja) 3次元形状データを生成する装置、方法、及びプログラム
CN109859313B (zh) 3d点云数据获取方法、装置、3d数据生成方法及系统
KR102587298B1 (ko) 멀티뷰 어안 렌즈들을 이용한 실시간 전방위 스테레오 매칭 방법 및 그 시스템
JP6602412B2 (ja) 情報処理装置及び方法、情報処理システム、ならびにプログラム。
US20220321859A1 (en) Real-time omnidirectional stereo matching method using multi-view fisheye lenses and system thereof
KR20200122870A (ko) 포토그래메트리를 이용한 고품질 3차원 공간 정보 획득 방법
JP6991700B2 (ja) 情報処理装置、情報処理方法、プログラム
CN112258635B (zh) 基于改进双目匹配sad算法的三维重建方法及装置
JP7298687B2 (ja) 物体認識装置及び物体認識方法
JP6655869B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2018063635A (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210625

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220815

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221214

R151 Written notification of patent or utility model registration

Ref document number: 7195785

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151