JP2018194979A - Three-dimensional information restoration method, restoration program and restoration apparatus - Google Patents
Three-dimensional information restoration method, restoration program and restoration apparatus Download PDFInfo
- Publication number
- JP2018194979A JP2018194979A JP2017096826A JP2017096826A JP2018194979A JP 2018194979 A JP2018194979 A JP 2018194979A JP 2017096826 A JP2017096826 A JP 2017096826A JP 2017096826 A JP2017096826 A JP 2017096826A JP 2018194979 A JP2018194979 A JP 2018194979A
- Authority
- JP
- Japan
- Prior art keywords
- image
- range
- interval
- pixel
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、3次元情報の復元方法、復元プログラム及び復元装置に関する。 The present invention relates to a three-dimensional information restoration method, a restoration program, and a restoration device.
自由視点映像という技術が知られている。例えば、視点が異なる複数のカメラが撮像する多視点画像から3次元情報を復元する。このような3次元情報を用いることにより、実際にはカメラが存在しない仮想的な視点から3次元のオブジェクトが観測される仮想視点画像を生成できる。 A technique called free viewpoint video is known. For example, three-dimensional information is restored from multi-viewpoint images captured by a plurality of cameras with different viewpoints. By using such three-dimensional information, it is possible to generate a virtual viewpoint image in which a three-dimensional object is observed from a virtual viewpoint where no camera actually exists.
しかしながら、上記の3次元情報を復元するには、処理負荷やメモリの使用量が増大する場合がある。例えば、3次元情報の復元時には、多視点画像のうち1つを基準画像とする一方でその他を参照画像とし、基準画像の画素ごとに基準画像の撮影に割り当てられたカメラの光学中心および基準画像の画素を結ぶ3次元空間の直線上に設定される基準画像上のブロックが参照画像に投影されることにより、基準画像および参照画像の間でブロックがマッチングされる。ところが、基準画像および参照画像の間でブロックをマッチングする間隔を細かく設定するほど処理負荷やメモリの使用量が増大するので、3次元情報を高精度に復元する妨げとなる。 However, in order to restore the above three-dimensional information, the processing load and memory usage may increase. For example, when restoring three-dimensional information, one of the multi-viewpoint images is used as a reference image while the other is used as a reference image, and the optical center of the camera and the reference image assigned to the shooting of the reference image for each pixel of the reference image The blocks on the standard image set on the straight line in the three-dimensional space connecting the pixels are projected onto the reference image, whereby the blocks are matched between the standard image and the reference image. However, as the interval for matching blocks between the standard image and the reference image is set more finely, the processing load and the memory usage increase, which hinders the restoration of three-dimensional information with high accuracy.
1つの側面では、本発明は、3次元情報の復元に伴う処理負荷又はメモリの使用量を低減できる3次元情報の復元方法、復元プログラム及び復元装置を提供することを目的とする。 In one aspect, an object of the present invention is to provide a three-dimensional information restoration method, a restoration program, and a restoration device that can reduce a processing load or a memory usage accompanying restoration of three-dimensional information.
一態様の3次元情報の復元方法では、撮影位置が異なる複数のカメラにより撮像された複数の画像を取得し、前記複数の画像の中から選択された第1のカメラにより撮像された第1の画像について、前記第1のカメラの光学中心および前記第1の画像のそれぞれの画素を結ぶ3次元空間の直線上にオブジェクトが存在するか特定し、特定した第1の画像の画素を含む領域を、前記3次元空間の直線上で前記オブジェクトの探索が実行される第1の範囲として設定し、前記第1の画像中の前記第1の範囲以外を第2の範囲に設定し、前記第1の範囲に含まれる画素に対しては、前記3次元空間の直線上で前記オブジェクトの探索を実行する間隔として第1の間隔を設定し、前記第2の範囲に含まれる画素に対しては、前記第1の間隔よりも長い第2の間隔を設定し、設定された範囲および設定された間隔にしたがって、前記複数の画像のうち前記第1の画像として選択されない第2の画像及び前記第1の画像の間でブロックをマッチングし、マッチングされたブロック間の相関に基づいて、前記第1の画像の画素ごとに前記3次元空間上の位置を推定する、処理をコンピュータが実行する。
In one aspect of the three-dimensional information restoration method, a plurality of images captured by a plurality of cameras having different shooting positions are acquired, and a first image captured by a first camera selected from the plurality of images is acquired. For an image, it is specified whether an object exists on a straight line in a three-dimensional space connecting the optical center of the first camera and each pixel of the first image, and an area including the pixel of the specified first image is determined. , Set as a first range in which the search for the object is executed on a straight line in the three-dimensional space, set a range other than the first range in the first image as a second range, For the pixels included in the range, a first interval is set as an interval for executing the search for the object on the straight line in the three-dimensional space, and for the pixels included in the second range, Longer than the
3次元情報の復元に伴う処理負荷又はメモリの使用量を低減できる。 It is possible to reduce the processing load or memory usage accompanying the restoration of the three-dimensional information.
以下に添付図面を参照して本願に係る3次元情報の復元方法、復元プログラム及び復元装置について説明する。なお、この実施例は開示の技術を限定するものではない。そして、各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Hereinafter, a three-dimensional information restoration method, restoration program, and restoration apparatus according to the present application will be described with reference to the accompanying drawings. Note that this embodiment does not limit the disclosed technology. Each embodiment can be appropriately combined within a range in which processing contents are not contradictory.
[システム構成]
図1は、実施例1に係る3次元情報の復元システムの構成例を示す図である。図1に示す3次元情報の復元システム1は、一側面として、視点が異なる複数のカメラ30A〜30Mが撮像する多視点画像から3次元情報を復元する復元サービスを提供するものである。
[System configuration]
FIG. 1 is a diagram illustrating a configuration example of a three-dimensional information restoration system according to the first embodiment. The 3D
図1に示すように、3次元情報の復元システム1には、サーバ装置10と、複数のカメラ30A〜30Mとが含まれる。以下では、カメラ30A〜30Mのことを「カメラ30」と記載する場合がある。
As illustrated in FIG. 1, the three-dimensional
これらサーバ装置10及びカメラ30の間は、所定のネットワークNWを介して接続される。このネットワークNWは、有線または無線を問わず、インターネット、LAN(Local Area Network)やVPN(Virtual Private Network)などの任意の種類の通信網により構築することができる。
The
このように、図1に示す3次元情報の復元システム1では、多視点画像がネットワークNWを介してカメラ30からサーバ装置10へ伝送される場合を例示するが、これはあくまで伝送形態の一例であり、サーバ装置10及びカメラ30の間で必ずしも双方向に通信が行われずともかまわない。例えば、ネットワークNWを経由せず、多視点画像が放送波を介してカメラ30からサーバ装置10へ伝送されることとしてもかまわない。
As described above, the three-dimensional
サーバ装置10は、上記の復元サービスを提供するコンピュータである。サーバ装置10は、復元装置の一例である。
The
一実施形態として、サーバ装置10は、パッケージソフトウェア又はオンラインソフトウェアとして、上記の復元サービスの機能を実現する復元プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、サーバ装置10は、上記の復元サービスを提供するWebサーバとして実装することとしてもよいし、アウトソーシングによって上記の復元サービスを提供するクラウドとして実装することとしてもかまわない。
As an embodiment, the
カメラ30は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を搭載する撮像装置である。
The
図1には、あくまで一例として、サッカー観戦におけるカメラ30の配置が示されている。例えば、サッカーのフィールドF上の3次元空間に含まれる3次元のオブジェクト、例えばボールや選手、審判などの試合関係者等が復元される。この場合、複数のカメラ30は、フィールドFの周囲からフィールドFの内部へ向けて配置される。このとき、複数のカメラ30の撮影範囲が組み合わさることによりフィールドFの全域が複数のカメラ30の撮影範囲に収まる配置で各カメラ30が設置されると共に、各カメラ30は、他のカメラ30との間で撮影範囲の一部が重複する状態で配置される。このような配置の下、複数のカメラ30がフレームごとに同期して撮影することにより、異なる視点ごとに同一のタイミングで撮影された複数の画像がフレーム単位で得られる。以下では、撮影位置が異なるカメラ30A〜30Mにより同一のフレームで撮像された複数の画像のことを「多視点画像」と記載し、また、1つのカメラ30により時系列に撮像される一連の画像のことを「動画像」と記載する場合がある。
FIG. 1 shows the arrangement of the
[サーバ装置10の構成]
次に、本実施例に係るサーバ装置10の機能的構成について説明する。図2は、実施例1に係るサーバ装置10の機能的構成を示すブロック図である。図2に示すように、サーバ装置10は、通信I/F(InterFace)部11と、記憶部13と、制御部15とを有する。なお、図2には、上記の復元サービスに関連するサーバ装置10の機能部が抜粋して示されているに過ぎず、図示以外の機能部、例えば既存のコンピュータがデフォルトまたはオプションで装備する機能部がサーバ装置10に備わることを妨げない。例えば、上記の多視点画像がカメラ30からサーバ装置10へ放送波や衛星波を介して伝搬される場合、放送波や衛星波の受信部をさらに有することとしてもかまわない。
[Configuration of Server Device 10]
Next, a functional configuration of the
通信I/F部11は、他の装置との間で通信制御を行うインタフェースである。
The communication I /
一実施形態として、通信I/F部11には、LANカードなどのネットワークインタフェースカードが対応する。例えば、通信I/F部11は、カメラ30から多視点画像を受信したり、また、撮像制御に関する指示、例えば電源ON/電源OFFの他、パンやチルトなどの指示をカメラ30へ送信したりする。
As an embodiment, the communication I /
記憶部13は、制御部15で実行されるOS(Operating System)を始め、上記の復元プログラムなどの各種プログラムに用いられるデータを記憶する記憶デバイスである。
The
一実施形態として、記憶部13は、サーバ装置10における補助記憶装置として実装される。例えば、補助記憶装置には、HDD(Hard Disk Drive)、光ディスクやSSD(Solid State Drive)などが対応する。この他、EPROM(Erasable Programmable Read Only Memory)などのフラッシュメモリも補助記憶装置に対応する。
As an embodiment, the
記憶部13は、制御部15で実行されるプログラムに用いられるデータの一例として、カメラ30の位置や向きなどの外部パラメータ及びカメラ30の画角やレンズの歪みなどの内部パラメータを含むパラメータ13aを記憶する。このパラメータ13a以外にも、他の電子データを記憶することもできる。例えば、記憶部13には、カメラ30から伝送された多視点画像の時系列データなどを記憶することができる。
The
制御部15は、サーバ装置10の全体制御を行う処理部である。
The
一実施形態として、制御部15は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などのハードウェアプロセッサにより実装することができる。ここでは、プロセッサの一例として、CPUやMPUを例示したが、汎用型および特化型を問わず、任意のプロセッサにより実装することができる。この他、制御部15は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによって実現されることとしてもかまわない。
As one embodiment, the
制御部15は、図示しない主記憶装置として実装されるDRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)などのRAMのワークエリア上に、上記の復元プログラムを展開することにより、下記の処理部を仮想的に実現する。
The
制御部15は、図2に示すように、取得部15aと、分離部15bと、第1の設定部15cと、第2の設定部15dと、マッチング部15eと、推定部15fとを有する。
As shown in FIG. 2, the
取得部15aは、多視点画像を取得する処理部である。
The
一実施形態として、取得部15aは、カメラ30から伝送される多視点画像をフレーム単位で取得することができる。ここで、取得部15aが多視点画像を取得するソースは任意であってよく、カメラ30に限定されない。例えば、取得部15aは、多視点画像を蓄積するハードディスクや光ディスクなどの補助記憶装置またはメモリカードやUSB(Universal Serial Bus)メモリなどのリムーバブルメディアから読み出すことにより多視点画像を取得することもできる。この他、取得部15aは、外部装置からネットワークNWを介して受信することによって多視点画像を取得することもできる。
As one embodiment, the
分離部15bは、前景と背景を分離する処理部である。ここで言う「前景」とは、カメラ30の撮影範囲内の3次元空間に存在するオブジェクトの中でも動体などのオブジェクトを指す一方で、「背景」とは、動体でないオブジェクトを指す。
The
一実施形態として、分離部15bは、取得部15aにより動画像のフレームがカメラ30ごとに取得される度に、当該フレームの画像から前景に対応する領域をカメラ30ごとに抽出する。例えば、分離部15bは、当該フレームの画像と、それよりも前に取得されたフレームの画像との間で画素値の差分を検出することにより、前景に対応する領域を抽出する。図3は、前景および背景の分離の一例を示す図である。図3には、カメラ30A〜30Mのうちあるカメラ30により撮像された動画像に含まれる一連の画像が時系列に並んだ状態で示されている。例えば、分離部15bは、画像内に動体が観測されない可能性が高いフレームの画像F0と、最新のフレームの画像FLとの間で画素値の差が所定の閾値以上である画素を検出する。ここで、上記の画像F0には、一例として、所定のフレーム数にわたってフレーム間の差分が検出されなかったフレームの画像などを利用することができる。このように抽出された画素は、ラベリングが実行されることによりブロブとして抽出することができる。その上で、分離部15bは、ラベリングにより抽出されたブロブに対応する画素の画素値を「1」に設定すると共に、それ以外の画素の画素値を「0」に設定する。これにより、前景に対応する領域が「白」で表現されると共に、背景に対応する領域が「黒」で表現されたマスク画像MLを生成することができる。なお、図3には、マスク画像の一例として、2値化画像を生成する場合を例示したが、階調の数は「2」に限定されないのは言うまでもない。
As an embodiment, every time a frame of a moving image is acquired for each
第1の設定部15cは、複数の画像の中から選択された第1のカメラにより撮像された第1の画像について、第1のカメラの光学中心および第1の画像のそれぞれの画素を結ぶ3次元空間の直線上にオブジェクトが存在するか特定する処理部である。さらに、第1の設定部15cは、特定した第1の画像の画素を含む領域を、3次元空間の直線上でオブジェクトの探索が実行される第1の範囲として設定し、第1の画像中の第1の範囲以外の領域を第2の範囲に設定する処理部である。
The
第1の設定部15cは、多視点画像のうち基準画像が持つ画素ごとに当該基準画像の撮影に割り当てられたカメラの光学中心および当該基準画像の画素を結ぶ3次元空間の直線上でオブジェクトの探索が実行される範囲を設定する。以下、3次元空間の直線上でオブジェクトの探索が実行される範囲のことを「探索範囲」と記載する場合がある。なお、第1の設定部15cは、特定部の一例でもある。
The
ここで、基準画像とは、多視点画像の中から選択される画像のことを指し、基準画像以外のその他の画像は参照画像と識別される。この基準画像の分担は、持ち回りであり、最終的には、多視点画像の全ての画像が基準画像として選択されてブロックマッチングやデプスマップの生成が実施されることになる。以下、基準画像を撮影するカメラ30のことを「基準カメラ30α」と記載すると共に、参照画像を撮影するカメラ30のことを「参照カメラ30β」と記載する場合がある。なお、基準カメラは、第1のカメラの一例であり、基準画像は、第1の画像の一例である。
Here, the standard image refers to an image selected from the multi-viewpoint images, and other images other than the standard image are identified as reference images. The sharing of the reference image is carried around. Eventually, all images of the multi-viewpoint image are selected as the reference image, and block matching and depth map generation are performed. Hereinafter, the
一実施形態として、第1の設定部15cは、記憶部13に記憶されたカメラパラメータ13aを参照して、各カメラ30のマスク画像に含まれる前景のシルエットと各カメラ30の光学中心とにより形成される錐体の積集合空間、すなわち「Visual Hull」を求める。その上で、第1の設定部15cは、上記のオブジェクトの探索範囲を3次元空間上に存在するオブジェクトの存在範囲にまでVisual Hullに絞り込む。図4は、Visual Hullの一例を示す図である。図4には、カメラ30A〜30Cの3つのカメラ30のマスク画像31A〜31CがVisual Hullの算出に用いられる場合が示されている。図4に示すように、カメラ30Aの光学中心およびマスク画像31A上の前景のシルエットSAを結ぶ直線群と、カメラ30Bの光学中心およびマスク画像31B上の前景のシルエットSBを結ぶ直線群と、カメラ30Cの光学中心およびマスク画像31C上の前景のシルエットSCを結ぶ直線群とにより包含される3次元空間上の領域EがVisual Hullとして求まる。このようなVisual Hullの算出により、各カメラ30が被写体とする3次元空間におけるオブジェクトの存在範囲を領域Eに絞り込むことができる。
As an embodiment, the
例えば、Visual Hullを算出するアルゴリズムの一例について説明する。図5は、Visual Hullの算出プロセスの一例を示す図である。図5に示すように、第1の設定部15cは、カメラ30A〜カメラ30Mのうち1つを基準カメラ30αとして選択する。一方、基準カメラ30αとして選択されなかったカメラ30は以降で参照カメラ30βと識別される。続いて、第1の設定部15cは、基準カメラ30αのマスク画像31αが持つ画素のうち前景のシルエットを形成する画素(u1,v1)を選択する。その後、第1の設定部15cは、参照カメラ30βのうち1つを選択する。このように選択された参照カメラ30βのことを、以下、「参照カメラ30β1」と識別する。
For example, an example of an algorithm for calculating Visual Hull will be described. FIG. 5 is a diagram illustrating an example of a Visual Hull calculation process. As illustrated in FIG. 5, the
その上で、第1の設定部15cは、3次元空間上で基準カメラ30αの光学中心Oおよび画素(u1,v1)を通る直線を参照カメラ30β1のマスク画像31β1に投影することによりエピポーラ線ELを描画する。そして、第1の設定部15cは、エピポーラ線ELが参照カメラ30β1のマスク画像31β1上に存在する範囲を決定する。例えば、範囲の開始位置は、基準カメラ30αの光学中心Oが参照カメラ30β1のマスク画像31β1に投影された点に対応する。また、範囲の終了位置は、3次元空間上で基準カメラ30αの光学中心Oから画素(u1,v1)へ通る直線を無限遠まで延伸する場合に参照カメラ30β1のマスク画像31β1上で収束する点に対応する。
The
その後、第1の設定部15cは、参照カメラ30β1のマスク画像31β1上でエピポーラ線ELが前景のシルエットSβと重なる範囲、すなわち交差開始位置および交差終了位置を算出する。そして、第1の設定部15cは、記憶部13に記憶されたカメラパラメータ13aを参照して、エピポーラ線ELと前景のシルエットSβとが重なる範囲を基準カメラ30αの光学中心Oからの奥行き情報(z)へ変換する。
Thereafter, the
このようにエピポーラ線ELと前景のシルエットSβとの重複範囲の導出が全ての参照カメラ30βが選択されるまで繰り返して実行される。この結果、図6に示す通り、基準カメラ30α以外の参照カメラ30βごとにエピポーラ線ELと前景のシルエットSβとの重複範囲が得られる。図6は、Visual Hullの算出プロセスの一例を示す図である。図6には、4つの参照カメラ30βごとにエピポーラ線ELと前景のシルエットSβとの重複範囲が基準カメラ30αの光学中心Oからの奥行き情報(z)で示されている。すなわち、図6には、4つの参照カメラ30βの重複範囲が点線、一点鎖線、破線および二点鎖線で示されている。例えば、第1の設定部15cは、各参照カメラ30βの間で重複範囲が共通する部分、すなわち図6に太線で示された箇所を基準カメラ30αのマスク画像上の画素(u1,v1)におけるオブジェクトの存在範囲として絞り込む。ここで、必ずしも全ての参照カメラ30βの間で重複範囲が共通することを条件とせずともかまわない。例えば、所定数の参照カメラ30βの間で重複範囲が共通する部分をオブジェクトの存在範囲として絞り込むことができる。このようにオブジェクトの存在範囲の絞り込みに成功した画素(u1,v1)は、Visual Hull領域に分類される。
Thus, the derivation of the overlapping range of the epipolar line EL and the foreground silhouette Sβ is repeatedly performed until all the reference cameras 30β are selected. As a result, as shown in FIG. 6, an overlapping range between the epipolar line EL and the foreground silhouette Sβ is obtained for each reference camera 30β other than the base camera 30α. FIG. 6 is a diagram illustrating an example of a Visual Hull calculation process. In FIG. 6, the overlapping range of the epipolar line EL and the foreground silhouette Sβ for each of the four reference cameras 30β is indicated by depth information (z) from the optical center O of the reference camera 30α. That is, in FIG. 6, the overlapping range of the four reference cameras 30β is indicated by a dotted line, a one-dot chain line, a broken line, and a two-dot chain line. For example, the
なお、図6には、各参照カメラ30βの間で重複範囲が共通する部分が存在する場合を例示したが、各参照カメラ30βの間で重複範囲が共通する部分がない場合、オブジェクトの存在範囲の絞り込みに失敗する。このように前景のシルエットに含まれる画素であってもオブジェクトの存在範囲の絞り込みに失敗した画素は、非Visual Hull領域に分類される。また、背景に対応する画素、すなわちシルエットに含まれない場合には、Visual Hullの算出が実行されず、非Visual Hull領域に自動的に分類される。 FIG. 6 illustrates the case where there is a portion having a common overlapping range between the reference cameras 30β. However, when there is no portion having a common overlapping range between the reference cameras 30β, the existence range of the object is illustrated. Fails to narrow down. Thus, even if the pixels are included in the foreground silhouette, the pixels that have failed to narrow down the existence range of the object are classified as non-Visual Hull regions. Further, when the pixel corresponding to the background, that is, not included in the silhouette, the Visual Hull is not calculated, and is automatically classified into the non-Visual Hull region.
Visual Hull領域または非Visual Hull領域への分類が終了した後、第1の設定部15cは、当該画素にオブジェクトの探索範囲を設定する。図7は、オブジェクトの探索範囲の設定例を示す図である。図7には、画像40の水平ラインH1上に存在する各画素の探索範囲が示されている。Visual Hull領域に設定される探索範囲が黒の塗り潰しにより示されると共に、非Visual Hull領域に設定される探索範囲が点の塗り潰しにより示されている。
After the classification into the Visual Hull area or the non-Visual Hull area is completed, the
図7に示すように、Visual Hull領域に分類された画素の探索範囲には、第1の設定部15cは、前景となるオブジェクトの存在範囲を設定する。また、非Visual Hull領域に分類された画素の探索範囲には、第1の設定部15cは、前景および背景の両方を探索するための広域の探索範囲を設定する。この広域の探索範囲の一例として、zNear及びzFarが設定される。例えば、カメラ30によりサッカースタジアムの撮影が行われる場合、zFarには、カメラ30から一番遠い位置を基準に、一例として、「60m」が設定される。また、zNearには、カメラ30から一定の距離以上離れているとの想定の下、一例として、「1m」が設定される。これらzNear及びzFarには、両者の間に前景が存在しうる程度に十分の間隔が隔てられる。
As illustrated in FIG. 7, the
第2の設定部15dは、第1の範囲に含まれる画素に対しては、3次元空間の直線上でオブジェクトの探索を実行する間隔として第1の間隔を設定し、第2の範囲に含まれる画素に対しては、第1の間隔よりも長い第2の間隔を設定する処理部である。
The
すなわち、第2の設定部15dは、基準カメラ30αの光学中心および基準画像の画素を結ぶ3次元空間の直線上でオブジェクトの探索が実行される間隔を設定する。以下、3次元空間の直線上でオブジェクトの探索が実行される間隔のことを「探索間隔」と記載する場合がある。
That is, the
一実施形態として、第2の設定部15dは、基準画像の画素ごとに当該画素がVisual Hull領域または非Visual Hull領域のいずれであるかにより異なる探索間隔Nを設定する。例えば、図8は、探索間隔の一例を示す図である。図8には、基準カメラ30αの光学中心から基準画像の画素を経由して無限遠へ向かう3次元空間の直線が示されている。図8に示すように、Visual Hull領域に分類された基準画像の画素には、非Visual Hull領域に分類された基準画像の画素よりも細かい探索間隔が設定される。一方、非Visual Hull領域に分類された基準画像の画素には、Visual Hull領域に分類された基準画像の画素よりも粗い(長い)探索間隔が設定される。言い換えれば、第2の設定部15dは、Visual Hull領域に分類された基準画像の画素には、3次元空間の直線上でオブジェクトの探索が実行される密度を高める探索間隔の設定を行う一方で、非Visual Hull領域に分類された基準画像の画素には、3次元空間の直線上でオブジェクトの探索が実行される密度を下げる探索間隔の設定を行う。図8に示す例では、Visual Hull領域の探索間隔は非Visual Hull領域の探索間隔の4倍程度の密度に設定される。さらには、参照画像における基準画像のエピポーラ線の目盛りは、基準カメラ30αの光学中心から遠くなるほど粗くなる。このため、探索間隔がエピポーラ線で略等間隔となるように、基準カメラ30αの光学中心から近いほど探索間隔が密に設定される一方で、基準カメラ30αの光学中心から遠いほど探索間隔が疎に設定される。
As an embodiment, the
ここで、探索間隔は、3次元空間の直線の奥行きzをデプスdへ離散化する階調数N+1と関連する。ここでは、あくまで一例として、探索間隔の目盛り数およびデプスの階調数が同数である場合を例示して以下の説明を行う。図9は、探索間隔とデプスの関係の一例を示す図である。図9に示すように、探索間隔は、基準カメラ30αの光学中心から近いほど探索間隔が密に設定される一方で、基準カメラ30αの光学中心から遠いほど探索間隔が疎に設定される。一方、デプスの各階調は、3次元空間の直線上で等間隔に設定される。例えば、3次元空間の直線の奥行きzは、下記の式(1)にしたがってデプスdへ変換することができる。 Here, the search interval is related to the number of gradations N + 1 for discretizing the depth z of the straight line in the three-dimensional space to the depth d. Here, as an example, the following description will be given by exemplifying a case where the number of scales of the search interval and the number of gradations of the depth are the same. FIG. 9 is a diagram illustrating an example of the relationship between the search interval and the depth. As shown in FIG. 9, the search interval is set to be denser as it is closer to the optical center of the reference camera 30α, while the search interval is set to be sparser as it is farther from the optical center of the reference camera 30α. On the other hand, each gradation of depth is set at equal intervals on a straight line in a three-dimensional space. For example, the depth z of the straight line in the three-dimensional space can be converted into the depth d according to the following equation (1).
このような探索間隔およびデプスの関係下では、一例として、次のような基準にしたがってNを決定できる。例えば、デプスdが1ずれた時に、参照画像のエピポーラ線上の画素位置のずれを何ピクセル以内に収めるか否かにより、Nを決定できる。 Under such a relationship between search interval and depth, for example, N can be determined according to the following criteria. For example, when the depth d is shifted by 1, N can be determined depending on how many pixels the shift of the pixel position on the epipolar line of the reference image falls within.
そこで、以下では、一例として、画素位置のずれを、水平垂直方向のずれの大きい方で、非Visual Hull領域では「1」ピクセル以内、Visual Hull領域では「0.25」ピクセル以内となるように、各Nを設定する設計の下で説明を行う。このように非Visual Hull領域で1ピクセル以内と定めるのは、参照画像上で1ピクセル程度の探索間隔であれば、デプスの精度を最低限保つためである。一方、前景となるVisual Hull領域では、よりデプスの精度を上げたいので、探索間隔を1/4にして、さらに細かくしている。 Therefore, in the following, as an example, the displacement of the pixel position is set so that the displacement in the horizontal and vertical directions is larger, within a “1” pixel in the non-Visual Hull region, and within “0.25” pixels in the Visual Hull region. A description will be given under the design of setting each N. The reason why the non-Visual Hull region is determined to be within 1 pixel in this way is to keep the depth accuracy to a minimum if the search interval is about 1 pixel on the reference image. On the other hand, in the Visual Hull area as the foreground, in order to increase the depth accuracy, the search interval is set to ¼ to make it finer.
このとき、カメラの条件は、次の通りであることとする。すなわち、カメラ30の解像度が1920×1080ピクセルであり、水平画角が66度であるものとする。さらに、カメラ間の条件は、次の通りであることとする。図10は、カメラ間の配置条件の一例を示す図である。図10に示すように、基準カメラ30αおよび参照カメラ30βの距離が3.71mであることとする。さらに、基準カメラ30αの光軸および参照カメラ30βの光軸の交点Cは、基準カメラ30αの光学中心から11.33mであり、参照カメラ30βの光学中心から11.93mであることとする。
At this time, the camera conditions are as follows. That is, it is assumed that the resolution of the
さらに、zNearが3.0mであると共にzFarが24.0mであるとしたとき、Visual Hull領域および非Visual Hull領域の探索間隔Nは次の通りとなる。すなわち、Visual Hull領域の探索間隔Nは、4320である。非Visual Hull領域の探索間隔は、1080である。これらの探索間隔の設定により、画素位置のずれを、非Visual Hull領域では「1」ピクセル以内、Visual Hull領域では「0.25」ピクセル以内に抑えることが可能になる。 Further, when zNear is 3.0 m and zFar is 24.0 m, the search interval N between the Visual Hull region and the non-Visual Hull region is as follows. That is, the search interval N of the Visual Hull region is 4320. The search interval of the non-Visual Hull region is 1080. By setting these search intervals, it is possible to suppress the displacement of the pixel position within “1” pixels in the non-Visual Hull region and within “0.25” pixels in the Visual Hull region.
マッチング部15eは、基準画像および参照画像の間でブロックをマッチングする処理部である。
The
一実施形態として、マッチング部15eは、基準画像の画素ごとに、第1の設定部15cにより設定された探索範囲の開始位置から第2の設定部15dにより設定された探索間隔ごとに基準カメラ30αの光学中心および基準画像の画素を結ぶ3次元空間の直線上に基準画像のブロックを配置する。そして、マッチング部15eは、基準画像のブロックが配置される度に、参照画像ごとに当該参照画像へ基準画像のブロックを投影する。これにより、基準画像のブロックが参照画像上で観測される位置にブロックを配置できる。例えば、図7に示す探索範囲および図8に示す探索間隔にしたがってブロックマッチングを実施する場合、図11に示すブロックマッチングを実現できる。図11は、ブロックマッチングの一例を示す図である。図11に示すように、基準画像40αの画素が非Visual Hull領域である場合、基準画像40αのブロックは、参照画像40βの一点鎖線で示すエピポーラ線上でマッチングされる。一方、基準画像40αの画素がVisual Hull領域である場合、基準画像40αのブロックは、参照画像40βの二点鎖線で示すエピポーラ線上でマッチングされる。これらの対比から、Visual Hull領域では、ブロックマッチングをオブジェクトの存在範囲に絞り込むことにより、処理負荷やメモリ使用量の低減を実現できる。さらに、オブジェクトの存在範囲では、非Visual Hull領域よりもブロックマッチングが密に実行されるので、3次元情報も高精度に復元できることが期待できる。
As one embodiment, the
このようにマッチングされた基準画像のブロックおよび参照画像のブロックの間では、相関、いわゆる類似度が算出される。例えば、基準画像のブロックおよび参照画像のブロックの間でSAD(Sum of Absolute Difference)、いわゆる差分絶対値和を算出することができる。このSADの場合、SADの値が低いほど基準画像のブロックおよび参照画像のブロックの相関が高いことを意味するので、以下ではSADの値のことを「コスト」と記載する場合がある。そして、基準画像の各画素では、参照画像ごとに算出されるコストのうち最小値を当該画素のコストの代表値とすることもできるし、参照画像ごとに算出されるコストの平均値の代表値とすることもできる。このように基準画像の画素ごとにデプスd別のコストcost(x,y,d)を算出することができる。なお、ここでは、相関の一例として、SADを例示したが、他の相関を算出することもできる。例えば、基準画像のブロックおよび参照画像のブロックの間で相関係数を算出することもできる。この場合、相関係数が大きいほど基準画像のブロックおよび参照画像のブロックの相関が高いことを意味する。 A correlation, that is, a so-called similarity is calculated between the block of the reference image and the block of the reference image thus matched. For example, SAD (Sum of Absolute Difference), so-called sum of absolute differences, can be calculated between the block of the standard image and the block of the reference image. In the case of this SAD, the lower the SAD value, the higher the correlation between the block of the base image and the block of the reference image. Therefore, hereinafter, the value of the SAD may be described as “cost”. In each pixel of the standard image, the minimum value among the costs calculated for each reference image can be set as the representative value of the cost of the pixel, or the average value of the average value of the cost calculated for each reference image. It can also be. In this way, the cost cost (x, y, d) for each depth d can be calculated for each pixel of the reference image. In addition, although SAD was illustrated here as an example of a correlation, another correlation can also be calculated. For example, the correlation coefficient can be calculated between the block of the standard image and the block of the reference image. In this case, the larger the correlation coefficient, the higher the correlation between the block of the base image and the block of the reference image.
推定部15fは、基準画像の画素ごとに当該画素の3次元空間上の位置を推定する処理部である。
The
一実施形態として、推定部15fは、マッチング部15eにより基準画像の画素ごとに算出されたデプスd別のコストcost(x,y,d)に基づいてデプス画像d*(x,y)を生成する。図12は、デプス画像の一例を示す図である。図12に示すように、推定部15fは、基準画像40αの各画素のデプス別のコストcost(x,y,d)から各画素に最適なデプスを選択する問題をエネルギー最小化問題として設定する。そして、推定部15fは、エネルギー最小化問題を解くアルゴリズム、例えば局所解および隣接画素同士の整合性の両面からエネルギーを最小化するアルゴリズムにしたがってデプス画像50を生成する。
As an embodiment, the
[処理の流れ]
図13は、実施例1に係る3次元情報の復元処理の手順を示すフローチャートである。この処理は、多視点画像のフレームが取得される度にリアルタイムで実行することもできるし、多視点画像のフレームが動画像として取得済みである場合にはバッチ処理で実行することもできる。
[Process flow]
FIG. 13 is a flowchart illustrating the procedure of the three-dimensional information restoration process according to the first embodiment. This process can be executed in real time every time a frame of a multi-viewpoint image is acquired, or can be executed in a batch process when the frame of the multi-viewpoint image has already been acquired as a moving image.
図14に示すように、取得部15aにより多視点画像のフレームが取得されると(ステップS101)、分離部15bは、カメラ30ごとに、当該フレームの画像と、それよりも前に取得されたフレームの画像との間で画素値の差分を検出することにより前景に対応する領域を抽出して前景と背景を分離する(ステップS102)。このように前景と背景が分離されることにより、カメラ30ごとにマスク画像が生成される。
As illustrated in FIG. 14, when the frame of the multi-viewpoint image is acquired by the
そして、第1の設定部15cは、多視点画像のうち1つを基準画像として選択する(ステップS103)。これにより、その他の画像は、参照画像と識別される。続いて、第1の設定部15cは、ステップS103で選択された基準画像が持つ画素のうち1つを選択する(ステップS104)。
Then, the
その上で、第1の設定部15cは、ステップS102でカメラ30ごとに生成されたマスク画像を用いて、参照画像ごとにステップS104で選択された基準画像の画素のエピポーラ線ELと前景のシルエットSβとの重複範囲を求め、この重複範囲が共通する部分をオブジェクトの存在範囲として絞り込む(ステップS105)。
In addition, the
このとき、オブジェクトの存在範囲の絞り込みに成功した場合(ステップS106Yes)、ステップS104で選択された基準画像の画素は、Visual Hull領域に分類される。この場合、第1の設定部15cは、ステップS104で選択された基準画像の画素の探索範囲に前景となるオブジェクトの存在範囲を設定する(ステップS107)。そして、第2の設定部15dは、ステップS104で選択された基準画像の画素に後述の第2の間隔よりも短い第1の間隔を探索間隔として設定する(ステップS108)。
At this time, if the object range is successfully narrowed down (Yes in step S106), the pixels of the reference image selected in step S104 are classified into the Visual Hull area. In this case, the
一方、オブジェクトの存在範囲の絞り込みに成功しない場合(ステップS106No)、ステップS104で選択された基準画像の画素は、非Visual Hull領域に分類される。この場合、第1の設定部15cは、ステップS104で選択された基準画像の画素の探索範囲に広域の探索範囲、すなわち開始位置zNearおよび終了位置zFarを設定する(ステップS109)。そして、第2の設定部15dは、ステップS104で選択された基準画像の画素に第1の間隔よりも長い第2の間隔を探索間隔として設定する(ステップS110)。
On the other hand, if the object existence range has not been narrowed down (No in step S106), the pixel of the reference image selected in step S104 is classified into a non-Visual Hull region. In this case, the
その後、マッチング部15eは、探索範囲および探索間隔にしたがって参照画像ごとに当該参照画像および基準画像の間でブロックをマッチングし、マッチングされたブロック間で相関を算出する(ステップS111)。
Thereafter, the
そして、基準画像の全ての画素が選択されるまで(ステップS112No)、上記のステップS104〜ステップS111までの処理を繰り返し実行する。その後、基準画像の全ての画素が選択されると(ステップS112Yes)、推定部15fは、マッチング部15eにより基準画像の画素ごとに算出されたデプスd別のコストcost(x,y,d)に基づいてデプス画像d*(x,y)を生成する(ステップS113)。
Then, the processes from step S104 to step S111 are repeated until all the pixels of the reference image are selected (step S112 No). Thereafter, when all the pixels of the reference image are selected (Yes in step S112), the
そして、多視点画像の全ての画像が基準画像に選択されるまで(ステップS114No)、上記のステップS103〜ステップS113までの処理を繰り返し実行する。その後、多視点画像の全ての画像が基準画像に選択されると(ステップS114Yes)、処理を終了する。 Then, the processes from step S103 to step S113 are repeatedly executed until all the images of the multi-viewpoint images are selected as reference images (No in step S114). Thereafter, when all the images of the multi-viewpoint images are selected as the reference images (Yes at Step S114), the process is terminated.
[効果の一側面]
上述してきたように、本実施例に係るサーバ装置10は、多視点画像における基準画像の画素ごとに基準カメラの光学中心及び基準画像の画素を結ぶ3次元空間の直線上でオブジェクトが探索される範囲をVisual Hullで絞り込み、ブロックマッチングの間隔を細かく設定する。したがって、本実施例に係るサーバ装置10によれば、3次元情報の復元に伴う処理負荷又はメモリの使用量を低減できる。
[One aspect of effect]
As described above, the
[メモリ使用量の増加度合いの比較]
図14は、基準画像の各画素が属する領域の割合の一例を示す図である。図15は、基準画像の各画素の探索範囲の平均値の比率の一例を示す図である。図14に示すように、基準画像におけるVisual Hull領域の割合が7%である一方で、非Visual Hull領域の割合が93%であるという条件を仮定する。さらに、図15に示すように、「(Visual Hull領域のある画素の探索デプスの範囲の平均)/(非Visual Hull領域のある画素の探索デプス範囲)」、すなわち図7に示す点の塗り潰しに対する黒の塗り潰しの平均の割合が1.3%であると仮定する。これは、Visual Hull領域は非Visual Hull領域と比べて、1画素あたり1.3%のメモリを持てばよいことを意味する。
[Comparison of increase in memory usage]
FIG. 14 is a diagram illustrating an example of a ratio of a region to which each pixel of the reference image belongs. FIG. 15 is a diagram illustrating an example of the ratio of the average value of the search range of each pixel of the reference image. As shown in FIG. 14, it is assumed that the ratio of the Visual Hull area in the reference image is 7% while the ratio of the non-Visual Hull area is 93%. Further, as shown in FIG. 15, “(average of search depth range of pixels with Visual Hull region) / (search depth range of pixels with non-Visual Hull region)”, that is, the dot filling shown in FIG. Assume that the average percentage of black fill is 1.3%. This means that the Visual Hull area only needs to have 1.3% of memory per pixel as compared to the non-Visual Hull area.
このとき、各領域でコスト計算するのに用いるメモリの比率は、次の通りとなる。すなわち、非Visual Hull領域は、0.93×100の計算により93となる。Visual Hull領域は、0.07×1.3の計算により0.091となる。全体では、93+0.091の計算により93.091となる。 At this time, the ratio of the memory used for calculating the cost in each area is as follows. That is, the non-Visual Hull region becomes 93 by calculation of 0.93 × 100. The Visual Hull area is 0.091 by the calculation of 0.07 × 1.3. Overall, it is 93.091 by the calculation of 93 + 0.091.
さらに、Visual Hull領域のみの探索間隔を1/4にした場合、Visual Hull領域のメモリだけが4倍になって、0.091×4の計算により0.364となる。全体では、93+0.364の計算により93.364となる。したがって、メモリ増加度合いは、93.364/93.091の計算により、およそ0.29%となる。 Further, when the search interval of only the Visual Hull area is set to ¼, only the memory of the Visual Hull area is quadrupled and becomes 0.364 by the calculation of 0.091 × 4. In total, 93.364 is obtained by the calculation of 93 + 0.364. Therefore, the memory increase degree is about 0.29% by the calculation of 93.364 / 93.091.
さて、これまで開示の装置に関する実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施例を説明する。 Although the embodiments related to the disclosed apparatus have been described above, the present invention may be implemented in various different forms other than the above-described embodiments. Therefore, another embodiment included in the present invention will be described below.
[スタンドアローン]
上記の実施例1では、上記の復元サービスを提供するサーバ装置10を例示することによりクライアントサーバシステムにより実装例を示したが、スタンドアローンで実装されることとしてもかまわない。この場合、スタンドアローンで動作するコンピュータに上記の復元プログラムをインストールすることとすればよい。
[Stand-alone]
In the first embodiment, the implementation example is shown by the client server system by exemplifying the
[探索間隔の変更]
上記の実施例1では、基準画像の画素がVisual Hull領域であるか否かにより探索間隔を設定する例を説明したが、更なる基準で異なる探索間隔を設定することもできる。例えば、基準画像の画素がVisual Hull領域である場合、当該画素の重要度に応じて異なる探索間隔を設定することができる。この重要度は、一例として、基準画像の画素が基準画像から検出される重要領域、例えば表示に重要である顔やトラッキングに重要である背番号などに対応するか否かにより設定できる。例えば、基準画像の画素が顔や背番号に対応する場合、顔や背番号に対応しない場合よりも高い重要度を付与する。その上で、第2の設定部15dは、基準画像の画素がVisual Hull領域である場合、基準画像の画素の重要度が高いほど細かい探索間隔を設定することができる。
[Change search interval]
In the first embodiment, the example in which the search interval is set depending on whether or not the pixel of the reference image is the Visual Hull region has been described. However, a different search interval may be set based on a further reference. For example, when the pixel of the reference image is a Visual Hull region, different search intervals can be set according to the importance of the pixel. As an example, the importance can be set depending on whether or not the pixels of the reference image correspond to an important area detected from the reference image, for example, a face important for display or a back number important for tracking. For example, when the pixel of the reference image corresponds to the face or the spine number, higher importance is given than when the pixel does not correspond to the face or the spine number. In addition, when the pixel of the reference image is the Visual Hull region, the
[分散および統合]
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されておらずともよい。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、取得部15a、分離部15b、第1の設定部15c、第2の設定部15d、マッチング部15eまたは推定部15fをサーバ装置10の外部装置としてネットワーク経由で接続するようにしてもよい。また、取得部15a、分離部15b、第1の設定部15c、第2の設定部15d、マッチング部15eまたは推定部15fを別の装置がそれぞれ有し、ネットワーク接続されて協働することで、上記のサーバ装置10の機能を実現するようにしてもよい。
[Distribution and integration]
In addition, each component of each illustrated apparatus does not necessarily have to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. For example, the
[復元プログラム]
また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図16を用いて、上記の実施例と同様の機能を有する復元プログラムを実行するコンピュータの一例について説明する。
[Restore program]
The various processes described in the above embodiments can be realized by executing a prepared program on a computer such as a personal computer or a workstation. In the following, an example of a computer that executes a restoration program having the same function as that of the above embodiment will be described with reference to FIG.
図16は、実施例1及び実施例2に係る復元プログラムを実行するコンピュータのハードウェア構成例を示す図である。図16に示すように、コンピュータ100は、操作部110aと、スピーカ110bと、カメラ110cと、ディスプレイ120と、通信部130とを有する。さらに、このコンピュータ100は、CPU150と、ROM160と、HDD170と、RAM180とを有する。これら110〜180の各部はバス140を介して接続される。
FIG. 16 is a diagram illustrating a hardware configuration example of a computer that executes the restoration program according to the first embodiment and the second embodiment. As illustrated in FIG. 16, the
HDD170には、図16に示すように、上記の実施例1で示した取得部15a、分離部15b、第1の設定部15c、第2の設定部15d、マッチング部15e及び推定部15fと同様の機能を発揮する復元プログラム170aが記憶される。この復元プログラム170aは、図2に示した取得部15a、分離部15b、第1の設定部15c、第2の設定部15d、マッチング部15e及び推定部15fの各構成要素と同様、統合又は分離してもかまわない。すなわち、HDD170には、必ずしも上記の実施例1で示した全てのデータが格納されずともよく、処理に用いるデータがHDD170に格納されればよい。
As shown in FIG. 16, the
このような環境の下、CPU150は、HDD170から復元プログラム170aを読み出した上でRAM180へ展開する。この結果、復元プログラム170aは、図16に示すように、復元プロセス180aとして機能する。この復元プロセス180aは、RAM180が有する記憶領域のうち復元プロセス180aに割り当てられた領域にHDD170から読み出した各種データを展開し、この展開した各種データを用いて各種の処理を実行する。例えば、復元プロセス180aが実行する処理の一例として、図13に示す処理などが含まれる。なお、CPU150では、必ずしも上記の実施例1で示した全ての処理部が動作せずともよく、実行対象とする処理に対応する処理部が仮想的に実現されればよい。
Under such an environment, the
なお、上記の復元プログラム170aは、必ずしも最初からHDD170やROM160に記憶されておらずともかまわない。例えば、コンピュータ100に挿入されるフレキシブルディスク、いわゆるFD、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に復元プログラム170aを記憶させる。そして、コンピュータ100がこれらの可搬用の物理媒体から復元プログラム170aを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN、WANなどを介してコンピュータ100に接続される他のコンピュータまたはサーバ装置などに復元プログラム170aを記憶させておき、コンピュータ100がこれらから復元プログラム170aを取得して実行するようにしてもよい。
Note that the
1 復元システム
10 サーバ装置
11 通信I/F部
13 記憶部
13a カメラパラメータ
15 制御部
15a 取得部
15b 分離部
15c 第1の設定部
15d 第2の設定部
15e マッチング部
15f 推定部
DESCRIPTION OF
Claims (5)
前記複数の画像の中から選択された第1のカメラにより撮像された第1の画像について、前記第1のカメラの光学中心および前記第1の画像のそれぞれの画素を結ぶ3次元空間の直線上にオブジェクトが存在するか特定し、
特定した第1の画像の画素を含む領域を、前記3次元空間の直線上で前記オブジェクトの探索が実行される第1の範囲として設定し、前記第1の画像中の前記第1の範囲以外の領域を第2の範囲に設定し、
前記第1の範囲に含まれる画素に対しては、前記3次元空間の直線上で前記オブジェクトの探索を実行する間隔として第1の間隔を設定し、前記第2の範囲に含まれる画素に対しては、前記第1の間隔よりも長い第2の間隔を設定し、
設定された範囲および設定された間隔にしたがって、前記複数の画像のうち前記第1の画像として選択されない第2の画像及び前記第1の画像の間でブロックをマッチングし、
マッチングされたブロック間の相関に基づいて、前記第1の画像の画素ごとに前記3次元空間上の位置を推定する、
処理をコンピュータが実行することを特徴とする3次元情報の復元方法。 Acquire multiple images captured by multiple cameras with different shooting positions,
On a first image captured by a first camera selected from the plurality of images, on a straight line in a three-dimensional space connecting the optical center of the first camera and each pixel of the first image To determine if the object exists
A region including the pixel of the identified first image is set as a first range in which the search for the object is executed on a straight line in the three-dimensional space, and other than the first range in the first image Set the area of to the second range,
For the pixels included in the first range, a first interval is set as an interval for performing the search for the object on a straight line in the three-dimensional space, and for the pixels included in the second range Then, a second interval longer than the first interval is set,
According to a set range and a set interval, a block is matched between the second image that is not selected as the first image among the plurality of images and the first image,
Estimating a position in the three-dimensional space for each pixel of the first image based on a correlation between matched blocks;
A method for restoring three-dimensional information, wherein a computer executes processing.
前記複数の画像の中から選択された第1のカメラにより撮像された第1の画像について、前記第1のカメラの光学中心および前記第1の画像のそれぞれの画素を結ぶ3次元空間の直線上にオブジェクトが存在するか特定し、
特定した第1の画像の画素を含む領域を、前記3次元空間の直線上で前記オブジェクトの探索が実行される第1の範囲として設定し、前記第1の画像中の前記第1の範囲以外の領域を第2の範囲に設定し、
前記第1の範囲に含まれる画素に対しては、前記3次元空間の直線上で前記オブジェクトの探索を実行する間隔として第1の間隔を設定し、前記第2の範囲に含まれる画素に対しては、前記第1の間隔よりも長い第2の間隔を設定し、
設定された範囲および設定された間隔にしたがって、前記複数の画像のうち前記第1の画像として選択されない第2の画像及び前記第1の画像の間でブロックをマッチングし、
マッチングされたブロック間の相関に基づいて、前記第1の画像の画素ごとに前記3次元空間上の位置を推定する、
処理をコンピュータに実行させることを特徴とする3次元情報の復元プログラム。 Acquire multiple images captured by multiple cameras with different shooting positions,
On a first image captured by a first camera selected from the plurality of images, on a straight line in a three-dimensional space connecting the optical center of the first camera and each pixel of the first image To determine if the object exists
A region including the pixel of the identified first image is set as a first range in which the search for the object is executed on a straight line in the three-dimensional space, and other than the first range in the first image Set the area of to the second range,
For the pixels included in the first range, a first interval is set as an interval for performing the search for the object on a straight line in the three-dimensional space, and for the pixels included in the second range Then, a second interval longer than the first interval is set,
According to a set range and a set interval, a block is matched between the second image that is not selected as the first image among the plurality of images and the first image,
Estimating a position in the three-dimensional space for each pixel of the first image based on a correlation between matched blocks;
A three-dimensional information restoration program which causes a computer to execute processing.
前記複数の画像の中から選択された第1のカメラにより撮像された第1の画像について、前記第1のカメラの光学中心および前記第1の画像のそれぞれの画素を結ぶ3次元空間の直線上にオブジェクトが存在するか特定する特定部と、
特定した第1の画像の画素を含む領域を、前記3次元空間の直線上で前記オブジェクトの探索が実行される第1の範囲として設定し、前記第1の画像中の前記第1の範囲以外の領域を第2の範囲に設定する第1の設定部と、
前記第1の範囲に含まれる画素に対しては、前記3次元空間の直線上で前記オブジェクトの探索を実行する間隔として第1の間隔を設定し、前記第2の範囲に含まれる画素に対しては、前記第1の間隔よりも長い第2の間隔を設定する第2の設定部と、
設定された範囲および設定された間隔にしたがって、前記複数の画像のうち前記第1の画像として選択されない第2の画像及び前記第1の画像の間でブロックをマッチングするマッチング部と、
マッチングされたブロック間の相関に基づいて、前記第1の画像の画素ごとに前記3次元空間上の位置を推定する推定部と、
を有することを特徴とする3次元情報の復元装置。 An acquisition unit for acquiring a plurality of images captured by a plurality of cameras having different shooting positions;
On a first image captured by a first camera selected from the plurality of images, on a straight line in a three-dimensional space connecting the optical center of the first camera and each pixel of the first image A specific part that identifies whether an object exists in
A region including the pixel of the identified first image is set as a first range in which the search for the object is executed on a straight line in the three-dimensional space, and other than the first range in the first image A first setting unit for setting the area of the second range to a second range;
For the pixels included in the first range, a first interval is set as an interval for performing the search for the object on a straight line in the three-dimensional space, and for the pixels included in the second range Then, a second setting unit that sets a second interval longer than the first interval;
A matching unit that matches a block between the first image and the second image that is not selected as the first image among the plurality of images according to a set range and a set interval;
An estimation unit that estimates a position in the three-dimensional space for each pixel of the first image based on a correlation between matched blocks;
An apparatus for restoring three-dimensional information, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017096826A JP2018194979A (en) | 2017-05-15 | 2017-05-15 | Three-dimensional information restoration method, restoration program and restoration apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017096826A JP2018194979A (en) | 2017-05-15 | 2017-05-15 | Three-dimensional information restoration method, restoration program and restoration apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018194979A true JP2018194979A (en) | 2018-12-06 |
Family
ID=64568975
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017096826A Pending JP2018194979A (en) | 2017-05-15 | 2017-05-15 | Three-dimensional information restoration method, restoration program and restoration apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018194979A (en) |
-
2017
- 2017-05-15 JP JP2017096826A patent/JP2018194979A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109690620B (en) | Three-dimensional model generation device and three-dimensional model generation method | |
JP7105246B2 (en) | Reconstruction method and reconstruction device | |
JP5954668B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP5886242B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US10241317B2 (en) | Image processing apparatus and imaging apparatus | |
JP6566768B2 (en) | Information processing apparatus, information processing method, and program | |
JP2013500536A5 (en) | ||
JP6838021B2 (en) | Methods, image processing devices, and systems for generating parallax maps | |
US11076140B2 (en) | Information processing apparatus and method of controlling the same | |
CN111357034A (en) | Point cloud generation method, system and computer storage medium | |
JP2018194985A (en) | Image processing apparatus, image processing method and image processing program | |
TW201436552A (en) | Method and apparatus for increasing frame rate of an image stream using at least one higher frame rate image stream | |
JP2013185905A (en) | Information processing apparatus, method, and program | |
JP2010258897A (en) | Determination program and calibration apparatus | |
JP5769248B2 (en) | Stereo matching processing device, stereo matching processing method, and program | |
JP6305232B2 (en) | Information processing apparatus, imaging apparatus, imaging system, information processing method, and program. | |
JP6452324B2 (en) | Image processing apparatus, image processing method, and program | |
JP2018194979A (en) | Three-dimensional information restoration method, restoration program and restoration apparatus | |
JP6571492B2 (en) | Corresponding point search method and distance measuring device | |
JP6602412B2 (en) | Information processing apparatus and method, information processing system, and program. | |
JP2018049396A (en) | Shape estimation method, shape estimation device and shape estimation program | |
KR101804157B1 (en) | Disparity map generating method based on enhanced semi global matching | |
JP2018059767A (en) | Image processing device, image processing method and program | |
JP5970387B2 (en) | Image generating apparatus, image generating method, and program | |
US20220224813A1 (en) | Method of Controlling a Portable Device and a Portable Device |