JPWO2020183711A1 - 画像処理装置及び3次元計測システム - Google Patents
画像処理装置及び3次元計測システム Download PDFInfo
- Publication number
- JPWO2020183711A1 JPWO2020183711A1 JP2021505461A JP2021505461A JPWO2020183711A1 JP WO2020183711 A1 JPWO2020183711 A1 JP WO2020183711A1 JP 2021505461 A JP2021505461 A JP 2021505461A JP 2021505461 A JP2021505461 A JP 2021505461A JP WO2020183711 A1 JPWO2020183711 A1 JP WO2020183711A1
- Authority
- JP
- Japan
- Prior art keywords
- image
- parallax
- predicted
- pair
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 75
- 238000005259 measurement Methods 0.000 title claims description 119
- 238000000034 method Methods 0.000 claims abstract description 90
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 17
- 239000002131 composite material Substances 0.000 claims description 25
- 238000003672 processing method Methods 0.000 claims 2
- 230000008569 process Effects 0.000 description 26
- 238000012546 transfer Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 16
- 238000005286 illumination Methods 0.000 description 13
- 238000007781 pre-processing Methods 0.000 description 11
- 238000000691 measurement method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 8
- 101150064138 MAP1 gene Proteins 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 101100400452 Caenorhabditis elegans map-2 gene Proteins 0.000 description 5
- 238000012805 post-processing Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 238000002366 time-of-flight method Methods 0.000 description 4
- 238000011282 treatment Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2545—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10144—Varying exposure
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10152—Varying illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
画像処理装置が、ステレオマッチングとは異なる方式により第1画像と第2画像の間の視差を予測し、前記予測視差に基づき、ステレオマッチングにおける対応点の探索範囲を設定する設定手段と、前記設定された探索範囲に限定して前記第1画像と前記第2画像の間の各画素の対応点を探索し視差マップを生成する視差マップ生成手段と、複数の画像ペアのそれぞれから生成された複数の視差マップを合成する視差マップ合成手段と、を有する。
Description
本発明は、画像を用いた3次元計測に関する。
従来、対象物の3次元計測を行うための種々の手法が知られており、それらは、光の性質に着目して、光の直進性を用いる手法と光の速度を用いる手法に大別される。これらのうち、光の直進性を用いる手法には、アクティブ計測(能動型計測)及びパッシブ計測(受動型計測)の何れかに分類される方式が含まれ、光の速度を用いる手法には、アクティブ計測(能動型計測)に分類される方式が含まれる。
非特許文献1には、アクティブ計測方式の一例である空間コード化パターン投影方式の具体例として、空間的な符号化(コード化)がなされたパターン照明を対象物に投影し、そのパターンが投影された対象物を撮影した画像を解析することにより3次元形状を取得する方法が記載されている。
また、パッシブ計測方式の一例として、異なる視点から撮影された2つの画像を用いて対象物の3次元形状を計測する、いわゆるステレオマッチング(ステレオビジョンとも呼ばれる)が知られている(特許文献1、2参照)。図14にステレオマッチングの原理を示す。ステレオマッチングでは、例えば左右に配置した2台のカメラで対象物Oを同時に撮影し、2枚の画像を得る。一方を基準画像I1、他方を比較画像I2とし、基準画像I1中の画素(基準点P1)と画像特徴が最も近い画素(対応点P2)を、比較画像I2中のエピポーラ線Eに沿って探索し、基準点P1と対応点P2の間の座標の差(視差)を求める。各カメラの幾何学的な位置は既知であるので、三角測量の原理により、視差から奥行方向の距離D(デプス)を算出でき、対象物Oの3次元形状を復元することができる。
P. Vuylsteke and A. Oosterlinck, Range Image Acquisition with a Single Binary-Encoded Light Pattern, IEEE PAMI 12(2), pp. 148-164, 1990.
ステレオマッチングのような画像を用いた計測方式は、対象物表面の反射特性の違いや、照明などの環境変動が、計測精度のばらつき及び低下を招きやすい。例えば、金属部品の表面で照明光が鏡面反射しハレーションが発生したり、ゴムなど反射率の低い物体で暗部階調が潰れてしまうと、距離推定に必要な情報量が不足し、精度が著しく低下し又は計測不能になるケースがある。また、照明の光量不足の場合、他の物体の陰となり対象物に照明が十分に当たらない場合、他の物体での反射光が対象物に当たる場合(いわゆる相互反射)なども、計測精度に影響を及ぼし得る。
特許文献1、2には、計測精度の向上を図るために、同じ対象物に対し複数回のステレオマッチングを行い、それらの結果を合成するというアイデアが開示されている。しかしながら、従来型のステレオマッチングを複数回繰り返すだけでは、ばらつきの低減効果はあるかもしれないが、画像の情報量が不足しているケースには効果が期待できない。
本発明は、上記実情に鑑みてなされたものであり、ステレオマッチングによる計測において、精度及びロバスト性の向上を図るための技術を提供することを目的とする。
本発明の一側面は、画像ペアを用いたステレオマッチングにより、各画素の座標に距離情報が関連付けられたデータであるデプスマップを生成する画像処理装置であって、
異なる視点から撮影された第1画像及び第2画像からなる画像ペアを取得する画像取得手段と、ステレオマッチングとは異なる方式により前記第1画像と前記第2画像の間の視差を予測する視差予測手段と、前記予測視差に基づき、ステレオマッチングにおける対応点の探索範囲を設定する設定手段と、前記設定された探索範囲に限定して前記第1画像と前記第2画像の間の各画素の対応点を探索し、その探索結果に基づき、各画素の座標に視差情報が関連付けられたデータである視差マップを生成する視差マップ生成手段と、複数の画像ペアのそれぞれから生成された複数の視差マップを合成することにより合成視差マップを生成する視差マップ合成手段と、前記合成視差マップの視差情報を距離情報に変換し、前記デプスマップを生成するデプスマップ生成手段と、を有することを特徴とする画像処理装置を提供する。
異なる視点から撮影された第1画像及び第2画像からなる画像ペアを取得する画像取得手段と、ステレオマッチングとは異なる方式により前記第1画像と前記第2画像の間の視差を予測する視差予測手段と、前記予測視差に基づき、ステレオマッチングにおける対応点の探索範囲を設定する設定手段と、前記設定された探索範囲に限定して前記第1画像と前記第2画像の間の各画素の対応点を探索し、その探索結果に基づき、各画素の座標に視差情報が関連付けられたデータである視差マップを生成する視差マップ生成手段と、複数の画像ペアのそれぞれから生成された複数の視差マップを合成することにより合成視差マップを生成する視差マップ合成手段と、前記合成視差マップの視差情報を距離情報に変換し、前記デプスマップを生成するデプスマップ生成手段と、を有することを特徴とする画像処理装置を提供する。
上記構成では、予測された視差に基づき対応点の探索範囲が限定される。これにより、従来の一般的なステレオマッチングに比べて、対応点探索に要する時間を大幅に短縮することができるだけでなく、対応点が存在する蓋然性が高い範囲に絞り込んで探索を行うことができることから、対応点探索の精度及び信頼性を向上できる。また、ステレオマッチングとは異なる方式により生成された予測視差を利用することによって、ステレオマッチングでは計測が困難な部分を補完する効果も期待できる。そして、複数の画像ペアから得られた視差マップを合成することから、計測のばらつきを低減することもできる。したがって、総じて、高精度かつ信頼性の高い計測結果を安定して得ることができる。
前記視差予測手段は、複数の予測視差を生成し、前記設定手段は、前記複数の予測視差を合成した合成予測視差を、前記複数の画像ペアの探索範囲の設定に用いてもよい。このように予測視差の生成(計測)も複数回行うことによって、精度及びロバスト性をさらに向上することができる。
前記視差予測手段は、複数の予測視差を生成し、前記設定手段は、探索範囲の設定に用いる予測視差を、画像ペアごとに変えてもよい。このように予測視差の生成(計測)も複数回行うことによって、精度及びロバスト性をさらに向上することができる。
前記視差予測手段が、カメラで撮影された画像から前記予測視差の生成を行うものである場合、前記複数の予測視差は、カメラ及び/又は撮影条件を変えて撮影された、異なる画像から生成されたものであってもよい。視野内に異なる反射特性をもつ物体が存在していたり、物体の陰や相互反射が懸念されるような場合でも、カメラ及び/又は撮影条件を変えて撮影をすれば、少なくともいずれかの画像から視差情報を抽出できる可能性が高まる。
例えば、前記画像取得手段が、第1の画像ペアと第2の画像ペアを取得し、前記視差予測手段が、前記第1の画像ペアのうちの第1画像から第1の予測視差を生成するとともに、前記第2の画像ペアのうちの第2画像から第2の予測視差を生成し、前記設定手段が、前記第1の予測視差と前記第2の予測視差を合成した合成予測視差を、前記第1の画像ペア及び前記第2の画像ペアの探索範囲の設定に用いてもよい。あるいは、前記画像取得手段が、第1の画像ペアと第2の画像ペアを取得し、前記視差予測手段が、前記第1の画像ペアのうちの第1画像から第1の予測視差を生成するとともに、前記第2の画像ペアのうちの第2画像から第2の予測視差を生成し、前記設定手段が、前記第1の予測視差と前記第2の予測視差のうちの一方の予測視差を前記第1の画像ペアの探索範囲の設定に用い、他方の予測視差を前記第2の画像ペアの探索範囲の設定に用いてもよい。
第1画像と第2画像は視点が異なるため、両方の画像から視差を予測することで高精度な予測視差を得ることができる。また、仮に一方の画像の情報が欠損していたとしても、他方の画像を使って視差を予測できる可能性が高い。したがって、対応点の探索範囲をより適切に設定でき、精度及びロバスト性をさらに向上することができる。また、予測視差の生成とステレオマッチングとで、画像を共通化することにより、撮像及び画像転送の回数を削減できるため、処理全体の効率化及び高速化を図ることができる。また、同じカメラを利用できることから、装置構成の簡易化及び小型化を図ることができるという利点もある。
前記複数の画像ペアは、異なる撮影条件で撮影された2以上の画像ペアを含んでもよい。このようにステレオマッチングに用いる画像のバリエーションを増すことで、視野内に異なる反射特性をもつ物体が存在していたり、物体の陰や相互反射が懸念されるような場合でも、少なくともいずれかの画像ペアから3次元情報を抽出できる可能性が高まる。例えば、前記異なる撮影条件で撮影された2以上の画像ペアは、露光条件及び/又は照明条件を変えて撮影された画像ペアを含んでもよい。
前記視差予測手段は、前記ステレオマッチングとは異なる前記方式として、空間コード化パターン投影方式により得られた距離情報に基づいて、視差を予測してもよい。空間コード化パターン投影方式は、ステレオマッチングと同じ解像度のイメージセンサを用いた場合、ステレオマッチングよりも格段に短い処理時間で距離情報を得ることができるからである。なお、空間コード化パターン投影方式の測距の空間分解能は、ステレオマッチング方式に比べて低いものの、視差の予測に用いる目的であれば必要十分といえる。
本発明の一側面は、少なくとも2つのカメラを有するセンサユニットと、前記センサユニットから取り込まれる画像を用いてデプスマップを生成する画像処理装置と、を有することを特徴とする3次元計測システムを提供する。
本発明は、上記手段の少なくとも一部を有する画像処理装置として捉えてもよいし、センサユニットと画像処理装置を有する3次元計測システムとして捉えてもよい。また、本発明は、上記処理の少なくとも一部を含む画像処理、3次元計測方法、測距方法、画像処理装置の制御方法などとして捉えてもよく、または、かかる方法を実現するためのプログラムやそのプログラムを非一時的に記録した記録媒体として捉えることもできる。なお、上記手段および処理の各々は可能な限り互いに組み合わせて本発明を構成することができる。
本発明によれば、ステレオマッチングによる計測において、精度及びロバスト性の向上を図ることが可能である。
<適用例>
図1は、本発明の適用例の一つである3次元計測システムの構成例を模式的に示す図である。3次元計測システム1は、画像センシングによって対象物12の3次元形状を計測するためのシステムであり、概略、センサユニット10と画像処理装置11から構成される。センサユニット10は、少なくともカメラ(イメージセンサや撮像装置とも呼ばれる)を備えており、必要に応じて他のセンサを備える場合もある。センサユニット10の出力は画像処理装置11に取り込まれる。画像処理装置11は、センサユニット10から取り込まれたデータを用いて各種の処理を行うデバイスである。画像処理装置11の処理としては、例えば、距離計測(測距)、3次元形状認識、物体認識、シーン認識などが含まれてもよい。画像処理装置11の処理結果は、例えば、ディスプレイなどの出力装置に出力されたり、外部に転送されて検査や他の装置の制御等に利用される。このような3次元計測システム1は、例えば、コンピュータビジョン、ロボットビジョン、マシンビジョンをはじめとして、幅広い分野に適用される。
図1は、本発明の適用例の一つである3次元計測システムの構成例を模式的に示す図である。3次元計測システム1は、画像センシングによって対象物12の3次元形状を計測するためのシステムであり、概略、センサユニット10と画像処理装置11から構成される。センサユニット10は、少なくともカメラ(イメージセンサや撮像装置とも呼ばれる)を備えており、必要に応じて他のセンサを備える場合もある。センサユニット10の出力は画像処理装置11に取り込まれる。画像処理装置11は、センサユニット10から取り込まれたデータを用いて各種の処理を行うデバイスである。画像処理装置11の処理としては、例えば、距離計測(測距)、3次元形状認識、物体認識、シーン認識などが含まれてもよい。画像処理装置11の処理結果は、例えば、ディスプレイなどの出力装置に出力されたり、外部に転送されて検査や他の装置の制御等に利用される。このような3次元計測システム1は、例えば、コンピュータビジョン、ロボットビジョン、マシンビジョンをはじめとして、幅広い分野に適用される。
なお、図1の構成はあくまで一例であり、3次元計測システム1の用途に応じてそのハードウェア構成は適宜設計すればよい。例えば、センサユニット10と画像処理装置11は無線で接続されてもよいし、センサユニット10と画像処理装置11が一体の装置で構成されていてもよい。また、センサユニット10と画像処理装置11をLAN又はインターネット等の広域ネットワークを介して接続してもよい。また、1つの画像処理装置11に対し複数のセンサユニット10を設けてもよいし、逆に、1つのセンサユニット10の出力を複数の画像処理装置11に提供してもよい。さらに、センサユニット10をロボットや移動体に取り付けるなどしてセンサユニット10の視点を移動可能にしてもよい。
図2は、3次元計測システム1の機能及び処理の概要を模式的に示す図である。3次元計測システム1は、対象物12の距離を計測するための計測系として、第1の計測系21と第2の計測系22の2つを備えている。各計測系21、22の機能及び処理は、センサユニット10と画像処理装置11とが協働して実現されるものである。
第1の計測系21は、ステレオマッチング(ステレオビジョン、ステレオカメラ方式などとも呼ばれる)によって対象物12までの奥行距離(デプス)を計測する。ステレオマッチングは空間分解能の高い計測が可能であることから、本システム1では第1の計測系21によって生成される距離情報を最終的な出力とする。
他方、第2の計測系22も対象物12の測距を行うものであるが、第2の計測系22で得られる距離情報は、第1の計測系21で観測される視差を大まかに予測しステレオマッチングにおける探索範囲を絞り込むという目的で、補助的に利用される。第2の計測系22としては、ステレオマッチングとは異なる方式で測距を行うものであれば如何なる方式の計測系を用いてもよい。
3次元計測方式のうち光の直進性を用いるアクティブ計測方式としては、例えば、三角測量を基本原理とする空間コード化パターン投影方式、時間コード化パターン投影方式、モアレトポグラフィ方式(等高線方式)、照度差ステレオ方式(照射方向/Photometric Stereo)等、及び、同軸測距を基本原理とする照度差方式、レーザ共焦点方式、白色共焦点方式、光干渉方式等が挙げられる。また、光の直進性を用いるパッシブ計測方式としては、例えば、視体積交差方式(Shape from silhouette)、因子分解方式(factorization)、Depth from Motion(Structure from Motion)方式、Depth from Shading方式等、及び、同軸測距を基本原理とするDepth from focusing方式、Depth from defocus方式、Depth from zoom方式等が挙げられる。さらに、光の速度を用いるアクティブ計測方式としては、例えば、同時測距を基本原理とする光時間差(TOF)測定方式、光位相差(TOF)測定方式、並びに、電波、音波及びミリ波による(TOF)方式等が挙げられる。
上記したいずれの方式を第2の計測系22として採用してもよい。ただし、第2の計測系22は視差の大まかな予測が目的であるため、ステレオマッチングより計測精度や空間分解能が低くて構わないので、ステレオマッチングに比べて計測時間が短い高速な方式を用いることが好ましい。後述する実施形態では、計測時間が短いという利点、及び、第1の計測系21とセンサ及び画像を共用できるという利点から、空間コード化パターン投影方式を用いる。
続いて、図2を参照して、3次元計測システム1による計測処理の大まかな流れを説明する。
(1)第1の計測系21が、センサユニット10から2枚の画像(第1画像、第2画像と呼ぶ)からなるステレオ画像ペアを取得する。この2枚の画像は、対象物12に対する視差が生ずるように、対象物12を異なる視点(視線方向)から撮影したものである。センサユニット10が複数のカメラを備えている場合には、2台のカメラで第1画像と第2画像を同時に撮影してもよい。あるいは、カメラを移動させながら連続的に撮影することで、単一のカメラで第1画像と第2画像を取得してもよい。
(2)第2の計測系22が、対象物12の距離計測を行い、得られた距離情報に基づき第1画像と第2画像の間の視差を予測し、その予測した視差を参考視差マップとして出力する。本明細書では、第1の計測系21のステレオマッチングで生成される視差マップと区別するため、第2の計測系22で生成される視差マップを「参考視差マップ」と呼ぶ。参考視差マップは、第1の計測系21のステレオマッチングにおける探索範囲を絞り込むために補助的に用いられるものであるため、第1画像及び第2画像よりも空間分解能が低い(粗い)もので構わない。なお、参考視差マップは、センサユニット10から得られる画像又はその他のセンシングデータに基づき画像処理装置11側で生成されてもよいし、センサユニット10自身が測距機能を具備する場合(TOF方式のイメージセンサなど)にはセンサユニット10側で参考視差マップが生成されてもよい。
(3)第1の計測系21が、第2の計測系22から取得した参考視差マップを用いて、ステレオマッチングにおける対応点の探索範囲を設定する。前述のように参考視差マップの空間分解能ないし精度はそれほど高くないため、予測視差がある程度の誤差を含むことは避けられない。したがって、対応点の探索範囲は、その誤差範囲を包含するように設定するとよい。例えば、予測視差の値がd[画素]であり、誤差が±derr[画素]である場合には、探索範囲をd−derr−c〜d+derr+cのように設定してもよい。cはマージンである。なお、第1画像のすべての画素に対し個別に探索範囲を設定してもよいし、画像内での局所的な視差の変化が大きくない場合などは、第1画像を複数のエリアに分割してエリア単位で探索範囲を設定してもよい。
(4)第1の計測系21が、設定された探索範囲の中から、第1画像と第2画像の間の各画素の対応点を探索する。例えば、第1画像を基準画像、第2画像を比較画像とした場合、第1画像中の画素(基準点)と画像特徴が最も近い第2画像中の画素が対応点として選ばれ、基準点と対応点の座標の差が、当該基準点における視差として求まる。第1画像中のすべての画素について対応点の探索が行われ、その探索結果から視差マップが生成される。視差マップは、各画素の座標に視差情報が関連付けられたデータである。
(5)第1の計測系21が、上述した(1)〜(4)の処理を2回以上行い、複数の視差マップを得る。そして、第1の計測系21が、複数の視差マップを合成することにより合成視差マップを生成する。
(6)第1の計測系21は、三角測量の原理を用いて、合成視差マップの視差情報を距離情報(デプス)に変換し、デプスマップを生成する。
上記構成では、予測された視差に基づき対応点の探索範囲が限定される。これにより、従来の一般的なステレオマッチングに比べて、対応点探索に要する時間を大幅に短縮することができるだけでなく、対応点が存在する蓋然性が高い範囲に絞り込んで探索を行うことができることから、対応点探索の精度及び信頼性を向上できる。また、ステレオマッチングとは異なる方式により生成された予測視差を利用することによって、ステレオマッチングでは計測が困難な部分を補完する効果も期待できる。そして、複数の画像ペアから得られた視差マップを合成することから、計測のばらつきを低減することもできる。したがって、総じて、高精度かつ信頼性の高い計測結果を安定して得ることができる。
<第1実施形態>
図3を参照して、第1実施形態に係る3次元計測システム1の構成例について説明する。図3は、3次元計測システム1の機能ブロック図である。
図3を参照して、第1実施形態に係る3次元計測システム1の構成例について説明する。図3は、3次元計測システム1の機能ブロック図である。
(センサユニット)
センサユニット10は、第1カメラ101、第2カメラ102、パターン投光部103、照明部104、画像転送部105、駆動制御部106を有する。
センサユニット10は、第1カメラ101、第2カメラ102、パターン投光部103、照明部104、画像転送部105、駆動制御部106を有する。
第1カメラ101と第2カメラ102は、いわゆるステレオカメラを構成するカメラ対であり、所定の距離だけ離れて配置されている。2つのカメラ101、102で同時に撮影を行うことで、異なる視点から撮影した画像ペアを得ることができる(第1カメラ101の画像を第1画像、第2カメラ102の画像を第2画像と呼ぶ)。2つのカメラ101、102は、互いの光軸が交差し、且つ、水平ライン(又は垂直ライン)が同一平面上にくるように、配置されるとよい。このような配置をとることで、エピポーラ線が画像の水平ライン(又は垂直ライン)と平行になるため、ステレオマッチングにおける対応点を同じ位置の水平ライン(又は垂直ライン)内から探索すればよく、探索処理の簡易化が図れるからである。なお、カメラ101、102としては、モノクロのカメラを用いてもよいし、カラーのカメラを用いてもよい。
パターン投光部103は、空間コード化パターン投影方式の測距で用いるパターン照明を対象物12に投影するための装置であり、プロジェクタとも呼ばれる。パターン投光部103は、例えば、光源部、導光レンズ、パターン生成部、投写レンズなどから構成される。光源部としては、LED、レーザー、VCSEL(Vertical cavity Surface-emitting Laser)などを用いることができる。導光レンズは光源部からパターン生成部に光を導くための光学素子であり、レンズ又はガラスロッドなどを用いることができる。パターン生成部は、コード化されたパターンを生成する部材ないし装置であり、フォトマスク、回折光学素子(例えばDOE(Diffractive Optical Element))、光変調素子(例えば、DLP(Digital Light Processing)、LCD(Liquid Crystal Display)、LCoS(Liquid Crystal on Silicon)、MEMS(Micro Electro Mechanical Systems))などを用いることができる。投写レンズは生成されたパターンを拡大し投写する光学素子である。
照明部104は、一般的な可視光画像を撮影するために用いられる均一照明である。例えば白色LED照明などが用いられる。もしくはアクティブ投光と同じ波長帯の照明でもよい。
画像転送部105は、第1カメラ101で撮影された第1画像のデータ、及び、第2カメラ102で撮影された第2画像のデータを、画像処理装置11へ転送する。画像転送部105は、第1画像と第2画像を別々の画像データとして転送してもよいし、第1画像と第2画像を繋ぎ合わせてサイドバイサイド画像を生成し単一の画像データとして転送してもよい。また、画像転送部105は、撮影条件を変えて撮影した複数の画像(例えば露光時間の異なる複数の画像)を繋ぎ合わせてサイドバイサイド画像を生成し単一の画像データとして転送してもよい。駆動制御部106は、第1カメラ101、第2カメラ102、パターン投光部103、及び、照明部104を制御するユニットである。なお、画像転送部105と駆動制御部106は、センサユニット10側ではなく、画像処理装置11側に設けてもよい。
(画像処理装置)
画像処理装置11は、画像取得部110、パターン復号部111、視差予測部112、前処理部113、探索範囲設定部115、対応点探索部116、視差マップ合成部114、視差マップ後処理部117、デプスマップ生成部118を有する。
画像処理装置11は、画像取得部110、パターン復号部111、視差予測部112、前処理部113、探索範囲設定部115、対応点探索部116、視差マップ合成部114、視差マップ後処理部117、デプスマップ生成部118を有する。
画像取得部110は、センサユニット10から必要な画像データを取り込む機能を有する。画像取得部110は、第1画像及び第2画像からなる画像ペアを、パターン復号部111及び前処理部113に送る。
パターン復号部111は、空間コード化パターン投影方式によって、第1画像又は第2画像から距離情報を取得する機能をもつ。空間コード化パターン投影方式は、用いる単位パターンのサイズに依存して空間分解能が決まる。例えば、5画素×5画素の単位パターンを用いる場合、距離情報の空間分解能は入力画像の1/25となる。視差予測部112は、パターン復号部111で得られた距離情報に基づき第1画像と第2画像の間の視差を予測し参考視差マップを出力する機能を有する。
前処理部113は、第1画像と第2画像に対して、必要な前処理を行う機能を有する。探索範囲設定部115は、予測視差に基づいて対応点の探索範囲を設定する機能を有する。対応点探索部116は、第1画像と第2画像の間の対応点を探索し、その探索結果に基づき視差マップを生成する機能を有する。視差マップ合成部114は、複数の画像ペアのそれぞれから生成された複数の視差マップを合成することにより合成視差マップを生成する機能を有する。視差マップ後処理部117は、合成視差マップに対して必要な後処理を行う機能を有する。デプスマップ生成部118は、合成視差マップの視差情報を距離情報に変換し、デプスマップを生成する機能を有する。
画像処理装置11は、例えば、CPU(プロセッサ)、RAM(メモリ)、不揮発性記憶装置(ハードディスク、SSDなど)、入力装置、出力装置などを備えるコンピュータにより構成される。この場合、CPUが、不揮発性記憶装置に格納されたプログラムをRAMに展開し、当該プログラムを実行することによって、上述した各種の機能が実現される。ただし、画像処理装置11の構成はこれに限られず、上述した機能のうちの全部又は一部を、FPGAやASICなどの専用回路で実現してもよいし、クラウドコンピューティングや分散コンピューティングにより実現してもよい。
本例では、第1カメラ101、パターン投光部103、画像転送部105、画像取得部110、駆動制御部106、パターン復号部111、視差予測部112によって、図2の第2の計測系22が構成されており、第1カメラ101、第2カメラ102、パターン投光部103、画像転送部105、駆動制御部106、前処理部113、探索範囲設定部115、対応点探索部116、視差マップ合成部114、視差マップ後処理部117、デプスマップ生成部118によって、図2の第1の計測系21が構成されている。
(計測処理)
図4及び図5を参照して、第1実施形態の計測処理の流れを説明する。図4は、画像処理装置11により実行される処理の流れを示すフロー図である。図5は、タイミングチャートである。
図4及び図5を参照して、第1実施形態の計測処理の流れを説明する。図4は、画像処理装置11により実行される処理の流れを示すフロー図である。図5は、タイミングチャートである。
駆動制御部106からの開始信号をトリガとして、1回目の計測が実施される。まずパターン投光部103が点灯し、所定のパターン照明を対象物12に投影する。そして、第1カメラ101と第2カメラ102で同時に撮像が行われ、画像転送部105から第1画像及び第2画像の転送が行われる。ステップS400、S401において、画像取得部110が、第1画像及び第2画像からなる第1の画像ペアを取得する。画像取得部110は、パターン復号部111に第1画像を送り、前処理部113に第1画像と第2画像を送る。
続いて、駆動制御部106からの開始信号をトリガとして、2回目の計測が実施される。まずパターン投光部103が点灯し、所定のパターン照明を対象物12に投影する。そして、第1カメラ101と第2カメラ102で同時に撮像が行われ、画像転送部105から第1画像及び第2画像の転送が行われる。ステップS410、S411において、画像取得部110が、第1画像及び第2画像からなる第2の画像ペアを取得する。画像取得部110は、パターン復号部111に第2画像を送り、前処理部113に第1画像と第2画像を送る。
2回目の計測と並列に、1回目の計測で得られた第1の画像ペアに対する画像処理が開始される。ステップS402において、前処理部113が、第1画像及び第2画像に対し平行化処理(レクティフィケーション)を行う。平行化処理とは、2つの画像の間の対応点が画像中の同じ水平ライン(又は垂直ライン)上に存在するように、一方又は両方の画像を幾何変換する処理である。平行化処理によりエピポーラ線が画像の水平ライン(又は垂直ライン)と平行になるため、後段の対応点探索の処理が簡単になる。なお、センサユニット10から取り込まれる画像の平行度が十分高い場合には、平行化処理は省略してもよい。
ステップS403において、前処理部113が、平行化された第1画像及び第2画像の各画素についてハッシュ特徴量を計算し、各画素の値をハッシュ特徴量に置き換える。ハッシュ特徴量は、注目画素を中心とする局所領域の輝度特徴を表すものであり、ここでは、8要素のビット列からなるハッシュ特徴量を用いる。このように、各画像の輝度値をハッシュ特徴量に変換しておくことで、後段の対応点探索における局所的な輝度特徴の類似度計算が極めて効率化される。
ステップS404において、パターン復号部111が、第1画像を解析しパターンを復号することによって、第1画像上の複数の点における奥行方向の距離情報を取得する。
ステップS405において、視差予測部112が、ステップS404で得られた各点の距離情報に基づき、各点を平行化された第1画像の画像座標系に射影したときの2次元座標と、同じ点を平行化された第2画像の画像座標系に射影したときの2次元座標とを計算し、2つの画像の間での座標の差を計算する。この差が予測視差である。視差予測部112は、ステップS404で距離情報が得られたすべての点についての予測視差を求め、そのデータを参考視差マップとして出力する。
なお、第1画像に対する処理は、第1画像の転送が完了した時点(図5のα)から開始することにより全体の処理時間の短縮を図ってもよい。
2回目の計測で得られた第2の画像ペアの転送が完了すると、第2の画像ペアに対する画像処理が開始される。ステップS412において、前処理部113が、第1画像及び第2画像に対し平行化処理(レクティフィケーション)を行う。ステップS413において、前処理部113が、平行化された第1画像及び第2画像の各画素についてハッシュ特徴量を計算し、各画素の値をハッシュ特徴量に置き換える。ステップS414において、パターン復号部111が、第2画像を解析しパターンを復号することによって、第2画像に基づく距離情報を取得する。そして、ステップS415において、視差予測部112が、距離情報に基づいて予測視差を計算する。
理論上は、1回目(ステップS405)で得られる予測視差と2回目(ステップS415)で得られる予測視差は同じになるはずであるが、実際は完全に同一にはならない。1回目と2回目では異なるカメラ(視点)で撮影された画像を用いるため、画像の見え(つまり画像情報)に差異があるからである。それゆえ、1回目と2回目で予測視差の値に差が生じたり、一方は視差の予測に成功したが他方は失敗するということもあり得る。そこで、ステップS420において、視差予測部112が1回目の予測視差と2回目の予測視差を合成し、合成予測視差を求める。合成方法は特に限定されないが、例えば、1回目と2回目の両方で予測視差が得られている場合はそれらの平均値を合成予測視差とし、1回目と2回目のいずれか一方だけで予測視差が得られた場合はその値をそのまま合成予測視差とすればよい。
ステップS421において、探索範囲設定部115が、合成予測視差に基づいて、第1の画像ペアと第2の画像ペアのそれぞれに対し、対応点の探索範囲を設定する。探索範囲の大きさは、予測の誤差を考慮して決定される。例えば、予測の誤差が±10画素である場合には、マージンを含めても、予測視差を中心とした±20画素程度を探索範囲に設定すれば十分と考えられる。仮に水平ラインが640画素である場合に、探索範囲を±20画素(つまり40画素)に絞り込むことができれば、水平ライン全体を探索するのに比べて探索処理を単純に1/16に削減することができる。
ステップS422において、対応点探索部116が、第1の画像ペアの間で対応点の探索を行い、各画素の視差を求める。対応点探索部116は、対応点の検出に成功した点(画素の座標)に視差情報を関連付けた視差データを生成する。この情報が視差マップ1である。同様に、ステップS423において、対応点探索部116が、第2の画像ペアの間で対応点の探索を行い、視差マップ2を生成する。
ステップS424において、視差マップ合成部114が、第1の画像ペアから得られた視差マップ1と第2の画像ペアから得られた視差マップ2を合成し、合成視差マップを生成する。合成方法は特に限定されないが、例えば、視差マップ1と視差マップ2の両方で視差が得られている場合はそれらの平均値を合成視差とし、視差マップ1と視差マップ2のいずれか一方だけで視差が得られた場合はその値をそのまま合成視差とすればよい。
ステップS425において、視差マップ後処理部117が、合成視差マップの修正を行う。対応点探索によって推定された視差マップには誤計測点や計測抜けなどが含まれるため、周囲の画素の視差情報に基づき誤計測点の修正や計測抜けの補完を行う。なお、ステップS424とS425の処理はどちらを先に行ってもよい。ステップS426において、デプスマップ生成部118が、合成視差マップの各画素の視差情報を3次元情報(奥行方向の距離情報)に変換し、デプスマップを生成する。このデプスマップ(3次元点群データ)は、例えば、対象物12の形状認識、物体認識などに利用される。
上記で述べた第1実施形態の構成及び処理によれば、従来の一般的なステレオマッチングに比べて、対応点探索に要する時間を大幅に短縮することができるだけでなく、対応点探索の精度及び信頼性を向上できる。また、空間コード化パターン投影方式により生成された予測視差を利用することによって、ステレオマッチングでは計測が困難な部分を補完する効果も期待できる。そして、複数の画像ペアから得られた視差マップを合成することから、計測のばらつきを低減することもできる。したがって、総じて、高精度かつ信頼性の高い計測結果を安定して得ることができる。
また、第1画像と第2画像の両方から視差を予測することで、高精度な予測視差を得ることができる。また、仮に一方の画像の情報が欠損していたとしても、他方の画像を使って視差を予測できる可能性が高い。したがって、対応点の探索範囲をより適切に設定でき、精度及びロバスト性をさらに向上することができる。また、予測視差の生成とステレオマッチングとで、画像を共通化することにより、撮像及び画像転送の回数を削減できるため、処理全体の効率化及び高速化を図ることができる。また、同じカメラを利用できることから、装置構成の簡易化及び小型化を図ることができるという利点もある。
<第2実施形態>
図6及び図7を参照して、第2実施形態の計測処理の流れを説明する。図6は、画像処理装置11により実行される処理の流れを示すフロー図である。図7は、タイミングチャートである。第1実施形態では、第1画像から求めた予測視差と第2画像から求めた予測視差を合成し、合成予測視差に基づき探索範囲を設定したのに対し、第2実施形態では、個別の予測視差に基づき探索範囲を設定する(ステップS600、S610)。それ以外の処理は第1実施形態と同様であるため、図4と同一の符号を付して説明を省略する。
図6及び図7を参照して、第2実施形態の計測処理の流れを説明する。図6は、画像処理装置11により実行される処理の流れを示すフロー図である。図7は、タイミングチャートである。第1実施形態では、第1画像から求めた予測視差と第2画像から求めた予測視差を合成し、合成予測視差に基づき探索範囲を設定したのに対し、第2実施形態では、個別の予測視差に基づき探索範囲を設定する(ステップS600、S610)。それ以外の処理は第1実施形態と同様であるため、図4と同一の符号を付して説明を省略する。
本実施形態の構成及び処理によっても、第1実施形態と同様の作用効果を得ることができる。加えて、本実施形態の処理では、予測視差の合成を行わないため、図7に示すように、画像処理1が完了したら(つまり、第1の画像ペア用の予測視差が得られたら)直ぐに視差マップ1の生成処理を開始できる。したがって、第1実施形態よりもトータルの処理時間を短縮することができる。
<第3実施形態>
図8に第3実施形態に係る3次元計測システムのセンサユニット10の構成を模式的に示す。本実施形態のセンサユニット10は、パターン投光部80を中心にして4つのカメラ81、82、83、84が配置された構造を有している。
図8に第3実施形態に係る3次元計測システムのセンサユニット10の構成を模式的に示す。本実施形態のセンサユニット10は、パターン投光部80を中心にして4つのカメラ81、82、83、84が配置された構造を有している。
計測処理においては、パターン投光部80から対象物12にパターン照明を投影した状態で、4つのカメラ81〜84が同時に撮影を行い、互いに視点の異なる4つの画像が取り込まれる。ステレオマッチングには、この4つの画像の中から選択された画像ペアが用いられる。画像ペアの組み合わせは6通りあるが、その中のいずれのペアを選択してもよいし、2つ以上のペアを選択してもよい。例えば、エピポーラ線に対し水平ライン又は垂直ラインが平行な画像ペアを優先的に選択してもよいし、あるいは、画像情報の欠損が少ない画像ペアを優先的に選択してもよい。それ以外の構成及び処理は前述の実施形態と同様であるため説明を省略する。
本実施形態の構成及び処理によっても、前述の実施形態と同様の作用効果を得ることができる。加えて、本実施形態では、多視点でのステレオ計測が実現できるため、計測のロバスト性をさらに向上することができる。なお、図8の構成は例示であり、パターン投光部及びカメラの配置や、パターン投光部の数、カメラの数などは任意に設計できる。
<第4実施形態>
図9及び図10を参照して、第4実施形態の計測処理の流れを説明する。図9は、画像処理装置11により実行される処理の流れを示すフロー図である。図10は、タイミングチャートである。第1実施形態では、同一の撮影条件で1回目の計測と2回目の計測を行ったのに対し、第4実施形態では、1回目の計測と2回目の計測とで露光時間を変える。
図9及び図10を参照して、第4実施形態の計測処理の流れを説明する。図9は、画像処理装置11により実行される処理の流れを示すフロー図である。図10は、タイミングチャートである。第1実施形態では、同一の撮影条件で1回目の計測と2回目の計測を行ったのに対し、第4実施形態では、1回目の計測と2回目の計測とで露光時間を変える。
具体的には、図10に示すように、1回目の計測においては「露光時間1」で第1カメラ及び第2カメラによる撮影を行い、2回目の計測においては「露光時間2」で第1カメラ及び第2カメラによる撮影を行う(露光時間2>露光時間1)。そして、画像処理装置11は、図9に示すように、露光時間1で撮影された第1画像及び第2画像の画像ペア(ステップS900、S901)によりステレオマッチングを行うと共に、露光時間2で撮影された第1画像及び第2画像の画像ペア(ステップS910、S911)によりステレオマッチングを行い、得られた2つの視差マップ1及び2を合成して最終的な計測結果を出力する。
短い露光時間1で撮影した場合は、ハレーション(いわゆる白飛び)を低減できると共に、画像中の明部領域の階調性を高めることができる。それゆえ、鏡面物体や明るい色の物体の3次元情報(視差情報)を得るには、露光時間1で撮影した画像の方が適している。他方、長い露光時間2で撮影した場合は、暗部領域の階調性を高めることができるため、低反射率の物体や陰になっている部分の3次元情報(視差情報)を得るには、露光時間2で撮影した画像の方が適している。したがって、本実施形態のように、露光時間1の画像ペアから得た視差マップ1と露光時間2の画像ペアから得た視差マップ2を合成することで、反射特性の違いや照明の状況などに対してロバストな3次元計測が実現できる。なお、図9の例では、露光時間1で撮影された第1画像と露光時間2で撮影された第1画像の2つを視差の予測に用いたが、第1実施形態と同じように第1画像と第2画像の2つを視差の予測に用いてもよい。また、第3実施形態で述べた3台以上のカメラを設ける構成を本実施形態に適用してもよい。
<第5実施形態>
図11及び図12を参照して、第5実施形態の計測処理の流れを説明する。図11は、画像処理装置11により実行される処理の流れを示すフロー図である。図12は、タイミングチャートである。第4実施形態では、合成予測視差に基づき探索範囲を設定したのに対し、第5実施形態では、個別の予測視差に基づき探索範囲を設定する(ステップS1100、S1110)。それ以外の処理は第4実施形態と同様であるため、図9と同一の符号を付して説明を省略する。
図11及び図12を参照して、第5実施形態の計測処理の流れを説明する。図11は、画像処理装置11により実行される処理の流れを示すフロー図である。図12は、タイミングチャートである。第4実施形態では、合成予測視差に基づき探索範囲を設定したのに対し、第5実施形態では、個別の予測視差に基づき探索範囲を設定する(ステップS1100、S1110)。それ以外の処理は第4実施形態と同様であるため、図9と同一の符号を付して説明を省略する。
本実施形態の構成及び処理によっても、第4実施形態と同様の作用効果を得ることができる。加えて、本実施形態の処理では、予測視差の合成を行わないため、図12に示すように、画像処理1が完了したら(つまり、第1の画像ペア用の予測視差が得られたら)直ぐに視差マップ1の生成処理を開始できる。したがって、第4実施形態よりもトータルの処理時間を短縮することができる。また、第3実施形態で述べた3台以上のカメラを設ける構成を本実施形態に適用してもよい。
<第6実施形態>
第4及び第5実施形態では、カメラの露光条件を変化させたが、代わりに照明条件を変化させることによっても、同様の処理を行うことが可能である。すなわち、1回目の計測ではパターン投光部103を第1の明るさに設定して撮影を行い、2回目の計測ではパターン投光部103を第2の明るさに変更して撮影を行う。このとき、「第1の明るさ<第2の明るさ」のように設定し、1回目の計測と2回目の計測でカメラの露光条件を同一にすれば、1回目の計測では鏡面物体や明るい色の物体の3次元情報(視差情報)を得るのに適した画像が得られ、2回目の計測では低反射率の物体や陰になっている部分の3次元情報(視差情報)を得るのに適した画像が得られる。したがって、それぞれの画像ペアでステレオマッチングを行い、得られた視差マップを合成し、最終的な計測結果を生成することにより、反射特性の違いや照明の状況などに対してロバストな3次元計測が実現できる。
第4及び第5実施形態では、カメラの露光条件を変化させたが、代わりに照明条件を変化させることによっても、同様の処理を行うことが可能である。すなわち、1回目の計測ではパターン投光部103を第1の明るさに設定して撮影を行い、2回目の計測ではパターン投光部103を第2の明るさに変更して撮影を行う。このとき、「第1の明るさ<第2の明るさ」のように設定し、1回目の計測と2回目の計測でカメラの露光条件を同一にすれば、1回目の計測では鏡面物体や明るい色の物体の3次元情報(視差情報)を得るのに適した画像が得られ、2回目の計測では低反射率の物体や陰になっている部分の3次元情報(視差情報)を得るのに適した画像が得られる。したがって、それぞれの画像ペアでステレオマッチングを行い、得られた視差マップを合成し、最終的な計測結果を生成することにより、反射特性の違いや照明の状況などに対してロバストな3次元計測が実現できる。
パターン投光部103の明るさを制御する方法としては、点灯時間を制御する方法、デューティ比を制御する方法、点灯強度を制御する方法などがあり、いずれの方法を用いてもよい。図13A〜図13Cは、パターン投光部103の駆動信号の例を示している。
<その他>
上記実施形態は、本発明の構成例を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。例えば上記実施形態では、空間コード化パターン投影方式を例示したが、第2の計測系の測距方式はステレオマッチング以外の方式であれば如何なる方式を採用してもよい。また、上記実施形態では、ステレオマッチングにハッシュ特徴量を利用したが、対応点の類似度評価には他の手法を用いてもよい。例えば、類似度の評価指標としてはSAD(Sum of Absolute Difference)、SSD(Sum of Squared Difference)、NC(Normalized Correlation)などによる左右画像の画素の類似度計算法がある。また、上記実施形態では、参考デプスマップの生成(視差の予測)とステレオマッチングとで共有するカメラの画像を用いたが、それぞれ異なる三次元計測用のカメラの画像を用いてもよい。
上記実施形態は、本発明の構成例を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。例えば上記実施形態では、空間コード化パターン投影方式を例示したが、第2の計測系の測距方式はステレオマッチング以外の方式であれば如何なる方式を採用してもよい。また、上記実施形態では、ステレオマッチングにハッシュ特徴量を利用したが、対応点の類似度評価には他の手法を用いてもよい。例えば、類似度の評価指標としてはSAD(Sum of Absolute Difference)、SSD(Sum of Squared Difference)、NC(Normalized Correlation)などによる左右画像の画素の類似度計算法がある。また、上記実施形態では、参考デプスマップの生成(視差の予測)とステレオマッチングとで共有するカメラの画像を用いたが、それぞれ異なる三次元計測用のカメラの画像を用いてもよい。
<付記>
(1) 画像ペアを用いたステレオマッチングにより、各画素の座標に距離情報が関連付けられたデータであるデプスマップを生成する画像処理装置(11)であって、
異なる視点から撮影された第1画像及び第2画像からなる画像ペアを取得する画像取得手段(110)と、
ステレオマッチングとは異なる方式により前記第1画像と前記第2画像の間の視差を予測する視差予測手段(112)と、
前記予測視差に基づき、ステレオマッチングにおける対応点の探索範囲を設定する設定手段(115)と、
前記設定された探索範囲に限定して前記第1画像と前記第2画像の間の各画素の対応点を探索し、その探索結果に基づき、各画素の座標に視差情報が関連付けられたデータである視差マップを生成する視差マップ生成手段(116)と、
複数の画像ペアのそれぞれから生成された複数の視差マップを合成することにより合成視差マップを生成する視差マップ合成手段(114)と、
前記合成視差マップの視差情報を距離情報に変換し、前記デプスマップを生成するデプスマップ生成手段(118)と、
を有することを特徴とする画像処理装置(11)。
(1) 画像ペアを用いたステレオマッチングにより、各画素の座標に距離情報が関連付けられたデータであるデプスマップを生成する画像処理装置(11)であって、
異なる視点から撮影された第1画像及び第2画像からなる画像ペアを取得する画像取得手段(110)と、
ステレオマッチングとは異なる方式により前記第1画像と前記第2画像の間の視差を予測する視差予測手段(112)と、
前記予測視差に基づき、ステレオマッチングにおける対応点の探索範囲を設定する設定手段(115)と、
前記設定された探索範囲に限定して前記第1画像と前記第2画像の間の各画素の対応点を探索し、その探索結果に基づき、各画素の座標に視差情報が関連付けられたデータである視差マップを生成する視差マップ生成手段(116)と、
複数の画像ペアのそれぞれから生成された複数の視差マップを合成することにより合成視差マップを生成する視差マップ合成手段(114)と、
前記合成視差マップの視差情報を距離情報に変換し、前記デプスマップを生成するデプスマップ生成手段(118)と、
を有することを特徴とする画像処理装置(11)。
1:3次元計測システム
10:センサユニット
11:画像処理装置
12:対象物
21:第1の計測系
22:第2の計測系
10:センサユニット
11:画像処理装置
12:対象物
21:第1の計測系
22:第2の計測系
Claims (12)
- 画像ペアを用いたステレオマッチングにより、各画素の座標に距離情報が関連付けられたデータであるデプスマップを生成する画像処理装置であって、
異なる視点から撮影された第1画像及び第2画像からなる画像ペアを取得する画像取得手段と、
ステレオマッチングとは異なる方式により前記第1画像と前記第2画像の間の視差を予測する視差予測手段と、
前記予測視差に基づき、ステレオマッチングにおける対応点の探索範囲を設定する設定手段と、
前記設定された探索範囲に限定して前記第1画像と前記第2画像の間の各画素の対応点を探索し、その探索結果に基づき、各画素の座標に視差情報が関連付けられたデータである視差マップを生成する視差マップ生成手段と、
複数の画像ペアのそれぞれから生成された複数の視差マップを合成することにより合成視差マップを生成する視差マップ合成手段と、
前記合成視差マップの視差情報を距離情報に変換し、前記デプスマップを生成するデプスマップ生成手段と、
を有することを特徴とする画像処理装置。 - 前記視差予測手段は、複数の予測視差を生成し、
前記設定手段は、前記複数の予測視差を合成した合成予測視差を、前記複数の画像ペアの探索範囲の設定に用いる
ことを特徴とする請求項1に記載の画像処理装置。 - 前記視差予測手段は、複数の予測視差を生成し、
前記設定手段は、探索範囲の設定に用いる予測視差を、画像ペアごとに変える
ことを特徴とする請求項1に記載の画像処理装置。 - 前記視差予測手段は、カメラで撮影された画像から前記予測視差の生成を行うものであり、
前記複数の予測視差は、カメラ及び/又は撮影条件を変えて撮影された、異なる画像から生成されたものである
ことを特徴とする請求項2又は3に記載の画像処理装置。 - 前記画像取得手段が、第1の画像ペアと第2の画像ペアを取得し、
前記視差予測手段が、前記第1の画像ペアのうちの第1画像から第1の予測視差を生成するとともに、前記第2の画像ペアのうちの第2画像から第2の予測視差を生成し、
前記設定手段が、前記第1の予測視差と前記第2の予測視差を合成した合成予測視差を、前記第1の画像ペア及び前記第2の画像ペアの探索範囲の設定に用いる
ことを特徴とする請求項2に記載の画像処理装置。 - 前記画像取得手段が、第1の画像ペアと第2の画像ペアを取得し、
前記視差予測手段が、前記第1の画像ペアのうちの第1画像から第1の予測視差を生成するとともに、前記第2の画像ペアのうちの第2画像から第2の予測視差を生成し、
前記設定手段が、前記第1の予測視差と前記第2の予測視差のうちの一方の予測視差を前記第1の画像ペアの探索範囲の設定に用い、他方の予測視差を前記第2の画像ペアの探索範囲の設定に用いる
ことを特徴とする請求項3に記載の画像処理装置。 - 前記複数の画像ペアは、異なる撮影条件で撮影された2以上の画像ペアを含む
ことを特徴とする請求項1〜6のいずれか1項に記載の画像処理装置。 - 前記異なる撮影条件で撮影された2以上の画像ペアは、露光条件及び/又は照明条件を変えて撮影された画像ペアを含む
ことを特徴とする請求項7に記載の画像処理装置。 - 前記視差予測手段は、空間コード化パターン投影方式により得られた距離情報に基づいて、視差を予測する
ことを特徴とする請求項1〜8のいずれか1項に記載の画像処理装置。 - 少なくとも2つのカメラを有するセンサユニットと、
前記センサユニットから取り込まれる画像を用いてデプスマップを生成する請求項1〜9のいずれか1項に記載の画像処理装置と、
を有することを特徴とする3次元計測システム。 - コンピュータを、請求項1〜9のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
- 画像ペアを用いたステレオマッチングにより、各画素の座標に距離情報が関連付けられたデータであるデプスマップを生成する画像処理方法であって、
異なる視点から撮影された第1画像及び第2画像からなる画像ペアを複数取得するステップと、
前記複数の画像ペアのそれぞれについて、ステレオマッチングとは異なる方式により前記第1画像と前記第2画像の間の視差を予測するステップと、
前記予測視差に基づき、ステレオマッチングにおける対応点の探索範囲を設定するステップと、
前記複数の画像ペアのそれぞれについて、前記設定された探索範囲に限定して前記第1画像と前記第2画像の間の各画素の対応点を探索し、その探索結果に基づき、各画素の座標に視差情報が関連付けられたデータである視差マップを生成するステップと、
複数の画像ペアのそれぞれから生成された複数の視差マップを合成することにより合成視差マップを生成するステップと、
前記合成視差マップの視差情報を距離情報に変換し、前記デプスマップを生成するステップと、
を有することを特徴とする画像処理方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/010590 WO2020183711A1 (ja) | 2019-03-14 | 2019-03-14 | 画像処理装置及び3次元計測システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020183711A1 true JPWO2020183711A1 (ja) | 2021-10-14 |
JP7078173B2 JP7078173B2 (ja) | 2022-05-31 |
Family
ID=72426687
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021505461A Active JP7078173B2 (ja) | 2019-03-14 | 2019-03-14 | 画像処理装置及び3次元計測システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11803982B2 (ja) |
EP (1) | EP3832601A4 (ja) |
JP (1) | JP7078173B2 (ja) |
WO (1) | WO2020183711A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022070079A (ja) * | 2020-10-26 | 2022-05-12 | オムロン株式会社 | 制御装置、ロボット、制御方法、プログラム |
JP2024014138A (ja) * | 2022-07-21 | 2024-02-01 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
EP4332499A1 (en) * | 2022-08-30 | 2024-03-06 | Canon Kabushiki Kaisha | Three-dimensional measuring apparatus, three-dimensional measuring method, storage medium, system, and method for manufacturing an article |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011013706A (ja) * | 2009-06-30 | 2011-01-20 | Hitachi Ltd | ステレオ画像処理装置およびステレオ画像処理方法 |
US20140153816A1 (en) * | 2012-11-30 | 2014-06-05 | Adobe Systems Incorporated | Depth Map Stereo Correspondence Techniques |
US20150178936A1 (en) * | 2013-12-20 | 2015-06-25 | Thomson Licensing | Method and apparatus for performing depth estimation |
JP2017045283A (ja) * | 2015-08-26 | 2017-03-02 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および情報処理方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2953154B2 (ja) | 1991-11-29 | 1999-09-27 | 日本電気株式会社 | 形状合成方法 |
GB2418314A (en) * | 2004-09-16 | 2006-03-22 | Sharp Kk | A system for combining multiple disparity maps |
US7561731B2 (en) | 2004-12-27 | 2009-07-14 | Trw Automotive U.S. Llc | Method and apparatus for enhancing the dynamic range of a stereo vision system |
JP5158223B2 (ja) | 2011-04-06 | 2013-03-06 | カシオ計算機株式会社 | 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム |
JP5263437B2 (ja) | 2012-09-07 | 2013-08-14 | カシオ計算機株式会社 | 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム |
WO2020183710A1 (ja) * | 2019-03-14 | 2020-09-17 | オムロン株式会社 | 画像処理装置及び3次元計測システム |
-
2019
- 2019-03-14 EP EP19919470.5A patent/EP3832601A4/en active Pending
- 2019-03-14 WO PCT/JP2019/010590 patent/WO2020183711A1/ja unknown
- 2019-03-14 US US17/272,919 patent/US11803982B2/en active Active
- 2019-03-14 JP JP2021505461A patent/JP7078173B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011013706A (ja) * | 2009-06-30 | 2011-01-20 | Hitachi Ltd | ステレオ画像処理装置およびステレオ画像処理方法 |
US20140153816A1 (en) * | 2012-11-30 | 2014-06-05 | Adobe Systems Incorporated | Depth Map Stereo Correspondence Techniques |
US20150178936A1 (en) * | 2013-12-20 | 2015-06-25 | Thomson Licensing | Method and apparatus for performing depth estimation |
JP2017045283A (ja) * | 2015-08-26 | 2017-03-02 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および情報処理方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2020183711A1 (ja) | 2020-09-17 |
EP3832601A1 (en) | 2021-06-09 |
US11803982B2 (en) | 2023-10-31 |
EP3832601A4 (en) | 2022-03-16 |
JP7078173B2 (ja) | 2022-05-31 |
US20220398760A1 (en) | 2022-12-15 |
CN112602118A (zh) | 2021-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9392262B2 (en) | System and method for 3D reconstruction using multiple multi-channel cameras | |
US20120242795A1 (en) | Digital 3d camera using periodic illumination | |
JP7078173B2 (ja) | 画像処理装置及び3次元計測システム | |
TW201721514A (zh) | 基於場景之捕獲影像而產生之距離圖 | |
CN111566437A (zh) | 三维测量系统以及三维测量方法 | |
JP2001194114A (ja) | 画像処理装置および画像処理方法、並びにプログラム提供媒体 | |
US9704255B2 (en) | Three-dimensional shape measurement device, three-dimensional shape measurement method, and three-dimensional shape measurement program | |
WO2019184185A1 (zh) | 目标图像获取系统与方法 | |
JP7168077B2 (ja) | 3次元計測システム及び3次元計測方法 | |
US10713810B2 (en) | Information processing apparatus, method of controlling information processing apparatus, and storage medium | |
JP7078172B2 (ja) | 画像処理装置及び3次元計測システム | |
JP7184203B2 (ja) | 画像処理装置、3次元計測システム、画像処理方法 | |
WO2019125427A1 (en) | System and method for hybrid depth estimation | |
JP2024052755A (ja) | 三次元変位計測方法及び三次元変位計測装置 | |
JP2011133360A (ja) | 距離計測装置、距離計測方法、及びプログラム | |
CN112602118B (zh) | 图像处理装置和三维测量系统 | |
EP3688407A1 (en) | Light projection systems | |
JP2021018219A (ja) | 3次元形状計測システム、3次元形状計測方法、及び3次元形状計測プログラム | |
JP6570321B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JPH11183142A (ja) | 三次元画像撮像方法及び三次元画像撮像装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210308 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220419 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220502 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7078173 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |