JP2021173740A - テレセントリックラインスキャンカメラを用いて物体を効率的に3次元再構成するためのシステムおよび方法 - Google Patents

テレセントリックラインスキャンカメラを用いて物体を効率的に3次元再構成するためのシステムおよび方法 Download PDF

Info

Publication number
JP2021173740A
JP2021173740A JP2020097342A JP2020097342A JP2021173740A JP 2021173740 A JP2021173740 A JP 2021173740A JP 2020097342 A JP2020097342 A JP 2020097342A JP 2020097342 A JP2020097342 A JP 2020097342A JP 2021173740 A JP2021173740 A JP 2021173740A
Authority
JP
Japan
Prior art keywords
telecentric
line scan
camera
image
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020097342A
Other languages
English (en)
Other versions
JP7486740B2 (ja
JP2021173740A5 (ja
Inventor
カルステン・シュテガー
Carsten Steger
マルクス・ウルリヒ
Markus Ulrich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MVTec Software GmbH
Original Assignee
MVTec Software GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MVTec Software GmbH filed Critical MVTec Software GmbH
Publication of JP2021173740A publication Critical patent/JP2021173740A/ja
Publication of JP2021173740A5 publication Critical patent/JP2021173740A5/ja
Application granted granted Critical
Publication of JP7486740B2 publication Critical patent/JP7486740B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30141Printed circuit board [PCB]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Quality & Reliability (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

【課題】テレセントリックレンズを有する少なくとも2つのラインスキャンカメラを用いて3次元シーンを再構成するための方法および装置を提供する。【解決手段】本発明における、汎用構成のラインスキャンカメラを用いてステレオ再構成を実行することを可能にするシステムおよび方法を説明する。結果として、負担が大きい、センサラインの正確な位置合わせは、不要になる。本開示の方法は、パースペクティブレンズの代わりにテレセントリックレンズがラインスキャンカメラに搭載されることを必要とする。この場合、画像をステレオ再構成で正確に平行化させることができる。平行化させた画像を使用することにより、効率的なステレオマッチングを実施できる。この方法は、たとえセンサラインが主点の後方に正確に設けられていなくても、レンズ歪みのモデル化をも含む、撮像プロセスの正確なモデル化を可能にする、カメラモデルと較正手順とを含む。これは、得られる3次元再構成の高い精度を確実にする。【選択図】図2

Description

発明の分野
本発明は、概してマシンビジョンシステムに関し、より具体的には物体を2次元画像から3次元再構成することに関する。
発明の背景
3次元再構成の用途
画像からシーン(物体)を効率的かつ正確に再構成することは、数多くのコンピュータビジョンの、特にマシンビジョンの用途において重要である。たとえば、プリント回路基板(printed circuit board:PCB)の、欠落しているまたは間違って配置された電子部品について、PCBの3次元再構成を用いてロバストな検査を実施することができる(Steger et al., 2018, Chapter 3.10.1)。さらに、製造された物体を、3次元で測定することにより、その正しい形状または寸法を、たとえば再構成された表面を基準物と比較することにより、確認することができる(Steger et al., 2018, Chapter 4.13)。もう1つの例は、ピック&プレース用途の物体認識であり、この場合、物体の正確な3次元姿勢(pose)(位置および向き(orientation))を3次元データで判断することにより、この物体をロボットで把持できるようにしなければならない(Steger et al., 2018, Chapter 4.14)。
3次元再構成技術
マシンビジョン産業では、3次元データを返す3次元画像取得装置の多数のさまざまな技術を利用できる。大多数の3次元画像取得装置の背景にある原理は、三角測量である。三角測量に基づく、最もよく知られている代表的な3次元再構成のうちの1つは、ステレオ再構成であり、この場合、シーンを、少なくとも2つのカメラで、異なる位置から観察する(Steger et al., 2018, Chapter 2.5.1)。ある点の3次元座標は、画像中の対応する点を特定し、それぞれに対応付けられた視線を3次元空間内で交差させることによって得られる。もう1つの代表的な3次元再構成は、光シート(sheet of light)原理に基づく3次元再構成であり、レーザ三角測量と呼ばれることも多い(Steger et al., 2018, Chapter 2.5.2)。光シートセンサは、カメラと、レーザ面をシーン上に投影するレーザプロジェクタとで構成される。レーザ面と物体との交差部分を、カメラ画像におけるラインとして抽出する。抽出したライン上の各画像の点は、カメラにおける視線(line of sight)を表し、これを3次元におけるレーザ面と交差させることにより、再構成された点を得る。ある物体の完全な形状を光シートセンサで再構成するには、この物体をセンサに対して相対的に移動させねばならない。三角測量に基づく、第3のカテゴリの3次元センサは、構造化光(structured light)センサである(Steger et al., 2018, Chapter 2.5.3)。このセンサは、カメラと、パターンをシーン上に投影するプロジェクタとで構成される。カメラ画像内のパターンの歪みから、物体の3次元形状を推測することができる。三角測量以外の、普及している第2の3次元再構成原理は、飛行時間(time-of-flight:TOF)測定である。TOFセンサは放射を射出し、放射を射出した時間と、この放射が物体の表面上で反射された後にセンサに返ってきた時間との時間差を測定する(Steger et al., 2018, Chapter 2.5.4)。
ステレオ再構成
本発明はステレオ再構成に注目する。なぜなら、ステレオ再構成は3次元再構成の最もよく知られている原理のうちの1つであるからである。商品化された多数のステレオセンサが入手できるが、典型的には2つのカメラが1つの筐体に含まれている。しかしながら、より柔軟性があるセットアップ(機器構成)は、独立したカメラを2つ以上使用することである。この場合、解決すべきタスクに応じて、最適にハードウェアおよびセットアップを選択するかまたは適合させることができる。たとえば、所定の用途に応じて、センサの解像度およびサイズ、レンズの種類、レンズの焦点深度、ならびに複数カメラの相対オリエンテーション(relative orientation)を、最適に選択することができる。これらのパラメータは、ステレオ再構成の精度、ロバスト性、および視野に影響を与える。
ステレオセンサは一般的に工場で較正(calibration)されるが、個々のセットアップを現場で較正してからでなければ3D再構成は実行できない。較正は、すべてのカメラの内部オリエンテーション(interior orientation)およびそれらの相対オリエンテーションのパラメータを求めることを意味する。相対オリエンテーションは、2つのカメラの、相互の相対位置および向きを説明し、一般的には剛体3次元変換によって表される(Steger et al., 2018, Chapter 3.10.1.1)。以下、剛体3次元変換を姿勢とも呼ぶ。カメラの内部オリエンテーションは、カメラ座標系に与えられた3次元の点の、画像座標系における2次元の点への射影を説明する。たとえば、パースペクティブ(perspective)(エントセントリック(entocentric))レンズを有するエリアスキャンカメラの内部オリエンテーションは、以下のパラメータによって、すなわち、主点距離、主点の行座標および列座標、センサ上の水平および垂直画素ピッチ、ならびにレンズ歪みをモデル化するパラメータによって説明できる(Steger et al., 2018, Chapter 3.9.1)。加えて、世界座標系に対するカメラのシステムの位置および向きで決まる外部オリエンテーション(exterior orientation)がモデル化されることも多い。世界座標系の原点は、較正を実行するために使用された較正物体(以下を参照)の原点によって定められることが多い。結果として、外部オリエンテーションは、先に選択された基準カメラに対する較正物体の姿勢を説明することが最も多い(Steger, 2017)。
較正を実行するためには、既知のコントロールポイント(control point)を有する適切な較正物体の画像を、すべてのカメラによって取得しなければならない。以下、これらの画像を較正画像と呼ぶ。3次元の較正物体が使用される場合もあるが、ほとんどのマシンビジョン用途では平坦な較正物体が好ましい(Steger et al., 2018, Chapter 3.9.4.1)。これらは、3次元較正物体よりも正確にかつより簡単に製造できる。さらに、ユーザはこれらをより簡単に扱うことができる。また、これらは、背景照明が必要な用途において、カメラの較正を、たとえば不透明なコントロールポイントが与えられた透明な較正物体を使用することにより、またはその逆により、可能にする。また、平坦な較正物体を使用することにより、世界における面を、較正物体を世界におけるこの対象面上に置くだけで、容易に画定することができる。画像内の測定値は、画定した面内の、世界座標系の測定値に変換することができる(Steger et al., 2018, Chapter 3.9.5)。平坦な較正物体は円形のマークとともに使用されることが多いが、その理由は、これらのマークの中心点を高い精度で求めることができることにある(Lenz and Fritsch, 1990; Lanser et al., 1995; Lanser, 1997; Steger et al., 2018, Chapter 3.9.4.1)。平坦な較正物体および1つの較正画像を用いて較正を行うときに縮退(degeneracy)が生じるので(Steger et al., 2018, Chapter 3.9.4.3)、カメラの較正は、一般的に、異なる姿勢の平坦な較正物体が得られる複数の較正画像を用いて行われる(Steger et al., 2018, Chapter 3.9.4.4)。これに代えて、非較正ステレオ方法を適用してもよい。これらの場合、較正画像は必ずしも較正物体を含まなくてもよい。
テレセントリックレンズ
マシンビジョン用途の一部では、パースペクティブレンズの代わりにテレセントリックレンズが使用される。テレセントリックレンズは、物体側においてテレセントリック投影を行う。したがって、テレセントリックレンズは世界を平行に投影して画像にする(Steger et al. 2018, Chapter 2.2.4)。特に測定用途において、テレセントリックレンズを使用すると精度が高まる。なぜなら、射影歪み(perspective distortion)を無くすからである。テレセントリックレンズは、開口絞りが画像側の焦点上に位置するように構成され、これにより、光軸と平行でないすべての光線が取り除かれる(Steger et al. 2018, Chapter 2.2.4)。テレセントリックレンズは、物体空間において平行に投影するので、テレセントリックレンズの直径は、撮像する画像と少なくとも同じ大きさのものを選択しなければならない。
エリアスキャンカメラのカメラモデル
エリアスキャンカメラの汎用カメラモデル、ならびにパースペクティブレンズおよびテレセントリックレンズを備えたカメラの適切な較正手順が提案されている(Steger, 2017)。この較正手順により、(ティルト(tilt)レンズのサポートを含む)パースペクティブカメラおよびテレセントリックカメラの任意の組み合わせのセットアップの較正が可能である。
2眼ステレオ−画像平行化(image rectification)
較正されたカメラセットアップは、ステレオ再構成の前提条件である。以下の説明を簡単にするために、2眼ステレオの場合に、すなわち2つのカメラの場合に限定する。しかしながら、本概念は、3つ以上のカメラに容易に拡張することができる。3次元の点を再構成するためには2つの画像内の対応する点を求めなければならない。第1の画像における所定の点について、第2の画像における対応する点は、いわゆるエピポーラ(epipolar)線上になければならないことは周知である(Steger et al. 2018, Chapter 3.10.1.3)。対応する点の探索の速度を高める一般的な方法は、2つの入力画像をエピポーラ標準幾何学に従う表現に変換することである(Steger et al., 2018, Chapter 3.10.1.4)。この変換はステレオ画像平行化と呼ばれる。この変換のパラメータは、カメラの較正結果から導き出すことができる。平行化後の画像にはレンズ歪みがなく、対応する画像の点は、3つの画像において同一の画像行にある。このように、対応する点の探索を、1つの画像行に限定することができ、よって、非常に効率的に実施することができる。これは、稠密再構成(dense reconstruction)を目的とする用途、すなわち、入力画像内の複数画素の3次元座標が必要な用途には、特に重要である。
2眼ステレオ−ステレオマッチング
画像内の対応する点を求めるプロセスはステレオマッチングと呼ばれている。稠密再構成を得るために、ステレオマッチングは、第1の平行化後の画像における各点(画素)ごとに、第2の平行化後の画像における対応する点を発見しようとする。平行化後の画像内の対応する点は同一の画像行になければならないことがわかっているので、3次元再構成についての関連情報は、平行化後の画像内の対応する点の列座標である。より具体的には、3次元の点の奥行き(すなわちカメラからその点までの距離)は、平行化後の画像内の、その対応する点の列座標の差のみによって決まる。この差は視差(disparity)と呼ばれている(Steger et al., 2018, Chapter 3.10.1.5)。
よって、稠密再構成の主な目的は、第1の平行化後の画像における各画素ごとに視差を発見することである。稠密ステレオ再構成のさまざまなアルゴリズムの概要を、たとえば(Scharstein and Szeliski, 2002; Brown et al., 2003)に見出すことができる。マシンビジョン用途において、視差を求めることは、テンプレートマッチング問題とみなされることが多い(Steger et al., 2018, Chapter 3.10.1.6)。テンプレートマッチングは、第1の画像内の各点ごとに、第2の画像内の、同一の画像行にある最も似ている点を発見しようとする。この類似性は、一般的に、第1の画像内の点の周りの三角形画像パッチを、第2の画像内の可能性のあるすべての対応する点の周りのそれぞれの三角形画像パッチと比較することにより、測定される。最も一般的な類似性の尺度は、絶対グレー値差の総和、グレー値差の二乗の総和、および、正規化された相互相関である(Steger et al., 2018, Chapter 3.10.1.6)。テンプレートマッチングに基づく稠密ステレオ再構成は、(メモリおよび計算時間双方において)効率的な計算を、ほとんどの用途に十分な精度と組み合わせる。稠密視差推定の代替方法は、低テクスチャ画像領域でさえも視差を計算することができる変分手法に基づく。稠密視差推定の効率的な方法はすべて、入力画像ペアが予めエピポーラ標準幾何学に従って平行化されていると仮定していることに注目することが重要である。
ラインスキャンカメラ
いくつかのマシンビジョン用途では、エリアスキャンカメラよりもラインスキャンカメラの方が好ましい。ラインスキャンカメラの利点は、エリアスキャンカメラと比較して、価格当たりの解像度がより高いことである。現在、最大16384画素のラインを有するラインスキャンカメラを利用することができる(Steger et al. 2018, Chapter 2.3.4)。ラインスキャンカメラを用いて物体の2次元画像を得るために、この物体に対してカメラを相対的に移動させながら、複数の1次元画像を、ある時間にわたって積み重ねる。よって、得られる画像の高さは実質上無制限である。なぜなら、この高さは、ある時間を経て得られた1次元画像の数に相当するからである。本発明において、物体に対してカメラが相対的に動くことを相対移動と呼ぶ。相対移動は、一般的に、静止している物体に対してカメラを移動させることにより、または、移動している物体の上方にカメラを設置することにより、実現される(Steger et al. 2018, Chapter 2.3.1.1)。ラインスキャンカメラを使用するマシンビジョン用途のほとんどにおいて、定速度の直線的な移動が適用される。相対移動は、たとえば、直線移動スライド、ベルトコンベア、またはその他のリニアアクチュエータによって実現できる。パースペクティブレンズを有するラインスキャンカメラのカメラモデルは(Steger et al., 2018, Chapter 3.9.3)に記載されている。
パースペクティブラインスキャンカメラを用いたステレオ再構成
ステレオ再構成の精度は、当然、画像の解像度によって制限される。したがって、再構成の精度に対する要求が高い用途の場合、ステレオ再構成のためにエリアスキャンカメラの代わりに高解像度のラインスキャンカメラを使用することが極めて望ましい。
残念ながら、一般的に、パースペクティブラインスキャンカメラのステレオ画像は、エピポーラ標準幾何学に従って平行化することができない(Gupta and Hartley, 1997; Kim, 2000, Habib et al., 2005a, b)。これは、効率的なステレオ再構成を阻止し、それ故に、ステレオ再構成のためのラインスキャンカメラの汎用を妨げる。しかしながら、(Habib et al., 2005a, b)は、平行化が実際に可能な、パースペクティブレンズを有するラインスキャンカメラの、2つの特別な理想的構成が存在することを示している。これらは、理想的なアクロストラック構成と、理想的なアロングトラック構成とであり、双方のセンサのセンサラインを、特定のやり方で正確に互いに位置合わせしなければならない。さらに、これらの構成は、レンズ歪みがないことを想定している。これらの2つの構成に基づいて、産業用途のいくつかのパースペクティブラインスキャンステレオシステムが、文献(Calow et al., 2010; Ilchev et al., 2012; Lilienblum and Al-Hamadi, 2015; Sun et al. 2016; Sun et al, 2017; Godber et al., 1995)において提案されている。これらのシステムでは、たとえば適切な調整デバイスを用いることにより、センサラインを、2つの理想的構成のうちの一方に対して手作業で位置合わせする。残念ながら、これらの文献は、センサラインの正確な位置合わせを如何にして実現するか、および、これらのセンサの位置合わせに要する時間について、詳細に開示はしていない。したがって、パースペクティブラインスキャンカメラを用いるステレオは、複雑であり、高価な精密機器および煩雑な手作業を要する。このため、実用および有用性という観点からしても、これら2つの理想的構成のうちの一方に限定されないラインスキャンカメラを用いた効率的なステレオ再構成を実行できることは、大きな前進になるであろう。さらに、たとえラインを正確に互いに位置合わせすることができたとしても、センサラインが主点の後方に正確に設けられていなければ、レンズ歪みがここでも正確な画像の平行化を妨げることになる。レンズ歪みを無視することは、3次元再構成の精度に悪影響を与えることになる。
発明の概要
本発明は請求項に明記されている。本発明は、テレセントリックレンズを有する少なくとも2つのラインスキャンカメラを用いて3次元シーンを再構成するための方法および装置に向けられている。本発明において、「3次元シーン」、「3次元物体」および「複数の3次元物体」という用語は同義のものとして使用される。本発明はまた、記載されている方法を実行するおよび/または実現するシステムまたは装置に関する。方法は、コンピュータにより実現される。
本発明における、汎用構成のラインスキャンカメラを用いてステレオ再構成を実行することを可能にするシステムおよび方法を説明する。結果として、負担が大きい、センサラインの正確な位置合わせは、不要になる。本開示の方法は、パースペクティブレンズの代わりにテレセントリックレンズがラインスキャンカメラに搭載されることを必要とする。この場合、画像をステレオ再構成で正確に平行化させることができる。平行化させた画像を使用することにより、効率的なステレオマッチングを実施できる。この方法は、たとえセンサラインが主点の後方に正確に設けられていなくても、レンズ歪みのモデル化をも含む、撮像プロセスの正確なモデル化を可能にする、カメラモデルと較正手順とを含む。これは、得られる3次元再構成の高い精度を確実にする。
本発明のある好ましい実施形態において、このシステムは、再構成する3次元物体の画像を取得するためのテレセントリックレンズを有する2つ以上のラインスキャンカメラを備える。本発明では、テレセントリックレンズを有するラインスキャンカメラを、同義のものとしてテレセントリックラインスキャンカメラとも呼ぶ。さらに、この好ましい実施形態において、このシステムはさらに、3次元物体の、テレセントリックラインスキャンカメラに対する相対移動を生じさせる装置を含む。ある好ましい実施形態において、この装置は、たとえば、直線移動スライド、ベルトコンベア、またはその他のリニアアクチュエータにより、定速度の直線的な移動を実行する。ある好ましい実施形態において、このシステムは、以下で説明するステップを含む方法を実行するように構成されたコンピュータをさらに備える。ステップ1〜3は、システムの較正を処理し、オフラインで実行される、すなわち、システムを設定した後であって、再構成する3次元物体の画像を取得する前に、実行される。ステップ4〜7は、オンラインで実行され、3次元物体の画像取得と、テレセントリック画像の平行化と、視差推定と、実際の3次元再構成とを含む。
第1のステップにおいて、各テレセントリックラインスキャンカメラで、較正物体の1つ以上のテレセントリックラインスキャン較正画像を取得する。較正物体の姿勢はこれらの較正画像で異なる。較正物体は、世界単位(世界座標)の既知の3次元座標の複数のコントロールポイントを有する。テレセントリックラインスキャン較正画像を、較正物体をテレセントリックラインスキャンカメラに対して相対移動させることによって取得する。較正物体の各姿勢および各カメラごとに、取得した1次元画像ラインを互いの上に積み重ねることにより、テレセントリックラインスキャン較正画像を生成する。ある好ましい実施形態において、各テレセントリックラインスキャンカメラを用いて、平坦な較正物体の複数のテレセントリックラインスキャン画像を取得する。ある代替実施形態において、各テレセントリックラインスキャンカメラを用いて1つのテレセントリックラインスキャン画像を取得する。結果として、各カメラごとに、1セットのテレセントリックラインスキャン較正画像が得られ、このセットは少なくとも1つの画像を含む。意義のある較正のためには、すべての画像を、テレセントリックラインスキャンカメラと較正物体との同一の相対移動によって取得することが重要である。
第2のステップにおいて、テレセントリックラインスキャン較正画像に基づいてカメラ較正を実行する。そのために、画像生成プロセスおよびカメラ間の相対姿勢(複数の相対姿勢)を正確に記述することができる適切なカメラモデルを定める。ある好ましい実施形態において、較正物体の目に見えるコントロールポイントの2次元位置が、テレセントリック較正画像(画像座標)において自動的に測定される。さらに、較正物体の、測定した2次元画像の点と3次元の点との対応関係が、自動的に求められる。カメラモデルのパラメータを、テレセントリックラインスキャン較正画像における抽出されたコントロールポイントの画像点の2次元座標を、較正物体の対応する点の3次元座標に関連付ける誤差を最小にすることにより、求める。
この較正の結果、カメラパラメータの値が得られる。カメラパラメータは、すべてのカメラの内部オリエンテーションのパラメータと、すべてのカメラ間の相対オリエンテーションのパラメータと、すべてのテレセントリックラインスキャン較正画像における較正物体の絶対オリエンテーションのパラメータとを含む。
第3のステップにおいて、第2のステップのカメラ較正から得られたカメラパラメータに基づいて、テレセントリックラインスキャンカメラのペアのテレセントリックラインスキャン画像ペアを平行化するのに使用できるテレセントリック平行化マッピングを計算する。テレセントリック平行化マッピングは、ステレオ画像平行化を表し、したがって、テレセントリックラインスキャン画像ペアの、エピポーラ標準幾何学に従う幾何学的変換を記述する。したがって、このマッピングをテレセントリックラインスキャン画像ペアに適用すると、得られる平行化後のテレセントリックラインスキャン画像ペアにはレンズ歪みがなく、対応する画像点は同一の画像行にある。
本発明のある好ましい実施形態において、上述の先行する3つのステップは、システムを設定した後または修正後にオフラインで一度実行される。そのため、これら3つのステップは、カメラセットアップが変更され、この変更がカメラ較正中に推定したパラメータに影響する場合に限り、再度実行する必要がある。テレセントリック平行化マッピングを、後にオンライン段階で使用するために格納する。ある好ましい実施形態において、平行化マッピングをルックアップテーブル(LUT)として格納することにより、オンライン段階における効率的な平行化を可能にする。LUTは、平行化後のテレセントリックラインスキャン画像における画素ごとに、元のテレセントリックラインスキャン画像における対応する画素の位置を格納する。任意で、LUTに、適切なグレー値内挿のための重みを含めることにより、最終的な3次元再構成のより高い精度をもたらすより高い品質の平行化後画像を得てもよい。
第4のステップにおいて、オンライン段階は、先行する3つのステップで説明した方法で以前に較正されたセットアップを用いて、再構成する3次元物体のテレセントリックラインスキャン画像を取得することから始まる。3次元再構成の場合に少なくとも2つのカメラが必要なので、この好ましい実施形態において、テレセントリックラインスキャン画像ペアを、テレセントリックラインスキャンカメラのペアを用いて取得する。これに代わる実施形態では、テレセントリックラインスキャン画像ペアを、3つ以上のテレセントリックラインスキャンカメラから選択する。各テレセントリックラインスキャン画像を、第1のステップでテレセントリックラインスキャン較正画像の取得中に実行したときと同じ相対移動を実施することにより、生成する。
第5のステップにおいて、再構成する3次元物体の取得したテレセントリックラインスキャン画像ペアを、第3のステップで計算したテレセントリックラインスキャンカメラの各ペアのテレセントリック平行化マッピングを適用することにより、平行化する。得られた平行化後のテレセントリックラインスキャン画像ペアにおける対応する点は、同一の画像行にある。さらに、得られた平行化後のテレセントリックラインスキャン画像ペアにはレンズ歪みがない。
任意の第6のステップにおいて、結果として得られた平行化後のテレセントリックラインスキャン画像ペアから、エピポーラ標準幾何学を活用する、利用できるさまざまなステレオマッチング手法のうちの1つにより、視差を計算する。本発明のある好ましい実施形態において、稠密視差推定の手法を適用すると、画定された各画素ごとに視差値を含む視差画像が得られる。たとえば遮られた場合(occlusions)または低テクスチャ画像部分において、対応する画素を確実に決定できないときは、画定されない画素が発生する可能性がある。ある好ましい実施形態において、テンプレートマッチングに基づく稠密視差推定の手法が適用される。
任意の第7のステップにおいて、第6のステップで計算した視差を距離に変換する。この変換は、平行化後のテレセントリックラインスキャン画像ペアの内部および相対オリエンテーションに基づいて行われる。ある好ましい実施形態において、視差画像の画定された各画素ごとに距離を計算することにより、距離画像を生成する。ある好ましい実施形態において、距離画像は3次元物体の再構成を表す。ある代替実施形態において、距離値を、距離画像におけるその行座標および列座標に基づいて、かつ、平行化後のテレセントリックラインスキャン画像ペアの内部オリエンテーションに基づいて、3次元座標にさらに変換する。
ある局面に従い、本発明は、少なくとも2つのラインスキャンカメラを用いて3次元物体を再構成するためのシステムを提供する。このシステムは、
(a)少なくとも2つのテレセントリックラインスキャンカメラと、
(b)上記3次元物体の、上記テレセントリックラインスキャンカメラに対する相対移動を生じさせるように構成された少なくとも1つの装置と、
(c)コンピュータとを備え、このコンピュータは、
(c1)上記相対移動を生じさせながら、各テレセントリックラインスキャンカメラを用いて、1つ以上の画像を含むテレセントリックラインスキャン較正画像のセットを取得し、
(c2)上記テレセントリックラインスキャン較正画像のセットに基づいてカメラ較正を実行し、
(c3)上記カメラ較正の結果に基づいて、テレセントリックラインスキャンカメラのペアのテレセントリックラインスキャン画像ペアを平行化するテレセントリック平行化マッピングを計算し、
(c4)上記相対移動を生じさせながら、テレセントリックラインスキャンカメラのペアを用いて上記3次元物体のテレセントリックラインスキャン画像ペアを取得し、
(c5)上記テレセントリック平行化マッピングを用いて、上記3次元物体の上記テレセントリックラインスキャン画像ペアを平行化することにより、平行化されたテレセントリックラインスキャン画像ペアを生成するように、構成されている。
コンピュータはさらに、上記平行化されたテレセントリックラインスキャン画像ペアから視差を計算するように構成されてもよく、視差は再構成された3次元物体を表す。
コンピュータはさらに、上記視差を距離に変換することにより、上記3次元物体を再構成したものを生成するように構成されてもよい。
コンピュータはさらに、上記視差を3次元座標に変換することにより、上記3次元物体を再構成したものを生成するように構成されてもよい。
上記相対移動は好ましくは直線移動である。この直線移動は定速度であってもよい、または、この直線移動は可変速度であり上記テレセントリックラインスキャン画像の画像取得を適切にトリガすることによって定速度を確保してもよい。
較正画像は較正物体の画像であってもよい。較正物体は平坦な較正物体であってもよい。較正物体は3次元較正物体であってもよい。
好ましくは、上記カメラ較正においてカメラパラメータを求め、これらのカメラパラメータは、テレセントリックラインスキャン較正画像の外部オリエンテーションのパラメータと、各テレセントリックラインスキャンカメラごとの、相対オリエンテーションおよび内部オリエンテーションのパラメータとを含む。
テレセントリック平行化マッピングは、テレセントリックラインスキャンカメラのペアのテレセントリックラインスキャン画像ペアを、エピポーラ標準幾何学に従って平行化してもよい。
テレセントリック平行化マッピングはルックアップテーブルに格納されてもよい。ある実施形態に従うと、上記テレセントリックラインスキャン画像ペアを平行化することは、上記ルックアップテーブルを上記テレセントリックラインスキャン画像ペアに適用することを含む。
上記平行化されたテレセントリックラインスキャンペアから視差を計算することは、視差画像を生成する稠密視差推定を含み得る。
さらに、上記視差を距離に変換することは、距離画像を計算することを含み得る。
ある実施形態に従うと、カメラ較正を、スパース・レーベンバーグ・マーカートアルゴリズムを適用することによって実行する。
本発明は、以下の詳細な説明および添付の図面から、より一層十分に理解されるであろう。
基本的にカメラ較正とテレセントリック平行化マッピングの計算とを含む、本発明のオフライン部分のステップを示す図である。 基本的に画像平行化と、視差値の計算と、任意で視差値から距離値または3次元座標への変換とを含む、本発明のオンライン部分のステップを示す図である。 エントセントリックラインスキャンカメラのカメラモデルを示す図である。 2つのテレセントリックラインスキャンカメラを用いるステレオセットアップの一例を示す図であり、カメラはトラック平行構成で儲けられ、ライン形状の光源を用いて双方のセンサラインのフットプリントをカバーし、エンコーダが画像取得をトリガすることにより、確実に、双方のカメラで同時に取得することおよび定速度を保証する。 円形のコントロールポイントを有する平坦な較正物体の2つの例を示す図である。
好ましい実施形態の詳細な説明
本発明のある好ましい実施形態において、システムは、再構成する3次元物体403の画像を取得するための2つのテレセントリックラインスキャンカメラ401(図4参照)を含む。本発明のある代替実施形態において、このシステムは、少なくとも2つのテレセントリックラインスキャンカメラのマルチビューセットアップを含む。3つ以上のカメラのマルチビューセットアップは、たとえば、世界において再構成可能な領域を拡大するのに役立ち得る。したがって、遮られている物体の部分の比率を最小にすることもできる。これに代えてまたはこれに加えて、カメラの数を多くすることにより、3次元再構成の精度を高めることができ、その理由は、物体の特定部分が複数の方向から観察されるからである。本開示の範囲において、「2つ以上のカメラ」は必ずしも2つ以上の物理的カメラを使用しなければならないことを意味する訳ではない。むしろ、2つ以上のカメラは、1つの物理的カメラを用い、このカメラで異なる視野(perspective)から画像を取得することによって実現することもできる。たとえば、1つのテレセントリックラインスキャンカメラを、異なる複数の予め定められた経路を辿るロボットアームに搭載することにより、複数のカメラを実現することができる。
さらに、この好ましい実施形態において、本システムは、テレセントリックラインスキャンカメラに対して3次元物体の相対移動を生じさせる装置404をさらに含む。ある好ましい実施形態において、この装置は、たとえば、直線移動スライド、ベルトコンベア、またはその他のリニアアクチュエータにより、定速度の直線的な移動を実行する。代替実施形態において、可変速度の直線的な移動を用いてもよい。後者の場合、画像取得をトリガする407エンコーダ406を用いることにより、等距離画像取得を保証してもよい。これにより、可変速度の移動を、定速度の移動に容易に変換することができる。結果として、エンコーダを用いることにより、定速を想定するカメラモデルを、定速の移動を提供しない、相対移動を実現するための装置を使用する用途にも、適用することができる。
ある好ましい実施形態において、本システムは、以下で詳述する7つのステップを含む方法を実行するように構成されたコンピュータをさらに含む。ステップ1〜3は、システムの較正を扱い、オフラインで実行される、すなわち、システムを設定した後であって、再構成する3次元物体の画像を取得する前に、実行される。オフライン段階の個々のステップは、図1において視覚化されている。ステップ4〜7は、オンラインで実行され、3次元物体の画像取得と、テレセントリック画像の平行化と、視差推定と、実際の3次元再構成とを含む。オンライン段階の個々のステップは、図2において視覚化されている。
テレセントリックラインスキャン較正画像のセットの取得
第1のステップ101において、各テレセントリックラインスキャンカメラで、1つ以上のテレセントリックラインスキャン較正画像を取得する。本発明のある好ましい実施形態において、較正画像は、較正物体の画像である。本発明のある代替実施形態において、較正画像が較正物体を必ずしも含む必要がない非較正ステレオの方法が適用される。較正物体を使用するとき、較正物体の姿勢は、複数の較正画像で異なる。較正物体は、世界単位(世界座標)の既知の3次元座標の複数のコントロールポイントを有する。ある好ましい実施形態において、円形のコントロールポイントを有する平坦な較正物体が使用される(Steger et al. 2018, Chapter 3.9.4.1)。ある代替実施形態において、チェッカー盤のデザインの平坦な較正物体が使用される。較正物体のその他のデザインは、本発明の範囲から逸脱することなく容易に使用できる。平坦な較正物体を使用する場合、一般的に、すべてのカメラパラメータ(以下を参照)を明確に求めるためには、少なくとも2つのテレセントリックラインスキャン較正画像が必要である。ある代替実施形態において、カメラパラメータのサブセットを求めるために1つのテレセントリックラインスキャン較正画像を使用しつつ、残りのカメラパラメータを固定値に保つ。別の代替実施形態において、3次元較正物体が使用される。平坦な較正物体とは異なり、3次元較正物体のコントロールポイントは共通平面に存在しない。3次元較正物体のデザインに応じて、すべてのカメラパラメータを1つの較正画像で求めることも可能であろう。
テレセントリックラインスキャン較正画像を、テレセントリックラインスキャンカメラに対して較正物体を相対移動させることにより、取得する。較正物体の各姿勢およびカメラごとに、取得した1次元画像を積み重ねることにより、テレセントリックラインスキャン較正画像を生成する。ある好ましい実施形態において、平坦な較正物体の複数のテレセントリックラインスキャン画像を、各テレセントリックラインスキャンカメラで取得する。ある代替実施形態において、1つのテレセントリックラインスキャン画像を、各テレセントリックラインスキャンカメラで取得する。結果として、ステップ102において、カメラごとに1セットのテレセントリックラインスキャン較正画像が得られ、このセットは少なくとも1つの画像を含む。意義のある較正のためには、すべての画像を、同一の相対移動によって取得することが重要である。
カメラ較正
第2のステップ(103)において、テレセントリックラインスキャン較正画像に基づいてカメラ較正を実行する。そのために、画像生成プロセスおよびカメラ間の相対姿勢(複数の相対姿勢)を正確に記述することができる適切なカメラモデルを定める。ある好ましい実施形態において、較正物体の目に見えるコントロールポイントの2次元位置が、テレセントリックラインスキャン較正画像(画像座標)において自動的に測定される。さらに、較正物体の、測定した2次元画像の点と、3次元の点との対応関係が、自動的に求められる(Steger et al. 2018, Chapter 3.9.4.1)。ある代替実施形態において、較正画像内で2次元画像の点をユーザが手作業で測定し、ユーザは対応関係も特定する。カメラモデルのパラメータ(カメラパラメータ)を、テレセントリックラインスキャン較正画像における抽出されたコントロールポイントの画像点の2次元座標を、較正物体の対応する点の3次元座標に関連付ける誤差を最小にすることにより、求める。
以下、任意の数のテレセントリックラインスキャンカメラのシステム(マルチビューセットアップ)を詳細に説明する。
テレセントリックラインスキャンカメラのマルチビューセットアップのカメラモデルは、エリアスキャンカメラのマルチビューセットアップのカメラモデルに基づく。したがって、最初に、エリアスキャンカメラのマルチビューセットアップのカメラモデルを再考する。
エリアスキャンカメラのマルチビューセットアップのカメラモデル
エリアスキャンカメラのカメラモデルは(Steger 2017, Section 6.1)における記載に基づく。これは、n個のカメラでマルチビューセットアップをモデル化することができる。カメラを較正するために、較正物体の、姿勢が異なるn個の画像を使用する。較正物体の各姿勢l(l=1,…,n)は、較正物体の座標系から基準カメラrのカメラ座標系への点変換を定める。以下、一般性を失うことなくr=1であると仮定する。なぜなら、カメラの番号は任意に付け直すことができるからである。p=(x,y,zは較正物体の座標系における点を表すものとする。この点の較正物体座標系から基準カメラ座標系への変換は以下のように記述することができる。
Figure 2021173740
ここで、t=(tl,x,tl,y,tl,zは並進ベクトルであり、Rは回転行列である。Rは、オイラー角により、R=R(α)R(β)R(γ)としてパラメータ表記される。この変換を外部オリエンテーションと呼ぶ。
次に、点pをカメラκ(κ=l,…,n)のカメラ座標系に変換する。
Figure 2021173740
式中、Rκ=R(ακ)R(βκ)R(γκ)およびtκ=(tκ,x,tκ,y,tκ,zは、カメラlに対するカメラκの相対姿勢を記述している。よって、上記取り決めでは、κ=1の場合Rκ=Iおよびtκ=0となる。したがって、1つのカメラのみを較正する場合、(2)の変換は冗長であり省略することができる。
軸−角度パラメータ表記、四元数その他のような、変換のまたは回転のその他のパラメータ表記を、本発明の範囲から逸脱することなく使用することができる。
次に、点pκ=(xκ,yκ,zκを、画像面(画像面座標系)に投影する。エントセントリックレンズの場合、投影は以下によって与えられる。
Figure 2021173740
式中、cはレンズの主点距離である。テレセントリックレンズの場合、投影は以下によって与えられる。
Figure 2021173740
式中、mはレンズの倍率である。
続いて、歪み補正後の点(undistorted point)(x,yを歪ませて点(x,yにする。本発明のある好ましい実施形態において、以下の2つの歪みモデルのうちの一方が適用され(Steger 2017, Section 6.1; Steger et al 2018, Chapter 3.9.1.3)、これらのモデルは、分割モデル(Lenz and Fritsch 1990; Lanser 1997; Blahusch et al. 1999; Fitzgibbon 2001; Steger 2012)および多項式モデル(Brown 1966, 1971)である。
分割モデルにおいて、歪み補正後の点(x,yは、歪んだ点から、以下によって計算される。
Figure 2021173740
分割モデルは解析的に次のように反転させることができる。
Figure 2021173740
分割モデルは放射状歪み(radial distortion)のみをサポートする。
多項式モデルは放射状歪みおよび偏心歪み(decentering distortion)をサポートする。歪み補正後の点は以下によって計算される。
Figure 2021173740
この多項式モデルは解析的に反転させることはできない。歪み補正後の点からの、歪んでいる点の計算は、数値求根アルゴリズムによって実行されなければならない。
異なる歪みモデルを、たとえば、分割または多項式モデルよりも使用されるレンズの歪みに良く適合するという理由で、本発明の範囲から逸脱することなく適用することができる。
最後に、歪んでいる点(x,yを画像座標系に変換する。
Figure 2021173740
ここで、sおよびsは、センサ上の画素ピッチを表し、(c,cは主点である。x座標は、画像内の横軸(右に向かって増加)を意味し、y座標は縦軸(下に向かって増加)を意味する。
結果として、テレセントリックエリアスキャンカメラのカメラモデルは、以下のカメラパラメータからなる。
・外部オリエンテーション(n個の画像における較正物体の姿勢のモデル化)の6つのパラメータ:α,β,γ,tl,x,tl,y,およびtl,z
・カメラlに対するn個のカメラの相対オリエンテーションの6つのパラメータ:ακ,βκ,γκ,tκ,x,tκ,y,およびtκ,z
・各カメラの内部オリエンテーション(簡略化のためにここでは上付き文字κを省略する):cまたはm;κまたはΚ,Κ,Κ,P,P;s,s,c,c
カメラモデルの較正は(Steger 2017, Sections 9 and 10)において詳述されている。
上記パラメータ表記は、マシンビジョンユーザにとって非常に直観的である(Steger 2017, Section 6.1)。すべてのパラメータには、理解し易い物理的意味がある。内部オリエンテーションパラメータのおおよその初期値は、カメラ(sおよびs)およびレンズ(cまたはm)のデータシートから簡単に読取ることができる、または他のやり方で容易に取得できる(主点の初期値は画像の中心に設定することができ、歪み係数は典型的に0に設定することができる)。さらに、較正結果の妥当性は調べるのが簡単である。
単一のエントセントリックラインスキャンカメラのカメラモデル
テレセントリックラインスキャンカメラのカメラモデルは、(MVTec Software GmbH 2005a, b)に最初に記載されたエントセントリックラインスキャンカメラのカメラモデルに基づく。したがって、このセクションでは、単一のエントセントリックラインスキャンカメラのカメラモデルについて再考する。エントセントリックラインスキャンカメラのカメラモデルの詳細は、(Steger et al. 2018, Chapter 3.9.3)においても見出すことができる。このカメラモデルは、単一のエントセントリックラインスキャンカメラを想定する。次に、このモデルを単一のテレセントリックラインスキャンカメラに拡張し、続いてテレセントリックラインスキャンカメラのマルチビューセットアップに拡張する。
単一のエントセントリックラインスキャンカメラのモデルは、図3において視覚化されている。このモデルは、ラインスキャンカメラ301と物体307との相対移動は、定速度で直線状であると仮定する。したがって、カメラの動きは、カメラ座標系の動きベクトルν=(ν,ν,νで説明することができる。ベクトルνは、(基準)カメラ座標系におけるスキャンライン当たりのメートルの単位で記述される(すなわち単位はmPixel−1)。このνの定義は、動いているカメラと固定された物体を想定している。カメラが静止し、物体がたとえばベルトコンベア上で動いている場合、負の動きベクトル−νを使用することができる。
カメラ座標系303の原点は、レンズの入射瞳の中心にある。x軸はセンサラインに対して平行、z軸に対して垂直である。y軸は、センサラインおよびz軸に対して垂直である。これは、動きベクトルが正のy成分を有する向きにされる、すなわち、固定された物体を想定する場合、y軸は、カメラが動いている方向に向いている。
エリアスキャンカメラの場合と同様、較正物体の座標系302からカメラの座標系303への変換は、(1)によって与えられる。エリアスキャンカメラとは異なり、外部オリエンテーションは、画像の第1のラインのみを指す。カメラは物体に対して相対的に動くので、外部オリエンテーションは、ラインごとに異なる。しかしながら、直線的な移動を想定するので、動きベクトルνを用いることにより、すべてのラインの外部オリエンテーションを計算することができる。したがって、1つの外部オリエンテーションで十分である。
最大の測定精度のために、カメラモデルは、センサラインが光軸に対して完全に位置合わせされていないラインスキャンカメラをサポートする必要がある。したがって、センサラインは、仮想エリアスキャンカメラの1つの特定のラインとしてモデル化される。主点(c,cを用いてこの位置ずれをモデル化する(304)。cの意味は、エリアスキャンカメラの場合とはわずかに異なっており、c=0は、センサラインがy方向の光軸に対して完全に位置合わせされていることを意味する。主点は、画像面座標系の原点を定める。
カメラモデルの残りのパラメータは、エリアスキャンカメラのものと同一であり(上記参照)、cは主点距離308であり、レンズの歪みは(5)および(7)によって記述され、s309およびs310は、センサ上の画素ピッチを記述する。
カメラ座標系に与えられた点pκの投影を計算するために、pκは直線pκ−tνに沿って移動するという事実を利用することができ、tは第1のスキャンライン以降に取得されたスキャンラインの数である。この点は、移動すると、ある点で、画像点の光線と、これがセンサライン上の点p(x,0)に投影された場合、交差する。主点の上記定義は、センサライン上の点のy座標が0であることを暗に示している。エントセントリックカメラの光線(311)を得るために、(8)を反転させる。
Figure 2021173740
次に、レンズ歪みを、(5)または(7)を適用して平行化することで、画像面座標系(304)における歪み補正後の座標を得る。エントセントリックレンズの場合、光線は以下によって与えられる。
Figure 2021173740
点pを、(9)により、歪んだ画像点pに変換した、すなわち、(x,y=(s(x−c),−sと仮定する。さらに、(5)または(7)の歪み補正関数u(p)=(u(x,y),u(x,y))を呼び出す。次に、動いている点と光線の交点は、結果として以下の方程式系となる。
Figure 2021173740
分割モデル(5)の場合、方程式系は、以下に特化される。
Figure 2021173740
分割および多項式歪みモデルの場合多項式系である、方程式系(11)を、λ、t、およびxについて解かねばならない。分割モデルの方程式系(12)は、解析的に解くことができ、多項式系のものは数値的に解くことができる。tおよびxが決まると、この点は以下によって画像座標系に変換される。
Figure 2021173740
エントセントリックレンズを有するラインスキャンカメラの内部オリエンテーションは、したがって、パラメータc;κまたはΚ,Κ,Κ,P,P;s,s,c,c,ν,ν,およびνによって与えられる。よって、本発明のある好ましい実施形態において、動きベクトルνは、内部オリエンテーションの一部である。なぜなら、これは、カメラ座標系に与えられた点の投影に影響するからである((11)参照)。本発明のある代替実施形態において、動きベクトルは、外部オリエンテーションの一部である。
エントセントリックラインスキャンカメラの場合、c≠0であれば、レンズの歪みを完全に取り除くことは不可能であることに注目することが重要である。この場合、画像点の光線は、1つの点を平行化後の画像に投影するのではない。したがって、レンズの歪みを完全に取り除くには、3次元再構成が利用可能でなければならない。なぜなら、そうすれば、平行化後の画像に投影できる固有の3次元の点を再構成できるからである。
単一のテレセントリックラインスキャンカメラのカメラモデル
単一のテレセントリックラインスキャンカメラのカメラモデルの第1の部分は、単一のエントセントリックラインスキャンカメラのカメラモデルの第1の部分と同一である、すなわち、較正物体座標系からの点を(1)および(2)によってカメラ座標系に変換する。点pκを画像に投影するために、エントセントリックラインスキャンカメラと同一の手法を用いる、すなわち、その上で点が移動するラインを、それを投影する点の光線と交差させる。テレセントリックレンズの光線の方程式は以下によって与えられる。
Figure 2021173740
結果として以下の方程式系になる。
Figure 2021173740
この場合、u(p)=(u(x,y),u(x,y))は、エントセントリックの場合と同じ方法で定められる。λが(15)および(16)にはないことがわかる。したがって、zκもνも投影に影響を与えず、(17)は省略できる。結果として、テレセントリックレンズを有するラインスキャンカメラは、テレセントリックレンズを有するエリアスキャンカメラと同様に、直交投影を実行する。
多項式モデルの場合、(15)および(16)は、未知のxおよびtの7次の多項式系を定める。このため、これらの式は解析的に解くことができない、すなわち、数値求根アルゴリズムを用いることによってこれらを解かねばならない。しかしながら、分割モデルの場合は解析的に解くことが可能である。(15)および(16)を分割モデルに特化させると、結果として以下の方程式系が得られる。
Figure 2021173740
(20)を(18)に代入しxの累乗に従って項をソートすると次のようになる。
Figure 2021173740
Figure 2021173740
よって、κ≠0およびx≠0の場合、次のようになる。
Figure 2021173740
κ=0またはx=0の場合、(22)は線形方程式に縮約される。よって両方のケースについて検討する。x=0の場合、次のようになる。
Figure 2021173740
(23)および(24)から得られたxの値を(20)に挿入すると双方のケースのtの値が得られる。
κ=0の場合、次のようになる。
Figure 2021173740
この場合、(20)は以下のように簡約できる。
Figure 2021173740
κ=0の場合、yすなわちcに意味はない。したがって、κ=0が事前にわかっていれば、c(と、したがってyと)を0に設定する必要があり、そうすると式はさらに以下のように簡約される。
Figure 2021173740
レンズ歪みがある場合、(23)から、画像への投影には2つの解が存在し得ることがわかる。一方、(24)および(25)の歪みなしの場合、固有の解がある。(23)の正しい解は常に以下によって与えられることがわかる。
Figure 2021173740
画像点(x,yの光線は以下のように計算できる。最初に、(13)を反転させる。
Figure 2021173740
次に、(15)および(16)を(xκ,yκについて解く。
Figure 2021173740
式中、y=−sである。そうすると光線は以下によって与えられる。
Figure 2021173740
エントセントリックレンズを有するラインスキャンカメラとは異なり、テレセントリックレンズを有するラインスキャンカメラの場合、レンズの歪みを完全に取り除くことが可能である。なぜなら、(15)および(16)はzκに依存していないからである。画像の点(x,yが与えられると、カメラ座標系における対応する点(xκ,yκは、(30)〜(32)で計算することができる。次に、この点を、その歪み係数がすべて0に設定されている平行化されたカメラに投影することができる。加えて、画素のいずれのスキューも、νをmin(s,mν)に設定し次にνをs/mに設定することによって取り除くことができる。この手法は、画像の平行化時にエイリアシングが生じないことを保証する。
単一のテレセントリックラインスキャンカメラの較正
カメラ較正は、カメラパラメータ、すなわち、単一のテレセントリックラインスキャンカメラの場合は内部および外部オリエンテーションのパラメータ、を求めるプロセスである。カメラを、較正物体を用いて較正する。較正物体は、その3次元世界座標がわかっていなければならない、十分な数のコントロールポイントを含む。「発明の背景」のセクションで述べたように、さまざまなタイプの較正物体をこのタスクに使用することができる。本発明のある好ましい実施形態において、円形のコントロールポイントを有する平坦な較正物体を用いる。この種の較正物体の2つの例が、図5に示されている。以下の記載では、説明のために円形のコントロールポイントを有する平坦な較正物体を使用するが、これに代えて、その他の較正物体を、本発明の範囲から逸脱することなく使用できる。ある代替実施形態において、たとえば、チェッカー盤パターンを有する平坦な較正物体を較正に使用する。別の代替実施形態において、コントロールポイントが1つの面に限定されない3次元較正物体を使用する。
較正物体のコントロールポイントの中心の、既知の3次元座標をpで表す(j=1,…n、nは較正物体上のコントロールポイントの数を表す)。ユーザは較正物体のn個の画像を取得する。画像l内の較正物体の外部オリエンテーションパラメータをeで表し(l=1,…,n)、カメラの内部オリエンテーションパラメータをiで表し、較正物体の座標系における点の、画像座標系への投影を、πで表す(前のセクションを参照)。加えて、νjlが、較正物体の観察lのコントロールポイントjがカメラで見える場合は1でありそうでなければ0である関数を表すものとする。最後に、pjlが、画像l内のコントロールポイントjの位置を表すものとする。そうすると、カメラは以下の関数を最小にすることによって較正される。
Figure 2021173740
この最小化は、ガウス・ニュートンアルゴリズム、勾配降下アルゴリズム、レーベンバーグ・マーカートアルゴリズム、または同様の手法のような、適切な最適化アルゴリズムを用いることによって実施される。本発明の好ましい実施形態において、(Hartley and Zisserman, 2003, Appendix A6)に記載されているスパース・レーベンバーグ・マーカートアルゴリズム(sparse Levenberg-Marquardt algorithm)の適切なバージョンが適用される。
円形のコントロールポイントを有する平坦な較正物体を使用する場合、点pjlを、楕円(Fitzgibbon et al., 1999)を、サブピクセル精度エッジ抽出器(Steger 1998, Chapter 3.3; Steger 2000)を用いて抽出したエッジにフィットさせることにより、抽出する。Steger(2017, Section 5.2)ならびにMallonおよびWhelan(2007)に記載されているように、これによって点の位置にバイアスが生じる。テレセントリックラインスキャンカメラは直交投影を実施するので、パースペクティブバイアスは存在しない、すなわち、バイアスは歪バイアスのみからなる。このバイアスは、Steger(2018, Section 10)に記載されているエントセントリックラインスキャンカメラのための手法で取り除くことができる。
(34)の最適化は、既知のカメラパラメータの初期値を必要とする。動きベクトル以外の内部オリエンテーションパラメータの初期値は、「エリアスキャンカメラのマルチビューセットアップのカメラモデル」で述べたように、カメラおよびレンズの仕様から得ることができる。エリアスキャンカメラとは異なり、典型的にはc=0を初期値として使用する。νの近似値は通常ラインスキャンカメラセットアップに至った考察からわかるであろう。最後に、νは典型的には0に設定される。内部オリエンテーションの初期値がわかっているので、画像点pjlを、(30)〜(32)を用いてカメラ座標系のメトリック座標に変換することができる。これは、較正物体の外部オリエンテーションの推定を得るための、Steger(2018)に記載されているOnPアルゴリズムの使用を可能にする。
モデル縮退
テレセントリックラインスキャンカメラのモデルは、過剰パラメータ化(overparameterize)される。mおよびsの値を同時に求めることはできない。これは、ユーザが指定した初期値にsを固定することによって解決できる。さらに、エンセントリックラインスキャンカメラの場合のように、sは、画素における主点を特定するためにだけ使用されるので、ユーザが指定した初期値に固定された状態に保たれる。
テレセントリックエリアスキャンカメラの場合のように、(c,cは、テレセントリックラインスキャンカメラのレンズ歪みによってのみ定められる。レンズ歪みがなければ、(c,cおよび(tl,x,tl,yは同じ効果を有する。したがって、この場合、(c,cは、ユーザが指定した初期値に固定し続ける必要がある(典型的に、cは水平画像中心に設定され、cは0に設定される)。
エントセントリックラインスキャンカメラの場合のように、多項式歪みモデルのパラメータPおよびPは、とりわけ放射状歪みが小さい場合、テレセントリックラインスキャンカメラモデルのその他のパラメータとの相関性が高い。したがって、一般的にはこれらを確実に求めることはできない。結果として、実際、これらは0に設定する必要があり較正から除外する必要がある。
もνも、投影に何の効果も与えないので、求めることができない(「単一のテレセントリックラインスキャンカメラのカメラモデル」のセクション参照)。これに対処する、可能な1つの方法は、νを、ユーザが指定した初期値のままにし、tを1mに設定することである。
νの符号は不明確である。そのため、ユーザはνの初期値を正しい符号で指定することにより、確実に較正が正しい解に収束するようにしなけらばならない。
テレセントリックエリアスキャンの場合のように、平坦な較正物体の姿勢の回転は、最大2通りの曖昧さまでのみ求められる可能性がある。2セットの姿勢パラメータ(α,β,γ)および(−α,−β,γ)(並進ベクトルが同一)は、結果として画像内の同一の点になる。用途において較正物体の正しい外部オリエンテーションが必要である場合、ユーザはこの曖昧さを過去の知識に基づいて正しい姿勢を選択することによって解消しなければならない。
平坦な較正物体の、x軸を中心とする回転を、速度νおよび並進tのさまざまな値と交換することができる。さらに、平坦な較正物体の、y軸を中心とする回転を、倍率m、速度ν、および並進tのさまざまな値と交換することができる。
テレセントリックラインスキャンカメラは、平坦な較正物体の1つの画像から十分に較正することはできない。このため、すべてのパラメータが曖昧に求められることになる場合は、外部オリエンテーションが異なる平坦な較正物体の複数の画像を用いてカメラを較正しなければならない。
マシンビジョン用途において、1つの画像からすべてのカメラパラメータを較正することが重要な場合がある。先の説明が示すように、そうすると、平坦な較正物体を使用する場合は、カメラパラメータはその真の値と異なることになる。しかしながら、較正の残余誤差が十分に小さければ、較正物体の外部オリエンテーションによって定められた平面内で整合したカメラ構成が得られる(すべての平面がこれに平行)。したがって、ある画像、またはある画像から抽出した特徴を、この平面に平行化することができる。一方、内部オリエンテーションのみに依存するアルゴリズム、たとえば、放射状歪みの完全な除去は、有用性が低い。なぜなら、mおよびνについての曖昧さは、画像の、または、方形画素を得るために画像から抽出した特徴の歪みを確実に補正できないことを示唆する。
テレセントリックラインスキャンカメラのマルチビューセットアップのカメラモデル
テレセントリックレンズを有するラインスキャンカメラを用いてステレオ再構成を実施するためには、少なくとも2つのカメラを備えたステレオセットアップが必要である。そのために、「単一のテレセントリックラインスキャンカメラのカメラモデル」のセクションで説明した単一のテレセントリックラインスキャンカメラのカメラモデルを、マルチビューの場合に拡張する。これは、「エリアスキャンカメラのマルチビューセットアップのカメラモデル」のセクションで説明した、エリアスキャンカメラの場合と同様の方法で行うことができる。結果として、テレセントリックラインスキャンカメラのマルチビューセットアップのカメラモデルは、ステップ104において以下のカメラパラメータを含む。
・外部オリエンテーション(n個の画像における較正物体の姿勢のモデル化)の6つのパラメータ:α,β,γ,tl,x,tl,y,およびtl,z
・カメラlに対するn個のカメラの相対オリエンテーションの6つのパラメータ:ακ,βκ,γκ,tκ,x,tκ,y,およびtκ,z
・各カメラの内部オリエンテーション:mκ;κκまたはΚκ,1,Κκ,2,Κκ,3,Pκ,1,Pκ,2;sκ,x,sκ,y,cκ,x,cκ,y,νκ,x,νκ,y,およびνκ,z
このカメラモデルは、固定された物体に対して独立して移動するカメラをモデル化することができる。したがって、各カメラは個々の動きベクトルνκ=(νκ,x,νκ,y,νκ,zを有する。
代わりに、カメラが相互に固定されて載置され物体がカメラに対して相対的に移動する場合、個々のカメラの動きベクトルは、対応する相対オリエンテーションによって互いに関連付けられる。この場合、カメラモデルは、たとえば基準カメラ(たとえばカメラ1)のカメラ座標系に記述される1つのグローバル動きベクトルν=(ν,ν,νのみを有する。この場合、カメラモデルは以下のカメラパラメータからなる(ステップ104)。
・外部オリエンテーション(n個の画像における較正物体の姿勢のモデル化)の6つのパラメータ:α,β,γ,tl,x,tl,y,およびtl,z
・カメラ1に対するn個のカメラの相対オリエンテーションの6つのパラメータ:ακ,βκ,γκ,tκ,x,tκ,y,およびtκ,z
・各カメラの内部オリエンテーション:mκ;κκまたはΚκ,1,Κκ,2,Κκ,3,Pκ,1,Pκ,2;sκ,x,sκ,y,cκ,x,cκ,y
・基準カメラ1の動きベクトル:ν,ν,およびν
「エリアスキャンカメラのマルチビューセットアップのカメラモデル」のセクションで述べたように、基準カメラのカメラ座標系における点pを、(2)を適用することにより、カメラκ(κ=1,…,n)のカメラ座標系に変換する。これにより、カメラκの動きベクトルνκは、基準カメラの動きベクトルνを、対応する相対オリエンテーションの回転行列で乗算することによって得られる。
Figure 2021173740
テレセントリックラインスキャンカメラのマルチビューセットアップの較正
テレセントリックラインスキャンカメラのマルチビューセットアップの較正(103)は、「単一のテレセントリックラインスキャンカメラの較正」のセクションで述べた、単一のテレセントリックラインスキャンカメラの較正に基づく。固定された物体に対してカメラが独立して移動する場合、すなわち、各カメラに個別の動きベクトルが割り当てられている場合、テレセントリックラインスキャンカメラのマルチビューセットアップは、たとえば以下の関数を最小にすることによって較正できる。
Figure 2021173740
単一カメラの場合((34)参照)とは異なり、カメラの数nに対して追加の合計計算が行われる。νjκlは、較正物体の観察lのコントロールポイントjがカメラκで見える場合は1でありそうでなければ0である関数を表す。さらに、pjκlは、カメラκの画像lのコントロールポイントjの位置を表す。最後に、rκ(κ=1,…,n)は、基準カメラ1に対するカメラκの相対オリエンテーションパラメータを表す。なお、カメラκの内部オリエンテーションiκも各カメラの動きベクトルνκを含む。
カメラが相互に固定されて搭載され物体がカメラに対して相対的に移動する場合、テレセントリックラインスキャンカメラのマルチビューセットアップは、たとえば、以下の関数を最小にすることによって較正できる。
Figure 2021173740
この場合、基準カメラの動きベクトルνは、最適化におけるグローバルパラメータである。これは、相対オリエンテーションの回転部分のパラメータとともに(35)を適用することにより、カメラκに変換される。
ある代替実施形態において、最小化を、観察pjκlの個々の重みを導入して、たとえば、最適化中の観察の精度に関する知識を考慮することで、実施する。さらに、(36)および(37)において、誤差は画像座標系で最小化される。ある代替実施形態において、最小化を、代わりに、エリアスキャンカメラの較正についてSteger(2018, Section 3.9.4.2)に記載されているように、画像面座標系において実施する。
較正の結果、カメラパラメータの値(ステップ104)が得られる。カメラパラメータは、すべてのカメラの内部および相対オリエンテーションのパラメータと、すべての画像における較正物体の絶対オリエンテーションのパラメータとを含む。さらに、単一の動きベクトルの場合、カメラパラメータはグローバル動きベクトルの3つの成分をさらに含む。なぜなら、この場合の動きベクトルは個々の内部オリエンテーションの一部ではないからである。
2つのカメラの較正は、記載されているマルチカメラ較正の特殊なケースであることが容易に理解できるであろう。したがって、詳細な説明な冗長になるであろうから本明細書では省略する。さらに、カメラモデルおよび較正を拡張することにより、個々の動きベクトルおよびグローバル動きベクトルの任意の組み合わせを容易にサポートすることができる。組み合わされた動きベクトルが有用である応用の一例は、3つのカメラのうちの2つのカメラが相互に強固に接続されているため同一の動きベクトルを共有し第3のカメラが個々の動きを実施する、3つのカメラからなるシステムである。
テレセントリック平行化マッピングの計算
第3のステップ105において、カメラ較正の結果得られたカメラパラメータに基づいて、テレセントリックラインスキャンカメラのペアのテレセントリックラインスキャン画像ペアを平行化する、テレセントリック平行化マッピング(106)を計算する。したがって、3つ以上のカメラを備えたマルチビューセットアップの場合、ステレオ再構成のためにテレセントリックラインスキャンカメラのペアを選択する。
テレセントリック平行化マッピングは、テレセントリックラインスキャン画像ペアの、エピポーラ標準幾何学に従う幾何学的変換を説明し、これをステレオ画像平行化とも言う。したがって、このマッピングをテレセントリックラインスキャン画像ペアに適用すると、得られた、平行化後のテレセントリックラインスキャン画像ペアにはレンズ歪みがなく、対応する画像点は同じ画像行にある。
概念上、テレセントリック平行化マッピングの計算の第1の部分は、レンズ歪みがある場合はレンズ歪みの除去である。「単一のテレセントリックラインスキャンカメラのカメラモデル」のセクションで説明したように、テレセントリックレンズを有するラインスキャンカメラの場合、レンズの歪みを完全に取り除くことが可能である。したがって、テレセントリックラインスキャン画像ペアの元の各画像について、平行化後の画像における画素ごとに元の画像における対応する画素を含む、マッピングを計算する。平行化後の画像において、すべての歪み係数は0に設定される。加えて、画素のいかなるスキューも、たとえば、sをmin(s,mν)に設定し、次にνをs/mに設定することによって取り除く。
テレセントリック平行化マッピングの計算の第2の部分は、テレセントリックラインスキャン画像ペアの、エピポーラ標準幾何学に従う幾何学的変換である。平行化の第1の部分を説明したばかりなので、テレセントリックラインスキャン画像ペアは既にレンズ歪みおよび画素スキューがなく方形画素を有すると想定することができる。
本発明のある重要な側面は、歪みのないテレセントリックラインスキャンカメラを、テレセントリックエリアスキャンカメラとして表すことができることである。より具体的には、パラメータm=m,sx,l=s,sy,l=s,cx,l=c,cy,l=c,νx,l=0,およびνy,l=ν=s/mを有するテレセントリックラインスキャンカメラ(「単一のテレセントリックラインスキャンカメラのカメラモデル」のセクション参照)を、パラメータm=m,sx,a=s,sy,a=s,cx,a=c,およびcy,a=c/sを有するテレセントリックエリアスキャンカメラ(「エリアスキャンカメラのマルチビューセットアップのカメラモデル」のセクション参照)によって表すことができる。そのため、テレセントリックエリアスキャンカメラのための既存のステレオ再構成機能を、テレセントリックラインスキャンカメラにも使用することができる。
テレセントリック平行化マッピングに加えて、平行化後のテレセントリックラインスキャンカメラのカメラパラメータがこのステップから返される。これらのカメラパラメータを、平行化されたカメラパラメータとして示す(ステップ107)。
本発明のある好ましい実施形態において、テレセントリックエリアスキャンカメラのための既存のステレオ再構成機能を用いることにより、テレセントリックラインスキャン画像を、エピポーラ標準構成に平行化する。たとえばソフトウェアHALCON(MVTec Software GmbH, 2019)を使用する場合、オペレータ gen_binocular_rectification_map は、適切な平行化マッピングを計算する。これに代わるものとしては、アフィン基礎行列(affine fundamental matrix)(Hartley and Zisserman, 2003, Chapter 14.2)を計算し、画像を(Hartley and Zisserman, 2003, Chapter 11.12)に記載されている方法でエピポーラ標準構成に変換する。エピポーラ平行化変換を計算するための明確な方法は、たとえばMorgan et al. (2006) および Liu et al. (2016)によって与えられている。
これら2つの平行化部分(レンズ歪みの平行化およびエピポーラ標準幾何学に従う平行化)は連続して実行できるが、本発明の好ましい実施形態ではこれらを組み合わせて1つの平行化ステップにする。別々に実行することに対する、この組み合わせの利点は、オンライン段階で適用する必要があるのが(2つではなく)1つのテレセントリック平行化マッピングのみなので、計算時間が短くなることである。
本発明のある好ましい実施形態において、先に説明した最初の3つのステップは、システムを設定した後にオフラインで一度実行される。そのため、これら3つのステップは、カメラセットアップが変更されこの変更がカメラ較正中に推定したパラメータに影響する場合に限り、再度実行する必要がある。テレセントリック平行化マッピングを、後にオンライン段階で使用するために格納する。ある好ましい実施形態において、平行化マッピングをルックアップテーブル(LUT)として格納することにより、オンライン段階における効率的な平行化を可能にする。LUTは、平行化後のテレセントリックラインスキャン画像における画素ごとに、元のテレセントリックラインスキャン画像における対応する画素の位置を格納する。任意で、LUTに、適切なグレー値内挿のための重みを含めることにより、最終的な3次元再構成のより高い精度をもたらすより高い品質の平行化後画像を得てもよい。
3次元物体のテレセントリックラインスキャン画像ペアの取得
第4のステップ(201)において、最初の3つのステップで説明した方法で先に較正したセットアップを用いて再構成する3次元物体のテレセントリックラインスキャン画像の取得から、オンライン段階が始まる。3次元再構成の場合少なくとも2つのカメラが必要なので、この好ましい実施形態において、テレセントリックラインスキャン画像ペア(203)を、テレセントリックラインスキャンカメラのペアを用いて取得する。3次元物体の再構成では1つの画像ペアで十分である。これに代わる実施形態では、テレセントリックラインスキャン画像ペア(203)を、3つ以上のテレセントリックラインスキャンカメラのマルチビューセットアップから選択する。各テレセントリックラインスキャン画像を、第1のステップでテレセントリックラインスキャン較正画像の取得中に実行したときと同じやり方で、相対移動を実施することにより、生成する。
テレセントリックラインスキャン画像ペアの平行化
第5のステップ204において、再構成する3次元物体の、取得したテレセントリックラインスキャン画像ペアを、テレセントリックラインスキャンカメラのそれぞれのペアについて第3のステップ105で計算したテレセントリック平行化マッピング(106/202)を用いて平行化する。本発明のある好ましい実施形態において、平行化を、第3のステップで計算したLUTを適用することによって効率的に実施する。たとえば、ソフトウェアHALCON(MVTec Software GmbH, 2019)を使用するとき、オペレータ map_image を、テレセントリック平行化マッピングを適用するために使用することができる。結果として、平行化されたテレセントリックラインスキャン画像ペア(205)が得られる。平行化後のテレセントリックラインスキャン画像ペアにおける対応する点は、同じ画像行にある。さらに、得られた平行化後のテレセントリックラインスキャン画像ペアにはレンズ歪みがない。
平行化されたテレセントリックラインスキャン画像ペアから視差を計算
第6のステップ206において、結果として得られた平行化後のテレセントリックラインスキャン画像ペア205から、エピポーラ標準幾何学を活用する、利用できるさまざまなステレオマッチング手法のうちの1つにより、視差を計算する(「2眼ステレオ−画像平行化」のセクション参照)。本発明のある好ましい実施形態において、稠密視差推定の手法を適用すると、画定された画素ごとに視差値を含む視差画像が得られる。たとえば遮られた場合または低テクスチャ画像部分において、対応する画素を確実に決定できないときは、画定されない画素が発生する可能性がある。ある代替実施形態において、選択された一組の画素について視差を計算する。ある好ましい実施形態において、テンプレートマッチングに基づく稠密視差推定の手法が適用される(Steger et al., 2018, Chapter 3.10)。別の好ましい実施形態において、変分手法に基づく稠密視差推定方法が適用される。これらのような方法は、たとえ低テクスチャの画像領域であっても視差を計算することができる。本発明で説明する方法はモジュール構造なので、本発明の範囲から逸脱することなく他の代替の視差推定手法を簡単に統合することができる。
3次元の点の視差は、平行化後のカメラからのこの点までの距離に、密接に関連する。したがって、本発明のある好ましい実施形態において、計算した視差は3次元物体の再構成を表す。
視差から距離への変換
第7のステップ209において、第6のステップ206で計算した視差208を、距離に変換する(ステップ210)。この変換のために、第3のステップ105で得られた平行化後のカメラパラメータ(ステップ107/207)を使用する。
平行化後のテレセントリックラインスキャン画像ペアにはレンズ歪みがないので、平行化後の各ラインスキャン画像は、アフィンカメラの画像として解釈することができる(Hartley and Zisserman, 2003, Chapter 6.3.4)。したがって、三角測量(Hartley and Zisserman, 2003, Chapter 14.4)およびアフィン再構成の標準アルゴリズムは、距離の計算に適用できる(Hartley and Zisserman, 2003, Chapter 14.5)。典型的に、距離は、平行化後のテレセントリックラインスキャン画像ペアの座標系で得られる、すなわち、ある点から、平行化後の2つのカメラのy軸およびこれらのベースラインによって画定される平面までの距離を表す。
ある好ましい実施形態において、距離は、視差画像の画定された画素ごとに計算され、それによって距離画像が得られる。視差は、平行化後の2つの画像における対応する点を暗に示している。視差値から距離値への変換は、対応する点の2つの視線を交差させることに相当する(Steger et al., 2018, Chapter 3.10.1.5)。第1の視線は、平行化後の第1の画像における点の位置と、平行化後の第1のカメラの光軸の方向とによって画定される。第2の視線は、平行化後の第2の画像における点の位置と、平行化後の第2のカメラの光軸の方向とによって画定される。第2の画像における点の位置は次のようにして得られる。すなわち、エピポーラ標準構成によりその行の座標は第1の画像の行の座標と同一である。第2の画像における列の座標は、視差値によって修正した第1の画像の列座標に相当する(Steger et al., 2018, Chapter 3.10.1.5)。
別の好ましい実施形態において、距離画像(ステップ210)は、3次元物体の再構成を表す。ある代替実施形態において、距離値を、距離画像におけるその行座標および列座標に基づいて、かつ、平行化後のカメラパラメータ(ステップ107/207)の内部オリエンテーションに基づいて、3次元座標にさらに変換する(ステップ210)。3次元座標は、たとえば、3つのチャネルを有する座標画像に格納する。これに代えて、3次元座標を、3次元物体の適切なモデル表現データ構造に格納してもよい。
別の好ましい実施形態において、再構成された距離値または再構成された3次元座標は、それぞれ、元のカメラのうちの1つ、たとえば基準カメラの座標系に戻すように変換される。この剛体3次元変換は、平行化後のカメラパラメータの相対オリエンテーションおよび元のカメラパラメータの相対オリエンテーションから得ることができる。
本発明のいくつかの特定の実施形態について詳細に説明してきたが、好ましい実施形態は、本発明の精神および範囲から逸脱することなくさまざまな修正が可能である。したがって、上記説明は、以下の請求項に示されているもの以外、本発明を限定することを意図していない。
引用文献
Figure 2021173740
Figure 2021173740

Claims (17)

  1. 3次元物体を再構成する方法であって、前記方法は、テレセントリックラインスキャン画像の取得を可能にする、少なくとも2つのテレセントリックラインスキャンカメラと、前記テレセントリックラインスキャンカメラに対する前記3次元物体の相対移動を生じさせるように構成された少なくとも1つの装置とを用い、
    a)各テレセントリックラインスキャンカメラごとに、テレセントリックラインスキャン較正画像のセットを準備するステップを含み、前記セットは1つ以上の画像を含み、
    b)前記テレセントリックラインスキャン較正画像のセットに基づいてカメラ較正を実行するステップと、
    c)前記カメラ較正の結果に基づいて、テレセントリックラインスキャンカメラのペアのテレセントリックラインスキャン画像ペアを平行化するテレセントリック平行化マッピングを計算するステップと、
    d)前記3次元物体に対して、テレセントリックラインスキャンカメラのペアのテレセントリックラインスキャン画像ペアを準備するステップと、
    e)前記テレセントリックラインスキャン画像ペアを前記テレセントリック平行化マッピングを用いて平行化することにより、平行化されたテレセントリックラインスキャン画像ペアを生成するステップとを含む、方法。
  2. f)前記平行化されたテレセントリックラインスキャン画像ペアから視差を計算するステップがさらに実行され、前記視差は、再構成された前記3次元物体を表す、請求項1に記載の方法。
  3. g)前記視差を距離に変換することにより、前記3次元物体を再構成させるステップがさらに実行される、請求項2に記載の方法。
  4. g)前記視差を3次元座標に変換することにより、前記3次元物体を再構成させるステップがさらに実行される、請求項2に記載の方法。
  5. 前記相対移動は直線移動である、請求項1〜4のいずれか1項に記載の方法。
  6. 前記直線移動は定速度である、または、前記直線移動は可変速度であって前記テレセントリックラインスキャン画像の画像取得を適切にトリガすることによって定速度を確保する、請求項5に記載の方法。
  7. 前記較正画像は較正物体の画像である、請求項1〜6のいずれか1項に記載の方法。
  8. 前記較正物体は平坦な較正物体である、請求項7に記載の方法。
  9. 前記較正物体は3次元較正物体である、請求項7に記載の方法。
  10. 前記カメラ較正においてカメラパラメータを求め、前記カメラパラメータは、前記テレセントリックラインスキャン較正画像の外部オリエンテーションのパラメータと、各テレセントリックラインスキャンカメラごとの、相対オリエンテーションおよび内部オリエンテーションのパラメータとを含む、請求項1〜9のいずれか1項に記載の方法。
  11. 前記テレセントリック平行化マッピングは、テレセントリックラインスキャンカメラのペアのテレセントリックラインスキャン画像ペアを、エピポーラ標準幾何学に従って平行化する、請求項1〜10のいずれか1項に記載の方法。
  12. 前記テレセントリック平行化マッピングはルックアップテーブルに格納される、請求項1〜11のいずれか1項に記載の方法。
  13. 前記テレセントリックラインスキャン画像ペアを平行化することは、前記ルックアップテーブルを前記テレセントリックラインスキャン画像ペアに適用することを含む、請求項12に記載の方法。
  14. 前記平行化されたテレセントリックラインスキャンペアから視差を計算することは、視差画像を生成する稠密視差推定を含む、請求項1〜13のいずれか1項に記載の方法。
  15. 前記視差を距離に変換することは、距離画像を計算することを含む、請求項2〜14のいずれか1項に記載の方法。
  16. 前記カメラ較正を、スパース・レーベンバーグ・マーカートアルゴリズムを適用することによって実行する、請求項1〜15のいずれか1項に記載の方法。
  17. 少なくとも2つのラインスキャンカメラを用いて3次元物体を再構成するためのシステムであって、前記システムは、
    (d)少なくとも2つのテレセントリックラインスキャンカメラと、
    (e)前記3次元物体の、前記テレセントリックラインスキャンカメラに対する相対移動を生じさせるように構成された少なくとも1つの装置と、
    (f)コンピュータとを備え、前記コンピュータは、
    (f1)前記相対移動を生じさせながら、各テレセントリックラインスキャンカメラを用いて、1つ以上の画像を含む、テレセントリックラインスキャン較正画像のセットを取得し、
    (f2)前記テレセントリックラインスキャン較正画像のセットに基づいてカメラ較正を実行し、
    (f3)前記カメラ較正の結果に基づいて、テレセントリックラインスキャンカメラのペアのテレセントリックラインスキャン画像ペアを平行化するテレセントリック平行化マッピングを計算し、
    (f4)前記相対移動を生じさせながら、テレセントリックラインスキャンカメラのペアを用いて前記3次元物体のテレセントリックラインスキャン画像ペアを取得し、
    (f5)前記テレセントリック平行化マッピングを用いて、前記3次元物体の前記テレセントリックラインスキャン画像ペアを平行化することにより、平行化されたテレセントリックラインスキャン画像ペアを生成する
    ように、構成されている、システム。
JP2020097342A 2020-04-17 2020-06-04 テレセントリックラインスキャンカメラを用いて物体を効率的に3次元再構成するためのシステムおよび方法 Active JP7486740B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP20170097.8 2020-04-17
EP20170097.8A EP3896640B1 (en) 2020-04-17 2020-04-17 System and method for efficient 3d reconstruction of objects with telecentric line-scan cameras

Publications (3)

Publication Number Publication Date
JP2021173740A true JP2021173740A (ja) 2021-11-01
JP2021173740A5 JP2021173740A5 (ja) 2023-05-09
JP7486740B2 JP7486740B2 (ja) 2024-05-20

Family

ID=70295025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020097342A Active JP7486740B2 (ja) 2020-04-17 2020-06-04 テレセントリックラインスキャンカメラを用いて物体を効率的に3次元再構成するためのシステムおよび方法

Country Status (5)

Country Link
US (1) US11328478B2 (ja)
EP (1) EP3896640B1 (ja)
JP (1) JP7486740B2 (ja)
KR (1) KR20210128881A (ja)
CN (1) CN113538589A (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111028281B (zh) * 2019-10-22 2022-10-18 清华大学 基于光场双目系统的深度信息计算方法及装置
US20220264072A1 (en) * 2021-02-12 2022-08-18 Sony Group Corporation Auto-calibrating n-configuration volumetric camera capture array
CN113962853B (zh) * 2021-12-15 2022-03-15 武汉大学 一种旋转线阵扫描图像位姿自动化精密解算方法
CN115289997B (zh) * 2022-08-01 2024-02-20 合肥国际应用超导中心 一种双目相机三维轮廓扫描仪及其使用方法
CN115294233B (zh) * 2022-10-09 2022-12-13 天津大学 一种基于深度学习的双目大视场成像方法及系统
CN115690205B (zh) * 2022-10-09 2023-12-05 北京自动化控制设备研究所 基于点线综合特征的视觉相对位姿测量误差估计方法
CN115619678B (zh) * 2022-10-31 2024-04-19 锋睿领创(珠海)科技有限公司 一种图像变形的矫正方法、装置、计算机设备及存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6471044B1 (en) * 1999-04-30 2002-10-29 Siemens Electrocom, L.P. Hold and release singulator
US7170592B2 (en) * 2004-03-10 2007-01-30 Acushnet Company Method of inspecting a sphere without orienting the sphere
US8275195B2 (en) * 2005-11-30 2012-09-25 Telecom Italia S.P.A. Method for determining scattered disparity fields in stereo vision
JP2008304225A (ja) 2007-06-05 2008-12-18 Topcon Corp 絵画表面計測装置及びその計測方法
JP2009168581A (ja) 2008-01-15 2009-07-30 Saki Corp:Kk 被検査体の検査装置
AU2014295972B2 (en) * 2013-08-02 2018-10-11 Xactware Solutions, Inc. System and method for detecting features in aerial images using disparity mapping and segmentation techniques
CN103729841B (zh) * 2013-12-18 2016-08-24 同济大学 一种基于方靶模型和透视投影的相机畸变校正方法
US10043282B2 (en) * 2015-04-13 2018-08-07 Gerard Dirk Smits Machine vision for ego-motion, segmenting, and classifying objects
WO2018129201A1 (en) * 2017-01-04 2018-07-12 Aquifi, Inc. Systems and methods for shape-based object retrieval

Also Published As

Publication number Publication date
JP7486740B2 (ja) 2024-05-20
CN113538589A (zh) 2021-10-22
KR20210128881A (ko) 2021-10-27
EP3896640B1 (en) 2022-09-28
EP3896640A1 (en) 2021-10-20
US20210327136A1 (en) 2021-10-21
US11328478B2 (en) 2022-05-10

Similar Documents

Publication Publication Date Title
JP7486740B2 (ja) テレセントリックラインスキャンカメラを用いて物体を効率的に3次元再構成するためのシステムおよび方法
JP6465789B2 (ja) デプスカメラの内部パラメータを算出するプログラム、装置及び方法
CN106595528B (zh) 一种基于数字散斑的远心显微双目立体视觉测量方法
CN111243002A (zh) 应用于高精度三维测量的单目激光散斑投影系统标定及深度估计方法
JP5029618B2 (ja) パターン投影法による3次元形状計測装置、方法およびプログラム
JP5393318B2 (ja) 位置姿勢計測方法及び装置
EP2751521B1 (en) Method and system for alignment of a pattern on a spatial coded slide image
US20150279016A1 (en) Image processing method and apparatus for calibrating depth of depth sensor
JP6282098B2 (ja) キャリブレーション装置及び方法
JP2012123781A (ja) 情報処理装置、情報処理システム及び情報処理方法
KR20190020087A (ko) 알려진 이동 중에 이동하는 물체의 3차원 측정을 위한 방법
KR20020035652A (ko) 3 차원적인 복구를 위한 스트랩다운 시스템
Fernandez et al. Planar-based camera-projector calibration
JP2021193400A (ja) アーチファクトを測定するための方法
Horbach et al. 3D reconstruction of specular surfaces using a calibrated projector–camera setup
CN102881040A (zh) 一种数码相机移动拍摄三维重建方法
Barone et al. Structured light stereo catadioptric scanner based on a spherical mirror
Yamauchi et al. Calibration of a structured light system by observing planar object from unknown viewpoints
Siddique et al. 3d object localization using 2d estimates for computer vision applications
Mohan et al. 3D scanning of object surfaces using structured light and a single camera image
KR100379948B1 (ko) 3차원 형상 측정방법
Li et al. A method for 3D measurement and reconstruction for active vision
JP2015137897A (ja) 距離計測装置及び距離計測方法
KR102434419B1 (ko) 다점 마커 및 스테레오 비전을 이용한 정밀 3d 스캔 장치 및 방법
Lu et al. Calibration of a 3D vision system using pattern projection

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230426

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240425

R150 Certificate of patent or registration of utility model

Ref document number: 7486740

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150