JP2019100852A - 画像処理システム、及び画像処理方法 - Google Patents

画像処理システム、及び画像処理方法 Download PDF

Info

Publication number
JP2019100852A
JP2019100852A JP2017232027A JP2017232027A JP2019100852A JP 2019100852 A JP2019100852 A JP 2019100852A JP 2017232027 A JP2017232027 A JP 2017232027A JP 2017232027 A JP2017232027 A JP 2017232027A JP 2019100852 A JP2019100852 A JP 2019100852A
Authority
JP
Japan
Prior art keywords
light
image
unit
projection
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017232027A
Other languages
English (en)
Other versions
JP6970376B2 (ja
Inventor
松本 慎也
Shinya Matsumoto
慎也 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2017232027A priority Critical patent/JP6970376B2/ja
Priority to CN201811054519.2A priority patent/CN109872382B/zh
Priority to US16/133,171 priority patent/US11118901B2/en
Priority to EP18195802.6A priority patent/EP3492861B1/en
Publication of JP2019100852A publication Critical patent/JP2019100852A/ja
Application granted granted Critical
Publication of JP6970376B2 publication Critical patent/JP6970376B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/09Beam shaping, e.g. changing the cross-sectional area, not otherwise provided for
    • G02B27/0938Using specific optical elements
    • G02B27/095Refractive optical elements
    • G02B27/0955Lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/28Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising
    • G02B27/283Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising used for beam splitting or combining
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/54Accessories
    • G03B21/56Projection screens
    • G03B21/60Projection screens characterised by the nature of the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】対象物の3次元点群情報を好適に生成することを可能とする画像処理システム、及び画像処理方法を提供する。【解決手段】3次元形状を特定するためのパターン光を対象物に投光する第1投光部と、照射エネルギーが投光方向の断面方向において略均一な略均一照明を、前記第1投光部による投光と略同一角度で前記対象物に投光する第2投光部と、前記対象物を撮像する撮像部と、前記第1投光部による前記対象物への投光時に前記撮像部により撮像された第1撮像画像に係る成分を、前記第2投光部による前記対象物への投光時に前記撮像部により撮像された第2撮像画像に係る成分で除算することにより除算画像を生成する生成部と、前記除算画像を用いて、前記対象物の3次元位置を計算する計算部とを備える。【選択図】図2

Description

本発明は、画像処理システム、及び画像処理方法に関する。
近年、対象物にコード化されたパターンやランダムドットパターンといった光を投光し、当該投光時に当該対象物を撮像することにより得られる画像を解析することにより、当該対象物の3次元マップを生成するシステムが考えられている(例えば、特許文献1及び特許文献2参照)。
特表2009−511897号公報 米国特許出願公開第2008/0240502号明細書
ここで、3次元マップを生成しようとする対象物の表面に凹凸があると、照射光が乱反射してしまうために、好適に反射光が得られない。同様に、対象物の表面で光が浸透又は散乱する場合等にも、同様に、好適な反射光が得られない。このように好適な反射光が得られない被写体に対して、特許文献1及び特許文献2に記載の手法のように対象物の撮像画像を単純に用いて3次元マップを生成すると、十分な反射光が得られない領域でのデータ抜け等が生じるため、適切な3次元マップを生成することができない。
本発明のいくつかの態様は前述の課題に鑑みてなされたものであり、対象物の3次元点群情報を好適に生成することを可能とする画像処理システム、及び画像処理方法を提供することを目的の1つとする。
本発明の一態様に係る画像処理システムは、3次元形状を特定するためのパターン光を対象物に投光する第1投光部と、照射エネルギーが投光方向の断面方向において略均一な略均一照明を、前記第1投光部による投光と略同一角度で前記対象物に投光する第2投光部と、前記第1投光部による前記対象物への前記パターン光の投光を制御する第1投光制御部と、前記第2投光部による前記対象物への前記略均一照明の投光を制御する第2投光制御部と、前記対象物を撮像する撮像部と、前記撮像装置による撮像を制御する撮像制御部と、前記第1投光制御部が前記パターン光の投光するようを制御し、かつ、前記第2投光制御部が前記略均一照明の投光しないよう制御した状態で、前記撮像部により撮像された第1撮像画像を記録する第1撮像画像記録部と、前記第1投光制御部が前記パターン光の投光しないようを制御し、かつ、前記第2投光制御部が前記略均一照明の投光するよう制御した状態で、前記撮像部により撮像された第2撮像画像を記録する第2撮像画像記録部と、前記第1撮像画像に係る成分を前記第2撮像画像に係る成分で除算することにより除算画像を生成する生成部と、前記除算画像を用いて、前記対象物の3次元位置を計算する計算部とを備える。
当該構成では、パターン光を対象物に投光し、それを撮像することにより第1撮像画像を撮像し、また略均一照明を対象物に投光し、それを撮像することにより第2撮像画像を撮像する。パターン光の投光と、略均一光の投光とを略同一角度で対象物に投光することにより、対象物表面での反射特性を近似させることができる。この結果、第1撮像画像の成分を第2撮像画像の成分で除算することで、除算画像において対象物表面の反射率に応じた係数成分の影響を低減させることができるため、好適に対象物の3次元点群情報を計算することが可能となる。
なおここで、第1撮像画像の成分とは、第1撮像画像の輝度値、又は、第1撮像画像の輝度値を一次変換(所定係数で乗算、及び/又は所定値を加減算)したものを含みうる。第2撮像画像の成分についても同様である。
上記構成において、前記生成部は、前記第1投光部及び前記第2投光部の非投光時に、環境光が前記対象物に投光された第3撮像画像に係る成分を前記第1撮像画像に係る成分から減算して得られる画像に係る成分を、前記第2撮像画像に係る成分から前記第3撮像画像に係る成分を減算して得られる画像に係る成分で除算することにより前記除算画像を生成する、ように構成されてもよい。
当該構成では、環境光のみが投光された第3撮像画像を撮像し、第1撮像画像及び第2撮像画像の両者から、当該第3撮像画像を減算する。これにより、第1撮像画像及び第2撮像画像の両者から、環境光の影響を低減させることができる。当該環境光の影響が低減された画像から除算画像を求め、当該除算画像を用いて3次元位置を計算することで、好適に対象物の3次元点群情報を計算することが可能となる。
なおここで、第3撮像画像の成分とは、第3撮像画像の輝度値、又は、第3撮像画像の輝度値を一次変換(所定係数で乗算、及び/又は所定値を加減算)したものを含みうる。第3撮像画像に係る成分を前記第1撮像画像に係る成分から減算して得られる画像に係る成分、及び、前記第2撮像画像に係る成分から前記第3撮像画像に係る成分を減算して得られる画像に係る成分についても同様である。
上記構成において、前記第1撮像画像の撮像時における前記第1投光部の投光時間よりも、前記第2撮像画像の撮像時における前記第2投光部の投光時間の方が短い、ように構成されてもよい。
当該構成では、第1撮像画像の輝度値と第2撮像画像の輝度値を近づけることが可能となる。これにより、撮像画像でのハレーションの発生を抑制することで、好適に対象物の3次元点群情報を計算することが可能となる。
上記構成において、前記第1撮像画像の撮像時における前記撮像部の露光時間よりも、前記第2撮像画像の撮像時における前記撮像部の露光時間の方が短い、ように構成されてもよい。
当該構成では、第1撮像画像の輝度値と第2撮像画像の輝度値を近づけることが可能となる。これにより、撮像画像でのハレーションの発生を抑制することで、好適に対象物の3次元点群情報を計算することが可能となる。
上記構成において、前記第1投光部及び前記第2投光部は、同一の投光レンズを用いて投光する、ように構成されてもよい。
当該構成では、パターン光の投光、及び略均一光の投光を同一軸により投光することができる。この結果、第1撮像画像及び第2撮像画像における、対象物表面の反射率に応じた係数成分の特性を近似させることができるため、除算画像において好適に当該係数成分を低減させることができる。
上記構成において、前記第1投光部及び前記第2投光部は、同一の光源を用いて投光する、ように構成されてもよい。
当該構成では、パターン光の投光、及び略均一光の投光の波長特性を一致させることができる。この結果、第1撮像画像及び第2撮像画像における、対象物表面の反射率に応じた係数成分の特性を近似させることができるため、除算画像において好適に当該係数成分を低減させることができる。
上記構成において、前記第1投光部は、第1光源を用いて投光し、前記第2投光部は、前記第1光源と別に設けられた第2光源を用いて、前記第1投光部と略同一角度で前記対象物に投光する、ように構成されてもよい。
当該構成では、パターン光の投光、及び略均一光の投光のために、光源から照射される光を分離する部品(例えば、ビームスプリッタ)等の部品を不要とすることが可能となる。
上記構成において、前記第1投光部は、第1光源及び第1投光レンズを用いて投光し、前記第2投光部は、前記第1光源及び前記第1投光レンズとは別に設けられた第2光源及び第2投光レンズを用いて、前記第1投光部による投光と略同一角度で前記対象物に投光する、ように構成されてもよい。
当該構成では、パターン光の投光、及び略均一光の投光のために、光源から照射される光を分離及び合波する部品(例えば、ビームスプリッタや偏光ビームスプリッタ)等を不要とすることが可能となる。
上記構成において、前記第1光源の強度は、前記第2光源の強度よりも強い、ように構成されても良い。
当該構成では、第1撮像画像の輝度値と第2撮像画像の輝度値を近づけることが可能となる。これにより、撮像画像でのハレーションの発生を抑制することで、好適に対象物の3次元点群情報を計算することが可能となる。
上記構成において、前記対象物の3次元構造データを読み込む読込部と、前記対象物に係る前記3次元構造データと、前記3次元位置とを照合する照合部とを更に備える、ように構成されてもよい。
当該構成では、パターン光の投光、及び略均一光の投光のために、光源から照射される光を分離及び合波する部品(例えば、ビームスプリッタや偏光ビームスプリッタ)等を不要とすることが可能となる。
本発明の一態様に係る画像処理方法は、3次元形状を特定するためのパターン光を対象物に投光する第1投光処理と、照射エネルギーが投光方向の断面方向において略均一な略均一照明を、前記第1投光処理による投光と略同一角度で前記対象物に投光する第2投光処理と、前記対象物を撮像する撮像処理と、前記第1投光処理による前記対象物への投光時に撮像された第1撮像画像に係る成分を、前記第2投光処理による前記対象物への投光時に撮像された第2撮像画像に係る成分で除算することにより除算画像を生成する生成処理と、前記除算画像を用いて、前記対象物の3次元位置を計算する計算処理とを画像処理システムが行う。
当該構成では、環境光のみが投光された第3撮像画像を撮像し、第1撮像画像及び第2撮像画像の両者から、当該第3撮像画像を減算する。これにより、第1撮像画像及び第2撮像画像の両者から、環境光の影響を低減させることができる。当該環境光の影響が低減された画像から除算画像を求め、当該除算画像を用いて3次元位置を計算することで、好適に対象物の3次元点群情報を計算することが可能となる。
なお、本発明において、「部」や「手段」、「装置」、「システム」とは、単に物理的手段を意味するものではなく、その「部」や「手段」、「装置」、「システム」が有する機能をソフトウェアによって実現する場合も含む。また、1つの「部」や「手段」、「装置」、「システム」が有する機能が2つ以上の物理的手段や装置により実現されても、2つ以上の「部」や「手段」、「装置」、「システム」の機能が1つの物理的手段や装置により実現されてもよい。
実施形態に係る画像処理システムの適用性を説明するための図である。 実施形態に係る画像処理システムの構成の一例を模式的に例示するための図である。 実施形態に係る画像処理システムの処理手順の一例を例示するフローチャートである。 実施形態に係る投光装置の構成の一例を模式的に例示するための図である。 実施形態に係る投光装置の構成の一例を模式的に例示するための図である。 実施形態に係る投光装置の構成の一例を模式的に例示するための図である。 実施形態に係る投光装置の構成の一例を模式的に例示するための図である。 実施形態に係る画像処理システムのハードウェア構成の一例を模式的に例示するための図である。
以下、図面を参照して本発明の実施形態を説明する。ただし、以下に説明する実施形態は、あくまでも例示であり、以下に明示しない種々の変形や技術の適用を排除する意図はない。即ち、本発明は、その趣旨を逸脱しない範囲で種々変形して実施することができる。また、以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を付して表している。図面は模式的なものであり、必ずしも実際の寸法や比率等とは一致しない。図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることがある。
[1 適用例]
[1.1 概要]
まず、図1を参照しながら、実施形態に係る画像処理システムの動作の一例を説明する。図1は、本実施形態に係る画像処理システムの動作原理を説明するための図である。
対象物の3次元計測を行う手法の1つとして、三角測距を基本原理として対象物に一定のパターンを持つパターン光を投光する手法がある。この手法には、投光する光のパターンを複数用意し、それらを高速で時間的に切換えて投光する時間的な手法と、空間的にコード化された単一のパターン光を投光する空間的な手法の大きく2つの手法がある。本実施形態に係る画像処理システムでは空間的手法を用いる。空間的手法では、複雑なパターンを持つコード化されたパターン光を対象物に投光し、そのパターン光が投光された対象物を撮像装置で撮像して得られたパターン画像から距離計算することにより3次元形状を取得する。
空間的手法の具体的例としては、例えば、対象物への投光に用いる3次元計測を行うために、所定のパターン光を投光する投光装置と、撮像装置とを平行に配置した上で、投光装置での投光に用いるパターン光と、撮像装置で撮像された撮像画像(以下「3D用画像」ともいう)との間で、対応付け(rectification)を行う方法が考えられる。この手法では、パターン光の投光に用いた画像と3D用画像との間で対応画素を求めることで、パターン光の投光に用いた画像と3D用画像の対応列を特定する。この対応列により特定される平面と、対応画素間の線分により特定されるエピポーラ線とから、処理対象の画素が投影された対象物の3次元座標を特定する。このような処理を全ての画素に対して行うことで、対象物の各点の3次元座標を得ることができる。
このように、空間的なパターン投影手法による3次元計測では、複雑なパターンを3次元形状の対象物に投光し、そのパターンを撮像装置(カメラ)で撮影することにより、対象物の各々の位置の3次元座標が特定される。しかしながら、対象物が複雑な3次元形状を有していたり、或いは複雑なテクスチャを有していたりすると、撮像装置での撮像画像で特定すべきパターンが十分な精度で認識できない場合がある。例えば、対象物が表面研磨されていなかったり、傷や凹みがあったりする工業製品である場合等には、凹凸形状によりパターンが歪むことで正常なパターンが読み取れないために、3次元点群を特定することが困難である。同様に、対象物の表面で光が浸透又は散乱する場合等にも同様の問題が生じ得る。当該課題は、投光装置及び撮像装置が対象物の近距離に位置するほど顕著となる。
図1に記載するように、本実施形態に係る画像処理システムでは、複雑なパターン(以下「3D用照明」ともいう)を3D投光装置11で対象物(計測面)に投光する機能に加え、2D投光装置13でパターンを持たない略均一光(以下、「2D用照明」ともいう)で対象物に投光する機能を持つ。なお、図1では、3D投光装置11及び2D投光装置13を異なるものとして図示しているがこれに限られるものではなく、単一の投光装置から3D用照明及び2D用照明の両者を投光できるように構成してもよい。投光装置の構成の具体例については、図4乃至図7を参照しながら後述する。ここで、3D投光装置11及び2D投光装置13はそれぞれ、本発明の「第1投光部」及び「第2投光部」の一例である。
ここで、対象物表面上の各位置において3D用照明及び2D用照明の両者がほぼ同じ反射率で反射されるように、3D用照明と2D用照明とは、対象物表面に対して略同一角度で投光される(θA≒θB)。このため、3D投光装置11による投光の中心軸Aと、2D投光装置13による投光の中心軸Bとは、同一であるか、同一でないとしても近傍かつ略並行となることが好ましい。前者の場合、例えば、3D投光装置11及び2D投光装置13を一体的に設ければよい。後者の場合、例えば、3D投光装置11及び2D投光装置13を、平行に隣接して配置すればよい。
撮像装置15では、3D投光装置11での投光時に得られる3D用画像、及び2D投光装置13での投光時に得られる2D用画像を撮像する。画像処理システムは、3D用画像を2D用画像で除算することにより、対象物(計測面)における反射率に応じた係数成分(後述のαに相当)による影響を低減し、好適なパターン画像を得ることができる。ここで、撮像装置15は、本発明の「撮像部」の一例であり、3D用画像及び2D用画像はそれぞれ、本発明の「第1撮像画像」及び「第2撮像画像」の一例である。
また、特に環境光の影響が大きい場合には、これに加えて、3D用照明及び2D用照明を投光せずに、環境光のみが対象物に投光された状態で撮像装置15が撮像した環境光画像も撮影してもよい。この場合、3D用画像及び2D用画像の各々から環境光画像を減算した上で、除算することにより、環境光の成分及び対象物表面の反射率に応じた成分を除去することができる。なお、環境光画像は、本発明の「第3撮像画像」の一例である。
[1.2 原理]
以下、図1を参照しながら、原理を説明する。ここでは、2D用照明及び3D用照明のエネルギーをそれぞれP2D-projector及びP3D-projector、環境光のエネルギーをPambientとする。また、対象物表面に投光される光の反射率に依存する係数成分であり、2D用照明及び3D用照明のエネルギーを撮像素子で受光するエネルギーに変換する輝度値変換係数をαとする。同じく対象物表面の反射率に依存する成分であり、自然光や外部照明からの光である環境光のエネルギーを撮像素子で受光するエネルギーに変換する輝度値変換係数をβ、とする。なおここでは、2D用照明及び3D用照明により生じるα成分は、3D用照明及び2D用照明を略同一角度(θA≒θB)で対象物表面に投光することでほぼ同一とみなせるものとする。
このとき、3D用照明が投光された対象物を撮像装置15の画素(x,y)で受光した際の輝度値I3D(x,y)(すなわち、3D用画像の画素(x,y)の輝度値)は、以下の式で表される。
Figure 2019100852
同様に、略均一光である2D用照明が投光された対象物を撮像装置15の画素(x,y)で受光した際の輝度値I2D(x,y)(すなわち、2D用画像の画素(x,y)の輝度値)は、以下の式により表される。
Figure 2019100852
また、2D用照明及び3D用照明が投光されず、環境光のみが投光された対象物を撮像装置15の画素(x,y)で受光した際の輝度値Iambient(x,y)(すなわち、環境光画像の画素(x,y)の輝度値)は、以下の式により表される。
Figure 2019100852
すなわち、3D用画像の輝度値I3D(x,y)及び2D用画像の輝度値I2D(x,y)の各々から、環境光画像Iambient(x,y)を減算することにより、環境光による影響を除去することができる。よって、環境光による影響が除去された3D用画像の輝度値I3D(x,y)を2D用画像の輝度値I2D(x,y)で除算して得られる除算画像の輝度値Ip(x,y)は、以下の式により表現される。
Figure 2019100852
すなわち、除算画像においては対象物に投光された反射率に依存するα成分を除去することができる。略均一光である2D用照明のエネルギーP2D-projectorは位置によらずほぼ一定であることから、除算画像の輝度値Ip(x,y)は、以下の式により単純化することができる。以下の式においてγは定数である。
Figure 2019100852
よって、除算画像を用いれば、対象物の反射率に応じたα成分及び環境光の成分Pambientが除去された状態で、3次元計測を行うためのパターンを識別することができる。すなわち、対象物表面の凹凸形状や傷、光の散乱や浸透等による影響を抑え、好適に対象物の3次元形状を取得可能となる。
なお、例えば対象物が暗い環境下にある等、環境光がほぼ無視できる(Pambient≒0)場合には、上記数1及び上記数2の第2項が無視できるため、環境光画像の減算を行わずに、単純に3D用画像の輝度値を2D用画像の輝度値で除算して得られる除算画像を用いればよい。
なお先述のとおり、対象物表面の反射率の影響は、3D投光装置11及び撮像装置15と対象物とが近距離にあるほど影響が大きいが、このように除算画像を用いてパターンを識別することで、対象物表面の反射率の影響を低減させることができる。すなわち、除算画像を用いない場合に比べ、近距離でも3次元形状を好適に取得することができる。
ここで、近距離での投光及び撮像を考えると、一般に撮像装置15の撮像素子が受光する受光量が大きくなるため、撮像画像におけるハレーションが起きやすくなる。一般的に3D用照明及び2D用照明に同程度の強度の光源(全く同一の光源である場合も含む)を用いるとすると、略均一光を撮像した2D用画像の方が、パターン光を撮像した3D用画像よりも、輝度値が高くなる。よって、2D用画像撮像時の2D用照明の照射時間を、3D用画像撮像時の3D用照明の照射時間よりも短くする、或いは、2D用画像撮像時の撮像装置15の撮像素子の露光時間を3D用画像撮像時の撮像装置15の撮像素子の露光時間よりも短くすることにより、3D用画像及び2D用画像の輝度値を近づけることが考えられる。或いは、3D用照明と2D用照明とで異なる照明を用いる場合には、2D用照明の光源の強度を3D用照明の光源の強度よりも弱くすることが考えられる。
[2 動作構成例]
以下、図2を参照しながら、本実施形態に係る画像処理システム1が動作するための構成例を説明する。画像処理システム1は、大きく、3D投光装置11、2D投光装置13、撮像装置15、制御部110、及び認識部150を含む。なお、制御部110及び認識部150が有する各構成は、プロセッサ上で動作するプログラムとして実現されてもよいし、或いは専用の半導体等のハードウェアとして構成されてもよい。
[2.1 3D投光装置11、2D投光装置13、及び撮像装置15]
3D投光装置11は、制御部110の駆動制御部111に含まれる3D用投光制御部113による制御のもと、複雑なパターンを持つ3D用照明を対象物に対して投光する。2D投光装置13は、同じく駆動制御部111に含まれる2D用投光制御部115による制御のもと、中心軸Bに垂直な平面(投光方向の断面方向)上の各位置において照射エネルギーがほぼ一定となる(すなわちパターンを持たない)略均一光を対象物に対して投光する。このとき、3D投光装置11による3D用照明の投光時間を2D投光装置13による2D用照明の投光時間よりも長く、又は、3D投光装置11の光源の強度を2D投光装置13の光源の強度よりも強くしても良い。これにより、撮像装置15により撮像される3D用画像及び2D用画像の輝度値を近づけることができる。
先述のとおり、3D投光装置11及び2D投光装置13は、対象物表面の各位置に対して略同一角度で3D用照明及び2D用照明が投光されるように構成/配置される。そのために、3D投光装置11及び2D投光装置13は、投光の中心軸A及びBが一致する、又は一致しないまでも中心軸A及びBが略平行かつ近傍となるように配置される。3D投光装置11及び2D投光装置13の具体的構成例は、図4乃至図7を参照しながら後述する。
撮像装置15は、制御部110の駆動制御部111に含まれる撮像制御部117による制御のもと、対象物を撮像する。より具体的には、3D投光装置11による3D用照明の投光時、及び2D投光装置13による2D投光装置13による2D用投光時、の少なくとも2回撮影を行うことで、それぞれ3D用画像及び2D用画像を生成する。このとき、3D用画像の撮像時における露光時間を、2D用画像の撮像時における露光時間よりも長くしても良い。これにより、3D用画像及び2D用画像の輝度値を近づけることができる。
また、環境光に対する影響も除去するのであれば、撮像装置15は、3D投光装置11及び2D投光装置13による投光が行われていない、環境光のみが対象物に投光されているタイミングでも撮影し、環境光画像を生成する。なお、環境光の影響を考慮しないのであれば、環境光画像を生成しなくともよい。
[2.2 制御部110]
制御部110は、駆動制御部111、画像入力部119、3D用画像記録部121、2D用画像記録部123、環境光画像記録部125、除算画像生成部127、パターン光用画像読込部129、3次元位置計算部131、及び3次元点群出力部133を含む。なお、除算画像生成部127は、本発明の「生成部」の一例であり、3次元位置計算部131は、本発明の「計算部」の一例である。
駆動制御部111は、3D投光装置11を駆動制御するための3D用投光制御部113、2D投光装置13を駆動制御するための2D用投光制御部115、及び撮像装置15を駆動制御するための撮像制御部117を含む。ここで、3D用投光制御部113、2D用投光制御部115、及び撮像制御部117はそれぞれ、本発明の「第1投光制御部」、「第2投光制御部」、及び「撮像制御部」の一例である。
3D用投光制御部113は、先述のとおり3D投光装置11を駆動制御することにより、3D投光装置11による3D用照明の投光/非投光を切り換える。2D用投光制御部115も同様に、2D投光装置13を駆動制御することにより、2D投光装置13による2D用照明の投光/非投光を切り換える。
撮像制御部117は、撮像装置15を駆動制御することにより、任意のタイミングで撮像装置15による撮像を行う。具体的には、3D用投光制御部113による3D用照明投光制御時に3D用画像の撮像、2D用投光制御部115による2D用照明投光制御時に2D用画像の撮像を行うように、撮像制御部117は撮像装置15を制御する。また、環境光による影響を考慮する場合には、3D用投光制御部113及び2D用投光制御部115により3D用照明及び2D用照明の非投光制御が行われているタイミングで、環境光画像の撮像を行うように、撮像制御部117は撮像装置15を制御する。
画像入力部119は、撮像装置15により撮像された画像の入力を受ける。具体的には、3D用画像、及び2D用画像の入力を撮像装置15から入力される。入力された画像は、それぞれ3D用画像記録部121及び2D用画像記録部123により、図示しない記憶媒体に記憶される。環境光の影響も考慮する場合には、画像入力部119は、撮像装置15により撮像された環境光画像の入力を受ける。入力された環境光画像は、環境光画像記録部125により、図示しない記憶媒体に記憶される。なお、環境光の影響を考慮しない場合には、環境光画像が不要となるため、制御部110は環境光画像記録部125に相当する構成を有さなくともよい。また、3D用画像記録部121及び2D用画像記録部123はそれぞれ、本発明の「第1撮像画像記録部」及び「第2撮像画像記録部」の一例である。
除算画像生成部127は、3D用画像記録部121及び2D用画像記録部123が記録した3D用画像及び2D用画像を用いて除算画像を生成する。環境光の影響を考慮しない場合には、除算画像は、3D用画像の各画素の輝度値を2D用画像の各画素の輝度値で除算することにより得られる。なおこのとき、除算画像生成部127は、3D用画像を2D用画像で単純に除算するのではなく、3D用画像の輝度値を所定係数で乗算したものを、2D用画像の輝度値を所定係数で乗算したもので除算することとしてもよい。
環境光の影響を考慮する場合には、除算画像は、3D用画像の各画素の輝度値から環境光画像の各画素の輝度値を減算した画像を、2D用画像の各画素の輝度値から環境光画像の各画素の輝度値を減算した画像で除算することにより得られる。なおこのとき、除算画像生成部127は、3D用画像及び2D用画像の輝度値をそのまま用いるのではなく、3D用画像及び2D用画像の輝度値を一次変換(所定係数で乗算、及び/又は所定値を加減算)したものを用いてもよい。
パターン光用画像読込部129は、3D投光装置11がパターン光の投光に使用する画像を図示しない記憶媒体から読み込む。3次元位置計算部131は、除算画像生成部127が生成した除算画像に含まれるパターンと、パターン光用画像読込部129が読み込んだ画像に含まれるパターンとの対応関係を求めることにより、対象物上の各点の3次元位置を計算する。3次元点群出力部133は、3次元位置計算部131が算出した各点の3次元座標の情報からなる3次元点群情報を出力する。
[2.3 認識部150]
認識部150は、CADモデル読込部151、CAD照合部153、及び照合結果出力部155を含む。
CADモデル読込部151は、図示しない記憶媒体に予め記憶された、対象物の3次元情報であるCADモデル情報を読み込む。CAD照合部153は、CADモデル読込部151が読み込んだ対象物のCADモデル情報と、3次元点群出力部133から出力された、制御部110により計測された対象物の3次元点群情報との照合(マッチング)を行う。これにより、対象物の向きや位置等を特定することができる。
照合結果出力部155は、CAD照合部153による照合結果、すなわち対象物の向きや位置等の情報を任意の記憶媒体や外部装置等に出力する。例えば、照合結果出力部155が、ロボットアームを有するロボットに対して照合結果を出力することで、当該ロボットは、対象物を把持できるようになる。
[3 処理の流れ]
以下、図3を参照しながら、画像処理システム1の処理の流れを説明する。図3は、画像処理システム1の処理の流れを示すフローチャートである。
なお、後述の各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更して若しくは並列に実行することができ、また、各処理ステップ間に他のステップを追加してもよい。更に、便宜上1つのステップとして記載されているステップは複数のステップに分けて実行することもでき、便宜上複数に分けて記載されているステップを1ステップとして実行することもできる。
まず、駆動制御部111の3D用投光制御部113は、3D投光装置11により、3次元位置を特定するためのパターンを持つ3D用照明を被写体へ向けて投光させる(S301)。撮像制御部117は、3D用照明が投光された対象物を撮像することにより、3D用画像を生成する(S303)。生成された3D用画像は3D用画像記録部121により
また、駆動制御部111の2D用投光制御部115は、2D投光装置13により2D用照明(略均一光)を被写体へ向けて投光させる(S305)。撮像制御部117は、2D用照明が投光された対象物を撮像することにより、2D用画像を生成する(S307)。
更に、環境光による影響を考慮するのであれば、3D投光装置11及び2D投光装置13が非投光の状態において、駆動制御部111の撮像制御部117は被写体を撮像することにより、環境光画像を生成する(S309)。もし環境光の影響を考慮しないのであれば、S309の処理は不要である。
なお、S301及びS303の処理、S305及びS307の処理、並びにS309の処理の順序は任意に入れ替えることが可能である。例えば、最初に環境光画像の撮影を行うS309の処理を行い、次に2D用画像を撮影するためのS305及びS307の処理を行い、最後に3D用画像を撮影するためのS301及びS303の処理を行うことも可能である。
除算画像生成部127は、生成された3D用画像、2D用画像、及び環境光画像を用いて除算画像を生成する。除算画像は、先述のとおり、3D用画像の各画素の輝度値から環境光画像の各画素の輝度値を減算した画像を、2D用画像の各画素の輝度値から環境光画像の各画素の輝度値を減算した画像で除算することにより生成できる。もし環境光による影響を考慮しないのであれば、除算画像は、3D用画像の各画素の輝度値を、2D用画像の各画素の輝度値で除算することにより生成できる。
3次元位置計算部131は、このようにして生成された除算画像を用いて、対象物上の各々の点の3次元座標の情報である3次元点群情報(3次元マップ)を生成する(S313乃至S321)。3D用パターンが投光された対象物の画像(ここでは、3D用パターンが投光された対象物の3D用画像から生成された除算画像)から、対象物上の各位置の3次元座標を求める手法は種々考えられる。例えば、除算画像から、3D用パターンに係る処理対象画素を抽出し(S313)、当該処理対象画素周囲のワードから、パターン光の投光に用いた3D用パターンを持つ画像中の対応画素及び対応列を特定し(S315)、対応列により特定される平面と、パターン光投光に用いた画像と除算画像との対応画素間を結ぶ直線との交点として、撮像画像の処理対象画素に係る、対象物上の位置までの距離を算出する(S317)こと等が考えられる。このような処理を、撮像画像の全ての画素に対する処理が終わるまで(S319のNo)繰り返せばよい。なお、ワードとは、例えば、3D用パターンを持つ画像内における一定の領域により構成されるものであり、当該ワードを構成するパターンによって、画像内における位置を特定することができる。
このようにして、対象物上の各点での三次元座標を求めると、3次元点群出力部133は、これらを集めて3次元点群情報(3次元マップ)として出力する(S321及びS323)。
CAD照合部153は、生成された対象物の3次元マップと、予め記憶された対象物のCADモデルとを照合することにより、撮像画像中の対象物の位置及び方向を特定する(S325)。照合結果出力部155は、当該照合結果を、例えばロボットアームを持つロボット等の外部装置や記憶媒体等へ出力する(S325)。当該照合結果の入力を受けたロボットは、当該照合結果に基づいて、対象物の把持すべき位置等を特定することができる。
[4 投光装置の構成例]
以下、図4乃至図7を参照しながら、3D投光装置11及び2D投光装置13の構成例を説明する。
[4.1 第1構成例]
まず、図4を参照しながら、3D投光装置11及び2D投光装置13の第1構成例を説明する。第1構成例では、3D投光装置11及び2D投光装置13は、投光装置40として一体的に構成される。
投光装置40は、光源401、レンズ403、ビームスプリッタ(BS)405、ミラー407、マスク409、ミラー411、マスク413、偏光ビームスプリッタ(PBS)415、LCD(Liquid Crystal Display)417、及び投光レンズ419を含む。
光源401は、例えばLED(Light Emitting Diode)、LD(Laser Diode)、VCSEL(Vertical Cavity Surface Emitting Laser)、又はランプ等により実現可能であり、単色波長の光束を投光する。
光源401から照射された光束は、レンズ403により、マスク409及び413へと導光される。導光経路において、光束はBS405によりS偏光成分とP偏光成分とに分離される。分離された光束のうち、BS405に反射された成分(ここではP偏光とする)は、ミラー407により反射され、3D用照明とするための3D用フォトマスクパターンを持つマスク409を透過し、PBS415に入射する。
一方、BS405により分離された光束のうち、BS405を透過した成分(ここではS偏光とする)は、ミラー411により反射され、略均一光である2D用照明とするためのマスク413を透過し、PBS415に入射する。ここで、マスク413は、開口若しくは光束が均一化される拡散面などであることが考えられる。或いは、BS405で反射された光束の光路長とBS405を透過した光束の光路長とを同等にするためのガラス板によりマスク413を実現することも考えられる。
PBS415は、マスク409を透過した光束(ここではP偏光)を透過させ、及びマスク413を透過した光束(ここではS偏光)を反射させることにより合波する。合波された光束はLCD417に入射する。LCD417は、電気信号により、P偏光及びS偏光の透過/不透過を時間分割的に切り換える。投光レンズ419は、LCD417を透過した光、すなわちP偏光(ここでは3D用照明)又はS偏光(ここでは2D用照明)を投光する。
図4に係る投光装置40は、3D用照明及び2D用照明を同一の光源、同一の投光レンズ等を用いて投光する。これにより、3D用照明及び2D用照明の投光の中心軸や画角、強度分布、波長特性等を同等とすることができる。すなわち、3D用照明及び2D用照明を対象物へ投光した際の反射特性を正確に一致させることが可能である。これにより、3D用照明及び2D用照明を対象物に投光し、それを撮像することにより得られる3D用画像及び2D用画像での反射特性に応じた影響も同等となる。この結果、画像処理システム1が除算画像を生成すると、除算画像において、対象物表面での反射率に応じた係数成分の影響を極めて小さく抑えることができる。
[4.2 第2構成例]
次に、図5を参照しながら、3D投光装置11及び2D投光装置13の第2構成例を説明する。第2構成例でも第1構成例と同様に、3D投光装置11及び2D投光装置13は、投光装置50として一体的に構成される。しかしながら、第1構成例とは異なり、投光装置50では、3D用照明に用いる光源501と2D用照明に用いる光源507とを独立して設けている。
投光装置50は、光源501、レンズ503、マスク505、光源507、レンズ509、マスク511、PBS513、LCD515、及び投光レンズ517を含む。
光源501及び光源507は、例えばLDやVCSEL等により実現可能であり、偏光成分が均一であることが望ましい。ここでは、光源501がP偏光、光源507がS偏光であるものとする。光源501及び光源507の波長特性は異なっていてもよい。なお、対象物に照射される3D用照明の強度と2D用照明の強度が均一化するように、3D用照明に用いる光源501の強度を、2D用照明に用いる光源507の強度よりも強くしても良い。
光源501から照射された光束は、レンズ503により、マスク505へと導光される。同様に、光源507から照射された光束は、レンズ509により、マスク511へと導光される。マスク505、マスク511、PBS513、LCD515、及び投光レンズ517については、各々、上記第1構成例のマスク409、マスク413、PBS415、LCD417、及び投光レンズ419と同様とすることができる。
図5に係る投光装置50は、3D照明及び2D用照明を同一の投光レンズで投光する。これにより、3D用照明及び2D用照明の投光の中心軸や画角、強度分布等を同等とすることができる。これにより、3D用照明及び2D用照明を対象物へ投光した際の反射特性をほぼ一致させることが可能である。この結果、3D用画像の成分を2D用画像の成分で除算して得られる除算画像を生成すると、除算画像において、対象物表面での反射率に応じた係数成分(上述のαに相当)の影響を極めて小さく抑えることができる。
また、第2構成例では、ビームスプリッタやミラーが不要であるため、第1構成例よりもサイズを小さくしたり、コストを抑制したりできる場合がある。
[4.3 第3構成例]
続いて、図6を参照しながら、3D投光装置11及び2D投光装置13の第3構成例を説明する。第3構成例では、投光装置60が3D投光装置11に、投光装置61が2D投光装置13に、それぞれ相当する。
投光装置60は、光源601、レンズ603、マスク605、及び投光レンズ607を含む。また投光装置61は、光源611、レンズ613、マスク615、投光レンズ617を含む。
光源601及び光源611は、例えばLDやVCSEL等の偏光成分が均一なものが適しているが、他にも、LEDやランプ等によっても実現可能である。波長は単色波長でもよいし、単色波長でなくともよい。光源601及び光源611の波長特性は異なっていてもよい。なお、対象物に照射される3D用照明の強度と2D用照明の強度が均一化するように、3D用照明に用いる光源601の強度を、2D用照明に用いる光源611の強度よりも強くしても良い。
光源601から照射された光束は、レンズ603により、マスク605へと導光される。同様に、光源611から照射された光束は、レンズ613により、マスク615へと導光される。
マスク605及びマスク615は、それぞれ、第1構成例のマスク409及びマスク413に対応する。マスク605及びマスク615を透過した光束は、それぞれ、投光レンズ607及び投光レンズ617を投光する。ここで、投光レンズ607及び投光レンズ617は、投射する光の画角、強度分布等の特性がほぼ同等であることが望ましい。
投光レンズ607及び617の画角及び強度分布を同等とし、また、3D用照明に用いる投光レンズ607及び2D用照明に用いる投光レンズ617を近接させて配置し、更に両者の投光の中心軸を略平行とすることにより、3D用照明と2D用照明とを略同軸とみなすことができる。これにより、3D用照明及び2D用照明を対象物に投光し、それを撮像することにより得られる3D用画像及び2D用照明での反射特性に応じた影響も同等となる。この結果、3D用画像の成分を2D用画像の成分で除算して得られる除算画像を生成すると、除算画像において、対象物表面の反射率に応じた係数成分の影響を低く抑えることができる。
また、第3構成例では、ビームスプリッタやPBS、ミラー、LCDが不要であるため、第1構成例よりもサイズを小さくしたり、コストを抑制したりできる場合がある。
[4.4 第4構成例]
図7を参照しながら、3D投光装置11及び2D投光装置13の第4構成例を説明する。第4構成例では、投光装置70が3D投光装置11に、光源モジュール71が2D投光装置13に、それぞれ相当する。
投光装置70は、第3構成例に示した投光装置60と同様に、光源701、レンズ703、マスク705、及び投光レンズ707を含む。
光源モジュール71は、光源711及びレンズ713を含む。光源711は、LED、LD、VCSEL、又はランプにより実現可能である。波長は単色波長であってもよいし、単色波長でなくともよい。光源701及び光源711の波長特性は異なっていてもよい。なお、対象物に照射される3D用照明の強度と2D用照明の強度が均一化するように、3D用照明に用いる光源701の強度を、2D用照明に用いる光源711の強度よりも強くしても良い。
光源701から照射された光束は、レンズ713により2D用光源(略均一光)として投光される。この際、レンズ713から投光される2D用照明の画角は、投光レンズ707による投光の画角と略同一であることが望ましい。
投光レンズ707とレンズ713の画角を同等とし、また、3D用照明に用いる投光レンズ707及び2D用照明に用いる光源モジュール41を近接させて配置し、更に両者の投光の中心軸を略並行とすることにより、3D用照明と2D用照明とを略同軸とみなすことができる。これにより、3D用照明及び2D用照明を対象物に投光し、それを撮像することにより得られる3D用画像及び2D用照明での反射特性に応じた影響も同等となる。この結果、3D用画像の成分を2D用画像の成分で除算して得られる除算画像を生成すると、除算画像における対象物表面の反射率に応じた係数成分の影響を低く抑えることができる。
また、第4構成例では、光源モジュール71を簡易チップLED等の簡素な構成で実現することができる。この結果、第1構成例乃至第3構成例に比べ、低コストで実現することができる。
[5 ハードウェア構成]
以下、図8を参照しながら、画像処理システム1を実現可能なハードウェア構成を説明する。図8は、本実施形態に係る画像処理システム1のハードウェア構成の一例を模式的に例示する。
図8の例に示す画像処理システム1は、制御部801、記憶部805、通信インタフェース(I/F)部811、入力部813、及び出力部815を含み、各部はバスライン817を介して相互に通信可能に接続され得る。
制御部801は、CPU(Central Processing Unit)、RAM(Random Access Memory)803、ROM(READOnly Memory)等を副意味、情報処理に応じて各構成要素の制御を行う。記憶部805は、例えばハード・ディスク・ドライブ(HDD)、ソリッド・ステート・ドライブ(SSD)等の補助記憶装置であり制御部801で実行される画像処理プログラム807、及び、パターン光の投光に用いる画像や、撮像される3D用画像、2D用画像、及び環境光画像等である画像データ809等を記憶する。この他、CADモデルデータ等も記憶部805に記憶される。
画像処理プログラム807は、図1乃至図3を参照しながら説明してきた、画像処理システム1の処理を実行させるためのプログラムである。特に、図2に示した制御部110及び認識部150の各構成は、画像処理プログラム807として実現しうる。
通信インタフェース(I/F)部811は、例えば、有線又は無線により他の装置と通信するための通信モジュールである。通信I/F部811が他の装置との通信に用いる通信方式は任意であるが、例えば、LAN(Local Area Network)やUSB(Universal Serial Bus)等が挙げられる。特に、3D投光装置11、2D投光装置13、及び撮像装置15は、通信I/F部811を介して、制御部801等と通信可能に設けることが可能である。
入力部813は、例えば、マウスやキーボード、タッチパネル等で実現しうる、ユーザからの各種入力操作を受け付けるためのデバイスである。出力部815は、例えば、ディスプレイやスピーカ等、表示や音声等により、画像処理システム1を利用するユーザ等へ各種情報を報知するための装置である。
[6 本実施形態の効果]
以上説明したように、本実施形態に係る画像処理システム1では、3次元計測用のパターン光を対象物に投光し、それを撮像することにより得られる3D用画像に加えて、略均一光である2D用照明を投光し、2D用画像を撮像する。3D用画像の成分を2D用画像の成分で除算することで、3次元計測で課題となる、対象物表面の凹凸形状や光の反射/浸透等の反射率に応じた係数成分の影響を除去することができる。これにより、表面の形状が複雑な対象物であっても、好適に3次元形状を計測することができる。
[7 付記]
以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。
(付記1)
3次元形状を特定するためのパターン光を対象物に投光する第1投光部(11)と、
照射エネルギーが投光方向の断面方向において略均一な略均一照明を、前記第1投光部(11)による投光と略同一角度で前記対象物に投光する第2投光部(13)と、
前記第1投光部(11)による前記対象物への前記パターン光の投光を制御する第1投光制御部(113)と、
前記第2投光部(13)による前記対象物への前記略均一照明の投光を制御する第2投光制御部(115)と、
前記対象物を撮像する撮像部(15)と、
前記撮像部(15)による撮像を制御する撮像制御部(117)と、
前記第1投光制御部(113)が前記パターン光の投光するように制御し、かつ、前記第2投光制御部(115)が前記略均一照明の投光しないよう制御した状態で、前記撮像部(15)により撮像された第1撮像画像を記録する第1撮像画像記録部(121)と、
前記第1投光制御部(113)が前記パターン光の投光しないように制御し、かつ、前記第2投光制御部(115)が前記略均一照明の投光するよう制御した状態で、前記撮像部(15)により撮像された第2撮像画像を記録する第2撮像画像記録部(123)と、
前記第1撮像画像に係る成分を前記第2撮像画像に係る成分で除算することにより除算画像を生成する生成部と、
前記除算画像を用いて、前記対象物の3次元位置を計算する計算部と
を備える画像処理システム。
(付記2)
前記生成部(127)は、前記第1投光部及び前記第2投光部の非投光時に、環境光が前記対象物に投光された第3撮像画像に係る成分を前記第1撮像画像に係る成分から減算して得られる画像に係る成分を、前記第2撮像画像に係る成分から前記第3撮像画像に係る成分を減算して得られる画像に係る成分で除算することにより前記除算画像を生成する、
付記1記載の画像処理システム(1)。
(付記3)
前記第1撮像画像の撮像時における前記第1投光部(11)の投光時間よりも、前記第2撮像画像の撮像時における前記第2投光部(13)の投光時間の方が短い、
付記1又は付記2記載の画像処理システム(1)。
(付記4)
前記第1撮像画像の撮像時における前記撮像部(15)の露光時間よりも、前記第2撮像画像の撮像時における前記撮像部(159)の露光時間の方が短い、
付記1又は付記2記載の画像処理システム(1)。
(付記5)
前記第1投光部(11)及び前記第2投光部(13)は、同一の投光レンズ(419、517)を用いて投光する、
付記1乃至付記4のいずれか1項記載の画像処理システム(1)。
(付記6)
前記第1投光部(11)及び前記第2投光部(13)は、同一の光源(401)を用いて投光する、
付記5記載の画像処理システム(1)。
(付記7)
前記第1投光部(11)は、第1光源(501、601、701)を用いて投光し、
前記第2投光部(13)は、前記第1光源(501、601、701)と別に設けられた第2光源(507、611、711)を用いて、前記第1投光部(11)と略同一角度で前記対象物に投光する、
付記1乃至付記4のいずれか1項記載の画像処理システム(1)。
(付記8)
前記第1投光部(11)は、第1光源(601)及び第1投光レンズ(607)を用いて投光し、
前記第2投光部(13)は、前記第1光源(601)及び前記第1投光レンズ(607)とは別に設けられた第2光源(611)及び第2投光レンズ(617)を用いて、前記第1投光部(11)による投光と略同一角度で前記対象物に投光する、
付記1乃至付記4のいずれか1項記載の画像処理システム(1)。
(付記9)
前記第1光源の強度は、前記第2光源の強度よりも強い、
付記7又は付記8記載の画像処理システム(1)。
(付記10)
前記対象物の3次元構造データを読み込む読込部(151)と、
前記対象物に係る前記3次元構造データと、前記3次元位置とを照合する照合部(153)と
を更に備える、付記1乃至付記9のいずれか1項記載の画像処理システム(1)。
(付記11)
3次元形状を特定するためのパターン光を対象物に投光する第1投光部(11)を制御する第1投光処理と、
照射エネルギーが投光方向の断面方向において略均一な略均一照明を、前記第1投光処理による投光と略同一角度で前記対象物に投光する第2投光部(13)を制御する第2投光処理と、
前記対象物を撮像する撮像部(15)を制御する撮像処理と、
前記第1投光処理で前記パターン光の投光するように制御し、かつ、前記第2投光処理で前記略均一照明の投光しないよう制御した状態で、前記撮像部により撮像された第1撮像画像を記録する第1撮像画像記録処理と、
前記第1投光処理で前記パターン光の投光しないように制御し、かつ、前記第2投光処理で前記略均一照明の投光するよう制御した状態で、前記撮像部により撮像された第2撮像画像を記録する第2撮像画像記録処理と、
前記第1撮像画像に係る成分を、前記第2撮像画像に係る成分で除算することにより除算画像を生成する生成処理と、
前記除算画像を用いて、前記対象物の3次元位置を計算する計算処理と
を画像処理システム(1)が行う、画像処理方法。
1…画像処理システム、11…3D投光装置、13…2D投光装置、15…撮像装置、40…投光装置、41…光源モジュール、50…投光装置、60…投光装置、61…投光装置、70…投光装置、71…光源モジュール、110…制御部、111…駆動制御部、113…3D用投光制御部、115…2D用投光制御部、117…撮像制御部、119…画像入力部、121…3D用画像記録部、123…2D用画像記録部、125…環境光画像記録部、127…除算画像生成部、129…パターン光用画像読込部、131…3次元位置計算部、133…3次元点群出力部、150…認識部、151…CADモデル読込部、153…CAD照合部、155…照合結果出力部、801…制御部、805…記憶部、807…画像処理プログラム、809…画像データ、811…通信インタフェース部、813…入力部、815…出力部、817…バスライン

Claims (11)

  1. 3次元形状を特定するためのパターン光を対象物に投光する第1投光部と、
    照射エネルギーが投光方向の断面方向において略均一な略均一照明を、前記第1投光部による投光と略同一角度で前記対象物に投光する第2投光部と、
    前記第1投光部による前記対象物への前記パターン光の投光を制御する第1投光制御部と、
    前記第2投光部による前記対象物への前記略均一照明の投光を制御する第2投光制御部と、
    前記対象物を撮像する撮像部と、
    前記撮像部による撮像を制御する撮像制御部と、
    前記第1投光制御部が前記パターン光の投光するように制御し、かつ、前記第2投光制御部が前記略均一照明の投光しないよう制御した状態で、前記撮像部により撮像された第1撮像画像を記録する第1撮像画像記録部と、
    前記第1投光制御部が前記パターン光の投光しないように制御し、かつ、前記第2投光制御部が前記略均一照明の投光するよう制御した状態で、前記撮像部により撮像された第2撮像画像を記録する第2撮像画像記録部と、
    前記第1撮像画像に係る成分を前記第2撮像画像に係る成分で除算することにより除算画像を生成する生成部と、
    前記除算画像を用いて、前記対象物の3次元位置を計算する計算部と
    を備える画像処理システム。
  2. 前記生成部は、前記第1投光部及び前記第2投光部の非投光時に、環境光が前記対象物に投光された第3撮像画像に係る成分を前記第1撮像画像に係る成分から減算して得られる画像に係る成分を、前記第2撮像画像に係る成分から前記第3撮像画像に係る成分を減算して得られる画像に係る成分で除算することにより前記除算画像を生成する、
    請求項1記載の画像処理システム。
  3. 前記第1撮像画像の撮像時における前記第1投光部の投光時間よりも、前記第2撮像画像の撮像時における前記第2投光部の投光時間の方が短い、
    請求項1又は請求項2記載の画像処理システム。
  4. 前記第1撮像画像の撮像時における前記撮像部の露光時間よりも、前記第2撮像画像の撮像時における前記撮像部の露光時間の方が短い、
    請求項1又は請求項2記載の画像処理システム。
  5. 前記第1投光部及び前記第2投光部は、同一の投光レンズを用いて投光する、
    請求項1乃至請求項4のいずれか1項記載の画像処理システム。
  6. 前記第1投光部及び前記第2投光部は、同一の光源を用いて投光する、
    請求項5記載の画像処理システム。
  7. 前記第1投光部は、第1光源を用いて投光し、
    前記第2投光部は、前記第1光源と別に設けられた第2光源を用いて、前記第1投光部と略同一角度で前記対象物に投光する、
    請求項1乃至請求項4のいずれか1項記載の画像処理システム。
  8. 前記第1投光部は、第1光源及び第1投光レンズを用いて投光し、
    前記第2投光部は、前記第1光源及び前記第1投光レンズとは別に設けられた第2光源及び第2投光レンズを用いて、前記第1投光部による投光と略同一角度で前記対象物に投光する、
    請求項1乃至請求項4のいずれか1項記載の画像処理システム。
  9. 前記第1光源の強度は、前記第2光源の強度よりも強い、
    請求項7又は請求項8記載の画像処理システム。
  10. 前記対象物の3次元構造データを読み込む読込部と、
    前記対象物に係る前記3次元構造データと、前記3次元位置とを照合する照合部と
    を更に備える、請求項1乃至請求項9のいずれか1項記載の画像処理システム。
  11. 3次元形状を特定するためのパターン光を対象物に投光する第1投光部を制御する第1投光処理と、
    照射エネルギーが投光方向の断面方向において略均一な略均一照明を、前記第1投光処理による投光と略同一角度で前記対象物に投光する第2投光部を制御する第2投光処理と、
    前記対象物を撮像する撮像部を制御する撮像処理と、
    前記第1投光処理で前記パターン光の投光するように制御し、かつ、前記第2投光処理で前記略均一照明の投光しないよう制御した状態で、前記撮像部により撮像された第1撮像画像を記録する第1撮像画像記録処理と、
    前記第1投光処理で前記パターン光の投光しないように制御し、かつ、前記第2投光処理で前記略均一照明の投光するよう制御した状態で、前記撮像部により撮像された第2撮像画像を記録する第2撮像画像記録処理と、
    前記第1撮像画像に係る成分を、前記第2撮像画像に係る成分で除算することにより除算画像を生成する生成処理と、
    前記除算画像を用いて、前記対象物の3次元位置を計算する計算処理と
    を画像処理システムが行う、画像処理方法。
JP2017232027A 2017-12-01 2017-12-01 画像処理システム、及び画像処理方法 Active JP6970376B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017232027A JP6970376B2 (ja) 2017-12-01 2017-12-01 画像処理システム、及び画像処理方法
CN201811054519.2A CN109872382B (zh) 2017-12-01 2018-09-11 图像处理系统及图像处理方法
US16/133,171 US11118901B2 (en) 2017-12-01 2018-09-17 Image processing system and image processing method
EP18195802.6A EP3492861B1 (en) 2017-12-01 2018-09-20 Image processing system and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017232027A JP6970376B2 (ja) 2017-12-01 2017-12-01 画像処理システム、及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2019100852A true JP2019100852A (ja) 2019-06-24
JP6970376B2 JP6970376B2 (ja) 2021-11-24

Family

ID=63798774

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017232027A Active JP6970376B2 (ja) 2017-12-01 2017-12-01 画像処理システム、及び画像処理方法

Country Status (4)

Country Link
US (1) US11118901B2 (ja)
EP (1) EP3492861B1 (ja)
JP (1) JP6970376B2 (ja)
CN (1) CN109872382B (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6782433B2 (ja) * 2017-03-22 2020-11-11 パナソニックIpマネジメント株式会社 画像認識装置
JP7131118B2 (ja) * 2018-06-22 2022-09-06 富士通株式会社 認証装置、認証プログラム、認証方法
US10627709B2 (en) * 2018-06-29 2020-04-21 Ricoh Company, Ltd. Light source, projection device, measurement device, robot, electronic device, mobile object, and shaping apparatus
CN112640447B (zh) 2018-08-30 2022-04-29 韦奥机器人股份有限公司 深度感测计算机视觉系统
CN110332907B (zh) * 2019-08-19 2021-04-13 珠海博明视觉科技有限公司 一种提高面条纹光重建精度的方法
JP2022173763A (ja) * 2021-05-10 2022-11-22 セイコーエプソン株式会社 投写方法、及びプロジェクター
DE102022125357A1 (de) 2022-09-30 2024-04-04 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren und Oberflächeninspektionssystem sowie Computerprogramm und computerlesbares Speichermedium zur Vermessung und / oder Inspektion von Oberflächen eines Objektes

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03289505A (ja) * 1990-04-06 1991-12-19 Nippondenso Co Ltd 3次元形状測定装置
JP2002213931A (ja) * 2001-01-17 2002-07-31 Fuji Xerox Co Ltd 3次元形状計測装置および3次元形状計測方法
US6549288B1 (en) * 1998-05-14 2003-04-15 Viewpoint Corp. Structured-light, triangulation-based three-dimensional digitizer
JP2005140537A (ja) * 2003-11-04 2005-06-02 West Japan Railway Co ラインセンサーを用いた形状計測装置とその計測方法
JP2008249432A (ja) * 2007-03-29 2008-10-16 Fukuoka Institute Of Technology 非静止物体の三次元画像計測装置、三次元画像計測方法および三次元画像計測プログラム
JP2012068176A (ja) * 2010-09-27 2012-04-05 Panasonic Corp 三次元形状計測装置
JP2015087243A (ja) * 2013-10-30 2015-05-07 キヤノン株式会社 画像処理装置、画像処理方法、
JP2017020873A (ja) * 2015-07-09 2017-01-26 キヤノン株式会社 被計測物の形状を計測する計測装置
JP2017138176A (ja) * 2016-02-03 2017-08-10 株式会社リコー 三次元情報取得システム、三次元情報取得方法及びピッキングシステム

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004328657A (ja) * 2003-04-28 2004-11-18 Toshiba Corp 画像入力装置、画像入力方法およびプログラム
WO2005031253A1 (ja) * 2003-09-29 2005-04-07 Brother Kogyo Kabushiki Kaisha 3次元形状検出装置、撮像装置、及び、3次元形状検出プログラム
US9330324B2 (en) 2005-10-11 2016-05-03 Apple Inc. Error compensation in three-dimensional mapping
JP5001286B2 (ja) 2005-10-11 2012-08-15 プライム センス リミティド 対象物再構成方法およびシステム
EP1971820B1 (de) * 2006-01-08 2012-10-17 Hermann Tropf Erstellung eines abstandsbildes
KR101408959B1 (ko) 2006-03-14 2014-07-02 프라임센스 엘티디. 삼차원 감지를 위한 깊이 가변 광 필드
CN101496033B (zh) 2006-03-14 2012-03-21 普莱姆森斯有限公司 利用散斑图案的三维传感
EP1994503B1 (en) 2006-03-14 2017-07-05 Apple Inc. Depth-varying light fields for three dimensional sensing
US8538166B2 (en) * 2006-11-21 2013-09-17 Mantisvision Ltd. 3D geometric modeling and 3D video content creation
US8090194B2 (en) * 2006-11-21 2012-01-03 Mantis Vision Ltd. 3D geometric modeling and motion capture using both single and dual imaging
US8150142B2 (en) 2007-04-02 2012-04-03 Prime Sense Ltd. Depth mapping using projected patterns
DE102008002730B4 (de) * 2008-06-27 2021-09-16 Robert Bosch Gmbh Verfahren und Vorrichtung zur 3D-Rekonstruktion
TW201227159A (en) * 2010-12-24 2012-07-01 wen-jin Zhang Method of taking pictures for generating three-dimensional image data
TWI404893B (zh) * 2011-05-13 2013-08-11 南臺科技大學 無導光板之led發光構造
KR101328846B1 (ko) * 2011-12-06 2013-11-13 엘지디스플레이 주식회사 입체영상 표시장치 및 그 구동방법
JP5841495B2 (ja) * 2012-05-23 2016-01-13 日本電信電話株式会社 投影型3次元形状復元装置、投影型3次元形状復元方法、投影型3次元形状復元プログラムおよびそのプログラムを記録した記録媒体
EP2858269B1 (en) * 2012-05-24 2018-02-28 Panasonic Intellectual Property Corporation of America Information communication method
WO2014171134A1 (ja) * 2013-04-18 2014-10-23 パナソニック株式会社 投写型映像表示装置
JP6270808B2 (ja) * 2013-06-27 2018-01-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 複数の光源を有するモーションセンサ装置
JP2015079807A (ja) * 2013-10-16 2015-04-23 キヤノン株式会社 投影露光装置及び露光条件計算装置
US9254682B2 (en) * 2013-10-28 2016-02-09 Eastman Kodak Company Imaging module with aligned imaging systems
EP2869023B1 (en) 2013-10-30 2018-06-13 Canon Kabushiki Kaisha Image processing apparatus, image processing method and corresponding computer program
JP6228469B2 (ja) * 2014-01-20 2017-11-08 株式会社東芝 画像処理装置、画像処理方法、および画像投影装置
FR3020871B1 (fr) * 2014-05-07 2017-08-11 Areva Dispositif et procede de reconstruction tridimensionnelle d'une scene par analyse d'image
JP6395456B2 (ja) * 2014-06-09 2018-09-26 株式会社キーエンス 画像検査装置、画像検査方法、画像検査プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6357949B2 (ja) * 2014-07-29 2018-07-18 セイコーエプソン株式会社 制御システム、ロボットシステム、及び制御方法
CN106796661B (zh) * 2014-08-12 2020-08-25 曼蒂斯影像有限公司 投影光图案的系统、方法和计算机程序产品
JP6614905B2 (ja) * 2014-12-01 2019-12-04 キヤノン株式会社 三次元計測装置およびその制御方法
US9591240B1 (en) * 2014-12-01 2017-03-07 The Florida State University Research Foundation, Inc. System and method for generating a dataset for real noise reduction evaluation
CA2977374C (en) * 2015-02-25 2019-04-16 Facebook, Inc. Identifying an object in a volume based on characteristics of light reflected by the object
JP6478713B2 (ja) * 2015-03-04 2019-03-06 キヤノン株式会社 計測装置および計測方法
CN106296628B (zh) * 2015-05-11 2019-03-05 株式会社理光 检测异常情形的方法和装置
JP2017003469A (ja) * 2015-06-11 2017-01-05 キヤノン株式会社 三次元計測装置、三次元計測装置の制御方法及びプログラム
JP2017121041A (ja) * 2015-12-11 2017-07-06 三星電子株式会社Samsung Electronics Co.,Ltd. 撮像装置
JP2017122641A (ja) * 2016-01-07 2017-07-13 Ckd株式会社 三次元計測装置
JP6631281B2 (ja) * 2016-02-03 2020-01-15 セイコーエプソン株式会社 インタラクティブプロジェクター、及び、そのオートキャリブレーション実行方法
JP6623812B2 (ja) * 2016-02-17 2019-12-25 セイコーエプソン株式会社 位置検出装置、及び、そのコントラスト調整方法
JP6795993B2 (ja) * 2016-02-18 2020-12-02 株式会社ミツトヨ 形状測定システム、形状測定装置及び形状測定方法
JP6800597B2 (ja) * 2016-03-30 2020-12-16 キヤノン株式会社 制御装置、制御方法およびプログラム
JP2017191082A (ja) * 2016-04-15 2017-10-19 株式会社イデアクエスト 輝点画像取得装置および輝点画像取得方法
US10338675B2 (en) * 2017-02-14 2019-07-02 Facebook Technologies, Llc Selective color sensing for motion tracking
US10445893B2 (en) * 2017-03-10 2019-10-15 Microsoft Technology Licensing, Llc Dot-based time of flight

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03289505A (ja) * 1990-04-06 1991-12-19 Nippondenso Co Ltd 3次元形状測定装置
US6549288B1 (en) * 1998-05-14 2003-04-15 Viewpoint Corp. Structured-light, triangulation-based three-dimensional digitizer
JP2002213931A (ja) * 2001-01-17 2002-07-31 Fuji Xerox Co Ltd 3次元形状計測装置および3次元形状計測方法
JP2005140537A (ja) * 2003-11-04 2005-06-02 West Japan Railway Co ラインセンサーを用いた形状計測装置とその計測方法
JP2008249432A (ja) * 2007-03-29 2008-10-16 Fukuoka Institute Of Technology 非静止物体の三次元画像計測装置、三次元画像計測方法および三次元画像計測プログラム
JP2012068176A (ja) * 2010-09-27 2012-04-05 Panasonic Corp 三次元形状計測装置
JP2015087243A (ja) * 2013-10-30 2015-05-07 キヤノン株式会社 画像処理装置、画像処理方法、
JP2017020873A (ja) * 2015-07-09 2017-01-26 キヤノン株式会社 被計測物の形状を計測する計測装置
JP2017138176A (ja) * 2016-02-03 2017-08-10 株式会社リコー 三次元情報取得システム、三次元情報取得方法及びピッキングシステム

Also Published As

Publication number Publication date
CN109872382A (zh) 2019-06-11
EP3492861B1 (en) 2021-08-04
US20190170506A1 (en) 2019-06-06
US11118901B2 (en) 2021-09-14
CN109872382B (zh) 2023-06-20
JP6970376B2 (ja) 2021-11-24
EP3492861A1 (en) 2019-06-05

Similar Documents

Publication Publication Date Title
JP6970376B2 (ja) 画像処理システム、及び画像処理方法
US20210297651A1 (en) Three dimensional depth mapping using dynamic structured light
US9826216B1 (en) Systems and methods for compact space-time stereo three-dimensional depth sensing
JP7076368B2 (ja) レンジゲート式デプスカメラ部品
US10132613B2 (en) Information processing apparatus, method for controlling information processing apparatus, gripping system, and storage medium
US20170059305A1 (en) Active illumination for enhanced depth map generation
US9047514B2 (en) Apparatus, system and method for projecting images onto predefined portions of objects
US10916025B2 (en) Systems and methods for forming models of three-dimensional objects
US10249076B2 (en) Image processing apparatus, image capturing apparatus, image processing method and storage medium storing image processing program
TW201241547A (en) System, device and method for acquiring depth image
CN107241592B (zh) 一种成像设备及成像方法
JP2016100698A (ja) 校正装置、校正方法、プログラム
US11509803B1 (en) Depth determination using time-of-flight and camera assembly with augmented pixels
JPWO2020183711A1 (ja) 画像処理装置及び3次元計測システム
JP6237032B2 (ja) 色と三次元形状の計測方法及び装置
JP5059503B2 (ja) 画像合成装置、画像合成方法及び画像合成プログラム
CN108062790B (zh) 应用于物体三维重建的三维坐标系建立方法
JP2020004085A (ja) 画像処理装置、画像処理方法及びプログラム
JP5441752B2 (ja) 環境内の3d物体の3d姿勢を推定する方法及び装置
US20160366395A1 (en) Led surface emitting structured light
TWI535288B (zh) 深度攝影機系統
JP6969739B2 (ja) 位置情報取得システム、位置情報取得方法及びプログラム
KR102433837B1 (ko) 3차원 정보 생성 장치
US20180158205A1 (en) Apparatus and method for generating three-dimensional information
JP2004170305A (ja) 3次元形状計測方法および3次元形状計測装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211012

R150 Certificate of patent or registration of utility model

Ref document number: 6970376

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150