JP7364439B2 - Tofセンサを用いた物体検出システム - Google Patents
Tofセンサを用いた物体検出システム Download PDFInfo
- Publication number
- JP7364439B2 JP7364439B2 JP2019212636A JP2019212636A JP7364439B2 JP 7364439 B2 JP7364439 B2 JP 7364439B2 JP 2019212636 A JP2019212636 A JP 2019212636A JP 2019212636 A JP2019212636 A JP 2019212636A JP 7364439 B2 JP7364439 B2 JP 7364439B2
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- tof sensor
- imaging position
- calculation unit
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/32—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
- G01S17/36—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/491—Details of non-pulse systems
- G01S7/4911—Transmitters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/491—Details of non-pulse systems
- G01S7/4912—Receivers
- G01S7/4918—Controlling received signal intensity, gain or exposure of sensor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/71—Circuitry for evaluating the brightness variation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/74—Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/06—Recognition of objects for industrial automation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Robotics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Mechanical Engineering (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Manipulator (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Description
また、本開示の一態様は、対象空間に照射した参照光と対象空間からの反射光との位相差に基づき対象空間の画像を出力するTOFセンサと、出力された画像に基づいて対象空間に存在する対象物の位置を検出する物体検出部と、検出された対象物の画像に基づいてTOFセンサのインテグレーションタイム及び発光周期のうちの少なくとも一方を含む撮像条件を算出する撮像条件算出部と、検出された対象物の画像に基づいて変更後の撮像位置を少なくとも算出する撮像位置姿勢算出部と、算出された撮像位置へTOFセンサ又は対象物の位置を少なくとも変更する移動機構と、を備え、撮像位置姿勢算出部は、検出された対象物に対するマルチパスの影響を与える物体の面を特定し、TOFセンサが照射する参照光が物体の面に照射されないように撮像位置の算出が可能であり、撮像位置姿勢算出部は、検出された対象物又は対象物の特徴部位が画像内でより大きく撮像されるように撮像位置を算出する、物体検出システムも提供する。
本開示の他の態様は、対象空間に照射した参照光と対象空間からの反射光との位相差に基づき対象空間の画像を出力するTOFセンサと、出力された画像に基づいて対象空間に存在する対象物の位置を検出する物体検出部と、検出された対象物の画像に基づいてTOFセンサのインテグレーションタイム及び発光周期のうちの少なくとも一方を含む撮像条件を算出する撮像条件算出部と、検出された対象物の画像に基づいて変更後のTOFセンサの撮像位置を少なくとも算出する撮像位置姿勢算出部と、算出された撮像位置へTOFセンサ又は対象物の位置を少なくとも変更する移動機構と、を備え、撮像位置姿勢算出部は、検出された対象物に対するマルチパスの影響を与える物体の面を特定し、TOFセンサが照射する参照光が物体の面に照射されないように撮像位置の算出が可能であり、物体検出部は、出力された画像と予め記憶された対象物又は対象物の特徴部位の基準データとに基づいて対象物の類似度を示す評価値をさらに算出し、算出された評価値が予め定めた閾値より低い場合、撮像条件算出部が撮像条件を算出するか、又は撮像位置姿勢算出部が撮像位置を算出する、物体検出システムを提供する。
また、本開示の他の態様は、対象空間に照射した参照光と対象空間からの反射光との位相差に基づき対象空間の画像を出力するTOFセンサと、出力された画像に基づいて対象空間に存在する対象物の位置を検出する物体検出部と、検出された対象物の画像に基づいてTOFセンサのインテグレーションタイム及び発光周期のうちの少なくとも一方を含む撮像条件を算出する撮像条件算出部と、検出された対象物の画像に基づいて変更後のTOFセンサの撮像位置を少なくとも算出する撮像位置姿勢算出部と、算出された撮像位置へTOFセンサ又は対象物の位置を少なくとも変更する移動機構と、を備え、撮像位置姿勢算出部は、検出された対象物に対するマルチパスの影響を与える物体の面を特定し、TOFセンサが照射する参照光が物体の面に照射されないように撮像位置の算出が可能であり、撮像位置姿勢算出部は、検出された対象物又は対象物の特徴部位が画像内でより大きく撮像されるように撮像位置を算出する、物体検出システムも提供する。
図3はインテグレーションタイムの算出方法の一例を示している。一般にTOFセンサ10の測距バラツキの大きさσは下記式で表すことができる。ここで、式中のsは対象物W又は対象物Wの特定部位における参照光の反射強度であり、kはTOFセンサ10の定常的なノイズ成分や外光(環境光)の反射光強度等である。
図4及び図5はインテグレーションタイムの算出方法の変形例を示している。TOFセンサ10は、参照光Sの反射光以外に、測定環境の周辺に存在する外光A(環境光ともいう。)の反射光も受光する。図5に示すように参照光の反射強度s1のみでインテグレーションタイムITを調整した場合、外光の反射強度a1が強いときにサチュレーションが発生することがある。またインテグレーションタイムITを増加させた場合、受光する外光の反射強度a2も比例的に増加するため、さらにサチュレーションが発生し易くなる。従って、外光の反射強度a1を加味してインテグレーションタイムITを調整するとよい。外光の反射強度a1は例えば下記式から算出してもよいし、又は参照光Sを発光しないで(即ち、外光の反射光のみで)撮像して取得した電荷量から求めてもよい。撮像条件算出部22は、例えば下記式に示すように、外光の反射強度a1を加味したインテグレーションタイムIT2を算出する。この場合、撮像条件変更部23は、算出されたインテグレーションタイムIT2にTOFセンサ10の設定を変更し、物体検出部21は、変更されたインテグレーションタイムIT2で出力された画像に基づいて対象物Wの位置を検出することになる。このように対象物W又は対象物Wの特定部位における外光の反射強度a1を加味してインテグレーションタイムIT2を調整することにより、外光Aが強い環境下であっても、サチュレーションを発生させずに対象物Wの測距バラツキを低減できることになる。
図6及び図7はインテグレーションタイムの算出方法の他の変形例を示している。撮像位置の変更を伴う場合には、対象物W又は対象物Wの特定部位までの距離d1、d2を加味してインテグレーションタイムを算出するとよい。一般に参照光Sの反射強度sは、下記式に示すように対象物W又は対象物Wの特定部位までの距離dの二乗に反比例する。従って、対象物Wに接近した撮像位置P2における参照光の反射光S2の反射強度s2は、撮像位置P1における参照光の反射光S1の反射強度s1と比べて、撮像位置P1における対象物W又は対象物Wの特定部位までの距離d1と撮像位置P2における対象物W又は対象物Wの特定部位までの距離d2との比の二乗に応じて大きくなる。このためTOFセンサ10が対象物W又は対象物Wの特定部位に接近したときにサチュレーションが発生しない程度に参照光の反射光S2の反射強度s2を大きくするため、撮像条件算出部22は、例えば下記式に示すように、撮像位置の変更前の対象物W又は対象物Wの特定部位までの距離d1と、撮像位置の変更後の対象物W又は対象物Wの特定部位までの距離d2との比の二乗を加味してインテグレーションタイムIT2を算出するとよい。なお、距離d2は、撮像位置P1で撮像した画像から算出した対象物Wまでの距離d1と次の撮像位置P2までの移動ベクトルPから算出できる。また例えば対象物Wが暗い物体で撮像位置を先ず変更した後に撮像条件を調整する場合、距離d2は、撮像位置P2へ移動した後にTOFセンサ10から出力された対象物Wの測距値を利用してもよい。このように撮像条件変更部23は、算出されたインテグレーションタイムIT2にTOFセンサ10の設定を変更し、物体検出部21は、変更されたインテグレーションタイムIT2で出力された画像に基づいて対象物Wの位置を検出することになる。このように対象物W又は対象物Wの特定部位までの距離d1、d2も加味してインテグレーションタイムIT2を調整することにより、撮像位置の変更を伴う場合であっても、サチュレーションを発生させずに対象物Wの測距バラツキを低減できることになる。
図1を再び参照すると、撮像条件算出部22は、前述したインテグレーションタイムの算出方法1~3と同様の考え方を利用して参照光の発光強度を算出してもよい。なお一般的に、インテグレーションタイムの増減によって外光の反射光の受光量も比例的に増減するが、発光強度の増減によって外光の反射光の受光量は変化しない。例えば下記式は、外光の反射強度a1を加味し、さらに撮像位置の変更を伴う場合の算出式で、式8に相当する。外光の反射強度を加味しない場合はa1=0とし、また撮像位置の変更が無い場合はd1=d2とすればよい。ここで、式中のLI1は調整前の発光強度であり、この場合、撮像条件変更部23は、算出された発光強度LI2にTOFセンサ10の設定を変更し、物体検出部21は、変更された発光強度LI2で出力された画像に基づいて対象物Wの位置を検出することになる。参照光の発光強度は、前述の通り、発光させる発光素子の数で調整してもよいし、又は発光素子へ供給する電圧値又は電流値で調整してもよい。このように対象物W又は対象物Wの特定部位における光強度、距離等に基づいて発光強度を調整することにより、対象物Wの測距バラツキをより一層低減できることになる。
式3で示したように一般にTOFセンサ10の測距バラツキの大きさσは参照光の発光周波数f(=1/T)が大きくなることで低減する。このため、撮像条件算出部22は、検出された対象物W又は対象物Wの特定部位までの距離dに基づいて参照光の発光周波数f(発光周期Tでもよい。以下同様。)をさらに算出してもよい。しかし単純に発光周波数fを大きくすると、エリアジングによる測距誤りが発生するので注意が必要である。図8はエリアジングによる測距誤りの発生と適切な発光周波数fの算出方法の一例を示している。例えば参照光の発光周波数fが30MHz(発光周期Tが33nm)である場合、TOFセンサ10の正しい測距が可能な測距レンジLmaxは下記式から5mになる。このとき例えば検出された対象物W又は対象物Wの特定部位までの実際の距離dが6mであった場合、エリアジングによる測距誤りが発生することになる(誤って1mとして測距される)。従って、対象物W又は対象物Wの特定部位までの距離が不明な段階では低い発光周波数で撮像を行い、対象物W又は対象物Wの特定部位が検出され、その距離が判明したところでエリアジングの発生しない適切な発光周波数を算出するのがよい。例えば低い発光周波数の撮像において対象物W又は対象物Wの特定部位までの距離dが80cmであった場合、エリアジングによる測距誤りが発生しない程度に発光周波数fを大きくするため、撮像条件算出部22は、例えば下記式に示すように、検出された距離dに所定のマージンβ(例えば20cm)を加味した距離(例えば1m)がTOFセンサ10の測距レンジLmaxになるように、発光周波数f=150MHz(発光周期T=6nm)を算出する。この場合、撮像条件変更部23は、算出された発光周波数fにTOFセンサ10の設定を変更し、物体検出部21は、変更された発光周波数fで出力された画像に基づいて対象物Wの位置を検出することになる。このように対象物W又は対象物Wの特定部位までの距離dに基づいて発光周波数fを高くすることにより、エリアジングによる測距誤りを発生させずに対象物Wの測距バラツキをより一層低減できることになる。
一般的なTOFセンサ(又はFAカメラ)にはズーム機能は無いため、図9の右上に示すように、撮像位置姿勢算出部24は、検出された対象物W又は対象物Wの特徴部位に接近して画像内でより大きく撮像される撮像位置P2を算出するとよい。図10は対象物Wに対して接近することで、画像内でより大きく撮像することが可能な撮像位置P2を示している。これにより、対象物W又は対象物Wの特徴部位に対する測距点数の増加や、対象物Wにおける参照光Sの反射強度の増加による測距バラツキの低下が期待できる。また撮像位置P2では、強反射物体OがTOFセンサ10の画角内(即ち、参照光Sの照射範囲)に入らないため、対象物Wが強反射物体Oによるマルチパスの影響を受けず、対象物Wの測距値d2が後方にシフトする現象は発生しない。このように対象物W又は対象物Wの特徴部位が画像内でより大きく撮像される撮像位置P2に調整することにより、対象物Wの位置を精度良く検出できるようになる。
図9の右下に示すように、撮像位置姿勢算出部24は、マルチパスの影響を与える強反射物体Oの面を特定し、物体Oの面に対してTOFセンサ10の参照光が照射されなくなる撮像位置P4を算出してもよい。一般のTOFセンサは、参照光の照射部とその反射光の受光部が一体化されていて同一位置にあるとみなせるため、物体Oの面が見えなくなる撮像位置が、即ち物体Oの面に対して参照光が照射されない位置となり、物体Oの面からのマルチパスの影響は発生しなくなる。図12Aはマルチパスの影響を与える物体Oの面Fが見える撮像位置P1を示しており、図12Bはマルチパスの影響を与える物体Oの面Fが見えなくなる撮像位置P4を示している。撮像位置姿勢算出部24は、検出された対象物W又は対象物Wの特徴部位の近傍に存在する強反射物体Oの面を画像内から特定し、特定された面Fの位置及び姿勢を算出し、面Fの延長面上の点を撮像位置P4として算出するとよい。また対象物や強反射物体の配置状況によっては図9の右上や図10の右に示すようにTOFセンサ10を対象物Wに近接させることによって強反射物体の面が見えなくなる撮像位置となる場合もある。このようにマルチパスの影響を与える強反射物体Oの面が見えなくなる撮像位置P4に調整することにより、対象物Wの位置を精度良く検出できるようになる。
10 TOFセンサ
20 制御装置
21 物体検出部
22 撮像条件算出部
23 撮像条件変更部
24 撮像位置姿勢算出部
25 記憶部
26 動作制御部
30 ロボット
31 ツール
W 対象物
S 参照光
Q1-Q4 電荷量
IT、IT1、IT2 インテグレーションタイム
T 発光周期
N 必要撮像回数
S1、S2 参照光の反射光
s1、s2 参照光の反射強度
A 外光
a、a1、a2 外光の反射強度
P1、P2、P4 撮像位置
P3 撮像位置姿勢
d1、d2 対象物又は対象物の特定部位までの距離
f 発光周波数
Lmax 測距レンジ
O 強反射物体
Claims (12)
- 対象空間に照射した参照光と前記対象空間からの反射光との位相差に基づき前記対象空間の画像を出力するTOFセンサと、
出力された前記画像に基づいて前記対象空間に存在する対象物の位置を検出する物体検出部と、
検出された前記対象物の画像に基づいて前記TOFセンサのインテグレーションタイム及び発光周期のうちの少なくとも一方を含む撮像条件を算出する撮像条件算出部と、
検出された前記対象物の画像に基づいて変更後の撮像位置を少なくとも算出する撮像位置姿勢算出部と、
算出された前記撮像位置へ前記TOFセンサ又は前記対象物の位置を少なくとも変更する移動機構と、
を備え、
前記撮像位置姿勢算出部は、検出された前記対象物に対するマルチパスの影響を与える物体の面を特定し、前記TOFセンサが照射する前記参照光が前記物体の面に照射されないように前記撮像位置の算出が可能であり、
前記物体検出部は、出力された前記画像と予め記憶された前記対象物又は前記対象物の特徴部位の基準データとに基づいて前記対象物の類似度を示す評価値をさらに算出し、算出された前記評価値が予め定めた閾値より低い場合、前記撮像条件算出部が前記撮像条件を算出するか、又は前記撮像位置姿勢算出部が前記撮像位置を算出する、物体検出システム。 - 対象空間に照射した参照光と前記対象空間からの反射光との位相差に基づき前記対象空間の画像を出力するTOFセンサと、
出力された前記画像に基づいて前記対象空間に存在する対象物の位置を検出する物体検出部と、
検出された前記対象物の画像に基づいて前記TOFセンサのインテグレーションタイム及び発光周期のうちの少なくとも一方を含む撮像条件を算出する撮像条件算出部と、
検出された前記対象物の画像に基づいて変更後の撮像位置を少なくとも算出する撮像位置姿勢算出部と、
算出された前記撮像位置へ前記TOFセンサ又は前記対象物の位置を少なくとも変更する移動機構と、
を備え、
前記撮像位置姿勢算出部は、検出された前記対象物に対するマルチパスの影響を与える物体の面を特定し、前記TOFセンサが照射する前記参照光が前記物体の面に照射されないように前記撮像位置の算出が可能であり、
前記撮像位置姿勢算出部は、検出された前記対象物又は前記対象物の特徴部位が前記画像内でより大きく撮像されるように前記撮像位置を算出する、物体検出システム。 - 前記撮像位置姿勢算出部は、検出された前記対象物又は前記対象物の特徴部位が前記対象物又は前記対象物の特徴部位の基準データに対して予め設定された撮像位置及び撮像姿勢の少なくとも一方で撮像されるように前記撮像位置及び撮像姿勢の少なくとも一方を算出する、請求項1又は2に記載の物体検出システム。
- 前記移動機構は、前記TOFセンサを支持するロボットであるか、又は前記対象物を支持するロボットである、請求項1から3のいずれか一項に記載の物体検出システム。
- 前記撮像条件算出部は、検出された前記対象物又は前記対象物の特定部位における前記参照光の反射強度に基づいて前記インテグレーションタイムを算出する、請求項1から4のいずれか一項に記載の物体検出システム。
- 前記撮像条件算出部は、検出された前記対象物又は前記対象物の特定部位における外光の反射強度を加味して前記インテグレーションタイムを算出する、請求項5に記載の物体検出システム。
- 前記撮像条件算出部は、前記対象物又は前記対象物の特定部位までの距離を加味して前記インテグレーションタイムを算出する、請求項5又は6に記載の物体検出システム。
- 前記撮像条件算出部は、検出された前記対象物又は前記対象物の特定部位までの距離に基づいて前記発光周期を算出する、請求項1から7のいずれか一項に記載の物体検出システム。
- 前記撮像条件は前記TOFセンサの必要撮像回数をさらに含み、前記画像は前記必要撮像回数分撮像した複数の画像を合成した合成画像である、請求項1から8のいずれか一項に記載の物体検出システム。
- 前記撮像条件は前記TOFセンサの発光強度をさらに含み、前記撮像条件算出部は、検出された前記対象物の画像に基づいて前記発光強度を算出する、請求項1から9のいずれか一項に記載の物体検出システム。
- 対象空間に照射した参照光と前記対象空間からの反射光との位相差に基づき前記対象空間の画像を出力するTOFセンサと、
出力された前記画像に基づいて前記対象空間に存在する対象物の位置を検出する物体検出部と、
検出された前記対象物の画像に基づいて前記TOFセンサのインテグレーションタイム及び発光周期のうちの少なくとも一方を含む撮像条件を算出する撮像条件算出部と、
検出された前記対象物の画像に基づいて変更後の前記TOFセンサの撮像位置を少なくとも算出する撮像位置姿勢算出部と、
算出された前記撮像位置へ前記TOFセンサ又は前記対象物の位置を少なくとも変更する移動機構と、
を備え、
前記撮像位置姿勢算出部は、検出された前記対象物に対するマルチパスの影響を与える物体の面を特定し、前記TOFセンサが照射する前記参照光が前記物体の面に照射されないように前記撮像位置の算出が可能であり、
前記物体検出部は、出力された前記画像と予め記憶された前記対象物又は前記対象物の特徴部位の基準データとに基づいて前記対象物の類似度を示す評価値をさらに算出し、算出された前記評価値が予め定めた閾値より低い場合、前記撮像条件算出部が前記撮像条件を算出するか、又は前記撮像位置姿勢算出部が前記撮像位置を算出する、物体検出システム。 - 対象空間に照射した参照光と前記対象空間からの反射光との位相差に基づき前記対象空間の画像を出力するTOFセンサと、
出力された前記画像に基づいて前記対象空間に存在する対象物の位置を検出する物体検出部と、
検出された前記対象物の画像に基づいて前記TOFセンサのインテグレーションタイム及び発光周期のうちの少なくとも一方を含む撮像条件を算出する撮像条件算出部と、
検出された前記対象物の画像に基づいて変更後の前記TOFセンサの撮像位置を少なくとも算出する撮像位置姿勢算出部と、
算出された前記撮像位置へ前記TOFセンサ又は前記対象物の位置を少なくとも変更する移動機構と、
を備え、
前記撮像位置姿勢算出部は、検出された前記対象物に対するマルチパスの影響を与える物体の面を特定し、前記TOFセンサが照射する前記参照光が前記物体の面に照射されないように前記撮像位置の算出が可能であり、
前記撮像位置姿勢算出部は、検出された前記対象物又は前記対象物の特徴部位が前記画像内でより大きく撮像されるように前記撮像位置を算出する、物体検出システム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019212636A JP7364439B2 (ja) | 2019-11-25 | 2019-11-25 | Tofセンサを用いた物体検出システム |
US17/029,037 US11328442B2 (en) | 2019-11-25 | 2020-09-23 | Object detection system using TOF sensor |
DE102020007045.0A DE102020007045A1 (de) | 2019-11-25 | 2020-11-18 | Objektdetektionssystem mit Laufzeitsensor |
CN202011312029.5A CN112835054A (zh) | 2019-11-25 | 2020-11-20 | 使用tof传感器的物体检测系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019212636A JP7364439B2 (ja) | 2019-11-25 | 2019-11-25 | Tofセンサを用いた物体検出システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021085683A JP2021085683A (ja) | 2021-06-03 |
JP7364439B2 true JP7364439B2 (ja) | 2023-10-18 |
Family
ID=75784678
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019212636A Active JP7364439B2 (ja) | 2019-11-25 | 2019-11-25 | Tofセンサを用いた物体検出システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11328442B2 (ja) |
JP (1) | JP7364439B2 (ja) |
CN (1) | CN112835054A (ja) |
DE (1) | DE102020007045A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020166371A (ja) * | 2019-03-28 | 2020-10-08 | セイコーエプソン株式会社 | 情報処理方法、情報処理装置、物体検出装置およびロボットシステム |
EP3885069A1 (de) * | 2020-03-25 | 2021-09-29 | Bystronic Laser AG | Qualitätskontrolle eines laserbearbeitungsprozesses mittels maschinellem lernen |
JP7530336B2 (ja) | 2021-06-15 | 2024-08-07 | 株式会社神戸製鋼所 | 染色浸透探傷検査装置および染色浸透探傷検査方法 |
EP4230955A1 (en) * | 2022-02-16 | 2023-08-23 | Topcon Corporation | Laser scanning control device, laser scanning apparatus, laser scanning control method, and program |
WO2023203727A1 (ja) * | 2022-04-21 | 2023-10-26 | ヤマハ発動機株式会社 | 多関節ロボットアーム制御装置 |
WO2024150720A1 (ja) * | 2023-01-11 | 2024-07-18 | 株式会社Jvcケンウッド | 三次元情報取得装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010019812A (ja) | 2008-07-14 | 2010-01-28 | Sony Corp | 表面形状測定装置 |
WO2014002415A1 (ja) | 2012-06-28 | 2014-01-03 | パナソニック株式会社 | 撮像装置 |
JP2014533347A (ja) | 2011-08-30 | 2014-12-11 | マイクロソフト コーポレーション | レーザー深度マップの範囲拡張方法 |
JP2016130663A (ja) | 2015-01-13 | 2016-07-21 | オムロン株式会社 | 検査装置及び検査装置の制御方法 |
JP2017217726A (ja) | 2016-06-07 | 2017-12-14 | トヨタ自動車株式会社 | ロボット |
JP2019015706A (ja) | 2017-07-11 | 2019-01-31 | ソニーセミコンダクタソリューションズ株式会社 | 撮像装置及びモニタリング装置 |
US20190132573A1 (en) | 2017-10-31 | 2019-05-02 | Sony Corporation | Generating 3d depth map using parallax |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10197635A (ja) | 1997-01-13 | 1998-07-31 | Omron Corp | レーザー測距装置 |
JP5743390B2 (ja) | 2009-09-15 | 2015-07-01 | 本田技研工業株式会社 | 測距装置、及び測距方法 |
JP5839929B2 (ja) | 2010-11-19 | 2016-01-06 | キヤノン株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
JP2013101045A (ja) | 2011-11-08 | 2013-05-23 | Fanuc Ltd | 物品の3次元位置姿勢の認識装置及び認識方法 |
-
2019
- 2019-11-25 JP JP2019212636A patent/JP7364439B2/ja active Active
-
2020
- 2020-09-23 US US17/029,037 patent/US11328442B2/en active Active
- 2020-11-18 DE DE102020007045.0A patent/DE102020007045A1/de active Pending
- 2020-11-20 CN CN202011312029.5A patent/CN112835054A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010019812A (ja) | 2008-07-14 | 2010-01-28 | Sony Corp | 表面形状測定装置 |
JP2014533347A (ja) | 2011-08-30 | 2014-12-11 | マイクロソフト コーポレーション | レーザー深度マップの範囲拡張方法 |
WO2014002415A1 (ja) | 2012-06-28 | 2014-01-03 | パナソニック株式会社 | 撮像装置 |
JP2016130663A (ja) | 2015-01-13 | 2016-07-21 | オムロン株式会社 | 検査装置及び検査装置の制御方法 |
JP2017217726A (ja) | 2016-06-07 | 2017-12-14 | トヨタ自動車株式会社 | ロボット |
JP2019015706A (ja) | 2017-07-11 | 2019-01-31 | ソニーセミコンダクタソリューションズ株式会社 | 撮像装置及びモニタリング装置 |
US20190132573A1 (en) | 2017-10-31 | 2019-05-02 | Sony Corporation | Generating 3d depth map using parallax |
Also Published As
Publication number | Publication date |
---|---|
JP2021085683A (ja) | 2021-06-03 |
DE102020007045A1 (de) | 2021-05-27 |
US11328442B2 (en) | 2022-05-10 |
US20210158562A1 (en) | 2021-05-27 |
CN112835054A (zh) | 2021-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7364439B2 (ja) | Tofセンサを用いた物体検出システム | |
US9488721B2 (en) | Image processing apparatus, image processing method, computer program, and movable body | |
US6873912B2 (en) | Vehicle tracking system | |
US10755417B2 (en) | Detection system | |
US9165368B2 (en) | Method and system to segment depth images and to detect shapes in three-dimensionally acquired data | |
JP5472538B2 (ja) | 距離計測装置及び環境地図生成装置 | |
US10354413B2 (en) | Detection system and picture filtering method thereof | |
US10991105B2 (en) | Image processing device | |
US10445872B2 (en) | Machine control measurements device | |
JP5320880B2 (ja) | 距離計測装置、距離計測方法および車両 | |
US11762394B2 (en) | Position detection apparatus, position detection system, remote control apparatus, remote control system, position detection method, and program | |
US10803625B2 (en) | Detection system and picturing filtering method thereof | |
EP4148671B1 (en) | Electronic device and method for controlling same | |
KR101233938B1 (ko) | 객체 추적 로봇 및 그 방법 | |
CN110309845B (zh) | 信息处理系统以及信息处理方法 | |
CN114502915A (zh) | 用于移动尺寸标注的方法、系统和装置 | |
US20230137706A1 (en) | Distance measuring apparatus, distance measuring program | |
US20220244392A1 (en) | High resolution lidar scanning | |
JP7375838B2 (ja) | 測距補正装置、測距補正方法、測距補正プログラム、および測距装置 | |
EP3062516B1 (en) | Parallax image generation system, picking system, parallax image generation method, and computer-readable recording medium | |
JP7424800B2 (ja) | 制御装置、その制御方法、及び制御システム | |
JP2017156177A (ja) | 障害物検出装置および障害物検出方法 | |
WO2022176679A1 (ja) | 測距補正装置、測距補正方法、測距補正プログラム、および測距装置 | |
CN113189601B (zh) | 混合型深度估算系统 | |
JP7124760B2 (ja) | 画像処理装置、及び画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220819 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220829 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230828 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231005 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7364439 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |