JP7114207B2 - 距離測定データの取得 - Google Patents

距離測定データの取得 Download PDF

Info

Publication number
JP7114207B2
JP7114207B2 JP2021038998A JP2021038998A JP7114207B2 JP 7114207 B2 JP7114207 B2 JP 7114207B2 JP 2021038998 A JP2021038998 A JP 2021038998A JP 2021038998 A JP2021038998 A JP 2021038998A JP 7114207 B2 JP7114207 B2 JP 7114207B2
Authority
JP
Japan
Prior art keywords
image
sensor
measurement data
distance measurement
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021038998A
Other languages
English (en)
Other versions
JP2021156882A (ja
Inventor
ホナル マティアス
エンゲッサー ラファエル
ベック ファビアン
Original Assignee
ジック アーゲー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ジック アーゲー filed Critical ジック アーゲー
Publication of JP2021156882A publication Critical patent/JP2021156882A/ja
Application granted granted Critical
Publication of JP7114207B2 publication Critical patent/JP7114207B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Description

本発明は、請求項1又は14のプレアンブルに記載の光電センサ及び監視領域内の物体の距離測定データを取得する方法に関する。
距離測定のために広く普及しているセンサ型式の1つがレーザスキャナである。レーザスキャナでは、レーザにより生成された光線が回転ミラーの助けを借りて周期的に監視領域を塗りつぶすように掃引される。その光は監視領域内の物体の表面で拡散反射され、レーザスキャナ内で評価される。偏向ユニットの角度位置から物体の角度位置が推定され、更に光伝播時間から光の速度を用いてレーザスキャナから物体までの距離が推定される。この角度と距離の情報から監視領域内での物体の場所が2次元極座標で取得される。これにより物体の位置を推定したりその輪郭を特定したりできる。
回転ミラーを有する広く普及したレーザスキャナの他に、最近では、レーザと受光器が一緒に回転する回転可能な測定ヘッドを有する変型や、単一の走査平面を越えて測定領域を広げるための多光線型システムが加わり、更には可動部分をマイクロシステム又は電子的な作動装置で置き換えたいわゆる固定状態システム(Solid State System)も増えつつある。距離測定データを取得するためのこの種のセンサを包括する慣用的な概念としてLiDAR(Light Detection and Ranging)がある。
多くの用途においてLiDARセンサの測定環境には妨害が多い。これに該当するのは、例えば交通監視の場合のように、霧、しぶき、塵埃、雨又は雪のような環境の影響がある屋外領域での使用の他、採掘現場や、製材所や加工業等における機械の周囲等、塵埃の多い環境での使用もある。ここで難しい課題となるのが、距離測定データにおける環境の影響を低減させると同時に、なおも信頼できる物体の測定値を出力することである。
環境の影響下での測定を改善する従来のアプローチの1つは典型的な妨害物を認識して除去するフィルタに基づくものである。その例としていわゆる粒子フィルタ、エコーフィルタ又はフォグフィルタがある。粒子フィルタは時間的及び空間的に孤立した測定点を認識する。これによれば大きめの物体や静的な物体がそのまま維持されるが、霧やしぶき等による広がりを持つ妨害も除去されない。視線に沿って前後に位置している複数の物体までの距離を測定するいわゆるマルチエコー対応型レーザスキャナにはエコーフィルタを使用することができる。これは、例えば霧の中では受光信号の最初のピークが霧粒から生じ、最後のピークが背後にある本来の目標物から生じる、というような発見的方法と結びつけられる。エコーフィルタは広がりを持つ妨害物に強いが、発見的方法が実際の目標物に常に適しているとは限らない。例えば2つの物体の間にあるエッジに当たる場合がある。フォグフィルタは、測定された距離における霧の典型的な強度に等しいかそれより低い強度の測定値を低減させる。フォグフィルタは妨害物の大きさに左右されずに強度の低い妨害物の影響を認識する。しかし、霧による光信号のエネルギー損失を考慮しつつその都度の距離に応じた霧の閾値を正しく設定することは困難であり、遠方の物体(特に、暗い物体)の多くが誤って隠されてしまう。
どのフィルタも、考えられる環境の影響の特別な一部の面しかモデル化していない。単一の万能フィルタは存在せず、ある特別な使用状況におけるフィルタの設計とパラメータ設定、並びに利点と欠点を勘案した適切なフィルタの組み合わせの選択を行うには、深い専門知識が必要である。そのコストをかけてもなお大きな妥協をせざるを得ないことが多い。
妨害物の影響をフィルタで除去する代わりに、逆に、例えば交通の分類における車両のモデルや採掘における掘削機のバケットのモデル等、検出対象の物体のモデルを作ることも考えられる。このようなアプローチが例えば非特許文献1で論じられている。モデルと測定データの間に十分な一致があれば物体が認識されたとみなされ、モデルにより説明できない測定データは全て妨害物と解釈される。それは当然ながら環境の影響だけでなく固い物体にも関係する。その上、手作業でのモデル構築には新たに大きなコストが必要となる。
従来技術においてはまたLiDARシステムの測定データに学習法を応用することが論じられている。非特許文献2は特徴量に基づく分類のための学習法を扱っている。特に自動運転の文脈において、高分解能の3次元LiDARスキャナの登場と共に、ディープニューラルネットワークの可能性がますます議論されている。そこではLiDARデータが深度図として、つまりその画素において通常の色情報又はグレースケール値情報の代わりに測定距離を符号化した画像として供給される。
非特許文献3では点毎の分類が行われる。物体認識、具体的には歩行者の認識が非特許文献4から知られている。そこでは、深さ情報に加えて各場所で受信された光の強度情報も含む画素を持つマルチチャネル画像が用いられる。非特許文献5は地面の認識について記載している。非特許文献6では、連続して記録された2回分のレーザスキャンを結合して4チャネルの画像にしてそこから運動情報を得る、という運動解析が行われる。
文献で提案された方法とネットワークの大多数は3次元LiDARデータ用に最適化されており、走査平面が1つしかない普通の2次元レーザスキャナにそのまま転用することはできない。
非特許文献7では、人を点毎に分類するために、測定した角度及び距離のデータが画素ラスタに直接書き込まれる。このようにすると、走査点が存在する画素が値「1」又は該走査点の強度値を持ち、他の位置の画素が値「0」を持つ疎な画像が得られる。
あるいは、ディープニューラルネットワークそのものを適合化することで、入力データとして画像の代わりに2次元スキャンを扱うことができるようにすることができる。このような方法で、例えば非特許文献8では人と車椅子が認識される。
非特許文献9では画像ではなく無秩序な点群がそのままディープニューラルネットワークの入力として用いられる。これらの方法は2次元データにも3次元LiDARデータにも適しているが、特別に適合化したニューラルネットワークが必要である。
環境の影響の認識にはこれらの方法は用いられていない。また、それらの方法は空間的な情報を処理するものだから、環境の影響の認識に対する適性は限定的でしかないと思われる。妨害物には例えば雨や雪のように時間的な挙動も関心の対象となるものが多いが、それはこれまでほとんど顧慮されていないままである。
T. G. Phillips, "Determining and verifying object pose from LiDAR measurements to support the perception needs of an autonomous excavator," The University of Queensland, 2016 X.-F. Hana, J. S. Jin, J. Xie, M.-J. Wang und W. Jiang, "A comprehensive review of 3D point cloud descriptors," Feb. 2018. [Online] Available: http://arxiv.org/pdf/1802.02297v1 A. Milioto, I. Vizzo, J. Behley, and C. Stachniss, "RangeNet++: Fast and Accurate LiDAR Semantic Segmentation," http://www.ipb.uni-bonn.de/wp-content/papercite-data/pdf/milioto2019iros.pdf, 2019 G. Melotti, A. Asvadi, and C. Premebida, "CNN-LIDAR pedestrian classification: combining range and reflectance data," in 2018 IEEE International Conference on Vehicular Electronics and Safety (ICVES), Madrid, Sep. 2018 - Sep. 2018, pp. 1-6 M. Velas, M. Spanel, M. Hradis, and A. Herout, "CNN for Very Fast Ground Segmentation in Velodyne LiDAR Data," Sep. 2017. [Online] Available: http://arxiv.org/pdf/1709.02128v1 V. Vaquero, A. Sanfeliu, and F. Moreno-Noguer, "Deep Lidar CNN to Understand the Dynamics of Moving Vehicles," in 2018 IEEE International Conference on Robotics and Automation (ICRA), Brisbane, QLD, May. 2018 - May. 2018, pp. 4504-4509 A. M. Guerrero-Higueras et al., "Tracking People in a Mobile Robot From 2D LIDAR Scans Using Full Convolutional Neural Networks for Security in Cluttered Environments," Frontiers in neurorobotics, vol. 12, p. 85, 2018 L. Beyer, A. Hermans, and B. Leibe, "DROW: Real-Time Deep Learning based Wheelchair Detection in 2D Range Data," Mar. 2016. [Online] Available: http://arxiv.org/pdf/1603.02636v2 C. R. Qi, H. Su, K. Mo, and L. J. Guibas, "PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation," Proceedings of the IEEE conference on computer vision and pattern recognition, 2017 O. Ronneberger, P. Fischer, and T. Brox, "U-Net: Convolutional Networks for Biomedical Image Segmentation," May. 2015. [Online] Available: http://arxiv.org/pdf/1505.04597v1
故に本発明の課題は冒頭で述べた種類のセンサの距離測定データの評価を改善することである。
この課題は請求項1又は14に記載の光電センサ及び監視領域内の物体の距離測定データを取得する方法により解決される。本光電センサは冒頭で説明した意味でLiDARセンサと呼ぶこともできる。測定ユニットが光を発し、戻ってくる光から受光信号を生成する。複数の方向又は角度にわたる位置分解能を得るために任意のスキャン法で走査が行われるが、それは物理的な回転又は揺動運動から、偏向型マイクロシステムを経て、純粋に電子的な作動装置までの範囲にわたる。多光線システムでは少なくとも2、3個の角度を同時に走査することもできる。
制御及び評価ユニットが光伝播時間法で受光信号を評価することにより距離測定データを生成する。その際、測定毎にまず角度が変えられるが、これをスキャンとも呼ぶ。そして測定の反復、つまり連続する時点における複数のスキャンにより、距離測定データは角度的にも時間的にも分解される。角度及び時間のラスタは規則的である必要はないが、少なくとも角度ラスタそのものは測定の反復を通じて変わらないことが好ましい。制御及び評価ユニットはセンサのケーシングの内部に配置されてもよいが、少なくとも一部又は全体がケーシングの外部、特に接続されたコンピュータ、ネットワーク又はクラウド内にあってもよい。例えば、距離測定データそのものは光伝播時間法を用いて内部で生成し、その後の処理は外部で行う、というように任務を分担することができる。
本発明の出発点となる基本思想は、距離測定データを並べて画像化し、以てそれを無数の画像処理用の機械学習法に入力できるようにすることである。そのために角度と時間が画像の次元又は軸として用いられる。2次元LiDAR検出の場合、それにより、一般性を損なうことなくX軸に角度、Y軸に時間をとった2次元画像が得られる。各画素の値はその角度及び時間において測定された距離に相当する。3次元LiDAR検出の場合、第2の角度(典型的には中央の走査平面を基準とする仰角)を表すももう一つの軸が加わる。多光線レーザスキャナの測定データは、例えば3次元LiDARデータから成る1つの画像のように処理するか、あるいは光線毎の2次元LiDARデータから成る複数の画像のように処理するか選ぶことができる。
この画像を用いれば時間的な変化のあるLiDARデータを機械学習の画像分類処理で評価することができる。各画素には特に環境の影響を認識するのに役立つそれぞれのクラスが割り当てられる。
本発明には、ある一定の用途に特有の属性が考慮される非常に頑強な分類が可能になるという利点がある。データに基づくアプローチによれば、属性がデータから暗黙のうちに学習されるから、深い専門知識がなくてもそれが可能である。冒頭で論じた学習法の場合とは異なり、全ての軸が位置分解された古典的な画像を分類するのではなく、時間的な成分が画像の軸として填め込まれる。これにより履歴を評価することができ、それがまさに環境の影響の場合に大きな役割を果たし得る。適切なフィルタの特別な選択、適合化又は組み合わせを行う必要はもはやない。
前記画像分類処理は、環境の影響による妨害物、特に塵埃、しぶき、霧、雨又は雪から物体を区別するものであることが好ましい。即ち、分類の目的は画素に妨害物及び固定物という追加的な属性を割り当てること、好ましくは正確にそれら2つのクラスに二値的に分けることである。このようにすれば、例えば物体の分類、衝突の回避又は他の用途のための後段の論理回路が、画素のクラス情報を利用して、より頑強で信頼できる結果を出力したり決定を下したりできる。
前記制御及び評価ユニットは、妨害物として分類された画素における距離測定データを拒絶するように構成されていることが好ましい。拒絶すべき画素は例えば対応する値「ゼロ(Null)」又は「無(NIL)」に設定することができる。妨害物のある画素を完全に拒絶する代わりに、例えば後段での物体評価の際にその寄与度を下げる等、後段でそれを別のやり方で評価することができる。
前記制御及び評価ユニットは画素に対して距離値に加えて強度値を特定するように構成されていることが好ましい。強度は、特に光伝播時間法の実行中に捕らえられたパルスエコーの領域における受光信号のレベルに対応し、拡散反射値、明度値又はRSSI(Received Signal Strength Indicator)とも呼ばれる。これにより画素毎に2つの測定値を持つマルチモーダルな画像又はマルチチャネル画像が得られる。強度値はまた、距離値を有する画像に似た別の画像を強度値のために生成し、同時に又は続けて画像分類処理に供することにより考慮することもできる。
前記制御及び評価ユニットは画素に対して複数の距離を特定するように構成されていることが好ましい。パルスベースの光伝播時間法では複数の受光パルス又はエコーが存在する可能性があり、その各々から距離を測定することができる。これは例えばガラス板又は他の(半)透明な物体を通して背後の別の物体を測定する場合に当てはまり、その場合はガラス板と物体の両方からそれぞれ距離値が得られる。本発明との関係で言えば、半透明な物体は特に妨害物、即ちフォグエコーや雨滴によるエコー等である。複数の距離の測定により、複数の距離に対応するチャネルを持つマルチチャネル画像が得られる。例えば3つのエコーを考慮する場合は3チャネル画像である。強度等、他の量も測定する場合、チャネル数は2倍になるため、例えば6チャネル画像が得られる。これにより、古典的なアプローチでも用いられる追加の情報が含められる。即ち、粒子フィルタは距離値、フォグフィルタは強度、そしてエコーフィルタは多重エコーを評価するものであり、マルチチャネル画像は基本となる情報を全て含んでいる。既存の学習法の多くは通常、マルチチャネル画像の分析も可能であるから、ここでも公知の実証された分類法乃至はディープニューラルネットワークを利用することができる。マルチチャネル画像の代わりに少数又は単一のチャネルを持つ複数の画像を評価することも考えられる。
前記制御及び評価ユニットは、画像への配列のため、画素に対する距離測定データを内挿することで、元々測定が行われなかった角度及び/又は時間にも距離値を定めるように構成されていることが好ましい。LiDARシステム、特にレーザスキャナは、規則的な配列ではなく点群として測定値を生成することが典型的である。その場合、互いの角度間隔は全く不規則である可能性がある。本実施形態によれば、測定距離(そして関係があるなら測定強度も)が画像用に均一な角度解像度になるように内挿される。測定周期及び2回の反復測定の間の時間間隔はどちらかと言えば一定であるが、本発明ではそれらが変化してもよい。測定周期が一定の場合でも距離測定データの時間解像度は規則的である必要はない。例えば、考慮すべき履歴は、直近n回の測定分を全て含む代わりに、i回に1回のスキャンのみとしたり、古いスキャンほど粗めに選択したりできる。
前記制御及び評価ユニットは、光伝播時間が測定された角度及び/又は時間における距離測定データを画像から逆算し、その距離測定データにそれぞれの角度及び/又はそれぞれの時間に隣接する一又は複数の画素からそれぞれのクラスを割り当てるように構成されていることが好ましい。これは言わば前の段落の内挿と逆の操作であって、画像内での配置から求められた各画素の分類が元の距離測定データの分類に戻される。従って、今や分類済みの距離測定データの形式は再び元の形式と合致し、これにより後段の評価処理を簡素化する、又は既存の後段の評価部により簡単にアクセスできるようにすることができる。画像の角度と距離測定データの角度は互いにずれている可能性があるから、画像中で最も近い角度のクラス、又は近隣の複数の角度における多数決により決まるクラスが割り当てられる。
前記画像分類処理はある一定の時間にある画素にのみクラスを割り当てることが好ましい。即ち、履歴を持つ画像全体が入力量である一方、出力量としてはある一定の時間に限定した分類のみが生成される。この一定の時間は実際には画像の1行(あるいは慣例で列ともいう)である。通例、履歴すべてを分類することに関心はなく、特定の時間における特定の測定のみであり、履歴は結局そのために補助データを提供するに過ぎない。ある一定の時間への限定により画像分類処理を簡素化及び高速化することができる。特にリアルタイムの要求又は準リアルタイムの要求に合わせるため、前記一定の時間は、現在、即ち最新の測定又は最新のスキャンとすることが好ましい。リアルタイムの要求がなければ他の時間を選ぶことも考えられる。その場合、分類は任意の割合で一部が履歴に、一部が未来に基づくものとなる(履歴又は未来のいずれかを考慮しない場合も含む)。
前記画像分類処理はディープニューラルネットワークを備えていることが好ましい。このような構成によれば複雑な画像分類も非常に確実に行うことができる。これに代わる機械学習の画像分類処理にはサポートベクターマシンや決定木がある。これらは適当な規格化を行った上で最新の点及びその付近の距離値と強度値を特徴量として利用する。
前記画像分類処理は、各画素におけるクラスが既知である画像を用いて予め訓練されていることが好ましい。このようにラベル又はアノテーションを付した画像が、どれが関係のある妨害物でどれが物体かを予め定める。訓練画像の構造は、後で画像が距離測定データから画像分類処理に供されるときの構造に対応している。即ち、訓練画像は少なくとも1つの角度軸と1つの時間軸を備えており、画素は距離測定値と場合によっては強度を符号化している。
前記既知のクラスは、監視領域の特定の部分領域にある狙い定めた妨害物により予め定められていることが好ましい。このようにすれば、学習すべき特定の局面に的を絞った訓練画像を生成することができる。またこのようにすれば、妨害物の場所がほぼ分かっているから、画像にアノテーションを付すことが簡単になる。そうして得られる分類にはその後に手動で修正することができる。訓練画像を全て手動で分類することも考えられる。その場合、当然それを画素毎に行う必要はなく、例えば特定の範囲を囲むこと、あるいは自動的な予備分割を行ってから物体又は妨害物に属する分割領域を手動で選択することによる。アノテーションを付した訓練画像を得る別の方法は、冒頭に挙げたフィルタ又は物体モデルを用いる従来の方法をそれに適した画像に適用することである。訓練により画像分類処理を事後的に他の用途及び/又は妨害状況に対して一般化することができる。
前記画像分類処理は特定のクラスについての誤差が小さくなるように最適化されていることが好ましい。機械学習の画像分類処理には、狙いを定めて特定のクラスを優先し、他のクラスについては誤差の増大を意図的に容認しつつ、前記特定のクラスへの分類を特に正確に行うものが少なくとも幾つかあり、前記形態によればそのような処理の利点が活かされる。例えば、いくつかの妨害物までもが物体と認識されるという犠牲を払ってでも、なるべく多くの物体画素がそれと認識されるようにする。これは例えば衝突防止に応用する場合に有意義であろう。その場合、誤って物体と扱われた妨害物は確かに可用性を損なうが、安全上の問題を引き起こす恐れは全くない。逆の場合では、若干の物体点が妨害物として除外される代わりに、残った物体点は信頼できるものになる。これは例えば交通監視の場合に車両を測量又は認識するには十分である。この場合、妨害物を物体点として扱うとエラー評価が粗くなる恐れがある。
光電センサは2次元レーザスキャナとして構成されていることが好ましい。特にその測定ユニットが監視領域を周期的に走査するための可動式偏向ユニットを備えている場合、それは揺動ミラー若しくは回転ミラー又はそれに相当する可動式測定ヘッドを有する古典的なレーザスキャナである。しかし、2次元LiDARデータを取得するための単なる1本の線に沿った走査は、例えばマイクロシステムや電子的な作動装置を用いる等、他の方法で行うこともできる。冒頭で論じた公知のLiDARデータ用学習法は2つの横方向の空間次元をX軸とY軸、測定値をZ軸とする深度図を用いている。従ってそれは2次元LiDARデータには応用できない。本発明では時間が追加の軸となっており、実は従来の意味では画像ではないが、それでも画像として処理できるデータ構造を作り出している。従って機械学習(特にディープニューラルネットワーク)による画像処理法のためのあらゆる知識と既存の実装を2次元レーザスキャナにも応用できる。
本発明に係る方法は、前記と同様のやり方で仕上げていくことが可能であり、それにより同様の効果を奏する。そのような効果をもたらす特徴は、例えば本願の独立請求項に続く従属請求項に模範的に記載されているが、それらに限られるものではない。
以下、本発明について、更なる特徴及び利点をも考慮しつつ、模範的な実施形態に基づき、添付の図面を参照しながら詳しく説明する。
レーザスキャナの概略図。 特にレーザスキャナのLiDARデータに用いられる分類モデルの概観図。 LiDARデータを画像として用意する処理の説明図。 LiDARデータから得た画像を機械学習法で画素毎に分類する処理の説明図。 画素毎の分類処理の別の説明図であって、画素毎の分類処理を一定の時間範囲に限定する具体例を示す図。 画像行に関連付けられた分類からLiDARデータへのフィードバックの説明図。 距離及び強度の情報と予め決められた付属クラスとを持つマルチチャネルの訓練画像の模範的な図。 訓練画像を用いた機械学習法の学習過程を示す説明図。
図1はLiDARデータ又は距離測定データを取得するための光電センサの例としての2次元レーザスキャナ10の概略断面図である。このレーザスキャナ10において、発光器12(例えばレーザ光源を有するもの)が発光光学系14の助けを借りて発射光線16を生成する。この光線は偏向ユニット18の表面で監視領域20へと方向転換される。発射光線16が監視領域20内で物体に当たると、拡散反射光22が再びレーザスキャナ10まで戻り、そこで偏向ユニット18を経由し、受光光学系24を介して受光器26により検出される。受光器26は例えばフォトダイオード、アバランシェフォトダイオード(APD)又はSPAD配列(シングルフォトンアバランシェフォトダイオード)である。
偏向ユニット18は本実施形態ではモータ28の駆動により連続的に回転する回転ミラーとして構成されている。モータ28又は偏向ユニット18の各時点での角度位置はエンコーダを通じて認識される。エンコーダは例としてコード板30とフォーク状光遮断機32を含んでいる。発光器12により生成された発射光線16は、回転運動により生じる監視領域20を塗りつぶすように掃引する。回転ミラーの代わりに、偏向ユニット18を、発光器12及び/又は受光器26並びに可能であれば他の要素も収めた回転式光学ヘッドとして構成することも可能である。発光光学系14と受光光学系24の構成も、例えば偏向ユニットとして光線形成型ミラーを用いたり、レンズの配置を変えたり、レンズを追加したりする等、様々に変更できる。特に、自動コリメーション型の配置になったレーザスキャナも知られている。図示した実施形態では発光器12と受光器26が共通の回路基板34上に収まっているが、これも一例に過ぎない。というのも、専用の回路基板を設けたり、例えば互いに高さをずらした配置に変えたりできるからである。
さて、監視領域20からの拡散反射光22が受光器26により受光されたら、エンコーダ20、32により測定された偏向ユニット18の角度位置から監視領域20内での物体の角度位置を推定することができる。加えて、好ましくは、光信号が発射されてから監視領域20内の物体表面で反射された後で受光されるまでの光伝播時間を算出し、光の速度を用いてレーザスキャナ10から物体までの距離を推定する。
光伝播時間法によるこの距離測定は制御及び評価ユニット36において行われる。そのために該ユニットは発光器12、受光器26、モータ28及びエンコーダ32と接続されている。これにより角度と距離を通じて監視領域20内の全ての物体の2次元極座標が利用可能である。
制御及び評価ユニット36はインターフェイス38を通じて例えば専用の評価用コンピュータ、上位の制御装置、ローカルネットワーク又はクラウドといった上位のシステムと接続することができる。ここまで説明した光伝播時間法を用いた評価、そしてとりわけこれから説明する、距離測定データの更なる評価は、実際には内部の制御及び評価ユニット36と外部の計算ユニットに配分することができる。しかし好ましくは、少なくとも光伝播時間法を用いた距離測定は内部的に制御及び評価ユニット36で行う。全ての評価を内部で行うことも考えられる。その場合、制御及び評価ユニットは、FPGA(フィールドプログラマブルゲートアレイ)、ASIC(特定用途向け集積回路)、マイクロプロセッサ又はGPU(グラフィックスプロセッシングユニット)等の計算部品を1つだけでなく複数含むことが好ましい。ここで言及した内部の機能構成要素は全てケーシング40内に配置されている。ケーシング40は光が出射及び入射する領域に前面パネル42を備えている。
走査により各時点で得られる極座標は1つの走査点に対応する。偏向ユニットが1回転する度に監視領域20の走査平面が走査され、それに対応する点群が生じる。このような測定をスキャンとも呼ぶ。複数回の回転とそれによる測定の反復の間に多数のスキャンが時系列的に生じる。2次元スキャナの場合、個々のスキャンがそれぞれ2次元LiDARデータであり、その一方の次元が角度、他方の次元がその角度における測定距離である。仰角が異なる多数の平面が走査される多光線レーザスキャナや、仰角方向の向きを変更できるレーザスキャナもある。これによれば、回転角と仰角を2つの次元とし、角度ペアに割り当てられた測定距離を1つの次元とする3次元LiDARデータが得られる。もちろん、極座標又は球座標はそれぞれ直交座標に変換できる。
本発明は2次元LiDARデータの他に3次元LiDARデータも含む。またスキャンの原理は前述の機械的な回転に限定されない。代わりにMEMSミラーのようなマイクロシステムや、フェーズド光学アレイ又は音響光学変調器の場合のような電子的な作動装置を用いてもよい。更に、発光側のアレイ(例えばVCSEL列やVSCEL行列)及び/又は受光側のアレイ(特にSPAD列やSPAD行列)を設け、適切な個別素子を(好ましくは発光側と受光側が合うようにペアで)作動させることにより、その都度のスキャン方向を選択することも考えられる。最後に、多数のスキャン方向を同時に検出することも考えられる。本発明では、以下に説明する妨害物認識がその強みを発揮できるように、レーザスキャナ10を屋外領域(アウトドア用LiDAR)又は非常に塵埃の多い環境で使用することが好ましい。
図2は分類モデルの概観を示している。このモデルは各走査点にクラスを割り当てるものであり、特に「妨害物の影響」と「(固い)物体」という2つのクラスに二値的に分類する。以下では好ましい実施形態としてディープニューラルネットワークを分類器にした例を説明する。決定木やサポートベクターマシン等、他の機械学習法も考えられる。本方法は2つの段階から成る。
後で図7及び8を参照してより詳しく説明する訓練段階において、目的とする分類が分かっているLiDARデータを用いて画像分類処理(ここではディープニューラルネットワーク)を訓練することで該画像分類処理のパラメータを決定する。必要な各クラスの設定(ラベリング、アノテーション)は典型的には手作業で又は手作業の支援を得て行われる。
図2に示した応用段階ではLiDARデータが訓練済みの画像分類処理で分類される。個々のステップについてまず大まかに説明した後、それぞれ図3~6を参照してより詳細に説明する。本実施例でまず出発点となるのは2次元LiDARデータ44、即ち各時点の角度に依存した測定距離である。このデータは各測定時間に対応する複数回のスキャン(図ではレイヤとして描かれている)の点群として存在しており、従って一定の履歴を持っている。これらのスキャンが配列されて画像46が作成される。ここでは距離画像と強度画像であるが、距離画像のみでもよい。その一方の軸に角度、他方の軸に時間をとり、画素には測定距離又は測定強度を符号化する。この一又は複数の画像が画像分類処理又はディープニューラルネットワーク48に供され、これが画素毎に妨害物又は物体への分類50を決める。後でまた詳述するが、出力側では画像全体ではなく1つの画像行だけを分類することが好ましい。最後に分類50が今や分類済みの2次元LiDARデータ52に再び書き写される。図2では模範例として走査点のうち囲み部分54が妨害物として分類されている。
図3はLiDARデータ44を画像46として準備する処理、即ち図2の第1の処理ステップを図示している。この処理ステップは、特に角度解像度及び時間解像度がそれぞれ規則的である場合、省略すること又はありふれた方法で行うことができる。
LiDARデータ44は最初、点群として存在している。これは例えば距離d、強度i及び角度αのベクトルとして表現できる。第4の次元として更に時間が加わるが、図3では代わりに異なるレイヤでそれを示している。本発明にとって点群の具体的な表現は重要ではない。
距離が測定される角度αは一般に不規則に分布しており、スキャン毎に異なる可能性がある。図3に描いたベクトルはそのように分布している。測定周期又は時間軸上でのスキャンの間隔も規則的である必要はない。少なくとも角度は全てのスキャンで同じように又はそれどころか規則的に配分されていることが好ましい。そうすれば内挿と配列が容易になる。ただし、角度ラスタが均一であっても、解像度を合わせるために内挿が必要になることがある。
再分類と内挿によりLiDARデータは画像46の規則的な画素ラスタに整理される。角度間隔がもう等間隔であるため、この画像中ではもう角度インデックスを考察することができる。この画像で特徴的なのは、単に極座標が直交座標に変換されただけではないということである。そうではなく、1つの軸(ここではY軸)が、異なる時点におけるスキャンに対応する時間軸となっている。この画像は従来の深度図ではなく、角度と時間という全く異なる物理量が画像の次元として選ばれている。このデータ表現により、分類の際に空間情報と時間情報の両方が考慮され、それがより良い分類結果につながる。しかも画像という形式にすれば画像分類処理を利用できるため、点群のための特別な分類器を設計する必要がない。
図3では2つの画像、即ち距離画像と強度画像(拡散反射、RSSI)が生成されている。画素のそれぞれの値はこの角度及び時間に測定された距離又はそこで測定された強度であり、場合によっては近接範囲からの内挿により得られたものである。2つの画像の代わりに画素毎にペア(距離,強度)を持つマルチチャネル画像を生成してもよい。更に別のやり方では強度を考慮せずにおく。逆に、また別の測定量を持つマルチチャネル画像や、別の画像を生成することも考えられる。
別の測定量の例としてマルチエコー対応型システムがある。このシステムでは1本の走査光線で1つの物体だけでなく該走査光線上で前後にある複数の物体までの距離が測定される。典型的にはこれは、発射光線16の一部が半透明な物体(例えば霧粒や雨滴)により反射され、別の一部がより遠くの物体により反射される場合に起きる。これにより、パルスベースの光伝播時間法では受光信号中に複数の受光パルス、ピーク又はエコーが生じ、その各々が距離測定を可能にする。従って、ペア(距離,強度)と同様にペア(第1の距離,第2の距離)をマルチチャネル画像又は一対の画像として処理することができる。強度が加わるなら2×2個のチャネル又は画像が得られ、2重エコーではないマルチエコー対応型のシステムの場合はそれに応じてより多くなる。
図4は画像46の本来の分類処理、即ち図2の第2の処理ステップを図示している。他の機械学習法も使用可能であることを再度強調するため、ここではディープニューラルネットワーク48が一般的なパラメータ設定されたモデルとして描かれている。距離と強度のデータを持つ画像46を特定の行に限定してディープニューラルネットワーク48の入力データとすることで、図のような4回のスキャン又は他の回数のスキャンから成る一定の履歴だけを考慮するようにすることができる。
ディープニューラルネットワーク48は画素毎に分類50を予想する。ここでは純粋な模範例として「1」が妨害物を表し、「0」が物体を表している。ディープニューラルネットワークの好ましい実装として、画像分割に用いられるU-Netが実証済みである。これは非特許文献10に記載されている。
図5は、任意選択で分類50を一定の時間領域56に限定できることを具体的に説明するために画像46を再度示している。ここで選ばれたY軸に時間をとる表現において、各画像行は特定の測定時点における1回のスキャンを表している。殆どの場合、分類が必要なのは現在、即ち最新のスキャン、従って時間領域56の最も上の画像行についてのみである。これによりスキャンをリアルタイム又は準リアルタイムで判定することができる。
従って、従来の画像分割とは異なり、出力は好ましくは1つの画像行に限定される。ただし、入力量は、判定すべき最新のスキャンと他のスキャンの一定の履歴とを持つ画像全体である。この分類は全ての測定時点又はスキャンに対して実行される。あるいは、妨害物の判定を巡回的又は抜き取り検査的に特定の測定時点においてのみ行う。出力を1つの画像行だけに限定することにより、自由パラメータの数を減らし、分類モデルの質を速度、訓練データの量、又は正確性に関して高めることができる。ただし、画像46の全ての画素をそれぞれ分類し、必要に応じてその後で初めて読み出し等の処理を部分領域に限定することは排除されない。同様に、このやり方の場合、複数の画像の同じ測定時点に属する画素に対する分類結果を、例えば多数決により組み合わせることも可能であろう。
図6は画像46の形式用に特定された分類50をLiDARデータにフィードバックする処理、即ち図2の第3の処理ステップを図示している。この処理ステップは後段のデータ処理のためにどのような形式で情報を用意すべきかに応じた任意選択のステップである。LiDARデータにフィードバックする利点は、出力形式が元のLiDARデータと同じ形式になるため、後段の既存の評価処理を普通の方法でより簡単に且つわずかな適合化を行うだけで済むかもしれないということである。例えば点群のベクトルに分類結果が追加的に関連付けられる。
ディープニューラルネットワーク48による分類50は、最初は画像46と同様の形式になっている。図3において論じたように、LiDARデータそのものは一般に点群として不規則な角度間隔で測定される。フィードバックのために、スキャンの各点又はベクトルに、その近くの角度から得られる分析結果が割り当てられる。これを図6に矢印で簡単に示す。方法としては、ベクトルの角度に対して画像中の最も近くにある角度を探し、その画素から分類結果を複写することが考えられる。別の方法は、目的とするベクトルの角度に対して画像中の一定の角度範囲内で分類結果の多数決をとるというものである。他の種類の内挿も考えられる。
また、図6の描画は、図5の実施形態に対応して、ある一定の時点における1つの画像行又はスキャンに限定されている。つまりLiDARデータへのフィードバックは分類50そのものと同様に行毎又はスキャン乃至測定毎に行われる。あるいは、画像46全体に対する分類50を基となった各スキャンへ逆算するが、その際にスキャン毎に実質的に異なる履歴が入るようにすることも考えられるだろう。そのとき、図6に対応するフィードバックを時間の次元においても行うことが好ましい。
図7はディープニューラルネットワーク48の訓練に用いられるラベル又はアノテーション付きの訓練画像の例である。このような訓練画像はそれぞれ、LiDARデータから得られた距離画像及び強度画像、並びにそれに付属する分類50を含んでいる。距離画像と強度画像はそれぞれグレー符号化されており、分類50においては固い物体が明るく、妨害物が暗く描かれている。異なる連続した測定時間における多数のスキャンがX軸上に載せられ、Y軸上ではスキャン毎に距離値又は強度値が角度に沿って分布している。即ち、より多くのスキャンを入れて分かりやすく説明するため、X軸とY軸がここまでの描画と違って入れ替えられている。図示した訓練画像は部分毎に多数の訓練画像と解釈することができる。ただし、実際には、ディープニューラルネットワーク48を頑強に訓練するために、このような画像が多数必要となることがほとんどである。
訓練画像のデータの収集にもある程度の専門知識が必要であるが、それは応用に関係する面が強く、従来のように適切なフィルタを設計し、選択し、パラメータを設定し、組み合わせることに比べれば要求ははるかに少ない。何と言っても従来の場合、環境の影響がLiDARシステムのハードウェア及びソフトウェアに与える作用に関して特殊な知識が必要となる。その上、ディープニューラルネットワーク48は予め考慮されていなかった場面に強い。訓練データのために画像46を取得し、それから特にラベルとアノテーションを付す、つまり目的とする分類50を予め設定するには、ある程度のコストがかかる。しかしこのコストは、例えば既知の構造物を含む場面や、部分領域内で狙い定めた妨害物を選ぶことにより抑えることができる。その上、当然ながらラベルが付されるのは必ずしも個々の画素ではなく、好ましくは全領域であり、その場合は古典的なフィルタと分割方法で少なくとも補助的な事前選択を行うことができる。
図8は訓練段階を図示している。各構成要素は根本的には全て説明済みであり、訓練段階ではその進行が逆になるだけである。訓練中は、未知であって最適化処理の間に学習すべきものはモデルパラメータ、特にニューラルネットワーク48の重みであり、他方で分類50は予め決まっている。次の応用段階では分類50が求められる一方、モデルパラメータは訓練から分かっている。
本発明は、周囲の状況はほぼ分かっているものの部分的に柔軟性があるような用途において特に有利である。例として交通の分類が挙げられよう。この場合、様々な車両の訓練データを乾いた道路や濡れた(つまりしぶきが発生する)道路で撮影して手動で分類することができる。訓練プロセスの後はその分類によりしぶきの測定値と車両の測定値を分けることが可能であり、それにより高さ、長さ、幅、トレーラーの存在等の車両パラメータの特定が簡単になる。もう一つの例は採掘におけるトラックや掘削機での塵埃の認識である。この場合、衝突を避けるために、通り抜け可能な土埃と衝突が起こり得る固い物体とを区別することになる。
多くの学習法では、例えば適切な閾値の選択により誤検出率又は検出漏れ率の適合化を行うことができる。このようにして分類結果の質を用途の必要条件に合わせることができる。例えば交通の分類の場合、しぶきの測定値を車両と分類することが最小限に抑えられるのであれば、車両の測定値をしぶきと分類することは容認できることもある。これは車両の寸法を過大に見積もらないようにするために重要である。一方、採掘への応用では、固い物体を塵埃に分類することは避けるべきであるのに対し、塵埃の測定値を固い物体として分類することはどちらかと言えば容認できるだろう。それはシステムの可用性を下げるだけであり、それにより衝突に至ることはない。
ここまでは検出された角度範囲全体に画像46が広がっていることを前提としていた。画像分類処理用のメモリを節約するため、互いに補完し合い、場合によっては縁部で重なり合う複数の角度範囲をスキャン毎に定めることが考えられる。更に、あくまで好ましくはであるが、角度は直接的にスキャン角を表し、全体として1つの空間次元の代わりになっている。そこで、各スキャンを直交座標に換算し、各画像中では時間軸に対して別種の空間軸(特に距離も)を基礎とすることが考えられる。
2次元LiDARデータの代わりに3次元LiDARデータを処理することもできる。この場合、元の走査方向と仰角方向の2つの角度を2軸とする3次元画像を処理するか、それを対応する直交座標に換算してから処理する。画素(今の場合、厳密にはボクセルと呼ぶ)には引き続き距離と、場合によっては強度が符号化される。
距離と強度という測定値に加えて、センサがそれを提供するなら測定値の質や外部光レベル等の他の量を評価したり、マルチエコー対応型システムにおける先に言及した複数の距離を評価したりできる。それには、それらの量で別の画像46を作ったり、マルチチャネル画像にチャネルを追加したりする。その後の訓練と分類は同じように進行する。また、レーダー、カメラ等、他の出所のデータを適切な時間的及び空間的な記録を行った上で用いることも考えられる。

Claims (15)

  1. 監視領域(20)内の物体の距離測定データをスキャン法を用いて取得するための光電センサ(10)であって、前記監視領域(20)へ発射光(16)を複数の角度で送出するための発光器(12)と前記監視領域(20)から複数の角度で入射する受信光(22)から受光信号を生成するための受光器(26)とを備える測定ユニット、並びに、光伝播時間法で前記受光信号を評価することにより距離測定データを取得するように構成された制御及び評価ユニット(36)を備え、前記距離測定データが、角度を変化させながらスキャンが行われることにより角度解像度を有すると共に、連続する時点においてスキャンが反復されることにより時間解像度を有する、光電センサ(10)において、
    前記制御及び評価ユニット(36)が更に、前記距離測定データを配列することで、距離値を含む画素が、変化するスキャン角度に対応する角度の次元と、スキャンが反復される連続する時点に対応する時間の次元にわたって配列された画像(46)を作成し、該画像(46)を機械学習の画像分類処理(48)で評価することで前記画素にそれぞれ妨害物の影響と物体という2つのクラスのいずれかを割り当てるように構成されていることを特徴とする光電センサ(10)。
  2. 前記画像分類処理(48)が、環境の影響による妨害物から物体を区別するものであることを特徴とする請求項1に記載のセンサ(10)。
  3. 前記妨害物が、塵埃、しぶき、霧、雨又は雪によるものであることを特徴とする請求項2に記載のセンサ(10)。
  4. 前記制御及び評価ユニット(36)が、妨害物として分類された画素における距離測定データを拒絶するように構成されていることを特徴とする請求項2又は3に記載のセンサ(10)。
  5. 前記制御及び評価ユニット(36)が画素に対して距離値に加えて強度値を特定するように構成されていることを特徴とする請求項1~4のいずれかに記載のセンサ(10)。
  6. 前記制御及び評価ユニット(36)が画素に対して複数の距離を特定するように構成されていることを特徴とする請求項1~5のいずれかに記載のセンサ(10)。
  7. 前記制御及び評価ユニット(36)が、画像(46)への配列のため、画素に対する距離測定データを内挿することで、元々測定が行われなかった角度及び/又は時間にも距離値を定めるように構成されていることを特徴とする請求項1~6のいずれかに記載のセンサ(10)。
  8. 前記制御及び評価ユニット(36)が、光伝播時間が測定された角度及び/又は時間における距離測定データを前記画像(46)から逆算し、その距離測定データにそれぞれの角度及び/又はそれぞれの時間に隣接する一又は複数の画素からそれぞれのクラスを割り当てるように構成されていることを特徴とする請求項1~7のいずれかに記載のセンサ(10)。
  9. 前記画像分類処理(48)が、ある一定の時間にある画素にのみクラスを割り当てることを特徴とする請求項1~8のいずれかに記載のセンサ(10)。
  10. 前記画像分類処理(48)がディープニューラルネットワークを備えていることを特徴とする請求項1~9のいずれかに記載のセンサ(10)。
  11. 前記画像分類処理(48)が、各画素におけるクラスが既知である画像(46)を用いて予め訓練されていることを特徴とする請求項1~10のいずれかに記載のセンサ(10)。
  12. 知の前記クラスが、前記監視領域(20)の特定の部分領域にある狙い定めた妨害物により予め定められていることを特徴とする請求項11に記載のセンサ(10)。
  13. 前記画像分類処理(48)が、特定のクラスについての誤差が小さくなるように最適化されていることを特徴とする請求項1~12のいずれかに記載のセンサ(10)。
  14. 2次元レーザスキャナとして構成されていることを特徴とする請求項1~13のいずれかに記載のセンサ(10)。
  15. 監視領域(20)内の物体の距離測定データをスキャン法を用いて取得する方法であって、前記監視領域(20)へ発射光(16)を複数の角度で送出し、前記監視領域(20)から複数の角度で入射する受信光(22)から受光信号を生成し、光伝播時間法で前記受光信号を評価することにより距離測定データを取得し、該距離測定データが、角度を変化させながらスキャンが行われることにより角度解像度を有すると共に、連続する時点においてスキャンが反復されることにより時間解像度を有する、方法において、
    前記距離測定データを配列することで、距離値を含む画素が、変化するスキャン角度に対応する角度の次元と、スキャンが反復される連続する時点に対応する時間の次元にわたって配列された画像(46)を作成し、該画像(46)を機械学習の画像分類処理(48)で評価することで前記画素にそれぞれ妨害物の影響と物体という2つのクラスのいずれかを割り当てることを特徴とする方法。
JP2021038998A 2020-03-27 2021-03-11 距離測定データの取得 Active JP7114207B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP20166102.2 2020-03-27
EP20166102.2A EP3885787B1 (de) 2020-03-27 2020-03-27 Erfassung von abstandsmessdaten

Publications (2)

Publication Number Publication Date
JP2021156882A JP2021156882A (ja) 2021-10-07
JP7114207B2 true JP7114207B2 (ja) 2022-08-08

Family

ID=70050000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021038998A Active JP7114207B2 (ja) 2020-03-27 2021-03-11 距離測定データの取得

Country Status (4)

Country Link
US (1) US20210302544A1 (ja)
EP (1) EP3885787B1 (ja)
JP (1) JP7114207B2 (ja)
CN (1) CN113447940B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4258022A1 (de) * 2022-04-08 2023-10-11 Leuze electronic GmbH + Co. KG Optischer sensor zur erfassung von objekten in einem überwachungsbereich

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000508766A (ja) 1996-04-15 2000-07-11 アポゲウム アーベー 移動水陸路輸送のための複数の無名の固定参照物体の位置を決定する方法およびその位置を決定する装置
JP2000266539A (ja) 1999-03-15 2000-09-29 Nissan Motor Co Ltd 車間距離計測装置
JP2016206026A (ja) 2015-04-23 2016-12-08 株式会社デンソー 物体認識装置
JP2017219385A (ja) 2016-06-06 2017-12-14 株式会社デンソーアイティーラボラトリ 物体検出装置、物体検出システム、物体検出方法、およびプログラム
US20180020115A1 (en) 2016-07-15 2018-01-18 Triple-In Holding Ag Recording of distance profiles
JP2019028985A (ja) 2017-07-31 2019-02-21 株式会社エクォス・リサーチ 画像データ生成装置、画像認識装置、画像データ生成プログラム、及び画像認識プログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008051083A1 (de) * 2008-10-09 2010-04-15 Dr. Johannes Heidenhain Gmbh Multiturn-Drehgeber
DE502008001000D1 (de) * 2008-11-21 2010-09-02 Sick Ag Optoelektronischer Sensor und Verfahren zur Messung von Entfernungen nach dem Lichtlaufzeitprinzip
DE102010061382B4 (de) * 2010-12-21 2019-02-14 Sick Ag Optoelektronischer Sensor und Verfahren zur Erfassung und Abstandsbestimmung von Objekten
CN104253646B (zh) * 2013-06-26 2018-11-06 中兴通讯股份有限公司 一种可见光通信mimo系统及其实现数据收发的方法
US9704043B2 (en) * 2014-12-16 2017-07-11 Irobot Corporation Systems and methods for capturing images and annotating the captured images with information
US10491879B2 (en) * 2016-01-15 2019-11-26 Blue River Technology Inc. Plant feature detection using captured images
JP6572156B2 (ja) * 2016-03-02 2019-09-04 株式会社神戸製鋼所 建設機械の干渉防止装置
JP6625446B2 (ja) * 2016-03-02 2019-12-25 株式会社神戸製鋼所 外乱除去装置
WO2018094307A1 (en) * 2016-11-18 2018-05-24 Robert Bosch Start-Up Platform North America, Llc, Sensing system and method
CN117310741A (zh) * 2017-01-03 2023-12-29 应诺维思科技有限公司 用于检测和分类物体的激光雷达系统和方法
WO2019040866A2 (en) * 2017-08-25 2019-02-28 The Board Of Trustees Of The University Of Illinois APPARATUS AND METHOD FOR COLLECTING AGRICULTURAL DATA AND AGRICULTURAL OPERATIONS
DE102017217072B4 (de) * 2017-09-26 2023-08-31 Volkswagen Aktiengesellschaft Verfahren zum Erkennen eines Witterungsverhältnisses in einer Umgebung eines Kraftfahrzeugs sowie Steuervorrichtung und Kraftfahrzeug
US11462000B2 (en) * 2019-08-26 2022-10-04 Apple Inc. Image-based detection of surfaces that provide specular reflections and reflection modification
CN110879401B (zh) * 2019-12-06 2023-08-04 南京理工大学 基于相机和激光雷达的无人驾驶平台实时目标3d检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000508766A (ja) 1996-04-15 2000-07-11 アポゲウム アーベー 移動水陸路輸送のための複数の無名の固定参照物体の位置を決定する方法およびその位置を決定する装置
JP2000266539A (ja) 1999-03-15 2000-09-29 Nissan Motor Co Ltd 車間距離計測装置
JP2016206026A (ja) 2015-04-23 2016-12-08 株式会社デンソー 物体認識装置
JP2017219385A (ja) 2016-06-06 2017-12-14 株式会社デンソーアイティーラボラトリ 物体検出装置、物体検出システム、物体検出方法、およびプログラム
US20180020115A1 (en) 2016-07-15 2018-01-18 Triple-In Holding Ag Recording of distance profiles
JP2019028985A (ja) 2017-07-31 2019-02-21 株式会社エクォス・リサーチ 画像データ生成装置、画像認識装置、画像データ生成プログラム、及び画像認識プログラム

Also Published As

Publication number Publication date
CN113447940A (zh) 2021-09-28
US20210302544A1 (en) 2021-09-30
EP3885787A1 (de) 2021-09-29
JP2021156882A (ja) 2021-10-07
EP3885787B1 (de) 2022-05-04
CN113447940B (zh) 2024-09-27

Similar Documents

Publication Publication Date Title
EP3430427B1 (en) Processing method of a 3d point cloud
JP4691701B2 (ja) 人数検出装置及び方法
JP2022546591A (ja) Lidar画像の処理
US10222459B2 (en) Method for controlling a micro-mirror scanner, and micro-mirror scanner
WO2015156997A1 (en) Methods and apparatus for object detection and identification in a multiple detector lidar array
KR101964100B1 (ko) 신경망 학습 기반의 객체 검출 장치 및 방법
EP3769120A1 (en) Object detection system and method
CN112444822A (zh) 合成激光雷达信号的产生
KR20220110034A (ko) 대상체의 기하학적 특성을 반영하여 확장된 표현 범위를 가지는 인텐시티 정보를 생성하는 방법 및 그러한 방법을 수행하는 라이다 장치
JP7114207B2 (ja) 距離測定データの取得
US20060092004A1 (en) Optical sensor
WO2021059967A1 (ja) 物体認識装置及び物体認識プログラム
US20230044371A1 (en) Defect detection in a point cloud
KR102488494B1 (ko) 라이다 데이터 처리 방법
KR102050756B1 (ko) 초소형 표적 탐지기
US20210389460A1 (en) Image processing device, control program, and image processing method
US20240288555A1 (en) Lidar data processing method
US20240027581A1 (en) Device and Method for Detecting Objects in a Monitored Zone
KR102505602B1 (ko) 라이다 데이터 처리 방법
KR102488500B1 (ko) 라이다 데이터 처리 방법
Beiker Next-generation Sensors for Automated Road Vehicles
US20230034718A1 (en) Criteria based false positive determination in an active light detection system
Rodrigues et al. Analytical Change Detection on the KITTI dataset
Skrzypczynski How to recognize and remove qualitative errors in time-of-flight laser range measurements
Lu et al. Sensor fusion with occupancy fusion map for pedestrian detection in outdoor environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210531

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220506

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220726

R150 Certificate of patent or registration of utility model

Ref document number: 7114207

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150