JP6766898B2 - 点群データ処理装置、点群データ処理方法、点群データ処理プログラム、車両制御装置及び車両 - Google Patents

点群データ処理装置、点群データ処理方法、点群データ処理プログラム、車両制御装置及び車両 Download PDF

Info

Publication number
JP6766898B2
JP6766898B2 JP2018568601A JP2018568601A JP6766898B2 JP 6766898 B2 JP6766898 B2 JP 6766898B2 JP 2018568601 A JP2018568601 A JP 2018568601A JP 2018568601 A JP2018568601 A JP 2018568601A JP 6766898 B2 JP6766898 B2 JP 6766898B2
Authority
JP
Japan
Prior art keywords
point cloud
target
cloud data
area
data processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018568601A
Other languages
English (en)
Other versions
JPWO2018151211A1 (ja
Inventor
史郎 丸山
史郎 丸山
大輔 岡野原
大輔 岡野原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of JPWO2018151211A1 publication Critical patent/JPWO2018151211A1/ja
Application granted granted Critical
Publication of JP6766898B2 publication Critical patent/JP6766898B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Optics & Photonics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、距離測定装置によって取得した点群データのうち対象物に関連した点群データのみを抽出するための技術に関するものである。
従来、Lidar(Light Detection and Ranging、Laser Imaging Detection and Ranging:「光検出と測距」ないし「レーザー画像検出と測距」)と呼ばれる距離測定技術が存在する。Lidarによれば、多数の測定点について測定点までの距離及び測定点の三次元座標を取得した点群データが得られ、その点群データに基づいて、対象物までの距離や対象物の形状等を特定する手法が開発されている。
特許文献1には、点群データを用いて移動体と障害物の接触を予測する画像処理装置及びそれを用いた運転支援システムが開示されている。
特開2016−134090号公報
Lidar等によって取得した点群データは広範囲を一様に探査してデータ取得を行うものであるため、取得した点群データを目的に応じて利用するためには、取得した点群データが対象物に含まれるか否かなどの分類、いわゆる点群データのセグメンテーションを行う必要がある。
点群データのセグメンテーションの手法としては、例えば、以下のものが挙げられる。
(1)単純なユークリッド距離ベースのセグメンテーション
点群間の距離をベースに閾値以下のクラスターをセグメントと見なして計算する手法である。例えば、最初に深さ情報で荒いセグメンテーションを行い、その中で距離ベースのセグメンテーションを適用し、細かいセグメンテーションを得る手法がよく使われる。
(2)Difference of Normals(DoN)
工夫された手法としてDoNが知られている。これは点群中の1点を中心にある決められた一定範囲の法線ベクトルAの計算を行う。さらにAを計算した時よりも広い範囲での法線ベクトルBを計算する。その時、ベクトルA、Bの差を計算したときの絶対値|B−A|の値が大きければ対象点周辺での形状の変化が大きく、小さければ対象点周辺の変化は小さいとみなすことができる。変化の大きい点以外をフィルターすることで、各オブジェクトに属するクラスターをうまく分離することが期待できる。
(3)Min-Cut Based Segmentation
点群をグラフとみなして、グラフ理論の定番手法である最小カットアルゴリズムを使って点群を再帰的に分割していく手法である。
上記(1)の手法は、セグメンテーションをしたいオブジェクトによって最適な閾値が異なることがあるため、適切に分類できないおそれがあった。また、物体同士が非常に近い位置にある場合、距離ベースの手法では区別をつけることができないという問題があった。上記(2)の手法は、点ごとに法線ベクトルを計算しなければいけないので、広い範囲をカバーできるLidarの点群を扱うと計算量が膨大になってしまうという問題があった。また、フィルター後の処理は距離ベースのクラスタリングを行うので、近接する物体の区別が難しいという問題がある。上記(3)の手法は、上記(2)と同様に、計算量が膨大になってしまうという問題があり、また、どこまで細かく分割するかの閾値を決めなければいけないという処理上の問題があった。
自動運転などの技術において、前を走る車両や障害物をリアルタイムに識別して処理を行うためには、点群データを対象物ごとに正確に分類する必要があり、かつ、分類をリアルタイムに行うためには計算量が少なく短時間で行える必要があるが、上記(1)〜(3)の方法はこの条件を満たしていない。
本発明は、上記問題点に鑑みなされたものであり、短時間で処理可能な演算量で点群データを対象物ごとに正確に分類可能な点群データ処理装置、点群データ処理方法、点群データ処理プログラム、車両制御装置及び車両を提供することを目的とする。
本発明に係る点群データ処理装置は、撮影された画像を取得する画像データ取得部と、前記画像に含まれる複数の点に対応する点群の位置情報を示す点群データを取得する点群データ取得部と、前記画像上の対象物を囲む領域である対象領域、及び、前記対象領域を拡大した領域である拡大領域を設定する領域設定部と、前記点群データに含まれる、前記対象領域に含まれる点群の深さ情報と前記拡大領域に含まれる点群の深さ情報とに基づいて、前記対象物に対応する対象点群を特定する対象点群特定部と、を具備してなることを特徴とする。
また、本発明に係る点群データ処理装置は、前記対象点群特定部は、前記対象領域に含まれる点群の深さ情報から作成した対象領域のヒストグラムと、前記拡大領域に含まれる点群の深さ情報から作成した拡大領域のヒストグラムとを比較して、両者が一致した範囲を対象物に対応する対象点群として特定するようにしたことを特徴とする。
また、本発明に係る点群データ処理装置は、前記対象点群特定部は、対象領域のヒストグラムにおける分布のピークの階級から点群の深さの深い方向と浅い方向に向かってそれぞれ階級ごとに、対象領域のヒストグラム値と拡大領域のヒストグラム値とを比較し、両者の値の相違が所定値以下であり、かつ、拡大領域のヒストグラム値が所定値以上である最後の階級を、対象点群として特定するヒストグラムの範囲に含まれる境界の階級として設定するようにしたことを特徴とする。
本発明に係る点群データ処理方法は、撮影された画像を取得する画像データ取得手順と、前記画像に含まれる複数の点に対応する点群の位置情報を示す点群データを取得する点群データ取得手順と、前記画像上の対象物を囲む領域である対象領域、及び、前記対象領域を拡大した領域である拡大領域を設定する領域設定手順と、前記点群データに含まれる、前記対象領域に含まれる点群の深さ情報と前記拡大領域に含まれる点群の深さ情報とに基づいて、前記対象物に対応する対象点群を特定する対象点群特定手順と、を含むことを特徴とする。
本発明に係る点群データ処理プログラムは、撮影された画像を取得する画像データ取得機能と、前記画像に含まれる複数の点に対応する点群の位置情報を示す点群データを取得する点群データ取得機能と、前記画像上の対象物を囲む領域である対象領域、及び、前記対象領域を拡大した領域である拡大領域を設定する領域設定機能と、前記点群データに含まれる、前記対象領域に含まれる点群の深さ情報と前記拡大領域に含まれる点群の深さ情報とに基づいて、前記対象物に対応する対象点群を特定する対象点群特定機能と、をコンピュータに実現させることを特徴とする。
本発明に係る車両制御装置は、上記点群データ処理装置を備えていることを特徴とする。
本発明に係る車両は、上記車両制御装置を備えていることを特徴とする。
本発明によれば、画像データに対して物体検出アルゴリズム等に基づいて正しく対象領域の設定が行われてさえいれば、近接する物体に所属する点群を正しく区別することができる。2次元画像データでは深さ情報がないため、2次元画像データに3次元の点群データを投影しただけでは、複数の対象領域が重なっている場所に点群が投影された場合に、どの対象領域にどの点群データが所属するのかを判別できなかったが、本発明に係る点群データ処理装置10により、各対象領域に対応した点群データを少ない計算量で正確に特定することが可能となる。すなわち、カメラ画像の物体認識で得られた物体のクラス/トラッキング情報をそのまま流用できるため、点群用の分類器/追跡器を別途用意する必要がないというメリットがある。
本発明に係る疾患の点群データ処理装置10の構成を表したブロック図である。 カメラ画像データに対して対象領域を設定した様子を表した説明図である。 カメラ画像データに対して拡大領域を設定した様子を表した説明図である。 図3における一つの拡大領域を表示した説明図である。 点群データ処理装置10における対象点群特定処理の流れを表したフローチャート図である。 ヒストグラムの分布の一例を表したイメージ図である。
[第1の実施の形態]
以下、図面を参照しながら、第1の実施の形態に係る点群データ処理装置の例について説明する。図1は、本発明に係る点群データ処理装置10の構成を表したブロック図である。なお、点群データ処理装置10は、専用マシンとして設計した装置であってもよいが、一般的なコンピュータによって実現可能なものであるものとする。この場合に、点群データ処理装置10は、一般的なコンピュータが通常備えているであろうCPU(Central Processing Unit:中央演算処理装置)、メモリ、ハードディスクドライブ等のストレージを具備しているものとし、必要であればさらにGPU(Graphics Processing Unit:画像処理装置)を具備しているものとする(図示省略)。また、これらの一般的なコンピュータを本例の点群データ処理装置10として機能させるためにプログラムよって各種処理が実行されることは言うまでもない。
点群データ処理装置10は、カメラ画像取得部11と、点群データ取得部12と、同期処理部13と、領域設定部14と、ヒストグラム作成部15と、対象点群特定部16と、記憶部17とを少なくとも備えている。
カメラ画像取得部11は、点群データ処理装置10による処理対象の環境を撮影するために別途設けられた撮影カメラからのカメラ画像を取得する機能を有する。例えば、車両に点群データ処理装置10を搭載する場合には、車両の前方を撮影してカメラ画像を取得するように撮影カメラが設置され、撮影カメラからのカメラ画像データ18がカメラ画像取得部11によって取得される。
点群データ取得部12は、点群データ処理装置10による処理対象の環境について、対象の各点までの距離(深さ)及び3次元座標情報からなる点群データを取得するためするために別途設けられた距離測定装置から点群データを取得する機能を有する。例えば、車両に点群データ処理装置10を搭載する場合には、車両の前方方向の点群データを取得するように距離測定装置が設置され、距離測定装置からの点群データが点群データ取得部12によって取得される。また、距離測定装置の設置位置は、カメラ画像データ18を取得するための撮影カメラと近接していることが好ましく、カメラの撮像方向と同一方向かつ同一角度で測定できることが理想である。なお、距離測定装置としては、例えば、Lidarが考えられるが、これに限定されるものではなく、各点までの距離(深さ)及び3次元座標情報が得られるものであればどのようなものであってもよい。
同期処理部13は、カメラ画像取得部11で取得したカメラ画像データ18と、点群データ取得部12で取得した点群データ19との同期処理及びキャリブレーションを行う機能を有する。例えば、車両に点群データ処理装置10を搭載する場合には、撮影カメラによる画像データ18の取得と、距離測定装置による点群データ19の取得は同時に行われるが、これらのデータについて点群データ処理装置10において同期をとる必要がある。また、撮影カメラによるカメラ画像データは2次元の平面画像であるのに対して、距離測定装置による点群データは3次元座標情報であり、カメラ画像データ上に点群データを適切に投影するためには、撮影カメラと距離測定装置との間でキャリブレーションを行う必要がある。
領域設定部14は、カメラ画像取得部11で取得したカメラ画像データ18に基づいて、カメラ画像に含まれる対象物を含む対象領域及びこの対象領域を拡大した拡大領域を設定する機能を有する。カメラ画像に含まれる対象物を特定して対象領域を設定する手法はどのようなものであってもよく、既存の物体検出アルゴリズムに基づいて対象領域を設定する。また、拡大領域は、対象領域を所定倍率で拡大した領域であり、必ず対象領域を含んだ状態で設定される。また、カメラ画像中に複数の対象物が存在する場合には各対象物ごとに対象領域及び拡大領域が設定され、対象物が重なっている場合には対象領域及び拡大領域も重なった状態となるが、各対象物ごとに設定されることに変わりはない。なお、本例では、カメラ画像データ18から対象領域及び拡大領域を設定するものとして説明を行うが、点群データ19から対象領域及び拡大領域を設定するようにしてもよい。
ヒストグラム作成部15は、点群データ19のうち領域設定部14で設定された対象領域及び拡大領域に投影される点群データの深さ情報に基づいてヒストグラムを作成する機能を有する。具体的には、画像中に存在する複数の対象領域のそれぞれについて、対象領域b及び拡大領域b’にそれぞれ投影される点群データの部分集合p及びp’を求め、p及びp’の深さ情報からヒストグラムh及びh’を作成する。複数の対象領域の間で対象領域の一部が重なっている場合には、手前の対象領域に含まれる点群データは処理中の対象領域のヒストグラムから除くようにする。
対象点群特定部16は、ヒストグラム作成部15で作成した対象領域のヒストグラムと拡大領域のヒストグラムを比較して、分布がおおよそ一致する範囲の点群を対象物の点群データとして特定する機能を有する。対象領域に映り込んだ対象外の物体は対象領域の外にもはみ出していると仮定すると、拡大領域までヒストグラムの範囲を広げた場合に、対象外の物体の距離に該当するヒストグラムの分布は増加するはずであり、逆に、本来の対象物に該当するヒストグラムの分布は拡大領域までヒストグラムの範囲を広げたとしてもヒストグラムの分布に変化が生じないという考えに基づいて、対象物に該当する点群データを特定し、対象点群データを得る。
記憶部17は、点群データ処理装置10において使用するデータ及び処理結果として得られたデータを記憶する機能を有する。具体的には、図1に示すように、カメラ画像データ18、点群データ19、領域データ(対象領域及び拡大領域のデータ)20、ヒストグラムデータ21、対象点群データ22などが記憶される。
次に、本発明に係る点群データ処理装置10における処理の概要について図面に基づいて説明する。図2は、カメラ画像データに対して対象領域を設定した様子を表した説明図である。この図2は、車両に点群データ処理装置10を搭載して、車両の前方を撮影してカメラ画像データを取得した場合を表している。領域設定部14において画像データに対して既存の物体検出アルゴリズムに基づいて対象領域を設定する処理を行うことで、この図2に示すように、前方を走る他の車両を対象物として検出して、それぞれの車両を囲む矩形の対象領域(以下、ボックスともいう)が設定されている。この図2において、一台前の車両の対象領域には他の対象物は含まれていないが、二台前の車両の対象領域には車両の奥に存在する電柱が含まれていることが分かる。
図3は、カメラ画像データに対して拡大領域を設定した様子を表した説明図である。この図3は、図2において設定した対象領域を拡大した拡大領域を設定した様子を表している。この図3において、一台前の車両の対象領域には他の対象物は含まれていないため、拡大領域に範囲を広げても他の対象物を含む領域が増えることはないが、二台前の車両の対象領域には車両の奥に存在する電柱が含まれており、拡大領域に範囲を広げると電柱を含む領域が増えることになる。図4は、図3における一つの拡大領域を拡大した説明図である。この図4に示すように、拡大領域に範囲を広げると電柱を含む領域が増えるため、電柱の距離に該当するヒストグラムの分布が増加することになる。すなわち、本来の対象物は対象領域と拡大領域の間でヒストグラムの分布に変化はないが、他の対象物が対象領域に一部含まれている場合には、拡大領域に広げたときにヒストグラムの分布が増加するという特徴がある。これを利用して、対象物を表す点群データのみを対象点群特定部16で特定するようにする。
次に、本発明に係る点群データ処理装置10における対象点群特定処理の流れについて図面に基づいて説明する。図5は、点群データ処理装置10における対象点群特定処理の流れを表したフローチャート図である。この図5における対象点群特定処理は、時刻tにおける画像データに対象領域(ボックス)を設定した時点から開始される。なお、撮影カメラにおいて動画で画像データを取得している場合には、フレーム単位で画像を選択してその画像について処理を行うことを想定している。以下の説明において、ボックスBは、画像に含まれる対象物ごとに設定された全てのボックスを含む概念であり、点群Pは、画像データに対応した全ての点群データを含む概念であるものとする。
図5において、対象点群特定処理は、先ず、時刻tのボックスB及び点群Pを取得することによって開始される(ステップS01)。時刻tのボックスBについて、Bが空であるか否かを判定する(ステップS02)。Bが空である、すなわち時刻tのボックスBには処理すべき対象領域がこれ以上存在しないという場合には、対象点群特定処理のフローを終了する。Bが空ではない場合、一番手前のボックスbを取り出し、Bからbを削除する(ステップS03)。
次に、取り出したボックスbをe倍(eは1以上の所定値)に拡大した拡大領域に該当するボックスb’を計算し、bとb’のそれぞれに投影される点群Pの部分集合p、p’を求める(ステップS04)。そして、部分集合p、p’のそれぞれについて、深さ情報からヒストグラムh、h’を作成する(ステップS05)。ヒストグラムhのピークの階級をiとする(ステップS06)。対象物が的確にボックスbに包含されていれば、ヒストグラムにおいて最も分布の集中したピークの階級部分が対象物の距離に該当するため、ピークの階級iを含む部分が対象点群の範囲であると仮定する。次に、ヒストグラムにおいて深さの深い方向にどこまでが対象点群の範囲であるかと、ヒストグラムにおいて深さの浅い方向にどこまでが対象点群の範囲であるかを決定する必要がある。
最初の探索対象のヒストグラムの階級iをiと定義(i:=i)し、対象点群の範囲のうち最も深さの深い階級を表すrを0(r:=0)と定義する(ステップS07)。拡大領域b’のヒストグラムh’のうち階級iのヒストグラム値であるh’[i]が0ではないかを判定する(h’[i]≠0)(ステップS08)。h’[i]≠0の場合、次に、((h’[i]−h[i])/h[i])>εであるか否かを判定する(ステップS09)。これは、階級iにおけるb、b’におけるヒストグラム値h[i]、h’[i]の間の差が所定値以上であるか否かを判定するための数式であり、両者の値がほぼ同値である場合には((h’[i]−h[i])/h[i])の値はゼロに近い値となるため、閾値ε以下となるが、両者の値に一定以上の開きが生じてきたときに、閾値εを超えることになる。対象点群の範囲である場合には、((h’[i]−h[i])/h[i])の値はゼロに近い値となるため、ステップS09において、Noとなり、ステップS10に移行する。次の、階級の探索に移行するために、i:=i+1とし、r:=iとした上で、ステップS08に戻る(ステップS10)。
ここで、図6は、ヒストグラムの分布の一例を表したイメージ図である。図6において、横軸は距離測定装置から対象点までの深さ(距離)であり、縦軸は点群の頻度である。また、白抜きの棒グラフは対象領域のボックスbに対応したヒストグラムhの分布であり、ハッチングの掛けられた棒グラフは拡大領域のボックスb’に対応したヒストグラムh’の分布であり、両者を重ね合わせて表示して、拡大領域部分のヒストグラムh’において増えた部分だけがハッチングの掛けられた棒グラフとして表示されている。この図6において、ピークの階級iから探索を開始した場合、深さの深い方向(図6における右(r)方向)に探索対象の階級を移動していく。hとh’の両者が一致している、もしくは、差があっても僅かである場合には、図5のステップ09においてNoとなるため、対象点群の範囲のうち最も深さの深い階級を表すrを現在探索した階級の値に更新(ステップS10)しつつ、次の階級に探索対象を変更していく(ステップS08へ戻る)。この処理を繰り返して行くと、図6に示すように、h’[i]の値がゼロとなる階級に到達する。この場合には、ステップS08でNoとなるため、ステップS11に移行して、i:=i+1として探索対象の階級を次の階級に変更するが、対象点群の範囲のうち最も深さの深い階級を表すrについては変更せずに、次の階級に移行する(ステップS11)。h’[i]の値がゼロの階級が続く場合、rを変更しないまま、次の階級へ移行し続ける(S08とS11のループ)。そして、h’[i]の値がゼロでない階級に到達したとき(ステップS08−Yes)、その階級において、((h’[i]−h[i])/h[i])>εであるか否かを判定する(ステップS09)。ここで、h’[i]とh[i]の両者の値に一定以上の開きが生じてきたときは、閾値εを超えるため、次のステップS12に移行する(ステップS09−Yes)。対象点群の範囲のうち最も深さの深い階級を表すrを確定させるために、max:=rと定義する(ステップS12)。
次に、ヒストグラムにおいて深さの浅い方向にどこまでが対象点群の範囲であるかを決定する処理における最初の探索対象のヒストグラムの階級iをiと定義(i:=i)し、対象点群の範囲のうち最も深さの浅い階級を表すlを0(l:=0)と定義する(ステップS13)。拡大領域b’のヒストグラムh’のうち階級iのヒストグラム値であるh’[i]が0ではないかを判定する(h’[i]≠0)(ステップS14)。h’[i]≠0の場合、次に、((h’[i]−h[i])/h[i])>εであるか否かを判定する(ステップS15)。これは、階級iにおけるb、b’におけるヒストグラム値h[i]、h’[i]の間の差が所定値以上であるか否かを判定するための数式であり、両者の値がほぼ同値である場合には((h’[i]−h[i])/h[i])の値はゼロに近い値となるため、閾値ε以下となるが、両者の値に一定以上の開きが生じてきたときに、閾値εを超えることになる。対象点群の範囲である場合には、((h’[i]−h[i])/h[i])の値はゼロに近い値となるため、ステップS15において、Noとなり、ステップS16に移行する。次の、階級の探索に移行するために、i:=i+1とし、l:=iとした上で、ステップS14に戻る(ステップS16)。
ピークの階級iから探索を開始して深さの浅い方向(図6における左(l)方向)に探索対象の階級を移動していく。hとh’の両者が一致している、もしくは、差があっても僅かである場合には、図5のステップ15においてNoとなるため、対象点群の範囲のうち最も深さの浅い階級を表すlを現在探索した階級の値に更新(ステップS16)しつつ、次の階級に探索対象を変更していく(ステップS14へ戻る)。この処理を繰り返して行くと、図6に示すように、h’[i]の値がゼロとなる階級に到達する。この場合には、ステップS14でNoとなるため、ステップS17に移行して、i:=i+1として探索対象の階級を次の階級に変更するが、対象点群の範囲のうち最も深さの深い階級を表すlについては変更せずに、次の階級に移行する(ステップS17)。h’[i]の値がゼロの階級が続く場合、lを変更しないまま、次の階級へ移行し続ける(S14とS17のループ)。そして、h’[i]の値がゼロでない階級に到達したとき(ステップS14−Yes)、その階級において、((h’[i]−h[i])/h[i])>εであるか否かを判定する(ステップS15)。ここで、h’[i]とh[i]の両者の値に一定以上の開きが生じてきたときは、閾値εを超えるため、次のステップS18に移行する(ステップS15−Yes)。そして、対象点群の範囲のうち最も深さの浅い階級を表すlを確定させるために、min:=lと定義する(ステップS18)。
このようにして、対象点群のヒストグラム範囲について、最も深さの深い階級maxと最も深さの浅い階級minが確定したので、max〜minの間をbの対象点群データqとして特定して出力する(ステップS19)。そして、画像データ全体に対応した点群Pからqを削除して、ステップS02に移行する(ステップS20)。画像データ内にボックスが存在する限り、ステップS02からステップS20を繰り返して、ボックスB内に未処理のボックスがなくなった段階で、処理を終了する。
なお、ステップS08及びステップS14において、拡大領域のヒストグラム値がゼロであるか否かを確認したが、比較対象をゼロとしたのは一例であり、拡大領域のヒストグラム値が所定値以上であるか否かを確認するステップとしても、本発明は同様の効果が得られる。所定値を極端に大きく設定してしまうと機能しないが、設計時に適宜調整して、本発明の効果が得られる範囲でゼロではない所定値に設定しておくことが好ましい。
以上の対象点群特定処理を行うことで、図6に示すように、ボックス内の全点群データからなるヒストグラムの分布のうちから、対象物の点群データの範囲を選択することができるため、対象物の点群データのみを特定することで、不要な点群データを削除して扱うデータ量を削減することができる。
以上のように、本発明に係る点群データ処理装置10によれば、画像データに対して物体検出アルゴリズム等に基づいて正しくボックスが付けられてさえいれば、近接する物体に所属する点群を正しく区別することができる。2次元画像データでは深さ情報がないため、2次元画像データに3次元の点群データを投影しただけでは、複数のボックスが重なっている場所に点群が投影された場合に、どのボックスにどの点群データが所属するのかを判別できなかったが、本発明に係る点群データ処理装置10により、各ボックスに対応した点群データを少ない計算量で正確に特定することが可能となる。すなわち、カメラ画像の物体認識で得られた物体のクラス/トラッキング情報をそのまま流用できるため、点群用の分類器/追跡器を別途用意する必要がないというメリットがある。
また、本発明に係る点群データ処理装置10によれば、点群セグメンテーションの正解データを大量に作成することが可能となるため、機械学習アルゴリズム用の訓練データを簡単に用意できるという効果がある。このようにして生成したデータで自動運転ソフトウェアの性能評価、パラメータチューニングを行うことができる。
また、自動運転等の運転支援システムに適用する場合以外においても、2次元画像に写っている物体に点群から得られる深さ情報を与えることができるため、3次元地図情報の作成などの3次元空間情報自動生成ツールに適用することが可能である。
10 点群データ処理装置
11 カメラ画像取得部
12 点群データ取得部
13 同期処理部
14 領域設定部
15 ヒストグラム作成部
16 対象点群特定部
17 記憶部
18 カメラ画像データ
19 点群データ
20 領域データ
21 ヒストグラムデータ
22 対象点群データ

Claims (7)

  1. 撮影された画像を取得する画像データ取得部と、
    前記画像に含まれる複数の点に対応する点群の位置情報を示す点群データを取得する点群データ取得部と、
    前記画像上の対象物を囲む領域である対象領域、及び、前記対象領域を拡大した領域である拡大領域を設定する領域設定部と、
    前記点群データに含まれる、前記対象領域に含まれる点群の深さ情報と前記拡大領域に含まれる点群の深さ情報とに基づいて、前記対象物に対応する対象点群を特定する対象点群特定部と、
    を具備してなる点群データ処理装置。
  2. 前記対象点群特定部は、前記対象領域に含まれる点群の深さ情報から作成した対象領域のヒストグラムと、前記拡大領域に含まれる点群の深さ情報から作成した拡大領域のヒストグラムとを比較して、両者が一致した範囲を対象物に対応する対象点群として特定するようにした
    請求項1記載の点群データ処理装置。
  3. 前記対象点群特定部は、対象領域のヒストグラムにおける分布のピークの階級から点群の深さの深い方向と浅い方向に向かってそれぞれ階級ごとに、対象領域のヒストグラム値と拡大領域のヒストグラム値とを比較し、両者の値の相違が所定値以下であり、かつ、拡大領域のヒストグラム値が所定値以上である最後の階級を、対象点群として特定するヒストグラムの範囲に含まれる境界の階級として設定するようにした
    請求項2記載の点群データ処理装置。
  4. 撮影された画像を取得する画像データ取得手順と、
    前記画像に含まれる複数の点に対応する点群の位置情報を示す点群データを取得する点群データ取得手順と、
    前記画像上の対象物を囲む領域である対象領域、及び、前記対象領域を拡大した領域である拡大領域を設定する領域設定手順と、
    前記点群データに含まれる、前記対象領域に含まれる点群の深さ情報と前記拡大領域に含まれる点群の深さ情報とに基づいて、前記対象物に対応する対象点群を特定する対象点群特定手順と、
    を含む点群データ処理方法。
  5. 撮影された画像を取得する画像データ取得機能と、
    前記画像に含まれる複数の点に対応する点群の位置情報を示す点群データを取得する点群データ取得機能と、
    前記画像上の対象物を囲む領域である対象領域、及び、前記対象領域を拡大した領域である拡大領域を設定する領域設定機能と、
    前記点群データに含まれる、前記対象領域に含まれる点群の深さ情報と前記拡大領域に含まれる点群の深さ情報とに基づいて、前記対象物に対応する対象点群を特定する対象点群特定機能と、
    をコンピュータに実現させる点群データ処理プログラム。
  6. 請求項1から請求項3の何れかに記載の点群データ処理装置を備えた車両制御装置。
  7. 請求項6に記載の車両制御装置を備えた車両。
JP2018568601A 2017-02-15 2018-02-15 点群データ処理装置、点群データ処理方法、点群データ処理プログラム、車両制御装置及び車両 Active JP6766898B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017025742 2017-02-15
JP2017025742 2017-02-15
PCT/JP2018/005251 WO2018151211A1 (ja) 2017-02-15 2018-02-15 点群データ処理装置、点群データ処理方法、点群データ処理プログラム、車両制御装置及び車両

Publications (2)

Publication Number Publication Date
JPWO2018151211A1 JPWO2018151211A1 (ja) 2019-12-12
JP6766898B2 true JP6766898B2 (ja) 2020-10-14

Family

ID=63170719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018568601A Active JP6766898B2 (ja) 2017-02-15 2018-02-15 点群データ処理装置、点群データ処理方法、点群データ処理プログラム、車両制御装置及び車両

Country Status (4)

Country Link
US (1) US11415698B2 (ja)
JP (1) JP6766898B2 (ja)
CN (1) CN110573908B (ja)
WO (1) WO2018151211A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3683764A4 (en) * 2017-09-12 2020-11-18 Panasonic Intellectual Property Management Co., Ltd. IMAGE GENERATION DEVICE AND METHOD
JP6999625B2 (ja) * 2019-11-06 2022-02-04 財団法人車輌研究測試中心 環境情報を提供可能なダイナミックマップ情報を生成するための方法およびシステム
JP7302442B2 (ja) * 2019-11-11 2023-07-04 株式会社デンソー 距離測定装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09119982A (ja) * 1995-10-26 1997-05-06 Mitsubishi Heavy Ind Ltd 飛しょう体誘導装置
JP2002221575A (ja) * 2001-01-26 2002-08-09 Toshiba Corp 複数目標追尾方法及びその装置
JP2003084064A (ja) 2001-09-12 2003-03-19 Daihatsu Motor Co Ltd 前方車両の認識装置及び認識方法
JP3861781B2 (ja) * 2002-09-17 2006-12-20 日産自動車株式会社 前方車両追跡システムおよび前方車両追跡方法
JP3948450B2 (ja) * 2003-10-20 2007-07-25 日産自動車株式会社 物体検出装置及び物体検出方法
JP4052291B2 (ja) * 2004-08-05 2008-02-27 日産自動車株式会社 車両用画像処理装置
JP4857839B2 (ja) * 2006-03-22 2012-01-18 日産自動車株式会社 物体検出装置
JP4857840B2 (ja) * 2006-03-22 2012-01-18 日産自動車株式会社 物体検出方法および物体検出装置
JP2007255977A (ja) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd 物体検出方法および物体検出装置
JP2010071942A (ja) * 2008-09-22 2010-04-02 Toyota Motor Corp 物体検出装置
JP5322789B2 (ja) * 2009-06-15 2013-10-23 三菱電機株式会社 モデル生成装置、モデル生成方法、モデル生成プログラム、点群画像生成方法および点群画像生成プログラム
WO2011070927A1 (ja) * 2009-12-11 2011-06-16 株式会社トプコン 点群データ処理装置、点群データ処理方法、および点群データ処理プログラム
JP5401344B2 (ja) * 2010-01-28 2014-01-29 日立オートモティブシステムズ株式会社 車両用外界認識装置
JP5316471B2 (ja) * 2010-04-27 2013-10-16 株式会社デンソー 物体認識装置、及びプログラム
JP5620200B2 (ja) * 2010-09-06 2014-11-05 株式会社トプコン 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム
JP5822255B2 (ja) * 2011-04-14 2015-11-24 株式会社豊田中央研究所 対象物識別装置及びプログラム
JP2015225450A (ja) * 2014-05-27 2015-12-14 村田機械株式会社 自律走行車、及び自律走行車における物体認識方法
JP2016134090A (ja) 2015-01-21 2016-07-25 株式会社東芝 画像処理装置及びそれを用いた運転支援システム
JP6411942B2 (ja) * 2015-04-23 2018-10-24 株式会社デンソー 物体認識装置

Also Published As

Publication number Publication date
US20200057905A1 (en) 2020-02-20
WO2018151211A1 (ja) 2018-08-23
CN110573908B (zh) 2022-10-28
CN110573908A (zh) 2019-12-13
JPWO2018151211A1 (ja) 2019-12-12
US11415698B2 (en) 2022-08-16

Similar Documents

Publication Publication Date Title
US20200279121A1 (en) Method and system for determining at least one property related to at least part of a real environment
EP1658579B1 (en) Method for for classification and spatial localization of bounded 3d-objects
US8199977B2 (en) System and method for extraction of features from a 3-D point cloud
WO2019169635A1 (en) Object recognition
US9165211B2 (en) Image processing apparatus and method
JP6299291B2 (ja) 道路エッジ検出方法及び道路エッジ検出装置
JP6766898B2 (ja) 点群データ処理装置、点群データ処理方法、点群データ処理プログラム、車両制御装置及び車両
CN111582054B (zh) 点云数据处理方法及装置、障碍物检测方法及装置
CN106295640A (zh) 一种智能终端的物体识别方法和装置
CN111553946B (zh) 用于去除地面点云的方法及装置、障碍物检测方法及装置
KR101988551B1 (ko) 스테레오 비전의 깊이 추정을 이용한 효율적 객체 검출 및 매칭 시스템 및 방법
US10013618B2 (en) Method and apparatus for detecting side of object using ground boundary information of obstacle
KR102472004B1 (ko) 복수의 센서간 캘리브레이션 방법 및 장치
JP6172432B2 (ja) 被写体識別装置、被写体識別方法および被写体識別プログラム
CN111783722B (zh) 一种激光点云的车道线提取方法和电子设备
CN108369739B (zh) 物体检测装置和物体检测方法
CN111461194B (zh) 点云处理方法及装置、行驶控制方法、电子装置和车辆
EP4052224B1 (en) Method for generating a three dimensional, 3d, model
KR101696086B1 (ko) 소나 이미지 내의 물체 부분 추출 방법 및 장치
US11538260B2 (en) Object identification apparatus, object identification method, and nontransitory computer readable medium storing control program
JP2020173584A (ja) 物体検出装置
Chen et al. independent 3D object segmentation for randomly stacked objects using optical object detection
Lamża et al. Depth estimation in image sequences in single-camera video surveillance systems
JP7334051B2 (ja) 画像処理装置
US20220414150A1 (en) Method for Constructing Positioning DB Using Clustering of Local Features and Apparatus for Constructing Positioning DB

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200831

R151 Written notification of patent or utility model registration

Ref document number: 6766898

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151