JP2022500737A - センサの画像区間の選択方法 - Google Patents

センサの画像区間の選択方法 Download PDF

Info

Publication number
JP2022500737A
JP2022500737A JP2021512690A JP2021512690A JP2022500737A JP 2022500737 A JP2022500737 A JP 2022500737A JP 2021512690 A JP2021512690 A JP 2021512690A JP 2021512690 A JP2021512690 A JP 2021512690A JP 2022500737 A JP2022500737 A JP 2022500737A
Authority
JP
Japan
Prior art keywords
sensor
detected
data
control device
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021512690A
Other languages
English (en)
Other versions
JP7326429B2 (ja
Inventor
エバート,マーロン・ラモン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of JP2022500737A publication Critical patent/JP2022500737A/ja
Application granted granted Critical
Publication of JP7326429B2 publication Critical patent/JP7326429B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Electromagnetism (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

センサデータに基づいた、センサによる周辺検出のための区間の選択方法であって、少なくとも1つの追加センサによって周辺が検出され、少なくとも1つの追加センサの特定されたセンサデータに基づいて、物体検知が実行され、物体検知に基づいて、少なくとも1つの検知された物体の位置情報がセンサの座標系に変換され、センサは、変換された位置情報に基づいて、周辺検出のための走査領域の一区間、または既に検出されたセンサデータの一画像区間を評価のために使用する方法が開示されている。さらに、制御装置が開示されている。【選択図】図2

Description

本発明は、センサデータに基づいた、センサによる周辺検出のための区間の選択方法および制御装置に関する。
自動運転機能を備えた車両は、一定の自動化レベルから自律的に運転者なしで操作可能である。例えば、車両が自動的に道路のコースを辿り、他の道路利用者や障害物を単独で検知し、車両内の対応する制御コマンドを計算し、さらにこの制御コマンドを車両内のアクチュエータに転送することにより、車両の走行コースに正しく影響を与えることができる。運転者は、完全自律車両の運転状況には関与しない。
現在入手可能な自動車では、公共交通圏での自律走行は限られている。法的規制があるため、特に、運転者が常に自らの運転状況に介入できるようにしなければならない。これにより、自律走行車の実現が難しくなっている。しかし、自律走行や半自律走行を可能にする複数のメーカーのシステムは、既にテスト段階に入っている。
既に現在、自律走行車には車両の周辺検出をするために様々なセンサが使用されている。アルゴリズムに基づいてセンサデータを評価し、例えば周辺の物体を検知できる。
本発明の課題は、センサデータの評価を高速化する方法を提案することである。
この課題は、独立請求項の各主題によって解決される。本発明の有利な実施形態は、それぞれの従属請求項の主題である。
本発明の一態様によれば、センサデータに基づいた、センサによる周辺検出のための区間の選択方法が提供される。少なくとも1つの追加センサによって周辺が検出される。少なくとも1つの追加センサの特定されたセンサデータに基づいて、物体検知が実行される。物体検知に基づいて、少なくとも1つの検知された物体の位置情報が特定され、センサの座標系に変換され、センサは、変換された配置情報に基づいて、周辺検出のための走査領域の一区間、または既に検出されたセンサデータの一画像区間を評価のために使用する。
これにより、周辺検出および/またはセンサデータの評価に使用される、1つまたは複数の関連画像区間を特定することができる。関連画像区間とは、例えば、LIDAR(laser intensity direction and ranging)スキャンにおいて、自律走行車の周辺からの関連物体データを含む画像区間のことである。この方法によって、例えばRADAR(radio detection and ranging)センサ、LIDARセンサ、カメラセンサなどのさらなる、または追加の周辺センサを利用して、センサデータの関連画像区間を事前に選択することができる。加速と最適化が可能なセンサは、例えば、LIDARセンサやRADARセンサとして構成することができる。
追加のセンサを使用することで、センサの周辺にある関連物体に関して、関連画像区間または特定のピクセルの選択を迅速かつ効率的に実行できる。
一実施形態では、センサのための関連ピクセルまたは画像区間の選択は、例えば車両のカメラデータなどのセンサデータを用いて行うことができる。例えば、カメラでは既に物体検知機能を使用可能であり、この物体検知が一定の確率で確実に機能する。カメラ画像内に関連物体が検知された場合、まず、車両座標系またはカメラ座標系を基準にして、物体の位置を測定することができる。次のステップでは、検知された物体を座標系に変換することで、センサの検出範囲またはセンサの走査範囲内にあるこの物体の関連画像ポイントまたは関連画像区間が生成される。
さらなる実施例によれば、センサの関連画像区間の選択は、例えばRADARセンサ、超音波センサ、車両に設置された他の周辺センサからのデータによって実行することができる。
センサは例えばLIDARセンサであってもよいが、RADARセンサやカメラセンサなど、任意のその他のセンサであってもよい。まずLIDARセンサで物体を検知し、続いて他の周辺センサで関連画像区間の選択に使用することで、例えばこの方法は逆方向にも行うことができる。さらに、この方法を実施するために、周辺センサの任意の組み合わせを選択することができる。
この方法は、特に以下の利点を有する。
− さらなる冗長周辺センサにおける、高速で的確な物体検知または物体妥当性検査によって、自律走行車の安全性が向上する。
− 車両に設置された周辺センサは、車両の周辺検知のために相互に密接に協働することができる。
− この方法により、関連する全ての周辺センサにおいて、経時的に車両周辺の全体像を使用することができる。
− 物体検知のために冗長周辺センサの関連画像区間のみを考慮する場合、周辺センサの全てのピクセルまたは全ての入力データを伝送または分析する必要がないため、この周辺センサを高性能に設計しなくてもよい。
− 周辺センサで検知された物体を物体寸法とともに他の周辺センサのターゲット座標系に座標変換し、その後、この周辺センサにデータ伝送し、または少なくとも1つの追加センサのセンサデータからの同じデータを処理することを、速度に重点を置いて、より少ない演算能力で行うことができる。さらに、方法を実施するための車両のバスシステムへの負荷を低く抑えることができる。
一実施形態によれば、少なくとも1つの検知された物体からの位置情報は、物体寸法と、センサまたは車両の座標系における物体の位置とを有する。ここで、センサ間のデータ伝送は、例えば、カメラシステムで検知された物体の物体寸法と、カメラの座標系におけるこの物体の位置とを有することができる。この位置情報は、センサ同士の既知の相対的な配置に基づいて、追加のセンサで既に検知されている物体をセンサでも同様に検知できる区間を算出するために使用することができる。このようにして、データ伝送を非常に無駄なく行うことができる。アルゴリズムまたはAIを用いて、センサスキャンから関連画像区間または関連ピクセルのみを分析することにより、さらなるステップでは、コンピュータプログラムやインテリジェントアルゴリズム、または人工知能を用いて、センサの画像データからこの関連物体の選択を行うことができる。このようにして、関連画像区間またはその瞬間に関連するピクセルデータのみが評価されるため、センサによる物体検知は著しく高速化され、必要な演算能力は少なくなる。
さらなる実施例によれば、LIDARセンサは、複数のセンサからの変換された位置情報に基づいて、既に検出されたセンサデータから少なくとも1つの画像区間を評価のために使用する。これにより、センサ内の関連画像区間の選択は、複数の追加の周辺センサからのデータを組み合わせて行うことができる。
例えば、LIDARセンサにおけるカメラとRADARセンサの1つまたは複数の検知物体を、画像区間の対象選択や妥当性検査に使用することができる。
さらなる実施例によれば、位置情報の変換は、中央制御装置またはセンサ制御装置によって実行される。したがって、検知された物体の位置情報の変換は、少なくとも1つの追加センサのカメラ座標系から、例えばLIDARセンサなどのセンサの座標系への変換を行うことができる。ここで、変換は、例えば車両の中央コンピュータ上で行われてもよいし、センサまたは追加センサのコンピュータ内で行われてもよい。センサは、例えばフレックスレイ、イーサネット(登録商標)、CAN、無線インターフェースなどの車両バスを用いて、車両制御装置を介して、直接的または間接的に通信上相互接続することができる。
さらなる実施形態によれば、位置情報の変換は追加のセンサによって実行され、センサ間に直接的な通信リンクが確立される。これにより、本方法を分散して実施することができる。
さらなる実施例によれば、少なくとも1つのセンサによって提供された少なくとも1つの物体位置情報は、少なくとも1つの物体を追跡するために経時変化される。この時、例えばカメラで検知した物体を経時的に追跡し、関連画像区間を選択するためにセンサに連続的または周期的に伝送することができる。特に、位置情報は、追跡された物体に送信することができる。これは、物体がカメラまたは少なくとも1つの追加センサの関連画像区間から既に離れている場合でも実行できる。例えば、物体が車両前方にもはや位置しなくなったため、フロントカメラ(追加センサ)ではもはや見えなくなり、車両の側面に配置されたセンサ(LIDARセンサ)でのみ見えるようになる。LIDARセンサは、瞬間的な車両速度に基づいて、カメラ画素以上のカメラ画像の流れを外挿することで、関連画像区間を受信し、ひいては車両側面にある物体を的確に追跡する。
さらなる実施例によれば、少なくとも1つのセンサの走査領域外にある少なくとも1つの物体の位置情報の経時変化可能な適応が継続される。例えば、車両に設置されているフロントカメラを使って物体を検知することができる。この物体は、続いて車両によって通過されるが、これは車両が物体を横方向に通り過ぎることを意味する。この場合、関連物体は、車両の演算装置または制御装置の一時メモリに格納され、車速または車両の動態またはグローバルな高精度の車両位置を用いて、カメラの関連画像区間がなくなっている場合でも、センサまたはLIDARセンサの座標系に変換できる。これにより、物体の位置情報を車両の側面に設置されたLIDARセンサに転送することができる。これは、例えば、車両の側面に設置されたLIDARセンサによって、対応する物体が確実に検知されるまで行われる。この場合、LIDARセンサは、対応する車両コンピュータまたはカメラシステム自体にフィードバックを提供することができる。特に、対応する物体が車両の側面で再度見つかったことを伝達できる。続いて、対応する座標系にさらに連続して変換された、一時的に記憶された物体データや物体の位置情報を削除することができる。側面に設置されたLIDARセンサが単独で物体検知を実行できる。
さらなる実施例によれば、評価に使用されるLIDARセンサの検出されたセンサデータの少なくとも1つの画像区間は、位置センサのセンサデータと地図のデータに基づいて選択される。ここで、少なくとも1つのGNSS(global navigation satellite system)センサのデータや、高精度な地図上での車両位置を用いて、例えばLIDARセンサにおける関連画像区間の選択が行われる。例えば、車両はエリア内の自分の位置を高精度で把握している。また、車両の高精度な位置を地図上にマッピングすることで、車両周辺の特徴または重要な構造物を知ることができる。本発明のこの実施形態の1つの適用例は、横断歩道の右側または左側にいる歩行者を的確に検知することである。例えば、自律走行車は、自車がちょうど横断歩道に近づいていることを把握する。その横断歩道までの距離と向きを利用して、その横断歩道に相対するLIDARセンサからの所期の画像情報を、理論的には歩行者がいる可能性のあるLIDARセンサの対応するスキャンから選択することができる。これは、例えば、横断歩道の左側、横断歩道上、あるいは横断歩道の右側などであり得る。この目的のため、横断歩道の相対的な位置が、横断歩道の寸法および考え得る歩行者の位置とともに、LIDARセンサの座標系に変換される。LIDARセンサは、この時点での歩行者検知に関連画像区間を的確に選択することができる。他の考え得る適用例は、都市部で横に駐車している車両を検知したり、地図上で既に存在する構造物を検知して、グローバルに車両の向きや位置を確認したりすることである。
さらなる実施例によれば、評価に用いられるLIDARセンサの検出したセンサデータの少なくとも1つの画像区間は、少なくとも1人の道路利用者の位置データに基づいて選択される。さらなる実施形態によれば、少なくとも1人の道路利用者の位置データは、直接的または間接的な通信リンクを介して伝送される。例えばLIDARセンサなどの関連画像区間の選択は、受信した他の道路利用者の位置データを利用して、Car−to−X通信リンクを介して伝送することができる。この場合、自車はCar−to−X通信リンクを介して、他の道路利用者の寸法、高精度の位置、および方向を受信できる。これらの他の道路利用者の高精度な位置は、次のステップでセンサの座標系に変換される。続いて、少なくとも1人の他の道路利用者を検知するために、センサ内の関連画像区間の選択が、正確にこの道路利用者の変換された座標と寸法とを用いて実行される。このようにして、Car−to−X通信を介して受信した、他の道路利用者の自車に対する相対的な位置データおよび方向について、妥当性検査することができる。
さらなる実施形態によれば、LIDARセンサの検出したセンサデータの少なくとも1つの画像区間は、人工知能によって選択される。したがって、関連画像区間の選択は、例えばニューラルネットワークとして構成された人工知能(AI)によって実行されてもよい。例えば、このAIは、センサの座標系への検知物体の座標変換を自動的に実行することができる。代替的にまたは追加的に、AIは、カメラ、RADARセンサ、LIDARセンサ、超音波センサ、GNSSセンサ、Car−to−X通信などを用いて、自車に対する相対的な物体の検知を行うこともある。さらに、センサやセンサ制御装置に独自のAIを配置し、このAIが受信したデータ(検知物体の座標や寸法)から、関連画像区間を前方で選択することで、物体検知や物体の妥当性検査を実行することもできる。
さらなる実施形態によれば、LIDARセンサで実行された評価は、物体検知の妥当性検査のために使用される。これにより、このセンサは、追加のセンサのための冗長性を形成することができる。
さらなる実施形態によれば、妥当性検査は、少なくとも1つのセンサからの要求によって実行される。また、他の周辺センサで既に検知された物体検知または物体の妥当性検査は、要求によって、または必要に応じてセンサによって行うことができる。例えば、物体は、低い「確信度」または確実性でのみ周辺センサによって検知される。周辺センサは、推定される検知物体の座標および寸法を要求によってセンサに送信する。センサは、関連画像区間を使用して、1回または定義された期間、物体検知を実行することができる。例えば、座標変換が行われた後に、関連画像区間においてもセンサによって物体が確実に検知される場合、センサは、対応する物体が妥当性を有するという応答を他の周辺センサに送信する。他の周辺センサは、自律走行を実施するために、確実に検知された物体をさらに追跡することができる。複数回試行しても、センサが対応する物体を検知できなかった場合、要求元の追加の周辺センサに対して、その物体が妥当性を有さないという応答も同様に送信される。本発明のこの実施形態では、センサで検知された物体の的確な妥当性検査が可能である。この妥当性検査を非常に短い期間で行うことにより、自律走行の機能が維持され、より確実に、かつ安全に行われる。センサは例えば、特定の車両周辺に対しては、AIまたはインテリジェントアルゴリズムを用いて一般的な物体検知を行い、特定の画像区間に対しては、現存の周辺スキャンを用いて物体検知を行うことができる。この時、物体検知の前に、関連画像区間の選択を行うことができる。代替的にまたは追加的に、この物体に関するセンサの画像区間全体を分析することもできる。
本発明のさらなる態様によれば、少なくとも1つのセンサに接続し、少なくとも1つのセンサからセンサデータを読み取るための制御装置が提供され、制御装置は本方法の全てのステップを実施するように設定されている。
特に、制御装置は、センサ制御装置として、または中央制御装置として実施することができる。ここで、制御装置は、車両の内部に配置されていても、車両の外部に配置されていてもよい。したがって、制御装置に連結された車両の全ての周辺センサは、車両バスを介して制御装置にセンサデータを伝送することができる。ここで、この方法は、周辺センサ自体では実施されず、十分な演算能力を有する制御装置においてのみ実施される。用途に応じて、任意の数のセンサを制御装置に連結することができるため、センサ融合の範囲内で、評価や方法の精度を向上させることができる。
以下に、簡略化した概略図を参照しながら、本発明の好ましい実施例を詳述する。
制御装置およびセンサを備えた車両の概略図である。 一実施形態にかかる方法の概略フロー図である。
図1には、制御装置2、およびセンサ4、6、8を有する車両1の概略図が示されている。車両1は、自動運転可能な車両1であり、少なくとも1つの制御装置2を有する。
制御装置2は、センサデータを読み出し、さらに処理することができるように、センサ4、6、8に結合されている。車両1のセンサシステムは、LIDARセンサ4と追加センサ6、8から構成されている。追加センサ6、8は、カメラ6およびRADARセンサ8として実施されている。
制御装置2は、通信リンク12を確立するための通信ユニットを有する。通信リンク12は、例えば、Car−2−X通信リンクであってもよく、これにより、他の道路利用者14は、自分の位置や他のデータを制御装置2と交換することができる。
センサ4、6、8は、車両1の周辺にある物体16を特定できる。
図2は、一実施形態にかかる方法18の概略フロー図である。
特に、方法18は、追加のセンサ6、8のセンサデータに基づいて、センサ4による周辺検出のための区間を選択するために機能する。
ステップ19では、少なくとも1つの追加センサ6、8によって周辺が検出される。少なくとも1つのセンサ6、8の検知されたセンサデータに基づいて、物体検知20が実行される。物体検知20に基づいて、少なくとも1つの検知物体16の位置情報がセンサ4の座標系に変換される21。続いて、変換された位置情報に基づいて、センサ4の走査領域の一部を周辺検出に使用し22、または既に検出されたセンサデータからセンサ4のセンサデータの画像区間を評価に使用する23。

Claims (13)

  1. センサデータに基づいた、センサ(4)による周辺検出のための区間の選択方法(18)であって、少なくとも1つの追加センサ(6、8)によって周辺が検出され(19)、前記少なくとも1つの追加センサ(6、8)の特定されたセンサデータに基づいて、物体検知(20)が実行され、前記物体検知に基づいて、少なくとも1つの検知された物体(16)の位置情報が前記センサ(4)の座標系に変換され(21)、前記センサ(4)は、前記変換された位置情報に基づいて、周辺検出のための走査領域(22)の一区間、または既に検出されたセンサデータ(23)の一画像区間を評価のために使用する方法。
  2. 前記少なくとも1つの検知された物体(16)からの位置情報は、物体寸法と、物体の位置とを有する、請求項1に記載の方法。
  3. 前記センサ(4)は、複数の追加センサ(6、8)からの変換された位置情報に基づいて、既に検出されたセンサデータから少なくとも1つの画像区間を評価のために使用する、請求項1または2に記載の方法。
  4. 前記位置情報の変換は、中央制御装置(2)またはセンサ制御装置によって実行される、請求項1から3のいずれか一項に記載の方法。
  5. 前記位置情報の変換は、前記追加のセンサ(6、8)によって実行され、前記センサ(4、6、8)間に直接的な通信リンク(12)が確立される、請求項1から4のいずれか一項に記載の方法。
  6. 前記少なくとも1つのセンサ(6、8)によって提供された少なくとも1つの物体(16)の位置情報は、前記少なくとも1つの物体(16)を追跡するために経時変化している、請求項1から5のいずれか一項に記載の方法。
  7. 前記少なくとも1つの追加センサ(6、8)の走査領域外にある前記少なくとも1つの物体(16)の位置情報の経時変化可能な適応が継続される、請求項6に記載の方法。
  8. 前記センサ(4)の検出されたセンサデータの評価に使用される前記少なくとも1つの画像区間は、位置センサの追加のセンサデータと地図のデータとに基づいて選択される、請求項1から7のいずれか一項に記載の方法。
  9. 前記センサ(4)の検出されたセンサデータの評価に使用される前記少なくとも1つの画像区間は、少なくとも1人の道路利用者(14)の位置データに基づいて選択され、前記少なくとも1人の道路利用者の位置データは、直接的または間接的な通信リンク(12)を介して伝送される、請求項1から8のいずれか一項に記載の方法。
  10. 前記センサ(4)の検出されたセンサデータの前記少なくとも1つの画像区間は、人工知能によって選択される、請求項1から9のいずれか一項に記載の方法。
  11. 前記センサ(4)によって実行される評価は、前記少なくとも1つの追加センサの物体検知の妥当性検査のために使用される、請求項1から10のいずれか一項に記載の方法。
  12. 前記妥当性検査は、少なくとも1つの追加センサ(6、8)からの要求によって実行される、請求項11に記載の方法。
  13. 少なくとも1つのセンサ(4、6、8)に接続され、少なくとも1つのセンサ(4、6、8)からセンサデータを読み取るための制御装置(2)であって、前記制御装置(2)は、請求項1から12のいずれか一項に記載の方法(18)を実行するように構成されている制御装置。
JP2021512690A 2018-09-06 2019-09-04 センサの画像区間の選択方法 Active JP7326429B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102018215136.9A DE102018215136B4 (de) 2018-09-06 2018-09-06 Verfahren zum Auswählen eines Bildausschnitts eines Sensors
DE102018215136.9 2018-09-06
PCT/EP2019/073512 WO2020049013A1 (de) 2018-09-06 2019-09-04 Verfahren zum auswählen eines bildausschnitts eines sensors

Publications (2)

Publication Number Publication Date
JP2022500737A true JP2022500737A (ja) 2022-01-04
JP7326429B2 JP7326429B2 (ja) 2023-08-15

Family

ID=68062889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021512690A Active JP7326429B2 (ja) 2018-09-06 2019-09-04 センサの画像区間の選択方法

Country Status (5)

Country Link
US (1) US11989944B2 (ja)
JP (1) JP7326429B2 (ja)
CN (1) CN112970028A (ja)
DE (1) DE102018215136B4 (ja)
WO (1) WO2020049013A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020205831A1 (de) 2020-05-08 2021-11-11 Zf Friedrichshafen Ag System zur Täuschungserkennung, -vermeidung und -schutz von ADAS Funktionen

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004085337A (ja) * 2002-08-27 2004-03-18 Fujitsu Ltd 車両検出方法及び車両検出装置
JP2004125795A (ja) * 2002-10-02 2004-04-22 Robert Bosch Gmbh 画像センサシステムのキャリブレーション方法および装置
JP2012185540A (ja) * 2011-03-03 2012-09-27 Honda Elesys Co Ltd 画像処理装置、画像処理方法、及び画像処理プログラム
WO2017159382A1 (ja) * 2016-03-16 2017-09-21 ソニー株式会社 信号処理装置および信号処理方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3645177B2 (ja) * 2000-11-29 2005-05-11 三菱電機株式会社 車両周辺監視装置
DE10154861A1 (de) * 2001-11-08 2003-05-22 Ibeo Automobile Sensor Gmbh Verfahren zur Bereitstellung von Bildinformationen
KR101372023B1 (ko) * 2012-05-31 2014-03-07 현대자동차주식회사 차량 주변의 이동체 감지 장치 및 방법
DE102012021282A1 (de) * 2012-10-29 2014-04-30 Audi Ag Verfahren zur Koordination des Betriebs von vollautomatisiert fahrenden Kraftfahrzeugen
DE102013215408A1 (de) 2013-08-06 2015-03-05 Bayerische Motoren Werke Aktiengesellschaft Anzeigesystem für ein Fahrzeug und Verfahren für die Anzeige einer Fahrzeugumgebung
DE102015204529A1 (de) * 2015-03-13 2016-09-15 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Objekterkennung in einem Fortbewegungsmittel
DE102015112289A1 (de) * 2015-07-28 2017-02-02 Valeo Schalter Und Sensoren Gmbh Verfahren zum Identifizieren eines Objekts in einem Umgebungsbereich eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102015214743A1 (de) * 2015-08-03 2017-02-09 Audi Ag Verfahren und Vorrichtung in einem Kraftfahrzeug zur verbesserten Datenfusionierung bei einer Umfelderfassung
DE102016211183A1 (de) 2015-09-08 2017-03-09 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und System zum Ausführen einer automatisierten Fahrt eines Fahrzeugs unter Beteiligung mindestens eines weiteren Fahrzeugs
US10317901B2 (en) * 2016-09-08 2019-06-11 Mentor Graphics Development (Deutschland) Gmbh Low-level sensor fusion

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004085337A (ja) * 2002-08-27 2004-03-18 Fujitsu Ltd 車両検出方法及び車両検出装置
JP2004125795A (ja) * 2002-10-02 2004-04-22 Robert Bosch Gmbh 画像センサシステムのキャリブレーション方法および装置
JP2012185540A (ja) * 2011-03-03 2012-09-27 Honda Elesys Co Ltd 画像処理装置、画像処理方法、及び画像処理プログラム
WO2017159382A1 (ja) * 2016-03-16 2017-09-21 ソニー株式会社 信号処理装置および信号処理方法

Also Published As

Publication number Publication date
US20210255330A1 (en) 2021-08-19
DE102018215136A1 (de) 2020-03-12
WO2020049013A1 (de) 2020-03-12
DE102018215136B4 (de) 2021-03-25
JP7326429B2 (ja) 2023-08-15
CN112970028A (zh) 2021-06-15
US11989944B2 (en) 2024-05-21

Similar Documents

Publication Publication Date Title
US11009602B2 (en) Method and system for environment detection
JP6822564B2 (ja) 車両用情報記憶方法、車両の走行制御方法、及び車両用情報記憶装置
US11016484B2 (en) Vehicle control apparatus and method for performing automatic driving control
US20200209857A1 (en) Multimodal control system for self driving vehicle
US11335188B2 (en) Method for automatically producing and updating a data set for an autonomous vehicle
WO2019175285A1 (en) Vehicle localization
US20180224284A1 (en) Distributed autonomous mapping
JP7035945B2 (ja) 地図情報システム
US11136048B2 (en) System for sensor synchronization data analysis in an autonomous driving vehicle
US20180050694A1 (en) Method and device for monitoring a setpoint trajectory to be traveled by a vehicle for being collision free
US11453410B2 (en) Reducing processing requirements for vehicle control
JP6192958B2 (ja) 移動体の環境地図生成制御装置、移動体、及び移動体の環境地図生成方法
US20220194412A1 (en) Validating Vehicle Sensor Calibration
US11544868B2 (en) Object location coordinate determination
US20210206392A1 (en) Method and device for operating an automated vehicle
JP2022500737A (ja) センサの画像区間の選択方法
JP2021060941A (ja) 物体認識方法及び物体認識システム
CN112348993A (zh) 可提供环境信息的动态图资建立方法及系统
US20220258765A1 (en) Method for modeling the surroundings of an automated vehicle
TWI747016B (zh) 可提供環境資訊的動態圖資建立方法及系統
JP7456967B2 (ja) 地図情報判定装置及び地図情報判定用コンピュータプログラム
US12025463B2 (en) Server, vehicle, distributed transaction verification system, and distributed transaction verification method
US20210239492A1 (en) Server, vehicle, distributed transaction verification system, and distributed transaction verification method
JP6999625B2 (ja) 環境情報を提供可能なダイナミックマップ情報を生成するための方法およびシステム
US20200333803A1 (en) Method of assisting with the driving of vehicles, computer program and associated system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230802

R150 Certificate of patent or registration of utility model

Ref document number: 7326429

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150