JP6668472B2 - Method, controller, driver assistance system, and powered vehicle for capturing surrounding area of powered vehicle with object classification - Google Patents
Method, controller, driver assistance system, and powered vehicle for capturing surrounding area of powered vehicle with object classification Download PDFInfo
- Publication number
- JP6668472B2 JP6668472B2 JP2018524428A JP2018524428A JP6668472B2 JP 6668472 B2 JP6668472 B2 JP 6668472B2 JP 2018524428 A JP2018524428 A JP 2018524428A JP 2018524428 A JP2018524428 A JP 2018524428A JP 6668472 B2 JP6668472 B2 JP 6668472B2
- Authority
- JP
- Japan
- Prior art keywords
- powered vehicle
- distance
- sensor
- control device
- curve
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 17
- 230000002093 peripheral effect Effects 0.000 claims description 9
- 230000006870 function Effects 0.000 description 23
- 230000005540 biological transmission Effects 0.000 description 12
- 230000005670 electromagnetic radiation Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000007769 metal material Substances 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/415—Identification of targets based on measurements of movement associated with the target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/862—Combination of radar systems with sonar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/932—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9324—Alternative operation using ultrasonic waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93271—Sensor installation details in the front of the vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93272—Sensor installation details in the back of the vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93274—Sensor installation details on the side of the vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93275—Sensor installation details in the bumper area
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Radar Systems Or Details Thereof (AREA)
- Traffic Control Systems (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
Description
本発明は、動力車両(motor vehicle)の周辺領域をキャプチャー(capturing)する方法に関し、その方法では、動力車両が周辺領域における物体に対して移動している間に、センサデータが各ケースにおいて所定時間に距離センサから制御装置によって受信され、受信されたセンサデータに基づいて制御装置により物体が静止物体として又は移動物体として分類される。また、本発明は、動力車両のための制御装置に関する。さらに、本発明は、距離センサ及びそのような制御装置を有する運転者支援システムに関する。最後に、本発明は、そのような運転者支援システムを有する動力車両に関する。 The present invention relates to a method of capturing a surrounding area of a motor vehicle, wherein sensor data is determined in each case while the powered vehicle is moving relative to an object in the surrounding area. At time, the control device receives the distance sensor from the distance sensor, and the control device classifies the object as a stationary object or a moving object based on the received sensor data. The invention also relates to a control device for a powered vehicle. Furthermore, the invention relates to a driver assistance system having a distance sensor and such a control device. Finally, the invention relates to a powered vehicle having such a driver assistance system.
従来技術は、動力車両のための運転手支援システムを開示しており、それにより、動力車両の周辺領域をキャプチャーすることが可能である。この目的のために、運転者支援システムは、通常、例えば動力車両に分散して配置されうる多数の距離センサを含む。一例として、これらの距離センサは伝達信号を放射することができ、その伝達信号はその後、動力車両の周辺領域における物体又は障害物によって反射されて再び距離センサに到達する。そして、伝達信号の発信と物体によって反射された伝達信号の受信との間の飛行時間に基づいて、動力車両と物体との間の距離を検出することができる。一例として、そのような距離センサは、超音波センサ、レーザスキャナ、ライダーセンサ、又はレーダーセンサとすることができる。さらに、従来技術は、動力車両の周辺領域の物体をキャプチャーするカメラの使用を開示している。 The prior art discloses a driver assistance system for a powered vehicle, whereby it is possible to capture the surrounding area of the powered vehicle. For this purpose, the driver assistance system usually comprises a number of distance sensors, which may for example be distributed in a motor vehicle. By way of example, these distance sensors can emit a transmission signal which is then reflected by objects or obstacles in the surrounding area of the motor vehicle and reaches the distance sensor again. Then, the distance between the powered vehicle and the object can be detected based on the flight time between the transmission of the transmission signal and the reception of the transmission signal reflected by the object. By way of example, such a distance sensor can be an ultrasonic sensor, a laser scanner, a lidar sensor, or a radar sensor. Further, the prior art discloses the use of cameras to capture objects in the surrounding area of the powered vehicle.
本ケースでは、関心は、特に動力車両用のレーダーセンサに向けられている。一例として、これらのレーダーセンサは、約24GHz又は約79GHzの周波数で作動される。一般に、レーダーセンサは、動力車両の周辺領域における物体を検出するように機能する。レーダーセンサは、動力車両を誘導する際に運転手を助ける他の運転者支援システムの一部とすることができる。レーダーセンサは、まず物体と動力車両との間の距離を測定する。第2に、レーダーセンサは、物体に対する相対速度も測定する。さらに、レーダーセンサは、いわゆる目標角度、すなわち物体への想像上の接続線と基準線、例えば車両の縦軸、との間の角度、も測定する。 In this case, the interest is particularly directed to radar sensors for powered vehicles. By way of example, these radar sensors are operated at a frequency of about 24 GHz or about 79 GHz. Generally, radar sensors function to detect objects in the area around the powered vehicle. The radar sensor can be part of another driver assistance system that assists the driver in guiding a powered vehicle. Radar sensors first measure the distance between the object and the powered vehicle. Second, the radar sensor also measures the relative speed with respect to the object. In addition, radar sensors also measure the so-called target angle, ie the angle between the imaginary connecting line to the object and a reference line, for example the longitudinal axis of the vehicle.
レーダーセンサは、通常、バンパーの背後に、例えばバンパーのそれぞれのコーナ領域に配置される。レーダーセンサは、目標物体を検出する目的で、電磁波の形で伝達信号を発する。この伝達信号は、その後、検出される物体で反射され、レーダーセンサによって再びエコーとして受信される。本ケースでは、関心は、特に、FMCWレーダーとも呼ばれる、いわゆる周波数変調連続波レーダーセンサに対して向けられている。ここで、伝達信号は、通常、一連の周波数変調されたチャープ信号を含み、それらは連続して発せられる。受信信号を得るために、反射された伝達信号は最初にベースバンドにダウンミックスされ、続いてアナログ/デジタル変換器によってサンプリングされる。したがって、いくつかのサンプリング値を提供することが可能である。次いで、受信信号のこれらのサンプリングされた値は、電子計算装置によって処理される。このコンピューターデバイスは、例えば、デジタル信号プロセッサを備えており、特にレーダーセンサに組み込まれている。 Radar sensors are usually located behind the bumpers, for example in the respective corner areas of the bumpers. Radar sensors emit transmission signals in the form of electromagnetic waves for the purpose of detecting target objects. This transmitted signal is then reflected off the object to be detected and again received as an echo by the radar sensor. In this case, interest is specifically directed to so-called frequency modulated continuous wave radar sensors, also referred to as FMCW radars. Here, the transmission signal typically comprises a series of frequency modulated chirp signals, which are emitted sequentially. To obtain the received signal, the reflected transmitted signal is first downmixed to baseband and subsequently sampled by an analog-to-digital converter. Thus, it is possible to provide some sampling values. These sampled values of the received signal are then processed by an electronic computing device. This computing device comprises, for example, a digital signal processor, in particular integrated into a radar sensor.
通常、例えば、150°としうる比較的広い方位角範囲が、レーダーセンサによって水平方向にキャプチャーされる。このように、レーダーセンサは、比較的大きな方位角キャプチャー角を有するので、レーダーセンサの視野又はキャプチャー領域は、それに対応して方位方向に広い。この方位角キャプチャー領域は、レーダーセンサによって連続して照射されるより小さな部分にさらに分割可能である。この目的のために、伝達アンテナのメインローブは、例えば位相配列の原理に従って、例えばその方位に電気的に回転される。 Typically, a relatively large azimuthal range, which may be, for example, 150 °, is captured horizontally by radar sensors. Thus, because the radar sensor has a relatively large azimuthal capture angle, the field of view or capture area of the radar sensor is correspondingly wide in the azimuthal direction. This azimuth capture area can be further subdivided into smaller portions that are continuously illuminated by radar sensors. For this purpose, the main lobe of the transmitting antenna is electrically rotated, for example in its orientation, according to, for example, the principle of phase alignment.
この目的のために、DE 10 2004 046 873 A1は、動力車両の距離及び速度調整のためのレーダーセンサ及び関連する方法を記載する。ここで、物体におけるレーダー放射の反射点の時間変化が確認され、反射点の時間変化に応じて検出物体の分類が確認される。有利には、この物体分類は、再度、物体位置をより正確に予測するためにも使用される。この目的のために、反射点の変化は、特に、所定の時間にわたってキャプチャーされる。この結果、時間的に変化する物体の移動によって物体のサイズを推測することが可能になる。 To this end, DE 10 2004 046 873 A1 describes a radar sensor and an associated method for adjusting the distance and speed of a powered vehicle. Here, the time change of the reflection point of the radar radiation on the object is confirmed, and the classification of the detected object is confirmed according to the time change of the reflection point. Advantageously, this object classification is again used to more accurately predict the object position. For this purpose, the change in the reflection point is captured in particular over a predetermined time. As a result, it is possible to estimate the size of the object based on the movement of the object that changes with time.
さらに、DE 10 2012 224 499 A1は、超音波センサ、レーダー及び撮像装置を用いてサイドストリップの空間を識別する方法を開示する。この方法を使用して、特に静止した物体、例えば衝突フェンス(crash barriers)、及び移動する物体を、レーダーのドップラー効果を利用して識別することが可能である。一例として、静止物体と車両との間の距離が所定時間以上一定であるかどうかを監視することが可能である。この場合、静止物体は衝突フェンスとして決定されることが可能である。 Furthermore, DE 10 2012 224 499 A1 discloses a method for identifying the space of a side strip using an ultrasonic sensor, a radar and an imaging device. Using this method, it is possible to identify particularly stationary objects, for example crash fencers, and moving objects, using the Doppler effect of radar. As an example, it is possible to monitor whether the distance between the stationary object and the vehicle is constant for a predetermined time or more. In this case, the stationary object can be determined as a collision fence.
本発明の目的は、動力車両の周辺領域における物体をどのようにしてより簡単且つより信頼できる方法で分類できるかの解決法を強調することである。 It is an object of the invention to emphasize a solution on how objects in the surrounding area of a motor vehicle can be classified in a simpler and more reliable way.
本発明によれば、この目的は、それぞれの独立請求項による特徴を有する方法によって、制御装置によって、運転者支援システムによって、及び動力車両によって達成される。本発明の有利な実施形態は、明細書、図面及び従属請求項の主題である。 According to the invention, this object is achieved by a method having the features according to the respective independent claims, by a control device, by a driver assistance system and by a motor vehicle. Advantageous embodiments of the invention are the subject of the description, the drawings and the dependent claims.
本発明による方法は、動力車両の周辺領域をキャプチャーするのに役立つ。ここで、動力車両が周辺領域における物体に対して移動されている間に、センサデータは、それぞれのケースにおいて制御装置によって距離センサから所定の時間に受信され、受信されたセンサデータに基づき制御装置によって物体は静止物体又は移動物体として分類される。さらに、距離値は所定の時間の各々に関して制御装置により検出され、前記距離値は、距離センサと物体の少なくとも1つの所定の反射点との間の距離を表す。さらに、時間の関数としての距離値の曲線は、物体を分類するために所定の基準曲線と比較される。 The method according to the invention serves to capture the surrounding area of a powered vehicle. Here, while the powered vehicle is being moved relative to the object in the surrounding area, the sensor data is in each case received by the control device from the distance sensor at a predetermined time and based on the received sensor data the control device Classifies the object as a stationary object or a moving object. Further, a distance value is detected by the controller for each predetermined time, said distance value representing a distance between the distance sensor and at least one predetermined reflection point of the object. Furthermore, the curve of the distance values as a function of time is compared with a predefined reference curve to classify the object.
その方法を使用して、動力車両の周辺領域における物体又は障害物をキャプチャーすることが可能である。少なくとも1つの距離センサが物体をキャプチャーするために使用される。例えば動力車両に分散して配置された複数の距離センサが使用のために設けられることも可能である。一例として、それらの距離センサは、対応するセンサ信号を発することができ、その対応するセンサ信号は周辺領域における少なくとも1つの物体によって反射される。そして、反射された伝達信号は距離センサに戻る。そして、その飛行時間に基づいて、動力車両と物体との間の距離を確認することが可能である。一例として、距離センサは、超音波センサ、レーザスキャナ、ライダーセンサなどとしうる。距離センサは、好ましくは、伝達信号として電磁放射線を発するレーダーセンサである。距離センサは、データ伝達の目的で制御装置に接続される。制御装置は、対応する計算装置、デジタル信号プロセッサ、マイクロプロセッサなどによって形成されうる。特に、制御装置は、動力車両の電子コントローラによって形成される。周辺領域における物体を表すセンサデータは、距離センサから制御装置に送信される。そして制御装置は、センサデータを評価し、それに応じて物体を分類することができる。特に、物体は、静的な、すなわち移動しない、物体として、又は動く物体として分類されることができる。 The method can be used to capture objects or obstacles in the surrounding area of the powered vehicle. At least one distance sensor is used to capture the object. For example, a plurality of distance sensors distributed over a motor vehicle may be provided for use. By way of example, the distance sensors can emit corresponding sensor signals, which are reflected by at least one object in the surrounding area. Then, the reflected transmission signal returns to the distance sensor. Then, it is possible to confirm the distance between the powered vehicle and the object based on the flight time. As an example, the distance sensor may be an ultrasonic sensor, a laser scanner, a lidar sensor, or the like. The distance sensor is preferably a radar sensor that emits electromagnetic radiation as a transmission signal. The distance sensor is connected to the control device for data transmission. The control device may be formed by a corresponding computing device, digital signal processor, microprocessor, etc. In particular, the control device is formed by an electronic controller of the powered vehicle. Sensor data representing an object in the peripheral area is transmitted from the distance sensor to the control device. The controller can then evaluate the sensor data and classify the objects accordingly. In particular, objects can be classified as static, ie, non-moving, or moving objects.
ここで、本発明によれば、距離センサがセンサデータを連続的又は所定の時間に提供し、制御装置がセンサデータに基づいて所定の各々の時間に関する距離値を検出するように構成が設けられる。それらの所定の時間は、距離センサのそれぞれの測定サイクルに割り当てられることができる。したがって、制御装置は、所定の時間の各々についての距離値を検出し、前記距離値は、それぞれ距離センサと物体における所定の反射点との間の距離を表す。言い換えれば、物体における所定の反射点が時間の関数としてたどられる。特に、反射点は、距離センサの伝達信号が反射される物体の外側の所定の点又は領域を表す。センサデータを評価する際に、複数の反射点を特定することができる。これらの反射点は、距離センサに面する物体の外面を表す。したがって、物体の反射点と、物体に対して相対的に移動する動力車両に配置された距離センサと、の間の相対位置は、所定の時間に関して各々の場合に検出されることができる。所定の時間に関して検出された個々の距離値は、今や時間の関数としてプロットされる。したがって、時間の関数としての距離値の時間曲線が決定され、例えば、制御装置のメモリに保存された所定の基準曲線と比較される。物体は、基準曲線に対する距離値の時間曲線の比較に基づいて、静止物体又は動的物体として分類されることができる。結果として、物体は、わずかな計算量で分類されることができる。 Here, according to the present invention, a configuration is provided such that the distance sensor provides the sensor data continuously or at a predetermined time, and the control device detects the distance value for each predetermined time based on the sensor data. . These predetermined times can be allocated to each measuring cycle of the distance sensor. Therefore, the control device detects a distance value for each of a predetermined time, and the distance value represents a distance between the distance sensor and a predetermined reflection point on the object, respectively. In other words, a given reflection point on the object is followed as a function of time. In particular, the reflection point represents a predetermined point or area outside the object from which the transmission signal of the distance sensor is reflected. When evaluating sensor data, a plurality of reflection points can be specified. These reflection points represent the outer surface of the object facing the distance sensor. Thus, the relative position between the reflection point of the object and the distance sensor arranged on the powered vehicle moving relatively to the object can be detected in each case for a predetermined time. The individual distance values detected for a given time are now plotted as a function of time. Thus, a time curve of the distance value as a function of time is determined and compared, for example, with a predetermined reference curve stored in the memory of the control device. An object can be classified as a stationary object or a dynamic object based on a comparison of the time curve of the distance values to a reference curve. As a result, objects can be classified with little computational complexity.
好ましくは、時間の関数としての距離値の曲線が最初に低下し、続いて上昇する場合、物体は静止物体として分類される。ここで、物体の所定の反射点は、特に、動力車両の走行方向における動力車両の前方に、配置される。物体が静的であり、すなわちそれが移動しておらず、動力車両が物体に対して相対的に移動する場合、距離センサと所定の反射点との間の距離は、この場合には最初は減少する。距離センサと反射点との間の最短距離に達した後、距離センサと反射点との間の距離は再び増加する。これは時間の関数として距離値の時間曲線に反映される。ここで、通常、最初に下降曲線、続いて最小、その後、増加曲線を識別することが可能である。その結果、動力車両の周辺領域における静止物体は、基準曲線に対する時間の関数としての距離値の曲線の比較に基づいて、簡単な方法で認識されることができる。 Preferably, the object is classified as a stationary object if the curve of the distance values as a function of time first falls and then rises. Here, the predetermined reflection point of the object is arranged in particular in front of the powered vehicle in the traveling direction of the powered vehicle. If the object is static, i.e. it is not moving and the powered vehicle moves relative to the object, then the distance between the distance sensor and the given reflection point will initially be Decrease. After reaching the shortest distance between the distance sensor and the reflection point, the distance between the distance sensor and the reflection point increases again. This is reflected in the time curve of distance values as a function of time. Here, it is usually possible to identify a descending curve first, followed by a minimum and then an increasing curve. As a result, stationary objects in the surrounding area of the powered vehicle can be recognized in a simple manner based on a comparison of a curve of distance values as a function of time to a reference curve.
一実施形態によれば、時間の関数としての距離値の曲線が放物線である場合に、物体は静止物体として分類され、その静止物体に対して動力車両が実質的に平行に動く。前述したように、動力車両が相対的に移動されている物体が静止している場合、時間の関数としての距離値の曲線は、最初に低下し、その後、上昇する。特に、動力車両が静止物体と平行に動かされると、時間の関数として距離値の曲線に対して放物形が現れる。その結果、物体の分類は簡単な方法で実行されることができ、動力車両に対して又は動力車両の移動方向に対して物体がどのように方向づけられているのかを識別することがさらに可能である。 According to one embodiment, if the curve of the distance values as a function of time is a parabola, the object is classified as a stationary object and the powered vehicle moves substantially parallel to the stationary object. As mentioned above, if the object to which the powered vehicle is relatively moving is stationary, the curve of distance values as a function of time first drops and then rises. In particular, when the powered vehicle is moved parallel to a stationary object, a parabola appears for the curve of distance values as a function of time. As a result, the classification of the object can be performed in a simple way, and it is further possible to identify how the object is oriented relative to the powered vehicle or to the direction of movement of the powered vehicle. is there.
好ましい実施形態によれば、時間の関数としての距離値の曲線が放物線である場合、物体は衝突フェンスとして分類される。一例として、動力車両が車道にある場合、それは衝突フェンスに対して移動されることができる。ここで、衝突フェンスは、動力車両の走行方向と実質的に平行に配置される。ここで、衝突フェンスにおける所定の反射点を時間の関数として追跡することが可能である。先に説明したように、時間の関数として距離値に関する放物曲線が現れる。ここで、衝突フェンスの反射特性を考慮することがさらに可能である。特に、距離センサがレーダーセンサとして具体化されている場合、その後に衝突フェンスによって反射される電磁放射線を表すセンサデータは、金属材料から製造されない物体の場合とは異なる信号振幅を有する。したがって、例えば、物体が金属から製造された衝突フェンスであるか又は例えばコンクリート又は木材から製造された壁であるかに関して、センサデータを評価することによって区別することが可能である。その結果、レーダーセンサによってキャプチャーされた物体が衝突フェンスであると確実に判断することができる。 According to a preferred embodiment, the object is classified as a collision fence if the curve of the distance values as a function of time is a parabola. As an example, if the powered vehicle is on a roadway, it can be moved against a collision fence. Here, the collision fence is arranged substantially parallel to the traveling direction of the powered vehicle. Here, it is possible to track a given reflection point at the collision fence as a function of time. As explained above, a parabolic curve appears for the distance value as a function of time. Here, it is further possible to consider the reflection characteristics of the collision fence. In particular, if the distance sensor is embodied as a radar sensor, the sensor data representing the electromagnetic radiation subsequently reflected by the collision fence will have a different signal amplitude than for objects not made of metallic material. Thus, for example, it is possible to distinguish by evaluating sensor data as to whether the object is a collision fence made of metal or a wall made of, for example, concrete or wood. As a result, it is possible to reliably determine that the object captured by the radar sensor is a collision fence.
さらに、動力車両の現在の速度及び/又は動力車両の現在の進行方向が物体を分類するために考慮されるならば有利である。言い換えれば、物体を分類するためにセンサデータに加えてオドメトリデータ(odometry data)を考慮することも可能である。この目的のために、例えば、動力車両の現在の速度及び/又は動力車両の少なくとも1つの車輪の回転速度を表すセンサのデータを考慮することが可能である。さらに、ステアリング角センサからのデータに基づいて、動力車両の現在のステアリング角をも検出することができる。時間の関数としての距離値の曲線は、現在の車両速度及び/又は動力車両の現在の走行方向に依存する。現在の車両速度及び/又は現在の走行方向を追加的に考慮する結果、距離値の曲線を時間の関数として検証することが可能となり、その結果、より確実に物体を分類することが可能となる。 Furthermore, it is advantageous if the current speed of the powered vehicle and / or the current heading of the powered vehicle is taken into account for classifying objects. In other words, it is also possible to consider odometry data in addition to the sensor data in order to classify the object. For this purpose, it is possible to take into account, for example, sensor data representing the current speed of the powered vehicle and / or the rotational speed of at least one wheel of the powered vehicle. Further, the current steering angle of the powered vehicle can be detected based on the data from the steering angle sensor. The curve of the distance value as a function of time depends on the current vehicle speed and / or the current driving direction of the powered vehicle. As a result of additionally taking into account the current vehicle speed and / or the current direction of travel, it is possible to verify the curve of the distance values as a function of time, so that the object can be more reliably classified. .
さらなる構成によれば、動力車両と物体との間の距離は、距離値の最小値に基づいて決定される。時間の関数としての距離値の曲線は、距離センサが反射点から最小の距離を有するとき、最小値を有する。この情報に基づいて、動力車両と物体との間の距離を検出することが可能である。物体が衝突フェンスである場合、例えば、硬い路肩の幅を確認することが可能である。したがって、例えば、この硬い路肩が十分なスペースを提供し、動力車両が緊急時にそこに駐車できるかどうかを検出することが可能である。 According to a further configuration, the distance between the powered vehicle and the object is determined based on a minimum distance value. The curve of the distance values as a function of time has a minimum when the distance sensor has the minimum distance from the reflection point. Based on this information, it is possible to detect the distance between the powered vehicle and the object. When the object is a collision fence, for example, it is possible to confirm the width of a hard road shoulder. Thus, for example, it is possible for this hard shoulder to provide sufficient space and to detect whether a powered vehicle can park there in an emergency.
さらなる実施形態によれば、周辺領域を表す周辺のデジタルマップが、物体の分類に基づいて更新される。さらに、周辺領域を表す周辺のデジタルマップを制御装置によって提供することができる。少なくとも1つの距離センサによって取得された物体は、周辺のデジタルマップに入力されることができる。したがって、例えば、動力車両と物体又は障害物のうちの1つとの間の衝突が差し迫っているかどうかを確認することが可能である。ここで、特に、周辺のデジタルマップが常に更新されることが必要である。したがって、例えば、動力車両の周辺領域にはもはや配置されていない物体を周辺のデジタルマップから削除することが可能である。物体が静止物体として確実に識別される場合、動力車両がこの静止物体を通過することを確実に検出することが可能であり、その結果、物体との衝突が差し迫っていないこととすることができる。その結果、動力車両の確実な動作を容易にすることができる。 According to a further embodiment, a surrounding digital map representing the surrounding area is updated based on the classification of the object. Further, a digital map of the periphery representing the peripheral region can be provided by the control device. Objects obtained by the at least one distance sensor can be input to a digital map of the surroundings. Thus, for example, it is possible to determine whether a collision between a powered vehicle and one of an object or an obstacle is imminent. Here, in particular, it is necessary that the surrounding digital map is constantly updated. Thus, for example, objects that are no longer located in the peripheral area of the powered vehicle can be deleted from the surrounding digital map. If the object is reliably identified as a stationary object, it can be reliably detected that the powered vehicle passes through this stationary object, so that a collision with the object is not imminent . As a result, reliable operation of the powered vehicle can be facilitated.
動力車両用の本発明による制御装置は、本発明による方法を実行するように設けられている。特に、制御装置は、動力車両の電子制御装置とすることができる。本発明による方法を実施することができる適切なプログラム及びその発展は、制御装置上で実行することができる。 A control device according to the invention for a motor vehicle is provided for performing the method according to the invention. In particular, the control device can be an electronic control device for a powered vehicle. A suitable program capable of implementing the method according to the invention and its development can be executed on a control device.
本発明による運転者支援システムは、距離センサ、特にレーダーセンサと、本発明による制御装置とを備える。ここで、運転者支援システムは、動力車両に分散して配置された複数の距離センサ又はレーダーセンサを備えるように設けられることもできる。一例として、運転者支援システムは、死角を監視するためや、衝突警告を提供するためなどに、具体化されることができる。運転者支援システムはまた、車線変更アシスタントとして具体化されることもできる。 A driver assistance system according to the present invention includes a distance sensor, particularly a radar sensor, and a control device according to the present invention. Here, the driver assistance system may be provided so as to include a plurality of distance sensors or radar sensors dispersedly arranged in the powered vehicle. As an example, a driver assistance system can be embodied to monitor blind spots, provide a collision warning, and the like. The driver assistance system can also be embodied as a lane change assistant.
好ましくは、運転者支援システムは、動力車両の少なくとも半自律操縦のための制御信号を出力するように構成される。制御装置を用いて、動力車両の周辺領域において物体の場所を見つけ出して物体を分類することが可能である。したがって、例えば、物体との衝突が差し迫っているかどうかを検出することが可能である。物体との衝突が差し迫っている場合、制御装置は、適切な制御信号を駆動モータ、ブレーキ装置及び/又は動力車両のステアリングシステムに出力することができる。その結果、動力車両は、例えば動力車両と物体との間の衝突が防止されるように、ブレーキ及び/又はステアリングシステムにおける適切な介入によって操作することができる。また、制御信号に応じて運転者に警告を出力する装置が設けられることも可能である。 Preferably, the driver assistance system is configured to output a control signal for at least semi-autonomous steering of the powered vehicle. The control device can be used to find the location of the object in the area around the powered vehicle and classify the object. Thus, for example, it is possible to detect whether a collision with an object is imminent. If a collision with an object is imminent, the controller can output appropriate control signals to the drive motor, the braking device, and / or the steering system of the powered vehicle. As a result, the powered vehicle can be operated by appropriate intervention in the braking and / or steering system, for example, so that a collision between the powered vehicle and the object is prevented. It is also possible to provide a device that outputs a warning to the driver according to the control signal.
本発明による動力車両は、本発明による運転者支援システムを備える。特に、動力車両は自動車(motor car)として具体化される。 A powered vehicle according to the present invention includes the driver assistance system according to the present invention. In particular, a powered vehicle is embodied as a motor car.
本発明による方法を参照して提示された好ましい実施形態及びその利点は、本発明による制御装置、本発明による運転者支援システム及び本発明による動力車両に対して、変更すべきところは変更して、適用される。 The preferred embodiment and its advantages presented with reference to the method according to the invention are different from those of the control device according to the invention, the driver assistance system according to the invention and the powered vehicle according to the invention, in that, where , Apply.
本発明のさらなる特徴は、特許請求の範囲、図面、及び図面の説明から明らかになる。上述の特徴及び特徴の組み合わせや、図の説明において以下に説明される及び/又は図に示されているのみである特徴及び特徴の組み合わせは、それぞれの説明される組み合わせにおいてのみだけではなく、他の組み合わせにおいてやそれら自身においても、用いられうる。したがって、図面に明示的には示されておらずまた説明されていないが、別々の特徴の組合せによって説明されている実施形態から現れ、生じうる実施形態も、本発明によって含まれ且つ開示されていると考えられるべきである。結果として当初に表現されている独立クレームの特徴の全ては有さない実施形態及び特徴の組合せも、開示されていると考えられるべきである。 Further features of the invention will become apparent from the claims, drawings and description of the drawings. Combinations of the features and combinations of features described above, and features and combinations of features that are described below and / or shown only in the illustrations of the figures, are not limited to only in each described combination. Can be used in combinations of and on their own. Accordingly, embodiments not explicitly shown or described in the drawings, but which may arise from and occur in embodiments described by the combination of separate features are also encompassed and disclosed by the present invention. Should be considered. As a result, embodiments and combinations of features that do not have all of the features of the independent claims originally expressed should be considered disclosed.
本発明は、好ましい例示的な実施形態に基づいて及び添付の図面を参照して、より詳細に説明される。 The invention will be explained in more detail on the basis of preferred exemplary embodiments and with reference to the accompanying drawings.
同一の要素及び機能的に同一の要素には、図面において同じ参照符号が付されている。 Identical and functionally identical elements are provided with the same reference symbols in the figures.
図1は、本発明の一実施形態による動力車両1を平面図で示している。本例示的実施形態では、動力車両1は自動車として具体化されている。動力車両1は運転者支援システム2を備え、その運転者支援システム2は、例えば、適応クルーズコントロール、死角アシスタント、レーンキープアシスト及び/又はレーンチェンジアシスタントとして具体化されることができる。 FIG. 1 is a plan view showing a powered vehicle 1 according to an embodiment of the present invention. In the present exemplary embodiment, powered vehicle 1 is embodied as an automobile. The powered vehicle 1 comprises a driver assistance system 2, which can be embodied, for example, as adaptive cruise control, blind spot assistant, lane keep assist and / or lane change assistant.
運転者支援システム2は、動力車両1の周辺領域4における少なくとも1つの物体8(図2参照)をキャプチャーするために使用されることができる少なくとも1つの距離センサ3を含む。この例示的な実施形態では、運転者支援システム2は4つの距離センサ3を含み、その距離センサ3の各々はレーダーセンサとして具体化される。レーダーセンサを使用して、電磁放射線の形態の伝達信号を発することが可能であり、その電磁放射線は物体8によって反射される。反射された電磁放射線は、エコー信号として再びそれぞれの距離センサ3又はレーダーセンサに戻る。飛行時間に基づいて、距離センサ3と物体8との間の距離を求めることができる。本ケースでは、前方領域5に2つのレーダーセンサが配置され、動力車両1のテール領域(tail region)6に2つのレーダーセンサが配置されている。一例として、距離センサ3又はレーダーセンサは、動力車両1のバンパーの背後に覆われて配置されることができる。それぞれのレーダーセンサを使用して、水平方向に方位角範囲αをキャプチャーすることが可能であり、前記方位角範囲は150°〜180°の範囲にあることができる。この方位角範囲αは、右後方距離センサ3の一例として示されている。レーダーセンサは、物体8を80〜100mの距離までキャプチャーすることができる。
The driver assistance system 2 includes at least one distance sensor 3 that can be used to capture at least one object 8 (see FIG. 2) in the surrounding
さらに、運転者支援システム2は、例えばコンピュータ、デジタル信号プロセッサ、マイクロプロセッサなどによって構成されうる制御装置7を備える。特に、制御装置7は、動力車両1の電子制御装置によって形成されることができる。制御装置7は、データ伝達の目的で距離センサ3に接続されている。本ケースでは、明確にするために、適切なデータラインは図示されていない。これにより、距離センサ3によりキャプチャーされた周辺領域4を表すセンサデータは、距離センサ3から制御装置7に送信されることができる。そして、制御装置7は、センサデータを適切に評価することができる。さらに、制御装置7は、動力車両1の現在の速度及び/又は現在のステアリング角を表すセンサからのデータを受信することができる。
Further, the driver assistance system 2 includes a
図2は、図1による動力車両1を示し、その動力車両1は周辺領域4に位置する物体8に対して相対的に移動される。本ケースでは、物体8は静止物体、特に衝突フェンスである。本ケースでは、動力車両1は、物体8又は衝突フェンスに実質的に平行に移動される。ここで、矢印9は、動力車両1の現在の速度及び/又は現在の走行方向を表す。物体8又は衝突フェンスは、距離センサ3を用いて、特に動力車両1の右テール領域6に配置された距離センサ3を用いて、キャプチャーされることができる。特に、物体8における所定の反射点R1、R2、R3、R4をキャプチャーすることができ、又はこれらを時間の関数として追跡することが可能である。一例として、センサ信号の評価中、反射点R1、R2、R3、R4は、線に沿って配置された個々の点として識別されることができる。反射点R1、R2、R3、R4を追跡する目的のために、例えば制御装置7によって、いわゆる追跡関数を与えることができ、その追跡関数によって反射点R1、R2、R3、R4は時間の関数として従う又は追跡される。制御装置7は、周辺領域4を表す周辺のデジタルマップを提供することもできる。距離センサ3によってキャプチャーされた物体8は、周辺のこのデジタルマップに入力されることができる。
FIG. 2 shows a powered vehicle 1 according to FIG. 1, which is moved relative to an object 8 located in a
図3は、3つの異なる時間T1、T2及びT3に距離センサの1つによってキャプチャーされる物体8を示す。時間T1、T2及びT3は、周辺領域4における物体8が距離センサ3によってキャプチャーされるそれぞれの測定サイクルに対して割り当てられることができる。本ケースでは、物体における又は衝突フェンスにおける第1の反射点が、3つの所定の時間T1、T2及びT3でキャプチャーされる。図3の左側の領域において識別されることができるように、動力車両1は、矢印9に沿って物体8又は衝突フェンスに対して実質的に平行に移動される。したがって、動力車両1の右下に配置された距離センサ3は、第1の反射点R1に向かって移動する。制御装置7は、距離センサ3によって提供されるセンサデータに基づいて、第1の距離値a1を検出することができ、その第1の距離値a1は、時間T1における距離センサ3と反射点R1との間の距離を表す。
FIG. 3 shows an object 8 captured by one of the distance sensors at three different times T1, T2 and T3. Times T1, T2 and T3 can be allocated for each measurement cycle in which the object 8 in the surrounding
図3の中央領域は、時間T1に続く時間T2における物体8のキャプチャーを示す。ここで、反射点R1は、距離センサ3を通って延在する動力車両1の長手方向軸線に対して直角に位置する。距離センサ3と反射点R1とは、時間T2においてお互いから最短距離を有する。これは、制御装置7によるセンサデータに基づいて決定される距離値a2によって表される。
The central region of FIG. 3 shows the capture of the object 8 at time T2 following time T1. Here, the reflection point R <b> 1 is located at right angles to the longitudinal axis of the powered vehicle 1 extending through the distance sensor 3. The distance sensor 3 and the reflection point R1 have the shortest distance from each other at the time T2. This is represented by a distance value a2 determined based on the sensor data by the
図3の右側の領域は、時間T2の後に続く時間T3における物体8のキャプチャーを示す。ここで、動力車両1は矢印9の方向に沿ってさらに移動させられた。反射点R1は既に距離センサ3の背後に位置している。センサデータに基づいて制御装置7によって検出される距離値a3は、距離センサ3と反射点R1との間の距離を表す。
The area on the right side of FIG. 3 shows the capture of the object 8 at time T3, which follows time T2. Here, the powered vehicle 1 has been further moved in the direction of
図4は、時間値tの関数としての距離値aの曲線10を示す。本ケースにおいて、図3による測定サイクルで確認された距離値a1、a2及びa3がさらにプロットされている。ここで、第1の領域11において曲線10が最初に低下することを識別することが可能である。第2の距離値a2に割り当てられた第2の領域12において、曲線は最小値を有する。第3の領域13には、上昇曲線が現れる。距離値aの曲線10は、時間tの関数として実質的に放物線状である。これは、距離センサ3が最初に反射点R1に向かって移動され、その後、そこから再び離れるように移動される結果として現れる。この曲線10は、動力車両1が実質的に平行に相対的に移動される静止物体8、特に衝突フェンス、に関して典型的なものである。この曲線10は、制御装置7によって、所定の基準曲線と比較されることができ、その所定の基準曲線は、例えば制御装置7のメモリユニットに保存されている。その結果、物体8は、静止物体として、特に衝突フェンスとして、容易に分類されることができる。
FIG. 4 shows a
Claims (9)
前記制御装置(7)によって、前記センサデータに基づいて、前記所定時間(T1、T2、T3)毎に距離値(a1、a2、a3)が検出され、前記距離値は、前記距離センサ(3)と前記物体(8)の少なくとも1つの所定の反射点(R1、R2、R3、R4)との間の距離を表し、前記物体(8)を分類するために時間(t)の関数としての前記距離値(a1、a2、a3)の曲線(10)は所定の基準曲線と比較され、時間(t)の関数としての前記距離値(a1、a2、a3)の前記曲線(10)が最初に低下してその後上昇する場合、前記物体(8)は静止物体(8)として分類され、前記物体(8)を分類するために、前記動力車両(1)の現在の速度及び前記動力車両(1)の現在の進行方向が考慮されることを特徴とする方法。 A method for capturing a peripheral area (4) of a powered vehicle (1), wherein a distance sensor (4) is detected while the powered vehicle (1) is being moved relative to an object (8) in the peripheral area (4). From 3), the sensor data is received by the control device (7) at any given time (T1, T2, T3), and the object (8) is controlled by the control device (7) based on the received sensor data. Classified as a stationary object or as a moving object (8) by
The controller (7) detects distance values (a1, a2, a3) for each of the predetermined times (T1, T2, T3) based on the sensor data, and the distance value is determined by the distance sensor (3). ) And at least one predetermined reflection point (R1, R2, R3, R4) of said object (8), as a function of time (t) for classifying said object (8). The curve (10) of the distance values (a1, a2, a3) is compared with a predetermined reference curve, and the curve (10) of the distance values (a1, a2, a3) as a function of time (t) is initially , And then rises, the object (8) is classified as a stationary object (8) and the current speed of the powered vehicle (1) and the powered vehicle ( Write current heading of 1), characterized in Rukoto be considered .
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102015119658.1A DE102015119658A1 (en) | 2015-11-13 | 2015-11-13 | Method for detecting an environmental region of a motor vehicle with object classification, control device, driver assistance system and motor vehicle |
DE102015119658.1 | 2015-11-13 | ||
PCT/EP2016/075344 WO2017080787A1 (en) | 2015-11-13 | 2016-10-21 | Lateral crash barrier recognition by means of a distance sensor in a motor vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019500683A JP2019500683A (en) | 2019-01-10 |
JP6668472B2 true JP6668472B2 (en) | 2020-03-18 |
Family
ID=57178426
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018524428A Active JP6668472B2 (en) | 2015-11-13 | 2016-10-21 | Method, controller, driver assistance system, and powered vehicle for capturing surrounding area of powered vehicle with object classification |
Country Status (6)
Country | Link |
---|---|
US (1) | US11435442B2 (en) |
EP (1) | EP3374791A1 (en) |
JP (1) | JP6668472B2 (en) |
KR (1) | KR102172071B1 (en) |
DE (1) | DE102015119658A1 (en) |
WO (1) | WO2017080787A1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016202112A1 (en) * | 2016-02-12 | 2017-08-17 | Robert Bosch Gmbh | Radar sensor for driver assistance systems in motor vehicles |
ITUA20163205A1 (en) * | 2016-05-06 | 2017-11-06 | Cnh Ind Italia Spa | Method and system for mapping a workplace. |
DE102017214022A1 (en) * | 2017-08-11 | 2019-02-14 | Audi Ag | Method for determining ego data and motor vehicle describing the proper motion of a motor vehicle |
DE102021121406A1 (en) * | 2021-08-18 | 2023-02-23 | Bayerische Motoren Werke Aktiengesellschaft | Method and localization device for localizing a motor vehicle and motor vehicle |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3656301B2 (en) * | 1995-12-28 | 2005-06-08 | 株式会社デンソー | Obstacle warning device for vehicles |
DE10243508A1 (en) | 2002-09-19 | 2004-04-01 | Robert Bosch Gmbh | Process and arrangement for the preventive protection of vehicle occupants in dangerous situations |
JP4298577B2 (en) * | 2004-05-06 | 2009-07-22 | 三菱電機株式会社 | Vehicle alarm device |
DE102004046873A1 (en) | 2004-09-28 | 2006-04-13 | Robert Bosch Gmbh | Radar sensor and method for distance and speed control |
DE102005059902A1 (en) * | 2005-12-15 | 2007-06-28 | Robert Bosch Gmbh | Distance sensor condition detecting method for measuring motor vehicle distance, involves determining distance values from sensor signals and producing sensor condition signals that correlates with result of statistical evaluation of values |
EP2084555A2 (en) * | 2006-10-31 | 2009-08-05 | Valeo Raytheon Systems, Inc. | System and method for generating an alert signal in a detection system |
JP4386083B2 (en) * | 2007-02-27 | 2009-12-16 | トヨタ自動車株式会社 | Parking assistance device |
DE102008043394A1 (en) | 2008-11-03 | 2010-05-06 | Robert Bosch Gmbh | Method for detecting peak overlays in a discrete spectrum of a locating signal |
JP5618744B2 (en) * | 2010-05-26 | 2014-11-05 | 三菱電機株式会社 | Road shape estimation apparatus, computer program, and road shape estimation method |
JP5538655B2 (en) * | 2011-03-25 | 2014-07-02 | 三菱電機株式会社 | In-vehicle radar system |
US8930063B2 (en) * | 2012-02-22 | 2015-01-06 | GM Global Technology Operations LLC | Method for determining object sensor misalignment |
JP6182987B2 (en) * | 2012-07-06 | 2017-08-23 | 株式会社Soken | Parallel vehicle detector |
KR101927155B1 (en) | 2012-10-19 | 2018-12-10 | 현대자동차 주식회사 | Method and system for recognizing space of shoulder of road |
JP5494845B1 (en) * | 2013-01-17 | 2014-05-21 | 株式会社デンソーアイティーラボラトリ | Information provision system |
WO2014118968A1 (en) * | 2013-02-01 | 2014-08-07 | 三菱電機株式会社 | Radar device |
JP2015055541A (en) * | 2013-09-11 | 2015-03-23 | トヨタ自動車株式会社 | Surrounding object detection apparatus |
US9255988B2 (en) * | 2014-01-16 | 2016-02-09 | GM Global Technology Operations LLC | Object fusion system of multiple radar imaging sensors |
JP6552167B2 (en) * | 2014-07-16 | 2019-07-31 | 株式会社デンソー | On-vehicle radar device and notification system |
-
2015
- 2015-11-13 DE DE102015119658.1A patent/DE102015119658A1/en active Pending
-
2016
- 2016-10-21 WO PCT/EP2016/075344 patent/WO2017080787A1/en active Application Filing
- 2016-10-21 EP EP16784521.3A patent/EP3374791A1/en not_active Withdrawn
- 2016-10-21 KR KR1020187013454A patent/KR102172071B1/en active IP Right Grant
- 2016-10-21 US US15/775,215 patent/US11435442B2/en active Active
- 2016-10-21 JP JP2018524428A patent/JP6668472B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11435442B2 (en) | 2022-09-06 |
EP3374791A1 (en) | 2018-09-19 |
DE102015119658A1 (en) | 2017-05-18 |
JP2019500683A (en) | 2019-01-10 |
WO2017080787A1 (en) | 2017-05-18 |
KR20180069019A (en) | 2018-06-22 |
US20180321377A1 (en) | 2018-11-08 |
KR102172071B1 (en) | 2020-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10852422B2 (en) | Method for calibrating a sensor of a motor vehicle for measuring angles, computing device, driver assistance system and motor vehicle | |
CN111002979B (en) | Collision avoidance device and collision avoidance method | |
CN100504438C (en) | Method and device for detecting objects in a motor vehicle environment | |
JP6668472B2 (en) | Method, controller, driver assistance system, and powered vehicle for capturing surrounding area of powered vehicle with object classification | |
KR102013224B1 (en) | Autonomous Emergencyy Braking System and Controlling Method Thereof | |
JP2014227000A (en) | Vehicle control device, method and program | |
EP3834008B1 (en) | An apparatus and method for providing driver assistance of a vehicle | |
CN112639914B (en) | Detection device, mobile body system, detection method, and storage medium | |
CN113196362B (en) | Detection device, mobile body system, and detection method | |
WO2020050278A1 (en) | Electronic device, method for controlling electronic device, and electronic device control program | |
CN110546528A (en) | Sensor system for a vehicle and method for determining a threat assessment | |
EP3865909B1 (en) | Electronic device, method for controlling electronic device, and program for controlling electronic device | |
JP2018054328A (en) | Machine for mine work and obstacle detection device thereof | |
US11209537B2 (en) | Extended target-matched CFAR detector | |
EP3825717A1 (en) | Electronic device, electronic device control method, and electronic device control program | |
US11679765B2 (en) | Method for operating a distance-measuring surroundings sensor of a motor vehicle and motor vehicle | |
CN110239431B (en) | Apparatus and method for controlling collision warning | |
CN110691985A (en) | System for enhanced object tracking | |
US20240248201A1 (en) | Radar device for vehicle | |
JP7063208B2 (en) | Detection device, mobile system, and detection method | |
WO2020071242A1 (en) | Electronic device, electronic device control method, and electronic device control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180702 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190730 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190731 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191025 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6668472 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |