JP7048426B2 - How to perform sensor calibration and system - Google Patents

How to perform sensor calibration and system Download PDF

Info

Publication number
JP7048426B2
JP7048426B2 JP2018114199A JP2018114199A JP7048426B2 JP 7048426 B2 JP7048426 B2 JP 7048426B2 JP 2018114199 A JP2018114199 A JP 2018114199A JP 2018114199 A JP2018114199 A JP 2018114199A JP 7048426 B2 JP7048426 B2 JP 7048426B2
Authority
JP
Japan
Prior art keywords
sensor
stationary structure
stationary
vehicle
parkable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018114199A
Other languages
Japanese (ja)
Other versions
JP2019002929A (en
Inventor
ホルガー・ミエレンツ
ダニエル・ツァウム
ヤン・ローデ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of JP2019002929A publication Critical patent/JP2019002929A/en
Application granted granted Critical
Publication of JP7048426B2 publication Critical patent/JP7048426B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/04Monitoring the functioning of the control system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/06Automatic manoeuvring for parking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52004Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/539Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9314Parking operations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/932Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles for parking operations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4052Means for monitoring or calibrating by simulation of echoes
    • G01S7/4082Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder
    • G01S7/4091Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder during normal radar operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Acoustics & Sound (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Manufacturing & Machinery (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、車両センサの校正の実行方法に関する。本発明の他の態様は、少なくとも1つのセンサ、制御ユニットおよびメモリを含む、センサ校正の実行システムに関し、この場合、方法の実行のためにシステムが適合されている。 The present invention relates to a method of performing calibration of a vehicle sensor. Another aspect of the invention relates to a sensor calibration performing system comprising at least one sensor, control unit and memory, in which case the system is adapted for performing the method.

現代の車両は複数のセンサを有し、それを介して、車両の周囲に関する情報が取得可能である。取得されたデータを信頼した車両システムの確実な操作を保証するために、車両センサが正確に校正されていることが保証されていなければならない。 Modern vehicles have multiple sensors through which information about the surroundings of the vehicle can be obtained. It must be ensured that the vehicle sensors are accurately calibrated to ensure reliable operation of the vehicle system that relies on the acquired data.

欧州特許出願公開第2793045号明細書には、車両の周辺検出システムの検査方法が記載されている。物体が第1周辺センサタイプにより検出されかつ静的および動的物体に分類される。さらに、検出された静的物体の車両に対する相対位置が決定される。この位置は、それに続いて、第2周囲センサタイプを使用して検出された相対位置と比較される。方法において、車両の固有運動もまた考慮されるので、第1周辺センサタイプのセンサが第2周辺センサタイプのセンサと同時に物体を検出する必要はない。 European Patent Application Publication No. 2793045 describes a method for inspecting a vehicle's peripheral detection system. Objects are detected by the first peripheral sensor type and are classified as static and dynamic objects. In addition, the relative position of the detected static object with respect to the vehicle is determined. This position is subsequently compared to the relative position detected using the second perimeter sensor type. Since the proper motion of the vehicle is also taken into account in the method, it is not necessary for the first peripheral sensor type sensor to detect the object at the same time as the second peripheral sensor type sensor.

独国特許出願公開第102015009869号明細書には、車両の自己位置推定方法が記載されている。方法において、連続画像が検出され、車両の実際位置が、記録されかつ画像に割り当てられた位置により決定される。さらに、画像内において、例えば車線マーキングまたは排水溝マンホールのカバーのような、自己位置推定のために適切な画像特徴が抽出される。画像は、例えば、ステレオカメラにより検出されてもよい。 German Patent Application Publication No. 102015009869 describes a method for estimating the self-position of a vehicle. In the method, a continuous image is detected and the actual position of the vehicle is determined by the position recorded and assigned to the image. In addition, suitable image features for self-position estimation are extracted in the image, such as lane markings or drain manhole covers. The image may be detected, for example, by a stereo camera.

国際公開第2012/052308号には、ステレオ検出システムのベース幅がそれにより決定可能な方法が記載されている。この場合、車両周辺内の物体を検出しかつステレオ検出システムを介して物体の寸法および車両までの距離を決定するように設計されている。決定された寸法は、基準距離において決定された物体の基準寸法と比較される。比較に対して、特に、既知の高さを有する交通標識およびナンバープレートのような規格寸法を有する物体が適している。 International Publication No. 2012/05/2308 describes a method by which the base width of a stereo detection system can be determined thereby. In this case, it is designed to detect objects in the vicinity of the vehicle and determine the dimensions of the object and the distance to the vehicle via a stereo detection system. The determined dimension is compared with the reference dimension of the object determined at the reference distance. For comparison, objects with standard dimensions such as traffic signs and license plates with known heights are particularly suitable.

従来技術において既知の方法の欠点は、センサの校正に対して、それとは無関係の他のセンサシステムが必要であること、またはシステムが標準の既知の標識の存在に依存することである。 Disadvantages of known methods in the prior art are that the calibration of the sensor requires another sensor system unrelated to it, or that the system relies on the presence of standard known markings.

欧州特許出願公開第2793045号明細書European Patent Application Publication No. 2793045 独国特許出願公開第102015009869号明細書German Patent Application Publication No. 102015009869 国際公開第2012/052308号International Publication No. 2012/05/2308

車両センサの校正の実行方法が提案される。方法の第1ステップa)において、センサを使用して車両の周辺に関する第1データを検出するように設計されている。それに続いて、第2ステップb)において、検出された第1データを使用して定置構造および駐車可能位置が決定され、この場合、定置構造の位置もまた決定される。次のステップc)において、センサの後の校正のために定置構造が選択される。さらに、ステップd)において、駐車可能位置から選択され、この場合、選択された駐車位置は、選択された駐車位置に車両が駐車した後に、センサの校正のために選択された定置構造がセンサの視野内に存在するように選択される。それに続くステップe)において、車両は選択された駐車位置に駐車され、かつセンサの校正のために選択された定置構造の位置が記憶される。駐車位置に、駐車される車両が停止される。継続走行が意図されているとき、方法のステップf)により、車両がスタートされる。それに続くステップg)において、センサを使用して車両の周辺に関する第2データが検出され、方法の次のステップh)において、検出された第2データを使用して、選択された定置構造の実際位置が決定される。ステップi)がそれに続き、ステップi)において、実際位置が記憶されている位置と比較され、かつ実際位置と記憶されている位置の間の偏差が決定される。最後に、決定された偏差を使用してセンサが校正される。 A method of performing calibration of the vehicle sensor is proposed. In step 1 a) of the method, sensors are designed to detect first data about the perimeter of the vehicle. Subsequently, in the second step b), the detected first data is used to determine the stationary structure and the parkable position, in which case the position of the stationary structure is also determined. In the next step c), a stationary structure is selected for calibration after the sensor. Further, in step d), the parkable position is selected, in which case the selected parking position is the stationary structure selected for sensor calibration after the vehicle has parked in the selected parking position. Selected to be in the field of view. In a subsequent step e), the vehicle is parked in the selected parking position and the position of the stationary structure selected for sensor calibration is stored. The parked vehicle is stopped at the parking position. When continuous running is intended, the vehicle is started by step f) of the method. In the subsequent step g), the sensor is used to detect the second data about the perimeter of the vehicle, and in the next step h) of the method, the detected second data is used to actually select the stationary structure. The position is determined. Step i) is followed by, in step i), the actual position is compared to the stored position and the deviation between the actual position and the stored position is determined. Finally, the sensor is calibrated using the determined deviation.

このセンサの校正のために他のセンサのデータは必要ではないので、方法は、ただ1つのセンサに適用可能である。しかしながら、方法は、同様に、複数のセンサを使用するためにも適用可能であり、この場合、センサは、同じタイプであってもまたは異なるタイプであってもよい。複数のセンサに適用するとき、特に、ステップa)ないしc)並びにg)ないしj)は、各センサに対して別々にかつ他のセンサとは独立に実行されるように設計され、この場合、ステップb)による駐車可能位置の決定に対しては、それとは異なり、関係する全てのセンサのデータの一覧が参照されてもよい。さらに、この場合、ステップd)による駐車可能位置の選択において、選択された駐車位置において全てのセンサのそれぞれの視野内に選択された定置構造が存在するように、全てのセンサが共通に考慮されることが好ましい。 The method is applicable to only one sensor, as no data from other sensors is required to calibrate this sensor. However, the method is also applicable to use multiple sensors, in which case the sensors may be of the same type or of different types. When applied to multiple sensors, in particular steps a) to c) and g) to j) are designed to be performed separately for each sensor and independently of the other sensors, in this case. For the determination of the parkable position in step b), unlike that, a list of data of all related sensors may be referred to. Further, in this case, in the selection of the parkable position in step d), all the sensors are commonly considered so that the selected stationary structure exists in the respective field of view of all the sensors at the selected parking position. Is preferable.

方法により校正されるセンサは、例えば、ステレオカメラ、ビデオカメラ、レーダセンサ、ライダセンサまたは超音波センサであってもよい。さらに、方法により、複数のこのようなセンサ並びに複数の前記センサの組合せが校正可能である。 Sensors calibrated by the method may be, for example, stereo cameras, video cameras, radar sensors, rider sensors or ultrasonic sensors. Further, by the method, a plurality of such sensors and a combination of the plurality of the sensors can be calibrated.

ステップb)による定置構造の決定において、物体が第1データ内において認識され、物体は定置物体および可動物体に分類されることが好ましい。この場合、定置構造は定置物体または定置物体の一部である。 In the determination of the stationary structure according to step b), it is preferable that the object is recognized in the first data and the object is classified into a stationary object and a movable object. In this case, the stationary structure is a stationary object or part of a stationary object.

第1データ内の物体の認識のために、使用されるセンサタイプに同調された、基本的に当業者に既知のアルゴリズムが使用されてもよい。例えば、ステレオカメラまたはビデオカメラにおいて、画像処理アルゴリズムが使用されてもよい。ライダセンサの使用においては、物体をその特徴的形状により識別するアルゴリズムが使用されてもよく、レーダセンサまたは超音波センサの場合には、物体の既知のサイズおよび物体の距離を使用して分類が行われてもよい。輪郭情報に基づいて物体の分類を実行する、それぞれのセンサタイプに同調された方法が使用されることは好ましい。輪郭は、センサタイプに応じてそれぞれ直接決定されても、または評価方法を介してセンサデータから決定されてもよい。その代わりにまたはそれに追加して、センサ原始データ内で物体を認識しかつ分類するために、機械工学の技術が使用されてもよい。物体の認識のために、それが定置物体であるかまたは可動物体であるかがそれぞれ記録されている、既知の物体を含む蔵書が設けられていてもよい。 Algorithms generally known to those of skill in the art, tuned to the sensor type used, may be used for the recognition of objects in the first data. For example, in a stereo camera or a video camera, an image processing algorithm may be used. In the use of rider sensors, algorithms that identify objects by their characteristic shape may be used, and in the case of radar or ultrasonic sensors, classification is performed using the known size of the object and the distance of the object. You may be broken. It is preferred that a method tuned to each sensor type be used to perform object classification based on contour information. The contour may be determined directly depending on the sensor type, or may be determined from the sensor data via an evaluation method. Instead or in addition, mechanical engineering techniques may be used to recognize and classify objects within the sensor primitive data. For the recognition of an object, a collection containing known objects may be provided, each recording whether it is a stationary object or a movable object.

定置として分類される物体または物体の一部に対する例は、家、交通標識、縁石端縁、塀、支柱、樹木、屋根支柱、排水樋、排水格子、地面、壁、屋根、照明カバー、照明、窓、ドアおよびその他の建物開口である。可動物体として分類される物体に対する例は、車両、乳母車、人、動物、植物、群葉、ごみ容器である。 Examples for objects or parts of objects classified as stationary are houses, traffic signs, curb edges, walls, stanchions, trees, roof stanchions, drainage gutters, drainage grids, ground, walls, roofs, lighting covers, lighting, Windows, doors and other building openings. Examples for objects classified as moving objects are vehicles, baby carriages, people, animals, plants, foliage, and garbage containers.

定置構造は、認識された物体と同一であっても、または物体の一部であってもよい。特に、センサにより全体として検出可能な比較的小さい物体においては、物体全体が定置構造として選択可能である。これは、特に、交通標識のような物体の場合である。例えば家の場合のような、全体がセンサにより一度に検出可能ではない比較的大きい物体においては、端縁または窓のような特徴的部分が定置構造として選択されることが好ましい。物体の特徴的部分に対する他の例は、地面、壁および屋根の構造的相違および窓、ドアおよびその他の建物開口の輪郭情報である。 The stationary structure may be the same as the recognized object or may be part of the object. In particular, for a relatively small object that can be detected as a whole by a sensor, the entire object can be selected as a stationary structure. This is especially the case for objects such as traffic signs. For relatively large objects, such as the case of a house, which are not entirely detectable by the sensor at once, it is preferred that characteristic portions such as edges or windows be selected as the stationary structure. Other examples for characteristic parts of objects are structural differences in ground, walls and roofs and contour information for windows, doors and other building openings.

校正されるセンサは、その内部にこの物体を認識可能な視野を有する。視野は、例えば、水平または垂直の開口角を介して表わされてもよく、この場合、超音波センサおよびレーダセンサのような特定のセンサタイプにおいては、さらに最大距離もまた視野を制限する。 The sensor to be calibrated has a recognizable field of view of this object inside. The field of view may be represented, for example, through a horizontal or vertical opening angle, in which case, for certain sensor types such as ultrasonic sensors and radar sensors, the maximum distance also limits the field of view.

ステップc)による定置構造の選択において、選択基準が考慮されることが好ましい。選択基準は、例えば、それぞれの定置構造の決定された位置の精度、変動する周辺条件下における定置構造の認識可能性、ある定置構造の他の定置構造に対する相対位置およびこれらの基準の少なくとも2つの組合せから選択される。 It is preferable that the selection criteria are taken into consideration in the selection of the stationary structure according to step c). The selection criteria are, for example, the accuracy of the determined position of each stationary structure, the recognizability of the stationary structure under fluctuating peripheral conditions, the relative position of one stationary structure to other stationary structures, and at least two of these criteria. Selected from combinations.

変動する周囲条件に対する例は、例えば、気象条件および照明条件である。例えば、夜間においてのみならず昼間光においても良好に認識される定置構造は好ましい。例えば風で揺動する、樹木および支柱のような定置物体は好ましくない。 Examples for fluctuating ambient conditions are, for example, meteorological and lighting conditions. For example, a stationary structure that is well recognized not only at night but also in daylight is preferable. Stationary objects such as trees and stanchions that sway in the wind, for example, are not preferred.

定置構造の位置がより正確に決定可能であればあるほどそれだけ、これは後のセンサの校正に対してより適切であり、この構造は選択においてより早くに考慮される。
例えばステレオカメラのような異なるセンサの校正に対しては、センサの校正が相互に直交する2つの軸に関して可能なように、複数の定置構造が相互に相対的に配置されているとき、それは有利である。すなわち、少なくとも3つの構造が、これらが1つの共通の線上に配置されていないように、相互に配置されているとき、それは有利である。
The more accurately the position of the stationary structure can be determined, the more appropriate this is for later calibration of the sensor, and this structure will be considered earlier in the selection.
For different sensor calibrations, such as stereo cameras, it is advantageous when multiple stationary structures are arranged relative to each other so that sensor calibration is possible for two axes that are orthogonal to each other. Is. That is, it is advantageous when at least three structures are placed together such that they are not placed on one common line.

ステップd)による選択された駐車位置の選択において、駐車可能位置が評価され、この場合、駐車可能位置は最善評価により選択されることが好ましい。この場合、駐車可能位置は、車両がこの駐車可能位置に駐車したとき、選択された定置構造が、それぞれ駐車可能位置から見て、センサの視野内により多く位置すればするほどそれだけより良好に評価されるように設計されていることが好ましい。言い換えると、センサに対して駐車可能位置から見える選択された定置構造の数が最大にされることが好ましい。 In the selection of the selected parking position in step d), the parkable position is evaluated, and in this case, the parkable position is preferably selected by the best evaluation. In this case, the parkable position is better evaluated when the vehicle is parked in this parkable position, the more the selected stationary structure is located in the field of view of the sensor, respectively, in view of the parkable position. It is preferably designed to be. In other words, it is preferred to maximize the number of selected stationary structures visible to the sensor from the parkable position.

駐車可能位置の評価において、駐車可能位置から見て、可動物体により遮蔽される可能性がある、選択された定置構造は、駐車可能位置から見て、可動物体により遮蔽される可能性がない、選択された定置構造より低く評価されることが好ましい。このために、特に、今検査された駐車可能位置と対応定置構造の間に他の駐車可能位置が位置するかどうかを解析するように設計されていてもよい。このような場合、この他の駐車可能位置に駐車された車両により、この定置構造に対するセンサの視界が遮断される可能性があるであろう。対応定置構造は、このとき、センサの後の校正のために利用可能ではないので、この定置構造はより低く評価される。 In the evaluation of the parkable position, the selected stationary structure may be shielded by the movable object when viewed from the parkable position, and may not be shielded by the movable object when viewed from the parkable position. It is preferably rated lower than the selected stationary structure. For this purpose, in particular, it may be designed to analyze whether another parkable position is located between the parkable position just inspected and the corresponding stationary structure. In such cases, vehicles parked in other parkable positions may block the sensor's view of this stationary structure. This stationary structure is evaluated lower because the corresponding stationary structure is not available at this time for calibration after the sensor.

車両は、操縦を自動運転で実行するように適合された設計がなされていることが好ましく、この場合、特に、横方向操縦すなわち車両のステアリングのみでなく、縦方向操縦すなわち車両の加速および制動もまた自動的に実行される。方法の範囲内において、このとき、ステップe)により駐車する車両は、選択された駐車位置に自動的に到着するように設計されていてもよい。 The vehicle is preferably designed to be adapted for self-driving maneuvers, especially in lateral maneuvers or vehicle steering as well as vertical maneuvers or vehicle acceleration and braking. It will also be executed automatically. Within the scope of the method, the vehicle parked in step e) at this time may be designed to automatically arrive at the selected parking position.

ステップe)において、さらに、選択された定置構造の位置を記憶するように設計されている。このために、特に、それぞれの定置構造の車両に対する相対位置を記憶するように設計されている。場合により、このために、それぞれの定置構造の位置が、選択された駐車位置に到達した後に改めてセンサを使用して決定されるか、または車両の既知の固有運動により計算される。 In step e), it is further designed to memorize the position of the selected stationary structure. For this purpose, it is specifically designed to memorize the relative position of each stationary structure with respect to the vehicle. Optionally, for this purpose, the position of each stationary structure is determined again using sensors after reaching the selected parking position, or is calculated by known proper motion of the vehicle.

車両は、継続走行が意図されるまで、選択された駐車位置に長時間駐車しているものとする。継続走行のために車両がスタートした後、残りのステップg)ないしj)が実行される。それに続いて、校正されたセンサを用いて継続走行が実行可能である。 The vehicle shall be parked in the selected parking position for a long time until continuous driving is intended. After the vehicle has started for continuous running, the remaining steps g) to j) are executed. Following that, continuous running is possible with the calibrated sensor.

本発明の他の態様は、センサ校正の実行システムを提供することである。システムは、少なくとも1つのセンサ、制御ユニットおよびメモリを含む。この場合、ここに記載の方法の1つの実行システムが形成されかつ設置されるように設計されている。 Another aspect of the invention is to provide a sensor calibration execution system. The system includes at least one sensor, control unit and memory. In this case, one of the methods described herein is designed to form and install an execution system.

記載の方法の実行システムが設置されているので、方法の範囲内に記載された特徴は、それに対応してシステムに対しても適用され、かつその逆に、システムの範囲内に記載された特徴は、それに対応して方法に対しても適用される。 Since the execution system of the described method is installed, the features described within the scope of the method are correspondingly applied to the system and vice versa. Applies to the method accordingly.

システムの少なくとも1つのセンサは、この場合、記載された方法を使用して校正される。
少なくとも1つのセンサは、例えば、ステレオカメラ、ビデオカメラ、レーダセンサ、ライダセンサ、超音波センサまたはこれらのセンサの少なくとも2つの組合せである。
At least one sensor in the system is in this case calibrated using the method described.
The at least one sensor is, for example, a stereo camera, a video camera, a radar sensor, a rider sensor, an ultrasonic sensor, or a combination of at least two of these sensors.

車両が駐車された後に、提案された方法および提案されたシステムにより、簡単なセンサ再校正が可能とされ、これにより、特に、車両が停車中の温度変動に基づく、それが原因のセンサの校正不良が補償可能である。 After the vehicle is parked, the proposed method and proposed system allow for simple sensor recalibration, which in particular is based on temperature fluctuations while the vehicle is stopped, which causes sensor calibration. Defects can be compensated.

提案されたセンサの校正方法は、校正されるセンサとは別のセンサを必要としないことが有利である。さらに、同様に、特定の標準のまたは予め他の手段により計測された標識に関する知識は必要ではない。 It is advantageous that the proposed sensor calibration method does not require a separate sensor from the sensor to be calibrated. Moreover, similarly, knowledge of a particular standard or pre-measured by other means is not required.

最終停車位置に向かう前に、後の校正のために適した定置構造が車両の周辺内に認識され、かつ最終停車位置は、この停車位置から、できるだけ多くの適切な定置構造が存在し、すなわち、校正されるセンサの視野内に存在するように選択されることが有利である。この場合、選択されたこの定置構造が記憶されるので、それは車両の再スタートにおいて利用可能になる。 Before heading to the final stop position, a stationary structure suitable for later calibration is recognized in the perimeter of the vehicle, and the final stop position is from this stop position as many suitable stationary structures exist, ie. It is advantageous to be selected to be within the field of view of the sensor to be calibrated. In this case, this stationary structure selected is remembered so that it can be used in the restart of the vehicle.

本発明の好ましい変更態様において、最終停車位置として選択された駐車位置は自動的に到達されるので、車両は、正確に最適停車位置に停止することになる。
さらに、選択される駐車位置の決定において、選択された定置構造の遮蔽の可能性を考慮するように設計されていることが有利である。したがって、例えば他の駐車車両により校正されるセンサの選択された定置構造への視界が遮蔽される確率が低減される。
In a preferred modification of the invention, the parking position selected as the final stop position is automatically reached so that the vehicle stops exactly at the optimum stop position.
In addition, it is advantageous to be designed to take into account the possibility of shielding of the selected stationary structure in determining the parking position selected. Thus, the probability of obstructing the view of the selected stationary structure of the sensor calibrated by, for example, another parked vehicle is reduced.

本発明の実施例が図面において説明されかつ以下の記載において詳細に説明される。 Examples of the present invention are described in the drawings and described in detail below.

図1は、本発明によるシステムを有する車両の概略図を示す。FIG. 1 shows a schematic view of a vehicle having the system according to the present invention. 図2は、車両の駐車のための駐車位置の選択を示す。FIG. 2 shows the selection of a parking position for parking a vehicle.

本発明の一実施例の以下の説明において、同じ部品および要素は同じ符号で示され、この場合、個々の場合におけるこれらの部品または要素の反復説明は省略される。図面は、本発明の対象を略図でのみ示す。 In the following description of an embodiment of the invention, the same parts and elements are designated by the same reference numerals, in which case repeated description of these parts or elements in individual cases is omitted. The drawings show the subject matter of the present invention only in schematic drawings.

図1は、センサ校正の実行システム10を含む車両1を示す。システム10はセンサ12を含み、センサは、図1に示した実施例においてはステレオカメラとして形成されている。さらに、システム10は制御ユニット14を含み、制御ユニットは、センサ12並びにメモリ16と結合されている。ここで、特に、制御ユニット14およびメモリ16はただ1つの制御装置の形で形成されているように設計されている。 FIG. 1 shows a vehicle 1 including a sensor calibration execution system 10. The system 10 includes a sensor 12, which is formed as a stereo camera in the embodiment shown in FIG. Further, the system 10 includes a control unit 14, which is coupled to the sensor 12 and the memory 16. Here, in particular, the control unit 14 and the memory 16 are designed to be formed in the form of only one control device.

ステレオカメラとして形成されたセンサ12は視野13を有し、視野は、図1に示した実施例においては前方に向けられている。
車両1の自動運転を可能にするために、制御ユニット14は車両1の他の部品に結合されている。これが、図1の概略図において、ハンドル18への結合並びにペダル20への結合により示されている。
The sensor 12 formed as a stereo camera has a field of view 13, which is directed forward in the embodiment shown in FIG.
The control unit 14 is coupled to other parts of the vehicle 1 to enable automatic driving of the vehicle 1. This is shown in the schematic of FIG. 1 by coupling to the handle 18 and coupling to the pedal 20.

図2は、センサ12を含む本発明によるシステム10を備えた車両1を示す。車両1は道路22上に存在しかつ駐車されようとしている。道路22の右側車線端縁に第1駐車可能位置24並びに第2駐車可能位置26が存在する。他の駐車位置29には既に駐車車両28が位置するので、この他の駐車位置29は利用可能ではない。 FIG. 2 shows a vehicle 1 equipped with a system 10 according to the invention including a sensor 12. Vehicle 1 is on road 22 and is about to be parked. There is a first parkable position 24 and a second parkable position 26 at the right lane edge of the road 22. Since the parked vehicle 28 is already located at the other parking position 29, the other parking position 29 is not available.

車両1の周辺内に、センサ12の視野13内に位置し、したがってセンサ12により検出可能な種々の物体40,42が存在する。物体40,42は、定置物体40および可動物体42に分類可能である。定置物体40は不動であり、したがって、その位置は変化しない。定置物体40は、通常、地面と固定結合されている。 Within the perimeter of the vehicle 1, there are various objects 40, 42 located within the field of view 13 of the sensor 12, and thus detectable by the sensor 12. The objects 40 and 42 can be classified into a stationary object 40 and a movable object 42. The stationary object 40 is immovable and therefore its position does not change. The stationary object 40 is usually fixedly coupled to the ground.

一方、可動物体42は、基本的に、これらが途中で静止することがあっても、それらの位置を変化することが可能である。可動物体42に対する一例は、他の駐車位置29上に存在する駐車中の車両28である。 On the other hand, the movable object 42 can basically change its position even if they are stationary in the middle. An example of a movable object 42 is a parked vehicle 28 present on another parking position 29.

定置物体40に対する例は、縁石端縁30、交通標識32、並びにセンサ12の視野内に存在する家36である。
車両1が駐車可能位置24,26のいずれか上に長時間駐車されている場合、センサ12が、例えば温度変動による原因で校正不良にされる可能性が存在する。したがって、車両が再スタートするときに実行されるセンサ12の校正のために、センサ12の視野13内に、その位置が車両1のシステム10にわかっている、できるだけ多数の定置構造が存在しているとき、校正することが好ましい。すなわち、これは、再スタート後にセンサ12により決定された、既知のこれらの定置構造の位置において認識された偏差に基づいて、センサ12の校正を可能にする。
Examples for the stationary object 40 are the curb edge 30, the traffic sign 32, and the house 36 present in the field of view of the sensor 12.
When the vehicle 1 is parked on any of the parkable positions 24 and 26 for a long time, there is a possibility that the sensor 12 may be calibrated poorly due to, for example, temperature fluctuation. Therefore, for calibration of the sensor 12 performed when the vehicle restarts, there are as many stationary structures as possible in the field of view 13 of the sensor 12 whose position is known to the system 10 of the vehicle 1. When present, it is preferable to calibrate. That is, it allows the sensor 12 to be calibrated based on the deviations recognized at the positions of these known stationary structures determined by the sensor 12 after the restart.

駐車前にできるだけ多数のこのような定置構造の存在を保証するために、本発明により、センサ12を使用して、車両1の周辺に関する第1データが検出されるように設計されている。センサ12により検出された第1データは、センサ12の視野13内に位置する物体40,42に関する情報を含む。それに続いて、定置物体40を示すかまたは定置物体40の一部を示す定置構造を決定するように設計されている。このために、はじめに、センサ12を介して検出された物体40,42を定置物体40および可動物体42に分類することが実行される。図2のこの例においては、定置物体40として、縁石端縁30、交通標識32並びに家36が認識される。それに続いて、この例において、家36の端縁38、交通標識32の支柱34並びに縁石端縁30を含む定置構造が決定される。これらの全ての定置構造は、校正のために適切であり、したがって選択される。 To ensure the presence of as many such stationary structures as possible prior to parking, the present invention is designed to use the sensor 12 to detect first data about the perimeter of vehicle 1. The first data detected by the sensor 12 includes information about the objects 40, 42 located in the field of view 13 of the sensor 12. Subsequent to it, it is designed to determine a stationary structure that indicates a stationary object 40 or a portion of the stationary object 40. For this purpose, first, it is executed to classify the objects 40 and 42 detected via the sensor 12 into the stationary object 40 and the movable object 42. In this example of FIG. 2, the curb edge 30, the traffic sign 32, and the house 36 are recognized as the stationary object 40. Subsequently, in this example, a stationary structure is determined that includes the edge 38 of the house 36, the stanchions 34 of the traffic sign 32, and the curb edge 30. All these stationary structures are suitable for calibration and are therefore selected.

さらに、検出された第1データにより、車両1の周辺内の駐車可能位置24,26を識別するように設計されていることが有利である。
それに続いて、駐車可能位置24,26から、一方で、センサ12に対して、そこからできるだけ多くの定置構造が見える、すなわちセンサ12の視野13内に位置する、駐車位置が選択される。さらに、この選択において、対応定置構造へのセンサ12の視界が遮蔽される可能性があるかどうかが考慮されることが好ましい。
Further, it is advantageous that the detected first data is designed to identify the parkable positions 24, 26 in the periphery of the vehicle 1.
Subsequently, from the parkable positions 24 and 26, on the other hand, a parking position is selected from which as many stationary structures as possible are visible to the sensor 12, i.e. located within the field of view 13 of the sensor 12. Further, in this selection, it is preferable to consider whether the view of the sensor 12 to the corresponding stationary structure may be obstructed.

図2の例において、第1駐車可能位置24が選択された場合、はじめに、第1駐車可能位置24から、センサ12に対して、縁石端縁30、交通標識32のみならず家36もまた見えるであろう。しかしながら、車両1が第1駐車可能位置24上に駐車した後に、他の車両が第2駐車可能位置26上に駐車された場合、交通標識32並びに家36へのセンサ12の視界が遮蔽されることがあるであろう。したがって、選択において、第2駐車可能位置26がより高く評価されかつそれに対応して選択される駐車位置27として決定される。車両1はこのとき自動運転により選択された駐車位置27に向けて舵をとり、かつ特に定置構造の位置を含む情報がシステム10のメモリ16内に記憶される。選択された駐車位置27に到達した後、車両1は停止される。 In the example of FIG. 2, when the first parkable position 24 is selected, first, not only the curb edge 30 and the traffic sign 32 but also the house 36 can be seen from the first parkable position 24 with respect to the sensor 12. Will. However, if another vehicle is parked on the second parkable position 26 after the vehicle 1 is parked on the first parkable position 24, the visibility of the sensor 12 to the traffic sign 32 and the house 36 is obstructed. There will be times. Therefore, in the selection, the second parkable position 26 is more highly valued and is determined as the correspondingly selected parking position 27. At this time, the vehicle 1 steers toward the parking position 27 selected by automatic driving, and information including the position of the stationary structure is stored in the memory 16 of the system 10. After reaching the selected parking position 27, the vehicle 1 is stopped.

車両1の再スタート後に、センサ12は車両1の周辺に関する第2データを検出し、かつ予め選択された定置構造の位置が第2データ内で決定される。それに続いて、メモリ16内に記憶された定置構造の位置と、第2データから決定された定置構造の実際位置の間の比較が行われる。定置構造は不動であるので、これは車両1に対するその相対位置を変化させることはない。したがって、位置内に偏差があった場合、それは、センサ12の校正不良に起因されなければならない。したがって、それに続いて、認識された偏差により、センサ12の校正を行うように設計されている。それに続いて、車両1はその走行を開始可能である。 After the vehicle 1 is restarted, the sensor 12 detects the second data about the periphery of the vehicle 1 and the position of the preselected stationary structure is determined in the second data. Subsequently, a comparison is made between the position of the stationary structure stored in the memory 16 and the actual position of the stationary structure determined from the second data. Since the stationary structure is immovable, it does not change its relative position with respect to vehicle 1. Therefore, if there is a deviation in position, it must be due to a poor calibration of the sensor 12. Therefore, it is subsequently designed to calibrate the sensor 12 with the perceived deviation. Following that, the vehicle 1 can start its travel.

本発明は、ここに記載の実施例およびその中で取り上げられた態様に制限されない。むしろ、請求項により提供された範囲内において、当業者の活動の範囲内に入る多数の変更が可能である。 The present invention is not limited to the examples described herein and the embodiments discussed therein. Rather, within the scope of the claims, a number of changes within the scope of the activities of those skilled in the art are possible.

1 車両
10 システム
12 センサ
13 視野
14 制御ユニット
16 メモリ
18 ハンドル
20 ペダル
22 道路
24 第1駐車可能位置
26 第2駐車可能位置
27 選択された駐車位置
28 駐車車両
29 他の駐車位置
30 縁石端縁
32 交通標識
34 支柱
36 家
38 端縁
40 定置物体
42 可動物体
1 Vehicle 10 System 12 Sensor 13 View 14 Control Unit 16 Memory 18 Handle 20 Pedal 22 Road 24 1st Parking Position 26 2nd Parking Position 27 Selected Parking Position 28 Parked Vehicle 29 Other Parking Position 30 Curb Edge Edge 32 Traffic signs 34 Pillars 36 Houses 38 Curbs 40 Stationary objects 42 Movable objects

Claims (11)

a)センサ(12)を使用して車両(1)の周辺に関する第1データを検出するステップと、
b)検出された第1データを使用して定置構造および駐車可能位置(24,26)を決定するステップであって、定置構造の位置が決定されるステップと、
c)センサ(12)の後の校正のために定置構造を選択するステップと、
d)駐車可能位置(24,26)から選択するステップであって、選択された駐車位置(27)は、選択された駐車位置(27)に車両(1)が駐車した後に、センサ(12)の校正のために選択された定置構造がセンサ(12)の視野(13)内に存在するように選択されるステップと、
e)車両(1)は選択された駐車位置(27)に駐車し、かつセンサ(12)の校正のために選択された定置構造の位置を記憶するステップと、
f)車両(1)をスタートさせるステップと、
g)センサ(12)を使用して車両(1)の周辺に関する第2データを検出するステップと、
h)検出された第2データを使用して、選択された定置構造の実際位置を決定するステップと、
i)選択された定置構造の実際位置を、選択された定置構造の記憶されている位置と比較するステップであって、選択された定置構造の実際位置と、選択された定置構造の記憶されている位置の間の偏差が決定されるステップと、
j)決定された偏差を使用してセンサ(12)を校正するステップと、
を含む、車両(1)のセンサ(12)の校正の実行方法。
a) A step of detecting the first data about the periphery of the vehicle (1) using the sensor (12), and
b) A step of determining the stationary structure and the parkable position (24, 26) using the detected first data, and a step of determining the position of the stationary structure.
c) Steps to select a stationary structure for calibration after sensor (12),
d) In the step of selecting from the parkable positions (24, 26), the selected parking position (27) is the sensor (12) after the vehicle (1) is parked at the selected parking position (27). The step in which the stationary structure selected for calibration of is selected to be within the field of view (13) of the sensor (12), and
e) A step of parking the vehicle (1) in the selected parking position (27) and storing the position of the stationary structure selected for calibration of the sensor (12).
f) Steps to start the vehicle (1) and
g) A step of detecting the second data about the periphery of the vehicle (1) using the sensor (12), and
h) Using the detected second data, the step of determining the actual position of the selected stationary structure, and
i) The step of comparing the actual position of the selected stationary structure with the stored position of the selected stationary structure, where the actual position of the selected stationary structure and the selected stationary structure are stored. The steps that determine the deviation between the positions and
j) The step of calibrating the sensor (12) using the determined deviation,
A method of performing calibration of the sensor (12) of the vehicle (1), including.
ステップb)による定置構造の決定において、物体(40,42)が第1データ内において認識されかつ定置物体(40)および可動物体(42)に分類され、この場合、定置構造は定置物体(40)または定置物体(40)の一部であることを特徴とする請求項1に記載の方法。 In the determination of the stationary structure by step b), the object (40, 42) is recognized in the first data and classified into the stationary object (40) and the movable object (42), in which case the stationary object is the stationary object (40). ) Or the method according to claim 1, wherein it is a part of a stationary object (40). 第1データ内において認識された家(36)、交通標識(32)、縁石端縁(30)、塀、支柱、樹木、屋根支柱、排水樋、排水格子、地面、壁、屋根、照明カバー、照明、窓、ドアおよびその他の建物開口は定置物体(40)として分類される請求項2に記載の方法。 House (36), traffic sign (32), rim stone edge (30), fence, stanchion, tree, roof stanchion, drainage gutter, drainage grid, ground, wall, roof, lighting cover, recognized in the first data. The method of claim 2, wherein the lights, windows, doors and other building openings are classified as stationary objects (40). 第1データ内において認識された車両(28)、乳母車、人、動物、植物、群葉、ごみ容器は可動物体(42)として分類される請求項2または3に記載の方法。 The method according to claim 2 or 3, wherein the vehicle (28), the baby carriage, the person, the animal, the plant, the group of leaves, and the garbage container recognized in the first data are classified as a movable object (42). ステップc)による定置構造の選択において、それぞれの定置構造の決定された位置の精度、変動する周辺条件下における定置構造の認識可能性、ある定置構造の他の定置構造に対する相対位置およびこれらの基準の少なくとも2つの組合せから選択された選択基準が考慮されることを特徴とする請求項1~4のいずれか一項に記載の方法。 In the selection of stationary structures according to step c), the accuracy of the determined position of each stationary structure, the recognizability of the stationary structure under fluctuating peripheral conditions, the relative position of one stationary structure with respect to other stationary structures, and their criteria. The method according to any one of claims 1 to 4, wherein a selection criterion selected from at least two combinations of the above is taken into consideration. ステップd)による選択された駐車位置(27)の選択において、駐車可能位置(24,26)が評価され、この場合、駐車可能位置(24,26)は最善評価により選択されることを特徴とする請求項1~5のいずれか一項に記載の方法。 In the selection of the selected parking position (27) in step d), the parkable position (24,26) is evaluated, and in this case, the parkable position (24,26) is selected by the best evaluation. The method according to any one of claims 1 to 5. 駐車可能位置(24,26)は、選択された定置構造が、それぞれ駐車可能位置(24,26)から見て、センサ(12)の視野(13)内により多く位置すればするほどそれだけより良好に評価されることを特徴とする請求項6に記載の方法。 The parkable position (24,26) is better the more the selected stationary structure is located within the field of view (13) of the sensor (12), as viewed from the parkable position (24,26), respectively. 6. The method of claim 6, characterized in that it is evaluated in. 駐車可能位置(24,26)の評価において、駐車可能位置(24,26)から見て、可動物体(42)により遮蔽される可能性がある、選択された定置構造は、駐車可能位置(24,26)から見て、可動物体(42)により遮蔽される可能性がない、選択された定置構造より低く評価されることを特徴とする請求項6または7に記載の方法。 In the evaluation of the parkable position (24,26), the selected stationary structure that may be shielded by the movable object (42) as seen from the parkable position (24,26) is the parkable position (24,26). 26), the method of claim 6 or 7, characterized in that it is rated lower than the selected stationary structure, which is unlikely to be shielded by the movable object (42). ステップe)により駐車するために、車両(1)は選択された駐車位置(27)に自動的に到着することを特徴とする請求項1~8のいずれか一項に記載の方法。 The method according to any one of claims 1 to 8, wherein the vehicle (1) automatically arrives at the selected parking position (27) in order to park in step e). 請求項1~9のいずれか一項に記載の方法の実行システム(10)が形成されかつ設置されることを特徴とする、少なくとも1つのセンサ(12)、制御ユニット(14)およびメモリ(16)を含む、センサ校正の実行システム(10)。 At least one sensor (12), control unit (14) and memory (16), characterized in that the execution system (10) of the method according to any one of claims 1-9 is formed and installed. ), A sensor calibration execution system (10). 少なくとも1つのセンサ(12)は、ステレオカメラ、ビデオカメラ、レーダセンサ、ライダセンサ、超音波センサまたはこれらのセンサの少なくとも2つの組合せであることを特徴とする請求項10に記載のシステム(10)。 The system (10) according to claim 10, wherein the at least one sensor (12) is a stereo camera, a video camera, a radar sensor, a rider sensor, an ultrasonic sensor, or a combination of at least two of these sensors.
JP2018114199A 2017-06-16 2018-06-15 How to perform sensor calibration and system Active JP7048426B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102017210112.1A DE102017210112A1 (en) 2017-06-16 2017-06-16 Method and system for performing a calibration of a sensor
DE102017210112.1 2017-06-16

Publications (2)

Publication Number Publication Date
JP2019002929A JP2019002929A (en) 2019-01-10
JP7048426B2 true JP7048426B2 (en) 2022-04-05

Family

ID=64457555

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018114199A Active JP7048426B2 (en) 2017-06-16 2018-06-15 How to perform sensor calibration and system

Country Status (4)

Country Link
US (1) US10698084B2 (en)
JP (1) JP7048426B2 (en)
CN (1) CN109131353A (en)
DE (1) DE102017210112A1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3851868A4 (en) * 2018-09-10 2022-05-18 Hitachi Astemo, Ltd. Device for detecting axial deviation of radar, vehicle-mounted system comprising same, and method for detecting axial deviation of radar
CN111192378B (en) * 2018-11-15 2022-01-28 中兴通讯股份有限公司 Vehicle movement identification method and device and vehicle alarm system
CN113124897B (en) * 2019-12-31 2024-04-09 中信科智联科技有限公司 Sensor performance detection method, device and terminal
US11454701B2 (en) * 2020-01-13 2022-09-27 Pony Ai Inc. Real-time and dynamic calibration of active sensors with angle-resolved doppler information for vehicles
US11686836B2 (en) * 2020-01-13 2023-06-27 Pony Ai Inc. Real-time and dynamic localization using active doppler sensing systems for vehicles
US11827244B2 (en) * 2020-12-04 2023-11-28 Ford Global Technologies, Llc Enhanced vehicle operation
CN112887172B (en) * 2021-02-19 2023-03-24 北京百度网讯科技有限公司 Vehicle perception system test method, device, equipment and storage medium
CN115248428B (en) * 2021-04-28 2023-12-22 北京航迹科技有限公司 Laser radar calibration and scanning method and device, electronic equipment and storage medium

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002162470A (en) 2000-11-28 2002-06-07 Nhk Spring Co Ltd Object detection device and method for setting reference axis thereof
JP2006047140A (en) 2004-08-05 2006-02-16 Fujitsu Ten Ltd Method and detector for detecting axial shift in radar system
JP2007129420A (en) 2005-11-02 2007-05-24 Tokyo Denki Univ Radar reflector
JP2007333385A (en) 2006-06-11 2007-12-27 Toyota Central Res & Dev Lab Inc Immobile object position recording device
JP2009031053A (en) 2007-07-25 2009-02-12 Fujitsu Ten Ltd Device for detecting forward obstacle
US20100076708A1 (en) 2008-09-19 2010-03-25 Caterpillar Inc. Machine sensor calibration system
JP2010217193A (en) 2005-05-09 2010-09-30 Nippon Soken Inc Obstacle detection device
JP2013015411A (en) 2011-07-04 2013-01-24 Honda Motor Co Ltd Absolute velocity estimation apparatus
JP2013068571A (en) 2011-09-26 2013-04-18 Mitsubishi Electric Corp Radar device and performance deterioration discriminating method of radar device
JP2014211376A (en) 2013-04-19 2014-11-13 富士通テン株式会社 Radar device and signal processing method
JP2014241115A (en) 2013-06-12 2014-12-25 トヨタ自動車株式会社 Peripheral object detection device
JP2017052471A (en) 2015-09-11 2017-03-16 クラリオン株式会社 Vehicle parking block recognizing device
JP2018532125A (en) 2015-07-20 2018-11-01 ブレイン コーポレイション Apparatus and method for object detection using broadband signals

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3114849B2 (en) * 1995-12-25 2000-12-04 本田技研工業株式会社 Detection range adjustment mechanism of vehicle obstacle detection device
US7124027B1 (en) * 2002-07-11 2006-10-17 Yazaki North America, Inc. Vehicular collision avoidance system
US7337650B1 (en) * 2004-11-09 2008-03-04 Medius Inc. System and method for aligning sensors on a vehicle
DE102010042821B4 (en) 2010-10-22 2014-11-20 Robert Bosch Gmbh Method and apparatus for determining a basic width of a stereo detection system
EP2541197B1 (en) * 2011-06-30 2014-08-27 Furuno Electric Company Limited Tightly coupled gps and dead-reckoning vehicle navigation
WO2013016518A1 (en) * 2011-07-27 2013-01-31 Mine Safety Appliances Company Navigational deployment and initialization systems and methods
DE102011083965A1 (en) * 2011-10-04 2013-04-04 Robert Bosch Gmbh Device and method for geometrically calibrating sensor data formed by means of a sensor system of a vehicle
CN102529961B (en) * 2012-03-26 2015-06-10 江苏大学 Initial carport-searching offset correction method of automatic parking system
DE102012023706A1 (en) * 2012-12-05 2014-06-05 Daimler Ag Vehicle-side method and vehicle-side device for detecting and displaying parking spaces for a vehicle
DE102013206707A1 (en) 2013-04-15 2014-10-16 Robert Bosch Gmbh Method for checking an environment detection system of a vehicle
EP2897014B1 (en) * 2014-01-16 2023-11-29 Volvo Car Corporation A vehicle adapted for autonomous driving and a method for detecting obstructing objects
DE102014002150B3 (en) * 2014-02-15 2015-07-23 Audi Ag Method for determining the absolute position of a mobile unit and mobile unit
JP6206258B2 (en) * 2014-03-06 2017-10-04 富士通株式会社 Trajectory estimation device, trajectory estimation method, and program
US10024955B2 (en) * 2014-03-28 2018-07-17 GM Global Technology Operations LLC System and method for determining of and compensating for misalignment of a sensor
KR102286673B1 (en) * 2014-04-09 2021-08-05 콘티넨탈 테베스 아게 운트 코. 오하게 Position correction of a vehicle by referencing to objects in the surroundings
CN105620473B (en) * 2014-10-27 2019-05-21 同致电子科技(厦门)有限公司 One kind is parked track correcting method
DE102015205087A1 (en) * 2015-03-20 2016-09-22 Bayerische Motoren Werke Aktiengesellschaft Method for determining the misalignment of a driver assistance sensor
US10096248B2 (en) * 2015-06-11 2018-10-09 Nissan North America, Inc. Parking lot mapping system
DE102015009869A1 (en) 2015-07-30 2016-03-24 Daimler Ag Method for self-localization of a vehicle
DE102015220360A1 (en) * 2015-10-20 2017-04-20 Robert Bosch Gmbh Method for selecting an optimized trajectory
US10109198B2 (en) * 2017-03-08 2018-10-23 GM Global Technology Operations LLC Method and apparatus of networked scene rendering and augmentation in vehicular environments in autonomous driving systems
US10067897B1 (en) * 2017-05-02 2018-09-04 Bendix Commercial Vehicle Systems Llc System and method for determining the positions of side collision avoidance sensors on a vehicle
US10830871B2 (en) * 2018-03-21 2020-11-10 Zoox, Inc. Sensor calibration
US11340355B2 (en) * 2018-09-07 2022-05-24 Nvidia Corporation Validation of global navigation satellite system location data with other sensor data

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002162470A (en) 2000-11-28 2002-06-07 Nhk Spring Co Ltd Object detection device and method for setting reference axis thereof
JP2006047140A (en) 2004-08-05 2006-02-16 Fujitsu Ten Ltd Method and detector for detecting axial shift in radar system
JP2010217193A (en) 2005-05-09 2010-09-30 Nippon Soken Inc Obstacle detection device
JP2007129420A (en) 2005-11-02 2007-05-24 Tokyo Denki Univ Radar reflector
JP2007333385A (en) 2006-06-11 2007-12-27 Toyota Central Res & Dev Lab Inc Immobile object position recording device
JP2009031053A (en) 2007-07-25 2009-02-12 Fujitsu Ten Ltd Device for detecting forward obstacle
US20100076708A1 (en) 2008-09-19 2010-03-25 Caterpillar Inc. Machine sensor calibration system
JP2013015411A (en) 2011-07-04 2013-01-24 Honda Motor Co Ltd Absolute velocity estimation apparatus
JP2013068571A (en) 2011-09-26 2013-04-18 Mitsubishi Electric Corp Radar device and performance deterioration discriminating method of radar device
JP2014211376A (en) 2013-04-19 2014-11-13 富士通テン株式会社 Radar device and signal processing method
JP2014241115A (en) 2013-06-12 2014-12-25 トヨタ自動車株式会社 Peripheral object detection device
JP2018532125A (en) 2015-07-20 2018-11-01 ブレイン コーポレイション Apparatus and method for object detection using broadband signals
JP2017052471A (en) 2015-09-11 2017-03-16 クラリオン株式会社 Vehicle parking block recognizing device

Also Published As

Publication number Publication date
DE102017210112A1 (en) 2018-12-20
US10698084B2 (en) 2020-06-30
JP2019002929A (en) 2019-01-10
US20180364328A1 (en) 2018-12-20
CN109131353A (en) 2019-01-04

Similar Documents

Publication Publication Date Title
JP7048426B2 (en) How to perform sensor calibration and system
US10209712B2 (en) Predicting and responding to cut in vehicles and altruistic responses
CN106043293B (en) Method and device for safely parking a vehicle
US9915951B2 (en) Detection of overhanging objects
RU2017125454A (en) IDENTIFICATION OF BRANCHES IN THE BACK CAMERA
US9045160B2 (en) Method and device for assisting the driver of a motor vehicle
RU2017142730A (en) METHOD OF CAR NAVIGATION (PARTS) AND RELATED AUTONOMOUS VEHICLE
CN106203272B (en) The method and apparatus for determining the movement of movable objects
US20170069093A1 (en) Method for detecting objects on a parking area
CN110126820A (en) Automated parking system, method of parking and vehicle
US20090060276A1 (en) Method for detecting and/or tracking objects in motion in a scene under surveillance that has interfering factors; apparatus; and computer program
JP2017538915A (en) Positioning / mapping method and positioning / mapping system
US20220066006A1 (en) Real-time sensor calibration and calibration verification based on detected objects
CN107479032A (en) Object detection systems for automated vehicle
RU2769921C2 (en) Methods and systems for automated detection of the presence of objects
CN106114622A (en) The steering wheel of letting go controlled by pedestrian detecting system
US11726176B2 (en) Annotation of radar-profiles of objects
EP4020405A1 (en) Road lane condition detection with lane assist for a vehicle using infrared detecting device
US20160280135A1 (en) Animal Detection System for a Vehicle
JP6355161B2 (en) Vehicle imaging device
CN109285381A (en) For detecting the method and system of the free area in parking lot
KR101644109B1 (en) Automatic scoring system for course test of driving license test using around-view monitering video, and method for the same
US10895459B2 (en) Vehicle navigation system and method
JP6419011B2 (en) Feature image recognition system, feature image recognition method, and computer program
FR3039488A1 (en) METHOD AND DEVICE FOR DRIVING ASSISTANCE

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220324

R150 Certificate of patent or registration of utility model

Ref document number: 7048426

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150