JP7048426B2 - How to perform sensor calibration and system - Google Patents
How to perform sensor calibration and system Download PDFInfo
- Publication number
- JP7048426B2 JP7048426B2 JP2018114199A JP2018114199A JP7048426B2 JP 7048426 B2 JP7048426 B2 JP 7048426B2 JP 2018114199 A JP2018114199 A JP 2018114199A JP 2018114199 A JP2018114199 A JP 2018114199A JP 7048426 B2 JP7048426 B2 JP 7048426B2
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- stationary structure
- stationary
- vehicle
- parkable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 36
- 230000002093 peripheral effect Effects 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 claims description 5
- 241001465754 Metazoa Species 0.000 claims description 2
- 239000004575 stone Substances 0.000 claims 1
- 238000001514 detection method Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- GNFTZDOKVXKIBK-UHFFFAOYSA-N 3-(2-methoxyethoxy)benzohydrazide Chemical compound COCCOC1=CC=CC(C(=O)NN)=C1 GNFTZDOKVXKIBK-UHFFFAOYSA-N 0.000 description 1
- FGUUSXIOTUKUDN-IBGZPJMESA-N C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 Chemical compound C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 FGUUSXIOTUKUDN-IBGZPJMESA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011089 mechanical engineering Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/04—Monitoring the functioning of the control system
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/06—Automatic manoeuvring for parking
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/93—Sonar systems specially adapted for specific applications for anti-collision purposes
- G01S15/931—Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
- G01S7/4004—Means for monitoring or calibrating of parts of a radar system
- G01S7/4026—Antenna boresight
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/415—Identification of targets based on measurements of movement associated with the target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/52004—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/539—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B60W2420/408—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/54—Audio sensitive means, e.g. ultrasound
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9314—Parking operations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/93—Sonar systems specially adapted for specific applications for anti-collision purposes
- G01S15/931—Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2015/932—Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles for parking operations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
- G01S7/4052—Means for monitoring or calibrating by simulation of echoes
- G01S7/4082—Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder
- G01S7/4091—Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder during normal radar operation
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Automation & Control Theory (AREA)
- Acoustics & Sound (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Manufacturing & Machinery (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Description
本発明は、車両センサの校正の実行方法に関する。本発明の他の態様は、少なくとも1つのセンサ、制御ユニットおよびメモリを含む、センサ校正の実行システムに関し、この場合、方法の実行のためにシステムが適合されている。 The present invention relates to a method of performing calibration of a vehicle sensor. Another aspect of the invention relates to a sensor calibration performing system comprising at least one sensor, control unit and memory, in which case the system is adapted for performing the method.
現代の車両は複数のセンサを有し、それを介して、車両の周囲に関する情報が取得可能である。取得されたデータを信頼した車両システムの確実な操作を保証するために、車両センサが正確に校正されていることが保証されていなければならない。 Modern vehicles have multiple sensors through which information about the surroundings of the vehicle can be obtained. It must be ensured that the vehicle sensors are accurately calibrated to ensure reliable operation of the vehicle system that relies on the acquired data.
欧州特許出願公開第2793045号明細書には、車両の周辺検出システムの検査方法が記載されている。物体が第1周辺センサタイプにより検出されかつ静的および動的物体に分類される。さらに、検出された静的物体の車両に対する相対位置が決定される。この位置は、それに続いて、第2周囲センサタイプを使用して検出された相対位置と比較される。方法において、車両の固有運動もまた考慮されるので、第1周辺センサタイプのセンサが第2周辺センサタイプのセンサと同時に物体を検出する必要はない。 European Patent Application Publication No. 2793045 describes a method for inspecting a vehicle's peripheral detection system. Objects are detected by the first peripheral sensor type and are classified as static and dynamic objects. In addition, the relative position of the detected static object with respect to the vehicle is determined. This position is subsequently compared to the relative position detected using the second perimeter sensor type. Since the proper motion of the vehicle is also taken into account in the method, it is not necessary for the first peripheral sensor type sensor to detect the object at the same time as the second peripheral sensor type sensor.
独国特許出願公開第102015009869号明細書には、車両の自己位置推定方法が記載されている。方法において、連続画像が検出され、車両の実際位置が、記録されかつ画像に割り当てられた位置により決定される。さらに、画像内において、例えば車線マーキングまたは排水溝マンホールのカバーのような、自己位置推定のために適切な画像特徴が抽出される。画像は、例えば、ステレオカメラにより検出されてもよい。 German Patent Application Publication No. 102015009869 describes a method for estimating the self-position of a vehicle. In the method, a continuous image is detected and the actual position of the vehicle is determined by the position recorded and assigned to the image. In addition, suitable image features for self-position estimation are extracted in the image, such as lane markings or drain manhole covers. The image may be detected, for example, by a stereo camera.
国際公開第2012/052308号には、ステレオ検出システムのベース幅がそれにより決定可能な方法が記載されている。この場合、車両周辺内の物体を検出しかつステレオ検出システムを介して物体の寸法および車両までの距離を決定するように設計されている。決定された寸法は、基準距離において決定された物体の基準寸法と比較される。比較に対して、特に、既知の高さを有する交通標識およびナンバープレートのような規格寸法を有する物体が適している。 International Publication No. 2012/05/2308 describes a method by which the base width of a stereo detection system can be determined thereby. In this case, it is designed to detect objects in the vicinity of the vehicle and determine the dimensions of the object and the distance to the vehicle via a stereo detection system. The determined dimension is compared with the reference dimension of the object determined at the reference distance. For comparison, objects with standard dimensions such as traffic signs and license plates with known heights are particularly suitable.
従来技術において既知の方法の欠点は、センサの校正に対して、それとは無関係の他のセンサシステムが必要であること、またはシステムが標準の既知の標識の存在に依存することである。 Disadvantages of known methods in the prior art are that the calibration of the sensor requires another sensor system unrelated to it, or that the system relies on the presence of standard known markings.
車両センサの校正の実行方法が提案される。方法の第1ステップa)において、センサを使用して車両の周辺に関する第1データを検出するように設計されている。それに続いて、第2ステップb)において、検出された第1データを使用して定置構造および駐車可能位置が決定され、この場合、定置構造の位置もまた決定される。次のステップc)において、センサの後の校正のために定置構造が選択される。さらに、ステップd)において、駐車可能位置から選択され、この場合、選択された駐車位置は、選択された駐車位置に車両が駐車した後に、センサの校正のために選択された定置構造がセンサの視野内に存在するように選択される。それに続くステップe)において、車両は選択された駐車位置に駐車され、かつセンサの校正のために選択された定置構造の位置が記憶される。駐車位置に、駐車される車両が停止される。継続走行が意図されているとき、方法のステップf)により、車両がスタートされる。それに続くステップg)において、センサを使用して車両の周辺に関する第2データが検出され、方法の次のステップh)において、検出された第2データを使用して、選択された定置構造の実際位置が決定される。ステップi)がそれに続き、ステップi)において、実際位置が記憶されている位置と比較され、かつ実際位置と記憶されている位置の間の偏差が決定される。最後に、決定された偏差を使用してセンサが校正される。 A method of performing calibration of the vehicle sensor is proposed. In step 1 a) of the method, sensors are designed to detect first data about the perimeter of the vehicle. Subsequently, in the second step b), the detected first data is used to determine the stationary structure and the parkable position, in which case the position of the stationary structure is also determined. In the next step c), a stationary structure is selected for calibration after the sensor. Further, in step d), the parkable position is selected, in which case the selected parking position is the stationary structure selected for sensor calibration after the vehicle has parked in the selected parking position. Selected to be in the field of view. In a subsequent step e), the vehicle is parked in the selected parking position and the position of the stationary structure selected for sensor calibration is stored. The parked vehicle is stopped at the parking position. When continuous running is intended, the vehicle is started by step f) of the method. In the subsequent step g), the sensor is used to detect the second data about the perimeter of the vehicle, and in the next step h) of the method, the detected second data is used to actually select the stationary structure. The position is determined. Step i) is followed by, in step i), the actual position is compared to the stored position and the deviation between the actual position and the stored position is determined. Finally, the sensor is calibrated using the determined deviation.
このセンサの校正のために他のセンサのデータは必要ではないので、方法は、ただ1つのセンサに適用可能である。しかしながら、方法は、同様に、複数のセンサを使用するためにも適用可能であり、この場合、センサは、同じタイプであってもまたは異なるタイプであってもよい。複数のセンサに適用するとき、特に、ステップa)ないしc)並びにg)ないしj)は、各センサに対して別々にかつ他のセンサとは独立に実行されるように設計され、この場合、ステップb)による駐車可能位置の決定に対しては、それとは異なり、関係する全てのセンサのデータの一覧が参照されてもよい。さらに、この場合、ステップd)による駐車可能位置の選択において、選択された駐車位置において全てのセンサのそれぞれの視野内に選択された定置構造が存在するように、全てのセンサが共通に考慮されることが好ましい。 The method is applicable to only one sensor, as no data from other sensors is required to calibrate this sensor. However, the method is also applicable to use multiple sensors, in which case the sensors may be of the same type or of different types. When applied to multiple sensors, in particular steps a) to c) and g) to j) are designed to be performed separately for each sensor and independently of the other sensors, in this case. For the determination of the parkable position in step b), unlike that, a list of data of all related sensors may be referred to. Further, in this case, in the selection of the parkable position in step d), all the sensors are commonly considered so that the selected stationary structure exists in the respective field of view of all the sensors at the selected parking position. Is preferable.
方法により校正されるセンサは、例えば、ステレオカメラ、ビデオカメラ、レーダセンサ、ライダセンサまたは超音波センサであってもよい。さらに、方法により、複数のこのようなセンサ並びに複数の前記センサの組合せが校正可能である。 Sensors calibrated by the method may be, for example, stereo cameras, video cameras, radar sensors, rider sensors or ultrasonic sensors. Further, by the method, a plurality of such sensors and a combination of the plurality of the sensors can be calibrated.
ステップb)による定置構造の決定において、物体が第1データ内において認識され、物体は定置物体および可動物体に分類されることが好ましい。この場合、定置構造は定置物体または定置物体の一部である。 In the determination of the stationary structure according to step b), it is preferable that the object is recognized in the first data and the object is classified into a stationary object and a movable object. In this case, the stationary structure is a stationary object or part of a stationary object.
第1データ内の物体の認識のために、使用されるセンサタイプに同調された、基本的に当業者に既知のアルゴリズムが使用されてもよい。例えば、ステレオカメラまたはビデオカメラにおいて、画像処理アルゴリズムが使用されてもよい。ライダセンサの使用においては、物体をその特徴的形状により識別するアルゴリズムが使用されてもよく、レーダセンサまたは超音波センサの場合には、物体の既知のサイズおよび物体の距離を使用して分類が行われてもよい。輪郭情報に基づいて物体の分類を実行する、それぞれのセンサタイプに同調された方法が使用されることは好ましい。輪郭は、センサタイプに応じてそれぞれ直接決定されても、または評価方法を介してセンサデータから決定されてもよい。その代わりにまたはそれに追加して、センサ原始データ内で物体を認識しかつ分類するために、機械工学の技術が使用されてもよい。物体の認識のために、それが定置物体であるかまたは可動物体であるかがそれぞれ記録されている、既知の物体を含む蔵書が設けられていてもよい。 Algorithms generally known to those of skill in the art, tuned to the sensor type used, may be used for the recognition of objects in the first data. For example, in a stereo camera or a video camera, an image processing algorithm may be used. In the use of rider sensors, algorithms that identify objects by their characteristic shape may be used, and in the case of radar or ultrasonic sensors, classification is performed using the known size of the object and the distance of the object. You may be broken. It is preferred that a method tuned to each sensor type be used to perform object classification based on contour information. The contour may be determined directly depending on the sensor type, or may be determined from the sensor data via an evaluation method. Instead or in addition, mechanical engineering techniques may be used to recognize and classify objects within the sensor primitive data. For the recognition of an object, a collection containing known objects may be provided, each recording whether it is a stationary object or a movable object.
定置として分類される物体または物体の一部に対する例は、家、交通標識、縁石端縁、塀、支柱、樹木、屋根支柱、排水樋、排水格子、地面、壁、屋根、照明カバー、照明、窓、ドアおよびその他の建物開口である。可動物体として分類される物体に対する例は、車両、乳母車、人、動物、植物、群葉、ごみ容器である。 Examples for objects or parts of objects classified as stationary are houses, traffic signs, curb edges, walls, stanchions, trees, roof stanchions, drainage gutters, drainage grids, ground, walls, roofs, lighting covers, lighting, Windows, doors and other building openings. Examples for objects classified as moving objects are vehicles, baby carriages, people, animals, plants, foliage, and garbage containers.
定置構造は、認識された物体と同一であっても、または物体の一部であってもよい。特に、センサにより全体として検出可能な比較的小さい物体においては、物体全体が定置構造として選択可能である。これは、特に、交通標識のような物体の場合である。例えば家の場合のような、全体がセンサにより一度に検出可能ではない比較的大きい物体においては、端縁または窓のような特徴的部分が定置構造として選択されることが好ましい。物体の特徴的部分に対する他の例は、地面、壁および屋根の構造的相違および窓、ドアおよびその他の建物開口の輪郭情報である。 The stationary structure may be the same as the recognized object or may be part of the object. In particular, for a relatively small object that can be detected as a whole by a sensor, the entire object can be selected as a stationary structure. This is especially the case for objects such as traffic signs. For relatively large objects, such as the case of a house, which are not entirely detectable by the sensor at once, it is preferred that characteristic portions such as edges or windows be selected as the stationary structure. Other examples for characteristic parts of objects are structural differences in ground, walls and roofs and contour information for windows, doors and other building openings.
校正されるセンサは、その内部にこの物体を認識可能な視野を有する。視野は、例えば、水平または垂直の開口角を介して表わされてもよく、この場合、超音波センサおよびレーダセンサのような特定のセンサタイプにおいては、さらに最大距離もまた視野を制限する。 The sensor to be calibrated has a recognizable field of view of this object inside. The field of view may be represented, for example, through a horizontal or vertical opening angle, in which case, for certain sensor types such as ultrasonic sensors and radar sensors, the maximum distance also limits the field of view.
ステップc)による定置構造の選択において、選択基準が考慮されることが好ましい。選択基準は、例えば、それぞれの定置構造の決定された位置の精度、変動する周辺条件下における定置構造の認識可能性、ある定置構造の他の定置構造に対する相対位置およびこれらの基準の少なくとも2つの組合せから選択される。 It is preferable that the selection criteria are taken into consideration in the selection of the stationary structure according to step c). The selection criteria are, for example, the accuracy of the determined position of each stationary structure, the recognizability of the stationary structure under fluctuating peripheral conditions, the relative position of one stationary structure to other stationary structures, and at least two of these criteria. Selected from combinations.
変動する周囲条件に対する例は、例えば、気象条件および照明条件である。例えば、夜間においてのみならず昼間光においても良好に認識される定置構造は好ましい。例えば風で揺動する、樹木および支柱のような定置物体は好ましくない。 Examples for fluctuating ambient conditions are, for example, meteorological and lighting conditions. For example, a stationary structure that is well recognized not only at night but also in daylight is preferable. Stationary objects such as trees and stanchions that sway in the wind, for example, are not preferred.
定置構造の位置がより正確に決定可能であればあるほどそれだけ、これは後のセンサの校正に対してより適切であり、この構造は選択においてより早くに考慮される。
例えばステレオカメラのような異なるセンサの校正に対しては、センサの校正が相互に直交する2つの軸に関して可能なように、複数の定置構造が相互に相対的に配置されているとき、それは有利である。すなわち、少なくとも3つの構造が、これらが1つの共通の線上に配置されていないように、相互に配置されているとき、それは有利である。
The more accurately the position of the stationary structure can be determined, the more appropriate this is for later calibration of the sensor, and this structure will be considered earlier in the selection.
For different sensor calibrations, such as stereo cameras, it is advantageous when multiple stationary structures are arranged relative to each other so that sensor calibration is possible for two axes that are orthogonal to each other. Is. That is, it is advantageous when at least three structures are placed together such that they are not placed on one common line.
ステップd)による選択された駐車位置の選択において、駐車可能位置が評価され、この場合、駐車可能位置は最善評価により選択されることが好ましい。この場合、駐車可能位置は、車両がこの駐車可能位置に駐車したとき、選択された定置構造が、それぞれ駐車可能位置から見て、センサの視野内により多く位置すればするほどそれだけより良好に評価されるように設計されていることが好ましい。言い換えると、センサに対して駐車可能位置から見える選択された定置構造の数が最大にされることが好ましい。 In the selection of the selected parking position in step d), the parkable position is evaluated, and in this case, the parkable position is preferably selected by the best evaluation. In this case, the parkable position is better evaluated when the vehicle is parked in this parkable position, the more the selected stationary structure is located in the field of view of the sensor, respectively, in view of the parkable position. It is preferably designed to be. In other words, it is preferred to maximize the number of selected stationary structures visible to the sensor from the parkable position.
駐車可能位置の評価において、駐車可能位置から見て、可動物体により遮蔽される可能性がある、選択された定置構造は、駐車可能位置から見て、可動物体により遮蔽される可能性がない、選択された定置構造より低く評価されることが好ましい。このために、特に、今検査された駐車可能位置と対応定置構造の間に他の駐車可能位置が位置するかどうかを解析するように設計されていてもよい。このような場合、この他の駐車可能位置に駐車された車両により、この定置構造に対するセンサの視界が遮断される可能性があるであろう。対応定置構造は、このとき、センサの後の校正のために利用可能ではないので、この定置構造はより低く評価される。 In the evaluation of the parkable position, the selected stationary structure may be shielded by the movable object when viewed from the parkable position, and may not be shielded by the movable object when viewed from the parkable position. It is preferably rated lower than the selected stationary structure. For this purpose, in particular, it may be designed to analyze whether another parkable position is located between the parkable position just inspected and the corresponding stationary structure. In such cases, vehicles parked in other parkable positions may block the sensor's view of this stationary structure. This stationary structure is evaluated lower because the corresponding stationary structure is not available at this time for calibration after the sensor.
車両は、操縦を自動運転で実行するように適合された設計がなされていることが好ましく、この場合、特に、横方向操縦すなわち車両のステアリングのみでなく、縦方向操縦すなわち車両の加速および制動もまた自動的に実行される。方法の範囲内において、このとき、ステップe)により駐車する車両は、選択された駐車位置に自動的に到着するように設計されていてもよい。 The vehicle is preferably designed to be adapted for self-driving maneuvers, especially in lateral maneuvers or vehicle steering as well as vertical maneuvers or vehicle acceleration and braking. It will also be executed automatically. Within the scope of the method, the vehicle parked in step e) at this time may be designed to automatically arrive at the selected parking position.
ステップe)において、さらに、選択された定置構造の位置を記憶するように設計されている。このために、特に、それぞれの定置構造の車両に対する相対位置を記憶するように設計されている。場合により、このために、それぞれの定置構造の位置が、選択された駐車位置に到達した後に改めてセンサを使用して決定されるか、または車両の既知の固有運動により計算される。 In step e), it is further designed to memorize the position of the selected stationary structure. For this purpose, it is specifically designed to memorize the relative position of each stationary structure with respect to the vehicle. Optionally, for this purpose, the position of each stationary structure is determined again using sensors after reaching the selected parking position, or is calculated by known proper motion of the vehicle.
車両は、継続走行が意図されるまで、選択された駐車位置に長時間駐車しているものとする。継続走行のために車両がスタートした後、残りのステップg)ないしj)が実行される。それに続いて、校正されたセンサを用いて継続走行が実行可能である。 The vehicle shall be parked in the selected parking position for a long time until continuous driving is intended. After the vehicle has started for continuous running, the remaining steps g) to j) are executed. Following that, continuous running is possible with the calibrated sensor.
本発明の他の態様は、センサ校正の実行システムを提供することである。システムは、少なくとも1つのセンサ、制御ユニットおよびメモリを含む。この場合、ここに記載の方法の1つの実行システムが形成されかつ設置されるように設計されている。 Another aspect of the invention is to provide a sensor calibration execution system. The system includes at least one sensor, control unit and memory. In this case, one of the methods described herein is designed to form and install an execution system.
記載の方法の実行システムが設置されているので、方法の範囲内に記載された特徴は、それに対応してシステムに対しても適用され、かつその逆に、システムの範囲内に記載された特徴は、それに対応して方法に対しても適用される。 Since the execution system of the described method is installed, the features described within the scope of the method are correspondingly applied to the system and vice versa. Applies to the method accordingly.
システムの少なくとも1つのセンサは、この場合、記載された方法を使用して校正される。
少なくとも1つのセンサは、例えば、ステレオカメラ、ビデオカメラ、レーダセンサ、ライダセンサ、超音波センサまたはこれらのセンサの少なくとも2つの組合せである。
At least one sensor in the system is in this case calibrated using the method described.
The at least one sensor is, for example, a stereo camera, a video camera, a radar sensor, a rider sensor, an ultrasonic sensor, or a combination of at least two of these sensors.
車両が駐車された後に、提案された方法および提案されたシステムにより、簡単なセンサ再校正が可能とされ、これにより、特に、車両が停車中の温度変動に基づく、それが原因のセンサの校正不良が補償可能である。 After the vehicle is parked, the proposed method and proposed system allow for simple sensor recalibration, which in particular is based on temperature fluctuations while the vehicle is stopped, which causes sensor calibration. Defects can be compensated.
提案されたセンサの校正方法は、校正されるセンサとは別のセンサを必要としないことが有利である。さらに、同様に、特定の標準のまたは予め他の手段により計測された標識に関する知識は必要ではない。 It is advantageous that the proposed sensor calibration method does not require a separate sensor from the sensor to be calibrated. Moreover, similarly, knowledge of a particular standard or pre-measured by other means is not required.
最終停車位置に向かう前に、後の校正のために適した定置構造が車両の周辺内に認識され、かつ最終停車位置は、この停車位置から、できるだけ多くの適切な定置構造が存在し、すなわち、校正されるセンサの視野内に存在するように選択されることが有利である。この場合、選択されたこの定置構造が記憶されるので、それは車両の再スタートにおいて利用可能になる。 Before heading to the final stop position, a stationary structure suitable for later calibration is recognized in the perimeter of the vehicle, and the final stop position is from this stop position as many suitable stationary structures exist, ie. It is advantageous to be selected to be within the field of view of the sensor to be calibrated. In this case, this stationary structure selected is remembered so that it can be used in the restart of the vehicle.
本発明の好ましい変更態様において、最終停車位置として選択された駐車位置は自動的に到達されるので、車両は、正確に最適停車位置に停止することになる。
さらに、選択される駐車位置の決定において、選択された定置構造の遮蔽の可能性を考慮するように設計されていることが有利である。したがって、例えば他の駐車車両により校正されるセンサの選択された定置構造への視界が遮蔽される確率が低減される。
In a preferred modification of the invention, the parking position selected as the final stop position is automatically reached so that the vehicle stops exactly at the optimum stop position.
In addition, it is advantageous to be designed to take into account the possibility of shielding of the selected stationary structure in determining the parking position selected. Thus, the probability of obstructing the view of the selected stationary structure of the sensor calibrated by, for example, another parked vehicle is reduced.
本発明の実施例が図面において説明されかつ以下の記載において詳細に説明される。 Examples of the present invention are described in the drawings and described in detail below.
本発明の一実施例の以下の説明において、同じ部品および要素は同じ符号で示され、この場合、個々の場合におけるこれらの部品または要素の反復説明は省略される。図面は、本発明の対象を略図でのみ示す。 In the following description of an embodiment of the invention, the same parts and elements are designated by the same reference numerals, in which case repeated description of these parts or elements in individual cases is omitted. The drawings show the subject matter of the present invention only in schematic drawings.
図1は、センサ校正の実行システム10を含む車両1を示す。システム10はセンサ12を含み、センサは、図1に示した実施例においてはステレオカメラとして形成されている。さらに、システム10は制御ユニット14を含み、制御ユニットは、センサ12並びにメモリ16と結合されている。ここで、特に、制御ユニット14およびメモリ16はただ1つの制御装置の形で形成されているように設計されている。
FIG. 1 shows a vehicle 1 including a sensor
ステレオカメラとして形成されたセンサ12は視野13を有し、視野は、図1に示した実施例においては前方に向けられている。
車両1の自動運転を可能にするために、制御ユニット14は車両1の他の部品に結合されている。これが、図1の概略図において、ハンドル18への結合並びにペダル20への結合により示されている。
The
The
図2は、センサ12を含む本発明によるシステム10を備えた車両1を示す。車両1は道路22上に存在しかつ駐車されようとしている。道路22の右側車線端縁に第1駐車可能位置24並びに第2駐車可能位置26が存在する。他の駐車位置29には既に駐車車両28が位置するので、この他の駐車位置29は利用可能ではない。
FIG. 2 shows a vehicle 1 equipped with a
車両1の周辺内に、センサ12の視野13内に位置し、したがってセンサ12により検出可能な種々の物体40,42が存在する。物体40,42は、定置物体40および可動物体42に分類可能である。定置物体40は不動であり、したがって、その位置は変化しない。定置物体40は、通常、地面と固定結合されている。
Within the perimeter of the vehicle 1, there are various objects 40, 42 located within the field of
一方、可動物体42は、基本的に、これらが途中で静止することがあっても、それらの位置を変化することが可能である。可動物体42に対する一例は、他の駐車位置29上に存在する駐車中の車両28である。
On the other hand, the movable object 42 can basically change its position even if they are stationary in the middle. An example of a movable object 42 is a parked vehicle 28 present on another
定置物体40に対する例は、縁石端縁30、交通標識32、並びにセンサ12の視野内に存在する家36である。
車両1が駐車可能位置24,26のいずれか上に長時間駐車されている場合、センサ12が、例えば温度変動による原因で校正不良にされる可能性が存在する。したがって、車両が再スタートするときに実行されるセンサ12の校正のために、センサ12の視野13内に、その位置が車両1のシステム10にわかっている、できるだけ多数の定置構造が存在しているとき、校正することが好ましい。すなわち、これは、再スタート後にセンサ12により決定された、既知のこれらの定置構造の位置において認識された偏差に基づいて、センサ12の校正を可能にする。
Examples for the stationary object 40 are the curb edge 30, the traffic sign 32, and the house 36 present in the field of view of the
When the vehicle 1 is parked on any of the
駐車前にできるだけ多数のこのような定置構造の存在を保証するために、本発明により、センサ12を使用して、車両1の周辺に関する第1データが検出されるように設計されている。センサ12により検出された第1データは、センサ12の視野13内に位置する物体40,42に関する情報を含む。それに続いて、定置物体40を示すかまたは定置物体40の一部を示す定置構造を決定するように設計されている。このために、はじめに、センサ12を介して検出された物体40,42を定置物体40および可動物体42に分類することが実行される。図2のこの例においては、定置物体40として、縁石端縁30、交通標識32並びに家36が認識される。それに続いて、この例において、家36の端縁38、交通標識32の支柱34並びに縁石端縁30を含む定置構造が決定される。これらの全ての定置構造は、校正のために適切であり、したがって選択される。
To ensure the presence of as many such stationary structures as possible prior to parking, the present invention is designed to use the
さらに、検出された第1データにより、車両1の周辺内の駐車可能位置24,26を識別するように設計されていることが有利である。
それに続いて、駐車可能位置24,26から、一方で、センサ12に対して、そこからできるだけ多くの定置構造が見える、すなわちセンサ12の視野13内に位置する、駐車位置が選択される。さらに、この選択において、対応定置構造へのセンサ12の視界が遮蔽される可能性があるかどうかが考慮されることが好ましい。
Further, it is advantageous that the detected first data is designed to identify the
Subsequently, from the
図2の例において、第1駐車可能位置24が選択された場合、はじめに、第1駐車可能位置24から、センサ12に対して、縁石端縁30、交通標識32のみならず家36もまた見えるであろう。しかしながら、車両1が第1駐車可能位置24上に駐車した後に、他の車両が第2駐車可能位置26上に駐車された場合、交通標識32並びに家36へのセンサ12の視界が遮蔽されることがあるであろう。したがって、選択において、第2駐車可能位置26がより高く評価されかつそれに対応して選択される駐車位置27として決定される。車両1はこのとき自動運転により選択された駐車位置27に向けて舵をとり、かつ特に定置構造の位置を含む情報がシステム10のメモリ16内に記憶される。選択された駐車位置27に到達した後、車両1は停止される。
In the example of FIG. 2, when the first
車両1の再スタート後に、センサ12は車両1の周辺に関する第2データを検出し、かつ予め選択された定置構造の位置が第2データ内で決定される。それに続いて、メモリ16内に記憶された定置構造の位置と、第2データから決定された定置構造の実際位置の間の比較が行われる。定置構造は不動であるので、これは車両1に対するその相対位置を変化させることはない。したがって、位置内に偏差があった場合、それは、センサ12の校正不良に起因されなければならない。したがって、それに続いて、認識された偏差により、センサ12の校正を行うように設計されている。それに続いて、車両1はその走行を開始可能である。
After the vehicle 1 is restarted, the
本発明は、ここに記載の実施例およびその中で取り上げられた態様に制限されない。むしろ、請求項により提供された範囲内において、当業者の活動の範囲内に入る多数の変更が可能である。 The present invention is not limited to the examples described herein and the embodiments discussed therein. Rather, within the scope of the claims, a number of changes within the scope of the activities of those skilled in the art are possible.
1 車両
10 システム
12 センサ
13 視野
14 制御ユニット
16 メモリ
18 ハンドル
20 ペダル
22 道路
24 第1駐車可能位置
26 第2駐車可能位置
27 選択された駐車位置
28 駐車車両
29 他の駐車位置
30 縁石端縁
32 交通標識
34 支柱
36 家
38 端縁
40 定置物体
42 可動物体
1
Claims (11)
b)検出された第1データを使用して定置構造および駐車可能位置(24,26)を決定するステップであって、定置構造の位置が決定されるステップと、
c)センサ(12)の後の校正のために定置構造を選択するステップと、
d)駐車可能位置(24,26)から選択するステップであって、選択された駐車位置(27)は、選択された駐車位置(27)に車両(1)が駐車した後に、センサ(12)の校正のために選択された定置構造がセンサ(12)の視野(13)内に存在するように選択されるステップと、
e)車両(1)は選択された駐車位置(27)に駐車し、かつセンサ(12)の校正のために選択された定置構造の位置を記憶するステップと、
f)車両(1)をスタートさせるステップと、
g)センサ(12)を使用して車両(1)の周辺に関する第2データを検出するステップと、
h)検出された第2データを使用して、選択された定置構造の実際位置を決定するステップと、
i)選択された定置構造の実際位置を、選択された定置構造の記憶されている位置と比較するステップであって、選択された定置構造の実際位置と、選択された定置構造の記憶されている位置の間の偏差が決定されるステップと、
j)決定された偏差を使用してセンサ(12)を校正するステップと、
を含む、車両(1)のセンサ(12)の校正の実行方法。 a) A step of detecting the first data about the periphery of the vehicle (1) using the sensor (12), and
b) A step of determining the stationary structure and the parkable position (24, 26) using the detected first data, and a step of determining the position of the stationary structure.
c) Steps to select a stationary structure for calibration after sensor (12),
d) In the step of selecting from the parkable positions (24, 26), the selected parking position (27) is the sensor (12) after the vehicle (1) is parked at the selected parking position (27). The step in which the stationary structure selected for calibration of is selected to be within the field of view (13) of the sensor (12), and
e) A step of parking the vehicle (1) in the selected parking position (27) and storing the position of the stationary structure selected for calibration of the sensor (12).
f) Steps to start the vehicle (1) and
g) A step of detecting the second data about the periphery of the vehicle (1) using the sensor (12), and
h) Using the detected second data, the step of determining the actual position of the selected stationary structure, and
i) The step of comparing the actual position of the selected stationary structure with the stored position of the selected stationary structure, where the actual position of the selected stationary structure and the selected stationary structure are stored. The steps that determine the deviation between the positions and
j) The step of calibrating the sensor (12) using the determined deviation,
A method of performing calibration of the sensor (12) of the vehicle (1), including.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017210112.1A DE102017210112A1 (en) | 2017-06-16 | 2017-06-16 | Method and system for performing a calibration of a sensor |
DE102017210112.1 | 2017-06-16 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019002929A JP2019002929A (en) | 2019-01-10 |
JP7048426B2 true JP7048426B2 (en) | 2022-04-05 |
Family
ID=64457555
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018114199A Active JP7048426B2 (en) | 2017-06-16 | 2018-06-15 | How to perform sensor calibration and system |
Country Status (4)
Country | Link |
---|---|
US (1) | US10698084B2 (en) |
JP (1) | JP7048426B2 (en) |
CN (1) | CN109131353A (en) |
DE (1) | DE102017210112A1 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3851868A4 (en) * | 2018-09-10 | 2022-05-18 | Hitachi Astemo, Ltd. | Device for detecting axial deviation of radar, vehicle-mounted system comprising same, and method for detecting axial deviation of radar |
CN111192378B (en) * | 2018-11-15 | 2022-01-28 | 中兴通讯股份有限公司 | Vehicle movement identification method and device and vehicle alarm system |
CN113124897B (en) * | 2019-12-31 | 2024-04-09 | 中信科智联科技有限公司 | Sensor performance detection method, device and terminal |
US11454701B2 (en) * | 2020-01-13 | 2022-09-27 | Pony Ai Inc. | Real-time and dynamic calibration of active sensors with angle-resolved doppler information for vehicles |
US11686836B2 (en) * | 2020-01-13 | 2023-06-27 | Pony Ai Inc. | Real-time and dynamic localization using active doppler sensing systems for vehicles |
US11827244B2 (en) * | 2020-12-04 | 2023-11-28 | Ford Global Technologies, Llc | Enhanced vehicle operation |
CN112887172B (en) * | 2021-02-19 | 2023-03-24 | 北京百度网讯科技有限公司 | Vehicle perception system test method, device, equipment and storage medium |
CN115248428B (en) * | 2021-04-28 | 2023-12-22 | 北京航迹科技有限公司 | Laser radar calibration and scanning method and device, electronic equipment and storage medium |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002162470A (en) | 2000-11-28 | 2002-06-07 | Nhk Spring Co Ltd | Object detection device and method for setting reference axis thereof |
JP2006047140A (en) | 2004-08-05 | 2006-02-16 | Fujitsu Ten Ltd | Method and detector for detecting axial shift in radar system |
JP2007129420A (en) | 2005-11-02 | 2007-05-24 | Tokyo Denki Univ | Radar reflector |
JP2007333385A (en) | 2006-06-11 | 2007-12-27 | Toyota Central Res & Dev Lab Inc | Immobile object position recording device |
JP2009031053A (en) | 2007-07-25 | 2009-02-12 | Fujitsu Ten Ltd | Device for detecting forward obstacle |
US20100076708A1 (en) | 2008-09-19 | 2010-03-25 | Caterpillar Inc. | Machine sensor calibration system |
JP2010217193A (en) | 2005-05-09 | 2010-09-30 | Nippon Soken Inc | Obstacle detection device |
JP2013015411A (en) | 2011-07-04 | 2013-01-24 | Honda Motor Co Ltd | Absolute velocity estimation apparatus |
JP2013068571A (en) | 2011-09-26 | 2013-04-18 | Mitsubishi Electric Corp | Radar device and performance deterioration discriminating method of radar device |
JP2014211376A (en) | 2013-04-19 | 2014-11-13 | 富士通テン株式会社 | Radar device and signal processing method |
JP2014241115A (en) | 2013-06-12 | 2014-12-25 | トヨタ自動車株式会社 | Peripheral object detection device |
JP2017052471A (en) | 2015-09-11 | 2017-03-16 | クラリオン株式会社 | Vehicle parking block recognizing device |
JP2018532125A (en) | 2015-07-20 | 2018-11-01 | ブレイン コーポレイション | Apparatus and method for object detection using broadband signals |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3114849B2 (en) * | 1995-12-25 | 2000-12-04 | 本田技研工業株式会社 | Detection range adjustment mechanism of vehicle obstacle detection device |
US7124027B1 (en) * | 2002-07-11 | 2006-10-17 | Yazaki North America, Inc. | Vehicular collision avoidance system |
US7337650B1 (en) * | 2004-11-09 | 2008-03-04 | Medius Inc. | System and method for aligning sensors on a vehicle |
DE102010042821B4 (en) | 2010-10-22 | 2014-11-20 | Robert Bosch Gmbh | Method and apparatus for determining a basic width of a stereo detection system |
EP2541197B1 (en) * | 2011-06-30 | 2014-08-27 | Furuno Electric Company Limited | Tightly coupled gps and dead-reckoning vehicle navigation |
WO2013016518A1 (en) * | 2011-07-27 | 2013-01-31 | Mine Safety Appliances Company | Navigational deployment and initialization systems and methods |
DE102011083965A1 (en) * | 2011-10-04 | 2013-04-04 | Robert Bosch Gmbh | Device and method for geometrically calibrating sensor data formed by means of a sensor system of a vehicle |
CN102529961B (en) * | 2012-03-26 | 2015-06-10 | 江苏大学 | Initial carport-searching offset correction method of automatic parking system |
DE102012023706A1 (en) * | 2012-12-05 | 2014-06-05 | Daimler Ag | Vehicle-side method and vehicle-side device for detecting and displaying parking spaces for a vehicle |
DE102013206707A1 (en) | 2013-04-15 | 2014-10-16 | Robert Bosch Gmbh | Method for checking an environment detection system of a vehicle |
EP2897014B1 (en) * | 2014-01-16 | 2023-11-29 | Volvo Car Corporation | A vehicle adapted for autonomous driving and a method for detecting obstructing objects |
DE102014002150B3 (en) * | 2014-02-15 | 2015-07-23 | Audi Ag | Method for determining the absolute position of a mobile unit and mobile unit |
JP6206258B2 (en) * | 2014-03-06 | 2017-10-04 | 富士通株式会社 | Trajectory estimation device, trajectory estimation method, and program |
US10024955B2 (en) * | 2014-03-28 | 2018-07-17 | GM Global Technology Operations LLC | System and method for determining of and compensating for misalignment of a sensor |
KR102286673B1 (en) * | 2014-04-09 | 2021-08-05 | 콘티넨탈 테베스 아게 운트 코. 오하게 | Position correction of a vehicle by referencing to objects in the surroundings |
CN105620473B (en) * | 2014-10-27 | 2019-05-21 | 同致电子科技(厦门)有限公司 | One kind is parked track correcting method |
DE102015205087A1 (en) * | 2015-03-20 | 2016-09-22 | Bayerische Motoren Werke Aktiengesellschaft | Method for determining the misalignment of a driver assistance sensor |
US10096248B2 (en) * | 2015-06-11 | 2018-10-09 | Nissan North America, Inc. | Parking lot mapping system |
DE102015009869A1 (en) | 2015-07-30 | 2016-03-24 | Daimler Ag | Method for self-localization of a vehicle |
DE102015220360A1 (en) * | 2015-10-20 | 2017-04-20 | Robert Bosch Gmbh | Method for selecting an optimized trajectory |
US10109198B2 (en) * | 2017-03-08 | 2018-10-23 | GM Global Technology Operations LLC | Method and apparatus of networked scene rendering and augmentation in vehicular environments in autonomous driving systems |
US10067897B1 (en) * | 2017-05-02 | 2018-09-04 | Bendix Commercial Vehicle Systems Llc | System and method for determining the positions of side collision avoidance sensors on a vehicle |
US10830871B2 (en) * | 2018-03-21 | 2020-11-10 | Zoox, Inc. | Sensor calibration |
US11340355B2 (en) * | 2018-09-07 | 2022-05-24 | Nvidia Corporation | Validation of global navigation satellite system location data with other sensor data |
-
2017
- 2017-06-16 DE DE102017210112.1A patent/DE102017210112A1/en active Pending
-
2018
- 2018-06-13 US US16/007,726 patent/US10698084B2/en active Active
- 2018-06-14 CN CN201810612615.8A patent/CN109131353A/en active Pending
- 2018-06-15 JP JP2018114199A patent/JP7048426B2/en active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002162470A (en) | 2000-11-28 | 2002-06-07 | Nhk Spring Co Ltd | Object detection device and method for setting reference axis thereof |
JP2006047140A (en) | 2004-08-05 | 2006-02-16 | Fujitsu Ten Ltd | Method and detector for detecting axial shift in radar system |
JP2010217193A (en) | 2005-05-09 | 2010-09-30 | Nippon Soken Inc | Obstacle detection device |
JP2007129420A (en) | 2005-11-02 | 2007-05-24 | Tokyo Denki Univ | Radar reflector |
JP2007333385A (en) | 2006-06-11 | 2007-12-27 | Toyota Central Res & Dev Lab Inc | Immobile object position recording device |
JP2009031053A (en) | 2007-07-25 | 2009-02-12 | Fujitsu Ten Ltd | Device for detecting forward obstacle |
US20100076708A1 (en) | 2008-09-19 | 2010-03-25 | Caterpillar Inc. | Machine sensor calibration system |
JP2013015411A (en) | 2011-07-04 | 2013-01-24 | Honda Motor Co Ltd | Absolute velocity estimation apparatus |
JP2013068571A (en) | 2011-09-26 | 2013-04-18 | Mitsubishi Electric Corp | Radar device and performance deterioration discriminating method of radar device |
JP2014211376A (en) | 2013-04-19 | 2014-11-13 | 富士通テン株式会社 | Radar device and signal processing method |
JP2014241115A (en) | 2013-06-12 | 2014-12-25 | トヨタ自動車株式会社 | Peripheral object detection device |
JP2018532125A (en) | 2015-07-20 | 2018-11-01 | ブレイン コーポレイション | Apparatus and method for object detection using broadband signals |
JP2017052471A (en) | 2015-09-11 | 2017-03-16 | クラリオン株式会社 | Vehicle parking block recognizing device |
Also Published As
Publication number | Publication date |
---|---|
DE102017210112A1 (en) | 2018-12-20 |
US10698084B2 (en) | 2020-06-30 |
JP2019002929A (en) | 2019-01-10 |
US20180364328A1 (en) | 2018-12-20 |
CN109131353A (en) | 2019-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7048426B2 (en) | How to perform sensor calibration and system | |
US10209712B2 (en) | Predicting and responding to cut in vehicles and altruistic responses | |
CN106043293B (en) | Method and device for safely parking a vehicle | |
US9915951B2 (en) | Detection of overhanging objects | |
RU2017125454A (en) | IDENTIFICATION OF BRANCHES IN THE BACK CAMERA | |
US9045160B2 (en) | Method and device for assisting the driver of a motor vehicle | |
RU2017142730A (en) | METHOD OF CAR NAVIGATION (PARTS) AND RELATED AUTONOMOUS VEHICLE | |
CN106203272B (en) | The method and apparatus for determining the movement of movable objects | |
US20170069093A1 (en) | Method for detecting objects on a parking area | |
CN110126820A (en) | Automated parking system, method of parking and vehicle | |
US20090060276A1 (en) | Method for detecting and/or tracking objects in motion in a scene under surveillance that has interfering factors; apparatus; and computer program | |
JP2017538915A (en) | Positioning / mapping method and positioning / mapping system | |
US20220066006A1 (en) | Real-time sensor calibration and calibration verification based on detected objects | |
CN107479032A (en) | Object detection systems for automated vehicle | |
RU2769921C2 (en) | Methods and systems for automated detection of the presence of objects | |
CN106114622A (en) | The steering wheel of letting go controlled by pedestrian detecting system | |
US11726176B2 (en) | Annotation of radar-profiles of objects | |
EP4020405A1 (en) | Road lane condition detection with lane assist for a vehicle using infrared detecting device | |
US20160280135A1 (en) | Animal Detection System for a Vehicle | |
JP6355161B2 (en) | Vehicle imaging device | |
CN109285381A (en) | For detecting the method and system of the free area in parking lot | |
KR101644109B1 (en) | Automatic scoring system for course test of driving license test using around-view monitering video, and method for the same | |
US10895459B2 (en) | Vehicle navigation system and method | |
JP6419011B2 (en) | Feature image recognition system, feature image recognition method, and computer program | |
FR3039488A1 (en) | METHOD AND DEVICE FOR DRIVING ASSISTANCE |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200213 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210601 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220324 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7048426 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |