JP6834914B2 - Object recognition device - Google Patents

Object recognition device Download PDF

Info

Publication number
JP6834914B2
JP6834914B2 JP2017214671A JP2017214671A JP6834914B2 JP 6834914 B2 JP6834914 B2 JP 6834914B2 JP 2017214671 A JP2017214671 A JP 2017214671A JP 2017214671 A JP2017214671 A JP 2017214671A JP 6834914 B2 JP6834914 B2 JP 6834914B2
Authority
JP
Japan
Prior art keywords
vehicle
optical axis
information
map
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017214671A
Other languages
Japanese (ja)
Other versions
JP2019086393A (en
Inventor
広明 飯田
広明 飯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2017214671A priority Critical patent/JP6834914B2/en
Publication of JP2019086393A publication Critical patent/JP2019086393A/en
Application granted granted Critical
Publication of JP6834914B2 publication Critical patent/JP6834914B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、物体認識装置に関する。 The present invention relates to an object recognition device.

特開2017−102861号公報には、車載カメラを用いて車両の周囲の撮像画像を取得し、この撮像画像に含まれる物体の地図上の位置を算出する物体認識装置が開示されている。撮像画像上で成立する物体とランドマークの位置関係は、地図上においても成立することから、この物体認識装置は、撮像画像上で特定した物体とランドマークの位置関係、および、既知情報である地図上のランドマークの位置情報に基づいて、撮像画像上で特定した物体の地図上における位置を算出する。 Japanese Unexamined Patent Publication No. 2017-102861 discloses an object recognition device that acquires an image of the surroundings of a vehicle using an in-vehicle camera and calculates the position of an object included in the image on a map. Since the positional relationship between the object and the landmark that is established on the captured image is also established on the map, this object recognition device is the positional relationship between the object and the landmark that is specified on the captured image, and known information. Based on the position information of the landmark on the map, the position of the object specified on the captured image on the map is calculated.

特開2017−102861号公報Japanese Unexamined Patent Publication No. 2017-102861

しかし、車載カメラは前後距離の精度が高くないことから、上述した撮像画像上で特定した物体とランドマークの位置関係は必ずしも正確でない。車載カメラの代わりにミリ波レーダーを用いることもできる。しかし、ミリ波レーダーは横位置精度が高くないことから、車載カメラの代用品として最適であるとは言い難い。 However, since the accuracy of the front-rear distance is not high in the in-vehicle camera, the positional relationship between the object specified on the captured image and the landmark is not always accurate. Millimeter-wave radar can be used instead of the in-vehicle camera. However, millimeter-wave radar does not have high lateral position accuracy, so it cannot be said that it is the most suitable substitute for in-vehicle cameras.

この点、ライダー(LIDAR: Laser Imaging Detection and Ranging)は、物体とランドマークの位置関係を正しく特定することができる。但し、ライダーの光軸が所望の方向からずれていると、この特定の精度が低下する。そのため、ライダーの光軸の補正は、定期的に行われることが望ましい。しかし、光軸の補正は、車両と物体の相対位置や相対速度に基づく確からしさを指標にして行われることが一般的である。そのため、補正に必要な物体のサンプル数が多くなり、補正が完了するまでに時間を要してしまう。従って、光軸の補正を短時間で完了するための技術開発が望まれる。 In this respect, lidar (LIDAR: Laser Imaging Detection and Ranging) can correctly identify the positional relationship between an object and a landmark. However, if the rider's optical axis deviates from the desired direction, this particular accuracy will be reduced. Therefore, it is desirable that the correction of the optical axis of the rider is performed regularly. However, the correction of the optical axis is generally performed by using the certainty based on the relative position and relative speed of the vehicle and the object as an index. Therefore, the number of samples of the object required for the correction increases, and it takes time to complete the correction. Therefore, it is desired to develop a technique for completing the correction of the optical axis in a short time.

本発明は、上述のような課題に鑑みてなされたものであり、物体認識に用いられるライダーの光軸の補正を短時間で完了することのできる技術を提供することを目的とする。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to provide a technique capable of completing correction of the optical axis of a rider used for object recognition in a short time.

第1の発明は、上述した課題を解決するための物体認識装置であり次の特徴を有する。
前記物体認識装置は、カメラと、ライダーと、地図データベースと、車両位置推定部と、方位角推定部と、固定物位置特定部と、光軸基準補正部と、を備える。
前記カメラは、自車両の外部状況を撮像する。
前記ライダーは、前記自車両の周囲の立体物を検出する。
前記地図データベースは、地図情報、および、地図上の固定物の位置情報およびスタイル情報を少なくとも記憶している。
前記車両位置推定部は、前記自車両の地図上の位置を推定する処理を行う。
前記方位角推定部は、前記カメラからの撮像情報と、前記位置情報と、を用いて、前記自車両の前後軸が基準方位となす角度を方位角として推定する処理を行う。
前記固定物位置特定部は、前記ライダーが検出した固定物情報と、前記スタイル情報と、前記位置情報と、を用いて、前記ライダーが検出した固定物の地図上の位置を特定する処理を行う。
前記光軸基準補正部は、前記自車両の地図上の位置と、前記方位角と、前記固定物の地図上の位置と、前記ライダーが前記固定物を検出したときの光軸基準に対するレーザー光の送出角度と、を用いて、前記光軸基準を補正する処理を行う。
The first invention is an object recognition device for solving the above-mentioned problems, and has the following features.
The object recognition device includes a camera, a rider, a map database, a vehicle position estimation unit, an azimuth angle estimation unit, a fixed object position identification unit, and an optical axis reference correction unit.
The camera captures the external situation of the own vehicle.
The rider detects a three-dimensional object around the own vehicle.
The map database stores at least map information and location information and style information of fixed objects on the map.
The vehicle position estimation unit performs a process of estimating the position of the own vehicle on the map.
The azimuth estimation unit performs a process of estimating an angle formed by the front-rear axis of the own vehicle as a reference azimuth by using the image pickup information from the camera and the position information.
The fixed object position specifying unit performs a process of identifying the position of the fixed object detected by the rider on the map by using the fixed object information detected by the rider, the style information, and the position information. ..
The optical axis reference correction unit is a laser beam for a position on the map of the own vehicle, an azimuth angle, a position on the map of the fixed object, and an optical axis reference when the rider detects the fixed object. The optical axis reference is corrected by using the delivery angle of.

第2の発明は、第1の発明において次の特徴を有する。
前記車両位置推定部による推定処理、前記方位角推定部による推定処理、および、前記固定物位置特定部による特定処理が、少なくとも前記自車両の停止中に行われる。
The second invention has the following features in the first invention.
The estimation process by the vehicle position estimation unit, the estimation process by the azimuth angle estimation unit, and the identification process by the fixed object position identification unit are performed at least while the own vehicle is stopped.

第3の発明は、第1または第2の発明において次の特徴を有する。
前記物体認識装置は、光軸異常判定部を更に備える。
前記光軸異常判定部は、前記光軸基準補正部による補正処理後の前記光軸基準と、前記光軸基準の初期角度の角度差が所定角度以上の場合に、前記光軸基準に異常が発生していると判定する。
The third invention has the following features in the first or second invention.
The object recognition device further includes an optical axis abnormality determination unit.
When the angle difference between the optical axis reference after the correction process by the optical axis reference correction unit and the initial angle of the optical axis reference is equal to or greater than a predetermined angle, the optical axis abnormality determination unit has an abnormality in the optical axis reference. Judge that it has occurred.

第1の発明によれば、方位角推定部による推定処理において、地図上の固定物の位置情報が用いられる。また、固定物位置特定部による特定処理において、地図上の固定物の位置情報およびスタイル情報が用いられる。そのため、方位角推定部による推定処理や、固定物位置特定部による特定処理に要する時間を短くすることが可能になる。従って、自車両と物体の相対位置や相対速度に基づく確からしさに基づいて光軸補正を行う場合よりも短い時間で、ライダーの光軸基準の補正を完了させることが可能になる。 According to the first invention, the position information of the fixed object on the map is used in the estimation process by the azimuth angle estimation unit. In addition, the position information and style information of the fixed object on the map are used in the identification process by the fixed object position specifying unit. Therefore, it is possible to shorten the time required for the estimation process by the azimuth angle estimation unit and the identification process by the fixed object position identification unit. Therefore, it is possible to complete the correction of the optical axis reference of the rider in a shorter time than when the optical axis correction is performed based on the certainty based on the relative position and the relative speed of the own vehicle and the object.

第2の発明によれば、車両位置推定部による推定処理、方位角推定部による推定処理、および、固定物位置特定部による特定処理が、少なくとも自車両の停止中に行われる。自車両の停止中であれば、自車両の走行中に比べて、自車両の地図上の位置および方位角の推定精度や、固定物の地図上の位置の特定精度を高めることが可能になる。よって、ライダーの光軸基準の補正の精度を高めることが可能になる。 According to the second invention, the estimation process by the vehicle position estimation unit, the estimation process by the azimuth angle estimation unit, and the identification process by the fixed object position identification unit are performed at least while the own vehicle is stopped. When the own vehicle is stopped, it is possible to improve the estimation accuracy of the position and azimuth of the own vehicle on the map and the accuracy of specifying the position on the map of the fixed object as compared with the running of the own vehicle. .. Therefore, it is possible to improve the accuracy of the correction of the optical axis reference of the rider.

第3の発明によれば、光軸異常判定部による判定処理が可能になる。従って、自車両のドライバーに注意喚起することが可能になる。 According to the third invention, the determination process by the optical axis abnormality determination unit becomes possible. Therefore, it is possible to call attention to the driver of the own vehicle.

本発明の実施の形態1に係る物体認識装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object recognition apparatus which concerns on Embodiment 1 of this invention. ライダーによる立体物の検出手法の概要を説明する図である。It is a figure explaining the outline of the detection method of a three-dimensional object by a rider. 光軸基準補正部によるずれ角θgapの算出手法を説明する図である。It is a figure explaining the calculation method of the deviation angle θgap by the optical axis reference correction part. 本発明の実施の形態2に係る物体認識装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object recognition apparatus which concerns on Embodiment 2 of this invention.

以下、図面を参照して本発明の実施の形態について説明する。ただし、以下に示す実施の形態において各要素の個数、数量、量、範囲等の数に言及した場合、特に明示した場合や原理的に明らかにその数に特定される場合を除いて、その言及した数に、この発明が限定されるものではない。また、以下に示す実施の形態において説明する構造やステップ等は、特に明示した場合や明らかに原理的にそれに特定される場合を除いて、この発明に必ずしも必須のものではない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, when the number, quantity, quantity, range, etc. of each element is referred to in the embodiment shown below, the reference is made unless otherwise specified or clearly specified by the number in principle. The invention is not limited to these numbers. In addition, the structures, steps, and the like described in the embodiments shown below are not necessarily essential to the present invention, except when explicitly stated or clearly specified in principle.

実施の形態1.
1.物体認識装置の構成
図1は、本発明の実施の形態1に係る物体認識装置の構成を示すブロック図である。図1に示す物体認識装置1は、車両に搭載されて、当該車両の前方、側方および後方に存在する立体物を認識するものである。認識対象である立体物は、例えば、歩行者、自転車、自動車などの移動物、および、樹木、電柱、建物、道路構造物などの固定物である。道路構造物には、例えば、ガードレール、道路看板、道路標識が含まれる。本明細書において、この物体認識装置1が搭載された車両を「自車両A」ともいう。
Embodiment 1.
1. 1. Configuration of Object Recognition Device FIG. 1 is a block diagram showing a configuration of an object recognition device according to the first embodiment of the present invention. The object recognition device 1 shown in FIG. 1 is mounted on a vehicle and recognizes three-dimensional objects existing in front, side, and rear of the vehicle. The three-dimensional object to be recognized is, for example, a moving object such as a pedestrian, a bicycle, or an automobile, and a fixed object such as a tree, a utility pole, a building, or a road structure. Road structures include, for example, guardrails, road signs, road signs. In the present specification, the vehicle equipped with the object recognition device 1 is also referred to as "own vehicle A".

図1に示すように、物体認識装置1は、カメラ10、ライダー11、GPS(Global Positioning System)機器12、速度センサ13、ジャイロセンサ14、地図データベース15、およびECU(Electric Control Unit)20を備えている。 As shown in FIG. 1, the object recognition device 1 includes a camera 10, a rider 11, a GPS (Global Positioning System) device 12, a speed sensor 13, a gyro sensor 14, a map database 15, and an ECU (Electric Control Unit) 20. ing.

カメラ10は、自車両Aの外部状況を撮像する機器である。カメラ10は、例えば、自車両Aのフロントガラスの裏側に設けられている。カメラ10は、単眼カメラであってもよく、ステレオカメラであってもよい。ステレオカメラは、例えば、両眼視差を再現するように配置された二つの撮像部を有している。ステレオカメラの撮像情報には、奥行き方向の情報も含まれている。カメラ10は、自車両Aの外部状況に関する撮像情報をECU20に送信する。 The camera 10 is a device that captures an external situation of the own vehicle A. The camera 10 is provided, for example, on the back side of the windshield of the own vehicle A. The camera 10 may be a monocular camera or a stereo camera. A stereo camera has, for example, two imaging units arranged to reproduce binocular parallax. The imaging information of the stereo camera also includes information in the depth direction. The camera 10 transmits the imaging information regarding the external situation of the own vehicle A to the ECU 20.

ライダー11は、自車両Aの周囲の立体物を検出する機器である。ライダー11は、自車両Aの周囲にパルス状に発光するレーザーを照射し、立体物からの反射レーザー光を受信することで反射点までの距離を計測し、これにより自車両Aの周囲の立体物を検出する。ライダー11は、例えば、レーザー制御器と、レーザー発振器と、光学系経路と、受光センサと、を備えている。レーザー制御器がレーザー発振器を稼働させると、光学系経路からレーザー光が送出される。受光センサは、光学系経路を介して受信した反射レーザー光を信号化する。ライダー11は、自車両Aの位置(より詳細には、ライダー11の搭載位置。以下同じ。)から立体物の位置までの距離、同位置を基準とした立体物の方位(即ち、相対方位)、および、立体物の外形(例えば、高さ、幅)を、立体物情報として出力する。ライダー11は、検出した立体物情報をECU20に送信する。 The rider 11 is a device that detects a three-dimensional object around the own vehicle A. The rider 11 irradiates the surroundings of the own vehicle A with a laser that emits a pulse of light, and measures the distance to the reflection point by receiving the reflected laser light from the three-dimensional object, thereby measuring the three-dimensional shape around the own vehicle A. Detect an object. The lidar 11 includes, for example, a laser controller, a laser oscillator, an optical system path, and a light receiving sensor. When the laser controller operates the laser oscillator, laser light is transmitted from the optical system path. The light receiving sensor signals the reflected laser light received via the optical system path. The rider 11 is the distance from the position of the own vehicle A (more specifically, the mounting position of the rider 11; the same applies hereinafter) to the position of the three-dimensional object, and the orientation of the three-dimensional object based on the same position (that is, the relative orientation). , And the outer shape (for example, height, width) of the three-dimensional object is output as the three-dimensional object information. The rider 11 transmits the detected three-dimensional object information to the ECU 20.

図2は、ライダー11による立体物の検出手法の概要を説明する図である。図2には、ライダー11が前方に搭載された自車両Aと、道路看板Bと、道路標識Cとが描かれている。ライダー11から90°以上の広角に照射されたレーザー光は、道路看板Bや道路標識Cで反射する。レーザー光の送出から、反射レーザー光の受光までの時間を計測することで、自車両Aの位置から道路看板Bの位置までの距離dAB、および、自車両Aの位置から道路標識Cの位置までの距離dACが算出される。また、反射レーザー光が受光されるときの光軸基準(レーザー光の照射範囲の中央線をいう。以下同じ。)に対するレーザー光の送出角度θABliderを計測することで道路看板Bの相対方位が算出される。つまり、道路看板Bを検出したときのレーザー光の送出角度θABliderを計測することで道路看板Bの相対方位が算出される。道路看板Bの相対方位と同様、反射レーザー光が受光されるときの光軸基準に対するレーザー光の送出角度θACliderを計測することで道路標識Cの相対方位が算出される。 FIG. 2 is a diagram illustrating an outline of a method for detecting a three-dimensional object by the rider 11. In FIG. 2, the own vehicle A on which the rider 11 is mounted in front, the road sign B, and the road sign C are drawn. The laser beam emitted from the rider 11 at a wide angle of 90 ° or more is reflected by the road sign B or the road sign C. By measuring the time from the transmission of the laser light to the reception of the reflected laser light, the distance dAB from the position of the own vehicle A to the position of the road signboard B and the position of the own vehicle A to the position of the road sign C Distance dAC is calculated. Further, the relative orientation of the road sign B is calculated by measuring the transmission angle θABlider of the laser light with respect to the optical axis reference (the center line of the irradiation range of the laser light; the same applies hereinafter) when the reflected laser light is received. Will be done. That is, the relative direction of the road signboard B is calculated by measuring the transmission angle θABlider of the laser beam when the road signboard B is detected. Similar to the relative direction of the road sign B, the relative direction of the road sign C is calculated by measuring the transmission angle θAC lider of the laser light with respect to the optical axis reference when the reflected laser light is received.

GPS機器12は、3個以上のGPS衛星からの信号を受信することにより、自車両Aの現在位置(例えば、自車両Aの緯度および経度)を測定する。GPS機器12は、測定した自車両Aの現在位置情報をECU20に送信する。 The GPS device 12 measures the current position of the own vehicle A (for example, the latitude and longitude of the own vehicle A) by receiving signals from three or more GPS satellites. The GPS device 12 transmits the measured current position information of the own vehicle A to the ECU 20.

速度センサ13は、自車両Aの走行速度を検出する機器である。速度センサ13としては、例えば、自車両Aの車輪、または、当該車輪と一体に回転するドライブシャフト等に設けられ、当該車輪の回転速度を検出する車輪速センサが用いられる。速度センサ13は、自車両Aの走行速度情報をECU20に送信する。 The speed sensor 13 is a device that detects the traveling speed of the own vehicle A. As the speed sensor 13, for example, a wheel speed sensor provided on a wheel of the own vehicle A, a drive shaft that rotates integrally with the wheel, or the like and detecting the rotation speed of the wheel is used. The speed sensor 13 transmits the traveling speed information of the own vehicle A to the ECU 20.

ジャイロセンサ14は、自車両Aの方向転換に伴う角速度(具体的には、ヨーレート)を検出するための2軸ジャイロセンサである。ジャイロセンサ14は、検出したヨーレート情報をECU20に送信する。ヨーレート情報は、GPS衛星からの電波をGPS機器12が受信できないときに自車両Aの現在位置測定に用いられる。なお、GPS衛星からの電波をGPS機器12が受信できないときの自車両Aの現在位置測定は、ヨーレート情報と、速度センサ13からの走行速度情報と、に基づいて行われる。 The gyro sensor 14 is a two-axis gyro sensor for detecting the angular velocity (specifically, the yaw rate) accompanying the change of direction of the own vehicle A. The gyro sensor 14 transmits the detected yaw rate information to the ECU 20. The yaw rate information is used for measuring the current position of the own vehicle A when the GPS device 12 cannot receive the radio waves from the GPS satellites. The current position measurement of the own vehicle A when the GPS device 12 cannot receive the radio waves from the GPS satellites is performed based on the yaw rate information and the traveling speed information from the speed sensor 13.

地図データベース15は、高精度地図情報を備えるデータベースである。地図データベース15は、例えば、自車両Aに搭載されたHDD(Hard Disk Drive)内に形成されている。高精度地図情報には、例えば、道路の位置情報、道路形状の情報(例えば、カーブ、直線の種別、カーブの曲率等)、交差点および分岐点の位置情報が含まれる。高精度地図情報には、また、建物、道路構造物等の固定物の位置情報(例えば、緯度および経度)に関する情報が含まれる。高精度地図情報には、更に、道路や道路構造物の標示情報(例えば、制限速度、行き先、一時停止)、この標示情報の更新日、道路や道路構造物のスタイル情報(例えば、色、高さ、幅)も含まれる。 The map database 15 is a database provided with high-precision map information. The map database 15 is formed in, for example, an HDD (Hard Disk Drive) mounted on the own vehicle A. High-precision map information includes, for example, road position information, road shape information (for example, curve, straight line type, curve curvature, etc.), and position information of intersections and branch points. High-precision map information also includes information regarding location information (eg, latitude and longitude) of fixed objects such as buildings and road structures. High-precision map information also includes marking information for roads and road structures (eg, speed limit, destination, stop), update date of this marking information, style information for roads and road structures (eg, color, high). The width) is also included.

ECU20は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、CAN(Controller Area Network)通信回路等を有する制御ユニットである。ECU20では、例えば、ROMに記憶されているプログラムをRAMにロードし、RAMにロードされたプログラムをCPUで実行することにより各種の機能を実現する。ECU20は、複数の電子制御ユニットから構成されていてもよい。 The ECU 20 is a control unit having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a CAN (Controller Area Network) communication circuit, and the like. In the ECU 20, for example, various functions are realized by loading the program stored in the ROM into the RAM and executing the program loaded in the RAM in the CPU. The ECU 20 may be composed of a plurality of electronic control units.

2.ECU20の構成
次に、ECU20の機能的構成について説明する。図1に示すように、ECU20は、車両位置推定部21と、方位角θazimuth推定部22と、固定物位置特定部23と、光軸基準補正部24と、を備えている。
2. 2. Configuration of ECU 20 Next, the functional configuration of ECU 20 will be described. As shown in FIG. 1, the ECU 20 includes a vehicle position estimation unit 21, an azimuth angle θazimuth estimation unit 22, a fixed object position identification unit 23, and an optical axis reference correction unit 24.

車両位置推定部21は、GPS機器12が測定した自車両Aの現在位置情報と、地図データベース15からの高精度地図情報と、に基づいて、高精度地図上での自車両Aの現在位置(xAmap,yAmap)を推定する。GPS衛星からの電波をGPS機器12が受信できない場合、車両位置推定部21は、ジャイロセンサ14から取得したヨーレート情報と、速度センサ13から取得した走行速度情報と、地図データベース15からの高精度地図情報と、に基づいて、現在位置(xAmap,yAmap)を推定する。 The vehicle position estimation unit 21 is based on the current position information of the own vehicle A measured by the GPS device 12 and the high-precision map information from the map database 15, and the current position of the own vehicle A on the high-precision map ( xAmap, yAmap) is estimated. When the GPS device 12 cannot receive the radio waves from the GPS satellites, the vehicle position estimation unit 21 determines the yaw rate information acquired from the gyro sensor 14, the traveling speed information acquired from the speed sensor 13, and a high-precision map from the map database 15. The current position (xAmap, yAmap) is estimated based on the information.

方位角θazimuth推定部22は、方位角θazimuthを推定する。方位角θazimuthの推定処理は、例えば、次のように行われる。先ず、カメラ10からの撮像情報が解析され、撮影画像中の任意の固定物の特徴が認識される。続いて、認識した固定物の特徴と、地図データベース15の高精度地図情報と、のマッチング処理が行われる。このマッチング処理では、認識した固定物の位置情報が高精度地図情報内から検索される。そして、位置情報が高精度地図情報内に存在する場合、この位置情報と、現在位置(xAmap,yAmap)と、に基づいて、自車両Aの前部が向いている方位(東、西、南、および北)の何れかが基準方位に設定される。方位角θazimuthは、このようにして設定した基準方位と、自車両Aの前後軸のなす角度として算出される。 The azimuth θazimuth estimation unit 22 estimates the azimuth θazimuth. The estimation process of the azimuth angle θazimuth is performed, for example, as follows. First, the image pickup information from the camera 10 is analyzed, and the characteristics of an arbitrary fixed object in the captured image are recognized. Subsequently, matching processing is performed between the recognized feature of the fixed object and the high-precision map information of the map database 15. In this matching process, the position information of the recognized fixed object is searched from the high-precision map information. Then, when the position information exists in the high-precision map information, the direction (east, west, south) toward which the front part of the own vehicle A is facing is based on this position information and the current position (xAmap, yAmap). , And north) are set as the reference orientation. The azimuth θazimuth is calculated as the angle formed by the reference azimuth set in this way and the front-rear axis of the own vehicle A.

固定物位置特定部23は、ライダー11が検出した固定物(以下、「検出固定物D」ともいう。)の位置(xDlider,yDlider)と、検出固定物Dの高精度地図上での位置(xDmap,yDmap)と、を特定する。位置(xDlider,yDlider)は、現在位置(xAmap,yAmap)と、ライダー11からの立体物情報と、に基づいて特定される。位置(xDmap,yDmap)の特定処理は、例えば、次のように行われる。先ず、高精度地図情報に含まれる道路構造物のスタイル情報と、検出固定物Dとのマッチング処理が行われる。このマッチング処理では、道路構造物のスタイル情報と、検出固定物Dの外形と、が照合され、道路構造物の候補Eが抽出される。候補Eは、例えば、検出固定物Dの外形に最も近い道路構造物である。候補Eが抽出された場合、候補Eの高精度地図上での位置(xEmap,yEmap)と、位置(xDlider,yDlider)との間の距離dDEが算出される。そして、距離dDEが所定距離dTH以下の場合、候補Eと検出固定物Dが同一物であると判定され、位置(xEmap,yEmap)が位置(xDmap,yDmap)として特定される。 The fixed object position specifying unit 23 includes the position (xDlider, yDlider) of the fixed object (hereinafter, also referred to as “detection fixed object D”) detected by the rider 11 and the position (xDlider, yDlider) of the detected fixed object D on the high-precision map. xDmap, yDmap) and. The position (xDlider, yDlider) is specified based on the current position (xAmap, yAmap) and the three-dimensional object information from the rider 11. The process of specifying the position (xDmap, yDmap) is performed, for example, as follows. First, matching processing is performed between the style information of the road structure included in the high-precision map information and the detected fixed object D. In this matching process, the style information of the road structure and the outer shape of the detected fixed object D are collated, and the candidate E of the road structure is extracted. Candidate E is, for example, a road structure closest to the outer shape of the detection fixed object D. When the candidate E is extracted, the distance dDE between the position (xEmap, yEmap) of the candidate E on the high-precision map and the position (xDlider, yDlider) is calculated. When the distance dDE is equal to or less than the predetermined distance dTH, it is determined that the candidate E and the detected fixed object D are the same, and the position (xEmap, yEmap) is specified as the position (xDmap, yDmap).

なお、距離dDEが所定距離dTHよりも大きい場合、道路構造物の他の候補Fの高精度地図上での位置(xFmap,yFmap)と、位置(xDlider,yDlider)との間の距離dDFに基づいた判定が行われる。他の候補Fは、例えば、検出固定物Dの外形に二番目に近い道路構造物である。距離dDFが所定距離dTHよりも大きい場合、ライダー11が検出した別の固定物に対して、上述したマッチング処理が行われる。他の候補Fが抽出されない場合、または、道路構造物の候補Eがそもそも抽出されない場合も、ライダー11が検出した別の固定物に対して、上述したマッチング処理が行われる。 When the distance dDE is larger than the predetermined distance dTH, it is based on the distance dDF between the position (xFmap, yFmap) of another candidate F of the road structure on the high-precision map and the position (xDlider, yDlider). Judgment is made. The other candidate F is, for example, a road structure second closest to the outer shape of the detection fixed object D. When the distance dDF is larger than the predetermined distance dTH, the matching process described above is performed on another fixed object detected by the rider 11. Even when the other candidate F is not extracted, or when the candidate E of the road structure is not extracted in the first place, the matching process described above is performed on another fixed object detected by the rider 11.

位置(xDmap,yDmap)の特定処理では、複数の検出固定物Dと、高精度地図情報に含まれる複数の道路構造物とのマッチング処理が並行して行われてもよい。このマッチング処理では、先ず、複数の検出固定物Dから、道路構造物に該当するものの抽出が行われる。続いて、抽出された複数の検出固定物D(検出固定物D1,D2,・・・)の間の相対的な位置関係と、検出固定物D1,D2,・・・に対応する道路構造物の高精度地図上の相対的な位置関係と、が照合される。そして、相対的な位置関係が一致した場合に、検出固定物D1,D2,・・・対応する道路構造物の高精度地図上での位置(xD1map,yD1map),位置(xD2map,yD2map),・・・が特定される。 In the position (xDmap, yDmap) specifying process, the matching process of the plurality of detected fixed objects D and the plurality of road structures included in the high-precision map information may be performed in parallel. In this matching process, first, the one corresponding to the road structure is extracted from the plurality of detected fixed objects D. Subsequently, the relative positional relationship between the extracted plurality of detected fixed objects D (detected fixed objects D1, D2, ...) And the road structure corresponding to the detected fixed objects D1, D2, ... Is collated with the relative positional relationship on the high-precision map of. Then, when the relative positional relationships match, the detected fixed objects D1, D2, ... The positions (xD1map, yD1map), the positions (xD2map, yD2map), ... Of the corresponding road structures on the high-precision map.・ ・ Is specified.

単一の検出固定物Dに基づくマッチング処理の場合は、上述した同一物判定の結果を短時間で得ることができるメリットがある一方で、次のデメリットがある。即ち、ライダー11の光軸基準が所望の方向から大きくずれている場合に、上述した距離dDEが大きくなり、所定距離dTHに基づく判定が完了しない可能性がある。この点、複数の検出固定物Dに基づくマッチング処理によれば、光軸基準のずれが大きい場合であっても、検出固定物D1,D2,・・・の高精度地図上での位置位置(xD1map,yD1map),位置(xD2map,yD2map),・・・を特定することが可能になる。但し、相対的な位置関係を求めるための検出固定物D1,D2,・・・のサンプル総数を多くするとマッチング処理の完了に時間を要することから、サンプル総数は少数(具体的には、2または3)とすることが望ましい。 In the case of the matching process based on the single detected fixed object D, there is an advantage that the result of the same object determination described above can be obtained in a short time, but there are the following disadvantages. That is, when the optical axis reference of the rider 11 deviates significantly from the desired direction, the above-mentioned distance dDE may become large and the determination based on the predetermined distance dTH may not be completed. In this regard, according to the matching process based on the plurality of detected and fixed objects D, the positions and positions of the detected and fixed objects D1, D2, ... On the high-precision map even when the deviation of the optical axis reference is large ( xD1map, yD1map), position (xD2map, yD2map), ... Can be specified. However, if the total number of samples of the detected fixed objects D1, D2, ... To obtain the relative positional relationship is increased, it takes time to complete the matching process, so the total number of samples is small (specifically, 2 or 2 or It is desirable to set it to 3).

なお、位置(xDmap,yDmap)の特定処理では、自車両Aの位置からの距離が近距離〜中距離の検出固定物Dに限定して上述した所定距離dTHに基づくマッチング処理が行われてもよい。自車両Aの位置から検出固定物Dまでの距離dADが短くなるほど、上述した距離dDEが長くなる。そのため、距離dADが短い場合において、検出固定物Dの外形に最も近い候補Eと検出固定物Dの間の距離(即ち、距離dDE)が所定距離dTH以下であるということは、候補Eと検出固定物Dが同一物である可能性が極めて高いことを意味する。また、このような限定条件を、上述した複数の検出固定物D1,D2,・・・に基づくマッチング処理と組み合わせてもよい。 In the position (xDmap, yDmap) identification process, even if the matching process based on the predetermined distance dTH described above is performed only for the detection fixed object D whose distance from the position of the own vehicle A is short to medium distance. Good. The shorter the distance dAD from the position of the own vehicle A to the detected fixed object D, the longer the above-mentioned distance dDE. Therefore, when the distance dAD is short, the fact that the distance (that is, the distance dDE) between the candidate E closest to the outer shape of the detected fixed object D and the detected fixed object D is equal to or less than the predetermined distance dTH means that the candidate E and the detection are detected. It means that the fixed object D is very likely to be the same object. Further, such a limiting condition may be combined with the matching process based on the plurality of detected fixed objects D1, D2, ...

光軸基準補正部24は、現在位置(xAmap,yAmap)と、方位角θazimuthと、位置(xDmap,yDmap)と、送出角度θADliderと、に基づいて、ライダー11の光軸基準の所望の方向からのずれ角θgapを算出し、光軸基準を補正する。図3は、光軸基準補正部24によるずれ角θgapの算出手法を説明する図である。図3に示す例では、xy座標平面の原点に現在位置(xAmap,yAmap)を設定し、このxy座標平面のy軸に基準方位を合わせる。送出角度θADliderは、現在位置(xAmap,yAmap)および位置(xDlider,yDlider)を通る線分VSVDliderと、光軸基準とのなす角である。現在位置(xAmap,yAmap)および位置(xDmap,yDmap)を通る線分VSVDmapと、y軸(即ち、基準方位)とのなす角度θmapは、高精度地図上での検出固定物Dの方位角と言うことができる。角度θmapは、例えばベクトルの内積の定義を用いて算出することができる。 The optical axis reference correction unit 24 starts from a desired direction of the optical axis reference of the rider 11 based on the current position (xAmap, yAmap), the azimuth angle θazimuth, the position (xDmap, yDmap), and the transmission angle θADlider. The deviation angle θgap is calculated and the optical axis reference is corrected. FIG. 3 is a diagram illustrating a method of calculating the deviation angle θgap by the optical axis reference correction unit 24. In the example shown in FIG. 3, the current position (xAmap, yAmap) is set at the origin of the xy coordinate plane, and the reference direction is aligned with the y axis of the xy coordinate plane. The delivery angle θADlider is an angle formed by the line segment VSVDlider passing through the current position (xAmap, yAmap) and the position (xDlider, yDlider) and the optical axis reference. The angle θmap formed by the line segment VSVDmap passing through the current position (xAmap, yAmap) and the position (xDmap, yDmap) and the y-axis (that is, the reference orientation) is the azimuth angle of the detected fixed object D on the high-precision map. I can say. The angle θmap can be calculated using, for example, the definition of the inner product of vectors.

図3から分かるように、方位角θazimuth、送出角度θADlider、角度θmapおよびずれ角θgapの間には、式(1)の関係が成立する。
θmap+θazimuth=θADlider+θgap ・・・(1)
式(1)を変形すると、ずれ角θgapは、式(2)で表すことができる。
θgap=θmap+θazimuth−θADlider ・・・(2)
As can be seen from FIG. 3, the relationship of the equation (1) is established between the azimuth angle θazimuth, the delivery angle θADlider, the angle θmap, and the deviation angle θgap.
θmap + θazimuth = θADlider + θgap ・ ・ ・ (1)
By transforming the equation (1), the deviation angle θgap can be expressed by the equation (2).
θgap = θmap + θazimuth−θADlider ・ ・ ・ (2)

図3では光軸基準が基準方位よりも左側に位置しており、位置(xDmap,yDmap)は位置(xDlider,yDlider)よりも右側に位置している。これらの位置関係を考慮して場合分けすると、ずれ角θgapは、式(3)で表すことができる。
θgap=θmap+θazimuth−θADlider (θazimuth<0、xDmap>xDlider)
θgap=θADlider−(θazimuth+θmap) (θazimuth<0、xDlider>xDmap)
θgap=θmap−(θazimuth+θADlider) (θazimuth>0、xDmap>xDlider)
θgap=θADlider+θazimuth−θmap (θazimuth>0、xDlider>xDmap)
・・・(3)
In FIG. 3, the optical axis reference is located on the left side of the reference direction, and the position (xDmap, yDmap) is located on the right side of the position (xDlider, yDlider). The deviation angle θgap can be expressed by the equation (3) when the cases are classified in consideration of these positional relationships.
θgap = θmap + θazimuth−θADlider (θazimuth <0, xDmap> xDlider)
θgap = θADlider− (θazimuth + θmap) (θazimuth <0, xDlider> xDmap)
θgap = θmap− (θazimuth + θADlider) (θazimuth> 0, xDmap> xDlider)
θgap = θADlider + θazimuth−θmap (θazimuth> 0, xDlider> xDmap)
... (3)

光軸基準補正部24は、このようにして算出されたずれ角θgapを用いて、光軸基準を補正する。補正前後の光軸基準は、式(4)で表される。
補正後の光軸基準=補正前の光軸基準−ずれ角θgap ・・・(4)
The optical axis reference correction unit 24 corrects the optical axis reference by using the deviation angle θgap calculated in this way. The optical axis reference before and after the correction is represented by the equation (4).
Optical axis reference after correction = Optical axis reference before correction-Deviation angle θgap ・ ・ ・ (4)

光軸基準補正部24による処理以外の処理、即ち、車両位置推定部21による現在位置(xAmap,yAmap)の推定処理、方位角θazimuth推定部22による方位角θazimuthの推定処理、および、固定物位置特定部23による位置(xDmap,yDmap)の特定処理は、自車両Aの停止中に行われることが好ましい。本明細書において、「自車両Aの停止中」とは、厳密には自車両Aの走行速度がゼロである間を意味するが、極低速(たとえば、走行速度が5km/h以下)で走行している間も「自車両Aの停止中」に含む。 Processing other than the processing by the optical axis reference correction unit 24, that is, the estimation processing of the current position (xAmap, yAmap) by the vehicle position estimation unit 21, the estimation processing of the azimuth angle θazimuth by the azimuth angle θazimuth estimation unit 22, and the fixed object position. It is preferable that the position (xDmap, yDmap) identification process by the identification unit 23 is performed while the own vehicle A is stopped. In the present specification, "the own vehicle A is stopped" means, strictly speaking, while the traveling speed of the own vehicle A is zero, but it travels at an extremely low speed (for example, the traveling speed is 5 km / h or less). It is also included in "the own vehicle A is stopped" while it is being used.

方位角θazimuthの推定処理、および、位置(xDmap,yDmap)の特定処理では、マッチング処理を行う必要がある。これらのマッチング処理では、カメラ10からの撮像情報やライダー11からの立体物情報の精度が重要である。そのため、自車両Aが停止中にこれらのマッチング処理と、これらのマッチング処理と並行して行われる現在位置(xAmap,yAmap)の推定処理と、を自車両Aの停止中を行うことで、方位角θazimuthの推定精度や位置(xDmap,yDmap)の特定精度を高め、ひいては光軸基準の補正の精度を高めることができる。なお、自車両Aが停止中であるか否かは、速度センサ13からの走行速度情報に基づいて判定される。 In the estimation process of the azimuth angle θazimuth and the identification process of the position (xDmap, yDmap), it is necessary to perform the matching process. In these matching processes, the accuracy of the image pickup information from the camera 10 and the three-dimensional object information from the rider 11 is important. Therefore, by performing these matching processes while the own vehicle A is stopped and the estimation process of the current position (xAmap, yAmap) performed in parallel with these matching processes while the own vehicle A is stopped, the azimuth It is possible to improve the estimation accuracy of the angle θazimuth and the identification accuracy of the position (xDmap, yDmap), and thus the accuracy of the correction of the optical axis reference. Whether or not the own vehicle A is stopped is determined based on the traveling speed information from the speed sensor 13.

3.実施の形態1に係る物体認識装置の効果
以上説明した実施の形態1に係る物体認識装置によれば、方位角θazimuthの推定に際して行われるマッチング処理が、高精度地図情報に含まれる固定物の位置情報を利用して行われる。また、位置(xDmap,yDmap)の特定に際して行われるマッチング処理が、高精度地図情報に含まれる道路構造物のスタイル情報および位置情報を利用して行われる。そのため、これらのマッチング処理に要する時間を格段に短くすることが可能となる。従って、自車両Aと検出固定物Dの相対位置や相対速度に基づく確からしさに基づいて光軸補正を行う場合よりも短い時間で、ライダー11の光軸基準の補正を完了させることが可能になる。
3. 3. Effect of the object recognition device according to the first embodiment According to the object recognition device according to the first embodiment described above, the matching process performed when estimating the azimuth angle θazimuth is the position of the fixed object included in the high-precision map information. It is done using information. Further, the matching process performed when specifying the position (xDmap, yDmap) is performed by using the style information and the position information of the road structure included in the high-precision map information. Therefore, the time required for these matching processes can be remarkably shortened. Therefore, it is possible to complete the correction of the optical axis reference of the rider 11 in a shorter time than when the optical axis correction is performed based on the certainty based on the relative position and the relative speed of the own vehicle A and the detected fixed object D. Become.

実施の形態2.
1.実施の形態2の特徴
本発明の実施の形態2に係る物体認識装置は、ECUの機能的構成において上記実施の形態1に係る物体認識装置と異なる。従って、以下においては、この相違点を中心に説明する。
Embodiment 2.
1. 1. Features of the second embodiment The object recognition device according to the second embodiment of the present invention is different from the object recognition device according to the first embodiment in the functional configuration of the ECU. Therefore, in the following, this difference will be mainly described.

2.ECU20の構成
図4を参照して、実施の形態2に係る物体認識装置2が備えるECU20の機能的構成について説明する。図4に示すECU20は、車両位置推定部21と、方位角θazimuth推定部22と、固定物位置特定部23と、光軸基準補正部24と、光軸異常判定部25と、を備えている。光軸異常判定部25以外の構成については、上記実施の形態1で説明した通りである。
2. 2. Configuration of ECU 20 The functional configuration of the ECU 20 included in the object recognition device 2 according to the second embodiment will be described with reference to FIG. The ECU 20 shown in FIG. 4 includes a vehicle position estimation unit 21, an azimuth angle θazimuth estimation unit 22, a fixed object position identification unit 23, an optical axis reference correction unit 24, and an optical axis abnormality determination unit 25. .. The configuration other than the optical axis abnormality determination unit 25 is as described in the first embodiment.

光軸異常判定部25は、上記式(4)に基づいて算出された補正後の光軸基準と、光軸基準の初期角度との角度差が所定角度(例えば、10°)以上の場合に、ライダー11の光軸基準に異常が発生していると判定する。光軸基準に異常が発生していると判定した場合、光軸異常判定部25は、図示しない警報ECUに異常発生信号を送信する。 The optical axis abnormality determination unit 25 is used when the angle difference between the corrected optical axis reference calculated based on the above equation (4) and the initial angle of the optical axis reference is a predetermined angle (for example, 10 °) or more. , It is determined that an abnormality has occurred in the optical axis reference of the rider 11. When it is determined that an abnormality has occurred in the optical axis reference, the optical axis abnormality determination unit 25 transmits an abnormality occurrence signal to an alarm ECU (not shown).

警報ECUは、HMI(Human Machine Interface)(例えば、ブザー、スピーカ等の音声出力手段、HUD(Head Up Display)、ナビゲーションシステムのディスプレイ、コンビネーションメータ等の表示手段)に接続されている。警報ECUは、異常発生信号に従って音声出力手段から警告音声を出力し、または、表示手段に警告メッセージ、警告ランプ等を表示して支援制御の作動状況を自車両Aのドライバーに知らせる。 The alarm ECU is connected to an HMI (Human Machine Interface) (for example, an audio output means such as a buzzer or a speaker, a HUD (Head Up Display), a display of a navigation system, a display means such as a combination meter). The alarm ECU outputs a warning voice from the voice output means according to the abnormality occurrence signal, or displays a warning message, a warning lamp, or the like on the display means to notify the driver of the own vehicle A of the operation status of the support control.

3.実施の形態2に係る物体認識装置の効果
以上説明した実施の形態2に係る物体認識装置によれば、上記式(4)に基づいて算出された補正後の光軸基準と、光軸基準の初期角度との角度差が所定角度(例えば、10°)以上の場合に、警報ECUに異常発生信号が送信される。従って、自車両Aのドライバーに注意喚起することができる。
3. 3. Effect of Object Recognition Device According to Embodiment 2 According to the object recognition device according to Embodiment 2 described above, the corrected optical axis reference calculated based on the above equation (4) and the optical axis reference When the angle difference from the initial angle is a predetermined angle (for example, 10 °) or more, an abnormality occurrence signal is transmitted to the alarm ECU. Therefore, the driver of the own vehicle A can be alerted.

1,2 物体認識装置
10 カメラ
11 ライダー
15 地図データベース
20 ECU
21 車両位置推定部
22 方位角θazimuth推定部
23 固定物位置特定部
24 光軸基準補正部
25 光軸異常判定部
A 自車両
B 道路看板
C 道路標識
D 検出固定物
VSVDlider,VSVDmap 線分
θABlider,θAClider,θADlider 送出角度
θazimuth 方位角
θgap ずれ角
1, 2, Object recognition device 10 Camera 11 Rider 15 Map database 20 ECU
21 Vehicle position estimation unit 22 Azimuth angle θazimuth estimation unit 23 Fixed object position identification unit 24 Optical axis reference correction unit 25 Optical axis abnormality judgment unit A Own vehicle B Road sign C Road sign D Detection fixed object VSVDlider, VSVDmap Line segment θABlider, θAClider , ΘAD lider delivery angle θazimuth azimuth θgap deviation angle

Claims (3)

自車両の外部状況を撮像するカメラと、
前記自車両の周囲の立体物を検出するライダーと、
地図情報、および、地図上の固定物の位置情報およびスタイル情報を少なくとも記憶する地図データベースと、
前記自車両の地図上の位置を推定する処理を行う車両位置推定部と、
前記カメラからの撮像情報と、前記位置情報と、を用いて、前記自車両の前後軸が基準方位となす角度を方位角として推定する処理を行う方位角推定部と、
前記ライダーが検出した固定物情報と、前記スタイル情報と、前記位置情報と、を用いて、前記ライダーが検出した固定物の地図上の位置を特定する処理を行う固定物位置特定部と、
前記自車両の地図上の位置と、前記方位角と、前記固定物の地図上の位置と、前記ライダーが前記固定物を検出したときの光軸基準に対するレーザー光の送出角度と、を用いて、前記光軸基準を補正する処理を行う光軸基準補正部と、
を備えることを特徴とする物体認識装置。
A camera that captures the external situation of your vehicle,
The rider who detects the three-dimensional object around the own vehicle and
A map database that stores at least map information and location and style information of fixed objects on the map,
A vehicle position estimation unit that performs processing for estimating the position of the own vehicle on the map, and
An azimuth angle estimation unit that performs a process of estimating an angle formed by the front-rear axis of the own vehicle as a reference direction using the image pickup information from the camera and the position information.
A fixed object position specifying unit that performs a process of specifying a position on a map of a fixed object detected by the rider by using the fixed object information detected by the rider, the style information, and the position information.
Using the position on the map of the own vehicle, the azimuth, the position on the map of the fixed object, and the transmission angle of the laser beam with respect to the optical axis reference when the rider detects the fixed object. , An optical axis reference correction unit that performs processing to correct the optical axis reference,
An object recognition device characterized by comprising.
前記車両位置推定部による推定処理、前記方位角推定部による推定処理、および、前記固定物位置特定部による特定処理が、少なくとも前記自車両の停止中に行われることを特徴とする請求項1に記載の物体認識装置。 The first aspect of the present invention is that the estimation process by the vehicle position estimation unit, the estimation process by the azimuth angle estimation unit, and the identification process by the fixed object position identification unit are performed at least while the own vehicle is stopped. The object recognition device described. 前記光軸基準補正部による補正処理後の前記光軸基準と、前記光軸基準の初期角度の角度差が所定角度以上の場合に、前記光軸基準に異常が発生していると判定する光軸異常判定部を更に備えることを特徴とする請求項1または2に記載の物体認識装置。 Light that determines that an abnormality has occurred in the optical axis reference when the angle difference between the optical axis reference after the correction process by the optical axis reference correction unit and the initial angle of the optical axis reference is equal to or greater than a predetermined angle. The object recognition device according to claim 1 or 2, further comprising an axis abnormality determination unit.
JP2017214671A 2017-11-07 2017-11-07 Object recognition device Active JP6834914B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017214671A JP6834914B2 (en) 2017-11-07 2017-11-07 Object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017214671A JP6834914B2 (en) 2017-11-07 2017-11-07 Object recognition device

Publications (2)

Publication Number Publication Date
JP2019086393A JP2019086393A (en) 2019-06-06
JP6834914B2 true JP6834914B2 (en) 2021-02-24

Family

ID=66764095

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017214671A Active JP6834914B2 (en) 2017-11-07 2017-11-07 Object recognition device

Country Status (1)

Country Link
JP (1) JP6834914B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7103324B2 (en) * 2019-09-10 2022-07-20 株式会社デンソー Anomaly detection device for object recognition and anomaly detection program for object recognition
JP7439434B2 (en) 2019-09-30 2024-02-28 株式会社デンソー Lidar tilt detection device installed on a vehicle and method for detecting lidar tilt installed on a vehicle
JP7209918B2 (en) * 2020-12-18 2023-01-20 三菱電機株式会社 Correction data generation device, correction data generation method, and correction data generation program
CN116392369B (en) * 2023-06-08 2023-09-08 中国电建集团昆明勘测设计研究院有限公司 Identification induction method, device, equipment and storage medium based on blind sidewalk

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5146716B2 (en) * 2007-03-01 2013-02-20 マツダ株式会社 Obstacle detection device for vehicles
JP2010271166A (en) * 2009-05-21 2010-12-02 Toyota Motor Corp Obstacle detection device
JP5821276B2 (en) * 2011-05-20 2015-11-24 マツダ株式会社 Detection device for position and traveling direction of moving body
JP2015125669A (en) * 2013-12-27 2015-07-06 日立オートモティブシステムズ株式会社 Vehicle controller, vehicle mounting therein vehicle control device, and movable body detection method
JP6303956B2 (en) * 2014-09-24 2018-04-04 株式会社デンソー Axis deviation estimation device
WO2017029734A1 (en) * 2015-08-19 2017-02-23 三菱電機株式会社 Lane recognition device and lane recognition method
EP3358364A4 (en) * 2015-09-30 2019-03-13 Sony Corporation Signal processing device, signal processing method, program, and object detection system
WO2017159382A1 (en) * 2016-03-16 2017-09-21 ソニー株式会社 Signal processing device and signal processing method

Also Published As

Publication number Publication date
JP2019086393A (en) 2019-06-06

Similar Documents

Publication Publication Date Title
US20190033867A1 (en) Systems and methods for determining a vehicle position
JP6241422B2 (en) Driving support device, driving support method, and recording medium for storing driving support program
JP5304882B2 (en) In-vehicle information processing apparatus and information processing method
US10885791B2 (en) Vehicle dispatch system, autonomous driving vehicle, and vehicle dispatch method
CN109752741B (en) Vehicle positioning apparatus
JP6834914B2 (en) Object recognition device
US20100121518A1 (en) Map enhanced positioning sensor system
US11092442B2 (en) Host vehicle position estimation device
JP6806891B2 (en) Information processing equipment, control methods, programs and storage media
CN113710988A (en) Method for detecting the functional capability of an environmental sensor, control unit and vehicle
CN108291814A (en) For putting the method that motor vehicle is precisely located, equipment, management map device and system in the environment
JP4596566B2 (en) Self-vehicle information recognition device and self-vehicle information recognition method
JP2007085909A (en) Device for detecting position of other vehicle
JP2007218848A (en) Positional information acquisition system for mobile body
WO2017199369A1 (en) Physical object recognition device, physical object recognition method, and program
JP5446559B2 (en) Vehicle position calculation device and vehicle position calculation method
JP6790951B2 (en) Map information learning method and map information learning device
US11187815B2 (en) Method of determining location of vehicle, apparatus for determining location, and system for controlling driving
AU2020257038A1 (en) Camera orientation estimation
JP2011209849A (en) Driving support method and driving support device
KR102303238B1 (en) System and method for correcting position information
US11908206B2 (en) Compensation for vertical road curvature in road geometry estimation
JP2020046411A (en) Data structure, storage device, terminal device, server device, control method, program, and storage medium
JP2018036075A (en) Own vehicle position specification device and own vehicle position specification method
WO2018212290A1 (en) Information processing device, control method, program and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210118

R151 Written notification of patent or utility model registration

Ref document number: 6834914

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151