JP7119724B2 - Shaft deviation detector and vehicle - Google Patents

Shaft deviation detector and vehicle Download PDF

Info

Publication number
JP7119724B2
JP7119724B2 JP2018145318A JP2018145318A JP7119724B2 JP 7119724 B2 JP7119724 B2 JP 7119724B2 JP 2018145318 A JP2018145318 A JP 2018145318A JP 2018145318 A JP2018145318 A JP 2018145318A JP 7119724 B2 JP7119724 B2 JP 7119724B2
Authority
JP
Japan
Prior art keywords
plane
rider
determination process
coordinate system
reference plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018145318A
Other languages
Japanese (ja)
Other versions
JP2020020694A (en
Inventor
俊樹 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018145318A priority Critical patent/JP7119724B2/en
Priority to US16/422,205 priority patent/US11243308B2/en
Publication of JP2020020694A publication Critical patent/JP2020020694A/en
Application granted granted Critical
Publication of JP7119724B2 publication Critical patent/JP7119724B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/076Slope angle of the road
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両に搭載されるライダー(LIDAR: Laser Imaging Detection and Ranging)の軸ずれを検出する技術に関する。 The present invention relates to a technology for detecting axis deviation of a lidar (LIDAR: Laser Imaging Detection and Ranging) mounted on a vehicle.

特許文献1は、車両用レーダ装置のレーダ光軸を調整する方法を開示している。当該方法によれば、車両走行時のカメラ撮像画像に基づいて、基準消失点が検出される。また、レーダ装置からのレーザビームの送出方向が検出される。そして、基準消失点とレーザビームの送出方向との間の誤差が検出され、その誤差がなくなるようにレーザビームの送出方向が補正される。 Patent Literature 1 discloses a method of adjusting a radar optical axis of a vehicle radar device. According to this method, the reference vanishing point is detected based on the image captured by the camera while the vehicle is running. Also, the sending direction of the laser beam from the radar device is detected. Then, an error between the reference vanishing point and the direction of emission of the laser beam is detected, and the direction of emission of the laser beam is corrected so as to eliminate the error.

特許文献2は、カメラとライダーが一体として構成されている車載センサを開示している。車載センサの軸ずれが発生した場合、その軸ずれを考慮して、ライダーによる物体検知領域が適切に設定される。より詳細には、まず、カメラの軸ずれ量が算出される。そして、カメラの軸ずれ量に基づいて、ライダーによる物体検知領域が適切に設定される。 Patent Literature 2 discloses an in-vehicle sensor in which a camera and a lidar are integrated. When the on-vehicle sensor is misaligned, the object detection area by the rider is appropriately set in consideration of the axis misalignment. More specifically, first, the amount of axis deviation of the camera is calculated. Then, the object detection area by the lidar is appropriately set based on the amount of axis deviation of the camera.

特開2004-205398号公報Japanese Patent Application Laid-Open No. 2004-205398 特開2016-80539号公報JP 2016-80539 A

車両に搭載されるライダーは、車両の周囲の物体を認識するために用いられる。ライダーの「軸ずれ」とは、ライダーの姿勢が初期状態(基準状態)から変化することを意味する。ライダーの軸ずれが発生した場合、物体の認識精度が低下する。従って、ライダーの軸ずれを検出することが望まれる。 A lidar mounted on a vehicle is used to perceive objects around the vehicle. "Axis deviation" of the rider means that the attitude of the rider changes from the initial state (reference state). When the lidar is misaligned, the accuracy of object recognition decreases. Therefore, it is desirable to detect lidar misalignment.

上記の特許文献1に開示された従来技術の場合、軸ずれを検出するために複数種類のセンサが必要である。また、複数種類のセンサ間の相対的な軸ずれしか検出することができない。 In the case of the conventional technology disclosed in Patent Document 1, multiple types of sensors are required to detect the shaft misalignment. In addition, only relative axial misalignment between multiple types of sensors can be detected.

本発明の1つの目的は、複数種類のセンサを用いることなく、ライダーの軸ずれを検出することができる技術を提供することにある。 One object of the present invention is to provide a technique capable of detecting a rider's axis deviation without using multiple types of sensors.

第1の観点は、車両に搭載されるライダーの軸ずれを検出する軸ずれ検出装置を提供する。
センサ座標系は、前記軸ずれに応じて変動する変動座標系である。
基準状態は、前記軸ずれが発生していない状態である。
基準平面は、前記車両が平面上に位置しているときに、前記基準状態での前記センサ座標系において表される前記平面である。
前記軸ずれ検出装置は、
前記基準平面の配置を示す基準平面情報と、前記ライダーによって検出される点群の前記センサ座標系における位置を示すライダー計測情報と、が格納される記憶装置と、
前記基準平面情報と前記ライダー計測情報とに基づいて軸ずれ判定処理を行うプロセッサと
を備える。
前記軸ずれ判定処理において、前記プロセッサは、
前記ライダー計測情報で示される前記点群から路面を表す路面点群を抽出し、
前記路面点群を近似平面で近似し、前記近似平面を推定道路平面として取得し、
前記推定道路平面を前記基準平面情報で示される前記基準平面と比較し、前記推定道路平面と前記基準平面との間のずれが閾値を超えている場合、前記軸ずれが発生していると判定する。
A first aspect provides an axis deviation detection device for detecting axis deviation of a rider mounted on a vehicle.
The sensor coordinate system is a fluctuating coordinate system that fluctuates according to the axial misalignment.
The reference state is a state in which the shaft misalignment has not occurred.
A reference plane is the plane represented in the sensor coordinate system in the reference state when the vehicle is located on a plane.
The shaft deviation detection device includes:
a storage device storing reference plane information indicating the arrangement of the reference plane and lidar measurement information indicating the position of the point group detected by the lidar in the sensor coordinate system;
a processor that performs axis deviation determination processing based on the reference plane information and the rider measurement information.
In the axis deviation determination process, the processor
extracting a road surface point group representing a road surface from the point group indicated by the rider measurement information;
approximating the road surface point group with an approximation plane, obtaining the approximation plane as an estimated road plane;
The estimated road plane is compared with the reference plane indicated by the reference plane information, and if the deviation between the estimated road plane and the reference plane exceeds a threshold, it is determined that the axis deviation has occurred. do.

第2の観点は、第1の観点に加えて、次の特徴を更に有する。
前記推定道路平面の信頼度が低いことを示す低信頼条件が成立した場合、前記プロセッサは、前記軸ずれが発生しているか否かの判定を保留する。
The second aspect further has the following features in addition to the first aspect.
When a low reliability condition indicating that the estimated road plane has low reliability is established, the processor suspends determination of whether or not the axis deviation has occurred.

第3の観点は、車両に搭載されるライダーの軸ずれを検出する軸ずれ検出装置を提供する。
センサ座標系は、前記軸ずれに応じて変動する変動座標系である。
基準状態は、前記軸ずれが発生していない状態である。
基準平面は、前記車両が平面上に位置しているときに、前記基準状態での前記センサ座標系において表される前記平面である。
前記軸ずれ検出装置は、
前記基準平面の配置を示す基準平面情報と、前記ライダーによって検出される点群の前記センサ座標系における位置を示すライダー計測情報と、が格納される記憶装置と、
前記基準平面情報と前記ライダー計測情報とに基づいて軸ずれ判定処理を行うプロセッサと
を備える。
前記軸ずれ判定処理において、前記プロセッサは、
前記ライダー計測情報で示される前記点群から路面を表す路面点群を抽出し、
前記路面点群と前記基準平面情報で示される前記基準平面との間の残差を算出し、前記残差が最小となる前記センサ座標系の変動量を探索し、
前記残差が最小となる前記センサ座標系の前記変動量が閾値を超えている場合、前記軸ずれが発生していると判定する。
A third aspect provides an axis deviation detection device for detecting axis deviation of a rider mounted on a vehicle.
The sensor coordinate system is a fluctuating coordinate system that fluctuates according to the axial misalignment.
The reference state is a state in which the shaft misalignment has not occurred.
A reference plane is the plane represented in the sensor coordinate system in the reference state when the vehicle is located on a plane.
The shaft deviation detection device includes:
a storage device storing reference plane information indicating the arrangement of the reference plane and lidar measurement information indicating the position of the point group detected by the lidar in the sensor coordinate system;
a processor that performs axis deviation determination processing based on the reference plane information and the rider measurement information.
In the axis deviation determination process, the processor
extracting a road surface point group representing a road surface from the point group indicated by the rider measurement information;
calculating a residual between the road surface point group and the reference plane indicated by the reference plane information, and searching for a variation amount of the sensor coordinate system that minimizes the residual;
When the amount of variation of the sensor coordinate system that minimizes the residual exceeds a threshold value, it is determined that the axis misalignment has occurred.

第4の観点は、上記の軸ずれ検出装置を備える車両を提供する。 A fourth aspect provides a vehicle equipped with the above-described shaft deviation detection device.

第1の観点によれば、ライダーによって検出される路面点群から推定道路平面が得られる。その推定道路平面が、ライダーの軸ずれが発生していない基準状態における基準平面と比較される。推定道路平面と基準平面との間のずれが閾値を超えている場合、ライダーの軸ずれが発生していると判定される。 According to the first aspect, an estimated road plane is obtained from the road surface point cloud detected by the lidar. The estimated road plane is compared with a reference plane in a reference condition in which no rider misalignment has occurred. If the deviation between the estimated road plane and the reference plane exceeds a threshold, it is determined that the rider is off-axis.

このように、ライダーによる計測結果に基づいて、ライダーの軸ずれを検出することが可能である。軸ずれを検出するために、複数種類のセンサを用いる必要はない。また、複数種類のセンサ間の相対的な軸ずれではなく、ライダーに関する絶対的な軸ずれが検出される。更に、ライダーの軸ずれを検出するために、特殊な機器や施設は不要である。車両の実使用中に、ライダーの軸ずれを容易且つ素早く検出することが可能である。 In this way, it is possible to detect the axis deviation of the rider based on the measurement result of the rider. There is no need to use multiple types of sensors to detect axial misalignment. Also, absolute misalignment with respect to the rider is detected, rather than relative misalignment between multiple types of sensors. Furthermore, no special equipment or facilities are required to detect lidar misalignment. It is possible to easily and quickly detect a rider's axis deviation during actual use of the vehicle.

第2の観点によれば、軸ずれ判定処理において、推定道路平面の信頼度が考慮される。推定道路平面の信頼度が低い場合、ライダーの軸ずれが発生しているか否かの判定は保留される。これにより、軸ずれ判定処理に関して一定レベルの精度が確保される。 According to the second aspect, the reliability of the estimated road plane is considered in the axis deviation determination process. If the reliability of the estimated road plane is low, the determination of whether or not the rider is off-axis is suspended. As a result, a certain level of accuracy is ensured for the axis deviation determination process.

第3の観点に係る手法は、第1の観点に係る手法と等価である。第3の観点によれば、第1の観点の場合と同様の効果が得られる。 The method according to the third aspect is equivalent to the method according to the first aspect. According to the third aspect, the same effects as in the case of the first aspect can be obtained.

本発明の第1の実施の形態に係る車両に搭載されるライダーを説明するための概念図である。1 is a conceptual diagram for explaining a rider mounted on a vehicle according to a first embodiment of the invention; FIG. 本発明の第1の実施の形態におけるライダーの軸ずれを説明するための概念図である。FIG. 4 is a conceptual diagram for explaining the rider's axis misalignment in the first embodiment of the present invention; 本発明の第1の実施の形態における基準状態及び基準平面を説明するための概念図である。4 is a conceptual diagram for explaining a reference state and a reference plane in the first embodiment of the invention; FIG. 本発明の第1の実施の形態における路面点群を説明するための概念図である。FIG. 2 is a conceptual diagram for explaining a road surface point group according to the first embodiment of the present invention; FIG. 本発明の第1の実施の形態における推定道路平面を説明するための概念図である。FIG. 4 is a conceptual diagram for explaining an estimated road plane according to the first embodiment of the present invention; FIG. 本発明の第1の実施の形態におけるライダーの軸ずれを説明するための概念図である。FIG. 4 is a conceptual diagram for explaining the rider's axis misalignment in the first embodiment of the present invention; 本発明の第1の実施の形態に係る軸ずれ判定処理を説明するための概念図である。It is a conceptual diagram for demonstrating the axis deviation determination process which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る軸ずれ検出装置の構成例を示すブロック図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a block diagram which shows the structural example of the shaft deviation detection apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る軸ずれ判定処理を示すフローチャートである。It is a flow chart which shows axis deviation judging processing concerning a 1st embodiment of the present invention. 本発明の第1の実施の形態に係る運転支援システムの構成例を示すブロック図である。1 is a block diagram showing a configuration example of a driving assistance system according to a first embodiment of the present invention; FIG. 本発明の第2の実施の形態を説明するための概念図である。FIG. 5 is a conceptual diagram for explaining a second embodiment of the present invention; 本発明の第2の実施の形態に係る軸ずれ判定処理を示すフローチャートである。It is a flow chart which shows axis deviation judging processing concerning a 2nd embodiment of the present invention. 本発明の第2の実施の形態における推定道路平面に関する低信頼条件の例を説明するための概念図である。FIG. 10 is a conceptual diagram for explaining an example of a low-reliability condition regarding an estimated road plane according to the second embodiment of the present invention; 本発明の第3の実施の形態に係る軸ずれ判定処理を示すフローチャートである。It is a flow chart which shows axis deviation judging processing concerning a 3rd embodiment of the present invention. 本発明の第4の実施の形態に係る軸ずれ判定処理を示すフローチャートである。It is a flow chart which shows axis deviation judging processing concerning a 4th embodiment of the present invention.

添付図面を参照して、本発明の実施の形態を説明する。 Embodiments of the present invention will be described with reference to the accompanying drawings.

1.第1の実施の形態
1-1.概要
図1は、第1の実施の形態に係るライダー(LIDAR: Laser Imaging Detection and Ranging)10を説明するための概念図である。ライダー10は、車両1に搭載されており、車両1の周囲の物体を認識するために用いられる。
1. First Embodiment 1-1. Overview FIG. 1 is a conceptual diagram for explaining a lidar (LIDAR: Laser Imaging Detection and Ranging) 10 according to a first embodiment. A rider 10 is mounted on the vehicle 1 and used to recognize objects around the vehicle 1 .

ライダー10は、レーザパルスを用いて物体の相対位置(距離及び方向)を計測するリモートセンシング装置である。より詳細には、ライダー10は、複数の方向に向けてレーザパルスを順次出力(走査)する。レーザパルスが物体上の反射点で反射すると、レーザパルスの反射光がライダー10に戻ってくる。ライダー10は、レーザパルスの反射光を受け取る。ライダー10は、反射光の受光状態から、反射点の距離及び方向を算出することができる。「点群(point cloud)」は、ライダー10によって検出される反射点の集合である。 The lidar 10 is a remote sensing device that measures the relative position (distance and direction) of an object using laser pulses. More specifically, the lidar 10 sequentially outputs (scans) laser pulses in a plurality of directions. When the laser pulse is reflected at a reflection point on the object, the reflected light of the laser pulse returns to lidar 10 . Lidar 10 receives the reflected light of the laser pulse. The lidar 10 can calculate the distance and direction of the reflection point from the light reception state of the reflected light. A “point cloud” is a collection of reflection points detected by lidar 10 .

ここで、本実施の形態において用いられる座標系について説明する。本実施の形態では、ライダー10に固定された「センサ座標系」が用いられる。センサ座標系は、互いに直交するX軸、Y軸、及びZ軸で表される。例えば、X軸は、走査の中心軸であり、初期状態では水平方向と平行である。Y軸は、水平走査面と平行である。Z軸は、垂直走査面と平行である。 Here, the coordinate system used in this embodiment will be described. In this embodiment, a “sensor coordinate system” fixed to the rider 10 is used. The sensor coordinate system is represented by mutually orthogonal X-, Y-, and Z-axes. For example, the X-axis is the central axis of scanning and is initially parallel to the horizontal direction. The Y-axis is parallel to the horizontal scan plane. The Z-axis is parallel to the vertical scan plane.

ライダー10によって、点群の位置情報が得られる。点群の位置情報は、センサ座標系における各反射点の位置(距離及び方向)を示す。点群の位置情報に基づいて、車両1の周囲の物体を認識することができる。例えば、図1に示されるように、点群の位置情報に基づいて、車両1の前方の先行車両2を認識することができる。 LIDAR 10 provides point cloud location information. The point group position information indicates the position (distance and direction) of each reflection point in the sensor coordinate system. Objects around the vehicle 1 can be recognized based on the position information of the point cloud. For example, as shown in FIG. 1, the preceding vehicle 2 in front of the vehicle 1 can be recognized based on the positional information of the point cloud.

次に、図2を参照して、ライダー10の「軸ずれ」について説明する。ライダー10の軸ずれとは、ライダー10の姿勢が初期状態から変化することを意味する。このような軸ずれ(姿勢の変化)は、経年変化、ライダー10と物体との接触、等によって発生し得る。上述の通り、センサ座標系は、ライダー10に固定されている座標系である。従って、ライダー10の姿勢が変化すると、センサ座標系も変化する。すなわち、センサ座標系は、ライダー10の軸ずれに応じて変動する変動座標系である。 Next, referring to FIG. 2, the "axis deviation" of the rider 10 will be described. The axis deviation of the rider 10 means that the posture of the rider 10 changes from the initial state. Such axis deviation (posture change) may occur due to aging, contact between the rider 10 and an object, and the like. As described above, the sensor coordinate system is a coordinate system that is fixed to rider 10 . Therefore, when the attitude of the rider 10 changes, the sensor coordinate system also changes. In other words, the sensor coordinate system is a fluctuating coordinate system that fluctuates according to the axis deviation of the rider 10 .

ライダー10の軸ずれが発生した場合、センサ座標系が初期状態から変動する。その結果、センサ座標系における“見た目の位置”が実際の位置から乖離する。このことは、物体の認識精度の低下を招く。 When the rider 10 is misaligned, the sensor coordinate system changes from the initial state. As a result, the "apparent position" in the sensor coordinate system deviates from the actual position. This causes a decrease in object recognition accuracy.

例えば、図2において、上方構造物3が車両1の高さよりも上方に存在している。そのような上方構造物3としては、標識、看板、高架物、オーバーブリッジ等が例示される。ここで、ピッチ方向の軸ずれにより、X軸とZ軸が初期状態から変動している場合を考える。この場合、センサ座標系では、上方構造物3がX軸方向に存在しているように見える。つまり、実際には車両1の高さよりも上方に存在している上方構造物3が、車両1と同じ高さに存在しているように誤認識される。このような誤認識は、認識結果に基づく車両走行制御の精度の低下を招き、好ましくない。 For example, in FIG. 2, the upper structure 3 exists above the height of the vehicle 1 . Examples of such upper structures 3 include signs, signboards, elevated structures, overbridges, and the like. Here, consider a case where the X-axis and the Z-axis have changed from their initial states due to axial misalignment in the pitch direction. In this case, the upper structure 3 appears to exist in the X-axis direction in the sensor coordinate system. In other words, the upper structure 3, which actually exists above the height of the vehicle 1, is erroneously recognized as existing at the same height as the vehicle 1. Such erroneous recognition is not preferable because it causes a decrease in the accuracy of vehicle travel control based on the recognition result.

そこで、本実施の形態は、ライダー10の軸ずれを検出することができる技術を提供する。 Therefore, the present embodiment provides a technique capable of detecting the axis deviation of the rider 10. FIG.

まず、図3を参照して、本実施の形態における「基準状態」及び「基準平面REF」について説明する。基準状態は、ライダー10の軸ずれが発生していない状態である。つまり、基準状態は、ライダー10が車両1に取り付けられた初期状態と等価である。この基準状態において、車両1がある平面上に位置しているとする。基準平面REFとは、基準状態でのセンサ座標系において表される当該平面である。基準平面REFは、軸ずれが発生していないときにライダー10によって検出されると期待される“期待道路平面”であると言うこともできる。 First, the “reference state” and the “reference plane REF” in this embodiment will be described with reference to FIG. The reference state is a state in which the rider 10 is not misaligned. That is, the reference state is equivalent to the initial state in which the rider 10 is attached to the vehicle 1 . Assume that the vehicle 1 is positioned on a certain plane in this reference state. The reference plane REF is the plane represented in the sensor coordinate system in the reference state. The reference plane REF can also be said to be the "expected road plane" that is expected to be detected by the rider 10 when no misalignment has occurred.

次に、図4を参照して、本実施の形態における「路面点群PC」について説明する。図4は、車両1の実使用時の状況を示している。車両1は、平坦な路面RS上に位置している。ライダー10から出力されるレーザパルスは、路面RSの微小凹凸によっても反射される。従って、ライダー10によって路面RSを検出することもできる。路面点群PCは、ライダー10によって検出される点群のうち、路面RSを表す点群である。 Next, with reference to FIG. 4, the "road surface point group PC" in this embodiment will be described. FIG. 4 shows the situation when the vehicle 1 is actually used. The vehicle 1 is positioned on a flat road surface RS. A laser pulse output from the lidar 10 is also reflected by minute unevenness of the road surface RS. Therefore, the rider 10 can also detect the road surface RS. The road surface point group PC is a point group representing the road surface RS among the point groups detected by the rider 10 .

次に、図5を参照して、本実施の形態における「推定道路平面ERP」について説明する。上述の路面点群PCは、平面によって近似され得る。推定道路平面ERPは、路面点群PCを近似する近似平面である。この推定道路平面ERPもセンサ座標系において表される。 Next, the "estimated road plane ERP" in this embodiment will be described with reference to FIG. The road point cloud PC described above can be approximated by a plane. The estimated road plane ERP is an approximate plane that approximates the road point group PC. This estimated road plane ERP is also expressed in the sensor coordinate system.

ライダー10の軸ずれが発生していない場合、推定道路平面ERPは、図3で示された基準平面REFと一致する。一方、ライダー10の軸ずれが発生している場合、推定道路平面ERPは、図3で示された基準平面REFからずれる。 When the rider 10 is not axially misaligned, the estimated road plane ERP coincides with the reference plane REF shown in FIG. On the other hand, when the rider 10 is misaligned, the estimated road plane ERP deviates from the reference plane REF shown in FIG.

図6は、ライダー10の軸ずれが発生している場合を示している。軸ずれが発生した場合、センサ座標系は、基準状態でのセンサ座標系から変動する。従って、変動後のセンサ座標系における路面点群PCの“見た目の位置”は、基準状態でのセンサ座標系における路面点群PCの位置からずれる。基準状態でのセンサ座標系における路面点群PCの位置は、上述の基準平面REFによって表される。従って、ライダー10の軸ずれが発生した場合、推定道路平面ERPは、基準平面REFからずれる。逆に言えば、推定道路平面ERPを基準平面REFと比較することによって、ライダー10の軸ずれが発生しているか否かを判定することができる。 FIG. 6 shows a case where the rider 10 is misaligned. When an axis shift occurs, the sensor coordinate system changes from the sensor coordinate system in the reference state. Therefore, the "apparent position" of the road surface point group PC in the sensor coordinate system after the change deviates from the position of the road surface point group PC in the sensor coordinate system in the reference state. The position of the road surface point group PC in the sensor coordinate system in the reference state is represented by the aforementioned reference plane REF. Therefore, when the rider 10 is misaligned, the estimated road plane ERP deviates from the reference plane REF. Conversely, by comparing the estimated road plane ERP with the reference plane REF, it is possible to determine whether or not the rider 10 is out of alignment.

図7は、本実施の形態に係る「軸ずれ判定処理」を説明するための概念図である。図7には、センサ座標系における基準平面REF及び推定道路平面ERPが示されている。推定道路平面ERPと基準平面REFとの間の“ずれ”が閾値を超えている場合、ライダー10の軸ずれが発生していると判定される。例えば、推定道路平面ERPと基準平面REFとの間の“ずれ”は、角度θで表される。角度θは、推定道路平面ERPの法線ベクトルneと基準平面REFの法線ベクトルnrとのなす角度である。角度θが閾値を超えている場合、ライダー10の軸ずれが発生していると判定される。角度θは、その軸ずれ量に相当する。 FIG. 7 is a conceptual diagram for explaining the "axis deviation determination process" according to the present embodiment. FIG. 7 shows the reference plane REF and estimated road plane ERP in the sensor coordinate system. If the "deviation" between the estimated road plane ERP and the reference plane REF exceeds a threshold, it is determined that the rider 10 is misaligned. For example, the "deviation" between the estimated road plane ERP and the reference plane REF is represented by the angle θ. The angle θ is the angle between the normal vector ne of the estimated road plane ERP and the normal vector nr of the reference plane REF. If the angle θ exceeds the threshold, it is determined that the rider 10 is misaligned. The angle θ corresponds to the amount of misalignment.

以上に説明されたように、本実施の形態によれば、ライダー10によって検出される路面点群PCから推定道路平面ERPが得られる。その推定道路平面ERPが、ライダー10の軸ずれが発生していない基準状態における基準平面REFと比較される。推定道路平面ERPと基準平面REFとの間のずれが閾値を超えている場合、ライダー10の軸ずれが発生していると判定される。 As described above, according to the present embodiment, the estimated road plane ERP is obtained from the road surface point cloud PC detected by the rider 10 . The estimated road plane ERP is compared with a reference plane REF in a reference state where the rider 10 is not off-axis. If the deviation between the estimated road plane ERP and the reference plane REF exceeds a threshold, it is determined that the rider 10 is misaligned.

このように、ライダー10による計測結果に基づいて、ライダー10の軸ずれを検出することが可能である。軸ずれを検出するために、複数種類のセンサを用いる必要はない。また、複数種類のセンサ間の相対的な軸ずれではなく、ライダー10に関する絶対的な軸ずれが検出される。更に、ライダー10の軸ずれを検出するために、特殊な機器や施設は不要である。車両1の実使用中に、ライダー10の軸ずれを容易且つ素早く検出することが可能である。 In this way, it is possible to detect the axis deviation of the rider 10 based on the measurement result of the rider 10 . There is no need to use multiple types of sensors to detect axial misalignment. Also, absolute misalignment with respect to rider 10 is detected rather than relative misalignment between multiple types of sensors. Furthermore, no special equipment or facilities are required to detect the misalignment of the rider 10 . It is possible to easily and quickly detect the axis deviation of the rider 10 during actual use of the vehicle 1 .

以下、本実施の形態に係る軸ずれ検出技術について更に詳しく説明する。 Below, a more detailed description will be given of the imperfect alignment detection technique according to the present embodiment.

1-2.軸ずれ検出装置
図8は、本実施の形態に係る軸ずれ検出装置100の構成例を示すブロック図である。軸ずれ検出装置100は、ライダー10による計測結果に基づいて、ライダー10の軸ずれを検出する。典型的には、軸ずれ検出装置100は、ライダー10と共に車両1に搭載される。但し、軸ずれ検出装置100は、必ずしも車両1に搭載されていなくてもよい。ライダー10による計測結果を受け取ることができる限り、軸ずれ検出装置100による処理は実現可能である。
1-2. Shaft Deviation Detection Device FIG. 8 is a block diagram showing a configuration example of the shaft deviation detection device 100 according to the present embodiment. The axis deviation detection device 100 detects the axis deviation of the rider 10 based on the measurement result of the rider 10 . Typically, the axis deviation detection device 100 is mounted on the vehicle 1 together with the rider 10 . However, the shaft deviation detection device 100 does not necessarily have to be mounted on the vehicle 1 . As long as the result of measurement by the rider 10 can be received, the processing by the axis deviation detection device 100 can be realized.

図8に示されるように、軸ずれ検出装置100は、プロセッサ110と記憶装置120を備えている。記憶装置120には、各種情報が格納される。例えば、記憶装置120には、センサ設置情報130、基準平面情報140、ライダー計測情報150、推定道路平面情報160、等が格納される。 As shown in FIG. 8 , the shaft deviation detection device 100 includes a processor 110 and a storage device 120 . Various information is stored in the storage device 120 . For example, the storage device 120 stores sensor installation information 130, reference plane information 140, rider measurement information 150, estimated road plane information 160, and the like.

センサ設置情報130は、ライダー10が車両1に取り付けられた初期状態における、ライダー10の姿勢(ロール、ピッチ、ヨー)及び地面からの高さを示す。センサ設置情報130は、あらかじめ記憶装置120に格納される。 The sensor installation information 130 indicates the attitude (roll, pitch, yaw) of the rider 10 and the height from the ground in the initial state when the rider 10 is attached to the vehicle 1 . The sensor installation information 130 is stored in the storage device 120 in advance.

基準平面情報140は、基準状態でのセンサ座標系における基準平面REFの配置を示す(図3参照)。 The reference plane information 140 indicates the placement of the reference plane REF in the sensor coordinate system in the reference state (see FIG. 3).

ライダー計測情報150は、ライダー10によって検出される点群のセンサ座標系における位置を示す(図4参照)。 The lidar measurement information 150 indicates the position of the point group detected by the rider 10 in the sensor coordinate system (see FIG. 4).

推定道路平面情報160は、センサ座標系における推定道路平面ERPの配置を示す(図5参照)。 The estimated road plane information 160 indicates the placement of the estimated road plane ERP in the sensor coordinate system (see FIG. 5).

プロセッサ110は、コンピュータプログラムを実行することにより各種処理を行う。例えば、プロセッサ110は、各種情報を取得し、取得した情報を記憶装置120に格納する。また、プロセッサ110は、記憶装置120に格納されている情報を読み出し、各種情報処理を行う。例えば、プロセッサ110は、ライダー10の軸ずれが発生しているか否かを判定する「軸ずれ判定処理」を行う。以下、基準平面情報140の取得及び軸ずれ判定処理について説明する。 The processor 110 performs various processes by executing computer programs. For example, the processor 110 acquires various information and stores the acquired information in the storage device 120 . The processor 110 also reads information stored in the storage device 120 and performs various information processing. For example, the processor 110 performs “axis deviation determination processing” for determining whether or not the rider 10 has been misaligned. Acquisition of the reference plane information 140 and axis deviation determination processing will be described below.

1-3.基準平面情報の取得
プロセッサ110は、基準平面情報140を取得する。例えば、プロセッサ110は、基準状態において車両1が仮想平面上に位置していると仮定する。基準状態(初期状態)におけるライダー10の姿勢及び仮想平面からの高さは、上記のセンサ設置情報130から得られる。従って、プロセッサ110は、センサ設置情報130に基づいて、センサ座標系における当該仮想平面の配置を算出することができる。センサ座標系における仮想平面の配置が、基準平面REFの配置に相当する。
1-3. Obtaining Reference Plane Information Processor 110 obtains reference plane information 140 . For example, processor 110 assumes that vehicle 1 is positioned on a virtual plane in the reference state. The attitude of the rider 10 in the reference state (initial state) and the height from the virtual plane are obtained from the sensor installation information 130 described above. Therefore, the processor 110 can calculate the arrangement of the virtual plane in the sensor coordinate system based on the sensor installation information 130. FIG. The placement of the virtual plane in the sensor coordinate system corresponds to the placement of the reference plane REF.

他の例として、プロセッサ110は、ライダー計測情報150に基づいて、基準平面REFの配置を算出してもよい。具体的には、ライダー10の軸ずれが発生していない基準状態において、車両1が実平面上に置かれる。その状況においてライダー10が作動する。プロセッサ110は、ライダー計測情報150を受け取り、ライダー計測情報150で示される点群から当該実平面を表す路面点群PCを抽出する。更に、プロセッサ110は、路面点群PCを近似平面で近似する。センサ座標系における近似平面の配置が、基準平面REFの配置に相当する。 As another example, processor 110 may calculate the placement of reference plane REF based on lidar measurement information 150 . Specifically, the vehicle 1 is placed on a real plane in a reference state in which the rider 10 is not misaligned. Rider 10 operates in that situation. The processor 110 receives the rider measurement information 150 and extracts the road surface point cloud PC representing the actual plane from the point cloud indicated by the rider measurement information 150 . Furthermore, the processor 110 approximates the road surface point group PC with an approximation plane. The placement of the approximate plane in the sensor coordinate system corresponds to the placement of the reference plane REF.

プロセッサ110は、基準平面情報140をあらかじめ取得し、それを記憶装置120に格納する。基準平面情報140は、次に説明される軸ずれ判定処理において利用される。 The processor 110 acquires the reference plane information 140 in advance and stores it in the storage device 120 . The reference plane information 140 is used in the axis deviation determination process described below.

1-4.軸ずれ判定処理
図9は、本実施の形態に係る軸ずれ判定処理を示すフローチャートである。図9に示される処理フローは、一定サイクル毎に繰り返し実行される。
1-4. Axis Deviation Determination Process FIG. 9 is a flowchart showing the axis deviation determination process according to the present embodiment. The processing flow shown in FIG. 9 is repeatedly executed at fixed cycles.

ステップS10において、ライダー10が作動する。プロセッサ110は、ライダー10からライダー計測情報150を取得する。プロセッサ110は、ライダー計測情報150を記憶装置120に格納する。 At step S10, the rider 10 is activated. Processor 110 obtains rider measurement information 150 from rider 10 . Processor 110 stores lidar measurement information 150 in storage device 120 .

続くステップS11において、プロセッサ110は、ライダー計測情報150で示される点群から路面RSを表す路面点群PCを抽出する(図4参照)。点群から路面点群PCを抽出する方法は周知である。 In subsequent step S11, the processor 110 extracts a road surface point group PC representing the road surface RS from the point group indicated by the rider measurement information 150 (see FIG. 4). A method for extracting the road surface point cloud PC from the point cloud is well known.

続くステップS12において、プロセッサ110は、推定道路平面ERPを推定する。具体的には、プロセッサ110は、ステップS11で抽出した路面点群PCを近似平面で近似し、その近似平面を推定道路平面ERPとして取得する(図5参照)。プロセッサ110は、センサ座標系における推定道路平面ERPの配置を示す推定道路平面情報160を生成し、その推定道路平面情報160を記憶装置120に格納する。 In the following step S12, the processor 110 estimates an estimated road plane ERP. Specifically, the processor 110 approximates the road surface point group PC extracted in step S11 with an approximate plane, and acquires the approximate plane as the estimated road plane ERP (see FIG. 5). The processor 110 generates estimated road plane information 160 indicating the arrangement of the estimated road plane ERP in the sensor coordinate system, and stores the estimated road plane information 160 in the storage device 120 .

続くステップS13において、プロセッサ110は、推定道路平面情報160で示される推定道路平面ERPと基準平面情報140で示される基準平面REFとの比較を行う。そして、プロセッサ110は、推定道路平面ERPと基準平面REFとの間のずれが閾値を超えているか否かを判定する。 In subsequent step S13, the processor 110 compares the estimated road plane ERP indicated by the estimated road plane information 160 and the reference plane REF indicated by the reference plane information 140. FIG. The processor 110 then determines whether the deviation between the estimated road plane ERP and the reference plane REF exceeds a threshold.

例えば、推定道路平面ERPと基準平面REFとの間のずれは、図7で示された角度θで表される。角度θは、推定道路平面ERPの法線ベクトルneと基準平面REFの法線ベクトルnrとのなす角度である。プロセッサ110は、推定道路平面情報160と基準平面情報140に基づいて、法線ベクトルne、nr、及び角度θを算出する。そして、プロセッサ110は、角度θが所定の角度閾値を超えているか否かを判定する。 For example, the deviation between the estimated road plane ERP and the reference plane REF is represented by the angle θ shown in FIG. The angle θ is the angle between the normal vector ne of the estimated road plane ERP and the normal vector nr of the reference plane REF. Processor 110 calculates normal vectors ne, nr and angle θ based on estimated road plane information 160 and reference plane information 140 . Processor 110 then determines whether angle θ exceeds a predetermined angle threshold.

推定道路平面ERPと基準平面REFとの間のずれが閾値を超えていない場合(ステップS13;No)、プロセッサ110は、ライダー10の軸ずれは発生していないと判定する。この場合、今回のサイクルにおける処理は終了する。 If the deviation between the estimated road plane ERP and the reference plane REF does not exceed the threshold (step S13; No), the processor 110 determines that the rider 10 is not axially misaligned. In this case, the processing in this cycle ends.

一方、推定道路平面ERPと基準平面REFとの間のずれが閾値を超えている場合(ステップS13;Yes)、プロセッサ110は、ライダー10の軸ずれが発生していると判定する(ステップS14)。また、プロセッサ110は、角度θをライダー10の軸ずれ量として決定する。 On the other hand, if the deviation between the estimated road plane ERP and the reference plane REF exceeds the threshold (step S13; Yes), the processor 110 determines that the rider 10 is misaligned (step S14). . Also, the processor 110 determines the angle θ as the amount of axis deviation of the rider 10 .

更に、プロセッサ110は、異常対応処理を行ってもよい(ステップS15)。例えば、プロセッサ110は、ライダー10の軸ずれが発生したことを車両1のドライバに通知する。また、プロセッサ110は、ライダー10による計測結果に基づく認識処理を停止してもよい。 Furthermore, the processor 110 may perform anomaly handling processing (step S15). For example, the processor 110 notifies the driver of the vehicle 1 that the rider 10 has become misaligned. Also, the processor 110 may stop the recognition process based on the measurement result by the rider 10 .

このように、本実施の形態によれば、プロセッサ110は、基準平面情報140とライダー計測情報150に基づいて軸ずれ判定処理を行い、ライダー10の軸ずれを検出する。軸ずれを検出するために、複数種類のセンサを用いる必要はない。また、複数種類のセンサ間の相対的な軸ずれではなく、ライダー10に関する絶対的な軸ずれが検出される。更に、ライダー10の軸ずれを検出するために、特殊な機器や施設は不要である。車両1の実使用中に、ライダー10の軸ずれを容易且つ素早く検出することが可能である。 Thus, according to the present embodiment, processor 110 performs axis deviation determination processing based on reference plane information 140 and rider measurement information 150 to detect axis deviation of rider 10 . There is no need to use multiple types of sensors to detect axial misalignment. Also, absolute misalignment with respect to rider 10 is detected rather than relative misalignment between multiple types of sensors. Furthermore, no special equipment or facilities are required to detect the misalignment of the rider 10 . It is possible to easily and quickly detect the axis deviation of the rider 10 during actual use of the vehicle 1 .

1-5.運転支援制御
本実施の形態に係る軸ずれ検出装置100は、車両1の運転を支援する「運転支援制御」に適用されてもよい。そのような運転支援制御として、追従走行制御や衝突回避制御が例示される。
1-5. Driving Assistance Control The shaft deviation detection device 100 according to the present embodiment may be applied to “driving assistance control” that assists the driving of the vehicle 1 . Following driving control and collision avoidance control are exemplified as such driving support control.

追従走行制御は、設定された車間距離を保ちながら先行車両に追従するための制御である。先行車両との車間距離が設定値を下回った場合、車両1を減速させるために、制動装置が自動的に作動する。 Follow-up control is control for following a preceding vehicle while maintaining a set inter-vehicle distance. If the distance to the preceding vehicle falls below a set value, the braking system is automatically activated to slow down the vehicle 1 .

衝突回避制御は、進路上の障害物(他車両、自転車、歩行者等)との衝突を回避するための制御である。障害物との衝突の可能性が高いと判断した場合、衝突を回避するために、制動装置及び/又は操舵装置が自動的に作動する。 Collision avoidance control is control for avoiding collisions with obstacles (other vehicles, bicycles, pedestrians, etc.) on the route. If it determines that a collision with an obstacle is likely, braking and/or steering are automatically activated to avoid the collision.

追従走行制御と衝突回避制御のいずれの場合であっても、車両1の前方の障害物や先行車両を物標として認識する必要がある。但し、図2で説明されたように、ライダー10の軸ずれが発生すると、上方構造物3が車両1の前方の物標として誤認識される可能性がある。上方構造物3が障害物や先行車両として誤認識されると、不必要な減速が発生する可能性がある。不要な減速(誤減速)は、ドライバに違和感や不安感を感じさせ、また、運転支援制御に対する信頼を低下させる。従って、運転支援制御を行う際にはライダー10の軸ずれが発生しているか否かを判定することが好適である。 In either case of follow-up control or collision avoidance control, it is necessary to recognize an obstacle in front of the vehicle 1 or a preceding vehicle as a target. However, as explained with reference to FIG. 2 , if the rider 10 is misaligned, the upper structure 3 may be erroneously recognized as a target in front of the vehicle 1 . If the upper structure 3 is erroneously recognized as an obstacle or preceding vehicle, unnecessary deceleration may occur. Unnecessary deceleration (erroneous deceleration) makes the driver feel uncomfortable and uneasy, and reduces the reliability of the driving support control. Therefore, when performing driving support control, it is preferable to determine whether or not the rider 10 is out of alignment.

図10は、本実施の形態に係る運転支援システム200の構成例を示すブロック図である。運転支援システム200は、車両1に搭載され、車両1の運転を支援する運転支援制御を行う。この運転支援システム200は、センサ群210、走行装置220、及び制御装置230を備えている。 FIG. 10 is a block diagram showing a configuration example of a driving support system 200 according to this embodiment. The driving support system 200 is mounted on the vehicle 1 and performs driving support control to support driving of the vehicle 1 . This driving support system 200 includes a sensor group 210 , a traveling device 220 and a control device 230 .

センサ群210は、車両1の周囲の状況を検出する。例えば、センサ群210は、ライダー10、カメラ20、及びレーダ30を含んでいる。センサ群210による検出結果を示す情報は、制御装置230に送られる。 The sensor group 210 detects the circumstances around the vehicle 1 . For example, sensor cluster 210 includes lidar 10 , camera 20 , and radar 30 . Information indicating the results of detection by the sensor group 210 is sent to the control device 230 .

走行装置220は、駆動装置、制動装置、及び操舵装置を含んでいる。駆動装置は、駆動力を発生させる動力源である。駆動装置としては、エンジン、電動機、インホイールモータが例示される。制動装置は、制動力を発生させる。操舵装置は、車両1の車輪を転舵する。例えば、操舵装置は、パワーステアリング(EPS: Electric Power Steering)装置を含んでいる。 Traveling device 220 includes a driving device, a braking device, and a steering device. A driving device is a power source that generates a driving force. Examples of drive devices include an engine, an electric motor, and an in-wheel motor. A braking device generates a braking force. The steering device steers the wheels of the vehicle 1 . For example, the steering system includes a power steering (EPS: Electric Power Steering) system.

制御装置230は、プロセッサ240及び記憶装置250を備えるマイクロコンピュータである。制御装置230は、ECU(Electronic Control Unit)とも呼ばれる。記憶装置250には、制御プログラムが格納される。プロセッサ240が記憶装置250に格納された制御プログラムを実行することにより、制御装置230による各種処理が実現される。 Controller 230 is a microcomputer with processor 240 and memory device 250 . Control device 230 is also called an ECU (Electronic Control Unit). A control program is stored in the storage device 250 . Various processes by the control device 230 are realized by the processor 240 executing the control program stored in the storage device 250 .

例えば、制御装置230は、走行装置220の動作を制御することによって、車両走行制御を行う。車両走行制御は、駆動制御、制動制御、及び操舵制御を含んでいる。駆動制御は、駆動装置を通して行われる。制動制御は、制動装置を通して行われる。操舵制御は、操舵装置を通して行われる。 For example, the control device 230 performs vehicle travel control by controlling the operation of the travel device 220 . Vehicle travel control includes drive control, braking control, and steering control. Drive control takes place through the drive. Braking control is performed through a braking device. Steering control is provided through the steering system.

また、制御装置230は、運転支援制御を行う。より詳細には、制御装置230は、センサ群210から受け取る検出結果情報に基づいて、車両1の周囲の状況を認識する認識処理を行う。そして、制御装置230は、状況認識結果に基づいて上記の車両走行制御を適宜行うことにより、運転支援制御(追従走行制御、衝突回避制御)を行う。 In addition, the control device 230 performs driving support control. More specifically, the control device 230 performs recognition processing for recognizing the circumstances around the vehicle 1 based on the detection result information received from the sensor group 210 . Then, the control device 230 performs driving support control (follow-up driving control, collision avoidance control) by appropriately performing the above-described vehicle driving control based on the situation recognition result.

更に、制御装置230は、本実施の形態に係る軸ずれ検出装置100としても機能する。つまり、制御装置230は、図8で示されたプロセッサ110及び記憶装置120を含んでいる。プロセッサ110とプロセッサ240は、共通であってもよいし、別々であってもよい。記憶装置120と記憶装置250は、共通であってもよいし、別々であってもよい。制御装置230は、図9で示された軸ずれ判定処理を行う。 Furthermore, the control device 230 also functions as the shaft deviation detection device 100 according to the present embodiment. That is, controller 230 includes processor 110 and storage device 120 shown in FIG. Processor 110 and processor 240 may be common or separate. Storage device 120 and storage device 250 may be common or separate. The control device 230 performs the shaft misalignment determination process shown in FIG.

ライダー10の軸ずれが発生していると判定した場合、制御装置230は、異常対応処理を行う(ステップS15)。例えば、制御装置230は、ライダー10の軸ずれが発生したことをドライバに通知する。また、制御装置230は、軸ずれが発生したライダー10を用いることなく、他のセンサを用いて運転支援制御を継続してもよい。つまり、制御装置230は、縮退状態で運転支援制御を継続してもよい。複数のライダー10が車両1に搭載されている場合、軸ずれが発生しているライダー10が除外され、正常なライダー10は使用される。 If it is determined that the rider 10 is misaligned, the control device 230 performs an abnormality handling process (step S15). For example, the controller 230 notifies the driver that the rider 10 has become misaligned. Further, the control device 230 may continue driving support control using another sensor without using the rider 10 in which the shaft misalignment has occurred. That is, the control device 230 may continue driving support control in the degenerated state. When a plurality of riders 10 are mounted on the vehicle 1, the riders 10 with axial misalignment are excluded and normal riders 10 are used.

このように、本実施の形態に係る運転支援システム200は、軸ずれ検出装置100の機能も有しており、ライダー10の軸ずれを検出することができる。ライダー10の軸ずれが検出された場合、運転支援制御においてライダー10は使用されない。これにより、例えば、図2で説明されたような誤認識が抑制される。その結果、不要な減速の発生が抑制され、ドライバの違和感や不安感が軽減される。このことは、運転支援制御に対する信頼の向上に寄与する。 As described above, the driving support system 200 according to the present embodiment also has the function of the axis deviation detection device 100 and can detect the axis deviation of the rider 10 . When the rider 10 is detected to be off-axis, the rider 10 is not used in the driving assistance control. As a result, for example, erroneous recognition as described with reference to FIG. 2 is suppressed. As a result, the occurrence of unnecessary deceleration is suppressed, and the driver's discomfort and anxiety are reduced. This contributes to improving the reliability of driving support control.

2.第2の実施の形態
図11は、第2の実施の形態を説明するための概念図である。路面点群PCから推定される推定道路平面ERPは、必ずしも実際の路面RSとは一致しない。例えば図11において、ライダー10の計測範囲RNGにおける路面RSは、平面ではなく、凹凸を有している。この場合、路面点群PCから推定される推定道路平面ERPの形状は、実際の路面RSの形状から乖離する。推定道路平面ERPと実際の路面RSとの間の差が大きくなるにつれ、軸ずれ判定処理の精度が低下する。
2. Second Embodiment FIG. 11 is a conceptual diagram for explaining a second embodiment. The estimated road plane ERP estimated from the road surface point cloud PC does not necessarily match the actual road surface RS. For example, in FIG. 11, the road surface RS in the measurement range RNG of the rider 10 is not flat but uneven. In this case, the shape of the estimated road plane ERP estimated from the road surface point cloud PC deviates from the shape of the actual road surface RS. As the difference between the estimated road plane ERP and the actual road surface RS increases, the accuracy of the axis deviation determination process decreases.

そこで、第2の実施の形態によれば、軸ずれ判定処理に関して一定レベルの精度を確保するために、推定道路平面ERPの「信頼度」が考慮される。推定道路平面ERPの信頼度が低い状況においては、ライダー10の軸ずれが発生しているか否かの判定は保留される。 Therefore, according to the second embodiment, the "reliability" of the estimated road plane ERP is taken into consideration in order to ensure a certain level of accuracy regarding the axis deviation determination process. In a situation where the estimated road plane ERP has a low reliability, the determination of whether or not the rider 10 is misaligned is suspended.

図12は、第2の実施の形態に係る軸ずれ判定処理を示すフローチャートである。上述の第1の実施の形態の場合と重複する説明は適宜省略される。図12に示されるように、ステップS12とステップS13の間にステップS20が追加されている。 FIG. 12 is a flow chart showing a shaft deviation determination process according to the second embodiment. Descriptions that overlap with the case of the above-described first embodiment will be omitted as appropriate. As shown in FIG. 12, step S20 is added between steps S12 and S13.

ステップS20において、プロセッサ110は、低信頼条件が成立するか否かを判定する。低信頼条件は、上記のステップS12において取得された推定道路平面ERPの信頼度が低いことを示す条件である。低信頼条件としては、様々な例が考えられる。 At step S20, the processor 110 determines whether or not the low reliability condition is satisfied. The low-reliability condition is a condition indicating that the estimated road plane ERP acquired in step S12 described above has a low reliability. Various examples are conceivable as the low-reliability condition.

低信頼条件の第1の例は、路面点群PCと推定道路平面ERPとの間の残差が所定の第1閾値を超えていることである。上述の通り、プロセッサ110は、路面点群PCを近似平面で近似し、その近似平面を推定道路平面ERPとして取得する。その近似処理(フィッティング処理)における残差が大きいことは、推定道路平面ERPと実際の路面RSとの間の乖離が大きいことを意味する(図11参照)。従って、残差に基づいて、推定道路平面ERPの信頼度が高いか低いかを判定することができる。 A first example of a low-confidence condition is that the residual between the road point cloud PC and the estimated road plane ERP exceeds a predetermined first threshold. As described above, the processor 110 approximates the road surface point group PC with an approximation plane and obtains the approximation plane as the estimated road plane ERP. A large residual in the approximation process (fitting process) means a large divergence between the estimated road plane ERP and the actual road surface RS (see FIG. 11). Therefore, based on the residuals, it is possible to determine whether the estimated road plane ERP is highly reliable or not.

低信頼条件の第2の例は、一定期間における推定道路平面ERPの法線ベクトルneのばらつきが所定の第2閾値を超えていることである。図13は、低信頼条件の第2の例を説明するための概念図である。より詳細には、図13は、車両1が凹んだ路面RSを通過する際の、推定道路平面ERPの法線ベクトルneの時間変化を示している。図13に示されるように、法線ベクトルneは、安定せず、時間的に変動する。車両1が坂道に差し掛かる場合や悪路を走行する場合も同様である。従って、一定期間における法線ベクトルneのばらつきに基づいて、推定道路平面ERPの信頼度が高いか低いかを判定することができる。 A second example of the low-reliability condition is that the variation of the normal vector ne of the estimated road plane ERP in a certain period of time exceeds a second predetermined threshold. FIG. 13 is a conceptual diagram for explaining a second example of the low-reliability condition. More specifically, FIG. 13 shows the time change of the normal vector ne of the estimated road plane ERP when the vehicle 1 passes over the dented road surface RS. As shown in FIG. 13, the normal vector ne is not stable and fluctuates over time. The same applies when the vehicle 1 approaches a slope or travels on a rough road. Therefore, it is possible to determine whether the reliability of the estimated road plane ERP is high or low based on the variation of the normal vector ne over a certain period of time.

尚、3次元地図情報が利用可能な場合、プロセッサ110は、その3次元地図情報を参照して、車両1の周辺の路面RSの形状を認識してもよい。ライダー10の計測範囲RNGにおける路面RSの平坦度合いが低くなるほど、推定道路平面ERPの信頼度も低くなると考えられる。 Incidentally, when the 3D map information is available, the processor 110 may refer to the 3D map information to recognize the shape of the road surface RS around the vehicle 1 . It is considered that the reliability of the estimated road plane ERP decreases as the degree of flatness of the road surface RS in the measurement range RNG of the rider 10 decreases.

低信頼条件が成立しない場合(ステップS20;No)、推定道路平面ERPの信頼度は高い。この場合、処理は、上述のステップS13に進む。プロセッサ110は、推定道路平面情報160と基準平面情報140に基づいて、ライダー10の軸ずれが発生しているか否かの判定を行う。 If the low reliability condition is not satisfied (step S20; No), the estimated road plane ERP is highly reliable. In this case, the process proceeds to step S13 described above. Based on the estimated road plane information 160 and the reference plane information 140, the processor 110 determines whether or not the rider 10 is out of alignment.

一方、低信頼条件が成立する場合(ステップS20;Yes)、推定道路平面ERPの信頼度は低い。この場合、上述のステップS13は行われず、今回のサイクルにおける処理は終了する。すなわち、プロセッサ110は、ライダー10の軸ずれが発生しているか否かの判定を保留する。 On the other hand, when the low reliability condition is satisfied (step S20; Yes), the reliability of the estimated road plane ERP is low. In this case, the above-described step S13 is not performed, and the processing in this cycle ends. In other words, the processor 110 suspends the determination of whether or not the rider 10 is out of alignment.

以上に説明されたように、第2の実施の形態によれば、軸ずれ判定処理において、推定道路平面ERPの信頼度が考慮される。推定道路平面ERPの信頼度が低い場合、ライダー10の軸ずれが発生しているか否かの判定は保留される。これにより、軸ずれ判定処理に関して一定レベルの精度が確保される。 As described above, according to the second embodiment, the reliability of the estimated road plane ERP is considered in the imperfect alignment determination process. If the estimated road plane ERP has a low reliability, the determination of whether or not the rider 10 is axially misaligned is suspended. As a result, a certain level of accuracy is ensured for the axis deviation determination process.

3.第3の実施の形態
第1の実施の形態では、推定道路平面ERPが算出され、軸ずれ判定処理に用いられた。第3の実施の形態では、推定道路平面ERPを用いない軸ずれ判定処理を説明する。尚、第1の実施の形態と重複する説明は適宜省略される。
3. Third Embodiment In the first embodiment, the estimated road plane ERP is calculated and used for the axis deviation determination process. In the third embodiment, a shaft deviation determination process that does not use the estimated road plane ERP will be described. Note that explanations overlapping those of the first embodiment will be omitted as appropriate.

図14は、第3の実施の形態に係る軸ずれ判定処理を示すフローチャートである。ステップS10及びステップS11は、第1の実施の形態と同じである(図9参照)。ステップS11の後、処理は、ステップS30に進む。 FIG. 14 is a flow chart showing shaft deviation determination processing according to the third embodiment. Steps S10 and S11 are the same as in the first embodiment (see FIG. 9). After step S11, the process proceeds to step S30.

ステップS30において、プロセッサ110は、路面点群PCと基準平面情報140で示される基準平面REFとの間の残差を算出する。このとき、プロセッサ110は、センサ座標系を変動させながら残差を算出し、残差が最小となるセンサ座標系の変動量を探索する。例えば、プロセッサ110は、路面点群PCに対するセンサ座標系を変動させ、路面点群PCの座標変換を行う。この場合、プロセッサ110は、座標変換後の路面点群PCと基準平面REFとの間の残差を算出する。あるいは、プロセッサ110は、基準平面REFに対するセンサ座標系を変動させ、基準平面REFの座標変換を行ってもよい。この場合、プロセッサ110は、路面点群PCと座標変換後の基準平面REFとの間の残差を算出する。 At step S30, the processor 110 calculates residuals between the road point cloud PC and the reference plane REF indicated by the reference plane information 140. FIG. At this time, the processor 110 calculates the residual while varying the sensor coordinate system, and searches for the amount of variation in the sensor coordinate system that minimizes the residual. For example, the processor 110 changes the sensor coordinate system with respect to the road surface point cloud PC and performs coordinate transformation of the road surface point cloud PC. In this case, the processor 110 calculates the residual between the road surface point group PC after coordinate transformation and the reference plane REF. Alternatively, the processor 110 may change the sensor coordinate system with respect to the reference plane REF and perform coordinate transformation of the reference plane REF. In this case, the processor 110 calculates residuals between the road surface point cloud PC and the coordinate-transformed reference plane REF.

続くステップS31において、プロセッサ110は、残差が最小となるセンサ座標系の変動量を閾値と比較する。言い換えれば、プロセッサ110は、残差が最小となるセンサ座標系の変動量が閾値を超えているか否かを判定する。 In subsequent step S31, processor 110 compares the amount of change in the sensor coordinate system that minimizes the residual with a threshold value. In other words, the processor 110 determines whether the amount of variation in the sensor coordinate system that minimizes the residual exceeds the threshold.

センサ座標系の変動量が閾値を超えていない場合(ステップS31;No)、プロセッサ110は、ライダー10の軸ずれは発生していないと判定する。この場合、今回のサイクルにおける処理は終了する。 If the amount of change in the sensor coordinate system does not exceed the threshold (step S31; No), the processor 110 determines that the rider 10 is not axially misaligned. In this case, the processing in this cycle ends.

一方、センサ座標系の変動量が閾値を超えている場合(ステップS31;Yes)、プロセッサ110は、ライダー10の軸ずれが発生していると判定する(ステップS14)。また、プロセッサ110は、センサ座標系の変動量をライダー10の軸ずれ量として決定する。 On the other hand, if the amount of change in the sensor coordinate system exceeds the threshold (step S31; Yes), the processor 110 determines that the rider 10 is misaligned (step S14). The processor 110 also determines the amount of change in the sensor coordinate system as the amount of axis deviation of the rider 10 .

以上に説明された第3の実施の形態に係る手法は、第1の実施の形態に係る手法と等価である。第3の実施の形態によれば、第1の実施の形態の場合と同様の効果が得られる。 The technique according to the third embodiment described above is equivalent to the technique according to the first embodiment. According to the third embodiment, effects similar to those of the first embodiment can be obtained.

4.第4の実施の形態
第4の実施の形態では、上述の第3の実施の形態において更に信頼度が考慮される。信頼度を考慮する理由は、上述の第2の実施の形態で説明された通りである。
4. Fourth Embodiment In a fourth embodiment, reliability is further considered in the third embodiment described above. The reason for considering the reliability is as explained in the second embodiment above.

図15は、第4の実施の形態に係る軸ずれ判定処理を示すフローチャートである。上述の第3の実施の形態の場合と重複する説明は適宜省略される。図15に示されるように、ステップS30とステップS31の間にステップS40が追加されている。 FIG. 15 is a flow chart showing shaft deviation determination processing according to the fourth embodiment. Descriptions that overlap with the case of the above-described third embodiment will be omitted as appropriate. As shown in FIG. 15, step S40 is added between steps S30 and S31.

ステップS40において、プロセッサ110は、低信頼条件が成立するか否かを判定する。例えば、低信頼条件は、ステップS30で算出された“最小の残差”が所定の第3閾値を超えていることである。ステップS30で算出された“最小の残差”が大きいことは、路面点群PCから推定される推定道路平面ERPの信頼度が低いことと等価である。 At step S40, the processor 110 determines whether or not the low reliability condition is satisfied. For example, the low-reliability condition is that the "minimum residual" calculated in step S30 exceeds a predetermined third threshold. A large "minimum residual" calculated in step S30 is equivalent to a low reliability of the estimated road plane ERP estimated from the road surface point cloud PC.

他の例として、プロセッサ110は、推定道路平面ERPを算出し、上述の第2の実施の形態で説明された推定道路平面ERPに関する低信頼条件を用いてもよい。 As another example, the processor 110 may calculate the estimated road plane ERP and use the low confidence condition for the estimated road plane ERP described in the second embodiment above.

低信頼条件が成立しない場合(ステップS40;No)、処理は、上述のステップS31に進む。プロセッサ110は、ライダー10の軸ずれが発生しているか否かの判定を行う。 If the low-reliability condition is not satisfied (step S40; No), the process proceeds to step S31 described above. The processor 110 determines whether or not the rider 10 is off-axis.

一方、低信頼条件が成立する場合(ステップS40;Yes)、上述のステップS31は行われず、今回のサイクルにおける処理は終了する。すなわち、プロセッサ110は、ライダー10の軸ずれが発生しているか否かの判定を保留する。これにより、軸ずれ判定処理に関して一定レベルの精度が確保される。 On the other hand, if the low-reliability condition is satisfied (step S40; Yes), the above-described step S31 is not performed, and the processing in this cycle ends. In other words, the processor 110 suspends the determination of whether or not the rider 10 is axially misaligned. As a result, a certain level of accuracy is ensured for the axis deviation determination process.

1 車両
10 ライダー
100 軸ずれ検出装置
110 プロセッサ
120 記憶装置
130 センサ設置情報
140 基準平面情報
150 ライダー計測情報
160 推定道路平面情報
200 運転支援システム
210 センサ群
220 走行装置
230 制御装置
240 プロセッサ
250 記憶装置
ERP 推定道路平面
REF 基準平面
Reference Signs List 1 vehicle 10 rider 100 axis deviation detection device 110 processor 120 storage device 130 sensor installation information 140 reference plane information 150 rider measurement information 160 estimated road plane information 200 driving support system 210 sensor group 220 traveling device 230 control device 240 processor 250 storage device ERP Estimated road plane REF Reference plane

Claims (5)

車両に搭載されるライダーの軸ずれを検出する軸ずれ検出装置であって、
センサ座標系は、前記軸ずれに応じて変動する変動座標系であり、
基準状態は、前記軸ずれが発生していない状態であり、
基準平面は、前記車両が平面上に位置しているときに、前記基準状態での前記センサ座標系において表される前記平面であり、
前記軸ずれ検出装置は、
前記基準平面の配置を示す基準平面情報と、前記ライダーによって検出される点群の前記センサ座標系における位置を示すライダー計測情報と、が格納される記憶装置と、
前記基準平面情報と前記ライダー計測情報とに基づいて軸ずれ判定処理を行うプロセッサと
を備え、
前記軸ずれ判定処理において、前記プロセッサは、
前記ライダー計測情報で示される前記点群から路面を表す路面点群を抽出し、
前記路面点群を近似平面で近似し、前記近似平面を推定道路平面として取得し、
取得された前記推定道路平面の信頼度が低いことを示す低信頼条件が成立するか否かを判定する第1判定処理を行い、
前記第1判定処理において前記低信頼条件が成立しない場合、前記推定道路平面を前記基準平面情報で示される前記基準平面と比較し、前記推定道路平面と前記基準平面との間のずれが閾値を超えているか判定する第2判定処理を行い、
前記第2判定処理において前記推定道路平面と前記基準平面との間の前記ずれが前記閾値を超えている場合、前記軸ずれが発生していると判定し、
前記第1判定処理において前記信頼条件が成立した場合、前記第2判定処理を行うことなく前記軸ずれ判定処理を終了する
軸ずれ検出装置。
An axis deviation detection device for detecting axis deviation of a rider mounted on a vehicle,
the sensor coordinate system is a fluctuating coordinate system that fluctuates according to the axial misalignment;
The reference state is a state in which the axial misalignment has not occurred,
a reference plane is the plane represented in the sensor coordinate system in the reference state when the vehicle is positioned on the plane;
The shaft deviation detection device includes:
a storage device storing reference plane information indicating the arrangement of the reference plane and lidar measurement information indicating the position of the point group detected by the lidar in the sensor coordinate system;
a processor that performs axis deviation determination processing based on the reference plane information and the rider measurement information;
In the axis deviation determination process, the processor
extracting a road surface point group representing a road surface from the point group indicated by the rider measurement information;
approximating the road surface point group with an approximation plane, obtaining the approximation plane as an estimated road plane;
performing a first determination process for determining whether or not a low-reliability condition indicating that the obtained estimated road plane has a low reliability is established;
If the low-reliability condition is not satisfied in the first determination process, the estimated road plane is compared with the reference plane indicated by the reference plane information, and the deviation between the estimated road plane and the reference plane exceeds a threshold. Perform a second determination process to determine whether it exceeds
determining that the axis deviation has occurred when the deviation between the estimated road plane and the reference plane exceeds the threshold value in the second determination process ;
If the low- reliability condition is satisfied in the first determination process, the shaft deviation determination process is terminated without performing the second determination process.
Axis deviation detector.
請求項1に記載の軸ずれ検出装置であって、
前記低信頼条件は、前記路面点群と前記推定道路平面との間の残差が第1閾値を超えていることである
軸ずれ検出装置。
The axis deviation detection device according to claim 1,
The low-reliability condition is that the residual between the road surface point group and the estimated road plane exceeds a first threshold.
請求項1に記載の軸ずれ検出装置であって、
前記低信頼条件は、一定期間における前記推定道路平面の法線ベクトルのばらつきが第2閾値を超えていることである
軸ずれ検出装置。
The axis deviation detection device according to claim 1,
The low-reliability condition is that the variation of the normal vector of the estimated road plane in a certain period of time exceeds a second threshold.
車両に搭載されるライダーの軸ずれを検出する軸ずれ検出装置であって、
センサ座標系は、前記軸ずれに応じて変動する変動座標系であり、
基準状態は、前記軸ずれが発生していない状態であり、
基準平面は、前記車両が平面上に位置しているときに、前記基準状態での前記センサ座標系において表される前記平面であり、
前記軸ずれ検出装置は、
前記基準平面の配置を示す基準平面情報と、前記ライダーによって検出される点群の前記センサ座標系における位置を示すライダー計測情報と、が格納される記憶装置と、
前記基準平面情報と前記ライダー計測情報とに基づいて軸ずれ判定処理を行うプロセッサと
を備え、
前記軸ずれ判定処理において、前記プロセッサは、
前記ライダー計測情報で示される前記点群から路面を表す路面点群を抽出し、
前記路面点群と前記基準平面情報で示される前記基準平面との間の残差を算出し、前記残差が最小となる前記センサ座標系の変動量を探索し、
前記最小の残差が第3閾値を超えているか否かを判定する第1判定処理を行い、
前記第1判定処理において前記最小の残差が前記第3閾値を超えていない場合、前記残差が最小となる前記センサ座標系の前記変動量が閾値を超えているか判定する第2判定処理を行い、
前記第2判定処理において前記残差が最小となる前記センサ座標系の前記変動量が前記閾値を超えている場合、前記軸ずれが発生していると判定し、
前記第1判定処理において前記最小の残差が前記第3閾値を超えている場合、前記第2判定処理を行うことなく前記軸ずれ判定処理を終了する
軸ずれ検出装置。
An axis deviation detection device for detecting axis deviation of a rider mounted on a vehicle,
the sensor coordinate system is a fluctuating coordinate system that fluctuates according to the axial misalignment;
The reference state is a state in which the axial misalignment has not occurred,
a reference plane is the plane represented in the sensor coordinate system in the reference state when the vehicle is positioned on the plane;
The shaft deviation detection device includes:
a storage device storing reference plane information indicating the arrangement of the reference plane and lidar measurement information indicating the position of the point group detected by the lidar in the sensor coordinate system;
a processor that performs axis deviation determination processing based on the reference plane information and the rider measurement information;
In the axis deviation determination process, the processor
extracting a road surface point group representing a road surface from the point group indicated by the rider measurement information;
calculating a residual between the road surface point group and the reference plane indicated by the reference plane information, and searching for a variation amount of the sensor coordinate system that minimizes the residual;
Performing a first determination process for determining whether the minimum residual exceeds a third threshold,
a second determination process for determining whether the amount of variation of the sensor coordinate system at which the residual is the minimum exceeds a threshold when the minimum residual does not exceed the third threshold in the first determination process; do,
determining that the axial misalignment has occurred when the amount of variation in the sensor coordinate system that minimizes the residual error exceeds the threshold value in the second determination process ;
If the minimum residual exceeds the third threshold value in the first determination process, the shaft deviation determination process is terminated without performing the second determination process.
Axis deviation detector.
請求項1乃至4のいずれか一項に記載の軸ずれ検出装置を備える車両。 A vehicle comprising the shaft deviation detection device according to any one of claims 1 to 4.
JP2018145318A 2018-08-01 2018-08-01 Shaft deviation detector and vehicle Active JP7119724B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018145318A JP7119724B2 (en) 2018-08-01 2018-08-01 Shaft deviation detector and vehicle
US16/422,205 US11243308B2 (en) 2018-08-01 2019-05-24 Axial deviation detection device and vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018145318A JP7119724B2 (en) 2018-08-01 2018-08-01 Shaft deviation detector and vehicle

Publications (2)

Publication Number Publication Date
JP2020020694A JP2020020694A (en) 2020-02-06
JP7119724B2 true JP7119724B2 (en) 2022-08-17

Family

ID=69228539

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018145318A Active JP7119724B2 (en) 2018-08-01 2018-08-01 Shaft deviation detector and vehicle

Country Status (2)

Country Link
US (1) US11243308B2 (en)
JP (1) JP7119724B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190005667A1 (en) * 2017-07-24 2019-01-03 Muhammad Zain Khawaja Ground Surface Estimation
JP7439434B2 (en) * 2019-09-30 2024-02-28 株式会社デンソー Lidar tilt detection device installed on a vehicle and method for detecting lidar tilt installed on a vehicle
DE102020007645A1 (en) 2020-04-03 2021-10-07 Daimler Ag Method for calibrating a lidar sensor
JP7417466B2 (en) 2020-05-07 2024-01-18 株式会社トヨタマップマスター Information processing device, information processing method, and information processing program
JP2022150929A (en) * 2021-03-26 2022-10-07 本田技研工業株式会社 Axis displacement estimation device
WO2024101175A1 (en) * 2022-11-11 2024-05-16 ヌヴォトンテクノロジージャパン株式会社 Information processing method, information processing device, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003043147A (en) 2001-07-31 2003-02-13 Omron Corp Object detecting device and method
JP2009136987A (en) 2007-12-10 2009-06-25 Toyota Motor Corp Mobile robot and method of correcting floor surface shape data
JP2009193240A (en) 2008-02-13 2009-08-27 Toyota Motor Corp Mobile robot and method for generating environment map
JP2010286963A (en) 2009-06-10 2010-12-24 Nissan Motor Co Ltd Moving object detection device and moving object detection method
JP2015075382A (en) 2013-10-08 2015-04-20 株式会社デンソー Object detection device
WO2015097824A1 (en) 2013-12-26 2015-07-02 株式会社日立製作所 Object recognition device
JP2016045330A (en) 2014-08-22 2016-04-04 株式会社Ihi Method and device for aligning three-dimensional point group data and mobile body system thereof

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6810330B2 (en) 2001-07-31 2004-10-26 Omron Corporation Apparatus for and method of detecting object on road
JP4019933B2 (en) 2002-12-26 2007-12-12 日産自動車株式会社 Vehicle radar apparatus and radar optical axis adjustment method
JP2016080539A (en) 2014-10-17 2016-05-16 トヨタ自動車株式会社 In-vehicle sensor
US10444759B2 (en) * 2017-06-14 2019-10-15 Zoox, Inc. Voxel based ground plane estimation and object segmentation

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003043147A (en) 2001-07-31 2003-02-13 Omron Corp Object detecting device and method
JP2009136987A (en) 2007-12-10 2009-06-25 Toyota Motor Corp Mobile robot and method of correcting floor surface shape data
JP2009193240A (en) 2008-02-13 2009-08-27 Toyota Motor Corp Mobile robot and method for generating environment map
JP2010286963A (en) 2009-06-10 2010-12-24 Nissan Motor Co Ltd Moving object detection device and moving object detection method
JP2015075382A (en) 2013-10-08 2015-04-20 株式会社デンソー Object detection device
WO2015097824A1 (en) 2013-12-26 2015-07-02 株式会社日立製作所 Object recognition device
JP2016045330A (en) 2014-08-22 2016-04-04 株式会社Ihi Method and device for aligning three-dimensional point group data and mobile body system thereof

Also Published As

Publication number Publication date
US20200041650A1 (en) 2020-02-06
JP2020020694A (en) 2020-02-06
US11243308B2 (en) 2022-02-08

Similar Documents

Publication Publication Date Title
JP7119724B2 (en) Shaft deviation detector and vehicle
US11097726B2 (en) Lane keeping assist system and method for improving safety in preceding vehicle follower longitudinal control
EP3306429B1 (en) Position estimation device and position estimation method
US10392009B2 (en) Automatic parking system and automatic parking method
CN110232836B (en) Object recognition device and vehicle travel control system
CN104554272B (en) The path planning of avoidance steering operation when target vehicle and surrounding objects be present
EP3343438A1 (en) Automatic parking system and automatic parking method
US11300415B2 (en) Host vehicle position estimation device
US11691619B2 (en) Automatic parking system and automatic parking method
US10583737B2 (en) Target determination apparatus and driving assistance system
JP2014501401A (en) Method and system for determining vehicle self-motion
JP2008123462A (en) Object detector
EP3712556A1 (en) Sensor verification
JP2018048949A (en) Object recognition device
US20200090347A1 (en) Apparatus for estimating movement information
US11332124B2 (en) Vehicular control system
KR102343020B1 (en) Apparatus for calibrating position signal of autonomous vehicle using road surface image information
US10810448B2 (en) Image-capturing device
US20220171063A1 (en) Target detection apparatus and vehicle having the same mounted thereon
JP2021135838A (en) Parking assistance device and parking assistance system
JP2020020684A (en) Axis deviation detector
JP2020019445A (en) Vehicle travel control system
US20220306120A1 (en) Driving support device
JP7225079B2 (en) Obstacle recognition device
WO2023139978A1 (en) Vehicle-mounted camera device, vehicle-mounted camera system, and image storage method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220718

R151 Written notification of patent or utility model registration

Ref document number: 7119724

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151