JP7166582B2 - Vehicle surrounding recognition sensor inspection system, vehicle surrounding recognition sensor inspection method - Google Patents

Vehicle surrounding recognition sensor inspection system, vehicle surrounding recognition sensor inspection method Download PDF

Info

Publication number
JP7166582B2
JP7166582B2 JP2017200205A JP2017200205A JP7166582B2 JP 7166582 B2 JP7166582 B2 JP 7166582B2 JP 2017200205 A JP2017200205 A JP 2017200205A JP 2017200205 A JP2017200205 A JP 2017200205A JP 7166582 B2 JP7166582 B2 JP 7166582B2
Authority
JP
Japan
Prior art keywords
vehicle
sensor
axle
recognition sensor
deviation amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017200205A
Other languages
Japanese (ja)
Other versions
JP2019074398A (en
Inventor
英樹 松村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Agency For Automobile and Land Transport Technology NALTEC
Original Assignee
National Agency For Automobile and Land Transport Technology NALTEC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Agency For Automobile and Land Transport Technology NALTEC filed Critical National Agency For Automobile and Land Transport Technology NALTEC
Priority to JP2017200205A priority Critical patent/JP7166582B2/en
Publication of JP2019074398A publication Critical patent/JP2019074398A/en
Application granted granted Critical
Publication of JP7166582B2 publication Critical patent/JP7166582B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Description

本発明は、車両に搭載される周囲認識センサの設置姿勢を検査するための検査システム等に関する。 The present invention relates to an inspection system and the like for inspecting the installation orientation of a surrounding recognition sensor mounted on a vehicle.

近年、自動車等の車両は、衝突回避や自動運転を目的とした自動ブレーキを備えるものが普及してきている。車両は、対向車両や道路環境などの車両周囲の状況を、ミリ波レーダ等の車載センサで検知し、ブレーキを作動させている。車載センサの照射軸(センサ軸)は、車両に対して適切な方向(通常は中央の真正面)へ照射されることが前提となっており、このセンサ軸がずれると、対向車両等を誤検知する。 2. Description of the Related Art In recent years, vehicles such as automobiles equipped with automatic brakes for collision avoidance and automatic driving have become popular. Vehicles detect conditions around the vehicle, such as oncoming vehicles and the road environment, with an on-vehicle sensor such as a millimeter-wave radar, and apply brakes. The premise is that the irradiation axis (sensor axis) of the in-vehicle sensor irradiates the vehicle in an appropriate direction (usually directly in front of the center). do.

しかし、事故等によって、車両が変形したり、歪んだりすると、車載センサのセンサ軸がずれてしまう場合がある。しかし、修理工場では、このセンサ軸のずれを正確に検知することが難しいという問題があった。同様に、車検場においても、センサ軸のずれを正確に検知することが難しいため、検査基準を設けることが困難となっていた。 However, if the vehicle is deformed or distorted due to an accident or the like, the sensor axis of the vehicle-mounted sensor may be displaced. However, there is a problem that it is difficult for the repair shop to accurately detect the displacement of the sensor axis. Similarly, at the vehicle inspection site, it is difficult to accurately detect the displacement of the sensor axis, so it has been difficult to establish inspection standards.

本発明は、斯かる実情に鑑み、車両に搭載される周囲認識センサの設置状態を高精度に検知するシステム等を提供しようとするものである。 SUMMARY OF THE INVENTION In view of such circumstances, it is an object of the present invention to provide a system or the like for detecting the installation state of a surrounding recognition sensor mounted on a vehicle with high accuracy.

上記目的を達成する本発明は、車両に搭載されて該車両の周囲に存在する物体の方位を認識可能な周囲認識センサの設置状態を検査する車両周囲認識センサ検査システムであって、車両停車予定領域の周囲に予め位置決めされた状態で設置され、前記周囲認識センサによって認識されるターゲット部と、前記車両停車予定領域に停車される車両を測定する車両測定装置と、前記周囲認識センサに接続されて、該周囲認識センサからのセンサ出力を取得するセンサ出力取得装置と、前記車両測定装置と前記センサ出力取得装置に接続される計算装置と、を備え、前記計算装置は、前記車両測定装置から得られる車両測定データに基づいて、前記車両の車軸を算出する車軸取得処理部と、前記センサ出力取得装置から得られるセンサ出力データを利用して、前記周囲認識センサが認識する前記ターゲット部の方角に関する値(以下、ターゲット方角値)を取得するセンサ認識角度取得処理部と、前記停車予定領域の停車基準軸に対する前記車軸の角度のずれ量(以下、車軸角度ずれ量)を算出する車軸角度ずれ量算出処理部と、少なくとも前記ターゲット方角値と前記車軸角度ずれ量から、前記周囲認識センサのセンサ基準軸の角度のずれ量(以下、センサ角度ずれ量)を算出するセンサ軸ずれ量算出処理部と、を有することを特徴とする、車両周囲認識センサ検査システムである。 To achieve the above objects, the present invention provides a vehicle surroundings recognition sensor inspection system for inspecting the installation state of a surroundings recognition sensor mounted on a vehicle and capable of recognizing the orientation of objects existing around the vehicle, wherein the vehicle is scheduled to stop. A target unit that is installed in a state of being positioned in advance around an area and is recognized by the surrounding area recognition sensor, a vehicle measuring device that measures a vehicle that is stopped in the planned vehicle stop area, and a vehicle measuring device that is connected to the surrounding area recognition sensor. a sensor output acquisition device for acquiring a sensor output from the surrounding recognition sensor; and a computing device connected to the vehicle measuring device and the sensor output acquiring device, wherein the computing device receives the output from the vehicle measuring device. A direction of the target portion recognized by the surrounding recognition sensor using sensor output data obtained from an axle acquisition processing unit that calculates the axle of the vehicle based on the obtained vehicle measurement data, and the sensor output acquisition device. A sensor recognition angle acquisition processing unit that acquires a value (hereinafter referred to as a target direction value) regarding the an amount calculation processing unit, and a sensor axis deviation amount calculation processing unit that calculates an angle deviation amount of the sensor reference axis of the surroundings recognition sensor (hereinafter referred to as a sensor angle deviation amount) from at least the target direction value and the axle angle deviation amount. and a vehicle surroundings recognition sensor inspection system.

上記車両周囲認識センサ検査システムに関連して、前記計算装置は、前記周囲認識センサのオフセットによって生じる前記ターゲット部の方位角変動量(以下、オフセット要因角度ずれ量)を算出するオフセット要因角度ずれ量算出処理部を備え、前記センサ軸ずれ量算出処理部は、前記ターゲット方角値と前記車軸角度ずれ量と前記オフセット要因角度ずれ量から、前記センサ角度ずれ量を算出することを特徴とする。 In relation to the vehicle surroundings recognition sensor inspection system, the computing device calculates an azimuth angle variation amount of the target portion caused by an offset of the surroundings recognition sensor (hereinafter referred to as an offset-caused angle deviation amount). A calculation processing unit is provided, and the sensor axis deviation amount calculation processing unit calculates the sensor angle deviation amount from the target direction value, the axle angle deviation amount, and the offset factor angle deviation amount.

上記車両周囲認識センサ検査システムに関連して、前記車軸取得処理部は、前記車両測定データの中から、前記車軸を算出するための特徴値を含む特徴領域データを抽出する特徴領域抽出処理部を有し、前記特徴領域データを利用して、前記車軸を算出することを特徴とする。 In relation to the vehicle surrounding recognition sensor inspection system, the axle acquisition processing unit includes a feature region extraction processing unit that extracts feature region data including feature values for calculating the axle from the vehicle measurement data. and calculating the axle using the characteristic region data.

上記車両周囲認識センサ検査システムに関連して、前記車両測定データは、前記車両の平面視における輪郭データを含み、前記特徴領域データには、前記車両のサイドミラー領域を含むことを特徴とする。 In relation to the vehicle surroundings recognition sensor inspection system, the vehicle measurement data includes outline data of the vehicle in a plan view, and the feature area data includes a side mirror area of the vehicle.

上記車両周囲認識センサ検査システムに関連して、前記車軸取得処理部は、前記車両測定データの中から、前記車軸を算出するための特徴点を判定する特徴値判定処理部を有し、前記特徴点を利用して、前記車軸を算出することを特徴とする。 In relation to the vehicle surroundings recognition sensor inspection system, the axle acquisition processing unit has a feature value determination processing unit that determines a feature point for calculating the axle from the vehicle measurement data. The point is used to calculate the axle.

上記車両周囲認識センサ検査システムに関連して、前記車両測定データは、前記車両の平面視における輪郭データを含み、前記特徴点には、前記車両のサイドミラーにおける輪郭の変化点を含むことを特徴とする。 In relation to the vehicle surroundings recognition sensor inspection system, the vehicle measurement data includes outline data of the vehicle in a plan view, and the characteristic points include outline change points in side mirrors of the vehicle. and

上記車両周囲認識センサ検査システムに関連して、前記車両測定データには、前記車両を平面視した際の全周囲の輪郭形状を含み、前記車軸取得処理部は、前記全周囲の輪郭形状に基づいて、前記車軸を算出することを特徴とする。 In relation to the vehicle surroundings recognition sensor inspection system, the vehicle measurement data includes a contour shape of the entire circumference when the vehicle is viewed from above, and the axle acquisition processing unit performs and calculating the axle.

上記目的を達成する本発明は、車両に搭載されて該車両の周囲に存在する物体の方位を認識可能な周囲認識センサの設置状態を検査する車両周囲認識センサ検査方法であって、車両停車予定領域の周囲にターゲット部を予め位置決めされた状態で設置して、前記周囲認識センサによって前記ターゲット部を認識させるようにし、前記車両停車予定領域に停車される車両を車両測定装置で測定し、前記周囲認識センサからのセンサ出力を取得し、 To achieve the above object, the present invention provides a vehicle surroundings recognition sensor inspection method for inspecting the installation state of a surroundings recognition sensor mounted on a vehicle and capable of recognizing the orientation of an object existing around the vehicle, the method comprising: A target portion is installed in a pre-positioned state around the region, the target portion is recognized by the surrounding recognition sensor, a vehicle stopped in the planned vehicle stop region is measured by a vehicle measuring device, and the Get the sensor output from the surrounding recognition sensor,

前記車両測定装置から得られる車両測定データに基づいて、前記車両の車軸を算出し、 前記センサ出力取得装置から得られるセンサ出力データを利用して、前記周囲認識センサが認識する前記ターゲット部の方角に関する値(以下、ターゲット方角値)を取得し、前記停車予定領域の停車基準軸に対する前記車軸の角度のずれ量(以下、車軸角度ずれ量)を算出し、少なくとも前記ターゲット方角値と前記車軸角度ずれ量から、前記周囲認識センサのセンサ基準軸の角度のずれ量(以下、センサ角度ずれ量)を算出することを特徴とする、車両周囲認識センサ検査方法である。 An axle of the vehicle is calculated based on vehicle measurement data obtained from the vehicle measurement device, and a direction of the target portion recognized by the surrounding recognition sensor using sensor output data obtained from the sensor output acquisition device. (hereinafter referred to as the target direction value), calculates the amount of deviation of the angle of the axle with respect to the stop reference axis of the planned stop area (hereinafter referred to as the amount of deviation of the axle angle), and obtains at least the target direction value and the axle angle A method for inspecting a vehicle surroundings recognition sensor, characterized in that a deviation amount of an angle of a sensor reference axis of the surroundings recognition sensor (hereinafter referred to as a sensor angle deviation amount) is calculated from the deviation amount.

本発明によれば、車両に搭載される周囲認識センサの設置状態を高精度に検知できるという優れた効果を奏し得る。 ADVANTAGE OF THE INVENTION According to this invention, the outstanding effect that the installation state of the surrounding recognition sensor mounted in a vehicle can be detected with high precision can be produced.

本発明の実施形態に係る車両周囲認識センサ検査システムの全体構成を示す(A)正面図、(B)平面部分断面図、(C)側面部分断面図である。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is (A) a front view, (B) a partial cross-sectional plan view, and (C) a partial cross-sectional side view showing the overall configuration of a vehicle surroundings recognition sensor inspection system according to an embodiment of the present invention; 同車両周囲認識センサ検査システムの撮像部を拡大して示す(A)正面図、(B)側面図である。It is the (A) front view and the (B) side view which show the imaging part of the same vehicle surroundings recognition sensor test|inspection system by enlarging. 同車両周囲認識センサ検査システムの計算装置の機能構成を示すブロック図である。It is a block diagram showing a functional configuration of a computing device of the same vehicle surroundings recognition sensor inspection system. 同車両周囲認識センサ検査システムの撮像部で撮像された三次元データを示す図である。It is a figure which shows the three-dimensional data imaged with the imaging part of the same vehicle surroundings recognition sensor test|inspection system. (A)は同三次元データの特徴領域を抽出した図であり、(B)は特徴点の解析手法を示す図である。(A) is a diagram showing feature regions extracted from the same three-dimensional data, and (B) is a diagram showing a technique for analyzing feature points. (A)乃至(C)は、同車両周囲認識センサ検査システムの計算装置で実行される計算手法を解説する為の説明図である。(A) to (C) are explanatory diagrams for explaining a calculation method executed by a calculation device of the same vehicle surroundings recognition sensor inspection system. (A)乃至(C)は、同車両周囲認識センサ検査システムの計算装置で実行される計算手法の変形例を解説する為の説明図である。(A) to (C) are explanatory diagrams for explaining a modification of the calculation method executed by the calculation device of the vehicle surroundings recognition sensor inspection system. (A)乃至(C)は、同車両周囲認識センサ検査システムの計算装置で実行される計算手法の変形例を解説する為の説明図である。(A) to (C) are explanatory diagrams for explaining a modification of the calculation method executed by the calculation device of the vehicle surroundings recognition sensor inspection system. 両周囲認識センサ検査システムの校正手法を示す平面図である。FIG. 4 is a plan view showing a calibration technique for the double ambient recognition sensor inspection system; 両周囲認識センサ検査システムの変形例を示す平面図である。FIG. 11 is a plan view showing a modification of the dual surroundings recognition sensor inspection system; 両周囲認識センサ検査システムの変形例を示す平面図である。FIG. 11 is a plan view showing a modification of the dual surroundings recognition sensor inspection system;

以下、本発明の実施の形態を、添付図面を参照して説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

<全体構成>
図1は、本実施形態の車両周囲認識センサ検査システム(以下、検査システム)1の全体構成を示す。検査システム1は、車両Dに搭載される周囲認識センサEの設置状態を検査する。この検査システム1は、ターゲット部10と、車両測定装置20と、センサ出力取得装置40と、計算装置60を備える。なお、ここでは、車両に搭載される周囲認識センサとして、前方を走行している車両を検知するミリ波レーダの場合を想定しているが、カメラ式の前方検知センサや、その他のセンサにも適用可能である。
<Overall composition>
FIG. 1 shows the overall configuration of a vehicle surroundings recognition sensor inspection system (hereinafter referred to as an inspection system) 1 of this embodiment. The inspection system 1 inspects the installation state of the surrounding recognition sensor E mounted on the vehicle D. FIG. This inspection system 1 includes a target section 10 , a vehicle measurement device 20 , a sensor output acquisition device 40 and a calculation device 60 . It should be noted that here, as the surrounding recognition sensor mounted on the vehicle, it is assumed that a millimeter-wave radar that detects a vehicle running ahead is used, but a camera-type forward detection sensor and other sensors can also be used. Applicable.

ターゲット部10は、周囲認識センサEによって認識させる目標物であり、車両Dを停車させる車両停車予定領域15の周囲に予め位置決めされた状態で設置される。なお、本実施形態では、車両停車予定領域15には、車両の前後方向に延びる基準軸Jが設定されており、基準軸Jの所定の位置に原点Oも設定される。この基準軸Jに沿って、車両先端から、例えば5m前方にターゲット部10が設置される。なお、ターゲット部10は、例えば三角錐状の窪みを有するコーナリフレクタであり、車両Dから照射されるレーダ波を効率よく反射できる。車両停車予定領域15への車両Dの停車位置は、できる限り車軸(車両中心線)Fと基準軸Jが一致し、かつ、車両Dの左右のサイドミラー(ドアミラー)近傍の前後方向位置が、原点Oと一致するようにする。運転席からの視認性の観点から、左右のドアミラーの位置は互いにずれている車両Dも存在するが、仮に、左右ドアミラーの前後方向位置が互いに完全一致する場合(つまり、完全に左右対称なドアミラーの場合)は、ドアミラー同士を結ぶ線分Wが、原点Oを通るようにすればよい。しかし、詳細は後述するように、ある程度の車両Dの停車誤差は許容される。なお、ここでいう車軸Fとは、車両Dの幅方向中央において前後方向に延びる中心線を意味する。 The target unit 10 is a target object recognized by the surroundings recognition sensor E, and is installed in a state of being positioned in advance around the planned vehicle stop area 15 in which the vehicle D is to be stopped. In this embodiment, a reference axis J extending in the longitudinal direction of the vehicle is set in the planned vehicle stop area 15, and an origin O is also set at a predetermined position on the reference axis J. As shown in FIG. Along this reference axis J, a target unit 10 is installed, for example, 5 m ahead of the front end of the vehicle. The target unit 10 is, for example, a corner reflector having a triangular pyramidal depression, and can efficiently reflect the radar waves emitted from the vehicle D. As shown in FIG. The stop position of the vehicle D in the planned vehicle stop area 15 is such that the axle (vehicle center line) F coincides with the reference axis J as much as possible, and the position in the front-rear direction near the left and right side mirrors (door mirrors) of the vehicle D is Match the origin O. From the viewpoint of visibility from the driver's seat, there is a vehicle D in which the positions of the left and right door mirrors are shifted from each other. ), the line segment W connecting the door mirrors should pass through the origin O. However, as will be described later in detail, a certain amount of stopping error of the vehicle D is allowed. The axle F here means a center line extending in the front-rear direction at the center of the vehicle D in the width direction.

また、本実施形態では、ターゲット部10が、基準軸Jの線状に配置される場合を例示しているが、本発明はこれに限定されない。車両停車予定領域15に正確に停車された車両Dを仮定し、その車両Dの周囲認識センサEのセンサ基準軸(これは、様々な方向を取り得る)の延長線上に配置することができる。この延長線を、ターゲット部10を配置するためのターゲット用基準軸と定義する。基準軸Jとターゲット用基準軸が、平行移動(オフセット)していたり、所定の角度差を有していたりしても良い。 Further, although the present embodiment exemplifies the case where the target section 10 is arranged linearly along the reference axis J, the present invention is not limited to this. Assuming a vehicle D that is accurately stopped in the planned vehicle stop area 15, it can be arranged on the extension line of the sensor reference axis (which can take various directions) of the surrounding recognition sensor E of the vehicle D. This extension line is defined as a target reference axis for arranging the target section 10 . The reference axis J and the target reference axis may be translated (offset) or have a predetermined angular difference.

車両測定装置20は、車両停車予定領域15に停車される車両Dを測定する。この測定は、車両Dの停車ずれ量を検知することを目的としている。修理工場や車検場の現場では、車両Dを高精度に停車させることは困難であり、それを要求すると、セッティングに長時間を要してしまう。従って、この車両測定装置20によって、車両Dの停車位置のずれを許容したまま、検査を実行できるようにしている。車両測定装置20は、車両Dの上方に設置されて、車両Dの姿勢データを取得する撮像部22と、撮像部22を保持する支柱やバーで構成されるフレーム部38を有する。なお、検査空間に予め建屋の天井が存在する場合は、フレーム部38を省略して、天井に撮像部22を直接固定しても良い。 The vehicle measurement device 20 measures the vehicle D stopped in the planned vehicle stop area 15 . The purpose of this measurement is to detect the amount of deviation of the vehicle D from stopping. At a repair shop or vehicle inspection site, it is difficult to stop the vehicle D with a high degree of accuracy. Therefore, the vehicle measuring device 20 allows the inspection to be performed while allowing the deviation of the vehicle D to stop. The vehicle measuring device 20 is installed above the vehicle D and has an imaging unit 22 that acquires posture data of the vehicle D, and a frame unit 38 that is configured by a support or a bar that holds the imaging unit 22 . If the inspection space already has a ceiling of a building, the frame part 38 may be omitted and the imaging part 22 may be directly fixed to the ceiling.

図2に拡大して示すように、撮像部22は、基台24と、三次元スキャン装置26と、基台24と三次元スキャン装置26の間に介在して、三次元スキャン装置26を回転させるテーブル装置28と、基台24に設置されるカメラ30を有する。 As shown enlarged in FIG. 2, the imaging unit 22 is interposed between a base 24, a three-dimensional scanning device 26, and the base 24 and the three-dimensional scanning device 26 to rotate the three-dimensional scanning device 26. and a camera 30 installed on the base 24 .

三次元スキャン装置26は、レーザ照射によって物体の形状(三次元上の位置)を測定できるものである。ここでは、3D-LiDAR(Light Detection and Ranging)を採用し、具体的には、Quanergy Systems社の製品M8-1を用いている。三次元スキャン装置26は、カメラと比較すると、太陽光などの外部環境の影響を受けにくいという利点がある。なお、この3D-LiDARは、全周回転式のラインスキャナであり、図2(A)に示すように、三次元スキャン装置26の内部のレーザ(図示省略)が回転することで、車両Dの幅方向にスキャン可能となっている。更に、本実施形態では、図2(B)に示すように、三次元スキャン装置26全体を、テーブル装置28を利用して車両Dの前後方向に回転させることで、車両Dの全体をスキャン可能にしている。 The three-dimensional scanning device 26 can measure the shape (three-dimensional position) of an object by laser irradiation. Here, 3D-LiDAR (Light Detection and Ranging) is adopted, and more specifically, the product M8-1 from Quanergy Systems is used. The three-dimensional scanning device 26 has the advantage of being less affected by the external environment such as sunlight as compared with a camera. Note that this 3D-LiDAR is a full-circle rotary line scanner, and as shown in FIG. Scanning is possible in the width direction. Furthermore, in this embodiment, as shown in FIG. 2B, the entire vehicle D can be scanned by rotating the entire three-dimensional scanning device 26 in the longitudinal direction of the vehicle D using the table device 28. I have to.

カメラ30は、三次元スキャン装置26と同様に、車両Dを上から視た状態の映像を取得する。本実施形態では、主として三次元スキャン装置26のデータを利用して、各種データ処理を行うようにしている。従って、カメラ30の映像は、三次元スキャン装置26の校正や、使用者(検査者)が視覚的に車両Dの状態を確認する場合等に併用される。しかし、本発明の撮像部22は、三次元スキャン装置26に限られず、二次元スキャナ、距離センサ、カメラ等、様々な手法を採用できる。 The camera 30, like the three-dimensional scanning device 26, acquires an image of the vehicle D viewed from above. In this embodiment, data from the three-dimensional scanning device 26 is mainly used to perform various data processing. Therefore, the image of the camera 30 is also used for calibrating the three-dimensional scanning device 26 and for visually confirming the state of the vehicle D by the user (inspector). However, the imaging unit 22 of the present invention is not limited to the three-dimensional scanning device 26, and various methods such as a two-dimensional scanner, a distance sensor, and a camera can be adopted.

三次元スキャン装置26は、図1に示すように、原点0の真上に設置される。設置高さは、車両Dの天井(ルーフ)などにレーザ光が阻まれることなく、車両側面から前後端までの輪郭を測定できる場所が好ましく、例えば、3m以上の高さとし、ここでは約4mとしている。なお、撮像部22(三次元スキャン装置26)を複数台用意しておき、これらを前後方向や車幅方向に離れた位置にそれぞれ設置することで、広範囲の測定を実現しても良い。形状的な特徴領域・特徴点(詳細は後述)に対して、その真上近傍に撮像部22を配置することも好ましい。また例えば、フレーム装置20を改良することで、三次元スキャン装置26を車両Dの前後方向(又は幅方向)にスライド(移動)できるようにすると、比較的低い位置に撮像装置22を設置しても、車両の全周囲の輪郭をスキャン可能となる。 The three-dimensional scanning device 26 is installed directly above the origin 0, as shown in FIG. The installation height is preferably a place where the contour from the vehicle side to the front and rear ends can be measured without the laser beam being blocked by the ceiling (roof) of the vehicle D. For example, the height is 3 m or more, and here it is about 4 m. there is A plurality of imaging units 22 (three-dimensional scanning devices 26) may be prepared and installed at positions spaced apart in the front-rear direction and vehicle width direction to achieve wide-range measurement. It is also preferable to dispose the imaging unit 22 in the vicinity directly above a shape-like feature area/feature point (details will be described later). Further, for example, if the frame device 20 is improved so that the three-dimensional scanning device 26 can be slid (moved) in the longitudinal direction (or width direction) of the vehicle D, the imaging device 22 can be installed at a relatively low position. can also scan contours all around the vehicle.

センサ出力取得装置40は、車両Dに搭載される周囲認識センサEに電気的に接続されて、周囲認識センサEからのセンサ出力を取得する。この出力は、例えば、水平方向の角度データとなっており、周囲認識センサEにとってのセンサ基準軸R上の対象物を検知する場合が0度となり、水平方向右側に向かって正角度、水平方向左側に向かって負角度の角度値となる。このセンサ出力は、計算装置60に送信される。なお、本実施形態では、センサ出力取得装置40として、例えば、インターサポート社製のデータスキャンツールG-Scan2を採用しており、これを車両Dに接続してセンサ出力を取得する。なお、ここでは、センサ基準軸Rが、車両Dの車軸Fと一致す場合を例示しているが、車軸Fと平行(オフセット)となる場合もある。また、例えば車両の側方物体を検知する周囲認識センサE等の場合は、車軸Fに対してセンサ基準軸Rが予め設定された角度を有する場合もある。また、このセンサ基準軸Rは、周囲認識センサEにおいて出力データが0度となる観点から設定されるソフトウエア上の主軸のことを意味しており、このソフトウエア上の主軸と周囲認識センサEのハードウエアの配置が異なる場合もある。 The sensor output acquisition device 40 is electrically connected to the surroundings recognition sensor E mounted on the vehicle D and acquires the sensor output from the surroundings recognition sensor E. FIG. This output is, for example, angle data in the horizontal direction. When an object on the sensor reference axis R for the surroundings recognition sensor E is detected, the output is 0 degrees. Negative angle values to the left. This sensor output is sent to computing device 60 . In this embodiment, for example, a data scan tool G-Scan2 manufactured by Intersupport Co., Ltd. is used as the sensor output acquisition device 40, which is connected to the vehicle D to acquire the sensor output. Although the case where the sensor reference axis R coincides with the axle F of the vehicle D is exemplified here, it may be parallel (offset) with the axle F in some cases. Further, for example, in the case of a surrounding recognition sensor E for detecting an object on the side of the vehicle, the sensor reference axis R may have a preset angle with respect to the axle F. Further, this sensor reference axis R means a software main axis that is set from the viewpoint that the output data of the surrounding recognition sensor E is 0 degrees. may have different hardware arrangements.

計算装置60は、いわゆるコンピュータであり、車両測定装置20とセンサ出力取得装置40に接続される。計算装置60は、CPU、RAMおよびROM、ハードディスク等の記憶装置などから構成される。CPUは中央演算処理装置であり、検査プログラムが実行されて様々な機能を実現する。RAMはCPUの作業領域、記憶領域として使用され、ROMや記憶装置はCPUで実行されるオペレーティングシステムやプログラムを記憶する。記憶装置には、各種データが蓄積される。 The calculation device 60 is a so-called computer and is connected to the vehicle measurement device 20 and the sensor output acquisition device 40 . The computing device 60 is composed of a CPU, a RAM and a ROM, a storage device such as a hard disk, and the like. The CPU is a central processing unit that executes inspection programs and implements various functions. The RAM is used as a work area and storage area for the CPU, and the ROM and storage device store the operating system and programs executed by the CPU. Various data are accumulated in the storage device.

<検査処理>
次に、この検査システム1による検査処理の流れについて、計算装置60の機能構成を含めて説明する。図3に示すように、計算装置60は、機能構成として、車軸取得処理部62、センサ認識角度取得処理部70、車軸角度ずれ量算出処理部74、センサ軸ずれ量算出処理部76、オフセット要因角度ずれ量算出処理部78、車種別特徴データベース部80を有する。
<Inspection processing>
Next, the flow of inspection processing by the inspection system 1 will be described, including the functional configuration of the computing device 60. FIG. As shown in FIG. 3, the computing device 60 includes, as functional configuration, an axle acquisition processing unit 62, a sensor recognition angle acquisition processing unit 70, an axle angle deviation calculation processing unit 74, a sensor axis deviation calculation processing unit 76, an offset factor It has an angle deviation amount calculation processing section 78 and a vehicle type feature database section 80 .

<車種別特徴情報の登録>
車種別特徴データベース部80には、記憶装置で実現されており、車種別の特徴情報データが蓄積される。例えば特徴情報データには、平面視した際の車両の輪郭や形状データの中で、車両の左右又は前後方向に離れた位置に存在する形状的特徴を有する特徴領域又は特徴点の位置情報が含まれる。車両Dの少なくとも二か所に固有点が存在すれば、その二点を基準にして、車軸を特定できるからである。
<Registration of feature information by vehicle type>
The vehicle-specific feature database unit 80 is implemented by a storage device, and stores vehicle-specific feature information data. For example, the feature information data includes positional information of feature areas or feature points that have shape features that exist in positions separated in the left-right or front-rear direction of the vehicle in the contour and shape data of the vehicle when viewed in plan. be This is because, if there are at least two unique points on the vehicle D, the axle can be specified based on those two points.

従って、特徴情報データには、この複数の特徴領域又は特徴点を基準とした車軸Fの相対位置又は相対角度関係に関する情報(車軸情報)を有することも好ましい。左右対称な位置に特徴領域又は特徴点を設定できない車両Dの場合であっても、この車軸情報を参照すれば、複数の特徴点に基づいて車軸Fを算出可能になる。なお、本実施形態では、具体的な特徴領域データとして、左右サイドミラーを包含する左右領域データが蓄積されており、具体的には、車種別に、車両の前後方向の指定範囲及び左右方向の指定範囲(つまり、サイドミラー近辺の範囲)が設定される。また本実施形態では、具体的な特徴点データとして、左右サイドミラーの中でも、形状的に判別しやすい特徴点(凹凸)に関するデータが蓄積されており、具体的には、車種別に、車両の前後方向及び左右方向の特定位置となる。また本実施形態では、サイドミラーの特徴点に基づく車軸情報が車種別に登録される。従って、特徴情報データを参照して、測定データを抽出(解析)すれば、サイドミラーのデータ領域を自動的に抽出できる。また、サイドミラーのデータ領域の中から特徴点の検出ができれば、上記車軸情報に基づいて車軸Fを算出することが可能となる。 Therefore, it is preferable that the feature information data also include information (axle information) about the relative position or relative angular relationship of the axle F with reference to the plurality of feature areas or feature points. Even in the case of a vehicle D in which characteristic regions or characteristic points cannot be set at symmetrical positions, the axle F can be calculated based on a plurality of characteristic points by referring to this axle information. In this embodiment, left and right area data including left and right side mirrors are accumulated as specific characteristic area data. A range (that is, a range near the side mirrors) is set. In addition, in this embodiment, as specific feature point data, data related to feature points (unevenness) that are easy to distinguish from the shape of the left and right side mirrors are accumulated. It becomes a specific position in the direction and the left-right direction. Further, in this embodiment, the axle information based on the characteristic points of the side mirrors is registered for each vehicle type. Therefore, by referring to the feature information data and extracting (analyzing) the measurement data, the data area of the side mirror can be automatically extracted. Further, if the characteristic point can be detected from the data area of the side mirror, the axle F can be calculated based on the axle information.

なお、車種によっては、左右サイドミラーよりも、他の部位の方が形状的な特徴点が抽出しやすい場合がある。即ち、本発明は、サイドミラーに限ることなく、他の特徴領域の範囲を設定しても良い。例えば、左右テールランプの領域や、左右ドアノブ領域、車両の四隅のコーナ領域等であっても良い。更に、複数の特徴領域に限られず、例えば、窓枠の境界線や、ボンネットの周囲の線分、ボディーの周囲の線分、ルーフの周縁の線分、トランクの周囲の線分、ボディー表面に創出されるデザイン線など、所定の長さや面積自体に形状的な特徴を有する場合は、単一の特徴領域であっても良い。これを基準として車軸を算出できるからである。 It should be noted that, depending on the type of vehicle, it may be easier to extract shape feature points from other parts than from left and right side mirrors. That is, the present invention is not limited to the side mirrors, and may set the range of other characteristic regions. For example, the left and right tail lamp areas, the left and right door knob areas, the four corner areas of the vehicle, and the like may be used. Furthermore, not limited to a plurality of characteristic regions, for example, boundary lines of window frames, line segments around the bonnet, line segments around the body, line segments around the roof, line segments around the trunk, body surface A single feature region may be used when the predetermined length or area itself has a shape feature such as a design line to be created. This is because the axle can be calculated based on this.

また、他の情報として、上記特徴点(例えばサイドミラーの二か所の特徴点)からの周囲認識センサの位置情報、上記特徴点からの車両中心の位置情報、車両中心からの周囲認識センサの位置情報等を車種別に蓄積しても良い。また、周囲認識センサの軸ずれ量の許容値(合否判定基準)を蓄積しても良い。車種ごとに許容される軸ずれ量が異なるからである。更に他の情報として、周囲認識センサにセッティングされているセンサ基準軸(これを「理想センサ基準軸」と定義する)が、車軸Fに対して平行(オフセット)する場合や、車軸Fに対して角度を有する場合は、この理想センサ基準軸に関する情報(例えば、相対角度やオフセット量)を蓄積しても良い。例えば、特徴点や特徴領域に基づいて「理想センサ基準軸」を算出するための情報が登録されていても良い。同様に、検査する周囲認識センサセンサ毎に、検査用のターゲット部の置位置を意味するターゲット基準軸に関する情報を蓄積しても良い。例えば、特徴点や特徴領域に基づいて「ターゲット基準軸」を算出するための情報が登録されていても良い。また、「理想センサ基準軸」と「ターゲット基準軸」の相対差(オフセット値や角度差)に関する情報を蓄積しても良い。 In addition, as other information, position information of the surrounding recognition sensor from the feature points (for example, two feature points of the side mirrors), position information of the center of the vehicle from the feature points, and position information of the surrounding recognition sensor from the center of the vehicle. Location information and the like may be accumulated for each vehicle type. Also, the permissible value (pass/fail judgment criteria) of the amount of axis deviation of the surrounding recognition sensor may be accumulated. This is because the allowable amount of misalignment differs for each vehicle type. Furthermore, as other information, the sensor reference axis set in the surrounding recognition sensor (this is defined as the "ideal sensor reference axis") is parallel (offset) to the axle F, If it has an angle, information about this ideal sensor reference axis (eg, relative angle and offset amount) may be stored. For example, information for calculating an "ideal sensor reference axis" based on feature points and feature regions may be registered. Similarly, information on the target reference axis, which means the placement position of the target portion for inspection, may be accumulated for each surrounding recognition sensor to be inspected. For example, information for calculating a "target reference axis" based on feature points and feature areas may be registered. Also, information about the relative difference (offset value or angle difference) between the "ideal sensor reference axis" and the "target reference axis" may be accumulated.

<車軸取得処理>
車軸取得処理部62は、車両測定装置20から得られる車両測定データに基づいて、車両Dの車軸Fを算出する。具体的に、この車軸取得処理部62は、特徴領域抽出処理部64と、特徴値判定処理部66を有する。特徴領域抽出処理部64は、車両測定データの中から、車軸Fを算出するための特徴値を含む特徴領域データを抽出する。
<Axle Acquisition Processing>
The axle acquisition processing unit 62 calculates the axle F of the vehicle D based on the vehicle measurement data obtained from the vehicle measurement device 20 . Specifically, the axle acquisition processing section 62 has a feature area extraction processing section 64 and a feature value determination processing section 66 . The characteristic region extraction processing unit 64 extracts characteristic region data including characteristic values for calculating the axle F from the vehicle measurement data.

図4は、車両測定装置20から得られる車両測定データを可視化したものである。この車両測定データは、車両を情報から視た際の、車両の表面形状の立体データ(三次元データ)となり、車両Dの平面視における輪郭(外縁)データを含む。特徴領域抽出処理部64は、例えば図5(A)(B)に示すように、車両測定データの中から、左右サイドミラー領域近辺の立体データを抽出する。例えば、車種別特徴データベース部80に蓄積される左右サイドミラーの位置情報を参照し、車両測定データの中から指定範囲(サイドミラー近辺の範囲)を抽出すればよい。なお、車両Dは、車両停車予定領域15内に、多少の誤差はあるものの、ある程度の精度で停車されることから、車種別特徴データベース部80に登録されるサイドミラー領域を広めに設定しておけば、抽出エラーが生じることは無い。なお、計算装置60は、カメラ30によって撮影される映像と、特徴領域抽出処理部64によって抽出されたデータ領域をモニターによって重畳(又は対比)表示する比較表示処理部を有することが好ましい。結果、測定者が、カメラ30によって撮影される映像をモニターで確認し、明らかに、車両Dの停車位置が大幅にずれることで、抽出されたデータ領域がずれている場合は、モニター上で測定者が、車両Dの映像を確認しながら、抽出領域を範囲選択し、この選択指示を特徴領域抽出処理部64が受け付けることで、左右サイドミラー領域近辺の立体データを再抽出するようにしても良い。なお、ここでは例えば、車種別特徴データベース部80のデータを利用する場合を例示したが、特徴領域抽出処理部64が機械学習機能を備えるようにし、様々な車種の車両測定データと左右サイドミラーの範囲を学習させることで、左右サイドミラーの位置等の特徴領域や特徴点を自動抽出できるようにしても良い。 FIG. 4 visualizes vehicle measurement data obtained from the vehicle measurement device 20 . This vehicle measurement data becomes three-dimensional data (three-dimensional data) of the surface shape of the vehicle when the vehicle is viewed from information, and includes contour (outer edge) data of the vehicle D in plan view. The characteristic area extraction processing unit 64 extracts stereoscopic data in the vicinity of the left and right side mirror areas from the vehicle measurement data, as shown in FIGS. 5A and 5B, for example. For example, the position information of the left and right side mirrors accumulated in the vehicle-specific feature database unit 80 may be referred to, and the specified range (range near the side mirrors) may be extracted from the vehicle measurement data. Since the vehicle D will be stopped within the scheduled vehicle stop area 15 with a certain amount of accuracy, the side mirror area registered in the vehicle-specific feature database unit 80 is set wide. If you do, no extraction error will occur. The computing device 60 preferably has a comparison display processing section that superimposes (or contrasts) the image captured by the camera 30 and the data area extracted by the feature area extraction processing section 64 on a monitor. As a result, the measurement person confirms the image captured by the camera 30 on the monitor. The person may select the extraction area while checking the image of the vehicle D, and the characteristic area extraction processing unit 64 may receive the selection instruction to re-extract the stereoscopic data around the left and right side mirror areas. good. Here, for example, the case of using the data of the vehicle-specific feature database unit 80 is illustrated, but the feature region extraction processing unit 64 is provided with a machine learning function, and vehicle measurement data of various vehicle models and left and right side mirror data are used. By learning the range, it may be possible to automatically extract characteristic regions and characteristic points such as the positions of left and right side mirrors.

特徴値判定処理部66は、車両測定データの中から抽出されたサイドミラー領域を参照して、車軸Fを算出するための形状的な特徴点(特異点)を判定する。例えば、図5(B)の実線矢印に示すように、サイドミラー領域の最も幅方向外側に位置する点群を一方向になぞっていき、連続する点を結ぶ進行ベクトルの方向が、途中で、急激に変化した点を、特徴点Tとしても良い。この特徴点Tの判定手法は特に限定されないが、左右サイドミラーで、同じ特徴点Tを抽出できることが、正確な車軸Fの算出にとって重要である。従って、サイドミラーの形状特性を考慮して、確実に特徴点Tを判別可能な手法を採用すべきである。例えば、点線矢印に示すように、サイドミラーの付け根の特徴点T2を採用しても良い。既に述べたように、サイドミラー以外の場所の特徴点を採用しても良い。 The feature value determination processing unit 66 refers to the side mirror area extracted from the vehicle measurement data to determine a shape feature point (singular point) for calculating the axle F. For example, as indicated by the solid-line arrow in FIG. 5(B), a group of points positioned on the outermost side in the width direction of the side mirror area is traced in one direction, and the direction of the traveling vector that connects the consecutive points changes along the way. A feature point T may be a point at which there is an abrupt change. The determination method of this feature point T is not particularly limited, but it is important for accurate calculation of the axle F to be able to extract the same feature point T from the left and right side mirrors. Therefore, a method capable of reliably determining the characteristic point T should be adopted in consideration of the shape characteristics of the side mirror. For example, a feature point T2 at the base of the side mirror may be employed, as indicated by the dotted line arrow. As already mentioned, feature points at locations other than the side mirrors may be employed.

なお、計算装置60は、比較表示処理部によって、カメラ30によって撮影される映像と、特徴値判定処理部66によって判定された特徴点Tをモニターによって重畳(又は対比)表示することが好ましい。特徴値判定処理部66によって判定された特徴点Tに明らかに誤りが含まれる場合は、モニター上で測定者が、車両Dの映像を確認して、特徴点Tを手動指定し、この指定指示を特徴値判定処理部66が受け付けることで、特徴点Tとすることができる。 The computer 60 preferably superimposes (or contrasts) the image captured by the camera 30 and the feature points T determined by the feature value determination processing unit 66 on the monitor by the comparison display processing unit. If the feature point T determined by the feature value determination processing unit 66 clearly contains an error, the person who measures the vehicle checks the image of the vehicle D on the monitor, manually designates the feature point T, and performs this designation instruction. can be set as the feature point T by the feature value determination processing unit 66 receiving the .

以上のステップを経て、左右サイドミラーから一対の特徴点Tを認識した後、車軸取得処理部62が、車種別特徴データベース部80の車軸情報を参照して、特徴点Tの位置に基づいて車軸Fを算出する。なお、左右サイドミラーの形状が、完全に左右対称となっている場合は、T-Tを結ぶ線分によって車幅線Wを決定し、更に、この車幅線Wの垂直二等分線を車軸Fに決定しても良い(図5(A)参照)。 After recognizing a pair of feature points T from the left and right side mirrors through the above steps, the axle acquisition processing unit 62 refers to the axle information in the vehicle-specific feature database unit 80, and based on the position of the feature point T, the axle Calculate F. If the shape of the left and right side mirrors is completely symmetrical, the vehicle width line W is determined by the line segment connecting TT, and the vertical bisector of this vehicle width line W is determined. The axle F may be determined (see FIG. 5(A)).

<センサ認識角度取得処理>
センサ認識角度取得処理部70は、図6(A)に示すように、センサ出力取得装置40から得られるセンサ出力データを利用して、周囲認識センサEが認識するターゲット部10の方角に関する値(ターゲット方角値γ)を取得する。
<Sensor Recognition Angle Acquisition Processing>
As shown in FIG. 6A, the sensor recognition angle acquisition processing unit 70 uses the sensor output data obtained from the sensor output acquisition device 40 to obtain a value ( Get the target direction value γ).

<車軸角度ずれ量算出処理>
車軸角度ずれ量算出処理部74は、図6(A)に示すように、停車予定領域15の停車基準軸Jに対する車軸Fの角度のずれ量(車軸角度ずれ量α)を算出する。車両測定装置20は、予め、停車基準軸Jを利用してデータ校正されていることから、車両測定データにおいて、停車基準軸Jとの角度ずれ量αを判別できる。従って、車軸角度ずれ量算出処理部74は、車軸取得処理部62によって得られる車軸Fのデータと、既知の停車基準軸Jを比較することで、車軸角度ずれ量αを算出する。
<Axle Angle Deviation Amount Calculation Processing>
As shown in FIG. 6A, the axle angle deviation calculation processing unit 74 calculates the angle deviation of the axle F relative to the stop reference axis J in the planned stop area 15 (axle angle deviation α). Since the vehicle measurement device 20 is calibrated in advance using the vehicle stop reference axis J, it is possible to determine the angular deviation amount α from the vehicle stop reference axis J in the vehicle measurement data. Therefore, the axle angle deviation amount calculation processing section 74 compares the data of the axle F obtained by the axle acquisition processing section 62 with the known stop reference axis J to calculate the axle angle deviation amount α.

<センサ軸ずれ量算出処理の基本概念>
センサ軸ずれ量算出処理部76は、少なくともターゲット方角値γと車軸角度ずれ量αから、理想センサ基準軸I(本実施形態では車軸Fと一致)に対する周囲認識センサEのセンサ基準軸Rの角度のずれ量(以下、センサ角度ずれ量C)を算出する。図6(A)では、理想センサ基準軸I(車軸F)とセンサ基準軸Rが一致している場合(センサ角度ずれ量Cが0の場合)を例示しているが、図6(B)(C)のように、車軸角度ずれ量αが変わらない場合であっても、理想センサ基準軸I(車軸F)とセンサ基準軸Rがずれると、そのずれ角が、ターゲット方角値γに反映されることが分かる。
<Basic Concept of Sensor Axis Deviation Amount Calculation Processing>
The sensor axis deviation calculation processing unit 76 calculates the angle of the sensor reference axis R of the surrounding recognition sensor E with respect to the ideal sensor reference axis I (which coincides with the axle F in this embodiment) from at least the target direction value γ and the axle angle deviation amount α. A deviation amount (hereinafter referred to as a sensor angle deviation amount C) is calculated. FIG. 6A exemplifies the case where the ideal sensor reference axis I (axle F) and the sensor reference axis R coincide (when the sensor angle deviation amount C is 0), but FIG. As shown in (C), even if the axle angle deviation amount α does not change, if the ideal sensor reference axis I (axle F) and the sensor reference axis R deviate, the deviation angle is reflected in the target direction value γ. It can be seen that

<オフセット要因角度ずれ量を考慮したセンサ軸ずれ量算出>
より高精度にセンサ角度ずれ量Cを算出するに当たっては、まず、オフセット要因角度ずれ量算出処理部78が、周囲認識センサEとターゲット部10を結ぶ線分Uと、ターゲット基準軸V(本実施形態では停車基準軸Jと一致)との間に生じる角度差βを算出する。この角度差βを「オフセット要因角度ずれ量β」と定義する。このオフセット要因角度ずれ量は、ターゲット基準軸V(停車基準軸J)に対する周囲認識センサEのオフセット量(センサオフセット量)Gのみに起因して生じる、周囲認識センサEからターゲット部10の方位角の変動量となる。なお、既に述べたように、ここでいう「周囲認識センサEの位置」とは、ハードウエアとしての位置に限定されず、周囲認識センサEのプログラム上で設定された周囲認識センサEのソフトウエア上の仮想位置の場合を含む。
<Calculation of Sensor Axial Deviation Considering Offset Factor Angular Deviation Amount>
In calculating the sensor angular deviation amount C with higher accuracy, first, the offset factor angular deviation amount calculation processing unit 78 calculates a line segment U connecting the surrounding recognition sensor E and the target unit 10 and a target reference axis V (this embodiment In the form, the angle difference β generated between the vehicle stop reference axis J and (coincided with the vehicle stop reference axis J) is calculated. This angle difference β is defined as "offset factor angle deviation amount β". This offset factor angular deviation amount is the azimuth angle of the target unit 10 from the surroundings recognition sensor E, which is caused only by the offset amount (sensor offset amount) G of the surroundings recognition sensor E with respect to the target reference axis V (stopping reference axis J). is the amount of change. As already described, the "position of the surrounding recognition sensor E" here is not limited to the position as hardware, but the software of the surrounding recognition sensor E set on the program of the surrounding recognition sensor E. Including the case of the virtual position above.

なお、本実施形態では、周囲認識センサEが、車軸F上における車両の前端に存在する場合を例示している。従って、車軸Fと車両Dの前端縁が交差する位置を算出すれば、周囲認識センサEの位置を直接判定できる。従って、周囲認識センサEの位置と、ターゲット部10の位置から、両者結ぶ線分Uを幾何学的に算出し、この線分Uと、停車基準軸Jが交わる角度を算出することで、オフセット要因角度ずれ量βを得る。なお、周囲認識センサEの位置の判定方法は、車種別特徴データベース部80に登録されている特徴点Tからの周囲認識センサEの相対位置情報を参照し、実際の車両測定データの特徴点Tから実際の周囲認識センサEの位置を直接算出しても良い。更に、これらの判定方法に限定されず、例えば、車種別特徴データベース部80に、車軸Fや車両中心L等を基準とした周囲認識センサEの位置情報を登録しておき、このデータを参照して、車両測定データから周囲認識センサEの位置を直接算出しても良い。勿論、車両測定データの車両前端のラインを抽出して、そのラインを基準にして周囲認識センサEの位置を算出しても良い。勿論、ターゲット基準軸Vや理想センサ基準軸Iも、車種別特徴データベース部80を参照して、特徴点T等から算出することができる。 In addition, in this embodiment, the case where the surroundings recognition sensor E exists in the front end of the vehicle on the axle F is illustrated. Therefore, by calculating the position where the front edge of the vehicle D intersects the axle F, the position of the surrounding recognition sensor E can be determined directly. Therefore, from the position of the surrounding recognition sensor E and the position of the target unit 10, a line segment U connecting the two is geometrically calculated, and the angle at which the line segment U intersects with the stop reference axis J is calculated. A factor angle deviation amount β is obtained. The method of determining the position of the surrounding recognition sensor E refers to the relative position information of the surrounding recognition sensor E from the feature point T registered in the vehicle-specific feature database unit 80, and the feature point T of the actual vehicle measurement data. Alternatively, the actual position of the surrounding recognition sensor E may be calculated directly. Further, the determination method is not limited to these methods, and for example, position information of the surrounding recognition sensor E based on the axle F, the vehicle center L, etc. is registered in the vehicle-specific feature database unit 80, and this data is referred to. Alternatively, the position of the surrounding recognition sensor E may be calculated directly from the vehicle measurement data. Of course, the position of the surrounding recognition sensor E may be calculated by extracting the line of the front end of the vehicle from the vehicle measurement data and using that line as a reference. Of course, the target reference axis V and the ideal sensor reference axis I can also be calculated from the feature points T and the like by referring to the vehicle-specific feature database section 80 .

図6(A)のように、センサ角度ずれ量Cが0、即ち、理想センサ基準軸I(車軸F)とセンサ基準軸Rが一致している場合は、原点O、周囲認識センサE、ターゲット部10を結ぶ三角形の余弦定理から、以下の(式1)が成立する。
(式1)γ=α+β
As shown in FIG. 6A, when the sensor angular deviation amount C is 0, that is, when the ideal sensor reference axis I (axle F) and the sensor reference axis R match, the origin O, the surrounding recognition sensor E, the target From the cosine theorem of the triangle connecting the part 10, the following (Equation 1) is established.
(Formula 1) γ = α + β

次に、図6(B)の通り、理想センサ基準軸I(車軸F)に対してセンサ基準軸Rが、センサ角度ずれ量Cだけ、ずれている状態を想定する。この際、ターゲット方角値γの出力値に、センサ角度ずれ量Cが余分に反映される(含まれる)結果となるので、以下の(式2)が成立する。
(式2)γ-C=α+β
Next, as shown in FIG. 6B, it is assumed that the sensor reference axis R is deviated from the ideal sensor reference axis I (axle F) by the sensor angle deviation amount C. FIG. At this time, the output value of the target direction value γ reflects (includes) the sensor angular deviation amount C in excess, so the following (Equation 2) is established.
(Formula 2) γ-C = α + β

従って、実際のセンサ角度ずれ量Cは、(式2)を変換した以下(式3)になる。
(式3)C=γ-(α+β)
Therefore, the actual sensor angle deviation amount C is obtained by converting (Equation 2) into the following (Equation 3).
(Formula 3) C = γ-(α + β)

以上の通り、センサ軸ずれ量算出処理部76は、ターゲット方角値γと、車軸角度ずれ量αと、オフセット要因角度ずれ量βに基づいて、センサ角度ずれ量Cを算出することができる。このように、オフセット要因角度ずれ量βを考量して、センサ角度ずれ量Cを算出すると、車両Dの停車位置精度が悪くても、センサ角度ずれ量Cの算出精度が飛躍的に向上する。しかし、作業者による車両Dの停車位置精度が高く、結果、オフセット要因角度ずれ量βを常に小さく抑えることが可能な場合は、このオフセット要因角度ずれ量βを省略することもできる。 As described above, the sensor axis deviation amount calculation processing unit 76 can calculate the sensor angle deviation amount C based on the target direction value γ, the axle angle deviation amount α, and the offset factor angle deviation amount β. If the sensor angle deviation amount C is calculated in consideration of the offset factor angle deviation amount β in this way, the calculation accuracy of the sensor angle deviation amount C is dramatically improved even if the accuracy of the stop position of the vehicle D is poor. However, if the operator has high accuracy in stopping the vehicle D and, as a result, the offset factor angular deviation amount β can always be kept small, the offset factor angular deviation amount β can be omitted.

<車両中心がオフセットする場合の検証>
実際の計測現場では、図6(C)に示すように、車両中心Lが、ターゲット基準軸V(ここでは停車基準軸J)に対して直交方向にオフセットした状態で車両Dが停車する場合がある。この車両中心Lのオフセット量(車両中心オフセット量)Zは、センサオフセット量Gに内在する。言い換えると、オフセット要因角度ずれ量算出処理部78は、車両中心オフセット量Zを含んだ、センサオフセット量Gを算出していることになる。
<Verification when the vehicle center is offset>
In an actual measurement site, as shown in FIG. 6C, the vehicle D may stop with the vehicle center L offset in the direction perpendicular to the target reference axis V (here, the vehicle stop reference axis J). be. This offset amount (vehicle center offset amount) Z of the vehicle center L is inherent in the sensor offset amount G. FIG. In other words, the offset factor angular deviation amount calculation processing unit 78 calculates the sensor offset amount G including the vehicle center offset amount Z. FIG.

車両中心オフセット量Zが大きくなると、その分だけセンサオフセット量Gが大きくなり、結果、オフセット要因角度ずれ量βが大きくなると同時に、周囲認識センサEによって検出されるターゲット方角値γも大きくなる。つまり、車両中心オフセット量Zの増減に起因して、オフセット要因角度ずれ量βやターゲット方角値γが同じ分だけ増減するので、上記(式3)で相殺される。結局、図6(C)のように車両中心Lがオフセットする場合であっても、(式3)によって実際のセンサ角度ずれ量Cを算出できる。 As the vehicle center offset amount Z increases, the sensor offset amount G increases accordingly. As a result, the offset factor angle deviation amount β increases, and at the same time, the target direction value γ detected by the surrounding recognition sensor E also increases. That is, due to the increase or decrease in the vehicle center offset amount Z, the offset factor angular deviation amount β and the target azimuth value γ increase or decrease by the same amount, so that they are canceled by the above (Equation 3). As a result, even if the vehicle center L is offset as shown in FIG. 6C, the actual sensor angle deviation amount C can be calculated by (Equation 3).

<ターゲット基準軸Vと停車基準軸Jや、理想センサ基準軸Iと車軸Fが異なる場合>
図7に、ターゲット基準軸Vと停車基準軸Jが異なると共に、理想センサ基準軸Iと車軸F異なる場合の算定例を図示する。図7(A)~(C)で理解できる様に、計算装置60において、ターゲット基準軸Vと理想センサ基準軸Iを設定できれば、図6と完全に同様の手順で、センサ角度ずれ量Cを算出できることが分かる。なお、図6及び図7では、基本ターゲット基準軸Vと理想センサ基準軸Iが元来一致しており、停車基準軸Jと車軸Fの間に車軸角度ずれ量αが生じると、これに連動して、基本ターゲット基準軸Vと理想センサ基準軸Iの間に、同じ車軸角度ずれ量αが生じる場合を例示している。しかし、本発明はこれに限定されず、例えば、図8に示すように、基本ターゲット基準軸Vと理想センサ基準軸Iの初期設定値に相対角度x(初期角度差x)を有する場合もあり得る。この場合は、上記式1~式3における、車軸角度ずれ量αに初期角度差xを加算したものを、この車軸角度ずれ量αに置き換えれば良い。つまり、上記式1、2、3は、以下の式4、5、6に置換できる。この式4、5、6は、例えば、検査スペースの関係上、理想センサ基準軸Iの延長線上にターゲット部10を配置できないような場合等に必要となる。
(式4)γ=(α+x)+β
(式5)γ-C=(α+x)+β
(式6)C=γ-(α+x+β)
<When the target reference axis V and the stop reference axis J are different, or when the ideal sensor reference axis I and the axle F are different>
FIG. 7 shows a calculation example when the target reference axis V and the stop reference axis J are different, and the ideal sensor reference axis I and the axle F are different. As can be understood from FIGS. 7A to 7C, if the target reference axis V and the ideal sensor reference axis I can be set in the calculation device 60, the sensor angle deviation amount C can be calculated by the completely same procedure as in FIG. It turns out that it can be calculated. In FIGS. 6 and 7, the basic target reference axis V and the ideal sensor reference axis I are originally aligned. Thus, the case where the same axle angle deviation amount α occurs between the basic target reference axis V and the ideal sensor reference axis I is exemplified. However, the present invention is not limited to this, and for example, as shown in FIG. obtain. In this case, the sum of the axle angle deviation amount α and the initial angle difference x in the above equations 1 to 3 may be replaced with the axle angle deviation amount α. That is, the above formulas 1, 2 and 3 can be replaced with the following formulas 4, 5 and 6. These equations 4, 5, and 6 are necessary, for example, when the target portion 10 cannot be arranged on the extension line of the ideal sensor reference axis I due to the inspection space.
(Formula 4) γ = (α + x) + β
(Formula 5) γ-C = (α + x) + β
(Formula 6) C = γ-(α + x + β)

<合否判定> <Pass/Fail Judgment>

なお、ここでは機能構成として特に図示しないが、計算装置60は、合否判定処理部を備えていても良い。合否判定処理部は、センサ角度ずれ量Cが、所定の閾値を超えているか否かによって合否判定を行う。この閾値は、車種によって異なる可能性があるため、車種別特徴データベース部80を参照して、車種別の閾値を採用することも好ましい。 Note that the computing device 60 may include a pass/fail determination processing unit, although not particularly illustrated as a functional configuration here. The pass/fail determination processing unit makes a pass/fail determination based on whether or not the sensor angular deviation amount C exceeds a predetermined threshold value. Since this threshold value may differ depending on the vehicle type, it is also preferable to refer to the vehicle-specific feature database unit 80 and adopt the threshold value for each vehicle type.

<初期設定又は校正> <Initial setting or calibration>

検査システム1の初期設定又は校正について説明する。図9に示すように、車両停車予定領域15の基準軸Jの前後・左右方向や原点0に、車両測定装置20でスキャン可能な校正部Pを配置する。撮像部22が三次元スキャン装置26の場合、この校正部Pは立体物であることが好ましく、例えば支柱などが好ましい。撮像部22がカメラの場合は、画像認識によって位置を特定できるマーカ等が好ましい。この状態で、車両測定装置20によって、校正部Pを検知させれば、基準軸Jの新規設定又は校正を簡単に行うことができる。なお、ターゲット基準軸が、基準軸Jに対してオフセット又は角度を有する場合は、このターゲット基準軸についても、同様に校正することが望ましい。 Initial setting or calibration of the inspection system 1 will be described. As shown in FIG. 9, a calibrating unit P that can be scanned by the vehicle measuring device 20 is arranged in the longitudinal and lateral directions of the reference axis J in the planned vehicle stop area 15 and at the origin 0. As shown in FIG. When the imaging unit 22 is the three-dimensional scanning device 26, the calibration unit P is preferably a three-dimensional object, such as a post. When the imaging unit 22 is a camera, a marker or the like that can specify the position by image recognition is preferable. In this state, if the vehicle measuring device 20 detects the calibration portion P, the reference axis J can be newly set or calibrated easily. If the target reference axis has an offset or angle with respect to the reference axis J, it is desirable to calibrate this target reference axis as well.

以上の通り、本実施形態の検査システム1によれば、修理工場や車検場等において、簡単な作業で、極めて高精度にセンサ角度ずれ量Cを算出でき、その場で、周囲認識センサEの設置姿勢を調整することが可能となる。特に、車両Dの停車位置に関して、角度誤差やオフセット誤差を許容することができるので、測定者の負担が大幅に軽減できる。特に、あらゆる車両に存在し、形状的な特徴点が含まれやすいサイドミラーに着目して、その解析から車軸Fを算出しているので、多様な車種の車軸Fを、高い精度で得ることが可能となる。 As described above, according to the inspection system 1 of the present embodiment, it is possible to calculate the sensor angle deviation amount C with extremely high accuracy with a simple operation at a repair shop, a vehicle inspection site, etc. It is possible to adjust the installation posture. In particular, regarding the stop position of the vehicle D, an angle error and an offset error can be allowed, so the burden on the measurer can be greatly reduced. In particular, focusing on the side mirrors, which are present in all vehicles and tend to include characteristic points in shape, and calculating the axle F from the analysis, it is possible to obtain the axle F of various vehicle models with high accuracy. It becomes possible.

なお、上記実施形態では、撮像部が三次元スキャナであり、立体形状から車軸Fを算出する場合を例示したが、本発明はこれに限定されず、カメラ等による二次元画像によって、車軸Fを算出しても良い。この際、例えば図10に示すように、車両Dに対して、接着や磁石等によってマーカMを固定して起き、このマーカMを画像認識させることで、車軸Fを算出しても良い。この思想は三次元スキャナにも適用可能であり、形状特異点を後発的に創出する立体マーカMを、車両Dの前後方向や、サイドミラーの上に設置することで、三次元スキャナで立体マーカMを認識させて、車軸Fを算出しても良い。つまり、特徴点は、車両D自体のものに限られず、事後的に付加された特徴点であっても良い。更に、このマーカMは、車両Dの上面に付加される場合に限られず、例えば、図11に示すように、車両Dの周囲形状を利用して正確に位置決めしやすい場所であって、車両Dの側面に接するようにマーカMを配置しても良い。ここでは、サイドミラーの付根と車両Dの側面によって構成される隅部(凹部)に接するように、鉛直方向に延びる支柱地面から立設し、この支柱の上端をマーカMとする場合を示している。このようなマーカMも、車両Dにとっての形状的な特徴点となる。 In the above embodiment, the imaging unit is a three-dimensional scanner, and the axle F is calculated from a three-dimensional shape. You can calculate. At this time, for example, as shown in FIG. 10, the axle F may be calculated by fixing a marker M to the vehicle D with an adhesive, a magnet, or the like, and recognizing the image of the marker M. FIG. This idea can also be applied to a three-dimensional scanner, and by installing a three-dimensional marker M that subsequently creates a shape singularity in the front-rear direction of the vehicle D or on the side mirror, the three-dimensional scanner can The axle F may be calculated by recognizing M. In other words, the feature point is not limited to the vehicle D itself, and may be a feature point added after the fact. Furthermore, the marker M is not limited to being attached to the upper surface of the vehicle D. For example, as shown in FIG. You may arrange|position the marker M so that it may contact|connect the side surface of . Here, a case is shown in which a vertically extending pillar is erected from the ground so as to contact a corner (recess) formed by the base of the side mirror and the side surface of the vehicle D, and the upper end of the pillar is used as the marker M. there is Such a marker M also serves as a feature point in terms of shape for the vehicle D. As shown in FIG.

更に、上記実施形態では、車両Dの左右対称位置に存在する形状的な特徴点に基づいて、車軸Fを算出する場合を例示したが、本発明はこれに限定されない。例えば、全周囲の輪郭形状(面積情報を含む)を総合的に判定して、車軸を算出することもできる。この際、コンピュータによる機械学習機能(例えば、ディープラーニング)を用いても良い。また、例えば、車両Dの平面視の映像から、前後方向の重心や、幅方向の重心、全体的な重心を算出して、これらの重心情報から、車軸Fを算出しても良い。車両Dを、側面や前後面、底面側から測定することも可能である。 Furthermore, in the above-described embodiment, the case where the axle F is calculated based on the shape feature points existing in the bilaterally symmetrical positions of the vehicle D has been exemplified, but the present invention is not limited to this. For example, the axle can be calculated by comprehensively determining the contour shape (including area information) of the entire periphery. At this time, a computer machine learning function (for example, deep learning) may be used. Further, for example, the center of gravity in the longitudinal direction, the center of gravity in the width direction, and the overall center of gravity may be calculated from the planar image of the vehicle D, and the axle F may be calculated from this information on the center of gravity. It is also possible to measure the vehicle D from the sides, the front and rear sides, and the bottom side.

また更に、上記実施形態では、車両Dの前方の車両を計測するセンサの軸ずれを検査する場合を例示したが、本発明はこれに限定されず、側方センサや後方センサにも適用できる。また、複数のセンサを同時に検査することも可能である。 Furthermore, in the above embodiment, the case of inspecting the axial deviation of the sensor that measures the vehicle ahead of the vehicle D is illustrated, but the present invention is not limited to this, and can be applied to side sensors and rear sensors. It is also possible to test multiple sensors simultaneously.

尚、本発明の検査システムは、上記した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。 It should be noted that the inspection system of the present invention is not limited to the above-described embodiments, and it goes without saying that various modifications can be made without departing from the gist of the present invention.

1 車両周囲認識センサ検査システム
10 ターゲット部
20 車両測定装置
40 センサ出力取得装置
60 計算装置
62 車軸取得処理部
70 センサ認識角度取得処理部
74 車軸角度ずれ量算出処理部
76 センサ軸ずれ量算出処理部
78 車軸オフセット算出処理部
80 車種別特徴データベース部
1 vehicle circumference recognition sensor inspection system 10 target unit 20 vehicle measurement device 40 sensor output acquisition device 60 calculation device 62 axle acquisition processing unit 70 sensor recognition angle acquisition processing unit 74 axle angle deviation calculation processing unit 76 sensor shaft deviation calculation processing unit 78 Axle offset calculation processing unit 80 Vehicle-specific feature database unit

Claims (8)

車両に搭載されて該車両の周囲に存在する物体の方位を認識可能な周囲認識センサの設置状態を検査する車両周囲認識センサ検査システムであって、
車両停車予定領域の周囲に予め位置決めされた状態で設置され、前記周囲認識センサによって前記物体の方位として認識されるターゲット部と、
前記車両停車予定領域に停車される車両を測定する車両測定装置と、
前記周囲認識センサに接続されて、該周囲認識センサからのセンサ出力を取得するセンサ出力取得装置と、
前記車両測定装置と前記センサ出力取得装置に接続される計算装置と、を備え、
前記計算装置は、
前記車両測定装置から得られる車両測定データに基づいて、前記車両の車軸を算出する車軸取得処理部と、
前記センサ出力取得装置から得られるセンサ出力データを利用して、前記周囲認識センサが認識する前記ターゲット部による前記物体の方角に関する値(以下、ターゲット方角値)を取得するセンサ認識角度取得処理部と、
前記停車予定領域の停車基準軸に対する前記車軸の角度のずれ量(以下、車軸角度ずれ量)を算出する車軸角度ずれ量算出処理部と、
少なくとも前記ターゲット方角値と前記車軸角度ずれ量から、前記周囲認識センサのセンサ基準軸の角度のずれ量(以下、センサ角度ずれ量)を算出するセンサ軸ずれ量算出処理部と、
を有し、
前記計算装置は、前記周囲認識センサのオフセットによって生じる前記ターゲット部の方位角変動量(以下、オフセット要因角度ずれ量)を算出するオフセット要因角度ずれ量算出処理部を備え、
前記センサ軸ずれ量算出処理部は、前記ターゲット方角値と前記車軸角度ずれ量と前記オフセット要因角度ずれ量から、前記センサ角度ずれ量を算出することを特徴とする車両周囲認識センサ検査システム。
A vehicle surroundings recognition sensor inspection system for inspecting the installation state of a surroundings recognition sensor mounted on a vehicle and capable of recognizing the orientation of an object existing around the vehicle,
a target unit that is positioned in advance around the planned vehicle stop area and that is recognized by the surrounding recognition sensor as the orientation of the object;
a vehicle measuring device that measures a vehicle that is stopped in the planned vehicle stop area;
a sensor output acquisition device connected to the surrounding recognition sensor and acquiring a sensor output from the surrounding recognition sensor;
a computing device connected to the vehicle measurement device and the sensor output acquisition device;
The computing device
an axle acquisition processing unit that calculates an axle of the vehicle based on vehicle measurement data obtained from the vehicle measurement device;
a sensor recognition angle acquisition processing unit that uses sensor output data obtained from the sensor output acquisition device to acquire a value related to the direction of the object by the target unit recognized by the surrounding recognition sensor (hereinafter referred to as a target direction value); ,
an axle angle deviation amount calculation processing unit that calculates the amount of deviation of the angle of the axle with respect to the stop reference axis in the planned stop area (hereinafter referred to as the axle angle deviation amount);
a sensor axis deviation amount calculation processing unit that calculates an angle deviation amount of a sensor reference axis of the surrounding recognition sensor (hereinafter referred to as a sensor angle deviation amount) from at least the target direction value and the axle angle deviation amount;
has
The computing device includes an offset factor angular deviation amount calculation processing unit that calculates an azimuth angle variation amount of the target portion caused by an offset of the surrounding recognition sensor (hereinafter referred to as an offset factor angular deviation amount),
The vehicle surrounding recognition sensor inspection system, wherein the sensor axis deviation amount calculation processing unit calculates the sensor angle deviation amount from the target direction value, the axle angle deviation amount, and the offset factor angle deviation amount.
前記計算装置は、更に、車種別の形状的特徴を含む特徴情報データが蓄積される車種別特徴データベース部を有しており、
前記車軸取得処理部は、測定対象となる前記車両の車種に対応する前記特徴情報データを参照して、前記車両の車軸を算出することを特徴とする、
請求項に記載の車両周囲認識センサ検査システム。
The computing device further comprises a vehicle-specific feature database section in which feature information data including shape features for each vehicle type is accumulated,
The axle acquisition processing unit calculates the axle of the vehicle by referring to the characteristic information data corresponding to the vehicle type of the vehicle to be measured,
The vehicle surroundings recognition sensor inspection system according to claim 1 .
前記車軸取得処理部は、前記車両測定データの中から、前記車軸を算出するための特徴値を含む特徴領域データを抽出する特徴領域抽出処理部を有し、前記特徴領域データを利用して、前記車軸を算出することを特徴とする、
請求項1乃至のいずれかに記載の車両周囲認識センサ検査システム。
The axle acquisition processing unit has a feature region extraction processing unit that extracts feature region data including feature values for calculating the axle from the vehicle measurement data, and uses the feature region data to Calculating the axle,
The vehicle surrounding recognition sensor inspection system according to any one of claims 1 and 2 .
前記車両測定データは、前記車両の平面視における輪郭データを含み、
前記特徴領域データには、前記車両のサイドミラー領域を含むことを特徴とする、
請求項に記載の車両周囲認識センサ検査システム。
The vehicle measurement data includes contour data of the vehicle in plan view,
The feature area data includes the side mirror area of the vehicle,
The vehicle surroundings recognition sensor inspection system according to claim 3 .
前記車軸取得処理部は、前記車両測定データの中から、前記車軸を算出するための特徴点を判定する特徴値判定処理部を有し、前記特徴点を利用して、前記車軸を算出することを特徴とする、
請求項1乃至のいずれかに記載の車両周囲認識センサ検査システム。
The axle acquisition processing unit has a feature value determination processing unit that determines a feature point for calculating the axle from the vehicle measurement data, and uses the feature point to calculate the axle. characterized by
The vehicle surrounding recognition sensor inspection system according to any one of claims 1 to 4 .
車両に搭載されて該車両の周囲に存在する物体の方位を認識可能な周囲認識センサの設置状態を検査する車両周囲認識センサ検査システムであって、
車両停車予定領域の周囲に予め位置決めされた状態で設置され、前記周囲認識センサによって前記物体の方位として認識されるターゲット部と、
前記車両停車予定領域に停車される車両を測定する車両測定装置と、
前記周囲認識センサに接続されて、該周囲認識センサからのセンサ出力を取得するセンサ出力取得装置と、
前記車両測定装置と前記センサ出力取得装置に接続される計算装置と、を備え、
前記計算装置は、
前記車両測定装置から得られる車両測定データに基づいて、前記車両の車軸を算出する車軸取得処理部と、
前記センサ出力取得装置から得られるセンサ出力データを利用して、前記周囲認識センサが認識する前記ターゲット部による前記物体の方角に関する値(以下、ターゲット方角値)を取得するセンサ認識角度取得処理部と、
前記停車予定領域の停車基準軸に対する前記車軸の角度のずれ量(以下、車軸角度ずれ量)を算出する車軸角度ずれ量算出処理部と、
少なくとも前記ターゲット方角値と前記車軸角度ずれ量から、前記周囲認識センサのセンサ基準軸の角度のずれ量(以下、センサ角度ずれ量)を算出するセンサ軸ずれ量算出処理部と、
を有し、
前記車軸取得処理部は、前記車両測定データの中から、前記車軸を算出するための特徴点を判定する特徴値判定処理部を有し、前記特徴点を利用して、前記車軸を算出し、
前記車両測定データは、前記車両の平面視における輪郭データを含み、
前記特徴点には、前記車両のサイドミラーにおける輪郭の変化点を含むことを特徴とする、車両周囲認識センサ検査システム。
A vehicle surroundings recognition sensor inspection system for inspecting the installation state of a surroundings recognition sensor mounted on a vehicle and capable of recognizing the orientation of an object existing around the vehicle,
a target unit that is positioned in advance around the planned vehicle stop area and that is recognized by the surrounding recognition sensor as the orientation of the object;
a vehicle measuring device that measures a vehicle that is stopped in the planned vehicle stop area;
a sensor output acquisition device connected to the surrounding recognition sensor and acquiring a sensor output from the surrounding recognition sensor;
a computing device connected to the vehicle measurement device and the sensor output acquisition device;
The computing device
an axle acquisition processing unit that calculates an axle of the vehicle based on vehicle measurement data obtained from the vehicle measurement device;
a sensor recognition angle acquisition processing unit that uses sensor output data obtained from the sensor output acquisition device to acquire a value related to the direction of the object by the target unit recognized by the surrounding recognition sensor (hereinafter referred to as a target direction value); ,
an axle angle deviation amount calculation processing unit that calculates the amount of deviation of the angle of the axle with respect to the stop reference axis in the planned stop area (hereinafter referred to as the axle angle deviation amount);
a sensor axis deviation amount calculation processing unit that calculates an angle deviation amount of a sensor reference axis of the surrounding recognition sensor (hereinafter referred to as a sensor angle deviation amount) from at least the target direction value and the axle angle deviation amount;
has
The axle acquisition processing unit has a feature value determination processing unit that determines a feature point for calculating the axle from the vehicle measurement data, calculates the axle using the feature point,
The vehicle measurement data includes contour data of the vehicle in plan view,
The vehicle surroundings recognition sensor inspection system, wherein the characteristic points include contour change points in the side mirrors of the vehicle.
前記車両測定データには、前記車両を平面視した際の全周囲の輪郭形状を含み、
前記車軸取得処理部は、前記全周囲の輪郭形状に基づいて、前記車軸を算出することを特徴とする、
請求項1乃至のいずれかに記載の車両周囲認識センサ検査システム。
The vehicle measurement data includes a contour shape of the entire periphery when the vehicle is viewed from above,
The axle acquisition processing unit calculates the axle based on the contour shape of the entire circumference,
The vehicle surrounding recognition sensor inspection system according to any one of claims 1 to 6 .
車種が互いに異なる複数種類の車両に適用可能とされ、該車両に搭載されて該車両の周囲に存在する物体の方位を認識可能な周囲認識センサの設置状態を検査する車両周囲認識センサ検査方法であって、
車両停車予定領域の周囲にターゲット部を予め位置決めされた状態で設置し、前記周囲認識センサによって、前記ターゲット部による前記物体の方位を認識させるようにし、
前記車両停車予定領域に停車される車両を、前記車両の外部に固定される車両測定装置によって外部から測定し、
前記周囲認識センサに着脱自在に接続されるセンサ出力取得装置によって、該周囲認識センサからのセンサ出力を取得し、
前記車両測定装置から得られる、前記車両の外部から測定される車両測定データに基づいて、前記車両の車軸を算出し、
前記センサ出力取得装置から得られるセンサ出力データを利用して、前記周囲認識センサが認識する前記ターゲット部による前記物体の方角に関する値(以下、ターゲット方角値)及び前記周囲認識センサのオフセットによって生じる前記ターゲット部の方位角変動量(以下、オフセット要因角度ずれ量)を取得し、
前記停車予定領域の停車基準軸に対する前記車軸の角度のずれ量(以下、車軸角度ずれ量)を算出し、
少なくとも前記ターゲット方角値と前記車軸角度ずれ量及び前記オフセット要因角度ずれ量から、前記周囲認識センサのセンサ基準軸の角度のずれ量(以下、センサ角度ずれ量)を算出することを特徴とする、
車両周囲認識センサ検査方法。
A vehicle surroundings recognition sensor inspection method for inspecting the installation state of a surroundings recognition sensor that is applicable to a plurality of types of vehicles of different vehicle types and that is mounted on the vehicle and capable of recognizing the orientation of an object existing around the vehicle. There is
A target portion is installed in a state of being positioned in advance around the planned vehicle stop area, and the orientation of the object by the target portion is recognized by the surrounding recognition sensor,
measuring the vehicle stopped in the vehicle stop planned area from the outside by a vehicle measuring device fixed to the outside of the vehicle;
Acquiring a sensor output from the surrounding recognition sensor by a sensor output acquisition device detachably connected to the surrounding recognition sensor;
calculating an axle of the vehicle based on vehicle measurement data measured from the outside of the vehicle obtained from the vehicle measurement device;
Using the sensor output data obtained from the sensor output acquisition device, a value related to the direction of the object recognized by the surrounding recognition sensor (hereinafter referred to as a target direction value) by the target unit and the offset generated by the surrounding recognition sensor Acquire the amount of azimuth angle variation of the target part (hereinafter referred to as offset factor angle deviation amount) ,
calculating the amount of deviation of the angle of the axle with respect to the stop reference axis of the planned stop area (hereinafter referred to as the amount of deviation of the axle angle);
An angle deviation amount of the sensor reference axis of the surroundings recognition sensor (hereinafter referred to as a sensor angle deviation amount) is calculated from at least the target direction value, the axle angle deviation amount, and the offset factor angle deviation amount ,
Vehicle surrounding recognition sensor inspection method.
JP2017200205A 2017-10-16 2017-10-16 Vehicle surrounding recognition sensor inspection system, vehicle surrounding recognition sensor inspection method Active JP7166582B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017200205A JP7166582B2 (en) 2017-10-16 2017-10-16 Vehicle surrounding recognition sensor inspection system, vehicle surrounding recognition sensor inspection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017200205A JP7166582B2 (en) 2017-10-16 2017-10-16 Vehicle surrounding recognition sensor inspection system, vehicle surrounding recognition sensor inspection method

Publications (2)

Publication Number Publication Date
JP2019074398A JP2019074398A (en) 2019-05-16
JP7166582B2 true JP7166582B2 (en) 2022-11-08

Family

ID=66545061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017200205A Active JP7166582B2 (en) 2017-10-16 2017-10-16 Vehicle surrounding recognition sensor inspection system, vehicle surrounding recognition sensor inspection method

Country Status (1)

Country Link
JP (1) JP7166582B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022176641A (en) 2021-05-17 2022-11-30 日立Astemo株式会社 Radar device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001357387A (en) 2000-06-15 2001-12-26 Hitachi Ltd On-vehicle image processing camera device
JP2007261463A (en) 2006-03-29 2007-10-11 Clarion Co Ltd Calibration system of vehicle-mounted camera
JP2010066092A (en) 2008-09-10 2010-03-25 Nissan Diesel Motor Co Ltd Device for adjustment of antenna axis of on-vehicle radar
JP2013002820A (en) 2011-06-11 2013-01-07 Suzuki Motor Corp Camera calibration apparatus
JP2013024712A (en) 2011-07-20 2013-02-04 Aisin Seiki Co Ltd Method and system for calibrating multiple camera

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1055446A (en) * 1996-08-09 1998-02-24 Omron Corp Object recognizing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001357387A (en) 2000-06-15 2001-12-26 Hitachi Ltd On-vehicle image processing camera device
JP2007261463A (en) 2006-03-29 2007-10-11 Clarion Co Ltd Calibration system of vehicle-mounted camera
JP2010066092A (en) 2008-09-10 2010-03-25 Nissan Diesel Motor Co Ltd Device for adjustment of antenna axis of on-vehicle radar
JP2013002820A (en) 2011-06-11 2013-01-07 Suzuki Motor Corp Camera calibration apparatus
JP2013024712A (en) 2011-07-20 2013-02-04 Aisin Seiki Co Ltd Method and system for calibrating multiple camera

Also Published As

Publication number Publication date
JP2019074398A (en) 2019-05-16

Similar Documents

Publication Publication Date Title
US7535558B2 (en) Method for optical chassis measurement
EP1295086B1 (en) Glint-resistant position determination system
US8363979B2 (en) Method for ascertaining the axis of rotation of a vehicle wheel
US6526665B2 (en) Glint-resistant position determination system
US7697029B2 (en) Image display apparatus and method
CN102077052B (en) Vision system for scan planning of ultrasonic inspection
EP3783385A1 (en) Combined point cloud generation using a stationary laser scanner and a mobile scanner
US11143505B2 (en) Surveying instrument
US8196461B2 (en) Method and device for checking the referencing of measuring heads in a chassis measuring system
JP2004317507A (en) Axis-adjusting method of supervisory device
US20120242839A1 (en) Image sensor calibration system and method
RU2646771C1 (en) Method of tracing vehicle route
EP3505865B1 (en) On-vehicle camera, method for adjusting on-vehicle camera, and on-vehicle camera system
JP2017096792A (en) Traffic density measuring device
JP6512015B2 (en) Calibration method
CN111208493A (en) Rapid calibration method of vehicle-mounted laser radar in whole vehicle coordinate system
JP4743771B2 (en) Section data acquisition method, system, and section inspection method
JP7123167B2 (en) External recognition device
US11247705B2 (en) Train wheel measurement process, and associated system
JP7166582B2 (en) Vehicle surrounding recognition sensor inspection system, vehicle surrounding recognition sensor inspection method
CN104321614B (en) Method and apparatus for carrying out the process for the orientation of at least one rail that determines measuring station
CN109996719A (en) For detecting the steering wheel position of the steering wheel of vehicle, steering wheel return corner and/or the device of gradient
JP2008014814A (en) Method for detecting end of road
CN116129669A (en) Parking space evaluation method, system, equipment and medium based on laser radar
CN109029438B (en) Vehicle positioning method in limited area

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221019

R150 Certificate of patent or registration of utility model

Ref document number: 7166582

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150