JPWO2021197651A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2021197651A5
JPWO2021197651A5 JP2022552586A JP2022552586A JPWO2021197651A5 JP WO2021197651 A5 JPWO2021197651 A5 JP WO2021197651A5 JP 2022552586 A JP2022552586 A JP 2022552586A JP 2022552586 A JP2022552586 A JP 2022552586A JP WO2021197651 A5 JPWO2021197651 A5 JP WO2021197651A5
Authority
JP
Japan
Prior art keywords
feature
angle
trailer
algorithm
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022552586A
Other languages
Japanese (ja)
Other versions
JP7437523B2 (en
JP2023516661A (en
Publication date
Priority claimed from EP20167191.4A external-priority patent/EP3889906A1/en
Application filed filed Critical
Publication of JP2023516661A publication Critical patent/JP2023516661A/en
Publication of JPWO2021197651A5 publication Critical patent/JPWO2021197651A5/ja
Application granted granted Critical
Publication of JP7437523B2 publication Critical patent/JP7437523B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、一般に、車両支援システムの分野に関する。特に、本発明は、牽引車両と連結されているトレーラのヨー角を車両のカメラにより提供される画像情報に基づいて計算する方法及びシステムに関する。 FIELD OF THE INVENTION The present invention relates generally to the field of vehicle assistance systems. In particular, the present invention relates to a method and system for calculating the yaw angle of a trailer coupled to a towing vehicle based on image information provided by a camera on the vehicle.

牽引車両に対するトレーラの角度を車両のカメラにより提供される画像情報に基づいて計算する方法は既知である。 Methods are known for calculating the angle of a trailer relative to a towing vehicle based on image information provided by a camera on the vehicle.

特に、トレーラの旋回点の場所を考慮に入れずにトレーラヨー角の信頼性高い近似を提供する第1タイプの方法が知られている。しかしながら、第1タイプの方法のヨー角近似の正確度は、ヨー角が大きい場合に低い。 In particular, a first type of method is known which provides a reliable approximation of the trailer yaw angle without taking into account the location of the trailer turning point. However , the accuracy of the yaw angle approximation of the first type of method is low when the yaw angle is large.

加えて、トレーラの旋回点の場所を考慮に入れる第2タイプの方法が知られている。しかしながら、ある状況において、第2タイプの方法は高ノイズを有する。 In addition , a second type of method is known which takes into account the location of the turning point of the trailer. However , in certain situations, the second type of method has high noise.

本発明の実施形態の課題は、トレーラのヨー角を高いロバストネスと高い信頼性で計算する方法を提供することである。本課題は、独立請求項の特徴により解決される。好ましい実施形態は従属請求項に記載されている。明示的に記載されていないが、本発明の実施形態は互いに自由に組み合わせ可能である。 An object of embodiments of the invention is to provide a method for calculating the yaw angle of a trailer with high robustness and reliability. This problem is solved by the features of the independent claims. Preferred embodiments are described in the dependent claims. Although not explicitly described, embodiments of the invention can be freely combined with each other.

1つの観点によると、本発明は、牽引車両の前後方向軸に対するトレーラのヨー角を決定する方法に関する。本方法は以下の方法を備える。 According to one aspect , the invention relates to a method for determining the yaw angle of a trailer relative to the longitudinal axis of a towing vehicle. The method includes the following methods.

まず、カメラを使ってトレーラの少なくとも第1及び第2画像が撮影される。第1及び第2画像は、車両に対するトレーラの方向が少なくとも2つの画像上において異なるように撮影される。 First, at least first and second images of the trailer are captured using a camera. The first and second images are taken such that the orientation of the trailer relative to the vehicle is different on at least the two images.

この画像の撮影後、トレーラの少なくとも第1特徴が決定される。この第1特徴は第1及び第2画像上において可視である必要がある。 After taking this image, at least a first characteristic of the trailer is determined. This first feature needs to be visible on the first and second images.

加えて、この少なくとも第1特徴に基づいて、角度推定を計算する少なくとも第1及び第2アルゴリズムが提供される。この第1アルゴリズムは、トレーラの回転幾何を調べ、特にトレーラの旋回点の場所を考慮に入れるアルゴリズムであってよい。第2アルゴリズムは、トレーラの異なる回転位置における2つ又はそれより多い特徴を考慮に入れることにより、トレーラのヨー角を近似するアルゴリズムであってよい。この第2アルゴリズムは、トレーラの回転幾何を調べる必要はない。 Additionally , at least first and second algorithms are provided for calculating an angle estimate based on the at least first feature. This first algorithm may be an algorithm that examines the rotational geometry of the trailer and takes into account in particular the location of the turning point of the trailer. The second algorithm may be an algorithm that approximates the yaw angle of the trailer by taking into account two or more features at different rotational positions of the trailer. This second algorithm does not need to examine the rotational geometry of the trailer.

この第1アルゴリズムと第2アルゴリズムとの少なくとも一方に基づいて、この第1特徴について少なくとも第1角度推定が提供される。 At least a first angle estimate is provided for the first feature based on at least one of the first algorithm and the second algorithm.

第1実施形態によると、第1角度推定の提供は、この第1角度推定を計算するために第1又は第2アルゴリズムを使うべきかを各特徴についての1つ又はそれより多い複数の基準に基づいて決定し、この第1特徴について選択されたアルゴリズムに基づいてこの第1角度推定を計算することにより行われる。従って、言い換えれば、どのアルゴリズムを使うかについての決定は、角度推定の計算前になされる。 According to a first embodiment , providing a first angle estimate determines whether a first or a second algorithm should be used to calculate this first angle estimate based on one or more criteria for each feature. and calculating the first angle estimate based on the selected algorithm for the first feature. Thus, in other words, the decision as to which algorithm to use is made before calculating the angle estimate.

第2実施形態によると、第1角度推定の提供は、この第1及び第2アルゴリズムに基づいて少なくとも1つの特徴についての第1角度推定を計算し、第1アルゴリズムにより得られた第1角度推定又は第2アルゴリズムにより得られた第1角度推定がさらなる処理に使われるか否かを1つ又はそれより多い複数の基準に基づいて決定することにより行われる。従って、言い換えれば、第2形態においては、第1角度推定は、複数のアルゴリズムに基づいて計算され、どの角度推定が使われるべきかについての決定は、この角度推定計算の結果を考慮に入れてなされる。このようにして、上記第1形態とは対照的に、どのアルゴリズムを使うかについての決定は、角度推定の計算後になされる。 According to a second embodiment , providing a first angle estimate comprises calculating a first angle estimate for the at least one feature based on the first and second algorithms, and calculating the first angle estimate obtained by the first algorithm. or by determining whether the first angle estimate obtained by the second algorithm is used for further processing based on one or more criteria. Thus, in other words, in the second form, the first angle estimate is calculated based on a plurality of algorithms, and the decision as to which angle estimate should be used takes into account the results of this angle estimate calculation. It will be done. Thus, in contrast to the first embodiment above, the decision as to which algorithm to use is made after the calculation of the angle estimate.

最後に、トレーラのヨー角はこの第1角度推定に基づいて計算される。 Finally, the trailer's yaw angle is calculated based on this first angle estimate.

この方法が有利であるのは、角度推定を提供するために各特徴について複数の方法からどの方法を使うべきかを決定するからであり、ヨー角決定の結果が非常に正確でロバストであるのは、各特徴について、最も信頼性の高い角度推定結果を提供する好適な方法を選択できるからである。 This method is advantageous because it determines which method to use from multiple methods for each feature to provide an angle estimate, and the result of yaw angle determination is very accurate and robust. This is because for each feature, a suitable method that provides the most reliable angle estimation result can be selected .

実施形態によると、各特徴について、第1アルゴリズム、つまりトレーラの回転幾何を利用するアルゴリズムに基づいて角度推定を計算する試みがなされる。1つ又はそれより多い基準、特に所定の基準が満たされないことを理由にこの第1アルゴリズムが失敗する場合、第2アルゴリズムが使われるAccording to one embodiment , for each feature an attempt is made to calculate an angle estimate based on a first algorithm, an algorithm that takes advantage of the rotational geometry of the trailer. If this first algorithm fails because one or more criteria, in particular a predetermined criterion, is not fulfilled, a second algorithm is used .

実施形態によると、第1アルゴリズムは以下のステップを行うように構成される。
-カメラと第1画像上の決定された第1特徴との間の第1光線が設定され、水平面上に投影されることにより、第1投影特徴位置を得る。同様に、カメラと第2画像上の決定された第1特徴との間の第2光線が設定され、この水平面上に投影されることにより、第2投影特徴位置を得る。
-第1直交二等分線は、第1投影特徴位置の場所と第2投影特徴位置の場所との間に設定される。より詳細には、第1直交二等分線は、第1投影特徴位置の場所と第2投影特徴位置の場所とを結ぶ線の中点を通って直交する直線であってよい。このようにして、第1直交二等分線は水平面に設定されてよい。
-第1直交二等分線の設定後、基準軸線又はさらなる直交二等分線との第1直交二等分線の第1交点が設定される。
-この第1直交二等分線に基づいて、第1角度推定が計算される。第1角度推定は、第1投影特徴位置からこの第1交点までの第1線と、第2投影特徴位置からこの第1交点までの第2線との間であって、水平面上における角度である。
According to one embodiment , the first algorithm is configured to perform the following steps.
- a first ray between the camera and the determined first feature on the first image is set and projected onto a horizontal plane to obtain a first projected feature position; Similarly, a second ray between the camera and the determined first feature on the second image is set and projected onto this horizontal plane to obtain a second projected feature position.
- a first orthogonal bisector is set between the location of the first projected feature location and the location of the second projected feature location; More specifically, the first orthogonal bisector may be a straight line that passes orthogonally through the midpoint of the line connecting the location of the first projected feature position and the location of the second projected feature position. In this way, the first orthogonal bisector may be set on the horizontal plane.
- After setting the first orthogonal bisector, a first point of intersection of the first orthogonal bisector with the reference axis or a further orthogonal bisector is set .
- a first angle estimate is calculated based on this first orthogonal bisector; The first angle estimation is an angle on a horizontal plane between a first line from the first projected feature position to this first intersection point and a second line from the second projected feature position to this first intersection point. be.

「第1画像又は第2画像上の第1特徴の位置」の記載は、画像特徴の2D画像座標又はそれに対応する光線(例えば、3D単位ベクトルもしくは方位角又は仰角として示される)に関することは言及に値する。2D画像座標は、カメラ較正情報を使って光線へと変換されてよい。 References to "the position of the first feature on the first image or the second image" do not refer to the 2D image coordinates of the image feature or its corresponding ray (e.g., expressed as a 3D unit vector or azimuth or elevation). worth it. 2D image coordinates may be converted to rays using camera calibration information.

この第1角度推定は牽引車両からトレーラに向かって開口していてよい。 This first angle estimate may be open from the towing vehicle toward the trailer.

実施形態によると、第1及び第2画像上において可視のトレーラの第2特徴は決定され、この第2特徴は第1特徴とは異なるトレーラの位置に配置される。角度推定を提供するために第1アルゴリズムはトレーラの2つ又はそれより多い特徴を使う。特に、第1アルゴリズムは、
- カメラと第1画像上の決定された第2特徴との間の光線を水平面上に投影することにより、第3投影特徴位置を得て、カメラ(3)と第2画像上の決定された第2特徴との間の光線をこの水平面上に投影することにより、第4投影特徴位置を得て、
- 第2直交二等分線を、第3投影特徴位置の場所と第4投影特徴位置の場所との間に設定し、
- この基準軸、この第1直交二等分線又はさらなる直交二等分線との第2直交二等分線の第2交点を決定し、
- 第2角度推定は、第3投影特徴位置からこの第2交点までの第1線と、第4投影特徴位置からこの第2交点までの第2線との間であって、この水平面上における角度である、この第2角度推定を計算するように構成される。
According to one embodiment , a second feature of the trailer visible on the first and second images is determined, and the second feature is placed at a different location of the trailer than the first feature. The first algorithm uses two or more features of the trailer to provide an angle estimate. In particular, the first algorithm is
- Obtaining a third projected feature position by projecting the ray between the camera and the determined second feature on the first image onto a horizontal plane; Obtaining a fourth projected feature position by projecting a ray between the second feature onto this horizontal plane,
- setting a second orthogonal bisector between the location of the third projected feature position and the location of the fourth projected feature position;
- determining a second point of intersection of a second orthogonal bisector with this reference axis , this first orthogonal bisector or a further orthogonal bisector;
- The second angle estimation is performed between the first line from the third projected feature position to this second intersection point and the second line from the fourth projected feature position to this second intersection point on this horizontal plane. The second angle estimate is configured to calculate an angle.

2つ又はそれより多い特徴を使うことにより、ノイズ及び不一致の影響を低減する様々な特徴に基づいて複数の角度推定を計算できる。 By using two or more features, multiple angle estimates can be calculated based on different features reducing the effects of noise and mismatch .

実施形態によると、第2アルゴリズムは、第1角度推定を計算するように構成される。第1角度推定は、牽引車両の固定点に対する、第1画像上の第1特徴と第2画像上の第1特徴との間の水平面における旋回角度を特徴付ける。 According to one embodiment , the second algorithm is configured to calculate the first angle estimate. The first angle estimate characterizes a turning angle in a horizontal plane between a first feature on the first image and a first feature on the second image with respect to a fixed point of the towing vehicle.

実施形態によると、第1及び第2画像上において可視のトレーラの第2特徴は決定され、第2特徴は第1特徴とは異なるトレーラの位置に配置され、第2アルゴリズムは、第2角度推定を計算するように構成され、第2角度推定は、牽引車両の固定点に対する、第1画像上の第2特徴と第2画像上の第2特徴との間の水平面における旋回角度を特徴付ける。第2アルゴリズムにおいて2つ又はそれより多い特徴を使うことにより、ノイズ及び不一致の影響を低減する様々な特徴に基づいて複数の角度推定を計算できる。 According to one embodiment , a second feature of the trailer visible on the first and second images is determined, the second feature is placed at a different position of the trailer than the first feature, and the second algorithm determines a second angle. The second angle estimate is configured to calculate an estimate, the second angle estimate characterizing a turning angle in a horizontal plane between a second feature on the first image and a second feature on the second image with respect to a fixed point of the towing vehicle. By using two or more features in the second algorithm, multiple angle estimates can be calculated based on different features reducing the effects of noise and mismatch .

実施形態によると、1つ又はそれより多い基準に基づいて決定するステップは、第1画像上の特徴と第2画像上のこの特徴との間の底辺線の長さを決定し、この長さを長さ閾値と比較することを備える。底辺線のこの長さは、第1及び第2画像上で捕捉された第1及び第2特徴を共通の写像又は座標系に変換した後に決定されてよく、この座標系は、車両の1つ又はそれより多い固定点の位置、例えばカメラの位置に関する情報も備えてよい。好ましくは、底辺線の長さがこの長さ閾値未満の場合、角度推定は第1アルゴリズムの代わりに第2アルゴリズムにより提供される。これにより、高ノイズを有する不正確な角度推定を避けられるAccording to one embodiment , the step of determining based on the one or more criteria includes determining the length of the base line between the feature on the first image and the feature on the second image; and comparing the length to a length threshold. This length of the base line may be determined after transforming the first and second features captured on the first and second images into a common mapping or coordinate system, which coordinate system is one of the vehicles. or information regarding the position of more fixed points, for example the position of a camera. Preferably, if the length of the base line is less than this length threshold, the angle estimate is provided by the second algorithm instead of the first algorithm. This avoids inaccurate angle estimation with high noise.

実施形態によると、1つ又はそれより多い複数の基準に基づいて決定するステップは、トレーラのロールピッチとの少なくとも一方を決定し、ロールをロール閾値と比較することと、ピッチをピッチ閾値と比較することとの少なくとも一方備える。好ましくは、ロールがロール閾値を超過している場合と、ピッチがピッチ閾値を超過している場合との少なくとも一方の場合、角度推定は第1アルゴリズムの代わりに第2アルゴリズムにより提供される。これにより、高ノイズを有する不正確な角度推定を避けられるAccording to one embodiment , the step of determining based on one or more of the plurality of criteria includes determining at least one of roll and pitch of the trailer, comparing the roll to a roll threshold, and comparing the pitch to a pitch threshold. and at least one of comparing . Preferably, the angle estimate is provided by the second algorithm instead of the first algorithm if the roll exceeds the roll threshold and/or if the pitch exceeds the pitch threshold. This avoids inaccurate angle estimation with high noise.

実施形態によると、1つ又はそれより多い基準に基づいて決定するステップは、水平方向の基準面に対する特徴の垂直方向の距離を決定し、この垂直方向の距離を距離閾値と比較することを備える。この垂直方向の距離は、第1及び第2画像上で捕捉された少なくとも1つの特徴を共通の地図又は座標系に変換した後に決定されてよい。この座標系は、車両の1つ又はそれより多い固定点の高さレベル、例えばカメラの高さレベル、特に水平方向の基準平面に対するカメラの高さレベルに関する情報も含んでよい。垂直方向の距離がこの距離閾値未満の場合、角度推定は第1アルゴリズムの代わりに第2アルゴリズムにより提供される。これにより、高ノイズを有する不正確な角度推定を避けられるAccording to one embodiment , the step of determining based on one or more criteria includes determining a vertical distance of the feature relative to a horizontal reference plane and comparing this vertical distance to a distance threshold. Be prepared . This vertical distance may be determined after transforming at least one feature captured on the first and second images to a common map or coordinate system. This coordinate system may also contain information about the height level of one or more fixed points of the vehicle, for example the height level of the camera, in particular with respect to a horizontal reference plane. If the vertical distance is less than this distance threshold, the angle estimate is provided by the second algorithm instead of the first algorithm. This avoids inaccurate angle estimation with high noise.

実施形態によると、第1又は第2画像において、車両に対するトレーラのヨー角はゼロである。これにより、この画像を「ゼロポーズ画像」として、つまり車両の前後方向軸とトレーラの前後方向軸との厳密な位置合わせの基準として使えるしかしながら、他のヨー角が既知である限り、この別のヨー角値も基準値として使えるAccording to one embodiment , in the first or second image the yaw angle of the trailer with respect to the vehicle is zero. Thereby, this image can be used as a "zero pose image", that is, as a reference for exact alignment between the longitudinal axis of the vehicle and the longitudinal axis of the trailer. However , as long as the other yaw angle is known, this other yaw angle value can also be used as a reference value.

実施形態によると、第2アルゴリズムにおいて、この少なくとも1つの角度推定を計算することは、この固定点と第1及び第2画像における少なくとも1つの特徴との間の光線を決定することを備える。この光線は、この固定点とそれぞれの特徴との間に延在する直線に関する。この光線に基づいて、現在の旋回角度を、例えば幾何的方法に基づいて、演算コストを抑えつつ決定できる。 According to one embodiment , in the second algorithm, calculating the at least one angle estimate comprises determining a ray between the fixed point and the at least one feature in the first and second images. This ray relates to a straight line extending between this fixed point and the respective feature. Based on this ray, the current turning angle can be determined , for example based on a geometric method, with low computational costs.

実施形態によると、特に第2アルゴリズムにおいて、この第1特徴と第2特徴との少なくとも一方の位置を光線に変換するためにカメラ較正情報が使われる。例えば、カメラ較正情報を使ってカメラ位置の情報を有することで、画像上のある特徴の位置を、カメラの位置に応じて又はそれに相関付けて場所情報に変換できる。 According to one embodiment , camera calibration information is used to convert the position of the first and /or second feature into a light beam , particularly in the second algorithm. For example, by having information about the camera position using camera calibration information, the position of a certain feature on an image can be converted into location information depending on or correlated to the camera position.

実施形態によると、この第1特徴と第2特徴との少なくとも一方の位置を画像の局所領域から車両又は車両のある固定点の位置の局所領域へと変換するために、カメラ較正情報が使われる。例えば、カメラ較正情報を使ってカメラ位置を得ることで、画像上のある特徴の位置を、車両に含まれているか取り付けられているカメラの位置に応じて又はそれに相関付けて場所情報に変換できる。 According to one embodiment , the camera calibration information is used to transform the position of the first feature and /or the second feature from a local region of the image to a local region of the vehicle or a fixed point location of the vehicle. be exposed . For example, the camera calibration information is used to obtain the camera position, which converts the position of a certain feature on an image into location information depending on or correlated to the position of a camera included or attached to the vehicle. I can .

実施形態によると、ヨー角を計算するために、この少なくとも1つの特徴に加えて、トレーラの少なくとも1つのさらなる特徴が使われる。この少なくとも1つのさらなる特徴は、第1特徴とは異なるトレーラの位置に配置される。例えば、第1特徴はトレーラの第1場所における明らかな第1特徴であってよく、第2特徴はトレーラの第2場所における明らかな第2特徴であってよい。2つ又はそれより多い特徴を使うことで、さらなる角度推定が得られ、これによりヨー角決定のロバストネスと信頼性がさらに向上する。 According to one embodiment , in addition to this at least one feature, at least one further feature of the trailer is used to calculate the yaw angle. The at least one further feature is located at a different location on the trailer than the first feature. For example, the first feature may be a first distinct feature at a first location on the trailer, and the second feature may be a second distinct feature at a second location on the trailer . By using two or more features, additional angle estimates can be obtained, which further improves the robustness and reliability of the yaw angle determination.

実施形態によると、ヨー角は、第1及び第2アルゴリズムにより提供される少なくとも2つの角度推定に基づいて中央値を設定することにより計算される。これにより、非常に安定したヨー角決定を得られるAccording to one embodiment , the yaw angle is calculated by setting a median value based on at least two angle estimates provided by the first and second algorithms. This results in a very stable yaw angle determination.

他の実施形態によると、ヨー角は、第1及び第2アルゴリズムにより提供される少なくとも2つの角度推定の平均値を設定することにより又はこの角度推定に適用される統計的方法を使うことにより計算される。 According to another embodiment , the yaw angle is calculated by setting an average value of at least two angle estimates provided by the first and second algorithms or by using a statistical method applied to this angle estimate. be done.

実施形態によると、本方法は、角度窓を決定するステップをさらに備える。この角度窓は、このヨー角の周りに上方境界と下方境界とを備えてよい。さらに、1セットの特徴が決定され、このセットの特徴内のこの特徴によりこの角度窓内に位置する角度推定が得られる。この決定されたセットの特徴、好ましくはこのセットの特徴に含まれる特徴のみが以降のヨー角計算に使われる。従って、言い換えれば、以前のヨー角決定の情報を使うことにより、決定されたヨー角に非常に近い角度推定(つまり角度窓内)となるトレーラの2つ又はそれより多い特徴を決定し、決定されたヨー角から著しく逸脱する角度推定(つまり角度窓外)となるような特徴は追跡されない。これにより、角度推定の演算の複雑さと正確度を著しく低減できる。 According to one embodiment , the method further comprises determining an angular window. The angle window may have an upper boundary and a lower boundary around the yaw angle. Furthermore, a set of features is determined, and this feature within the set of features provides an angle estimate that lies within this angle window. This determined set of features, preferably only the features included in this set of features , are used for subsequent yaw angle calculations. Thus, in other words, by using the information of the previous yaw angle determination, two or more features of the trailer that result in an angle estimate very close to the determined yaw angle (i.e. within the angle window) are determined and determined. Features that result in angle estimates that deviate significantly from the calculated yaw angle (i.e., outside the angle window) are not tracked. This can significantly reduce the complexity and accuracy of angle estimation calculations.

実施形態によると、過小評価を矯正するために、計算されたヨー角の値はある程度分又はある割合分だけ増加される。計算結果の過小評価を矯正するために、例えば、計算されたヨー角は5%から15%分、特に10%分だけスケール(加減)されてよい。 According to one embodiment , the value of the calculated yaw angle is increased by a certain amount or percentage to correct the underestimation. In order to correct for an underestimation of the calculation result, for example, the calculated yaw angle may be scaled by 5% to 15%, in particular by 10%.

実施形態によると、第1アルゴリズムにおいて、カメラと車両のトウボールとが、垂直方向に方向付けられた平面であって、牽引車両の前後方向軸を含む平面に配置されている場合、基準軸は牽引車両のこの前後方向軸である。 According to one embodiment , in the first algorithm , the reference axis is The line is this longitudinal axis of the towing vehicle.

別の実施形態によると、第1アルゴリズムにおいて、カメラとトウボールとの少なくとも一方が牽引車両の前後方向軸に対して横方向オフセットを有する場合、基準軸はカメラとトウボールとの間に延在する直線である。これにより、カメラとトウボールとの間の横方向オフセットを補償できる。 According to another embodiment , in the first algorithm, if at least one of the camera and the towball has a lateral offset with respect to the longitudinal axis of the towing vehicle, the reference axis extends between the camera and the towball . It is a straight line. This makes it possible to compensate for lateral offsets between the camera and the towball .

実施形態によると、カメラは、車両のリアビューカメラである。リアビューカメラに基づいて、技術的コストを抑えてトレーラの画像を撮影できる。 According to one embodiment , the camera is a rear view camera of the vehicle. Based on a rear-view camera, images of the trailer can be captured with low technical costs.

さらなる観点によると、牽引車両の前後方向軸に対するトレーラのヨー角を決定するシステムが開示される。本システムは、トレーラの画像を撮影するカメラと、この撮影された画像を処理する処理実体と、を備える。本システムは、
- カメラを使ってトレーラの少なくとも第1及び第2画像を撮影するステップにおいて、車両に対するトレーラの方向が少なくとも2つの画像上において異なる、ステップと、
- 第1及び第2画像上において可視のトレーラの少なくとも第1特徴を決定するステップと、
- 少なくとも第1特徴に基づいて、少なくとも1つの角度推定を計算する少なくとも第1及び第2アルゴリズムを提供するステップと、
- 第1特徴について少なくとも第1角度推定を提供するステップであって、
・第1角度推定を計算するために第1又は第2アルゴリズムを使うべきかを各特徴についての1つ又はそれより多い基準に基づいて決定し、第1特徴について選択されたアルゴリズムに基づいて第1角度推定を計算するステップ、もしくは
・第1及び第2アルゴリズムに基づいて第1特徴についての第1角度推定を計算し、第1アルゴリズムにより得られた第1角度推定又は第2アルゴリズムにより得られた第1角度推定がさらなる処理に使われるか否かを1つ又はそれより多い基準に基づいて決定するステップ
によって、第1特徴について少なくとも第1角度推定を提供するステップと、
- ヨー角を第1角度推定に基づいて計算するステップと、を実行するようにさらに構成される。
According to a further aspect , a system for determining a yaw angle of a trailer relative to a longitudinal axis of a towing vehicle is disclosed. The system includes a camera that captures images of the trailer, and a processing entity that processes the captured images. This system is
- capturing at least first and second images of the trailer using a camera, the orientation of the trailer relative to the vehicle being different on the at least two images;
- determining at least a first feature of the trailer visible on the first and second images;
- providing at least first and second algorithms for calculating at least one angle estimate based on at least a first feature;
- providing at least a first angle estimate for the first feature;
- determining whether to use a first or a second algorithm to calculate the first angle estimate based on one or more criteria for each feature; 1 calculating an angle estimate, or
- Calculate a first angle estimate for the first feature based on the first and second algorithms, and the first angle estimate obtained by the first algorithm or the first angle estimate obtained by the second algorithm is subjected to further processing. providing at least a first angle estimate for the first feature by determining whether to use it based on one or more criteria;
- calculating a yaw angle based on the first angle estimate.

本方法の1実施形態として記載された上記特徴の何れも、本開示のシステムにおけるシステム特徴としても適用可能である。 Any of the above features described as an embodiment of the method are also applicable as system features in the system of the present disclosure.

さらに別の形態によると、上記形態の何れか1つによるシステムを備える車両が開示される。 According to yet another aspect, a vehicle is disclosed that includes a system according to any one of the above aspects.

本開示で使われる「車両」の用語は、乗用車、貨物自動車、バス、列車又は任意の他の船舶に関してよい。 The term "vehicle" as used in this disclosure may relate to a passenger car, lorry, bus, train or any other watercraft.

本開示で使われる「ヨー角」の用語は、車用の前後方向軸とトレーラの前後方向軸との間の旋回角度に関してよい。 The term "yaw angle" as used in this disclosure may refer to the turning angle between the longitudinal axis of the vehicle and the longitudinal axis of the trailer.

本開示で使われる「中央値」の用語は、データサンプル又は確率分布の上半分と下半分を分ける値に関してよい。 The term "median" as used in this disclosure may refer to the value that separates the upper and lower halves of a data sample or probability distribution.

本発明で使われる用語「本質的に」又は「略」は、
厳密な値に対する+/-10%、好ましくは+/-5%の逸脱意味することと、
関数交通法規との少なくとも一方に重要ではない変化の形での逸脱を意味すること
との少なくとも一方を意味する。
The term “essentially” or “substantially” as used in the present invention means
means a deviation of +/-10%, preferably +/-5%, from the exact value;
to mean a deviation in the form of an insignificant change in the function and/or the traffic law;
means at least one of the following .

その具体的な特徴と有利な点とを備える本発明の様々な観点は、以下の詳細な説明と添付の図面から容易に理解されるだろう。 Various aspects of the invention, including its specific features and advantages, will be readily understood from the following detailed description and accompanying drawings.

図1は、トレーラを牽引する車両の例示的な上面図を示す。FIG. 1 shows an exemplary top view of a vehicle towing a trailer. 図2は、第1アルゴリズムによる、トレーラと牽引車両との間の異なる旋回角度でカメラ画像により捕捉された第1特徴に基づく角度推定を概略的に示す。FIG. 2 schematically shows angle estimation based on a first feature captured by a camera image at different turning angles between a trailer and a towing vehicle according to a first algorithm. 図3は、第1アルゴリズムによる、トレーラと牽引車両との間の異なる旋回角度でカメラ画像により捕捉された第1及び第2特徴に基づく2つの角度推定を概略的に示す。FIG. 3 schematically shows two angle estimations based on first and second features captured by camera images at different turning angles between the trailer and the towing vehicle according to the first algorithm. 図4は、第2アルゴリズムによる、トレーラと牽引車両との間の異なる旋回角度でカメラ画像により捕捉された第1及び第2特徴に基づく角度推定を概略的に示す。FIG. 4 schematically shows angle estimation based on first and second features captured by camera images at different turning angles between the trailer and the towing vehicle, according to a second algorithm. 図5は、牽引車の前後方向軸に対するトレーラのヨー角を決定する方法のステップを示す概略的なブロック図を示す。FIG. 5 shows a schematic block diagram illustrating the steps of a method for determining the yaw angle of the trailer with respect to the longitudinal axis of the towing vehicle.

以下、例示的な実施形態が示される添付の図面を参照して本発明をより完全に説明する。図中の実施形態は好ましい実施形態に関する一方、実施形態に関連して説明される全ての要素及び特徴は、適切である限り、特に上記した任意の他の実施形態に関連する、本明細中において説明される任意の他の実施形態及び特徴とも組み合わせて用いられてよい。しかしながら、本発明は、本明細書に記載されている実施形態に限定されると見なされるべきではない。以下の説明を通して、同様の参照符号は、該当する場合、同様の要素、部材、アイテム又は特徴を示すために用いられている。 The invention will now be described more fully with reference to the accompanying drawings, in which exemplary embodiments are shown. While the embodiments in the figures relate to preferred embodiments, all elements and features described in connection with the embodiments may be used herein, insofar as appropriate, particularly in relation to any other embodiments described above. It may also be used in combination with any other embodiments and features described. However , the invention should not be considered limited to the embodiments described herein. Throughout the following description, like reference numerals are used, where applicable, to indicate similar elements, members, items or features.

明細書、特許請求の範囲、実施形態例と、図面との少なくともいずれかにより開示されている本発明の特徴は、別個とその任意の組み合わせの両方において、その様々な形態において本発明を実現する材料であってよい。 The features of the invention disclosed in the description, the claims , the exemplary embodiments and /or the drawings, both separately and in any combination thereof, enable the invention to be understood in its various forms, both separately and in any combination thereof. It may be any material that realizes this.

図1は、トレーラ2を牽引する車両1の上面図を示す。車両1は、車両1の中心を通る前後方向軸LAVを備える。同様に、トレーラ2は、トレーラ2の中心を通る前後方向軸LATを備える。トレーラ2は、トウボール4を備えるトレーラヒッチを使って車両1と連結されている。 FIG. 1 shows a top view of a vehicle 1 towing a trailer 2. FIG. The vehicle 1 includes a longitudinal axis LAV passing through the center of the vehicle 1. Similarly, the trailer 2 includes a longitudinal axis LAT passing through the center of the trailer 2. The trailer 2 is connected to the vehicle 1 using a trailer hitch including a tow ball 4.

いくつかの走行状況において、車両1の前後方向軸LAV及びトレーラ2の前後方向軸LATは平行に配置されていない場合があり、互いに一致しない場合があるが、これらの軸はヨー角YAを閉じ込めるだろう。言い換えれば、ヨー角YAは、車両1の前後方向軸LAVに対するトレーラ2の前後方向軸LATの角度の逸脱を定義している。ヨー角YAは、トレーラ2の前後方向軸LATと車両1の前後方向軸LAVとを含む水平方向平面において測定されてよい。 In some driving situations, the longitudinal axis LAV of the vehicle 1 and the longitudinal axis LAT of the trailer 2 may not be arranged parallel to each other and may not coincide with each other, but these axes may vary depending on the yaw angle. It will lock up YA. In other words, the yaw angle YA defines the angular deviation of the longitudinal axis LAT of the trailer 2 from the longitudinal axis LAV of the vehicle 1. The yaw angle YA may be measured on a horizontal plane including the longitudinal axis LAT of the trailer 2 and the longitudinal axis LAV of the vehicle 1.

ヨー角YAを得ることは、とりわけ、例えばトレーラ支援システムにおいて有利である。 Obtaining the yaw angle YA is advantageous, inter alia, for example in trailer assistance systems.

ヨー角YAを決定するために、トレーラ2の少なくとも一部の複数の画像がカメラ3を使って撮影される。カメラ3は、例えば、車両1のリアビューカメラであってよく、リアビューカメラ後退時に車両1の周辺の画像の撮影に使われるだろう。撮影画像の1つは、牽引車両1に対するトレーラ2の既知の角度配置を示してよい。この画像は、ヨー角YAを算出する基準として用いられてよい。この、牽引車両1に対するトレーラ2の既知の角度配置において、ヨー角YAは0°であってよく、他の任意の角度値であってもよい。 In order to determine the yaw angle YA, a plurality of images of at least a part of the trailer 2 are taken using the camera 3. The camera 3 may be, for example, a rear view camera of the vehicle 1, and the rear view camera may also be used to take images of the surroundings of the vehicle 1 when reversing. One of the captured images may show a known angular positioning of the trailer 2 with respect to the towing vehicle 1. This image may be used as a reference for calculating the yaw angle YA. In this known angular arrangement of the trailer 2 with respect to the towing vehicle 1, the yaw angle YA may be 0° or any other angular value.

図2は、トレーラ2が牽引車両1に対して異なるヨー角YAを有する異なる時点におけるトレーラ2の第1特徴の角度関係を示す概略図を示す。 FIG. 2 shows a schematic diagram showing the angular relationship of the first feature of the trailer 2 at different times when the trailer 2 has different yaw angles YA relative to the towing vehicle 1.

カメラ3は、車両1に対するトレーラ2の角度位置が異なっている、異なる時点における2つ又はそれより多い画像を撮影してよい。例えば、画像系列が撮影されてよい。 The camera 3 may take two or more images at different times, with different angular positions of the trailer 2 relative to the vehicle 1. For example, a series of images may be taken.

本例において、第2画像は、ヨー角YA=0°における、車両に対するトレーラの方向を示してよい。 In this example, the second image may show the orientation of the trailer relative to the vehicle at a yaw angle YA=0°.

経時的なトレーラ2の角度移動を理由に、トレーラで検出されるある特徴が第1及び第2画像において異なる位置に現れる場合がある。図2において、第1特徴は正方形で示される。 Due to the angular movement of the trailer 2 over time, certain features detected on the trailer may appear in different positions in the first and second images. In FIG. 2, the first feature is indicated by a square.

第1特徴の上方表示(特徴をカメラ3と結ぶ実線の光線Rに関連)は第1画像において識別され、第1特徴の下方表示(特徴をカメラ3と結ぶ破線の光線Rに関連)は異なる時点における第2画像において識別される。各画像における第1特徴の場所を車両1の場所、特に車両1の所定の固定点と相関付けるために、カメラ3の較正情報が用いられてよい。特に、第1特徴をカメラ3と結ぶ光線Rを決定するために、カメラ3の較正情報が用いられ、画像座標におけるこの第1特徴の場所を光線へと変換してよい。言い換えれば、カメラ位置と特徴位置とを関連付けるために、画像上の特徴の場所はカメラ3の較正情報に基づいて車両の固定点の位置と相関付けられる。 The upper representation of the first feature (associated with the solid ray R connecting the feature to camera 3) is identified in the first image, and the lower representation of the first feature (associated with the dashed ray R connecting the feature with camera 3) is different. identified in the second image at the time point. Calibration information of the camera 3 may be used to correlate the location of the first feature in each image with the location of the vehicle 1, in particular with a predetermined fixed point of the vehicle 1. In particular, the calibration information of the camera 3 may be used to determine a ray R connecting the first feature with the camera 3 and converting the location of this first feature in image coordinates into a ray. In other words, the location of the feature on the image is correlated with the location of a fixed point on the vehicle based on the calibration information of the camera 3 in order to associate the camera location and the feature location.

トレーラの特徴は、特徴検出及びマッチングのアルゴリズムを使って位置特定及びマッチングされる。例えば、ハリスのコーナー検出法、スケール不変特徴変換(SIFT)アルゴリズム、高速化ロバスト特徴(SURF)アルゴリズム、バイナリロバスト不変スケーラブルキーポイント(BRISK)アルゴリズム、バイナリロバスト独立基本特徴(BRIEF)、方向付きFAST及び回転BRIEF(ORB)アルゴリズム又は他の好適な特徴検出及びマッチングアルゴリズムを使ってよい。 Trailer features are located and matched using feature detection and matching algorithms. For example, Harris Corner Detection Method, Scale Invariant Feature Transform (SIFT) Algorithm, Speed Up Robust Features (SURF) Algorithm, Binary Robust Invariant Scalable Keypoint (BRISK) Algorithm, Binary Robust Independent Fundamental Features (BRIEF), Directed FAST and The Rotated BRIEF (ORB) algorithm or other suitable feature detection and matching algorithm may be used .

特徴検出及びマッチングアルゴリズムはトレーラ上にあるか又はトレーラ上にはない画像特徴を検出してよい。トレーラ特徴を非トレーラ特徴から区分けるために、複数の様々な方法が用いられてよい。例えば、直線前進走行の場合、トレーラ特徴は、経時的に同一位置のままである特徴を探すことにより非トレーラ特徴から区分けられてよい。代替的に、背景特徴の動き(モーションは車両の既知のモーションを使って経時的にモデル化されてよい。これは、速度と操舵に関するCANデータから抽出されてよい。この場合、基本行列のエピポーラ拘束に当てはまらない特徴をトレーラ特徴として考慮してよい。 Feature detection and matching algorithms may detect image features that are on the trailer or not on the trailer. A number of different methods may be used to separate trailer characteristics from non- trailer characteristics. For example, in the case of straight-line forward travel, trailer features may be separated from non- trailer features by looking for features that remain in the same location over time. Alternatively, the motion of background features may be modeled over time using the known motion of the vehicle. This may be extracted from CAN data regarding speed and steering. In this case, features that do not apply to the epipolar constraint of the fundamental matrix may be considered as trailer features.

ある状況又は条件に応じて、ヨー角YAを示す少なくとも1つの角度推定α1、α2を決定するために単一のアルゴリズムのみを使う代わりに、1セットのアルゴリズムからあるアルゴリズムを選択することが好ましい場合があるように思われた。以下、少なくとも1つの角度推定α1、α2を決定する第及び第2アルゴリズムと、この少なくとも1つの角度推定α1、α2を決定するためにどのアルゴリズムを使うべきか決定するフレームワークが提供される。 Depending on certain situations or conditions, it may be preferable to select an algorithm from a set of algorithms instead of using only a single algorithm for determining at least one angle estimate α1, α2 representing the yaw angle YA. It seemed like there was. In the following, first and second algorithms for determining at least one angle estimate α1, α2 and a framework for determining which algorithm to use to determine this at least one angle estimate α1, α2 are provided. .

第1アルゴリズムに基づくヨー角YAの決定は、図2においてより詳細に示される。この第1及び第2画像間の少なくとも1つの特徴の場所の変化は、少なくとも第1角度推定α1を決定するために使われるThe determination of the yaw angle YA based on the first algorithm is shown in more detail in FIG. 2. This change in the location of the at least one feature between the first and second images is used to determine at least a first angle estimate α1.

それぞれの画像における特徴識別後、第1及び第2画像の第1特徴は共通の水平面に投影される。より詳細には、カメラ3と第1画像上の決定された第1特徴との間の光線が水平面上に投影されることにより、第1投影特徴位置PFP1aが得られる。さらに、カメラ3と第2画像上の決定された第1特徴との間の光線が同一の水平面上に投影されることにより、第2投影特徴位置PFP1bが得られる。この投影は垂直方向に行われることにより、光線の仰角のみを変化させるのであって、方位角は変化させないことは言及に値する。 After identifying features in each image, the first features of the first and second images are projected onto a common horizontal plane. More specifically, the first projected feature position PFP1a is obtained by projecting the light beam between the camera 3 and the determined first feature on the first image onto a horizontal plane. Furthermore, the second projected feature position PFP1b is obtained by projecting the light rays between the camera 3 and the determined first feature on the second image onto the same horizontal plane. It is worth mentioning that this projection is performed in the vertical direction, thereby changing only the elevation angle of the ray, but not the azimuth angle.

第1及び第2投影特徴位置PFP1a、PFP1bを決定した後、第1直交二等分線B1が、この第1及び第2投影特徴位置PFP1a、PFP1bに基づいて設定される。図2に示されるように、第1直交二等分線B1は、第1及び第2投影特徴位置PFP1a、PFP1bを結ぶ線に直交する線である。さらに、第1直交二等分線B1は、この連結線の中点を通る。この第1直交二等分線B1は、本実施形態においては車両の前後方向軸LAVである基準軸と交差する。第1直交二等分線B1と基準軸とのこの交点により回転点が得られ、この回転点の周りにトレーラ2は回転する。より詳細には、この交点によりトウボール4の位置が示される。 After determining the first and second projected feature positions PFP1a and PFP1b, a first orthogonal bisector B1 is set based on the first and second projected feature positions PFP1a and PFP1b. As shown in FIG. 2, the first orthogonal bisector B1 is a line that is perpendicular to the line connecting the first and second projected feature positions PFP1a and PFP1b. Furthermore, the first orthogonal bisector B1 passes through the midpoint of this connection line. This first orthogonal bisector B1 intersects with the reference axis, which is the longitudinal axis LAV of the vehicle in this embodiment. A rotation point is obtained by this intersection of the first orthogonal bisector B1 and the reference axis , and the trailer 2 rotates around this rotation point. More specifically, this intersection indicates the position of the tow ball 4.

この第1直交二等分線B1に基づいて、第1角度推定α1が計算される。この第1角度推定α1は、第1投影特徴位置PFP1aと、第1直交二等分線B1と基準軸との交点と、を結ぶ第1線L1と、第2投影特徴位置PFP1bと、第1直交二等分線B1と基準軸との交点と、を結ぶ第2線L2との間に設けられる角度である。交点は、トウボール4の位置を示してよい。より詳細には、第1角度推定α1は、水平面上に投影された第1画像における第1特徴の場所とこの水平面上に投影された第2画像における第1特徴の場所との間で、(トウボール4の少なくとも略位置である)この第1交点IP1の周りの、この水平面におけるトレーラ2の旋回角度を特徴付ける。 A first angle estimate α1 is calculated based on this first orthogonal bisector B1. This first angle estimation α1 is based on a first line L1 connecting the first projected feature position PFP1a, the intersection of the first orthogonal bisector B1 and the reference axis , the second projected feature position PFP1b, and the second projected feature position PFP1b. This is the angle provided between the intersection of the 1 orthogonal bisector B1 and the reference axis , and the second line L2 connecting the two. The intersection may indicate the position of the tow ball 4. More specifically , the first angle estimate α1 is calculated as follows: ( Characterizes the turning angle of the trailer 2 in this horizontal plane around this first intersection point IP1 (which is at least approximately the position of the tow ball 4).

本実施形態において、基準軸が牽引車両1の前後方向軸LAVであるのは、カメラ3及びトウボール4が車両1のこの前後方向軸LAV上に位置しているからである。他の実施形態において、カメラ3又はトウボール4が車両1の前後方向軸LAVに対して横方向のずれ(オフセット)を有する場合又は車両1の前後方向軸LAVに対するカメラ3とトウボール4の横方向オフセットが異なる場合、基準軸はカメラ3とトウボール4を結ぶ直線により形成されてもよい。 In this embodiment, the reference axis is the longitudinal axis LAV of the towing vehicle 1 because the camera 3 and the tow ball 4 are located on the longitudinal axis LAV of the vehicle 1. In other embodiments, the camera 3 or the towball 4 has a lateral offset with respect to the longitudinal axis LAV of the vehicle 1 , or the camera 3 and the towball 4 are laterally offset with respect to the longitudinal axis LAV of the vehicle 1. If the directional offsets are different, the reference axis may be formed by a straight line connecting the camera 3 and the tow ball 4.

第1角度推定α1は、トレーラ2のその実際の回転点の周りのヨー角YAを表す。 The first angle estimate α1 represents the yaw angle YA of the trailer 2 about its actual rotation point.

図3は、ヨー角YAを設定するために、第1アルゴリズムを使って、異なる時点(トレーラ2が牽引車両1に対する異なるヨー角YAを有する時点)において捕捉されたトレーラ2の第1及び第2特徴(つまり2つの異なる特徴)を使う、図2と同様の実施形態を示す。 FIG. 3 shows the first and second images of the trailer 2 captured at different times (times when the trailer 2 has different yaw angles YA with respect to the towing vehicle 1) using the first algorithm to set the yaw angle YA. 2 shows an embodiment similar to FIG. 2 using features (ie two different features).

カメラ3により撮影された画像上において、複数の異なる特徴が識別可能であってよい。図3に示されるように、この特徴は、車両1の固定点に対して異なる角度位置において識別されている。第1特徴は正方形で示され、第2特徴は三角形により示されている。この固定点はカメラ3の場所であってよく又はトウボール4の場所であってよい。 A plurality of different features may be distinguishable on the image taken by the camera 3. As shown in FIG. 3, this feature is identified at different angular positions relative to the fixed point of the vehicle 1. The first feature is indicated by a square and the second feature by a triangle. This fixed point may be the location of the camera 3 or the location of the tow ball 4.

図3において、第1及び第2特徴の上方の対(PFP1a、PFP2aにより示され、特徴をカメラ3と結ぶ実線の光線に関連)が第1画像において識別され、第1及び第2特徴F1、F2の下方の対(PFP1b、PFP2bにより示され、特徴をカメラ3と結ぶ破線の光線に関連)が異なる時点で第2画像において識別されている。 In FIG. 3, an upper pair of first and second features (denoted by PFP1a, PFP2a and associated with the solid ray connecting the features with camera 3) is identified in the first image, and the first and second features F1, The lower pair of F2 (denoted by PFP1b, PFP2b and associated with the dashed ray connecting the feature with camera 3) has been identified in the second image at different times.

ヨー角YAの決定は図2の実施形態と同様に行われる。主な相違点は、2つの角度推定α1、α2が設定され、トレーラのヨー角YAがこの2つの角度推定α1、α2に基づいて展開されることである。より詳細には、第1直交二等分線B1を設定し、第1角度推定α1を得ることは、上述したように行われる。 The determination of the yaw angle YA is performed in the same way as in the embodiment of FIG. The main difference is that two angle estimates α1, α2 are set and the yaw angle YA of the trailer is developed based on these two angle estimates α1, α2. More specifically, setting the first orthogonal bisector B1 and obtaining the first angle estimate α1 are performed as described above.

さらに、第2角度推定α2は、第3投影特徴位置PFP2aと第4投影特徴位置PFP2bとを設定し、第2交点IP2を得るために第2直交二等分線B2を設定し、第3投影特徴位置PFP2a及び第4投影特徴位置PFP2bをこの第2交点IP2と結ぶことにより得られる。この第3投影特徴位置PFP2aは、第1画像における第2特徴をこの水平面上に投影することにより得られ、第4投影特徴位置PFP2bは、第2画像における第2特徴をこの水平面上に投影することにより得られる。第2交点IP2は、第2直交二等分線B2が基準軸、本実施形態においては車両の前後方向軸LAVと交差する点であってよい。第2角度推定α2は、第3投影特徴位置PFP2aと交点IP2とを結ぶ第1線と、第4投影特徴位置PFP2bと交点IP2とを結ぶ第2線との間の角度である。 Furthermore, the second angle estimation α2 sets the third projected feature position PFP2a and the fourth projected feature position PFP2b, sets the second orthogonal bisector B2 to obtain the second intersection point IP2, and sets the third projected feature position PFP2a and the fourth projected feature position PFP2b. It is obtained by connecting the feature position PFP2a and the fourth projected feature position PFP2b with this second intersection point IP2. This third projected feature position PFP2a is obtained by projecting the second feature in the first image onto this horizontal plane, and the fourth projected feature position PFP2b is obtained by projecting the second feature in the second image onto this horizontal plane. It can be obtained by The second intersection point IP2 may be a point where the second orthogonal bisector B2 intersects the reference axis , in this embodiment, the longitudinal axis LAV of the vehicle. The second angle estimate α2 is the angle between the first line connecting the third projected feature position PFP2a and the intersection IP2 and the second line connecting the fourth projected feature position PFP2b and the intersection IP2.

図3の実施形態においても、基準軸が牽引車両1の前後方向軸LAVであるのは、カメラ3及びトウボール4が車両1のこの前後方向軸LAV上に位置しているからである。他の実施形態において、カメラ3又はトウボール4が車両1の前後方向軸LAVに対して横方向のずれ(オフセット)を有する場合又は車両1の前後方向軸LAVに対するカメラ3とトウボール4の横方向オフセットが異なる場合、基準軸はカメラ3とトウボール4を結ぶ直線により形成されてもよい。 Also in the embodiment of FIG. 3, the reference axis is the longitudinal axis LAV of the towing vehicle 1 because the camera 3 and tow ball 4 are located on this longitudinal axis LAV of the vehicle 1. . In other embodiments, the camera 3 or the towball 4 has a lateral offset with respect to the longitudinal axis LAV of the vehicle 1 , or the camera 3 and the towball 4 are laterally offset with respect to the longitudinal axis LAV of the vehicle 1. If the directional offsets are different, the reference axis may be formed by a straight line connecting the camera 3 and the tow ball 4.

トレーラ2の2つより多い特徴が決定され、複数の画像にわたって追跡できることは言及に値する。さらに、好ましくは、ヨー角推定の結果を向上させるために、2つより多い画像が異なる時点で撮影される。これにより、ヨー角決定の質を向上させるために2つより多い角度推定α1、α2を設定できる。 It is worth mentioning that more than two features of trailer 2 can be determined and tracked over multiple images. Furthermore, preferably more than two images are taken at different times in order to improve the results of the yaw angle estimation. This allows more than two angle estimates α1, α2 to be set in order to improve the quality of the yaw angle determination.

以下、少なくとも1つの角度推定α1、α2を決定する第2アルゴリズムについて図4を参照して説明する。 A second algorithm for determining at least one angle estimate α1, α2 will be described below with reference to FIG. 4.

図4は、トレーラ2の第1及び第2特徴F1、F2の角度関係を説明する概略図であって、この特徴F1、F2が車両1の固定点に対して異なる時点及び異なる角度位置で識別されている、概略図を示す。 FIG. 4 is a schematic diagram illustrating the angular relationship between the first and second features F1, F2 of the trailer 2, in which the features F1, F2 are identified at different times and at different angular positions with respect to the fixed point of the vehicle 1. A schematic diagram is shown.

カメラ3は、車両1に対するトレーラ2の角度位置が異なっている、異なる時点における2つ又はそれより多い画像を撮影してよい。例えば、画像系列が撮影されてよい。この画像系列は3つ又はそれより多く特に、5つより多い画像を含んでよい。 The camera 3 may take two or more images at different times, with different angular positions of the trailer 2 relative to the vehicle 1. For example, a series of images may be taken. This image sequence may include three or more , in particular more than five images.

本例において、第2画像は、ヨー角YA=0°における、車両に対するトレーラ2の方向を示してよい。しかしながら、他の実施形態において、ヨー角YAは、既知のものであって、現在のヨー角の決定に使える他の任意の基準ヨー角であってもよい。 In this example, the second image may show the orientation of the trailer 2 relative to the vehicle at a yaw angle YA=0°. However , in other embodiments, yaw angle YA may be any other reference yaw angle that is known and can be used to determine the current yaw angle.

カメラ3により撮影された画像において、複数の異なる特徴は識別可能であってよい。図4において、車両1のカメラ3の位置又は基準軸に対して異なる角度位置で識別されている特徴F1、F2が示されている。第1特徴F1は正方形で示され、第2特徴は三角形により示されている。2つより多い特徴と2つより多い画像をヨー角推定に使えることは言及に値する。また、ヨー角推定のために1つのみの特徴を使うことも可能である。 In the image taken by camera 3, a plurality of different features may be distinguishable. In FIG. 4, features F1, F2 are shown identified in different angular positions relative to the position of the camera 3 of the vehicle 1 or the reference axis . The first feature F1 is indicated by a square and the second feature by a triangle. It is worth mentioning that more than two features and more than two images can be used for yaw angle estimation. It is also possible to use only one feature for yaw angle estimation.

このようにして、第1及び第2特徴F1、F2の上方の対(特徴F1、F2をカメラ3と結ぶ実線の光線に関連)が第1画像において識別されてよく、第1及び第2特徴F1、F2の下方の対(特徴F1、F2をカメラ3と結ぶ破線の光線に関連)が異なる時点で第2画像において識別されてよい。 In this way, the upper pair of first and second features F1, F2 (associated with the solid ray connecting features F1, F2 with camera 3) may be identified in the first image, and the first and second features The lower pair of F1, F2 (associated with the dashed ray connecting the features F1, F2 with the camera 3) may be identified in the second image at different times.

また、第2アルゴリズムにおいて、トレーラ2の特徴は、特徴検出及びマッチングのアルゴリズムを使って位置特定及びマッチングされてよい。例えば、ハリスのコーナー検出法、スケール不変特徴変換(SIFT)アルゴリズム、高速化ロバスト特徴(SURF)アルゴリズム、バイナリロバスト不変スケーラブルキーポイント(BRISK)アルゴリズム、バイナリロバスト独立基本特徴(BRIEF)、方向付きFAST及び回転BRIEF(ORB)アルゴリズム又は他の好適な特徴検出及びマッチングアルゴリズムを使ってよい。 Also, in the second algorithm, the features of the trailer 2 may be located and matched using a feature detection and matching algorithm. For example, Harris Corner Detection Method, Scale Invariant Feature Transform (SIFT) Algorithm, Speed Up Robust Features (SURF) Algorithm, Binary Robust Invariant Scalable Keypoint (BRISK) Algorithm, Binary Robust Independent Fundamental Features (BRIEF), Directed FAST and The Rotated BRIEF (ORB) algorithm or other suitable feature detection and matching algorithm may be used .

特徴検出及びマッチングアルゴリズムはトレーラ上にあるか又はトレーラ上にはない画像特徴を検出してよい。トレーラ特徴を非トレーラ特徴から区分けるために、複数の異なる方法を使ってよいだろう。例えば、直線前進走行の場合、トレーラ特徴は、経時的に同一位置のままである特徴を探すことにより非トレーラ特徴から区分けてよい。代替的に、背景特徴の運動(モーション)を車両の既知のモーションを使って経時的にモデル化てよい。これは、速度と操舵に関するCANデータから抽出されてよい。この場合、基本行列のエピポーラ拘束に当てはまらない特徴をトレーラ特徴として考慮してよい。 Feature detection and matching algorithms may detect image features that are on the trailer or not on the trailer. A number of different methods may be used to separate trailer features from non- trailer features. For example, in the case of straight-line forward travel, trailer features may be separated from non-trailer features by looking for features that remain in the same location over time. Alternatively, the motion of background features may be modeled over time using the known motion of the vehicle. This may be extracted from CAN data regarding speed and steering. In this case, features that do not apply to the epipolar constraint of the fundamental matrix may be considered as trailer features.

角度推定α1、α2の決定に、第1及び第2アルゴリズムは同一の検出された特徴を使ってよいことは言及に値する。従って、言い換えれば、両方のアルゴリズムについて特徴検出は一度のみ行われるだけでよい。 It is worth mentioning that the first and second algorithms may use the same detected features for determining the angle estimates α1, α2. Therefore, in other words, feature detection only needs to be performed once for both algorithms.

角度推定α1、α2を決定するために、特徴F1、F2をカメラ3と結ぶ光線Rが使われる。撮影画像の特徴F1、F2をカメラ3の位置と関連付けるために、カメラ3の較正情報を使って、画像座標における特徴F1、F2の場所をカメラ3の空間領域へと変換してよく、これにより、それぞれの特徴F1、F2の場所をこのカメラ位置と結ぶ光線Rを提供することが可能になる。言い換えれば、カメラ位置と特徴位置(複数)とを関連付けるために、画像上の特徴F1、F2の位置は、カメラ3の較正情報に基づいて、車両1の局所領域、それぞれ車両1のカメラ3の局所領域において変換される。 To determine the angle estimates α1, α2, the ray R connecting the features F1, F2 with the camera 3 is used . In order to associate the captured image features F1, F2 with the position of the camera 3, the location of the features F1, F2 in the image coordinates may be transformed into the spatial domain of the camera 3 using the calibration information of the camera 3, thereby , it becomes possible to provide a ray R connecting the location of each feature F1, F2 with this camera position. In other words, in order to associate the camera position and the feature positions , the positions of the features F1, F2 on the image are determined based on the calibration information of the camera 3 in the local area of the vehicle 1, respectively of the camera 3 of the vehicle 1. Transformed in local area.

カメラ位置と第1及び第2画像における1つ又はそれより多い複数の特徴との間の光線Rを決定した後、第1特徴F1第2特徴F2との少なくとも一方旋回角度が決定される。図4において、α1は2つの撮影画像間の第1特徴F1の旋回角度の角度推定を示し、α2はこれら画像間の第2特徴F2の旋回角度の角度推定を示す。実施形態において、トレーラの1つのみもしくは2つ又はそれより多い特徴が決定され、複数の画像にわたって追跡される。さらに、好ましくは、ヨー角推定の結果を向上させるために、2つより多い画像が異なる時点で撮影される。 After determining the ray R between the camera position and the one or more features in the first and second images, a rotation angle of at least one of the first feature F1 and the second feature F2 is determined. . In FIG. 4, α1 indicates the angle estimation of the rotation angle of the first feature F1 between two photographed images, and α2 indicates the angle estimation of the rotation angle of the second feature F2 between these images. In embodiments, only one or two or more features of the trailer are determined and tracked across multiple images. Furthermore, preferably more than two images are taken at different times in order to improve the results of the yaw angle estimation.

上述のように、撮影画像のうちの1つは、車両1に対するトレーラ2の角度位置が既知である基準画像となってよい。牽引車両1に対するトレーラ2のこの既知の角度構成において、ヨー角YAは0°であってよく、他の任意の角度値であってもよい。従って、この少なくとも1つの角度推定α1、α2に基づいて、ヨー角YAは算出されてよい。図4を再び参照すると、例えば、破線で示される光線Rの角度構成が既知であってよいのは、この光線Rを参照して画像を撮影する場合、トレーラ2は車両1に対して既知の基準方向を有するからである。 As described above, one of the captured images may serve as a reference image in which the angular position of the trailer 2 with respect to the vehicle 1 is known. In this known angular configuration of the trailer 2 relative to the tow vehicle 1, the yaw angle YA may be 0° or any other angular value. Therefore, the yaw angle YA may be calculated based on this at least one angle estimate α1, α2. Referring again to FIG. 4, for example, the angular configuration of the light ray R indicated by the dashed line may be known because when an image is taken with reference to this light ray R, the trailer 2 has a known angular configuration with respect to the vehicle 1. This is because it has a reference direction.

上記第2アルゴリズムは非常にロバストであり、つまり画質が劣悪な場合でも角度推定を提供するが、角度推定の正確度は低い。 The second algorithm described above is very robust, i.e. provides angle estimation even in the case of poor image quality, but the accuracy of the angle estimation is low.

本開示において、各特徴F1、F2について、提示されるアルゴリズムのうちの1つ(第1又は第2アルゴリズム)が選択されてよく、少なくとも1つの角度推定α1、α2を提供するために使われてよい。この選択は1つ又はそれより多い複数の条件を検査することによりなされてよい。 In this disclosure, for each feature F1, F2, one of the presented algorithms (first or second algorithm) may be selected and used to provide at least one angle estimate α1, α2. good. This selection may be made by examining one or more conditions.

好ましい複数実施形態において、少なくとも1つの直交二等分線B1、B2(図2、図3)を使う第1アルゴリズムは、好ましくは少なくとも1つの角度推定α1、α2を決定するために使われてよい。より詳細には、この第1アルゴリズムに基づく少なくとも1つの角度推定α1、α2の計算を試みるために、複数の検査が行われる。この検査の結果に応じて、第1又は第2アルゴリズムを使って、特定の特徴についての角度推定を決定する。 In preferred embodiments , a first algorithm using at least one orthogonal bisector B1, B2 (FIG. 2, FIG. 3) may preferably be used to determine at least one angle estimate α1, α2. . More specifically, a number of tests are performed in order to attempt to calculate at least one angle estimate α1, α2 based on this first algorithm. Depending on the results of this test , a first or second algorithm is used to determine an angle estimate for a particular feature.

検査される第1条件は、直交二等分線を作成するために使われる底辺線BLの長さLである(図2参照)。この底辺線BLは、第1及び第2画像の特定の特徴F1、F2の場所を結ぶ直線であってよい。長さLが所定の長さ閾値未満である場合、第1アルゴリズムの代わりに第2アルゴリズムが使われるのは、第1アルゴリズムは著しいノイズを有する可能性があるからである。 The first condition checked is the length L of the base line BL used to create the orthogonal bisector (see FIG. 2). This base line BL may be a straight line connecting the locations of the specific features F1 and F2 in the first and second images. If the length L is less than a predetermined length threshold, the second algorithm is used instead of the first algorithm because the first algorithm may have significant noise.

検査される第2条件は、一連の撮影画像における不均一な地面に起因するトレーラ2のピッチロールとの少なくとも一方の変化が生じるか否かである。ピッチロールとの少なくとも一方の変化が所定のピッチ又はロール閾値を超過する場合、第2アルゴリズムの代わりに第1アルゴリズムが使われるのは、第2アルゴリズムは著しいノイズを有する可能性があるからである。 The second condition checked is whether there is a change in the pitch and/ or roll of the trailer 2 due to uneven ground in the series of captured images. If the change in pitch and /or roll exceeds a predetermined pitch or roll threshold, the first algorithm is used instead of the second algorithm because the second algorithm may have significant noise. be.

加えて検査される第3条件は、少なくとも1つの角度推定α1、α2の決定前に特徴が変換される基準平面を構成する上記水平面に対する垂直方向における特徴F1、F2の距離である。この基準平面に対するある特徴の垂直方向の距離が所定の距離閾値未満である場合、第1アルゴリズムの代わりに第2アルゴリズムが使われるのは、第1アルゴリズムは著しいノイズを有する可能性があるからである。 In addition , a third condition to be checked is the distance of the features F1, F2 in the perpendicular direction to said horizontal plane, which constitutes a reference plane in which the features are transformed before determining the at least one angle estimate α1, α2. If the vertical distance of a feature with respect to this reference plane is less than a predetermined distance threshold, the second algorithm is used instead of the first algorithm because the first algorithm can have significant noise. be.

このようにして、検査される上記基準又は条件のうちの1つ又はそれより多いが満たされる場合、第1アルゴリズムはスキップされ、第2アルゴリズムが用いられ、この少なくとも1つの角度推定α1、α2が決定される。 In this way, if one or more of the above criteria or conditions tested are fulfilled, the first algorithm is skipped and a second algorithm is used, in which the at least one angle estimate α1, α2 It is determined.

どのアルゴリズムに基づいて少なくとも1つの角度推定α1、α2が決定されるか、各特徴F1、F2について別々の決定がなされてよい。従って、言い換えれば、角度推定α1、α2は同一又は異なるアルゴリズムに基づいて計算されてよい。 A separate determination may be made for each feature F1, F2 based on which algorithm the at least one angle estimate α1, α2 is determined. Therefore, in other words, the angle estimates α1, α2 may be calculated based on the same or different algorithms.

理想的な条件下において、あるアルゴリズムに基づく複数の角度推定を設定する場合、第1角度推定α1及び少なくとも1つのさらなる角度推定α2は等しい(α1=α2)ものであり、ヨー角YAを示すものである。しかしながら、ノイズと不一致に起因して、角度推定α1、α2の値は異なる場合がある。ヨー角決定の質を向上させるために2つより多い角度推定を設定できることは言及に値する。 Under ideal conditions, when setting up multiple angle estimates based on an algorithm, the first angle estimate α1 and at least one further angle estimate α2 are equal (α1=α2) and are indicative of the yaw angle YA. It is. However , due to noise and discrepancies , the values of the angle estimates α1, α2 may be different. It is worth mentioning that more than two angle estimates can be configured to improve the quality of the yaw angle determination.

異なる値を有する複数の角度推定α1、α2に基づいてヨー角YAを決定するために、統計的計測を使ってよい。第1実施形態において、2つ又はそれより多い角度推定α1、α2の中央値を使ってヨー角YAを決定してよい。他の実施形態において、統計的方法を使って2つ又はより多い角度推定α1、α2に基づいてヨー角YAを決定してよい。統計的方法は、例えばRANSACアルゴリズム(RANSAC:random sample consensus)又は最小二乗アルゴリズムであってよい。 Statistical measurements may be used to determine the yaw angle YA based on multiple angle estimates α1, α2 having different values. In a first embodiment, the median value of two or more angle estimates α1, α2 may be used to determine the yaw angle YA. In other embodiments, statistical methods may be used to determine the yaw angle YA based on two or more angle estimates α1, α2. The statistical method may be, for example, a RANSAC algorithm (RANSAC: random sample consensus) or a least squares algorithm.

撮影画像上において可視の全ての特徴がヨー角YAの計算に等しく好適であるわけではないようであった。演算の複雑さとロバストネスを小さくするために、そのような特徴が選択され、ヨー角YAを決定するためにさらに用いられ、これにより、実際のヨー角に非常に近い旋回角度が得られる。特徴選択のために、これらの特徴のみがそれ以降の画像において追跡され、これにより、実際のヨー角の周りの一定の窓における角度推定α1、α2が得られる。例えば、窓は上方境界と下方境界により定義されてよく、この上方及び下方境界はこの実際のヨー角の周りの角度窓を定義する。例えば、窓は2°から10°、特に3°から5°の距離にわたって広がってよい。最後の2つ又はそれより多いヨー角決定ステップにおいてこの窓内の旋回角度を導いた全ての特徴は、次の撮影画像中においてさらに追跡される。 It appeared that not all features visible on the captured image were equally suitable for calculating the yaw angle YA. In order to reduce computational complexity and robustness, such features are selected and further used to determine the yaw angle YA, which results in a turning angle that is very close to the actual yaw angle. For feature selection, only these features are tracked in subsequent images, resulting in angle estimates α1, α2 in a fixed window around the actual yaw angle. For example, a window may be defined by an upper boundary and a lower boundary, where the upper and lower boundaries define an angular window around this actual yaw angle. For example, the window may extend over a distance of 2° to 10°, especially 3° to 5°. All features that led to a turning angle within this window in the last two or more yaw angle determination steps are further tracked in the next captured image.

複数の画像について特定のトレーラ特徴を追跡する場合、トレーラ2の動きに起因して、この特徴のサンプルは円形のセグメントに配置されてよい。この円形のセグメントの中心はトウボール4の場所を示す。従って、複数の画像にわたる特定のトレーラ特徴を追跡することにより、トウボール4の場所を導出できる。 When tracking a particular trailer feature for multiple images, due to the movement of the trailer 2, samples of this feature may be arranged in circular segments. The center of this circular segment indicates the location of the tow ball 4. Thus, by tracking specific trailer features across multiple images, the location of the tow ball 4 can be derived .

ノイズを緩和するために、トウボール4の場所の決定は、複数の画像にわたる期間に追跡される複数のトレーラ特徴を考慮に入れてよい。各トレーラ特徴は所定の中心推定を有する円形のセグメントに対応してよい。この複数の中心推定についての統計的方法を適用することにより、トウボール4の実際の場所を展開できる。統計的方法は、例えばRANSACアルゴリズム又は最小二乗アルゴリズムであってよい。 To mitigate noise, the determination of the location of the towball 4 may take into account multiple trailer features tracked over a period of time over multiple images. Each trailer feature may correspond to a circular segment with a predetermined center estimate. By applying this statistical method for multiple center estimates, the actual location of the tow ball 4 can be developed . The statistical method may be, for example, a RANSAC algorithm or a least squares algorithm.

図5は、牽引車1の前後方向軸LAVに対するトレーラ2のヨー角YAを決定する方法の方法ステップを示すブロック図を示す。 FIG. 5 shows a block diagram illustrating the method steps of a method for determining the yaw angle YA of the trailer 2 with respect to the longitudinal axis LAV of the tow vehicle 1.

第1ステップとして、トレーラの第1及び第2画像が撮影される(S10)。 As a first step, first and second images of the trailer are taken (S10).

画像撮影後、第1及び第2画像上において可視のトレーラの少なくとも1つの特徴が決定される(S11)。 After image capture, at least one feature of the trailer visible on the first and second images is determined (S11).

さらに、少なくとも1つの角度推定を計算する少なくとも第1及び第2アルゴリズムが提供される(S12)。 Furthermore, at least first and second algorithms are provided for calculating at least one angle estimate (S12).

第1特徴について少なくとも第1角度推定が提供される。第1選択肢において、角度推定を計算するために第1又は第2アルゴリズムを使うべきかをこの第1特徴についての1つ又はそれより多い複数の基準に基づいて決定し、この第1特徴について選択されたアルゴリズムに基づいてこの第1角度推定を計算することにより、この少なくとも1つの角度推定が提供される(S13A)。 At least a first angle estimate is provided for the first feature. In a first option, determining whether to use a first or a second algorithm to calculate the angle estimate based on one or more criteria for the first feature, and selecting for the first feature. The at least one angle estimate is provided by calculating the first angle estimate based on the algorithm determined (S13A).

第2選択肢において、この第1及び第2アルゴリズムに基づいてこの第1特徴についての角度推定を計算し、第1アルゴリズムにより得られた角度推定又は第2アルゴリズムにより得られた角度推定がさらなる処理に使われるか否かを1つ又はそれより多い複数の基準に基づいて決定することにより、この少なくとも1つの角度推定が提供される(S13B)。 In a second option, an angle estimate is calculated for this first feature based on this first and second algorithm, and the angle estimate obtained by the first algorithm or the angle estimate obtained by the second algorithm is used for further processing. The at least one angle estimate is provided by determining whether to use it based on one or more criteria (S13B).

最後に、ヨー角が、この少なくとも1つの角度推定に基づいて計算される(S14)。 Finally, a yaw angle is calculated based on the at least one angle estimate (S14).

なお、明細書と図面は提案される発明の原理を例示するに過ぎないことに留意すべきである。当業者であれば、明示的に本開示において説明又は図示されていなくても、本発明の原理を具現化する様々な構成を実施できるだろう。 It should be noted that the specification and drawings merely illustrate the principles of the proposed invention. Those skilled in the art will be able to implement various configurations that embody the principles of the invention, even if not explicitly described or illustrated in this disclosure.

1 車両
2 トレーラ
3 カメラ
トウボール
α1 第1角度推定
α2 第2角度推定
B1 第1直交二等分線
B2 第2直交二等分線
BL 底辺線
F1 第1特徴
F2 第2特徴
IP1 第1交点
IP2 第2交点
L 長さ
LAT トレーラの前後方向軸
LAV 車両の前後方向軸
R 光線
YA ヨー角
1 Vehicle 2 Trailer 3 Camera 4 Towball
α1 First angle estimation α2 Second angle estimation B1 First orthogonal bisector B2 Second orthogonal bisector BL Base line F1 First feature F2 Second feature IP1 First intersection IP2 Second intersection L Length LAT Trailer anteroposterior axis of
LAV Vehicle longitudinal axis
R Ray YA Yaw angle

Claims (15)

牽引車両(1)の前後方向軸(LAV)に対するトレーラ(2)のヨー角(YA)を決定する方法であって、前記方法が、
- カメラ(3)を使って前記トレーラ(2)の少なくとも第1及び第2画像を撮影するステップにおいて、前記車両(1)に対する前記トレーラ(2)の方向が前記少なくとも2つの画像上において異なる、ステップ(S10)と、
- 第1及び第2画像上において可視の前記トレーラ(2)の少なくとも第1特徴(F1)を決定するステップ(S11)と、
- 前記少なくとも第1特徴に基づいて、少なくとも1つの角度推定を計算する少なくとも第1及び第2アルゴリズムを提供するステップ(S12)と、
- 前記第1特徴(F1)について少なくとも第1角度推定(α1)を提供するステップであって、
・前記第1角度推定(α1)計算前記第1又は前記第2アルゴリズムを使うべきかを各特徴(F1)についての1つ又はそれより多い基準に基づいて決定し、第1特徴(F1)について選択されたアルゴリズムに基づいて前記第1角度推定(α1)を計算するステップ(S13A)、もしくは
・前記第1及び前記第2アルゴリズムに基づいて前記第1特徴(F1)についての第1角度推定(α1)を計算し、前記第1アルゴリズムにより得られた前記第1角度推定(α1)又は前記第2アルゴリズムにより得られた前記第1角度推定(α1)がさらなる処理に使われるか否かを1つ又はそれより多い基準に基づいて決定するステップ(S13B)
によって、前記第1特徴(F1)について少なくとも第1角度推定(α1)を提供するステップと、
- 前記ヨー角(YA)を前記第1角度推定(α1)に基づいて計算するステップ(S14)と、を備える、牽引車両(1)の前後方向LAV)に対するトレーラ(2)のヨー角(YA)を決定する方法。
A method for determining a yaw angle (YA) of a trailer (2) with respect to a longitudinal axis (LAV) of a towing vehicle (1), the method comprising:
- taking at least first and second images of said trailer (2) using a camera (3), the orientation of said trailer (2) relative to said vehicle (1) being different on said at least two images; Step (S10),
- determining (S11) at least a first feature (F1) of said trailer (2) visible on a first and second image;
- providing (S12) at least first and second algorithms for calculating at least one angle estimate based on said at least first feature;
- providing at least a first angle estimate (α1) for said first feature (F1) ,
- determining whether to use the first or the second algorithm for calculating the first angle estimate (α1) based on one or more criteria for each feature (F1); a step (S13A) of calculating said first angle estimate (α1) based on an algorithm selected for F1) ;
- Calculate a first angle estimate (α1) for the first feature (F1) based on the first and second algorithms, and calculate the first angle estimate (α1) obtained by the first algorithm or the Determining based on one or more criteria whether the first angle estimate (α1) obtained by the second algorithm is used for further processing (S13B)
providing at least a first angle estimate (α1) for said first feature (F1) by;
- a step (S14) of calculating said yaw angle (YA) based on said first angle estimate (α1 ); How to determine angle (YA) .
前記第1アルゴリズムは、
- 前記カメラ(3)と前記第1画像上の決定された第1特徴との間の光線を水平面上に投影することにより、第1投影特徴位置(PFP1a)を得て、前記カメラ(3)と前記第2画像上の決定された第1特徴との間の光線を前記水平面上に投影することにより、第2投影特徴位置(PFP1b)を得て、
- 第1直交二等分線(B1)を、前記第1投影特徴位置(PFP1a)の場所と前記第2投影特徴位置(PFP1b)の場所との間に設定し、
- 基準軸線又はさらなる直交二等分線との第1直交二等分線(B1)の第1交点(IP1)を決定し、
- 第1投影特徴位置(PFP1a)から前記第1交点(IP1)までの第1線と、第2投影特徴位置(PFP1b)から前記第1交点(IP1)までの第2線との間の角度であり、前記水平面上における角度である、第1角度推定(α1)を計算するように構成されている、請求項1に記載の方法。
The first algorithm is
- obtaining a first projected feature position (PFP1a) by projecting a ray between the camera (3) and the determined first feature on the first image onto a horizontal plane; and the determined first feature on the second image by projecting a light ray onto the horizontal plane, obtaining a second projected feature position (PFP1b),
- setting a first orthogonal bisector (B1) between the location of the first projected feature position (PFP1a) and the location of the second projected feature position (PFP1b);
- determining a first point of intersection (IP1) of the first orthogonal bisector (B1) with the reference axis or a further orthogonal bisector;
- an angle between a first line from the first projected feature position (PFP1a) to the first intersection (IP1) and a second line from the second projected feature position (PFP1b) to the first intersection (IP1); 2. The method according to claim 1, wherein the method is configured to calculate a first angle estimate (α1) , which is an angle on the horizontal plane.
第1及び第2画像上において可視の前記トレーラ(2)の第2特徴(F2)決定され、前記第2特徴(F2)は前記第1特徴(F1)とは異なる前記トレーラ(2)の位置に配置され、角度推定を提供するために前記第1アルゴリズムは前記トレーラ(2)の2つ又はそれより多い特徴を使い、前記第1アルゴリズムは、
- 前記カメラ(3)と前記第1画像上の決定された第2特徴(F2)との間の光線を水平面上に投影することにより、第3投影特徴位置(PFP2a)を得て、前記カメラ(3)と前記第2画像上の決定された第2特徴(F2)との間の光線を前記水平面上に投影することにより、第4投影特徴位置(PFP2b)を得て、
- 第2直交二等分線(B2)を、前記第3投影特徴位置(PFP2a)の場所と前記第4投影特徴位置(PFP2b)の場所との間に設定し、
- 基準軸、前記第1直交二等分線(B1)又はさらなる直交二等分線との第2直交二等分線(B2)の第2交点(IP2)を決定し、
- 第3投影特徴位置(PFP2a)から前記第2交点(IP2)までの第1線と、第4投影特徴位置(PFP2b)から前記第2交点(IP2)までの第2線との間の角度であり、前記水平面上における角度である、第2角度推定(α2)を計算するように構成される、請求項2に記載の方法。
A second feature (F2) of the trailer (2) visible on the first and second images is determined, the second feature (F2) being different from the first feature (F1) of the trailer (2). the first algorithm uses two or more features of the trailer (2) to provide an angle estimation;
- obtaining a third projected feature position (PFP2a) by projecting a ray between the camera (3) and the determined second feature (F2) on the first image onto a horizontal plane; (3) and the determined second feature (F2) on the second image by projecting the light ray onto the horizontal plane to obtain a fourth projected feature position (PFP2b),
- setting a second orthogonal bisector (B2) between the location of the third projection feature position (PFP2a) and the location of the fourth projection feature position (PFP2b);
- determining a second point of intersection (IP2) of a second orthogonal bisector (B2) with a reference axis, said first orthogonal bisector (B1) or a further orthogonal bisector;
- the angle between the first line from the third projected feature position (PFP2a) to the second intersection (IP2) and the second line from the fourth projected feature position (PFP2b) to the second intersection (IP2); 3. The method according to claim 2, configured to calculate a second angle estimate (α2), which is an angle on the horizontal plane.
前記第2アルゴリズムは、第1角度推定(α1)を計算するように構成され、前記第1角度推定(α1)は、前記牽引車両(1)の固定点に対する、前記第1画像上の前記第1特徴(F1)と前記第2画像上の前記第1特徴(F1)との間の水平面における旋回角度を特徴付ける、請求項1から3の何れか1項に記載の方法。 Said second algorithm is configured to calculate a first angle estimate (α1), said first angle estimate (α1) being said first angle estimate (α1) on said first image relative to a fixed point of said towing vehicle (1). 4. The method according to claim 1, characterized in that the angle of rotation in a horizontal plane between one feature (F1) and the first feature (F1) on the second image is characterized. 第1及び第2画像上において可視の前記トレーラ(2)の第2特徴(F2)は決定され、前記第2特徴(F2)は前記第1特徴(F1)とは異なる前記トレーラ(2)の位置に配置され、前記第2アルゴリズムは、第2角度推定(α2)を計算するように構成され、前記第2角度推定(α2)は、前記牽引車両(1)の前記固定点に対する、前記第1画像上の前記第2特徴(F2)と前記第2画像上の前記第2特徴(F2)との間の水平面における旋回角度を特徴付ける、請求項4に記載の方法。 A second feature (F2) of the trailer (2) visible on the first and second images is determined, the second feature (F2) being different from the first feature (F1) of the trailer (2). located at a position, said second algorithm is configured to calculate a second angle estimate (α2), said second angle estimate (α2) 5. The method according to claim 4, characterized by a turning angle in a horizontal plane between the second feature (F2) on one image and the second feature (F2) on the second image. 1つ又はそれより多い基準に基づいて決定する前記ステップは、前記第1画像上の特徴(F1、F2)と前記第2画像上の前記特徴(F1、F2)との間の底辺線(BL)の長さ(L)を決定し、前記長さ(L)を長さ閾値と比較することを備える、請求項1から5の何れか1項に記載の方法。 The step of determining based on one or more criteria includes determining the base line (BL) between the features (F1, F2) on the first image and the features (F1, F2) on the second image. ) and comparing said length (L ) with a length threshold. 1つ又はそれより多い基準に基づいて決定する前記ステップは、前記トレーラ(2)のロールピッチとの少なくとも一方を決定し、前記ロールをロール閾値と比較することと、前記ピッチをピッチ閾値と比較することとの少なくとも一方備える、請求項1から6の何れか1項に記載の方法。 The step of determining based on one or more criteria includes determining at least one of roll and pitch of the trailer (2), comparing the roll to a roll threshold and comparing the pitch to a pitch threshold. 7. A method according to any one of claims 1 to 6, comprising at least one of comparing. 1つ又はそれより多い基準に基づいて決定する前記ステップは、水平方向の基準面に対する特徴(F1、F2)の垂直方向の距離を決定し、前記垂直方向の距離を距離閾値と比較することを備える、請求項1から7の何れか1項に記載の方法。 The step of determining based on one or more criteria includes determining a vertical distance of the features (F1, F2) with respect to a horizontal reference plane and comparing the vertical distance with a distance threshold. 8. A method according to any one of claims 1 to 7, comprising : 前記第2アルゴリズムにおいて、少なくとも1つの角度推定(α1、α2)を計算することは、前記固定点と第1及び第2画像における前記少なくとも1つの特徴(F1、F2)との間の光線(R)を決定することを備える、請求項1から8の何れか1項に記載の方法。 In said second algorithm, calculating at least one angle estimate (α1, α2) comprises calculating the ray (R) between said fixed point and said at least one feature (F1, F2) in the first and second images. 9. A method according to any one of claims 1 to 8, comprising determining: ). 前記光線(R)を決定するために、前記第1特徴と第2特徴(F1、F2)との少なくとも一方の位置を前記画像の局所領域から前記車両(1)の局所領域へと変換するために、カメラ較正情報が使われる、請求項9に記載の方法。 converting the position of at least one of the first feature and second feature (F1, F2) from a local area of the image to a local area of the vehicle (1) in order to determine the light ray (R); 10. The method of claim 9, wherein camera calibration information is used . 前記ヨー角(YA)を計算するために、前記第1及び第2特徴(F1、F2)に加えて、前記トレーラ(2)の少なくとも1つのさらなる特徴が使われる、請求項1から10の何れか1項に記載の方法。 11. Any one of claims 1 to 10, wherein, in addition to the first and second features (F1, F2), at least one further feature of the trailer (2) is used to calculate the yaw angle (YA). or the method described in paragraph 1. 前記ヨー角(YA)は、前記少なくとも2つの角度推定に基づいて中央値を設定することにより、前記少なくとも2つの角度推定の平均値を設定することにより又は前記角度推定に適用される統計的方法を使うことにより計算される、請求項1から11の何れか1項に記載の方法。 The yaw angle (YA) is determined by setting a median value based on the at least two angle estimates, by setting an average value of the at least two angle estimates , or by a statistical method applied to the angle estimate. 12. A method according to any one of claims 1 to 11, wherein the method is calculated by using . 角度窓を決定するステップを備え、前記角度窓は、ヨー角(YA)の周りに上方境界と下方境界とを備え、前記角度窓内の複数の角度推定につながる1セットの特徴を決定し、将来のヨー角(YA)計算に前記決定されたセットの特徴を使う、請求項1から12の何れか1項に記載の方法。 determining an angular window, the angular window having an upper bound and a lower bound around a yaw angle (YA), determining a set of features that lead to a plurality of angle estimates within the angular window ; 13. A method according to any preceding claim, wherein the determined set of features is used for future yaw angle (YA) calculations. 牽引車両(1)の前後方向軸(LAV)に対するトレーラ(2)のヨー角(YA)を決定するシステムであって、
前記システムが、前記トレーラ(2)の画像を撮影するカメラ(3)と、前記撮影された画像を処理する処理実体と、を備え、
前記システムが、
- カメラ(3)を使って前記トレーラ(2)の少なくとも第1及び第2画像を撮影するステップにおいて、前記車両(1)に対する前記トレーラ(2)の方向が前記少なくとも2つの画像上において異なる、ステップ(S10)と、
- 第1及び第2画像上において可視の前記トレーラ(2)の少なくとも第1特徴(F1)を決定するステップ(S11)と、
- 前記少なくとも第1特徴に基づいて、少なくとも1つの角度推定を計算する少なくとも第1及び第2アルゴリズムを提供するステップ(S12)と、
- 前記第1特徴(F1)について少なくとも第1角度推定(α1)を提供するステップであって
・前記第1角度推定(α1)を計算するために前記第1又は前記第2アルゴリズムを使うべきかを各特徴(F1)についての1つ又はそれより多い基準に基づいて決定し、前記第1特徴(F1)について選択されたアルゴリズムに基づいて前記第1角度推定(α1)を計算するステップ(S13A)、もしくは
・前記第1及び前記第2アルゴリズムに基づいて前記第1特徴(F1)についての第1角度推定(α1)を計算し、前記第1アルゴリズムにより得られた前記第1角度推定(α1)又は前記第2アルゴリズムにより得られた前記第1角度推定(α1)がさらなる処理に使われるか否かを1つ又はそれより多い基準に基づいて決定するステップ(S13B)
によって、前記第1特徴(F1)について少なくとも第1角度推定(α1)を提供するステップと、
- 前記ヨー角(YA)を前記第1角度推定(α1)に基づいて計算するステップ(S14)と
を実行するようにさらに構成されている、牽引車両(1)の前後方向LAV)に対するトレーラ(2)のヨー角(YA)を決定するシステム。
A system for determining a yaw angle (YA) of a trailer (2) with respect to a longitudinal axis (LAV) of a towing vehicle (1), the system comprising:
The system comprises a camera (3) that captures images of the trailer (2) and a processing entity that processes the captured images,
The system is
- taking at least first and second images of said trailer (2) using a camera (3), the orientation of said trailer (2) relative to said vehicle (1) being different on said at least two images; Step (S10),
- determining (S11) at least a first feature (F1) of said trailer (2) visible on a first and second image;
- providing (S12) at least first and second algorithms for calculating at least one angle estimate based on said at least first feature;
- providing at least a first angle estimate (α1) for said first feature (F1),
- determining whether to use the first or the second algorithm for calculating the first angle estimate (α1) based on one or more criteria for each feature (F1); calculating the first angle estimate (α1) based on an algorithm selected for the feature (F1) (S13A); or
- Calculate a first angle estimate (α1) for the first feature (F1) based on the first and second algorithms, and calculate the first angle estimate (α1) obtained by the first algorithm or the Determining based on one or more criteria whether the first angle estimate (α1) obtained by the second algorithm is used for further processing (S13B)
providing at least a first angle estimate (α1) for said first feature (F1) by;
- a longitudinal axis (LAV) of the towing vehicle (1), further configured to perform the step (S14) of calculating said yaw angle (YA) based on said first angle estimate ( α1 ); A system for determining the yaw angle (YA) of the trailer (2) relative to .
請求項14に記載のシステムを備える車両。 A vehicle comprising a system according to claim 14.
JP2022552586A 2020-03-31 2020-12-01 Vehicle trailer angle calculation method and system Active JP7437523B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP20167191.4 2020-03-31
EP20167191.4A EP3889906A1 (en) 2020-03-31 2020-03-31 Method and system for calculating vehicle trailer angle
PCT/EP2020/084111 WO2021197651A1 (en) 2020-03-31 2020-12-01 Method and system for calculating vehicle trailer angle

Publications (3)

Publication Number Publication Date
JP2023516661A JP2023516661A (en) 2023-04-20
JPWO2021197651A5 true JPWO2021197651A5 (en) 2023-11-17
JP7437523B2 JP7437523B2 (en) 2024-02-22

Family

ID=70110144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022552586A Active JP7437523B2 (en) 2020-03-31 2020-12-01 Vehicle trailer angle calculation method and system

Country Status (5)

Country Link
US (1) US20230322032A1 (en)
EP (1) EP3889906A1 (en)
JP (1) JP7437523B2 (en)
CN (1) CN115335862A (en)
WO (1) WO2021197651A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4012330B1 (en) * 2020-12-10 2024-07-03 Volvo Truck Corporation A system and method for estimating an articulation angle of an articulated vehicle combination
US11897469B2 (en) 2021-10-20 2024-02-13 Continental Autonomous Mobility US, LLC System and method for adjusting trailer reverse assist parameters based upon estimated trailer position

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4859205B2 (en) 2005-02-04 2012-01-25 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP4595594B2 (en) 2005-03-08 2010-12-08 コニカミノルタエムジー株式会社 Image processing apparatus and program
NZ560237A (en) * 2007-08-01 2008-03-28 Debra June Williams A quilt tool for mariner's compass star pattern
DE102011113197B4 (en) 2011-09-10 2021-06-10 Volkswagen Aktiengesellschaft Method and device for determining an angle between a towing vehicle and a trailer coupled to it, and the vehicle
GB2505666B (en) * 2012-09-06 2015-07-01 Jaguar Land Rover Ltd Method and system for preventing instability in a vehicle-trailer combination
JP5868816B2 (en) * 2012-09-26 2016-02-24 楽天株式会社 Image processing apparatus, image processing method, and program
US9511799B2 (en) * 2013-02-04 2016-12-06 Ford Global Technologies, Llc Object avoidance for a trailer backup assist system
CN105829178B (en) * 2013-11-18 2018-06-15 罗伯特·博世有限公司 For the auxiliary of the driving based on vector of towing vehicle
US20150286878A1 (en) * 2014-04-08 2015-10-08 Bendix Commercial Vehicle Systems Llc Generating an Image of the Surroundings of an Articulated Vehicle
US9963004B2 (en) * 2014-07-28 2018-05-08 Ford Global Technologies, Llc Trailer sway warning system and method
US20160048966A1 (en) * 2014-08-13 2016-02-18 Bendix Commercial Vehicle Systems Llc Learning the distance between cameras for articulated vehicles
US9522699B2 (en) * 2015-02-05 2016-12-20 Ford Global Technologies, Llc Trailer backup assist system with adaptive steering angle limits
US9751558B2 (en) * 2015-03-25 2017-09-05 Ford Global Technologies, Llc Handwheel obstruction detection and inertia compensation
JP2018512593A (en) * 2015-04-10 2018-05-17 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh Object position measurement with in-vehicle camera using vehicle movement data
US9821845B2 (en) * 2015-06-11 2017-11-21 Ford Global Technologies, Llc Trailer length estimation method using trailer yaw rate signal
US9527528B1 (en) * 2015-09-04 2016-12-27 Continental Automotive Systems, Inc. Trailer radius indication
US9796228B2 (en) * 2015-12-17 2017-10-24 Ford Global Technologies, Llc Hitch angle detection for trailer backup assist system
US10259390B2 (en) * 2016-05-27 2019-04-16 GM Global Technology Operations LLC Systems and methods for towing vehicle and trailer with surround view imaging devices
US10106193B2 (en) * 2016-07-01 2018-10-23 Ford Global Technologies, Llc Enhanced yaw rate trailer angle detection initialization
DE102016117284A1 (en) * 2016-09-14 2018-03-15 Connaught Electronics Ltd. Determining a position of a trailer hitch
US10552976B2 (en) * 2017-03-22 2020-02-04 Magna Electronics Inc. Trailer angle detection system for vehicle
US10771776B2 (en) * 2017-09-12 2020-09-08 Sony Corporation Apparatus and method for generating a camera model for an imaging system
DE102017219123B4 (en) * 2017-10-25 2022-12-22 Volkswagen Aktiengesellschaft Method for determining object boundaries of an object in an exterior area of a motor vehicle, and control device and motor vehicle
JP6972938B2 (en) * 2017-11-07 2021-11-24 株式会社アイシン Peripheral monitoring device
EP3537382A1 (en) * 2018-03-09 2019-09-11 Continental Automotive GmbH Device and method for calculating a vehicle trailer pose using a camera
WO2019179686A1 (en) * 2018-03-19 2019-09-26 Jaguar Land Rover Limited Controller for a vehicle
EP3552926A1 (en) * 2018-04-09 2019-10-16 Continental Automotive GmbH Apparatus for determining an angle of a trailer attached to a vehicle
US11050933B2 (en) * 2018-04-27 2021-06-29 Continenal Automotive Systems, Inc. Device and method for determining a center of a trailer tow coupler
US11518204B2 (en) * 2018-05-01 2022-12-06 Continental Autonomous Mobility US, LLC Trailer detection and autonomous hitching
US10926759B2 (en) * 2018-06-07 2021-02-23 GM Global Technology Operations LLC Controlling a vehicle based on trailer position
US11273868B2 (en) * 2018-07-16 2022-03-15 Magna Electronics Inc. Vehicular trailer assist system
US10632803B2 (en) * 2018-08-17 2020-04-28 Ford Global Technologies, Llc Hitch assist system
EP3678096B1 (en) * 2019-01-07 2021-06-23 Continental Automotive GmbH Method for calculating a tow hitch position
US11208146B2 (en) * 2019-05-21 2021-12-28 Ford Global Technologies, Llc Acceptable zone for automated hitching with system performance considerations
US11657635B2 (en) * 2019-08-28 2023-05-23 Ford Global Technologies, Llc Measuring confidence in deep neural networks
US11332191B2 (en) * 2019-09-09 2022-05-17 Ford Global Technologies, Llc Trailer sideswipe avoidance system
US11772557B2 (en) * 2019-11-05 2023-10-03 Ford Global Technologies, Llc Guided coaching for vehicle positioning to operate an automated hitching feature

Similar Documents

Publication Publication Date Title
JP7444605B2 (en) How to calculate the location of the tow hitch
US10909395B2 (en) Object detection apparatus
JP7437523B2 (en) Vehicle trailer angle calculation method and system
JP2002123818A (en) Peripheral obstacle detecting device for vehicle
US10832428B2 (en) Method and apparatus for estimating a range of a moving object
WO2020137110A1 (en) Movement amount estimation device
CN113781562A (en) Lane line virtual and real registration and self-vehicle positioning method based on road model
JP2023514846A (en) Vehicle trailer angle calculation method and system
Kinzig et al. Real-time seamless image stitching in autonomous driving
JPWO2021197651A5 (en)
Bahramgiri et al. Hitch angle estimation for trailer backup system—An object detection and tracking approach
US20230173998A1 (en) Method and system for calculating vehicle trailer angle
JPWO2021197652A5 (en)
US20230215035A1 (en) Method and system for calculating vehicle trailer angle
JP2002352249A (en) Image processor and its method
JP7430783B2 (en) Determining the orientation of the trailer
JPWO2021197650A5 (en)
JPWO2021197649A5 (en)
JP2021189910A (en) Position and pose estimation device and program
Gao et al. Panoramic visual odometry for ground vehicle