JP7326334B2 - 牽引車両とトレーラとを位置合わせする方法およびシステム - Google Patents

牽引車両とトレーラとを位置合わせする方法およびシステム Download PDF

Info

Publication number
JP7326334B2
JP7326334B2 JP2020560943A JP2020560943A JP7326334B2 JP 7326334 B2 JP7326334 B2 JP 7326334B2 JP 2020560943 A JP2020560943 A JP 2020560943A JP 2020560943 A JP2020560943 A JP 2020560943A JP 7326334 B2 JP7326334 B2 JP 7326334B2
Authority
JP
Japan
Prior art keywords
identifying
camera
trailer
data processing
tow vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020560943A
Other languages
English (en)
Other versions
JP2021519998A (ja
Inventor
ホセ ラミレス リャノス エドゥアルド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Automotive Systems Inc
Original Assignee
Continental Automotive Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive Systems Inc filed Critical Continental Automotive Systems Inc
Publication of JP2021519998A publication Critical patent/JP2021519998A/ja
Application granted granted Critical
Publication of JP7326334B2 publication Critical patent/JP7326334B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60DVEHICLE CONNECTIONS
    • B60D1/00Traction couplings; Hitches; Draw-gear; Towing devices
    • B60D1/24Traction couplings; Hitches; Draw-gear; Towing devices characterised by arrangements for particular functions
    • B60D1/36Traction couplings; Hitches; Draw-gear; Towing devices characterised by arrangements for particular functions for facilitating connection, e.g. hitch catchers, visual guide means, signalling aids
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/002Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles specially adapted for covering the peripheral part of the vehicle, e.g. for viewing tyres, bumpers or the like
    • B60R1/003Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles specially adapted for covering the peripheral part of the vehicle, e.g. for viewing tyres, bumpers or the like for viewing trailer hitches
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18036Reversing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60DVEHICLE CONNECTIONS
    • B60D1/00Traction couplings; Hitches; Draw-gear; Towing devices
    • B60D1/58Auxiliary devices
    • B60D1/62Auxiliary devices involving supply lines, electric circuits, or the like
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • B60R2300/8026Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views in addition to a rear-view mirror system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/808Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for facilitating docking to a trailer
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • G01C11/28Special adaptation for recording picture point data, e.g. for profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、牽引車両とトレーラとを位置合わせする方法および装置に関する。
背景技術
トレーラは、一般に、動力を有する牽引車両によって牽引される、動力を有しない車両である。トレーラは、ユーティリティトレーラ、ポップアップ式キャンパ、トラベルトレーラ、家畜トレーラ、平台型トレーラ、閉鎖型カーキャリアおよびボートトレーラなどであってよい。牽引車両は、自動車、クロスオーバ、トラック、バン、SUV(sports-utility-vehicle)、RV(recreational vehicle)またはトレーラに連結されてトレーラを牽引するように構成された別の任意の車両であってよい。トレーラは、トレーラヒッチを使用して、動力を有する車両に連結可能である。受け手側のヒッチは、牽引車両に取り付けられ、接続を形成するためにトレーラヒッチに接続される。トレーラヒッチは、ボールおよびソケット、第五輪およびがん首、またはトレーラジャックであってよい。別の連結機構も使用可能である。いくつかの実施例では、トレーラと、動力を有する車両との間の機械的接続に加え、トレーラは、牽引車両に電気的に接続されている。したがってこの電気的な接続により、トレーラは、動力を有する車両のリアライト回路から給電されることが可能であり、これにより、トレーラは、動力を有する車両のライトと同期するテールライト、方向指示器およびブレーキライトを有することができる。
センサ技術における最近の進歩は、車両用の改良されたセーフティシステム、例えば車両・トレーラ接続プロセスに至っている。したがって、ヒッチングプロセス中に牽引車両とトレーラとを位置合わせ可能なシステムを提供することは望ましい。
概要
本開示の一態様により、牽引車両と、この牽引車両の後ろに位置付けられたトレーラとを位置合わせする方法が提供される。この方法には、データ処理ハードウェアにより、牽引車両の後方環境の点群マップ(point cloud map)を特定することが含まれる。この後方環境にはトレーラが含まれる。この方法にはまた、データ処理ハードウェアにより、点群マップに基づいてトレーラの前面平面を特定することと、データ処理ハードウェアにより、この前面平面の法線を特定することとも含まれる。この方法にはまた、データ処理ハードウェアにより、牽引車両からトレーラへのパスを特定し、これにより、牽引車両の前後方向の軸線と、前面平面の法線とが位置合わせされるようにすることも含まれる。
本開示の実現形態には、以下の選択的な特徴が1つ以上含まれていてよい。いくつかの実現形態において、この方法には、データ処理ハードウェアと通信して運転システムに命令を送信することが含まれる。これらの命令は、上記のパスに沿って後方向に牽引車両を自動運転させる。
いくつかの実施例において、この方法にはさらに、牽引車両の後部に位置付けられたカメラから、かつデータ処理ハードウェアと通信して1つ以上の画像を受信することが含まれる。この方法にはまた、1つ以上の画像内のトレーラ表現を含む関心領域(ROI:region of interest)を識別することが含まれていてよい。トレーラ表現は、牽引車両の後ろに位置付けられたトレーラを表す。いくつかの実施例において、牽引車両の後方環境の点群マップの特定には、ROIだけに関連付けられた点群マップの特定が含まれる。
この方法にはさらに、牽引車両の後部に位置付けられたカメラから、かつデータ処理ハードウェアと通信して画像を受信することが含まれてよい。この方法にはまた、牽引車両が移動している間に、受信された画像からリアカメラの少なくとも3つの3次元位置を特定することが含まれていてもよい。この方法にはまた、少なくとも3つの3次元位置に基づいてカメラ平面を特定することも含まれていてもよい。点群マップに基づくトレーラの前面の特定には、この点群マップ内の点のクラスタを特定することが含まれていてよい。いくつかの実施例において、この方法には、クラスタ毎にこのクラスタの中心を特定することが含まれる。この方法にはまた、クラスタの中心をカメラ平面に投影することも含まれていてよい。この方法にはまた、カメラの中心に対して最短距離を有する中心に関連付けられたクラスタを特定することも含まれていてよい。この方法にはまた、カメラの中心に対して最短距離を有する、点のクラスタの複数の点に基づいて前面平面を特定することも含まれていてよい。いくつかの実施例において、この方法にはさらに、カメラの中心に対して最短距離を有する中心に関連付けられたクラスタの点をカメラ平面に投影することが含まれている。この方法にはまた、投影された点に関連付けられた1つの直線を特定することも含まれていてよい。この方法にはまた、投影されたすべての点を含むセグメントを特定するために、投影された点をこの直線に投影することも含まれていてよい。法線に沿いかつこのセグメントの中心点を通る直線が、位置合わせ方向を示す。点群マップの特定には、VO(visual odometry)アルゴリズム、SLAM(simultaneous localization and mapping)アルゴリズム、およびSfM(structure from motion)アルゴリズムのうちの1つを実行することが含まれていてよい。
本開示の別の一態様により、牽引車両と、この牽引車両の後ろに位置付けられたトレーラとを位置合わせするシステムが提供される。このシステムには、データ処理ハードウェアと、このデータ処理ハードウェアと通信するメモリハードウェアとが含まれている。このメモリハードウェアには、データ処理ハードウェア上で実行される場合に、このデータ処理ハードウェアに上述の方法を含む動作を実行させる命令が格納されている。
本開示の1つまたは複数の実装形態の詳細は、添付の図面および以下の説明に記載されている。他の態様、特徴および利点は、説明および図面ならびに特許請求の範囲から明らかになろう。
トレーラから特定の距離にある例示的な牽引車両の概略平面図である。 トレーラに位置合わせされた例示的な牽引車両の概略平面図である。 位置合わせシステムを有する例示的な牽引車両の概略図である。 図1Aおよび1Bのトレーラの斜視図である。 画像を取り込むカメラの位置に基づく例示的なトレーラ画像の斜視図である。 画像を取り込むカメラの位置に基づく別の例示的なトレーラ画像の斜視図である。 画像を取り込むカメラの位置に基づくさらに別の例示的なトレーラ画像の斜視図である。 点群マップを生成するためにトレーラの画像を取り込む例示的なカメラの概略図である。 カメラ平面および道路平面の概略図である。 カメラ平面および道路平面の別の概略図である。 クラスタリングアルゴリズムによる例示的な点群マップの概略図である。 牽引車両と、この牽引車両の後ろに位置付けられたトレーラとを位置合わせするための動作の例示的な構成を示す概略図である。
種々異なる図における同様の参照符号は、同様の要素を示す。
詳細な説明
自動車、クロスオーバ、トラック、バン、SUV(sports-utility-vehicle)およびRV(recreational vehicle)のような、しかしこれらに限定されない牽引車両は、トレーラを牽引するように構成されていてよい。牽引車両は、トレーラヒッチによってトレーラに接続される。ユーザディスプレイのようなユーザインタフェースに表示される、トレーラの1つ以上の表現から識別されるトレーラに向かって自律的に後退可能な牽引車両を有することは望ましい。さらに、ヒッチングプロセス中に牽引車両とトレーラとを位置合わせ可能な位置合わせシステムを有することも望ましい。この位置合わせシステムは、牽引車両またはトレーラの初期姿勢に対して不変である。
図1~7を参照すると、いくつかの実装形態において、牽引車両100の運転者が望むのは、牽引車両100の後ろに位置付けられたトレーラ200を牽引することである。牽引車両100は、選択されたトレーラ200、200a~cの表現に関連付けられた、運転者選択134の指示を受け取るように構成可能である。いくつかの実施例において、運転者は、選択されたトレーラ200、200a~cに向かって牽引車両100を操縦するが、別の複数の実施例において、牽引車両100は、選択されたトレーラ200、200a~cに向かって自動運転する。牽引車両100は、例えば、x、yおよびz成分を有する運転コマンドに基づいて、道路表面10にわたって牽引車両100を操縦する運転システム110を含んでいてよい。図示したように運転システム110には、右前輪112、112a、左前輪112、112b、右後輪112、112cおよび左後輪112、112dが含まれる。運転システム110には、別の車輪構成も含まれていてよい。運転システム110はまた、それぞれの車輪112、112~dに関連付けられたブレーキを含むブレーキシステム114と、牽引車両100の速度および方向を調整するように構成されている加速システム116とを含んでいてもよい。さらに、運転システム110には、それぞれの車輪112、112a~dに関連付けられたタイヤと、タイヤ空気と、ばねと、ショックアブソーバと、牽引車両100をその車輪112、112a~dに接続しかつ牽引車両100と車輪112、112a~dとの間の相対運動を可能にする連結機構とを含むサスペンションシステム118が含まれていてよい。サスペンションシステム118は、牽引車両ヒッチ120(例えば車両ヒッチボール122)と、トレーラヒッチ210(例えばトレーラヒッチカプラ212)とを位置合わせできるように、牽引車両100の高さを調整するように構成されていてよく、これにより、牽引車両100とトレーラ200と間の自律的な接続が可能になる。
牽引車両100は、牽引車両100によって定められる互いに垂直な3つの軸、すなわち横方向軸線X、前後方向の軸線Yおよび中央の垂直方向の軸線Zに対する相対運動のさまざまな組み合わせによって道路表面にわたって移動可能である。横方向軸線Xは、牽引車両100の右側と左側との間に延在している。前後方向の軸線Yに沿った前方の運転方向は、Fで示されており、前進移動とも称される。さらに、前後方向の軸線Yに沿った後尾または後方への運転方向はRで示されており、後方移動とも称される。サスペンションシステム118により、牽引車両100のサスペンションが調整される場合、牽引車両100は、X軸および/またはY軸の周りに傾斜するか、または中央の垂直方向の軸線Zに沿って移動可能である。
牽引車両100は、ユーザインタフェース130を含んでいてよい。ユーザインタフェース130は、1つ以上の入力メカニズムまたはスクリーンディスプレイ132(例えばタッチスクリーンディスプレイ)を介して、運転者から1つ以上のユーザコマンドを受信し、かつ/または1つ以上の通知を運転者に表示する。ユーザインタフェース130は、車両コントローラ150と通信し、この車両コントローラ150それ自体は、センサシステム140と通信する。いくつかの実施例では、ユーザインタフェース130により、牽引車両100の周囲の画像が表示され、これにより、1つ以上の動作の実行を開始する1つ以上のコマンドが(運転者から)ユーザインタフェース130によって受信されることになる。いくつかの実施例では、ユーザディスプレイ132により、牽引車両100の後ろに位置付けられたトレーラ200、200a~cの1つ以上の表現136,136a~cが表示される。この場合、運転者は、トレーラ200、200a~cの1つの表現136、136a~cを選択し、これにより、選択された表現136、136a~cのトレーラ200、200a~cに関連付けられた、位置合わせシステム160による位置合わせをコントローラ150に実行させる。牽引車両100の後ろに位置付けられているトレーラ200、200a~cの1つの表現136、136a~cがユーザディスプレイ132によって表示されるいくつかの実施例では、コントローラ150は、自動的に、またはトレーラ200、200a~cに自律的に連結せよという運転者からの指示に応じて、1つの表現136、136a~cの1つのトレーラ200、200a~cに関連付けられた、位置合わせシステム160による位置合わせを実行可能である。車両コントローラ150には、コンピューティングプロセッサ152上で実行可能な命令を格納可能な非一時的なメモリ154(例えばハードディスク、フラッシュメモリ、ランダムアクセスメモリ、メモリハードウェア)と通信するコンピューティングデバイス(またはプロセッサまたはデータ処理ハードウェア)152(例えば1つ以上のコンピューティングプロセッサを有する中央演算処理ユニット)が含まれている。
牽引車両100は、確実かつロバストな運転を提供するためにセンサシステム140を含んでいてよい。センサシステム140は、牽引車両100の周囲環境の認識を作成するために、個別にまたは互いに使用され得る異なるタイプの複数のセンサを含んでいてよい。周囲環境の認識は、センサシステム140によって検出される対象体または障害物に基づいて運転者がインテリジェントな決定を行うのを補助するために、または牽引車両100の自動運転中に使用される。センサシステム140は、1つ以上のカメラ142を含んでいてよい。いくつかの実装形態において、牽引車両100には、牽引車両100についての後方の運転パスのビューを有する画像143を供給するために取り付けられているリアカメラ142aが含まれる。リアカメラ142aは、広角パノラマまたは半球画像143を作成するために、大きな視覚的な歪みを形成する超広角レンズを含む魚眼レンズを含んでいてよい。魚眼カメラにより、極めて広い画角を有する画像143が取り込まれる。さらに、魚眼カメラによって取り込まれる画像143は、特徴的な凸状の非直線的な外観を有する。また牽引車両100の後方の運転パスの画像143を取り込むために別のタイプのカメラも使用可能である。
センサシステム140は、レーダ、ソナー、LIDAR(離れたターゲットの測距および/または別の情報を見つけるために散乱光の特性を測定する光学式リモートセンシングを必要とし得るLight Detection and Ranging)、LADAR(Laser Detection and Ranging)、超音波センサ、ステレオカメラなどの別のセンサを含んでいてよいが、これらのセンサには限定されない。センサ144は、コントローラ150、すなわち位置合わせシステム160にセンサデータ145を出力する。
車両コントローラ150は、カメラ142aからの画像143と、センサ144からのセンサデータ145とを受信して位置合わせシステム160による位置合わせを実行し、3次元ワールド座標においてトレーラの前面220の法線方向Nと、トレーラ前面220の中心点222とを特定する。トレーラ前面220の中心点222は、牽引車両100とトレーラ200との位置合わせプロセス中、位置合わせシステム160によって基準点として使用される。したがって位置合わせシステム160は、ヒッチングプロセス中に牽引車両100とトレーラ200とが位置合わせされるようにする。牽引車両100またはトレーラ200の初期姿勢(すなわち位置および方向)は、位置合わせシステム160の位置合わせの実行には影響を及ぼさない。
いくかの実装形態において、位置合わせシステム160は、リアカメラ142aから画像143を受信する。位置合わせシステム160は、ユーザインタフェース130に指示して、受信した画像143をディスプレイ132に表示させ、表示された画像143(図4A~4C)内の関心領域(ROI:region of interest)400を選択するように運転者に求める。ROI400は、トレーラ200を含むバウンディングボックスである。別の複数の実施例において、カプラ位置推定および追跡システム160は、画像143内でトレーラを識別して、ROI400であるバウンディングボックスによってトレーラ200を画定するトレーラ識別アルゴリズムを含んでいてよい。
牽引車両100が後方向Rにまたは前方向に移動するに連れて、画像143におけるトレーラ200の見え方および寸法は変化する。したがって図4A~4Cに示した前後方向の軸線Yに沿った前方向Fおよび後方向Rの運転移動中にカメラ142aから受信される新たな画像143に基づき、画像追跡アルゴリズム162により、ROI400が更新される。いくつかの実施例では、位置合わせシステム160により、ROI400内の複数の特徴点が抽出され、これらの特徴点が追跡される。これらの特徴点の例には、トレーラ200、カプラ212または牽引バー214のエッジ、コーナまたは小塊が含まれてよいが、これらに限定されない。
位置合わせシステム160には、ROI400内の対象体、例えばトレーラ200(図5)のセミ・デンス/デンスの点群500を生成する点群生成モジュール164が含まれている。点群は、3次元空間におけるデータ点の集合であり、より具体的には、点群には、対象体の外部表面における多くの点502が含まれている。図5を参照すると、カメラ142aの姿勢(すなわち位置および方向)は、トレーラ200に対して変化する。したがって牽引車両100が移動する間にカメラの姿勢が変化するのに連れて、カメラ142aは、点群マップ500を生成するために、異なる時点にトレーラ200の画像143を取り込む。例えばカメラ142aにより、第1画像143が時点tに取り込まれる。第1画像143は、ROI400を含み、このROI400それ自体は、トレーラ200と、トレーラ200に関連付けられた特徴点502(例えば2次元の特徴点)とを含む。牽引車両100が移動するのに連れて、カメラの姿勢が変化する。それゆえに時点tでは、カメラにより、同様にROI400を含む第2画像143が取り込まれ、このROI400それ自体には、トレーラ200と、トレーラ200に関連付けられた特徴点502(例えば2次元の特徴点)とが含まれる。前に説明したように、画像追跡アルゴリズム162により、ROI400における特徴点502が追跡され、したがって第2画像143における特徴点502は、その見え方が、第1画像と比較して変化する。カメラ142aは、点群生成モジュール164が、点群500を生成するのに十分な特徴点502を有するまで画像143を取り込み続ける。
点群生成モジュール164は、点群500の位置を特定してこれを生成するために1つ以上の技術を使用可能である。これらの技術のうちのいくつかには、VO(Visual Odometry)、SLAM(Simultaneous Localization and Mapping)およびSfM(Structure from Motion)が含まれるが、これらに限定されない。VO、SLAMおよびSfMフレームワークは、十分に確立された理論であり、牽引車両100が、自己生成3次元点群マップにおいてリアルタイムに位置を特定できるようにする。VOは、カメラ142aから受信した画像143を解析することにより、トレーラ200、カメラ142a、カプラ212または牽引バー214の位置および向きを特定する方法である。VO法は、画像特徴点502を抽出して、画像シーケンスにおいてこれらを追跡可能である。特徴点502の例には、トレーラ200、カプラ212または牽引バー214のエッジ、コーナまたは小塊が含まれてよいが、これらに限定されない。VO法はまた、視覚入力として、画像シーケンスにおけるピクセル輝度も直接に使用可能である。SLAM法は、同時に1つ以上のターゲットを追跡しながら、未知の周囲環境のマップを構成または更新する。言い換えると、SLAM法は、牽引車両100およびカメラ142aの位置および向きを設定するために、外部情報のただ1つの供給源として、受信された画像143を使用し、同時にROI400における対象体の表現を構成する。SfM法は、受信された画像143(すなわち2次元画像)に基づいて、ROI400における対象体の3次元構造を推定する。SfM法は、カメラ142によって取り込まれる画像143のシーケンスに基づいて、カメラ142aおよび牽引車両100の姿勢を推定可能である。したがって点群生成モジュール164により、点群500が生成され、上述の技術のうちの1つの実行に基づいてカメラの姿勢が特定される。
カプラ位置推定および追跡システム160には、カメラ平面610および道路平面620を特定するように構成されている平面特定モジュール166が含まれる。図6Aおよび6Bを参照すると、いくかの実装形態において、平面特定モジュール166により、カメラ平面610および道路平面620が特定され、カメラ142aは、このカメラ平面610に沿って移動する。カメラ平面610を特定するために、平面特定モジュール166は、図6Aに示したようにカメラ142aから受信した、カメラ142aの少なくとも3つの前の3次元位置P、P、Pをカメラデータ141として使用する。カメラデータ141は、固有パラメータ(例えば焦点距離、画像センサ形式と、主要点)および外因性パラメータ(例えば、3次元ワールド座標から3次元カメラ座標への座標系変換、言い換えると外因性パラメータにより、ワールド座標におけるカメラ中心の位置およびカメラの向きが特定される)とを含んでいてよい。さらにカメラデータ141は、(例えば車両の荷重時および無荷重時の)地面に対するカメラ142aの最小/最大/平均の高さ、およびカメラ142aと車両ヒッチボール122との間の長手方向の距離を含んでいてよい。平面特定モジュール166により、カメラ142aの少なくとも3つの、前の3次元位置P、P、Pの3つの点の3次元位置P、P、Pに基づいてカメラ平面610が特定される。いつかの実施例では、カプラ位置推定および追跡システム160により、カメラ平面610に基づいて道路平面620が特定される。いくつかの実装形態では、カメラ平面610およびカメラデータ141に基づき、平面特定モジュール166によって道路平面620が特定される。というのは、道路平面620は、(カメラ情報141において供給される)地面からのカメラ142aの高さによる、カメラ平面610のシフトだからである。この手順は、カメラ平面610を特定するために使用される3つの3次元点が一直線上にある場合には有益であり、この場合には、3次元点P、P、Pによって与えられる直線に対して同一平面上にある無限個のカメラ平面610が存在する。
道路平面620を特定するために、平面特定モジュール166により、道路に関連付けられかつ取り込まれた2次元画像143から少なくとも3つの特徴点が抽出される。引き続いてカプラ位置推定および追跡システム160により、点群500内でこれらの3つの特徴点の3次元位置が特定され、次にカプラ位置推定および追跡システム160により、これらの3つの特徴点に基づいて道路平面620が計算される。いくつかの実施例では、カプラ位置推定および追跡システム160により、道路平面620に基づいてカメラ平面610が特定される。いくかの実装形態では、道路平面620およびカメラ情報141に基づき、カプラ位置推定および追跡システム160により、カメラ平面が特定される。というのは、カメラ平面610は、(カメラ情報141によって供給される)地面からのカメラ142aの高さによる、道路平面620のシフトだからである。
平面特定モジュール166は、牽引車両100が後方向Rに自律的に移動するのに連れてリアルタイムに平面610、620を特定して更新可能であるか、または平面特定モジュール166により、道路が平坦であることが特定される場合、カプラ位置推定および追跡システム160は、平面610、620を1回だけ特定するのでよい。上述の方法は、カメラ平面610または道路平面620を特定するために3つの点を使用する。しかしながらいくつかの実施例では、平面特定モジュール166は、平面610、620を特定するために4つ以上の点に依拠してよい。この場合、平面610、620を特定するために、平面特定モジュール166により、最小二乗法、RANSAC(Radom Sample Consensus)法、サポートベクタマシン(SVM:Support Vector Machine)法、またはこれらのアルゴリズムの任意の変形形態が使用される。平面610、620を特定するために4つ以上の点を使用することにより、平面特定モジュール166は、異常値に対してよりロバストになる。
位置合わせシステム160には、点群500をフィルタリングするフィルタリングモジュール168が含まれる。フィルタリングモジュール168により、L個のクラスタでクラスタリングアルゴリズムが計算される(ここでLは整数である)。クラスタリングアルゴリズムにより、データ点(例えば点群502)はクラスタにグループ分けされる。例えば、クラスタリングアルゴリズムにより、生成モジュール166によって生成される点群502が複数のグループに分類され、それぞれの点は、最も近い平均値を有するクラスタに属する。クラスタリングアルゴリズムにより、それぞれのクラスタの中心または平均値と、それぞれのクラスタに属する点502とが識別される。クラスタの任意の2つの中心間の距離が、D(Dは、トレーラの前面の幅またはその近似値として選択可能である)より小さい場合、フィルタリングモジュール168は、L-1個のクラスタでクラスタリングアルゴリズムを実行する。クラスタの任意の2つの中心間のすべての距離がDよりも大きい場合、または点群500にただ1つのクラスタだけが存在する場合、フィルタリングモジュール168により、クラスタリングアルゴリズムの実行が停止される。
位置合わせシステム160には、トレーラ200の前面220を識別する識別モジュール169が含まれる。というのはトレーラ200の前面220は、車両100に最も近いトレーラ面であり、ヒッチングのためのトレーラヒッチ210を支持するからである。識別モジュール169により、(フィルタリングモジュール168によって特定される)クラスタのそれぞれの中心の、カメラ平面610または道路平面620への投影が特定される。識別モジュール169により、カメラ142aの中心により近い、投影された点が特定される。クラスタの中心が、カメラ平面610に投影される場合、識別モジュール169により、それぞれの投影された中心から、カメラ142aの中心への距離が特定される。しかしながらクラスタの中心が、道路平面620に投影される場合、識別モジュール169により、道路平面620において、それぞれの投影された中心から、カメラ142aの中心の投影への距離が特定される。
識別モジュール169により、カメラ142a(すなわちカメラの中心)に最も近い、クラスタ504の中心が特定されると、識別モジュール169により、カメラ142aと最も近い距離を有する中心のクラスタ点群502に関連付けられた平面Pが計算される。識別モジュール169は、カメラ142aに最も近い中心を有するクラスタ504に関連付けられた点群502に基づいて平面Pを特定するために、以下のアルゴリズム、すなわちRANSAC、最小二乗法、SVMまたはこれらの任意の変形形態のうちの1つを使用可能である。
引き続いて識別モジュール169により、トレーラ200の幅が特定される。識別モジュール169により、カメラ142aに最も近い中心を有するクラスタ504に関連付けられた点群502が、カメラ平面610(または道路平面620)に投影される。これらの投影された点を集合Mで表す。次に識別モジュール169により、集合Mの投影された点にフィットする、カメラ平面610または道路平面620内の1つの直線が計算される。識別モジュール169により、集合Mの投影される点にフィットする直線を特定するために、RANSAC、最小二乗法、SVMまたはこれらの任意の変形形態のうちの1つが実行される。次に、識別モジュール169により、投影されたすべての点を含む、直線のセグメントを見つけるために、集合Mにおける点が直線に投影される。このセグメントにより、推定されるトレーラ幅が示される。
いくつかの実施例では、識別モジュール169により、前面平面Pと、カメラ平面610(または道路平面620)との間の交わりに基づいて直線が特定される。次に識別モジュール169により、投影されるすべての点を含む直線のセグメントを見つけるために、集合Mの点が直線に投影される。このセグメントにより、推定されるトレーラ幅が示される。
識別モジュール169により、位置合わせのための基準点222である、セグメントの中心点222が特定される。識別モジュール169により、車両100を位置合わせする方向を示す、平面Pの法線Nが特定される。
再び図2を参照すると、車両コントローラ150により、3次元ワールド座標におけるトレーラ200および基準点222の場合、前面220の法線方向Nに基づいてパス172を計画するパス計画システム170が起動される。パス計画システム170には、後方向に牽引車両100を操縦することが含まれていてよい。
車両100が、計画されたパスに沿って自律的に操縦するのに連れて、パス計画システム170は、センサデータを連続して受信するのに基づき、パスを連続して更新する。いくつかの実施例では、対象体検出システムにより、計画されたパス172に沿って1つ以上の対象体が識別され、1つ以上の対象体の位置に関連するデータがパス計画システム170に送信される。この場合、あらかじめ設定された操縦が実行される間にも、パス計画システム170により、1つ以上の対象体を避けるために、計画されたパス172が再計算される。いくつかの実施例では、パス計画システムにより、衝突の確率が特定され、この衝突の確率が、あらかじめ設定された閾値を上回る場合、パス計画システム170により、パスが調整され、これが運転支援システム180に送信される。
運転支援システム180には、パス追跡動作182が含まれる。パス追跡動作182により、計画されたパス172が受け取られ、運転システム110にコマンド190を送信する1つ以上の動作182が実行され、これにより、計画されたパスに沿って車両100を自動運転させ、これにより、図1Bに示したようにヒッチングのために車両100を位置合わせさせる。
パス追跡動作182、182a~cは、ブレーキング動作182a、加減速動作182bおよび操舵動作182cのような1つ以上の動作を含んでいてよいが、これらには限定されない。それぞれの動作182、182a~cは、後方への運転、特定の角度での方向転換、ブレーキング、加速、減速などのような行動を車両100に取らせる。車両コントローラ150は、運転システム110を制御することにより、より具体的には運転システム110にコマンド190を出すことにより、道路表面にわたって任意の方向に車両100を操縦可能である。
ブレーキング動作182aは、計画されたパスに基づき、車両100を停止させるかまたは車両100を減速するために実行可能である。ブレーキング動作182aは、車両100を停止するかまたは車両100の速度を下げるために、運転システム110、例えばブレーキシステム(図示せず)に信号またはコマンド190を送信する。
加減速動作182bは、計画されたパスに基づいて加速または減速することによって車両100の速度を変更するために実行可能である。加減速動作182bは、減速のためにブレーキシステム114に、または加速のために加速システム116に信号またはコマンド190を送信する。
操舵動作182cは、計画されたパスに基づいて車両100の方向を変更するために実行可能である。したがって操舵動作182cは、運転システム110に方向を変更させる操舵角を示す信号またはコマンド190を加速システム130に送信する。
位置合わせシステム160により、平坦な前面を有するトレーラ200に対し、上述のように前面平面Pが特定される。しかしながら位置合わせシステム160はまた、平坦な前面220を有しないトレーラ200にも使用可能である。この場合、位置合わせシステム160は、例えば、あらかじめ設定された形状の集合から、トレーラ前面220の形状を入力するように運転者に入力を求める。または別の複数の実施例において、位置合わせシステム160には、トレーラの前面の形状を特定する形状特定モジュールが含まれる。したがって識別モジュール169により、トレーラ前面220の形状に基づいてその計算が調整される。
位置合わせシステム160は、GPU、グラフィックアクセラレータ、トレーニングまたはFPGAを具備した、またはこれらを具備しない標準のCPUにおいてリアルタイムに動作するように設計される。
図8には、図1~7に示したシステムを使用して、牽引車両100と、牽引車両100の後ろに位置付けられたトレーラ200とを位置合わせする方法800の動作の例示的な構成が示されている。方法800には、ブロック802において、データ処理ハードウェア152により、牽引車両の後方環境の点群マップ500を特定することが含まれる。後方環境には、トレーラ200、すなわちトレーラ200の表現136が含まれる。方法800には、ブロック804において、データ処理ハードウェア152により、点群マップ500に基づいてトレーラ200の前面平面Pを特定することが含まれる。方法800には、ブロック806において、データ処理ハードウェア152により、前面平面Pの法線Nを特定することが含まれる(図2)。方法800には、ブロック808において、データ処理ハードウェア152により、牽引車両100からトレーラ200へのパス172を特定し、これにより、牽引車両100の前後方向の軸線Yが、前面平面Pの法線Nと位置合わせされるようにすることが含まれる。
いくつかの実現形態において、この方法には、牽引車両100の後部に位置付けられたカメラ142aから、かつデータ処理ハードウェア152と通信して1つ以上の画像143を受信することが含まれる。方法800にはまた、1つ以上の画像143内のトレーラ表現136を含むROI400を識別することが含まれていてよい。トレーラ表現136は、牽引車両100の後ろに位置付けられたトレーラ200を表す。したがって牽引車両100の後方環境の点群マップ500の特定には、ROI400だけに関連付けられた点群マップ500の特定が含まれる。
いくつかの実施例において、方法800には、牽引車両100が移動している間に、受信された画像143からリアカメラ142aの少なくとも3つの3次元位置を特定することが含まれる。この方法にはまた、少なくとも3つの3次元位置に基づいてカメラ平面610を特定することが含まれていてよい。
点群マップに基づくトレーラの前面の特定には、以下が含まれていてよい。すなわち、点群マップ500内の点502のクラスタ504を特定することと、クラスタ504毎にクラスタ504の中心を特定することとが含まれていてよい。方法800にはまた、クラスタ504の中心をカメラ平面610に投影することが含まれていてよい。いくつかの実施例において方法800には、以下が含まれる。すなわちカメラ142aの中心に対して最短距離を有する中心に関連付けられたクラスタ504を特定することと、カメラ142aの中心に対して最短距離を有する、クラスタ504の点502に基づいて前面平面Pを特定することとが含まれる。
いくつかの実施例において、方法800には、カメラ142aの中心に対して最短距離を有する中心に関連付けられたクラスタ504の点502をカメラ平面610に投影し、投影された点に関連付けられた1つの直線を特定することが含まれる。方法800には、投影されたすべての点を含むセグメントを特定するために、投影された点を直線に投影することが含まれていてよい。法線に沿いかつセグメントの中心点222を通る直線が、位置合わせ方向を示す。
点群マップ500の特定には、VO(Visual Odometry)アルゴリズム、SLAM(Simultaneous Localization and Mapping)アルゴリズム、およびSfM(Structure from Motion)アルゴリズムのうちの1つを実行することが含まれていてよい。
いくつかの実施例において、方法800には、データ処理ハードウェア152と通信して運転システム110に命令190を送信することが含まれる。これらの命令190は、パス172に沿って後方向Rに牽引車両100を自動運転させる。
ここで説明したシステムおよび技術のさまざまな実装形態は、デジタル電子回路、集積回路、特別に設計されたASIC(application specific integrated circuit)、コンピュータハードウェア、ファームウェア、ソフトウェアおよび/またはこれらの組み合わせで実現可能である。これらのさまざまな実装形態は、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行可能および/またはインタープリト可能な1つ以上のコンピュータプログラムにおける実装形態を含むことができ、このプログラマブルプロセッサは、記憶システム、少なくとも1つの入力デバイスおよび少なくとも1つの出力デバイスからデータおよび命令を受信し、かつこれらにデータおよび命令を送信するために接続された特殊用途または一般用途のプログラマブルプロセッサであってよい。
(プログラム、ソフトウェア、ソフトウェアアプリケーションまたはコードとしても知られている)これらのコンピュータプログラムには、プログラマブルプロセッサ用の機械命令が含まれ、高水準手続き型および/またはオブジェクト指向プログラミング言語および/またはアセンブリ言語/機械語で実現可能である。ここで使用される「機械読み出し可能媒体」および「コンピュータ読み出し可能媒体」という用語は、機械読み出し可能信号として機械命令を受け取る機械読み出し媒体を含む、プログラマブルプロセッサに機械命令および/またはデータを供給するために使用される任意のコンピュータプログラム製品、装置および/またはデバイス(例えば磁気ディスク、光学ディスク、メモリ、PLD(Programmable Logic Device))のことである。「機械読み出し可能信号」という用語は、プログラマブルプロセッサに機械命令および/またはデータを供給するために使用される任意の信号のことである。
本明細書で開示した複数の構造およびこれらの構造の等価物、またはこれらの1つ以上の組み合わせを含めた、本明細書で説明した対象事項および機能的な動作の実装形態は、デジタル電子回路、またはコンピュータソフトウェア、ファームウェアまたはハードウェアで実装可能である。さらに本明細書で説明した対象事項は、1つ以上のコンピュータプログラム製品、すなわち、データ処理装置による実行のために、またはその動作を制御するためにコンピュータ読み出し可能媒体に符号化されるコンピュータプログラム命令の1つ以上のモジュールとして実装可能である。コンピュータ読み出し可能媒体は、機械読み出し可能記憶装置、機械読み出し可能記憶基体、メモリデバイス、機械読み出し可能伝播信号に影響を及ぼす組成物、またはこれらの1つ以上の組み合わせであってよい。「データ処理装置」、「コンピューティングデバイス」および「コンピューティングプロセッサ」という用語には、例としてプログラマブルプロセッサ、コンピュータまたはマルチプロセッサまたはマルチコンピュータを含む、データを処理するすべての装置、デバイスおよび機械が包含される。この装置は、ハードウェアに加えて、対象となるコンピュータプログラムに対する実行環境を形成するコード、例えばプロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステムまたはこれらの1つ以上の組み合わせを構成するコードを含んでいてよい。伝播信号は、人工的に生成される信号、例えば、適切な受信装置への送信用に情報を符号化するために生成される、機械で生成される電気信号、光信号または電磁信号である。
同様に、動作は、図面において特定の順序で描画されているが、このことは、このような動作が、ここで示した特定の順序で、または順番に実行されるか、または所望の結果を達成するために、示されたすべての動作が実行されることを要求していると理解すべきではない。特定の状況では、マルチタスキングおよび並列処理が有利になることがある。さらに、上述の複数の実施形態においてさまざまなシステムコンポーネントが分離されていることは、すべての実施形態においてこのように分離されることを要求していると理解すべきではなく、上述のプログラムコンポーネントおよびシステムは、一般に、単一のソフトウェア製品に一体で統合可能であるか、または複数のソフトウェア製品にパッケージング可能であると理解すべきである。
ここまで多くの実装形態を説明した。それにもかかわらず、本開示の精神および範囲を逸脱することなく、さまざまな変更を行い得ることを理解されたい。したがって別の実装形態も以下の特許請求の範囲内にある。

Claims (6)

  1. 牽引車両と、前記牽引車両の後ろに位置付けられたトレーラとを位置合わせする方法であって、
    前記牽引車両の後部に位置付けられたカメラから、かつデータ処理ハードウェアと通信して前記牽引車両の後方の画像を受信するステップと、
    前記データ処理ハードウェアにより、前記トレーラが含まれる、前記牽引車両の後方環境の点群マップを受信した前記後方の画像に基づいて特定するステップと、
    前記データ処理ハードウェアにより、前記牽引車両が移動している間に、受信された前記画像と前記カメラに対応する固有パラメータおよび外因性パラメータとに基づいて前記カメラの少なくとも3つの前の3次元位置を特定するステップと、
    前記データ処理ハードウェアにより、少なくとも3つの前記3次元位置がカメラ平面上に位置する前記カメラ平面を特定するステップと、
    前記データ処理ハードウェアにより、前記点群マップに基づいて前記トレーラの前面平面を特定するステップと、
    前記データ処理ハードウェアにより、前記前面平面に基づいて前記前面平面の法線を特定するステップと、
    前記牽引車両の前後方向の軸線と、前記前面平面の前記法線とが位置合わせされるように、前記前面平面の前記法線に基づいて前記データ処理ハードウェアにより、前記牽引車両から前記トレーラへのパスを特定するステップと、
    前記データ処理ハードウェアと通信して運転システムに命令を送信するステップと、
    を含み、
    前記命令は、前記パスに沿って後方向に前記牽引車両を自動運転させ、
    前記点群マップに基づいて前記トレーラの前記前面平面を特定するステップは、
    前記点群マップ内の点のクラスタを特定するステップと、
    クラスタ毎に前記クラスタの中心を特定するステップと、
    前記クラスタの前記中心を前記カメラ平面に投影するステップと、
    前記カメラの中心に対して最短距離を有する前記クラスタを特定するステップと、
    前記カメラの中心に対して最短距離を有する、前記点のクラスタの複数の前記点が前記前面平面上に位置するように前記前面平面を特定するステップと、
    を含み、
    前記点群マップを特定するステップは、VOアルゴリズム、SLAMアルゴリズム、およびSfMアルゴリズムのうちの1つを実行するステップを含む、
    方法。
  2. さらに、前記牽引車両の前記後方環境の前記点群マップを特定するステップに先立って、前記データ処理ハードウェアが、関心領域(ROI)を選択指示する入力を受けて、1つ以上の前記画像内のトレーラ表現を含む前記関心領域を識別するステップを含み、
    前記トレーラ表現は、前記牽引車両の後ろに位置付けられた前記トレーラを表し、
    前記牽引車両の前記後方環境の前記点群マップを特定するステップは、前記ROIだけの点群マップを特定するステップを含む、
    請求項1記載の方法。
  3. さらに、前記前面平面を特定するステップの後に、
    前記データ処理ハードウェアにより、前記カメラの前記中心に対して最短距離を有する前記クラスタの前記点を前記カメラ平面に投影するステップと、
    前記データ処理ハードウェアにより、投影された前記点にフィットする1つの直線を特定するために、投影された前記点をラインフィッティングするステップと、
    前記データ処理ハードウェアにより、投影された前記点を前記直線上に投影し、前記直線上に投影されたすべての投影された前記点を含む、前記直線のセグメントを特定するステップと、
    を含み、
    前記セグメントの中心点を通る直線が、前記法線を構成する、
    請求項1または2記載の方法。
  4. 牽引車両と、前記牽引車両の後ろに位置付けられたトレーラとを位置合わせするシステムであって、
    データ処理ハードウェアと、
    前記データ処理ハードウェアと通信するメモリハードウェアと、
    を有し、
    前記メモリハードウェアには、前記データ処理ハードウェア上で実行される場合に、前記データ処理ハードウェアに動作を実行させる命令が格納されており、前記動作は、
    前記牽引車両の後部に位置付けられたカメラから、かつ前記データ処理ハードウェアと通信して前記牽引車両の後方の画像を受信することと、
    前記トレーラが含まれる、前記牽引車両の後方環境の点群マップを受信した前記後方の画像に基づいて特定することと、
    前記牽引車両が移動している間に、受信された前記画像と前記カメラに対応する固有パラメータおよび外因性パラメータとに基づいて前記カメラの少なくとも3つの前の3次元位置を特定することと、
    少なくとも3つの前記3次元位置がカメラ平面上に位置する前記カメラ平面を特定することと、
    前記点群マップに基づいて前記トレーラの前面平面を特定することと、
    前記前面平面に基づいて前記前面平面の法線を特定することと、
    前記牽引車両の前後方向の軸線と、前記前面平面の前記法線とが位置合わせされるように、前記前面平面の前記法線に基づいて前記牽引車両から前記トレーラへのパスを特定することと、
    前記データ処理ハードウェアと通信して運転システムに命令を送信することと、
    を含み、
    前記命令は、前記パスに沿って後方向に前記牽引車両を自動運転させ、
    前記点群マップに基づいて前記トレーラの前記前面平面を特定することは、
    前記点群マップ内の点のクラスタを特定することと、
    クラスタ毎に前記クラスタの中心を特定することと、
    前記クラスタの前記中心を前記カメラ平面に投影することと、
    前記カメラの中心に対して最短距離を有する前記クラスタを特定することと、
    前記カメラの中心に対して最短距離を有する、前記点のクラスタの複数の前記点が前記前面平面上に位置するように前記前面平面を特定することと、
    を含み、
    前記点群マップを特定することには、VOアルゴリズム、SLAMアルゴリズム、およびSfMアルゴリズムのうちの1つを実行することを含む、
    システム。
  5. 前記動作はさらに、前記牽引車両の前記後方環境の前記点群マップを特定することに先立って、前記データ処理ハードウェアが、関心領域(ROI)を選択指示する入力を受けて、1つ以上の前記画像内のトレーラ表現を含む前記関心領域を識別することを含み、
    前記トレーラ表現は、前記牽引車両の後ろに位置付けられた前記トレーラを表し、
    前記牽引車両の前記後方環境の前記点群マップを特定することには、前記ROIだけの点群マップを特定することを含む、
    請求項記載のシステム。
  6. 前記動作はさらに、前記前面平面を特定することの後に、
    前記カメラの前記中心に対して最短距離を有する前記クラスタの前記点を前記カメラ平面に投影することと、
    投影された前記点にフィットする1つの直線を特定するために、投影された前記点をラインフィットすることと、
    投影された前記点を前記直線上に投影し、前記直線上に投影されたすべての投影された前記点を含む、前記直線のセグメントを特定することと、
    を含み、
    前記セグメントの中心点を通る直線が、前記法線を構成する、
    請求項または記載のシステム。
JP2020560943A 2018-05-01 2019-05-01 牽引車両とトレーラとを位置合わせする方法およびシステム Active JP7326334B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862665308P 2018-05-01 2018-05-01
US62/665,308 2018-05-01
PCT/US2019/030285 WO2019213323A1 (en) 2018-05-01 2019-05-01 Tow vehicle and trailer alignment

Publications (2)

Publication Number Publication Date
JP2021519998A JP2021519998A (ja) 2021-08-12
JP7326334B2 true JP7326334B2 (ja) 2023-08-15

Family

ID=66554482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020560943A Active JP7326334B2 (ja) 2018-05-01 2019-05-01 牽引車両とトレーラとを位置合わせする方法およびシステム

Country Status (5)

Country Link
US (1) US11175677B2 (ja)
EP (1) EP3787912B1 (ja)
JP (1) JP7326334B2 (ja)
CN (1) CN112004696B (ja)
WO (1) WO2019213323A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10086870B2 (en) * 2015-08-18 2018-10-02 Magna Electronics Inc. Trailer parking assist system for vehicle
US11518204B2 (en) * 2018-05-01 2022-12-06 Continental Autonomous Mobility US, LLC Trailer detection and autonomous hitching
US10926759B2 (en) * 2018-06-07 2021-02-23 GM Global Technology Operations LLC Controlling a vehicle based on trailer position
EP4210973A1 (en) * 2020-09-11 2023-07-19 Continental Autonomous Mobility US, LLC Tow ball position detection system and method
CN112904363B (zh) * 2021-01-19 2023-04-25 北京九曜智能科技有限公司 一种自动驾驶车辆对接拖车自动托挂钩的方法
CN113282091B (zh) * 2021-05-31 2024-02-13 驭势科技(北京)有限公司 一种牵引车与被牵引目标对接控制方法、设备和存储介质
CN113296107B (zh) * 2021-06-23 2024-07-23 上海西井科技股份有限公司 传感器协同检测拖挂角度的方法、系统、设备及存储介质
CN113428155B (zh) * 2021-08-11 2022-08-19 浙江吉利控股集团有限公司 牵引车与牵引车厢的对接方法、设备及存储介质
US20230192122A1 (en) * 2021-12-22 2023-06-22 Eduardo Jose Ramirez Llanos Autonomous vehicle trailer hitch coupling system
US11995877B2 (en) * 2021-12-23 2024-05-28 Continental Autonomous Mobility US, LLC Visual tracking of target features
CN116443012B (zh) * 2023-06-13 2023-09-22 九曜智能科技(浙江)有限公司 牵引车和并排被牵引目标的对接方法和电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001334966A (ja) 2000-03-24 2001-12-04 Isuzu Motors Ltd トレーラ連結角検出装置
JP2016203972A (ja) 2015-04-14 2016-12-08 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. 自動化されたヒッチアシストシステム
JP2017528685A (ja) 2014-05-30 2017-09-28 オックスフォード ユニバーシティ イノベーション リミテッドOxford University Innovation Limited 車両位置の推定

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6480104B1 (en) * 2001-04-23 2002-11-12 Darby S. Wall Trailer alignment method and apparatus
US6900724B2 (en) * 2003-09-16 2005-05-31 Bandwidth Design, Inc. Virtual electronic back-up alignment apparatus
US6986544B2 (en) * 2003-08-21 2006-01-17 Wood Richard M Cross flow vortex trap device and method for reducing the aerodynamic drag of ground vehicles
US20060267310A1 (en) * 2005-05-26 2006-11-30 Richardson Kenneth P Hitch alignment method and apparatus
DE502006001111D1 (de) * 2005-09-08 2008-08-28 Voith Turbo Scharfenberg Gmbh Automatische Mittelpufferkupplung mit einer Antenne zur drahtlosen Signalübertragung
GB2447672B (en) * 2007-03-21 2011-12-14 Ford Global Tech Llc Vehicle manoeuvring aids
US8038166B1 (en) * 2008-08-11 2011-10-18 Gregory Hubert Piesinger Trailer hitching and backing precision guidance system method and apparatus
DE102011113197B4 (de) * 2011-09-10 2021-06-10 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Bestimmung eines Winkels zwischen einem Zugfahrzeug und einem daran gekoppelten Anhänger, und Fahrzeug
KR101301453B1 (ko) * 2011-12-15 2013-09-03 여우순엽 지상라이다부·무타켓토탈스테이션부·사면지형 변위 제어모듈의 트레블측량제어를 통한 사면지형 변위 모니터링장치 및 방법
US20130226390A1 (en) * 2012-02-29 2013-08-29 Robert Bosch Gmbh Hitch alignment assistance
DE102012006206B4 (de) * 2012-03-27 2022-11-24 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Erfassung einer drohenden Kollision zwischen einem Zugfahrzeug und seinem Anhänger
US9914333B2 (en) * 2012-07-05 2018-03-13 Uusi, Llc Vehicle trailer connect system
US9488492B2 (en) * 2014-03-18 2016-11-08 Sri International Real-time system for multi-modal 3D geospatial mapping, object recognition, scene annotation and analytics
CN102944224B (zh) * 2012-11-09 2014-08-27 大连理工大学 一种无人驾驶车的自动环境感知系统的工作方法
US20140151979A1 (en) 2012-12-03 2014-06-05 Fontaine Fifth Wheel Fifth Wheel Backup Camera System and Method
GB2513393B (en) * 2013-04-26 2016-02-03 Jaguar Land Rover Ltd Vehicle hitch assistance system
US20150115571A1 (en) * 2013-10-24 2015-04-30 GM Global Technology Operations LLC Smart tow
CN105082910B (zh) * 2014-05-07 2018-01-26 通用汽车环球科技运作有限责任公司 辅助将运载工具联接至拖车的系统和方法
DE102014007898A1 (de) * 2014-05-27 2015-12-03 Man Truck & Bus Ag Verfahren und Fahrerassistenzsystem zur Unterstützung eines Nutzfahrzeug-Gespanns
US9950758B2 (en) * 2014-09-17 2018-04-24 General Electric Company Systems and methods for a turbine trailer mechanical docking and alignment system
MX359536B (es) * 2014-10-03 2018-10-01 Wynright Corp Sistema de manipulacion robotica basado en la percepcion y metodo para la descarga automatizada de camiones que descarga/desembala los productos de traileres y contenedores.
US9555736B2 (en) * 2015-04-03 2017-01-31 Magna Electronics Inc. Vehicle headlamp control using sensing and communication systems
US9836056B2 (en) * 2015-06-05 2017-12-05 Bao Tran Smart vehicle
US20160368336A1 (en) * 2015-06-19 2016-12-22 Paccar Inc Use of laser scanner for autonomous truck operation
JP6659317B2 (ja) 2015-11-17 2020-03-04 株式会社東芝 位置姿勢推定装置、位置姿勢推定プログラムおよび電気掃除機システム
NL2015843B1 (en) * 2015-11-23 2017-06-07 Daf Trucks Nv Auto docking method for application in heavy trucks.
US9849878B2 (en) * 2016-02-26 2017-12-26 GM Global Technology Operations LLC System and method for providing a corrected lane following path through a curve for trailering vehicles
CN106225723B (zh) * 2016-07-25 2019-03-29 浙江零跑科技有限公司 一种基于后视双目相机的多列车铰接角测量方法
DE102016214597B4 (de) 2016-08-05 2023-10-05 Volkswagen Aktiengesellschaft Verfahren zur Unterstützung eines Ankuppelvorgangs eines Fahrzeugs sowie Unterstützungssystem
US10245994B2 (en) * 2016-08-17 2019-04-02 Toyota Motor Engineering & Manufacturing North America, Inc. Transportation system including autonomous detachable engine modules and passenger module
US10391939B2 (en) 2016-09-01 2019-08-27 GM Global Technology Operations LLC Method and apparatus to determine trailer pose
US20180081370A1 (en) 2016-09-22 2018-03-22 Robert Bosch Gmbh Trailer hitch ball detection and location measurement using a rear view camera
US9878587B1 (en) * 2016-10-31 2018-01-30 X Development Llc Movable base for a robotic system
US10346705B2 (en) * 2017-06-20 2019-07-09 GM Global Technology Operations LLC Method and apparatus for estimating articulation angle
GB201806279D0 (en) * 2018-04-17 2018-05-30 Cambridge Entpr Ltd Method and system of articulation angle measurement

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001334966A (ja) 2000-03-24 2001-12-04 Isuzu Motors Ltd トレーラ連結角検出装置
JP2017528685A (ja) 2014-05-30 2017-09-28 オックスフォード ユニバーシティ イノベーション リミテッドOxford University Innovation Limited 車両位置の推定
JP2016203972A (ja) 2015-04-14 2016-12-08 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. 自動化されたヒッチアシストシステム

Also Published As

Publication number Publication date
US20190339708A1 (en) 2019-11-07
US11175677B2 (en) 2021-11-16
CN112004696A (zh) 2020-11-27
EP3787912B1 (en) 2023-07-12
EP3787912A1 (en) 2021-03-10
WO2019213323A1 (en) 2019-11-07
JP2021519998A (ja) 2021-08-12
CN112004696B (zh) 2024-04-12

Similar Documents

Publication Publication Date Title
JP7326334B2 (ja) 牽引車両とトレーラとを位置合わせする方法およびシステム
JP7009655B2 (ja) リアルタイムでのトレーラカプラの位置特定および追跡
US10984553B2 (en) Real-time trailer coupler localization and tracking
JP7124117B2 (ja) トレーラの検出および自律的なヒッチング
JP7136997B2 (ja) ターゲット位置の選択による自動後退
JP7412412B2 (ja) ユーザ選択軌跡の追従および車両動き推定による自動後退
CN112424002A (zh) 视觉对象跟踪器
JP2022526191A (ja) 車両-トレーラーの自律的な操縦および駐車
US20220343535A1 (en) System and method for estimating relative trailer angle
CN115210764A (zh) 自动拖车摄像机校准
JP2023536469A (ja) 射影幾何学による車両トレーラ角度推定
US20230290001A1 (en) Long-Term Visual Trailer Tracker for Vehicle-Trailer Angle Estimation
CN116420094A (zh) 结合短程雷达和后挡板相机来实现拖车角度估计

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220105

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220404

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220704

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230324

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230324

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230404

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230802

R150 Certificate of patent or registration of utility model

Ref document number: 7326334

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150