JP7021372B2 - 自動化されたトレーラヒッチングのための、群点を介したカプラおよび牽引バーの検出 - Google Patents

自動化されたトレーラヒッチングのための、群点を介したカプラおよび牽引バーの検出 Download PDF

Info

Publication number
JP7021372B2
JP7021372B2 JP2020560940A JP2020560940A JP7021372B2 JP 7021372 B2 JP7021372 B2 JP 7021372B2 JP 2020560940 A JP2020560940 A JP 2020560940A JP 2020560940 A JP2020560940 A JP 2020560940A JP 7021372 B2 JP7021372 B2 JP 7021372B2
Authority
JP
Japan
Prior art keywords
plane
data processing
camera
processing hardware
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020560940A
Other languages
English (en)
Other versions
JP2021522504A (ja
Inventor
ホセ ラミレス リャノス エドゥアルド
イプ ジュリアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Automotive Systems Inc
Original Assignee
Continental Automotive Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive Systems Inc filed Critical Continental Automotive Systems Inc
Publication of JP2021522504A publication Critical patent/JP2021522504A/ja
Application granted granted Critical
Publication of JP7021372B2 publication Critical patent/JP7021372B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60DVEHICLE CONNECTIONS
    • B60D1/00Traction couplings; Hitches; Draw-gear; Towing devices
    • B60D1/24Traction couplings; Hitches; Draw-gear; Towing devices characterised by arrangements for particular functions
    • B60D1/36Traction couplings; Hitches; Draw-gear; Towing devices characterised by arrangements for particular functions for facilitating connection, e.g. hitch catchers, visual guide means, signalling aids
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D13/00Steering specially adapted for trailers
    • B62D13/06Steering specially adapted for trailers for backing a normally drawn trailer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60DVEHICLE CONNECTIONS
    • B60D1/00Traction couplings; Hitches; Draw-gear; Towing devices
    • B60D1/58Auxiliary devices
    • B60D1/62Auxiliary devices involving supply lines, electric circuits, or the like
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/808Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for facilitating docking to a trailer
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • G01C11/12Interpretation of pictures by comparison of two or more pictures of the same area the pictures being supported in the same relative position as when they were taken
    • G01C11/14Interpretation of pictures by comparison of two or more pictures of the same area the pictures being supported in the same relative position as when they were taken with optical projection
    • G01C11/16Interpretation of pictures by comparison of two or more pictures of the same area the pictures being supported in the same relative position as when they were taken with optical projection in a common plane
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • G01C11/28Special adaptation for recording picture point data, e.g. for profiles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Remote Sensing (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Description

技術分野
本開示は、自動化されたトレーラヒッチング中に、3次元の点群地図を介してトレーラのカプラおよび牽引バーを検出するための方法および装置に関する。
背景
トレーラは、通常、動力付きの牽引車両によって牽引される動力なしの車両である。トレーラは、とりわけユーティリティトレーラ、ポップアップキャンピングカー、旅行用トレーラ、家畜用トレーラ、フラットベッドトレーラ、密閉型自動車運搬車、およびボートトレーラであり得る。牽引車両は、自動車、クロスオーバー、トラック、バン、多目的スポーツ車(SUV)、レクリエーション用車両(RV)、またはトレーラに取り付けられてトレーラを牽引するように構成された他の任意の車両であり得る。トレーラは、トレーラヒッチを使用して動力車に取り付け可能である。レシーバーヒッチは、牽引車両に据え付けられており、トレーラヒッチに接続されて連結部を形成する。トレーラヒッチは、ボールおよびソケット、第5輪およびグースネック、またはトレーラジャッキであり得る。他の取り付け機構を使用してもよい。トレーラと動力車との間の機械的な接続に加えて、いくつかの例では、トレーラは、牽引車両に電気的に接続されている。したがって、この電気的な接続によって、トレーラは、動力車のリアランプ回路から給電を受けることが可能となり、これによって、トレーラは、動力車のランプと同期するテールランプ、方向指示器、およびブレーキランプを有することが可能となる。
センサ技術の最近の進歩により、車両のための安全性システムが改善されてきた。したがって、牽引車両の後ろに配置されたトレーラのカプラおよび牽引バーをリアルタイムで識別することができ、かつカプラおよび牽引バーをリアルタイムで位置特定することができ、これによって、自動化されたヒッチングのために牽引車両がトレーラに向かって自律的に操縦されることを可能にするようなシステムを提供することが望まれている。
概要
本開示の1つの態様は、牽引車両の後ろに配置されたトレーラに関連付けられたトレーラヒッチのカプラを検出および位置特定する方法を提供する。本方法は、データ処理ハードウェアにおいて、牽引車両の後部位置に配置されていて、かつデータ処理ハードウェアと通信する後方カメラから、画像を受信することを含む。本方法は、データ処理ハードウェアによって、画像の内部において関心領域を決定することも含む。関心領域は、トレーラヒッチの表現を含む。本方法は、データ処理ハードウェアによって、関心領域の内側の物体を表現する3次元(3D)の点群を決定することも含む。本方法は、データ処理ハードウェアによって、受信した画像に基づいて、後方カメラが移動するカメラ平面を決定することも含む。本方法は、データ処理ハードウェアによって、カメラ平面上に群点を投影することも含む。本方法は、データ処理ハードウェアによって、カメラ平面上に投影された群点に基づいてカプラ位置を特定することを含む。本方法は、データ処理ハードウェアによって、カプラ位置に基づいて経路を決定することも含む。経路は、牽引車両がトレーラに取り付けられるところで終端する。本方法は、牽引車両を経路に沿って後退方向に自律的に運転させる命令を、データ処理ハードウェアから運転システムに送信することも含む。
本開示の実装形態は、以下のオプションの特徴のうちの1つまたは複数を含むことができる。いくつかの実装形態では、本方法は、データ処理ハードウェアによって、カメラ平面上に投影された群点に基づいて、牽引車両に対するトレーラの位置合わせ方向を決定することをさらに含む。経路は、位置合わせ方向に基づくこともできる。
いくつかの例では、本方法は、データ処理ハードウェアによって、後方カメラとカプラとの間の長手方向距離を求めることを含む。本方法は、位置合わせ方向に対して法線方向の平面を決定することと、後方カメラと平面との間の第1の距離を求めることとを含むことができる。第1の距離は、長手方向距離を示す。本方法は、平面上に後方カメラの位置を投影することと、平面上への後方カメラの位置の投影と、カメラ平面におけるカプラの投影との間の第2の距離を求めることを含むこともできる。第2の距離は、長手方向距離を示す。経路は、長手方向距離および/または横方向距離に基づくこともできる。
いくつかの実装形態では、画像の内部において関心領域を決定することは、受信した画像を表示するようにとの命令を、データ処理ハードウェアからディスプレイに送信することと、データ処理ハードウェアにおいて、関心領域のユーザ選択を受信することとを含む。
関心領域の点群を決定することは、視覚オドメトリ(VO)アルゴリズム、simultaneous localization and mapping(SLAM)アルゴリズム、およびstructure from motion(SfM)アルゴリズムのうちの1つを実行することを含むことができる。いくつかの例では、本方法は、牽引車両を前進直進方向または後退直進方向に、事前に規定された距離だけ運転させる命令を、データ処理ハードウェアから運転システムに送信することによって、アルゴリズムの実行前にデータ処理ハードウェアを初期化することを含む。
いくつかの実装形態では、カメラ平面を決定することは、データ処理ハードウェアによって、受信した画像から後方カメラの少なくとも3つの3次元位置を特定することを含む。さらに、カメラ平面を決定することは、データ処理ハードウェアによって、3つの3次元位置に基づいてカメラ平面を決定することを含むこともできる。
いくつかの例では、本方法は、データ処理ハードウェアによって、牽引車両を支持している道路からの後方カメラの高さを求め、後方カメラの高さの分だけカメラ平面をシフトさせることにより、道路平面を決定することをさらに含む。
いくつかの例では、本方法は、データ処理ハードウェアによって、道路を含む画像から少なくとも3つの特徴点を抽出し、データ処理ハードウェアによって、点群の点をそれぞれの特徴点に関連付けることにより、道路平面を決定することを含む。道路平面を決定するための方法は、データ処理ハードウェアによって、少なくとも3つの特徴点に関連付けられた、点群の少なくとも3つの点に基づいて道路平面を決定することを含むこともできる。いくつかの例では、カメラ平面を決定することは、データ処理ハードウェアによって、道路からの後方カメラの高さを求めることと、データ処理ハードウェアによって、後方カメラの高さの分だけ道路平面をシフトさせることとを含む。
いくつかの実装形態では、本方法は、データ処理ハードウェアによって、カプラと道路平面との間の距離に基づいてカプラの高さを求めることをさらに含む。経路は、カプラの高さに基づくこともできる。
本開示の別の態様は、牽引車両の後ろに配置されたトレーラに関連付けられたトレーラヒッチのカプラを検出および位置特定するためのシステムを提供する。本システムは、データ処理ハードウェアと、データ処理ハードウェアと通信するメモリハードウェアとを含む。メモリハードウェアは、データ処理ハードウェア上で実行された場合に、データ処理ハードウェアに上記の方法を含む所定の動作を実行させる命令を格納している。
本開示の1つまたは複数の実装形態の詳細は、添付の図面および以下の説明に記載されている。他の態様、特徴、および利点は、明細書および図面、ならびに特許請求の範囲から明らかになるであろう。
トレーラの前方に配置された例示的な牽引車両の概略上面図である。 ユーザインターフェースと、センサシステムと、制御装置とを有する例示的な牽引車両の概略図である。 牽引車両およびトレーラの斜視図である。 捕捉された画像の内部における関心領域ROIに関する半高密度または高密度の点群の斜視図である。 カメラが移動するカメラ平面への点群の投影の斜視側面図である。 カメラ平面における点群の投影の概略上面図である。 カメラ平面における点群の投影の概略上面図である。 牽引車両の後ろのトレーラに関連付けられたトレーラヒッチのカプラを検出および位置特定するための各動作の例示的な構成の概略図である。
複数の異なる図面における同様の参照符号は、同様の要素を指す。
詳細な説明
図1および図2を参照すると、限定するわけではないが、自動車、クロスオーバー、トラック、バン、多目的スポーツ車(SUV)、レクリエーション用車両(RV)のような牽引車両100は、トレーラ200にヒッチングされるように、かつトレーラ200を牽引するように構成可能である。牽引車両100は、牽引車両ヒッチボール122を有する牽引車両ヒッチ120を介してトレーラ200に接続され、牽引車両ヒッチボール122は、トレーラカプラ212を有するトレーラヒッチ210に接続される。ユーザディスプレイ132のようなユーザインターフェース130上に表示される、トレーラ200,200a~cの1つまたは複数のトレーラ表現136,136a~cから識別されるトレーラ200に向かって自律的に後退することができる牽引車両100を有することが望まれている。さらに、トレーラヒッチ210、すなわち、トレーラ200のカプラ212および牽引バー214の位置をリアルタイムで追跡および推定するアルゴリズムを実行することが可能な、牽引車両100によって支持されている位置推定および追跡システム160を有することも望まれている。位置推定および追跡システム160は、牽引車両100の後部位置に配置された単一のカメラ142aを使用して、画像143を捕捉し、その画像143を分析して、トレーラ200のカプラ212および牽引バー214を識別および追跡することができる。位置推定および追跡システム160は、それぞれの捕捉された画像143の内部における事前に規定された関心領域(ROI)300内に、半高密度/高密度の点群400(図4および図5に図示)を生成し、この点群400に基づいて、位置推定および追跡システム160は、点群400の内部におけるカプラ212および牽引バー214を位置特定する。点群400内におけるカプラ212および牽引バー214の位置特定は、限定するわけではないが、視覚オドメトリ(VO)、Simultaneous Localization and Mapping(SLAM)、およびStructure from Motion(SfM)のような周知のフレームワークによって実施可能である。さらに、位置推定および追跡システム160は、生成された点群400の内部における後方カメラ142aのカメラ姿勢を決定する。決定されたカメラ姿勢に基づいて、位置推定および追跡システム160は、牽引車両100がトレーラ200に向かって自律的に移動している間に、カメラ142aが移動するカメラ平面310(図3)を決定する。その場合、位置推定および追跡システム160は、このカメラ平面310を使用して、受信した画像143の内部におけるカプラ212および牽引バー214を求める探索空間の複雑さを低減することができる。位置推定および追跡システム160が、画像143の内部におけるカプラ212およびカプラ位置を識別すると、位置推定および追跡システム160は、牽引バー214の形状を使用して、トレーラ200の位置合わせ方向220を発見する。
図1~図6を参照すると、いくつかの実装形態では、牽引車両100の運転者は、牽引車両100の後ろに配置されたトレーラ200を牽引することを希望する。牽引車両100は、選択されたトレーラ200,200a~cの表現に関連付けられた、運転者による選択134の指示を受信するように構成可能である。いくつかの例では、運転者が、選択されたトレーラ200,200a~cに向かって牽引車両100を操縦し、その一方で、他の例では、牽引車両100が、選択されたトレーラ200,200a~cに向かって自律的に運転される。牽引車両100は、例えば、x,y,およびz成分を有する運転コマンドに基づいて路面にわたって牽引車両100を操縦する運転システム110を含むことができる。図示のように、運転システム110は、右前輪112,112aと、左前輪112,112bと、右後輪112,112cと、左後輪112,112dとを含む。運転システム110は、他の車輪構成を含むこともできる。運転システム110は、それぞれの車輪112,112a~dに関連付けられたブレーキを含む制動システム114と、牽引車両100の速度および方向を調整するように構成された加速システム116とを含むこともできる。さらに、運転システム110は、サスペンションシステム118を含むことができ、このサスペンションシステム118は、それぞれの車輪112,112a~dに関連付けられたタイヤ、タイヤ空気、スプリング、ショックアブソーバ、およびリンク機構を含み、このリンク機構は、牽引車両100を牽引車両100の車輪112,112a~dに接続し、かつ牽引車両100と車輪112,112a~dとの間の相対運動を可能にする。サスペンションシステム118は、牽引車両100の高さを調整して、牽引車両ヒッチ120(例えば、牽引車両ヒッチボール122)を、トレーラヒッチ210(例えば、トレーラヒッチカプラ212)と位置合わせすることができるように構成可能であり、これにより、牽引車両100とトレーラ200との間の自律的な接続が可能になる。
牽引車両100は、牽引車両100によって定義される3つの相互に垂直な軸、すなわち横軸X、前後軸Y、および中心垂直軸Zに対して相対的な、複数の異なる運動を組み合わせることによって、路面にわたって移動することができる。横軸Xは、牽引車両100の右側と左側との間に延在している。前後軸Yに沿った前進運転方向は、Fとして指定され、前進運動とも称される。さらに、前後方向Yに沿った後進運転方向または後退運転方向は、Rとして指定され、後退運動とも称される。サスペンションシステム118が牽引車両100のサスペンションを調整する際には、牽引車両100を、X軸および/またはY軸を中心にして傾斜させるか、または中心垂直軸Zに沿って移動させることができる。
牽引車両100は、ユーザインターフェース130を含むことができる。ユーザインターフェース130は、1つまたは複数の入力機構またはスクリーンディスプレイ132(例えば、タッチスクリーンディスプレイ)を介して運転者から1つまたは複数のユーザコマンドを受信し、かつ/または運転者への1つまたは複数の通知を表示する。ユーザインターフェース130は、車両制御装置150と通信しており、車両制御装置150自体は、センサシステム140と通信する。いくつかの例では、ユーザインターフェース130は、牽引車両100の周囲環境の画像を表示して、1つまたは複数の挙動の実行を開始する1つまたは複数のコマンドが(運転者から)ユーザインターフェース130によって受信されるようにする。いくつかの例では、ユーザディスプレイ132は、牽引車両100の後ろに配置されたトレーラ200,200a~cの1つまたは複数のトレーラ表現136,136a~cを表示する。この場合、運転者は、トレーラ200,200a~cの表現136,136a~cを選択し、制御装置150に、選択された表現136,136a~cのトレーラ200,200a~cに関連付けられた位置推定および追跡システム160を実行させる。いくつかの例では、ユーザディスプレイ132が、牽引車両100の後ろに配置されたトレーラ200,200a~cの1つの表現136,136a~cを表示する場合には、制御装置150は、この1つの表現136,136a~cの1つのトレーラ200,200a~cに関連付けられた位置推定および追跡システム160を、自動的に実行するか、または運転者からの、トレーラ200,200a~cに自律的に取り付けるようにとの指示に応じて実行することができる。車両制御装置150は、コンピューティングプロセッサ152上で実行可能な命令を格納することができる非一時的メモリ154(例えば、ハードディスク、フラッシュメモリ、ランダムアクセスメモリ、メモリハードウェア)と通信するコンピューティングデバイス(またはプロセッサまたはデータ処理ハードウェア)152(例えば、1つまたは複数のコンピューティングプロセッサを有する中央処理装置)を含む。
牽引車両100は、高信頼性かつロバストな運転を提供するためのセンサシステム140を含むことができる。センサシステム140は、種々異なる種類のセンサを含むことができ、これらの種々異なる種類のセンサは、牽引車両100の周囲環境の知覚情報を作成するために別々にまたは他のセンサと一緒に使用可能であり、周囲環境の知覚情報は、センサシステム140によって検出された物体および障害物に基づいて、牽引車両100を運転するため、かつ運転者がインテリジェントな決定を行うことを支援するために使用される。センサシステム140は、1つまたは複数のカメラ142を含むことができる。いくつかの実装形態では、牽引車両100は、後方運転経路のビューを有する画像143を牽引車両100に提供するために据え付けられた後方カメラ142aを含む。後方カメラ142aは、広範囲のパノラマ画像または半球画像143を作成するために意図された強力な視覚的歪みを生成する超広角レンズを含む魚眼レンズを含むことができる。魚眼カメラは、非常に広い画角を有する画像143を捕捉する。さらに、魚眼カメラによって捕捉された画像143は、特徴的な凸状の非直線的な外観を有する。牽引車両100の後方運転経路の画像143を捕捉するために、他の種類のカメラを使用してもよい。
いくつかの例では、センサシステム140は、牽引車両100の1つまたは複数の車輪112,112a~dに関連付けられた1つまたは複数の車輪エンコーダ144も含む。車輪エンコーダ144は、車輪の角度位置または運動をアナログまたはデジタルの出力信号に変換する電気機械的な装置である。したがって、車輪エンコーダ144は、車輪が走行した速度および距離を求める。
センサシステム140は、牽引車両100に関連付けられた1つまたは複数の加速度および車輪角度センサ146を含むこともできる。加速度および車輪角度センサ146は、横軸Xおよび前後軸Yの方向における牽引車両100の加速度を決定する。
センサシステム140は、車両の線形加速度(1つまたは複数の加速度計を使用して)および回転速度(1つまたは複数のジャイロスコープを使用して)を測定するように構成されたIMU(慣性測定ユニット)148を含むこともできる。いくつかの例では、IMU148は、牽引車両100の方位基準も決定する。したがって、IMU148は、牽引車両100のピッチ、ロール、およびヨーを決定する。
センサシステム140は、限定するわけではないが、レーダー、ソナー、LIDAR(Light Detection and Rangingであり、散乱光の特性を測定して、遠方の目標の距離および/または他の情報を検出する光学リモートセンシングを伴うことが可能)、LADAR(Laser Detection and Ranging)、超音波センサ、ステレオカメラ等のような、他のセンサを含むことができる。車輪エンコーダ144と、加速度および車輪角度センサ146と、IMU148とは、センサデータ145を制御装置150に、すなわち位置推定および追跡システム160に出力する。
車両制御装置150は、位置推定および追跡システム160を実行し、この位置推定および追跡システム160は、後方カメラ142aから画像143を受信し、ユーザインターフェース130を介して運転者によって識別された牽引車両100に対するトレーラ200の位置を特定する。より具体的には、位置推定および追跡システム160は、受信した画像143の内部におけるカプラ212の位置と、牽引バー214の位置とを特定する。さらに、位置推定および追跡システム160は、3次元(3D)座標系またはグローバル座標系におけるカプラ212の位置と、牽引バー214の位置とを特定する。いくつかの例では、位置推定および追跡システム160は、牽引車両100の前後軸Yがトレーラ200の前後軸Yに重なり合うように、牽引車両100をトレーラ200と位置合わせするための位置合わせ方向220を決定する。位置推定および追跡システム160は、車両・トレーラ・システム(図3を参照)のヒッチングおよび位置合わせのプロセスを自動化する反復アルゴリズムを含む。
位置推定および追跡システム160は、後方カメラ142aから画像143を受信する。いくつかの実装形態では、位置推定および追跡システム160は、受信した画像143をディスプレイ132に表示するようにユーザインターフェース130に指示し、表示された画像143の内部において関心領域(ROI)300を選択することをユーザに要求する。ROI300は、トレーラヒッチ210を含んでいる境界枠である。他の例では、位置推定および追跡システム160は、牽引バー・カプラ・識別アルゴリズムを含むことができ、この牽引バー・カプラ・識別アルゴリズムは、画像143の内部におけるトレーラヒッチ210を識別し、ROI300である境界枠によってトレーラヒッチ210を境界付ける。
位置推定および追跡システム160は、図4に示されているように、ROI300の内部にある、牽引バー214およびカプラ212の半高密度/高密度の点群400と、トレーラ200の一部とを生成する。点群は、空間内のデータ点の集合であり、より具体的には、点群は、物体の外側表面上の多数の点を含む。
位置推定および追跡システム160は、1つまたは複数の技術を使用して、点群400内の牽引バー214およびカプラ212を位置特定することができる。これらの技術の中には、限定するわけではないが、視覚オドメトリ(VO)、Simultaneous Localization and Mapping(SLAM)、およびStructure from Motion(SfM)が含まれる。VO法は、カメラ142aから受信した画像143を分析することによって、トレーラ200、カメラ142a、カプラ212、または牽引バー214の位置および向きを特定する方法である。VO法は、画像の特徴点を抽出し、画像シーケンスにおいてこれらの特徴点を追跡することができる。特徴点の例には、限定するわけではないが、トレーラ200、カプラ212、または牽引バー214上の縁部、角部、または染みが含まれていてもよい。VO法は、画像シーケンスにおける画素強度を視覚入力として直接的に使用することもできる。SLAM法は、1つまたは複数の目標を同時に追跡し続けながら、未知の周囲環境の地図を構築または更新する。換言すれば、SLAM法は、受信した画像143を外部情報の唯一のソースとして使用して、牽引車両100およびカメラ142aの位置および向きを確立すると同時に、ROI300内の物体の表現を構築する。SfM法は、受信した画像143(すなわち、2D画像)に基づいて、ROI300内の物体の3D構造を推定する。SfM法は、カメラ142が捕捉した画像143のシーケンスに基づいて、カメラ142aおよび牽引車両100の姿勢を推定することができる。
いくつかの実装形態では、位置推定および追跡システム160は、SLAM法またはSfM法を実行し、したがって、位置推定および追跡システム160は、まず始めに初期化される。したがって、位置推定および追跡システム160は、運転システム110に牽引車両100を、前後軸Yに沿った直進方向に、例えば前進運転方向Fまたは後退運転方向Rに、事前に規定された距離だけ移動させる命令またはコマンド190を、運転システム110に送信する。いくつかの例では、事前に規定された距離は、数センチメートルである。事前に規定された距離は、5cm~50cmの間であってもよい。前後軸Yに沿った前進運転移動Fおよび後退運転移動RによってSLAMまたはSfMが初期化される。さらに、位置推定および追跡システム160は、前進運転移動Fおよび後退運転移動Rに沿ってトラッカーアルゴリズムを実行して、画像143の内部における、運転者によって提供された、または位置推定および追跡システム160によって決定されたROI300を更新する。牽引車両100が後退方向Rに移動すると、トレーラ200、牽引バー214、およびカプラ212の透視図およびサイズが、画像143内において変化する。ROI300は、牽引バーおよびカプラを含み、したがって、ROI300内の特徴点または画素強度が、位置推定および追跡システム160によって追跡される。ROI300は、画像143内の牽引バー214およびカプラ212以外のすべてのものをフィルタアウトするために使用される。
位置推定および追跡システム160は、2つの画像を分析するのではなく、受信した画像143のすべてのシーケンスを分析する。したがって、位置推定および追跡システム160は、決定の実行時によりロバストになる。十分に確立された理論であるVO、SLAM、およびSfMフレームワークにより、車両は、自己生成された3D点群地図においてリアルタイムで位置特定を行うことが可能となる。VO、SLAM、またはSfMアルゴリズムによって生成された3D点群地図によって、平面決定モジュール162は、(画像フレームではなく)3D世界においてトレーラカプラ212を発見することが可能となる。
いくつかの実装形態では、位置推定および追跡システム160は、VO、SLAM、またはSfMアルゴリズムのうちの1つに基づいて、3D点群地図のスケールを決定する。単眼カメラのみを使用して3D点群地図を生成した場合には、この3D点群地図は、スケールの曖昧性を被ることとなり、すなわち、単眼カメラのみを用いて作成された地図は、1つのスケールまでしか復元できない。しかしながら、位置推定および追跡システム160が地図のスケールを把握していない場合でも、位置推定および追跡システム160は、VO、SLAM、またはSfMアルゴリズムを車両センサデータ145と融合することによって、地図のスケールを決定することができる。別の例では、位置推定および追跡システム160は、道路平面320に基づいて地図のスケールを決定する。位置推定および追跡システム160は、地図内におけるカメラ位置から道路平面320までの距離を求める。地図のスケールは、(カメラデータ141からの)カメラ142aの高さを、このステップで計算された距離で割ったものによって与えられる。3D点群地図は、地図内における構造同士の距離に関する詳細を提供することなく、周囲環境の構造を表現する。したがって、位置推定および追跡システム160が、距離情報を含む地図のスケールを決定し、これにより、位置推定および追跡システム160は、世界座標におけるカプラ212の位置を特定することが可能となる。
位置推定および追跡システム160は、カメラ平面310と、道路平面320とを決定するように構成された平面決定モジュール162を含む。いくつかの実装形態では、平面決定モジュール162は、カメラ142aが沿って移動するカメラ平面310と、道路平面320とを決定する。カメラ平面310を決定するために、平面決定モジュール162は、カメラ142aからカメラデータ141として受信した、カメラ142aの少なくとも3つの以前の3D位置を使用する。カメラデータ141は、内因性パラメータ(例えば、焦点距離、イメージセンサフォーマット、および主点)と、外因性パラメータ(例えば、3D世界座標から3Dカメラ座標への座標系変換、換言すれば、外因性パラメータは、世界座標におけるカメラ中心の位置と、カメラの向きとを定義する)とを含むことができる。さらに、カメラデータ141は、地面に対するカメラ142aの最小/最大/平均高さ(例えば、車両の積載時および非積載時)と、カメラ142aと牽引車両ヒッチボール122との間の長手方向距離とを含むことができる。平面決定モジュール162は、カメラ142aの少なくとも3つの以前の3D位置の3つの点の3D位置に基づいて、カメラ平面310を決定する。いくつかの例では、位置推定および追跡システム160は、カメラ平面310に基づいて道路平面320を決定する。いくつかの実装形態では、平面決定モジュール162は、カメラ平面310およびカメラデータ141に基づいて道路平面320を決定する。なぜなら、道路平面320は、(カメラ情報141において提供される)地面からのカメラ142aの高さの分だけカメラ平面310をシフトさせたものだからである。この手順は、カメラ平面310を決定するために使用される3つの3D点が、同一線上にある場合に有用であり、この場合には、これらの3D点によって生成される線と同一平面上にあるカメラ平面310が、無数に存在する。
道路平面320を決定するために、平面決定モジュール162は、道路に関連付けられた捕捉された2D画像143から少なくとも3つの特徴点を抽出する。続いて、位置推定および追跡システム160は、点群400の内部におけるこれら3つの特徴点の3D位置を特定し、次いで、位置推定および追跡システム160は、これら3つの特徴点に基づいて道路平面320を計算する。いくつかの例では、位置推定および追跡システム160は、道路平面320に基づいてカメラ平面310を決定する。いくつかの実装形態では、位置推定および追跡システム160は、道路平面320およびカメラ情報141に基づいてカメラ平面を決定する。なぜなら、カメラ平面310は、(カメラ情報141によって提供される)地面からのカメラ142aの高さの分だけ道路平面320をシフトさせたものだからである。
平面決定モジュール162は、牽引車両100が後退方向Rに自律的に移動しているときに、平面310,320をリアルタイムで決定および更新することができるか、または道路が平坦であることを平面決定モジュール162が判定した場合には、位置推定および追跡システム160が、平面310,320を一度だけ決定することができる。上記の方法は、カメラ平面310または道路平面320を決定するために3つの点を使用する。しかしながら、いくつかの例では、平面決定モジュール162は、平面310,320を決定するために4つ以上の点に依存してもよい。この場合には、位置推定および追跡システム160は、平面310,320を決定するために、最小二乗法、ランダムサンプルコンセンサス(RANSAC)法、サポートベクターマシン(SVM)法、またはこれらのアルゴリズムの任意の変形形態を使用する。平面310,320を決定するために4つ以上の点を使用することによって、平面決定モジュール162は、外れ値に対するロバスト性を高める。
平面決定モジュール162がカメラ平面310および道路平面320を決定すると、位置推定および追跡システム160の一部である検出モジュール164は、牽引バー214およびカプラ212の位置を特定する。検出モジュール164は、図5に示されているように、ROI300に対応する群点402をカメラ平面310上に投影する。次いで、検出モジュール164は、コンピュータビジョンベースの識別アルゴリズム(例えば、ニューラルネットワーク、相関フィルタ等)を実行して、カメラ平面310上に投影された牽引バー214またはカプラ212の既知の形状を発見する。いくつかの例では、牽引バー214およびカプラ212の形状の特性を、メモリハードウェア154に格納することができるか、または形状を識別するための訓練アルゴリズムを使用して訓練することができる。次いで、検出モジュール164は、カプラ212の特定された位置LTCと、牽引バー214の特定された位置LTBと、トレーラヒッチ210の形状とに基づいて、牽引車両100に対するトレーラ200の位置合わせ方向220(図6Aおよび図6B)を決定することができる。したがって、カメラ平面310上に点402を投影することによって、検出モジュール164は、カメラ平面310におけるカプラ212の位置を特定し、カメラ平面310におけるカプラ212の位置に基づいて、検出モジュール164は、現実世界の3D座標におけるカプラ212の位置を特定する。さらに、カメラ平面310上に点402を投影することによって、検出モジュール164は、カメラ平面310の内部における牽引車両100に対するトレーラ200の位置合わせ方向を決定する。検出モジュール164は、牽引バー214およびカプラ212の両方の位置を特定し、これにより、車両100をトレーラ200と位置合わせすることが可能となる。
いくつかの実装形態では、距離推定モジュール166は、カメラ平面310におけるカプラの位置LTCと、カメラデータ141から受信したカメラ位置LVCとの間の距離を求めることによって、カプラ212と後方カメラ142aとの間の距離Dを推定する。図6Aおよび図6Bに示されているように、距離推定モジュール166は、(平面Fの法線である)位置合わせ方向220と、カメラ平面310におけるカプラ212の位置とによって形成される平面Fを決定することができる。長手方向距離DLonは、カメラ142aの位置と平面Fとの間の距離である。横方向距離DLatは、カメラ位置LVCのFへの投影142a’と、カメラ平面310におけるカプラ位置の投影212’との間の距離である。
いくつかの実装形態では、カプラ高さモジュール168は、地面に対するカプラ212の高さ(図示せず)を決定する。例えば、カプラ高さモジュール168は、検出モジュール164によって特定されたカプラ位置LTCと、道路平面320との間の距離を求めることができる。カプラ高さモジュール168は、道路平面320とカプラ点との間の最短距離を使用することができる(カプラが点群内の2つ以上の点によって表現されている場合には、このカプラを表現するために平均点を使用する)。
位置推定および追跡システム160は、牽引バー214およびカプラ212を検出し、次いで、カプラ位置LTCと、地面からのカプラの高さと、カメラ142aとカプラ位置LTCとの間の距離(すなわち、長手方向距離DLonおよび横方向距離DLat)とを求める。制御装置150は、位置推定および追跡システム160によって決定された情報に基づいて、経路計画システム170を実行する。経路計画システム170は、牽引車両100をトレーラ200に向かって後退方向Rに自律的に運転させて、トレーラ200と自律的に接続されるようにする経路を決定する。
牽引車両100は、計画された経路に沿って自律的に操縦しているので、経路計画システム170は、位置推定および追跡システム160からの更新された情報の継続的な受信に基づいて継続的に経路を更新する。いくつかの例では、物体検出システムが、計画された経路に沿って1つまたは複数の物体を識別し、1つまたは複数の物体の位置に関係している経路計画システム170のデータを送信する。この場合、経路計画システム170は、1つまたは複数の物体を回避する一方で、所定の操縦も実行するように、計画された経路を再計算する。いくつかの例では、経路計画システムは、衝突の確率を決定し、衝突の確率が所定のしきい値を超えている場合には、経路計画システム170が、経路を調整して、この経路を運転者支援システム180に送信する。
経路計画システム170が、計画された経路を決定すると、車両制御装置150は、運転者支援システム180を実行する。運転者支援システム180自体は、経路追従挙動182を含む。経路追従挙動182は、計画された経路を受信し、この計画された経路に沿って牽引車両100を自律的に運転させるコマンド190を運転システム110に送信する1つまたは複数の挙動182a~cを実行し、これにより、牽引車両100を自律的にトレーラ200に接続させる。
経路追従挙動182は、制動挙動182aと、速度挙動182bと、操舵挙動182cとを含む。いくつかの例では、経路追従挙動182は、ヒッチ接続挙動と、サスペンション調整挙動も含む。それぞれの挙動182a~182cは、牽引車両100に、とりわけ後退運転、特定の角度での旋回、制動、加速、減速のような行動をとらせる。車両制御装置150は、運転システム110を制御することによって、より具体的には、運転システム110にコマンド190を発行することによって、牽引車両100を路面にわたって任意の方向に操縦することができる。
制動挙動182aは、計画された経路に基づいて車両100を停止または減速させるために実行可能である。制動挙動182aは、運転システム110に、例えば制動システム(図示せず)に、信号またはコマンド190を送信して、牽引車両100を停止させるか、または牽引車両100の速度を低下させる。
速度挙動182bは、計画された経路に基づいて加速または減速を行うことによって牽引車両100の速度を変更するために実行可能である。速度挙動182bは、減速させる場合には制動システム114に、または加速させる場合には加速システム116に、信号またはコマンド190を送信する。
操舵挙動182cは、計画された経路に基づいて牽引車両100の方向を変更するために実行可能である。したがって、操舵挙動182cは、操舵角度を示す信号またはコマンド190を加速システム116に送信して、運転システム110に方向を変更させる。
前述したように、位置推定および追跡システム160は、群点402をカメラ平面310上に投影することによって、カプラLTCの位置を特定する。さらに、位置推定および追跡システム160は、カメラ移動平面310および道路平面320を計算することによって、外れ値をフィルタリングする。例えば、外れ値は、地面上で発見された可能性のある点である。地面の上方およびカメラ平面310の下方にある点のみが考慮される。
いくつかの実装形態では、位置推定および追跡システム160は、前述したようにROI300のみを生成する代わりに、捕捉された画像143の半高密度または高密度の点群を生成する。捕捉された画像143の半高密度または高密度の点群を生成することにより、位置推定および追跡システム160は、画像143の内部にある物体を検出することができ、したがって、経路計画システム170は、識別された物体を使用して、計画された経路を調整し、検出された物体を回避することができる。
位置推定および追跡システム160は、単一の後方カメラ142aから画像を受信し、したがって、位置推定および追跡システム160は、画像143内におけるトレーラカプラ212のサイズに関する事前の知識を必要としない。位置推定および追跡システム160は、GPUまたはグラフィックアクセラレータの使用の有無にかかわらず、標準的なCPUを使用する。
図7は、図1~図6Bに記載されているシステムを使用して、牽引車両100の後ろに配置されたトレーラ200に関連付けられたトレーラヒッチ210のカプラ212を検出および位置特定する方法700の各動作の例示的な構成を提供する。ブロック702において、方法700は、データ処理ハードウェア152において、牽引車両100の後部位置に配置されていて、かつデータ処理ハードウェア152と通信する後方カメラ142aから、画像143を受信することを含む。いくつかの例では、データ処理ハードウェア152は、命令、画像143、および/またはデータを格納するように構成されたメモリハードウェア154と通信している。ブロック704において、方法700は、データ処理ハードウェア152によって、画像143の内部において関心領域300を決定することを含む。関心領域300は、トレーラヒッチ210の表現を含む。ブロック706において、方法700は、データ処理ハードウェア152によって、関心領域300の内側の物体を表現する3次元(3D)の点群400を決定することを含む。ブロック708において、方法700は、データ処理ハードウェア152によって、受信した画像143に基づいて、後方カメラ142aが移動するカメラ平面310を決定することを含む。ブロック710において、方法700は、データ処理ハードウェア152によって、点群400に関連付けられた群点402をカメラ平面310上に投影することを含む。ブロック712において、方法700は、データ処理ハードウェア152によって、カメラ平面310上に投影された群点402に基づいてカプラ位置LTCを特定することを含む。ブロック714において、方法700は、データ処理ハードウェア152によって、カプラ位置LTCに基づいて経路を決定することを含む。この経路は、牽引車両100の現在の位置を始端にして、牽引車両100がトレーラ200に取り付けられるところで終端する。ブロック716において、方法700は、牽引車両100を経路に沿って後退方向Rに自律的に運転させる命令190を、データ処理ハードウェア152から運転システム110に送信することを含む。
いくつかの実施形態では、方法700は、データ処理ハードウェア152によって、カメラ平面310上に投影された群点402に基づいて、牽引車両100に対するトレーラ200の位置合わせ方向220を決定することをさらに含む。経路は、位置合わせ方向220に基づくこともできる。いくつかの例では、方法700は、データ処理ハードウェア152によって、後方カメラとカプラ212との間の長手方向距離および横方向距離を求めることを含む。本方法は、位置合わせ方向220に対して法線方向の平面Fを決定することと、後方カメラ142aと平面Fとの間の第1の距離DLonを求めることとを含む。第1の距離DLonは、長手方向距離DLonを示す。方法700は、カメラ投影142a’である平面F上に後方カメラ142aの位置を投影することと、平面F上への後方カメラ142aの投影142a’と、カメラ平面310におけるカプラ212の投影212’との間の第2の距離DLatを求めることとを含むこともできる。第2の距離DLatは、長手方向距離DLatを示す。経路は、長手方向距離DLonおよび横方向距離DLatに基づくこともできる。
いくつかの例では、画像143の内部において関心領域300を決定すること(ブロック704)は、受信した画像143を表示するようにとの命令を、データ処理ハードウェア152からディスプレイに送信することと、データ処理ハードウェア152において、関心領域300のユーザ選択を受信することとを含む。
いくつかの実装形態では、関心領域300の点群400を決定すること(ブロック706)は、視覚オドメトリ(VO)アルゴリズム、Simultaneous Localization and Mapping(SLAM)アルゴリズム、およびStructure from Motion(SfM)アルゴリズムのうちの1つを実行することを含む。いくつかの例では、方法700は、牽引車両100を前進直進方向Fまたは後退直進方向Rに、事前に規定された距離だけ運転させる命令を、データ処理ハードウェア152から運転システム110に送信することによって、アルゴリズムの実行前にデータ処理ハードウェア152を初期化することも含む。
いくつかの例では、カメラ平面310を決定すること(ブロック708)は、データ処理ハードウェア152によって、受信した画像143から後方カメラの少なくとも3つの3次元位置を特定することと、データ処理ハードウェア152によって、3つの3次元位置に基づいてカメラ平面310を決定することとを含む。いくつかの実装形態では、方法700は、データ処理ハードウェア152によって、牽引車両100を支持している道路からの後方カメラ142aの高さを求め、後方カメラの高さの分だけカメラ平面310をシフトさせることにより、道路平面320を決定することも含む。
いくつかの実装形態では、方法700は、データ処理ハードウェア152によって、道路を含む画像143から少なくとも3つの特徴点を抽出し、データ処理ハードウェア152によって、点群400の点402をそれぞれの特徴点に関連付け、データ処理ハードウェア152によって、少なくとも3つの特徴点に関連付けられた、点群400の少なくとも3つの点に基づいて道路平面320を決定することにより、道路平面320を決定することを含む。いくつかの例では、カメラ平面310を決定することは、データ処理ハードウェア152によって、道路からの後方カメラ142aの高さを求めることと、データ処理ハードウェア152によって、後方カメラ142aの高さの分だけ道路平面320をシフトさせることとを含む。
方法700は、データ処理ハードウェア152によって、カプラ212と道路平面320との間の距離に基づいてカプラ212の高さを求めることを含み、経路は、カプラ212の高さに基づいている。
本明細書に記載されているシステムおよび技術の種々の実装形態は、デジタル電子回路、集積回路、特別に設計されたASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組み合わせの形態で実現可能である。これらの種々の実装形態は、プログラマブルシステム上で実行可能および/または解釈可能な1つまたは複数のコンピュータプログラムの形態での実装を含むことができ、このプログラマブルシステムは、ストレージシステムからデータおよび命令を受信し、かつストレージシステムにデータおよび命令を送信するために結合された、特別であってもよいし汎用であってもよい少なくとも1つのプログラマブルプロセッサと、少なくとも1つの入力デバイスと、少なくとも1つの出力デバイスとを含む。
(プログラム、ソフトウェア、ソフトウェアアプリケーション、またはコードとしても知られる)これらのコンピュータプログラムは、プログラマブルプロセッサのための機械命令を含み、ハイレベルの手続き型プログラミング言語および/またはオブジェクト指向型プログラミング言語、および/またはアセンブリ言語/機械語の形態で実装可能である。本明細書で使用される場合、「機械可読媒体」および「コンピュータ可読媒体」という用語は、機械命令を機械可読信号として受信する機械可読媒体を含む、プログラマブルプロセッサに機械命令および/またはデータを提供するために使用される任意のコンピュータプログラム製品、装置、および/またはデバイス(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を指す。「機械可読信号」という用語は、プログラマブルプロセッサに機械命令および/またはデータを提供するために使用される任意の信号を指す。
本明細書に記載されている主題および機能動作の実装形態は、デジタル電子回路の形態で、または本明細書に開示されている構造およびそれらの構造的な同等物を含むコンピュータソフトウェア、ファームウェア、もしくはハードウェアの形態で、またはそれらの1つまたは複数の組み合わせの形態で、実装可能である。さらに、本明細書に記載されている主題は、1つまたは複数のコンピュータプログラム製品として実装可能であり、すなわち、データ処理装置によって実行するための、またはデータ処理装置の動作を制御するための、コンピュータ可読媒体上に符号化されたコンピュータプログラム命令の1つまたは複数のモジュールとして実装可能である。コンピュータ可読媒体は、機械可読ストレージデバイス、機械可読ストレージ基板、メモリデバイス、機械可読伝搬信号をもたらす物質の組成物、またはそれらの1つまたは複数の組み合わせであり得る。「データ処理装置」、「コンピューティングデバイス」、および「コンピューティングプロセッサ」という用語は、一例としてプログラマブルプロセッサ、コンピュータ、または複数のプロセッサもしくはコンピュータを含む、データを処理するためのすべての装置、デバイス、および機械を包含する。装置は、ハードウェアに加えて、当のコンピュータプログラムの実行環境を作成するコードを含むことができ、例えば、プロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、またはそれらの1つまたは複数の組み合わせを構成するコードを含むことができる。伝搬信号は、人工的に生成された信号であり、例えば、適切な受信機装置に送信するための情報を符号化するために生成される、機械生成の電気信号、光学信号、または電磁信号である。
同様に、各動作は、図面において特定の順序で図示されているが、このことは、望ましい結果を達成するために、そのような動作が、図示された特定の順序または連続した順序で実行されること、または図示されたすべての動作が実行されることが必要であると理解されるべきではない。特定の状況では、マルチタスク処理および並列処理が有利である場合がある。さらに、上記の実施形態における複数の異なるシステムコンポーネントの分離は、すべての実施形態においてそのような分離が必要であると理解されるべきではなく、記載されている複数のプログラムコンポーネントおよびシステムを、一般に、単一のソフトウェア製品に一緒に組み込むことができるか、または複数のソフトウェア製品にパッケージ化することができることが理解されるべきである。
複数の実装形態について説明してきた。それでもなお、本開示の思想および範囲から逸脱することなく、種々の変更を加えることができることが理解されるであろう。したがって、他の実装形態は、以下の特許請求の範囲内にある。

Claims (20)

  1. 牽引車両の後ろに配置されたトレーラに関連付けられたトレーラヒッチのカプラを検出および位置特定する方法であって、
    データ処理ハードウェアにおいて、前記牽引車両の後部位置に配置されていて、かつ前記データ処理ハードウェアと通信する後方カメラから、画像を受信するステップと、
    前記データ処理ハードウェアによって、前記画像の内部において、前記トレーラヒッチの表現を含む関心領域を決定するステップと、
    前記データ処理ハードウェアによって、前記関心領域の内側の物体を表現する3次元(3D)の点群を決定するステップと、
    前記データ処理ハードウェアによって、受信した前記画像に基づいて、前記後方カメラが移動するカメラ平面を決定するステップと、
    前記データ処理ハードウェアによって、前記カメラ平面上に群点を投影するステップと、
    前記データ処理ハードウェアによって、前記カメラ平面上に投影された前記群点に基づいてカプラ位置を特定するステップと、
    前記データ処理ハードウェアによって、前記カプラ位置に基づいて、前記牽引車両が前記トレーラに取り付けられるところで終端する経路を決定するステップと、
    前記牽引車両を前記経路に沿って後退方向に自律的に運転させる命令を、前記データ処理ハードウェアから運転システムに送信するステップと、
    を含む、方法。
  2. 前記データ処理ハードウェアによって、前記カメラ平面上に投影された前記群点に基づいて、前記牽引車両に対する前記トレーラの位置合わせ方向を決定するステップをさらに含み、
    前記経路は、前記位置合わせ方向に基づいている、
    請求項1記載の方法。
  3. 前記データ処理ハードウェアによって、
    前記位置合わせ方向に対して法線方向の平面を決定するステップと、
    前記後方カメラと前記平面との間の、長手方向距離を示す第1の距離を求めるステップと、
    前記平面上に前記後方カメラの位置を投影するステップと、
    前記平面上への前記後方カメラの位置の投影と、前記カメラ平面における前記カプラの投影との間の、長手方向距離を示す第2の距離を求めるステップと、
    により、前記後方カメラと前記カプラとの間の長手方向距離および横方向距離を求めるステップをさらに含み、
    前記経路は、前記長手方向距離および前記横方向距離に基づいている、
    請求項2記載の方法。
  4. 前記画像の内部において前記関心領域を決定するステップは、
    受信した前記画像を表示する命令を、前記データ処理ハードウェアからディスプレイに送信するステップと、
    前記データ処理ハードウェアにおいて、前記関心領域のユーザ選択を受信するステップと、
    を含む、請求項1記載の方法。
  5. 前記関心領域の前記点群を決定するステップは、視覚オドメトリ(VO)アルゴリズム、Simultaneous Localization and Mapping(SLAM)アルゴリズム、およびStructure from Motion(SfM)アルゴリズムのうちの1つを実行するステップを含む、請求項1記載の方法。
  6. 前記牽引車両を前進直進方向または後退直進方向に、事前に規定された距離だけ運転させる命令を、前記データ処理ハードウェアから前記運転システムに送信することによって、前記アルゴリズムの実行前に前記データ処理ハードウェアを初期化するステップをさらに含む、請求項5記載の方法。
  7. 前記カメラ平面を決定するステップは、
    前記データ処理ハードウェアによって、受信した前記画像から前記後方カメラの少なくとも3つの3次元位置を特定するステップと、
    前記データ処理ハードウェアによって、前記3つの3次元位置に基づいて前記カメラ平面を決定するステップと、
    を含む、請求項1記載の方法。
  8. 前記データ処理ハードウェアによって、
    前記牽引車両を支持している道路からの前記後方カメラの高さを求めるステップと、
    前記後方カメラの前記高さの分だけ前記カメラ平面をシフトさせるステップと、
    により、道路平面を決定するするステップをさらに含む、請求項7記載の方法。
  9. 前記データ処理ハードウェアによって、
    道路を含む前記画像から少なくとも3つの特徴点を抽出するステップと、
    前記データ処理ハードウェアによって、前記点群の点をそれぞれの前記特徴点に関連付けるステップと、
    前記データ処理ハードウェアによって、前記少なくとも3つの特徴点に関連付けられた、前記点群の少なくとも3つの点に基づいて道路平面を決定するステップと、
    により、前記道路平面を決定するするステップをさらに含む、請求項1記載の方法。
  10. 前記カメラ平面を決定するステップは、
    前記データ処理ハードウェアによって、前記道路からの前記後方カメラの高さを求めるステップと、
    前記データ処理ハードウェアによって、前記後方カメラの前記高さの分だけ前記道路平面をシフトさせるステップと、
    を含む、請求項9記載の方法。
  11. 前記データ処理ハードウェアによって、前記カプラと道路平面との間の距離に基づいて前記カプラの高さを求めるステップをさらに含み、
    前記経路は、前記カプラの前記高さに基づいている、
    請求項1記載の方法。
  12. 牽引車両の後ろに配置されたトレーラに関連付けられたトレーラヒッチのカプラを検出および位置特定するためのシステムであって、
    データ処理ハードウェアと、
    前記データ処理ハードウェアと通信するメモリハードウェアと、
    を含み、
    前記メモリハードウェアは、前記データ処理ハードウェア上で実行された場合に、前記データ処理ハードウェアに所定の動作を実行させる命令を格納しており、
    前記動作は、
    前記牽引車両の後部位置に配置されていて、かつ前記データ処理ハードウェアと通信する後方カメラから、画像を受信することと、
    前記画像の内部において、前記トレーラヒッチの表現を含む関心領域を決定することと、
    前記関心領域の内側の物体を表現する3次元(3D)の点群を決定することと、
    受信した前記画像に基づいて、前記後方カメラが移動するカメラ平面を決定することと、
    前記カメラ平面上に群点を投影することと、
    前記カメラ平面上に投影された前記群点に基づいてカプラ位置を特定することと、
    前記カプラ位置に基づいて、前記牽引車両が前記トレーラに取り付けられるところで終端する経路を決定することと、
    前記牽引車両を前記経路に沿って後退方向に自律的に運転させる命令を、運転システムに送信することと、
    を含む、
    システム。
  13. 前記動作は、前記カメラ平面上に投影された前記群点に基づいて、前記牽引車両に対する前記トレーラの位置合わせ方向を決定することをさらに含み、
    前記経路は、前記位置合わせ方向に基づいている、
    請求項12記載のシステム。
  14. 前記動作は、
    前記位置合わせ方向に対して法線方向の平面を決定し、
    前記後方カメラと前記平面との間の、長手方向距離を示す第1の距離を求め、
    前記平面上に前記後方カメラの位置を投影し、
    前記平面上への前記後方カメラの位置の投影と、前記カメラ平面における前記カプラの投影との間の、長手方向距離を示す第2の距離を求める
    ことにより、前記後方カメラと前記カプラとの間の長手方向距離および横方向距離を求めること、をさらに含み、
    前記経路は、前記長手方向距離および前記横方向距離に基づいている、
    請求項13記載のシステム。
  15. 前記画像の内部において前記関心領域を決定することは、
    受信した前記画像を表示するようにとの命令を送信することと、
    前記関心領域のユーザ選択を受信することと、
    を含む、請求項12記載のシステム。
  16. 前記関心領域の前記点群を決定することは、視覚オドメトリ(VO)アルゴリズム、Simultaneous Localization and Mapping(SLAM)アルゴリズム、およびStructure from Motion(SfM)アルゴリズムのうちの1つを実行することを含む、請求項12記載のシステム。
  17. 前記カメラ平面を決定することは、
    受信した前記画像から前記後方カメラの少なくとも3つの3次元位置を特定することと、
    前記3つの3次元位置に基づいて前記カメラ平面を決定することと、
    を含む、請求項12記載のシステム。
  18. 前記動作は、
    前記牽引車両を支持している道路からの前記後方カメラの高さを求め、
    前記後方カメラの前記高さの分だけ前記カメラ平面をシフトさせる
    ことにより、道路平面を決定することをさらに含む、請求項17記載のシステム。
  19. 前記動作は、
    道路を含む前記画像から少なくとも3つの特徴点を抽出し、
    前記点群の点をそれぞれの前記特徴点に関連付け、
    前記少なくとも3つの特徴点に関連付けられた、前記点群の少なくとも3つの点に基づいて道路平面を決定する
    ことにより、前記道路平面を決定することをさらに含む、請求項12記載のシステム。
  20. 前記動作は、前記カプラと道路平面との間の距離に基づいて前記カプラの高さを求めることをさらに含み、
    前記経路は、前記カプラの前記高さに基づいている、
    請求項12記載のシステム。
JP2020560940A 2018-05-01 2019-05-01 自動化されたトレーラヒッチングのための、群点を介したカプラおよび牽引バーの検出 Active JP7021372B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862665269P 2018-05-01 2018-05-01
US62/665,269 2018-05-01
PCT/US2019/030127 WO2019213206A1 (en) 2018-05-01 2019-05-01 Coupler and tow-bar detection for automated trailer hitching via cloud points

Publications (2)

Publication Number Publication Date
JP2021522504A JP2021522504A (ja) 2021-08-30
JP7021372B2 true JP7021372B2 (ja) 2022-02-16

Family

ID=66530486

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020560940A Active JP7021372B2 (ja) 2018-05-01 2019-05-01 自動化されたトレーラヒッチングのための、群点を介したカプラおよび牽引バーの検出
JP2020560946A Active JP7009655B2 (ja) 2018-05-01 2019-05-01 リアルタイムでのトレーラカプラの位置特定および追跡

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020560946A Active JP7009655B2 (ja) 2018-05-01 2019-05-01 リアルタイムでのトレーラカプラの位置特定および追跡

Country Status (5)

Country Link
US (1) US11198340B2 (ja)
EP (2) EP3787909B1 (ja)
JP (2) JP7021372B2 (ja)
CN (1) CN112313096A (ja)
WO (2) WO2019213306A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11633994B2 (en) * 2018-04-04 2023-04-25 Continental Autonomous Mobility Us, Llc. Vehicle-trailer distance detection device and method
US11518204B2 (en) * 2018-05-01 2022-12-06 Continental Autonomous Mobility US, LLC Trailer detection and autonomous hitching
US10733757B2 (en) * 2018-05-10 2020-08-04 Magna Electronics Inc. Trailer assist system with estimation of 3D location of hitch
US20200079165A1 (en) * 2018-09-10 2020-03-12 Ford Global Technologies, Llc Hitch assist system
US11030476B2 (en) * 2018-11-29 2021-06-08 Element Ai Inc. System and method for detecting and tracking objects
DE102019200753A1 (de) * 2019-01-22 2020-07-23 Conti Temic Microelectronic Gmbh Verfahren zur Überwachung einer Position eines Stützrades eines Anhängers und ein Kamerasystem zur Überwachung einer Position eines Stützrades eines Anhängers sowie ein Kraftfahrzeug mit einem Kamerasystem
US11584177B2 (en) * 2019-09-13 2023-02-21 Ford Global Technologies, Llc Fixed offset method for hitch detection in hitch assist operation
US11390294B2 (en) * 2019-09-25 2022-07-19 Ford Global Technologies, Llc Differentiating between near trailer and connected trailer
US20210155238A1 (en) * 2019-11-26 2021-05-27 Continental Automotive Systems, Inc. 3d position estimation system for trailer coupler
US11023730B1 (en) * 2020-01-02 2021-06-01 International Business Machines Corporation Fine-grained visual recognition in mobile augmented reality
DE102020203387A1 (de) 2020-03-17 2021-09-23 Volkswagen Aktiengesellschaft Verfahren zum Manövrieren eines Anhängers eines Gespanns zu einem Zugfahrzeug des Gespanns sowie Ankuppelsystem und Gespann
DE102020205468A1 (de) 2020-04-30 2021-11-04 Zf Friedrichshafen Ag Autonomes und/oder assistiertes Kuppeln eines Anhängers unter Berücksichtigung des Höhenprofils des Untergrunds
US20210347410A1 (en) * 2020-05-08 2021-11-11 Ford Global Technologies, Llc Trailer gps location storage and recall for hitch assist operation
US11403767B2 (en) * 2020-09-15 2022-08-02 Connaught Electronics, Ltd. Method and apparatus for detecting a trailer, tow-ball, and coupler for trailer hitch assistance and jackknife prevention
JP7422043B2 (ja) * 2020-09-25 2024-01-25 日立Geニュークリア・エナジー株式会社 作業シミュレーション装置および学習装置
US11676300B2 (en) * 2020-12-09 2023-06-13 Continental Autonomous Mobility US, LLC Method for real-time tow ball detection
US20220203786A1 (en) * 2020-12-30 2022-06-30 Continental Automotive Systems, Inc. Method and assembly for positioning a vehicle relative to a trailer
CN114228411B (zh) * 2021-12-28 2023-09-15 驭势科技(北京)有限公司 连接控制方法、装置、设备及存储介质
US20230400306A1 (en) * 2022-06-14 2023-12-14 Volvo Car Corporation Localization for autonomous movement using vehicle sensors
WO2024062458A2 (en) * 2022-09-23 2024-03-28 Khotkar Abhijeet Arun A trailer and an associated controller
CN116945826B (zh) * 2023-08-17 2024-01-30 合肥马格勒斯汽车科技发展有限公司 一种供电拖车控制方法、系统、存储介质及智能终端

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140012465A1 (en) 2012-07-05 2014-01-09 Uusi, Llc Vehicle trailer connect system
US20150321666A1 (en) 2014-05-07 2015-11-12 GM Global Technology Operations LLC Systems and methods to assist in coupling a vehicle to a trailer
WO2016164118A2 (en) 2015-04-10 2016-10-13 Robert Bosch Gmbh Object position measurement with automotive camera using vehicle motion data
JP2016203972A (ja) 2015-04-14 2016-12-08 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. 自動化されたヒッチアシストシステム
JP2017076833A (ja) 2015-10-13 2017-04-20 アルパイン株式会社 運転支援装置及びコンピュータプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9937953B2 (en) * 2011-04-19 2018-04-10 Ford Global Technologies, Llc Trailer backup offset determination
GB2513393B (en) 2013-04-26 2016-02-03 Jaguar Land Rover Ltd Vehicle hitch assistance system
US9437001B2 (en) 2014-09-18 2016-09-06 Intel Corporation Tracking objects in bowl-shaped imaging systems
US9449397B2 (en) 2014-10-15 2016-09-20 Caterpillar Inc. Real-time visual odometry system for determining motion of a machine with a range detection unit
EP3086196B1 (en) 2015-04-21 2017-04-05 Hexagon Technology Center GmbH Method and control system for surveying and mapping a terrain while operating a bulldozer
US20160375831A1 (en) * 2015-06-23 2016-12-29 GM Global Technology Operations LLC Hitching assist with pan/zoom and virtual top-view
US9696723B2 (en) 2015-06-23 2017-07-04 GM Global Technology Operations LLC Smart trailer hitch control using HMI assisted visual servoing
JP6659317B2 (ja) 2015-11-17 2020-03-04 株式会社東芝 位置姿勢推定装置、位置姿勢推定プログラムおよび電気掃除機システム
US9827818B2 (en) 2015-12-17 2017-11-28 Ford Global Technologies, Llc Multi-stage solution for trailer hitch angle initialization
CN205426175U (zh) * 2016-03-08 2016-08-03 中山大学 一种融合车载多传感器的slam装置
WO2017220705A1 (en) * 2016-06-24 2017-12-28 Jaguar Land Rover Limited Control system for a vehicle
DE102016214597B4 (de) 2016-08-05 2023-10-05 Volkswagen Aktiengesellschaft Verfahren zur Unterstützung eines Ankuppelvorgangs eines Fahrzeugs sowie Unterstützungssystem
KR102462502B1 (ko) 2016-08-16 2022-11-02 삼성전자주식회사 스테레오 카메라 기반의 자율 주행 방법 및 그 장치
US20180081370A1 (en) 2016-09-22 2018-03-22 Robert Bosch Gmbh Trailer hitch ball detection and location measurement using a rear view camera
GB2554427B (en) * 2016-09-27 2019-10-23 Continental Automotive Gmbh Method and device for detecting a trailer
JP7069548B2 (ja) * 2017-03-01 2022-05-18 株式会社アイシン 周辺監視装置
US10384609B2 (en) * 2017-06-20 2019-08-20 Ford Global Technologies, Llc Vehicle rear object proximity system using multiple cameras
JP2019014276A (ja) * 2017-07-03 2019-01-31 アイシン精機株式会社 連結作業支援装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140012465A1 (en) 2012-07-05 2014-01-09 Uusi, Llc Vehicle trailer connect system
US20150321666A1 (en) 2014-05-07 2015-11-12 GM Global Technology Operations LLC Systems and methods to assist in coupling a vehicle to a trailer
WO2016164118A2 (en) 2015-04-10 2016-10-13 Robert Bosch Gmbh Object position measurement with automotive camera using vehicle motion data
JP2016203972A (ja) 2015-04-14 2016-12-08 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. 自動化されたヒッチアシストシステム
JP2017076833A (ja) 2015-10-13 2017-04-20 アルパイン株式会社 運転支援装置及びコンピュータプログラム

Also Published As

Publication number Publication date
EP3787909A1 (en) 2021-03-10
JP7009655B2 (ja) 2022-01-25
US20190337343A1 (en) 2019-11-07
EP3787910B1 (en) 2023-07-26
WO2019213306A1 (en) 2019-11-07
US11198340B2 (en) 2021-12-14
WO2019213206A1 (en) 2019-11-07
JP2021522504A (ja) 2021-08-30
CN112313096A (zh) 2021-02-02
JP2021522606A (ja) 2021-08-30
EP3787909B1 (en) 2023-07-12
EP3787910A1 (en) 2021-03-10

Similar Documents

Publication Publication Date Title
JP7021372B2 (ja) 自動化されたトレーラヒッチングのための、群点を介したカプラおよび牽引バーの検出
US10984553B2 (en) Real-time trailer coupler localization and tracking
JP7124117B2 (ja) トレーラの検出および自律的なヒッチング
JP7136997B2 (ja) ターゲット位置の選択による自動後退
JP7060707B2 (ja) 車両とトレーラとの間の距離を検出する装置および方法
CN112004696B (zh) 牵引车辆和拖车的对准
JP7167185B2 (ja) 視覚物体追跡装置
JP7412412B2 (ja) ユーザ選択軌跡の追従および車両動き推定による自動後退
JP2022526191A (ja) 車両-トレーラーの自律的な操縦および駐車
US20210155238A1 (en) 3d position estimation system for trailer coupler
US20220343535A1 (en) System and method for estimating relative trailer angle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220203

R150 Certificate of patent or registration of utility model

Ref document number: 7021372

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150