JP6997868B2 - 道路標識検出方法、非一時的コンピュータ可読媒体及び道路標識検出システム - Google Patents

道路標識検出方法、非一時的コンピュータ可読媒体及び道路標識検出システム Download PDF

Info

Publication number
JP6997868B2
JP6997868B2 JP2020522109A JP2020522109A JP6997868B2 JP 6997868 B2 JP6997868 B2 JP 6997868B2 JP 2020522109 A JP2020522109 A JP 2020522109A JP 2020522109 A JP2020522109 A JP 2020522109A JP 6997868 B2 JP6997868 B2 JP 6997868B2
Authority
JP
Japan
Prior art keywords
vehicle
mode
signs
track
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020522109A
Other languages
English (en)
Other versions
JPWO2019230474A1 (ja
Inventor
マッタ ユクテイ
耕太 入江
太雪 谷道
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Publication of JPWO2019230474A1 publication Critical patent/JPWO2019230474A1/ja
Application granted granted Critical
Publication of JP6997868B2 publication Critical patent/JP6997868B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/224Character recognition characterised by the type of writing of printed characters having additional code marks or containing code marks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

本開示は、自律車両システムに関し、より具体的には、道路標識検出を伴うシステムおよび方法に関する。
自律車両の位置特定には、2つの大きな課題がある。1つ目は、コストが急騰しないようにしながら、マップマッチングのための適切かつ確実なセンサを決定することである。2つ目は、衛星情報など、マップ生成のための無線通信への依存である。一般に、マップマッチングには、レーダ、ソナー、LIDAR(Light Detection and Ranging:光検出と測距)またはステレオカメラなどのセンサを使用して環境内の所定の特徴を識別し、次にGPS(Global Positioning Satellite:全地球測位システム)ユニットから一般的に取得することができるマップと比較する。しかしながら、そのようなセンサを使用することは、環境において最も一般的に見られる二次元の着色された特徴を検出する可能性を排除する。また、衛星通信は、高層ビルの存在下では不一致となる可能性があり、車両の場所が不安定かつ不正確な結果となる。前述の問題を解決するために、いくつかの関連技術の実施態様が提案されている。
1つの例示的な関連技術の実施態様では、標識を利用する駐車支援システムがある。そのようなシステムは、車庫入れおよび車庫出しのために車に搭載された正面カメラによって認識される対称の標識を使用する。しかしながら、このアプローチの問題点は、カメラが前方を向いているので車両が駐車スペースに頭から入れる駐車しかできないことである。また、使用される標識は対称的であるので、システムが標識をうまく認識するためには少なくとも3つの特徴点が検出される必要がある。
別の例示的な関連技術の実施態様では、車両の位置を決定するためのカメラシステムの較正がある。そのような関連技術の実施態様は、その形状パラメータがコンピュータ可読メモリに記憶されている所定の標識を利用する。カメラフレームから形状が抽出され、次に記憶された形状と比較される。回転および並進を使用して、車両の位置を決定することができる。そのようなアプローチの問題点は、コンピュータのランダムアクセスメモリ(RAM)に関して追加のリソースが必要となることである。
別の関連技術の実施態様では、標識を指定の駐車スペースの四隅に配置するというアプローチがある。標識は、標識のパターンからの特徴を使用して車両がスペースに駐車するのを助けるために使用される。しかしながら、このアプローチは、任意のカメラの検出距離能力のために、車両が駐車スペースの近くにあるときのみに車両の位置特定を制限する。本発明は、標識が駐車場の入り口に軌道に沿って配置され、続いて車が駐車場全体における車両の位置特定および軌道修正を確実にするアプローチを伴う。
本明細書に記載の例示的な実施態様は、複数のカメラによって認識される非対称の標識を使用することを伴い、したがって車両の前方のみでの認識に限定されない。加えて、マップ測位ユニットの使用により、例示的な実施態様のシステムはいかなる車両案内システムにも依存しないので、コストを削減することができる。
本明細書に記載の例示的な実施態様は、テンプレートマッチング方法を利用して標識を認識する。例示的な実施態様では、テンプレートは、リアルタイムで作成することができ、事前に記憶する必要はない。
完全自律駐車(Autonomous Valet Parking:AVP)では、ナビゲーション中の車両軌道は、位置特定の効率に依存する。上述した方法における問題に対処するために、駐車場の自律車両を位置特定するための標識検出方法が提案されている。これは、サラウンドビューカメラシステムによって認識される非対称の標識を利用し、GPSを使用せずに位置特定を達成する。
AVPを伴う例示的な実施態様では、標識は、駐車場の入り口に軌道に沿って配置される。カメラによって認識された標識の場所は、オフラインのマップ測位ユニットによって提供されたマップ上の場所と比較される。カメラは画像処理機能を利用し、これらの標識に対する車両の位置および向きを計算する。この情報は、CAN(Controller Area Network:コントローラ・エリア・ネットワーク)を介して車両の自律運転電子制御ユニット(Autonomous Driving Electronic Control Unit:AD ECU)に提供される。これに先立って、電子制御ユニット(ECU)はまた、マップ測位ユニットから車両の予想される初期位置および向きを受信する。次に、車両の予想座標と現在座標との差がECUによって計算され、軌道修正に使用される。この技法は、1台の独立した車両を位置特定するのに有用であるが、別の先行車両の存在下では、衝突を回避するために駐車場のすべての車両の移動を制御する共通の制御センタが必要である。そのような例示的な実施態様は、リアルタイムで車両の位置を制御センタに通信するテレマティクス制御ユニットの使用を伴う。制御センタは、衝突の可能性がある場合に停止するように後続の車両にコマンドを送ることによって、2台の車両が接近しないようにする。
本開示の態様は、複数のカメラから、非対称の形状を有する1つまたは複数の標識を検出することと、車両の操作モードを人間操作モードから自律モードに変更することであって、自律モードは、検出された1つまたは複数の標識に基づいて車両の位置、向き、および速度の少なくとも1つを調整するように構成されることとを伴う方法を含む。
本開示の態様は、複数のカメラから、非対称の形状を有する1つまたは複数の標識を検出することと、車両の操作モードを人間操作モードから自律モードに変更することであって、自律モードは、検出された1つまたは複数の標識に基づいて車両の位置、向き、および速度の少なくとも1つを調整するように構成されることとを伴うコンピュータプログラムをさらに含む。コンピュータプログラムは、非一時的コンピュータ可読媒体に記憶され、1つまたは複数のハードウェアプロセッサによって実施されてもよい。
本開示の態様は、複数のカメラから、非対称の形状を有する1つまたは複数の標識を検出するための手段と、車両の操作モードを人間操作モードから自律モードに変更するための手段であって、自律モードは、検出された1つまたは複数の標識に基づいて車両の位置、向き、および速度の少なくとも1つを調整するように構成される手段とを伴うシステムを含むことができる。
本開示の態様は、複数のカメラと、複数のカメラから、非対称の形状を有する1つまたは複数の標識を検出し、かつ車両の操作モードを人間操作モードから自律モードに変更するように構成され、自律モードは、検出された1つまたは複数の標識に基づいて車両の位置、向き、および速度の少なくとも1つを調整するように構成されるプロセッサとを伴うシステムを含むことができる。
例示的な実施態様による、車両システムを示す図である。 例示的な実施態様による、複数の車両システムおよび管理装置を示す図である。 例示的な実施態様による、非対称の標識の例を示す図である。 例示的な実施態様による、非対称の標識の例を示す図である。 例示的な実施態様による、非対称の標識の例を示す図である。 例示的な実施態様による、非対称の標識の例を示す図である。 例示的な実施態様による、非対称の標識の例を示す図である。 非対称の標識と対称の標識との間の比較を示す図である。 非対称の標識と対称の標識との間の比較を示す図である。 例示的な実施態様による、非対称の標識の例示的な使用事例を示す図である。 例示的な実施態様による、非対称の標識の例示的な使用事例を示す図である。 例例示的な実施態様による、非対称の標識の例示的な使用事例を示す図である。 例示的な実施態様による、非対称の標識の例示的な使用事例を示す図である。 車両システムまたは管理装置によって実施され得る例示的な流れ図である。 車両システムまたは管理装置によって実施され得る例示的な流れ図である。 車両システムまたは管理装置によって実施され得る例示的な流れ図である。 車両システムまたは管理装置によって実施され得る例示的な流れ図である。 例示的な実施態様による、非対称の標識の例示的な使用事例を示す図である。 例示的な実施態様による、非対称の標識の例示的な使用事例を示す図である。 管理装置および/または車両システムによって利用され得る例示的な管理情報を示す図である。 いくつかの例示的な実施態様での使用に適した例示的なコンピュータデバイスを伴う例示的なコンピューティング環境を示す図である。
以下の詳細な説明は、本出願の図および例示的な実施態様のさらなる詳細を提供する。明確にするために、図間の参照番号および重複する要素の説明は省略する。説明を通して使用される用語は例として提供されており、限定することを意図していない。例えば、「自動」という用語の使用は、本出願の実施態様を実践する当業者の所望の実施態様に応じて、実施態様のある特定の態様に対するユーザまたは管理者による制御を伴う全自動または半自動の実施態様を伴い得る。選択は、ユーザインターフェースまたは他の入力手段を介してユーザによって行われ得るか、または所望のアルゴリズムを介して実装され得る。本明細書に記載の例示的な実施態様は、単独でまたは組み合わせてのいずれかで利用することができ、例示的な実施態様の機能性は、所望の実施態様に従って任意の手段を介して実装することができる。「車両」および「車両システム」という用語はまた、互換的に利用することができる。
図1(a)は、例示的な実施態様による、車両システムを示す。具体的には、図1(a)は、人間操作モードおよび自律モードで操作するように構成された例示的な人間操作車両システムを示す。AD ECU1は、マップ測位ユニット6に接続されてマップ測位ユニット6からの信号を受信する。これらの信号は、設定されたルート、マップデータ、マップ上の車両の位置、車両の方向、車線数などの車線情報、制限速度、および道路/車両の場所のタイプ(例えば、高速道路および一般的な自動車道路、分岐路、料金徴収所、駐車場または車庫など)を表す。
車両には、車輪速度測定デバイス7と、車両挙動測定デバイス8とを含むことができる、車両の操作状況を示すパラメータの値を測定するための操作パラメータ測定ユニットが設けられる。これらのデバイスによって提供された信号は、AD ECU1に送られる。車両挙動測定デバイス8は、前後加速度、左右加速度およびヨーレートを測定する。
車両には、前方カメラ10f、前方レーダ11f、後方カメラ10r、後方レーダ11r、左前方カメラ12L、右前方カメラ12R、左後方カメラ13Lおよび右後方カメラ13Rを含む、車両の周辺の環境状況を測定するための環境状況測定デバイスが設けられる。これらの環境状況測定デバイスは、車両の周辺の車線マーク、障害物、および非対称の標識に関する情報をAD ECU1に送る。
車両のカメラは、所望の実施態様に応じてサラウンドビューカメラ、または他のカメラの形態であり得る。車両のカメラシステムにおいて、前方カメラ10fには、車両の周辺の1つまたは複数の非対称の標識の画像を取得するための撮像ユニットと、車両と1つまたは複数の非対称の標識との間の位置関係を表す信号を提供する出力ユニットとが設けられる。前方レーダ11fは、他の車両および歩行者を検出して位置を特定し、車両とそれらの物体との間の位置関係を表す信号を提供する。後方カメラ10r、左前方カメラ12L、右前方カメラ12R、左後方カメラ13Lおよび右後方カメラ13Rは、前方カメラ10f、前方レーダ11fおよび後方レーダ11rと同様の機能性である。
車両には、エンジン21と、電子制御ブレーキシステム22と、電子制御差動機構23と、電子制御ステアリングシステム24とが設けられる。AD ECU1は、運転者によって与えられた操作変数の値および/または本明細書に記載の車両システムの非対称の標識の検出または様々な自律モードの作動などの環境状況に基づいて、これらのシステム22、23および24に含まれるアクチュエータに駆動信号を与える。車両を加速させる必要があるとき、コントローラ1は、加速信号をエンジン21に与える。車両を減速させる必要があるとき、コントローラは、減速信号を電子制御ブレーキシステム22に与える。車両を旋回させる必要があるとき、AD ECU1は、旋回信号を電子制御ブレーキシステム22、電子制御差動機構23および電子制御ステアリングシステム24の少なくとも1つに与える。
電子制御ブレーキシステム22は、車輪にそれぞれ適用される個々の制動力を制御することが可能な液圧ブレーキシステムである。電子制御ブレーキシステムは、旋回要求に応じて制動力を右車輪または左車輪のいずれかに適用し、ヨーモーメントを車両に加える。電子制御差動機構23は、旋回要求に応じて電動機またはクラッチを駆動して右車軸と左車軸との間にトルク差を生じさせ、ヨーモーメントを車両に適用する。電子制御ステアリングシステム24は、例えば、旋回要求に応じてステアリング車輪の旋回角とは独立してステアリング角を修正してヨーモーメントを車両に適用することが可能な、ステアバイワイヤ式のステアリングシステムである。
車両には、情報出力ユニット26が設けられる。情報出力ユニット26は、運転支援操作のタイプに従って画像を表示し、音声を生成し、支援操作に関する情報を表す警告灯を点灯させる。情報出力ユニット26は、例えば、スピーカを内蔵したモニタである。複数の情報出力ユニットが、車両に設けられてもよい。
図1(a)に示すシステムは、本明細書に記載の車両システムの例示的な実施態様であるが、他の構成も可能であり、例示的な実施態様の範囲内に含まれ、本開示は、図1(a)に示す構成に限定されない。例えば、カメラは、壁、道路標示、看板などに配置される非対称の標識を検出する目的で車両の上部または屋根に設置することができる。
図1(b)は、例示的な実施態様による、複数の車両システムおよび管理装置を示す。図1(a)に関して説明した1つまたは複数の車両システム101-1、101-2、101-3、および101-4は、管理装置102に接続されるネットワーク100に通信可能に結合される。管理装置102は、ネットワーク100の車両システムから集約されたデータフィードバックを含むデータベース103を管理する。代替の例示的な実施態様では、車両システム101-1、101-2、101-3、および101-4からのデータフィードバックは、企業資源計画システムなどのシステムからのデータを集約する独自データベースなどの中央リポジトリまたは中央データベースに集約することができ、管理装置102は、中央リポジトリまたは中央データベースからのデータにアクセスしたり、またはデータを取り出すことができる。そのような車両システムは、所望の実施態様に応じて、車、トラック、トラクタ、バンなどのような人間が操作する車両を含むことができる。
管理装置102は、図4(a)に説明するように、標識に対する対応する車両システムの位置を送信する車両システム101-1、101-2、101-3、および101-4から位置情報を受信するように構成することができ、さらに、次の標識までの車両の軌道を示す命令を車両システム101-1、101-2、101-3、101-4に送信するように、かつ/または操作モード、位置、速度、および/もしくは向きを調整するように構成することができる。
図2(a)~図2(d)は、例示的な実施態様による、非対称の標識の例を示す。選択されたチェッカパターン標識の固有の特徴を、図1(a)に示すように車両システムのカメラを使用して認識するのに役立つようにする。白と黒の正方形の強度の差により、ハリスコーナ検出器(Harris Corner Detector)などの検出アルゴリズムを使用してコーナとしての遷移点を検出することが容易になるだけでなく、非常に可変的な光状況において標識を検出することも可能になる。標識は、物理的に塗装されてもよく、あるいは道、標示もしくは壁に配置されてもよく、または所望の実施態様に応じて修正するために投影システム、モニタなどによって投影/表示することができる。
例示的な実施態様では、図2(a)に示すようなT字型標識などの非対称の標識は、車両が予想される方向に走行している(すなわち、車両が図2(b)からタイプID1の逆Tの方向に走行する)かどうかを決定するのに利用される。T字型標識の各々はまた、識別子、または異なる機能性を表すIDと関連付けられてもよい。しかしながら、本開示は、T字型標識の使用に限定されず、図2(c)に示すようなL字型標識などの他の非対称の標識も利用され得る。さらに、例示的な寸法が図2(a)~図2(c)に示されているが、そのような標識はまた、所望の実施態様に従ってサイズ変更することができる。したがって、任意の非対称のチェッカパターン標識を、例示的な実施態様で使用することができる。
カメラから取得された認識情報が、車両が標識に対して誤った方向を向いていることを示唆する場合、AD ECUは、必要に応じて軌道を修正する。現在のシステムは、カメラによって検出されたローカル座標を利用し、場所(または駐車場)のマップと比較することによってそれらをグローバル座標に変換する。所望の実施態様に応じて、システムはまた、図2(d)に示すような標識に配置されたQR(クイックレスポンス)コード(登録商標)と共に機能することができる。例えば、QRコード(登録商標)は、標識の緯度および経度情報を含むことができる。カメラによって検出されると、車両のグローバル座標は、即座に利用可能となり得る。
図2(e)は、例示的な実施態様による、駐車場の入り口で利用するための標識の例示的な実施態様を示す。駐車場の入り口には、図2(e)に示すように、4つの標識が車の各側に沿って1つずつ配置され、各々が時計回りに90度ずつ徐々に回転する。標識の位置は、0度の回転条件下で、標識の軸とカメラの光軸が位置合わせされるようになっている。カメラビューの周辺カバレッジは、カメラ画像の中央に比べてシャープではない場合がある。標識の場所は、そのようなシャープさを確実に利用する。図2(b)に示すように、各標識にはIDが割り当てられており、これによりECUはどのカメラが標識を識別したかを決定することが可能になり、それによってその正当性を確立することができる。標識はまた、ルートに沿って配置され、それに続いて車が駐車スペースに移動する。
図2(f)および図2(g)は、非対称の標識と対称の標識との間の比較を示す。具体的には、図2(f)は、非対称の標識の例を示し、図2(g)は、対称の標識の例を示す。例示的な実施態様では、図2(f)に示すように、接近方向が0度の向きと180度の向きを区別することができるので、非対称の標識が利用される。対照的に、標識が図2(g)に示すように対称的である場合、接近方向は、0度の向きと180度の向きを区別することができない。したがって、例示的な実施態様では、非対称の標識は、検出を容易にするため、ならびに標識に対する車両の向きを決定するために利用される。
さらに、チェッカパターンが例示的な実施態様で利用されているが、本開示はそれに限定されず、標識が非対称である限り所望の実施態様に従って任意の他のパターンを利用することができる。例えば、ジグザグパターン、標識の中心を示す円または他の形状を伴う標識、標識内に埋め込まれたQRコード(登録商標)またはバーコードも利用することができる。
図3(a)は、駐車場を伴う例示的な実施態様を示す。これらの標識にもIDが割り当てられ、マップ測位ユニットに記憶されているものと比較される。これらの標識は、所望の経路からの偏差がある特定の閾値を超えないように、車が軌道を継続的に修正するのに役立つ。マップ測位ユニットがこれらの座標を受信するだけでなく、次に制御センタもまた、図3(a)に示す駐車場の他の車両から受信した座標との比較に基づいて車両が進んでも安全かどうかを決定する。
図3(a)に示すように、駐車場は、標識の場所に基づいて、マップ測位ユニットによっていくつかの区画に分割することができる。図3(a)の例では、駐車場は、区画300-1、300-2、300-3、300-4、および300-5を有すると考えられる。区画300-1は、車両を降りてAVPモードを作動させることができる駐車場への入り口である。例示的な実施態様では、AVPモードは、車両システムが最初の標識を検出した後に管理装置からの命令、または車両システムに記憶された命令からの命令を受信すると作動させることができる。別の例示的な実施態様では、車両システムの人間オペレータは、AVPモードを手動で作動させることができ、それにより車両は自律的に駐車場を通って操作することになる。図3(a)に示すように、車両は、区画300-2および300-3に示すように軌道を調整する、または区画300-4に示すように自動駐車を作動させるように車両に指示する標識に遭遇するまで、駐車場の様々な区画を通る命令に基づいて軌道に沿ってナビゲートされる。駐車中の車両を取り出す必要があるとき、図1(b)の管理装置102からの命令を駐車中の車両に送信することができ、これにより車両は取出モードに変更され、車両が区画300-5に示すようなピックアップ場所を示す標識に案内される。次に車両は、ピックアップ場所を示す標識の近くで停止し、そこで人間オペレータは車両を取り出すことができる。
図3(b)は、図3(a)の区画300-1の車両システムの例を示す。図1(a)に示すような車両システムのこの例示的な構成では、車両には、各バンパに1つ、各サイドミラーに1つ、計4つの単眼カメラを伴うように設置されたサラウンドビューカメラシステムを有する。カメラによってキャプチャされたライブビデオの各フレームは、サラウンドビューECUのマイクロプロセッサによって共にステッチされ、図3(b)に示すような車の360度のトップビュー画像を提供する。車両の中心点は、AD ECUによってすでに知られており、これは車両から標識の中心までの距離を見つけるために使用される座標系の原点として扱われる。
図4(a)~図4(d)は、車両システムまたは管理装置によって実施され得る例示的な流れ図を示す。説明した流れ図は、所望の実施態様に応じて、車両システムのAD ECUによって、または管理装置と併せて行うことができる。
図4(a)は、例示的な実施態様による、車両システムの例示的な流れを示す。具体的には、図4(a)は、道路標識検出のための例示的な流れを示し、401~405の流れプロセスは、標識を見つけるための例示的なプロセスを示し、407~409の流れは、標識の中心を見つけるための例示的な流れを示し、410における流れは、車両システムから標識までの距離を見つけるための例示的なプロセスを示す。図3(b)に関して説明した例示的な実施態様では、4つすべての単眼カメラは、CANを介して最終的な出力として位置および向きを伝達するために連続的に認識プロセスをたどるが、図1(a)で説明したような車両システムの任意の所望の構成に対して以下の流れが実施され得る。
流れは、400において、カメラシステム(例えば、サラウンドビューカメラシステム)がトップビュー画像を提供することに進み、プロセスは、401において、処理のためにフレームから領域を抽出することにより所与のフレーム内の標識を見つけようと試みる。サラウンドビューECUから取得された各画像フレームは、402において、画像のノイズを減少させるのに役立つローパスカーネルフィルタ{7,7,7,7,8,7,7,7,7}を使用して平滑化される。次に、この平滑化された画像は、403において、さらなる処理のために所望の実施態様(例えば、ブラッドリーの適応的閾値処理など)に従った任意の技法を使用して二値画像に変換される。その結果、404において、並行して作成されたテンプレート画像を使用してこの二値画像に対してテンプレートマッチングが実行される。テンプレートマッチングから取得されたマッチングは、フレーム内の潜在的な標識候補として扱われるか、または所定の閾値に基づいていない。
405において、潜在的な標識候補が見つかったかどうかに関する決定が行われる。標識が見つからなかった場合(No)、プロセスは、406において、次のフレームに進み、401におけるプロセスに戻る。潜在的な標識候補がフレーム内に見つかった場合(Yes)、次にプロセスは407に進み、図3(c)に示すようにフレーム内の流れ検出領域(テンプレート領域)を絞り込んで誤検出の可能性を制限する。
この絞り込まれた検出領域では、408において、ハリスコーナ検出方法などの所望のコーナ検出アルゴリズムがすべてのコーナを見つけるために利用される。例示的な実施態様では、ハリスコーナ検出方法を利用することで、所定の閾値に対してどのように評価されるかに基づいて遷移点をコーナとして認定されるようにする。二値物体において取得されたコーナの数は、T字型標識において予想されるコーナの閾値数(すなわち27)と比較される。例示的な実施態様では、コーナの数が23より多いが27以下であることが判明した場合、二値物体は、標識として認定される。しかしながら、他の閾値を非対称の標識の形状(例えば、L字型、Z字型など)に応じて利用することができ、本開示はそれに限定されない。コーナの数が所望の閾値を満たさない場合(No)、次にプロセスは、406において、次のフレームに進み、401に戻る。そうでない場合(Yes)、プロセスは、標識の中心を見つけるために409に進む。
409において、プロセスは、テンプレートマッチングおよびハリス検出からそれぞれ取得されたテンプレート領域およびコーナの座標が使用される標識の中心を見つける。図3(d)に示すように、中心を囲む4つの点が、テンプレート領域ウィンドウの寸法に対する数学的演算によって取得され、中心について正方形の検索ウィンドウを定義する。ハリス検出から出力されたコーナ座標は、この検索ウィンドウ内にあり、取得された点が標識の中心である座標を見つけるために反復される。
410において、プロセスは、距離の公式をこのコーナ座標および車の原点座標に適用することによって取得される中心からの車の距離を見つける。次に、411において、距離がマップと比較され、差が決定されて位置が導出される。
図4(a)の流れを通じて、テンプレートマッチングが正確な候補を見つけられなかった場合、またはコーナ検出によって検出されたコーナの数が予想されるコーナの数よりも多い場合、現在のビデオフレームは不適切とみなされ、AD ECUは、次のフレームに進むためにフィードバックを受け取る。したがって、標識が所望の精度で検出されない場合には、非検出結果が誤検出よりも優先される。
道路標識検出方法から取得された車両位置座標は、最初にAD ECUによって使用され、車両の向きを決定した後に軌道修正に使用される。AD ECUには、マップ測位ユニットによって標識のデフォルトのグローバル座標が提供される。車両が所定の座標以外の点に沿って軌道をたどる場合、道路標識検出方法を使用して差を識別することができる。向きの差と共にこの位置の差に基づいて、アクチュエータは、必要に応じて車両の位置、向き、および/または速度を調整することによってナビゲーション中の差を埋め合わせるようにECUによって命令される。この方法はまた、2つの車両が駐車場で、または料金所もしくは自律運転が作動されている場所などの他のシナリオで決して衝突しないようにすることを制御センタに可能にさせる。したがって、図4(a)を通じて、車両システムは、計算された距離および/または検出された標識と関連付けられる命令から位置、向き、および速度の少なくとも1つを調整することができる。命令は、図1(a)の車両システムに予め記憶されるか、または図1(b)に示す管理装置102から送信され得る。
図4(b)は、自律システムが標識を検出することにより作動された後の標識の非検出を処理するための例示的な流れを示す。この例示的な流れでは、自律システムは、420において、標識が検出されると自動で、または車両システム内の手動命令を通じて作動され、標識検出に応じて自律システムを作動させる。421において、車両システムは、軌道に沿って標識を検出しようと試みながら、最初の検出標識によって示された軌道および速度に沿って進む。検出は、別の標識が予想されるまで提供された軌道に沿って進むことに基づいて行われ得る。標識が検出された場合(Yes)、次に車両は、425において、軌道に沿って進み続けるか、または検出された標識と関連付けられる命令に基づいて軌道を調整する。そうでない場合(No)、プロセスは422に進み、デッドレコニングの結果を位置特定を行うために利用し、標識の予想される場所に対するデッドレコニングからの結果の誤差を決定する。そのような例示的な実施態様では、車両システムは、車両システムの現在の速度および向きに基づいて車両の現在位置を補間する。423において、誤差がある特定の閾値よりも小さいかどうか(例えば、予想される標識のある特定の予想される距離内)に関する決定が行われる。もしそうであれば(Yes)、次に車両は、425において、軌道に沿って進み続けるか、または車両の向き/速度を調整して誤差を修正し、そうでない場合(No)、流れは424に進み、自律モードを停止する。そのような例示的な実施態様では、システムは、車両を安全な場所に進ませて状況に関する命令を管理装置102に送信させる緊急モードに車両を切り替えることによって停止することができ、または所望の実施態様に応じて人間オペレータへの警告により人間操作モードに切り替えることができる。
図4(c)は、例示的な実施態様による、追尾検出のために標識を適用するための例示的な流れを示す。別の車両を追いかけている車両が先行車両の後端にある標識を識別することができる場合、車両は先行車両に近すぎるということであり、車両間の距離を広げる必要がある。そのような機能は、交通の停止や通過に有用であり得る。430において、車両は、先行車両の後端と関連付けられる少なくとも1つの標識を検出する。例えば、図3(a)の例では、区画300-2の車両は、区画300-1の車両に先行する車両である。両方の車両が同じ軌道でナビゲートされているので、区画300-1の車両が区画300-2の車両を追尾し得る可能性がある。
431において、車両が別の車両を追尾していることを示すのに十分な明瞭さで標識が検出されたかどうかに関する決定が行われる。もしそうであれば(Yes)、次に流れは432に進み、そうでない場合(No)、流れは435に進み、車両は、同じ速度に沿って進み続ける。例示的な実施態様では、明瞭さは、検出された標識の解像度から(例えば、決定された閾値に達した標識のピクセル解像度でのトリガ)、標識のサイズから(例えば、決定された閾値を超える標識のサイズでのトリガ)、または所望の実施態様による他の方法を通じて決定することができる。
432において、次の車両までの距離が近すぎるかどうか(例えば、距離が閾値の予め設定された安全距離内にある)に関する決定が行われる。もしそうであれば(Yes)、次に流れは433に進み、AD ECUは、車両間の距離を変更するためにアクチュエータを作動させて車両を調整する。そうでない場合(No)、流れは、435に進む。所望の実施態様に応じて、この決定プロセスは、431における流れと同じにすることができ、省略することができる。他の例示的な実施態様では、距離は、図1(a)に関して説明したようにレーダシステムから、車両間の距離に関して管理装置102から受信した命令から、または所望の実施態様に応じて他の実施態様を通じて決定することができる。
図4(d)は、例示的な実施態様による、AVPの例示的な流れ図を示す。図3(a)に示すように、区画300-1で駐車場に入ると、AVPモードは、車両システムによって作動させることができ、その後、車両は、管理装置102によって受信された命令、またはAD ECUに予めプログラムされた命令に基づいて標識と関連付けられる軌道に沿って進む。440において、車両は、軌道に沿って進み、AVPモードにある間に後続の標識を検出する。441において、標識が車両のAVPモードから自動駐車モードへの変更を示しているかどうかに関する決定が行われる。決定は、参照された標識と関連付けられる予めプログラムされた命令に基づいて行われるか、または管理装置102によって提供することができる。もしそうであれば(Yes)、次に車両は、443において、自動駐車モードに変更され、AD ECUは、図3(a)の区画300-4に示すように車両を利用可能な駐車スペースに自動的に駐車するように構成される。そうでない場合(No)、車両は、442において、次の標識に進む。AD ECUは、管理装置102から受信した命令に基づいて車両を自動的に駐車し、どの駐車スペースが利用可能であるかを決定し、対応する命令と共に空の駐車スペースにナビゲートすることができる。
図5(a)は、標示として利用される標識を伴う例示的な実施態様を示す。上述の例示的な実施態様では、標識は、2D路面上に配置され、サラウンドビューカメラなどの複数のカメラによって認識される。しかしながら、他の例示的な実施態様も可能であり、本開示はそれに限定されない。図5(a)は、独立してまたは本明細書に記載の例示的な実施態様と併せて使用することができる3D道路標示を伴う別の例示的な実施態様を示す。そのような実施態様は、車両の位置特定を支援することができ、停止標示またはマップと関連付けられる他の標示を表す座標を示すこともできる。そのような例示的な実施態様では、深度情報も組み込んでいる任意の適切なカメラシステムを、そのような3D道路標示の認識および検出に利用することができる。そのようなカメラシステムは、所望の実施態様に従ってステレオカメラまたは他のカメラを含むことができる。本明細書に記載の例では、ステレオカメラ501が車両のバックミラーに含まれ、道路標示もしくは壁として、またはその上に、またはモニタもしくは看板に使用される非対称の標識502を検出する。このようにして、標識は、必要に応じて標示を変更することにより、または標識をモニタに表示する方法により変更することができる。
図5(b)は、料金所を伴う例示的な実施態様を示す。車両システムが料金所を通過しようとしているとき、その向きは、車両システムの側面をこすらないようにするために正確である必要がある。ゲートの前後のエリアに標識が配置されている場合、車両は、自律モードに入り、必要に応じてその位置を計算して軌道修正を実行することによって正確にナビゲートすることができる。図5(b)の例では、511の標識が検出されると自律モードが開始される。次に車両システムは、料金所を通る軌道をたどり、管理装置102によって提供される一組の命令に従って、または料金所をどのように進むかに関する車両システムに記憶された命令によって進む。車両システムが標識510に達すると、操作モードは、人間操作モードに切り替わり、人間オペレータは、車両システムの操作を再開する。標識は、必要に応じて修正することができるように道路上に塗装するかまたは料金所の照明システムから投影することができる。
図6は、例示的な実施態様による、例示的な管理情報を示す。具体的には、図6は、車両の自律モードの機能性を支援するために1つまたは複数の場所に対して配置される標識の例示的なインデックスを示す。管理情報は、所望の実施態様に応じて、マップ測位ユニット6または管理装置102の車両システム側で維持することができる。図6の例では、管理情報は、標識ID、標識タイプ、マップ情報、操作モード、および命令を含むことができる。標識IDは、検出された標識に対応する固有の識別子である。標識タイプは、標識が属するテンプレートタイプ(例えば、図2(b)に示すようなT字型、Z字型、L字型など)を示し、テンプレートタイプは、最初の標識が検出されたかどうかを決定するために利用される。マップ情報は、標識IDに対するマップ上の対応する場所(例えば、地理座標、緯度/経度座標、地理情報システム経由点座標など)を示す。操作モードは、人間操作モードおよび様々な自律モード(例えば、AVPモード、自動駐車モード、料金所モード、追尾検出モードなど)などの車両の操作のモードを示す。命令は、標識IDと関連付けられる命令であり、所望の実施態様に従って、次の標識に進むための軌道情報、管理装置に送信してナビゲーションに関する指示を受信するための指示、車両の位置、向き、および/または速度を調整するための指示などを含むことができる。
図7は、図1(a)に示すような車両システムのAD ECU1およびマップ測位ユニット6、または図1(b)に示すような管理装置102への機能性を促進するためなどの、いくつかの例示的な実施態様での使用に適した例示的なコンピュータデバイスを伴う例示的なコンピューティング環境を示す。本明細書に記載のすべての機能は、所望の実施態様に応じて、管理装置102で、車両システムで、またはそのような要素のいくつかの組合せに基づくシステムを通じて実装することができる。
コンピューティング環境700のコンピュータデバイス705は、1つまたは複数の処理ユニット、コア、またはプロセッサ710、メモリ715(例えば、RAM、ROM、および/またはなど)、内部記憶装置720(例えば、磁気、光学、ソリッドステート記憶装置、および/または有機)、および/またはI/Oインターフェース725を含むことができ、これらのいずれも、情報を通信するために通信機構またはバス730に結合することができ、またはコンピュータデバイス705に埋め込むことができる。I/Oインターフェース725はまた、所望の実施態様に応じて、カメラから画像を受信し、または画像をプロジェクタまたはディスプレイに提供するように構成される。
コンピュータデバイス705は、入力/ユーザインターフェース735および出力デバイス/インターフェース740に通信可能に結合することができる。入力/ユーザインターフェース735および出力デバイス/インターフェース740の一方または両方は、有線または無線インターフェースとすることができ、取り外し可能とすることができる。入力/ユーザインターフェース735は、入力を提供するために使用され得る、物理的または仮想的な任意のデバイス、構成要素、センサ、またはインターフェース(例えば、ボタン、タッチスクリーンインターフェース、キーボード、ポインティング/カーソル制御、マイクロフォン、カメラ、点字、モーションセンサ、光学式リーダ、および/またはなど)を含んでもよい。出力デバイス/インターフェース740は、ディスプレイ、テレビ、モニタ、プリンタ、スピーカ、点字などを含んでもよい。いくつかの例示的な実施態様では、入力/ユーザインターフェース735および出力デバイス/インターフェース740は、コンピュータデバイス705に埋め込むかまたは物理的に結合することができる。他の例示的な実施態様では、他のコンピュータデバイスは、コンピュータデバイス705のための入力/ユーザインターフェース735および出力デバイス/インターフェース740の機能として機能するかまたはそれらの機能を提供することができる。
コンピュータデバイス705の例は、限定はしないが、高度なモバイルデバイス(例えば、スマートフォン、車両および他の機械のデバイス、人間および動物によって持ち運ばれるデバイスなど)、モバイルデバイス(例えば、タブレット、ノートブック、ラップトップ、パーソナルコンピュータ、ポータブルテレビ、ラジオなど)、および移動用に設計されていないデバイス(例えば、デスクトップコンピュータ、他のコンピュータ、情報キオスク、1つまたは複数のプロセッサを内蔵および/または結合したテレビ、ラジオなど)を含むことができる。
コンピュータデバイス705は、同じまたは異なる構成の1つまたは複数のコンピュータデバイスを含む、任意の数のネットワーク構成要素、デバイス、およびシステムと通信するために、外部記憶装置745およびネットワーク750に(例えば、I/Oインターフェース725を介して)通信可能に結合することができる。コンピュータデバイス705または任意の接続されたコンピュータデバイスは、サーバ、クライアント、シンサーバ、汎用機、専用機、または別の分類として機能するか、それらのサービスを提供するか、またはそれらと呼ぶことができる。
I/Oインターフェース725は、限定はしないが、コンピューティング環境700の少なくともすべての接続された構成要素、デバイス、およびネットワークとの間で情報を通信するための任意の通信またはI/Oプロトコルまたは規格(例えば、イーサネット(登録商標)、802.11x、ユニバーサルシステムバス、WiMax、モデム、セルラネットワークプロトコルなど)を使用する有線および/または無線インターフェースを含むことができる。ネットワーク750は、任意のネットワークまたはネットワークの組合せ(例えば、インターネット、ローカル・エリアネットワーク、ワイド・エリアネットワーク、電話ネットワーク、セルラネットワーク、衛星ネットワークなど)であり得る。
コンピュータデバイス705は、一時的媒体および非一時的媒体を含む、コンピュータ使用可能またはコンピュータ可読媒体を使用し、かつ/またはそれを使用して通信することができる。一時的媒体は、伝送媒体(例えば、金属ケーブル、光ファイバ)、信号、搬送波などを含む。非一時的媒体は、磁気媒体(例えば、ディスクおよびテープ)、光学媒体(例えば、CD ROM、デジタルビデオディスク、ブルーレイディスク)、ソリッドステート媒体(例えば、RAM、ROM、フラッシュメモリ、ソリッドステート記憶装置)、および他の不揮発性記憶装置またはメモリを含む。
コンピュータデバイス705は、いくつかの例示的なコンピューティング環境において技法、方法、アプリケーション、プロセス、またはコンピュータ実施可能命令を実装するために使用することができる。コンピュータ実施可能命令は、一時的媒体から取り出され、非一時的媒体に記憶され、そこから取り出される。実施可能命令は、プログラミング、スクリプト、および機械語(例えば、C、C++、C#、Java(登録商標)、Visual Basic、Python、Perl、JavaScript(登録商標)など)の1つまたは複数から生じ得る。
プロセッサ(単数または複数)710は、ネイティブまたは仮想環境において、任意のオペレーティングシステム(OS)(図示せず)の下で実施することができる。1つまたは複数のアプリケーションを展開することができ、論理ユニット760、アプリケーションプログラミングインターフェース(API)ユニット765、入力ユニット770、出力ユニット775、ならびに異なるユニットがOSおよび他のアプリケーション(図示せず)と互いに通信するためのユニット間通信機構795を含む。記載のユニットおよび要素は、設計、機能、構成、または実施態様において変化する可能性があり、提供された記載に限定されない。
いくつかの例示的な実施態様では、情報または実施命令がAPIユニット765によって受信されると、それは1つまたは複数の他のユニット(例えば、論理ユニット760、入力ユニット770、出力ユニット775)に通信され得る。いくつかの事例では、論理ユニット760は、ユニット間の情報の流れを制御し、上述のいくつかの例示的な実施態様では、APIユニット765、入力ユニット770、出力ユニット775によって提供されるサービスを指示するように構成されてもよい。例えば、1つまたは複数のプロセスまたは実施態様の流れは、論理ユニット760によって単独で、またはAPIユニット765と共に制御することができる。入力ユニット770は、例示的な実施態様で説明された計算のための入力を取得するように構成され得、出力ユニット775は、例示的な実施態様で説明された計算に基づいて出力を提供するように構成され得る。
メモリ715は、マップ測位ユニット6として機能するために外部記憶装置745と共に使用され、図6に示すように管理情報を管理するように構成され得る。そのような実施態様により、AD ECU1は、図1(a)に示すような車両システムの様々な操作モードを管理することができる。
プロセッサ(単数または複数)710は、図4(a)~図4(d)の流れ図を実施し、図6の管理情報を参照するように構成することができる。例示的な実施態様では、プロセッサ(単数または複数)710は、複数のカメラから、非対称の形状を有する1つまたは複数の標識を検出し、かつ車両の操作モードを人間操作モードから自律モードに変更するように構成することができ、自律モードは、図4(a)で説明したように、検出された1つまたは複数の標識に基づいて車両の位置、向き、および速度の少なくとも1つを調整するように構成される。
例示的な実施態様では、プロセッサ(単数または複数)710は、自律モードが完全自律駐車(AVP)モードである場合、検出された1つまたは複数の標識と関連付けられる軌道に従って車両の位置、向きおよび速度の少なくとも1つを調整し、第2の1つまたは複数の標識が検出されるまで軌道に沿って車両をナビゲートし、かつ軌道の変更を示す別の1つまたは複数の標識について、例えば、図3(a)~図3(d)および図4(a)~図4(d)で説明したように、軌道の変更に従って車両の位置、向き、および速度の少なくとも1つを変更するように構成することができる。車両を駐車させるための命令を示す第2の1つまたは複数の標識について、プロセッサ(単数または複数)710は、車両の位置を管理装置に送信し、かつ管理装置から操作モードをAVPモードから自動駐車モードに変更する指示を受信すると、操作モードをAVPモードから自動駐車モードに切り替えるように構成することができ、自動駐車モードは、図4(d)に関して説明したように、駐車スペースへの車両の自動駐車を行うように構成される。
例示的な実施態様では、プロセッサ(単数または複数)710がAD ECUの機能性を促進しているとき、プロセッサ(単数または複数)710は、操作モードを管理し、図1(a)の車両システムに関して説明したように、車両の1つまたは複数のアクチュエータを制御することにより車両の位置、向き、および速度の少なくとも1つを調整するように構成される。
例示的な実施態様では、プロセッサ(単数または複数)710は、複数のカメラから受信した1つまたは複数の画像に対してテンプレートマッチングを実行することと、1つまたは複数の画像に1つまたは複数の標識が存在することを示すテンプレートマッチングの場合、1つまたは複数の画像のコーナ検出を行うことと、決定された閾値を満たすコーナの数を示すコーナ検出の場合、図4(a)に関して説明したように、1つまたは複数の画像から、車両から1つまたは複数の標識までの距離を計算することとを通じて、複数のカメラから、非対称の形状を有する1つまたは複数の標識を検出するように構成することができる。
例示的な実施態様では、プロセッサ(単数または複数)710は、車両の操作が自律モードにある間、車両の軌道に基づいて予想される標識を検出することができない場合に、車両の現在位置を補間して車両の現在位置と予想される標識の位置との間の誤差を決定し、かつ誤差が閾値よりも大きい場合、図4(b)で説明したように、車両の自律モードを終了するように構成することができる。
例示的な実施態様では、プロセッサ(単数または複数)710は、図6に示すように複数の標識とマップとの間の関係を管理するように構成することができ、さらに、自律モードの操作モードを有する車両について、検出された1つまたは複数の標識とマップとの間の関係に基づいて計算される車両の位置を管理装置に送信し、かつ管理装置から軌道情報を受信すると、命令が、車両の軌道を示し、図1(b)に関して説明したように、軌道情報に従って車両の位置、向き、および速度の少なくとも1つを調整するように構成することができる。
詳細な説明の一部は、アルゴリズムと、コンピュータ内の操作の記号的表現との観点で提示されている。これらのアルゴリズム的記述および記号的表現は、データ処理技術の当業者によって、彼らの革新の本質を他の当業者に伝えるために使用される手段である。アルゴリズムは、所望の終了状態または結果をもたらす一連の定義されたステップである。例示的な実施態様では、実施されるステップは、有形の結果を実現するために有形の量の物理的操作を必要とする。
特に断りのない限り、説明から明らかなように、説明全体にわたって、「処理」、「コンピューティング」、「計算」、「決定」、「表示」などの用語を使用する説明が、コンピュータシステムのレジスタおよびメモリ内の物理(電子)量として表現されるデータを、コンピュータシステムのメモリもしくはレジスタまたは他の情報記憶装置、伝送もしくはディスプレイデバイス内の物理量として同様に表現される他のデータに操作および変換するコンピュータシステムまたは他の情報処理デバイスの動作および処理を含むことができることを理解されたい。
例示的な実施態様はまた、本明細書の操作を実行するための装置に関することができる。この装置は、必要な目的のために特別に構築することができ、あるいは1つまたは複数のコンピュータプログラムによって選択的にアクティブ化または再構成される1つまたは複数の汎用コンピュータを含むことができる。そのようなコンピュータプログラムは、コンピュータ可読媒体、例えば、コンピュータ可読記憶媒体またはコンピュータ可読信号媒体に記憶され得る。コンピュータ可読記憶媒体は、有形媒体、例えば、限定はしないが、光ディスク、磁気ディスク、読み出し専用メモリ、ランダムアクセスメモリ、ソリッドステートデバイスおよびドライブ、または電子情報を記憶するのに適した任意の他のタイプの有形もしくは非一時的媒体を伴うことができる。コンピュータ可読信号媒体は、搬送波などの媒体を含むことができる。本明細書で提示されたアルゴリズムおよびディスプレイは、任意の特定のコンピュータまたは他の装置に本質的に関連するものではない。コンピュータプログラムは、所望の実施態様の操作を実行する命令を伴う純粋なソフトウェア実施態様を伴うことができる。
様々な汎用システムは、本明細書の例に従うプログラムおよびモジュールと共に使用され、または所望の方法ステップを実行するためのより特化した装置を構築することが好都合であると分かる場合がある。また、例示的な実施態様は、任意の特定のプログラミング言語に関して記載されていない。種々のプログラミング言語が本明細書に記載の例示的な実施態様の教示を実装するために使用され得ることを理解されたい。プログラミング言語(単数または複数)の命令は、1つまたは複数の処理デバイス、例えば、中央処理ユニット(CPU)、プロセッサ、またはコントローラによって実施され得る。
当技術分野で知られているように、上述の操作は、ハードウェア、ソフトウェア、またはソフトウェアおよびハードウェアの何らかの組合せによって実行され得る。例示的な実施態様の様々な態様は、回路および論理デバイス(ハードウェア)を使用して実装され、他の態様は、プロセッサによって実施された場合に、プロセッサに本出願の実施態様を実施するための方法を実行させる、機械可読媒体に記憶された命令(ソフトウェア)を使用して実装することができる。さらに、さらに、本出願のいくつかの例示的な実施態様はハードウェアのみで実行することができ、他の例示的な実施態様は、ソフトウェアのみで実行することができる。さらに、記載の様々な機能は、単一のユニットで実行することができ、または任意の数の方法でいくつかの構成要素にわたって分散することができる。ソフトウェアによって実行される場合、方法は、コンピュータ可読媒体に記憶された命令に基づいて、汎用コンピュータなどのプロセッサによって実施することができる。所望であれば、命令は、媒体に、圧縮および/または暗号化された形式で記憶することができる。
さらに、本出願の他の実施態様は、本明細書を考察し、本出願の教示を実践することから当業者に明らかである。記載の例示的な実施態様の様々な態様および/または構成要素は、単一でまたは任意の組合せで使用することができる。本明細書および例示的な実施態様は、例としてのみ考慮されることを意図しており、本出願の真の範囲および精神が特許請求の範囲によって示される。

Claims (11)

  1. 複数のカメラから、非対称の形状を有する1つまたは複数の標識を検出することと、
    車両の操作モードを人間操作モードから自律モードに変更することであって、前記自律モードは、前記検出された1つまたは複数の標識に基づいて前記車両の位置、向き、および速度の少なくとも1つを調整するように構成されることとを含み、
    前記自律モードが完全自律駐車モードである場合、
    前記検出された1つまたは複数の標識と関連付けられる軌道に従って前記車両の前記位置、向きおよび速度の前記少なくとも1つを調整することと、
    第2の1つまたは複数の標識が検出されるまで前記軌道に沿って前記車両をナビゲートすることと、
    前記軌道の変更を示す別の1つまたは複数の標識について、前記軌道の前記変更に従って前記車両の前記位置、向き、および速度の前記少なくとも1つを変更することと
    をさらに含み、
    前記車両を駐車させるための命令を示す前記第2の1つまたは複数の標識について、
    前記車両の位置を管理装置に送信することと、
    前記管理装置から前記操作モードを前記完全自律駐車モードから自動駐車モードに変更する指示を受信すると、前記操作モードを前記完全自律駐車モードから前記自動駐車モードに切り替えることであって、前記自動駐車モードが、駐車スペースへの前記車両の自動駐車を行うように構成されることと
    を含む、道路標識検出方法。
  2. 前記車両が、複数の標識とマップとの間の関係を管理するように構成され、
    前記自律モードの操作モードを有する前記車両について、前記検出された1つまたは複数の標識と前記マップとの間の前記関係に基づいて計算される前記車両の位置を前記管理装置に送信することと、
    前記管理装置から軌道情報を受信すると、前記命令が、前記車両の軌道を示し、前記軌道情報に従って前記車両の前記位置、向き、および速度の少なくとも1つを調整することと
    をさらに含む、請求項に記載の道路標識検出方法。
  3. 複数のカメラから、非対称の形状を有する1つまたは複数の標識を検出することと、
    車両の操作モードを人間操作モードから自律モードに変更することであって、前記自律モードは、前記検出された1つまたは複数の標識に基づいて前記車両の位置、向き、および速度の少なくとも1つを調整するように構成されることとを含み、
    前記複数のカメラから、前記非対称の形状を有する1つまたは複数の標識を前記検出することが、
    前記複数のカメラから受信した1つまたは複数の画像に対してテンプレートマッチングを実行することと、
    前記1つまたは複数の画像に前記1つまたは複数の標識が存在することを示す前記テンプレートマッチングの場合、前記1つまたは複数の画像のコーナ検出を行うことと、
    決定された閾値を満たすコーナの数を示す前記コーナ検出の場合、前記1つまたは複数の画像から、前記車両から前記1つまたは複数の標識までの距離を計算することと
    を含む、道路標識検出方法。
  4. 複数のカメラから、非対称の形状を有する1つまたは複数の標識を検出することと、
    車両の操作モードを人間操作モードから自律モードに変更することであって、前記自律モードは、前記検出された1つまたは複数の標識に基づいて前記車両の位置、向き、および速度の少なくとも1つを調整するように構成されることとを含み、
    前記自律モードが完全自律駐車モードである場合、
    前記検出された1つまたは複数の標識と関連付けられる軌道に従って前記車両の前記位置、向きおよび速度の前記少なくとも1つを調整することと、
    第2の1つまたは複数の標識が検出されるまで前記軌道に沿って前記車両をナビゲートすることと、
    前記軌道の変更を示す別の1つまたは複数の標識について、前記軌道の前記変更に従って前記車両の前記位置、向き、および速度の前記少なくとも1つを変更することと
    をさらに含み、
    前記車両の前記操作モードが前記自律モードにある間、
    前記車両の前記軌道に基づいて予想される標識を検出することができない場合に、
    前記車両の現在位置を補間して前記車両の前記現在位置と前記予想される標識の位置との間の誤差を決定することと、
    前記誤差が閾値よりも大きい場合、前記車両の前記自律モードを終了することと
    含む、道路標識検出方法。
  5. 1つまたは複数のハードウェアプロセッサによる実施のための命令を記憶する、非一時的コンピュータ可読媒体であって、
    複数のカメラから、非対称の形状を有する1つまたは複数の標識を検出することと、
    車両の操作モードを人間操作モードから自律モードに変更することであって、前記自律モードは、前記検出された1つまたは複数の標識に基づいて前記車両の位置、向き、および速度の少なくとも1つを調整するように構成されることとを含み、
    前記命令が、
    前記自律モードが完全自律駐車モードである場合、
    前記検出された1つまたは複数の標識と関連付けられる軌道に従って前記車両の前記位置、向きおよび速度の前記少なくとも1つを調整することと、
    第2の1つまたは複数の標識が検出されるまで前記軌道に沿って前記車両をナビゲートすることと、
    前記軌道の変更を示す別の1つまたは複数の標識について、前記軌道の前記変更に従って前記車両の前記位置、向き、および速度の前記少なくとも1つを変更することと
    をさらに含み、
    前記車両を駐車させるための命令を示す前記第2の1つまたは複数の標識について、
    前記車両の位置を管理装置に送信することと、
    前記管理装置から前記操作モードを前記完全自律駐車モードから自動駐車モードに変更する指示を受信すると、前記操作モードを前記完全自律駐車モードから前記自動駐車モードに切り替えることであって、前記自動駐車モードが、駐車スペースへの前記車両の自動駐車を行うように構成されることと
    を含む、非一時的コンピュータ可読媒体。
  6. 前記車両が、複数の標識とマップとの間の関係を管理するように構成され、前記命令が、
    前記自律モードの操作モードを有する前記車両について、前記検出された1つまたは複数の標識と前記マップとの間の前記関係に基づいて計算される前記車両の位置を前記管理装置に送信することと、
    前記管理装置から軌道情報を受信すると、前記命令が、前記車両の軌道を示し、前記軌道情報に従って前記車両の前記位置、向き、および速度の少なくとも1つを調整することと
    をさらに含む、請求項に記載の非一時的コンピュータ可読媒体。
  7. 1つまたは複数のハードウェアプロセッサによる実施のための命令を記憶する、非一時的コンピュータ可読媒体であって、
    複数のカメラから、非対称の形状を有する1つまたは複数の標識を検出することと、
    車両の操作モードを人間操作モードから自律モードに変更することであって、前記自律モードは、前記検出された1つまたは複数の標識に基づいて前記車両の位置、向き、および速度の少なくとも1つを調整するように構成されることとを含み、
    前記複数のカメラから、前記非対称の形状を有する1つまたは複数の標識を前記検出することが、
    前記複数のカメラから受信した1つまたは複数の画像に対してテンプレートマッチングを実行することと、
    前記1つまたは複数の画像に前記1つまたは複数の標識が存在することを示す前記テンプレートマッチングの場合、前記1つまたは複数の画像のコーナ検出を行うことと、
    決定された閾値を満たすコーナの数を示す前記コーナ検出の場合、前記1つまたは複数の画像から、前記車両から前記1つまたは複数の標識までの距離を計算することと
    を含む、非一時的コンピュータ可読媒体。
  8. 1つまたは複数のハードウェアプロセッサによる実施のための命令を記憶する、非一時的コンピュータ可読媒体であって、
    複数のカメラから、非対称の形状を有する1つまたは複数の標識を検出することと、
    車両の操作モードを人間操作モードから自律モードに変更することであって、前記自律モードは、前記検出された1つまたは複数の標識に基づいて前記車両の位置、向き、および速度の少なくとも1つを調整するように構成されることとを含み、
    前記命令が、
    前記自律モードが完全自律駐車モードである場合、
    前記検出された1つまたは複数の標識と関連付けられる軌道に従って前記車両の前記位置、向きおよび速度の前記少なくとも1つを調整することと、
    第2の1つまたは複数の標識が検出されるまで前記軌道に沿って前記車両をナビゲートすることと、
    前記軌道の変更を示す別の1つまたは複数の標識について、前記軌道の前記変更に従って前記車両の前記位置、向き、および速度の前記少なくとも1つを変更することと
    をさらに含み、
    前記命令が、前記車両の前記操作モードが前記自律モードにある間、
    前記車両の前記軌道に基づいて予想される標識を検出することができない場合に、
    前記車両の現在位置を補間して前記車両の前記現在位置と前記予想される標識の位置との間の誤差を決定することと、
    前記誤差が閾値よりも大きい場合、前記車両の前記自律モードを終了することと
    をさらに含む、非一時的コンピュータ可読媒体。
  9. 複数のカメラと、
    前記複数のカメラから、非対称の形状を有する1つまたは複数の標識を検出し、かつ
    車両の操作モードを人間操作モードから自律モードに変更するように構成され、前記自律モードは、前記検出された1つまたは複数の標識に基づいて前記車両の位置、向き、および速度の少なくとも1つを調整するように構成される
    プロセッサと
    を備え、
    前記プロセッサが、
    前記自律モードが完全自律駐車モードである場合、
    前記検出された1つまたは複数の標識と関連付けられる軌道に従って前記車両の前記位置、向きおよび速度の前記少なくとも1つを調整し、
    第2の1つまたは複数の標識が検出されるまで前記軌道に沿って前記車両をナビゲートし、かつ
    前記軌道の変更を示す別の1つまたは複数の標識について、前記軌道の前記変更に従って前記車両の前記位置、向き、および速度の前記少なくとも1つを変更する
    ように構成され、
    前記車両を駐車させるための命令を示す前記第2の1つまたは複数の標識について、前記プロセッサが、
    前記車両の位置を管理装置に送信し、かつ
    前記管理装置から前記操作モードを前記完全自律駐車モードから自動駐車モードに変更する指示を受信すると、前記操作モードを前記完全自律駐車モードから前記自動駐車モードに切り替えるように構成され、前記自動駐車モードが、駐車スペースへの前記車両の自動駐車を行うように構成される、道路標識検出システム。
  10. 複数のカメラと、
    前記複数のカメラから、非対称の形状を有する1つまたは複数の標識を検出し、かつ
    車両の操作モードを人間操作モードから自律モードに変更するように構成され、前記自律モードは、前記検出された1つまたは複数の標識に基づいて前記車両の位置、向き、および速度の少なくとも1つを調整するように構成される
    プロセッサと
    を備え、
    前記プロセッサが、
    前記複数のカメラから受信した1つまたは複数の画像に対してテンプレートマッチングを実行することと、
    前記1つまたは複数の画像に前記1つまたは複数の標識が存在することを示す前記テンプレートマッチングの場合、前記1つまたは複数の画像のコーナ検出を行うことと、
    決定された閾値を満たすコーナの数を示す前記コーナ検出の場合、前記1つまたは複数の画像から、前記車両から前記1つまたは複数の標識までの距離を計算することと
    によって前記複数のカメラから、前記非対称の形状を有する1つまたは複数の標識を検出するように構成される、道路標識検出システム。
  11. 複数のカメラと、
    前記複数のカメラから、非対称の形状を有する1つまたは複数の標識を検出し、かつ
    車両の操作モードを人間操作モードから自律モードに変更するように構成され、前記自律モードは、前記検出された1つまたは複数の標識に基づいて前記車両の位置、向き、および速度の少なくとも1つを調整するように構成される
    プロセッサと
    を備え、
    前記プロセッサが、
    前記自律モードが完全自律駐車モードである場合、
    前記検出された1つまたは複数の標識と関連付けられる軌道に従って前記車両の前記位置、向きおよび速度の前記少なくとも1つを調整し、
    第2の1つまたは複数の標識が検出されるまで前記軌道に沿って前記車両をナビゲートし、かつ
    前記軌道の変更を示す別の1つまたは複数の標識について、前記軌道の前記変更に従って前記車両の前記位置、向き、および速度の前記少なくとも1つを変更する
    ように構成され、
    前記プロセッサが、前記車両の前記操作モードが前記自律モードにある間、
    前記車両の前記軌道に基づいて予想される標識を検出することができない場合に、
    前記車両の現在位置を補間して前記車両の前記現在位置と前記予想される標識の位置との間の誤差を決定し、かつ
    前記誤差が閾値よりも大きい場合、前記車両の前記自律モードを終了する
    ように構成される、道路標識検出システム。
JP2020522109A 2018-05-29 2019-05-20 道路標識検出方法、非一時的コンピュータ可読媒体及び道路標識検出システム Active JP6997868B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/991,421 US11136022B2 (en) 2018-05-29 2018-05-29 Road marker detection method
US15/991,421 2018-05-29
PCT/JP2019/019884 WO2019230474A1 (ja) 2018-05-29 2019-05-20 道路標識検出方法、非一時的コンピュータ可読媒体及び道路標識検出システム

Publications (2)

Publication Number Publication Date
JPWO2019230474A1 JPWO2019230474A1 (ja) 2021-06-17
JP6997868B2 true JP6997868B2 (ja) 2022-01-18

Family

ID=68695040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020522109A Active JP6997868B2 (ja) 2018-05-29 2019-05-20 道路標識検出方法、非一時的コンピュータ可読媒体及び道路標識検出システム

Country Status (4)

Country Link
US (1) US11136022B2 (ja)
JP (1) JP6997868B2 (ja)
DE (1) DE112019001832T5 (ja)
WO (1) WO2019230474A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11043124B2 (en) 2018-01-31 2021-06-22 Peter Yeung Roadway information detection system consists of sensors on the autonomous vehicles and devices for the road
CA3130361A1 (en) 2016-10-18 2018-03-01 Peter Yeung Roadway information detection sensor device/system for autonomous vehicles
US11427211B2 (en) * 2018-06-18 2022-08-30 Baidu Usa Llc Methods for handling sensor failures in autonomous driving vehicles
US10877473B2 (en) * 2018-08-09 2020-12-29 Here Global B.V. Method, apparatus and computer program product for differential policy enforcement for roadways
US20200108824A1 (en) * 2018-10-04 2020-04-09 Ford Global Technologies, Llc Monitoring and adjustment of vehicle parking positions
US11604476B1 (en) 2018-10-05 2023-03-14 Glydways Inc. Road-based vehicle guidance system
US11893789B2 (en) * 2018-11-15 2024-02-06 Magic Leap, Inc. Deep neural network pose estimation system
DE102018221142A1 (de) * 2018-12-06 2020-06-10 Robert Bosch Gmbh Lokalisierung in komplexen Verkehrsszenarien durch Markierungen
US10931374B1 (en) 2018-12-13 2021-02-23 Waymo Llc Vehicle with free-space optical link for log data uploading
KR20200119920A (ko) * 2019-03-19 2020-10-21 현대모비스 주식회사 자동 발렛 파킹 시스템의 위치 추정 장치 및 방법
US11209824B1 (en) * 2019-06-12 2021-12-28 Kingman Ag, Llc Navigation system and method for guiding an autonomous vehicle through rows of plants or markers
US11537137B2 (en) * 2019-06-18 2022-12-27 Lg Electronics Inc. Marker for space recognition, method of moving and lining up robot based on space recognition and robot of implementing thereof
US11904871B2 (en) * 2019-10-30 2024-02-20 Deere & Company Predictive machine control
US11367212B2 (en) * 2019-11-21 2022-06-21 Ford Global Technologies, Llc Vehicle pose detection with fiducial marker
CN111196271A (zh) * 2020-01-21 2020-05-26 北京百度网讯科技有限公司 自动泊车方法、装置、设备及存储介质
JP7318545B2 (ja) * 2020-01-27 2023-08-01 株式会社デンソー 自動駐車システム、マーカ不具合判定方法、及びマーカ不具合判定プログラム
JP7327285B2 (ja) * 2020-06-01 2023-08-16 トヨタ自動車株式会社 制動制御装置及び制動制御方法
CN112129297B (zh) * 2020-09-25 2024-04-30 重庆大学 一种多传感器信息融合的自适应校正室内定位方法
US11827244B2 (en) * 2020-12-04 2023-11-28 Ford Global Technologies, Llc Enhanced vehicle operation
CN113012441B (zh) * 2021-03-25 2023-01-13 北京百度网讯科技有限公司 车辆停车检测方法、系统、电子设备以及存储介质
CN113112847A (zh) * 2021-04-12 2021-07-13 蔚来汽车科技(安徽)有限公司 用于固定泊车场景的车辆定位方法及其系统
DE102021111736A1 (de) 2021-05-06 2022-11-10 Valeo Schalter Und Sensoren Gmbh Verfahren, computerprogrammprodukt, parkassistenzsystem und fahrzeug
IT202100023084A1 (it) * 2021-09-07 2023-03-07 Univ Bologna Alma Mater Studiorum Metodo e sistema per la navigazione autonoma di un veicolo agricolo
US20230286584A1 (en) * 2022-03-08 2023-09-14 Ford Global Technologies, Llc Method for operating a motor vehicle with a parking assistant
EP4360999A1 (en) * 2022-10-28 2024-05-01 Aisin Corporation Moving body control device, moving body control method, and moving body control program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009122744A (ja) 2007-11-12 2009-06-04 Toyota Motor Corp 車両用逆走検出装置
JP2009199572A (ja) 2008-01-25 2009-09-03 Kazuo Iwane 三次元機械地図、三次元機械地図生成装置、ナビゲーション装置及び自動運転装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4890233A (en) * 1986-10-27 1989-12-26 Pioneer Electronic Corporation Vehicle bearing detection and data processing methods applicable to vehicle navigation system
US8542906B1 (en) * 2008-05-21 2013-09-24 Sprint Communications Company L.P. Augmented reality image offset and overlay
US8301325B2 (en) 2008-07-28 2012-10-30 Precise Path Robotics, Inc. System and method for autonomous vehicle localization
JP2010064546A (ja) 2008-09-09 2010-03-25 Toyota Industries Corp 駐車支援装置
US9581997B1 (en) * 2011-04-22 2017-02-28 Angel A. Penilla Method and system for cloud-based communication for automatic driverless movement
WO2014065856A1 (en) 2012-10-25 2014-05-01 Massachusetts Institute Of Technology Vehicle localization using surface penetrating radar
DE102014221777A1 (de) * 2014-10-27 2016-04-28 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs
US10504230B1 (en) * 2014-12-19 2019-12-10 Amazon Technologies, Inc. Machine vision calibration system with marker
EP3125196B1 (en) 2015-07-29 2018-02-21 Continental Automotive GmbH Drive-by calibration from static targets
US10082797B2 (en) 2015-09-16 2018-09-25 Ford Global Technologies, Llc Vehicle radar perception and localization
US20170267233A1 (en) * 2016-03-15 2017-09-21 Cruise Automation, Inc. Method for autonomous vehicle parking
EP4060288A3 (en) * 2016-08-31 2023-02-01 Topcon Positioning Systems, Inc. Apparatus and method for providing vehicular positioning
US20190080612A1 (en) * 2017-09-14 2019-03-14 Qualcomm Incorporated Navigation techniques for autonomous and semi-autonomous vehicles
US10706525B2 (en) * 2018-05-22 2020-07-07 Midea Group Co. Ltd. Methods and systems for improved quality inspection

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009122744A (ja) 2007-11-12 2009-06-04 Toyota Motor Corp 車両用逆走検出装置
JP2009199572A (ja) 2008-01-25 2009-09-03 Kazuo Iwane 三次元機械地図、三次元機械地図生成装置、ナビゲーション装置及び自動運転装置

Also Published As

Publication number Publication date
US20190367012A1 (en) 2019-12-05
DE112019001832T5 (de) 2021-02-04
JPWO2019230474A1 (ja) 2021-06-17
US11136022B2 (en) 2021-10-05
WO2019230474A1 (ja) 2019-12-05

Similar Documents

Publication Publication Date Title
JP6997868B2 (ja) 道路標識検出方法、非一時的コンピュータ可読媒体及び道路標識検出システム
US11066067B2 (en) Planning parking trajectory for self-driving vehicles
US11747814B2 (en) Autonomous driving device
CN110834630A (zh) 一种车辆的驾驶控制方法、装置、车辆及存储介质
US11161516B2 (en) Vehicle control device
JP6614359B2 (ja) 障害物判定方法、駐車支援方法、出庫支援方法、及び障害物判定装置
US11634118B2 (en) Parking control method and parking control apparatus
EP4026756B1 (en) Automated valet parking system, control method for an automated valet parking system, and autonomous driving vehicle
JP2020087191A (ja) 車線境界設定装置、車線境界設定方法
EP4046883B1 (en) Automated valet parking system, control method of automated valet parking system, and autonomous driving vehicle
JP2021006448A (ja) 単一車両走行用に設計された自動運転システムでの車両隊列実施
JP7377822B2 (ja) 運転支援方法及び運転支援装置
CN112837209B (zh) 对鱼眼镜头生成具有畸变的图像的新方法
JP6610601B2 (ja) 車両識別装置
US11407419B2 (en) Central line shifting based pre-change lane path planning
US11061403B2 (en) Path planning with a preparation distance for a lane-change
JP2021018636A (ja) 車両遠隔指示システム
US11884265B1 (en) Parking assistance method and parking assistance device
JP7429112B2 (ja) 管制装置
WO2023188687A1 (ja) 出庫支援方法及び出庫支援装置
US20230236593A1 (en) Systems and methods for controlling a trailer separately from a vehicle
WO2020261703A1 (ja) 情報処理装置と情報処理方法およびプログラム
US20210200211A1 (en) Method of generating back-up trajectories for self-driving vehicles during emergency
US20210096249A1 (en) Front and side four-lidar design for autonomous driving vehicles
JP2022018853A (ja) 移動体制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211217

R150 Certificate of patent or registration of utility model

Ref document number: 6997868

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150