JP2023547723A - 駐車支援を動作させるための方法、コンピュータプログラム製品、駐車支援システム、車両、およびシステム - Google Patents

駐車支援を動作させるための方法、コンピュータプログラム製品、駐車支援システム、車両、およびシステム Download PDF

Info

Publication number
JP2023547723A
JP2023547723A JP2023527814A JP2023527814A JP2023547723A JP 2023547723 A JP2023547723 A JP 2023547723A JP 2023527814 A JP2023527814 A JP 2023527814A JP 2023527814 A JP2023527814 A JP 2023527814A JP 2023547723 A JP2023547723 A JP 2023547723A
Authority
JP
Japan
Prior art keywords
parking
vehicle
detected
interest
roi7
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023527814A
Other languages
English (en)
Inventor
クラウティルド、イベット、ナナ、ムボヨ
ポール、モラン
ピョートル、シチュトブスキー
Original Assignee
ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー filed Critical ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー
Publication of JP2023547723A publication Critical patent/JP2023547723A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

(車両用の駐車支援をシステム動作させるための方法、コンピュータプログラム製品、駐車支援システム、車両、およびシステム)車両(100)用の駐車支援システム(110)を動作させるための方法が提案される。前記方法は、a)前記車両(100)の周囲の光学画像(IMG)、および前記車両(100)の前記周囲を表すデジタル周囲マップ(MAP)を受信するステップ(S1)であって、前記デジタル周囲マップ(MAP)は、少なくとも1つの指定駐車エリア(P1~P7)を含むステップ(S1)と、b)少なくとも1つの前記指定駐車エリア(P1~P7)の各々について、それぞれの前記指定駐車エリア(P1~P7)に対応する受信した関心領域(ROI1~ROI7)を前記光学画像(IMG)内で選択するステップ(S2)と、c)選択された各関心領域(ROI1~ROI7)において、地面に設けられたライン(PAT)および/または記号(SYM1~SYM3)を検出するステップ(S3)と、d)検出された前記ライン(PAT)および/または記号(SYM1~SYM3)に基づいて、複数の駐車区画クラス(CLS)のうちの1つを選択された各関心領域(ROI1~ROI7)に割り当てるステップ(S4)と、e)少なくとも1つの前記指定駐車エリア(P1~P7)の各々について、選択された前記関心領域(ROI1~ROI7)に対応するそれぞれの前記指定駐車エリア(P1~P7)が駐車区画候補であるかどうかを、対応する前記関心領域(ROI1~ROI7)に割り当てられた前記駐車区画クラス(CLS)に基づいて判定するステップ(S5)と、を備える。

Description

本発明は、車両の駐車支援システムを動作させるための方法、コンピュータプログラム製品、車両用の駐車支援システム、駐車支援システムを備える車両、および車両と外部ユニットとを備えるシステムに関する。
車両の周囲における駐車区画を検出するためのカメラ画像を使用する駐車支援システムが知られている。例えば、このようなシステムは、駐車区画の検出のために地面に描かれたラインを検出して解析する。
特定用途用の種々の駐車区画が増えている。特定用途用の駐車区画とは、例えば、身障者用、子連れ家庭用、女性用、緊急非常時用、電気自動車用等の駐車区画等の特定グループの人および車両専用の駐車区画である。これらの駐車区画は、多くの場合、記号、文字等で指定されている。駐車違反切符や他のより深刻な問題を回避すべく、車のドライバーは、種々のすべての記号の意味を理解する必要があるが、これは複雑なものとなり得る。なぜならば、特に記号の使用は国や州、あるいは地区毎に異なり得るためである。
DE 10 2017 007 823 A1は、車載カメラにより周囲画像が撮影され、周囲画像に基づいて特別な駐車スペースが検出されることを開示している。さらに、車両に配置された身体障害用の特殊装備および/またはチャイルドシートが検出され、当該情報から少なくとも1人の車両に乗っている人の特性が導出される。導出された特性に対応する特別な駐車スペースが目的地として提示される。
本発明の1つの目的は、車両の駐車支援システムの動作を改善することである。
第1態様によれば、車両用の駐車支援システムを動作させるための方法が提案される。第1ステップa)において、前記車両の周囲の光学画像、および前記車両の前記周囲を表すデジタル周囲マップを受信する。前記デジタル周囲マップは、少なくとも1つの指定駐車エリアを含む。第2ステップb)において、それぞれの前記指定駐車エリアに対応する関心領域を、受信した前記光学画像内で、少なくとも1つの前記指定駐車エリアの各々について選択する。第3ステップc)において、選択された各関心領域において、地面に設けられたラインおよび/または記号を検出する。第4ステップd)において、検出された前記ラインおよび/または記号に基づいて、複数の駐車区画クラスのうちの1つを選択された各関心領域に割り当てる。第5ステップe)において、少なくとも1つの前記指定駐車エリアの各々について、選択された前記関心領域に対応するそれぞれの前記指定駐車エリアが駐車区画候補であるかどうかを、対応する前記関心領域に割り当てられた前記駐車区画クラスに基づいて判定する。
本方法は、地面に設けられたラインおよび/または記号に基づいて、駐車支援システムにより駐車区画を識別することができるという利点がある。特に、特殊用途用の駐車区画を通常の駐車区画から区別することができ、駐車禁止エリアとしてマークされている駐車区画候補が検出され得る。したがって、駐車支援システムの動作が向上する。
車両の周囲の光学画像を、車両のカメラにより検出してもよい。好適には、光学画像は、車両のサラウンドビュー画像に対応する。サラウンドビュー画像は、車両の上方からの俯瞰的な眺めを示し得る。サラウンドビュー画像は、各々が特定の視野をカバーする複数の画像を合成および/またはつなぎ合わせることにより得られ得る。
デジタル周囲マップは、車両の実際の周囲をデジタルで表したものに対応する。周囲マップは、ECU(エンジン制御ユニット)等の車両の処理ユニットにより、超音波センサユニットおよび/または光学センサユニット等の車両に配置された周囲センサにより検出されたセンサ信号に基づいて決定され得る。
デジタル周囲マップを提供する処理ユニットは、好適には、駐車区画の境界ラインを検出するようにも構成される。この検出は、例えば、カメラ等の光学センサユニットにより検出された光学画像に基づく。検出された駐車区画の境界ラインに基づいて、処理ユニットは、車両の周囲にある駐車エリア候補を指定するようにさらに構成される。駐車エリア候補とは、例えば地面上の境界ラインにより画定されたエリアであって、空いているエリア、すなわち、物体や他の車両等により塞がれていないエリアである。例えば、駐車エリア候補は、道路脇の駐車帯や駐車場等にあり得る。処理ユニットは、駐車エリアの指定時に、それぞれのエリア内の地面に設けられたラインおよび/または記号のうち、境界ラインでないものは考慮しない。
各指定駐車エリアは、周囲の光学画像におけるエリアに対応する。したがって、各指定駐車エリアについて、対応する関心領域が光学画像内で選択される。
次いで、関心領域は、そこに存在するラインおよび/または記号について分析される。検出されたラインおよび/または記号に基づいて、複数の駐車区画クラスのうちの1つが、選択された各関心領域に割り当てられる。例えば、もしラインや記号が検出されない場合、関心領域は、「標準駐車区画」クラスに割り当てられ得る。車椅子の記号が検出された場合、関心領域は、「身障者用駐車区画」クラスに割り当てられ得る。それぞれの関心領域は指定駐車エリアに対応するため、関心領域に割り当てられた駐車区画クラスは、指定駐車エリアにも同様に適用される。ここで、「ライン」とは、具体的には、地面に設けられた境界ラインを指す。例えば、境界ラインは、線幅および色に関してすべて類似した外観を有し得る。すなわち、境界ラインとして想定される外観と異なる外観を有するラインは、この意味での記号を表すとみなされ得る。
割り当てられた駐車区画クラスに基づいて、少なくとも1つの指定駐車エリアの各々について、選択された関心領域に対応するそれぞれの指定駐車エリアが駐車区画候補であるかどうかが判定される。駐車区画候補は、車両に適した駐車区画であって、例えば車両のドライバーが使用許可を有する駐車区画に対応する。このステップは、特定のフィルタリング基準および/または優先順位基準を適用するステップを伴い得る。例えば、身障者用駐車区画は、このステップでフィルタリングされるように設定され得る。すなわち、それらは駐車区画候補とみなされない。このような設定は、特に、ユーザにより定義されてもよく、および/または、車両がプラグイン電気車両であるというような車両の構成に基づいていてもよく、および/またはベビーシート等の検出された追加装備に基づいていてもよい。
この結果、本方法は、あらゆる種類の異なる特殊用途用駐車区画および/または駐車禁止エリアを、駐車支援システムにより検出することができるとともに、駐車支援システムによりフィルタリングし得るという利点を有する。これにより、駐車支援システムのより良好な動作を実現できる。なぜならば、駐車支援システムを備える車両のユーザは、例えば、車両を駐車するための駐車支援システムにより提案された駐車区画を使用する許可を自分が得ているかどうかを再確認する必要がないからである。
実施形態によれば、本方法は、判定したすべての前記駐車区画候補を照合するステップと、照合した前記駐車区画候補のうちの1つを選択するステップと、選択された前記駐車区画を、選択された前記駐車区画に駐車するように前記車両を制御するための自律運転ユニットに提供するステップと、をさらに備える。
本実施形態において、複数の駐車区画候補のうちの1つの選択が実施される。これは、車両の周囲に複数の駐車区画候補が存在する場合に、特に有用である。選択は、ユーザ対話に基づいてもよいし、完全に自動で実施してもよい。
照合するステップは、ある順位付けの基準に従って、駐車区画候補を順序付けるステップを含む。例えば、順序付けるステップは、車両の駐車区画候補までの距離に基づいて、駐車区画候補の長さおよび/または幅に基づいて、駐車区画候補に対応する割り当てられた駐車区画クラスに基づいて、および/または、場合により他のユーザ定義による基準に基づいて、実施され得る。
駐車区画候補のうちの1つを選択するステップは、例えばディスプレイを介して、車両のユーザに、駐車区画候補を含む車両の周囲のグラフィック描写を出力するステップを含み得る。ユーザは、音声コマンド、ジェスチャー、タッチコマンド等により、駐車区画候補のうちの1つを選択し得る。
自律運転ユニットは、車両を全自動および/または半自動で制御するように構成され得る。全自動制御は、例えば、アクセル、ブレーキ、ハンドル、ギア等の自動制御を含み得る。半自動は、例えばハンドルおよびギアの制御を含み得る。ユーザはアクセルおよびブレーキをマニュアルで制御する必要がある。
さらなる実施形態によれば、複数の前記駐車区画クラスのうちの少なくとも1つに関する判定情報を受信するステップを更に備え、前記ステップe)は、追加的に前記判定情報に基づく。
判定情報は、指定駐車エリアが駐車区画候補であるかどうかをいかに判定するかに関する情報を含む。特に、判定情報は、複数の駐車区画クラスに関する。例えば、判定情報は、複数の駐車区画クラスのうちの1つのクラス、例えば「身障者用区画」または「電気自動車用駐車区画」を駐車区画候補としてみなしてはならないことを記述する情報を含み得る。判定情報は、車両のユーザにより提供され得る、および/または入力され得る。あるいは、車両のメーカーが、顧客から提供された情報に対応して駐車支援システムを構成してもよい。
本実施形態により、車両のユーザは、その個人的な状況およびニーズに応じて、どの駐車区画クラスが自分にとっての駐車区画候補であり、駐車支援システムにより駐車区画候補として決定されるべきかを正確に定義することができる。これにより、ユーザは、駐車支援システムを使用して、車両を駐車するためにこれらの駐車区画を使用するというオプションを有する。ユーザがニーズを例えばユーザインターフェースを介して選ぶ選択ステップを含むそれぞれのステップが、例えば提供され得る。
本方法のさらなる実施形態によれば、前記判定情報は、複数の前記駐車区画クラスのうちの少なくとも1つに関する優先順位情報を含み、前記ステップe)は、前記優先順位を前記駐車区画候補の各々に割り当てるステップと、判定した前記駐車区画候補を、割り当てられた前記優先順位に従って順序付けるステップと、をさらに含む。
例えば、優先順位情報は、最も広い幅を有する「通常駐車区画」が最高の優先順位を有し、道路脇の縦列駐車区画として配置された「通常駐車区画」は低い優先順位を有するとする情報を含み得る。好適には、優先順位情報は、駐車区画の特定の特性に対応する例えば0から100までの数値として与えられる。駐車区画の特定の特性には、割り当てられた駐車区画クラス、駐車区画の幾何学的特性、縦列駐車、斜め駐車または対向駐車等の、周囲の他の特徴に対する駐車区画の相対的配置、駐車区画の隣の空きスペース等が含まれる。優先順位を割り当てる際、駐車支援システムは、優先順位情報および各駐車区画候補の個々の特徴に基づいて、優先順位スコアを自動的に決定するように構成され得る。
本方法のさらなる実施形態によれば、前記ステップc)は、検出された前記ラインが複数の所定パターンのうちの1つと同様に配されているかどうかを検出するステップであって、各所定パターンは、少なくとも1つの駐車区画クラスに対応するステップをさらに含む。
本実施形態において、検出されたラインが、所定パターンと比較され得る。このような所定パターンは、例えば、勢力圏内で統一的な態様で駐車区画を指定するために使用することを意図した地方自治体または政府により提供されたパターンであり得る。所定パターンは、公式に定義されることなく慣習的に使用されるパターンも含み得る。
所定パターンは、幾何学的な記述、例えば、ラインの長さ、幅、および/または曲率、複数のラインの相対的配置、例えば2本のライン間の角度、二本のラインの交差点、交差点までのラインの長さ、その他を用いて定義され得る。ここでは、ドットも「ライン」とみなされることに留意されたい。
「同様に配される」という用語は、検出されたラインが、それぞれの所定パターンを表していると判定され得るものとして理解されたい。検出されたラインがそれぞれの所定パターンを表していると推論されるとも言える。
検出されたラインが複数の所定パターンのうちの1つと同様に配されていると検出することは、検出されたラインの実際の配置と所定パターンにおけるラインの配置との比較に基づいて算出され得る類似性スコアに基づいてもよい。
本実施形態において、検出は、決定論的アルゴリズム、または発見的なアプローチを含み得るルールベースのアルゴリズム等を用いて実施され得る。
本方法のさらなる実施形態によれば、前記所定パターンは、検出された前記ラインおよび/または検出された前記ラインのセクションの幾何学的特徴により定義される。検出された前記ラインおよび/または検出された前記ラインのセクションの幾何学的特徴は、検出された前記ラインの絶対長および/若しくは絶対幅、検出されたラインおよび/若しくは検出された前記ラインのセクション間の長さ比、検出された前記ラインおよび/若しくは検出された前記ラインのセクションの幅比、検出された前記ラインおよび/若しくは検出された前記ラインのセクション間に形成された角度、検出された前記ラインおよび/若しくは検出された前記ラインのセクションの曲率、並びに/または、検出された前記ラインおよび/若しくは検出された前記ラインのセクション間の距離を含む。
例えば、「X」パターンは、本質的に同一の長さを有する2本のラインであって、ラインの本質的に中点で互いに交差する2本のラインを有するものとして定義され得る。別の例として、「ジグザグ」ラインとは、端部で接続した少なくとも3本の直線的に延びるラインであって、それらの間に例えば60°~120°の範囲の角度を含むラインを有するものとして定義され得る。
本方法のさらなる実施形態によれば、複数の前記所定パターンのうちの各1つは、前記幾何学的特徴のうちの少なくとも一部に対応する値または値間隔のセットを含む。
本方法のさらなる実施形態によれば、前記ステップc)は、各関心領域の検出された前記記号を画像として抽出するステップと、画像を分類するようにトレーニングされた人工知能を用いて画像を分類するステップと、をさらに含む。
本実施形態において、地面に設けられた記号は、既知の記号の分類についてトレーニングされたニューラルネットワーク等の人工知能により分類される。特に、人工知能は、駐車区画をマークするように使用されるものとして知られている記号についてトレーニングされたものである。人工知能は、記号を多数の所定クラスに分類し得る。好適には、各クラスは、少なくとも1つの駐車区画クラスに対応する。
最初に、記号は、関心領域から画像として抽出される。これは、記号を含む画像を準備して人工知能がこれを分析できるようにサイズ変更する、および/または変換するステップの適用が含み得る。
人工知能は、比喩的な記号、数字、文字、単語などを認識(分類)するようにトレーニングすることができる。人工知能は、画像中の構造物の色も考慮し得る。
第2態様によれば、コンピュータプログラム製品が提案される。コンピュータプログラム製品は命令を備え、前記命令は、前記プログラムのコンピュータによる実行時に、前記コンピュータに第1態様による方法を実施させる。
コンピュータプログラム媒体等のコンピュータプログラム製品は、メモリカード、USBスティック、CD-ROM、DVD等のメモリデバイスの形態で、および/またはコンピュータネットワーク内のサーバ等からダウンロード可能なデジタルデータファイルの形態で提供され得る。例えば、これは、無線ネットワークを介して対応するファイルを転送することにより達成され得る。
第3態様によれば、車両用の駐車支援システムが提案される。駐車支援システムは、前記車両の周囲の光学画像、および前記車両の前記周囲を表すデジタル周囲マップを受信するための受信ユニットであって、前記デジタル周囲マップは、少なくとも1つの指定駐車エリアを含む受信ユニットと、少なくとも1つの前記指定駐車エリアの各々について、それぞれの前記指定駐車エリアに対応する受信した前記光学画像中の関心領域を選択する選択ユニットと、選択された各関心領域において、地面に設けられたラインおよび/または記号を検出する検出ユニットと、検出された前記ラインおよび/または記号に基づいて、複数の駐車区画クラスのうちの1つを選択された各関心領域に割り当てる割当ユニットと、少なくとも1つの前記指定駐車エリアの各々について、選択された前記関心領域に対応するそれぞれの前記指定駐車エリアが駐車区画候補であるかどうかを、対応する前記関心領域に割り当てられた前記駐車区画クラスに基づいて判定する判定ユニットと、を備える。
この駐車支援システムは、第1態様による方法について説明したものと同一の利点を有する。第1態様による方法に関して示唆した実施形態および特徴は、対応する態様で、駐車支援システムの特徴および実施形態を同様に形成し得る。
駐車支援システムのそれぞれのユニット、例えば、受信ユニット、選択ユニット、検出ユニット、割当ユニット、および判定ユニットは、ハードウェアおよび/またはソフトウェアにおいて実現され得る。ハードウェアにおいて実現される場合、それぞれのユニットは、コンピュータ、CPU(中央処理装置)、ASIC(特定用途向け集積回路)またはPLC(プログラマブルロジックコントローラ)として実現され得る。ソフトウェアにおいて実現される場合、それぞれのユニットは、コンピュータプログラム製品、関数、アルゴリズム、ルーチン、プログラミングコードの一部として、または実行可能なオブジェクトとして構成され得る。さらに、各ユニットは、ECU(エンジン制御ユニット)等の車両の制御ユニットの一部として実現され得る。
第4態様によれば、車両であって、前記車両の周囲の光学画像を検出するための少なくとも1つのカメラと、検出された前記光学画像に少なくとも部分的に基づいて前記車両の前記周囲を表すデジタル周囲マップを提供するための処理ユニットと、第3態様による駐車支援システムと、を備える車両が提案される。
実施形態によれば、前記車両は、前記指定駐車エリアに対応する割り当てられた前記駐車区画クラスを外部ユニットに送信するように構成された通信ユニットをさらに備える。
本実施形態は、駐車支援システムによる検出結果が、近傍の他のユーザまたは車両、および/または同一箇所への移動を計画しているユーザまたは車両等に提供され得るという利点を有する。具体的には、駐車区画クラスを検出するという高度な機能を有していない車両も、適当な駐車区画を探す際に、この情報を利用することができる。好適には、GPS座標等の車両の位置情報が、割り当てられた駐車区画クラスとともに送信される。
通信ユニットは、特に、Bluetooth(R)、Wi-Fi、赤外線、3G/4G/5G技術などを介して、変調電磁信号で情報を送信するように構成される。
第5態様によれば、第5態様の実施形態による少なくとも1つの車両と、前記車両の外部にある外部ユニットと、を備えるシステムが提案される。前記外部ユニットは、前記車両から送信された割り当てられた前記駐車区画クラスを受信するように構成されるとともに、前記指定駐車エリアに対応する受信した前記駐車区画クラスをさらなるデバイスに送信するように構成される、および/または、受信した割り当てられた前記駐車区画クラスに応じて、制御コマンドを前記車両の制御のために前記車両に送信するように構成される。
外部ユニットは、スマートフォン等のモバイルデバイスとして実現されてもよいし、デスクトップコンピュータやサーバ等の固定デバイスとして実現されてもよいし、他の車両等の通信ユニットであってもよい。
好適な実施形態において、通信ユニットは、駐車区画候補のリストを外部ユニットにさらに送信し得る。そして、ユーザは、駐車区画候補のうちに1つを選択し得る。外部ユニットは、この選択を、選択された駐車区画に車両を制御して自律的に駐車する制御コマンドとして送信する。
本発明を、種々の実施形地の観点から説明した。任意の1つの実施形態の単数または複数の特徴は、他の実施形態の単数または複数の特徴と組み合わせ得ることを理解されたい。さらに、いずれかの実施形態における任意の単一の特徴または特徴の組み合わせは、追加の実施形態を構成し得る。
本発明のさらなる実施形態または態様は、従属請求項および図面を参照して以下に説明する実施例の対象である。
図1は、車両の概略図である。 図2は、周囲マップの一例を示す。 図3は、周囲の画像の一例を示す。 図4は、分類の一例を示す。 図5は、駐車支援システムを動作させるための方法の一例の概略ブロック図を示す。 図6は、駐車支援システムの一例の概略ブロック図を示す。 図7は、車両と外部ユニットとを有するシステムの一例を示す。
図面において、特に断りのない限り、同様の要素を同一の参照符号で示す。
図1は、例えば車である車両100の概略図である。車100は、処理ユニット105と駐車支援システム110とを含んでいる。処理ユニット105は、エンジン制御ユニット(ECU)として実現され得る。処理ユニット105および駐車支援システム110は、図1において別個のユニットして示されているが、これらは単一の集積回路において一体的に実現されてもよい、および/またはCPU、RAM等のリソースを共用してもよい。車100は、複数のセンサ120、130をさらに含んでいる。例えば、センサ120は、光学センサとして実現され、カメラ、レーダー、および/またはライダー等を含み得る。光学センサ120は、車100の周囲についての好適には深度データを含む画像を検出するとともに、検出された画像を光学センサ信号として出力するように構成されている。センサ130は、例えば超音波センサとして実現され、車100の近傍にある物体200(図2または3参照)までの距離を検出するとともに、検出された距離を超音波センサ信号として出力するように構成されている。図1に示すセンサ120、130の他に、車100は、マイク、加速度センサ、電磁データ信号を受信するためのアンテナ等の追加および/または他のセンサを含み得る。
処理ユニット105は、例えばセンサフュージョン技術を用いることにより、センサ信号に基づいて周囲マップMAP(図2)を決定するように構成されている。周囲マップMAPは、車100の実際の周囲のデジタル描写に対応する。処理ユニット105は、光学センサ信号における駐車区画の境界ライン210(図2参照)を検出するとともに、検出された境界ライン210に基づいて、周囲マップMAPにおける駐車エリアP1~P7を指定するようにさらに構成され得る。このようにして、処理ユニット105は、2つの境界ライン210間のスペースが空いているか、または例えば他の車である物体200で塞がっているかを判定する。スペースが塞がっている、または遮られている場合、それぞれのエリアは、駐車エリアとして指定されない。
駐車支援システム110は、図6に示すように実現され得るとともに、図2~図5に対応して以下に説明する処理を実施するように構成されている。
図2は、車両100のデジタル周囲マップMAPの一例を示す。デジタル周囲マップMAPは、車両100の周囲にある物体を表す幾何学的オブジェクトを含んでいる。特に、デジタル周囲マップMAPは、道路のセンターラインCLおよび道路のサイドラインを表す破線CL、SLを含んでいる。それは、車両100を表す幾何学的オブジェクト100を含み、それは周囲にある車両または他の障害物を表す幾何学的オブジェクト200を含み、それは運転可能なエリアを画定するものとして検出されたさらなるライン(図示せず)を含み、それは駐車エリアを画定する境界ラインとして検出された駐車ラインPLを含み、それは指定駐車エリアP1~P7を含んでいる。指定駐車エリアP1~P7は、車両100用の駐車区画候補を表す。指定駐車エリアP1~P7は、単にそれぞれのエリアが空いているか塞がっているかという検出に基づいて、予め選択されることに留意されたい。空いているエリアのみが、駐車エリアP1~P7として指定される。例えば、駐車支援システム110(図1、6、または7)は、デジタル周囲マップMAPを、処理ユニット105(図1参照)から受信する。
図3は、車両100の周囲の光学画像IMGを示す。光学画像IMGは、図2のデジタル周囲マップMAPに対応する。例えば、デジタル周囲マップMAPは、図3に示す光学画像IMGに基づいて少なくとも部分的に決定され得る。例えば、駐車支援システム110(図1、6、または7)は、処理ユニット105から光学画像IMGを受信する。駐車支援システム110は、デジタル周囲マップMAP(図2参照)の指定駐車エリアP1~P7(図2参照)に対応する、光学画像IMG内の関心領域ROI1~ROI7を選択する。図3に示すように、それぞれの関心領域ROI1~ROI7は、本質的に車両100が潜在的に駐車し得るエリアを示す光学画像IMGの部分を含んでいる。
駐車支援システム110は、関心領域ROI1~ROI7の各々につき、地面に設けられたラインPATおよび/または記号SMY1~SYM3を検出する。この検出は、例えば画像認識技術を用いて実施される。図3の例において、第1記号SYM1は関心領域ROI2において検出され、第2記号SYM2は関心領域ROI3において検出され、第3記号SYM3は関心領域ROI4において検出され、ラインPATは関心領域ROI7において検出されている。第1記号SYM1は「駐車禁止」記号を表し、第2および第3記号SYM2、SYM3は「身障者用駐車」記号を示し、ラインPATは「駐車禁止」スペースを表すジグザグパターンを形成している。例えば、関心領域ROI7に対応するエリアを横切る入口があるため、駐車車両がないようにしなければならない。
検出されたラインPATおよび/または記号SYM1~SYM3に基づいて、駐車支援システム110は、駐車区画クラスCLS(図4参照)をそれぞれの関心領域ROI1~ROI7に割り当てる。種々の駐車区画クラスCLSの個数は、それ自体限定されない。駐車区画クラスCLSを割り当てるステップS4は、有効な駐車区画クラスCLSに従って指定駐車エリアP1~P7を分類するステップに対応する。
図4は、ラインパターンおよび記号を特定の駐車区画クラスCLSにこのように分類することの一例としての表を示す。本例において、各クラスCLSは数値で識別される。表は、本例において3つの列、すなわち、ラインパターンおよび/または記号、駐車区画クラスCLS、および各駐車区画クラスCLSに与えられ得る優先順位PRIOを含んでいる。
図4の表の第1列は、駐車区画をマークするために使用される既知のラインパターンおよび記号を含んでいる。図4のリストは、すべてを網羅するものではなく、さらに多くの他のラインパターンまたは記号、および/または、ラインパターンまたは記号のバリエーションを含み得る。明瞭であるように、表の3~7行に例示される「駐車禁止」エリアを表すラインパターンおよび記号には、本例において同一のクラスCLSが各々割り当てられる。これは、他の種類の特定の駐車区画を表す種々のラインパターンまたは記号についても同様である。例えば、「身障者用駐車」区画(図示せず)を表すすべての種々の記号には、同一のクラスCLSにすべて割り当てられ得る。ただし、これは必須ではなく、各異なるラインパターン/記号には、その独自のクラスCLSが割り当てられ得ることに留意されたい。
図4の例において、優先順位情報PRIOが、各駐車区画クラスCLSにさらに割り当てられている。優先順位情報PRIOは、例えば車両100(図1参照)のユーザにより提供され得る。優先順位情報PRIOは、駐車支援システム110(図1参照)により特定された複数の駐車区画候補が存在する状況において、優先順位情報PRIOに基づいて順序付けられたリストをユーザに提供する、および/または好適な駐車区画を提示する場合に有用である。本例において、すべての「駐車禁止」エリアが自動的に選別されて、車両100が駐車するための駐車区画としては選択することができない。例えば、車両100がプラグイン電気自動車であり、車両100のユーザが子連れの妊婦である。最高の優先順位PRIOが、電気自動車および妊婦に指定された駐車区画に割り当てられる。家族連れに指定された駐車区画は、それよりも低い優先順位PRIOを有している。しかしながら、この優先順位は、従来の駐車区画(ラインパターン/記号のない駐車区画)の優先順位よりも高い。身障者用の駐車区画は、最低の優先順位PRIOを有する。これは、車両100のユーザは身障者でないため、このような駐車区画に駐車すべきではないからである。
図5は、駐車支援システム110、例えば図1の車両100の駐車支援システム110を動作させるための方法の一例を示す概略ブロック図である。第1ステップS1において、車両100の周囲の光学画像IMG(図3参照)、および車両100の周囲を表すデジタル周囲マップMAP(図2参照)が受信される。デジタル周囲マップMAPは、少なくとも1つの指定駐車エリアP1~P7(図2参照)を含んでいる。第2ステップS2において、それぞれの指定駐車エリアP1~P7に対応する関心領域ROI1~ROI7(図3参照)が受信した光学画像IMG内で、周囲マップMAPに含まれる少なくとも1つの指定駐車エリアP1~P7の各々について選択される。第3ステップS3において、選択された各関心領域ROI1~ROI7において、地面に設けられたライン(図3参照)および/または記号SYM1~SYM3(図3参照)が、検出される。
本例において、第3ステップS3は、2つのステップS31およびS32を含んでいる。ステップS31は、検出されたラインPATが、複数の所定パターン、例えば、図4の表の第1列に示すラインパターンのうちの1つと同様に配されているかどうかを検出するステップを含み、各所定パターンは、少なくとも1つの駐車区画クラスCLSに対応する。ステップS31は、古典的な決定論的アルゴリズム、または発見的なアプローチをさらに含み得るルールベースのアルゴリズム等によって実施され得る。ステップS32は、各関心領域ROI1~ROI7の検出された記号SYM1~SYM3を画像として抽出するステップと、画像を分類するようにトレーニングされた人工知能を用いて画像を分類するステップと、を含み得る。例えば、ステップS32は、駐車区画のマークに使用されるシンボルSYM1~SYM3を分類するようトレーニングされた人工ニューラルネットワークによって実施され得る。人工ニューラルネットワークは、好適には、教師あり学習アプローチでトレーニングされる。人工ニューラルネットワークをトレーニングするために使用されるトレーニングデータは、世界中の種々の地域、国、および/または郡により異なり得る。ステップS3は、記載した2つのステップS31、S32を含む必要はなく、単一のエンティティにより実施される単一のステップでなされてもよいことに留意されたい。
第4ステップS4において、複数の駐車区画クラスCLS(図4参照)のうちの1つが、検出されたラインPATおよび/または記号SYM1~SYM3に基づいて、選択された各関心領域ROI1~ROI7に割り当てられる。第5ステップS5において、少なくとも1つの指定駐車エリアP1~P7の各々について、対応する関心領域ROI1~ROI7に割り当てられた駐車区画クラスCLSに基づいて、選択された各関心領域ROI1~ROI7に対応するそれぞれの指定駐車エリアが、駐車区画候補であるかどうかが判定される。
図6は、駐車支援システム110の一例、例えば図1の車両100の駐車支援110の概略ブロック図である。駐車支援システム110は、図5に対応して説明した方法に従って動作し得る。駐車支援システム110は、車両100の周囲の光学画像IMG(図3参照)、および車両100の周囲を表すデジタル周囲マップMAP(図2参照)であって、少なくとも1つの指定駐車エリアP1~P7(図2参照)を含むデジタル周囲マップMAPを受信するための受信ユニット111と、少なくとも1つの指定駐車エリアP1~P7の各々について、それぞれの指定駐車エリアP1~P7に対応する受信した光学画像IMGの関心領域ROI1~ROI7を選択するための選択ユニット112と、選択された各関心領域ROI1~ROI7において、地面に配されたラインPAT(図3参照)および/または記号SYM1~SYM3(図3参照)を検出するための検出ユニット113と、検出されたラインPATおよび/または記号SYM1~SYM3に基づいて、複数の駐車区画クラスCLS(図4参照)のうちの1つを選択された各関心領域ROI1~ROI7に割り当てるための割当ユニット114と、少なくとも1つの指定駐車エリアP1~P7の各々について、選択された関心領域ROI1~ROI7に対応するそれぞれの指定駐車エリアP1~P7が駐車区画候補であるかどうかを、対応する関心領域ROI1~ROI7に割り当てられた駐車区画クラスCLSに基づいて判定する判定ユニット115と、を備えている。
特に、検出ユニット113は、検出されたラインPATが複数の所定パターンのうちの1つと同様に配されているかどうかを検出するための決定論的および/または発見的判定ユニットを含み得る。さらに、検出ユニット113は、記号を複数のクラスのうちの1つに分類するようにトレーニングされた人工ニューラルネットワーク等の人口知能を含み得る。各クラスは、駐車区画クラスCLSに対応している。
図7は、車両100と外部ユニット310とを有するシステム300の一例を示す。車両100は、図1の車両100の特徴を有するとともに、さらに通信ユニット107を含んでいる。通信ユニット107は、移動無線モデムまたはセルラーモデムとして実現され得る。外部ユニット310は、スマートフォン等のモバイルデバイスとして実現されてもよいし、他の車両(図示せず)の通信ユニット、または固定デバイス(図示せず)であってもよい。
通信ユニット107は、割り当てられた駐車区画クラスCLSを外部ユニット310に送信するように構成されている。例えば、通信ユニット107は、外部ユニットに接続して、ピアツーピア接続を構成し得る、または、所定の周波数帯および/またはコード化を用いて割り当てられた駐車区画クラスCLSを送信し得る。そして、外部ユニット310は、所定の周波数帯をリスニングすることにより、割り当てられた駐車区画クラスCLSを受信し得る。
外部ユニットは、制御コマンド(図示せず)を車両100の通信ユニット107に送信するように構成され得る。制御ユニットは、駐車支援システムが判定した複数の駐車区画候補のうちの1つを選択することを含み得る。また、制御コマンドは、複数の駐車区画クラスCLSのうちの少なくとも1つについての判定情報であって、指定駐車エリアP1~P7(図2参照)が駐車区画候補であるかどうかの判定の際に駐車支援システム110が利用できる判定情報も含み得る。
本技術をいくつかの実用例について説明したが、本技術は、開示した実施例に限定されず、のみならず本技術の精神と範囲に含まれる様々な修正と同等の配置をカバーすることをも意図していることを理解されたい。
100 車両
105 処理ユニット
107 通信ユニット
110 駐車支援システム
111 受信ユニット
112 選択ユニット
113 検出ユニット
114 割当ユニット
115 判定ユニット
120 センサ
130 センサ
200 物体
210 境界ライン
300 システム
310 外部ユニット

CL センターライン
CLS 駐車区画クラス
IMG 画像
MAP 地図
P1 指定駐車エリア
P2 指定駐車エリア
P3 指定駐車エリア
P4 指定駐車エリア
P5 指定駐車エリア
P6 指定駐車エリア
P7 指定駐車エリア
PAT ライン
PL 駐車ライン
PRIO 優先順位
ROI1 関心領域
ROI2 関心領域
ROI3 関心領域
ROI4 関心領域
ROI5 関心領域
ROI6 関心領域
ROI7 関心領域
S1 方法ステップ
S2 方法ステップ
S3 方法ステップ
S4 方法ステップ
S5 方法ステップ
SL サイドライン
SYM1 記号
SYM2 記号
SYM3 記号

Claims (13)

  1. 車両(100)用の駐車支援システム(110)を動作させるための方法であって、
    a)前記車両(100)の周囲の光学画像(IMG)、および前記車両(100)の前記周囲を表すデジタル周囲マップ(MAP)を受信するステップ(S1)であって、前記デジタル周囲マップ(MAP)は、少なくとも1つの指定駐車エリア(P1~P7)を含むステップ(S1)と、
    b)少なくとも1つの前記指定駐車エリア(P1~P7)の各々について、それぞれの前記指定駐車エリア(P1~P7)に対応する関心領域(ROI1~ROI7)を、受信した前記光学画像(IMG)内で選択するステップ(S2)と、
    c)選択された各関心領域(ROI1~ROI7)において、地面に設けられたライン(PAT)および/または記号(SYM1~SYM3)を検出するステップ(S3)と、
    d)検出された前記ライン(PAT)および/または記号(SYM1~SYM3)に基づいて、複数の駐車区画クラス(CLS)のうちの1つを選択された各関心領域(ROI1~ROI7)に割り当てるステップ(S4)と、
    e)少なくとも1つの前記指定駐車エリア(P1~P7)の各々について、選択された前記関心領域(ROI1~ROI7)に対応するそれぞれの前記指定駐車エリア(P1~P7)が駐車区画候補であるかどうかを、対応する前記関心領域(ROI1~ROI7)に割り当てられた前記駐車区画クラス(CLS)に基づいて判定するステップ(S5)と、
    を備える方法。
  2. 判定したすべての前記駐車区画候補を照合するステップと、
    照合した前記駐車区画候補のうちの1つを選択するステップと、
    選択された前記駐車区画を、選択された前記駐車区画に駐車するように前記車両(100)を制御するための自律運転ユニットに提供するステップと、
    をさらに備える、請求項1に記載の方法。
  3. 複数の前記駐車区画クラス(CLS)のうちの少なくとも1つに関する判定情報を受信するステップをさらに含み、
    前記ステップe)は、追加的に前記判定情報に基づく、
    請求項1または2に記載の方法。
  4. 前記判定情報は、複数の前記駐車区画クラス(CLS)のうちの少なくとも1つに関する優先順位情報(PRIO)を含み、
    前記ステップe)は、
    前記優先順位(PRIO)を前記駐車区画候補の各々に割り当てるステップと、
    判定した前記駐車区画候補を、割り当てられた前記優先順位(PRIO)に従って順序付けるステップと、
    をさらに含む、請求項3に記載の方法。
  5. 前記ステップc)は、
    検出された前記ライン(PAT)が複数の所定パターンのうちの1つと同様に配されているかどうかを検出するステップであって、各所定パターンは、少なくとも1つの駐車区画クラス(CLS)に対応するステップ、
    をさらに含む、請求項1~4のいずれか一項に記載の方法。
  6. 前記所定パターンは、検出された前記ラインの絶対長および/若しくは絶対幅、検出されたラインおよび/若しくは検出された前記ラインのセクション間の長さ比、検出された前記ラインおよび/若しくは検出された前記ラインのセクションの幅比、検出された前記ラインおよび/若しくは検出された前記ラインのセクション間に形成された角度、検出された前記ラインおよび/若しくは検出された前記ラインのセクションの曲率、並びに/または、検出された前記ラインおよび/若しくは検出された前記ラインのセクション間の距離を含む、検出された前記ラインおよび/または検出された前記ラインのセクションの幾何学的特徴により定義される、
    請求項5に記載の方法。
  7. 複数の前記所定パターンのうちの各々は、前記幾何学的特徴のうちの少なくとも一部に対応する値または値間隔のセットを含む、
    請求項6に記載の方法。
  8. 前記ステップc)は、
    各関心領域(ROI1~ROI7)の検出された前記記号(SYM1~SYM3)を画像として抽出するステップと、
    画像を分類するようにトレーニングされた人工知能を用いて画像を分類するステップと、
    をさらに含む、請求項1~7のいずれか一項に記載の方法。
  9. 命令を備えるコンピュータプログラム製品であって、前記命令は、前記プログラムのコンピュータによる実行時に、前記コンピュータに請求項1~8のいずれか一項に記載の方法を実施させる、コンピュータプログラム製品。
  10. 車両(100)用の駐車支援システム(110)であって、
    前記車両(100)の周囲の光学画像(IMG)、および前記車両(100)の前記周囲を表すデジタル周囲マップ(MAP)を受信するための受信ユニット(111)であって、前記デジタル周囲マップ(MAP)は、少なくとも1つの指定駐車エリア(P1~P7)を含む受信ユニット(111)と、
    少なくとも1つの前記指定駐車エリア(P1~P7)の各々について、それぞれの前記指定駐車エリア(P1~P7)に対応する関心領域(ROI1~ROI7)を、受信した前記光学画像(IMG)内で選択する選択ユニット(112)と、
    選択された各関心領域(ROI1~ROI7)において、地面に設けられたライン(PAT)および/または記号(SYM1~SYM3)を検出する検出ユニット(113)と、
    検出された前記ライン(PAT)および/または記号(SYM1~SYM3)に基づいて、複数の駐車区画クラス(CLS)のうちの1つを選択された各関心領域(ROI1~ROI7)に割り当てる割当ユニット(114)と、
    少なくとも1つの前記指定駐車エリア(P1~P7)の各々について、選択された前記関心領域(ROI1~ROI7)に対応するそれぞれの前記指定駐車エリア(P1~P7)が駐車区画候補であるかどうかを、対応する前記関心領域(ROI1~ROI7)に割り当てられた前記駐車区画クラス(CLS)に基づいて判定する判定ユニット(115)と、
    を備える駐車支援システム(110)。
  11. 車両(100)であって、前記車両(100)の周囲の光学画像(IMG)を検出するための少なくとも1つのカメラ(120)と、検出された前記光学画像(IMG)に少なくとも部分的に基づいて前記車両(100)の前記周囲を表すデジタル周囲マップ(MAP)を提供するための処理ユニット(105)と、請求項10に記載の駐車支援システム(110)と、を備える車両(100)。
  12. 前記指定駐車エリア(P1~P7)に対応する割り当てられた前記駐車区画クラス(CLS)を外部ユニット(310)に送信するように構成された通信ユニット(107)をさらに備える、請求項11に記載の車両(100)。
  13. 請求項12に記載の少なくとも1つの車両(100)と、前記車両(100)の外部にある外部ユニット(310)と、を備えるシステム(300)において、前記外部ユニット(310)は、前記車両(100)から送信された割り当てられた前記駐車区画クラス(CLS)を受信するように構成されるとともに、前記指定駐車エリア(P1~P7)に対応する受信した前記駐車区画クラス(CLS)をさらなるデバイスに送信するように構成される、および/または、受信した割り当てられた前記駐車区画クラス(CLS)に応じて、制御コマンドを前記車両(100)の制御のために前記車両(100)に送信するように構成される、システム(300)。
JP2023527814A 2020-11-10 2021-10-19 駐車支援を動作させるための方法、コンピュータプログラム製品、駐車支援システム、車両、およびシステム Pending JP2023547723A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102020129520.0 2020-11-10
DE102020129520.0A DE102020129520A1 (de) 2020-11-10 2020-11-10 Verfahren zum betreiben eines parkassistenzsystems, computerprogramprodukt, parkassistenzsystem, fahrzeug und system
PCT/EP2021/078880 WO2022100967A1 (en) 2020-11-10 2021-10-19 Method for operating a parking assistance, computer program product, parking assistance system, vehicle and system

Publications (1)

Publication Number Publication Date
JP2023547723A true JP2023547723A (ja) 2023-11-13

Family

ID=78269648

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023527814A Pending JP2023547723A (ja) 2020-11-10 2021-10-19 駐車支援を動作させるための方法、コンピュータプログラム製品、駐車支援システム、車両、およびシステム

Country Status (7)

Country Link
US (1) US20230415728A1 (ja)
EP (1) EP4244822A1 (ja)
JP (1) JP2023547723A (ja)
KR (1) KR20230084293A (ja)
CN (1) CN116438582A (ja)
DE (1) DE102020129520A1 (ja)
WO (1) WO2022100967A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022213684A1 (de) 2022-12-15 2024-06-20 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Unterstützung eines Nutzers eines Fahrzeuges beim Einparken des Fahrzeugs, Computerprogramm, Rechenvorrichtung und Fahrzeug

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102267562B1 (ko) * 2015-04-16 2021-06-22 한국전자통신연구원 무인자동주차 기능 지원을 위한 장애물 및 주차구획 인식 장치 및 그 방법
DE102017107700A1 (de) 2017-04-10 2018-10-11 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erfassen von Parklücken in einem Umgebungsbereich eines Kraftfahrzeugs, Auswerteeinrichtung, Parkassistenzsystem, Kraftfahrzeug sowie vernetztes System
DE102017007823A1 (de) 2017-08-18 2018-04-19 Daimler Ag Verfahren zum Betrieb einer Fahrerassistenzvorrichtung
DE102018005761A1 (de) 2018-07-20 2020-01-23 Daimler Ag Verfahren zum Parken eines Fahrzeugs
DE102018119897A1 (de) 2018-08-16 2020-02-20 Valeo Schalter Und Sensoren Gmbh Verfahren zum Klassifizieren von Daten betreffend eine Parklücke für ein Kraftfahrzeug
KR20200044196A (ko) * 2018-10-10 2020-04-29 주식회사 만도 주차 제어 장치, 주차 제어 방법 및 주차 제어 시스템

Also Published As

Publication number Publication date
US20230415728A1 (en) 2023-12-28
CN116438582A (zh) 2023-07-14
KR20230084293A (ko) 2023-06-12
DE102020129520A1 (de) 2022-05-12
WO2022100967A1 (en) 2022-05-19
EP4244822A1 (en) 2023-09-20

Similar Documents

Publication Publication Date Title
US20230004157A1 (en) Mixed-mode driving of a vehicle having autonomous driving capabilities
US9959624B2 (en) Early detection of turning condition identification using perception technology
US20190064805A1 (en) Mixed-mode driving of a vehicle having autonomous driving capabilities
US20190064800A1 (en) Mixed-mode driving of a vehicle having autonomous driving capabilities
US20190064801A1 (en) Mixed-mode driving of a vehicle having autonomous driving capabilities
US20180068564A1 (en) Parking position identification method, parking position learning method, parking position identification system, parking position learning device, and non-transitory recording medium for recording program
US20190064803A1 (en) Mixed-mode driving of a vehicle having autonomous driving capabilities
CN108974009A (zh) 用于自动驾驶控制的方法、介质和系统
DE102017117296A1 (de) Fahrzeug-ride-sharing-system und verfahren unter verwendung von smarten modulen
CN114370883A (zh) 用于操纵车辆的方法和系统以及非暂时性计算机可读介质
US20170248441A1 (en) Assistance When Driving a Vehicle
DE112018001106T5 (de) Fahrassistenzverfahren, Fahrassistenzvorrichtung und dieses Verfahren verwendendes Fahrassistenzsystem
US11858532B2 (en) Gesture-based control for semi-autonomous vehicle
US10635917B1 (en) Method and device for detecting vehicle occupancy using passenger's keypoint detected through image analysis for humans' status recognition
CN110858452A (zh) 停车管理系统和方法
US20180373992A1 (en) System and methods for object filtering and uniform representation for autonomous systems
JP7140067B2 (ja) 車両制御装置、車両制御方法、及びプログラム
KR101832224B1 (ko) 주차 난이도를 기초로 운전자를 지원하는 장치 및 방법
US20190064802A1 (en) Mixed-mode driving of a vehicle having autonomous driving capabilities
WO2019046204A1 (en) MIXED-MODE DRIVING OF A VEHICLE HAVING AUTONOMOUS DRIVING CAPABILITIES
US20210146957A1 (en) Apparatus and method for controlling drive of autonomous vehicle
JP2023547723A (ja) 駐車支援を動作させるための方法、コンピュータプログラム製品、駐車支援システム、車両、およびシステム
JP6934840B2 (ja) 遠隔運転管理装置及びプログラム
JP6511841B2 (ja) プログラム、情報処理装置、及び、情報処理方法
CN112805762A (zh) 提高交通状况可视化的系统和方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230710