JP7213667B2 - 区画領域および移動経路の低次元の検出 - Google Patents

区画領域および移動経路の低次元の検出 Download PDF

Info

Publication number
JP7213667B2
JP7213667B2 JP2018222086A JP2018222086A JP7213667B2 JP 7213667 B2 JP7213667 B2 JP 7213667B2 JP 2018222086 A JP2018222086 A JP 2018222086A JP 2018222086 A JP2018222086 A JP 2018222086A JP 7213667 B2 JP7213667 B2 JP 7213667B2
Authority
JP
Japan
Prior art keywords
neural network
artificial neural
image
boundary
ann
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018222086A
Other languages
English (en)
Other versions
JP2019169124A (ja
Inventor
ブリュークナー,マーセル
レングスフェルト,アレクサンダー
レンツ,フィリップ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of JP2019169124A publication Critical patent/JP2019169124A/ja
Application granted granted Critical
Publication of JP7213667B2 publication Critical patent/JP7213667B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)

Description

本発明は、特に陸上車両、船または航空機において使用するための、画像にもとづく区画領域および移動経路の検出に関する。
運転者支援システム、または少なくとも部分的に自動化された運転のために頑健な周辺検知が非常に重要である。特に、他車両から、または塀やガードレールなどの定置のオブジェクトから区切られた走行可能平面を決定することが重要である。
近年、前述の周辺の特徴を頑健に認識できるようにするために、機械学習、特にディープラーニングの方法が使用されることが増えている。その際、測定データにもとづいて分類されることが多い。極端な事例は、個々のピクセルごとに関連するクラス(例えば、道路、自動車、建物)が決定される、カメラ画像のいわゆるセマンティックセグメンテーション(またはピクセルラベリング)である。非特許文献1はその一例を示す。
特許文献1はこれに代わる手法を開示する。ここでは一次元グラフが作成され、そのグラフ内の各ノードが画像内の列に対応する。特徴の認識にもとづいて、グラフ上にエネルギー関数が作成される。このエネルギー関数は、移動するオブジェクトの近傍の自由空間を決定するために最大にされる。
米国特許出願公開第2015/206015号明細書
E.Shelhamer、J.Long、T.Darrell、「Fully Convolutional Networks for Semantic Segmentation」、arXiv:1605/06211、2016年
本発明の範囲内で少なくとも1つの画像から区画領域および/または少なくとも1つのオブジェクトの移動経路を検出する装置が開発された。
区画領域は、衝突が回避されるべき特定のオブジェクトがないという意味で、例えば歩行可能または走行可能な領域であり得る。しかしこの概念は、例えば緑地帯または草地を車道から、建物のファサードを窓から、海を浜から、またはタラップを水から区切ることも含む。領域間の分離は、例えば実線で互いに分離されている2つの走行車線など、単にセマンティックな分離であってもよい。
移動経路は、一般に、オブジェクトが次々にとる場所の連続を示す。この連続がそれぞれの場所にオブジェクトが存在する時間もさらに含む場合、これを軌跡(trajektorie)という。
その際、歩行可能または走行可能な領域という概念は、画像を撮影したカメラが移動型であることに縛られない。カメラは据置型であってもよく、例えば大規模な催しのための駐車場または敷地の空き具合を監視することができる。
同様に移動経路が決定されるオブジェクトという概念は、カメラを搭載したオブジェクトに限定されない。例えば据え置きに取り付けられたカメラによって交通の流れを監視することができる。同様に移動型カメラを装備した車両は、自車両の移動経路とならんで他車両の、歩行者の、または他の任意のオブジェクトの移動経路を監視することもできる。
画像という概念は、特定の種類の画像撮影に縛られず、画像が光学画像であることにも縛られない。従って例えばカラー画像、グレースケール画像、および深度画像も同じように適している。画像は、例えば、単一のカメラ、ステレオカメラ、魚眼カメラ、あるいは、例えばStructure-from-Motion、LIDAR、またはTime-of-flightなどの別のコントラストメカニズムで検知されたものであってもよい。画像は、異なったカメラを用いて、異なった視角で、および/または異なったコントラストメカニズムを用いて検知された画像を融合して得られたものであってもよい。
調査される区画領域は必ずしも車両の前方になくてもよい。例えば右左折または車線変更時にミラーで見ることのできない「死角」の大きさを調査してもよい。
装置は、連続する複数の層からなる少なくとも1つのアーティフィシャル・ニューラル・ネットワークANNを備え、ANNの第1層は少なくとも1つの画像またはその画像の一部分を入力として受け取る。
ANNの第2層は、区画領域の境界線、移動経路の線形状、あるいは境界線または移動経路の一部を出力として提供するように形成されている。第2層の次元は、第1層の次元より小さい。
これに関連して、「第1層」および「第2層」という概念は、2つの層を互いに区別するためだけのものと解されるべきであり、例えば第1層がANNの入力に直接接する層であり、第2層がそのすぐ上に続く層であるということに限定されない。すなわち、ANNにおいて、「第1層」および「第2層」に複数の層が前置され、さらに複数の層が後に続くことも全くあり得る。
ANNの層の次元とは、特に、この層の入力または出力の次元と解されるべきである。
例えば、第1層の次元とは、入力される画像データの次元と解することができる。例えば、第2層の次元とは、境界線または移動経路のパラメータ化された表現が検出されるパラメータ空間の次元、または境界線もしくは移動経路が検出されるそれ以外の形態の次元と解することができる。
さらに、ANNは、境界線もしくは移動経路だけを提供することに制限されない。例えば、1つのANNにおける異なった「第2層」が複数の境界線または移動経路を一度に提供することもできる。ANNは、例えば一作業工程で境界線とならんで境界線に沿う様々なクラスのオブジェクトを提供することもできる。
例えば、ANNは、実線による車両の走行車線の領域、縁石までの領域、およびアスファルト舗装された領域を全部同時に提供することができる。その場合、異なった運転機能がそれぞれ適した領域を用いることができる。従って例えばリムガード機能が縁石の手前でブレーキをかける一方で、歩行者保護は、緊急の場合に縁石または実線を越えて進むことも要求する。
有利な一実施形態において、ANNの各層が提供する出力は、最大でもANNのその層が受け取る入力と全く同じ大きさの次元を有する。その場合、いかなるアップサンプリングもANNにおいて行われない。これは、演算集約的である。しかし、その間のアップサンプリングのために払われる犠牲が正当化される用途もあるかもしれない。
セマンティックセグメンテーションは、例えば運転タスクを実行するために必要とされるよりもはるかに多くの情報を含むことがわかった。例えばアウトバーンが建築上の境界(Begrenzung)によって囲まれる場合、この乗り越えられない境界の向こう側にどのようなタイプのオブジェクトがあるのかはもはや重要でない。それゆえ、境界の向こう側の領域に関連するピクセルを細かく分類する手間を完全に節減することができる。
それがかなりの節減であることは数字の例により明らかになる。典型的な大量生産のカメラは、1280×720ピクセルの画像を毎秒30枚撮影する。このピクセルを10個のオブジェクトクラスにセグメント化するために、ピクセルが当該クラスのオブジェクトに所属する10個の確率の1つのセットをピクセルごとにいつでも算出しなければならない。したがって、確率は全体で毎秒2億7千6百万個を超える。これに対して、例えば64個のポリゴンサンプル点(Polygonstuetzstelle)によってパラメータ化されている歩行可能または走行可能な領域の境界線だけを探す場合、このために毎秒最大で64*30*10=19,200個の値を算出するだけでよく、すなわち10,000倍以上少なくなる。境界線において、まさにそこでどのオブジェクトタイプがそれぞれ歩行可能または走行可能な領域を区切るのかが問われない場合にはさらに節減することが可能である。
この例では、入力される画像ピクセル(1280×720)の数を第1層の次元と解することができ、ポリゴンサンプル点の数(64)を第2層の次元と解することができる。すなわち第2層の次元は第1層の次元より10,000倍以上小さくなる。
さらに、ANNによって全部をセマンティックセグメンテーションする場合、入力された画像の次元をまず連続的に減らすが、最後にアップサンプリングによって再び元の大きさに増やさなければならないことによって著しい追加の手間が発生することがわかった。この手間は完全に節減することができる。さらに、これに伴ってANNが必要とする記憶装置がはるかに少なくなる。
演算装置および記憶装置の負担を軽減することにより、装置のハードウェア実装はエネルギー消費量のより少ないよりコンパクトなハードウェアで済む。特に少なくとも部分的に自動化された運転の場合、このことは開発段階から大量生産の実用化への移行のための重要な要件である。
したがって、入力として全部の画像が使用されるにもかかわらず手間を克服することが可能である。すなわち複雑さを減じるために、画像をいくつかの部分に細分してこれらの部分を別々に処理する必要はない。これは、例えば車両が道路上を走行する、および空がカメラ画像の上部分にあるというシーンコンテキスト全体をその都度ともに学習することができるANNのトレーニングプロセスにとって有利である。

さらには、解決されるべき問題がはるかにコンパクトに表現され、すなわちはじめから運転、もしくは運転を補助する支援システムに実際に必要とされる情報しか問い合わせられないので、ANN自体もはじめからはるかに小さく設計することができる。
特に車両において使用される場合、区画領域、もしくは移動経路を(パラメータ化された)線としてコンパクトに表示することには、車両内の他のシステムに伝送される場合に帯域幅をあまり必要としないという別の利点もある。ケーブルハーネスの材料および重量を節減するために、車両システム間の通信には、例えばCANバスなどのバスシステムが定着している。つまり、材料および重量の節約は、多くのシステムが同一の媒体を共有することによって実現する。高解像度で、全部がセマンティックセグメンテーションされた画像の伝送は、そのような環境において帯域幅を比較的多く消費し、それによって他のシステムはその伝送の順番が回ってくるまで待機しなければならないかもしれない。
境界線または移動経路への画像の変換は、装置で直接、すなわちデータの特殊な、かつ場合によっては不透明な(intransparent)前処理または後処理なしに行われる。逆にこのことはトレーニング画像またはトレーニング画像シーケンスの透明な(transparent)、境界線もしくは移動経路の「サンプルソリューション(Musterloesungen)」での手間のはるかに少ないラベル付けを可能にする。トレーニング画像において、実動作においてANNがピクセルを分類することになっているクラスの各ピクセルにラベルを付ける代わりに、例えば、実動作においてANNが有意義な仕方で検出することになっている境界線もしくは移動経路をトレーニング画像にプロットすることで十分である。
したがってANNのトレーニングが大幅に簡略化および加速される。これにより事前にトレーニングされたANNを使用するのではなくトレーニングを完全に自分で行うことがアプリケーションの製造者にとってより実用的となる。すなわち、アプリケーションの製造者は、ANNをハードウェアの形で追加購入し、そこに保存されたトレーニング成果を取得するための別個のライセンス条件に縛られることなく自由に利用することができる。
少なくとも2つのANNが設けられていることが有利である。その際、第1ANNは、区画領域とこの領域を区切る第1オブジェクトタイプとの間の境界線を決定するように形成されている。第2ANNは、区画領域とこの領域を区切るオブジェクトタイプとの間の境界線を決定するように形成されている。
その場合、2つのANNは、互いに独立してそれぞれオブジェクトタイプを認識することを専門に扱うようにトレーニングされてもよい。このトレーニングの過程で、1つのオブジェクトタイプを認識するときの学習の進捗が別のオブジェクトタイプの認識を犠牲にしないことが保証されている。
特に、ANNは互いに独立して、いくつかのオブジェクトタイプの認識と結びついた異なった要求に適応することができる。従って例えば車道境界は静的であり、すなわち車道境界がその外観を自発的に変化させることはない。これに対して先行車両は、右左折または車線変更する場合、同車両がカメラによって検知されるときの透視図(Perspektive)を自発的に変え得る。さらに、先行車両は、例えば、その運転者がウインカまたは他のライトを操作するか、または走行中にオープンカーの幌が開いた場合にその外観を変え得る。
さらに、複数のANNが存在する場合、区画領域のオブジェクトタイプが細かく区切られる分類を境界線と一緒に特に簡単に検出することができる。例えば、少なくとも部分的に自動化された運転を計画するためには、オブジェクトが定置のオブジェクトであるのか、別の車両であるのかが重要である。定置のオブジェクトとの衝突の回避は、自車両の挙動にのみ依存する一方で、別の車両の場合、この車両が、例えば自発的に加速する、制動する、または車線変更し得ることを予め考慮に入れなければならない。さらに、衝突がもはや回避できない場合、制御介入により「適当なオブジェクト」に衝突するよう方向転換されることによって事故の結果が軽減される。従って例えば、このために設計された車両の前部が変形エネルギーを吸収する中実のコンクリート塀に衝突することは、セミトレーラの下に食い込んで変形エネルギーが車室に集中することに比べて結果がそれほど重大でない。さらに、例えば変形エネルギーを可能な限り大きい面積に分散させるために、自車両と衝突対象物との接触面が可能な限り大きくなるようにすることによって事故の結果を軽減することができる。これに関して、少なくとも部分的に自動化された運転が許可される場合に、特に歩行者または自転車運転者などの「柔らかい」道路使用者を保護するための規制基準値があることを出発点とする。
したがって、装置は一般に、2つ以上のANNが存在するかどうかに関係なく、区画領域の検出された境界線に沿ういくつかの位置で、そこにある区画領域が特定のオブジェクトタイプによって区切られる確率をその都度検出するように形成されていることが特に有利である。
別の特に有利な実施形態において、第1ANNおよび第2ANNの出力が少なくとも1つのアグリゲータに送られる。アグリゲータは、2つのANNにより提供された境界線の重なりの包絡線を、区画領域の唯一の、または付加的境界線として検出するように形成されている。
このようなアグリゲータは、例えば、異なる問題に対応するために複数のANNの出力を柔軟に組み合わせることを可能にする。その際、ANNの同一の出力をなんども利用することができる。従って例えば、運転のアクティブ制御に関係があるのは車道境界およびガードレールとならんで特に他の車両であろう。これに対して、例えば積載車のための進入口の通行高さが十分であるか否かを計画するために、他車両をフェードアウトし、その代わりに通行高さを制限するオブジェクトに関する情報をより多く考慮することが有意義である。
一般に、包絡線を用いるアグリゲーション(Aggregation)が比較的複雑な境界線の決定を、個々のANNによって実行することができるはるかに簡単な部分タスクに分割することを可能にする。
ANNが1つだけの場合、これを本質的に(inhaerent)、ANNで同時に検出された複数の境界線のアグリゲータとして用いることができる。
境界線と移動経路とを柔軟に組み合わせることができることにより多数の応用が可能になり、その際、基礎をなすANNを変化させたり、新たにトレーニングしたりする必要はない。例えばオブジェクトの高さを特定することができるか、または輪郭を描くべく(「Bounding Boxes」)オブジェクトを抽出することができる。追い越し過程のための意図的な移動経路または軌跡について、他の道路使用者の予測される挙動に照らしてその過程が安全であるか否かを検査することができる。
オブジェクトの個々のインスタンスを特定すること、および複数の画像のシーケンスにまたがって追跡することができ、その際、例えばオブジェクトごとに、区画領域の境界線に沿ってそれぞれのオブジェクトのインスタンスの中心点に対するピクセルの(符号付き)距離が回帰によって決定される。オブジェクトのインスタンスを再び認識することで、例えば自車両の周辺にある特定の他車両を追跡し、これが突然見えなくなった場合には能動的に「死角」内を探す注意深い人間の運転者の例えば挙動を模倣することができる。
ANNは、境界線、移動経路、またはパラメータ化された関数で線を描くための、および/またはベクタグラフィックスで線を描くためのパラメータセットとしての相応の部分を提供するように形成されていることが特に有利である。パラメータ化された関数は、任意の定常関数であってもよいし、非定常関数であってもよい。特にポリゴン輪郭線、連続直線、多項式、クロソイド、またはこれらの組合せが適当である。これらの関数により、比較的複雑な線の形状もわずかなパラメータにまとめることができる。
ANNが、画像の各列、または画像の列から選択されたものに、この列内にある、区画領域の境界線が延びる少なくとも1つの位置を割り当てるように形成されていることが有利である。その場合、境界線の決定は分類タスクから回帰タスクに戻される。
同様に、移動経路も回帰によって決定することができる。このためにANNは、画像の各行、または画像の行から選択されたものに、この行内にある、移動経路が延びる少なくとも1つの位置を割り当てるように形成されていることが有利である。
画像の列もしくは行から選択することにより、探される境界線もしくは探される移動経路のサンプル点の数が減り、したがって精度を犠牲にして演算する手間が減る。
別の有利な一実施形態において、ANNは、画像を横切る少なくとも1つの路線(Strecke)において、区画領域の境界線の最初の出現を検出するように形成されている。まさに運転タスクを克服するときに関係があるのは、意図した走行方向ですぐ近くにある境界線のみである。例えばカメラが進行方向を向き、前進走行の場合、画像の下エッジから最初に認識される境界線が該当する。これに対して、右左折または車線変更を意図する場合、境界線の最初の出現について画像が調査される方向を変更することが有意義であろう。
装置は、例えば、車両または他のオブジェクトの移動を監視および/または制御するための支援システムにおいて用いることができる。その場合、車両は、特にその移動経路が装置によって監視されるオブジェクトであり得る。車両は、陸上車両、船または航空機であってもよい。支援システムは、マニュアル運転を補助するため、および少なくとも部分的に自動化された運転のために用いることができる。
有利な一実施形態において、装置により検出された移動経路が許容範囲内に延びているか否かを監視するように形成されている比較ユニットが支援システム内に設けられている。これに加えて、比較ユニットは、許容範囲を超えた場合に聴覚的、視覚的、または触覚的警告装置を制御するように形成されている。
そのような支援システムは、例えば、運転者が所定の車線を維持しているか否かを監視する車線維持支援であってもよい。例えば運転者の注意がそれたか、またはひどく疲れて車線をたどることができず、これが装置によって認識されると警告装置が比較ユニットによって制御される。これに代えて、または組み合わせて、比較ユニットにより、少なくとも1つのアクチュエータを制御することによっても車両の方位(Steuerkurs)に介入することができる。この介入は車両の今後の移動経路を許容範囲に戻す。
許容範囲は、例えば、少なくとも部分的に、装置により検出される区画領域の境界線によって設定されていてもよい。それと同時に、特に、例えば車道マーキングも考慮されてもよい。これに関連して、上述のように異なったオブジェクトタイプの境界線を認識するために異なったANNが用いられるならば有利である。
車両の方位および/または速度を検知するために少なくとも1つのセンサおよび/または少なくとも1つのインターフェースが設けられていることが有利である。方位は、例えば、操舵角または舵角を介して検知することができる。
その場合、例えば、方位の変更に対して車両の移動経路が予想どおりに反応するか否かを認識することができる。そうでない場合、これは、例えば車両がコースから外れる前触れと評価することができ、修正のためにESPシステムを相応に制御することができ、それによって個々の車輪を的確に制動することができる。
特に有利な一実施形態において、装置により検出された、検知された方位からの移動経路の逸脱が制御偏差としての役割をする制御ループが設けられている。その際、制御ループは、少なくとも1つのアクチュエータおよび/または少なくとも1つの視覚的、聴覚的、または触覚的表示装置を制御することによって制御偏差を解消するように形成されている。
例えば、強い横風によって、車両が車線を維持するようにするために、逆方向に操舵することが必要になり得る。次に、車両が、例えば橋に向かって走行するか、または車両が追い越しの際にトラックのスリップストリームから飛び出す場合、襲ってくる風の力が突然変化し、対抗措置が必要になり得る。支援システムを用いた対抗措置の自動化によって、運転者が驚いて、例えば過剰に反応してハンドルを切り損ねることを阻止できる。
別の有利な実施形態において、装置により検出された境界線に達するまでの残り走行距離および/または残り時間を目標値に調節する、および/または最低レベルより高く維持するように形成されている制御ループが設けられている。すなわち、例えばアダプティブ・クルーズ・コントロール(adaptive Abstandsregelung)の範囲で、距離(Strecke)または時間(例えば2秒ルール)として規定された先行者との最小距離を遵守することができる。制御介入は、少なくとも1つのアクチュエータを制御することによって行われてもよいし、これに代えて、または組み合わせて、運転者に反応を促すために少なくとも1つの視覚的、聴覚的、または触覚的表示装置を制御することによって行われてもよい。
ANNは、特に全部または一部がソフトウェアに実装されていてもよい。ANNは例えば構成可能なハードウェアの形態であってもよく、ソフトウェアによって徐々に減少して再び増加しない次元を有する層構造がハードウェアに実現される。特に既存の装置もソフトウェアによって相応に再構成することができる。その限りで相応しいソフトウェアは単独で商品化できる製品である。それゆえ、本発明は、さらにコンピュータおよび/または制御装置で実行される場合にコンピュータおよび/または制御装置を本発明に係る装置に格上げし、ならびに/あるいは比較ユニットおよび/または制御ループの機能を本発明に係る支援システムで実行させる機械可読命令を含むコンピュータプログラムに関する。同様に、本発明は、さらに、コンピュータプログラムを有する機械可読データ記憶媒体またはダウンロード製品に関する。
境界線20(図1a)を決定する装置1の実施例である。 ANN5、5a、5b(図1b)の内部構造の模式図である。 自車両の移動経路3を決定する装置1の実施例である。 列ごとの回帰による境界線20~22の検出である。 行ごとの回帰による移動経路3の検出である。 支援システム100の例であり、移動経路3の監視である。 境界線20~22、25までの走行距離または時間の監視である。
以下、本発明を改善する他の措置を本発明の好ましい実施例の記載とともに図をもとにして詳しく説明する。
図1aによると、車両に取り付けられたカメラにより進行方向に撮影された画像4は、多数のオブジェクト1001a~1009を含む風景1000を示す。左側の建築上の車道境界1003と右側の建築上の車道境界1004とにより区切られている車道1002を多数の車両1001a~1001fが前方に走行している。これに加えて、森林地帯1005、交通標識橋1006、送電鉄塔1007a~1007d、街灯1008、そしてさらに空1009も見てとれる。自車両の前方にある車道1002の自由領域が走行可能領域2である。
画像4全体が2つのANN5a、5bに同時に送り込まれる。第1ANN5aは、画像4の下エッジから参照符号28で示されたオブジェクトタイプ・車道境界のオブジェクトによって定められた走行可能領域2の境界線21を検出することを専門に扱う。第2ANN5bは、画像4の下エッジから参照符号29で示されたオブジェクトタイプ・他車両のオブジェクトによって定められた走行可能領域2の境界線22を検出することを専門に扱う。
両方の境界線21および22がアグリゲータ6に送り込まれる。このアグリゲータは、2つの境界線21、22の重なりを決定し、ここから包絡線25を決定する。この包絡線25は、装置1によって全部あわせて最終結果として提供される走行可能領域2の境界線20である。
境界線20は、画像4から一作業工程で直接検出することもできる。その場合、例えば境界線20に沿う位置20aおよび20bにおいて、そこではそれぞれどのオブジェクトタイプが境界形状の基準となるのかを分類することができる。図1に示された例において、地点20aでは、そこにある境界線20がオブジェクトタイプ・車道境界28によって形成される確率が高いことが確認される。これに対して、地点2bでは、オブジェクトタイプ・他車両29である確率が圧倒的に高いが、オブジェクトタイプ・車道境界28の確率も重要である。
図1bは、ANN5、5a、5bの内部構造を模式的に示す。ANN5、5a、5bは、ここでは例示的に、図1bにおいて選択された透視図で上から下へ連続する7つの層51~57からなる。第1層51は、画像4を入力として受け取る。最後の層57は、走行可能領域2の境界線20~22を出力として提供する。層51~57の次元は、図1bにおいてそれぞれ層51~57を象徴する直方体の正方形の底面によって示されている。
次元は第1層51から層56までまずはゆっくりと、そしてその後どんどん急速に小さくなり、その後、次元は最後の層57へ移ると一定のレベルを維持する。それに対応して、この最後の層57によって提供される出力も非常に低次元である。これと比較して、画像4全体のセマンティックセグメンテーションの場合には、入力された画像4の元の次元へのアップサンプリングが層57に続くことが必要であっただろう。このために必要なかなりの手間が節減される。
図2は、ANN5を有する自車両の移動経路3を決定する装置1の一実施例を示す。このANN5は、同一の画像4をもとにして走行可能領域2の境界線20と自車両の移動経路3とを決定するために、例えば、図1のANN5a、5bと組み合わせることができる。
図2において、特に移動経路3を明確に示すために、図1に示されたものとは違う風景1010が選択されている。左側の車道マーキング1011と右側の車道マーキング1012とは走行車線1013を区切る。さらに、左側の車道マーキング1011は対向車線1014から走行車線1013を区切る。これに加えて、道路1011~1014上にかかる橋1015と森林地帯1016、そしてさらに空1017も見て取れる。
画像4は、入力としてANN5に送り込まれる。ANN5は、ここから移動経路3を検出する。
図3aは、列ごとの回帰による境界線20~22の検出を模式的に示す。その際、画像4の各列41には、列41内にある、求められる境界線20~22が延びている少なくとも1つの位置42が割り当てられる。わかりやすくするために、図3aには参照符号41を有する3つの列と参照符号42を有する3つの位置しか示されていない。検出された位置42は、例えば境界線20~22を最終的に表現するパラメータ化された関数のフィッティングのためのサンプル点として用いることができる。
図3bは、行ごとの回帰による移動経路3の検出を模式的に示す。その際、画像4の各行43には、行43内にある、求められる移動経路3が延びている少なくとも1つの位置44が割り当てられる。わかりやすくするために、図3bには参照符号43を有する3つの行と参照符号44を有する3つの位置しか示されていない。図3aと同様に、位置44は、移動経路3を最終的に表現するパラメータ化された関数のフィッティングのためのサンプル点として用いることができる。
図4aは、移動経路3を監視するために用いられる支援システム100の一実施例を示す。ここでは比較ユニット110が、装置1により検出された移動経路3が許容範囲105内にあるか否かを検査する。許容範囲105は、例えば少なくとも部分的に装置1により検出された境界線20~22、25によって設定されていてもよい。例えば、許容範囲105は、図2に描かれた車道マーキング1011および1012によって決定されてもよい。
許容範囲105を超えた場合、場合によっては注意がそれたか、またはひどく疲れている運転者の注意を呼び起こすために、聴覚的、視覚的、または触覚的な警告装置120が制御される。
装置1により検出された移動経路3は、代替的に、または制御ループ160と組み合わせて送り込まれる。制御ループは、センサ130および/またはインターフェース140により車両の方位151に関する情報を受け取る。方位151からの移動経路3の逸脱は制御偏差161として評価される。アクチュエータ170および/または他の聴覚的、視覚的、または触覚的な警告装置175の調整介入(Stelleingriff)としての制御165によって、この制御偏差161が解消される。制御偏差161の考えられるいくつかの原因は、車両のコースからの逸脱、横すべり、ハイドロプレーニング、および強い横風である。アクチュエータは、例えば操舵、個々の車輪にブレーキをかけるESP、および/またはクラッチに作用を及ぼすことができる。
図4bは、支援システム100の別の実施例を示す。この実施例は、装置1により検出された境界線20~22、25に達するまでの残り走行距離181、および/または残り時間182を監視および制御するように形成されている。
この目的で、支援システム100の制御ループ180に境界線20~22、25および移動経路3が送り込まれる。制御ループ180の評価ユニット180aにおいて、境界線20~22、25および移動経路3から、境界線20~22、25に達するまでの残り走行距離181および/または残り時間182が検出される。残り走行距離181および/または残り時間182は、これに関する目標値183および/またはこれに関する最低レベル184と比較される。図4aと同様に、対応する不足(Defizite)を補償するために、制御ループ180の調整介入としてアクチュエータ170および/または視覚的、聴覚的、または触覚的な警告装置175の制御185が行われる。
1 装置
2 区画領域
3 移動経路
4 画像
5、5a、5b アーティフィシャル・ニューラル・ネットワークANN
6 アグリゲータ
20~22 境界線
20a、20b 位置
25 包絡線
28 第1オブジェクトタイプ
29 第2オブジェクトタイプ
41 列
42、44 位置
43 行
51 第1層
57 第2層
100 支援システム
105 許容範囲
110 比較ユニット
120 警告装置
130 センサ
140 インターフェース
151 方位
152 速度
160、180 制御ループ
161 制御偏差
165 制御
170 アクチュエータ
175 表示装置
181 残り走行距離
182 残り時間
183 目標値
184 最低レベル
185 制御

Claims (14)

  1. 連続する複数の層(51~57)からなる少なくとも1つのアーティフィシャル・ニューラル・ネットワークANN(5、5a、5b)を備える、少なくとも1つの画像(4)から、区画領域(2)および/または少なくとも1つのオブジェクトの移動経路(3)を検出する装置(1)であって、前記アーティフィシャル・ニューラル・ネットワークANN(5、5a、5b)の第1層(51)が前記少なくとも1つの画像(4)または前記少なくとも1つの画像(4)の一部分を入力として受け取る、装置において、
    前記アーティフィシャル・ニューラル・ネットワークANN(5、5a、5b)の第2層(57)は、前記区画領域(2)の境界線(20~22)、前記移動経路(3)の線形状、あるいは前記境界線(20~22)または前記移動経路(3)の一部を出力として提供するように形成されており、前記第2層(57)の次元が前記第1層(51)の次元より小さく、
    前記アーティフィシャル・ニューラル・ネットワークANN(5、5a、5b)は、前記画像の各行(43)、または前記画像(4)の行から選択された行(43)に、該行(43)内の、前記移動経路(3)が延びる少なくとも1つの位置(44)を割り当てるように形成されていることを特徴とする、
    装置。
  2. 少なくとも、
    前記区画領域(2)と該区画領域(2)を区切る第1オブジェクトタイプ(28)との間の境界線(21)を決定するように形成された第1アーティフィシャル・ニューラル・ネットワークANN(5a)と、
    前記区画領域(2)と該区画領域(2)を区切る第2オブジェクトタイプ(29)との間の境界線(22)を決定するように形成された第2アーティフィシャル・ニューラル・ネットワークANN(5b)と、
    が設けられていることを特徴とする、請求項1に記載の装置(1)。
  3. 前記第1アーティフィシャル・ニューラル・ネットワークANN(5a)および前記第2アーティフィシャル・ニューラル・ネットワークANN(5b)の出力が少なくとも1つのアグリゲータ(6)に送られ、前記アグリゲータ(6)は、前記第1アーティフィシャル・ニューラル・ネットワークANN(5a)および前記第2アーティフィシャル・ニューラル・ネットワークANN(5b)により提供された境界線(21、22)の重畳の包絡線(25)を前記区画領域(2)の唯一の、または付加的境界線(20)として検出するように形成されていることを特徴とする、請求項2に記載の装置(1)。
  4. 前記アーティフィシャル・ニューラル・ネットワークANN(5、5a、5b)は、パラメータ化された関数で線を描くための、および/またはベクタグラフィックスで線を描くためのパラメータセットとしての前記境界線(20~22)、前記移動経路(3)、または相応の部分を提供するように形成されていることを特徴とする、請求項1~3のいずれか項に記載の装置(1)。
  5. 前記アーティフィシャル・ニューラル・ネットワークANN(5、5a、5b)は、前記画像(4)の各列(41)に、または前記画像(4)の列から選択された列(41)に、該列(41)内の、前記区画領域(2)の境界線(20~22)が延びる少なくとも1つの位置(42)を割り当てるように形成されていることを特徴とする、請求項1~4のいずれか項に記載の装置(1)。
  6. 前記アーティフィシャル・ニューラル・ネットワークANN(5、5a、5b)は、前記画像(4)を横切る少なくとも1つの路線における、前記区画領域(2)の境界線(20~22)の最初の出現を検出するように形成されていることを特徴とする、請求項1~のいずれか項に記載の装置(1)。
  7. 前記装置(1)は、さらに、前記区画領域()の検出された境界線(20)に沿ういくつかの位置(20a、20b)で、それぞれ、そこにある前記区画領域(2)が特定のオブジェクトタイプ(28、29)によって区切られる確率を検出するように形成されていることを特徴とする、請求項1~のいずれか項に記載の装置(1)。
  8. 少なくとも1つの車両またはオブジェクトの移動を監視および/または制御する支援システム(100)であって、請求項1~のいずれか項に記載の装置(1)を備える、支援システム。
  9. 前記装置(1)により検出された移動経路(3)が許容範囲(105)内に延びているか否かを監視するように、かつ前記許容範囲(105)を超えた場合に聴覚的、視覚的、または触覚的警告装置(120)を制御するように形成されている比較ユニット(110)が設けられていることを特徴とする、請求項8に記載の支援システム(100)。
  10. 前記許容範囲(105)は、少なくとも部分的に、前記装置(1)により検出された前記区画領域(2)の境界線(20~22、25)によって設定されていることを特徴とする、請求項に記載の支援システム(100)。
  11. 前記車両の方位(151)および/または速度(152)を検知するための少なくとも1つのセンサ(130)および/または少なくとも1つのインターフェース(140)が設けられていることを特徴とする、請求項のいずれか項に記載の支援システム(100)。
  12. 前記装置(1)により検出された、前記検知された方位(151)からの前記移動経路(3)の逸脱が制御偏差(161)としての役割をする制御ループ(160)が設けられており、前記制御ループ(160)は、少なくとも1つのアクチュエータ(170)および/または少なくとも1つの視覚的、聴覚的、または触覚的表示装置(175)を制御する(165)ことによって前記制御偏差(161)を解消するように形成されていることを特徴とする、請求項11に記載の支援システム(100)。
  13. 前記装置(1)により検出された前記境界線(20~22)に達するまでの残り走行距離(181)および/または残り時間(182)を、少なくとも1つのアクチュエータ(170)および/または少なくとも1つの視覚的、聴覚的、または触覚的表示装置(175)を制御すること(185)によって目標値(183)に調節する、および/または最低レベル(184)より高く維持するように形成されている制御ループ(180)が設けられていることを特徴とする、請求項12のいずれか項に記載の支援システム(100)。
  14. コンピュータプログラムであって、機械可読命令が、コンピュータおよび/または制御装置で実行される場合に前記コンピュータおよび/または前記制御装置を請求項1~8のいずれか項に記載の装置(1)に格上げし、および/または比較ユニット(110)および/または制御ループ(160、180)の機能を請求項13のいずれか項に記載の支援システム(100)で実行させる前記機械可読命令を含む、コンピュータプログラム。
JP2018222086A 2017-12-19 2018-11-28 区画領域および移動経路の低次元の検出 Active JP7213667B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102017223206.4A DE102017223206A1 (de) 2017-12-19 2017-12-19 Niederdimensionale Ermittlung von abgegrenzten Bereichen und Bewegungspfaden
DE102017223206.4 2017-12-19

Publications (2)

Publication Number Publication Date
JP2019169124A JP2019169124A (ja) 2019-10-03
JP7213667B2 true JP7213667B2 (ja) 2023-01-27

Family

ID=66674560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018222086A Active JP7213667B2 (ja) 2017-12-19 2018-11-28 区画領域および移動経路の低次元の検出

Country Status (4)

Country Link
US (1) US11263465B2 (ja)
JP (1) JP7213667B2 (ja)
CN (1) CN110015293A (ja)
DE (1) DE102017223206A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019118366A1 (de) * 2019-07-08 2021-01-14 Zf Friedrichshafen Ag Verfahren sowie Steuergerät für ein System zum Steuern eines Kraftfahrzeugs
DE102020206990A1 (de) 2020-06-04 2021-12-09 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung zur Verarbeitung von Sensordaten und Trainingsverfahren
DE102021101188A1 (de) 2021-01-21 2022-07-21 Valeo Schalter Und Sensoren Gmbh Fahrunterstützungssystem mit verbesserter Gegensteuerung gegen eine auf das Fahrzeug wirkende Luftströmung
DE102021202933A1 (de) 2021-03-25 2022-09-29 Robert Bosch Gesellschaft mit beschränkter Haftung Verfolgung mehrerer Objekte in Zusammenarbeit mehrerer neuronaler Netzwerke
DE102021202934A1 (de) 2021-03-25 2022-09-29 Robert Bosch Gesellschaft mit beschränkter Haftung Verfolgung mehrerer Objekte mit neuronalen Netzwerken, lokalen Speichern und einem gemeinsamen Speicher
DE102021208830A1 (de) 2021-08-12 2023-02-16 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Prädiktion einer Ego-Fahrspur für ein Fahrzeug
DE102022212709A1 (de) 2022-11-28 2024-05-29 Robert Bosch Gesellschaft mit beschränkter Haftung Korridorbasierte Fahrzeugsteuerung

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005004413A (ja) 2003-06-11 2005-01-06 Nissan Motor Co Ltd 車両用運転支援装置
JP2008189055A (ja) 2007-02-01 2008-08-21 Toyota Motor Corp 追従制御装置
US20170118907A1 (en) 2015-11-03 2017-05-04 Nuhn Industries Ltd. Automated manure agitation and transfer
US20170336794A1 (en) 2015-02-10 2017-11-23 Mobileye Vision Technologies Ltd. Navigating in snow

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8209120B2 (en) * 1997-10-22 2012-06-26 American Vehicular Sciences Llc Vehicular map database management techniques
DE19802261A1 (de) * 1998-01-22 1999-07-29 Daimler Chrysler Ag Verfahren zur Signalverarbeitung von Zeitfolgen digitalisierter Bilder
DE19942223C2 (de) * 1999-09-03 2003-03-13 Daimler Chrysler Ag Klassifikationsverfahren mit Rückweisungsklasse
DE102005037273A1 (de) * 2005-08-08 2007-02-15 Robert Bosch Gmbh Spurassistenzsystem für Fahrzeuge
DE102007015227B4 (de) * 2007-03-29 2010-01-14 Continental Automotive Gmbh Verfahren und Anordnung zur näherungsweisen Bestimmung einer von einem Fahrzeug aktuell befahrenen Fahrspur
DE102012023563A1 (de) * 2012-12-01 2014-06-05 Man Truck & Bus Ag Fahrerassistenzsystem zur Unterstützung eines Fahrzeugführers beim Betrieb eines Fahrzeugs, insbesondere eines Kraft- und/oder Nutzfahrzeugs
US9305219B2 (en) 2014-01-23 2016-04-05 Mitsubishi Electric Research Laboratories, Inc. Method for estimating free space using a camera system
EP4187523A1 (en) * 2014-05-14 2023-05-31 Mobileye Vision Technologies Ltd. Systems and methods for curb detection and pedestrian hazard assessment
DE102014212478A1 (de) * 2014-06-27 2015-12-31 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeugs
DE102015202099A1 (de) * 2015-02-06 2016-08-11 Bayerische Motoren Werke Aktiengesellschaft Verarbeiten von Sensordaten für ein Fahrerassistenzsystem
US9829888B2 (en) * 2015-11-17 2017-11-28 Ford Global Technologies, Llc Distinguishing lane markings for a vehicle to follow
US20170206426A1 (en) * 2016-01-15 2017-07-20 Ford Global Technologies, Llc Pedestrian Detection With Saliency Maps
US9802599B2 (en) * 2016-03-08 2017-10-31 Ford Global Technologies, Llc Vehicle lane placement
CN107092862A (zh) * 2017-03-16 2017-08-25 浙江零跑科技有限公司 一种基于卷积神经网络的车道边缘检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005004413A (ja) 2003-06-11 2005-01-06 Nissan Motor Co Ltd 車両用運転支援装置
JP2008189055A (ja) 2007-02-01 2008-08-21 Toyota Motor Corp 追従制御装置
US20170336794A1 (en) 2015-02-10 2017-11-23 Mobileye Vision Technologies Ltd. Navigating in snow
US20170118907A1 (en) 2015-11-03 2017-05-04 Nuhn Industries Ltd. Automated manure agitation and transfer

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Dan Levi et al.,StixelNet: A Deep Convolutional Network for Obstacle Detection and Road Segmentation,British Machine Vision Conference 2015,2015年01月31日,pp.1-12,http://www.bmva.org/bmvc/2015/papers/paper109/paper109.pdf
遠藤 拡 外2名,ニューラルネットワークを使用した走行環境のリアルタイム認識,電子情報通信学会技術研究報告,日本,一般社団法人電子情報通信学会,2015年07月14日,第115巻 第150号,pp.1-5

Also Published As

Publication number Publication date
US11263465B2 (en) 2022-03-01
JP2019169124A (ja) 2019-10-03
CN110015293A (zh) 2019-07-16
DE102017223206A1 (de) 2019-06-19
US20190188496A1 (en) 2019-06-20

Similar Documents

Publication Publication Date Title
JP7213667B2 (ja) 区画領域および移動経路の低次元の検出
US10606270B2 (en) Controlling an autonomous vehicle using cost maps
US11462022B2 (en) Traffic signal analysis system
EP3825803B1 (en) Collision-avoidance system for autonomous-capable vehicles
US10899345B1 (en) Predicting trajectories of objects based on contextual information
US20200247434A1 (en) Method and device for signaling present driving intention of autonomous vehicle to humans by using various v2x-enabled application
US9415777B2 (en) Multi-threshold reaction zone for autonomous vehicle navigation
US11256260B2 (en) Generating trajectories for autonomous vehicles
CN109080638B (zh) 用于确定不可行驶区域的方法和装置
DE112022002353T5 (de) Verfahren und Systeme zur Trajektorienerzeugung für ein autonomes Fahrzeug beim Überfahren einer Kreuzung
KR20210005395A (ko) 자율주행차량의 유턴 전략 결정 장치 및 그 방법
US20210300414A1 (en) Vehicle control method, vehicle control device, and storage medium
US20220327819A1 (en) Image processing apparatus, image processing method, and program
US20220383646A1 (en) Mobile object control device, mobile object control method, and storage medium
CN112249016A (zh) 用于自动驾驶车辆的掉头控制系统和方法
US11667281B2 (en) Vehicle control method, vehicle control device, and storage medium
JP7220192B2 (ja) 車両制御装置、車両制御方法、およびプログラム
WO2019023747A1 (en) TERRESTRIAL VEHICLE WITHOUT DRIVER
US12005919B2 (en) Varying extended reality content based on risk level of a driving environment
JP7503941B2 (ja) 制御装置、制御方法、およびプログラム
US20230264697A1 (en) Varying extended reality content based on driver attentiveness
US20220055615A1 (en) Vehicle control device, vehicle control method, and storage medium
US12039861B2 (en) Systems and methods for analyzing the in-lane driving behavior of a road agent external to a vehicle
CN112639808B (zh) 用于机动车辆的纵向和/或横向控制的驾驶辅助

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190409

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20200615

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230117

R150 Certificate of patent or registration of utility model

Ref document number: 7213667

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150