JP6776440B2 - 動力車両を運転する際に動力車両のドライバーを支援する方法、ドライバー支援システム及び動力車両 - Google Patents

動力車両を運転する際に動力車両のドライバーを支援する方法、ドライバー支援システム及び動力車両 Download PDF

Info

Publication number
JP6776440B2
JP6776440B2 JP2019507190A JP2019507190A JP6776440B2 JP 6776440 B2 JP6776440 B2 JP 6776440B2 JP 2019507190 A JP2019507190 A JP 2019507190A JP 2019507190 A JP2019507190 A JP 2019507190A JP 6776440 B2 JP6776440 B2 JP 6776440B2
Authority
JP
Japan
Prior art keywords
vehicle
image
model
environmental
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019507190A
Other languages
English (en)
Other versions
JP2019532540A (ja
Inventor
エンダ、ピーター、ワード
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Connaught Electronics Ltd
Original Assignee
Connaught Electronics Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Connaught Electronics Ltd filed Critical Connaught Electronics Ltd
Publication of JP2019532540A publication Critical patent/JP2019532540A/ja
Application granted granted Critical
Publication of JP6776440B2 publication Critical patent/JP6776440B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

発明は、動力車両を運転する際に動力車両のドライバーを支援するための方法に関し、少なくとも1つの車両側カメラによって動力車両の環境領域から取得される画像データに基づいて、車両側表示装置上で表示するために環境領域の少なくとも1つの画像が生成される。さらに、発明は、ドライバー支援システム及びそのようなドライバー支援システムを備えた動力車両に関する。
例えば車両側カメラシステムによって取得される動力車両の環境領域を車両側表示装置に表示することによって、動力車両を運転する際に動力車両のドライバーを支援することは従来技術から既に知られている。そこでは、また、いわゆる第三者視点から、環境領域の三次元表現が表示装置にますます表示されている。そのような第三者の視点は、車両の外部のビューアー、いわゆる仮想カメラ、の眺望から動力車両の環境領域及び動力車両自体を示し、特にドライバーにとって直感的な環境領域の眺望を提示する。第三者視点を作り出すために、環境領域の画像は通常、車両側カメラシステムの画像データから決定され、それは仮想カメラの位置で実際のカメラによって取得されたかのような印象を与える。
通常、車両側カメラシステムの画像データのみが第三者視点を作り出すために利用可能であるので、車両側カメラシステムとは反対側を向いているオブジェクトであって、それによってカメラシステムの捕捉範囲の外側にあるオブジェクトの側部を捕捉することは可能ではない。このように仮想カメラの位置を任意に選択することができず、あるいはドライバーにとって直感的ではない環境領域の画像が生成され、それによってドライバーは現在の交通状況やシーンを信頼できるようには推定することができない。
さらに、魚眼レンズを具備するカメラの場合、オブジェクトの大きさの認知は動力車両に対するオブジェクトの位置に依存するということが起こりうる。これはまた、表示装置において環境領域での現在のシーンの非直感的表示をもたらしうる。さらに、様々なカメラの画像データ、例えば動力車両のフロントカメラ及び側部カメラの画像データ、を結合又はつなぎ合わせる際に、オブジェクトがカメラの撮影範囲間で変化してそれによって死角スポット内にある場合、情報が失われうる。この情報の損失は、環境領域の誤って生成される画像をももたらしうる。
本発明の目的は、動力車両のドライバーが動力車両を運転する際に支援されることができるように、動力車両の環境領域をどのように確実に捕捉することができるかという解決策を提供することである。
発明によれば、この目的は、それぞれの独立請求項による方法、ドライバー支援システム及び動力車両によって解決される。発明の有利な実施形態は、従属請求項、明細書、及び図面の主題である。
少なくとも1つの車両側カメラにより動力車両の環境領域から取得される画像データに基づいて、動力車両を運転する際に動力車両のドライバーを支援するための方法の一実施形態では、環境領域の少なくとも1つの画像が、車両側表示装置における表示のために作り出される。特に、環境領域における他の車両が画像データに基づいて識別され、他の車両が環境領域の少なくとも1つの画像において車両のモデルと置き換えられる。
動力車両を運転する際に動力車両のドライバーを支援する方法において、少なくとも1つの車両側カメラによって動力車両の環境領域から取得される画像データに基づき、環境領域の少なくとも1つの画像が、車両側表示装置における表示のために、好ましくは作り出される。さらに、画像データに基づき環境領域において他の車両が識別され、他の車両は環境領域の少なくとも1つの画像において車両のモデルと置き換えられる。
このように、環境領域の少なくとも1つの画像が車両側表示装置に表示されるというように、動力車両を運転する際にドライバーを支援する方法によって、ドライバー支援システムが実現されうる。特に、環境領域のビデオシーケンスが車両側表示装置に表示され、それによって動力車両のドライバーは、表示装置によってほぼリアルタイムで環境領域を認知することができる。そこでは、画像データに基づいて第三者視点が好ましくは作られ、当該画像データからは、環境領域において動力車両からスペースをおいて位置する仮想カメラの姿勢を決めることによって且つ仮想カメラの眺望からの少なくとも1つの画像を決めることによって、動力車両と一緒に環境領域が少なくとも1つの画像において表される。その少なくとも1つの画像は、例えば、動力車両の室内ミラーにおいて及び/又はセンターコンソールにおけるスクリーンに及び/又はヘッドアップディスプレイに提示される。したがって、その画像は、特に車両の外部の観察者の眺望からの、環境領域の三次元表現を示す。それにおいて、動力車両自体は画像におけるモデルとして表されることができる。
それにおいて、少なくとも1つの画像は、特に動力車両のいわゆるサラウンドビューカメラシステムの画像データに基づいて作り出され、サラウンドビューカメラシステムは、例えば、複数のカメラを有することができ、当該複数のカメラは動力車両において分散して配置される。それに加え、動力車両は、例えばフロントカメラ、リアカメラ及び2つのウイングミラーカメラを含むことができる。それにおいて、カメラはいわゆる魚眼レンズを装備することができ、当該魚眼レンズによってそれぞれのカメラの撮影範囲が増大される。環境領域の少なくとも1つの画像は、この画像データから、例えば画像データを結合又はつなぎ合わせることによって生成される。それにおいて、第三者視点であって、当該第三者視点から動力車両とともに環境領域が画像において表されるような第三者視点が、例えばドライバーによって事前設定されている環境領域における仮想カメラの姿勢により、動力車両のドライバーによって変更されうることが特に提供されうる。それに加えて、ドライバーは、例えば複数の所定の姿勢のうちの1つ、したがって仮想カメラの位置及び向きを選択することができ、及び/又は、例えばジェスチャ操作によって仮想カメラの姿勢を自由に選択することができる。
画像データに基づいて、他の車両を、例えば物体認識アルゴリズムによってさらに認識することができる。それにおいて、他の車両は特に動力車両に接近する車両である。他の車両は、例えば前方から動力車両に接近して動力車両を通過することができる。この他の車両は、実際の車両を表すことになるモデル、特に3次元モデルすなわち3Dモデル、に置き換えられることができる。それに加えて、他の車両に関連づけられるその画像データは、例えば識別され又は抽出されることができ、他の車両のモデルを描く画像データと置き換えられることができる。言い換えれば、これは、実際に撮影された他の車両が少なくとも1つの画像において表示装置に表示されず、その車両がモデル化されることを意味する。したがって、他の車両を表す人工的に生成された部分画像エリアが、環境領域の少なくとも1つの画像に挿入される。それにおいて、動力車両の環境領域において位置づけられ、且つ、環境領域の少なくとも1つの画像に挿入される他の複数の車両のために、モデルが決められることができる。
三次元モデルは、それが完全に定められることができ、したがってモデルがすべての視点から表されることができるという利点を有する。したがって、仮想カメラの姿勢は、有利には、他の車両が、それが例えばある領域において少なくとも1つのカメラの捕捉範囲の外側にある場合に、完全に表現され及び描かれることもできるように、自由に選択されることができる。したがって、少なくとも1つの車両側カメラから離れる方向に向けられた他の車両の側部も、モデルによって視覚化されることができる。モデルのサイズも事前設定され又は制御されることができる。したがって、魚眼レンズを備えたカメラの場合において、他の車両が、動力車両に対するその車両の位置に応じて、ビデオシーケンス内において非現実的なサイズで例えば突然不規則にそのサイズを変化するように表示されることを防ぐことができる。このように、画像において他の車両をその車両の3Dモデルと置き換えることにより、他の車両の正しいサイズ比を有する現在の交通状況の直感的な画像が、表示装置においてシーン内に提示されることができる。これにより、ドライバーは確実に環境領域を認知し、交通状況を正しく評価することができる。
それにおいて、仮想カメラの決められた姿勢のために他の車両が仮想カメラの仮想捕捉範囲の外側にある場合に、及び/又は、仮想カメラの決められた姿勢のために他の車両が少なくともある領域において少なくとも1つの車両側カメラの捕捉範囲の外側にある場合に、他の車両のモデルが少なくとも1つの画像内に挿入されることが提供されうる。したがってこの実施形態によれば、他の車両のモデルは、他の車両の表示が実際のカメラの画像データに基づいて生成されることができないような視点から、他の車両が仮想カメラによって「捕捉」される場合に、特に挿入される。例えば、これは、実際のカメラの撮影範囲にはない仮想カメラの選択された姿勢によって他の車両のエリアが表示装置において表される場合に、このエリアが例えば車両側カメラから遠ざかる方向に向けられているので、起こりうる。そのような姿勢の場合でもこの視点を提供することができるようにするために、所望の視点から提示されることができる他の車両のモデルが使用される。代替的に又は追加的に、他の車両が選択された視点により画像において見られず、したがって他の車両の画像データが画像を生成するための画像合成に組み込まれない場合に、モデルが提供されることもできる。したがって、仮想カメラの任意の姿勢を有利には事前設定することができ、それによって環境領域の任意の現実的な眺望を生み出すことができる。
特に好ましくは、動力車両に対する他の車両の距離が検出され、動力車両に対する他の動力車両の距離が所定の閾値を下回るとすぐに、環境領域の画像において他の動力車両がモデルと置き換えられる。例えば、その距離は、画像データ自体に基づいて及び/又は車両側距離センサによって、例えばレーダセンサ、超音波センサ及び/又はライダセンサによって、取得されることができる。これは、動力車両に対するその車両の距離が閾値を下回るまで、取得された動力車両が画像において表されることを意味する。閾値を下回ると、他の車両はモデルに置き換えられる。この実施形態は、このケースでは他の車両の正しい表示が動力車両に対するその車両の位置に依存するので、死角を有するカメラシステム及び/又は魚眼レンズを有するカメラを有するカメラシステムにおいて特に有利である。したがって、その車両が、他の動力車両の正しい表示がもはや保証され得なくなるような動力車両に対する位置を有するとすぐに、他の動力車両を表すモデルが画像に挿入される。
好ましくは、他の車両の少なくとも1つの特徴が決定され、他の車両を表すためのモデルが少なくとも1つの特徴に応じて決定される。特に、他の車両のブランド及び/又はタイプ及び/又は色が特徴として決定され、その車両のブランド及び/又はタイプ及び/又は色を表すモデルが決定される。言い換えれば、これはモデルの外観が他の車両に適合されることを意味する。そのモデルは、例えばそれが実際の車両と同じ色を有するように作り出される。それに加えて、他の車両の少なくとも1つの特徴は、例えば、分類方法、例えばサポートベクター法(SVM−「Support Vector Machine」)及び/又は機械学習、特に「深層学習(deep machine learning)」によって決定されることができる。したがって、少なくとも1つの画像に表される環境領域の交通状況又はシーンは、動力車両のドライバーにとって特に現実的に構成されることができる。したがって、ドライバーは、画像における撮影された車両とモデルとの間の変化によって邪魔されたり混乱させられたりしないので、運転の仕事に集中することができる。
それにおいて、それぞれの参照モデルが所定の参照特徴と関連付けられ、参照モデルのうちの1つが、モデルとして選択され且つ少なくとも1つの決定された特徴に基づいて少なくとも1つの画像内に挿入されることを提供することができる。これは、様々な参照モデルを有するリストが、例えば車両側の記憶装置に及び/又はインターネットベースのデータベースに、記録されていることを意味する。それにおいて、参照モデルはあるブランド及び/又はモデル及び/又は色の車両を描写する。そして、取得される特徴に応じて、対応する参照モデルが選択されて画像内に挿入される。したがって、モデルは、とりわけ簡単かつ迅速な方法で、また少ない計算量で決定されることができる。したがって、他の接近車両が例えば動力車両までの距離を下回る場合に、それは例えば特に迅速に応答することができ、モデルは特に画像内に挿入されることができる。それにおいて、車両側データベースは、好ましくは最初に参照モデルに関して検索される。対応する参照モデルが車両側データベースに記録されていない場合、車両の外部のデータベースを検索することができる。そして、そこに記録された参照モデルはダウンロードされことができ、将来のレンダリングのために車両側データベースに保存されることができる。
好ましくは、他の車両における少なくとも1つの特徴を表す所定のオブジェクトが画像データに取り込まれ、少なくとも1つの特徴はオブジェクトに基づいて決められる。これは、他の車両のブランド及び/又はタイプ及び/又は色が、例えば直接的には取得されないが、オブジェクトが他の車両の特徴を一意的に表すことを意味する。特に好ましくは、他の車両の登録指定を有する公式ライセンスプレートがオブジェクトとして捕捉され、他の車両の少なくとも1つの特徴が登録指定に基づいて決定される。その特徴は、例えば、捕捉されたオブジェクトが関連の特徴と共に記録されている車両の内部及び/又は車両の外部のデータベースを検索することによって、例えばインターネットに基づいて、決められることができる。
これは、他の車両のナンバープレート又は公式のライセンスプレートが、例えば物体認識又はパターン認識によって取得されることを意味する。数字及び/又は英数字の登録指定も、例えばテキスト認識(OCR−「光学式文字認識」)によって取得される。この登録指定についてデータベースを検索することができ、それには登録指定に関連する特徴、例えば他の車両のブランド、ならびにモデル及び色が記録されている。さらに、少なくとも1つの特徴、例えば他の車両の色が直接的に取得され、データベースに記録された色と比較されることを提供することができる。それによって、登録指定に対してデータベースに記録されている車両が、少なくとも1つの車両側カメラにより撮影された車両に対応するかを確認することができる。直接的に取得された特徴は、機械学習アルゴリズムの入力変数としても使用されることができる。例えば、他の車両の画像をライセンスプレートと一緒にサーバにアップロードすることができる。これにより、分類アルゴリズムの性能を向上させることができるように、他の車両の代替の眺望が提供される。登録指定をテキスト認識によって取得することによって、他の車両に関する複数の情報を特に速い方法でそしてわずかな計算労力で抽出することができ、それによって他の車両の現実的で正確なモデルを決定することができる。
本発明の発展では、他の車両のオブジェクトが画像に挿入され、他の車両を表すモデルと共に描かれる。これは、例えば公式のライセンスプレートがモデルに挿入され、したがって車両側表示装置において他の車両のモデルが実際の公式のライセンスプレートと共に環境領域の画像に描かれることを意味する。これにより、表示装置を見る際に、まるでモデルではなく実際の車両が表示装置に表示されているような、ドライバーに対する印象が生じる。
代替的に又は追加的に、少なくとも1つの特徴は他の車両から車両側通信装置に無線で通信される。この通信は、車両間通信又はCar2Car通信とも呼ばれる。さらに、他の車両は、例えば位置座標、特にGPSデータ、を動力車両に通信することもできる。したがって、動力車両に対する他の車両の位置は、位置座標と、環境領域を表す環境マップとに基づいて決定されることができ、したがってモデルは、動力車両に対する対応の位置で画像内に挿入されることができる。
動力車両に対する他の車両の向きが取得され、画像におけるモデルの向きが他の車両の向きに応じて決められると有利であることが分かっている。代替的に又は追加的に、少なくとも1つの環境条件、特に照明条件が取得され、モデルは少なくとも1つの環境条件に適合される。他の車両の向きを取得することによって、画像におけるモデルの向きが他の車両の実際の向きと一致するようにモデルを画像に挿入することによって、画像をとりわけ現実的に決めることができる。照明条件も決定されることができる。それに加え、例えば、日中、街路照明及び/又は影の存在が捕捉されることができる。そして、モデルは、環境領域において現在存在する環境条件にそれが適合するように、変更される。そして、モデルは、例えば対応するように明るくされ、従って環境領域において現在存在する照明条件で表される。
方法の有利な実施形態において、他の車両は、少なくとも1つのカメラとは異なるセンサ装置によって追加的に捕捉される。そのようなセンサ装置は、例えば、超音波センサ、ライダセンサ及び/又はレーダセンサとすることができ、それによって、環境領域を表す環境マップを生成及び更新することができる。それにより、他の車両が例えば少なくとも1つのカメラの捕捉範囲から消えてオブジェクト、例えば公式のライセンスプレート、がもはや見えない場合でも、他の車両の3Dモデルを表示できるように、他の車両をトレース又は追跡して環境マップに登録することができる。
さらに、発明は、動力車両のドライバーが動力車両を運転するのを支援するためのドライバー支援システムに関する。一実施形態によれば、ドライバー支援システムは、動力車両の環境領域から画像データを取得するための少なくとも1つのカメラと、環境領域の少なくとも1つの画像を作り出すための評価装置と、少なくとも1つの画像を表示するための表示装置とを有する。さらに、評価装置は、画像データに基づいて環境領域における他の車両を識別し、環境領域の少なくとも1つの画像において他の車両を車両のモデルと置き換えるように、適合されることができる。好ましくは、ドライバー支援システムは、動力車両の環境領域から画像データを取得するための少なくとも1つのカメラと、環境領域の少なくとも1つの画像を作り出すための評価装置と、少なくとも1つの画像を表示するための表示装置とを有する。評価装置は、画像データに基づいて環境領域における他の車両を識別し、環境領域の少なくとも1つの画像において他の車両を車両のモデルと置き換えるように、適合される。
発明による動力車両は、発明によるドライバー支援システムを含む。特に、動力車両は乗用車として形成される。
発明による方法及びその利点に関して提示される好ましい実施形態は、発明によるドライバー支援システムに対して及び発明による動力車両に対してそれに応じて適用する。
「後ろ」、「前」、「車両縦軸」、「横」、「外側」、「右」、「左」などの表現によって、動力車両の車両縦軸の方向に観察者が見た場合に与えられる位置及び向きが特定される。
発明のさらなる特徴は、特許請求の範囲、図面及び図面の説明から明らかである。明細書において上述した特徴及び特徴の組み合わせ、ならびに図の説明及び/又は図面中で単独で示される特徴及び特徴の組み合わせは、それぞれ特定されている組み合わせだけではなく、発明の範囲から逸脱することなく他の組み合わせで又は単独でも使用可能である。したがって、図面において明示的に示されておらず説明されていないが、説明されている実施形態からの分離した特徴の組み合わせから生じる及び当該組み合わせによって生み出されることができる実施形態もまた、発明によって包含及び開示されると見なされるべきである。したがって、当初に記載された独立請求項の特徴を全部は有していない実施形態及び特徴の組み合わせも開示されていると見なされるべきである。さらに、特許請求の範囲の関連において立案されている特徴の組み合わせを超えて広がる又は当該特徴の組み合わせから逸脱する実施形態及び特徴の組み合わせは、特に上記で立案されている実施形態によって、開示さているものとしてみなされるものである。
添付の図面を参照し、並びに、好ましい実施形態に基づいて、発明をより詳細に説明する。
そこでは以下を示す:
図1は、発明による動力車両の一実施形態の概略図である。 図2は、発明によるドライバー支援システムの一実施形態の概略図である。 図3aは、ビデオシーケンスのフレームの概略図である。 図3bは、ビデオシーケンスのフレームの概略図である。 図3cは、ビデオシーケンスのフレームの概略図である。 図3dは、ビデオシーケンスのフレームの概略図である。 図3eは、ビデオシーケンスのフレームの概略図である。 図4は、更なる画像の概略図である。 図5は、発明による方法の一実施形態の概略図である。 図6は、発明による方法の一実施形態を実現するためのシステムアーキテクチャの概略図である。
図面において、同一及び機能的に同一の要素には同一の参照符号が付されている。
図1は、本ケースでは乗用車として形成されている、動力車両1を示す。動力車両1は、動力車両1を運転する際に動力車両1のドライバーを支援することができるドライバー支援システム2を含む。ドライバー支援システム2は、動力車両1の環境領域5から画像データを取得するように適合された少なくとも1つの車両側カメラ3を有する。本ケースにおいて、ドライバー支援システム2は4つの車両側カメラ3を有し、当該車両側カメラ3によってサラウンドビューカメラシステムが形成される。それにおいて、ドライバー支援システム2は、動力車両1の前方エリア4に取り付けられ、動力車両1の前方の環境領域5を監視するように働く第1のカメラ3と、動力車両1の後方エリア6に取り付けられ、動力車両1の後方の環境領域5を監視するように働く第2のカメラ3と、動力車両1の左側部7に取り付けられ、動力車両1の脇の左方の環境領域5を監視するように形成される第3のカメラ3と、動力車両1の右側部8に取り付けられ、動力車両1の脇の右方の環境領域5を監視するように働く第4のカメラ3と、を含む。側部7、8に取り付けられるカメラ3は、例えば、動力車両1のウイングミラーに、又は、ウイングミラーの代わりに動力車両1に、取り付けられることができる。カメラ3は、例えば魚眼レンズを有することができ、当該魚眼レンズによってそれぞれのカメラ3の捕捉が増大される。
図2に追加的に概略的に示されているドライバー支援システム2は、例えばビデオプロセッサとして形成されている評価装置9を追加的に有することができる。ビデオプロセッサ9は、カメラ3によって捕捉される画像データを処理するように、そしてビデオシーケンスの形態で車両側表示装置10に表示されることができる画像を生成するように働く。さらに、ドライバー支援システム2は、車両側記憶装置11及び通信インターフェース12を有することができる。ドライバー支援システム2は、通信インターフェース12を介して、車両の外部の装置13、例えば他の車両の又はインターネットベースのデータベース、と通信することができる。
ここで、動力車両1を運転する際に動力車両1のドライバーを支援するために、ビデオシーケンスが、連続して表示される画像B1、B2、B3、B4、B5の形で車両側表示装置10に表示される(図3a〜図3e参照)。それにおいて、環境領域5が、特に第三者の視点からの画像B1〜B5において表わされる。これは、動力車両1及び環境領域5が外部の観察者の視点から表示されることを意味する。それに加え、仮想カメラ14の姿勢P1、P2、P3、P4、P5、P6、P7、P8が決定される。ここで、仮想カメラ14の姿勢P1〜P8は、図1に示すように、動力車両1の周囲を延びる楕円軌道15上にある。個々の姿勢P1〜P8は、例えば、入力装置を介して動力車両1のドライバーによって選択されうる。
それにおいて、画像B1〜B5が、選択される姿勢P1〜P8、例えば第1の姿勢、における仮想カメラ14のカメラ視点に対応する視点から生じるように、カメラ3の画像データはビデオプロセッサ9によって処理される。図3a〜図3eは、時間的に連続して生成されるビデオフレーム、すなわち画像B1〜B5、を示す。それにおいて、動力車両1の環境領域5が図3aの第1の画像B1に基づいて示されており、別の車両16が画像B1において追加的に配置されている。他の車両16は、前方から動力車両1に接近し、動力車両1に対して第1の距離を有する。図3bにおいて、時間的に第1の画像B1の後に生成される第2の画像B2が示されている。車両16は動力車両1に向かって移動したところであり、第1の距離と比べてより短い動力車両1までの第2の距離を有する。図3cにおいて、時間的に第2の画像B2の後に生成された第3の画像B3が示されている。動力車両16は動力車両1に向かってさらに移動したところであり、第2の距離と比べてより短い動力車両1までの第3の距離を有する。図3dにおいて、時間的に第3の画像B3の後に生成された第4の画像B4が示されており、当該第4の画像B4において車両16は、それが第3の距離よりも短い第4の距離を有する位置まで動力車両1に近づいており、それによって第4の画像B4を生成する際に動力車両1と他の車両16との間のサイズ比が非現実的に表される。図3eによる時間的に第4の画像B4の後に生成された第5の画像B5においても、他の車両16は、動力車両1まで、第4の距離と比べてより短い第5の距離を有し、他の車両16の不均衡なサイズ変化が示される。ここで、非現実的に表されたサイズ比は、例えば、車両16が動力車両1の側部7の近くを通り過ぎることによって生じ、それによって横方向カメラ3及びスケールが不規則に変化する。
さらに、図4には、姿勢P7において仮想カメラ14により取得された画像B6として画像データから生成された動力車両1及び環境領域5のさらなる画像B6が示されている。ここで、仮想カメラ14のカメラ視点は、動力車両1の後方左側から動力車両1への眺望方向に対応する。ここで、他の車両16が仮想カメラ14の仮想の撮像範囲外にあるため、表示装置10に表示される画像B6において他の車両16が見えないことが示されている。これとともに図3d及び図3eに示される車両16の不正確なスケーリングを防止するために、表示装置10において提示される画像B4、B5、B6には、車両16の代わりに車両16の三次元モデルMが表示される。例えば、他の車両16の距離が所定の閾値を下回った場合、及び/又は、他の車両16が仮想カメラ14の仮想撮像範囲外である場合、モデルMが挿入される。
モデルMを決定するために、その実施形態が図5に例示的に示されている方法を、実行することができる。それにおいて、その方法は、動力車両1の環境領域5における複数の他の車両16のために使用されることができる。図6に、その方法を実現するためのシステムアーキテクチャが示されている。それに加え、例えば前方に配置されたカメラ3の画像データ17において他の車両16が特定される。図5には、他の車両16を有する画像部分18が拡大された方法でさらに示されている。さらに、画像データ17に基づいて他の車両16の特徴35を捕捉し、そしてそれに基づいてモデルMが決定される。特徴35は、例えば、他の車両16のブランド、タイプ、色、製造年、エンジンタイプなどでありうる。それにおいて、特徴35を決定するために、他の車両16におけるオブジェクト19を捕捉することができる。本ケースでは、オブジェクト19は公式のライセンスプレート20として構成されている。公式のライセンスプレート20は、方法ステップ21において、例えば物体認識により、画像データ17において認識される。さらなる方法ステップ22において、登録表示23が認識される。例えば文字及び数字の列を含むことができる登録表示23は、簡単かつ迅速な方法でテキスト認識によって画像データ17において認識されることができる。さらなる方法ステップ24において、ここでは、車両の外部のデータベース25のような、車両の外部の装置13が、登録表示23に関連付けられた他の車両16の特徴35について検索される。ここで、車両の外部のデータベース25はインターネットベースのデータベースである。例えば、ドライバー支援システム2は、通信インターフェース12を介してインターネット32にアクセスし、したがって車両の外部の装置13にアクセスすることができる。
さらに、方法ステップ26において、ライセンスプレート20に対応する車両16の特徴35が記録されているデータベース25のエントリーが識別される。データベース25のエントリーは、例えばダウンロードされて車両側記憶装置11に記憶されることができる。このエントリーに基づいて、他の車両16を記述し且つ表す3DモデルMが方法ステップ27において決定される。そのモデルMは、例えば、参照モデルの形で、車両の外部のさらなるデータベース33に、及び/又は、データベース34も有しうる車両の内部の記憶装置11に、記録されることができる。
そして方法ステップ28において、データベース25に記録された車両16の色が、画像データ17に基づいて決定されることができる車両16の実際の色と比較されることができる。これは、モデルMが実際に車両16に対応し、それを正しく表しているかどうかを調べるのに役立つ。また、画像データ17に基づいて環境条件、例えば照明条件が決定される。モデルMのレンダリングの間に、方法ステップ29において、これらの照明条件、例えば日中又は夜間の照明条件、影の投射又は街路照明、を考慮に入れることができる。方法ステップ30では、ステップ31で他の車両16の現実的なモデルMが画像B4、B5、B6に挿入されることができるように、公式のライセンスプレート20がモデルMに追加的に挿入される。
少なくとも1つの特徴35についてデータベースを検索することに代えて又は加えて、動力車両1は、通信インターフェース12を介して、特にCar2Car通信を介して、他の車両16とも通信することでき、それによって他の車両16が直接的に特徴35、例えば色、ブランド等、を動力車両1に送信することができる。

Claims (13)

  1. 動力車両(1)のドライバーを前記動力車両(1)を運転する際に支援する方法であって、少なくとも1つの車両側カメラ(3)によって前記動力車両(1)の環境領域(5)から取得される画像データ(17)に基づいて、車両側表示装置(10)において表示するために前記環境領域(5)の少なくとも1つの画像(B1、B2、B3、B4、B5、B6)が生成され、
    前記画像データ(17)に基づいて前記環境領域(5)における他の車両(16)が識別され、前記環境領域(5)の前記少なくとも1つの画像(B1、B2、B3、B4、B5、B6)において前記他の車両(16)が車両のモデル(M)に置き換えられ、
    前記他の車両(16)のブランド、タイプ及び色のうちの少なくとも1つに関する特徴(35)が決められ、前記特徴(35)を表すモデル(M)が決められ
    前記動力車両(1)に対する前記他の車両(16)の向きが捕捉され、前記少なくとも1つの画像(B1、B2、B3、B4、B5、B6)における前記モデル(M)の向きが前記他の車両(16)の向きに応じて決められること、及び/又は、少なくとも1つの環境条件が取得され、前記モデル(M)が前記少なくとも1つの環境条件に適応されることを特徴とする方法。
  2. 動力車両(1)のドライバーを前記動力車両(1)を運転する際に支援する方法であって、少なくとも1つの車両側カメラ(3)によって前記動力車両(1)の環境領域(5)から取得される画像データ(17)に基づいて、車両側表示装置(10)において表示するために前記環境領域(5)の少なくとも1つの画像(B1、B2、B3、B4、B5、B6)が生成され、
    前記画像データ(17)に基づいて前記環境領域(5)における他の車両(16)が識別され、前記環境領域(5)の前記少なくとも1つの画像(B1、B2、B3、B4、B5、B6)において前記他の車両(16)が車両のモデル(M)に置き換えられ、
    前記他の車両(16)のブランド、タイプ及び色のうちの少なくとも1つに関する特徴(35)が決められ、前記特徴(35)を表すモデル(M)が決められ、
    前記動力車両(1)までの前記他の車両(16)の距離が検出され、前記動力車両(1)までの前記他の車両(16)の距離が所定の閾値を下回るとすぐに、前記環境領域(5)の前記少なくとも1つの画像(B1、B2、B3、B4、B5、B6)において前記他の車両(16)が前記モデル(M)に置き換えられることを特徴とする方法。
  3. 第三者視点が前記画像データ(17)に基づいて作り出され、前記環境領域(5)における仮想カメラ(14)の姿勢(P1、P2、P3、P4、P5、P6、P7、P8)を決めることによって及び前記仮想カメラ(14)の眺望から前記少なくとも1つの画像(B1、B2、B3、B4、B5、B6)を決めることによって、前記第三者視点から、前記動力車両(1)とともに前記環境領域(5)が前記少なくとも1つの画像(B1、B2、B3、B4、B5、B6)において表されることを特徴とする請求項1又は2に記載の方法。
  4. 前記仮想カメラ(14)の決められた姿勢(P1、P2、P3、P4、P5、P6、P7、P8)のために前記他の車両(16)が前記仮想カメラ(14)の仮想捕捉範囲の外側にいる場合に、及び/又は、前記仮想カメラ(14)の決められた姿勢(P1、P2、P3、P4、P5、P6、P7、P8)のために前記他の車両(16)が少なくともあるエリアにおいて前記少なくとも1つの車両側カメラ(3)の捕捉範囲の外側にいる場合に、前記他の車両(16)の前記モデル(M)が前記少なくとも1つの画像(B1、B2、B3、B4、B5、B6)に挿入されることを特徴とする請求項に記載の方法。
  5. それぞれの参照モデルが所定の参照特徴に関連付けられており、前記参照モデルのうちの1つが、決められた前記特徴(35)に基づいて前記モデルとして選ばれ、前記少なくとも1つの画像(B1、B2、B3、B4、B5、B6)に挿入されることを特徴とする請求項1〜4のうちのいずれか一項に記載の方法。
  6. 記特徴(35)を表す前記他の車両(16)における所定のオブジェクト(19)が前記画像データ(17)において物体認識によって取得され、前記特徴(35)が前記オブジェクト(19)に基づいて決められることを特徴とする請求項1〜5のうちのいずれか一項に記載の方法。
  7. 前記他の車両(16)の登録指定(23)を有する公式のライセンスプレート(20)が前記オブジェクト(19)として取得され、前記他の車両(16)の前記特徴(35)が前記登録指定(23)に基づいて決められることを特徴とする請求項6に記載の方法。
  8. 記特徴(35)は、取得される前記オブジェクト(19)が関連付けられる前記特徴(35)とともに記録されている車両の内部の及び/又は車両の外部のデータベース(25、34)を検索することによって決められることを特徴とする請求項6又は7に記載の方法。
  9. 前記他の車両(16)の前記オブジェクト(19)は、画像(B1、B2、B3、B4、B5、B6)に挿入され、前記他の車両(16)を表す前記モデル(M)と一緒に描かれることを特徴とする請求項6〜8のうちのいずれか一項に記載の方法。
  10. 記特徴(35)は、前記他の車両から車両側通信装置(12)に無線で通信されることを特徴とする請求項4〜9のうちのいずれか一項に記載の方法。
  11. 前記他の車両(16)は、前記少なくとも1つのカメラ(3)とは異なるセンサ装置によって追加的に捕捉されることを特徴とする請求項1〜10のうちのいずれか一項に記載の方法。
  12. 動力車両(1)のドライバーを前記動力車両(1)を運転する際に支援するドライバー支援システム(2)であって、前記動力車両(1)の環境領域(5)から画像データ(17)を取得する少なくとも1つのカメラ(3)と、前記環境領域(5)の少なくとも1つの画像(B1、B2、B3、B4、B5、B6)を作り出す評価装置(9)とを備え、前記少なくとも1つの画像(B1、B2、B3、B4、B5、B6)を表示する表示装置(10)を含み、
    前記評価装置(9)は、前記画像データ(17)に基づいて前記環境領域(5)において他の車両(16)を識別するように且つ前記環境領域(5)の前記少なくとも1つの画像(B1、B2、B3、B4、B5、B6)において前記他の車両(16)を車両のモデル(M)に置き換えるように適応される一方で、前記他の車両(16)のブランド、タイプ及び色のうちの少なくとも1つに関する特徴(35)が決められ、前記特徴(35)を表すモデル(M)が決められ
    前記動力車両(1)に対する前記他の車両(16)の向きが捕捉され、前記少なくとも1つの画像(B1、B2、B3、B4、B5、B6)における前記モデル(M)の向きが前記他の車両(16)の向きに応じて決められること、及び/又は、少なくとも1つの環境条件が取得され、前記モデル(M)が前記少なくとも1つの環境条件に適応されることを特徴とするドライバー支援システム(2)。
  13. 請求項12に記載のドライバー支援システム(2)を有する動力車両(1)。
JP2019507190A 2016-08-09 2017-07-27 動力車両を運転する際に動力車両のドライバーを支援する方法、ドライバー支援システム及び動力車両 Active JP6776440B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102016114693.5 2016-08-09
DE102016114693.5A DE102016114693A1 (de) 2016-08-09 2016-08-09 Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Führen des Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
PCT/EP2017/069013 WO2018029003A1 (en) 2016-08-09 2017-07-27 Method for assisting a driver of a motor vehicle in driving the motor vehicle, driver assistance system as well as motor vehicle

Publications (2)

Publication Number Publication Date
JP2019532540A JP2019532540A (ja) 2019-11-07
JP6776440B2 true JP6776440B2 (ja) 2020-10-28

Family

ID=59569301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019507190A Active JP6776440B2 (ja) 2016-08-09 2017-07-27 動力車両を運転する際に動力車両のドライバーを支援する方法、ドライバー支援システム及び動力車両

Country Status (5)

Country Link
EP (1) EP3497616B1 (ja)
JP (1) JP6776440B2 (ja)
CN (1) CN109690558B (ja)
DE (1) DE102016114693A1 (ja)
WO (1) WO2018029003A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114206683A (zh) * 2019-08-03 2022-03-18 张传瑞 更为先进的辅助驾驶显示和控制系统
DE102020203297B4 (de) 2020-03-13 2024-08-01 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Darstellung von Informationen in einer erweiterten Realitätsanwendung
DE102021101263A1 (de) 2021-01-21 2022-07-21 Bayerische Motoren Werke Aktiengesellschaft Steuerung einer Anzeigeeinheit eines Kraftfahrzeugs
CN112699862B (zh) * 2021-03-25 2021-07-30 智道网联科技(北京)有限公司 图像数据处理方法、装置、设备和存储介质
CN116320364B (zh) * 2023-05-25 2023-08-01 四川中绳矩阵技术发展有限公司 一种基于多层显示的虚拟现实拍摄方法及显示方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002319091A (ja) * 2001-04-20 2002-10-31 Fuji Heavy Ind Ltd 後続車両認識装置
JP3606853B2 (ja) * 2001-09-07 2005-01-05 松下電器産業株式会社 車両周囲状況表示装置
DE60207655T2 (de) * 2001-09-07 2006-06-08 Matsushita Electric Industrial Co., Ltd., Kadoma Vorrichtung zum Anzeigen der Umgebung eines Fahrzeuges und System zur Bildbereitstellung
JP4380561B2 (ja) * 2004-04-16 2009-12-09 株式会社デンソー 運転支援装置
DE102010034140A1 (de) * 2010-08-12 2012-02-16 Valeo Schalter Und Sensoren Gmbh Verfahren zum Anzeigen von Bildern auf einer Anzeigeeinrichtung und Fahrerassistenzsystem
DE102012001554A1 (de) * 2012-01-26 2013-08-01 Connaught Electronics Ltd. Verfahren zum Betreiben einer Fahrerassistenzeinrichtung eines Kraftfahrzeugs,Fahrerassistenzeinrichtung und Kraftfahrzeug
US20140376778A1 (en) * 2013-06-25 2014-12-25 Zf Friedrichshafen Ag License plate recognition system and location forecasting
US9013286B2 (en) * 2013-09-23 2015-04-21 Volkswagen Ag Driver assistance system for displaying surroundings of a vehicle
DE102014106035A1 (de) * 2014-04-30 2015-11-05 Connaught Electronics Ltd. Verfahren zum Betreiben eines Fahrerassistenzsystems mit einem elektronischen Rückspiegel, Fahrerassistenzsystem und Kraftfahrzeug
DE102014116037A1 (de) * 2014-11-04 2016-05-04 Connaught Electronics Ltd. Verfahren zum Betreiben eines Fahrerassistenzsystems eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug

Also Published As

Publication number Publication date
CN109690558B (zh) 2023-12-29
DE102016114693A1 (de) 2018-02-15
CN109690558A (zh) 2019-04-26
EP3497616A1 (en) 2019-06-19
WO2018029003A1 (en) 2018-02-15
JP2019532540A (ja) 2019-11-07
EP3497616B1 (en) 2020-06-03

Similar Documents

Publication Publication Date Title
JP6776440B2 (ja) 動力車両を運転する際に動力車両のドライバーを支援する方法、ドライバー支援システム及び動力車両
CN1878299B (zh) 图像显示装置和方法
US10497174B2 (en) Method and device for augmented depiction
CN104883554B (zh) 通过虚拟透视仪器群集显示直播视频的方法和系统
JP4696248B2 (ja) 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置
JP5267660B2 (ja) 画像処理装置、画像処理プログラム、画像処理方法
US11525694B2 (en) Superimposed-image display device and computer program
KR102490272B1 (ko) 차량의 주변 영역을 표시하기 위한 방법
CN108496178A (zh) 用于估计未来路径的系统和方法
JP2005268847A (ja) 画像生成装置、画像生成方法、および画像生成プログラム
US20210375059A1 (en) Method for operating a display device in a motor vehicle
CN116420096A (zh) 用于标记lidar点云数据的方法和系统
US10733464B2 (en) Method, system and device of obtaining 3D-information of objects
JP6375633B2 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
KR20150041334A (ko) Avm 시스템의 이미지 처리 방법
JP4856291B1 (ja) 表示装置及び制御方法
JP7337617B2 (ja) 推定装置、推定方法及びプログラム
CN112204626A (zh) 使用增强现实相机的后视方法和设备
JP5196426B2 (ja) ナビゲーション装置
JP2012155313A (ja) 表示装置及び制御方法
JP2019169042A (ja) 視点切替装置及び視点切替方法
JP2024124854A (ja) 車両用制御装置
JP2024074181A (ja) 表示処理装置、移動装置および表示処理方法
WO2024184675A1 (en) Device and method for controlling augmented reality
JP2024124855A (ja) 車両用制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201007

R150 Certificate of patent or registration of utility model

Ref document number: 6776440

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250