JP6522630B2 - 車両の周辺部を表示するための方法と装置、並びに、ドライバー・アシスタント・システム - Google Patents

車両の周辺部を表示するための方法と装置、並びに、ドライバー・アシスタント・システム Download PDF

Info

Publication number
JP6522630B2
JP6522630B2 JP2016546143A JP2016546143A JP6522630B2 JP 6522630 B2 JP6522630 B2 JP 6522630B2 JP 2016546143 A JP2016546143 A JP 2016546143A JP 2016546143 A JP2016546143 A JP 2016546143A JP 6522630 B2 JP6522630 B2 JP 6522630B2
Authority
JP
Japan
Prior art keywords
data
image
object information
vehicle
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016546143A
Other languages
English (en)
Other versions
JP2016535377A (ja
Inventor
クレーケル・ディーター
エクスナー・クリスティアン
マイアー・ヘルベルト
リューケ・シュテファン
ホウベン・ゼバスティアン
ザルメン・ヤン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Conti Temic Microelectronic GmbH
Continental Automotive GmbH
Original Assignee
Conti Temic Microelectronic GmbH
Continental Automotive GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Conti Temic Microelectronic GmbH, Continental Automotive GmbH filed Critical Conti Temic Microelectronic GmbH
Publication of JP2016535377A publication Critical patent/JP2016535377A/ja
Application granted granted Critical
Publication of JP6522630B2 publication Critical patent/JP6522630B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Geometry (AREA)
  • Mechanical Engineering (AREA)

Description

本発明は、車両の周辺部を表示するための、特に好ましくは、ドライバー・アシスタント・システムにおける使用に適した方法と装置、並びに、ドライバー・アシスタント・システムに関する。
該ドライバー・アシスタント・システム、並びに、車両の周辺部を表示するための方法と装置は、原則的に見れば、従来の技術より既知である。これらの例としては、特許文献1や特許文献2などを挙げることができる。所謂「トップヴュー・システム」や「サラウンドヴュー・システム」並びに「リアヴュー・システム」と呼ばれるカメラ・ベースのシステムは、ドライバーに車両周辺近部を表示し、これにより、例えば、車庫入れなど車両の運転を容易にするために、昨今、車両において頻繁に採用されるようになってきている。
特許文献3には、車両に危険を及ぼし得るオブジェクトが、より危険性の低い物体よりも目立つように表示手段に描写されるドライバー・アシスタント・システムが記述されている。
特許文献4には、カメラによって捕捉されたオブジェクトが、遠近法的に正しく描写される表示手段を備えたドライバー・アシスタント・システムが開示されている。また、補足されたオブジェクトに関する付加的な情報を、ドライバーの認知を改善するために、フェードインすることも可能である。
独国特許出願公開第10059900号明細書 独国特許出願公開第10109665号明細書 独国特許出願公開第10247563号明細書 独国特許出願公開第10257484号明細書
よって本発明の課題は、車両の周辺部を表示するための改善された方法および改善された装置を提案することである。
本発明によれば、上記目的は、独立請求項に記載されている対象によって達成される。本発明の更なる実施形態は、従属請求項に記載されている。
本発明のある実施形態は、以下のステップを包含する、車両の周辺部を表示するための方法に関する:
−少なくとも一つのセンサーを用いて車両の周辺部を捕捉することによる該車両の周辺部のセンサーデータの作成、
−センサーデータの生画像データへの前処理、
−生画像データの車両周辺部のグリッド・モデルを用いたオブジェクト・インフォメーションへの加工、
−生画像データからの画像・オブジェクト・データへの前処理用に得られたオブジェクト・インフォメーション、及び/或いは、グリッド・モデルの使用、
−画像・オブジェクト・データの表示。
尚、該センサーデータの生画像データへの前処理、生画像データのオブジェクト・インフォメーションへの加工、並びに、生画像データの画像・オブジェクト・データへの加工は、オブジェクト・インフォメーション、及び/或いは、グリッド・モデルの使用の基、少なくとも二つの独立した手段によって実施することが特に好ましい。この際、画像前処理手段によるセンサーデータの生画像データへの前処理、並びに、画像処理手段による生画像データのオブジェクト・インフォメーションへの加工が、実施されることが好ましいが、ここでは、該画像処理手段は、該生画像データを、該画像前処理手段から、第一データ技術的接続手段(往チャンネル)を介して受信している。続いて、好ましくは画像前処理手段によって生画像データの画像・オブジェクト・データへの前処理が実施されるが、ここでは、該画像前処理手段は、該オブジェクト・インフォメーションを、画像処理手段から第二データ技術的接続手段(復チャンネル)を介して受信している。該画像前処理手段は、好ましくは、センサーデータ、或いは、生画像データを車両内における画像データの表示用に準備するための手段である。該画像処理手段は、好ましくは、例えば、車両パラメータや車両機能を制御するための手段用にオブジェクト・インフォメーションを取得するための手段である。これにより、複数段階の画像処理方法が確立されるが、ここでは、好ましくは、車両パラメータや車両機能の制御用の画像処理から得られたオブジェクト・インフォメーションが、特に好ましくは、画像処理手段から画像前処理手段への復チャンネルを介して、車両内における画像データの表示のための画像データの準備、例えば、画像データの表示の際に、オブジェクトを強調する、或いは、画像内でマークするために、使用できるようになっている。
本発明の更なる実施形態は、以下のステップを包含する、車両の周辺部を表示するための方法に関する:
−少なくとも一つのセンサーを用いて車両の周辺部を捕捉することによる該車両の周辺部のセンサーデータの作成、
−第一前処理ステップにおけるセンサーデータの生画像データへの前処理、
−第二前処理ステップにおける生画像データのグリッド・モデルを用いて修正された画像データへの前処理、
−修正された画像データの画像・オブジェクト・データへの前処理におけるセンサーによって得られたオブジェクト・インフォメーションの使用、
−画像・オブジェクト・データの表示。
これにより、複数段の画像データを修正できる方法が提供される。該センサーデータは、生画像データに前処理され、これを用いて、オブジェクト・インフォメーションが得られ、続いてこれが、生画像データの前処理のためにフィードバックされる。即ち、センサーデータから前処理された生画像データを、生画像データの処理のために往チャンネル方向に伝達し、オブジェクト・インフォメーションを、(必要に応じて更なる)生画像データの前処理のために復チャンネルを介して伝達することができる。これにより画像データの前処理が改善でき、更には、画像データだけでなく付加的な情報も含んだ、組み合わされた画像・オブジェクト・データも表示できるようになる。
該少なくとも一つのセンサーは、生画像データの作成に適したあらゆる種類のセンサーとして、特に好ましくは、光学的カメラ、夜視システム乃至残光増幅システム、赤外線カメラ乃至熱線カメラなど、光学的センサーとして構成されることができる。原則的には、該センサーは、例えば、レーダー、ライダーなど、他の波長の電磁線を受信することができるように構成されている、或いは、音波、例えば、超音波を受信することができるように構成されていることも可能である。
該オブジェクト・インフォメーションは、車両の周辺部のグリッド・モデルを基にして得ることができる。これにより、例えば、グリッド・マップなどとしてオブジェクト・インフォメーションを捉える、及び/或いは、保存する、及び/或いは、伝達することが可能である。更には、グリッド・モデルの部分領域に、固有の情報を割り当てることも可能になる。
該オブジェクト・インフォメーションは、オブジェクトを特徴づける、及び/或いは、識別するための情報、及び/或いは、オブジェクトの状態に関する、特に好ましくは、位置、大きさ乃至高さ、広がり、明るさ、移動方向、加速、センサーに対する相対的移動、センサーに対する相対的移動方向、或いは、センサーに対する相対的な加速などの情報であることができる。
生画像データの前処理の範囲においても、グリッド・モデルを使用することができる。これにより、画像・生データ、特に好ましくは − 例えば、結像特性など特定のセンサー特性に基づく、例えば、光学的な乃至測定技術的な歪みを要因とする − 歪んだ画像・生データの適切な修正、乃至、歪み除去が可能になる。このようにして生画像データから、修正された画像に相当する修正された画像データが作成される。これは、続く画像処理ステップ、或いは、画像前処理ステップにおいて基とすることができる。
オブジェクト・インフォメーションを、他のセンサーのデータと比較して検証する、及び/或いは、安定化させることを想定することも可能である。即ち、上記の、生画像データの作成に用いられるセンサーデータに対して付加的に、或いは、補足的に、更なるセンサー、或いは、センサーデータを取り入れることも可能である。この際それは、例えば、光学カメラ、夜視システム、乃至、残光増幅システム、赤外線カメラ、乃至、熱線カメラなど更なる光学的なセンサーであることができる。原則的には、これら更なるセンサー類は、例えば、レーダー、ライダーなど、他の波長の電磁線を受信することができるように構成されている、或いは、音波、例えば、超音波を受信することができるように構成されていることも可能である。付加的なセンサー・インフォメーションにより、捕捉されたオブジェクト・インフォメーションの範囲が広がる、及び/或いは、捕捉されたオブジェクト・インフォメーションの精度が高まり、これは、オブジェクト・インフォメーションが安定化する、及び/或いは、得られたオブジェクト・インフォメーション内のエラーが低減される、乃至、認識されたオブジェクト・インフォメーション或いはオブジェクトを検証することに貢献している。
生画像データの処理の範囲において、付加的な、ヒストリカルな、及び/或いは、予測されるオブジェクト・インフォメーションを用いることを想定することも可能である。即ち、オブジェクト・インフォメーションの時間的推移を割り出す、及び/或いは、保存する、及び/或いは、メモリーから呼び出し、生画像データの処理の際に、併用することができる。この際、オブジェクト・インフォメーションの時間的な変化(例えば、位置、大きさ乃至高さ、広がり、明るさ、移動方向、加速、センサーに対する相対的移動、センサーに対する相対的移動方向、或いは、センサーに対する相対的な加速など)の時間的な変化を併用することが可能である。
周辺領域のグリッド・モデルが、セルを有しており、該セルには、部分オブジェクト・インフォメーションが割り当てられ、該部分オブジェクト・インフォメーションから、オブジェクト認識ステップにおいて、オブジェクト・インフォメーションが作成されることを想定することも可能である。グリッド・モデルのセルは、同一に、即ち、同じ大きさ、同じ形状、同じ向きに構成されていることができる。要するに、該セルは、均一の分布と均一の構成であることができる。しかしながら、グリッド・モデルのセルは、グリッド内のセルの位置に依存する大きさ、及び/或いは、形状、及び/或いは、向きを有することも可能である。
グリッド・モデルとして3D・グリッド・モデルを、即ち、グリッドが、三次元の形状を有しているグリッド・モデルを使用することも、特に好ましく想定することが可能である。ここで言う「三次元の形状」とは、二次元の形状から少なくとも一部、即ち、平面状の形状ではない形状であると解釈できる。そして生画像データを、投影アルゴリズムを用いて、該3D・グリッド・モデル上に投影することが可能である。これにより、生画像データ、特に好ましくは、 − 例えば、結像特性など特定のセンサー特性に基づく、例えば、光学的な乃至測定技術的な歪みを要因とする − 歪んだ生画像データの特に適切な修正、乃至、歪み除去が可能になる。
車両の周辺部の3D・グリッド・モデルは、湾曲した面のモデルを描写することが特に好ましいが、ここでは、湾曲の半径は、車両からの、乃至、該センサーデータを作成するセンサーからの距離が大きくなるにつれ、大きくなる。湾曲した面、特に好ましくは、距離が増すにつれより湾曲度が増すモデルは、例えば、光学的魚眼センサー(フィッシュ・アイ・センサー)や他の同様の結像特性を有するセンサーにおいて発生する広角レンズ効果による歪みを修正するのに非常に適していることが分かった。
グリッド・モデルのセルには、セルに係る部分・オブジェクト・インフォメーションを割り当てることができる。このような部分・オブジェクト・インフォメーションは、捕捉されたオブジェクト部分、或いは、捕捉されたストラクチャーを識別、及び/或いは、特徴づける為の情報、例えば、位置や大きさ、例えば、オブジェクトの高さ、形状、広がり、明るさ、移動方向、加速、センサーに対する相対的な動き、センサーに対する相対的移動方向、センサーに対する相対的加速に関する情報であることができる。
この部分・オブジェクト・インフォメーションからは、セルに係るオブジェクト・プロファイルを作成し、それぞれのセルに割り当てることができる。一つの、或いは、複数のセルのオブジェクト・プロファイルは、オブジェクトに集約することができる。本方法の範囲においてオブジェクト認識ステップが実施される場合、認識されたオブジェクトに関するオブジェクト・インフォメーションは、オブジェクトの高さに関するオブジェクト・インフォメーションと共に、画像前処理手段に伝送されることができる。
本発明のある更なる実施形態は、以下を有する車両の周辺部を表示するための装置に関する:
−車両の周辺部を捕捉して、車両の周辺部のセンサーデータを作成するための少なくとも一つのセンサー、
−センサーデータを生画像データに前処理するための画像データ・前処理・領域を有し、オブジェクト・インフォメーション、及び/或いは、グリッド・モデルを画像・オブジェクト・データに対して用いて該生画像データを前処理するように構成された画像前処理手段、
−画像前処理手段へのデータ技術的接続手段を有し、グリッド・モデルを用いて生画像データをオブジェクト・インフォメーションに処理するように構成された画像処理手段、並びに、
−画像・オブジェクト・データを表示するための表示手段。
尚、本発明に係る装置の長所、並びに、更なる実施形態は、本発明に係る装置に対しても同様に有効である本発明に係る方法の開示を参照のこと。
この際、画像前処理手段は、第一データ技術的接続手段(往チャンネル)を介して、画像処理手段と接続されていることが好ましいが、これによっては、該画像処理手段が、該第一データ技術的接続手段を介して、画像前処理手段によって前処理された生画像データを受信する。更に、該画像処理手段は、更なるデータ技術的接続手段(復チャンネル)を介して、画像前処理手段と接続されていることが好ましいが、これによっては、該画像前処理手段が、該更なるデータ技術的接続手段を介して、画像処理手段によって生画像データから得られたオブジェクト・インフォメーションを受信する。
該画像前処理手段は、この際、生画像データとオブジェクト・データから得られた画像・オブジェクト・データを表示するための表示手段と接続されていることが特に好ましい。
画像前処理手段から画像処理手段への往チャンネルと画像処理手段から画像前処理手段に戻る復チャンネルを設けることが可能である。該画像前処理手段は、センサーデータを生画像データに前処理するために構成されている。更に、該画像前処理手段は、オブジェクト・インフォメーションを用いて生画像データを前処理できるように構成されていてもよい。一方、該画像前処理手段は、グリッド・モデルを用いて − 場合によっては、オブジェクト・インフォメーションも用いて − 生画像データを画像・オブジェクト・データに前処理することができるように構成されていてもよい。
該少なくとも一つのセンサーは、上述した如く、生画像データの作成に適したあらゆる種類のセンサーとして、特に好ましくは、光学的カメラ、夜視システム乃至残光増幅システム、赤外線カメラ乃至熱線カメラなど、光学的センサーとして構成されることができる。原則的には、該センサーは、例えば、レーダー、ライダーなど、他の波長の電磁線を受信することができるように構成されている、或いは、音波、例えば、超音波を受信することができるように構成されていることも可能である。
また、画像処理手段とデータ技術的に接続される更なるセンサー類を想定することも可能である。その際、画像処理手段は、更なるセンサー類のデータと比較することによってオブジェクト・インフォメーションを検証、及び/或いは、安定化するように構成されていてもよい。この際それは、上記した如く、例えば、光学カメラ、夜視システム、乃至、残光増幅システム、赤外線カメラ、乃至、熱線カメラなど更なる光学的なセンサーであることができる。原則的には、これら更なるセンサー類は、例えば、レーダー、ライダーなど、他の波長の電磁線を受信することができるように構成されている、或いは、音波、例えば、超音波を受信することができるように構成されていることも可能である。
該画像前処理手段は、機能的に、ソフトウェア技術的に、或いは、ハードウェア技術的にそれぞれ機能の異なる画像データ・前処理・領域を有していることもできる。即ち、該画像前処理手段は、センサーデータを生画像データに前処理する第一画像データ・前処理・領域と、生画像データとオブジェクト・インフォメーションを画像・オブジェクト・データに前処理する第二画像データ・前処理・領域を有していることも可能である。
また、ヒストリカルな、及び/或いは、予測されたオブジェクト・インフォメーションを保存するためのデータ保存手段が想定さていることもできるが、この場合、該画像処理手段は、ヒストリカルな、及び/或いは、予測されたオブジェクト・インフォメーションを、生画像データを処理する範囲において用いることができるように構成されている。該データ保存手段内には、オブジェクト・インフォメーションの経時変化を保存し、読みだすことが可能であるとともに、それを介して、ヒストリカルな、及び/或いは、予測されたオブジェクト・インフォメーションを生画像データの処理のために伝達することができる画像処理手段へのデータ技術的接続手段も設けることが可能である。
また、車両の周辺部のグリッド・モデルを保存するための更なるデータ保存手段を設けることもできるが、この場合、該データ保存手段は、データ技術的接続手段を介して、画像処理手段と接続され、該画像処理手段は、グリッド・モデルのセルに割り当てられた部分オブジェクト・インフォメーションを基にしてオブジェクト認識ができるように構成されていてもよい。代案的、或いは、付加的には、該画像前処理手段は、グリッド・モデルを基にして生画像データを前処理できるように構成されていてもよいが、この際、該画像前処理手段は、データ技術的接続手段を介して該データ保存手段と接続されている。
本発明のある更なる実施形態は、本発明に係り、ここに記載されている如き装置を備えたドライバー・アシスタント・システムに関する。
本発明の更なる長所と応用例は、以下の図に示されている例に基づいた説明によりそれぞれ開示される。
明細書、請求の範囲、要約および図では、後に記載する「符号の説明」に記載されている符号および名称を使用する。
自動ドライバー・アシスタント機能を備えたシステムの模式的描写図である。 複数のセンサーとオブジェクト・インフォメーションを伝送するための復チャンネルを有する自動ドライバー・アシスタント機能を備えたシステムの模式的描写図である。 平面グリッド・モデルの模式的描写図である。 歪み補正されたトップヴュー画像の模式的描写図である。 フィッシュアイ・カメラ画像(生画像データ)の歪み補正と遠近法的補正の模式的描写図である。 四台のカメラを備えた車両と四つの独立したフィッシュアイ・カメラ・画像(生画像データ)の模式的描写図である。 距離に依存した湾曲半径を有する3D・グリッド・モデルの模式的描写図である。 3D・グリッド・モデルを用いて歪み補正した画像の模式的描写図である。 平面上に動いていないオブジェクトを投影した場合の長さの歪みの模式的描写図である。 湾曲した面上に動いていないオブジェクトを投影した場合の長さの歪みの模式的描写図である。
以下の説明においては、同一のおよび/あるいは同じ機能を持つおよび/あるいは機能的に関連しているエレメントには、同一の符号を使用する場合がある。明記されている数値は、例にすぎず、本発明を制限するものではない。
ドライバー・アシスタント・システムでは、自動化されたドライバー・アシスタント機能が、より頻繁に装備されるようになるであろう。その際、自動的にオブジェクト、特に、障害物を認識し、車両ダイナミクスに介入することを可能にするために画像処理を用いることが可能である。図1は、このようなドライバー・アシスタント・システム10を、模式的に示している。
該ドライバー・アシスタント・システム10は、光学的センサー、例えば、カメラを、車両の周辺部のセンサーデータを捕捉するための第一センサー1として装備している。画像前処理手段が、該第一センサー1と接続されている。該画像前処理手段2は、センサーデータの生画像データへの前処理、及び/或いは、画像データの前処理を実施するために構成されている。更に、該画像前処理手段2は、表示手段5 − 特に好ましくは、適切なディスプレー − と、車内において、ドライバーに前処理された画像データを示すために、接続されている。
該ドライバー・アシスタント・システム10は更に、データ技術的接続手段3を介して画像前処理手段2と接続され、且つ、そこからセンサーデータを基に前処理された生画像データを受信する画像処理手段4を有している。該画像処理手段4は、更なるデータ技術的接続手段9を介して、車両ダイナミクス13 − 即ち、車両パラメータや車両機能の制御を実施するための手段 − と、接続されている。
特に好ましくは、ドライバー・アシスタント・システムが、車両ダイナミクスに介入する前に、認識されたオブジェクトを、特に、障害物を、ドライバーが、自動的車両介入の理由を理解できるように、或いは、車両ダイナミクスへの介入の前に、ドライバーが反応できるように、表示手段に表示する。図2は、このようなドライバー・アシスタント・システム100を、模式的に示している。
図2のドライバー・アシスタント・システム100も、光学的センサー、例えば、カメラを、車両の周辺部のセンサーデータを捕捉するための第一センサー101として装備している。また、画像前処理手段102も、第一センサー101と接続されている。該画像前処理手段102は、図2のドライバー・アシスタント・システム100では、センサーデータの生画像データへの前処理を実施するために構成されている。該画像前処理手段102は、異なる画像前処理ステップを並行して実施できるように、ソフトウェア技術的に、或いは、ハードウェア技術的に異なっている、或いは、ソフトウェア技術的に、或いは、ハードウェア技術的に独立して配置された、機能的に独立した画像データ・前処理・領域112, 122を有している。即ち、該画像前処理手段102は、センサーデータを生画像データに前処理する第一画像データ・前処理・領域112と、生画像データとオブジェクト・インフォメーションを画像・オブジェクト・データに前処理する第二画像データ・前処理・領域122を有していることができる。該画像前処理手段102は、表示手段105 − 特に好ましくは、適切なディスプレー − と、車内において、ドライバーに前処理された画像データを示すために、接続されている。
該画像前処理手段102 − 特に、センサーデータの生画像データへの前処理のための第一画像データ・前処理・領域112 − は、第一データ技術的接続手段103(往チャンネル)を介して、画像前処理手段102から前処理された生画像データを受信する画像処理手段104と接続されている。一方で該画像処理手段104は、更なるデータ技術的接続手段109を介して、車両ダイナミクス113 − 即ち、車両パラメータや車両機能の制御を実施するための手段 − と、接続されている。他方で該画像処理手段104は、更なるデータ技術的接続手段106(復チャンネル)を介して、画像前処理手段102 − 特に、生画像データとオブジェクト・インフォメーションを画像・オブジェクト・データに前処理するための第二画像データ・前処理・領域122 − と接続されている。
図2の実施形態によれば、復チャンネルを介して、画像処理のシステムブロックから画像前処理のシステムブロックへ、例えば、障害物までの距離やその高さと言ったオブジェクト・インフォメーションを伝達することが可能である。該情報は、画像前処理において認識されたオブジェクトの自車両に対する危険性(例えば、前処理された画像・オブジェクト・データ内で、オブジェクトに色を付けてマークする)、及び/或いは、距離、及び/或いは、高さを示すために、使用されることができる。
画像処理手段104におけるオブジェクトの認識は、グリッド・モデル21, 221を基にしたものであることができる。この場合、車両20, 220を取り巻くグリッド・モデル21, 220のセル22, 222が、定義される。該グリッド・モデル21, 221は、例えば、データ技術的に画像前処理手段102と画像処理手段104と接続されたデータ保存手段108に保存されたものであることができる。本発明の実施形態にもよるが、データ保存手段108は、双方の装置102, 104の何れか一方とだけ接続されていることもできる。各々のセル22, 222には、画像処理手段104によって割り出された、或いは、認識された部分オブジェクト・インフォメーションを割り当てることができる。即ち、カメラ画像において認識されたオブジェクトの高さ、広がり、位置、或いは、速度などをセル22, 222に割り当てることができる。ここでは、オブジェクトの高さを例に説明する。その際、一つのセル内には、オブジェクト23, 27の一部のみが存在することもあり得るため、該オブジェクト23, 27の該当部分に対応する部分オブジェクト・インフォメーションのみ − この例では、高さ情報 − が、割り当てられる場合もある。複数の部分オブジェクト・インフォメーション − 例えば、オブジェクト・プロファイルとして割り当てられたもの − は、各々のオブジェクト23, 27に、集約される。これらの個々のセル22, 222に割り当てられたグリッド・インフォメーションは、オブジェクトの高さ、並びに、認識されたオブジェクト23, 27と共に、画像前処理手段102に送り返される。
オブジェクト23, 27(即ち、障害物候補)の広がりや位置以外にも、(動的なオブジェクト23の場合)移動方向26や移動速度、並びに、タイプ(人、自転車、乗用車、その他のオブジェクト乃至障害物)、及び、補外された動きにおける衝突確立なども、有意義に表示することが可能である。ヒストリカルなオブジェクト・インフォメーション24、及び/或いは、予測されるオブジェクト・インフォメーション25、並びに、自車両の過去の、及び、予測される軌道などは、例えば、軌跡として、該当するオブジェクト23に帰属されるだけでなく、画像処理手段104と画像前処理手段102による制御によって、表示手段105(ディスプレー)にも表示される。更には、ある特定の領域に障害物が無いことも可視化することができる(例えば、画像内の走行可能な領域全体に色を付ける)。尚、危険であると認識された場所へカメラをパンする、或いは、ズームすることも考え得る。
画像前処理手段102では、オブジェクト・インフォメーション、及び/或いは、グリッド・モデル21, 221を、トップビュー・データを作成する前に生画像データの歪み補正に使用することができる。図4は、上記のごとき、ドライバーに車両を上から観察しているかのような視野を提供する、車両20, 220のトップヴュー描写(乃至、バードビュー)を模式的に示している。そのため、該画像は、通常(図6に図示されているごとく車両20, 220の前、後、左、右に設けられている)カメラ画像四枚が組み合わされたものである。一般的なトップヴュー・システムは、撮影された2D画像を2D平面、或いは、2D球面に、ユーザーに車両とその周辺を上から見ているかのような印象を与えるために投影する。様々な示される画像(パノラマ、側方、バック用の視野)は、そのステップが図5に概略的に示されている以下のような原理に基づいて作成される:先ず画像 − 図5a)では、ここでは、フィッシュアイ・カメラであるカメラのセンサーデータを基に生画像データが作成される。フィッシュアイ・カメラの結像特性が原因で歪んだ画像となっている。フィッシュアイ補正により、図5bに示すような結果が得られる。次のステップで遠近法的補正が実施され、図5c)のような結果が得られる。この様にすれば、複数のセンサー1, 101, 11, 121, 131の、特に好ましくは、複数のカメラの生画像データを、図4に示したような一枚のトップヴュー画像に組み合わせることができる。
この様なシステムで用いることができ、所謂フィッシュアイ画像を提供する魚眼カメラ、乃至、フィッシュアイ・カメラには、重要な長所がある:視野が広い。各カメラの広い角度(水平方向 > 180°、鉛直方向 > 130°)によれば、車両周辺全域を四台のみのカメラで観察することが可能である。即ち、コストを削減することが可能である。欠点は、フィッシュアイ画像は、加工することなく、或いは、歪み補正することなく使用することができないことである。よって、フィッシュアイ画像は、平面的な画像に修正した後、望まれる画像領域に合わせて視野を修正しなければならない。そのステップを図5に示す。この際、出力画像は、入力ビデオの複数の領域から組み合わせることが可能である。このステップ、乃至、ここで記載されている方法は、所謂、FPGA(フィールド・プログラマブル・ゲート・アレイ)やその他のDSP(デジタル・シグナル・プロセッサー)を用いて実施することができる。
ここで問題は、一般的なトップヴュー・システムでは、車両から離れた場所にある垂直なオブジェクトが、非常に歪んで(縦に伸びて)描写されることである。本発明は、この問題に対して以下のような改善を提案する。
図6は、カメラ、特に好ましくは、フィッシュアイ・カメラとして実施されている四つのセンサー101, 111, 121, 131を装備した車両220を模式的に示している。これらが対応する生画像データ、即ち、画像301, 311, 321, 331を作成するが、これらは、光学的に歪んでおり(フィッシュアイ画像)、直線が、湾曲して見え、寸法、特に、長さも歪んでいる。
図7は、3D・グリッド・モデル221として実施されているグリッド・モデルを模式的に示しているが、ここでは、グリッド・モデルのセル222は、グリッド中のセルの位置に依存した大きさ、形状、並びに、向きを有している。車両220の周辺部の3D・グリッド・モデル221は、湾曲した表面を表しているが、湾曲半径(これを傾きと呼ぶこともできる)は、まるで「どんぶり」のごとく、車両20からの距離Rが増すにつれ、大きくなっている。各々の画像301, 311, 321, 331の生画像データは、投影アルゴリズムを用いて、四つのセンサー101, 111, 121, 131各々の生画像データの改善された歪み補正を得るために、3D・グリッド・モデル221に投影されることができる。これにより、車両の周辺部220の現実により近づいた、様々な視点から見ることも可能な、描写が得られる。図8は、車両の周辺部220の、四つのセンサー101, 111, 121, 131のうち一つの生画像データを基にして、線がより直線的になり、寸法、特に、長さがより現実的に描かれ、他の車両223などのオブジェクトが、より良好、且つ、より現実的に認識できるようになった、上記のごとく修正された描写、乃至、補正された画像351の補正された画像データの表示を示している。
特に、長さの歪みを回避することにより、より遠くのオブジェクトが、短く、よって、より現実的に描写される。湾曲した投影面を用いることにより、描写されるオブジェクトの大きさは、平面に投影した場合と比較して、実際の大きさにより近いものとなっている。これを、図9と10を用いてより詳しく説明する:
図9には、不動オブジェクトoを平面Eに投影した場合の長さの歪みlpe/lvが、示されている。尚、Cは、カメラの位置、vは、ドライバーにその位置からの視点で車両周辺部が示されるバーチャル視点である。この際、オブジェクトが、車両から遠ければ遠いほど、バーチャル視点が、カメラの位置よりもさらに高い位置にあるため、その歪みは大きくなる。
図10は、遠くに離れてある、不動オブジェクトoの描かれている長さは、図7に例示した(「どんぶり」の)ような湾曲した面GOに投影した場合、オブジェクトの実際の長さにより良好に対応している様子を示している。平面では、オブジェクトの歪みは、距離と共にますため、湾曲した面の形状は、車両に近い領域では、比較的平面であるが、車両から離れるにつれ、湾曲した表面の湾曲半径、乃至、傾きは、増すようになっている。
3D表示エレメントがある場合、グリッド・インフォメーション、乃至、セル・インフォメーション、或いは、オブジェクト・インフォメーション(位置、大きさ、広がり)は、3D表示によって障害物やその他のオブジェクトを観察者に対してより立体的に描写できる、即ち、ドライバーに周辺領域のより改善された印象を伝えることができるため、特に3D可視化用として有用に用いることができる。即ち、該グリッド・モデル、乃至、湾曲した表面を、周辺領域が、ライブ3Dモデルに見えるようにすら改善することも可能である。その際、例えば、10x10cmタイルからなる、オブジェクト情報を含む車両周辺部のモデルを用いる、或いは、作成することができる。これらの情報を基にすれば、投影表面を、周辺領域の本当の3Dモデルであるかのごとく表示できるようにモデル化することも可能である。
1 センサー
2 画像前処理手段
3 データ技術的接続手段
4 画像処理手段
5 表示手段
9 データ技術的接続手段
10 ドライバー・アシスタント・システム
13 車両のダイナミクス
20 車両
21 グリッド・モデル
22 セル
23 オブジェクト
24 ヒストリカルなオブジェクト・インフォメーション
25 予測されるオブジェクト・インフォメーション
26 移動方向
27 オブジェクト
100 ドライバー・アシスタント・システム
101 センサー
102 画像前処理手段
103 データ技術的接続手段
104 画像処理手段
105 表示手段
106 データ技術的接続手段
107 データ保存手段
108 データ保存手段
109 データ技術的接続手段
111 センサー
112 画像データ・前処理・領域
121 センサー
122 画像データ・前処理・領域
131 センサー
220 車両
221 3D・グリッド・モデル
222 セル
223 車両
301 画像
311 画像
321 画像
331 画像
351 補正された画像
C カメラの位置
E 面
GO 湾曲した表面
o オブジェクト
R 間隔
v バーチャル視点

Claims (14)

  1. 以下のステップを有することを特徴とする車両の周辺部を表示するための方法:
    − 少なくとも一つのセンサー(1,101,111,121,131)を用いて車両の周辺部(20,220)を捕捉することによる該車両の周辺部(20,220)のセンサーデータの作成、
    − センサーデータの生画像データへの前処理、
    − 生画像データの車両周辺部(20,220)のグリッド・モデル(21,221)を用いたオブジェクト・インフォメーションへの加工、
    − 生画像データからの画像・オブジェクト・データへの前処理のための、得られたオブジェクト・インフォメーション、及び/或いは、グリッド・モデル(21,221)の使用、
    − 画像・オブジェクト・データの表示
    であって、
    − センサーデータを生画像データに、画像前処理手段(102)によって前処理し、
    車両パラメータないし車両機能を制御するための手段に用いられるオブジェクト・インフォメーションであって、認識されたオブジェクトを特徴づけるか識別するかの少なくともいずれかのための情報と、オブジェクトの状態についての情報との少なくともいずれかを含むオブジェクト・インフォメーションを取得するために、生画像データのオブジェクト・インフォメーションへの処理を画像処理手段(104)によって実施し、
    − 該画像処理手段(104)は、車両パラメータないし車両機能を制御するための手段である車両ダイナミクスに接続され、生画像データを画像前処理手段(102)から第一データ技術的接続手段(103)を介して受け取り、
    − 画像前処理手段(102)により、生画像データとオブジェクト・インフォメーションを、画像データだけでなく付加的な情報も含んだ組み合わされた画像・オブジェクト・データに前処理し、
    − 該画像前処理手段(102)は、オブジェクト・インフォメーションを画像処理手段(104)から、第ニデータ技術的接続手段(106)を介して受け取り、該オブジェクト・インフォメーションが、認識されたオブジェクトの自車両に対する危険性、距離および高さの少なくともいずれかを示すために、使用される。
  2. オブジェクト・インフォメーションを、他のセンサー(111,121)のデータと比較して検証する、及び/或いは、オブジェクト・インフォメーションの精度を高めることを特徴とする請求項に記載の方法。
  3. 生画像データの処理の範囲において、少なくとも、過去のオブジェクト・インフォメーション(24)および予測されるオブジェクト・インフォメーション25)のいずれかを用いることを特徴とする請求項1からのうち何れか一項に記載の方法。
  4. 周辺領域のグリッド・モデル(21,221)が、セル(22,222)を有しており、該セル(22,222)には、部分オブジェクト・インフォメーションが割り当てられ、該部分オブジェクト・インフォメーションを基にしてオブジェクトを認識するステップにおいて、オブジェクト・インフォメーションが作成されることを特徴とする請求項1からのうち何れか一項に記載の方法。
  5. グリッド・モデル(21,221)のセル(22,222)が、グリッド(21,221)内のセル(22,222)の位置に依存する大きさ形状、および向きの少なくともいずれかを有することを特徴とする請求項1からのうち何れか一項に記載の方法。
  6. グリッド・モデル(21,221)として、3D・グリッド・モデル(221)が用いられ、生画像データを、カメラの位置(C)から該3D・グリッド・モデル上(221)に投影することを特徴とする請求項1からのうち何れか一項に記載の方法。
  7. 車両の周辺部(20,220)のグリッド・モデル(21,221)が、湾曲した表面を表している、但し、湾曲半径は、車両(20,220)からの距離(R)が増すにつれ、大きくなっていることを特徴とする請求項に記載の方法。
  8. グリッド・モデル(21,221)のセル(22,222)に、セルに係る部分オブジェクト・インフォメーションが割り当てられ、認識されたオブジェクト(23,27)のオブジェクト・インフォメーションが、オブジェクトの高さに関するオブジェクト・インフォメーションと共に、画像前処理手段(102)に伝送されることを特徴とする請求項1からのうち何れか一項に記載の方法。
  9. 以下を装備していることを特徴とする車両(20,220)の周辺部を表示するための装置(100):
    − 車両(20,220)の周辺部を捕捉して、車両(20,220)の周辺部のセンサーデータを作成するための少なくとも一つのセンサー(1,101,111,121,131)、
    − センサーデータを生画像データに前処理するための画像データ・前処理・領域(112,122)を有し、オブジェクト・インフォメーション、及び/或いは、グリッド・モデル(21,221)を画像・オブジェクト・データに対して用いて該生画像データを前処理するように構成された画像前処理手段(102)、
    − 画像前処理手段(102)へのデータ技術的接続手段(103,106)を有し、車両パラメータないし車両機能を制御するための手段に用いられるオブジェクト・インフォメーションであって、認識されたオブジェクトを特徴づけるか識別するかの少なくともいずれかのための情報と、オブジェクトの状態についての情報との少なくともいずれかを含むオブジェクト・インフォメーションを取得するために、グリッド・モデル(21,221)を用いて生画像データをオブジェクト・インフォメーションに処理するように構成された画像処理手段(104)、並びに、
    − 画像・オブジェクト・データを表示するための表示手段(105)
    であって、
    − 画像処理手段(104)は、車両パラメータないし車両機能を制御するための手段である車両ダイナミクスに接続され、生画像データを画像前処理手段(102)から第一データ技術的接続手段(103)を介して受信し、
    − 画像前処理手段(102)により、生画像データとオブジェクト・インフォメーションを、画像データだけでなく付加的な情報も含んだ組み合わされた画像・オブジェクト・データに前処理し、
    − 該画像前処理手段(102)は、オブジェクト・インフォメーションを画像処理手段(104)から、第ニデータ技術的接続手段(106)を介して受信し、該オブジェクト・インフォメーションが、認識されたオブジェクトの自車両に対する危険性、距離および高さの少なくともいずれかを示すために、使用される。
  10. 以下を特徴とする請求項に記載の装置:
    − 該画像前処理手段(102)が、生画像データとオブジェクト・インフォメーションから得られた画像・オブジェクト・データを表示するための表示手段(105)と接続されている。
  11. 画像処理手段(104)とデータ技術的に接続される更なるセンサー(111,121,131)を装備している、但し、該画像処理手段(104)が、更なるセンサー(111,121,131)のデータと比較することによってオブジェクト・インフォメーションを検証、及び/或いは、オブジェクト・インフォメーションの精度を高めるように構成されていることを特徴とする請求項から10のうち何れか一項に記載の装置。
  12. 少なくとも、過去のオブジェクト・インフォメーション(24)および予測されたオブジェクト・インフォメーション25)のいずれかを保存するためのデータ保存手段(107)を装備している、但し、該画像処理手段(104)が、ヒストリカルな、及び/或いは、予測されたオブジェクト・インフォメーション(24,25)を、生画像データを処理する範囲において用いることができるように構成されていることを特徴とする請求項から11のうち何れか一項に記載の装置。
  13. 車両(20,220)の周辺部のグリッド・モデル(21,221)を保存するためのデータ保存手段(108)を装備している、但し、画像処理手段(104)が、グリッド・モデル(21,221)のセル(22,222)に割り当てられた部分オブジェクト・インフォメーションを基にしてオブジェクト認識ができるように構成されている、及び/或いは、該画像前処理手段(102)が、グリッド・モデル(21,221)を基にして生画像データを前処理できるように構成されていることを特徴とする請求項から12のうち何れか一項に記載の装置。
  14. 請求項から13のうち何れか一項に記載の装置を装備したドライバー・アシスタント・システム。
JP2016546143A 2013-10-02 2014-09-26 車両の周辺部を表示するための方法と装置、並びに、ドライバー・アシスタント・システム Active JP6522630B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102013220005.6 2013-10-02
DE102013220005.6A DE102013220005A1 (de) 2013-10-02 2013-10-02 Verfahren und Vorrichtung zur Anzeige der Umgebung eines Fahrzeugs und Fahrerassistenzsystem
PCT/DE2014/200509 WO2015048967A1 (de) 2013-10-02 2014-09-26 Verfahren und vorrichtung zur anzeige der umgebung eines fahrzeugs und fahrerassistenzsystem

Publications (2)

Publication Number Publication Date
JP2016535377A JP2016535377A (ja) 2016-11-10
JP6522630B2 true JP6522630B2 (ja) 2019-05-29

Family

ID=51845262

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016546143A Active JP6522630B2 (ja) 2013-10-02 2014-09-26 車両の周辺部を表示するための方法と装置、並びに、ドライバー・アシスタント・システム

Country Status (5)

Country Link
US (1) US10093233B2 (ja)
EP (1) EP3053133B1 (ja)
JP (1) JP6522630B2 (ja)
DE (2) DE102013220005A1 (ja)
WO (1) WO2015048967A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102261312B1 (ko) 2015-04-21 2021-06-08 주식회사 만도 다중 카메라 운전 보조 시스템
WO2016198059A1 (de) 2015-06-11 2016-12-15 Conti Temic Microelectronic Gmbh Verfahren zur erzeugung eines virtuellen bildes einer fahrzeugumgebung
US10025886B1 (en) * 2015-09-30 2018-07-17 X Development Llc Methods and systems for using projected patterns to facilitate mapping of an environment
DE102015221356B4 (de) 2015-10-30 2020-12-24 Conti Temic Microelectronic Gmbh Vorrichtung und Verfahren zur Bereitstellung einer Fahrzeugrundumansicht
KR102201290B1 (ko) * 2016-05-30 2021-01-08 엘지전자 주식회사 차량용 디스플레이 장치 및 차량
DE102016114168A1 (de) * 2016-08-01 2018-02-01 Connaught Electronics Ltd. Verfahren zum Erfassen eines Objekts in einem Umgebungsbereich eines Kraftfahrzeugs mit Vorhersage der Bewegung des Objekts, Kamerasystem sowie Kraftfahrzeug
US10678240B2 (en) * 2016-09-08 2020-06-09 Mentor Graphics Corporation Sensor modification based on an annotated environmental model
JP6678605B2 (ja) * 2017-01-11 2020-04-08 株式会社東芝 情報処理装置、情報処理方法、および情報処理プログラム
EP3561774A4 (en) * 2017-01-23 2019-11-20 Samsung Electronics Co., Ltd. METHOD AND DEVICE FOR GENERATING AN IMAGE TO INDICATE AN OBJECT ON THE PERIPHERY OF A VEHICLE
US10318822B2 (en) * 2017-04-06 2019-06-11 GM Global Technology Operations LLC Object tracking
JP6819514B2 (ja) * 2017-08-28 2021-01-27 トヨタ自動車株式会社 画像処理装置及び撮像装置
US10491885B1 (en) * 2018-06-13 2019-11-26 Luminar Technologies, Inc. Post-processing by lidar system guided by camera information
CN112208438B (zh) * 2019-07-10 2022-07-29 台湾中华汽车工业股份有限公司 行车辅助影像产生方法及系统
DE102019119929B4 (de) * 2019-07-23 2024-05-08 Avl Software And Functions Gmbh Verfahren zur Erfassung einer Fahrzeugumgebung
US11034298B2 (en) * 2019-11-18 2021-06-15 Continental Automotive Systems, Inc. Vehicle surround view system for identifying unobservable regions while reversing a trailer
US20230089897A1 (en) * 2021-09-23 2023-03-23 Motional Ad Llc Spatially and temporally consistent ground modelling with information fusion
DE102023115070A1 (de) 2023-06-07 2023-08-24 Daimler Truck AG Rangierassistenzsystem für ein Nutzfahrzeug sowie ein Verfahren

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5983251A (en) * 1993-09-08 1999-11-09 Idt, Inc. Method and apparatus for data analysis
US8364136B2 (en) * 1999-02-01 2013-01-29 Steven M Hoffberg Mobile system, a method of operating mobile system and a non-transitory computer readable medium for a programmable control of a mobile system
DE10059900A1 (de) 2000-12-01 2002-06-13 Daimler Chrysler Ag Darstellung von bildhafter Umgebungsinformation
DE10109665B4 (de) 2001-02-28 2017-11-09 Volkswagen Ag Verfahren zur Darstellung der Umgebung eines Kraftfahrzeugs
DE10247563A1 (de) 2002-10-11 2004-04-22 Valeo Schalter Und Sensoren Gmbh Verfahren und System zur Unterstützung des Fahrers
DE10257484B4 (de) 2002-12-10 2012-03-15 Volkswagen Ag Vorrichtung und Verfahren zum Darstellen der Umgebung eines Fahrzeugs
FR2853121B1 (fr) * 2003-03-25 2006-12-15 Imra Europe Sa Dispositif de surveillance des alentours d'un vehicule
US20050089213A1 (en) * 2003-10-23 2005-04-28 Geng Z. J. Method and apparatus for three-dimensional modeling via an image mosaic system
JP2007181129A (ja) * 2005-12-28 2007-07-12 Hitachi Ltd 車載用移動体検出装置
JP2008102620A (ja) * 2006-10-17 2008-05-01 Toyota Motor Corp 画像処理装置
US8452524B2 (en) * 2007-05-25 2013-05-28 Continental Teves Ag & Co. Ohg Method and device for identifying traffic-relevant information
TWI495337B (zh) * 2007-08-04 2015-08-01 Omnivision Tech Inc 多區域成像系統
DE102009014437B4 (de) * 2008-03-26 2023-01-19 Continental Autonomous Mobility Germany GmbH Objekterkennungssystem und -verfahren
JP5439890B2 (ja) * 2009-03-25 2014-03-12 富士通株式会社 画像処理方法、画像処理装置及びプログラム
DE102009053807A1 (de) * 2009-11-18 2011-05-19 Conti Temic Microelectronic Gmbh Verfahren zum Unterstützen eines Fahrers beim Einparken eines Fahrzeugs
JP2011118482A (ja) * 2009-11-30 2011-06-16 Fujitsu Ten Ltd 車載装置および認知支援システム
JP5500255B2 (ja) * 2010-08-06 2014-05-21 富士通株式会社 画像処理装置および画像処理プログラム
DE102010040803A1 (de) 2010-09-15 2012-03-15 Continental Teves Ag & Co. Ohg Visuelles Fahrerinformations- und Warnsystem für einen Fahrer eines Kraftfahrzeugs
EP2481637B1 (en) * 2011-01-28 2014-05-21 Nxp B.V. Parking Assistance System and Method
JP2013140515A (ja) * 2012-01-05 2013-07-18 Toyota Central R&D Labs Inc 立体物検出装置及びプログラム
DE102012203171A1 (de) * 2012-02-29 2013-08-29 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Bildverarbeitung von Bilddaten
US10002297B2 (en) * 2012-06-20 2018-06-19 Imprivata, Inc. Active presence detection with depth sensing
US9274525B1 (en) * 2012-09-28 2016-03-01 Google Inc. Detecting sensor degradation by actively controlling an autonomous vehicle
WO2015006224A1 (en) * 2013-07-08 2015-01-15 Vangogh Imaging, Inc. Real-time 3d computer vision processing engine for object recognition, reconstruction, and analysis
US9485333B2 (en) * 2013-11-22 2016-11-01 Freescale Semiconductor, Inc. Method and apparatus for network streaming
US10127670B2 (en) * 2016-09-27 2018-11-13 Xactware Solutions, Inc. Computer vision systems and methods for detecting and modeling features of structures in images

Also Published As

Publication number Publication date
WO2015048967A1 (de) 2015-04-09
JP2016535377A (ja) 2016-11-10
EP3053133A1 (de) 2016-08-10
EP3053133B1 (de) 2018-11-28
US20160221503A1 (en) 2016-08-04
US10093233B2 (en) 2018-10-09
DE112014003327A5 (de) 2016-06-30
DE102013220005A1 (de) 2015-04-02

Similar Documents

Publication Publication Date Title
JP6522630B2 (ja) 車両の周辺部を表示するための方法と装置、並びに、ドライバー・アシスタント・システム
JP7245295B2 (ja) 車両・被牽引車両コンビの周辺シーンを表示するための方法、並びに、装置
KR102657198B1 (ko) 화상 처리 장치 및 화상 처리 시스템
CN107438538B (zh) 用于显示车辆的车辆周围环境的方法
KR101911610B1 (ko) 어떤 차량의 차량 주변을 왜곡 없이 표시하기 위한 방법 및 장치
US9858639B2 (en) Imaging surface modeling for camera modeling and virtual view synthesis
JP6311020B2 (ja) 映像合成システムとそのための映像合成装置及び映像合成方法
JP6310652B2 (ja) 映像表示システム、映像合成装置及び映像合成方法
KR101811157B1 (ko) 사발형 영상 시스템
JP4642723B2 (ja) 画像生成装置および画像生成方法
JP7295123B2 (ja) 調整された投影面を有するサラウンドビュー・システム
JP2018531530A6 (ja) 車両・被牽引車両コンビの周辺シーンを表示するための方法、並びに、装置
CN113196007B (zh) 一种应用于车辆的相机系统
CN110555407B (zh) 路面车辆空间识别方法及电子设备
JP2014520337A (ja) 車両周辺視角化のための3次元映像合成装置およびその方法
KR102538592B1 (ko) 탑-뷰 영상 생성 장치 및 그 방법
JP2008083786A (ja) 画像生成装置および画像生成方法
JP5959264B2 (ja) 画像処理装置及び方法、並びにコンピュータプログラム
KR102057021B1 (ko) 패널 변환
JP7028536B2 (ja) 表示システム
KR20170118077A (ko) 차량 주변을 왜곡 없이 보여주는 방법 및 장치
KR102124298B1 (ko) 후방 교차 교통-퀵 룩스
JPWO2018221209A1 (ja) 画像処理装置、画像処理方法、及び、プログラム
US20160037154A1 (en) Image processing system and method
CN112334947B (zh) 基于传感器和存储器表示周围环境的方法、显示装置和具有显示装置的车辆

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180926

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190424

R150 Certificate of patent or registration of utility model

Ref document number: 6522630

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250