JP7053816B2 - 動力車両および動力車両の環境領域を所定のターゲットビューで示す出力画像を生成する方法、カメラシステム、及び動力車両 - Google Patents

動力車両および動力車両の環境領域を所定のターゲットビューで示す出力画像を生成する方法、カメラシステム、及び動力車両 Download PDF

Info

Publication number
JP7053816B2
JP7053816B2 JP2020520219A JP2020520219A JP7053816B2 JP 7053816 B2 JP7053816 B2 JP 7053816B2 JP 2020520219 A JP2020520219 A JP 2020520219A JP 2020520219 A JP2020520219 A JP 2020520219A JP 7053816 B2 JP7053816 B2 JP 7053816B2
Authority
JP
Japan
Prior art keywords
camera
image
pixel density
specific
original
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020520219A
Other languages
English (en)
Other versions
JP2020537250A (ja
Inventor
ウラジミール、ズロコリカ
マーク、パトリック、グリフィン
ブライアン、マイケル、トーマス、ディーガン
バリー、デバー
ジョン、マハー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Connaught Electronics Ltd
Original Assignee
Connaught Electronics Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Connaught Electronics Ltd filed Critical Connaught Electronics Ltd
Publication of JP2020537250A publication Critical patent/JP2020537250A/ja
Application granted granted Critical
Publication of JP7053816B2 publication Critical patent/JP7053816B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20064Wavelet transform [DWT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

発明は、少なくとも2つの車両側カメラによって取り込まれた少なくとも部分的に重なり合う原画像に基づいて、所定のターゲットビューで動力車両および動力車両の環境領域を示す出力画像を生成する方法に関する。さらに、発明は、動力車両および動力車両用のカメラシステムに関する。
例えばサラウンドビューカメラシステムのような車両側のカメラシステムのカメラによって動力車両の環境領域を監視することは、従来技術から既に知られている。カメラによって取り込まれた原画像又は入力画像は、表示装置、例えば動力車両の客室におけるディスプレイ上で、動力車両のドライバーに表示されることができる。そこでは、出力画像はまた、所定のターゲットビューにおいて又は所定のターゲットパースペクティブから動力車両及び環境領域を表す異なるカメラの原画像からどんどんと生成される。そのような所定のターゲットビュー又はターゲットパースペクティブは、いわゆる三人称視点又は三人称パースペクティブとしうるものであり、それによって、動力車両の環境領域並びに動力車両自体が、車両の外部の観察者の視点、いわゆる仮想カメラから、出力画像において表される。そのような三人称視点は、例えばトップビューとしうる。したがって原画像から生成される出力画像は、動力車両の上面と動力車両を取り巻く環境領域を画像化する、鳥瞰図表現とも呼ばれるトップビュー画像である。
出力画像を生成するために、原画像は、ターゲット面、例えば二次元平面又は曲面に投影される。続いて、原画像が組み合わされ、出力画像にレンダリングされ、それによって出力画像は、任意に選択可能なターゲットパースペクティブから仮想カメラによって取り込まれたようであり、したがって任意に選択可能な表示エリア又はビューポートを持つ。別の言い方をすると、原画像は、モザイクのような出力画像が組み合わせられて統合されることができ、それは、仮想カメラの位置にある単一の実際のカメラによって取り込まれたような印象を最終的に作り出す。トップビュー画像の形式の出力画像では、仮想カメラは、例えば、動力車両の真上且つ動力車両に平行な車両垂直軸の方向に位置付けられ、それによって表示エリアは、例えば道路エリアのような、アンダーグラウンドを持つ。
そこで高品質の出力画像を得るために、異なるカメラによって取り込まれたが環境領域に由来する同じ三次元コンテンツを有する原画像における相互に対応する画像エリアは、同様の特性を持つはずである。例えば、それらは同様の明るさ、色、解像度、鮮明度及びノイズを持つべきである。したがって、これが当てはまらずに異なる鮮明度を有する画像エリアが例えば組み合わされたり又は統合されたりする場合、組み合わされた出力画像が目立つ鮮明度差及び鮮明度遷移を有する出力画像エリアを有することが起こり得る。これらの鮮明度差は、特に動力車両が動く場合に、ドライバーに表示される出力画像の画質を低下させ、ドライバーに不快感を与えうる。
本発明の目的は、どのようにして動力車両及び動力車両の環境領域を所定のターゲットビューで示す出力画像を高品質で生成して動力車両のドライバーにそれらを表示できるかを解決する方法を提供することである。
発明によれば、この目的は、それぞれの独立請求項による特徴を有する方法、カメラシステム、並びに動力車両によって解決される。発明の有利な実施形態は、従属請求項の主題、説明及び図である。
少なくとも2つの車両側カメラによって取り込まれた少なくとも部分的に重なり合う原画像に基づいて、所定のターゲットビューで動力車両及び動力車両の環境領域を示す出力画像を生成するための方法の一態様によれば、それぞれのカメラに特定のピクセル密度マップが特に指定され、それらの各々は、出力画像の生成に寄与する関連のカメラによって取り込まれた原画像のピクセル数の画像-領域依存分布を表し。原画像は、フィルタリングの画像-領域依存範囲を示す関連のカメラに固有のピクセル密度マップに基づいて、空間的に適応的にフィルタリングされることができる。特に、相互に対応する画像エリアは、少なくとも2つのカメラの少なくとも部分的に重なり合う原画像で識別され、1つのカメラの原画像の画像エリアは、相互に対応する画像エリア間の鮮明度差を低減するためにそれぞれに他のカメラに指定されたピクセル密度マップに基づいて空間的に適応的にフィルタリングされ、フィルタリングされた原画像は、再マッピングされたフィルタリングされた原画像を生成するためのターゲットビューに対応する画像面に再マッピングされる。出力画像は、再マッピングされたフィルタリングされた原画像を組み合わせることで、生成されることができる。
特に好ましくは、少なくとも2つの車両側カメラによって取り込まれた少なくとも部分的にオーバーラップする原画像に基づいて、所定のターゲットビューにおける動力車両及び動力車両の環境領域を示す出力画像を生成するための方法において、それぞれのカメラ固有のピクセル密度マップが指定され、それらの各々は、出力画像の生成に寄与する関連カメラによって取り込まれた原画像のピクセル数の画像-領域依存分布を表す。フィルタリングの画像-領域依存範囲を示す関連カメラに固有のピクセル密度マップに基づいて、原画像は空間的に適応的にフィルタリングされる。さらに、相互に対応する画像エリアは、少なくとも2つのカメラの少なくとも部分的にオーバーラップする原画像で識別され、1つのカメラの原画像の画像エリアは、相互に対応する画像エリア間の鮮明度差を低減するためにそれぞれの他のカメラに固有のピクセル密度マップに基づいて空間的に適応的にフィルタリングされ、フィルタリングされた原画像は、再マッピングされたフィルタリングされた原画像を生成するためのターゲットビューに対応する画像面に再マッピングされる。出力画像は、再マッピングされたフィルタリングされた原画像を組み合わせることにより生成される。
言い換えると、これは、第1カメラで取り込まれた少なくとも1つの第1原画像に関して、出力画像の生成に寄与する第1カメラにより取り込まれた少なくとも1つの第1原画像のピクセル数の画像-領域依存分布を示す第1ピクセル密度マップが指定されることを意味する。第1カメラとは異なる第2カメラで取り込まれた少なくとも1つの第2原画像に関して、第2ピクセル密度マップが指定され、それは、出力画像の生成に寄与する第2カメラで取り込まれた少なくとも1つの第2原画像のピクセル数の画像-領域依存分布を表す。そこで、少なくとも1つの第1原画像は、第1ピクセル密度マップに基づいて空間的に適応的にフィルタリングされ、少なくとも1つの第2原画像は、第2ピクセル密度マップに基づいて空間的に適応的にフィルタリングされる。さらに、少なくとも1つの第1画像における画像エリアは第2ピクセル密度マップに基づいてフィルタリングされ、少なくとも1つの第2画像における対応の画像エリアは第1ピクセル密度マップに基づいてフィルタリングされる。
その方法は、高品質の出力画像を生成するのに役立ち、当該出力画像は、動力車両及び動力車両の周囲の環境領域を所定のターゲットビューにおいて又は所定のターゲットパースペクティブから示す。出力画像は、車両側の表示装置において、動画像列、特にリアルタイムビデオの形で、動力車両のドライバーに表示されることができる。出力画像は、例えば、少なくとも2つの車両側カメラによって捕捉された原画像又は入力画像に基づいて車両側画像処理装置によって生成される。そこで、原画像は、画像面又はターゲット面、例えば二次元表面、に再マッピング又は投影され、再マッピング又は投影された原画像は出力画像を生成するために組み合わされる。車両側表示装置における出力画像の表示により、ドライバーは動力車両の操縦を支援されることができる。ドライバーは、表示装置を見ることで環境領域を捕らえることができる。サラウンドビューカメラシステム及び表示装置は、カメラモニターシステム(CMS)を構成する。
特に、出力画像は、車両側のサラウンドビューカメラシステムの少なくとも4つのカメラの少なくとも4つの原画像に基づいて、生成される。そこで、カメラは、特に、動力車両で取り付けの異なる場所に配置され、それによって異なる視点又は異なる向きの検知範囲を有する。したがって、異なる原画像は、環境領域の異なる部分的なエリアも示す。例えば、動力車両の前の環境領域からの少なくとも1つの第1原画像はフロントカメラで取り込むことができ、助手席側の環境領域からの少なくとも1つの第2画像は助手席側のサイドミラーカメラで取り込むことができ、動力車両の後ろの環境領域からの少なくとも1つの第3画像は後部カメラで取り込むことができ、運転席側の環境領域からの少なくとも1つの第4画像は、運転席側のサイドミラーカメラによって取り込むことができる。好ましくは、出力画像は、環境領域のトップビュー画像又は鳥瞰図表現である。したがって、所定のターゲットビューは、好ましくはトップビューに対応する。
各カメラに関してピクセル密度マップが指定されており、当該ピクセル密度マップに基づいて、それぞれのカメラの原画像が空間的に適応的にフィルタリングされる。ピクセル密度マップは一旦決定され、例えば、関連のピクセル密度マップに基づいてカメラの原画像を空間的に適応的にフィルタリングすることができる画像処理装置のための車両側記憶装置に記録されることができる。ピクセル密度マップはピクセル密度の空間分布に対応し、当該ピクセル密度の空間分布は、原画像のピクセル又は画像素子の数を表し、それは出力画像内のある画像領域の生成に寄与する。ある画像領域は、環境領域におけるある部分エリア又はいわゆる関心領域(ROI)を画像化する。例えば、環境領域、例えば地表面又は道路表面、を部分エリアに分割して各部分エリアに関する測定値を決めることによって、分布が決められることができる。そこでは、測定値は、出力画像におけるそれぞれの部分エリアを表すために用いられる出力画像と原画像との間の画像素子の数の比率を表す。別の言い方をすると、環境領域が分割され、環境領域におけるある部分エリアが選択され、ピクセル密度が決められる。これにより、このある部分エリアが原画像及び出力画像のそれぞれにおいて占めるピクセル数が決められる。したがって、ピクセル密度マップは、組み合わされた出力画像に対する原画像のピクセル比を測定するための測定基準である。一方で、ピクセル密度マップは、出力画像における干渉信号、例えば人工的なちらつき効果やエイリアシングアーティファクトの画像領域依存重大度を示すものを与える。他方、ピクセル密度マップは、画像領域依存サブサンプリング又はアップサンプリングの量又は大きさを示すものを与える。
ピクセル密度マップにより、画像領域を特定でき、当該画像領域は、大幅なアップサンプリング規模を受け、それにより出力画像にぼけを導入する。それぞれのピクセル密度マップを決めるために、決定されたピクセル密度は、それらの大きさに基づいて少なくとも2つの密度ゾーンにグループ化されることができる。換言すれば、値の所定範囲内の値を有するピクセル密度が、密度ゾーンに割り当てられることができる。そこでは、特に5つを超える密度ゾーン又はピクセル密度クラスターが決められることが提供されうる。したがって、画像素子の対応する数の比又は対応するサブサンプリング比は、各密度ゾーンに関連付けられることができる。ピクセル密度マップは、例えば、動力車両におけるカメラの位置に応じて決められることができる。つまり、環境領域の部分エリアがカメラに近いほど、関連する画像領域におけるピクセル密度の値が大きくなる。低いピクセル密度が関連付けられている画像領域は、通常、多くの空間的なぼかしを有する。
加えて、相互に対応する画像エリアは、各々が同じ画像コンテンツを有する原画像において決められる。別の言い方をすれば、相互に対応する画像エリアは、環境領域の同じ部分エリアを示すが、異なるカメラで撮られている。カメラは、特に広角カメラであり、広角レンズ、例えば魚眼レンズを備える。それにより、隣り合う2つのカメラの捕捉範囲は、あるエリアで互いに重なり合うことができ、その結果、カメラは、ある領域で環境領域の同じ部分エリアを捕捉する。2つの原画像のこれらの相互に対応する画像エリアは、再マッピングされた原画像を出力画像に対して組み合わせる際にオーバーラップし、そのため出力画像の生成の際に両方とも考慮される。したがって、相互に対応する画像エリアはオーバーラップエリアである。そこでは、画像エリアが異なる鮮明度を有することが起こり得る。これは、2つの隣り合うカメラによって取り込まれた部分エリアがカメラまでの異なる距離を有するという事実から生じうる。異なる鮮明度を有するこれらのオーバーラップする画像エリアにより、結果として生じる出力画像は、顕著な鮮明度の不一致の形でかく乱効果をもたらし、結果として生じる出力画像エリアにおいて隣り合う出力画像エリアへの非調和的な鮮明度遷移をもたらす。それにより、出力画像の画質が低下する。
これを防ぐために、それぞれの原画像は、関連するピクセル密度マップに基づいて及びそれぞれの他の隣り合う原画像のピクセル密度マップに基づいて、空間的に適応的にフィルタリングされる。ピクセル密度マップ内のピクセル密度値により、高いレベルのぼやけを有するそれらの画像領域が特に簡単かつ迅速に識別されることができ、それに応じてフィルタリングを受けることができる。特に、それらの画像領域は、サブサンプリングがないピクセル密度マップを介して識別されることができる。サブサンプリングを行わないか又はアップサンプリングのみかの画像領域でのみ、再マッピング、つまり透視投影、により、追加のぼかしが出力画像に導入されることが予想される。それらの画像領域において、鮮明化が適用されることができ、そして関連するカメラ及びその隣り合うカメラのピクセル密度値が使用されて、フィルタリング、ピーキング、又はぼやけの量を定める。それにより、画像エリアの異なる鮮明度が互いに適合されることができ、鮮明度差が低減されることができる。
要するに、それぞれの原画像は、関連付けられた隣接ピクセル密度マップに基づいて、空間的に適応的にフィルタリングされる。ピクセル密度マップは、適用される空間的適応フィルターをガイドすることができる。空間的適応フィルタリングは、カメラに関連付けられたピクセル密度マップと、同じオーバーラップ画像エリアを共有する隣り合うカメラのピクセル密度マップとに応じて、空間平滑化又はぼかし操作と鮮明化又はピーキング操作として働く。特に、妨害信号及びピーキング強度を低減するための空間ローパスフィルタリングが、ピクセル密度マップに適応するように形成されることができ、フィルタリングは両ケースにおいて空間的に適応されている。関連するカメラと隣り合うカメラのピクセル密度マップに基づく原画像の空間的適応フィルタリングにより、ぼやけた画像エリアは、例えば勾配ピーキングによって、鮮明化されることができる。さらに、他の原画像における対応のオーバーラップ画像エリアを十分に鮮明化することができない場合、必要に応じて、一方の原画像におけるオーバーラップ画像エリアが空間的に平滑化されることができる。
そしてフィルタリングされた原画像は、ターゲットビュー又はターゲットサーフェスに対応する画像面に再マッピングされる。原画像を再マッピングするために、原画像の幾何学的変換及び原画像ピクセルの補間が実行される。そして、再マッピングされてフィルタリングされた原画像は、出力画像を生成するために、統合される。所定のターゲットパースペクティブは、特に、車両の外部の観察者の視点からの動力車両及び動力車両の周囲の環境領域を示す三人称視点であり、動力車両自体は車両側カメラによって撮られることができず、出力画像を生成するために動力車両のモデルが挿入される。
隣り合うカメラのピクセル密度マップを考慮することにより、結果として得られる出力画像において調和のとれた鮮明度の進展が達成されることができ、これにより環境領域において同じ部分エリアを示す画像コンテンツ内での鮮明度及びぼやけの乱れをもたらす遷移が小さい高品質の出力画像を生成することができ、それは表示装置において動力車両のドライバーに表示されることができる。
好ましくは、フィルタリングされる原画像のそれぞれの画像領域を示すために、各カメラに関して、各1つの水平ピクセル密度マップ及び各1つの垂直ピクセル密度マップが決められる。これは、カメラの原画像が、関連するカメラの垂直ピクセル密度マップ及び水平ピクセル密度マップで空間的に適応的にフィルタリングされることを意味する。さらに、原画像の対応する画像エリアは、隣り合うカメラの水平ピクセル密度マップ及び垂直ピクセル密度マップで空間的に適応的にフィルタリングされる。
発明の特に好ましい実施形態において、カメラ固有のシャープネスマスクが、関連するカメラに固有のピクセル密度マップに応じて及びそれぞれの他のカメラに固有のピクセル密度マップに応じて、各カメラに関して定められ、原画像は、それぞれの原画像を取り込むカメラのそれぞれのシャープネスマスクに応じて空間的に適応的にフィルタリングされる。各1つの水平シャープネスマスク及び各1つの垂直シャープネスマスクが各カメラに関して決められることが提供され得る。水平シャープネスマスクは、関連するカメラに固有の及びそれぞれの他のカメラに固有の水平ピクセル密度マップに応じて、決められる。垂直シャープネスマスクは、関連するカメラに固有の及びそれぞれの他の各カメラに固有の垂直ピクセル密度マップに応じて、決められる。
特に、カメラ固有のシャープネスマスクは、関連するカメラの少なくとも1つのカメラ特性に応じてさらに定められる。好ましくは、それぞれのカメラのレンズ特性及び/又はそれぞれのカメラの少なくとも1つの外因性カメラパラメータ及び/又はそれぞれのカメラの少なくとも1つの内因性カメラパラメータは、少なくとも1つのカメラ特性として予め定められる。少なくとも1つのカメラ特性はまた、カメラの事前設定を含むことができ、それによりカメラは、すでに、あるカメラ内部の画像処理ステップを実行する。
言い換えると、特定のカメラに関するそれぞれのシャープネスマスクは、特定のカメラのピクセル密度マップ、隣り合うカメラのピクセル密度マップ、及び特定のカメラの少なくとも1つのカメラ特性に基づいて、決められる。カメラ固有のシャープネスマスクの決定のために、各原画像に関するピクセル密度マップ、特に垂直ピクセル密度マップ及び水平ピクセル密度マップが、隣り合うカメラのピクセル密度マップに基づいて、オーバーラップエリアで最初に修正されることができる。そしてその後、得られた修正済みのピクセル密度マップは、少なくとも1つのカメラ特性、例えばカメラ画像の鮮明度及び鮮明度における空間的不連続性に影響を与えうる特定のカメラ事前設定及び光学、を含むカメラ画像モデルと、組み合わされる。シャープネスマスクは二次元マスクであり、当該二次元マスクにより、画像領域ごとに異なる、実行されるべき鮮明化の範囲が予め定められる。それにおいて、ピクセルは、特に、シャープネスマスクの各要素に関連付けられ、シャープネスマスクにおける要素は、関連付けられたピクセルがどの程度フィルタリングされるかを指定する。シャープネスマスクによって、出力画像の品質に影響を与えるカメラ特性を考慮することができるが、それはピクセル密度マップ自体によっては考慮されることができない。
特に好ましくは、各カメラに関し、それぞれの原画像を空間的に適応的にフィルタリングするためのカメラ固有の空間的に適応的なフィルタースキームが、カメラ固有のシャープネスマスクに応じて決められる。したがって、カメラ固有のピクセル密度マップ、隣り合うカメラのピクセル密度マップ、及びカメラ関連の特性、つまりカメラ固有のシャープネスマスク、に応じて、適応フィルタリングスキームが各カメラに関して決められる。このようにして、高品質の出力画像を生成できる。
本発明の発展において、少なくとも2つの部分的にオーバーラップする原画像の対応する画像エリアの空間的に適応したフィルタリングのために、原画像のうちの1つ目のものにおける画像エリアの画像コンテンツは、第1原画像を撮ったカメラに固有のフィルタースキームによって鮮明化され、原画像のうちの2つ目のものにおける対応の画像エリアの画像コンテンツは、第2原画像を撮ったカメラに固有のフィルタースキームによってぼかされるか又はフィルタリングされない。特に、カメラ固有のシャープネスマスクに基づいて、この原画像は、鮮明化される第1原画像として識別され、その画像エリアは他の第2原画像の画像エリアと比較してより低い鮮明度を有する。この発展は、画像エリアは、環境領域の関連する部分エリアがカメラからどれだけ離れているかに応じて、ある鮮明度の相違があるという認識に基づいている。ここで、結果として得られる出力画像エリアの画質がこの鮮明度相違によって低下するのを防ぐために、出力画像を生成する前に、この鮮明度の相違が低減される。別の言い方をすると、さまざまな原画像の画像エリアの鮮明度が調和される。それに加えて、同じ画像コンテンツを有するそれぞれの画像エリアの鮮明度を、したがってオーバーラップエリアの鮮明度を、最初に決めることができる。そこでは、画像エリアが低い第1鮮明度を有する一方の原画像における画像エリアが鮮明にされ、画像エリアが第1鮮明度と比較してより高い第2鮮明度を有する他方の原画像ではぼやけているかまったくフィルタリングされない。そこでは、フィルタースキームの決定及びそれによる鮮明度適応の程度の決定は、特に、カメラ固有のシャープネスマスクに基づいて決められることができる鮮明度の相違に応じて、行われる。
カメラ固有の空間的適応フィルタースキームがマルチスケール及びマルチ方向の勾配アプローチに基づいて決められる場合、それは有利であることが分かる。そこでは、相互に対応する画像エリアをフィルタリングするためのフィルタースキームのフィルター特性及び強度が、それぞれの画像エリアにおいて各ピクセルについて別々に決められることが提供され得る。多重解像度勾配アプローチを使用すると、鮮明化される原画像の画像エリアにおいて勾配をピークにしたり強調したりでき、ぼかされる画像エリアにおいて勾配を滑らかにすることができる。そこでは、フィルタリングスキームが、オーバーラップエリアにおける鮮明度適応の最適な程度を達成するように、オーバーラップエリア内の各ピクセル位置、対応する勾配の大きさ、及び各カメラ画像に関して決められる。
発明の発展において、空間的適応フィルタースキームは、非間引きウェーブレット変換に基づいて修正され、ウェーブレット係数は、カメラ固有のシャープネスマスクに基づいて適応的に修正される。特に、ウェーブレット係数は、カメラ固有のシャープネスマスクに基づいて適用される転写トーンマッピング関数(transfer-tone-mapping function)に基づいて適応的に修正される。これにより、原画像のウェーブレットベースのフィルタリングが実行される。最も単純なケースにおいて、トーンマッピング関数又はカーブは固定形状を持つことができ、シャープネスマスクに基づいて適用される。有利には、トーンマッピング曲線は、各ウェーブレット帯域に関して異なる形状であり、対応するシャープネスマスクに基づいて再形成されることができる。
ウェーブレット変換に基づくマルチスケールアプローチ内では、原画像は特に最初に多重解像度の表現に分解され、各解像度レベルにおいて、原画像は異なる勾配方向バンドに更に分解される。ウェーブレット係数は、カメラ固有のシャープネスマスクに応じて順に適応される転写トーンマッピング関数又は動的圧縮関数に基づいて、適応的に決められる。最後に、ウェーブレット係数にトーンマッピング関数を適用した後、逆ウェーブレット変換が適用されて、フィルタリングされた原画像を取得し、当該フィルタリングされた原画像に基づいて、ターゲットビューの一部を生成することができる。
カメラ固有の空間的に適応するフィルタースキームを決めるために、ウェーブレット変換の少なくとも2つのウェーブレットバンドに関して、少なくとも2つのカメラ固有のシャープネスマスクが、関連するカメラに固有のピクセル密度マップに応じて及びそれぞれの他のカメラに固有のピクセル密度マップに応じて定められている場合、それは有利であることが分かる。例えば、水平シャープネスマスクは、水平方向に方向付けられているウェーブレットバンドに使用できる水平ピクセル密度マップに基づいて決められることができ、垂直シャープネスマスクは、垂直方向に方向付けられているウェーブレットバンドに使用できる垂直ピクセル密度マップに基づいて決められることができる。
発明の一実施形態では、少なくとも1つのシャープネスマスクは、ウェーブレットバンドにおける空間的に近接するエリア統計と組み合わされる。その統計は、個別に、各ウェーブレットバンドでの空間的に近接するエリアにおけるウェーブレット係数の相関に関係する。さらに、影響のコーン(cone)を決めるために、同じ方向内のウェーブレット係数のスケール間相関を使用できる。この影響のコーンは、各方向のウェーブレット係数がスケールをどのように進行するかについての情報を提供する。例えば、原カメラ画像における空間的近傍位置は、この近傍内の対応するウェーブレット係数の進行が多くの解像度スケールで拡大する場合、重要な特徴を含むと見なされる。したがって、その進行は、絶対的な鮮明度の推定又は鮮明度の向上が視覚的品質の点で最も違いをもたらす場所の推定に、使用されることができる。ウェーブレット係数が拡張するスケールが大きいほど、それがより重要な特徴になる。そして、シャープネスマスクを最大限に適用するか、最高レベルの鮮明度パラメータを使用すると、有利である。逆に、小さな進行は、増幅すべきではないノイズを含むエリアに対応する。シャープネスマスクと組み合わされるこれらの空間的に近接するエリアの統計は、空間的にローカルなウェーブレット係数近傍に対する適用されるシャープネスマスクのより高いレベルの適応性を促進し、より正確なウェーブレット処理スキームを提供する。
発明はさらに、動力車両の環境領域からの原画像を取り込むための少なくとも2つのカメラと、発明による方法又はその実施形態を実行するように適合された画像処理装置とを備える動力車両用のカメラシステムに関する。カメラシステムは、特に、動力車両の前の環境領域を取り込むためのフロントカメラ、動力車両の後ろの環境領域を取り込むためのリアカメラ、及び動力車両に隣り合う環境領域を取り込むための2つのサイドミラーカメラを含むサラウンドビューカメラシステムとして形成される。画像処理装置は、例えば車両側コントローラに統合されることができ、サラウンドビューカメラシステムの原画像又は入力画像に基づいて出力画像を生成するように形成される。
発明による動力車両は、発明によるカメラシステムを含む。動力車両は特に乗用車として形成される。それにおいて、カメラは、特に、動力車両の周囲の環境領域を監視できるように、動力車両に分散して配置される。さらに、動力車両は、出力画像を表示するための表示装置を備えることができ、当該表示装置は、例えば動力車両の客室に配置される。
発明による方法に関して提示される好ましい実施形態及びその利点は、発明によるカメラシステム及び発明による動力車両に対して、相応に適用される。
「前」、「後ろ」、「隣」、「上」、「左」、「右」、「横」などの表示によって、動力車両の前に立って動力車両の前後軸の方向に見ている観察者とともに与えられる位置及び向きが特定される。
発明のさらなる特徴は、特許請求の範囲、図面及び図面の説明から明らかである。説明で上述した特徴及び特徴の組み合わせ並びに図面の説明で以下に言及する及び/又は図面に示される特徴及び特徴の組み合わせは、発明の範囲から逸脱することなく、それぞれ特定の組み合わせだけでなく、他の組み合わせ又は単独でも使用可能である。したがって、図面に明示的に示されていないが、説明される実装から分離される特徴の組み合わせから生じ、当該組み合わせによって作られるうる実装もまた、発明によって包含及び開示されていると見なされるものである。したがって、当初に考案された独立請求項の特徴のすべてを備えているわけではない実装及び特徴の組み合わせも開示されていると見なされるものである。さらに、請求項に関係して示されている特徴の組み合わせを超えて又は当該組み合わせから逸脱する実装及び特徴の組み合わせは、特に上記に示された実装によって、開示されているものと見なされるものである。
発明による動力車両の一実施形態の略図。 動力車両の環境領域からの動力車両の4つのカメラで取り込まれた4つの原画像の略図。 動力車両の環境領域からの動力車両の4つのカメラで取り込まれた4つの原画像の略図。 動力車両の環境領域からの動力車両の4つのカメラで取り込まれた4つの原画像の略図。 動力車両の環境領域からの動力車両の4つのカメラで取り込まれた4つの原画像の略図。 動力車両の環境領域からの再マッピングされた原画像の略図。 再マッピングされた原画像から生成されるトップビュー画像の略図。 発明による方法コースの一実施形態の略図。 動力車両のサイドミラーカメラの水平ピクセル密度マップ及び垂直ピクセル密度マップの略図。 動力車両のサイドミラーカメラの水平ピクセル密度マップ及び垂直ピクセル密度マップの略図。 サイドミラーカメラの原画像の略図。
図面において、同一及び機能的に同一の要素には、同じ参照文字が与えられている。
図1は、本ケースでは乗用車として形成される動力車両1を示す。ここで、動力車両1はドライバー支援システム2を有し、当該ドライバー支援システム2は、動力車両1を運転する際に動力車両1のドライバーを支援することができる。ドライバー支援システム2は、動力車両1の環境領域4a、4b、4c、4dを監視するためのサラウンドビューカメラシステム3を有する。目下、カメラシステム3は、動力車両1に配置される4つのカメラ5a、5b、5c、5dを含む。第1カメラ5aは、フロントカメラとして形成され、動力車両1の前方エリア6に配置される。フロントカメラ5aは、動力車両1の前方の環境領域4aから第1原画像RC1(図2aを参照)を取り込むように適合されている。第2カメラ5bは、右サイドミラーカメラとして形成され、動力車両1の右サイドミラー7に又は当該右サイドミラー7の代わりに、配置される。右サイドミラーカメラ5bは、動力車両1の右側に隣り合う環境領域4bから第2原画像RC2(図2b参照)を取り込むように適合されている。第3カメラ5cは、リアカメラとして形成され、動力車両1の後方エリア8に配置される。リアカメラ5cは、動力車両1の背後の環境領域4cから第3原画像RC3(図2cを参照)を取り込むように適合されている。第4カメラ5dは、左サイドミラーカメラとして形成され、動力車両1の左サイドミラー9に又は当該左サイドミラー9の代わりに、配置される。左サイドミラーカメラ5dは、動力車両1の左に隣り合う環境領域4dから第4原画像RC4(図2d、図6を参照)を取り込むように適合されている。そこでは、図3aに示されるように再マッピングされた原画像R1、R2、R3、R4を生成するために、図2a、2b、2c、2dに示される原画像RC1、RC2、RC3、RC4が、ターゲット面S、例えば2次元平面、に投影又は再マッピングされる。
さらに、カメラシステム3は画像処理装置10を有し、当該画像処理装置10は、原画像RC1、RC2、RC3、RC4を処理するように、そして再マッピングされた原画像R1、R2、R3、R4を組み合わせることにより原画像RC1、RC2、RC3、RC4から出力画像を生成するように適合されている。出力画像は、動力車両1と、動力車両1を取り巻く環境領域4とを所定のターゲットビューで表す。そのようなターゲットビューは、トップビューとしうるものであり、それによって、観察者又は動力車両1の上方の仮想カメラの視点から動力車両1並びに環境領域4を示すトップビュー画像が出力画像として生成されることができる。この出力画像は、車両側表示装置11に表示されることができる。したがって、カメラシステム3及び表示装置11は、ドライバーによって自由に選択可能である任意の所望のターゲットビューで、動力車両1の環境エリア4を表示装置11に表示することによってドライバーを援助するカメラモニタシステムの形態のドライバー支援システム2を形成する。
そこでは、2つの隣り合うカメラ5a、5b、5c、5dの再マッピングされた原画像R1、R2、R3、R4と、原画像RC1、RC2、RC3、RC4とは、相互に対応する画像エリアB1a及びB1b、B2a及びB2b、B3a及びB3b、B4a及びB4bを有する。例えば、画像エリアB1aは、フロントカメラ5aによって取り込まれた第1再マッピング原画像R1に位置する。画像エリアB1aに対応する画像エリアB1bは、右サイドミラーカメラ5bによって取り込まれた第2再マッピング原画像R2に位置する。画像エリアB2aは、右サイドミラーカメラ5bによって検出された第2再マッピング原画像R2に位置しており、対応する画像エリアB2bは、リアカメラ5cなどによって取り込まれた第3再マッピング原画像R3に位置する。これは、相互に対応する画像エリアB1a及びB1b、B2a及びB2b、B3a及びB3b、B4a及びB4bが各々同じ画像コンテンツを持つことを意味する。これは、2つの隣り合うカメラ5a、5b、5c、5dの少なくとも部分的に重なり合う取り込み範囲に由来する。
特に、サイドミラーカメラ5b、5dの再マッピング原画像R2、R4及び原画像RC2、RC4内で、画像エリアB1b、B2a、B3b、B4aがぼやけるが、これはこれらの画像エリアB1b、B2a、B3b、B4aの画像コンテンツがここではカメラ5b、5dの検出範囲のエッジエリアに由来し且つカメラ5b、5dの広角レンズによって歪められもするためである。これらのぼやけた画像エリアB1b、B2a、B3b、B4aが、対応するが出力画像を生成するためにはっきりとよりシャープな画像エリアB1a、B2b、B3a、B4bと組み合わせられると、はっきりと見える鮮明度の不一致と一貫性のない鮮明度遷移が、生成された出力において現れる。図3bにおいて、トップビュー画像Tの形態の出力画像が例示的に示されている。トップビュー画像Tは、再マッピングされた原画像R1、R2、R3、R4から生成され、それにより動力車両1のモデル1’が挿入され、これは動力車両1自体をカメラ5a、5b、5c、5dによって検出できないためである。異なる鮮明度の対応する画像エリアB1a及びB1b、B2a及びB2b、B3a及びB3b、B4a及びB4bの組み合わせにより、トップビュー画像Tは、鮮明度不一致を持つそれぞれの画像エリアA1、A2、A3、A4を含む。したがって、図3bに示されるトップビュー画像Tは、トップビュー画像T内での顕著な鮮明度遷移の形で、低下した画質を有する。
このはっきりと見える鮮明度遷移を少なくとも弱めるために、したがって出力画像の画質を向上させるために、カメラシステム3の画像処理装置10は、図4におけるフローチャート12を参照して概略的に示される方法を実行するように設けられている。その方法により、原画像RC1、RC2、RC3、RC4をターゲット面Sに投影されるように空間的に適応的にフィルタリングして投影されたフィルタリング済み原画像R1、R2、R3、R4を出力画像に補間することにより、結果としてもたらされる出力画像において鮮明度の調和を達成することができる。
この目的のために、第1ステップ13において、カメラ固有のピクセル密度マップが、各カメラ5a~5dに関して規定される。それぞれのカメラ固有のピクセル密度マップは、原画像RC1、RC2、RC3、RC4又はターゲットビューとともに出力画像で使用される対応の再マッピング原画像R1、R2、R3、R4における2つの隣り合うピクセル位置間の距離の比率を表す。ターゲットビューでは距離はある基準値を持つので、その特定位置でターゲットビューとともに、出力画像でピクセルを生成するために使用される原画像RC1、RC2、RC3、RC4において対応の隣り合うピクセルの距離に基づいて、ピクセル密度マップが算出される。これは、基準値に応じた、空間的に可変なサブサンプリング又はアップサンプリングに対応する。水平ピクセル密度の場合、その距離は水平方向の水平隣接距離であり、垂直ピクセル密度の場合、その距離は垂直方向の垂直隣接距離である。ピクセル密度マップによって、フィルターが適用される原画像R1~R4のそれぞれの画像領域又は関心領域(ROI)の位置と、これらの画像領域に適用されるフィルターの範囲が特定されることができる。
ここで、特に、各カメラ5a~5dに関し、ピクセル密度マップとしての水平ピクセル密度マップ及び垂直ピクセル密度マップが定められる。図5aは、水平画像方向における空間的適応フィルタリングのための水平ピクセル密度マップPDM1a、PDM2aを示し、第1水平ピクセル密度マップPDM1aは左サイドミラーカメラ5dに割り当てられ、第2水平ピクセル密度マップPDM2aは右サイドミラーカメラ5bに割り当てられる。図5bは、垂直画像方向における空間的適応フィルタリングのための垂直ピクセル密度マップPDM1b、PDM2bを示し、第1垂直ピクセル密度マップPDM1bは左サイドミラーカメラ5dに割り当てられ、第2の垂直ピクセル密度マップPDM2bは右サイドミラーカメラ5bに割り当てられる。ここでは、明瞭さのために、フロントカメラ5a及びリアカメラ5bのピクセル密度マップが示されていない。
ここで、ピクセル密度は、それらの値の大きさに基づいて、それぞれのピクセル密度マップPDM1a、PDM2a、PDM1b、PDM2bにおける密度ゾーンZ1、Z2、Z3、Z4、Z5にグループ化又はクラスター化される。したがって、各密度ゾーンZ1、Z2、Z3、Z4、Z5は、ある対応のピクセル数比又は対応のサブサンプリング比に、割り当てられる。ここで、第1密度ゾーンZ1では、最も高い値を有するピクセル密度がグループ化され、密度値は、第5密度ゾーンZ5の方向に徐々に減少する。したがって、第5密度ゾーンZ5では、最も低い値を有するピクセル密度がグループ化される。密度ゾーンZ1、Z2、Z3、Z4、Z5を使用して、画像領域に応じて原画像RC1、RC2、RC3、RC4におけるいわゆるエイリアシングアーティファクトと呼ばれるかく乱効果の重症度を特定することができ、それは、例えば砂利道の表面での、高度なテクスチャーサブサンプリングにより原画像RC1、RC2、RC3、RC4で発生しうる。ピクセル密度が高いほど、密度ゾーンZ1、Z2、Z3、Z4、Z5に属する原画像RC1、RC2、RC3、RC4における画像領域でのかく乱効果が強くなる。
第2ステップ14では、異なる鮮明度のオーバーラップエリア又は画像エリアB1a及びB1b、B2a及びB2b、B3a及びB3b、B4a及びB4bに起因する出力画像における鮮明度の不一致の問題を解消するために、お互いに対応する画像エリアB1a及びB1b、B2a及びB2b、B3a及びB3b、B4a及びB4bが識別される。第3ステップ15では、カメラ固有のシャープネスマスクが、各カメラ5a、5b、5c、5dについて決められる。シャープネスマスクは、それぞれのカメラ固有のピクセル密度マップに応じて決められ、ここではそのピクセル密度マップPDM1a、PDM2a、PDM1b、PDM2bだけが、隣り合うカメラ5a、5b、5c、5dのピクセル密度マップにおいて、示されている。例えば、フロントカメラ5aのシャープネスマスク、特に水平シャープネスマスク及び垂直シャープネスマスク、は、フロントカメラ5aのピクセル密度マップ、右サイドミラーカメラ5bのピクセル密度マップPDM2a、PDM2b、及び左サイドミラーカメラ5dのピクセル密度マップPDM1a、PDM1bに基づいて、決められる。右サイドミラーカメラ5bのシャープネスマスク、特に水平シャープネスマスク及び垂直シャープネスマスク、は、右サイドミラーカメラ5bのピクセル密度マップPDM2a、PDM2b、フロントカメラ5aのピクセル密度マップ、及びリアカメラ5cのピクセル密度マップなどに基づいて、決められる。さらに、カメラ固有のシャープネスマスクは、少なくとも1つのカメラ特性、例えばカメラレンズモデル、カメラ5a、5b、5c、5dのイメージセンサー、カメラ設定、及びそれぞれのカメラ5a、5b、5c、5dの関心画像領域の画像位置に基づいて、決められる。したがって、各カメラ画像RC1、RC2、RC3、RC4は、カメラ固有のシャープネスマスクによってそれぞれの原画像RC1、RC2、RC3、RC4を検出するカメラ5a、5b、5c、5dのカメラ特性を考慮することにより、独立して考慮される。シャープネスマスクにより、例えばカメラ5a、5b、5c、5dの広角レンズによって引き起こされる原画像RC1、RC2、RC3、RC4の歪みは、ピクセルごとにモデル化されることができる。
図6に示される左側のサイドミラーカメラ5dの原画像RC4に基づいて、原画像RC4は、画像中心Mにおいて最も鮮明であり、例えば画像エリアB3b、B4aのように画像領域がより遠くなるほど、よりぼやけていることが視覚化される。この歪みは、ここでは、例えば、左サイドミラーカメラ5dの魚眼レンズの形態の広角レンズに起因する。原画像RC4におけるそのような劣化をマッピング又は記述するカメラ固有のシャープネスマスクは、空間的適応フィルタリングのための原画像RC1、RC2、RC3、RC4に関するフィルタースキームを決めるために第4ステップ16で使用される。フィルタースキームは、特に、空間的適応型フィルタースキームであり、当該空間的適応型フィルタースキームは、ウェーブレットなどのマルチスケールで多方向付けされた勾配アプローチに基づく。特に、特別に設計された転写トーンマッピング関数で適応的に修正される非間引きウェーブレット変換を使用できる。転写トーンマッピング関数は、カメラ固有のシャープネスマスクに基づいて調整されることができる。
第5ステップ17において、原画像RC1、RC2、RC3、RC4は、決定されたフィルタースキームを使って、それぞれのカメラ5a、5b、5c、5dのシャープネスマスクに基づき、空間的に適応的にフィルタリングされる。それにより、各原画像RC1、RC2、RC3、RC4は、関連付けられるカメラ5a、5b、5c、5dのシャープネスマスクに基づいて、特に水平及び垂直に、フィルタリングされる。フロントカメラ5aの原画像RC1はフロントカメラ5aのシャープネスマスクに基づいてフィルタリングされ、右サイドミラーカメラ5bの原画像RC2は右サイドミラーカメラ5bのシャープネスマスクに基づいてフィルタリングされ、リアカメラ5cの原画像RC3はリアカメラ5cのシャープネスマスクに基づいてフィルタリングされ、左サイドミラーカメラ5dの原画像RC4は左サイドミラーカメラ5dのシャープネスマスクに基づいてフィルタリングされる。特に、シャープネスマスクはガイダンス画像として機能し、当該ガイダンス画像は、例えばローパスフィルターや勾配ピーキングなどの、フィルターのフィルター強度を空間的に制限することができる。例えば原画像RC1、RC2、RC3、RC4におけるフリッカーとして生じうるかく乱効果を低減するために、例えばピクセル密度の値が高いほど、ローパスフィルターの強度を高く選択できる。カメラ固有の又は原画像固有のシャープネスマスクに応じて、したがって原画像RC1、RC2、RC3、RC4における妨害信号の画像領域依存の重症度に応じて、行われるフィルタリングは、原画像RC1、RC2、RC3、RC4がある画像領域で不必要に強いやり方で又は弱すぎるやり方でフィルタリングされるのを防ぐ。
対応する画像エリア又はオーバーラップエリアB1a及びB1b、B2a及びB2b、B3a及びB3b、B4a及びB4bでのダブルフィルタリングにより、出力画像内で、1つの原画像RC1、RC2、RC3、RC4から別の原画像RC1、RC2、RC3、RC4へのよりソフトな鮮明度遷移を得ることができる。それにより、それらの原画像RC2、RC4における画像エリアB1b、B2a、B3b、B4aがそれぞれ隣り合う原画像RC1、RC3の対応の画像エリアB1a、B2b、B3a、B4bよりも鮮明でないような、それらの原画像RC2、RC4の画像エリアB1b、B2a、B3b、B4aに関する低減されたフィルター強度が、それぞれのシャープネスマスクによって、与えられることができる。例えば、画像エリアB1b、B2a、B3b、B4aは、サイドミラーカメラ5b、5dにより検出され、それにより、フロントカメラ5a及びリアカメラ5cにより検出される画像エリアB1a、B2b、B3a、B4bよりも大きな歪みを受ける。不鮮明な、ぼやけた画像エリアB1b、B2a、B3b、B4aにおけるフィルター強度を低減することにより、これらは鮮明になる。これは「アップサンプリング」とも呼ばれる。逆に、よりシャープな画像エリアB1a、B2b、B3a、B4bは、これらの画像エリアB1a、B2b、B3a、B4bに関するフィルター強度を増大することによって不鮮明になる。これは「ダウンサンプリング」とも呼ばれる。したがって、それぞれのピクセル密度マップPDM1a、PDM1b、PDM2a、PDM2bは、「アップサンプリング」及び「ダウンサンプリング」の両方に役立つ。これは、原画像RC1、RC2、RC3、RC4が強いフィルタリングのみ又は弱いフィルタリングのみを受けることを防ぐ。
そして第6ステップ18において、フィルタリングされた原画像RC1、RC2、RC3、RC4は、再マッピングされたフィルタリングされた原画像R1、R2、R3、R4を生成するために、画像面Sに再マッピングされる。第7ステップ19において、それらの再マッピングされフィルタリングされた原画像R1、R2、R3、R4は、所定のターゲットビュー、例えばトップビューで、動力車両1及び環境領域4を示す出力画像に統合される。
要するに、ピクセル密度マップ、特にそれぞれの垂直ピクセル密度マップ及び水平ピクセル密度マップPDM1a、PDM1b、PDM2a、PDM2bは、各カメラ5a、5b、5c、5d及びピクセル密度マップPDM1a、PDM1b、PDM2a、PDM2bに関して個別に決められることができ、隣り合うピクセル密度マップPDM1a、PDM1b、PDM2a、PDM2bに応じて調整されることができる。これに基づいて、2次元空間シャープネスマスクを、各カメラ5a、5b、5c、5dに関し、カメラ設定及びそれぞれのカメラ5a、5b、5c、5dのレンズマウントに応じて決めることができ、空間的に適応できるフィルタリングのための特定のフィルタースキームを、各カメラ5a、5b、5cに関し、ピクセル密度マップPDM1a、PDM1b、PDM2a、PDM2b及びシャープネスマスクに応じて決めることができる。これは、出力画像が、調和のとれた鮮明さで、したがって高画質で、決められることを可能にする。

Claims (14)

  1. 少なくとも2つの車両側カメラにより取り込まれた少なくとも部分的にオーバーラップする原画像に基づいて動力車両と前記動力車両の環境領域とを示す所定のターゲットビューで出力画像を生成する方法であって、
    - それぞれのカメラ固有のピクセル密度マップを特定するステップであって、当該カメラ固有のピクセル密度マップの各々が、前記出力画像の生成に寄与する関連のカメラにより撮られる原画像のピクセル数の画像領域依存分布を表す、ステップと、
    - 前記関連のカメラに固有の前記ピクセル密度マップに基づく前記原画像の空間的適応フィルタリングのステップであって、前記ピクセル密度マップが、前記フィルタリングの画像領域依存範囲を示す、ステップと、
    - 前記少なくとも2つのカメラの前記少なくとも部分的にオーバーラップする原画像において相互に対応する画像エリアを識別するステップと、
    - 前記対応の画像エリア間の鮮明度差を低減するために、前記少なくとも2つの車両側カメラのうちの他のそれぞれのカメラに固有の前記ピクセル密度マップに基づく、前記関連のカメラの前記原画像の画像エリアの空間的適応フィルタリングのステップと、
    - 再マッピングされフィルタリングされた原画像を生成するために、前記フィルタリングされた原画像を、前記ターゲットビューに対応する画像面に再マッピングするステップと、
    - 前記再マッピングされフィルタリングされた原画像を組み合わせることによって、前記出力画像を生成するステップと、
    を含み、
    前記ピクセル密度マップは、前記出力画像における干渉信号の画像領域依存重大度を示し、
    前記ターゲットビューはトップビューであり、前記出力画像は、前記環境領域を表すトップビュー画像であり、
    前記出力画像を生成するために、前記原画像は湾曲したターゲット面に投影される、方法。
  2. 各カメラに関し、水平ピクセル密度マップ及び垂直ピクセル密度マップは、フィルタリングされる原画像のそれぞれの画像領域を示すために決められることを特徴とする請求項1に記載の方法。
  3. 各カメラに関し、カメラ固有のシャープネスマスクが、前記関連のカメラ及び前記ピクセル密度マップに応じて及びそれぞれの他のカメラに固有の前記ピクセル密度マップに応じて定められ、前記原画像は、それぞれの前記原画像を取り込む前記カメラのそれぞれの前記シャープネスマスクに応じて空間的に適応的にフィルタリングされることを特徴とする請求項1又は2に記載の方法。
  4. 前記カメラ固有のシャープネスマスクは、前記関連のカメラの少なくとも1つのカメラ特性に応じて追加的に定められることを特徴とする請求項3に記載の方法。
  5. 前記少なくとも1つのカメラ特性として、それぞれの前記カメラのレンズプロパティ、及び/又は、それぞれの前記カメラの少なくとも1つの外因性カメラパラメータ、及び/又は、それぞれの前記カメラの少なくとも1つの内因性カメラパラメータが予め定められることを特徴とする請求項4に記載の方法。
  6. 各カメラに関し、それぞれの前記原画像を空間的に適応的にフィルタリングするためのカメラ固有の空間的適応フィルタースキームが、関連の前記カメラ固有のシャープネスマスクに応じて決められることを特徴とする請求項3~5のいずれか一項に記載の方法。
  7. 前記対応の画像エリアの空間的適応フィルタリングに関し、少なくとも2つの前記少なくとも部分的にオーバーラップする原画像において、第1原画像における前記画像エリアの画像コンテンツは、前記第1原画像を取り込む前記カメラに固有の前記フィルタースキームによって鮮明化され、第2原画像における対応の前記画像エリアの画像コンテンツは、前記第2原画像を取り込む前記カメラに固有の前記フィルタースキームによってぼやけさせられ又はフィルタリングされないことを特徴とする請求項6に記載の方法。
  8. 前記カメラ固有の空間的適応フィルタースキームは、マルチスケール及びマルチ方向勾配アプローチに基づいて決められることを特徴とする請求項6又は7に記載の方法。
  9. 前記空間的適応フィルタースキームは、非間引きウェーブレット変換に基づいて決められ、ウェーブレット係数は、前記カメラ固有のシャープネスマスクに基づいて空間的適応的に修正されることを特徴とする請求項8に記載の方法。
  10. 前記ウェーブレット係数は、前記カメラ固有のシャープネスマスクに合わせられた転写トーンマッピング関数に基づいて適応的に修正されることを特徴とする請求項9に記載の方法。
  11. 前記カメラ固有の空間的適応フィルタースキームを決めるために、関連の前記カメラに固有の前記ピクセル密度マップに応じて及び前記それぞれの他のカメラに固有の前記ピクセル密度マップに応じて、前記ウェーブレット変換の少なくとも2つのウェーブレットバンドに関し、少なくとも2つのカメラ固有のシャープネスマスクが定められることを特徴とする請求項9又は10に記載の方法。
  12. 前記少なくとも1つのシャープネスマスクは、ウェーブレットバンドでの空間的に近接するエリア統計と組み合わされ、前記統計は、個別に、各ウェーブレットバンドでの空間的に近接するエリアにおける前記ウェーブレット係数の相関を表すことを特徴とする請求項9~11のいずれか一項に記載の方法。
  13. 動力車両のためのカメラシステムであって、
    前記動力車両の環境領域から少なくとも部分的にオーバーラップする原画像を取り込むための少なくとも2つのカメラと、
    画像処理装置であって、
    - それぞれのカメラ固有のピクセル密度マップを特定するステップであって、当該カメラ固有のピクセル密度マップの各々が、前記出力画像の生成に寄与する関連のカメラにより撮られる原画像のピクセル数の画像領域依存分布を表す、ステップと、
    - 前記関連のカメラに固有の前記ピクセル密度マップに基づく前記原画像の空間的適応フィルタリングのステップであって、前記ピクセル密度マップが、前記フィルタリングの画像領域依存範囲を示す、ステップと、
    - 前記少なくとも2つのカメラの前記少なくとも部分的にオーバーラップする原画像において相互に対応する画像エリアを識別するステップと、
    - 前記対応の画像エリア間の鮮明度差を低減するために、前記少なくとも2つの車両側カメラのうちの他のそれぞれのカメラに固有の前記ピクセル密度マップに基づく、前記関連のカメラの前記原画像の画像エリアの空間的適応フィルタリングのステップと、
    - 再マッピングされフィルタリングされた原画像を生成するために、前記フィルタリングされた原画像を、前記ターゲットビューに対応する画像面に再マッピングするステップと、
    - 前記再マッピングされフィルタリングされた原画像を組み合わせることによって、前記出力画像を生成するステップと、
    によって、前記少なくとも部分的にオーバーラップする原画像に基づいて前記動力車両と前記動力車両の前記環境領域とを示す所定のターゲットビューで出力画像を生成するように構成される画像処理装置を備え
    前記ピクセル密度マップは、前記出力画像における干渉信号の画像領域依存重大度を示し、
    前記ターゲットビューはトップビューであり、前記出力画像は、前記環境領域を表すトップビュー画像であり、
    前記出力画像を生成するために、前記原画像は湾曲したターゲット面に投影される、カメラシステム。
  14. 請求項13に記載のカメラシステムを備える動力車両。
JP2020520219A 2017-10-10 2018-10-10 動力車両および動力車両の環境領域を所定のターゲットビューで示す出力画像を生成する方法、カメラシステム、及び動力車両 Active JP7053816B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102017123452.7 2017-10-10
DE102017123452.7A DE102017123452A1 (de) 2017-10-10 2017-10-10 Verfahren zum Erzeugen eines ein Kraftfahrzeug und einen Umgebungsbereich des Kraftfahrzeugs in einer vorbestimmten Zielansicht zeigenden Ausgangsbildes, Kamerasystem sowie Kraftfahrzeug
PCT/EP2018/077588 WO2019072909A1 (en) 2017-10-10 2018-10-10 METHOD FOR GENERATING AN OUTPUT IMAGE REPRESENTING A MOTOR VEHICLE AND AN ENVIRONMENTAL AREA OF THE MOTOR VEHICLE IN A PREDETERMINED TARGET VIEW, A CAMERA SYSTEM, AND A MOTOR VEHICLE

Publications (2)

Publication Number Publication Date
JP2020537250A JP2020537250A (ja) 2020-12-17
JP7053816B2 true JP7053816B2 (ja) 2022-04-12

Family

ID=63840843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020520219A Active JP7053816B2 (ja) 2017-10-10 2018-10-10 動力車両および動力車両の環境領域を所定のターゲットビューで示す出力画像を生成する方法、カメラシステム、及び動力車両

Country Status (7)

Country Link
US (1) US20200396394A1 (ja)
EP (1) EP3695374A1 (ja)
JP (1) JP7053816B2 (ja)
KR (1) KR102327762B1 (ja)
CN (1) CN111406275B (ja)
DE (1) DE102017123452A1 (ja)
WO (1) WO2019072909A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018176000A1 (en) 2017-03-23 2018-09-27 DeepScale, Inc. Data synthesis for autonomous control systems
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
EP3776485B1 (en) * 2018-09-26 2022-01-26 Coherent Logix, Inc. Any world view generation
AU2019357615B2 (en) 2018-10-11 2023-09-14 Tesla, Inc. Systems and methods for training machine models with augmented data
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US11150664B2 (en) 2019-02-01 2021-10-19 Tesla, Inc. Predicting three-dimensional features for autonomous driving
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
DE102019207415A1 (de) * 2019-05-21 2020-11-26 Conti Temic Microelectronic Gmbh Verfahren zur Erzeugung eines Bildes einer Fahrzeugumgebung und Vorrichtung zur Erzeugung eines Bildes einer Fahrzeugumgebung
CN112132751B (zh) * 2020-09-28 2023-02-07 广西信路威科技发展有限公司 基于频域变换的视频流车身全景图像拼接装置和方法
CN115145442B (zh) * 2022-06-07 2024-06-11 杭州海康汽车软件有限公司 一种环境图像的显示方法、装置、车载终端及存储介质
DE102022120236B3 (de) 2022-08-11 2023-03-09 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum harmonisierten Anzeigen von Kamerabildern in einem Kraftfahrzeug und entsprechend eingerichtetes Kraftfahrzeug

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016012288A1 (en) 2014-07-25 2016-01-28 Connaught Electronics Ltd. Method for operating a camera system of a motor vehicle, camera system, driver assistance system and motor vehicle

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5173552B2 (ja) * 2008-04-23 2013-04-03 アルパイン株式会社 車両周辺監視装置およびこれに適用される歪み補正値の設定修正方法
KR20110077693A (ko) * 2009-12-30 2011-07-07 주식회사 동부하이텍 이미지 처리 방법
CN102142130B (zh) * 2011-04-11 2012-08-29 西安电子科技大学 基于小波域增强型图像掩膜的水印嵌入方法及装置
DE102013114996A1 (de) * 2013-01-07 2014-07-10 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Bildsuperauflösung für dynamischen Rückspiegel
US9886636B2 (en) * 2013-05-23 2018-02-06 GM Global Technology Operations LLC Enhanced top-down view generation in a front curb viewing system
ES2693497T3 (es) * 2015-06-15 2018-12-12 Coherent Synchro, S.L. Procedimiento, aparato e instalación para componer una señal de video
US20170195560A1 (en) * 2015-12-31 2017-07-06 Nokia Technologies Oy Method and apparatus for generating a panoramic view with regions of different dimensionality
DE102016224905A1 (de) * 2016-12-14 2018-06-14 Conti Temic Microelectronic Gmbh Vorrichtung und Verfahren zum Fusionieren von Bilddaten von einem Multikamerasystem für ein Kraftfahrzeug
CN107154022B (zh) * 2017-05-10 2019-08-27 北京理工大学 一种适用于拖车的动态全景拼接方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016012288A1 (en) 2014-07-25 2016-01-28 Connaught Electronics Ltd. Method for operating a camera system of a motor vehicle, camera system, driver assistance system and motor vehicle

Also Published As

Publication number Publication date
US20200396394A1 (en) 2020-12-17
DE102017123452A1 (de) 2019-04-11
KR102327762B1 (ko) 2021-11-17
KR20200052357A (ko) 2020-05-14
JP2020537250A (ja) 2020-12-17
CN111406275B (zh) 2023-11-28
WO2019072909A1 (en) 2019-04-18
CN111406275A (zh) 2020-07-10
EP3695374A1 (en) 2020-08-19

Similar Documents

Publication Publication Date Title
JP7053816B2 (ja) 動力車両および動力車両の環境領域を所定のターゲットビューで示す出力画像を生成する方法、カメラシステム、及び動力車両
CN107004277B (zh) 机动车辆摄像头系统的在线标定
JP2021170826A (ja) 車両・被牽引車両コンビの周辺シーンを表示するための方法、並びに、装置
CN107945149B (zh) 增强IHS-Curvelet变换融合可见光和红外图像的汽车抗晕光方法
US20140193032A1 (en) Image super-resolution for dynamic rearview mirror
KR101077584B1 (ko) 복수개의 카메라로부터 획득한 영상을 정합하는 영상 처리 장치 및 방법
WO2018149593A1 (en) Apparatus and method for displaying information
JP2018531530A6 (ja) 車両・被牽引車両コンビの周辺シーンを表示するための方法、並びに、装置
EP1975673A2 (en) Display for an automotive night vision system
CN103914810B (zh) 用于动态后视镜的图像超分辨率
DE112018000858T5 (de) Vorrichtung und Verfahren zur Anzeige von Informationen
DE102008031784A1 (de) Verfahren und Vorrichtung zur Verzerrungskorrektur und Bildverbesserung eines Fahrzeugrückblicksystems
DE102016104729A1 (de) Verfahren zur extrinsischen Kalibrierung einer Kamera, Rechenvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
CN107364393A (zh) 车辆后视图像的显示方法、装置、存储介质及电子设备
WO2016012288A1 (en) Method for operating a camera system of a motor vehicle, camera system, driver assistance system and motor vehicle
CN110809780B (zh) 生成合并的视角观察图像的方法、相机系统以及机动车辆
KR20140109801A (ko) 3d이미지 품질을 향상시키는 방법과 장치
WO2018060409A1 (en) Method for reducing disturbing signals in a top view image of a motor vehicle, computing device, driver assistance system as well as motor vehicle
US10614556B2 (en) Image processor and method for image processing
CN113840755A (zh) 生成车辆周围环境图像的方法及生成车辆周围环境图像的装置
US20200090307A1 (en) Surround View System for a Vehicle
DE102016112483A1 (de) Verfahren zum Reduzieren von Störsignalen in einem Draufsichtbild, das ein Kraftfahrzeug und einen Umgebungsbereich des Kraftfahrzeugs zeigt, Fahrerassistenzsystem sowie Kraftfahrzeug
CN118250448A (zh) 用于显示车辆的周围环境的虚拟视图的方法、计算机程序、控制器和车辆
JP2008092390A (ja) 対象物距離表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220325

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220331

R150 Certificate of patent or registration of utility model

Ref document number: 7053816

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150