JP7447307B2 - 信頼性の高いスティッチング画像を作成するためのシステムおよび方法 - Google Patents

信頼性の高いスティッチング画像を作成するためのシステムおよび方法 Download PDF

Info

Publication number
JP7447307B2
JP7447307B2 JP2022561630A JP2022561630A JP7447307B2 JP 7447307 B2 JP7447307 B2 JP 7447307B2 JP 2022561630 A JP2022561630 A JP 2022561630A JP 2022561630 A JP2022561630 A JP 2022561630A JP 7447307 B2 JP7447307 B2 JP 7447307B2
Authority
JP
Japan
Prior art keywords
camera module
image
duplicate
objects
stitched image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022561630A
Other languages
English (en)
Other versions
JP2023521791A (ja
Inventor
マヘシュ、コンディパルシ
フェルガル、オマリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Connaught Electronics Ltd
Original Assignee
Connaught Electronics Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Connaught Electronics Ltd filed Critical Connaught Electronics Ltd
Publication of JP2023521791A publication Critical patent/JP2023521791A/ja
Application granted granted Critical
Publication of JP7447307B2 publication Critical patent/JP7447307B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、信頼性の高いスティッチング画像を作成するためのシステムおよび方法に関する。
スティッチング画像とは、単数または複数のカメラで、異なる姿勢(ポーズ)で視野が重なり合うように取得された少なくとも2つのコンポーネント画像を、コンポーネント画像よりも大きな視野または異なる視野を有する画像を作成するために、組み合わせた画像である。
スティッチング処理により、スティッチング画像にアーチファクトが生じる場合がある。例えば、コンポーネント画像(構成画像)において同じオブジェクト(対象、被写体)の画像がスティッチング画像において異なる位置にマッピングされた場合、ゴースト効果が生じ得る。
US9509909は、合成ビュー幾何学的検索テーブル、入力魚眼画像、およびビュー重なり領域のうちの少なくとも1つからブロックサンプルを抽出するステップと、抽出されたブロックサンプルからサンプル内座層(inliers)を選択するステップと、選択されたブロックサンプルのために最適なカラーゲインを推定するステップと、推定されたカラーゲインに基づいて微調整を施してカラー変換を適用するステップと、合成サラウンドビュー画像を生成するステップと、を備える測光ミスアライメントを補正するための方法を開示している。
US2018/0253875は、合成画像の単数または複数のコンテンツ基準に基づいてスティッチング・スキームのセットからスティッチング・スキームを選択するステップと、選択されたスティッチング・スキームを適用するステップと、を含む画像をスティッチングするための方法について記載している。
DE102016124978A1は、自動車のドライバー支援システムの表示装置での垂直なオブジェクトの認識性を向上させる方法であって、表示装置上で単数または複数の垂直なオブジェクトをより良好に表示するように、仮想三次元スペースにおける追加の投影面を使用する方法について記載している。
US2012/0262580は、車両の種々の箇所に配置されたカメラを介して車両からサラウンドビューを提供し得るシステムについて記載している。カメラは、サラウンドビューに対応する画像データを生成することができる。また、処理装置は、画像データを処理してサラウンドビューを生成することができる。
US2009/0110327は、2D画像に基づいて3Dモデルが生成され得る3D座標系において平面の特定を容易にする方法について記載している。2D画像のうちの1つにおける前記平面および対象領域に関する押出方向が設定される。そして、前記平面の対称領域が2D画像の対応する領域に一致するまで、前記平面は押し出される。
本発明の目的は、先行研究に制限されることなく、スティッチング画像をより信頼性の高いものにすることである。
本発明は、独立請求項に定義される。従属請求項は、さらなる任意の特徴を提供する。
要するに、スティッチング画像をより信頼性高いものとする方法について説明する。本方法によれば、コンポーネント画像のオブジェクトがスティッチング画像の別個の位置にマッピングされるツインエフェクト・アーチファクトが効率的かつ正確に検出されるとともに、スティッチング画像のコンテンツが信頼できない場合にはアラートを発生させることができる。いくつかの実施形態において、検出されたアーチファクトを即時に動的インポスター(imposters)で置換して、信頼性のあるスティッチング画像を得る。
本発明の実施形態について、添付図面を参照しつつ例示的に説明する。
図1は、複数の車載カメラを有する車両を示す。 図2は、図1の車両および2つのカメラの重なり領域をより詳細に示す。 図3は、同じ光景の2つのスティッチング画像を示し、異なるブレンド領域が強調されている。 図4は、本発明の実施形態による、ツインエフェクト・アーチファクトを検出して対処する方法を示す。 図5は、図4の実施形態で採用された画像にラベル付けするための畳み込みニューラルネットワーク、すなわちCNNを示す。 図6は、検出された既知オブジェクトのラベルを付した画像を示す。 図7は、図3のシーンをさらにスティッチングした画像を示し、それぞれのブレンド領域がマークされている。左側の画像では、車のツインエフェクト・アーチファクトが検出されマークされている。右側の画像では、検出されたツイン・アーチファクトに対処が施されている。 図8は、さらなる図3の光景のスティッチング画像を示し、それぞれのブレンド領域に印が付されている。左側の画像では、街灯構造体のツインエフェクト・アーチファクトが検出され印が付されている。右側の画像では、検出されたツイン・アーチファクトに対処が施されている。 図9は、検出されたツインエフェクト・アーチファクトに対処が施された後の図8のスティッチング画像を示す。
車両の運転に伴う多くのタスクについて、局地的な周囲環境に関する情報を取得することが重要である。実施可能な1つの方法は、車両に搭載されたカメラモジュールからの画像を分析することである。次いで、より見やすい画像を提供するべく、これらの画像をスティッチングして一つにすることができる。
車両の周辺の周囲環境を撮影しようとする場合、通常、1台のカメラが、必要なデータを全て取得するのに適した視野を有することはない。この問題に対処する1つの方法は、
複数のカメラを使用することである。図1において、車両100が、車の周囲に配置された4つのカメラ101、102、103、104とともに示されている。各カメラの視野の1つの縁部が、点線101a、102a、103a、104aで記されている。カメラのこのような構成により、視野は、領域101b、102b、103b、104bで重なり合うこととなる。一例として、領域102bは、前方を向くカメラ101の視野101aと、左方を向くカメラ102の視野102aとの重なりを示す。図示の構成は、単なる例示である。開示された教示事項は、他のカメラ構成でも同様に有効である。
図示の視野は、およそ180度の範囲に亘る。広い視野は、典型的には魚眼レンズ等の広角レンズを有するカメラにより得られる。魚眼レンズは、全体的に円筒対称であるため好適である。本発明の他の応用例において、視野は180度よりも小さくても大きくてもより。魚眼レンズが好適であるが、広い視野を提供する他のレンズも使用可能である。この文脈において、広い視野とは、100度を超える、好適には150度を超える、より好適には170度を超える視野を有するレンズである。典型的には、このような広い視野を有するカメラでは、取得された画像に撮像アーチファクトや歪みが生じてしまう。
本発明で使用されるカメラの感度を特定の波長範囲に限定する必要はないが、最も一般的には、本発明は、可視光に感度を有するカメラとともに使用されるものである。カメラは、通常、レンズおよびセンサ用のハウジングを備えるカメラモジュールの形態にある。レンズは、センサに光を集束させる役割を果たす。カメラモジュールは、センサに電力を供給するとともにセンサとの通信を可能にする電子機器をさらに有し得る。カメラモジュールは、画像を処理する電子機器もさらに有し得る。処理は、例えば、ゲインの制御、露出の制御、ホワイトバランス、ノイズ除去等の低レベルの画像信号処理であり得る、および/または、例えばコンピュータ・ビジョンのためのより強力な処理を含み得る。
図1のようにカメラの構成が車両の周囲の全方向からの画像を提供するようなものである場合、カメラのコンポーネント画像は、種々の仮想カメラポーズ(アングル)から、特に車両の上方から、スティッチング画像を合成するのに十分な情報ビューを提供することができる。
例えば図1に示すような複数のカメラを有する車両の文脈において、複数のカメラからの複数の画像よりも、車両の真上の視点からの局所的な周囲環境についての単一の画像からなるサラウンド画像を表示することが望まれ得る。したがって、4つのカメラ全てからの画像を、スティッチングして一つにする必要がある。画像は、スティッチングを実施する前に、またはスティッチング処理の一部として、別の面にマッピングされ得る。例えば、コンポーネント画像は、スティッチングの前に、球面または円筒面にマッピングされ得る。一実施形態において、コンポーネント画像は、スティッチングの前に、平底のボウル面にマッピングされる。また、このようなマッピングにより、レンズの歪みが考慮され得る、および/またはスティッチング処理が容易になり得る。
後述の例のような他のタイミングで、例えば、車両が左折しようとしている場合、ドライバーに交差点をより明瞭に示すために、車両の前側カメラ101および左側カメラ102から取得したコンポーネント画像とともに車両の上方に位置する仮想カメラポーズから、スティッチング画像を生成することが望まれ得る。車両が右折しようとしている場合、または曲がり角でバックしようとしている場合、複数対の画像から同様のスティッチング画像が生成され得る。
複数のコンポーネント画像をスティッチングして一つにする複数の方法が知られている。例えば、ダイレクト・スティッチング、リニア・ブレンド処理、選択的ブレンド処理、またはマルチバンド・ブレンド処理である。これらの処理を説明するために、図1に示す車両のさらなる詳細を示す図2を参照する。この図2において、重なり領域102bは、ブレンド・セグメント102cを有している。ブレンド・セグメント102cは、重なり領域の少なくとも一部であるとともに、角度オフセット102dおよび角度幅102eという2つの角度により規定されている。ブレンド・セグメント102c内にある任意のコンポーネント画像からのデータは、別のコンポーネント画像からのデータと組み合わせられ得る。そして、スティッチング画像を形成する際に、組み合わせたデータが使用される。コンポーネント画像へのブレンド・セグメントの投影により、コンポーネント画像にブレンド領域が規定される。
ダイレクト・スティッチングは、2つのコンポーネント画像間の重なり領域に移行ラインを規定する。実質的に、角度幅102eは、ゼロに設定される。スティッチング画像は、ラインの一側にある一方のコンポーネント画像からの画像と、ラインの他側にある他方のコンポーネント画像からの画像と、を使用する。スティッチング処理により、1つのコンポーネント画像から別のコンポーネント画像への急激な移行が生じる。この結果、スティッチング画像に、視認可能な継ぎ目や途切れの態様のアーチファクトが生じ得る。一部のケースでは、アーチファクトの発現可能性または重大性は、既知のカメラモジュール調和技術および装置により、例えば、2019年10月7日に出願された「電子制御ユニット」という名称のドイツ特許出願第DE102019126814.1号(Ref:2019PF00721)に記載のものにより低減され得る。
ダイレクト・スティッチングのバリエーションとして、ダイナミック・シームを使用するダイレクト・スティッチングが知られている。ここでは、ダイレクト・スティッチング・ラインは直線である必要はないが、スティッチングされたコンポーネント画像のコンテンツに応じて調整されるパス(path)を有している。この方法は、ゴースト効果に対処し得るが、ツインエフェクト・アーチファクトに対処できる可能性は低い。ツインエフェクト・アーチファクトでは、複数のコンポーネント画像からの任意の1つのオブジェクトが、スティッチング画像において離れた別個の箇所に出現する。
リニア・ブレンド処理は、1つのコンポーネント画像に対するピクセルの重みを、ブレンド領域を横切る距離に応じて線形調整することにより、ブレンド領域102cのピクセル値を調整する。ブレンド領域102c内のピクセル値は、コンポーネント画像からのピクセル値の加重平均として算出される。重みは徐々にゼロになるため、あるビューから別のビューへは急激に変化するのではなく、滑らかに移行することが観察される。リニア・ブレンド処理の有する問題は、2つの異なるビュー間での不完全なオブジェクト整合(アラインメント)を原因として、ブレンド領域内のオブジェクトがぼやける場合があるということである。したがって、整合し損ねたオブジェクトのブレンド処理を原因として、ゴースト効果がブレンド・エリアで観察されることがある。
選択的ブレンド処理は、リニア・ブレンド処理とダイレクト・スティッチングの両方を利用して、各ピクセルについて、リニア・ブレンド処理から合成ピクセル値llinear、およびダイレクト・スティッチングから合成ピクセル値lstitchを求める。そして、これらの合成ピクセル値を、想定される箇所における2つのコンポーネント画像値間の差に関連する重みと組み合わせる。差が小さいほど、リニア・ブレンド処理は大きく重み付けられる。逆もまた同様である。選択的ブレンド処理により、一致しない複数のオブジェクトに対応するピクセルのブレンド処理が回避されるため、ぼやけやゴースト効果は低減され得る。しかしながら、一致しない複数のオブジェクトが類似するカラーを有している場合、または測光アラインメント後の残差が大き過ぎる場合、選択的ブレンド処理は機能しない。後者の場合はツインエフェクト・アーチファクトの一因であるため、選択的スティッチングは、ツインエフェクト・アーチファクトに対処するには理想的な選択肢ではない。換言すれば、選択的スティッチングは、色が均一でないオブジェクトに対するゴースト効果の無効化には有効であるが、ツインエフェクト・アーチファクトの原因となる極端な視差に対処できる可能性は低い。
マルチバンド・ブレンド処理は、コンポーネント画像をサブバンドに分割し、サブバンドを適応的にブレンド処理することにより、スティッチング画像におけるブレンド領域の見た目を改善する。一例において、周波数サブバンド分解が、ブレンド領域102cに適用される。高周波数バンドに対して、第1の小さいブレンド領域が適用される。低周波バンドに対して、第2のより大きなブレンド領域が適用される。結果として、この操作により、低周波成分については、より長い空間範囲に亘って平均化され、高周波成分については、より短い空間範囲に亘って平均化される。高周波成分はブレンド領域が小さいほど良好に保存されるため、結果としてブレンド領域の細部が鮮明になる。しかしながら、マルチバンド・ブレンド処理は、非平面状のオブジェクトに対するゴーストの問題には対処できない。
いずれの場合でも、スティッチング画像に著しいツインエフェクト・アーチファクトが発生し得る虞がある。このようなツインエフェクト・アーチファクトの発現可能性または出現性は、背景に対して高いコントラストを有するオブジェクトが存在する場合に増大する。ツインエフェクト・アーチファクトは、他の場合にも存在するが、視覚的な影響は軽微であることが多い。例えば、道路と空におけるツインエフェクト・アーチファクトは、ほとんど問題にならない。通常、道路の2つのエンプティ部分が重複テクスチャを有していても、問題にならないからである。
ツインエフェクト・アーチファクトの出現性は、展開されるスティッチング技術、およびスティッチング・パラメータに依存する。例えば、コンポーネント画像間の重なり領域におけるブレンド領域の寸法の変化により、ツインエフェクト・アーチファクトの出現性が変化し得る。
この変化を実証するため、図3を考察する。図3は、2つの異なるスティッチング・パラメータをそれぞれ使用して生成したスティッチング画像の2つの画像部分を示している。図3の左側における第1画像300を形成するスティッチング・パラメータは、比較的広いブレンド領域302cを規定している。このブレンド領域302cは、角度幅302eおよび角度オフセット302eにより規定されている。角度オフセットは、車の直進方向から測定される。図3の右側における第2画像300’を形成するスティッチング・パラメータは、異なる比較的狭いブレンド領域302c’を規定している。
図3のスティッチング画像を生成するために使用されるコンポーネント画像が取得されたとき、車両の前方の道路には、一台の車しかなかった。しかし、第1画像300ではツインエフェクト・アーチファクトにより、ブレンド領域302cに2台の部分的に透明な車が出現する結果となっている。他のツインエフェクト・アーチファクトが第2画像300’に存在しており、第1画像300と同じ箇所に2台の車が出現する結果となっている。しかしながら、第2画像300’においては、見えている2台の車は、ブレンド領域302c’の外側に存在するとともに、不透明である。狭いブレンド領域302c’の中央にラインを引いてダイレクト・スティッチングすると、第2画像300’と同様の画像が得られるであろう。
従来的に、コンポーネント画像のブレンド領域は、円筒形のセクタとして考えることができる。一例として、図3の第1画像300を考察する。ここでは、円筒形のセクタは画像の高さを延長し、角度幅302eおよび角度オフセット302dにより規定されている。ツインエフェクト・アーチファクトの出現は、スティッチング技術およびスティッチング・パラメータに依存するため、スティッチング技術およびスティッチング・パラメータを適合させることにより、ツインエフェクト・アーチファクトの発現可能性を低減することが可能である、および/またはアーチファクトの重大性を低減することが可能である。円筒形のセクタを層状にする、すなわち積層することにより、ツインエフェクト・アーチファクトを軽減する多くの自由度が提供される。なぜならば、調整のさらなる自由度およびさらなるスティッチング・パラメータが提供されるからである。各層は円筒形のセクタであるため、それは、角度幅および角度オフセットに加えて、層の高さと層の厚さという2つの追加のパラメータを有している。
図4を参照すると、本発明の実施形態を説明するフロー図が示されている。第1ステップ410は、スティッチング画像を取得することである。これは、上述の技術のうちのいずれかを利用して重なり合う視野を有する一対のカメラからのコンポーネント画像を組み合わせることによりなされ得る。しかしながら、本発明の実施形態は、一対のコンポーネント画像の各々に出現する任意のオブジェクトが、スティッチング画像内の別個の箇所にマッピングされ得る任意のスティッチング画像に、同様に適用され得る。
いずれの場合でも、次いで、スティッチング画像を処理してオブジェクトを検出するステップ420が実施される。この検出は、機械学習アルゴリズム等の既知のオブジェクト検出分類器を使用して達成され得る。本実施形態において、分類器は、スティッチング画像を直接的に処理することができる。これは、処理がスティッチング画像毎に1回しか発生しなくてよいことを意味する。代替的または追加的に、分類器を、各コンポーネント画像に、および各コンポーネント画像の結果をスティッチング画像にマッピングすることにより組み合わされた結果に、使用することができる。
好適な実施形態において、画像中の既知のオブジェクトにラベル付けするためにCNNが使用される。このようなCNNの例を図5に示す。既知のオブジェクトを検出するようにCNNをトレーニングする種々の方法が当業者に知られている。一旦トレーニングすれば、CNNは画像を処理し、検出されたオブジェクトに適切なラベルで印を付すことができる。検出されたオブジェクトに適用されるラベルは、典型的には、検出されたオブジェクトの少なくとも一部を囲む境界ボックスと検出された既知のオブジェクトの名称とを規定する。境界ボックスは矩形である必要はなく、適宜別の形状およびサイズであり得る。分類器がコンポーネント画像で動作する場合、コンポーネント画像とスティッチング画像との間でのマッピングにより、境界ボックスは、スティッチング画像において異なる形状になり得る。
CNNは、入力511画像を単数または複数の畳み込み層またはプーリング層で処理することにより、既知のオブジェクトを検出することができる。畳み込み層512において、単数または複数の畳み込みカーネルがこの画像を通過する。プーリング層513において、処理されたデータの空間分解能が低減される。図5に示す例において、2つの畳み込み層511および513、ならびに2つのプーリング層513および515が使用されている。本発明の実施形態において、任意の個数の畳み込み層またはプーリング層が、CNN400の隠れ層510を形成し得る。次いで、隠れ層510からのデータが分類層520により処理されて結果が形成される。図5に示す例において、隠れ層からのデータは平坦化521されて、特徴ベクトルが提供される。この特徴ベクトルは、次いで複数の完全接続層522を通過する。本例において、ソフトマックス演算523が実施されて、画像内の既知のオブジェクト、例えば、トラック、街灯構造体、または車が認識される。
既知の代替的な分類器も、既知のオブジェクトを検出するために使用され得る。一部の実施形態において、分類器は、車両のLiDARセンサ等の他のセンサから判定された情報を利用し得る。分類器をトレーニングする際、限定された入力画像しか利用できないという状況で有用であるように、縁部強調画像または縁部画像のような追加のオプション入力も入力され得る。一部の分類器では、このような追加入力により、ネットワークの複雑性の減少が促進される。すなわち、追加入力を使用することにより、CNNの隠れ層の層数を減少させ得る。
分類器からの典型的な出力を図6に示す。入力画像は、処理された画像上に付された複数のラベルを有している。これには、信号機601a、2台のトラック601bおよび601c、および車601dが含まれる。ラベルの各々は、関連付けられた場所を有するとともに、分類器がラベル付けされたオブジェクトと関連付けられているとみなす入力画像の領域を印す境界ボックスが印されている。
単数または複数の重なり領域におけるツインエフェクト・アーチファクトを識別することが目的であるため、処理されるスティッチング画像の領域、すなわち対象領域、ROIを、スティッチング画像の重なり領域、すなわち、コンポーネント画像の視野が重なり合うスティッチング画像の領域に限定することができる。このようにROIを小さくすることにより、処理が顕著に高速化し、不要なオブジェクトの検出を減らし、誤検出率を大幅に低くすることができる。
ROIは、スティッチング技術およびパラメータにより規定され得る。スティッチング角度(例えば、図3の角度幅302eおよび角度オフセット302d)のようなパラメータが、ROIを規定するために使用され得る。
オブジェクトが検出されたら、検出されたオブジェクトが類似しているかどうかをテストするステップ430が実施される。換言すれば、検出されたオブジェクトは、境界ボックスのコンテンツ同士の類似性を検出するように処理される。通常の重複コンテンツ検出アルゴリズムは、コンピュータ的に集約している。オブジェクトとカメラとの間の距離が大きいため、ツインエフェクト・アーチファクトは、主に並進シフトとして存在する。したがって、重複コンテンツ評価では、すべての考えられる変形を考慮する必要はない。一部の実施形態において、CNN等の分類器は、コンテンツの並進シフトによる重複に着目することにより、ツインエフェクト・アーチファクトを検出するようにトレーニングされる。並進シフトに限定することにより、誤検出数が最小となる。この場合の誤検出とは、ツインエフェクト・アーチファクトを原因としない類似のオブジェクトである。並進シフトしかテストしないという制約の少なさにより、誤検出の可能性が顕著に最小限とされる。分類器のトレーニングは、あるカメラから別のカメラへの視点の変化を考慮することにより改善され得る。このトレーニング改善は、ツインエフェクト・アーチファクトによる重複オブジェクトが、視点の変化によりわずかに異なって見え得るために生じる。
時間信号によっても、ツインエフェクト・アーチファクトの検出時の誤検出が回避され得る。例えば、ツインエフェクト・アーチファクトを原因として生じる重複オブジェクトは、オブジェクトが車両に近づくにつれて一緒に移動する、さらには一体化する傾向がある。これは、検出され得る別のタイプの重複オブジェクトには、通常当てはまらない。
類似性テストが、オブジェクトを検出する分類器に組み込まれ得る、または、検出されたオブジェクトのリストに別途適用され得る。好適な実施形態において、スティッチング画像におけるオブジェクトがラベル付けされた後、CNNは、ラベル付けされたオブジェクトの類似性を評価して重複を検出する。類似性テストの結果、類似するラベル付けされたオブジェクトが検出される、すなわちおそらくツインエフェクト・アーチファクトであることが検出される。
さらなるオプションのステップは、検出された重複オブジェクトが本物であるかどうかをテストするステップ440である。一部の実施形態において、このステップは、コンポーネント画像のうちの少なくとも1つを処理して、類似する重複オブジェクトがコンポーネント画像うちのいずれか1つで検出されるかどうかを確認するステップを備えている。コンポーネント画像のうちのいずれか1つに重複オブジェクトが存在する場合、重複オブジェクトは、スティッチングのアーチファクトではない可能性が高い。このステップは、類似する2つの本物のオブジェクトが、ツインエフェクト・アーチファクトとして誤ってラベル付けされることが確実にないようにする助けとなる。このことは、重要である。なぜならば、アーチファクトを原因として重複するオブジェクトは無視したりその後画像から削除したりしてよいが、車等の本物のオブジェクトを無視または削除することは重大なミスになる可能性があるためである。この結果、検出された重複オブジェクトに見えるオブジェクトが本物であるかどうかをテストすることにより、スティッチング画像の信頼性が向上する。
スティッチング画像がツインエフェクト・アーチファクトを含むかどうかを検出し、選択的に確認することに応じて、多くのオプションが利用可能である。これらには、スティッチング画像がアーチファクトを含み得ることについてフラグを立てるステップ、または、一部のケースにおいては、スティッチング画像を補正しようとしたり、その後に生成されるスティッチング画像にこのようなアーチファクトが生じることを防止したりすることにより積極的に応答するステップが、最小限含まれ得る。
このため、例えば、アーチファクトの検出をドライバーに報告し、スティッチング画像中の誤解を招き得る情報についてドライバーに確実に注意喚起することができる。例えば、駐車するとき、近くの2つあるように見える街灯がツインエフェクト・アーチファクトを原因とするものらしいということをドライバーに知らせるアラートを発することができる。ドライバーは、ミラーで見えている街灯のうちどちらが最も適切であるか目で確認し、これに応じて車を操作することができる。また、スティッチング画像および検出されたツインエフェクト・アーチファクトは、ハードディスクドライブまたは他の記憶領域等の車両のサブシステムに記録され、ログに残される。
ツインエフェクト・アーチファクトの存在は、ツインエフェクト・アーチファクトを緩和するためにスティッチング・パラメータをチューニングするように構成された機械学習アルゴリズムにも報告され得る。好適な実施形態において、スティッチング・パラメータをチューニングする機械学習アルゴリズムは、畳み込みニューラルネットワーク、すなわちCNNである。
一部の例においては、スティッチング画像コンテンツは、検出されたツインエフェクト・アーチファクトをマークするように単純に調整され得る。
しかしながら、本実施形態においては、スティッチング画像のコンテンツは、表示する前に調整される。
インポスターとは、画像に追加されるグラフィック・アーチファクトであって、欠落したオブジェクトや誤って表現されたオブジェクトをより良好に表示するためのものである。一例として、図3を考察する。すべての車載カメラは車両の周囲に配置され、外方を向いていることに留意されたい。したがって、どの車載カメラからも車両を画像として良好に表示できる画像は存在しない。図3の画像の右下に表示されている車両は、スティッチング画像の正しい箇所に重ね合わされた車両のアバターに過ぎない。このようなアバターにより、スティッチング画像の見栄えが著しく向上し、ドライバーはスティッチング画像中でどのように車両を方向付けるかをより簡単にイメージすることができる。車両アバターは、静的インポスターの例である。静的インポスターとは、本方法の実施前に少なくとも部分的に生成され、必要なときに使用するようにメモリに格納されるインポスターである。静的インポスターの欠点は、事前に交換用の画像を知っている、または計算可能であることが必要であることである。静的インポスターが使用できない場合、動的インポスターが使用され得る。動的インポスターとは、単数または複数のカメラから得られたデータに少なくとも部分的に基づいて、実行時間に生成されるインポスターである。
一部の実施形態において、本発明は、インポスターを使用して検出されたツインエフェクト・アーチファクトに対処する。具体的には、ステップ450において、重複オブジェクトのうちの一方を動的インポスターで置換する。動的インポスターは、コンポーネント画像からの画像データを含んでいる。ツインエフェクト・アーチファクト毎に、コンポーネント画像の一方が、ツインエフェクト・アーチファクトにおけるオブジェクトの一方に関するデータを供給し、他方のコンポーネント画像が、他方のオブジェクトに関するデータを供給する。したがって、ツインエフェクト・アーチファクトとして検出されたスティッチング画像の領域を他方のコンポーネント画像からのデータで置換することにより、ツインエフェクト・アーチファクトが除去され得る。
この処理の2つの例を図7および図8にそれぞれ示す。図7において、左側の画像700は、重複する車の形態におけるツインエフェクト・アーチファクトを含んでいる。検出されたツインエフェクト・アーチファクト701の境界ボックスが、黒白の破線で示されている。スティッチング画像において、ブレンド領域702の下方および左方の領域におけるデータは、左方を向いた車載カメラから生じたコンポーネント画像に由来する。ブレンド領域702の上方及び右方の領域におけるデータは、前方を向く車載カメラから生じたコンポーネント画像に由来する。したがって、左端の車703オブジェクトを形成するデータは、左方を向くカメラに由来し、検出されたツインエフェクト・アーチファクト701の境界ボックス内の車は、前方を向くカメラに由来する。右側の画像700’では、検出されたツインエフェクト・アーチファクト701の境界ボックスにおけるデータは、左方を向くカメラ化のデータで置換されているため、ツインエフェクト・アーチファクトが除去されている。図8は、街路灯構造体もツインエフェクト・アーチファクト801であることが確認されたため、再度行われる処理を示している。ここでも、ツインエフェクト・アーチファクトの境界ボックスにおけるデータを他のコンポーネント画像のデータに切り替えることで、ツインエフェクト・アーチファクトに対処している。
図9に、明確なツインエフェクト・アーチファクトのないスティッチングの結果を示す。スティッチング画像において調整された縁部領域を隠すようにさらなるスムージング効果が利用され得る。例えば、インポスターを当初のスティッチング画像とブレンドして、ピクセル値の急激な移行を回避してもよい。一部の実施形態において、スムージング効果により、インポスターの縁部がぼかされ得る。このようなスムージング効果は、スティッチング画像においてインポスターを目立たなくする助けとなる。
スティッチング画像をさらに処理して画像を精緻にしてもよい。追加的に、異なる画像アーチファクトを除去するように別個の処理をしてもよい。例えば、2019年11月26日に出願された「画像処理モジュール」という名称のドイツ特許出願第102019131971.4号(Ref:2018PF02667)を参照されたい。ツインエフェクト・アーチファクトを予め除去することにより、ツインエフェクト・アーチファクトの出現を強化する後続の処理が防止される。
記載の方法は、スティッチング画像における高コントラストのツインエフェクト・アーチファクトの阻止することに確実に対処することを目的とする。他の重複コンテンツ発見方法とは対照的に、記載の方法は、均一な路面の外観を補正する等の不要なエリアにおけるツインエフェクト・アーチファクトの検出および/または除去にリソースを浪費しない。その代わりに、記載の方法は、最も視覚的に目立つツインエフェクト・アーチファクト(例えば、前方の道路における車の第2画像)を確実に緩和することに重点を置いている。
記載の方法により、車両のドライバーはスティッチング画像を信頼し得る。例えば、スティッチング画像を車両の内部に取り付けられたディスプレイを介して見ているドライバー、例えば、車の車室に取り付けられた表示スクリーン上でスティッチング画像を見ることで駐車するために車を操縦している車のドライバーを想定する。記載の方法は、表示されたツインエフェクト・アーチファクトの存在についてドライバーに注意喚起する、またはツインエフェクト・アーチファクトを表示画像から除去することができる。いずれの場合にも、表示されたスティッチング画像は、より信頼性が高いものとなり得る。
想定される車両は、自動運転車両、すなわち自律車両またはドライバー支援機能を有する車両であってもよい。この場合、想定される画像の精度は特に重要である。例えば、車両制御機構は、車両制御または運転勧告についてスティッチング画像に基づいてもよい。したがって、ツインエフェクト・アーチファクトを報告する、またはこれを除去することにより、車両制御機構は適切な動作をとることができる。したがって、記載の方法を用いることにより、スティッチング画像におけるツインエフェクト・アーチファクトを原因としてなされる、または推奨される稚拙な運転判断を減少させることができる。
検出されたツインエフェクト・アーチファクトについてのアラート、または補正されたスティッチング画像も、車両システムにより記録され得る。記録は、ハードディスク等のメディア記憶装置に記録を保持する形態であり得る。
上述の例は、車両の前方を向くカメラ101および左方を向くカメラ102から取得したスティッチング画像に関するものであったが、別のタイミングにおいて、隣接する視野を有する他の組み合わせのカメラからのスティッチング画像が想定され得ること、および本発明は、車両を取り囲むすべてのカメラ101…104から取得されたコンポーネント画像からスティッチングされたサラウンドビューの作成にも同様に拡大適用され得ることを理解されたい。

Claims (14)

  1. スティッチング画像におけるアーチファクトを検出するカメラモジュールであって、
    重なり合う視野を有するそれぞれの車載カメラから周囲環境のコンポーネント画像を取得するステップと、
    前記コンポーネント画像からスティッチング画像を形成するステップ(410)と、
    前記重なり合う視野に対応する前記スティッチング画像の少なくとも一部を分類器で処理して、前記スティッチング画像においてそれぞれの箇所で前記周囲環境から検出されたオブジェクトのリストを提供するステップ(420)と、
    前記検出されたオブジェクトのリストにおける任意の検出されたオブジェクトが、前記検出されたオブジェクトのリストにおける別のオブジェクトの重複であるかどうかを判定するステップ(430)と、
    重複であると判定された任意のオブジェクトを報告するステップと、
    を実行するカメラモジュール
  2. 報告された任意の重複オブジェクトについて、報告された前記重複オブジェクトを含む前記スティッチング画像の領域を、前記コンポーネント画像のうちの1つからのインポスターで置換するステップ(450)、
    をさらに実行する請求項1に記載のカメラモジュール
  3. 前記検出されたオブジェクトのリストにおける各検出されたオブジェクト(601a)は、境界ボックスにより規定され、
    報告された前記重複オブジェクトを含む前記スティッチング画像の領域を、前記コンポーネント画像のうちの1つからのインポスターで置換する前記ステップは、報告された前記重複オブジェクト(701)を、報告された前記重複オブジェクトの前記境界ボックスと同一形状のインポスター(701’)で置換するステップを備える、
    請求項2に記載のカメラモジュール
  4. 前記インポスターの少なくとも一部を、当初の前記スティッチング画像とブレンドする(460)、
    請求項2または3に記載のカメラモジュール
  5. 任意の報告された重複オブジェクトを選択するステップと、
    選択された前記オブジェクトがコンポーネント画像に複数回出現することに応答して(440)、選択された前記オブジェクトを重複ではないものとして印付けするステップと、
    をさらに実行する請求項1~4のいずれか一項に記載のカメラモジュール
  6. 前記コンポーネント画像からスティッチング画像を形成する前記ステップは、
    2つのコンポーネント画像の複数の重なり合う領域を選択して、複数のブレンド領域を規定するステップと、
    複数の前記ブレンド領域のうちの少なくとも2つのブレンド領域の形状または位置を調整するステップと、
    2つの前記コンポーネント画像からスティッチング画像を形成するステップであって、複数の前記ブレンド領域における2つの前記コンポーネント画像からのデータを組み合わせるステップを含むステップと、
    を備える請求項1~5のいずれか一項に記載のカメラモジュール
  7. 複数の前記ブレンド領域のうちの少なくとも2つのブレンド領域の形状または位置を調整する前記ステップは、
    少なくとも2つのブレンド領域の形状または位置を規定するスティッチング・パラメータ(102e、102d)を、前記スティッチング・パラメータを変化させることでトレーニングされた畳み込みニューラルネットワークを使用して選択するステップと、
    スティッチング・パラメータのそれぞれのセットから得られる前記スティッチング画像においてアーチファクトが検出されるかどうかを評価するステップと、
    を備える請求項6に記載のカメラモジュール
  8. 報告された任意の重複オブジェクトは、前記スティッチング画像において第1箇所にマッピングされた、第1車載カメラからの撮像オブジェクト、および、前記スティッチング画像において第2箇所にマッピングされた、第2車載カメラからの前記撮像オブジェクトを原因として生じるスティッチング・アーチファクトであり、
    前記第2箇所は、前記第1箇所に対して閾値を超えて異なる、
    請求項1~7のいずれか一項に記載のカメラモジュール
  9. 前記閾値は、報告された前記重複オブジェクトが当初の前記オブジェクトと重なり合わないように設定される、
    請求項8に記載のカメラモジュール
  10. 前記コンポーネント画像は、2つのカメラ(101、102)のそれぞれから同時に取得される、
    請求項1~9のいずれか一項に記載のカメラモジュール
  11. 前記検出されたオブジェクトのリストにおける任意の検出されたオブジェクトが、前記検出されたオブジェクトのリストにおける別のオブジェクトの重複であるかどうかを判定するステップは、畳み込みニューラルネットワークを使用して検出されたオブジェクトが重複であるかどうかを分類するステップを含み、
    前記畳み込みニューラルネットワークは、重複オブジェクトを、前記検出されたオブジェクトのリストにおける別のオブジェクトの平行移動した重複として認識するようにトレーニングされている、
    請求項1~10のいずれか一項に記載のカメラモジュール
  12. 別のオブジェクトの前記平行移動した重複は、前記車載カメラ間の視点の違いを考慮して調整された別のオブジェクトの平行移動した重複である、
    請求項11に記載のカメラモジュール
  13. 前記スティッチング画像の少なくとも一部は、複数のコンポーネント画像のデータから形成された前記スティッチング画像の領域を含む、
    請求項1~12のいずれか一項に記載のカメラモジュール
  14. 請求項1~13のいずれか一項に記載のカメラモジュールを備える車(100)。
JP2022561630A 2020-04-09 2021-04-07 信頼性の高いスティッチング画像を作成するためのシステムおよび方法 Active JP7447307B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102020109997.5 2020-04-09
DE102020109997.5A DE102020109997A1 (de) 2020-04-09 2020-04-09 System und Verfahren, um zuverlässige gestitchte Bilder zu machen
PCT/EP2021/059073 WO2021204881A1 (en) 2020-04-09 2021-04-07 A system and method for making reliable stitched images

Publications (2)

Publication Number Publication Date
JP2023521791A JP2023521791A (ja) 2023-05-25
JP7447307B2 true JP7447307B2 (ja) 2024-03-11

Family

ID=75539292

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022561630A Active JP7447307B2 (ja) 2020-04-09 2021-04-07 信頼性の高いスティッチング画像を作成するためのシステムおよび方法

Country Status (7)

Country Link
US (1) US20230162464A1 (ja)
EP (1) EP4133450A1 (ja)
JP (1) JP7447307B2 (ja)
KR (1) KR102692151B1 (ja)
CN (1) CN115516511A (ja)
DE (1) DE102020109997A1 (ja)
WO (1) WO2021204881A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2621979A (en) * 2022-08-23 2024-03-06 Continental Automotive Gmbh Method and device for generating an outsider perspective image and method of training a neural network
DE102022125210A1 (de) * 2022-09-29 2024-04-04 Bayerische Motoren Werke Aktiengesellschaft Zusammenfügen von Teilbildern eines Fahrzeugumfelds

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010283718A (ja) 2009-06-08 2010-12-16 Alpine Electronics Inc 車両周辺画像提供装置
JP2015192198A (ja) 2014-03-27 2015-11-02 クラリオン株式会社 映像表示装置および映像表示システム
JP2017536717A (ja) 2014-09-17 2017-12-07 インテル コーポレイション ボウル型イメージングシステムにおけるオブジェクト視覚化
JP2019125368A (ja) 2018-01-13 2019-07-25 トヨタ自動車株式会社 複数のコネクティッド車両による観測値を関連付ける方法
WO2019155868A1 (ja) 2018-02-09 2019-08-15 株式会社デンソー 画像生成装置および画像生成方法
JP2019168909A (ja) 2018-03-23 2019-10-03 株式会社デンソーテン 画像処理装置及び画像処理方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8059888B2 (en) 2007-10-30 2011-11-15 Microsoft Corporation Semi-automatic plane extrusion for 3D modeling
EP2511137B1 (en) 2011-04-14 2019-03-27 Harman Becker Automotive Systems GmbH Vehicle Surround View System
US9509909B2 (en) 2013-11-18 2016-11-29 Texas Instruments Incorporated Method and apparatus for a surround view camera system photometric alignment
DE102016124978A1 (de) 2016-12-20 2018-06-21 Connaught Electronics Ltd. Virtuelle Repräsentation einer Umgebung eines Kraftfahrzeugs in einem Fahrerassistenzsystem mit mehreren Projektionsflächen
US10373360B2 (en) 2017-03-02 2019-08-06 Qualcomm Incorporated Systems and methods for content-adaptive image stitching
US11049218B2 (en) * 2017-08-11 2021-06-29 Samsung Electronics Company, Ltd. Seamless image stitching
DE102019126814A1 (de) 2019-10-07 2021-04-08 Connaught Electronics Ltd. Elektronische Steuereinheit
DE102019131971A1 (de) 2019-11-26 2021-05-27 Connaught Electronics Ltd. Ein Bildverarbeitungsmodul

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010283718A (ja) 2009-06-08 2010-12-16 Alpine Electronics Inc 車両周辺画像提供装置
JP2015192198A (ja) 2014-03-27 2015-11-02 クラリオン株式会社 映像表示装置および映像表示システム
JP2017536717A (ja) 2014-09-17 2017-12-07 インテル コーポレイション ボウル型イメージングシステムにおけるオブジェクト視覚化
JP2019125368A (ja) 2018-01-13 2019-07-25 トヨタ自動車株式会社 複数のコネクティッド車両による観測値を関連付ける方法
WO2019155868A1 (ja) 2018-02-09 2019-08-15 株式会社デンソー 画像生成装置および画像生成方法
JP2019168909A (ja) 2018-03-23 2019-10-03 株式会社デンソーテン 画像処理装置及び画像処理方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Yi-Yuan Chen et al.,"An embedded system for vehicle surrounding monitoring",2009 2nd International Conference on Power Electronics and Intelligent Transportation System (PEITS),米国,IEEE,2009年12月19日,pp.92-95
樋口 晴彦、外3名,"車載カメラ俯瞰映像における立体物消失回避技術",情報処理学会研究報告,日本,情報処理学会研究報告,2014年08月20日,Vol.2014-MBL-72, No.5,pp.1-6

Also Published As

Publication number Publication date
CN115516511A (zh) 2022-12-23
KR102692151B1 (ko) 2024-08-05
KR20220166845A (ko) 2022-12-19
EP4133450A1 (en) 2023-02-15
WO2021204881A1 (en) 2021-10-14
DE102020109997A1 (de) 2021-10-14
US20230162464A1 (en) 2023-05-25
JP2023521791A (ja) 2023-05-25

Similar Documents

Publication Publication Date Title
US10780827B2 (en) Method for stitching images captured by multiple vehicular cameras
KR101811157B1 (ko) 사발형 영상 시스템
US20170374289A1 (en) Vehicle vision system with enhanced display functions
KR102253553B1 (ko) 사발형 이미징 시스템에서의 물체 가시화
KR102365501B1 (ko) 이미지 센서의 외재적 파라미터를 교정하기 위한 방법 및 장치
JP7447307B2 (ja) 信頼性の高いスティッチング画像を作成するためのシステムおよび方法
CN104859538A (zh) 车辆图像显示系统中基于视觉的物体感测和突出显示
CN107027329B (zh) 将行进工具的周围环境的局部图像拼接成一个图像
US11081008B2 (en) Vehicle vision system with cross traffic detection
US11055541B2 (en) Vehicle lane marking and other object detection using side fisheye cameras and three-fold de-warping
US11508156B2 (en) Vehicular vision system with enhanced range for pedestrian detection
US11997252B2 (en) Validation of a camera cleaning system
WO2019085929A1 (zh) 图像处理方法及其装置、安全驾驶方法
JP4826355B2 (ja) 車両周囲表示装置
FR2899363A1 (fr) Procede et dispositif de detection de mouvement d'objets sur des images d'une scene
US11458892B2 (en) Image generation device and image generation method for generating a composite image
US11323633B2 (en) Automated creation of a freeform mask for automotive cameras
JP2016136326A (ja) 情報表示装置および情報表示方法
US11107197B2 (en) Apparatus for processing image blurring and method thereof
US20230191998A1 (en) Method for displaying a virtual view of the area surrounding a vehicle, computer program, control unit, and vehicle
Denny et al. Imaging for the Automotive Environment
Wang Computer vision analysis for vehicular safety applications
CN118250448A (zh) 用于显示车辆的周围环境的虚拟视图的方法、计算机程序、控制器和车辆
JP2020127077A (ja) 画像合成装置、及び、制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240228

R150 Certificate of patent or registration of utility model

Ref document number: 7447307

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150