JP2006516507A - 赤外画像と視覚画像を周辺部に依存して融合させることにより車両の周辺部を可視化するための方法及び装置 - Google Patents

赤外画像と視覚画像を周辺部に依存して融合させることにより車両の周辺部を可視化するための方法及び装置 Download PDF

Info

Publication number
JP2006516507A
JP2006516507A JP2006501664A JP2006501664A JP2006516507A JP 2006516507 A JP2006516507 A JP 2006516507A JP 2006501664 A JP2006501664 A JP 2006501664A JP 2006501664 A JP2006501664 A JP 2006501664A JP 2006516507 A JP2006516507 A JP 2006516507A
Authority
JP
Japan
Prior art keywords
vehicle
infrared
visual
image
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006501664A
Other languages
English (en)
Other versions
JP4491453B2 (ja
JP2006516507A5 (ja
Inventor
ヴォルフガング ハーン
トーマス ヴァイトナー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Publication of JP2006516507A publication Critical patent/JP2006516507A/ja
Publication of JP2006516507A5 publication Critical patent/JP2006516507A5/ja
Application granted granted Critical
Publication of JP4491453B2 publication Critical patent/JP4491453B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/12Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices with means for image conversion or intensification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/70Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by an event-triggered choice to display a specific image among a selection of captured images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

本発明は、特に暗い場合に車両の周辺部を可視化するための方法に関する。周知の方法を改善するために、融合画面を形成するために視覚画像と赤外画像からの同時同所の画面ペアの重み付けられた累積が提案される。更なる改善のために、重み付けを周辺部に依存して行うことが意図されている。つまり暗い場合にはより高い重み付けが意図され、従って融合画面内で赤外情報が視覚情報に比べて強調される。霧の場合には、視覚情報を赤外情報に比べて遥かに高く重み付けすることが意図されていて、それにより、霧の場合には往々にして余り役にたたない赤外情報が融合画面内で(ほとんど)考慮されずにいる。本方法を実施するためには、カラーで感知可能な視覚カメラ(101)と、赤外カメラ(102)と、同時同所の画面ペアを画素ごとに又は領域ごとに累積及び/又は平均値形成する融合装置つまり累積装置(106)とを有する装置が提案される。

Description

本発明は、該当する独立特許請求項の前提部(所謂おいて部)による、車両の周辺部(周辺状況)を可視化するための方法及び装置、並びにその装置を校正するための校正装置に関する。
特許文献1から車両用の暗視システムが知られている。このシステムは、赤外画像を生成する赤外カメラを有し、その赤外画像は、車両の周辺部の一部分において人物及び物体から出る熱放射を示す。またこの赤外画像は、ヘッドアップディスプレイを介し、ウインドシールドの下部に投影され、それにより運転者に対して可視とされる。
赤外画像内の人物及び物体を、運転者の前にある交通状況であって視覚的にウインドシールドを通じて認識することのできる交通状況に割り当てることは、運転者により成されなくてはならない。このことは、特にその周知のシステムが想定されている暗さのもとでは困難で多くの場合にはむしろ不可能であり、その理由は、赤外画像が、運転者には視覚的に認識され得ない人物及び物体を示すためである。従って、赤外画像内だけで認識可能な人物及び物体をより正確にポジション決定することは、通常は不可能であり、危険にも運転者の気をそらすことになる。
DE69506174T2
本発明の課題は、主として、車両の周辺部を可視化するための改善された方法及び装置を提示することにあり、特に暗視システムを改善することである。
本発明の課題は、方法として並びに装置として、対応する独立特許請求項に記載された措置により解決される。本発明の有利な構成は、それらに割り当てられている従属特許請求項に記載されている。
本発明の本質的な第1観点は、車両の周辺部のほとんど同じ部分における視覚的(可視的な)な画像(以降では視覚画像(可視画像)と称す)と赤外的な画像(以降では赤外画像と称す)との組み合わせ(コンビネーション)つまり累積(オーバーラップ)を表示つまり可視化することにある。同一光景の異なるスペクトル領域の画像を累積又は融合することにより、従来技術の既述の短所がほとんど排除される。
本発明の本質的な第2観点は、両方のスペクトル部分(視覚部分と赤外部分)を各々の視覚画像と赤外画像の融合時に具体的な走行状況に依存して互いの割合で重み付けすることにある。重み付けの第1の極端な場合、融合により得られた画面はほとんど視覚情報だけを有し、通常の場合には視覚情報と赤外情報から成る累積を有し、重み付けの第2の極端な場合、融合により得られた画面はほとんど赤外情報だけを有する。
例えば幹線道路上で間隔測定システムにより先行車両が認識されると、これは例えば周知のレーダ支援式ACCシステム(オートマチック・クルーズ・コントロール)によってであるが、本発明の実施形態では、その車両を両方のスペクトル部分の融合時に走行周辺部に対して際立たせることが意図されていて、その結果、その車両は融合画面内で周辺部に対してより明確に現れる。このことは、例えば、両方のスペクトル部分の重み付けが走行周辺部に比べて重要な領域のために変更されることによって行われる;この例では、直接的に先行する車両を示す融合画面の画面部分である。昼間では例えば視覚情報が赤外情報に比べてより高く重み付けられ、それにより融合画面内ではより明確に有効とされ得て、それに対して暗い場合にはその反対に重み付けが成される。
良好に照明されている地域を車両が走行する場合、本発明の別の実施形態では選択的に又は追加的に、視覚部分つまり視覚情報を赤外部分つまり赤外情報に比べてより高く重み付けすることが意図されている。暗い幹線道路及び/又は高速道路において重み付けは選択的に又は追加的に前記のものとは反対に行われ、その結果、赤外情報つまり赤外部分が融合画面内で視覚部分に比べてより明確に現れる。
選択的に又は追加的に本発明の他の実施形態では、暗い幹線道路及び/又は高速道路において、より遠くに離れた対象の赤外情報を、その視覚情報に比べ、車両からさほど遠くに離れていない対象と区別し、融合時にそのより高い重み付けにより際立たせることが意図されている。場合により、運転者に対してディスプレイ上に提供された融合画面は、近距離領域では視覚情報がより多くの部分を占め、遠距離領域では赤外情報がより多くの部分を占め得る。
雨天、霧、又は湿った車道の場合、赤外経路の利用性つまり赤外情報の利用性は通常条件に比べて制限されている。そのような天候状況の際には恐らく制限されてのみ使用可能な赤外情報によって融合画面が悪化することに対抗するために、選択的に又は追加的に、視覚部分を赤外部分に比べて増加させる、即ち融合画面内の両方のスペクトル部分の重み付けを視覚情報の方向に適切に変更することが意図されている。
前記の天候条件を認識するために車両には特に雨センサ又は霧センサが設けられ得る。同様に、特にフォグランプのようにどの車両ランプがスイッチオンされているかが評価され得る。しかしこれらの情報は、車両内に設けられているダイナミック・ナビゲーションシステムによっても提供され得て、このシステム内には、車両の現在の滞在場所のために又は特に予期的にであるが計画された走行ルートのための動的な交通状況或いは天候状況が伝達され得る。この伝達は移動無線通信網又は車両・車両・通信により行われ得る。
選択的に又は追加的に本発明の実施形態では、運転者が融合画面内の両方のスペクトル部分の互いの重み付けを手動で調節し得て、それにより運転者の要求と特別な状況が最適に適合され得るということが意図されている。視覚情報から赤外情報への描写の連続的な移行、及び、赤外情報から視覚情報への描写の連続的な移行が、本発明の実施形態において意図されている。このことは、運転者に対し、スペクトル部分間の移動により、視覚情報と赤外情報との間の関連と、走行周辺部の融合画面に対する影響とを、より容易に且つ迅速に、交通状況のより迅速で且つ信頼性のある認識の意味で有益に使用することを可能にする。
他の実施形態では、運転者に対し、選択的に又は追加的に、この運転者に適していると思われる融合画面を選択するために多数の融合画面が提供され、この際、選択のために提供されている融合画面は、視覚情報から赤外情報への関与部分の割合において異なっている。特に視覚部分から赤外部分への異なる重み付けが融合時に行われている。
本発明に従う暗視システムの具体的な構成において、視覚カメラ又は第1センサつまりその光学系は第1光学軸線を有し、赤外カメラ又は第2光学センサつまりその光学系は第2光学軸線を有し、これらの軸線は空間的に互いにずれている。それによりこれらのカメラつまりセンサは、少なくとも部分的に車両の周辺部の異なる部分、即ち第1部分と第2部分を検知する。これらの部分は更に距離に依存する。自明であるが、本発明に従い、感度が異なる波長を網羅する2つよりも多くの赤外カメラつまり赤外センサが設けられ得て、それらによって提供された車両周辺部のデジタル画像が累積つまり融合され得る。
運転者に提示するためのほとんど歪みのない融合画面を得るために本発明の実施形態では、既に提供された第1部分と既に提供された第2部分が全体的に又は部分的に累積装置つまり融合装置により画素ごとに及び/又は領域ごとに累積つまり融合されることが意図されている。融合画面の提供のために、第1部分及び/又は第2部分及び/又は融合画面、つまり直接的な又は処理されたそれらのデジタルデータは、少なくとも1つの適合パラメータにより適合される。
距離に依存するこの又はこれらのパラメータは好ましくは本発明に従うカメラシステム又はセンサシステムつまり暗視システムの校正時にカメラつまりセンサと校正装置との間の少なくとも2つの距離範囲つまり間隔範囲のために検出される。本質的な目的は、その又はそれらの適合パラメータを、画面の累積つまり融合時に発生する対象の融合画面が、該当する距離範囲において、特に不明画面や2重画面から免れているようにほとんど歪みがないように調節することである。この又はこれらの適合パラメータは、本発明に従い、特には少なくとも1つの記録パラメータ又は変換パラメータである。類似するパラメータは、例えばデジタル画像システムの記録(レジストレーション)従って行われた2画面の累積から周知である。走行状況つまり距離に依存するこの又はこれらの適合パラメータは好ましくは校正時に車両内のデータメモリ内に記憶される。
本発明の有利な実施形態では第1距離範囲が市街地走行に典型的な走行状況に対応し、特にほぼ15mから75mまでの距離範囲である。
選択的に又は追加的に第2距離範囲は幹線道路走行に典型的な走行状況に対応し、特にほぼ30mから150mまでの距離範囲である。
選択的に又は追加的に第3距離範囲は高速道路走行に典型的な走行状況に対応し、特にほぼ50mから250mまでの距離範囲である。
距離に依存する又は距離範囲に依存する前記の適合パラメータに対して選択的に又は追加的に、走行状況に依存する別の適合パラメータも、特に前記の目的をもって検出され得る。この際、例えば、太陽が低く位置する時、霧の時、日暮れ時、又は暗い時などのような走行のために適切な適合パラメータに係るものである。
本発明の他の本質的な観点は、車両の現在の走行状況を自動的に検出し、現在の走行状況つまり周辺部状況に対応して特に校正により獲得されて車両内に記憶されている1つの又は複数の適合パラメータを、本発明に従う指向装置による使用又は累積装置つまり融合装置による使用のために提供することにある。累積装置つまり融合装置は、デジタルデータの形式で存在する視覚画像と赤外画像における画素ごとの及び/又は領域ごとの累積つまり融合を実施し、この際、距離に依存する1つの又は複数の適合パラメータは、赤外画像及び/又は視覚画像及び/又は融合画面に対し、好ましくはほとんど歪みのない及び/又は不明画面のない周辺部の融合画像が運転者に提供されるように影響を及ぼす。
前記の自動検出に対して選択的に又は追加的に本発明の実施形態では、運転車が、自分に適していると思われ、特に校正により獲得されて車両内に記憶されている適合パラメータを、本発明に従う指向装置による使用又は累積装置つまり融合装置による使用のために選択することが意図されている。つまり運転者には、例えば、市街地走行に典型的な走行状況、幹線道路走行に典型的な走行状況、高速道路走行に典型的な走行状況、及び/又は、場合により他の走行状況のための1つの又は複数の適合パラメータが選択のために提供され得て、これは例えば手動の選択可能性や音声入力の形式をもってである。それにより運転者は、車両内にある車両ナビゲーションシステムを用いなくても、ほとんど歪みのないつまり2重画面のない融合画面を自らもたらす状況にある。それにより更に運転者には、場合により自動選択を無視する可能性も開かれている。同様に運転者には、例えばこの運転者の車両から20mに至るまでの距離のようなこの運転者の車両の更に近い周辺部を融合画面内で歪みなく描写させる1つの又は複数の適合パラメータを選択する可能性が提供され得る。この選択は、運転者により、例えば運転者が暗闇で自分のガレージに入ってゆき融合画面内の赤外情報を介して茂みの後方に妨害物が待ち伏せているか否かを知りたい場合に行われる。
本発明の有利な実施形態では車両の現在のポジションが、車両ナビゲーションシステム、特に衛星ナビゲーションシステムにより決定される。このポジションに基づき、車両内にあるナビゲーションシステムにより、デジタル地図データとの比較により、特に市街地道路や幹線道路や高速道路のような対応する道路分類つまり走行状況が自動的に検出される。このような車両ナビゲーションシステムは今日では既に多数の車両においてルートガイドなどの目的のために設けられていて、大きな手間を用いることなく、車両の周辺部による融合された画像の、走行状況及び周辺部に依存する自動的な前記の最適化のために利用される。
選択的に又は追加的に本発明の他の実施形態では走行状況が特に車両速度及び/又は減光ライト或いは上向きライトの稼動及び/又は車両加速度及び/又は明るさ(輝度)及び/又は霧のような少なくとも1つの走行動的値に基づいて検出される。これらの情報は、より大きな手間を必要とすることなく、今日の車両では既にそれらのボードネットワークにより全体的に又は部分的に使用可能とされている。
本発明の有利な実施形態ではカラーの視覚画像が赤外画像と融合つまり組み合わせ又は累積される。白黒の視覚画像と異なり、先行車両の赤色のブレーキランプや、赤信号や、カラーの交通標識などのような視覚画像の色情報を含んでいる融合された画面が発生する。融合された画面内の色情報は、対応的に装備されている車両の運転者に対し、融合された画面内に描写される交通状況の迅速なオリエンテーションと認識を容易にする。更に色情報はカラーの警告表示(赤信号など)を見逃してしまう危険性を減少させる。
まとめると、異なるスペクトル領域のための周辺部の画面つまり光景の画面が、各々、特に各々使用されている光学系の像欠陥に基づく赤外画像或いは視覚画像の歪みのような妨害影響から解放される。このことは好ましくはデジタル化された画面を準備するための周知の措置によりソフトウェア的に行われる。妨害影響がほとんど取り除かれた画面つまりそれらのデジタル画面データは好ましくはデジタル画面処理により互いに指向されつまり重ねられ、その結果、赤外画像と視覚画像から成るほとんど同時同所の画面ペアつまりそれらのデジタルデータが存在することになる。このことは、本発明に従い、歪みのない融合画面をもたらすための、距離に依存する及び/又は走行状況に依存する少なくとも1つの適合パラメータを使用して行われる。デジタル画面処理のために使用されるソフトウェアとハードウェアは、好ましくは、画面の互いに相対的な、移動(スライド)、回転(ローテーション)、拡大縮小(スケーリング)を可能とする。この準備により、異なるスペクトル領域からの画面の累積つまり融合のための後続のハードウェア手間が、同時同所の画面ペアの十分なリアルタイム処理にも拘らず、低コストで最適化され得る。
本発明の有利な実施形態に従い、各々同じ画面再生率を有する赤外画像と視覚画像は好ましくはこれらのスペクトル領域のための1つの又は2つのカメラ又はセンサにより生成される。それにより特に簡単に赤外画像と視覚画像から同時の画面ペアが生成され得て、このことは、ほとんどリアルタイムである両方の画像の本発明に従う後続の累積つまり融合のためのソフトウェア手間とハードウェア手間を多大に減少させる。画面ペアの処理速度が増加する;画像の中間記憶のための半導体メモリは最小化される。
本発明の有利な実施形態では赤外画像が人物及び物体から放出された赤外放射線つまり熱放射線を示し、これはほぼ8μmから14μmまでの波長領域内に位置する。好ましくはIRカメラ又はIRセンサが使用され、これはほぼ8μmから10μmまでの領域内で感知可能である。従って有利にも車両周辺部のための赤外放射器つまりその種の照明器(典型的にはほぼ800nmから2.5μmまでの波長領域である)が省略され得る。周知のように各々赤外照明器を有している対向車両の交互の眩惑作用は発生しない。本発明に従う赤外画像は同様に赤外照明器の到達距離に制限されるものではない。
次に実施形態に基づき本発明を更に詳細に説明する。
図1にブロック・ダイヤグラムとして描かれている本発明に従う装置つまり暗視システム(夜間視認システム)100は、視覚スペクトル領域(可視スペクトル領域)内で撮影する電子的なここでは所謂視覚カメラ(可視カメラ)101、例えばCCDセンサと、ほぼ8μmから10μmまでの赤外スペクトル領域内で感知可能な電子的な赤外カメラ102、例えばIRセンサと、第1標準化装置103と、第2標準化装置104と、指向装置105と、累積装置つまり融合装置106とを有する。視覚カメラ101はカラーの視覚画像(可視画像)を提供する。
カメラ101及び102の光学軸線は好ましくは互いに平行に指向されていて、それにより視差誤差が最小化され得て、またそれらの光学軸線は好ましくは近傍に並んで位置し、それにより位置ずれ誤差が最小化される。両方のカメラ又はセンサの画像平面は好ましくは互いに平行に且つ光学軸線に対して垂直に指向され、近傍に並んで位置している。両方のカメラつまりセンサの感光性センサ面は好ましくは互いに相対的に捩れてもなく傾いてもなく、互いにほとんど平行に配設されている。更に両方のカメラ又はセンサは好ましくは同じ開口角度を有する。これらの措置により、それらのカメラ又はセンサが異なるスペクトル領域の画像を提供することが達成され得て、これらの画像は、ほとんど周辺部の同部分を示し、相対的に互いに且つ実際の状況に対して捩られていないものである。それにより、両方の画像から融合される画面を準備するための画像処理に必要な手間、従ってハードウェア手間とソフトウェア手間が明らかに減少され得る。
カメラの光学表面は好ましくは疎水性コーティングされていて、ヘッドライト洗浄に関して既に通常であるように好ましくはその洗浄のために高圧ノズルなどが設けられている。両方のカメラは好ましくは共通のハウジング内に取り付けられている(組み立てやすさ、車両軸線に対する共通の指向付け、カメラ同士の光学パラメータにずれがない)。カメラのハウジングには好ましくは固定具が配設されていて、これらの固定具は車両又は車両内において振動の少ないカメラの稼動を保証する。カメラの稼動のために作動電圧用の接続部が設けられている。カメラの作動電圧は、例えば12ボルト及び/又は42ボルトのような各々の車内電源電圧に柔軟に適合可能であるべきである。カメラの電子装置とセンサを損傷から保護するために、作動電圧ブランチ内には好ましくは過負荷保護装置及び極性混合防止装置が組み込まれている。カメラ又はセンサにより発生されたビデオ信号の出力(スペクトル領域で別個に又は既に融合されて)は規格に対応されるべきである(例えば、NTSC、PAL、SECAM、又は独自の規格)。デジタル/アナログ変換器として、現存する半導体要素が使用され得る。カメラ又はセンサは、走行周辺部の可視化のために、車両の前側、車両の後側、車両の横側に装着され得る。
次に、暗視システムつまり装置100の校正について詳細に説明する。校正のためには本発明に従う校正装置(非図示)が使用される。この校正装置は複数の白熱電球を有し、これらの白熱電球は好ましくは碁盤目状に配設されている。これらの白熱電球は、熱放射線も視覚的に可視の放射線も放出することにより傑出する。好ましくは、複数の白熱電球を備えたプレートなどが両方のカメラつまりセンサ101及び102の前方の様々な間隔範囲に相前後して配設される。間隔範囲とは、周辺部に依存する又は走行状況に依存する典型的な間隔範囲のことであり、このことについては以降で詳細に説明する。
カメラ101及び102の前方にある校正装置は、好ましくは暗い周辺部に配設されていて熱源の近くには配設されてなく、視覚カメラ101では(所謂)視覚画像が生成され、この視覚画像は、人間の目が見るように、碁盤目状に配設されている白熱電球を示す。更に校正装置は赤外カメラ102内で熱画像を生成させ、この熱画像は同様に白熱電球の配置構成を示す。典型的には視覚画像も所謂赤外画像も、特に光学的な像欠陥などに基づき、各々の画像の縁に歪みを示す。周知の方式で視覚画像内の歪みつまり像欠陥は第1標準化装置103によりほとんど排除される。周知の方式で赤外画像内の歪みつまり像欠陥は第2標準化装置104によりほとんど排除される。標準化即ち欠陥排除は、好ましくは、視覚画像のための校正パラメータ107を使用し、赤外画像のための校正パラメータ108を使用し、画像のデジタルデータにおける周知のソフトウェア的な措置(デジタル画像処理)により行われる。
標準化されたつまりノイズなどをほとんど取り除いた画像、つまりそのデジタルデータは、デジタル画像処理において周知の記録過程(レジストレーション過程)により、記録パラメータ109を使用して指向装置105により互いに指向される。指向過程では好ましくは画像の1つが不変のままであり、他の画像のための基準として用いられる。第2画像は、大きさと位置に関し、第1画像に対して相対的にほとんど同対象の画像が発生するように変更される。
つまり、標準化された画像は、融合された画面内で同一の対象がほとんど同じ位置でほとんど同じ大きさで発生するように互いに相対的に指向される。この前処理ステップが実行されないと、異なるカメラ形状やカメラずれに基づき影画面又は2重画面が発生する。このことは、融合された画面内で1つの対象が2つの個所で異なった大きさで発生することを意味する。観察者は、そのような画面により、オリエンテーションが提供されるというよりもむしろ困惑されてしまう。
画素に正確な又は領域に正確な融合を周辺部つまり走行状況に依存して最適化するためには、先ず、市街地走行に典型的な走行状況のための第1記録過程が実施される。このために校正装置とカメラ101及び102との間の間隔は例えばほぼ15mから75mまでの範囲内で変更され、この間隔範囲のために適切な1つの又は複数の記録パラメータが検出されて記憶される。それに対応し、幹線道路に典型的な走行状況、即ち例えばほぼ30mから150mまでの範囲のための第2記録過程が実施される。それに対応して最後に、高速道路に典型的な走行状況、即ち例えばほぼ50mから250mまでの範囲内のための第3記録過程が実施される。
車両ナビゲーションシステム(非図示)により提供される現在のポジションデータを使用し、デジタル地図データに基づくシステムにより、特に市街地道路や幹線道路や高速道路のような、車両のポジションに対応する道路分類つまり走行状況が検出される。特に暗い場合、走行状況に対応し且つ車両内に校正過程時に記憶された記録パラメータつまり適合パラメータが累積装置つまり指向装置105により走行状況に適した画像の指向付けのために使用される。つまり、該当する走行状況のために融合された画面内において特に影画面や2重画面や不明画面はほとんど回避される。
選択的に又は追加的に車両の現在の走行状況が少なくとも1つの走行動的値に基づいて検出される。1つの又は複数の走行動的値に割り当てられ且つ車両内に記憶されている記録パラメータつまり適合パラメータは、本発明に従い、累積装置つまり指向装置105により走行状況に適した画像の指向付けのために使用される。この措置によっても、該当する走行状況のために融合された画面内において特に影画面や2重画面や不明画面がほとんど回避される。車両の走行動的値とは、特に、車両の速度や、減光ライト又は上向きライトのスイッチオンや、車両の正加速度又は負加速度などに係るものである。
標準化された画像の上記の指向付けは3つのステップに分割され得る:移動(スライド)、回転(ローテーション)、拡大縮小(スケーリング)である。実際には、回転、拡大縮小、移動の順番が質的に最善の結果を提供することが分かっている。これらのステップの順番は、通常、可換性つまり交換可能ではないので、これらのステップの順番が校正時及び本発明に従う暗視システムの後続する稼動時に同一であることが考慮されるべきである。場合により暗視システムの校正ソフトウェア及び/又は稼動ソフトウェアが対応的に構成されなくてはならない。
互いに指向された画像は、累積装置つまり融合装置106内でそれらのデジタルデータの処理によりソフトウェア的に累積つまり融合される。視覚画像と赤外画像から成る同時同所つまり同対象の各画面ペアから、融合された又は累積された画面が生成され、この画面は、車両の運転者に対し、好ましくは車両内のカラーモニタ上に描写される。
視覚画像と赤外画像から成る同時同所の画面ペアの融合は、好ましくは、両方の画面からの互いに対応する個々の画素ペアを基礎にし、又は、両方の画像からの複数の画素を使用して行われる。このことは、どの解像度が望まれているのか及び/又はデジタル画像処理のためにどの計算能力が使用可能であるのかに特に対応する。説明した前処理された画像はそれらの画面データのデジタル処理により累積されて表示される。結果から見て、この過程は、同一の光景又は走行周辺部のフィルム又はスライドを重ね合わせることとほぼ比較され得る。このことは、計算技術的に、つまりデジタル画面処理時には、特に、各々の画像内の画素の輝度(明るさ)を考慮し、視覚画像及び/又は赤外画像内に含まれている色情報を考慮し、画素情報の平均値形成により達成される。このことは必ずしも画素ごとに行われる必要はなく、両方の画像内の同時同所の画素領域のための平均値形成によっても行われ得る。
更に、平均値形成時に赤外画像内の画素情報を視覚画像内の同時同所の画素情報に対して異なって重み付けすることは有意義であり得る。この異なる重み付けは、例えば、昼光に依存し、及び/又は、天候に依存し、及び/又は、自動車のヘッドライト光に依存し、及び/又は、視覚画像内の色に依存して行われ得る;それにより例えば赤信号が融合画面内で特に明確に認識可能であるということが達成され得る。更に重み付けは、例えば前景と背景との間の差のように、融合画面の部分領域のために又は全融合画面のために車両の運転者により手動で変更可能であり得る。
この処理により個々の画面領域が特に際立たされ得る。それにより例えば運転者の確実な案内を達成するために車両の直接的な走行領域がより強く強調され得る。
暗さが増すと平均値形成時には赤外情報の重み付けが視覚情報に比べて増加され得る。減光ライトがスイッチオンされている場合、赤外情報の重み付けは、視覚情報に対し、スイッチオンされている上向きライトに比べて増加され得る。
同様に各々の画像内の1つの領域の情報量は重み付けを同時に決定し得る。視覚画像の同時同所の1つの領域内の情報量は、例えば赤外画像の同じ領域内の情報量よりも明らかに多く、それにより、このことを平均値形成時に視覚情報のより高い重み付けにより考慮することは有意義であり得る。
既に説明したように、カメラつまりセンサにより生成される画像は、歪みを除いた状態で対象に忠実に指向されるために前処理されなくてはならない。コストのかかるメモリを節約するために、ソフトウェア・アルゴリズムは好ましくは画素ごとにカメラ101及び102のセンサ情報にアクセスする。
図1に描かれているデジタル画面処理のための装置は、全体的に又は部分的に、ソフトウェア被制御式の1つの又は複数のデジタルプロセッサであり、これらのデジタルプロセッサは好ましくはリアルタイムのデジタル画面処理のために最適化されたものである。また同様にソフトウェア被制御式の1つの又は複数のPCプロセッサを低コストで使用することも想定可能であり、これは、それらの処理速度が視覚情報と赤外情報を伴う融合画像を提供するために画像の十分なリアルタイム処理を可能とする場合にである。
車両の周辺部の一部分を可視化するための本発明に従う装置のブロック・ダイヤグラム、或いは、暗視システムを示す図で、これに基づき可視化のための本発明に従う方法が説明される。
符号の説明
100 暗視システム
101 視覚カメラ
102 赤外カメラ
103 第1標準化装置
104 第2標準化装置
105 指向装置
106 融合装置
107 校正パラメータ
108 校正パラメータ
109 記録パラメータ

Claims (39)

  1. 特に暗い場合に車両の周辺部を可視化するための方法において、
    − 周辺部の視覚画像つまりそのデジタルデータ、好ましくはカラーの視覚画像を提供すること、この際、視覚画像が視覚的に可視の対象を示すこと、及び、
    − 周辺部の赤外画像つまりそのデジタルデータを提供すること、この際、赤外画像が、視覚的に可視の及び/又は他の対象から出る赤外放射線を示すこと、
    を特徴とする方法。
  2. 視覚画像又は標準化された視覚画像が、赤外画像又は標準化された赤外画像に対し、又は、赤外画像又は標準化された赤外画像が、視覚画像又は標準化された視覚画像に対し、画像のデジタルデータの処理により指向され、それにより両方のスペクトル領域のほとんど同時同所の画面ペアが提供されることを特徴とする、請求項1に記載の方法。
  3. 異なるスペクトル領域のほとんど同時同所の画像の同所の画素又は画素領域が、それらのデジタルデータの処理により互いに累積されるつまり平均値形成が行われ、融合された画面内で描写されることを特徴とする、請求項1又は2に記載の方法。
  4. 画素又は画素領域の輝度値及び/又は色値が累積されるつまり平均値形成のために援用されることを特徴とする、請求項3に記載の方法。
  5. 視覚画像及び赤外画像からの1つの又は複数のほとんど同所の画素のために、重み付けられた累積つまり平均値形成が行われることを特徴とする、請求項3又は4に記載の方法。
  6. 重み付けが車両の周辺部の明るさ及び/又は視界条件を考慮して行われることを特徴とする、請求項3〜5のいずれか一項に記載の方法。
  7. 赤外画素及び視覚画素又はそれらの画素領域が、互いに対応する画素又は画素領域の累積つまり融合時に異なって重み付けられることを特徴とする、請求項3〜6のいずれか一項に記載の方法。
  8. 視覚画像及び/又は赤外画像において、情報の豊富な地域が、情報の乏しい地域に比べ、累積つまり平均値形成時により高く重み付けられることを特徴とする、請求項3〜7のいずれか一項に記載の方法。
  9. スペクトル部分の重み付け及び/又は累積が、運転者により、融合された画像内で、周辺部つまり走行状況に依存して手動で調節されることを特徴とする、請求項3〜8のいずれか一項に記載の方法。
  10. スペクトル部分の重み付け及び/又は累積が、累積装置つまり融合装置(106)により周辺部つまり走行状況に依存して調節され、この装置が、車両に配設されているセンサの、周辺部つまり走行状況に依存するパラメータつまり出力信号を考慮することを特徴とする、請求項3〜9のいずれか一項に記載の方法。
  11. 周辺部又は走行状況に依存する調節が、融合された全体の画面のために又は融合された画面の部分領域のために行われることを特徴とする、請求項3〜10のいずれか一項に記載の方法。
  12. 周辺部つまり走行状況に依存する調節が、例えば霧及び/又は雨及び/又は湿ったつまり光を反射する車道のような天候状況や、先行車両に対する間隔や、市街地走行や、幹線道路走行や、高速道路走行のような現在の走行周辺状況に依存し、最後に述べた情報が、例えば車両内に設けられているナビゲーションシステムに基づき地図上のデータを処理して検出されることを特徴とする、請求項9〜11のいずれか一項に記載の方法。
  13. 周辺部つまり走行状況に依存する調節が車両の現在の周辺の明るさに依存することを特徴とする、請求項9〜12のいずれか一項に記載の方法。
  14. 走行状況に依存する調節が、特に車両の速度及び/又は車両の加速度及び/又は車両の操舵角度のような車両の現在の走行動的値に依存することを特徴とする、請求項9〜13のいずれか一項に記載の方法。
  15. 視覚画像つまりそのデジタルデータが、視覚スペクトル領域内で感知可能な視覚カメラ、好ましくは色感知可能な視覚カメラ、又はそのような第1センサにより提供され、赤外画像つまりそのデジタルデータが、赤外スペクトル領域内で感知可能な赤外カメラ、又はそのような第2センサにより提供されることを特徴とする、請求項1に記載の方法。
  16. 視覚カメラ又は第1センサつまりその光学系が第1光学軸線を有し、赤外カメラ又は第2光学センサつまりその光学系が第2光学軸線を有し、これらの軸線が特に平行に互いにずらされていて、それによりカメラつまりセンサが少なくとも部分的に車両の周辺部の異なる部分、即ち第1部分と第2部分を提供することを特徴とする、請求項15に記載の方法。
  17. 提供された第1部分と提供された第2部分が全体的に又は部分的に累積装置つまり融合装置(106)により画素ごとに及び/又は領域ごとに累積つまり融合され、融合時には、特に少なくとも1つの記録パラメータ又は変換パラメータのような、距離に依存し且つ好ましくは異なる距離のための校正時に獲得された少なくとも1つの適合パラメータが考慮されていて、この又はこれらの適合パラメータが好ましくは校正時に車両内のデータメモリ内に記憶されることを特徴とする、請求項16に記載の方法。
  18. 距離に依存する少なくとも1つのパラメータが、第1距離又は第1距離範囲のための第1校正により、及び、少なくとも1つの他の距離又は他の距離範囲のための少なくとも1つの他の校正により獲得されることを特徴とする、請求項17に記載の方法。
  19. 第1距離或いは第1距離範囲が市街地走行に典型的な走行状況に対応し、特にほぼ15mから75mまでの距離範囲であることを特徴とする、請求項18に記載の方法。
  20. 第2距離或いは第2距離範囲が幹線道路走行に典型的な走行状況に対応し、特にほぼ30mから150mまでの距離範囲であることを特徴とする、請求項18又は19に記載の方法。
  21. 第3距離或いは第3距離範囲が高速道路走行に典型的な走行状況に対応し、特にほぼ50mから250mまでの距離範囲であることを特徴とする、請求項18〜20のいずれか一項に記載の方法。
  22. 車両の現在の走行状況が自動的に検出され、及び/又は、運転者が自分に適していると思われる適合パラメータを複数の適合パラメータから選択し、更に、現在の走行状況に対応する又は校正により獲得されて車両内に記憶されている選択された適合パラメータが、デジタル融合画面処理における視覚画像と赤外画像の画素ごとの及び/又は領域ごとの累積つまり融合時に考慮され、それにより、好ましくは、ほとんど歪みのない及び/又は不明画面のない周辺部の融合画像が得られることを特徴とする、請求項1〜21のいずれか一項に記載の方法。
  23. 車両の現在のポジションが、車両ナビゲーションシステム、特に衛星ナビゲーションシステムにより自動的に検出され、特に市街地道路や幹線道路や高速道路のような、そのポジションに対応する道路分類つまり走行状況が検出されることを特徴とする、請求項1〜22のいずれか一項に記載の方法。
  24. 走行状況が、特に車両速度及び/又は減光ライト或いは上向きライトの稼動及び/又は車両加速度のような、少なくとも1つの走行動的値に基づいて自動的に検出されることを特徴とする、請求項1〜23のいずれか一項に記載の方法。
  25. 視覚的に可視の対象及び/又は他の対象から出て検知される赤外放射線が、ほぼ7μmから14μmまでの領域内、好ましくはほぼ7.5μmから10.5μmまでの領域内の波長を有することを特徴とする、請求項1〜24のいずれか一項に記載の方法。
  26. 視覚的に可視の対象及び/又は他の対象から出て検知される赤外放射線がほぼ3μmから5μmまでの領域内の波長を有することを特徴とする、請求項1〜25のいずれか一項に記載の方法。
  27. 視覚的に可視の対象及び/又は他の対象から出て検知される赤外放射線がほぼ800nmから2.5μmまでの領域内の波長を有することを特徴とする、請求項1〜26のいずれか一項に記載の方法。
  28. デジタルデータの形式で存在する車両の周辺部の視覚画像が校正装置を使用して標準化されることを特徴とする、請求項1〜27のいずれか一項に記載の方法。
  29. デジタルデータの形式で存在する車両の周辺部の一部分の赤外画像が校正装置を使用して標準化されることを特徴とする、請求項1〜28のいずれか一項に記載の方法。
  30. 校正装置から、視覚的に可視の放射線と赤外放射線とが送出されることを特徴とする、請求項1〜29のいずれか一項に記載の方法。
  31. 校正装置が少なくとも1つの白熱電球を有し、複数の白熱電球の場合にはそれらが好ましくは碁盤目状に配設されていることを特徴とする、請求項1〜30のいずれか一項に記載の方法。
  32. 視覚画像及び/又は赤外画像のデジタルデータが画面データメモリ内に一時的に記憶されることを特徴とする、請求項1〜31のいずれか一項に記載の方法。
  33. 視覚カメラ又は第1センサの画面再生率と赤外カメラ又は第2センサの画面再生率が少なくともほとんど同一であることを特徴とする、請求項1〜32のいずれか一項に記載の方法。
  34. 異なるスペクトル領域のほとんど同時同所の画像の同所の画素又は画素領域が、それらのデジタルデータの処理により互いに累積されるつまり平均値形成が行われることを特徴とする、請求項1〜33のいずれか一項に記載の方法。
  35. 画素又は画素領域の輝度値及び/又は色値が累積されるつまり平均値形成のために援用されることを特徴とする、請求項1〜34のいずれか一項に記載の方法。
  36. 視覚画像及び赤外画像からの1つの又は複数のほとんど同所の画素のために、重み付けられた累積つまり平均値形成が行われることを特徴とする、請求項1〜35のいずれか一項に記載の方法。
  37. 特に暗い間、車両の周辺部を可視化するための装置(100)において、この装置が、請求項1〜36のいずれか一項に記載の方法を実施するを特徴とする装置。
  38. 視覚カメラ(101)、好ましくは色感知可能な視覚カメラと、赤外カメラ(102)と、視覚カメラ(101)により提供された、車両の周辺部の一部分の好ましくはカラーの視覚画像を標準化するための第1標準化装置(103)と、赤外カメラ(102)により提供された、車両の周辺部の一部分の赤外画像を標準化するための第2標準化装置(104)と、視覚画像及び赤外画像からのほとんど同時同所の画面ペアを生成するための指向装置(105)と、ほとんど同時同所の画面ペアを画素ごとに又は領域ごとに累積及び/又は平均値形成する融合装置つまり累積装置(106)とが設けられていることを特徴とする、請求項37に記載の装置。
  39. 校正装置において、この校正装置が、請求項37又は38に記載した装置を校正するために用いられ、少なくとも1つの放射線源を有し、この放射線源が、特に白熱電球のように、視覚的に可視の放射線も赤外放射線も放出することを特徴とする校正装置。
JP2006501664A 2003-02-06 2004-01-30 赤外画像と視覚画像を周辺部に依存して融合させることにより車両の周辺部を可視化するための方法及び装置 Expired - Lifetime JP4491453B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10304703.4A DE10304703B4 (de) 2003-02-06 2003-02-06 Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit umgebungsabhängiger Fusion eines Infrarot- und eines Visuell-Abbilds
PCT/EP2004/000848 WO2004070449A1 (de) 2003-02-06 2004-01-30 Verfahren und vorrichtung zur sichtbarmachung der umgebung eines fahrzeugs mit umgebungsabhängiger fusion eines infrarot- und eines visuell-abbilds

Publications (3)

Publication Number Publication Date
JP2006516507A true JP2006516507A (ja) 2006-07-06
JP2006516507A5 JP2006516507A5 (ja) 2006-09-28
JP4491453B2 JP4491453B2 (ja) 2010-06-30

Family

ID=32730784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006501664A Expired - Lifetime JP4491453B2 (ja) 2003-02-06 2004-01-30 赤外画像と視覚画像を周辺部に依存して融合させることにより車両の周辺部を可視化するための方法及び装置

Country Status (7)

Country Link
US (1) US7199366B2 (ja)
EP (1) EP1590697A1 (ja)
JP (1) JP4491453B2 (ja)
KR (1) KR20050103194A (ja)
CN (1) CN100401129C (ja)
DE (1) DE10304703B4 (ja)
WO (1) WO2004070449A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008530667A (ja) * 2005-02-11 2008-08-07 バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフト 赤外画像と可視画像との融合により車両の周辺を可視化するための方法および装置
JP2012027773A (ja) * 2010-07-26 2012-02-09 Toyota Central R&D Labs Inc 擬似濃淡画像生成装置及びプログラム
KR101375372B1 (ko) * 2009-05-19 2014-03-14 아우토리브 디벨롭먼트 아베 자동차의 비젼 시스템 및 비젼 방법
WO2015182135A1 (ja) * 2014-05-30 2015-12-03 パナソニックIpマネジメント株式会社 センシングシステム及び運転支援システム
KR20180001364A (ko) * 2016-06-27 2018-01-04 현대자동차주식회사 전방 차량 검출 장치 및 방법

Families Citing this family (130)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7834905B2 (en) * 2002-06-18 2010-11-16 Bayerische Motoren Werke Aktiengesellschaft Method and system for visualizing the environment of a vehicle with a distance-dependent merging of an infrared and a visual image
US7427758B2 (en) 2003-05-28 2008-09-23 Opto-Knowledge Systems, Inc. Cryogenically cooled adjustable apertures for infra-red cameras
DE10348109A1 (de) * 2003-10-16 2005-05-19 Bayerische Motoren Werke Ag Verfahren und Vorrichtung zur Sichtbarmachung einer Fahrzeugumgebung
US20050190990A1 (en) * 2004-01-27 2005-09-01 Burt Peter J. Method and apparatus for combining a plurality of images
DE102004060461A1 (de) * 2004-12-16 2006-07-06 Daimlerchrysler Ag Verfahren zum Betreiben einer Leuchteinrichtung und Vorrichtung zum Betreiben einer Leuchteinrichtung
DE102004061831A1 (de) * 2004-12-22 2006-07-06 Hella Kgaa Hueck & Co. Verfahren und Vorrichtung zur kombinierten Auswertung der Signale eines Regensensors und einer Kamera
US8077995B1 (en) 2005-02-23 2011-12-13 Flir Systems, Inc. Infrared camera systems and methods using environmental information
US7340162B2 (en) 2005-02-23 2008-03-04 Flir Systems, Inc. Infrared camera systems and methods
US7419298B2 (en) * 2005-05-24 2008-09-02 United Technologies Corporation Thermal imaging method and apparatus
DE102005041241A1 (de) * 2005-08-31 2007-04-19 Valeo Schalter Und Sensoren Gmbh Verfahren und System zum Betreiben eines Kamerasystems eines Fahrzeugs
DE102006014504B3 (de) * 2006-03-23 2007-11-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bilderfassungssystem für Kraft- und Schienenfahrzeuge sowie Verfahren zur elektronischen Bilderfassung
JP4793638B2 (ja) * 2006-03-27 2011-10-12 マツダ株式会社 車両用歩行者検出装置
US7885469B2 (en) * 2006-05-22 2011-02-08 Microsoft Corporation Encoded high dynamic range textures
US7786898B2 (en) * 2006-05-31 2010-08-31 Mobileye Technologies Ltd. Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications
US7636098B2 (en) 2006-09-28 2009-12-22 Microsoft Corporation Salience preserving image fusion
DE102006053109B3 (de) 2006-11-10 2008-06-12 Audi Ag Verfahren zur bildhaften Darstellung einer Fahrzeugumgebung und Bilderfassungssystem
DE102006055905B4 (de) * 2006-11-27 2020-01-30 Adc Automotive Distance Control Systems Gmbh Verfahren zur Fahrzeugumfelderkennung und Vorrichtung zur Umfelderkennung in einem Kraftfahrzeug
DE102006062061B4 (de) * 2006-12-29 2010-06-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zum Bestimmen einer Position basierend auf einem Kamerabild von einer Kamera
DE102007021035A1 (de) * 2007-05-04 2008-11-13 Siemens Ag Bildverarbeitungs-, Bildvisualisierungs- und Bildarchivierungssystem zur kontrasterhaltenden Fusionierung und Visualisierung koregistrierter Bilddaten
JP2008306512A (ja) * 2007-06-08 2008-12-18 Nec Corp 情報提供システム
US8164813B1 (en) 2007-06-16 2012-04-24 Opto-Knowledge Systems, Inc. Non-circular continuous variable aperture or shutter for infrared cameras
US8368741B2 (en) * 2007-06-27 2013-02-05 General Instrument Corporation Apparatus and system for improving image quality
FR2922072B1 (fr) * 2007-10-03 2011-04-29 Latecoere Procede et systeme d'aide au roulage d'un aeronef
WO2009046268A1 (en) * 2007-10-04 2009-04-09 Magna Electronics Combined rgb and ir imaging sensor
WO2012116112A1 (en) * 2011-02-25 2012-08-30 Flir Systems, Inc. Modular infrared camera systems and methods
US10425595B2 (en) 2007-11-28 2019-09-24 Flir Systems, Inc. Modular camera systems and methods
DE102008004370A1 (de) * 2008-01-15 2009-07-16 Robert Bosch Gmbh Bildjustageverfahren für ein Videobild
US8274226B1 (en) * 2008-10-06 2012-09-25 Tomar Electronics, Inc. System and method of integrating an LED spotlight
US7772539B2 (en) * 2008-10-10 2010-08-10 General Electric Company System and method for determining characteristic information of an object positioned adjacent to a route
US8840249B2 (en) 2008-10-31 2014-09-23 Christie Digital Systems, Inc. Method, system and apparatus for projecting visible and non-visible images
US8489353B2 (en) * 2009-01-13 2013-07-16 GM Global Technology Operations LLC Methods and systems for calibrating vehicle vision systems
US9208542B2 (en) 2009-03-02 2015-12-08 Flir Systems, Inc. Pixel-wise noise reduction in thermal images
US9235876B2 (en) 2009-03-02 2016-01-12 Flir Systems, Inc. Row and column noise reduction in thermal images
US9986175B2 (en) 2009-03-02 2018-05-29 Flir Systems, Inc. Device attachment with infrared imaging sensor
US9635285B2 (en) 2009-03-02 2017-04-25 Flir Systems, Inc. Infrared imaging enhancement with fusion
US9998697B2 (en) 2009-03-02 2018-06-12 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US8749635B2 (en) 2009-06-03 2014-06-10 Flir Systems, Inc. Infrared camera systems and methods for dual sensor applications
USD765081S1 (en) 2012-05-25 2016-08-30 Flir Systems, Inc. Mobile communications device attachment with camera
US9843742B2 (en) 2009-03-02 2017-12-12 Flir Systems, Inc. Thermal image frame capture using de-aligned sensor array
US10757308B2 (en) 2009-03-02 2020-08-25 Flir Systems, Inc. Techniques for device attachment with dual band imaging sensor
US10244190B2 (en) * 2009-03-02 2019-03-26 Flir Systems, Inc. Compact multi-spectrum imaging with fusion
US9674458B2 (en) 2009-06-03 2017-06-06 Flir Systems, Inc. Smart surveillance camera systems and methods
US9473681B2 (en) 2011-06-10 2016-10-18 Flir Systems, Inc. Infrared camera system housing with metalized surface
US9451183B2 (en) 2009-03-02 2016-09-20 Flir Systems, Inc. Time spaced infrared image enhancement
US9756264B2 (en) 2009-03-02 2017-09-05 Flir Systems, Inc. Anomalous pixel detection
US9948872B2 (en) 2009-03-02 2018-04-17 Flir Systems, Inc. Monitor and control systems and methods for occupant safety and energy efficiency of structures
US9517679B2 (en) 2009-03-02 2016-12-13 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9843743B2 (en) 2009-06-03 2017-12-12 Flir Systems, Inc. Infant monitoring systems and methods using thermal imaging
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
US10044946B2 (en) 2009-06-03 2018-08-07 Flir Systems Ab Facilitating analysis and interpretation of associated visible light and infrared (IR) image information
US9716843B2 (en) 2009-06-03 2017-07-25 Flir Systems, Inc. Measurement device for electrical installations and related methods
US9819880B2 (en) 2009-06-03 2017-11-14 Flir Systems, Inc. Systems and methods of suppressing sky regions in images
US9756262B2 (en) 2009-06-03 2017-09-05 Flir Systems, Inc. Systems and methods for monitoring power systems
US9292909B2 (en) 2009-06-03 2016-03-22 Flir Systems, Inc. Selective image correction for infrared imaging devices
US8599264B2 (en) * 2009-11-20 2013-12-03 Fluke Corporation Comparison of infrared images
US8279285B2 (en) 2010-04-14 2012-10-02 Canon Kabushiki Kaisha Hybrid imaging with visible and quantum entanglement images
US9848134B2 (en) 2010-04-23 2017-12-19 Flir Systems, Inc. Infrared imager with integrated metal layers
US9207708B2 (en) 2010-04-23 2015-12-08 Flir Systems, Inc. Abnormal clock rate detection in imaging sensor arrays
US9706138B2 (en) 2010-04-23 2017-07-11 Flir Systems, Inc. Hybrid infrared sensor array having heterogeneous infrared sensors
US8102306B2 (en) * 2010-05-13 2012-01-24 The United States Of America As Represented By The Secretary Of The Navy Active-radar-assisted passive composite imagery for aiding navigation or detecting threats
US8768101B1 (en) 2010-06-30 2014-07-01 The United States Of America As Represented By The Secretary Of The Air Force Target image registration and fusion
DE102010026223A1 (de) * 2010-07-06 2011-05-12 Daimler Ag Fahrzeug mit mehreren Bilderfassungseinheiten zur Erfassung eines seitlich neben und seitlich hinter dem Fahrzeug befindlichen Bereichs
US8836793B1 (en) 2010-08-13 2014-09-16 Opto-Knowledge Systems, Inc. True color night vision (TCNV) fusion
US9143709B1 (en) 2011-05-09 2015-09-22 Exelis, Inc. Non-uniformity correction (NUC) gain damping
US9235023B2 (en) 2011-06-10 2016-01-12 Flir Systems, Inc. Variable lens sleeve spacer
US9961277B2 (en) 2011-06-10 2018-05-01 Flir Systems, Inc. Infrared focal plane array heat spreaders
US10169666B2 (en) 2011-06-10 2019-01-01 Flir Systems, Inc. Image-assisted remote control vehicle systems and methods
KR101778353B1 (ko) 2011-06-10 2017-09-13 플리어 시스템즈, 인크. 적외선 이미징 장치용 불균일성 교정 기술
WO2012170954A2 (en) 2011-06-10 2012-12-13 Flir Systems, Inc. Line based image processing and flexible memory system
US10389953B2 (en) 2011-06-10 2019-08-20 Flir Systems, Inc. Infrared imaging device having a shutter
US9509924B2 (en) 2011-06-10 2016-11-29 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
EP2719167B1 (en) 2011-06-10 2018-08-08 Flir Systems, Inc. Low power and small form factor infrared imaging
US9058653B1 (en) 2011-06-10 2015-06-16 Flir Systems, Inc. Alignment of visible light sources based on thermal images
US10841508B2 (en) 2011-06-10 2020-11-17 Flir Systems, Inc. Electrical cabinet infrared monitor systems and methods
US9900526B2 (en) 2011-06-10 2018-02-20 Flir Systems, Inc. Techniques to compensate for calibration drifts in infrared imaging devices
US10079982B2 (en) 2011-06-10 2018-09-18 Flir Systems, Inc. Determination of an absolute radiometric value using blocked infrared sensors
US9143703B2 (en) 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
US10051210B2 (en) 2011-06-10 2018-08-14 Flir Systems, Inc. Infrared detector array with selectable pixel binning systems and methods
US9706137B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Electrical cabinet infrared monitor
CN204615945U (zh) * 2012-03-19 2015-09-02 菲力尔系统公司 可穿戴装置
US8824828B1 (en) * 2012-03-28 2014-09-02 Exelis, Inc. Thermal V-curve for fusion image declutter
US8994845B2 (en) * 2012-04-27 2015-03-31 Blackberry Limited System and method of adjusting a camera based on image data
US9811884B2 (en) 2012-07-16 2017-11-07 Flir Systems, Inc. Methods and systems for suppressing atmospheric turbulence in images
KR101858646B1 (ko) * 2012-12-14 2018-05-17 한화에어로스페이스 주식회사 영상 융합 장치 및 방법
DE102012025270A1 (de) 2012-12-21 2013-08-01 Daimler Ag Kamerasystem für einen Kraftwagen und Verfahren zum Mischen von zumindest zwei Bildsequenzen
US9580014B2 (en) * 2013-08-08 2017-02-28 Convoy Technologies Llc System, apparatus, and method of detecting and displaying obstacles and data associated with the obstacles
US9973692B2 (en) 2013-10-03 2018-05-15 Flir Systems, Inc. Situational awareness by compressed display of panoramic views
US11297264B2 (en) 2014-01-05 2022-04-05 Teledyne Fur, Llc Device attachment with dual band imaging sensor
US9990730B2 (en) 2014-03-21 2018-06-05 Fluke Corporation Visible light image with edge marking for enhancing IR imagery
US9996913B2 (en) 2014-04-07 2018-06-12 Bae Systems Information And Electronic Systems Integration Inc. Contrast based image fusion
CA2916062C (en) 2014-04-18 2020-08-11 Cnh Industrial America Llc Stereo vision for sensing vehicles operating environment
KR101637374B1 (ko) * 2014-05-07 2016-07-07 서울대학교산학협력단 협력 통신을 이용하여 주변 이동체를 탐지하는 방법 및 시스템
WO2015170869A1 (ko) * 2014-05-07 2015-11-12 서울대학교산학협력단 협력 통신을 이용하여 주변 이동체를 탐지하는 방법 및 시스템
KR101990367B1 (ko) * 2014-05-08 2019-06-18 한화테크윈 주식회사 영상 융합 방법
US9628659B2 (en) * 2015-01-08 2017-04-18 GM Global Technology Operations LLC Method and apparatus for inspecting an object employing machine vision
CN107430591B (zh) * 2015-01-26 2020-10-30 Trw汽车美国有限责任公司 车辆驾驶员辅助系统
US10023118B2 (en) * 2015-03-23 2018-07-17 Magna Electronics Inc. Vehicle vision system with thermal sensor
EP3295376A4 (en) * 2015-05-15 2019-06-12 Airfusion, Inc. PORTABLE APPARATUS AND DECISION ASSISTANCE METHOD FOR FUSION AND ANALYSIS OF AUTOMATED MULTI-SENSOR DATA IN REAL-TIME
US10152811B2 (en) 2015-08-27 2018-12-11 Fluke Corporation Edge enhancement for thermal-visible combined images and cameras
US9781361B2 (en) * 2015-09-01 2017-10-03 Delphi Technologies, Inc. Integrated camera, ambient light detection, and rain sensor assembly
CN106127720B (zh) * 2016-06-29 2019-01-11 青岛海信移动通信技术股份有限公司 一种拍摄放大图像的方法和装置
CN109479366A (zh) 2016-07-28 2019-03-15 飞利浦照明控股有限公司 用于照明系统传感器的校准的方法
DE102016217081A1 (de) * 2016-09-08 2018-03-08 Robert Bosch Gmbh Verfahren und Vorrichtung zum Empfangen, Verarbeiten und Übertragen von Daten
US10511793B2 (en) 2017-06-05 2019-12-17 Adasky, Ltd. Techniques for correcting fixed pattern noise in shutterless FIR cameras
US10929955B2 (en) 2017-06-05 2021-02-23 Adasky, Ltd. Scene-based nonuniformity correction using a convolutional recurrent neural network
US11012594B2 (en) 2017-06-05 2021-05-18 Adasky, Ltd. Techniques for correcting oversaturated pixels in shutterless FIR cameras
KR102555362B1 (ko) * 2017-06-05 2023-07-13 아다스카이, 엘티디. 자동차 안전 및 주행 시스템을 위한 셔터리스 원적외선(fir) 카메라
US10699386B2 (en) 2017-06-05 2020-06-30 Adasky, Ltd. Techniques for scene-based nonuniformity correction in shutterless FIR cameras
CN107230199A (zh) * 2017-06-23 2017-10-03 歌尔科技有限公司 图像处理方法、装置和增强现实设备
EP3625106B1 (de) * 2017-08-10 2023-03-15 Siemens Mobility GmbH Sensoriell gesteuertes anpassen von fusionsgewichten an wetterbedingungen in einer odometrieeinheit eines schienenfahrzeugs
CN107566747B (zh) * 2017-09-22 2020-02-14 浙江大华技术股份有限公司 一种图像亮度增强方法及装置
KR102146837B1 (ko) * 2018-09-05 2020-08-21 주식회사 옵트론텍 이미지 통합 장치 및 이를 포함하는 운전 보조 시스템
US10698415B2 (en) * 2018-10-31 2020-06-30 Trw Automotive U.S. Llc Vehicle assist system
WO2020111990A1 (en) * 2018-11-28 2020-06-04 Saab Ab A method, software product, device and system for integrating images
KR102235031B1 (ko) * 2019-01-24 2021-04-01 주식회사 아이에이 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템
CN109733285B (zh) * 2019-02-27 2021-05-07 百度在线网络技术(北京)有限公司 车辆行驶状态显示方法、设备和系统
DE102019205009A1 (de) * 2019-04-08 2020-10-08 Zf Friedrichshafen Ag Verfahren, Steuergerät, Set und Computerprogrammprodukt zum Kalibrieren einer Kamera und Kalibrieren einer Fahrzeugkamera mit Nachtsichtfähigkeit
US11709099B2 (en) 2019-07-01 2023-07-25 Snap-On Incorporated Method and system for calibrating imaging system
US11555743B2 (en) * 2019-07-01 2023-01-17 Snap-On Incorporated Method and system for calibrating imaging system
CN110458877B (zh) * 2019-08-14 2023-02-24 湖南科华军融民科技研究院有限公司 基于仿生视觉的红外与可见光信息融合的导航方法
CN110889398B (zh) * 2019-12-19 2022-01-14 南通大学 一种基于相似度网络的多模态图像能见度检测方法
US11288522B2 (en) * 2019-12-31 2022-03-29 Woven Planet North America, Inc. Generating training data from overhead view images
US11244500B2 (en) * 2019-12-31 2022-02-08 Woven Planet North America, Inc. Map feature extraction using overhead view images
US11037328B1 (en) 2019-12-31 2021-06-15 Lyft, Inc. Overhead view image generation
US11623653B2 (en) 2020-01-23 2023-04-11 Toyota Motor Engineering & Manufacturing North America, Inc. Augmented reality assisted traffic infrastructure visualization
DE102020214791A1 (de) 2020-11-25 2022-05-25 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Erzeugen eines fusionierten Kamerabilds für eine Fahrzeugkameraeinrichtung
DE102020214781A1 (de) 2020-11-25 2022-05-25 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Erzeugen eines fusionierten Kamerabilds für eine Fahrzeugkameraeinrichtung
CN112991218A (zh) * 2021-03-23 2021-06-18 北京百度网讯科技有限公司 图像处理的方法、装置、设备以及存储介质
US20220392188A1 (en) * 2021-04-27 2022-12-08 ARETé ASSOCIATES Systems and methods for estimating visibility in a scene
US11722789B1 (en) * 2022-02-01 2023-08-08 Ford Global Technologies, Llc Multi-camera imaging system selecting between visible and infrared views in a vehicle

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5001558A (en) * 1985-06-11 1991-03-19 General Motors Corporation Night vision system with color video camera
JPH01296785A (ja) * 1988-05-24 1989-11-30 Fujitsu Ltd 画像重畳装置
US5140416A (en) * 1990-09-18 1992-08-18 Texas Instruments Incorporated System and method for fusing video imagery from multiple sources in real time
FR2674198B1 (fr) * 1991-03-22 1993-05-28 Renault Procede et dispositif d'amelioration de la vision automobile de nuit.
FI96993C (fi) * 1992-01-30 1996-09-25 Vaisala Oy Kalibrointimenetelmä kaasujen pitoisuuden mittausta varten
FR2687000A1 (fr) * 1992-01-31 1993-08-06 Renault Procede et dispositif de detection de vehicules et de marquages au sol.
US6150930A (en) * 1992-08-14 2000-11-21 Texas Instruments Incorporated Video equipment and method to assist motor vehicle operators
US5414439A (en) 1994-06-09 1995-05-09 Delco Electronics Corporation Head up display with night vision enhancement
DE19638140A1 (de) * 1996-09-18 1998-03-19 Franz Huber Sichtabbildungsvorrichtung für Kraftfahrzeuge
US6163309A (en) * 1998-01-16 2000-12-19 Weinert; Charles L. Head up display and vision system
DE19801884A1 (de) * 1998-01-20 1999-07-22 Mannesmann Vdo Ag Überwachungssystem für Fahrzeuge
JP3298851B2 (ja) * 1999-08-18 2002-07-08 松下電器産業株式会社 多機能車載カメラシステムと多機能車載カメラの画像表示方法
DE10016184C2 (de) * 2000-03-31 2002-02-07 Audi Ag Vorrichtung zur Anzeige der Umgebung eines Fahrzeugs
EP1202214A3 (en) * 2000-10-31 2005-02-23 Matsushita Electric Industrial Co., Ltd. Method and apparatus for object recognition
DE10218175B4 (de) * 2002-04-24 2011-10-27 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit fahrsituationsabhängiger Fusion eines Infrarot- und eines Visuell-Abbilds
DE10227171B4 (de) * 2002-06-18 2019-09-26 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit abstandsabhängiger Fusion eines Infrarot- und eines Visuell-Abbilds

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008530667A (ja) * 2005-02-11 2008-08-07 バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフト 赤外画像と可視画像との融合により車両の周辺を可視化するための方法および装置
KR101375372B1 (ko) * 2009-05-19 2014-03-14 아우토리브 디벨롭먼트 아베 자동차의 비젼 시스템 및 비젼 방법
JP2012027773A (ja) * 2010-07-26 2012-02-09 Toyota Central R&D Labs Inc 擬似濃淡画像生成装置及びプログラム
WO2015182135A1 (ja) * 2014-05-30 2015-12-03 パナソニックIpマネジメント株式会社 センシングシステム及び運転支援システム
US11397248B2 (en) 2014-05-30 2022-07-26 Nuvoton Technology Corporation Japan Sensing system and driving support system
KR20180001364A (ko) * 2016-06-27 2018-01-04 현대자동차주식회사 전방 차량 검출 장치 및 방법
KR102371589B1 (ko) * 2016-06-27 2022-03-07 현대자동차주식회사 전방 차량 검출 장치 및 방법

Also Published As

Publication number Publication date
DE10304703A1 (de) 2004-08-19
KR20050103194A (ko) 2005-10-27
CN100401129C (zh) 2008-07-09
JP4491453B2 (ja) 2010-06-30
WO2004070449A1 (de) 2004-08-19
US20050270784A1 (en) 2005-12-08
US7199366B2 (en) 2007-04-03
EP1590697A1 (de) 2005-11-02
DE10304703B4 (de) 2023-03-16
CN1748167A (zh) 2006-03-15

Similar Documents

Publication Publication Date Title
JP4491453B2 (ja) 赤外画像と視覚画像を周辺部に依存して融合させることにより車両の周辺部を可視化するための方法及び装置
US7834905B2 (en) Method and system for visualizing the environment of a vehicle with a distance-dependent merging of an infrared and a visual image
JP4543147B2 (ja) パノラマビジョンシステム及び方法
US7576767B2 (en) Panoramic vision system and method
US9445011B2 (en) Dynamic rearview mirror adaptive dimming overlay through scene brightness estimation
CN104512411B (zh) 车辆控制系统及图像传感器
JP4512595B2 (ja) 車両周辺部を可視化するための方法及び装置
US9088737B2 (en) Method and device for visualizing the surroundings of a vehicle by fusing an infrared image and a visual image
US7561181B2 (en) Vehicular vision system
US20050134479A1 (en) Vehicle display system
US20180015879A1 (en) Side-view mirror camera system for vehicle
JP2007142624A (ja) 車両搭載撮像装置
JP2006516507A5 (ja)
JP2004189223A (ja) 車両用ヘッドランプの方向を制御するためのシステムおよびその方法
JP2009171122A (ja) 光源色温度推定方法、ホワイトバランス調整装置、及び画像認識装置
JP5501477B2 (ja) 環境推定装置及び車両制御装置
JPWO2019194256A1 (ja) 演算処理装置、オブジェクト識別システム、学習方法、自動車、車両用灯具
US20190034752A1 (en) Indirect View System For a Vehicle
JP2016196233A (ja) 車両用道路標識認識装置
JP4363207B2 (ja) 画像処理方法、画像処理システムおよび画像処理装置
JP6847781B2 (ja) 画像処理装置
US11007874B2 (en) Vehicle display device
JP5716944B2 (ja) 車載カメラ装置
JP4795813B2 (ja) 車両周囲監視装置
JP2004123061A (ja) 撮影システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060808

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100309

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100405

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130409

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4491453

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130409

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140409

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term