JP2008507449A - Panorama vision system and method - Google Patents

Panorama vision system and method Download PDF

Info

Publication number
JP2008507449A
JP2008507449A JP2007523514A JP2007523514A JP2008507449A JP 2008507449 A JP2008507449 A JP 2008507449A JP 2007523514 A JP2007523514 A JP 2007523514A JP 2007523514 A JP2007523514 A JP 2007523514A JP 2008507449 A JP2008507449 A JP 2008507449A
Authority
JP
Japan
Prior art keywords
image
display
vehicle
vision system
distortion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007523514A
Other languages
Japanese (ja)
Other versions
JP4543147B2 (en
Inventor
リー、ルイー
ヴァッキリー、マサウド
Original Assignee
シリコン オプティックス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シリコン オプティックス インコーポレイテッド filed Critical シリコン オプティックス インコーポレイテッド
Publication of JP2008507449A publication Critical patent/JP2008507449A/en
Application granted granted Critical
Publication of JP4543147B2 publication Critical patent/JP4543147B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration by the use of histogram techniques
    • G06T5/80
    • G06T5/92
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/102Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using 360 degree surveillance camera system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/306Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using a re-scaling of images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/402Image calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/70Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by an event-triggered choice to display a specific image among a selection of captured images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8053Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for bad weather conditions or night vision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8066Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring rearward traffic

Abstract

歪み補正されたパノラマ視覚システム及び方法は、広角光学部品を通して獲得され、表示面に投影される視覚的に正しい複合画像を提供する。該システムは最大360°つまり4πステラジアン幅の場面を捕捉するために画像獲得装置を使用する。画像プロセッサは輝度またはクロミナンスの不均一性を補正し、各画像フレームに空間変換を適用する。該空間変換は該表示変換、獲得幾何学形状、及び光学歪み変換、及びディスプレイ幾何学形状及び光学変換を連結することによって連結することにより畳み込まれる。該歪み補正は該光学部品の側面方向の色収差を排除するために赤の成分、緑の成分及び青の成分について別々に適用される。次にディスプレイシステムが、次に該投影光学部品を通して、表示面に投影される該結果として生じる複合画像をディスプレイ装置上に表示するために使用される。該結果として生じる画像には明白に歪みがなく、該表示面の該特性に一致する。  The distorted panoramic vision system and method provides a visually correct composite image that is acquired through a wide-angle optic and projected onto a display surface. The system uses an image acquisition device to capture scenes up to 360 ° or 4π steradian width. The image processor corrects for luminance or chrominance non-uniformities and applies a spatial transformation to each image frame. The spatial transformation is convolved by concatenating the display transformation, the acquired geometry, and the optical distortion transformation, and the display geometry and optical transformation. The distortion correction is applied separately for the red component, the green component and the blue component to eliminate chromatic aberration in the lateral direction of the optical component. A display system is then used to display the resulting composite image on the display device that is then projected through the projection optics onto a display surface. The resulting image is clearly undistorted and matches the characteristics of the display surface.

Description

本発明は視覚システムに関し、特に画像歪み補正付きのパノラマ視覚システムに関する。   The present invention relates to a vision system, and more particularly to a panoramic vision system with image distortion correction.

サーベイランスシステム、テレビ会議視覚システム、及び車両視覚システムを含む多くの用途にとって改善された状況認識はますます必要とされている。このような用途に必須なのが、広い操作領域を監視し、異なるユーザモードで容易に理解するために複合画像を形成するニーズである。カメラの台数と費用を最小限に抑えるために、パノラマレンズ付きのカメラが広い視野を可能にするが、固有の幾何学形状及び光学的な非線形性のために歪みを有するであろう。監視用途では、複数台のパノラマカメラが建物の外部及び内部領域全体をカバーしてよく、システムは該領域の連続ビューを提供し、手動でまたは自動で該領域を通して被写体を追跡調査することができる。   There is an increasing need for improved situational awareness for many applications, including surveillance systems, videoconferencing vision systems, and vehicle vision systems. Essential for such an application is the need to monitor a large operating area and form a composite image for easy understanding in different user modes. To minimize the number and cost of cameras, a camera with a panoramic lens allows a wide field of view, but will have distortion due to its inherent geometry and optical nonlinearities. For surveillance applications, multiple panoramic cameras may cover the entire exterior and interior area of the building, and the system can provide a continuous view of the area and track subjects through the area either manually or automatically. .

車両視覚システムでは、複数のパノラマカメラが領域の完全360°の、及び邪魔をするオブジェクトのビューを提供できる。このようなシステムは、状況の認識を改善するために方向転換、逆進、及び車線変更等の特定のオペレータモードに表示ビューを適応させることができる。車両視覚システムの追加の優位点は、サイドミラーによって引き起こされる空気抵抗と雑音を削減することと、このような突出型のミラーを排除することにより車両のワイドスパンを縮小することである。これらのシステムは運動中のオブジェクトを検出し、近いオブジェクトの警告を出し、複数の表示ゾーンを通してこのようなオブジェクトを追跡調査する機能を有することができる。視覚システムは、赤外線装置、レーダ装置、及び感光装置等の多様な技術を通して暗視も大幅に強化できるであろう。   In a vehicle vision system, multiple panoramic cameras can provide a full 360 ° and disturbing view of the area. Such a system can adapt the display view to specific operator modes such as turn, reverse, and lane change to improve situational awareness. An additional advantage of the vehicle vision system is that it reduces the air resistance and noise caused by the side mirrors and reduces the vehicle's wide span by eliminating such protruding mirrors. These systems can have the ability to detect moving objects, alert nearby objects, and track such objects through multiple display zones. The vision system could also greatly enhance night vision through various technologies such as infrared devices, radar devices, and photosensitive devices.

視覚システムは一台または複数台の可視表示装置に結合される一台または複数台の画像獲得装置からなる。画像獲得装置は平面的、パノラマ式、魚眼、及び環状等の異なる焦点距離及び焦点深度のさまざまなレンズを組み込むことができる。魚眼及び環状のようなレンズは幅広い視野と大きな焦点深度を有する。それらは広い視野と深い視野を捕捉できる。しかしながら、それらは画像、特に端縁を変形させる傾向がある。結果として生じる画像は不釣合いに見える。任意のタイプのレンズでは、接線方向の、及び半径方向のレンズ不完全度、レンズ偏位、レンズの焦点距離、及びレンズの外側部分近くでの光の減少により引き起こされる光学的歪みもある。視覚システムでは、輝度の変動及び色収差により引き起こされるさらに他のタイプの画像歪みがある。これらの歪みは画像の質及び鮮明さに影響を及ぼす。   The vision system consists of one or more image acquisition devices coupled to one or more visual display devices. The image acquisition device can incorporate various lenses with different focal lengths and depths, such as planar, panoramic, fish-eye, and annular. Lenses such as fisheye and ring have a wide field of view and a large depth of focus. They can capture a wide and deep field of view. However, they tend to deform the image, especially the edges. The resulting image looks disproportionate. For any type of lens, there are also optical distortions caused by tangential and radial lens imperfections, lens excursions, lens focal length, and light reduction near the outer portion of the lens. In the visual system, there is yet another type of image distortion caused by luminance variations and chromatic aberration. These distortions affect image quality and sharpness.

従来の技術のパノラマ視覚システムは、複数の画像を正確に混合する一方で画像歪みを取り除かない。このような一つのパノラマシステム、つまり車両用のバックミラー視覚システムが特許文献1に開示されている。このシステムは画像キャプチャ装置と、画像シンセサイザと、表示システムからなる。本書中も、そこに参照されるものにおいても、幾何学的、光学的、色収差、及び輝度画像歪みがないか補正する電子画像処理システムがある。特許文献2では、車両視覚システムは校正前ベースの輝度補正だけではなく、他の光学的な補正及び幾何学的な補正も含む。完全な輝度及びクロミナンスの補正は、入力光幾何学パラメータと出力光幾何学パラメータに基づき、変化する周囲環境に適応する必要がある。   Prior art panoramic vision systems do not remove image distortion while accurately mixing multiple images. One such panoramic system, that is, a rearview mirror vision system for a vehicle, is disclosed in Patent Document 1. This system comprises an image capture device, an image synthesizer, and a display system. There are electronic image processing systems that correct for geometric, optical, chromatic aberration, and luminance image distortion, both in this document and in references to it. In Patent Document 2, the vehicle vision system includes not only pre-calibration-based luminance correction, but also other optical corrections and geometric corrections. Full brightness and chrominance corrections must be adapted to the changing ambient environment based on the input and output light geometric parameters.

歪められた画像、及び複数の画像間の切れ目がオペレータの視覚的な認識、このようにして彼女の/彼の状況認識を減速し、潜在的なエラーを生じさせる。これは効率的なパノラマ視覚システムを起動する上で最も重要な障害の一つである。したがって、パノラマ視覚システムに、幾何学的、光学的、色収差、輝度及び他の画像歪みを取り除き、複数のビューの複合画像を提供することを介して状況のビューの正確な表現を提供することが望ましい。このような補正は視覚化と認識を支援し、視覚画像品質を改善する。
米国特許第6,498,620B2号明細書 米国特許出願公開第2003/0103141A1号明細書 米国特許第5,949,331号明細書 ジョージ・ウォルバーグ(George Wolberg)、「デジタル・イメージ・ワーピング(Digital Image Warping)」、IEEEコンピュータ・ソサエティ・プレス(IEEE Computer Society Press)、IEEEコンピュータ学会出版、1988年
The distorted image and the breaks between multiple images slows down the operator's visual perception, thus her / his situational perception and creates a potential error. This is one of the most important obstacles to launching an efficient panoramic vision system. Thus, providing a panoramic vision system with an accurate representation of the view of the situation through removing geometric, optical, chromatic aberration, brightness and other image distortions and providing a composite image of multiple views desirable. Such correction supports visualization and recognition and improves visual image quality.
US Pat. No. 6,498,620B2 US Patent Application Publication No. 2003/0103141 A1 US Pat. No. 5,949,331 George Wolberg, "Digital Image Warping", IEEE Computer Society Press, IEEE Computer Society Press, 1988

本発明は、関連付けられたカメラ、ディスプレイ光学部品、及び幾何学的な特性を有するパノラマ視覚システムを提供する。   The present invention provides a panoramic vision system having an associated camera, display optics, and geometric characteristics.

一態様における本発明は関連付けられたカメラ、ディスプレイ光学部品、及び幾何学的な特性を有するパノラマ視覚システムを提供し、前記システムは、
(a)場面から画像フレームデータを捕捉し、画像センサ入力を生成するための複数の画像獲得装置であって、前記画像フレームデータが集合的に最大360°の視野をカバーし、幾何学的歪みパラメータ及び光学的歪みパラメータを有する複数の画像獲得装置と、
(b)画像フレームデータと画像センサ入力をサンプリングし、デジタル画像データに変換するために該複数の画像獲得装置に結合されるデジタイザと、
(c)(i)デジタル画像データを受信し、画像輝度ヒストグラム及びデジタル画像データと関連付けられた周辺光源レベルを測定するための画像測定装置と、
(ii)カメラ、ディスプレイ光学部品及び幾何学的な特性、画像照明ヒストグラム及び周辺光源レベルととともにデジタル画像データを受信し、輝度不均一性を補正し、デジタル画像データ内で選択された領域の輝度範囲を最適化するように画像測定装置に結合される輝度補正モジュールと、
(iii)画像センサ入力、カメラ、ディスプレイ光学部品及び畳み込まれた歪みパラメータを形成するためにその中で関連付けられる、幾何学特性と不完全度を含む幾何学的歪みパラメータ及び光学的歪みパラメータを結合するために輝度補正モジュールに結合される畳み込み段と、
(iv)畳み込まれた歪みパラメータに基づいて歪み補正変換を生成し、デジタル画像データに適用し、補正されたデジタル画像データを生成するために畳み込み段に結合される歪み補正モジュールと、
(v)補正されたデジタル画像データから複合画像を合成するために歪み補正モジュールに結合されるディスプレイコントローラと、
を備えるデジタイザに結合される画像プロセッサと、
(d)表示するための表示面上に複合画像を表示するために前記画像プロセッサに結合され、前記複合画像が視覚的に歪みがない表示システムと、
を備える。
The invention in one aspect provides a panoramic vision system having an associated camera, display optics, and geometric characteristics, the system comprising:
(A) a plurality of image acquisition devices for capturing image frame data from a scene and generating an image sensor input, the image frame data collectively covering a field of view up to 360 °, and geometric distortion A plurality of image acquisition devices having parameters and optical distortion parameters;
(B) a digitizer coupled to the plurality of image acquisition devices to sample and convert image frame data and image sensor input to digital image data;
(C) (i) an image measuring device for receiving digital image data and measuring an image brightness histogram and an ambient light source level associated with the digital image data;
(Ii) Receive digital image data along with camera, display optics and geometric characteristics, image illumination histogram and ambient light source level, correct brightness non-uniformities, and brightness of selected areas in the digital image data A brightness correction module coupled to the image measuring device to optimize the range;
(Iii) image sensor inputs, cameras, display optics and geometric distortion parameters and optical distortion parameters, including geometric properties and imperfections, associated therewith to form convolved distortion parameters; A convolution stage coupled to the brightness correction module for coupling;
(Iv) a distortion correction module that generates a distortion correction transform based on the convolved distortion parameter, applies it to the digital image data, and is coupled to the convolution stage to generate corrected digital image data;
(V) a display controller coupled to the distortion correction module to synthesize a composite image from the corrected digital image data;
An image processor coupled to a digitizer comprising:
(D) a display system coupled to the image processor for displaying a composite image on a display surface for display, the composite image being visually distorted;
Is provided.

別の態様では、本発明は、最高360°つまり4πステラジアンをカバーする複合画像を生成するために、カメラ、ディスプレイ光学部品、及び幾何学的歪みパラメータ及び光学的歪みパラメータだけではなく幾何学特性も有するパノラマ視覚システムを使用してパノラマ視覚を提供するための方法を提供し、前記方法は、
(a)場面から画像フレームデータを獲得し、前記画像フレームデータが最高360°つまり4πステラジアンの視野を集合的にカバーし、画像センサ入力を生成することと、
(b)画像フレームデータと画像センサ入力をデジタル画像データに変換し、前記デジタル画像データが画像輝度ヒストグラムと周辺光源レベルと関連付けられることと、
(c)カメラ、ディスプレイ光学部品と幾何学特性、画像輝度ヒストグラム及び周辺光源レベルを取得し、デジタル画像データの中の選択された領域の輝度範囲を最適化するために輝度不均一性を補正することと、
(d)画像センサ入力、カメラ、ディスプレイ光学部品、及びそこで関連付けられる幾何学特性と不完全性を含む幾何学的歪みパラメータ及び光学的歪みパラメータを畳み込み、畳み込まれた歪みパラメータを形成することと、
(e)歪み補正変換を生成し、デジタル画像データに適用し、前記歪み補正変換が、補正されたデジタル画像データを生成するために畳み込まれた幾何学的歪みパラメータ及び光学的歪みパラメータに基づいていることと、
(f)補正されたデジタル画像データから複合画像を合成することと、
(g)表示のための表示面に該複合画像を表示し、前期複合画像が視覚的に歪みがないことと、
を備える。
別の態様では、本発明は、幾何学的歪みパラメータ及び光学的歪みパラメータだけではなく、関連付けられたカメラ、ディスプレイ光学部品、及び幾何学特性も有するパノラマ視覚システムで使用するための画像プロセッサを提供し、前記パノラマ視覚システムは場面から画像フレームを捕捉するために、及びデジタル画像データと画像センサ入力を生成するために複数の画像獲得装置と、デジタル画像データと画像センサ入力をデジタル画像データに変換するためにデジタイザとを使用し、前記画像プロセッサは、
(a)デジタル画像データを受信するため、及び画像輝度ヒストグラムとデジタル画像データに関連付けられた周辺光源レベルを測定するための画像測定装置と、
(b)カメラ、ディスプレイ光学部品及び幾何学特性、画像輝度ヒストグラム、及び周辺光源レベルとともにデジタル画像データを受信するために、及び輝度不均一性を補正するために、及びデジタル画像データの中の選択された領域の輝度範囲を最適化するために画像測定装置に結合される輝度補正モジュールと、
(c)画像センサ入力、カメラ、ディスプレイ光学部品、及び畳み込まれた歪みパラメータを形成するためにそこで関連付けられる幾何学特性と不完全度を含む、幾何学的歪みパラメータ及び光学的歪みパラメータとを結合するために輝度補正モジュールに結合される畳み込み段と、
(d)補正されたデジタル画像データを生成するために、畳み込まれた歪みパラメータに基づいて、歪み補正変換を生成し、デジタル画像データに適用する畳み込み段に結合される歪み補正モジュールと、
(e)補正されたデジタル画像データから複合画像を合成するために歪み補正モジュールに結合されるディスプレイコントローラと、
を備える。
In another aspect, the present invention includes not only the camera, display optics, and geometric distortion parameters as well as geometric characteristics, but also geometric characteristics, to generate composite images that cover up to 360 ° or 4π steradians. Providing a method for providing panoramic vision using a panoramic vision system comprising:
(A) obtaining image frame data from a scene, the image frame data collectively covering a field of view of up to 360 ° or 4π steradians and generating an image sensor input;
(B) converting image frame data and image sensor input into digital image data, the digital image data being associated with an image luminance histogram and an ambient light source level;
(C) Acquire camera, display optics and geometric characteristics, image brightness histogram and ambient light source level and correct brightness non-uniformities to optimize the brightness range of selected areas in the digital image data. And
(D) convolution of geometric distortion parameters and optical distortion parameters, including image sensor inputs, cameras, display optics, and geometric properties and imperfections associated therewith, to form a convolved distortion parameter; ,
(E) generating and applying a distortion correction transform to the digital image data, the distortion correction conversion being based on the geometric distortion parameters and the optical distortion parameters convolved to generate corrected digital image data; And
(F) compositing a composite image from the corrected digital image data;
(G) displaying the composite image on a display surface for display, and the previous composite image being visually distorted;
Is provided.
In another aspect, the present invention provides an image processor for use in a panoramic vision system that has not only geometric and optical distortion parameters, but also associated cameras, display optics, and geometric characteristics. The panoramic vision system captures image frames from the scene and generates digital image data and image sensor inputs, and converts the digital image data and image sensor inputs into digital image data. And using a digitizer, the image processor
(A) an image measuring device for receiving digital image data and for measuring a peripheral light source level associated with the image luminance histogram and the digital image data;
(B) to receive digital image data with camera, display optics and geometric properties, image brightness histogram, and ambient light source level, and to correct brightness non-uniformity, and selection among digital image data A brightness correction module coupled to the image measuring device to optimize the brightness range of the generated region;
(C) geometrical and optical distortion parameters, including geometrical characteristics and imperfections associated therewith to form the image sensor input, camera, display optics, and convolved distortion parameters; A convolution stage coupled to the brightness correction module for coupling;
(D) a distortion correction module coupled to a convolution stage that generates distortion correction transforms based on the convolved distortion parameters and applies to the digital image data to generate corrected digital image data;
(E) a display controller coupled to the distortion correction module to synthesize a composite image from the corrected digital image data;
Is provided.

本発明はその第一の実施形態において、リアビュー、サイドビュー、及びコーナービューを強調し、最大360°の水平視野と最高180°の垂直視野カバレージをカバーする車両視覚システムを提供する。状況のディスプレイ画像は車両ステータスまたはナビゲーションデータ等の他の車両情報データと統合できる。画像は、好ましくは運転者の視界に隣接するフロントパネルに表示される。追加のビューは、ミラーに代わり、外部要素への露出及び空気抵抗を排除する内装ダッシュボードコーナディスプレイ等のカバレージと柔軟性を改善するために表示できる。システムは、ディスプレイを再構成し、一つのビューが他より重大になると制御入力に基づいてビューの間でトグルするように適応される。   In its first embodiment, the present invention provides a vehicle vision system that enhances rear view, side view, and corner view and covers up to 360 ° horizontal view and up to 180 ° vertical view coverage. The status display image can be integrated with other vehicle information data such as vehicle status or navigation data. The image is preferably displayed on the front panel adjacent to the driver's field of view. Additional views can be displayed to improve coverage and flexibility, such as interior dashboard corner displays that replace the mirror and eliminate exposure to external elements and air resistance. The system is adapted to reconfigure the display and toggle between views based on control inputs when one view becomes more critical than the other.

例えば、ディスプレイは、車両がバックしているときに車両の後部下部のワイドビューを示す、あるいは右回り信号がオンにされ、車両がさらに高速で走行するときに右側ビューを示す、あるいは右回り信号がアクティブであり、車両が停止されるまたは低速度で走行するときに右コーナービューを示すために再構成する。好適実施形態では、システムは駐車支援、または車線交差警告のような機能を、距離決定だけではなく、カーブ、車線及びオブジェクトのパターン認識を介して提供する。   For example, the display shows a wide view of the rear lower part of the vehicle when the vehicle is backing, or a clockwise signal is turned on, and shows a right view when the vehicle is driving at higher speeds or a clockwise signal Reconfigure to show the right corner view when the vehicle is active or the vehicle is traveling at low speed. In a preferred embodiment, the system provides functions such as parking assistance or lane crossing alerts through not only distance determination but also through pattern recognition of curves, lanes and objects.

別の実施形態では、本発明は最高360°水平、つまり建物、橋等の構造物の外部及び/または内部の4πステラジアンの視野をカバーするサーベイランスシステムを提供する。システムは複数の歪み補正済みビューを提供し、連続ストリップまたは走査スキャニングパノラマビューを生成するために複数の歪み補正済みビューを提供できる。システムは、監視領域での運動検出及びオブジェクト追跡調査を、及び人、車両等を解読するために実行できる。   In another embodiment, the present invention provides a surveillance system that covers up to 360 ° horizontal, ie, a 4π steradian view of the exterior and / or interior of structures such as buildings, bridges, and the like. The system provides a plurality of distortion corrected views and can provide a plurality of distortion corrected views to generate a continuous strip or scan scanning panoramic view. The system can perform motion detection and object tracking in the surveillance area, and to decode people, vehicles, etc.

さらに別の実施形態では、本発明は、最高180°のワイドビューまたは最高360°の円形ビューを生じさせるテレビ会議視覚システムを提供する。この実施形態は、本発明は会議または集まりの参加者を表示することを容易にし、単一カメラの付いたスピーカでズームインする能力を提供する。   In yet another embodiment, the present invention provides a video conference vision system that produces a wide view up to 180 ° or a circular view up to 360 °. In this embodiment, the present invention facilitates displaying conference or gathering participants and provides the ability to zoom in on a speaker with a single camera.

本発明の実施形態の異なる態様及び優位点のさらなる詳細は、添付図面に沿った以下の説明で明らかにされる。   Further details of the different aspects and advantages of the embodiments of the invention will become apparent in the following description, taken in conjunction with the accompanying drawings.

本発明に従って構築され、図1は視覚システム100の全体的な構造を示している。それは画像フレームを捕捉するためのカメラ110、画像フレームデータをデジタル画像データに変換するためのデジタイザ118、輝度を調整し、画像の歪みを補正し、デジタル画像データと制御パラメータから複合画像を形成するための画像プロセッサ200、ユーザパラメータとセンサパラメータを画像プロセッサ200に中継するためのコントローラ101、表示面160で表示するために作られた画像を表示するためのディスプレイ装置120のような複数の画像獲得装置を備える。本発明で最終的に作られた画像は複数の特定の関心のある領域を含む最大360°をカバーし、大幅に歪みがない。それは状況の認識をかなり強化する。   Constructed in accordance with the present invention, FIG. 1 shows the overall structure of the vision system 100. It has a camera 110 for capturing image frames, a digitizer 118 for converting image frame data into digital image data, adjusts brightness, corrects image distortion, and forms a composite image from digital image data and control parameters Multiple image acquisitions such as an image processor 200 for displaying, a controller 101 for relaying user parameters and sensor parameters to the image processor 200, and a display device 120 for displaying an image created for display on the display surface 160 Equipment. The final image produced by the present invention covers up to 360 ° including multiple specific regions of interest and is not significantly distorted. It considerably enhances situational awareness.

図1のカメラ110は画像光学部品112、センサアレイ114及び画像キャプチャ制御機構116を備えている。広い領域のカバレージを必要とする用途の場合、画像光学部品112は必要とされるカメラの台数を最小限に抑えるために広角レンズを使用してよい。広角レンズはより広い焦点深度も有し、焦点調整及びそのコスト実現のニーズを削減する。このようなレンズは通常100°を超える視野と、数フィートから無限までの焦点深度を有する。これらの特性の両方ともパノラマ視覚システムにとってこのようなレンズを所望されるものとする。広角レンズは光学的に補正するのが困難であり、高価であるさらに大きな光学歪みを有する。本発明では、電子的な補正は、光学部品または投射経路の他の非線形性と不完全度だけではなく光学的な歪みと幾何学的な歪みを補償するために使用される。   The camera 110 shown in FIG. 1 includes an image optical component 112, a sensor array 114, and an image capture control mechanism 116. For applications that require large area coverage, the imaging optics 112 may use wide angle lenses to minimize the number of cameras required. Wide angle lenses also have a wider depth of focus, reducing the need for focus adjustment and its cost realization. Such lenses typically have a field of view in excess of 100 ° and a depth of focus from a few feet to infinity. Both of these characteristics make such a lens desirable for a panoramic vision system. Wide-angle lenses are difficult to optically correct and have even greater optical distortion that is expensive. In the present invention, electronic correction is used to compensate for optical and geometric distortions as well as other nonlinearities and imperfections in the optical component or projection path.

本発明では、カメラレンズは完全である、あるいは完全な画像を生じさせる必要はない。レンズ幾何学形状または不完全度によって引き起こされる画像歪みを含むすべての画像歪みは、数学的に形に表され、電子的に補正される。この特長の重要性は、それにより焦点深度が拡大された安価な広角レンズを使用できるようになるという事実にある。このようなレンズの欠点は、それらが引き起こす画像歪み及び輝度不均一性である。それらは特に場面の端縁近くで被写体を引き伸ばす傾向がある。この効果は、例えば魚眼レンズまたは環状レンズについて周知である。それらは被写体を不均衡に見えさせる。これらの歪みを補償するために使用できるバルク光学部品解決策がある。しかしながら、バルク光学部品を追加すると、このような装置は大型化し、より重厚になり、より高価になるであろう。バルク光学部品構成部品のコストは、研磨、位置合わせ等の機能のための労務費により固定される。しかしながら、電子構成部品は絶えず安くなり、効率化している。バルク光学部品が特定の歪みを完全に取り除くことが絶対にできないことも周知である。   In the present invention, the camera lens need not be complete or produce a complete image. All image distortions, including image distortions caused by lens geometry or imperfections, are mathematically represented in shape and corrected electronically. The importance of this feature lies in the fact that it makes it possible to use an inexpensive wide-angle lens with an increased depth of focus. The disadvantages of such lenses are the image distortion and brightness non-uniformity they cause. They tend to stretch the subject especially near the edge of the scene. This effect is well known for fisheye lenses or annular lenses, for example. They make the subject appear unbalanced. There are bulk optic solutions that can be used to compensate for these distortions. However, with the addition of bulk optics, such devices will be larger, heavier and more expensive. The cost of bulk optical component components is fixed by labor costs for functions such as polishing and alignment. However, electronic components are constantly becoming cheaper and more efficient. It is also well known that bulk optics can never completely remove a specific distortion.

バルク光学部品解決策の別の欠点は調整に対する感度及び衝撃時に機能不全になることである。したがって、視覚システムを堅牢且つ相対的に経済的にする一方で、それに真の設定を表現させる電子画像補正に対する重大なニーズがある。これは、視覚システムにおいては、電子構成部品は他のタスクを達成するためにいずれにせよ必要とされる可能性が高いという事実により立証される。これらのタスクは、パノラマ変換とディスプレイ制御を含む。本項で後述される画像プロセッサ200はこれらの本質的な機能を提供する。   Another drawback of bulk optic solutions is sensitivity to adjustment and failure on impact. Therefore, there is a significant need for electronic image correction that makes the visual system robust and relatively economical while allowing it to represent true settings. This is evidenced by the fact that in the visual system, electronic components are likely to be needed anyway to accomplish other tasks. These tasks include panorama conversion and display control. The image processor 200 described later in this section provides these essential functions.

画像センサアレイ114はカメラ110の中に描かれている。センサアレイはカメラシステムを通して場面の光度の極端な変動を加減するように適応されている。視覚システムが異なる照明状態で効率的に動作するためには、大きな動的範囲に対するニーズがある。この動的範囲要件は、夜間の入射光源からの幅広い変動だけではなく、周辺光度の日中と夜間の変動に端を発する。カメラセンサは基本的には、それぞれが場面の一部から光に露出されるセグメントのモザイクであり、出力電圧として光の光度を登録する。画像キャプチャ制御機構116は、画像フレーム輝度情報を送信し、これらのデータに基づいてそれは統合最適化、レンズ絞り制御、及びホワイトバランス制御のためのコマンドを画像プロセッサ200から受信する。   Image sensor array 114 is depicted in camera 110. The sensor array is adapted to moderate extreme variations in scene light intensity through the camera system. In order for a visual system to operate efficiently in different lighting conditions, there is a need for a large dynamic range. This dynamic range requirement stems from daytime and nighttime variations in ambient light intensity, as well as wide variations from the incident light source at nighttime. The camera sensor is basically a mosaic of segments each exposed to light from a part of the scene, and registers the light intensity as the output voltage. The image capture control mechanism 116 transmits image frame luminance information, and based on these data, it receives commands from the image processor 200 for integrated optimization, lens aperture control, and white balance control.

デジタイザ118は画像キャプチャ制御機構116から画像データを受信し、これらのデータをデジタル画像データに変換する。代替例では、デジタイザ118の機能は画像センサ114または画像プロセッサ200で統合されてよい。既存の音声データ獲得のケースでは、デジタイザ118は音声装置アレイ117からこれらのデータを受信する。次に、それはデジタル音声データを生成し、これらのデータをデジタル画像データと結合する。デジタル画像データは次に画像プロセッサ200に送信される。   The digitizer 118 receives image data from the image capture control mechanism 116 and converts these data into digital image data. In the alternative, the functionality of the digitizer 118 may be integrated with the image sensor 114 or the image processor 200. In the case of existing audio data acquisition, the digitizer 118 receives these data from the audio device array 117. It then generates digital audio data and combines these data with the digital image data. The digital image data is then transmitted to the image processor 200.

図2Aは画像プロセッサ200を詳しく示している。画像プロセッサの機能はデジタル画像データを受信し、画像統計を測定し、画質を改善し、輝度不均一性を補償し、これらのデータの中の多様な歪みを補正し、最終的に、かなり歪みがない一つまたは複数の複合画像を生成することである。それは、制御データインタフェース202、画像測定モジュール210、輝度補正モジュール202、歪み畳み込み段250、歪み補正モジュール260及びディスプレイコントローラ280だけではなく、カメラ光学部品データ、投影光学部品データ、及び投影幾何学形状データを備える光学部品幾何学形状データインタフェース236も備える。画像プロセッサ200の機能を理解するためには、これらの歪みの性質と原因を簡略に説明することが重要である。   FIG. 2A shows the image processor 200 in detail. The image processor function receives digital image data, measures image statistics, improves image quality, compensates for brightness non-uniformities, corrects for various distortions in these data, and ultimately results in significant distortion Generating one or more composite images without It includes not only the control data interface 202, the image measurement module 210, the brightness correction module 202, the distortion convolution stage 250, the distortion correction module 260 and the display controller 280, but also camera optical component data, projection optical component data, and projection geometric shape data. An optical component geometry data interface 236 is also provided. In order to understand the function of the image processor 200, it is important to briefly describe the nature and cause of these distortions.

周辺光とスポット照明は、輝度レベルで極端な変動を生じさせ、その結果画質不良、及び画像要素認識の困難を生じさせることがある。本発明では、画像プロセッサ200は完全画像領域と選択画像領域を測定し、関心のある領域における最高の画質のために露光を制御するためにそれらを分析する。ヘッドライトとスポットライトのような高い光源レベルソースが輝度で実質的に削減され、低レベルのオブジェクトは要素認識を支援するために詳しく改善される。   Ambient light and spot illumination can cause extreme fluctuations in luminance levels, resulting in poor image quality and difficulty in image element recognition. In the present invention, the image processor 200 measures the complete image area and the selected image area and analyzes them to control the exposure for the best image quality in the area of interest. High light source sources such as headlights and spotlights are substantially reduced in luminance, and low level objects are improved in detail to support element recognition.

画像センサは任意のタイプ及び解像度であってよいが、本発明で特定される用途について、高解像度ソリッドステートCCDまたはCMOS画像センサが、サイズ、コスト、統合、及び柔軟性という点で適切になるであろう。典型的な用途は、絞り制御及び統合時間において幅広く変化する周辺光源レベルに調整することを含む。絞り制御及び統合時間制御に加えて、輝度補正モジュール220が関心のある領域のヒストグラム分析を実行し、低光領域でのコントラストを拡大し、画像要素認識の強化を実現するために高い光領域のコントラストを削減する。   The image sensor may be of any type and resolution, but for applications specified in the present invention, a high resolution solid state CCD or CMOS image sensor will be appropriate in terms of size, cost, integration, and flexibility. I will. Typical applications include adjusting to ambient light levels that vary widely in aperture control and integration time. In addition to aperture control and integrated time control, the brightness correction module 220 performs histogram analysis of the region of interest, expands the contrast in the low light region, and achieves enhanced light element recognition to achieve enhanced image element recognition. Reduce contrast.

輝度不均一性は、画像全体での望ましくない輝度変動である。輝度不均一性の主要な物理的な理由は、光学システムのさまざまな部分を通過する光線が異なる距離、及び領域密度を移動するという事実である。光線の輝度は、それが移動する距離の事情に応じて減少する。この純粋に物理的な原因に加えて、光学システムの不完全度も輝度の不均一性を引き起こす。このような不完全度の例は映写レンズビネットと側面方向の変動、及び生成される映写光の不均一性である。三つの異なる色成分について明るさの変動が異なる場合、それらはクロミナンス不均一性と呼ばれる。   Brightness non-uniformity is an undesirable brightness variation across the image. The main physical reason for brightness non-uniformity is the fact that rays passing through various parts of the optical system travel different distances and area densities. The brightness of a light beam decreases with the distance it travels. In addition to this purely physical cause, the imperfection of the optical system also causes brightness non-uniformities. Examples of such imperfections are projection lens vignettes and lateral variations, and non-uniformities in the projection light produced. If the brightness variations for three different color components are different, they are called chrominance non-uniformities.

別のタイプの光学歪みは色収差である。それは、レンズのような光学部品が異なる波長には異なる屈折率を有するという事実に起因する。光学部品を通って伝播する光線はさまざまな波長で異なる角度で屈折する。この結果、画像の中の色の側面方向のシフトが生じる。側面方向の収差によりポイントオブジェクトの異なる色成分は分離し、分岐する。表示面上で、ポイントは縁があるように見えるであろう。別のタイプの色収差は本来軸に沿っており、レンズが異なる光波長に異なる焦点を有するという事実により引き起こされる。この種の色収差は電子的に補正できないであろう。   Another type of optical distortion is chromatic aberration. It is due to the fact that optical components such as lenses have different refractive indices for different wavelengths. Light rays propagating through the optical component are refracted at different angles at different wavelengths. This results in a side shift of the color in the image. Different color components of the point object are separated and branched by the aberration in the lateral direction. On the display surface, the point will appear to have an edge. Another type of chromatic aberration is inherently along the axis and is caused by the fact that the lens has different focal points at different light wavelengths. This type of chromatic aberration may not be corrected electronically.

種々の他の歪みが視覚システムに存在する可能性がある。接線方向または半径方向のレンズの不完全度、レンズの偏位、プロジェクタの不完全度、及び軸から外れた投射からのキーストーン歪みは共通した歪みのいくつかである。   Various other distortions may exist in the vision system. Tangential or radial lens imperfections, lens excursions, projector imperfections, and keystone distortion from off-axis projections are some of the common distortions.

言及された歪みに加えて、画像プロセッサ200は、形状、サイズ、及びアスペクト比等の特定の特性のある表示面に捕捉された場面をマップする。例えば、画像は捕捉された場面のさまざまな部分から形成され、車のフロントガラスの一部の上に投影され、そのケースではそれは表示面の特定のサイズだけではなく、平坦ではない形状のために歪みに苦しむ。本発明における画像プロセッサは、後述されるようなこれらのすべての歪みを補正する。   In addition to the noted distortion, the image processor 200 maps the captured scene to a display surface with certain characteristics such as shape, size, and aspect ratio. For example, an image is formed from various parts of a captured scene and projected onto a part of a car windshield, in which case it is not only for a specific size of the display surface but also for a shape that is not flat Suffer from distortion. The image processor in the present invention corrects all these distortions as described below.

ここで図2Aの画像プロセッサ200の詳細を参照すると、デジタル画像データは、関心のある領域内の画像コントラストと明るさのヒストグラムが測定される画像測定モジュール210によって受信される。これらのヒストグラムは、センサ露光を制御するために、及びデジタル画像データを調整し、視覚化および検出のために画像コンテンツを改善するために輝度補正モジュール220によって分析される。いくつかの調整はハイライト圧縮、コントラスト拡大、詳細強化及び雑音削減を含む。   Referring now to the details of the image processor 200 of FIG. 2A, digital image data is received by an image measurement module 210 where a histogram of image contrast and brightness within the region of interest is measured. These histograms are analyzed by the brightness correction module 220 to control sensor exposure and to adjust digital image data and improve image content for visualization and detection. Some adjustments include highlight compression, contrast enhancement, detail enhancement and noise reduction.

この測定情報とともに、輝度補正モジュール220はカメラ及び投影光学部品データを、光学部品幾何学形状データインタフェース236から受信する。これらのデータは正確な光伝播計算及び光学部品の校正から決定される。これらのデータは、投影システムだけではなくカメラも通る異なる光線の光路距離を提供するので、輝度補正にとって重大である。別々のまたは組み合わされたカメラと投影補正マップは、ピクセルごとに補正を計算するために生成される。   Along with this measurement information, the brightness correction module 220 receives camera and projection optics data from the optics geometry data interface 236. These data are determined from accurate light propagation calculations and optical component calibration. These data are critical for brightness correction because they provide the optical path distances of different rays that pass through the camera as well as the projection system. Separate or combined cameras and projection correction maps are generated to calculate the correction for each pixel.

補正マップはオフラインで取得できる、あるいはそれは環境に従って動的に計算できるであろう。したがって、輝度補正モジュール220の機能はデジタル画像データを受信し、輝度が調整されたデジタル画像データを生成することである。クロミナンス不均一性の場合、輝度補正モジュール220は好ましくは輝度補正を三つの異なる色成分に別々に適用する。輝度補正モジュール220の物理的なインプリメンテーションは、ソフトウェアプログラムあるいはデジタル信号プロセッサ、または集積回路の中の計算論理等の専用処理回路網によるであろう。   The correction map can be obtained offline or it can be calculated dynamically according to the environment. Therefore, the function of the brightness correction module 220 is to receive digital image data and generate digital image data with adjusted brightness. In the case of chrominance non-uniformity, the luminance correction module 220 preferably applies the luminance correction to three different color components separately. The physical implementation of the brightness correction module 220 may be by software processing or a digital signal processor, or dedicated processing circuitry such as computational logic in an integrated circuit.

輝度が調整された画像データは幾何学的な歪み、光学的な歪み、及び他の空間歪みについて補正される必要がある。これらの歪みは「ワープ」補正と呼ばれ、このような補正技法は文献中「イメージワーピング」と呼ばれている。イメージワーピングの説明は、参照することによりこれに組み込まれている非特許文献1に掲載されている。   The brightness-adjusted image data needs to be corrected for geometrical distortions, optical distortions, and other spatial distortions. These distortions are referred to as “warp” correction, and such correction techniques are referred to in the literature as “image warping”. A description of image warping is published in Non-Patent Document 1, which is incorporated herein by reference.

基本的には、イメージワーピングは座標変換の効率的なパラメータ化であり、出力ピクセルを入力ピクセルにマップする。理想的には、グリッドデータセットが入力ピクセルへのあらゆる出力ピクセルのマッピングを表す。しかしながら、グリッドデータ表現は、ルックアップテーブルのシヤーサイズ(shear size)のためにハードウェアインプリメンテーションという点できわめて厳しい。本発明におけるイメージワーピングは、数個のパラメータを介してピクセルグリッドデータセットを表現する効率的な方法を提供する。一例では、このパラメータ化は度数nの多項式により実行され、nは結合された歪みの複雑度によって決定される。   Basically, image warping is an efficient parameterization of coordinate transformation, mapping output pixels to input pixels. Ideally, the grid data set represents the mapping of every output pixel to the input pixel. However, the grid data representation is very strict in terms of hardware implementation due to the shear size of the lookup table. Image warping in the present invention provides an efficient way to represent a pixel grid data set through several parameters. In one example, this parameterization is performed by a polynomial of degree n, where n is determined by the complexity of the combined distortion.

本発明の別の例の出力空間のさまざまな領域は、多項式の度数を削減するために固有の幾何学的な特性のあるパッチに分割される。原則としては、パッチ数が多く、パッチあたりの適合多項式の度数が高いほど、グリッドデータセットのパラメータ化はさらに正確になる。しかしながら、これはリアルタイムアプリケーションのための処理力と均衡されなければならない。したがって、このようなワープマップは出力ピクセルの入力ピクセルへのマッピングを表し、カメラ光学部品、ディスプレイ光学部品、及び最終的な複合画像指定の性質及び表示面の形状を含むディスプレイ幾何学形状を現す。さらにユーザ入力パラメータを含む任意の制御パラメータは、前記パラメータと結合され、単一変換で表現される。   Various regions of the output space of another example of the present invention are divided into patches with inherent geometric properties to reduce the frequency of the polynomial. As a general rule, the higher the number of patches and the higher the frequency of the fitting polynomial per patch, the more accurate the parameterization of the grid data set. However, this must be balanced with the processing power for real-time applications. Thus, such a warp map represents the mapping of output pixels to input pixels and represents the display geometry, including the camera optic, display optic, and final composite image designation properties and display surface shape. Furthermore, any control parameters including user input parameters are combined with the parameters and expressed in a single transformation.

座標変換に加えて、多くの場合サンプリングまたはフィルタリング機能が必要とされる。一旦出力画像ピクセルが入力ピクセル上にマップされると、この入力ピクセルの周辺の領域はフィルタリングのために指定される。この領域がフィルタ設置面積と呼ばれる。フィルタリングは、基本的には加重平均化関数であり、設置面積内部のすべてのピクセルに基づいた出力ピクセルの構成色の輝度を生じさせる。特定の例では、光学画質のために異方性の楕円形の設置面積が使用される。設置面積のサイズが大きいほど、出力画像の質が高くなることは公知である。本発明における画像処理200は、同時座標変換とともに画像フィルタリングを実行する。   In addition to coordinate transformation, sampling or filtering functions are often required. Once the output image pixel is mapped onto the input pixel, the area around this input pixel is designated for filtering. This region is called the filter installation area. Filtering is essentially a weighted averaging function that produces the intensity of the constituent colors of the output pixel based on all pixels within the footprint. In a particular example, an anisotropic elliptical footprint is used for optical image quality. It is well known that the larger the size of the installation area, the higher the quality of the output image. The image processing 200 in the present invention performs image filtering together with simultaneous coordinate conversion.

画像歪みを補正するためには、前述されたすべての幾何学的歪みパラメータ及び光学的歪みパラメータが、異なる色成分について歪み畳み込み段250において連結される。これらのパラメータは、光学部品幾何学形状インタフェース236を介してカメラ光学部品データ、投影光学部品データ、投影幾何学形状データを含み、制御インタフェース202を介して入力を制御する。連結された光学的歪みパラメータ及び幾何学的歪みパラメータは次に歪み補正モジュール260によって取得される。このモジュールの機能は、場面の各要素の位置、形状及び色の輝度をディスプレイピクセルに変換することである。表示面160の形状は投影幾何学形状データ234において考慮に入れられる。この表面は必ずしも平坦ではなく、表面マップが取得され、他の歪みパラメータと連結される限り任意の一般的な形状であるであろう。ディスプレイ面マップは歪みデータの残りと畳み込まれる。   To correct for image distortion, all the geometric distortion parameters and optical distortion parameters described above are concatenated in the distortion convolution stage 250 for different color components. These parameters include camera optical component data, projection optical component data, and projection geometric shape data via optical component geometry interface 236 and control input via control interface 202. The concatenated optical distortion parameters and geometric distortion parameters are then obtained by the distortion correction module 260. The function of this module is to convert the luminance of the position, shape and color of each element of the scene into display pixels. The shape of the display surface 160 is taken into account in the projection geometry data 234. This surface is not necessarily flat and may be any general shape as long as a surface map is obtained and coupled with other distortion parameters. The display surface map is convolved with the rest of the distortion data.

歪み補正モジュール260は、本発明の一例では、歪みパラメータの空間全体をカバーするワープマップを取得する。プロセスは、参照することにより本書に組み込まれている同時係属米国特許出願番号第2003/0020732−A1号と第2003/0043303−A1号に詳細に説明されている。歪みパラメータの集合ごとに、画像がカメラ光学部品を通って、ディスプレイ光学部品を通って表示面160の特定な形状の上に伝播するときに被る歪みを補償するために変換が計算される。歪みパラメータセット及び変換計算の形成はオフラインで実行でき、インタフェースを介して画像プロセッサ200によってアクセスされるためにメモリに記憶できるであろう。それらは変化するパラメータの場合、少なくとも部分的に動的にも実行できるであろう。   In one example of the present invention, the distortion correction module 260 obtains a warp map that covers the entire space of distortion parameters. The process is described in detail in co-pending US Patent Application Nos. 2003 / 0020732-A1 and 2003 / 0043303-A1, which are incorporated herein by reference. For each set of distortion parameters, a transform is calculated to compensate for the distortion experienced when the image propagates through the camera optics and through the display optics onto a particular shape of the display surface 160. The creation of the distortion parameter set and transformation calculation may be performed off-line and stored in memory for access by the image processor 200 via the interface. They could also be implemented at least partly dynamically in the case of changing parameters.

ディスプレイ画像は、独立したビューまたは連結ビューである場合があるビューウィンドウから構成できる。ビューウィンドウごとに、歪み補正モジュール260は、ワープ面方程式から空間変換及びフィルタリングパラメータを補間し、計算し、ディスプレイ画像のための画像変換を実行する。   Display images can consist of view windows that can be independent views or linked views. For each view window, the distortion correction module 260 interpolates and calculates spatial transformation and filtering parameters from the warped surface equation and performs image transformation for the display image.

画像フレームごとに、歪み補正モジュール260が、最初に歪みパラメータ空間内の最も近いグリッドデータポイントを見つける。次に、それはパラメータのそのセットに対応する既存の変換を補間し、実際の歪みパラメータと適合する。補正モジュール260は次に変換をデジタル画像データに適用し、すべての歪みを補償する。各カメラの各フレームからのデジタル画像データは結合され、表示面及びその下部構造に適合する複合画像を形成する。対応するデジタルデータは、画像が表示面で形成されると、明白に歪みがなく、それが表示面上の最適化された表示領域に適合するように補正される。歪み補正モジュール260の物理的なインプリメンテーションは、汎用デジタル信号プロセッサ上のソフトウェアプログラムによって、あるいは特定用途向け集積回路等の専用処理回路網によってであろう。画像プロセッサ200の実際の例はシリコンオプティックス社(Silicon Optix Inc.)sxW1及びREONチップに組み込まれている。   For each image frame, the distortion correction module 260 first finds the closest grid data point in the distortion parameter space. It then interpolates the existing transform corresponding to that set of parameters and matches the actual distortion parameters. The correction module 260 then applies the transformation to the digital image data to compensate for any distortion. The digital image data from each frame of each camera is combined to form a composite image that conforms to the display surface and its underlying structure. The corresponding digital data is corrected so that when the image is formed on the display surface, it is clearly undistorted and fits an optimized display area on the display surface. The physical implementation of the distortion correction module 260 may be by a software program on a general purpose digital signal processor or by dedicated processing circuitry such as an application specific integrated circuit. The actual example of the image processor 200 is incorporated into a Silicon Optics Inc. sxW1 and REON chip.

図2Bは、本発明の一例における画像プロセッサ200のフロー論理を示す。このチャートのデジタルデータフローが太線によって示されているのに対し、計算されたデータフローは薄線を介して描かれている。この図で見られるように、明るさヒストグラムとコントラストヒストグラムがステップ(10)でデジタルデータから測定される。ディスプレイ光学部品とディスプレイ幾何学形状パラメータとともにカメラ光学部品はステップ(14)と(16)で取得される。これらのデータは次に、画像輝度不均一性が調整されるステップ(20)で明るさヒストグラムとコントラストヒストグラムとともに取得される。ステップ(26)で取得される制御パラメータだけではなく、ステップ(14)と(16)からの光学部品と幾何学形状データも次にステップ(30)で収集される。このステップで、すべての歪みパラメータが連結される。歪みの影響を逆転する変換が次にステップ(40)で計算される。この補償変換は次に、ステップ(20)から取得される輝度が調整されたデジタル画像データに適用される。   FIG. 2B shows the flow logic of the image processor 200 in an example of the invention. The digital data flow of this chart is shown by bold lines, whereas the calculated data flow is drawn through thin lines. As can be seen in this figure, a brightness histogram and a contrast histogram are measured from the digital data in step (10). Camera optics along with display optics and display geometry parameters are obtained in steps (14) and (16). These data are then acquired along with the brightness histogram and contrast histogram in step (20) where the image brightness non-uniformity is adjusted. Not only the control parameters obtained in step (26) but also the optical components and geometric data from steps (14) and (16) are then collected in step (30). In this step, all distortion parameters are concatenated. A transform that reverses the effects of distortion is then calculated in step (40). This compensation transformation is then applied to the brightness adjusted digital image data obtained from step (20).

前記に説明されたように、ピクセルデータはさらに高い画質のためにこのステップでフィルタリングされる。したがって、ステップ(50)は同時座標変換と画像処理を構成する。ステップ(50)では、歪みが補償されたデジタル画像データが、表示のために複合画像を生成するために使用される。   As explained above, the pixel data is filtered in this step for higher image quality. Therefore, step (50) constitutes simultaneous coordinate transformation and image processing. In step (50), the distortion compensated digital image data is used to generate a composite image for display.

一旦フレームのためのデジタル画像データが処理され、作られると、ディスプレイコントローラ280はこれらのデータから画像を生成する。本発明の例では、画像は、直接ビューディスプレイまたは投影ディスプレイ装置であるであろうディスプレイ装置120上で形成される。一例では、投影ディスプレイ装置120からの画像はディスプレイ工学部品122を通して表示面160の上に投影される。ディスプレイ光学部品122は、表示面160の上に投影された光形式ディスプレイ装置120を向けるためのバルク光学部品構成要素である。特定のディスプレイシステムは、補正される必要のある追加の光学歪みと幾何学歪みを有する。この例では、画像プロセッサ200はこれらの歪みを連結し、結合された歪みを補正する。   Once the digital image data for the frame is processed and created, the display controller 280 generates an image from these data. In the present example, the image is formed on a display device 120, which may be a direct view display or a projection display device. In one example, the image from projection display device 120 is projected onto display surface 160 through display engineering component 122. The display optical component 122 is a bulk optical component component for directing the optical display device 120 projected onto the display surface 160. Certain display systems have additional optical and geometric distortions that need to be corrected. In this example, image processor 200 concatenates these distortions and corrects the combined distortion.

本発明は、ディスプレイシステムの特定の選択に制限されないことが注記されなければならない。ディスプレイ装置は液晶、発光ダイオード、陰極線管、エレクトロルミネセント、プラズマ、または任意の他の実行可能なディスプレイ選択肢として提供できるであろう。ディスプレイ装置は直接的に表示可能であろう、あるいはそれは統合されたコンパートメント上にディスプレイ光学部品を通して投影され、表示画面として働くことができるであろう。好ましくは、ディスプレイシステムの明るさは周辺光センサ、独立信号及びユーザディマースイッチを介して調整される。表示面のサイズも好ましくはオペレータの目からの距離に従ってユーザによって調整可能である。   It should be noted that the present invention is not limited to a particular choice of display system. The display device could be provided as a liquid crystal, light emitting diode, cathode ray tube, electroluminescent, plasma, or any other viable display option. The display device could be displayed directly, or it could be projected through the display optics onto an integrated compartment and act as a display screen. Preferably, the brightness of the display system is adjusted via an ambient light sensor, an independent signal and a user dimmer switch. The size of the display surface is also preferably adjustable by the user according to the distance from the operator's eyes.

コントローラ101は、画像プロセッサ200と接続する。それは、センサ194からの入力とともにユーザインタフェース150からユーザパラメータを獲得し、ディスプレイ制御のためにそれらを画像プロセッサ200に送信する。ユーザパラメータは、本発明のさまざまな実施形態に対応する出願に特定である。センサ194は好ましくは周辺光センサ及び直接グレアセンサを含む。これらのセンサからのデータは、表示調整のために使用される。制御パラメータは所望される画像を提供するために他のパラメータと畳み込まれる。   The controller 101 is connected to the image processor 200. It obtains user parameters from the user interface 150 along with inputs from the sensor 194 and sends them to the image processor 200 for display control. User parameters are specific to applications corresponding to various embodiments of the present invention. Sensor 194 preferably includes an ambient light sensor and a direct glare sensor. Data from these sensors is used for display adjustment. Control parameters are convolved with other parameters to provide the desired image.

本発明のいくつかの用途のために、データストリームを記録する、あるいはネットワーク上で異なるクライアントにそれを送信することが望ましい。両方のケースでは、ビデオデータストリームを最初に圧縮し、記憶及び帯域幅の制限を達成することが望ましく、必要である。圧縮段132は、一例では、画像プロセッサ200からビデオストリームを受信し、デジタルビデオデータを圧縮する。圧縮されたデータは将来の使用のために記憶装置142に記憶される。別の実施形態では、データは暗号化段134で符号化され、ネットワークインタフェース144を介してネットワーク上で送信される。   For some applications of the present invention, it may be desirable to record a data stream or send it to different clients over a network. In both cases, it is desirable and necessary to compress the video data stream first to achieve storage and bandwidth limitations. The compression stage 132, in one example, receives a video stream from the image processor 200 and compresses the digital video data. The compressed data is stored in storage device 142 for future use. In another embodiment, the data is encoded at the encryption stage 134 and transmitted over the network via the network interface 144.

本発明の一般的な特長を詳細に説明してきたが、視覚システム100の多くの例のインプリメンテーションが個々で説明される。一実施形態では、本発明は車両視覚システムを提供する。図3Aは、右ビュー902、左ビュー904、及び後方ビュー906をカバーする二つのサイドミラー及び一つの車内ミラー付きの従来の自走車両900を示している。従来のミラー位置及び視界により盲点が生じ、広い視覚に起因する歪みを有する可能性があることが周知である。三つのミラーによって提供される画像から完全な状況の認識を得ることは難しい。   Although the general features of the present invention have been described in detail, many example implementations of the vision system 100 will be described individually. In one embodiment, the present invention provides a vehicle vision system. FIG. 3A shows a conventional self-propelled vehicle 900 with two side mirrors and one in-vehicle mirror covering a right view 902, a left view 904, and a rear view 906. It is well known that blind spots can occur due to conventional mirror position and field of view and can have distortion due to wide vision. It is difficult to get full situational awareness from the images provided by the three mirrors.

図3Bに図解されている本発明の一例では、車両900’は、運転席の前方にカメラ110’とカメラ111’を装備している。これらの位置が運転者の直接前方視野と重複することによりカバレージを拡大する。この例のカメラ113’は車両の後部に、あるいはそのルーフの真中後部に配置される。異なるビューの特定の領域は重複しない連続画像を提供するために選択される。これにより運転者の混乱が妨げられる。   In the example of the invention illustrated in FIG. 3B, the vehicle 900 'is equipped with a camera 110' and a camera 111 'in front of the driver's seat. Coverage is expanded by overlapping these positions with the driver's direct forward view. The camera 113 'in this example is located at the rear of the vehicle or at the middle rear of the roof. Specific regions of different views are selected to provide a continuous image that does not overlap. This prevents driver confusion.

図3Cに図解されている別の例では、車両900”は車両のフロントコーナーにカメラ110”とカメラ111”、及び中心後部にカメラ113”を有している。この例では、ユーザ入力によってまたは制御パラメータによって調整可能なビューに重点が置かれている。例えば方向転換サイドビュー903”は、方向転換信号が活動中であるときに使用できるようにされる。このビューのカバレージがユーザ入力の関数であり、原則としては破線の間の領域全体をカバーすることが注意されなければならない。同様に運転側ビュー905”は標準運転モードで使用され、それは破線の間の領域全体をカバーするために拡大できる。この例の後部ビューは、制御パラメータに応じて二つのモードを有する。車両が逆であるとき、逆後部ビュー907”が表示のために使用される。このビューが、舗装道路上のオブジェクトを含む車両の後部の完全なカバレージを生じさせる。これは、安全な後退を保証し、縦列駐車を大幅に容易にする。ただし、車両が運転モードにあるときには、さらに狭い運転者後部ビュー906”が使用される。これらの位置と角度が、運転者により車両の外部の便利なビューを確実にする。この例は縦列駐車及び車線変更等の機能を大幅に容易にする。   In another example illustrated in FIG. 3C, the vehicle 900 "has a camera 110" and a camera 111 "at the front corner of the vehicle, and a camera 113" at the center rear. In this example, the emphasis is on views that can be adjusted by user input or by control parameters. For example, the turning side view 903 "is made available when the turning signal is active. The coverage of this view is a function of user input, and in principle covers the entire area between the dashed lines. It should be noted that the driving side view 905 ″ is also used in the standard operating mode, which can be expanded to cover the entire area between the dashed lines. The rear view of this example has two modes depending on the control parameters. When the vehicle is reversed, the reverse rear view 907 "is used for display. This view causes complete coverage of the rear of the vehicle including objects on the paved road. Guarantees and greatly facilitates parallel parking, but a narrower driver rear view 906 "is used when the vehicle is in driving mode. These positions and angles ensure a convenient view of the exterior of the vehicle by the driver. This example greatly facilitates functions such as parallel parking and lane change.

図4Aは、運転者によって見られるように表示面160の例を示している。右ビュー162と左ビュー164がそれぞれ表示面160の右上と左上にある一方、後部ビュー166は表示面の下部にある。図5Aは、より幅広いディスプレイが使用され、側面ディスプレイは後部ビュー166’の二つの側面にある表示面160’の例を示している。画像プロセッサ200は、この特定のディスプレイを作るためにパノラマ変換及び画像ステッチ機能を有する。図4B及び図5Bは、それぞれ車両が右に曲がるとき、または逆になっているときに図4Aと図5Aの再構成されたディスプレイの例を示す。   FIG. 4A shows an example of the display surface 160 as seen by the driver. A right view 162 and a left view 164 are at the upper right and upper left of the display surface 160, respectively, while a rear view 166 is at the bottom of the display surface. FIG. 5A shows an example of a display surface 160 'where a wider display is used and the side display is on two sides of the rear view 166'. Image processor 200 has panorama conversion and image stitching functions to create this particular display. 4B and 5B show examples of the reconstructed display of FIGS. 4A and 5A when the vehicle turns to the right or is reversed, respectively.

図6Aは、車両が車線を変更し、右側車線に入るときの表示面160の再構成されたディスプレイの例の図である。この例では、車両の右前部と後部は完全に視認可能であり、車両の右側のすべてに関して状況認識を生じさせる。図6Bは、右方向転換信号が活動中であるときに右に曲がるために構成されるディスプレイの例の図である。図3Cのサイドを変更するビュー903”はいまサイド変更ビュー163”としてディスプレイの真中上部分に表示されている。後部ビュー166”と右ビュー166”はディスプレイの下部にある。   FIG. 6A is a diagram of an example of a reconstructed display of the display surface 160 when the vehicle changes lanes and enters the right lane. In this example, the right front and rear of the vehicle are fully visible and cause situational recognition for all of the right side of the vehicle. FIG. 6B is an illustration of an example display configured to turn right when a right turn signal is active. The side change view 903 "of FIG. 3C is now displayed as the side change view 163" in the upper middle part of the display. The rear view 166 "and the right view 166" are at the bottom of the display.

図7は表示面160の別の例を示す。ディスプレイのこの特定の構成は、視覚システム100と統合された超音波センサとレーダセンサからの距離決定だけではなく、画像獲得装置からの視覚情報を収集することによって達成可能である。この図解されている例では、太線と灰色の陰影のある車両は視覚システム100を備え、周囲セッティング、つまり他の車両に関して示されている。本発明のこの例のインプリメンテーションは状況の認識を大幅に高め、車両の運転を容易にする。各オブジェクトの寸法の内の二つがカメラによって直接的に捕捉される。これらの車両とオブジェクトの形状とサイズは、車線とカーブのサイズと形状に従ってカメラのビューを外挿することによって再構築される。運転場面のより正確な視覚アカウントがパターン認識及びデータベース中の特定のオブジェクトのためのルックアップテーブルによって再構築できるであろう。   FIG. 7 shows another example of the display surface 160. This particular configuration of the display can be achieved by collecting visual information from the image acquisition device, as well as distance determination from the ultrasonic and radar sensors integrated with the vision system 100. In this illustrated example, a bold and gray shaded vehicle is provided with a vision system 100 and is shown with respect to ambient settings, ie other vehicles. This example implementation of the present invention greatly enhances situational awareness and facilitates vehicle driving. Two of the dimensions of each object are captured directly by the camera. The shape and size of these vehicles and objects are reconstructed by extrapolating the camera view according to the size and shape of the lanes and curves. A more accurate visual account of the driving scene could be reconstructed with pattern recognition and look-up tables for specific objects in the database.

本発明がこれらの図解されている例に限定されないことが注記されなければならない。表示面の再構成だけではなくカメラの数と位置に関する変動も本発明の範囲内である。投影幾何学形状データ、投影光学部品データ、及びカメラ光学部品データは画像プロセッサ200のこれらすべての代替インプリメンテーションをカバーする。   It should be noted that the present invention is not limited to these illustrated examples. Variations in the number and position of cameras as well as reconstruction of the display surface are within the scope of the present invention. Projection geometry data, projection optics data, and camera optics data cover all these alternative implementations of image processor 200.

好ましくは、ディスプレイ明るさは、周辺光センサを介して、車両ヘッドライトからの信号を介して、あるいは手動ディマースイッチを介して調整可能である。加えて、好ましくはディスプレイ面のサイズもドライバを介して調整可能である。参照することにより本書に組み込まれている特許文献3に説明されているように、表示されている画像の焦点距離はかなり運転者の焦点の視野内にあることも好ましい。ただし、画像がつねに運転者の焦点深度内で形成することを確実にするためにディスプレイシステムの焦点距離が車両の速度に応じて調整されることも好ましい。さらに高速では、運転者は自然とさらに長い距離に焦点を合わせる。このような調整はスピードメータ信号156または伝送信号154を介して達成される。   Preferably, the display brightness is adjustable via an ambient light sensor, via a signal from a vehicle headlight or via a manual dimmer switch. In addition, the size of the display surface is preferably adjustable via a driver. It is also preferred that the focal length of the displayed image is substantially within the field of focus of the driver, as described in US Pat. However, it is also preferred that the focal length of the display system is adjusted according to the speed of the vehicle in order to ensure that images are always formed within the driver's depth of focus. At higher speeds, the driver naturally focuses on longer distances. Such adjustment is accomplished via speedometer signal 156 or transmission signal 154.

図6は、車両視覚システムにおけるユーザ入力150の例を示す。信号インタフェース151は異なる構成要素から信号を受信し、コントローラ101と接続する。右に曲がっている間に活動中である例えば方向転換信号152は、信号インタフェース151に、及びコントローラ101の上に、そして最終的には画像プロセッサ200に信号を中継する。一旦画像プロセッサ200がこの信号を受信すると、それは表示面160で右ディスプレイ162を強調するようにディスプレイを構成する。図4Bはこのような条件下の表示画面160を示す。右ビューディスプレイは表示面160の半分を占有し、他の半分は後部ビューディスプレイ166専用である。図5Bは、広い表示面実施形態での同じ状況を示している。他の信号が他の機能を呼び出す。   FIG. 6 shows an example of user input 150 in the vehicle vision system. The signal interface 151 receives signals from different components and connects to the controller 101. For example, a turn signal 152 that is active while turning to the right relays the signal to the signal interface 151 and onto the controller 101 and ultimately to the image processor 200. Once the image processor 200 receives this signal, it configures the display to highlight the right display 162 on the display surface 160. FIG. 4B shows the display screen 160 under such conditions. The right view display occupies half of the display surface 160 and the other half is dedicated to the rear view display 166. FIG. 5B shows the same situation with a wide display surface embodiment. Other signals call other functions.

例えば、車両を駐車している間に、トランスミッションは好ましくは後部ビューを強調するための信号を発生させる。他の信号は、ステアリングホイールが事前に設定された限度より多く一方の側に方向を変えられるときに活動中であるステアリング信号と、ブレーキペダルが押されているときに活動中であるブレーキ信号と、移動速度と方向についての情報を伝達するトランスミッション信号と、さまざまな信号を入力するために多様な設定速度で計測されるスピードメータ信号を含む。ディスプレイシステムは、本発明では、これらの制御パラメータのどれかに応じて異なる状況に調整し、重大な画像を使用可能とするために自動的に再構成する。種々の制御信号は画像プロセッサ200と組み込まれ、ここでは数個の例に言及したに過ぎない。   For example, while parking the vehicle, the transmission preferably generates a signal to enhance the rear view. The other signals are a steering signal that is active when the steering wheel is turned to one side more than a preset limit, and a brake signal that is active when the brake pedal is pressed. It includes a transmission signal that conveys information about the moving speed and direction, and a speedometer signal that is measured at various set speeds to input various signals. The display system adjusts to different situations depending on any of these control parameters and automatically reconfigures the critical image to be usable. The various control signals are incorporated with the image processor 200, here only a few examples are mentioned.

ロードマップ、沿道情報、GPS情報、及び局地天気予報を含む種々の有効な情報が表示面160に表示できるであろう。視覚システム100はダウンロードされたファイルを通して、または運転者の要求で無線通信を通してのどちらかでこれらのデータにアクセスする。それは、次に画像フレームデータ上にこれらのデータを重畳し、ディスプレイシステム用の画像を作る。好ましくは重要な警告システムも視覚システムにより受信され、表示され、ディスプレイシステムインタフェース及び音声信号インタフェースを介して一斉送信される。視覚システム100は画像データ情報を交換することを介してインテリジェント高速道路駆動システムと統合することもできるであろう。また、それは参照することにより本書に組み込まれている特許文献1に従って距離限定器及びオブジェクト識別器と統合される。   A variety of useful information could be displayed on the display surface 160, including road maps, roadside information, GPS information, and local weather forecasts. The vision system 100 accesses these data either through downloaded files or through wireless communication at the driver's request. It then superimposes these data on the image frame data to create an image for the display system. Important alert systems are also preferably received and displayed by the visual system and broadcast via the display system interface and the audio signal interface. The vision system 100 could also be integrated with an intelligent highway drive system via exchanging image data information. It is also integrated with the distance limiter and the object identifier according to US Pat.

一例のインプリメンテーションでは、車両視覚システム100は、カメラと音声装置によって検出されるようにイベントの連続記録を行うために、圧縮段132と記録装置142を備える。これらの特長は事故、自動車の乗っ取り及び交通違反のような不幸な出来事の後に見直される運転者により意図される事象に加えて過去の衝撃の前に特定のセグメントを保存する機能を組み込む。このような情報は、法執行機関、司法当局、及び保険会社が使用できるであろう。   In one example implementation, the vehicle vision system 100 includes a compression stage 132 and a recording device 142 for continuous recording of events as detected by a camera and audio device. These features incorporate the ability to save specific segments prior to past impacts in addition to events intended by the driver to be reviewed after unfortunate events such as accidents, car takeovers and traffic violations. Such information could be used by law enforcement agencies, judicial authorities, and insurance companies.

別の実施形態では、本発明は、既定の設定に応じて最高180°または360°をカバーするテレビ会議視覚システムを提供する。この実施形態では、ビデオ信号とともに音声信号も必要とされる。視覚システム100の図解されている図1の例では、音声装置アレイ117がカメラからのビデオ入力に加えて音声入力を提供する。音声信号データはデジタイザ118を介してデジタルデータに変換され、デジタル画像フレームデータに重畳される。パン機能は個々のスピーカまたは質問者にパンするために音声信号の三角測量に基づいて提供される。パン機能とズーム機能は、画像プロセッサ200によってデジタルで提供される。光学ズームがない場合、デジタルズームが提供される。   In another embodiment, the present invention provides a video conference vision system that covers up to 180 ° or 360 °, depending on the default settings. In this embodiment, an audio signal is required along with a video signal. In the illustrated example of FIG. 1 of vision system 100, audio device array 117 provides audio input in addition to video input from a camera. The audio signal data is converted into digital data via the digitizer 118 and is superimposed on the digital image frame data. Pan functionality is provided based on triangulation of audio signals to pan to individual speakers or interrogators. The pan and zoom functions are provided digitally by the image processor 200. In the absence of optical zoom, digital zoom is provided.

図7Aはテレビ会議システムの例に関する。それは会議テーブルの中心でのカメラ110のビューを示す。この特定の例では、カメラ110は半球形のレンズ系を有し、テーブル面上及びテーブル面を含むすべてを捕捉する。未処理画像はさかさまで、引き伸ばされ、不均衡である。しかしながら、表示面160上に表示されている画像には歪みはなく、パノラマ的に変換されている。   FIG. 7A relates to an example of a video conference system. It shows the view of the camera 110 at the center of the conference table. In this particular example, the camera 110 has a hemispherical lens system and captures everything on and including the table surface. The raw image is stretched upside down and unbalanced. However, the image displayed on the display surface 160 is not distorted and is panorama converted.

図7Bは、スピーカの画像が拡大され、会議の残りが同じ面上で直線形状で可視である表示面160を示している。   FIG. 7B shows a display surface 160 where the speaker image is magnified and the rest of the conference is visible in a straight line on the same surface.

さらに別の実施形態では、本発明は運動検出及びオブジェクト認識付きのサーベイランスシステムを提供する。図2Aはサーベイランスシステムで使用される画像プロセッサ200の例を示す。運動検出器270は、検出された運動及び信号警報の事前設定レベルに基づいて連続入力画像フレームを評価し、歪み畳み込み段250に運動領域座標を送信する。入力画像フレームはカレントビューウィンドウの外部の領域を監視するために使用される。追跡座標は、検出されたオブジェクトの補正された表示のためのビューウィンドウを計算するために歪み畳み込み段250によって使用される。歪み補正されたオブジェクト画像は、オブジェクトの保証された運動及び時間的な補間によって解像度強化できる。オブジェクトの認識及び分類も実行できる。   In yet another embodiment, the present invention provides a surveillance system with motion detection and object recognition. FIG. 2A shows an example of an image processor 200 used in a surveillance system. The motion detector 270 evaluates successive input image frames based on the detected motion and preset levels of signal alerts and sends motion region coordinates to the distortion convolution stage 250. The input image frame is used to monitor an area outside the current view window. The tracking coordinates are used by the distortion convolution stage 250 to calculate a view window for the corrected display of the detected object. Distorted object images can be enhanced in resolution by guaranteed motion of objects and temporal interpolation. Object recognition and classification can also be performed.

図8は、サーベイランスシステムの図解されている例を示している。カメラ110と111は、それらが壁に取り付けられている通路内にある。これら二つのカメラは、通路を通る交通量を監視する。本実施形態での画像プロセッサ200は、被写体が通路を通過するにつれて被写体の運動を追跡調査するために運動検出器及び追跡装置270を使用する。この例の表示画面160は、特定のときに図9Aに、後に図9Bに図示される。被写体の通過は、彼が一方のカメラの視界から他方に移動するにつれて全面的に捕捉される。視覚システムは、被写体の詳細及び認識を改善するために時間的な抽出により解像度強化も実行でき、図9Aと図9Bの両方の上部にそれを表示する。この図の上部は完全解像度で、あるいは移動する被写体をデジタルでズームすることによって提供される。オブジェクトの認識及び追跡調査はあるフレームからの運動中のオブジェクトを次のフレームと比較することを介して達成される。外形が、認識を容易にするために追跡されるオブジェクトを強調表示する。   FIG. 8 shows an illustrative example of a surveillance system. Cameras 110 and 111 are in the passage where they are attached to the wall. These two cameras monitor the traffic through the passage. The image processor 200 in this embodiment uses a motion detector and tracking device 270 to track the motion of the subject as the subject passes through the passage. The display screen 160 of this example is shown in FIG. 9A at a specific time and later in FIG. 9B. The passage of the subject is fully captured as he moves from the view of one camera to the other. The vision system can also perform resolution enhancement by temporal extraction to improve subject detail and recognition, displaying it at the top of both FIGS. 9A and 9B. The top of the figure is provided at full resolution or by digitally zooming on a moving subject. Object recognition and tracking is accomplished through comparing a moving object from one frame to the next frame. The outline highlights the tracked object to facilitate recognition.

本発明に従って構築される、視覚システム及びその構成要素の全体図を表す。1 represents a general view of a vision system and its components constructed in accordance with the present invention. 視覚システムの一部として図1の画像プロセッサの構造を表す。1 represents the structure of the image processor of FIG. 1 as part of a vision system. 図1の画像プロセッサの流れ論理を表す。2 represents the flow logic of the image processor of FIG. 側部視野と後部視野のために使用されるミラー付きの従来の車両を表す。1 represents a conventional vehicle with mirrors used for side and rear views. 視覚システムの車両例でカメラとそのビューの例の設定値を表す。The setting value of the example of a camera and its view is represented in a vehicle example of a visual system. 視野システムの車両例でカメラのための選択された図を表す。FIG. 4 represents a selected view for a camera in a vehicle example of a vision system. 車両視覚システム例での視覚システムディスプレイの視覚表面を表す。Fig. 4 represents a visual surface of a visual system display in an example vehicle vision system. 車両視覚システム例で、右方向転換信号が活動中である図4Aと同じ表示面を表す。FIG. 4B shows the same display surface as in FIG. 4A where the right turn signal is active in the example vehicle vision system. 車両視覚システム例で視覚システムディスプレイの表示面の幅広い代替策を表す。The vehicle vision system example represents a broad alternative of the display surface of the vision system display. 車両が逆に走っているときに図5Aの再構成される表示面を表す。5B represents the reconstructed display surface of FIG. 5A when the vehicle is running in reverse. 車両が車線を変更しているときの再構成されたディスプレイを表す。Represents a reconstructed display when the vehicle is changing lanes. 車両が右に曲がり、運転者のビューが見えなくされるときの再構成されたディスプレイを表す。Represents a reconstructed display when the vehicle turns to the right and the driver's view disappears. 車両と隣接するオブジェクトを示す上部ビューディスプレイを表す。Represents an upper view display showing objects adjacent to a vehicle. 車両視覚システム内の制御入力の例を表す。Fig. 3 represents an example of a control input in a vehicle vision system. テレビ会議視覚システム例で会議用のテーブルの中心にセットされる半球状の180°(2πステラジアン)のビューカメラを表す。FIG. 3 represents a hemispherical 180 ° (2π steradian) view camera set at the center of a conference table in the example video conference vision system. テレビ会議視覚システム例のディスプレイを表す。Fig. 4 represents a display of an example video conference vision system. サーベイランスシステムの例の一部として壁の上に取り付けられている二台のカメラのある通路または建物壁を表す。Represents a passage or building wall with two cameras mounted on a wall as part of an example surveillance system. 本発明のサーベイランスシステム例のディスプレイを表す。1 represents a display of an example surveillance system of the present invention. 後の時刻における図9Aと同じディスプレイを表す。It represents the same display as FIG. 9A at a later time.

Claims (56)

関連付けられたカメラ、ディスプレイ光学部品及び幾何学特性を有するパノラマ視覚システムであって、
(a)場面から画像フレームデータを捕捉するため、及び画像センサ入力を生成するための複数の画像獲得装置であって、前記画像フレームデータが最高360°の視野を集合的にカバーし、幾何学的歪みパラメータ及び光学歪みパラメータを有する前記画像獲得装置と、
(b)該画像フレームデータ及び該画像センサ入力をサンプリングし、デジタル画像データに変換するための該複数の画像獲得装置に結合されるデジタイザと、
(c)(i)該デジタル画像データを受信し、該画像輝度ヒストグラムと、該デジタル画像データと関連付けられた該周辺光源レベルとを受信するための画像測定装置と、
(ii)該カメラ、ディスプレイ光学部品と幾何学特性、該画像輝度ヒストグラム、及び該周辺光源レベルとともに該デジタル画像データを受信するため、及び輝度不均一性を補正するため、及び該デジタル画像データ内の選択された領域の該輝度範囲を最適化するために該画像測定装置に結合される輝度補正モジュールと、
(iii)該画像センサ入力、該カメラ、ディスプレイ光学部品及び畳み込まれた(convoluted)歪みパラメータを形成するためのその中で関連付けられた幾何学特性と不完全度とを含む、該幾何学的歪みパラメータ及び光学的歪みパラメータを結合するために該輝度補正モジュールに結合される畳み込み段と、
(iv)歪み補正変換を生成し、該畳み込まれた歪みパラメータに基づいて該デジタル画像データに適用し、補正されたデジタル画像データを生成するために該畳み込み段に結合される歪み補正モジュールと、
(v)補正されたデジタル画像データから複合画像を合成するために歪み補正モジュールに結合されるディスプレイコントローラと、
(d)表示のために表示面で該複合画像を表示するために前記画像プロセッサに結合され、前記複合画像に視覚的な歪みのないディスプレイシステムと、
を備える該デジタイザに結合される画像プロセッサと、
を備えるシステム。
A panoramic vision system having an associated camera, display optics and geometric properties,
(A) a plurality of image acquisition devices for capturing image frame data from a scene and generating image sensor input, the image frame data collectively covering a field of view of up to 360 °, The image acquisition device having a dynamic distortion parameter and an optical distortion parameter;
(B) a digitizer coupled to the plurality of image acquisition devices for sampling and converting the image frame data and the image sensor input into digital image data;
(C) (i) an image measuring device for receiving the digital image data and receiving the image luminance histogram and the ambient light source level associated with the digital image data;
(Ii) receiving the digital image data along with the camera, display optics and geometric characteristics, the image luminance histogram, and the ambient light source level, and correcting luminance inhomogeneities, and within the digital image data A brightness correction module coupled to the image measuring device to optimize the brightness range of selected areas of
(Iii) the geometry including the image sensor input, the camera, display optics, and geometric properties and imperfections associated therein to form a convolved distortion parameter; A convolution stage coupled to the brightness correction module to combine a distortion parameter and an optical distortion parameter;
(Iv) a distortion correction module coupled to the convolution stage to generate a distortion correction transform, apply to the digital image data based on the convolved distortion parameter, and generate corrected digital image data; ,
(V) a display controller coupled to the distortion correction module to synthesize a composite image from the corrected digital image data;
(D) a display system coupled to the image processor for displaying the composite image on a display surface for display, wherein the composite image is free of visual distortion;
An image processor coupled to the digitizer comprising:
A system comprising:
前記画像プロセッサが側面方向色収差及び歪みを補正するために、該デジタル画像データに関連付けられた赤の成分、緑の成分及び青の成分を別々に処理するように適応される請求項1に記載のパノラマ視覚システム。   The image processor of claim 1, wherein the image processor is adapted to separately process a red component, a green component, and a blue component associated with the digital image data to correct lateral chromatic aberration and distortion. Panoramic vision system. 前記輝度補正モジュールがクロミナンスの不均一性を補正するために該赤の成分、緑の成分及び青の成分を別々に処理する請求項2に記載のパノラマ視覚システム。   The panoramic vision system of claim 2, wherein the brightness correction module processes the red component, the green component, and the blue component separately to correct chrominance non-uniformity. 前記複数の画像獲得装置及び該デジタイザが複数のデジタルカメラによって実現される請求項1に記載のパノラマ視覚システム。   The panoramic vision system according to claim 1, wherein the plurality of image acquisition devices and the digitizer are realized by a plurality of digital cameras. 該ディスプレイシステムが光投影システムであり、該幾何学的歪みパラメータ及び光学的歪みパラメータが、該関連付けられた幾何学歪みと光学歪みを事前に補正するために連結される請求項3に記載のパノラマ視覚システム。   The panorama of claim 3, wherein the display system is a light projection system, and the geometric distortion parameters and optical distortion parameters are coupled to precorrect the associated geometric distortion and optical distortion. Visual system. 少なくとも一つの周辺光センサと、少なくとも一つの照明信号と、及び少なくとも一つのユーザディマースイッチとをさらに備え、該ディスプレイシステムの該明るさが前記周辺光センサ、別個の照明信号、及びユーザディマースイッチの内の少なくとも一つに従って調整される請求項3に記載のパノラマ視覚システム。   At least one ambient light sensor, at least one illumination signal, and at least one user dimmer switch, wherein the brightness of the display system includes the ambient light sensor, a separate illumination signal, and a user dimmer switch. 4. The panoramic vision system of claim 3, wherein the panoramic vision system is adjusted according to at least one of the following. コントローラをさらに備え、前記コントローラが選択される表示機能及び優先順位のセットに基づいて前記ユーザパラメータを歪みパラメータに連結するためにユーザパラメータのセットを該パノラマ視覚システムに中継するように適応される請求項3に記載のパノラマ視覚システム。   A controller further comprising: a controller adapted to relay the set of user parameters to the panoramic vision system to link the user parameters to a distortion parameter based on the display function and priority set selected. Item 4. The panoramic vision system according to item 3. ユーザ入力と制御パラメータを受信し、中継するように適応される該画像プロセッサに結合される制御インタフェースをさらに備える請求項3に記載のパノラマ視覚システム。   The panoramic vision system of claim 3, further comprising a control interface coupled to the image processor adapted to receive and relay user input and control parameters. 前記画像プロセッサが、絞り及び露光時間の制御のために該画像獲得装置に露光制御コマンドを送信するようにさらに適応される請求項3に記載のパノラマ視覚システム。   4. The panoramic vision system of claim 3, wherein the image processor is further adapted to send an exposure control command to the image acquisition device for aperture and exposure time control. 表示面をさらに備え、該表示面上の該複合画像の該位置とサイズがユーザ入力のセットに従って調整可能である請求項3に記載のパノラマ視覚システム。   4. The panoramic vision system of claim 3, further comprising a display surface, wherein the position and size of the composite image on the display surface is adjustable according to a set of user inputs. 車両視覚システムとして提供される請求項3に記載のパノラマ視覚システム。   4. The panoramic vision system according to claim 3, provided as a vehicle vision system. 該ディスプレイシステムが該車両内に位置する運転者の前方視野で、すなわちダッシュボード、フロントガラス、ルーフ及びフェシアからなるグループの内の少なくとも一つの上で複合画像を形成するように適応される請求項11に記載の車両視覚システム。   The display system is adapted to form a composite image in a forward view of a driver located within the vehicle, i.e., on at least one of the group consisting of a dashboard, windshield, roof and fascia. The vehicle vision system according to claim 11. 該ディスプレイシステムが、車両のサイドミラーを模倣するために、該フロントガラスとフェシアの該内装角上の二つの表示面の上に複合画像を形成するように適応される請求項12に記載の車両視覚システム。   13. The vehicle of claim 12, wherein the display system is adapted to form a composite image on two display surfaces on the interior corners of the windshield and fascia to mimic a vehicle side mirror. Visual system. 該複合画像の該焦点が該車両内に位置する運転者と関連付けられた該前方焦点視野の中に入る請求項11に記載の車両視覚システム。   The vehicle vision system of claim 11, wherein the focus of the composite image falls within the forward focus field of view associated with a driver located within the vehicle. 該ディスプレイシステムの該焦点が実質的には無限である請求項11に記載の車両視覚システム。   The vehicle vision system of claim 11, wherein the focus of the display system is substantially infinite. 該車両視覚システムが、方向転換信号、伝送システム、ブレーキシステム、ステアリングシステム及びスピードメータからなるグループからの入力に従って異なる構成の中で再構成する請求項11に記載の車両視覚システム。   12. The vehicle vision system of claim 11, wherein the vehicle vision system is reconfigured in different configurations according to inputs from a group consisting of a turn signal, a transmission system, a brake system, a steering system, and a speedometer. 該ディスプレイシステムが、該車両方向転換信号が右に曲がるように設定されるときに該車両から該右ビューを改善し、該車両方向転換信号が左に曲がるように設定されるときに該左ビューを改善するように適応される請求項16に記載の車両視覚システム。   The display system improves the right view from the vehicle when the vehicle turn signal is set to turn right and the left view when the vehicle turn signal is set to turn left The vehicle vision system of claim 16, adapted to improve the vehicle. 該ディスプレイシステムが、該車両ステアリングホイールが事前設定角度により右に向かって方向を変えられるときに該車両から該右ビューを改善し、該車両ステアリングホイールが事前設定角度により左に向かって方向を変えられるときに該車両から該左ビューを改善するように適応される請求項16に記載の車両視覚システム。   The display system improves the right view from the vehicle when the vehicle steering wheel is turned to the right by a preset angle, and the vehicle steering wheel is turned to the left by a preset angle. 17. The vehicle vision system of claim 16 adapted to improve the left view from the vehicle when operated. 該ディスプレイシステムが、該車両が逆に動作中に該車両から該後部ビューを改善するように適応される請求項16に記載の車両視覚システム。   17. The vehicle vision system of claim 16, wherein the display system is adapted to improve the rear view from the vehicle while the vehicle is operating in reverse. 該視覚システムが、直接的なビューが隣接するオブジェクトによって見えなくされる場合に、該車両から該前部コーナーサイドビュー及び後部コーナーサイドビューの少なくとも一つを改善するように適応される請求項16に記載の車両視覚システム。   17. The vision system is adapted to improve at least one of the front corner side view and the rear corner side view from the vehicle when a direct view is obstructed by an adjacent object. Vehicle vision system as described in. レーザ及びレーダセンサの内の少なくとも一つをさらに備え、該画像プロセッサが該車両の該外装とオブジェクトの間の距離を検出するために該センサを使用し、該車両の該外装と該オブジェクトの間の該距離が該車両の該速度により定められる範囲内になるときに音声警告と視覚警告を提供するようにさらに適応される請求項20に記載の車両視覚システム。   At least one of a laser and a radar sensor, wherein the image processor uses the sensor to detect a distance between the exterior of the vehicle and the object, and between the exterior of the vehicle and the object 21. The vehicle vision system of claim 20, further adapted to provide an audio alert and a visual alert when the distance is within a range defined by the speed of the vehicle. 該ディスプレイシステムが、カメラを介して二次元を捕捉し、車線パターンとカーブパターン及びオブジェクトルックアップデータベースに従って三次元で外挿することによって上部から見られるように車両とその取り囲む環境を示すように構成される請求項21に記載の車両視覚システム。   The display system is configured to capture the 2D through the camera and show the vehicle and its surrounding environment as seen from above by extrapolating in 3D according to lane and curve patterns and object lookup database The vehicle vision system of claim 21, wherein: 該画像プロセッサが、道路、車線、及びカーブ端縁のマーキングの内の少なくとも一つを検出し、該車両の該外装が前記端縁マーキングに近づくと音声警告と視覚警告を提供するようにさらに適応される請求項20に記載の車両視覚システム。   The image processor is further adapted to detect at least one of road, lane, and curve edge markings and provide audio and visual warnings when the exterior of the vehicle approaches the edge markings 21. The vehicle vision system of claim 20, wherein: 該画像プロセッサが、指定領域の該位置を検出し、該指定領域への車両の移動を誘導するために該ディスプレイシステム上に方向インジケータを提供するようにさらに適応される請求項23に記載の車両視覚システム。   24. The vehicle of claim 23, wherein the image processor is further adapted to provide a direction indicator on the display system to detect the position of the designated area and guide movement of the vehicle to the designated area. Visual system. 周辺光センサ、近づいてくるヘッドライトセンサ、及び運転者ディマースイッチからなるグループの内の少なくとも一つをさらに備え、該ディスプレイシステムと関連付けられた該明るさとコントラストが該周辺光センサ、近付いてくるヘッドライトセンサ、及び運転者ディマースイッチの内の少なくとも一つの読取値に従って調整される請求項11に記載の車両視覚システム。   At least one of the group consisting of an ambient light sensor, an approaching headlight sensor, and a driver dimmer switch, the brightness and contrast associated with the display system being the ambient light sensor, the approaching head 12. The vehicle vision system of claim 11, wherein the vehicle vision system is adjusted according to at least one reading of a light sensor and a driver dimmer switch. トリガの起動のあたりで定められる期間と関連付けられるすべてのデジタル画像データを記録するための安全ブラックボックス装置及びトリガ装置をさらに備え、前記トリガが、ユーザ、衝突、ハイジャック、及び盗難からなるグループの内の少なくとも一つにより起動されるように適応される請求項11に記載の車両視覚システム。   Further comprising a safety black box device and a trigger device for recording all digital image data associated with a period defined around the trigger activation, wherein the trigger comprises a group of users, collisions, hijacking, and theft 12. The vehicle vision system of claim 11 adapted to be activated by at least one of the following. ロードマップと沿道情報を該ディスプレイシステム上に表示できるようにする統合GPSナビゲーション装置をさらに備える請求項11に記載の車両視覚システム。   The vehicle vision system of claim 11, further comprising an integrated GPS navigation device that allows roadmaps and roadside information to be displayed on the display system. 複数のサーベイランスセンサを備え、前記システムがサーベイランス視覚システムとして設けられる請求項3に記載のパノラマ視覚システム。   4. The panoramic vision system according to claim 3, comprising a plurality of surveillance sensors, wherein the system is provided as a surveillance vision system. 該画像プロセッサが、該サーベイランスセンサを使用して運動検出及びオブジェクト追跡調査を実行するようにさらに適応される請求項28に記載のサーベイランス視覚システム。   30. The surveillance vision system of claim 28, wherein the image processor is further adapted to perform motion detection and object tracking studies using the surveillance sensor. 該画像プロセッサが、運動がサーベイランスセンサにより検出されると視覚信号と音声信号のセットを提供するように適応される請求項28に記載のサーベイランス視覚システム。   30. The surveillance vision system of claim 28, wherein the image processor is adapted to provide a set of visual and audio signals when motion is detected by a surveillance sensor. 該画像プロセッサが、指定された保護領域のセットを画定し、複数のオブジェクトを追跡調査し、このようなオブジェクトが指定保護領域に入ると音声警告と視覚警告を生成するようにさらに適応され、該ディスプレイシステムがこのようなオブジェクトが該指定保護領域に入ると前記オブジェクトを強調表示するように再構成される請求項26に記載のサーベイランス視覚システム。   The image processor is further adapted to define a specified set of protected areas, track a plurality of objects, and generate audio and visual alerts when such objects enter the specified protected area; 27. The surveillance vision system of claim 26, wherein the display system is reconfigured to highlight such objects when such objects enter the designated protected area. 音声センサのセットをさらに含み、該デジタイザが該音声センサ入力をデジタル音声データに変換するようにさらに適応され、前記システムがテレビ会議視覚システムとして提供される請求項3に記載のパノラマ視覚システム。   4. The panoramic visual system of claim 3, further comprising a set of audio sensors, wherein the digitizer is further adapted to convert the audio sensor input into digital audio data, and the system is provided as a video conference visual system. 該画像プロセッサ及び該ディスプレイシステムが、テレビ会議ユーザによって発生される該音声信号の該強度と方向に従って該テレビ会議ユーザのズームされた画像を生成し、表示するようにさらに適応される請求項32に記載のテレビ会議視覚システム。   The image processor and the display system are further adapted to generate and display a zoomed image of the video conference user according to the intensity and direction of the audio signal generated by the video conference user. The videoconferencing vision system described. 最大360°つまり4πステラジアンをカバーする複合画像を生成するために、カメラ、ディスプレイ光学部品及び幾何学的歪みパラメータ及び光学的歪みパラメータだけではなく幾何学特性を有するパノラマ視覚システムを使用してパノラマ視覚を提供するための方法であって、
(a)場面から画像フレームデータを獲得し、前記画像フレームデータが最大360°つまり4πステラジアンの視野を集合的にカバーし、画像センサ入力のセットを生成することと、
(b)該画像フレームデータと該画像センサ入力をデジタル画像データに変換し、前記デジタル画像データが画像輝度ヒストグラムと周辺光源レベルと関連付けられることと、
(c)該カメラ、ディスプレイ光学部品、及び幾何学特性、該画像輝度ヒストグラム及び該周辺光源レベルを取得し、該デジタル画像データの中の選択された領域の該輝度範囲を最適化するために輝度の不均一性を補正することと、
(d)該画像センサ入力、該カメラ、ディスプレイ光学部品、及び畳み込まれた歪みパラメータを形成するためにその中で関連付けられる幾何学特性と不完全度を含む該幾何学的歪みパラメータ及び光学的歪みパラメータを畳み込むことと、
(e)該歪み補正変換を生成し、該デジタル画像データに適用し、前記歪み補正変換が補正されたデジタル画像データを生成するために該畳み込まれた幾何学的歪みパラメータ及び光学的歪みパラメータに基づいていることと、
(f)該補正されたデジタル画像データから複合画像を合成することと、
(g)表示のために表示面に該複合画像を表示し、前記複合画像が視覚的に歪みがないことと、
を備える前記方法。
Panorama vision using a camera, display optics and a panoramic vision system with geometric characteristics as well as geometric distortion parameters and optical distortion parameters to generate composite images covering up to 360 ° or 4π steradians A method for providing
(A) obtaining image frame data from a scene, the image frame data collectively covering a field of view of up to 360 ° or 4π steradians and generating a set of image sensor inputs;
(B) converting the image frame data and the image sensor input into digital image data, the digital image data being associated with an image luminance histogram and an ambient light source level;
(C) obtaining the camera, display optics, and geometric properties, the image luminance histogram and the ambient light source level to optimize the luminance range of a selected region in the digital image data; Correcting the non-uniformity of
(D) the geometric distortion parameters and optical including the geometric characteristics and imperfections associated therein to form the image sensor input, the camera, display optics, and convolved distortion parameters; Convolving the distortion parameters;
(E) generating and applying the distortion correction transform to the digital image data, the convolved geometric and optical distortion parameters to generate digital image data in which the distortion correction conversion is corrected; Based on
(F) compositing a composite image from the corrected digital image data;
(G) displaying the composite image on a display surface for display, the composite image being visually distorted;
Said method comprising.
該デジタル画像データの該赤の成分、緑の成分及び青の成分を別々に処理し、側面方向の色収差歪みを補正することをさらに備える請求項34に記載の方法。   35. The method of claim 34, further comprising processing the red component, the green component, and the blue component of the digital image data separately to correct lateral chromatic aberration distortion. クロミナンス不均一性を補正するために、輝度調整が前記赤の成分、緑の成分及び青の成分のそれぞれに別々に実施される請求項35に記載の方法。   36. The method of claim 35, wherein brightness adjustment is performed separately for each of the red, green and blue components to correct for chrominance non-uniformity. 該補正変換が、
(i)該幾何学的歪みパラメータ及び光学的歪みパラメータの空間全体をカバーするグリッドデータセットを取得することと、
(ii)(i)の該グリッド上の各データセットに対応する補正変換を計算することと、
(iii)該実際の画像フレーム変換パラメータに適合するために隣接するグリッド変換を補間することと、
により達成される請求項36に記載の方法。
The correction conversion is
(I) obtaining a grid data set covering the entire space of the geometric and optical distortion parameters;
(Ii) calculating a correction transform corresponding to each data set on the grid of (i);
(Iii) interpolating adjacent grid transforms to conform to the actual image frame transform parameters;
40. The method of claim 36, achieved by:
(i)と(ii)がオフラインで一度実行され、該変換グリッドが各画像フレーム補正のためにアクセスされる請求項37に記載の方法。   38. The method of claim 37, wherein (i) and (ii) are performed once offline and the transform grid is accessed for each image frame correction. (i)と(ii)が変化する条件下で動的に実行される請求項37に記載の方法。   38. The method of claim 37, wherein the method is performed dynamically under conditions in which (i) and (ii) vary. 該変換に関連付けられた該ピクセルマップがワープマップによって表現される請求項37に記載の方法。   38. The method of claim 37, wherein the pixel map associated with the transform is represented by a warp map. 該ワープマップが、増分多項式及び位置多項式の内の一つに関してパラメータ化される請求項40に記載の方法。   41. The method of claim 40, wherein the warp map is parameterized with respect to one of an incremental polynomial and a position polynomial. 露光制御コマンドをさらに生成し、複数の画像獲得装置に中継する請求項36に記載の方法。   37. The method of claim 36, further generating an exposure control command and relaying it to a plurality of image acquisition devices. 歪みパラメータと畳み込むために制御パラメータとユーザパラメータとを受信することをさらに含む請求項36に記載の方法。   37. The method of claim 36, further comprising receiving control parameters and user parameters for convolution with distortion parameters. 運動検出及び追跡調査をさらに含む請求項36に記載の方法。   40. The method of claim 36, further comprising motion detection and tracking. センサ及びユーザ入力に従って該複合画像の明るさ、コントラスト、及びサイズを調整することをさらに含む請求項43に記載の方法。   44. The method of claim 43, further comprising adjusting the brightness, contrast, and size of the composite image in accordance with a sensor and user input. 制御入力の集合に従って該ディスプレイシステムをさらに再構成する請求項43に記載の方法。   44. The method of claim 43, further reconfiguring the display system according to a set of control inputs. 制御パラメータのセットに従って該複合画像の該焦点距離をさらに調整する請求項43に記載の方法。   44. The method of claim 43, further adjusting the focal length of the composite image according to a set of control parameters. 関連付けられたカメラ、ディスプレイ光学部品、及び幾何学的歪みパラメータ及び光学的歪みパラメータだけではなく幾何学特性も有するパノラマ視覚システムで使用するための画像プロセッサであって、前記パノラマ視覚システムが場面から画像フレームを捕捉するため、及びデジタル画像データ及び画像センサ入力を生成するための複数の画像獲得装置、及び該デジタル画像データと該画像センサ入力をデジタル画像データに変換するためのデジタイザとを使用し、
(a)該デジタル画像データを受信するため、及び該画像輝度ヒストグラムと該デジタル画像データと関連付けられた該周辺光源レベルを測定するための画像測定装置と、
(b)該カメラ、ディスプレイ光学部品及び幾何学特性、画像輝度ヒストグラム、及び該周辺光源レベルとともに該デジタル画像データを受信するため、輝度不均一性を補正するため、及び該デジタル画像データの中の選択された領域の該輝度範囲を最適化するために該画像測定装置に結合される輝度補正モジュールと、
(c)該画像センサ入力、該カメラ、該ディスプレイ光学部品及び畳み込まれた歪みパラメータを形成するためにその中で関連付けられる幾何学特性と不完全度を含む該幾何学的歪みパラメータ及び光学的歪みパラメータを結合するために該輝度補正モジュールに結合される畳み込み段と、
(d)補正されたデジタル画像データを生成するために、歪み補正変換を生成し、該畳み込まれた歪みパラメータに基づいて歪み補正変換を該デジタル画像データに適用するために、該畳み込み段に結合される歪み補正モジュールと、
(e)該補正されたデジタル画像データから複合画像を合成するために該歪み補正モジュールに結合されるディスプレイコントローラと、
を備える画像プロセッサ。
An image processor for use with an associated camera, display optics, and a panoramic vision system having geometric characteristics as well as geometric distortion parameters and optical distortion parameters, wherein the panoramic vision system images from a scene Using a plurality of image acquisition devices for capturing frames and generating digital image data and image sensor input, and a digitizer for converting the digital image data and the image sensor input into digital image data;
(A) an image measuring device for receiving the digital image data and for measuring the ambient light source level associated with the image luminance histogram and the digital image data;
(B) receiving the digital image data with the camera, display optics and geometric characteristics, image luminance histogram, and ambient light source level, correcting luminance non-uniformity, and in the digital image data A brightness correction module coupled to the image measuring device to optimize the brightness range of a selected region;
(C) the geometric distortion parameters and optical including the geometric characteristics and imperfections associated therein to form the image sensor input, the camera, the display optics, and convolved distortion parameters; A convolution stage coupled to the brightness correction module to combine distortion parameters;
(D) generating a distortion correction transform to generate corrected digital image data, and applying the distortion correction transform to the digital image data based on the convolved distortion parameter; A combined distortion correction module;
(E) a display controller coupled to the distortion correction module to synthesize a composite image from the corrected digital image data;
An image processor.
側面方向色収差歪みを補正するために該デジタル画像データの赤の成分、緑の成分及び青の成分を別々に処理するようにさらに適応される請求項48に記載の画像プロセッサ。   49. The image processor of claim 48, further adapted to separately process a red component, a green component, and a blue component of the digital image data to correct lateral chromatic aberration distortion. 前記輝度補正モジュールが、クロミナンス不均一性を補正するために該デジタル画像データの赤の成分、緑の成分及び青の成分を別々に処理する請求項49に記載の画像プロセッサ。   50. The image processor of claim 49, wherein the brightness correction module processes a red component, a green component, and a blue component of the digital image data separately to correct chrominance non-uniformity. 露光制御コマンドを生成し、画像獲得装置に中継するようにさらに適応される請求項50に記載の画像プロセッサ。   51. The image processor of claim 50, further adapted to generate an exposure control command and relay to an image acquisition device. 歪みパラメータで畳み込むために、制御パラメータとユーザパラメータを受信するようにさらに適応される請求項50に記載の画像プロセッサ。   51. The image processor of claim 50, further adapted to receive control parameters and user parameters for convolution with distortion parameters. 運動検出構成要素と追跡調査構成要素のためにさらに適応される請求項50に記載の画像プロセッサ。   51. The image processor of claim 50, further adapted for a motion detection component and a tracking component. 複数のセンサ及びユーザ入力のセットに従って該合成された画像の明るさ、コントラスト、及びサイズを調整するためにさらに適応される請求項50に記載の画像プロセッサ。   51. The image processor of claim 50, further adapted to adjust the brightness, contrast, and size of the synthesized image according to a set of sensors and user input. 制御入力のセットに従って該ディスプレイシステムを再構成するようにさらに適応される請求項52に記載の画像プロセッサ。   53. The image processor of claim 52, further adapted to reconfigure the display system according to a set of control inputs. 制御パラメータのセットに従って該複合画像の該焦点距離を調整するようにさらに適応される請求項52に記載の画像プロセッサ。   53. The image processor of claim 52, further adapted to adjust the focal length of the composite image according to a set of control parameters.
JP2007523514A 2004-07-26 2004-07-26 Panorama vision system and method Active JP4543147B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2004/023849 WO2006022630A1 (en) 2004-07-26 2004-07-26 Panoramic vision system and method

Publications (2)

Publication Number Publication Date
JP2008507449A true JP2008507449A (en) 2008-03-13
JP4543147B2 JP4543147B2 (en) 2010-09-15

Family

ID=35967743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007523514A Active JP4543147B2 (en) 2004-07-26 2004-07-26 Panorama vision system and method

Country Status (4)

Country Link
EP (1) EP1771811A4 (en)
JP (1) JP4543147B2 (en)
CN (1) CN1985266B (en)
WO (1) WO2006022630A1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106660485A (en) * 2014-06-19 2017-05-10 依维柯股份公司 Back vision system for assisting vehicle driving
JP2017083661A (en) * 2015-10-28 2017-05-18 株式会社リコー Communication system, communication device, communication method, and program
KR101765556B1 (en) * 2016-05-11 2017-08-23 (주)캠시스 Apparatus and method for processing the image according to the velocity of automobile
KR101847825B1 (en) * 2012-05-24 2018-04-12 현대모비스 주식회사 Around View System and Method for Camera Brightness Correction thereof
JP2019014584A (en) * 2017-07-07 2019-01-31 株式会社タダノ Crane truck
JP2019097126A (en) * 2017-11-27 2019-06-20 株式会社東海理化電機製作所 Vehicle vision apparatus and display control method
JP2019097127A (en) * 2017-11-27 2019-06-20 株式会社東海理化電機製作所 Vehicle vision apparatus
US10609306B2 (en) 2016-05-30 2020-03-31 Casio Computer Co., Ltd. Image processing apparatus, image processing method and storage medium
CN111917985A (en) * 2020-08-14 2020-11-10 广东申义实业投资有限公司 Vehicle, method and device for three-dimensional panoramic visual display and storage medium

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2926908A1 (en) * 2008-01-30 2009-07-31 Renault Sas Motor vehicle i.e. car, driving assisting method, involves allocating quality score to each of pixels in each of corrected images, and selecting pixel having high quality in order to elaborate top view of environment of motor vehicle
JP5078148B2 (en) * 2008-03-10 2012-11-21 株式会社リコー Image processing apparatus and image pickup apparatus
CN101252687B (en) * 2008-03-20 2010-06-02 上海交通大学 Method for implementing multichannel combined interested area video coding and transmission
DE102008045007A1 (en) * 2008-08-29 2010-03-04 Man Nutzfahrzeuge Aktiengesellschaft A method for image-based monitoring of a vehicle environment, in particular an environment of a commercial vehicle
GB2471708A (en) * 2009-07-09 2011-01-12 Thales Holdings Uk Plc Image combining with light point enhancements and geometric transforms
JP4970516B2 (en) * 2009-09-30 2012-07-11 日立オートモティブシステムズ株式会社 Surrounding confirmation support device
CN102052916B (en) * 2009-11-04 2013-05-01 沈阳迅景科技有限公司 Method for three-dimensional measurement of panoramic real scenes
EA020247B1 (en) * 2010-02-08 2014-09-30 Общество С Ограниченной Ответственностью "Корпорация "Строй Инвест Проект М" Method and device for determining the speed of travel and coordinates of vehicles and subsequently identifying same and automatically recording road traffic offences
CN102233850A (en) * 2010-05-04 2011-11-09 全福精密科技有限公司 Driving auxiliary device with panoramic and driving recording functions
CN101945287B (en) * 2010-10-14 2012-11-21 浙江宇视科技有限公司 ROI encoding method and system thereof
JP2012144162A (en) * 2011-01-12 2012-08-02 Toyota Motor Corp Travel support apparatus
KR101037547B1 (en) * 2011-03-20 2011-05-26 황승발 A high efficient control system for lighting of cctv camera
US20140019077A1 (en) * 2011-03-28 2014-01-16 Avl Test Systems, Inc. Deconvolution method for emissions measurement
JP5741321B2 (en) * 2011-08-23 2015-07-01 株式会社富士通ゼネラル Driving assistance device
US10284776B2 (en) 2011-11-07 2019-05-07 Sony Interactive Entertainment Inc. Image generation apparatus and image generation method
CN103907341B (en) * 2011-11-07 2017-05-24 索尼电脑娱乐公司 Image generation device, and image generation method
US9894272B2 (en) 2011-11-07 2018-02-13 Sony Interactive Entertainment Inc. Image generation apparatus and image generation method
EP2779621B1 (en) 2011-11-07 2021-12-22 Sony Interactive Entertainment Inc. Image generation device, image generation method and program
JP2013214947A (en) * 2012-03-09 2013-10-17 Ricoh Co Ltd Image capturing apparatus, image capturing system, image processing method, information processing apparatus, and program
US9387813B1 (en) * 2012-03-21 2016-07-12 Road-Iq, Llc Device, system and method for aggregating networks and serving data from those networks to computers
US20130293683A1 (en) * 2012-05-03 2013-11-07 Harman International (Shanghai) Management Co., Ltd. System and method of interactively controlling a virtual camera
KR101937272B1 (en) * 2012-09-25 2019-04-09 에스케이 텔레콤주식회사 Method and Apparatus for Detecting Event from Multiple Image
KR20150082195A (en) * 2012-10-05 2015-07-15 비디노티 에스아 Annotation method and apparatus
DE102012024661A1 (en) * 2012-12-17 2014-06-18 Connaught Electronics Ltd. Method for white balance of an image representation taking into account color values excluding a subset of pixels, camera system and motor vehicle with a camera system
JP2014150476A (en) * 2013-02-04 2014-08-21 Olympus Imaging Corp Photographing apparatus, image processing method, and image processing program
CN103568955A (en) * 2013-09-30 2014-02-12 深圳市领华数据信息有限公司 Car interior glass projection method and system
EP3065390B1 (en) * 2013-10-29 2019-10-02 Kyocera Corporation Image correction parameter output device, camera system, and correction parameter output method
DE102014205511A1 (en) * 2014-03-25 2015-10-01 Conti Temic Microelectronic Gmbh METHOD AND DEVICE FOR DISPLAYING OBJECTS ON A VEHICLE INDICATOR
JP2015186170A (en) 2014-03-26 2015-10-22 ソニー株式会社 Image processing apparatus and image processing method
JP2015207802A (en) 2014-04-17 2015-11-19 ソニー株式会社 Image processor and image processing method
SE538494C2 (en) * 2014-11-07 2016-08-02 BAE Systems Hägglunds AB External perception system and procedure for external perception in combat vehicles
KR101629577B1 (en) * 2014-12-10 2016-06-13 현대오트론 주식회사 Monitoring method and apparatus using a camera
TWI536313B (en) 2015-06-30 2016-06-01 財團法人工業技術研究院 Method for adjusting vehicle panorama system
EP3337166B1 (en) * 2015-08-10 2020-01-01 JVC Kenwood Corporation Vehicular display apparatus and vehicular display method
CN105898338A (en) * 2015-12-18 2016-08-24 乐视致新电子科技(天津)有限公司 Panorama video play method and device
CN108886562B (en) * 2016-03-22 2021-07-13 株式会社理光 Image processing system, image processing method, and computer-readable storage medium
KR102522565B1 (en) 2016-08-31 2023-04-17 삼성전자주식회사 Image display apparatus and operating method for the same
CN108001357A (en) * 2016-10-31 2018-05-08 中交北斗技术有限责任公司 A kind of high accuracy Big Dipper positioning intelligent rearview mirror
WO2018094697A1 (en) * 2016-11-25 2018-05-31 深圳市窝窝头科技有限公司 Fast three-dimensional space projection and photographing visual identification system
CN106775309A (en) * 2016-12-06 2017-05-31 北京尊豪网络科技有限公司 A kind of method and device for showing information of real estate
JP7059522B2 (en) * 2017-06-09 2022-04-26 ソニーグループ株式会社 Control device, control method, program and imaging system
ES2695250A1 (en) * 2017-06-27 2019-01-02 Broomx Tech S L Procedure to project immersive audiovisual content (Machine-translation by Google Translate, not legally binding)
CN109204326B (en) * 2017-06-29 2020-06-12 深圳市掌网科技股份有限公司 Driving reminding method and system based on augmented reality
CN108973860A (en) * 2018-06-27 2018-12-11 北斗星通(重庆)汽车电子有限公司 Vehicle-mounted blind area detection system
JP6857695B2 (en) * 2018-09-14 2021-04-14 シャープ株式会社 Rear display device, rear display method, and program
CN109263652B (en) * 2018-11-14 2020-06-09 江铃汽车股份有限公司 Method for measuring and checking front visual field of driver
CN110796597B (en) * 2019-10-10 2024-02-02 武汉理工大学 Vehicle-mounted all-round image splicing device based on space-time compensation
CN111968184B (en) * 2020-08-24 2024-04-02 北京茵沃汽车科技有限公司 Method, device and medium for realizing view follow-up in panoramic looking-around system
CN116980540A (en) * 2023-07-27 2023-10-31 湖北空间智能技术有限公司 Low-illumination image processing method and device for pod and panoramic pod system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11164292A (en) * 1997-12-01 1999-06-18 Nippon Lsi Card Co Ltd Image generating device, image presentation device, image generating method and image synthetic method
JP2001055100A (en) * 1999-08-18 2001-02-27 Matsushita Electric Ind Co Ltd Multi-function on-board camera system and image display method of multi-function on-board camera system

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5465163A (en) * 1991-03-18 1995-11-07 Canon Kabushiki Kaisha Image processing method and apparatus for processing oversized original images and for synthesizing multiple images
US5289321A (en) * 1993-02-12 1994-02-22 Secor James O Consolidated rear view camera and display system for motor vehicle
US6498620B2 (en) 1993-02-26 2002-12-24 Donnelly Corporation Vision system for a vehicle including an image capture device and a display system having a long focal length
US5699444A (en) * 1995-03-31 1997-12-16 Synthonics Incorporated Methods and apparatus for using image data to determine camera location and orientation
JP3974964B2 (en) * 1996-11-08 2007-09-12 オリンパス株式会社 Image processing device
US5978521A (en) * 1997-09-25 1999-11-02 Cognex Corporation Machine vision methods using feedback to determine calibration locations of multiple cameras that image a common object
EP1044116A2 (en) 1997-12-31 2000-10-18 Gentex Corporation Vehicle vision system
JP3881439B2 (en) * 1998-01-23 2007-02-14 シャープ株式会社 Image processing device
US6163361A (en) * 1999-04-23 2000-12-19 Eastman Kodak Company Digital camera including a printer for receiving a cartridge having security control circuitry
EP1512123B1 (en) * 2002-06-12 2009-10-07 Silicon Optix Inc. System and method for electronic correction of optical anomalies
US20040100565A1 (en) * 2002-11-22 2004-05-27 Eastman Kodak Company Method and system for generating images used in extended range panorama composition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11164292A (en) * 1997-12-01 1999-06-18 Nippon Lsi Card Co Ltd Image generating device, image presentation device, image generating method and image synthetic method
JP2001055100A (en) * 1999-08-18 2001-02-27 Matsushita Electric Ind Co Ltd Multi-function on-board camera system and image display method of multi-function on-board camera system

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101847825B1 (en) * 2012-05-24 2018-04-12 현대모비스 주식회사 Around View System and Method for Camera Brightness Correction thereof
CN106660485A (en) * 2014-06-19 2017-05-10 依维柯股份公司 Back vision system for assisting vehicle driving
JP2017083661A (en) * 2015-10-28 2017-05-18 株式会社リコー Communication system, communication device, communication method, and program
KR101765556B1 (en) * 2016-05-11 2017-08-23 (주)캠시스 Apparatus and method for processing the image according to the velocity of automobile
WO2017195965A1 (en) * 2016-05-11 2017-11-16 (주)캠시스 Apparatus and method for image processing according to vehicle speed
US10783665B2 (en) 2016-05-11 2020-09-22 Cammsys Co., Ltd. Apparatus and method for image processing according to vehicle speed
US10609306B2 (en) 2016-05-30 2020-03-31 Casio Computer Co., Ltd. Image processing apparatus, image processing method and storage medium
JP2019014584A (en) * 2017-07-07 2019-01-31 株式会社タダノ Crane truck
JP2019097126A (en) * 2017-11-27 2019-06-20 株式会社東海理化電機製作所 Vehicle vision apparatus and display control method
JP2019097127A (en) * 2017-11-27 2019-06-20 株式会社東海理化電機製作所 Vehicle vision apparatus
JP7004410B2 (en) 2017-11-27 2022-01-21 株式会社東海理化電機製作所 Vehicle visibility device and display control method
CN111917985A (en) * 2020-08-14 2020-11-10 广东申义实业投资有限公司 Vehicle, method and device for three-dimensional panoramic visual display and storage medium

Also Published As

Publication number Publication date
EP1771811A4 (en) 2010-06-09
CN1985266A (en) 2007-06-20
WO2006022630A1 (en) 2006-03-02
JP4543147B2 (en) 2010-09-15
CN1985266B (en) 2010-05-05
EP1771811A1 (en) 2007-04-11

Similar Documents

Publication Publication Date Title
JP4543147B2 (en) Panorama vision system and method
US7576767B2 (en) Panoramic vision system and method
JP4491453B2 (en) Method and apparatus for visualizing the periphery of a vehicle by fusing infrared and visual images depending on the periphery
AU2022203095B2 (en) Real-time HDR video for vehicle control
US9445011B2 (en) Dynamic rearview mirror adaptive dimming overlay through scene brightness estimation
US9858639B2 (en) Imaging surface modeling for camera modeling and virtual view synthesis
US8643724B2 (en) Multi-camera vision system for a vehicle
US20150042799A1 (en) Object highlighting and sensing in vehicle image display systems
DE112017005807T5 (en) Image processing apparatus and image processing method
US20180188427A1 (en) Color Filter Array for Image Capture Device
JP2008530667A (en) Method and apparatus for visualizing the periphery of a vehicle by fusing infrared and visible images
JP2020056839A (en) Imaging apparatus
JP2020057869A (en) Imaging apparatus
US10455159B2 (en) Imaging setting changing apparatus, imaging system, and imaging setting changing method
WO2020195851A1 (en) Vehicle-mounted camera device, and image distortion correction method for same
KR102235951B1 (en) Imaging Apparatus and method for Automobile
KR20190026507A (en) Imaging Apparatus and method for Automobile
JP2019001325A (en) On-vehicle imaging device
WO2017158829A1 (en) Display control device and display control method
KR20070049109A (en) Panoramic vision system and method
JP4795813B2 (en) Vehicle perimeter monitoring device
DE102013220839A1 (en) Imaging system for car, has processor for dynamically adjusting brightness of captured image based on brightness of virtual image, and rearview mirror display device for displaying brightness adjusted image
JP7384343B2 (en) Image processing device, image processing program
JP2023046965A (en) Image processing system, moving device, image processing method, and computer program
JP4747670B2 (en) Image processing device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100330

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100430

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100510

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20100531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100623

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4543147

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250