JP6674022B2 - 位置合わせされた統合画像を生成する方法、および、複数カメラ車両撮像システム - Google Patents

位置合わせされた統合画像を生成する方法、および、複数カメラ車両撮像システム Download PDF

Info

Publication number
JP6674022B2
JP6674022B2 JP2018523517A JP2018523517A JP6674022B2 JP 6674022 B2 JP6674022 B2 JP 6674022B2 JP 2018523517 A JP2018523517 A JP 2018523517A JP 2018523517 A JP2018523517 A JP 2018523517A JP 6674022 B2 JP6674022 B2 JP 6674022B2
Authority
JP
Japan
Prior art keywords
camera
output image
modified output
image data
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018523517A
Other languages
English (en)
Other versions
JP2018534696A (ja
Inventor
シピトコウスキ,グレッグ
ヘブナー,ミヒャエル
ゲールケ,マーク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of JP2018534696A publication Critical patent/JP2018534696A/ja
Application granted granted Critical
Publication of JP6674022B2 publication Critical patent/JP6674022B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、車両周囲領域の画像を捕捉する車両カメラシステムに関し、この車両カメラシステムは、画像データを車両の運転手に表示し、又は、画像データを用いて別の車両システムを動作させる。
重複する視野を有するカメラからのビデオ又は静止画像データを表示する場合、散漫な不連続性を排除し、且つ統合された画像を提供するために、カメラを位置合わせすることが望ましい。本明細書に記載するシステム及び方法の幾つかが、車両用の複数カメラシステムを提供する。このシステムは、重複視野を有する、車両上の少なくとも2つのカメラと、中央プロセッサとを含む。プロセッサは、カメラから画像データを受信し、画像データを解釈し、隣り合うカメラ間の、初期のカメラ配置からのカメラの向きのミスアライメント(ずれ)を判断する。ミスアライメントが判断されたならば、プロセッサは、両方のカメラからの画像データを含む統合画像を提示するように入力画像を変えることができる。
幾つかの実施例において、本発明のシステムは、車両を上方から見下ろすように配置されたカメラにより捕捉された画像をシミュレートするために、「トップビュー」(“top view”)画像及び/又はビデオデータを作成するように構成される。次いで、トップビュー画像は、車両の運転者に、車両内部に配置されたディスプレイスクリーン上で表示され得る。また、トップビュー画像は、車線逸脱警報システム、バック走行アシストシステム、及びアダプティブクルーズコントロールシステムを含む、その他の自動又は半自動車両システムによっても使用され得る。
一実施形態において、車両上に配置された少なくとも2つのカメラからの画像データを用いて、位置合わせされた統合画像を生成する方法を提供する。前記車両上に配置された第1のカメラから原画像データが受信されて、第1のルックアップテーブルを用いて第1の修正された出力画像に変換される。前記第1ルックアップテーブルは、前記原画像データから、前記第1修正出力画像の各画素に対応する少なくとも1つの画素位置を画定する。前記第1修正出力画像は、前記第1カメラからの原画像データの視点とは異なる視点を有する。また、前記車両上に配置された第2のカメラから原画像データが受信されて、第2のルックアップテーブルを用いて第2の修正された出力画像に変換される。当該第2カメラの視野は、前記第1カメラの視野と部分的に重複している。前記第1修正出力画像と前記第2修正出力画像とを組み合わせることにより、第1の統合された出力画像が生成される。しかし、前記第1修正出力画像からの画像データは、前記第1統合出力画像における前記第2修正出力画像からの画像データに対して位置ずれされている。複数の特徴点が、前記第1修正出力画像及び前記第2修正出力画像の各々にて検出される。前記第1修正出力画像からの特徴点が、前記第2修正出力画像からの特徴点にマッチングされ、前記第1カメラのヨー、ピッチ、ロールが、前記マッチングされた特徴点の位置ずれに基づいて決定される。前記第1ルックアップテーブルが、前記第1カメラの前記決定されたヨー、ピッチ、ロールに基づいて更新される。
別の実施形態において、本発明は、複数カメラ車両撮像システムを提供する。このシステムは、第1のカメラ、第2のカメラ、プロセッサ、及び、メモリを備えている。当該メモリは、第1のルックアップテーブル、第2のルックアップテーブル、及び、コンピュータ実行可能な命令を記憶している。これらの命令は、前記プロセッサにより実行されたときに前記第1カメラ及び第2カメラからの画像データを処理して、位置合わせされた修正画像を作成する。
原画像データが、車両上に配置された前記第1カメラから受信されて、第1のルックアップテーブルを用いて第1の修正された出力画像に変換される。当該第1ルックアップテーブルは、前記原画像データから、前記第1修正出力画像の各画素に対応する少なくとも1つの画素位置を画定する。前記第1修正出力画像は、前記第1カメラからの原画像データの視点とは異なる視点を有する。また、原画像データが前記第2カメラから受信されて、第2の修正出力画像に、第2のルックアップテーブルを用いて変換される。前記第2カメラも前記車両上に配置され、且つ、前記第1カメラの視野と部分的に重複している視野を有する。
前記複数カメラ撮像システムは、第1の統合された出力画像を、前記第1修正出力画像と前記第2修正出力画像とを組み合わせることにより作成する。しかし、前記第1修正出力画像からの画像データは、前記第1統合出力画像における前記第2修正出力画像からの画像データに対して位置ずれされている。複数の特徴点が、前記第1修正出力画像及び前記第2修正出力画像の各々にて検出される。前記第1修正出力画像からの特徴点が、前記第2修正出力画像からの特徴点にマッチングされ、前記第1カメラのヨー、ピッチ、ロールが、前記マッチングされた特徴点の位置ずれに基づいて決定される。前記第1ルックアップテーブルが、前記第1カメラの前記決定されたヨー、ピッチ、ロールに基づいて更新され、その後に画像データを処理するときの使用のために、前記メモリに記憶される。
本発明のその他の態様は、詳細な説明及び添付図面の検討により明らかになろう。
一実施形態による、車両用の複数カメラ撮像システムのブロック図である。 図1Aの複数カメラ撮像システムを備えた車両の俯瞰図である。 図1Aの複数カメラ撮像システムにより生成された、カメラの位置ずれを有するトップビュー画像の一例である。 図1Aの複数カメラ撮像システムにおける、カメラの位置ずれを低減するための方法のフローチャートである。 図1Aの複数カメラ撮像システムにおける、カメラ画像の信号調整を行うための方法のフローチャートである。 図1Aの複数カメラ撮像システムの2つのカメラにより捕捉された、調整されていない画像の一例である。 図4の信号調整方法適用後の、図5Aのカメラ画像の一例である。 図1Aの複数カメラ撮像システムにおける、重複視野を有するカメラの特徴点を検出及びマッチングする方法のフローチャートである。 図1Aのシステムにおける重複視野を有する3つのカメラからのトップビュー修正画像であり、図6の方法に従って検出及びマッチングされた特徴点を強調している図である。 図1Aの複数カメラ撮像システムの、ヨー、ピッチ及びロール調整を決定する方法のフローチャートである。 図1Aの複数カメラ撮像システムにおける、カメラの位置ずれを修正するために更新されたルックアップテーブルを生成する方法のフローチャートである。
本発明のいずれの実施形態も詳細に説明する前に、本発明が、その適用において、以下の説明に記載され又は以下の図面に示される構成要素の構成及び配置の詳細に限定されないことを理解されたい。本発明は、その他の実施形態も可能であり、また、様々な方法で実施又は実行され得る。
複数のハードウェア及びソフトウェアベースのデバイス、並びに、複数の異なる構造の構成要素を、本発明を実施するために使用し得ることに留意されたい。加えて、本発明の実施形態が、ハードウェア、ソフトウェア、及び、電子部品又はモジュールを、考察のために含む場合があり、また、これらの構成要素の大部分が、ハードウェアのみに実装されるかのように図示及び説明され得ることを理解されたい。しかし、当業者は、この詳細な説明を読めば、少なくとも1つの実施形態において、本発明の電子ベースの態様が、1以上のプロセッサにより実行可能なソフトウェア(例えば、非一時的コンピュータ可読媒体に記憶された)に実装され得ることを理解するであろう。従って、複数のハードウェア及びソフトウェアベースのデバイス、並びに、複数の異なる構造の構成要素を、本発明の実施のために使用できることに留意されたい。例えば、本明細書に記載される「制御ユニット」(“control units”)及び「コントローラ」(“controller”)は、1以上のプロセッサ、非一時的コンピュータ可読媒体を含む1以上のメモリモジュール、1以上の入/出力インタフェース、及び、構成要素を接続する様々な接続部(例えば、システムバス)を含み得る。
図1Aは、車両用の複数(マルチプル)カメラ撮像システム100の一例を示す。このシステムは、車両上に取り付け可能な4つのカメラを含む。4つのカメラは、前方カメラ101、後方カメラ103、左側カメラ105、及び、右側カメラ107を含む。図1Bに示されているように、前方カメラ101は車両の前方に(例えば、車両のフロントバンパ付近に)取り付けられて、車両の前方領域を含む視野をもたらし得る。同様に、後方カメラ103は、車両の後部に(例えば、後部ナンバープレートマウント付近に)取り付けられて、車両の後ろの領域を含む視野をもたらし得る。左側カメラ105は、車両の左側(例えば、左側外部リアビューミラーハウジング内)に取り付けられて、車両の左側の領域を含む視野をもたらし得る。右側カメラ107は、車両の右側(例えば、右側外部リアビューミラーハウジング内)に取り付けられて、車両の右側の領域を含む視野をもたらし得る。
幾つかの実施例において、カメラ101,103,105,107は、各カメラの視野角を増大させるための「魚眼」/全方向レンズを備えている。その他の実施例において、より伝統的な「直線的」画像データを捕捉する広角レンズシステムが用いられ得る。しかし、いずれの場合においても、この例におけるカメラ101,103,105,107は、各カメラの視野が、隣接する2つのカメラの視野に部分的に重なるように構成及び配置される。例えば、図1Bに示されているように、前方カメラ101の視野と左側カメラ105の視野とは、関心領域(ROI)の、ROIAの符号を付した領域で重なっている。左側カメラ105の視野と後方カメラ103の視野とは、ROIBの符号を付した領域で重なり、後方カメラ103の視野と右側カメラ107の視野とは、ROICの符号を付した領域で重なり、そして、右側カメラ107の視野と前方カメラ101の視野とは、ROIDの符号を付した領域で重なっている。
図1Aに戻ると、撮像システム100は、4つのカメラ101,103,105,107の各々から画像データを受信する画像処理ユニット109も含む。画像処理ユニット109は、プロセッサ111及びメモリ113を含む。メモリ113は、様々な様式の1以上の非一時的なコンピュータ可読メモリデバイス(例えば、RAM、ROM、ハードディスク、フラッシュなどを含む)を含み得る。メモリ113は命令を記憶し、この命令は、プロセッサにより実行されるときに、画像処理ユニットが、以下に記載する機能を提供することを可能にする。また、メモリ113は、複数のカメラからの生のカメラデータを統合出力画像に変換するために、ルックアップテーブルを含む画像処理システムにより用いられる情報も記憶している。これに関しては、以下にさらに詳細に記載する。
画像処理ユニット109は、接続されたカメラ101,103,105,107のうちの1以上からの画像データを処理するように、そして、出力画像を生成するように構成されている。出力画像は車両の運転者に、車両内部に配置されたディスプレイスクリーン115上で表示される。代替的に又は付加的に、画像処理ユニット109は、画像データを、ローカルに又は遠隔的に配置された別のディスプレイスクリーンに(有線又は無線インタフェースを介して)送信でき、また、画像データに基づいて動作するように構成されたその他の自動又は半自動の車両制御システム117に送信できる。このような車両制御システムは、例えば、車線逸脱警報システム、バック走行アシストシステム、駐車支援システム、及び、その他の様々な自動クルーズ制御システムを含み得る。
幾つかの実施形態において、図1Aの撮像システム100は、各カメラ101,103,105,107からの原画像データを処理し、各カメラからの画像データを「トップビュー」視点に変換するように構成される。その後、トップビューに修正されたこれらの画像は、単一の画像出力に組み立てられる。これは、車両を上から見下ろすように配置されたカメラにより捕捉されるであろう画像をシミュレートするためである。図2は、このような「トップビュー」画像201の一例を示す。「トップビュー」画像201は、画像処理ユニット109により生成されて、ディスプレイスクリーン115に表示される。4つのカメラ101,103,105,107が車両周囲に配置され、且つ、部分的に重複する視野を有するため、捕捉される画像データは、車両周囲の地面の画像データを含む。この画像データは、図2に示されているように、記憶されている車両自体の「トップビュー」画像203と組み合わされる。「トップビュー」画像203は、4つのカメラ101,103,105,107により捕捉された、組み立てられた画像データの中央に挿入されている。
この例において、撮像システム100内の4つのカメラの各々により提供される画像データは、各ビデオ画像が均質なトップビュー(又はその他の組み合わせされた画像)に適切に修正されるための較正パラメータの個数に依存する。これらのパラメータを、2つのカテゴリ、すなわち、内因性パラメータと外因性パラメータに分類できる。
内因性パラメータは、個々のカメラに関連する基本特性であり、カメラレンズ/画像中心点(2D座標m0,n0により定義される)、カメラアスペクト比(ar)、カメラ焦点距離(a0)を含み、魚眼レンズ/全方位レンズにおいては、所定の画像を魚眼レンズ(a)にフィットさせるためのカメラ多項式(polynomial)を含む。外因性パラメータは、カメラの車両上での物理的位置及び取り付けを定義し、カメラの物理的な取り付け位置(X,Y,Z)、及び、カメラの3つの取り付け角度(ヨー、ピッチ、及びロール)を含む。
カメラシステムのための内因性パラメータ及び外因性パラメータの初期値を、較正プロセスにより決定できる。例えば、撮像システム100が装備された車両を、図1Aに示されているように平らな地面のタイル状のグリッド上に配置できる。タイルグリッドは、定義された基準点を含むことができ、各カメラの内因性パラメータ及び外因性パラメータを、タイルグリッド上の定義された基準点の1以上の各カメラの主観的視野に基づいて個々に較正できる。
外因性パラメータ(すなわち、カメラの取り付け位置及び角度)は、タイルグリッド上の基準点に対して較正プロセス中に特定される。これらの基準点間の距離が既知であるため、カメラの絶対的な位置及び角度は、各カメラからの原画像データを「トップビュー」画像データに変換するために使用されるルックアップテーブルを生成するときに決定され得る。ルックアップテーブルの生成には、カメラのパラメータと、xワールド座標基準点及びyワールド座標基準点の各々が、入力として必要である。これらの基準点は、車両の中心に対して、及び地面に沿って定義される。LUT生成アルゴリズムは、「仮想カメラ」(“Virtual Camera”)パラメータ(位置、方向、視野、及びスケールを含む)のセットと、出力画像がどのように見えるかを定義するためのスクリーン出力特性とを使用する。次いで、生成された、ソートされていないLUTが、画像処理ユニット109により使用されるようにソート及び圧縮され、画像処理ユニット109は、各カメラからの原画像データを、「仮想カメラ」の視点から、統合出力画像(例えば、図2の「トップビュー」画像)に変換する。
内因性のカメラパラメータは、一般的に、カメラの寿命を通じて変化せず、従って、製造時又は設置時の較正中に一旦決定されたならば、起動時に又はオンデマンドで画像処理ユニット109に伝送され得る。デジタルシステムの場合、データは、LVDS I2Cバックチャネルを介して送信され得る。アナログシステムの場合、データは、LIN バックチャネル又はオーバーレイメカニズムを介して送信され得る。
カメラの大体の位置及び向きは、カメラが車両に取り付けられ、較正されたときに知られるであろう。しかし、例えば、公差の積み重ねや製品寿命の変化などにより、車両の寿命中にカメラが位置合わせされなくなる場合もある。図2は、左側のカメラが位置ずれ状態にある場合の撮像システム100の出力の例を示す。図2に見られるように、路面上に描かれた線がスクリーン上に表示されたときに、位置ずれを容易に認識させ得る。左側のカメラ画像から描かれた線は、前方カメラから描かれた線に対して領域205にて、及び、後方カメラから描かれた線に対して領域207にて傾いている。この位置ずれは、得られる表示画像の品質に影響を与えるだけでなく、車両の操作が画像データに依存している場合、安全の危険をもたらし得る。
従って、撮像システム100の画像処理ユニット109は、カメラの自動的な位置合わせを提供するように構成される。自動位置合わせは「オンデマンド」式に提供されることができ、従って、自動位置合わせは、例えば製造完成時又は車両点検中にユーザ又は技術者により開始されたときに実行される。或いは、システム100は、撮像システムの出力を連続的に監視するように、且つ、ずれ(タイヤ圧力の変化又は車両負荷の変化などの状況に起因)を補償するための「リアルタイム」で調整するように構成され得る。
図3は、図2に示したような左側カメラ105のカメラの位置ずれを、図1Aの撮像システム100を用いて判断、検出、及び低減するための方法を示す。上述したように、幾つかの実施例において、画像処理ユニット109のメモリ113は、プロセッサ111により実行されたときに画像処理ユニット109に図3の方法を実行させる命令を記憶している。また、メモリ113は、システム100におけるその他のカメラ(前方カメラ101、後方カメラ103、及び右側カメラ107を含む)の位置ずれを判断、検出、及び低減するための命令も記憶している。
画像処理ユニット(IPU)109は、左側カメラ105から原画像データを受信し(ステップ301)、原画像データを、ルックアップテーブル(LUT)を用いてトップビュー画像に変換する(ステップ303)。ルックアップテーブルは、入力画像内の画素位置と、出力画像内の対応する画素位置との関係を明らかにする。このようにして、左側カメラからの原画像は、原画像内の画素位置からの画素データを、出力されるトップビュー画像内の対応する画素位置にコピーすることによりトップビュー画像に変換され得る、次いで、IPU109は、修正されたトップビュー画像内の、前方カメラに重なる関心領域(ROIA)、及び、後方カメラに重なる関心領域(ROIB)を識別し(ステップ305)、画像データ上で信号/画像調整を実行する(トップビュー画像全体に対して、或いは、識別された関心領域に対してのみ)(ステップ307)。これに関して、以下に、より詳細に説明する。
同様に、IPU109は前方カメラから原画像データを受信し(ステップ309)、別のルックアップテーブル(LUT)を用いて原画像データをトップビュー画像に変換し(ステップ311)、修正されたトップビュー画像内の関心領域(左側カメラの、トップビュー画像データにおける重複関心領域(すなわち、ROIA)に対応)を識別し(ステップ313)、そして、同様の信号/画像調整を実行する(ステップ315)。また、IPU109は、後方カメラから原画像データを受信し(ステップ317)、さらに、原画像データをトップビュー画像に、別のルックアップテーブルを用いて変換し(ステップ319)、修正されたトップビュー画像内の関心領域(左側カメラのトップビュー画像データにおける重複関心領域(すなわち、ROIB)に対応)を特定し(ステップ321)、そして、また、同様の信号/画像調整を実行する(ステップ323)。
原画像データをトップビュー修正画像データに変換して信号/画像調整を行った後、前方カメラ及び左側カメラからの、識別された関心領域(ROIA)内の画像データを解析して、画像データ内の特徴点を検出し、抽出し、マッチング(照合)させる(ステップ325)。また、特徴点は、左側カメラ及び後方カメラからのROIB内の画像データにおいても検出され、抽出され、マッチングされる(ステップ327)。重複関心領域における特徴点を検出、抽出、及び照合するための方法の詳細な例を、以下にさらに詳細に説明する。
各重複関心領域内で特徴点が検出及びマッチングされた後、特徴点はフィルタリングされ(ステップ329)、特徴点の限定されたサブセットが各関心領域内で選択される(ステップ331)。以下にさらに詳細に説明するように、この例においては、4つのマッチングされた特徴点が各関心領域にて識別され、左側カメラのための適切なヨー、ピッチ、及びロール調整を解決するために用いられる(ステップ333)。適切なヨー、ピッチ、及びロール調整が決定された後、更新された新しいルックアップテーブルが生成され(ステップ335)、その後、左側カメラからの原画像データをトップビュー画像データに変換するために使用される(ステップ303)。このデータが、統合されたトップビュー画像に組み込まれてディスプレイに表示される。
原画像データを、修正されたトップビュービデオ画像に変換するための上述の方法を用いることは、幾つかの問題を生じ得る。例えば、画像変換プロセスがダウンサンプリングを要求して、可視エイリアシングアーチファクトを引き起こし得る。これらのアーチファクトは、撮像システム100においては幾分低減される。なぜなら、重複領域のみが使用され、重複領域がもたらすダウンサンプリングはさほど重大でないからである。また、フリーランニングカメラは、色及び輝度が適さないことがあり、また、ミスアライメントのために、従来の輝度及びカラーマッチングアルゴリズムでは最適な結果が得られない場合がある。これらの問題を補償するため、及び、対応する特徴点の検出が、両方のカメラからの重複画像データにおいてより容易であることを保証するために、受信される画像データが調整される(図3のステップ307,315,323にて上述したように)。
図4は、このような信号/画像調整の一例を示す。この方法は、調整されていないトップビュー修正画像から開始される(ステップ401)。演算時間を最小限にするために、ビデオデータ(画像全体、又は、重複領域ROIのみの)が、ARGBからグレースケールに変換される(ステップ403)。グレースケールへのこの変換は、また、その他の2つの目的、(すなわち、ビデオデータを、ビデオデータが変化しないように「登録」し、ヒストグラム均等化のために画像データを準備すること)にも役立つ。グレースケールへの変換後、ガウスぼかしフィルタを適用して、エイリアシングアーチファクトの一部を低減する(ステップ405)。幾つかの実施例において、このフィルタリングは、ダウンコンバージョンの前に行われる。最後に、ヒストグラム均等化を実行して、2つのカメラ(すなわち、左側カメラ及び前方カメラ、又は、左側カメラ及び後方カメラ)からの重複画像データを、可能な限り類似させる(ステップ407)。次いで、信号調整されたトップビュー修正画像を、特徴点解析のために伝送する(ステップ409)。
図5Aは、前方カメラ及び左側カメラからのROIAのトップビュー修正画像データの例を示す。図5Bは、図4の信号調整が完了した後の同一画像データを示す。
トップビュー修正画像が調整された後、IPU109は、2つの異なるカメラからの各重複関心領域における特徴点を検出し、抽出し、マッチングさせるルーチンを適用する。図6は、重複する関心領域内の特徴点を検出及びマッチングさせる方法の一例を示す。最初に、前方カメラ、左側カメラ、及び後方カメラからの修正されたトップビュー画像データが、図4を参照して上述したように調整される(それぞれ、ステップ601,ステップ603、及び、ステップ605)。次いで、IPU109は、ORB特徴検出を各カメラ画像に対して実行する(それぞれ、ステップ607、ステップ609、及び、ステップ611)。ORB(Oriented FAST and Rotated BRIEF)は、輝度、ズーム、及びアフィン変換における小さい差異を補償するのに十分なロバストな特徴点検出アルゴリズムである。ORB特徴検出器は、FAST検出アルゴリズムに基づいているが、2つの重複画像間のアフィン差をより良好にサポートするために、特徴点の向き情報も提供する。
特徴点が検出された後、IPU109は、3つのカメラの各々に対し、関心領域にORB記述子抽出アルゴリズムを適用する(それぞれステップ613、ステップ615、及び、ステップ617)。ORB記述子抽出器は、検出された各特徴点に対して32個のバイナリ記述子を提供する。
3つのカメラ画像の各々において特徴点が検出及び抽出された後、各重複関心領域内の特徴点のマッチングが3つのステップで実行される。第1に、重複しているROI内の2つの画像間の最も近い2つの記述子のマッチング(一致)を見つける。最も近い2つのマッチングは、2点間のハミング距離が最小のマッチングである。第2に、これらの距離の比率を、定義された閾値と照合して、一方の点が他方の点よりも著しく良好なマッチングであるかどうかを判断する。その他のカメラ画像における単一の対応する点に「比類なく」マッチングされていない点は破棄される。前方‐左側の重複関心領域と、左側‐後方の重複関心領域とに対し、それぞれ「最近傍」マッチングステップ及び比率マッチングステップ(ステップ619及びステップ621と、ステップ623及びステップ625)が、別々に行われる。2つのマッチングを一致させるために、対称マッチングが行われて、前記両方向のためにどちらのマッチングが存在するかを判断する(ステップ627)。対称マッチングは、カメラAからカメラBへのマッチング点が、カメラBからカメラAへ対応するマッチング点のセットに一致することを保証する。両方向(すなわち、左側‐前方、前方‐左側)にて同一のペアリングが見つけられたならば、このシステムには適切なマッチングが存在すると結論付けられる。
図7は、左側カメラのためのトップビュー修正画像701が、前方カメラのためのトップビュー修正画像703の重複部分及び後方カメラのためのトップビュー修正画像705の重複部分の隣りに配置されている様子の一例を示す。図7には、ステップ607、ステップ609及びステップ611により検出された特徴点が示されている。また、図7は、重複カメラ画像内の「マッチング」(“matched”)点を結ぶ線も示している。
図6の例におけるアルゴリズムは、多数の特徴点を獲得し、次いで、マッチング作業により「悪い」特徴点を除去するように設計されている。或いは、検出/マッチングアルゴリズムは、特徴点の識別において、より選択的であるように、そして、より緩い「マッチング」要件を適用するように適合され得る。しかし、アルゴリズムが、識別力がより低いマッチング(取得ごとのマッチングがより多くなる)を許容するように調整される場合、IPU109は、信頼性のある結果を保証するために、ヒストグラム外れ値のフィルタリングを適用するように構成され得る(例えば、図3のステップ329参照)。ヒストグラム外れ値フィルタリングは、各マッチングされた点のペアにおける距離ΔX及びΔYに基づいて粗いヒストグラムを構築することにより実行される。外れ点(すなわち、最大ヒストグラムビンから最も離れた点)は分析から除外される。フィルタリングが実行されたならば、各領域関心における4つの極端なマッチング点(すなわち、フィルタリング後に残っている、互いに最も離れた位置にある4つのマッチング点)が選択されて(図3のステップ331を参照)、カメラのヨー、ピッチ、及びロールを決定するために用いられる。
マッチング特徴点が識別されて、各ROI内の4つの極端なマッチング点が識別された後、IPU109は、識別された極端なマッチング点の使用を開始して、左側カメラの適切なヨー、ピッチ及びロールの値を求める。図8は、YPRの値を求める方法の一例を示す。各カメラのマッチング特徴点間のユークリッド誤差を最小限にすることが、カメラのヨー、ピッチ、ロールの値を求めることの基本前提である。YPRの値を求める第1の部分は、粗い反復である。この粗い反復を、ヨー、ピッチ及びロール調整の全範囲にわたって繰り返して、近似解(すなわち、誤差は最小)を見つける(ステップ801)。この粗い近似が得られたならば(ステップ803)、非線形最適化が実行されて、初期近似が精緻化される(ステップ805)。これは、位置合わせ点と位置ずれ点との平均二乗誤差(MSE)の最小化(ステップ807)により行われ、このステップは、精緻化された位置合わせ解が特定される(ステップ809)まで続けられる。
左側カメラのヨー、ピッチ及びロール(YPR)が決定されたならば、IPU109は、決定されたYPRに基づいて、更新されたLUTを生成する(例えば、図3のステップ335を参照)。更新されたLUTは、LUTが左側カメラからの原画像データを変換するために使用されるときに、トップビュー修正画像が前方カメラ画像データ及び後方カメ画像データと適切に位置合わせされるように構成される。図9に示されているように、IPU109は、最初に、ソートされていないLUTを生成する(ステップ901)。IU109は、事前定義された特性(例えば、カメラの内因性パラメータ及び外因性パラメータ、基準点、仮想カメラパラメータ、並びに、スクリーン出力パラメータ)を使用するLUT生成アルゴリズムを実行して、結果として得られるトップビュー画像内の各出力画素を作成するために、どの入力ストリーム画素を用いるべきかを決定する。ソートされていないLUTを作成することは、幾つかの点で、修正の逆変換である。この段階の出力は「ソートされていない」(“unsorted”)LUTであり、このLUTが、出力画素及び対応する入力画素に関して定義される。
LUT生成の第2のステップ(ステップ903)は、「ソートされていない」LUTを、入力画素順序に関してソートすることである。「ソートされた」(“sorted”)LUTは、画像処理ハードウェアが入力ビデオストリームの修正を最も迅速に実行できるように最適化されるように、順序付けられている。次いで、ソートされたLUTは、適切に初期化される(ステップ905)。そして、ソート及び初期化されたLUTは、最後に、メモリ帯域幅要件を最小限にするために、また、入力データを、メモリに効率的に書き込まれ得るようにフレーム化するために圧縮される(ステップ907)。
上述の例は、左側カメラの位置合わせについて具体的に言及しているが、上述のように、幾つかの実施例において、IPU109は、撮像システム100におけるその他のカメラの位置ずれも同様に判断及び低減するように構成される。例えば、幾つかの実施例において、IPU109は、2つの隣接するカメラ間の位置ずれを検出するように構成される。位置ずれが検出されたならば、IPU109は、各カメラがその他の隣接するカメラと位置合わせされているかどうかを判断する。例えば、位置ずれが左側カメラと前方カメラとの間で検出された場合、IPU109は、左側カメラと後方カメラとの位置ずれをチェックし、また、前方カメラと右側カメラとの位置ずれをチェックする。IPU109が、左側カメラは後方カメラと適切に位置合わせされているが、前方カメラは右側カメラと位置ずれしていると判断した場合、IPU109は、前方カメラの位置がずれていると結論付け、図3の位置合わせ方法を実行して、前方カメラのための更新されたLUTを生成する。
また、上述の例は、4つのカメラシステムについて論じているが、その他の実施例において、本明細書に記載した方法及びシステムを、より多数の又はより少数のカメラを有するシステムに適合させることもできる。
また、上述の例は、トップビュー出力画像を生成するように構成されたシステムを具体的に論じているが、その他の実施例において、撮像システム100が、別のタイプの統合画像出力を、重複視野を有する複数のカメラからの画像データを組み合わせることにより生成するように構成され得る。例えば、本発明のシステムを、「トップビュー」画像の代わりに周囲全景(パノラマサラウンドビュー)を作成するように構成し得る。
最後に、本明細書に記載された例の多くにおいて、カメラの位置ずれが、「仮想カメラ」の位置を定義するために用いられるヨー、ピッチ、及びロールを調節することにより低減されることに留意されたい。すなわち、幾つかの実施例において、位置ずれ状態を修正するために、物理的なカメラ自体は移動されない場合がある。その代わりに、LUTが調整され、この調整は、カメラからの原画像データを変換するためにLUTが用いられるときにトップビュー画像データが適切に位置合わせされているように行われる。しかし、その他の実施例において、撮像システム100は、撮像システム100における1以上のカメラの物理的位置及び/又は向きを制御可能に調整するための機構(例えばモータ)も含み得る。このような実施例においては、本発明のシステムは、位置ずれしているカメラの物理的な位置又は向きを、図3のステップ333にて決定されたヨー、ピッチ、及びロールの調整に基づいて調整するように構成され得る。そして、LUTが、物理的に調整されたカメラからの出力画像データの位置合わせを「微調整」(“fine tune”)するためにさらに調整されてもよい。
従って、本発明は、特に、重複視野を有する複数のカメラからの画像データに基づいた、統合された出力画像を生成するためのシステム及び方法を開示する。この画像生成は、各カメラからの原画像を、ルックアップテーブルを用いて、修正された出力画像に変換することにより行われる。また、本発明のシステム及び方法は、カメラの位置ずれを、特徴点の検出及びマッチングに基づいて更新されたルックアップテーブルを作成することにより低減する。本発明の様々な特徴及び利点を、以下の特許請求の範囲に記載する。
100 撮像システム
101 前方カメラ
103 後方カメラ
105 左側カメラ
107 右側カメラ
ROIA 重複領域
ROIB 重複領域
ROIC 重複領域
ROID 重複領域
203 トップビュー画像
701 左側カメラのためのトップビュー修正画像
703 前方カメラのためのトップビュー修正画像
705 後方カメラのためのトップビュー修正画像

Claims (14)

  1. 車両上に配置された少なくとも2つのカメラからの画像データを用いて、位置合わせされた統合画像を生成する方法であって、
    前記方法が、
    前記車両上に配置された第1カメラから原画像データを受信するステップと、
    前記第1カメラからの前記原画像データを、第1ルックアップテーブルを用いて第1修正出力画像に変換するステップであって、前記第1ルックアップテーブルが、前記原画像データから、前記第1修正出力画像の各画素に対応する少なくとも1つの画素位置を画定し、前記第1修正出力画像が、前記第1カメラからの原画像データの視点とは異なる視点を有するステップと、
    前記車両上に配置された第2カメラから原画像データを受信するステップと、
    を含み、
    当該第2カメラの視野が前記第1カメラの視野と部分的に重複しており、
    前記方法が、さらに、
    前記第2カメラからの原画像データを、第2ルックアップテーブルを用いて第2修正出力画像に変換するステップと、
    前記第1修正出力画像と前記第2修正出力画像とを組み合わせることにより第1統合出力画像を生成するステップと、
    を含み、
    前記第1統合出力画像における前記第1修正出力画像からの画像データが、前記第1統合出力画像における前記第2修正出力画像からの画像データに対して位置ずれされており、
    前記方法が、さらに、
    前記第1修正出力画像における複数の特徴点、及び、前記第2修正出力画像における複数の特徴点を検出するステップと、
    前記第1修正出力画像における前記複数の特徴点の各特徴点を、前記第2修正出力画像における前記複数の特徴点の対応する特徴点にマッチングさせるステップと、
    関心領域内において互いに最も離れているマッチングされた規定数の特徴点を識別するステップと、
    前記第1カメラのヨー、ピッチ、及びロールを、前記識別された、マッチングされた前記規定数の特徴点のみの位置ずれに基づいて決定するステップと、
    前記第1ルックアップテーブルを、前記決定された前記第1カメラのヨー、ピッチ、ロールに基づいて更新するステップと
    を含む、
    法。
  2. 前記方法が、さらに、
    前記第1カメラからさらなる原画像データを受信するステップと、
    前記第1カメラからの前記さらなる原画像データを、第3修正出力画像に、前記更新された第1ルックアップテーブルを用いて変換するステップと、
    前記第2カメラからさらなる原画像データを受信するステップと、
    前記第2カメラからの前記さらなる原画像データを、第4修正出力画像に、前記第2ルックアップテーブルを用いて変換するステップと、
    前記第3修正出力画像と前記第4修正出力画像とを組み合わせることにより、第2統合出力画像を生成するステップと、
    を含み、
    当該第2統合出力画像における、前記第3修正出力画像からの画像データが、前記第4修正出力画像からの画像データに対して適切に位置合わせされており、
    前記第3修正出力画像の適切な位置合わせが、前記第1ルックアップテーブルの前記更新により達成される、
    請求項1に記載の方法。
  3. 前記第1カメラの物理的な位置が、前記第1統合出力画像の生成と前記第2統合出力画像の生成との間で変化しない、
    請求項2に記載の方法。
  4. さらなる原画像データを前記第1カメラから受信するステップが、前記第1カメラからビデオ画像データを受信するステップを含み、
    さらなる原画像データを前記第2カメラから受信するステップが、前記第2カメラからビデオ画像データを受信するステップを含み、
    前記方法が、さらに、前記第1カメラからの修正されたビデオ画像データを、前記2カメラからの修正されたビデオ画像データと組み合わせることにより、統合されたビデオ出力を生成するステップを含む、
    請求項2に記載の方法。
  5. 前記方法が、さらに、前記統合されたビデオ出力を、前記車両内部に配置されたディスプレイスクリーン上に表示するステップを含む、
    請求項4に記載の方法。
  6. 前記方法が、さらに、前記第1修正出力画像及び前記第2修正出力画像を、前記複数の特徴点を検出する前に調整するステップを含む、
    請求項1に記載の方法。
  7. 前記第1修正出力画像及び前記第2修正出力画像を調整するステップが、
    前記第1修正出力画像及び前記第2修正出力画像をグレースケールに変換するステップと、
    前記第1修正出力画像及び前記第2修正出力画像にヒストグラム均等化を実行するステップと
    を含む、
    請求項6に記載の方法。
  8. 前記方法が、さらに、前記車両上に配置された第3カメラから原画像データを受信するステップを含み、
    当該第3カメラの視野が前記第2カメラの視野と部分的に重複しており、
    前記方法が、さらに、
    前記第3カメラからの前記原画像データを、第3ルックアップテーブルを用いて第3修正出力画像に変換するステップと、
    前記車両上に配置された第4カメラから原画像データを受信するステップと、
    を含み、
    当該第4カメラの視野が前記第3カメラの視野と部分的に重複し、且つ、前記第1カメラの視野と部分的に重複しており、
    前記方法が、さらに、前記第4カメラからの前記原画像データを、第4ルックアップテーブルを用いて第4修正出力画像に変換するステップを含み、
    前記第1統合出力画像を生成するステップでは、前記第1修正出力画像と、前記第2修正出力画像と、前記第3修正出力画像と、前記第4修正出力画像とを組み合わせることにより前記第1統合出力画像生成される
    請求項1に記載の方法。
  9. 前記第1修正出力画像の視点が、前記車両の上に配置された仮想カメラのトップビュー視点であり、
    前記第1統合出力画像が、前記車両及び前記車両周囲領域のトップダウンビューを含む、
    請求項8に記載の方法。
  10. 前記第1カメラ、前記第2カメラ、前記第3カメラ、及び前記第4カメラの組が、前記車両の前端に取り付けられたカメラ、前記車両の左側に取り付けられたカメラ、前記車両の右側に取り付けられたカメラ、及び、前記車両の後端に取り付けられたカメラを含む、
    請求項8に記載の方法。
  11. 前記第1修正出力画像における複数の特徴点、及び、前記第2修正出力画像における複数の特徴点を検出するステップが、さらに、前記第1修正出力画像におけるさらなる複数の特徴点を検出するステップを含み、
    前記第1修正出力画像における前記特徴点を、前記第2修正出力画像における対応する特徴点にマッチングさせるステップが、前記さらなる複数の特徴点の特徴点を、前記第2修正出力画像における前記複数の特徴点のうちの前記検出された特徴点のいずれにもマッチングさせることができず、
    前記方法が、さらに、前記第1修正出力画像における、前記マッチングされなかった前記さらなる複数の特徴点を、前記第1カメラのヨー、ピッチ、及びロールを決定する前にフィルタリングするステップを含む、
    請求項1に記載の方法。
  12. 前記第1修正出力画像における前記複数の特徴点の各特徴点を、前記第2修正出力画像における前記複数の特徴点の前記対応する特徴点にマッチングさせるステップが、
    前記第1修正出力画像における前記複数の特徴点の各特徴点に対し、前記第1修正出力画像からの前記特徴点に最初にマッチする、前記第2修正出力画像における前記複数の特徴点の特徴点を識別することにより行われる第1初期マッチングステップを実行するステップと、
    前記第2修正出力画像における前記複数の特徴点の各特徴点に対し、前記第2修正出力画像からの前記特徴点に最初にマッチする、前記第1修正出力画像における前記複数の特徴点の特徴点を識別することにより行われる第2初期マッチングステップを実行するステップと、
    前記第1初期マッチングステップによりマッチングされた1対の特徴点が前記第2初期マッチングステップによってもマッチングされることを確認するステップと
    を含む、
    請求項1に記載の方法。
  13. 前記マッチングされた規定数の特徴点が、マッチングされた4つの特徴点であり、
    前記第1カメラのヨー、ピッチ、及びロールを決定するステップが、前記第1カメラのヨー、ピッチ、及びロールを、前記識別された、マッチングされた前記4つの特徴点のみの位置ずれに基づいて決定する、
    請求項に記載の方法。
  14. 複数カメラ車両撮像システムであって、
    車両上に配置可能な第1カメラと、
    前記第1カメラの視野と部分的に重複している視野を有する、車両上に配置可能な第2カメラと、
    プロセッサと、
    前記プロセッサにより実行される、前記複数カメラ車両撮像システムに対する命令を記憶する非一時的なコンピュータ可読メモリと
    を備え、
    前記命令が、
    前記第1カメラから原画像データを受信させ、
    前記第1カメラからの前記原画像データを第1修正出力画像に、前記非一時的なコンピュータ可読メモリに記憶された第1ルックアップテーブルを用いて変換させ、
    当該第1ルックアップテーブルが、前記原画像データから、前記第1修正出力画像の各画素に対応する少なくとも1つの画素位置を画定し、前記第1修正出力画像が、前記第1カメラからの原画像データの視点とは異なる視点を有し、
    前記命令が、さらに、
    前記第2カメラから原画像データを受信させ、
    前記第2カメラからの前記原画像データを第2修正出力画像に、第2ルックアップテーブルを用いて変換させ、
    第1統合出力画像を、前記第1修正出力画像と前記第2修正出力画像とを組み合わせることにより作成させ、
    前記第1統合出力画像における前記第1修正出力画像からの画像データが、前記第1統合出力画像における前記第2修正出力画像からの画像データに対して位置ずれされており、
    前記命令が、さらに、
    前記第1修正出力画像における複数の特徴点、及び、前記第2修正出力画像における複数の特徴点を検出させ、
    前記第1修正出力画像における前記複数の特徴点の各々を、前記第2修正出力画像における、前記複数の特徴点のうちの対応する特徴点にマッチングさせ、
    関心領域内において互いに最も離れているマッチングされた規定数の特徴点を識別させ、
    前記第1カメラのヨー、ピッチ、及びロールを、前記識別された、マッチングされた前記規定数の特徴点のみの位置ずれに基づいて決定させ、且つ、
    前記第1カメラの前記決定されたヨー、ピッチ、及びロールに基づいて前記第1ルックアップテーブルを更新させる、
    複数カメラ車両撮像システム。
JP2018523517A 2015-11-12 2016-10-14 位置合わせされた統合画像を生成する方法、および、複数カメラ車両撮像システム Active JP6674022B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/939,149 US9950669B2 (en) 2015-11-12 2015-11-12 Vehicle camera system with multiple-camera alignment
US14/939,149 2015-11-12
PCT/EP2016/074688 WO2017080753A1 (en) 2015-11-12 2016-10-14 Vehicle camera system with multiple-camera alignment

Publications (2)

Publication Number Publication Date
JP2018534696A JP2018534696A (ja) 2018-11-22
JP6674022B2 true JP6674022B2 (ja) 2020-04-01

Family

ID=57184420

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018523517A Active JP6674022B2 (ja) 2015-11-12 2016-10-14 位置合わせされた統合画像を生成する方法、および、複数カメラ車両撮像システム

Country Status (6)

Country Link
US (1) US9950669B2 (ja)
EP (1) EP3374965B1 (ja)
JP (1) JP6674022B2 (ja)
KR (1) KR102069494B1 (ja)
CN (1) CN108352057B (ja)
WO (1) WO2017080753A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015013685A1 (en) 2013-07-25 2015-01-29 Convida Wireless, Llc End-to-end m2m service layer sessions
DE102015223175A1 (de) * 2015-11-24 2017-05-24 Conti Temic Microelectronic Gmbh Fahrerassistenzsystem mit adaptiver Umgebungsbilddatenverarbeitung
KR101766077B1 (ko) * 2015-12-08 2017-08-07 현대자동차주식회사 차량 주변 영상 정보 제공 시스템 및 방법
US10956766B2 (en) 2016-05-13 2021-03-23 Vid Scale, Inc. Bit depth remapping based on viewing parameters
US11503314B2 (en) 2016-07-08 2022-11-15 Interdigital Madison Patent Holdings, Sas Systems and methods for region-of-interest tone remapping
US10580135B2 (en) 2016-07-14 2020-03-03 Shanghai United Imaging Healthcare Co., Ltd. System and method for splicing images
EP3488615A1 (en) * 2016-07-22 2019-05-29 VID SCALE, Inc. Systems and methods for integrating and delivering objects of interest in video
KR102538592B1 (ko) * 2016-08-31 2023-05-31 현대모비스 주식회사 탑-뷰 영상 생성 장치 및 그 방법
WO2018097947A2 (en) 2016-11-03 2018-05-31 Convida Wireless, Llc Reference signals and control channels in nr
WO2018152437A1 (en) 2017-02-17 2018-08-23 Vid Scale, Inc. Systems and methods for selective object-of-interest zooming in streaming video
WO2018164911A1 (en) 2017-03-07 2018-09-13 Pcms Holdings, Inc. Tailored video streaming for multi-device presentations
SG11201907103QA (en) * 2017-08-25 2019-08-27 Maker Trading Pte Ltd Stereo machine vision system and method for identifying locations of natural target elements
AU2018333452A1 (en) * 2017-09-13 2020-04-30 Robert Bosch Gmbh User interface for reversing a trailer with automated steering system
JP2019180016A (ja) * 2018-03-30 2019-10-17 パナソニックIpマネジメント株式会社 画像合成装置、画像合成方法及びプログラム
TWI687064B (zh) * 2018-04-25 2020-03-01 凌通科技股份有限公司 通用序列匯流排連接埠之影像資料傳輸方法以及使用其之雙鏡頭行車記錄器
US20190347822A1 (en) * 2018-05-11 2019-11-14 Qualcomm Incorporated Automatic determination and calibration for spatial relationship between multiple cameras
CN110654382A (zh) * 2018-06-28 2020-01-07 比亚迪股份有限公司 车道偏航预警系统的标定方法、标定系统及车辆
CN108961155B (zh) * 2018-07-13 2023-06-27 惠州市德赛西威汽车电子股份有限公司 一种高保真的鱼眼镜头畸变校正方法
CN112753265A (zh) 2018-09-27 2021-05-04 康维达无线有限责任公司 新无线电的未经许可的频谱中的子频带操作
CN109389650B (zh) * 2018-09-30 2021-01-12 京东方科技集团股份有限公司 一种车载相机的标定方法、装置、车辆和存储介质
KR20200055596A (ko) * 2018-11-13 2020-05-21 삼성전자주식회사 차량에 탑재되는 단말 장치가 영상을 전송하는 방법 및 차량의 주행을 제어하는 원격 제어 장치가 영상을 수신하는 방법
EP3924866A1 (en) * 2019-02-15 2021-12-22 Toyota Motor Europe Systems and methods for image normalization
US10997737B2 (en) * 2019-05-02 2021-05-04 GM Global Technology Operations LLC Method and system for aligning image data from a vehicle camera
CN112837227B (zh) * 2019-11-22 2023-07-04 杭州海康威视数字技术股份有限公司 一种参数校正方法、装置、系统、电子设备及存储介质
EP3905655A1 (en) 2020-04-30 2021-11-03 Motherson Innovations Company Ltd. Method for aligning a camera of a vehicle camera monitor system and vehicle
US20230360317A1 (en) * 2022-05-04 2023-11-09 Microsoft Technology Licensing, Llc Digital image sub-division

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6891563B2 (en) 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
US7565029B2 (en) * 2005-07-08 2009-07-21 Seiko Epson Corporation Method for determining camera position from two-dimensional images that form a panorama
JP2008187564A (ja) 2007-01-31 2008-08-14 Sanyo Electric Co Ltd カメラ校正装置及び方法並びに車両
JP5132249B2 (ja) 2007-10-23 2013-01-30 アルパイン株式会社 車載用撮像装置
JP5439890B2 (ja) 2009-03-25 2014-03-12 富士通株式会社 画像処理方法、画像処理装置及びプログラム
CN101626513A (zh) * 2009-07-23 2010-01-13 深圳大学 全景视频生成方法及系统
GB2472793B (en) * 2009-08-17 2012-05-09 Pips Technology Ltd A method and system for measuring the speed of a vehicle
US9491450B2 (en) 2011-08-01 2016-11-08 Magna Electronic Inc. Vehicle camera alignment system
US9538144B2 (en) 2012-05-02 2017-01-03 GM Global Technology Operations LLC Full speed lane sensing using multiple cameras
JP5923422B2 (ja) * 2012-09-24 2016-05-24 クラリオン株式会社 カメラのキャリブレーション方法及び装置
CN102937816B (zh) * 2012-11-22 2015-05-27 四川华雁信息产业股份有限公司 摄像机预置位偏差校准方法及装置
US10179543B2 (en) 2013-02-27 2019-01-15 Magna Electronics Inc. Multi-camera dynamic top view vision system
US9384551B2 (en) * 2013-04-08 2016-07-05 Amazon Technologies, Inc. Automatic rectification of stereo imaging cameras
CN103338325A (zh) * 2013-06-14 2013-10-02 杭州普维光电技术有限公司 基于全景摄像机的车底盘图像采集方法
US20160176343A1 (en) * 2013-08-30 2016-06-23 Clarion Co., Ltd. Camera Calibration Device, Camera Calibration System, and Camera Calibration Method
US9892493B2 (en) * 2014-04-21 2018-02-13 Texas Instruments Incorporated Method, apparatus and system for performing geometric calibration for surround view camera solution
CN104268867B (zh) * 2014-09-22 2017-12-12 国家电网公司 一种自适应的鱼眼镜头快速校正方法
US9986150B2 (en) * 2015-09-30 2018-05-29 Ricoh Co., Ltd. Algorithm to estimate yaw errors in camera pose

Also Published As

Publication number Publication date
EP3374965B1 (en) 2020-03-25
CN108352057B (zh) 2021-12-31
KR20180067612A (ko) 2018-06-20
KR102069494B1 (ko) 2020-01-28
CN108352057A (zh) 2018-07-31
US9950669B2 (en) 2018-04-24
EP3374965A1 (en) 2018-09-19
WO2017080753A1 (en) 2017-05-18
JP2018534696A (ja) 2018-11-22
US20170136948A1 (en) 2017-05-18

Similar Documents

Publication Publication Date Title
JP6674022B2 (ja) 位置合わせされた統合画像を生成する方法、および、複数カメラ車両撮像システム
US9892493B2 (en) Method, apparatus and system for performing geometric calibration for surround view camera solution
US9621798B2 (en) Grid-based image resolution enhancement for video processing module
US9533618B2 (en) Method, apparatus and system for processing a display from a surround view camera solution
CN106101635B (zh) 车辆周围影像处理方法及装置
EP2551817B1 (en) Vehicle rear view camera system and method
US9984444B2 (en) Apparatus for correcting image distortion of lens
US10026158B2 (en) Imaging device
CN114765667A (zh) 用于多视图拼接的固定图案校准
US11417080B2 (en) Object detection apparatus, object detection method, and computer-readable recording medium
JP2020038101A (ja) 画像処理装置、運転支援システム、画像処理方法及びプログラム
US11373282B2 (en) Image processing apparatus and method
JP5305750B2 (ja) 車両周辺表示装置およびその表示方法
JP2018526922A (ja) グレア検出方法及び装置
KR101230909B1 (ko) 차량용 광각 영상 처리장치 및 그 방법
CN114663521A (zh) 一种用于辅助泊车的环视拼接处理方法
KR20190054703A (ko) 듀얼 카메라 영상 화질 보정 방법
CN107403404A (zh) 车辆的三维环景系统及其方法
KR101708620B1 (ko) Avm 시스템의 카메라 공차 보정 방법 및 장치
CN107621743B (zh) 投影系统及投影影像的变形修正方法
CN111133439B (zh) 全景监视系统
US10303974B1 (en) Approximate cross-check for real-time feature matching
CN204652529U (zh) 车辆环绕视频处理系统
CN109993686A (zh) 一种辅助驾驶的六分割环景系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180508

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190419

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190705

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200305

R150 Certificate of patent or registration of utility model

Ref document number: 6674022

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250