JP7448921B2 - リアビュー可視化のためのリアスティッチされたビューパノラマ - Google Patents

リアビュー可視化のためのリアスティッチされたビューパノラマ Download PDF

Info

Publication number
JP7448921B2
JP7448921B2 JP2022057110A JP2022057110A JP7448921B2 JP 7448921 B2 JP7448921 B2 JP 7448921B2 JP 2022057110 A JP2022057110 A JP 2022057110A JP 2022057110 A JP2022057110 A JP 2022057110A JP 7448921 B2 JP7448921 B2 JP 7448921B2
Authority
JP
Japan
Prior art keywords
seam
image
transformed
calculating
cost
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022057110A
Other languages
English (en)
Other versions
JP2022095776A (ja
Inventor
シュアイアン パン ジャニス
ヴィジャヤンバブ アッピア ヴィクラム
Original Assignee
テキサス インスツルメンツ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テキサス インスツルメンツ インコーポレイテッド filed Critical テキサス インスツルメンツ インコーポレイテッド
Publication of JP2022095776A publication Critical patent/JP2022095776A/ja
Application granted granted Critical
Publication of JP7448921B2 publication Critical patent/JP7448921B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/31Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing stereoscopic vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/107Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using stereoscopic cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8046Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for replacing a rear-view mirror system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8066Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring rearward traffic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits

Description

本願は、一般に、車両におけるリアビュー可視化に関する。
たいていの現在の車両において、運転者が得られる、車両の側部及び後ろの利用可能な視野(FOV)は、サイドビューミラー及びリアビューミラーにおいて見ることができるものに制限される。しかし、従来の三面ミラーシステムは安全上の懸念がある。なぜなら、運転者が、リアビューFOVの充分な可視化を得るため、各ミラーを一瞥するために注意を移すことが必要とされ、このことが、車両の前方におけるシーンから注意を逸らすからである。カメラモニタリングシステム(CMS)がますます利用可能になってきているが、これらのシステムは、単に、そうしたミラーをカメラで置き換えただけであり、それにより、依然として運転者は、ディスプレイ間で注意を移してから、リアFOV全体の総合したビューを頭の中で互いに繋ぎ合わせる必要がある。また、サイドミラー/カメラの角度が、車両の側部を含む典型的な位置に調整される場合、側部FOVのすぐ外側に死角が残り、運転者はこれらの死角を確認するために肩越しに見なければならないので、付加的な安全上の危険がもたらされる。
一態様において、リアスティッチされたビューパノラマ(RSVP、rear-stitched view panorama)システムが、少なくとも一つのプロセッサ、及び、ソフトウェア命令をストアするメモリを含む。ソフトウェア命令は、少なくとも一つのプロセッサによって実行されるとき、RSVPシステムに、左中央後方画像及び右中央後方画像のためのディスパリティマップを計算させ、右後方画像と、左後方画像と、左中央後方画像及び右中央後方画像の基準中央後方画像と、ディスパリティマップとを、仮想カメラパラメータを用いて仮想ワールドビューに変換させ、変換されたディスパリティマップに基づいて、変換された左後方画像と変換された基準中央後方画像との間の最適の左シームを計算させ、変換されたディスパリティマップに基づいて、変換された右後方画像と変換された基準中央後方画像との間の最適の右シームを計算させ、パノラマを生成するために、最適の左シームに基づいて、変換された左後方画像と変換された基準中央後方画像とを、及び、最適の右シームに基づいて、変換された右後方画像と変換された基準中央後方画像とをスティッチする。左中央後方画及び右中央後方画像は、車両の後方に搭載されたステレオカメラによって捕捉されている。右後方画像は車両の右側に搭載された右カメラによって捕捉され、左後方画像は車両の左側に搭載された左カメラによって捕捉されている。
一態様において、リアスティッチされたビューパノラマを生成するための方法が、左中央後方画像及び右中央後方画像のためのディスパリティマップを計算すること、右後方画像と、左後方画像と、左中央後方画像及び右中央後方画像の一つの基準中央後方画像と、ディスパリティマップとを、仮想カメラパラメータを用いて仮想ワールドビューに変換すること、変換されたディスパリティマップに基づいて、変換された左後方画像と変換された基準中央後方画像との間の最適の左シームを計算すること、変換されたディスパリティマップに基づいて、変換された右後方画像と変換された基準中央後方画像との間の最適の右シームを計算すること、及び、パノラマを生成するために、最適の左シームに基づいて、変換された左後方画像と変換された基準中央後方画像とを、及び、最適の右シームに基づいて、変換された右後方画像と変換された基準中央後方画像とをスティッチすることを含む。左中央後方画像は、車両の後方に搭載されたステレオカメラによって捕捉される。右後方画像は、車両の右側に搭載された右カメラによって捕捉され、左後方画像は、車両の左側に搭載された左カメラによって捕捉される。
リアスティッチされたビューパノラマ(RSVP)システムを含む例示の車両の上面図である。
図1のRSVPシステムの簡略化されたブロック図である。
図1の車両の周りの3つのキャリブレーションチャートの例示の配置を示す図である。
図2のRSVPシステムによって実装され得るリアスティッチされたビューパノラマの生成のための方法のフローチャートである。
捕捉された画像の例示のセットである。
仮想ディスプレイ面上に右ミラー画像を投影する例示の可視化である。
射影変換(projective transform)を計算するための方法のフローチャートである。
パノラマにおける左、中央、及び右画像に対応する領域を図示する一例である。
図5の変換された画像を示す。
二つの画像を共にスティッチするための最小コストシームを見つけるための方法のフローチャートである。
最終シームを決定するための時間軸スムージングのための方法のフローチャートである。
最終シームが選ばれる方式に、変位閾値がどのように影響を及ぼし得るかの例を示す。
重複領域における最小コストシームを決定するための方法のフローチャートである。
ブレンディングルックアップテーブル(LUT)の一例である。
死角ゾーンの例である。
一つの死角ゾーンにおける物体の一例である。
図2のRSVPシステムにおいて用いられ得るシステムオンチップ(SOC)の簡略化ブロック図である。
種々の図面における同様の要素は、一貫性のため、同様の参照数字によって示される。
実施形態は、車両の後方視野(FOV)の単一のリアビュースティッチされたパノラマを生成することに関し、車両の後方視野(FOV)とは、少なくとも、3つのミラーが提供し得るFOVである。パノラマは、単一ディスプレイ上に、車両の運転者に対して提供され得、それゆえ、運転者が3つのミラー間で注意を移す必要性をなくす。4つのカメラ、すなわち、典型的な外側搭載ミラーの代わりとなるように車両の各側部に一つずつ、及び、典型的な中央内部リアビューミラーの代わりとなるように車両の後方のステレオペアのカメラ、が用いられ得る。側部カメラは、典型的なサイドミラー位置によって生じる典型的な死角の範囲を縮小するように配置され得る。車両の後方FOVのシームレスなパノラマを生成するために、二つの側部カメラからの画像が、ステレオペアの基準カメラからの画像と融合またはスティッチされる。
側部及び後方画像を共にスティッチしてシームレスなパノラマを形成するために、これらの画像は、同じ可視化座標フレームに変換される。従って、各画像がまるで、後方に向いた、車両の上方及び前方に位置する同じ仮想カメラを用いて捕捉されたかのように現れるように、画像は、システムキャリブレーションパラメータに基づいて個別に変換される。
画像が変換された後、変換された画像は、物体表現における視覚的歪みの影響及び不連続性を最小化するために選択される境界において共にスティッチされる。画像を融合するための最適の境界又はシームは、ステレオカメラペアからの奥行き情報を用いて決定される。また、経時的なシーム変化間の遷移を滑らかにするために、時間軸スムージングがシーム選択に適用され得る。幾つかの実施形態において、パノラマを形成するために画像を共にスティッチするための重みを特定する単一ブレンディングルックアップテーブル(LUT)が、計算された最適のシームラインを用いて生成される。
車両上のカメラ構成は、車両のリアバンパーのいずれのコーナーにおいても死角ゾーンをつくり得る。物体がバンパーのすぐ隣にある場合、そうした物体は、ただ一つのカメラのFOVに在り得る。この場合、画像のスティッチは、結果として得られるパノラマから完全に物体を除き得、又は、物体は、ゴーストのように現れ得、すなわち、小さなオフセットを備えて再現され得る。幾つかの実施形態において、死角ゾーンにおける物体の存在を検出するために、別のセンサモダリティが用いられる。物体が検出された場合、そうした物体の少なくとも一部がパノラマにおいて可視であるように、シーム選択は、物体が存在する画像をより多く含むようにバイアスされる。
図1は、リアスティッチされたビューパノラマ(RSVP)システムの実施形態を含む例示の車両100の上面図である。RSVPシステム(詳細に図示せず)は、車両100上の異なる位置に搭載される4つのカメラ102、104、106、108に結合される。RSVPシステムは、カメラによって捕捉されたビデオストリームを受け取るため、及び、ビデオストリームを処理して車両100の運転者に表示されるリアビューパノラマを生成するために、ハードウェア及びソフトウェアを含む。
カメラ102及び108は、サイドビューミラーを置換するように車両100の両側に搭載され、カメラ104及び106は、中央内部リアビューミラーを介して典型的に見られるビューを捕捉するために、車両100の後方上に搭載されるステレオペアである。従って、カメラ102は、本願においてRmirrorと呼ぶこともある右ミラー画像を捕捉し、カメラ108は、本願においてLmirrorと呼ぶこともある左ミラー画像を捕捉し、カメラ104は、本願においてRstereoと呼ぶこともある右ステレオ画像を捕捉し、カメラ106は、本願においてLstereoと呼ぶこともある左ステレオ画像を捕捉する。カメラ102、104、106、108は、各々がそれぞれの後方視野(FOV)角度を有するように配置される。任意の適切なFOV角度が用いられ得る。幾つかの実施形態において、FOV角度は50~60度の範囲である。
本願においてより詳細に説明されるように、出力パノラマは、カメラ102、108からの画像と、ステレオカメラ104、106からの基準カメラからの画像との組み合わせである。本願において基準カメラが左ステレオカメラ106であると想定して実施形態が説明される。基準カメラが右ステレオカメラ104である実施形態も可能である。また、カメラ104、106からの奥行き情報は、パノラマを形成するために、カメラ102、106、108からの画像をスティッチするためのシームラインを決定するために用いられる。
図2は、図1の車両100に含まれる例示のRSVPシステム202の簡略化されたブロック図である。RSVPシステム202は、カメラ102~108及びディスプレイデバイス208に、並びに、メモリ206に結合されるシステムオンチップ(SOC)204を含む。SOC204は、リアルタイム画像生成に適切な任意のSOCであり得る。適切なSOCの幾つかの例は、テキサス・インスツルメンツ・インコーポレイテッドから入手可能なTDA2x及びTDA3x SOCのファミリーである。メモリ206は、ランダムアクセスメモリ、リードオンリメモリ、及び/又はフラッシュメモリなど、メモリ技術の任意の適切な組み合わせであり得る。
メモリ206は、SOC204の一つ又は複数のプロセッサ上で実行され得る、RSVPシステム202の実行可能なソフトウェア命令をストアする。実行可能なソフトウェア命令は、本願において説明されるようなリアビューパノラマ画像生成の実施形態の命令を含む。ディスプレイデバイス208は、リアビューパノラマを運転者に表示するように構成される。例えば、ディスプレイデバイス208は、典型的な内部中央リアビューミラーのロケーションに設置され得る。
3つの画像からパノラマを生成するために、外因性パラメータ、すなわち、画像を提供する各カメラ102、106、108のカメラロケーション及び方位が必要とされる。本願においてより詳細に説明されるように、各画像は、まるで画像が、任意のロケーション及び方位を有する仮想カメラによって捕捉されたかのように現れるように、外因性パラメータを用いて変換される。この仮想カメラは、生成されるパノラマのための捕捉デバイスであると考えられる。3つのカメラ102、106、108の各々のための外因性パラメータを決定するために、チャートベースのキャリブレーションプロセスがオフラインで、例えば工場において、行われ得る。
図3を参照すると、幾つかの実施形態において、キャリブレーションを行うために、既知の寸法及び相対的ロケーションを有する3つのキャリブレーションチャート300、302、304のセットが、車両100の周りの地面と同一平面上に置かれている。車両100は、一つの完全な四角パターンが各カメラ102~108にとって可視であるように、キャリブレーションチャート300~304と整合される。それぞれのカメラ画像における各チャートの8つのコーナーのピクセル、すなわち、特徴ピクセル、のロケーションの決定が、カメラをキャリブレートするための既知のワールド座標との充分な対応を提供する。というのも、各捕捉された画像における各コーナーが、画像面における関連する2次元(2D)座標と現実世界の3次元座標とを有するからである。画像においてコーナーピクセルを見つけるための例示の技術は、2016年10月14日に出願された、米国特許出願公開番号US2017/0124710において説明されており、参照により本明細書に組み込まれる。
米国特許出願公開番号US2017/0124710
幾つかの実施形態において、左及び右ステレオカメラ間の距離又はベースラインが必要とされるので、全ての4つのカメラに対してキャリブレーションが行われる。幾つかの実施形態において、ステレオカメラペアは、固定されたアセンブリにおいて事前キャリブレートされ得、ベースラインは既知である。そのような実施形態において、右ステレオカメラに対してキャリブレーションは行われない。
これらの対応を用いて、カメラ画像面からワールド座標へのホモグラフィは、直接線形変換を用いて推定され得る。また、ホモグラフィ行列を直交サブ空間上に投影することが、ワールド座標システムにおけるカメラの外因性姿勢を提供する。チャート上のピクセルが、物理的寸法を用いて測定されるので、同じ物理的解釈が、カメラの姿勢推定において遷移される。幾つかの実施形態において、推定を改善するために付加的な非線形最適化が適用される。例えば、既知のレーベンバーグ・マーカートアプローチの実施形態が用いられ得る。
図4は、例えば図2のSOC204上において実装され得る、リアスティッチされたビューパノラマの生成のための方法のフローチャートである。ディスパリティマップが、ステレオカメラ104、106からの左及び右ステレオ画像に基づいて生成される(404)。ディスパリティマップを生成するために任意の適切な技法が用いられ得る。
各カメラ102、106、108の後方視点(perspective)からの車両100の後方シーンの画像は、それぞれのカメラの内因性及び外因性パラメータを用いて仮想ワールドビューに変換される(402)。この変換は、車両の少し離れた後ろに位置する平坦面によって表される、車両100の周りの仮想ワールドを想定し、各カメラからの適切なFOVをこの平坦面上に投影する。より具体的には、変換は、画像を仮想カメラ画像に投影するために、仮想カメラパラメータを用いて各画像ピクセルを車両100の後ろの平坦面上に投影することを含む。また、左ステレオカメラ106からの画像に適用される同じ変換は、ディスパリティの仮想カメラ「ビュー」を取得するためにディスパリティマップに適用される。画像変換について、図5~図9を参照して下記でより詳細に説明する。
一般に、仮想カメラパラメータが、車両に基づいて決定され得る。物理カメラと同じ座標フレームにおけるロケーション及び視野角が必要とされる。例えば、仮想カメラ位置が車両の前方から見た視点を有するように、仮想カメラ位置は、0.5メートル上方に上げ、及び、0.5メートル前方に移動させた、左及び右カメラの中間ピクセルにおいて固定され得る。また、水平地面からの仮想カメラの角度は、-30度で固定され得る。仮想カメラ角度及び位置は、車両の運転者が、視野ニーズに合致するように仮想カメラパラメータを変更し得る、物理的リアビューミラーを調節することに非常に似た、ユーザパラメータであり得る。
その後、隣接する画像が結合されるべき最適の境界を決定するために、シーム検出が行われる(406)。シーム検出は、変換された画像及び変換されたディスパリティマップを用いて行われる。シーム検出の結果は、パノラマを生成するためにシームにおいて画像を結合するためのアルファブレンディング係数を特定する重みを有する、出力パノラマと同じサイズのブレンディングルックアップテーブル(LUT)である。シーム検出及びLUT生成は、図10~図14を参照して、下記でより詳細に説明される。
その後、画像は、LUTにおける重みを画像に適用することによって出力パノラマを形成するために、共にスティッチされる(408)。画像のスティッチは下記でより詳細に説明される。
次に、変換、シーム検出、及びスティッチが、より詳細に説明される。図5は、カメラ102~108などの右カメラ、ステレオカメラペア、及び左カメラからの捕捉された画像502~508の例示のセットと、右カメラ、左ステレオカメラ、及び左カメラからの画像から生成されたパノラマ510とを示す。変換、シーム検出、及びスティッチは、画像のこの例示のセットに基づいて下記で説明される。左カメラ及び右カメラからの画像は、本願においてそれぞれLmirror及びRmirrorと呼ぶことがあり、ステレオカメラペアからの画像は、本願においてLstereo及びRstereoと呼ぶことがある。
上記したように、パノラマは、車両の後ろの垂直平坦面上に投影される。それゆえ、単一射影変換が、画像Lmirror、Lstereo、及びRmirrorの各々に対して計算され得る。各射影変換は、キャリブレーションの間、対応するカメラのために推定された内因性及び外因性パラメータから計算される。各射影変換は、変換された画像L’mirror、L’stereo、及びR’mirrorを取得するためにそれぞれの画像に適用される。また、Lstereoのために計算される射影変換は、ディスパリティマップDを変換して、変換されたディスパリティマップD’を生成するために用いられる。図6は、右ミラー画像502を仮想ディスプレイ面510上に投影する例示の可視化である。
図7は、或る画像に対する射影変換を計算するための方法のフローチャートである。画像に対する射影変換は、物理カメラ外因性パラメータ、カメラからの平坦面の距離、及び仮想カメラの位置に基づいており、これらの全てが、物理カメラがキャリブレートされた後に既知であるので、この方法は工場キャリブレーションの一部として行われ得る。初期的に、変換された画像の領域中央が決定される(700)。パノラマの既知の寸法w×hと、左カメラがパノラマの左3分の1に投影し、左ステレオカメラがパノラマの中央に投影し、及び、右カメラがパノラマの右3分の1に投影するおおよその制約とに基づいて、画像に対応する領域の中央ピクセル(xrc、yrc)が決定され得る。
次に、変換された画像において、中央ピクセル(xrc、yrc)からの小さなオフセットΔoffsetにおける4つの非同一線上のピクセルが選択される(702)。ピクセルは、3つのピクセルが同一線上にないように選択される。Δoffsetのための任意の適切な値が用いられ得る。一般に、最終射影変換は、中央ピクセルからの距離の増加と共に改善される。それゆえ、Δoffsetの可能な最大値が望ましい。例えば、1920×480のパノラマに対して、Δoffsetの値は240であり得る。図8は、1920×480であるパノラマにおける左、中央、及び右画像に対応する領域を図示するシンプルな例である。各領域の中央ピクセル、及び4つの非同一線上のピクセルが示されている。
再び図7を参照すると、4つのピクセルは、仮想カメラパラメータを用いてワールド座標に投影される(704)。その後、ワールドピクセルが画像ピクセルに投影される(706)。仮想カメラ位置及び方位は既知であり、平坦面のロケーションは既知である。この情報は、仮想カメラ画像における4つのピクセルを、平坦面又はワールドに投影するために用いられる。また、平坦面マップ上のピクセルが入力カメラ画像にどのようにマップするかも、カメラキャリブレーションに基づいて既知である。それゆえ、入力画像における4つのピクセルに対する仮想カメラ画像の最終出力上の4つのピクセル間に、或る関係が存在する。その後、画像ピクセルを、変換されたピクセルにマップする射影変換行列が計算される(708)。出力画像から入力画像までの4つのピクセルのための対応を考慮して、射影変換行列は、ピクセル対応の4つのセットを用いて生成され得る。
図9は、図5のそれぞれの画像502、504、508に対応する変換された画像、及び、各変換された画像における注目のFOV902、904、908を示す。FOV902、904、908は、シーン検出によって決定されるシームに沿ってスティッチすることによってパノラマを形成するために結合される。また、図9は、ステレオ画像504、506のために生成されるディスパリティマップ700、及び、変換されたディスパリティマップ906を示す。
パノラマは本質的に、予め決定された奥行きを有する平坦面上への投影であるので、シームが表面距離において物体を貫通するようにシームが選択される場合、こういった物体は、出力パノラマにおいてシームレスにスティッチして現れる。従って、各捕捉された画像から仮想面へ投影するプロセスにおいて、仮想面上にあり、隣接するカメラによって捕捉されたワールドロケーションが、仮想ビューにおける同じワールドロケーションに再び投影され、それゆえ、整合しているように見える。ステレオ情報は、投影面に近接するピクセルをワールド空間に置くために用いられ得、そのため、それらの対応する画像ピクセルを通るシームが計算され得る。
図10は、二つの画像を共にスティッチするための最小コストシームを見つけるための方法のフローチャートである。この方法は、左カメラ画像及び左ステレオ画像をスティッチするための最小コストシームと、左ステレオ画像及び右カメラ画像をスティッチするための最小コストシームとを見つけるために用いられ得る。最小コストシームのための探索は、重複領域において行われる。左カメラ画像と左ステレオ画像との間、及び、左ステレオ画像と右カメラ画像との間の重複領域は、RSVPシステムのキャリブレーションの一部として決定され得る。
この方法において、二つの候補シームが決定される。すなわち、平坦面ディスパリティを、変換されたディスパリティマップに一致させることによって見つかる最小コストシームと、地面ディスパリティを、変換されたディスパリティマップに一致させることによって見つかる最小コストシームとが決定される。これら二つの最小コストを有するシームは、スティッチするための最終シームとして選択される。地面に沿ったシームは、平坦面の奥行きに有意な物体がない場合を、すなわち、投影面ディスパリティと変換されたディスパリティマップとの間に充分な一致が存在しない場合、を可能にするように考慮される。
初期的に、ワールドディスパリティマップDが計算される(1000)。従って、ステレオカメラに関連するピクセルの既知のロケーションを用いて、仮想平坦面上の各ピクセルに対して、ディスパリティが計算される。ディスパリティ値が次のように計算され得る。式
Z=B×f/d
は、ステレオ画像を考慮して奥行きを計算するために用いられ得、ここで、Bは二つのカメラ間の距離であり、fはカメラ焦点距離であり、dはディスパリティであり、Zは所与のロケーションにおける奥行きである。この式は、ステレオカメラ画像におけるロケーションの奥行きを推定するために用いられる。平坦面上のディスパリティを計算するために、平坦面は、ステレオカメラからの特定の既知の奥行きにおいて定義され、すなわち、画像がスティッチされるべき距離は予め決められている。それゆえ、ディスパリティ値は、
d=B×f/Z
によって計算され得、ここで、Zは既知であり、dは既知でない。
その後、Dにおける対応するディスパリティ値を、変換されたディスパリティマップD’と比較することによって、ワールドディスパリティ差異マップDΔが計算される(1002)。具体的には、DΔは、
Δ=|D’-D
に従って、D及びD’における対応するディスパリティ値間の差の大きさをとることによって計算され得る。図13を参照してより詳細に説明されるように、シーム候補のコストは、DΔにおけるピクセルディスパリティのセットによって定義される。
その後、重複領域における最小コストワールドシームsmin,Wが決定される(1004)。従って、ワールドディスパリティ差異マップDΔにおけるピクセルディスパリティの対応するセットによって決定されたように最小コストを有するシームを見つけるために、重複領域における候補シームが探索される。シームsが、重複領域におけるパノラマの頂部から底部までの線形経路におけるピクセルのセットによって特定される。それゆえ、シームが、パノラマにおいて行毎に一つのピクセルを含む。最小コストシームを見つけるための方法が、図13を参照して説明される。
その後、地面ディスパリティ差異マップDΔが、予め決定された地面ディスパリティマップDにおける対応するディスパリティ値を、変換されたディスパリティマップD’と比較することによって計算される(1006)。具体的には、DΔは、
Δ=|D’-D
に従って、D及びD’における対応するディスパリティ値間の差の大きさをとることによって計算され得る。図13を参照してより詳細に説明されるように、シーム候補のコストは、DΔにおけるピクセルディスパリティのセットによって定義される。
その後、重複領域における最小コスト地面シームsmin,Gが決定される(1008)。従って、ワールドディスパリティ差異マップDΔにおけるピクセルディスパリティの対応するセットによって決定されたように最小コストを有するシームを見つけるために、重複領域における候補シームが探索される。最小コストシームを見つけるための方法が、図13を参照して説明される。
全体的な最小コストシームsminが、地面シームsmin,G及びワールドシームsmin,Wから選択され(1010)、それゆえ、最低コストを有するシームが、
min=min(smin,W,smin,G
に従って、全体的な最小コストシームとして選択される。
その後、最終シームsを決定するために、時間軸スムージングが最小コストシームsminに適用される(1012)。時間軸スムージングのための方法が、図11を参照して説明される。新たなシームが各パノラマに対して個別に計算される場合、車両の運転者にとって気を散らすもの及び方向を失わせるものとなるおそれがある大きなジャンプ及びジッタが、連続するパノラマ間のスティッチ境界に存在し得るので、時間軸スムージングが適用される。時間的一貫性を保つために、前のパノラマにおけるシームロケーションが、シーム移動pmin及びpmaxに対する最小及び最大距離閾値と共に考慮される。最小距離閾値pminはジッタを避けるために用いられ、最大距離閾値pmaxは、前のパノラマにおけるシームから、現在のパノラマのためのシームへの大きなジャンプを避けるために用いられる。pmin及びpmaxの任意の適切な値が用いられ得る。幾つかの実施形態において、値は経験的に選ばれる。
図11は、最終シームsを決定するための時間軸スムージングのための方法のフローチャートである。初期的に、最小コストシームsminにおける全てのピクセルが、前のシームst-1のpminピクセル内にあるかどうかについて、判定が成される(1100)。全てのピクセルがpminピクセル内にある場合、最終シームsは、前のシームst-1に設定される(1102)。そうでない場合、最小コストシームsminにおける任意のピクセルが、前のシームst-1から離れてpmaxピクセルより大きいかどうかについて、判定が成される(1104)。どのピクセルも、前のシームst-1から離れてpmaxピクセルより大きくない場合、最終シームsは、最小コストシームsminに設定される(1106)。
そうでない場合、最終シームstを決定するために、最小コストシームsminと前のシームst-1との間の最大ピクセル変位がpmaxであるように、最小コストシームsminがスケーリングされる(1108)。より具体的には、各シーム:
Figure 0007448921000001
を含むピクセルを考える。最終シームsのx座標は、
Figure 0007448921000002
に従って、最小コストシームsminをスケーリングすることによって計算され得る。ここで、hRSVPはパノラマの高さである。
図12は、最終シームsが選ばれる方式に、変位閾値がどのように影響を及ぼし得るかの例を示す。左の例が示すように、最小コストシームsminの全てのピクセルが、前のシームst-1のpminピクセル内にあるとき、前のシームは、ジッタを最小にするためにスティッチに用いられ、すなわち、s=st-1である。右の例が示すように、最小コストシームsminにおけるピクセルが、前のシームst-1から離れてpmaxピクセルより多い場合、最小コストシームsminは、貴重なシームst-1から最小コストシームsminへの大きなジャンプを避けるためにスケーリングされる。
図13は、重複領域における最小コストシームを決定するための方法のフローチャートである。この方法は、地上における、すなわち平坦面上の、最小コストシームと、地面上の最小コストシームとを見つけるために用いられ得る。この方法に対する入力が、ディスパリティ差異マップDΔであり、ディスパリティ差異マップDΔは、地面ディスパリティマップDと変換されたディスパリティマップD’との間のディスパリティ差異マップ、又は、ワールドディスパリティ差異マップDΔと変換されたディスパリティマップD’との間のディスパリティ差異マップであり得る。
初期的に、重複領域における垂直シーム候補のコストが計算される(1300)。従って、重複領域における予め決定された垂直シームで開始し、前の垂直シームからの予め決定されたステップサイズ、例えば、16ピクセル、における重複領域内の垂直シームのためのコストが計算される。任意の適切なステップサイズが、用いられ得、最適の計算性能のために選択され得る。例えば、予め決定された垂直シームは、重複領域の左側に在り得る。予め決定された垂直シームに対して、その後、予め決定された垂直シームの右に16ピクセルである垂直シームに対して、その後、予め決定された垂直シームの右に32ピクセルである垂直シーム等に対して、コストが決定される。最適の垂直シーム候補、すなわち、最小コストを有する垂直シームが、候補垂直シームから選択される(1302)。
その後、重複領域内の選択された最適の垂直シーム候補の、例えば、±16ピクセル内の小さな近隣内のシーム候補のコストが計算される(1304)。任意の適切な近隣サイズが用いられ得る。幾つかの実施形態において、近隣は、選択された垂直シーム候補の両側の垂直シーム間にある。小さな近隣の頂部における各ピクセルに対して、そうしたピクセルから、近隣における底部ピクセルの各々までのシームのコストが計算される。最小コストを有する小さな近隣におけるシームは、最小コストシームとして選択される(1306)。
シーム候補s={(x,y)}のコストは、変換されたディスパリティマップD’における有効な対応ディスパリティ値の数によって正規化された、シーム候補sにおけるピクセルに対応するディスパリティ差異マップDΔにおけるディスパリティ値の合計として計算され得る。従って、離散化されたピクセル
Figure 0007448921000003
を有する候補シームsのコストcsは、
Figure 0007448921000004
によって計算され得、ここで|D’(s)>0|は、D’において有効なディスパリティ値を有するシーム候補sにおけるピクセルの数であり、hRSVPは、ピクセルにおけるパノラマの高さである。
幾つかの実施形態において、閾値ディスパリティ値Δより小さいディスパリティ推定を備える表面ピクセルのみがコストに貢献し得るように、コスト計算において或る制約が課される。Δの任意の適切な値が用いられ得る。幾つかの実施形態において、値は経験的に決定され、スティッチ正確性要件に依存し得る。この制約が無い場合、地面が、車両運転のシナリオの大部分において支配的な特徴なので、シーム選択は、地面に沿ってシームを選択することにバイアスされる。閾値ディスパリティ値Δを用いて、候補シームsのコストc
Figure 0007448921000005
によって計算され得る。
二つの重複領域の各々に対して最終シームsが選ばれた後、パノラマと同じサイズの単一ブレンディングLUTが、画像のペアを結合するためのアルファブレンディング係数を特定する重みを用いて計算される。幾つかの実施形態において、各アルファ値が、最終シームsにおける各ピクセルに対して0.5であり、また、シームs辺りの予め決定されたブレンディング幅にわたって1から0に線形に減少するように、アルファ値が計算される。適切なブレンディング幅が経験的に決定され得る。また、その他の適切なアルファ値が用いられ得る。
左シームが常にパノラマの左半分にあたり、右シームが常にパノラマの右半分にあたるので、単一ブレンディングLUTが用いられ得る。それゆえ、ブレンディングLUTはこれらの想定の下で生成され得、重みは、結合されるべき画像の各ペアの左画像に関して定義され得る。図14は、ブレンディングLUTの一例であり、両シームライン上の各ピクセルの重みは0.5である。線1400、1402は、シームロケーションを示す。
{Wij,i∈{1,...,hRSVP},j∈{1,...,wRSVP}}
によって表されるブレンディングLUTを考えると、パノラマを形成するための画像のスティッチは、それぞれ、パノラマRSVPの左及び右半分に対して、次の式に従って行われ得る。
Figure 0007448921000006
に対して、
Figure 0007448921000007
であり、
Figure 0007448921000008
に対して、
Figure 0007448921000009
であり、wRSVPは、ピクセルにおけるパノラマの幅である。
このカメラ構成は、従来のリアビューミラー構成に起因する従来の死角をなくすが、上述のように、車両の後方バンパーの両コーナーにおいて死角をつくり得る。死角ゾーンの一つに物体がある場合、これらのエリアにおける物体がただ一つの画像に現れ得るように、上述の方法は、表示されるパノラマにおいてそうした物体を完全になくすシームを選択し得る。死角ゾーンのロケーションは、概して、図15の左の例における星印によって示される。死角ゾーンは、図15の右の例に図示されるように、本願においてb11、b12、b21、及びb22と呼ぶことがある。
幾つかの実施形態において、物体検出のためのモダリティ(例えば、レーダー、ライダー、超音波、コンピュータビジョン等)は、図10の方法のシーム検索に、これらの死角ゾーンにおける物体の存在に関する情報を提供する。より具体的には、或る物体が死角ゾーンにおいて検出された場合、検出された物体を含む画像に対応する最終シームは、物体の少なくとも一部がパノラマにおいて可視であることを保証するためにバイアスされる。バイアスは、次のように行われ得る。物体がb11又はb22において検出される場合、最終シームをパノラマの中央に向かってバイアスする。物体がb12において検出される場合、最終シームをパノラマの左に向かってバイアスする。物体がb21において検出される場合、最終シームをパノラマの右に向かってバイアスする。任意の適切なバイアスが用いられ得る。幾つかの実施形態において、バイアスは、前のシームロケーションが重複領域のそれぞれの端部に移動するように設定され、そのため、如何なる物体が検出されても、新たなシームは、端部から著しく移動しない。
図16は、死角ゾーンb11における物体の一例である。右ミラー画像Rmirrorは、左ステレオ画像Lstereoにおいて可視でない、ゾーンb11に立っている人物を捕捉する。パノラマ1600に図示されるように、画像は、その人物が可視でないようにスティッチされ得る。パノラマ1602に図示されるように、物体検出モダリティが人物を検出する場合、RmirrorとLstereoとの間のシームは、人物の少なくとも一部がパノラマにおいて可視であるように、人物から離れてパノラマの中央に向かってバイアスされ得る。
図17は、図2のSOC204として用いられ得る例示のマルチプロセッサシステムオンチップ(SOC)1700の高レベルブロック図である。特に、例示のSOC1700は、テキサス・インスツルメンツ・インコーポレイテッドから入手可能なTDA3X SOCの実施形態である。本願において、SOC1700の構成要素の高レベルの説明が提供される。例示の構成要素のより詳細な説明は、M.Modyらの「TIのTDA3Xプラットフォームに対する高性能フロントカメラADAS応用例」、Proceedings of 2015 IEEE 22nd International Conference on High Performance Computing, December 16-19, 2015, Bangalore, India, 4176-463、及び、「先進運転支援システム(ADAS)テクニカルブリーフのためのTDA3x SOCプロセッサ」、Texas Instruments, SPRT704A, October, 2014, pp.1-6に記載されており、これらは参照により本願に組み込まれる。
M. Mody, et al., "High Performance Front Camera ADAS Applications on TI’s TDA3X Platform", Proceedings of 2015 IEEE22ンdInternational Conference on High Performance Computing, December 16-19, 2015, Bangalore, India, pp.4176-463 "TDA3x SOC Processors for Advanced Driver Assist Systems (ADAS) Technical Brief", Texas Instruments, SPR704A, October, 2014, pp.1-6
SOC1700は、高速相互接続1722を介して結合される、デュアル汎用プロセッサ(GPP)1702、デュアルデジタル信号プロセッサ(DSP)1704、ビジョンプロセッサ1706、及び画像信号プロセッサ(ISP)1724を含む。SOC1700はさらに、ダイレクトメモリアクセス(DMA)構成要素1708、外部カメラ1724に結合されるカメラ捕捉構成要素1710、ディスプレイ管理構成要素1714、例えば、コンピュータ読み出し可能媒体といったオンチップランダムアクセスメモリ(RAM)1716、及び種々の入力/出力(I/O)周辺機器1720を含み、全てが相互接続1722を介してプロセッサに結合される。また、SOC1700はセーフティ構成要素1718を含み、セーフティ構成要素1718は、オートモーティブ安全要件の遵守を可能にするため、安全性に関連する機能性を含む。そのような機能性には、データの周期冗長検査(CRC)、ドリフト検出のためのクロックコンパレータ、エラーシグナリング、ウィンドウウォッチドッグタイマ、及び、損傷や故障に対するSOCの自己検査のためのサポートが含まれ得る。本願において説明されるようなリアビューパノラマ画像生成の実施形態を実装するソフトウェア命令が、メモリ1716にストアされ得、SOC1700の一つ又は複数のプログラム可能なプロセッサ上で実行し得る。
その他の実施形態
本願において説明される範囲から逸脱しないその他の実施形態が考え出され得る。
例えば、白い四角が一層大きな黒い四角の中央に配置され、そうした黒い四角が一層大きな白い四角の中央に配置されてキャリブレーションチャートが構成される実施形態を、本願において説明してきた。しかし、その他の適切なキャリブレーションチャートが用いられる実施形態が可能である。その他の適切なキャリブレーションチャートの幾つかの例を、上記で引用した米国特許出願番号2017/0124710で見ることができる。
別の例において、仮想ワールドビューが平坦面であると想定される実施形態を本願において説明してきた。しかし、円筒形の表面など、別のワールド表現が用いられる実施形態が可能である。
別の例において、ブレンディング幅が予め決められた実施形態を本願において説明してきた。しかし、ブレンディング幅がシーンの知識に基づいて動的に変化し得る実施形態が可能である。
別の例において、パノラマを生成するために用いられるディスパリティマップが、ステレオ画像の前のペアに対して計算されるディスパリティマップである実施形態が可能である。
別の例において、コスト計算が、地面シームよりも表面シームの選択に有利であるようにバイアスされる実施形態を本願において説明してきた。しかし、コスト計算が地面シームを選択するようにバイアスされる実施形態が可能である。
別の例において、仮想カメラ位置が、ジョイスティック又はその他の入力機構を用いて、最終パノラマを調整するために車両の運転中に車両の運転者によって変更され得る実施形態が可能である。そのような実施形態において、射影変換パラメータは、仮想カメラ位置の変化に応答して変更される。
別の例において、重複領域に最小コストシームを配置するために粗-微細探索が用いられる実施形態を本願において説明してきた。しかし、重複領域における全ての可能シームの探索など、別の探索アプローチが用いられる実施形態が可能である。
別の例において、パノラマと同じサイズの単一ブレンディングLUTが、計算され、3つの画像を共にスティッチするために用いられる実施形態が本願において説明されている。しかし、二つのブレンディングLUTが生成され、一つが各重複領域のためのものである実施形態が可能である。そのような実施形態において、重複領域にない画像におけるピクセルは、それぞれの重複領域におけるピクセルに適用される出力パノラマ及びブレンディングLUTにコピーされ得る。
本願において説明される方法の全て又は一部を実装するソフトウェア命令が、コンピュータ読み出し可能媒体に初期的にストアされ得、一つ又は複数のプロセッサによって搭載及び実行され得る。場合によっては、ソフトウェア命令は、取り外し可能なコンピュータ読み出し可能媒体や、別のデジタルシステム上のコンピュータ読み出し可能媒体からの伝送路等を介して分布され得る。コンピュータ読み出し可能媒体の例には、リードオンリメモリデバイスなどの書き込み不可記憶媒体、ディスク、フラッシュメモリ、メモリなどの書き込み可能記憶媒体、又はそれらの組み合わせが含まれる。
本願において、方法の工程が順次提供及び説明され得るが、図示され及び/又は本願において説明される工程の一つ又は複数が、同時に行われてもよく、組み合わされてもよく、及び/又は、図示され及び/又は本願において説明される順とは異なる順で行われてもよい。従って、実施形態は、図示され及び/又は本願において説明される工程の特定の順に限定されない。
本説明において、「結合する」という用語及びその派生語は、間接的、直接的、光学的、及び/又はワイヤレスの電気接続を意味する。例えば、一つのデバイスが別のデバイスに結合する場合、そうした接続は、直接的電気接続を介するもの、他のデバイス及び接続を介する間接的電気接続を介するもの、光学的電気接続を介するもの、及び/又はワイヤレス電気接続を介するものであり得る。
特許請求の範囲内で、説明される実施形態における改変が可能であり、他の実施形態が可能である

Claims (20)

  1. デバイスであって、
    第1の画像を受信し、
    第2の画像を受信し、
    前記第1の画像と前記第2の画像とに対する視差マップを計算し、
    第3の画像を受信し、
    第4の画像を受信し、
    変換された第3の画像と変換された第4の画像と変換された基準画像と変換された視差マップとを生成するために前記第3の画像と前記第4の画像と前記第1の画像又は前記第2の画像の基準画像と前記視差マップとを変換し、
    前記変換された視差マップに従って前記変換された基準画像と前記変換された第4の画像との間の第1の継ぎ目を計算する、
    ように構成される、デバイス。
  2. 請求項1に記載のデバイスであって、
    前記変換された視差マップに従って前記変換された第3の画像と前記変換された基準画像との間の第2の継ぎ目を計算し、
    前記変換された第4の画像と前記変換された基準画像と前記第1の継ぎ目と前記変換された第3の画像と前記第2の継ぎ目とに従ってパノラマを生成する、
    ように更に構成される、デバイス。
  3. 請求項2に記載のデバイスであって、
    前記パノラマを生成することが、
    前記第1の継ぎ目に従って前記変換された第4の画像と前記変換された基準画像とを継ぐことと、
    前記パノラマを生成するために前記第2の継ぎ目に基づいて前記変換された第3の画像と前記変換された基準画像とを継ぐことと、
    を含む、デバイス。
  4. 請求項3に記載のデバイスであって、
    前記変換された第4の画像と前記変換された基準画像とを継ぐことが、
    前記変換された第4の画像と前記変換された基準画像との組み合わせるためのアルファ混合係数を含む混合ルックアップテーブル(LUT)を計算することと、
    前記変換された第4の画像と前記変換された基準画像とを継ぐために前記混合LUTを用いることと、
    を含む、デバイス。
  5. 請求項1に記載のデバイスであって、
    前記第1の継ぎ目を計算することが、
    ワールド視差マップを計算することと、
    前記ワールド視差マップと前記変換された視差マップとに従ってワールド視差の差マップを計算することと、
    前記ワールド視差の差マップに従って前記変換された第4の画像と前記変換された基準画像との間の重なり領域における第1の候補継ぎ目のコストを計算することと、
    第1の低コスト継ぎ目のための前記第1の候補継ぎ目のコストを捜索することと、
    を含む、デバイス。
  6. 請求項5に記載のデバイスであって、
    前記第1の継ぎ目を計算することが、
    面視差マップと前記変換された視差マップとに従って面視差の差マップを計算することと、
    前記変換された第4の画像と前記変換された基準画像との間の重なり領域における第2の候補継ぎ目のコストを計算することと、
    第2の低コスト継ぎ目のための前記第2の候補継ぎ目のコストを捜索することと、
    前記第1の低コスト継ぎ目と前記第2の低コスト継ぎ目とのより少ないものに前記第1の継ぎ目を設定することと、
    を更に含む、デバイス。
  7. 請求項1に記載のデバイスであって、
    前記第1の継ぎ目に対する一時的平滑化を適用するように更に構成され、
    前記一時的平滑化を適用することが、
    前記第1の継ぎ目における全てのピクセルが前の継ぎ目の最小距離閾値内にあると判定するときに前記第1の継ぎ目を前記前の継ぎ目に設定することと、
    前記第1の継ぎ目における任意のピクセルが前記前の継ぎ目から離れて最大距離閾値よりも大きいと判定するときに前記第1の継ぎ目と前記前の継ぎ目との間の最大ピクセル変位が前記最大距離閾値よりも大きくないように前記第1の継ぎ目をスケーリングすることと、
    を含む、デバイス。
  8. 方法であって、
    第1の画像を受信することと、
    第2の画像を受信することと、
    前記第1の画像と前記第2の画像とに対する視差マップを計算することと、
    第3の画像を受信することと、
    第4の画像を受信することと、
    変換された第3の画像と変換された第4の画像と変換された基準画像と変換された視差マップとを生成するために前記第3の画像と前記第4の画像と前記第1の画像又は前記第2の画像の基準画像と前記視差マップとを変換することと、
    前記変換された視差マップに従って前記変換された基準画像と前記変換された第4の画像との間の第1の継ぎ目を計算することと、
    を含む、方法。
  9. 請求項8に記載の方法であって、
    前記変換された視差マップに従って前記変換された第3の画像と前記変換された基準画像との間の第2の継ぎ目を計算することと、
    前記変換された第4の画像と前記変換された基準画像と前記第1の継ぎ目と前記変換された第3の画像と前記第2の継ぎ目とに従ってパノラマを生成することと、
    を更に含む、方法。
  10. 請求項9に記載の方法であって、
    前記パノラマを生成することが、
    前記第1の継ぎ目に従って前記変換された第4の画像と前記変換された基準画像とを継ぐことと、
    前記パノラマを生成するために前記第2の継ぎ目に基づいて前記変換された第3の画像と前記変換された基準画像とを継ぐことと、
    を含む、方法。
  11. 請求項8に記載の方法であって、
    前記第1の継ぎ目を計算することが、
    ワールド視差マップを計算することと、
    前記ワールド視差マップと前記変換された視差マップとに従ってワールド視差の差マップを計算することと、
    前記ワールド視差の差マップに従って前記変換された第4の画像と前記変換された基準画像との間の重なり領域における第1の候補継ぎ目のコストを計算することと、
    第1の低コスト継ぎ目のための前記第1の候補継ぎ目のコストを捜索することと、
    を含む、方法。
  12. 請求項11に記載の方法であって、
    前記第1の継ぎ目を計算することが、
    面視差マップと前記変換された視差マップとに従って面視差の差マップを計算することと、
    前記変換された第4の画像と前記変換された基準画像との間の重なり領域における第2の候補継ぎ目のコストを計算することと、
    第2の低コスト継ぎ目のための前記第2の候補継ぎ目のコストを捜索することと、
    前記第1の低コスト継ぎ目と前記第2の低コスト継ぎ目とのより少ないものに前記第1の継ぎ目を設定することと、
    を更に含む、方法。
  13. 請求項8に記載の方法であって、
    前記第1の継ぎ目に対する一時的平滑化を適用することを更に含み、
    前記一時的平滑化を適用することが、
    前記第1の継ぎ目における全てのピクセルが前の継ぎ目の最小距離閾値内にあると判定するときに前記第1の継ぎ目を前記前の継ぎ目に設定することと、
    前記第1の継ぎ目における任意のピクセルが前記前の継ぎ目から離れて最大距離閾値よりも大きいと判定するときに前記第1の継ぎ目と前記前の継ぎ目との間の最大ピクセル変位が前記最大距離閾値よりも大きくないように前記第1の継ぎ目をスケーリングすることと、
    を含む、方法。
  14. 少なくとも1つのプロセッサによって実行される命令を記憶する非一時的コンピュータ読み出し可能媒体であって、前記命令が、前記少なくとも1つのプロセッサに、
    第1の画像を受信し、
    第2の画像を受信し、
    前記第1の画像と前記第2の画像とに対する視差マップを計算し、
    第3の画像を受信し、
    第4の画像を受信し、
    変換された第3の画像と変換された第4の画像と変換された基準画像と変換された視差マップとを生成するために前記第3の画像と前記第4の画像と前記第1の画像又は前記第2の画像の基準画像と前記視差マップとを変換し、
    前記変換された視差マップに従って前記変換された基準画像と前記変換された第4の画像との間の第1の継ぎ目を計算する、
    ようにさせる、非一時的コンピュータ読み出し可能媒体。
  15. 請求項14に記載の非一時的コンピュータ読み出し可能媒体であって、
    前記命令が、前記少なくとも1つのプロセッサに、
    前記変換された視差マップに従って前記変換された第3の画像と前記変換された基準画像との間の第2の継ぎ目を計算し、
    前記変換された第4の画像と前記変換された基準画像と前記第1の継ぎ目と前記変換された第3の画像と前記第2の継ぎ目とに従ってパノラマを生成する、
    ようさせる、命令を更に含む、非一時的コンピュータ読み出し可能媒体。
  16. 請求項15に記載の非一時的コンピュータ読み出し可能媒体であって、
    前記パノラマを生成することが、
    前記第1の継ぎ目に従って前記変換された第4の画像と前記変換された基準画像とを継ぐことと、
    前記パノラマを生成するために前記第2の継ぎ目に基づいて前記変換された第3の画像と前記変換された基準画像とを継ぐことと、
    を含む、非一時的コンピュータ読み出し可能媒体。
  17. 請求項16に記載の非一時的コンピュータ読み出し可能媒体であって、
    前記変換された第4の画像と前記変換された基準画像とを継ぐことが、
    前記変換された第4の画像と前記変換された基準画像との組み合わせるためのアルファ混合係数を含む混合ルックアップテーブル(LUT)を計算することと、
    前記変換された第4の画像と前記変換された基準画像とを継ぐために前記混合LUTを用いることと、
    を含む、非一時的コンピュータ読み出し可能媒体。
  18. 請求項14に記載の非一時的コンピュータ読み出し可能媒体であって、
    前記第1の継ぎ目を計算することが、
    ワールド視差マップを計算することと、
    前記ワールド視差マップと前記変換された視差マップとに従ってワールド視差の差マップを計算することと、
    前記ワールド視差の差マップに従って前記変換された第4の画像と前記変換された基準画像との間の重なり領域における第1の候補継ぎ目のコストを計算することと、
    第1の低コスト継ぎ目のための前記第1の候補継ぎ目のコストを捜索することと、
    を含む、非一時的コンピュータ読み出し可能媒体。
  19. 請求項18に記載の非一時的コンピュータ読み出し可能媒体であって、
    前記第1の継ぎ目を計算することが、
    面視差マップと前記変換された視差マップとに従って面視差の差マップを計算することと、
    前記変換された第4の画像と前記変換された基準画像との間の重なり領域における第2の候補継ぎ目のコストを計算することと、
    第2の低コスト継ぎ目のための前記第2の候補継ぎ目のコストを捜索することと、
    前記第1の低コスト継ぎ目と前記第2の低コスト継ぎ目とのより少ないものに前記第1の継ぎ目を設定することと、
    を更に含む、非一時的コンピュータ読み出し可能媒体。
  20. 請求項14に記載の非一時的コンピュータ読み出し可能媒体であって、
    前記命令が、前記少なくとも1つのプロセッサに、第1の継ぎ目に対する一時的平滑化を適用するようにさせる命令を更に含み、
    前記一時的平滑化を適用することが、
    前記第1の継ぎ目における全てのピクセルが前の継ぎ目の最小距離閾値内にあると判定するときに前記第1の継ぎ目を前記前の継ぎ目に設定することと、
    前記第1の継ぎ目における任意のピクセルが前記前の継ぎ目から離れて最大距離閾値よりも大きいと判定するときに前記第1の継ぎ目と前記前の継ぎ目との間の最大ピクセル変位が前記最大距離閾値よりも大きくないように前記第1の継ぎ目をスケーリングすることと、
    を含む、非一時的コンピュータ読み出し可能媒体。
JP2022057110A 2017-01-04 2022-03-30 リアビュー可視化のためのリアスティッチされたビューパノラマ Active JP7448921B2 (ja)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201762442315P 2017-01-04 2017-01-04
US62/442,315 2017-01-04
US15/661,844 US10313584B2 (en) 2017-01-04 2017-07-27 Rear-stitched view panorama for rear-view visualization
US15/661,844 2017-07-27
JP2019536514A JP7054293B2 (ja) 2017-01-04 2018-01-04 リアビュー可視化のためのリアスティッチされたビューパノラマ
PCT/US2018/012390 WO2018129191A1 (en) 2017-01-04 2018-01-04 Rear-stitched view panorama for rear-view visualization

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019536514A Division JP7054293B2 (ja) 2017-01-04 2018-01-04 リアビュー可視化のためのリアスティッチされたビューパノラマ

Publications (2)

Publication Number Publication Date
JP2022095776A JP2022095776A (ja) 2022-06-28
JP7448921B2 true JP7448921B2 (ja) 2024-03-13

Family

ID=62711392

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019536514A Active JP7054293B2 (ja) 2017-01-04 2018-01-04 リアビュー可視化のためのリアスティッチされたビューパノラマ
JP2022057110A Active JP7448921B2 (ja) 2017-01-04 2022-03-30 リアビュー可視化のためのリアスティッチされたビューパノラマ

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019536514A Active JP7054293B2 (ja) 2017-01-04 2018-01-04 リアビュー可視化のためのリアスティッチされたビューパノラマ

Country Status (5)

Country Link
US (3) US10313584B2 (ja)
EP (1) EP3565739B1 (ja)
JP (2) JP7054293B2 (ja)
CN (2) CN110337386B (ja)
WO (1) WO2018129191A1 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10354547B1 (en) * 2016-07-29 2019-07-16 Relay Cars LLC Apparatus and method for virtual test drive for virtual reality applications in head mounted displays
US10321052B2 (en) * 2017-04-28 2019-06-11 Advanced Micro Devices, Inc. Method and apparatus of seam finding
US10861359B2 (en) * 2017-05-16 2020-12-08 Texas Instruments Incorporated Surround-view with seamless transition to 3D view system and method
DE102018201217A1 (de) * 2018-01-26 2019-08-01 Continental Automotive Gmbh Verfahren und Vorrichtung zum Betreiben eines Kamera-Monitor-Systems für ein Kraftfahrzeug
US10755007B2 (en) * 2018-05-17 2020-08-25 Toyota Jidosha Kabushiki Kaisha Mixed reality simulation system for testing vehicle control system designs
CN109278644A (zh) * 2018-07-27 2019-01-29 惠州市德赛西威汽车电子股份有限公司 一种基于高清摄像头的智能电子后视镜及其图像采集方法
EP3606032B1 (en) * 2018-07-30 2020-10-21 Axis AB Method and camera system combining views from plurality of cameras
EP3620332B1 (en) * 2018-09-05 2021-03-10 Volvo Car Corporation Driver assistance system and method for vehicle flank safety
CN109743539B (zh) * 2018-12-07 2020-05-29 吉林大学 一种视野可调节的全景行车辅助装置及其调节方法
CN109509153A (zh) * 2019-01-24 2019-03-22 北京大椽科技有限公司 一种拖挂车图像的全景拼接方法及系统
BR112021016305B1 (pt) 2019-02-19 2024-03-05 Orlaco Products B.V Sistema de espelho de câmera para um veículo e método de exibir múltiplas vistas de câmera de veículo
US11457193B2 (en) * 2019-04-12 2022-09-27 Intel Corporation Pre-stitching tuning automation for panoramic VR applications
JP2020183166A (ja) * 2019-05-07 2020-11-12 アルパイン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム
US11341607B2 (en) * 2019-06-07 2022-05-24 Texas Instruments Incorporated Enhanced rendering of surround view images
CN112449175B (zh) * 2019-08-29 2022-05-17 浙江宇视科技有限公司 一种图像拼接测试方法、装置、设备和存储介质
JP7442029B2 (ja) * 2019-10-17 2024-03-04 株式会社東海理化電機製作所 画像処理装置、画像処理プログラム
US10882468B1 (en) * 2019-10-29 2021-01-05 Deere & Company Work vehicle composite panoramic vision systems
US11505123B2 (en) * 2019-12-02 2022-11-22 Magna Electronics Inc. Vehicular camera monitoring system with stereographic display
CN111062873B (zh) * 2019-12-17 2021-09-24 大连理工大学 一种基于多对双目相机的视差图像拼接与可视化方法
CN111340077B (zh) * 2020-02-18 2024-04-12 平安科技(深圳)有限公司 基于注意力机制的视差图获取方法和装置
KR20210147405A (ko) 2020-05-28 2021-12-07 삼성전자주식회사 객체 인식을 수행하는 전자 장치 및 이의 동작 방법
US11481884B2 (en) 2020-06-04 2022-10-25 Nuro, Inc. Image quality enhancement for autonomous vehicle remote operations
CN111882484B (zh) * 2020-06-16 2024-04-16 河北汉光重工有限责任公司 一种潜水成像系统高速无缝图像拼接中伺服控制方法
CN111959417B (zh) * 2020-08-31 2022-03-08 安徽江淮汽车集团股份有限公司 汽车全景影像显示控制方法、装置、设备及存储介质
CN112308987B (zh) * 2020-11-03 2024-02-02 豪威科技(武汉)有限公司 车载图像拼接方法、系统以及装置
CN112738382B (zh) * 2021-01-25 2022-07-12 广州敏视数码科技有限公司 一种车辆车头与车身全景环视图像拼接方法
CN112907704B (zh) * 2021-02-04 2024-04-12 浙江大华技术股份有限公司 一种图像融合方法、计算机设备以及装置
CN112995523B (zh) * 2021-04-30 2021-07-30 武汉特斯雷信息技术有限公司 一种在线自助业务环境检测方法及系统
CN113645395A (zh) * 2021-10-19 2021-11-12 江苏日盈电子股份有限公司 车载360°全景可视摄像头及其应用
KR102656128B1 (ko) * 2022-08-18 2024-04-09 주식회사 켐트로닉스 후방 파노라마 뷰 생성 장치 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006053694A (ja) 2004-08-10 2006-02-23 Riyuukoku Univ 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体
US20110043604A1 (en) 2007-03-15 2011-02-24 Yissum Research Development Company Of The Hebrew University Of Jerusalem Method and system for forming a panoramic image of a scene having minimal aspect distortion
US20160094808A1 (en) 2014-09-29 2016-03-31 Vislab S.R.L. All-round view monitoring system for a motor vehicle
US20160191795A1 (en) 2014-12-30 2016-06-30 Alpine Electronics, Inc. Method and system for presenting panoramic surround view in vehicle

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5289321A (en) 1993-02-12 1994-02-22 Secor James O Consolidated rear view camera and display system for motor vehicle
US5670935A (en) * 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
EP2309453A3 (en) * 1998-07-31 2012-09-26 Panasonic Corporation Image displaying apparatus and image displaying method
US6717610B1 (en) * 1998-11-25 2004-04-06 Donnelly Corporation Wide angle image capture system for vehicle
JP5083443B2 (ja) * 2001-03-28 2012-11-28 パナソニック株式会社 運転支援装置および方法、ならびに演算装置
WO2006014974A2 (en) * 2004-07-26 2006-02-09 Automotive Systems Laboratory, Inc. Vulnerable road user protection system
JP2008077628A (ja) 2006-08-21 2008-04-03 Sanyo Electric Co Ltd 画像処理装置並びに車両周辺視界支援装置及び方法
DE102007044535B4 (de) * 2007-09-18 2022-07-14 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Fahrerinformation in einem Kraftfahrzeug
JP2009098085A (ja) * 2007-10-19 2009-05-07 Suzuki Motor Corp 車両用物体検知装置
WO2009144994A1 (ja) * 2008-05-29 2009-12-03 富士通株式会社 車両用画像処理装置、車両用画像処理方法
US8633810B2 (en) 2009-11-19 2014-01-21 Robert Bosch Gmbh Rear-view multi-functional camera system
EP2431226B1 (de) * 2010-09-17 2016-07-27 SMR Patents S.à.r.l. Rückblickeinrichtung für ein Kraftfahrzeug
US8471908B2 (en) * 2010-10-18 2013-06-25 GM Global Technology Operations LLC Three-dimensional mirror display system for a vehicle and method
JP5682788B2 (ja) 2011-09-27 2015-03-11 アイシン精機株式会社 車両周辺監視装置
US20150022664A1 (en) * 2012-01-20 2015-01-22 Magna Electronics Inc. Vehicle vision system with positionable virtual viewpoint
JP2013228896A (ja) * 2012-04-26 2013-11-07 Sony Corp 画像処理装置、画像処理方法、プログラム
US20140009569A1 (en) * 2012-07-05 2014-01-09 Shih-Yao Chen Panogramic Camera System for Vehicle Event Data Recorder
US9242602B2 (en) * 2012-08-27 2016-01-26 Fotonation Limited Rearview imaging systems for vehicle
JP6099333B2 (ja) * 2012-08-30 2017-03-22 富士通テン株式会社 画像生成装置、画像表示システム、パラメータ取得装置、画像生成方法及びパラメータ取得方法
US20140114534A1 (en) * 2012-10-19 2014-04-24 GM Global Technology Operations LLC Dynamic rearview mirror display features
US9533618B2 (en) 2014-03-07 2017-01-03 Texas Instruments Incorporated Method, apparatus and system for processing a display from a surround view camera solution
US20150296140A1 (en) * 2014-04-11 2015-10-15 Grey Matter Fusion, Inc. Panoramic view blind spot eliminator system and method
JP6589313B2 (ja) * 2014-04-11 2019-10-16 株式会社リコー 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
US10525883B2 (en) * 2014-06-13 2020-01-07 Magna Electronics Inc. Vehicle vision system with panoramic view
US10127463B2 (en) * 2014-11-21 2018-11-13 Magna Electronics Inc. Vehicle vision system with multiple cameras
US20160165211A1 (en) * 2014-12-08 2016-06-09 Board Of Trustees Of The University Of Alabama Automotive imaging system
US10247941B2 (en) * 2015-01-19 2019-04-02 Magna Electronics Inc. Vehicle vision system with light field monitor
US10368602B2 (en) * 2015-04-27 2019-08-06 Intelligent Cranium Helmets, LLC Protective helmet
US20170091559A1 (en) * 2015-09-29 2017-03-30 Valeo North America, Inc. Camera monitor system for a vehicle
US10438081B2 (en) 2015-10-30 2019-10-08 Texas Instruments Incorporated Automatic feature point detection for calibration of multi-camera systems
EP3410416B1 (en) * 2016-01-28 2021-08-04 Ricoh Company, Ltd. Image processing device, imaging device, mobile entity apparatus control system, image processing method, and program
JP6735474B2 (ja) * 2016-02-29 2020-08-05 パナソニックIpマネジメント株式会社 撮像装置
KR101856344B1 (ko) * 2016-08-22 2018-06-25 현대자동차주식회사 스테레오 영상 정합을 통한 시차맵 생성 시스템 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006053694A (ja) 2004-08-10 2006-02-23 Riyuukoku Univ 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体
US20110043604A1 (en) 2007-03-15 2011-02-24 Yissum Research Development Company Of The Hebrew University Of Jerusalem Method and system for forming a panoramic image of a scene having minimal aspect distortion
US20160094808A1 (en) 2014-09-29 2016-03-31 Vislab S.R.L. All-round view monitoring system for a motor vehicle
US20160191795A1 (en) 2014-12-30 2016-06-30 Alpine Electronics, Inc. Method and system for presenting panoramic surround view in vehicle

Also Published As

Publication number Publication date
WO2018129191A1 (en) 2018-07-12
CN110337386B (zh) 2023-04-28
US11102405B2 (en) 2021-08-24
EP3565739B1 (en) 2023-08-16
US10313584B2 (en) 2019-06-04
JP7054293B2 (ja) 2022-04-13
EP3565739A4 (en) 2019-12-25
EP3565739A1 (en) 2019-11-13
US20180191954A1 (en) 2018-07-05
US10674079B2 (en) 2020-06-02
JP2022095776A (ja) 2022-06-28
CN110337386A (zh) 2019-10-15
JP2020507837A (ja) 2020-03-12
CN116362971A (zh) 2023-06-30
US20200260006A1 (en) 2020-08-13
US20190253625A1 (en) 2019-08-15

Similar Documents

Publication Publication Date Title
JP7448921B2 (ja) リアビュー可視化のためのリアスティッチされたビューパノラマ
US9424650B2 (en) Sensor fusion for depth estimation
US9870601B2 (en) System and method for displaying panoramic image using single look-up table
JP5108605B2 (ja) 運転支援システム及び車両
JP5580164B2 (ja) 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム
JP5160640B2 (ja) 画像のステレオ・マッチングのためのシステム及び方法
JP2009129001A (ja) 運転支援システム、車両、立体物領域推定方法
JP2011182236A (ja) カメラキャリブレーション装置
JP5299296B2 (ja) 車両周辺画像表示装置及び車両周辺画像表示方法
JP2011060216A (ja) 画像処理装置および画像処理方法
US11140364B2 (en) Sensor fusion based perceptually enhanced surround view
Zhou et al. A two-step calibration method of lenslet-based light field cameras
EP3189493B1 (en) Depth map based perspective correction in digital photos
TW201605247A (zh) 影像處理系統及方法
US11284052B2 (en) Method for automatically restoring a calibrated state of a projection system
JP2018044942A (ja) カメラパラメータ算出装置、カメラパラメータ算出方法、プログラム、及び記録媒体
JP2013200840A (ja) 映像処理装置、映像処理方法、映像処理プログラム、及び映像表示装置
WO2011113447A1 (en) Method for camera mounting in a vehicle
CN116092050A (zh) 机动车障碍物检测方法、装置及计算机可读存储介质
CN116485907A (zh) 一种环视相机外参确定方法、装置及环视鸟瞰图采集系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220502

A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20220502

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230712

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240221

R150 Certificate of patent or registration of utility model

Ref document number: 7448921

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150