JP2022547531A - センサフュージョンに基づく知覚的に向上したサラウンドビュー - Google Patents

センサフュージョンに基づく知覚的に向上したサラウンドビュー Download PDF

Info

Publication number
JP2022547531A
JP2022547531A JP2022515621A JP2022515621A JP2022547531A JP 2022547531 A JP2022547531 A JP 2022547531A JP 2022515621 A JP2022515621 A JP 2022515621A JP 2022515621 A JP2022515621 A JP 2022515621A JP 2022547531 A JP2022547531 A JP 2022547531A
Authority
JP
Japan
Prior art keywords
vehicle
image
camera
area
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022515621A
Other languages
English (en)
Other versions
JPWO2021050405A5 (ja
Inventor
ダブラル シャシャンク
デュベイ アイシュワルヤ
フリッツ ミューラー マーティン
Original Assignee
テキサス インスツルメンツ インコーポレイテッド
日本テキサス・インスツルメンツ合同会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テキサス インスツルメンツ インコーポレイテッド, 日本テキサス・インスツルメンツ合同会社 filed Critical テキサス インスツルメンツ インコーポレイテッド
Publication of JP2022547531A publication Critical patent/JP2022547531A/ja
Publication of JPWO2021050405A5 publication Critical patent/JPWO2021050405A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • H04N1/2104Intermediate information storage for one or a few pictures
    • H04N1/2112Intermediate information storage for one or a few pictures using still video cameras
    • H04N1/2129Recording in, or reproducing from, a specific memory area or areas, or recording or reproducing at a specific moment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0084Digital still camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

Figure 2022547531000001
技法は、車両(402)の第1の位置を取得することであって、車両(402)が車両の周りに配設される一つ又は複数のカメラを有し、各カメラが、各カメラが車両(402)に関してどこに位置するかを示す物理的カメラ姿勢に関連付けられる、第1の位置を取得することと、第1のエリア(404)の第1の画像を第1のカメラによって捕捉することと、第1の画像が捕捉されたとき車両(402)の第1の位置に第1の画像を関連付けることと、第1のエリア(404)がもはや第1のカメラの視野内にないように或る方向に車両を移動させることと、車両の第2の位置を取得することと、第1のカメラの物理的カメラ姿勢及び車両の第2の位置に基づいて、時間的カメラ姿勢を判定することと、時間的カメラ姿勢及び第1の画像に基づいて、第1のエリアのビューを表すことを含む。

Description

車、航空機、ロボットなどの車両など(vehicle)には、その車両の周りの領域の外部ビューを車両の運転者に提供するために、複数の外部カメラがより一層装備されるようになってきている。これらの外部ビューは、通常、車をバックさせるか又は駐車させるときなどに、車両を操作するのを助けるために用いられる。複数のカメラビューを繋ぎ合わせて、車両の周りの外部サラウンドビューを形成し得る。しかしながら、こうしたシステムのどのカメラの視野内にもないエリアの外部ビューは利用できない。加えて、これらのマルチカメラビューを生成するためには複数のカメラが必要であり、一つ又は複数のカメラの障害がこうしたシステムの動作を妨げる可能性がある。したがって、センサフュージョンに基づく知覚的に向上したサラウンドビューのための、改良された技法を有することが望ましい。
本開示は或る方法に関し、この方法は、車両の第1の位置を取得することであって、車両は車両の周りに配設される一つ又は複数のカメラを有し、各カメラが、各カメラが車両に関してどこに位置するかを示す物理的カメラ姿勢に関連付けられる、第1の位置を取得することと、第1のエリアの第1の画像を第1のカメラによって捕捉することと、第1の画像が捕捉されたとき車両の第1の位置に第1の画像を関連付けることと、第1のエリアがもはや第1のカメラの視野内にないように或る方向に車両を移動させることと、車両の第2の位置を取得することと、第1のカメラの物理的カメラ姿勢と車両の第2の位置とに基づいて、時間的カメラ姿勢を判定することと、時間的カメラ姿勢と第1の画像とに基づいて、第1のエリアのビューを表す(render)こととを含む。
本開示の別の態様が、非一時的プログラムストレージデバイスに関し、非一時的プログラムストレージデバイスは、車両の第1の位置を取得することであって、車両は車両の周りに配設される一つ又は複数のカメラを有し、各カメラが、各カメラが車両に関してどこに位置するかを示す物理的カメラ姿勢に関連付けられる、第1の位置を取得することと、第1のエリアの第1の画像を第1のカメラから受け取ることと、第1の画像が捕捉されたとき車両の第1の位置に第1の画像を関連付けることと、第1のエリアがもはや第1のカメラの視野内にないように或る方向に車両が移動した後、車両の第2の位置を取得することと、第1のカメラの物理的カメラ姿勢と車両の第2の位置とに基づいて、時間的カメラ姿勢を判定することと、時間的カメラ姿勢と第1の画像とに基づいて、第1のエリアのビューを表すこととを一つ又は複数のプロセッサに行なわせるために記憶された命令を含む。
本開示の別の態様が、車両の周りのビューを表すためのシステムに関し、このシステムは、車両の周りに配設される一つ又は複数のカメラであって、各カメラが、各カメラが車両に関してどこに位置するかを示す物理的カメラ姿勢に関連付けられる、一つ又は複数のカメラと、メモリと、メモリ及び一つ又は複数のカメラに動作可能に結合される一つ又は複数のプロセッサとを含む。一つ又は複数のプロセッサは、車両の第1の位置を取得することと、第1のエリアの第1の画像を第1のカメラによって捕捉することと、第1の画像が捕捉されたとき車両の第1の位置に第1の画像を関連付けることと、第1のエリアがもはや第1のカメラの視野内にないように或る方向に車両が移動した後、車両の第2の位置を取得することと、第1のカメラの物理的カメラ姿勢と車両の第2の位置とに基づいて、時間的カメラ姿勢を判定することと、時間的カメラ姿勢と第1の画像とに基づいて、第1のエリアのビューを表すこととを一つ又は複数のプロセッサに行なわせる、非一時的命令を実行するように構成される。
本明細書における技法は、可視光カメラとの関連において考察され、ボウル形を用いて物理的カメラ及び仮想カメラに対する姿勢を判定する一方で、本開示において、これらの技法は、こうしたセンサや姿勢を判定するための技法に限定されないことを理解されよう。むしろ、本明細書において考察される技法は、赤外線、近赤外線を含む、非可視光センサ又は電磁センサ、或いは、広範な電磁周波数にわたる画像の捕捉が可能なカメラを含む、幅広いセンサデバイスにわたって容易に適用可能である。本明細書で考察される技法は、さらに、物理的カメラ及び仮想カメラに対する姿勢を判定する他の様式にも適用可能である。
次に、様々な例の詳細な説明のために、添付の図面を参照する。
本開示の態様に従った、3Dサラウンドビューを生成するための技法を示す図である。 本開示の態様に従った、3Dサラウンドビューを生成するための技法を示す図である。
本開示の態様に従った、サラウンドビューシステムにおいて用いるための例示の3次元(3D)ボウルメッシュの図である。
本開示の態様に従った、仮想カメラを物理的カメラにマッピングするための光線追跡プロセスを示す。
本開示の態様に従った、時間的マッピングの例示的効果を示す。 本開示の態様に従った、時間的マッピングの例示的効果を示す。
本開示の態様に従った、向上したサラウンドビューのための技法を示すフローチャートである。
本開示の態様に従った、車両の姿勢における例示的変化を示す。
本開示の態様に従った、システムの一実施形態を示すブロック図である。
本開示の態様に従った、コンピューティングデバイスの一実施形態を示すブロック図である。
図1Aは、本開示の態様に従った、3Dサラウンドビューを生成するための技法を示す図である。3Dサラウンドビューを生成するためのプロセスは、車両を真っ直ぐに見下ろしたときに真上に位置するように見える視点からの合成画像を生成する。実質的には、車両周囲近傍の仮想上面図が提供される。
車両サラウンドビューシステムは、通常、車両110の周りに搭載された4~6台の魚眼カメラを含む。例えば、カメラセットは、車両110の前部に1つ、車両110の後部にもう1つ、及び車両110の両側に1つずつを含む。各カメラによって生成される画像は、各カメラからの画像データの一つ又は複数のフレームを記憶するためのメモリ回路を含む画像信号処理システム(ISP)に提供され得る。各カメラによって捕捉される魚眼画像111~114は、例えば、車両110の周りに概念的に配置され得る。
複数の魚眼レンズカメラからサラウンドビューを生成する一般的なプロセスは、2015年10月の、Vikram Appia等による「TIのTDAx SoCに対するADASのためのサラウンドビューカメラシステム」に記載されており、これは参照により本明細書に組み込まれる。基本的なサラウンドビューカメラソリューションは、典型的には、幾何学的アライメントと合成ビュー統合との2つの主要アルゴリズム構成要素を含む。幾何学的アライメントは、入力ビデオフレームについての魚眼ひずみを補正し、それらを共通の鳥瞰透視図法に変換する。統合アルゴリズムは、幾何学的補正の後、合成サラウンドビューを生成する。シームレスに繋ぎ合わされたサラウンドビュー出力を生成するために、「測光アライメント」と呼ばれる別の主要アルゴリズムが必要となり得る。測光アライメントは、シームレスな繋ぎ合わせを達成するために、近接ビュー間の輝度及び色の不整合を補正する。測光補正は、例えば、2015年3月9日出願の米国特許出願第14/642,510号、発明の名称「サラウンドビューカメラソリューションからのディスプレイを処理するための方法、装置、及びシステム」に詳細に説明され、参照により本明細書に組み込まれる。
"Surround view camera system for ADAS on TI's TDAx SoCs," Vikram Appia etal, October 2015 米国特許出願第14/642,510号 “Method, Apparatus and System for Processing a Display From a Surround View Camera Solution”
カメラシステム較正は、魚眼レンズひずみ補正(LDC)及び透視図法変換の両方を含み得る。魚眼ひずみ補正の場合、放射ひずみモデルを用いて、放射ひずみ機能の逆変換を適用することによって、元の入力フレームから魚眼を除去し得る。LDCの後、4つの入力LDC補正フレームを変換するために、すべての入力ビューが単一の世界座標系内に適切に登録されるように、各カメラについて1つ、4つの外因性較正マトリクスが推定され得る。チャートベース較正手法が用いられ得る。チャートのコンテンツは、アルゴリズムによる、特徴の、正確で信頼性の高い発見及び整合を促進するように設計される。チャートベース較正は、例えば、2016年10月14日出願の米国特許出願第15/294,369号、発明の名称、「マルチカメラシステムの較正のための自動特徴ポイント検出」で詳細に考察され、参照により本明細書に組み込まれる。
米国特許出願第15/294,369号 “Automatic Feature Point Detection for Calibration of Multi-Camera Systems”
適切な幾何学的アライメントがすでに入力フレームに適用されているものと想定すると、図1Bの合成サラウンドビュー132は、例えば、デジタル信号プロセッサ(DSP)を用いて生成され得る。合成サラウンドビューは、カメラのセットからの4つの入力フレームすべてからのデータを用いる。重複領域は、同じ物理世界からのものであるが、2つの近接カメラによって捕捉されるフレームの部分、すなわちO{m,n}であり、ここで、m=1、2、3、4であり、n=(m+1)mod4である。O{m,n}は、ビューmとビューnとの間の重複領域を示し、nは時計回り順のビューmの近傍ビューである。O{m,n}における各位置には、利用可能な2つのピクセル、すなわち、ビューmからの画像データと、ビューnからのその空間的相対物が存在する。
較正されたカメラシステムは、4つの魚眼カメラから入力ビデオストリームを受信し、合成3Dサラウンドビュー132を作成する、サラウンドビュー統合機能を生成する。LDCモジュールが、4つの魚眼カメラの各々からの画像フレームに対し、魚眼補正、遠近法ワープ、アライメント、及び双一次/双三次補間を実施し得る。LDCモジュールは、ハードウェア加速度計(HWA)モジュールであり得、例えば、DSPモジュール又はグラフィックス処理ユニット(GPU)の一部として組み込まれ得る。DSPモジュールは、繋ぎ合わせも行い得、車両画像134などの車両の画像を最終合成出力画像132上に重ね合わせ得る。
この統合は、幾何学的LUTにおいて符号化されるマッピングを用いて、繋ぎ合わされた出力画像を作り出す。2つの近接入力フレームからの画像データが必要な出力フレームの重複領域において、各出力ピクセルは2つの入力画像におけるピクセル位置にマッピングされる。重複領域において、2つの近接画像からの画像データが混合され得るか、又は、2つの画像のうちの1つからのデータを用いるための二者択一が成され得る。
使用可能な画像データがない領域では、結果として、繋ぎ合わされた出力画像内に穴が生じ得る。例えば、車両の下の領域は、概して直接撮像されず、繋ぎ合わされた出力画像内で空白又は黒色領域として表され得る。典型的には、この空白領域は、車両画像134などの車両の重ね合わされた画像によって埋められる。カメラが無効になった場合、通常そのカメラによって撮像される対応する領域は、繋ぎ合わされた出力画像内で空白又は黒色領域として表され得る。
図2は、本開示の態様に従った、サラウンドビューシステムにおいて用いるための例示の3次元(3D)ボウルメッシュ200の図である。3D画像の場合、車両の周りの世界はボウルの形状で表され得る。シーンの完全な深さがないため、ボウルは車両の周りの世界の形状についての妥当な推定である。このボウルは、任意の平滑な変動表面とすることができる。この特定の表現では、ボウル200が用いられ、車に近い領域では平坦部分201であり、車から離れると前部及び後部がそれぞれ202、203として示される湾曲部分である。この例においてボウルの両側は、204に示されるようにわずかに上方に湾曲し得る。他の実施形態では、他のボウル形状が用いられ得る。
繋ぎ合わされた出力画像などの画像は、例えば、グラフィックス処理ユニット(GPU)又は画像プロセッサによって、3Dボウルメッシュ200上に重ね合わされ得、仮想視点又は仮想カメラのセットが、繋ぎ合わされた出力画像及び仮想視点を作り出すために用いられるカメラからのマッピングと共に、定義され得る。
図3は、本開示の態様に従った、仮想カメラを物理的カメラにマッピングするための光線追跡プロセス300を図示する。この例は、図2のボウルメッシュ200と同様の、ボウルメッシュの一部302の断面図を表す。ボウルメッシュ302は、図2の平坦部分201及び隆起部分202と同様の平坦部分304及び隆起部分306を含み得る。上記でより詳細に説明したように、魚眼レンズ310を備えるカメラ308が実際の車両の前部に搭載され得る。出力画像に対する仮想視点312が、例えば、実際の車両位置の上方にあるように定義され得る。
ボウルメッシュ302上に投影される場合、撮像領域における位置の、魚眼レンズ310を備えるカメラ308のピクセルへのマッピングを提供するために、カメラの初期較正が用いられ得る。このマッピングは、例えば、較正段階の間に準備され得、例えば、ルックアップテーブル内に記憶され得る。前述のように、仮想視点312は、ハードウェアカメラ308とは別の位置において定義され得る。仮想視点312についてのマッピングが、仮想視点画像面314における仮想視点312位置から光線を投じることによって、及び、その光線がボウルメッシュ302と交差する位置を識別することによって定義され得る。光線316、318は例である。例えば、光線316はボウルメッシュ302の平坦部分302と交差し、光線318はボウルメッシュ302の隆起部分306と交差する。光線投射動作は、ボウルメッシュ302の対応する座標を備える仮想画像面314上のあらゆる2D地点のマッピングを生成する。その後、カメラ308とボウルメッシュ302との間のマッピング、並びに、仮想視点312とボウルメッシュ302との間のマッピングを用いて、仮想視点312にとって可視の領域と、カメラ308によって可視の領域との間のマッピングが生成され得る。
本考察の態様によれば、仮想視点312にとって可視の領域は、カメラ308によって可視でない領域を含み得る。このような場合、仮想視点についてのマッピングは、複数のカメラとボウルメッシュ302との間のマッピングに基づき得る。仮想視点は任意に配置可能であり、標準的な、車両及び周囲エリアの真上のビューに限定されないことに留意されたい。例えば、仮想視点は、より多くの3D感をビューに与えるために、車両の上及びわずかに後方であるように定義することができる。加えて場合によっては、視点は、例えばユーザによって、動的に移動され得る。このような場合、マッピングは、動的に再計算するか、又は、複数の定義された位置について再計算されたマッピングのセットに基づくかの、いずれかであり得る。場合によっては、現在車両上のいずれのカメラにとっても可視でない領域は、車両上の一つ又は複数のカメラによって以前に撮像された場合があり得る。領域の画像を提供できる時間的カメラが用いられ得る。時間的カメラは、車両上のカメラが領域を直接撮像できない場合であっても、領域の画像を表示し得る。領域のこれらの画像は、以前の時点において捕捉され得、領域の画像を提供し、仮想カメラ視点に時間次元を提供するために用いられ得る。
図4A及び図4Bは、本開示の態様に従った時間的マッピングの例示的効果を図示する。図4Aは、車両の下のビューを表すための第1の例を示し、図4Bは、カメラが無効である場合にビューを表すための第2の例を示す。この例に示されるように、動いている車両の場合、tなどの現時点でにおいて車両上のカメラによって可視でない領域が、tなどの以前の時点において車両上のカメラに対して可視であった可能性がある。図4Aにおいて、時間tにおいて、進行方向、ここでは前方、に向けられたカメラを有する車402Aが、参照領域406を含む車402Aの前の領域404を撮像することが可能である。時間tにおいて、車402Bは、車402Bが現在、以前に撮像された領域404及び参照領域406の上にあるように、十分前方に進行している。明確にするために、提供される例は、前向きのカメラを備え、前方に移動する車両に関与することに留意されたい。しかしながら、当業者であれば、後進のための後向きのカメラなど、進行方向に対応する他のカメラが用いられ得ることを理解されよう。
図4Bにおいて、再び時間tにおいて、ここでは前方である進行方向に向けられたカメラを有する車410Aは、車410Bの右側カメラの視野に対応する、参照領域414を含む、車410Aの前の領域412を撮像することが可能である。時間tにおいて、車410Bは、領域412が現在、車410Bの右側カメラの視野内にあるように、十分前方に進行している。この場合、右カメラ416は無効であり、画像は右側カメラから受信されない。時間tにおいて参照領域414は車410B上のカメラによって直接撮像できないが、参照領域414は、tなどの以前の時点において事前に撮像された。そのため、仮想視点と一つ又は複数のカメラビューとの間として時間次元がマッピングに追加され得る。
本開示の態様に従い、車両について位置決めされた一つ又は複数のカメラによって捕捉される画像を記憶するために、一つ又は複数の履歴バッファが提供され得る。例えば、別個の履歴バッファが各カメラに提供され得るか、或いは、中央履歴バッファがいくつか又はすべてのカメラに提供され得る。場合によっては、履歴バッファは、履歴バッファによってサポートされる、設定時間フレームについての画像、及び/又は、一つ又は複数のカメラについての距離をバッファリングするように、十分に大きくし得る。この履歴バッファを用いて、仮想カメラについてのライブカメラ画像と同様の方式で時間的カメラについての画像が提供され得る。
図5は、本開示の態様に従った、向上したサラウンドビューのための技法を示すフローチャート500である。工程502において、この方法は、車両の第1の位置を取得することによって開始され、車両は車両の周りに配設された一つ又は複数のカメラを有し、各カメラは、各カメラが車両に関してどの場所に位置するかを示す物理的カメラ姿勢に関連付けられる。一般に、車両が、車両の前部、右側、左側、及び後部におけるカメラなどの、一つ又は複数のカメラを含み、これらは、車両の周りのエリアの画像を捕捉するように構成される。各カメラは、カメラの位置及び方向を示す物理姿勢に関連付けられる。場合によっては、位置情報は、全地球測位システム(GPS)座標を用いることなどによって、任意の既知の技法によって取得され得る。場合によっては、これらのGPS座標は、加速度計又は他の慣性センサなどの、追加のセンサによって補足され得る。工程504において、この方法は、第1のカメラによって第1のエリアの第1の画像を捕捉することを含む。例えば、車両の周りに配設されたカメラは、車両の周りのエリアの画像ストリームを捕捉し得る。場合によっては、これらのカメラのうちの一つ又は複数は、魚眼カメラであり得、複数のカメラからの画像が車両のサラウンドビューを生成するために共に繋ぎ合わせられ得るように、較正されている。例えば、画像は、車両のサラウンドビューを生成するために用いられる、ボウルメッシュ及び一つ又は複数の仮想カメラに投影され得る。
工程506において、この方法は、第1の画像が捕捉されたとき、車両の第1の位置に第1の画像を関連付けることを含む。例えば、画像がカメラによって捕捉される際、画像は車両の現在の位置に関連付けられる。これらの捕捉された画像及び関連付けられた位置は、画像又は時間的バッファ内に記憶され得る。時間的バッファは、一つ又は複数のカメラによって共有される単一の時間的バッファであり得るか、或いは、各カメラについての時間的バッファなど、そのカメラについての複数の時間的バッファが提供され得る。複数の時間的バッファは相互接続され得る。場合によっては、時間的バッファ内の画像は時間順に記憶され得、記憶される画像は、画像に関連付けられた車両の位置と、時間的バッファ内にすでに記憶された別の画像に関連付けられた車両の位置との間の、一つ又は複数の閾値距離に基づき得る。場合によっては、時間的バッファ内に記憶される複数の画像が、表示のために単一の画像の一部を表すために用いられ得る。例えば、魚眼カメラの解像度は、或る距離にわたって相対的に迅速に低下され得る。この低下される解像度を緩和するために、複数の記憶された画像を組み合わせて、単一の画像を表すことができる。より具体的な例として、画像は位置に関連付けて記憶されるため、車両の下のビューを表示するとき、車両の下の領域の第1の3分の1などの第1の部分が、領域のその第1の3分の1までの第1の距離から捕捉された時間的画像を用いて表示され得る。領域の第2の3分の1が、第2の3分の1までの第2の距離から捕捉された第2の時間的画像を用いて表示され得、第2の距離は近接しているが、領域の第1の3分の1の直後である。領域の第3の3分の1が、第3の3分の1までの第3の距離から捕捉された第3の時間的画像を用いて同様に表示され得、第3の距離は近接しているが、領域の第2の3分の1の直後である。
場合によっては、画像は、車両の進行方向に基づいて時間的バッファ内に記憶され得る。例えば、車両が実質的に前方向に進行している場合、前向きのカメラからの画像は時間的バッファ内に記憶され得るが、後ろ向きのカメラからの画像は記憶されない。その逆に、車両が実質的に後ろ方向に進行している場合、後ろ向きのカメラからの画像は時間的バッファ内に記憶され得るが、前向きカメラからの画像は記憶されない。場合によっては、画像は、時間的バッファ内の画像に関連付けられた車両の位置と車両の現在の位置との間の最大距離に基づいて、時間的バッファから除去され得る。
工程508において、この方法は、第1のエリアがもはや第1のカメラの視野内にないような方向に、車両を移動させることを含む。第1の例において、第1のエリアが実質的に車両の下にあるように、車両を移動させ得る。第2の例において、第1のエリアが実質的に第1のカメラの視野内にないが、第2のカメラの予測される視野内にあるような方向に、車両を移動させ得る。この第2の例において、第2のカメラは無効であるか、或いは別の状況で使用不可能であり、したがって、第1のエリアは第2のカメラから見ることができない。場合によっては、第2のカメラは全体として仮想カメラで置き換えることが可能である。例えば車両が、エリアのビューを捕捉するための前部及び後部カメラと、車両の左側及び右側のビューを提供するために用いられる時間的仮想カメラとを含み得る。場合によっては、時間的カメラのビュー内のビューイング角度又はエリアが、第2のカメラの予測される視野に比較して調節され得、別のカメラの画像品質が、他のカメラによって撮像される領域の縁部において、例えば、レンズ歪み、魚眼レンズなどに起因して、一層限定され得るため、時間的仮想カメラによって提供されるビューは、低下した解像度、撮像領域、及び/又は、領域を有し得る。時間的カメラのビュー内のビューイング角度又はエリアを調節することで、撮像品質の低下の影響を低減させるのを助ける。工程510において、車両の第2の位置が取得される。
工程512において、この方法は、第1のカメラの物理的カメラ姿勢及び車両の第2の位置に基づいて、時間的カメラ姿勢を判定することを含む。例えば、更に下記で考察するように、時間的カメラ姿勢は、第1のカメラの事前較正された物理的カメラ姿勢及び車両の姿勢における変化に基づき得る。時間的バッファに記憶される画像は、例えば、車両の現在の位置、並びに、車両の現在の位置と選択される画像に関連付けられた車両の位置との間の閾値距離に基づいて、選択され得る。
工程514において、この方法は、仮想カメラ姿勢及び第1の画像に基づいて、第1のエリアのビューを表すことを含む。場合によっては、時間的バッファから選択された画像は、ボウルメッシュへと投影され得る。時間的カメラからのビューは時間的画像として判定され得、この時間的画像は、例えば、車両内のディスプレイに表され得る。場合によっては、時間的バッファから選択され、ボウルメッシュへと投影される画像は、合成時間的画像を形成するために共に繋ぎ合わされ得る。時間的カメラからのビューは、合成時間的画像に基づき得る。
車両上のカメラによって以前に撮像された領域の統合された履歴ビューを生成するのを助けるために、時間的カメラの姿勢が判定され得る。場合によっては、車両の姿勢における変化に関する情報は、GPS及び慣性計測ユニット(IMU)の組み合わせを用いて取得され得る。例えば、GPS位置情報が、拡張GPSによって提供され得、或る時間における車両の姿勢を判定するために、加速度計又は他の慣性センサによって提供される回転/平行移動情報と組み合わされ得る。この姿勢情報は、履歴バッファに記憶された画像と関連付けられ得る。
図6は、本開示の態様に従った、車両の姿勢における例示の変化600を示す。一般に、姿勢は、座標系に関する実際のオブジェクト又は仮想オブジェクトのポジション及び向きを指し、Mマトリクスの形態で記述される。この例において、時間tにおいて第1の姿勢を有する車両602Aが、時間tにおいて第2の姿勢へと移動し、ここで車両602Bは、第1の姿勢とは多次元において異なる第2の姿勢を有する。車両の姿勢における変化を取り扱うために、時間的カメラの姿勢は、以前の時間に関する車両の姿勢における変化に基づき得る。車両の姿勢におけるこの変化は、ΔMによって記述され得、車両の位置、回転、及び/又は平行移動における変化に基づき得る。したがって、時間的カメラの姿勢は、FC(t0)W(t1)FC(t0)FC(t1)×FC(t1)W(t1)によって記述され得、上式で、FCは前部カメラの姿勢を表し、Wは特定の時点におけるボウルメッシュの座標などの世界座標系を表し、FC(t0)FC(t1)はΔMによって提供され、FC(t1)W(t1)はカメラ較正によって提供される。時間的カメラの相対的姿勢が判定されると、相対的姿勢は、履歴バッファに記憶された対応する画像を用いて、仮想カメラについての姿勢として用いられ得る。
履歴バッファからの画像の一貫性のない選択は、時間的一貫性、ちらつき、又は他のアーチファクトに関する問題を生じさせる可能性がある。時間的カメラに用いるために履歴バッファから正しい画像を判定するのを助けるために、距離閾値が用いられ得る。場合によっては、時間的カメラについてのカメラからの閾値距離が定義され得る。例えば、時間的カメラで用いるために、車両の前部カメラの位置から5メートル離れた閾値距離が定義され得る。場合によっては、履歴バッファ内の画像は時間順に配置され得る。履歴バッファから画像を選択するとき、画像が閾値距離よりも大きな距離から撮られたかどうかを判定するために、各画像の姿勢の平行移動成分が最も早いものから検査され得る。画像が閾値距離よりも大きな距離から撮られていない場合、閾値距離よりも大きな距離を有する第1の画像が見つかるまで、次の画像が検査される。閾値距離よりも大きな距離を有する第1の画像は、時間的カメラで用いるための画像として選択され得る。
画像の一貫性を維持するのを助けるために、場合によっては、時間的バッファ内に記憶された画像は車両の方向変化に基づいて除去され得る。例えば、後ろ方向に進行する車両が停止した後、前方向への移動を開始した場合、後ろ向きカメラについて時間的バッファ内に記憶された画像が除去され得、前向きカメラからの新しい画像が時間的バッファ内に記憶され得る。これは、車両が他の方向に移動した間にオブジェクトの位置がシフトした可能性があるため、時間的バッファ内に記憶される画像を現在のものにしておくことを助ける。同様に、車両が或る閾値時間量の間、静止したままである場合、オブジェクトがシフトした可能性があるため、時間的バッファはクリアされ得る。これを車両運転者に伝えるために、時間的バッファが無効化される際にモデルをより不透明にするように、図1の車両画像134などのモデルの透明性が低減され得る。時間的カメラによって撮像される領域のビューを生成するために、画像が時間的バッファ内に記憶される際にモデルを不透明でなくするように、モデルの透明性が増加され得る。
本開示の態様に従って、履歴バッファに記憶される画像の数を制限するためにバッファ最適化方式が用いられ得る。例えば、車両がゆっくりと進行しており、履歴バッファを急速に満たし得る場合、あらゆる可能な画像フレームを履歴バッファに記憶することは必要でない可能性がある。記憶する必要のある画像の数を減少させるのを助けるために、カメラからの画像は、離散距離周波数閾値において履歴内に記憶され得る。例えば、距離周波数閾値が10センチメートルに設定されるとき、画像に関連付けられた平行移動が最も新しく記憶された画像から10センチメートルより大きい場合、カメラからの画像は履歴バッファ内にのみ記憶され得る。
場合によっては、画像を記憶するための最大距離も設定され得る。例えば、画像バッファは、最小閾値距離を超えて5メートルなどの、最大閾値距離について画像を記憶するように構成され得る。次いで、画像バッファによってサポートされるカメラ当たりの最大画像数が算出され得、画像バッファは適切にサイズが判定され得る。例えば、画像バッファが、5メートルの最大閾値距離、及び10センチメートルの画像間の最小閾値距離に関連付けられた画像を記憶するように構成される場合、履歴バッファ内に記憶可能なカメラ当たりの最大画像数は50画像である。
図7は、本開示の態様に従った、システム700の一実施形態を示すブロック図である。この例示のシステム700は、車両の周囲に配置され、捕捉ブロック710に結合される、カメラ702~708などの複数のカメラを含む。ブロック712は、必要であれば、既知又は今後開発される画像処理方法を用いて、色補正動作(ベイヤーフォーマットからYUV420フォーマットへの変換、色調マッピング、ノイズフィルタ、ガンマ補正など)を行ない得る。ブロック714は、既知又は今後開発される技法を用いて最適な画像品質を達成するために、ビデオセンサの自動露光制御、及びホワイトバランスを行ない得る。ブロック716は、センサから捕捉される各フレームが同じ時間期間内にあることを保証するために、すべてのカメラ700~708を同期させる。場合によっては、位置サブシステム726によって提供される位置情報が、カメラによって捕捉された同期されたフレームに関連付けられ得る。位置サブシステムは、例えばGPSセンサ、並びに慣性又は加速度センサなどの他のセンサを含み得る。同期されたフレームは時間的バッファ732内に記憶され得る。バッファマネージャ736が、或る画像を記憶するかどうかを判定するために閾値化を行なうこと、車両の進行の距離及び方向、静止の時間量などに基づいて画像を除去すること、並びに、どのカメラ画像が時間的バッファ732内に記憶されるかを管理することなどによって、時間的バッファ732内に記憶される画像を管理し得る。場合によっては、時間的バッファは、前部及び後ろ向きカメラからの画像のみを記憶するように最適化され得る。
カメラ702~708によって直接提供される入力ビデオフレーム、並びに、仮想及び時間的カメラに基づいて時間的バッファ732内に記憶される画像をワープするために、較正器724によって生成されるマッピングルックアップテーブルがワープモジュール728によって用いられ得る。したがって、魚眼ひずみ補正及び視点ワープが、どちらも、所定の視点マッピングを用いる単一動作において行なわれ得る。
シンセサイザモジュール730は、各ビデオチャネルからの1つのフレームを含む合成ビデオフレームの生成の責務を負う。合成パラメータは、仮想視点に依存して変更可能である。このモジュールは、図1に関して上記で説明した統合ブロックと同様である。魚眼入力画像の代わりに、シンセサイザモジュール730は、ワープモジュール728から各カメラ画像についてワープ修正された出力を受けとる。
シンセサイザモジュール730は、近接カメラ及び時間的カメラに対応する画像を繋ぎ合わせ及び混合し得る。混合位置は、仮想ビューの位置に基づいて変動し、この情報は、発生するワールドビューメッシュをオフラインで符号化することもできる。
ディスプレイサブシステム734が、シンセサイザ730から出力されるビデオストリームを受信し得、同じのものを、車両の運転者による閲覧のため、接続されたLCD、モニタ、TVなどのディスプレイユニット上に表示し得る。このシステムは、検出されるオブジェクト、歩行者、警告などのメタデータも表示するように構成され得る。
本明細書で説明する特定の実装では、4台のカメラが用いられる。本明細書で開示される同じ原理は、他の実施形態ではN台のカメラまで拡張され得、Nは4よりも大きくても又は小さくてもよい。
カメラ較正マッピングデータ718は、ワールドビューメッシュとの組み合わせで較正手順によって生成され得、3Dボウルメッシュテーブル720内に記憶され得る。上記でより詳細に説明したように、ワールドビューメッシュ720は、オフライン722で生成され得、較正器モジュール724による今後の使用のために記憶され得る。
事前に定義された各仮想視点について、較正器モジュール724は、関連する3Dボウルメッシュテーブル720を読み取り、カメラ較正パラメータ718を補償し、4つのチャネル各々について2Dメッシュルックアップテーブルを生成する。これは典型的にはワンタイム動作であり、例えば、組み立てプロセスの間にシステムが車両内に置かれるときなど、システムが開始されたときに行われる。このプロセスは、車両上に搭載されるカメラのうちの1つについてポジション変更が感知されたときに必ず反復され得る。したがって、車両が移動するにつれて時間的カメラの較正が各フレームを変化させるため、3Dボウルメッシュテーブル720は時間的カメラの各フレームについて生成され得る。いくつかの実施形態において、較正プロセスは、例えば、車両が始動されるごとに反復され得る。
場合によっては、カメラからの捕捉画像データは、時間的バッファと関連して用いるには有効でない可能性がある。例えば、車などの車両が混雑した往来を進行している場合、カメラからの捕捉画像は他の車両の画像を含み得る。こうした画像は、一例として、車両の下の領域の画像を表示する時間的カメラと共に用いるには不適切である。こうした場合、時間的カメラは、例えば、捕捉画像が時間的カメラのための使用を無効にするオブジェクトを含むとき、車両のモデルを不透明にすることによって、無効化され得る。画像が、捕捉され、こうしたオブジェクトを含まない時間的バッファ内に記憶されると、モデルをより不透明でなくするように、モデルの透明性が増加され得る。捕捉画像内のオブジェクトが、任意の既知の技法を用いて検出及び識別され得る。
図8に示されるように、デバイス800は、一つ又は複数のハードウェアプロセッサを含むプロセッサ805などの処理要素を含み、各ハードウェアプロセッサは単一又は複数のプロセッサコアを有し得る。プロセッサの例は、限定されないが、中央処理ユニット(CPU)又はマイクロプロセッサを含む。図8には示されていないが、プロセッサ805を構成する処理要素は、グラフィックス処理ユニット(GPU)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、及び/又はデジタル信号プロセッサ(DSP)などの、一つ又は複数の他のタイプのハードウェア処理構成要素も含み得る。場合によっては、プロセッサ805は、図7のモジュール710~716、724~730と関連して説明するタスクを実行するように構成され得る。
図8は、プロセッサ805に動作可能及び通信可能に結合され得るメモリ810を示す。メモリ810は、様々なタイプのデータを記憶するように構成される、非一時的コンピュータ可読記憶媒体であり得る。例えば、メモリ810は、ランダムアクセスメモリ(RAM)などの一つ又は複数の揮発性デバイスを含み得る。場合によっては、図7の時間的バッファ730はメモリ810の一部であり得る。不揮発性ストレージデバイス820は、一つ又は複数のディスクドライブ、光学ドライブ、ソリッドステートドライブ(SSD)、タップドライブ、フラッシュメモリ、電気的消去可能プログラマブル読み取り専用メモリ(EEPROM)、及び/又は、停電又はシャットダウン動作の後、或る持続時間の間データを維持するように設計された任意の他のタイプのメモリを含み得る。不揮発性ストレージデバイス820は、こうしたプログラムを実行したときにRAMにロードされるプログラムを記憶するためにも用いられ得る。
当業者であれば、ソフトウェアプログラムが、様々なソフトウェアプラットフォーム及び/又はオペレーティングシステムのための様々なコンピューティング言語で開発、符号化、及びコンパイルされ得ること、及びその後、プロセッサ805によってロード及び実行され得ることを承知されよう。一実施形態において、ソフトウェアプログラムのコンパイルプロセスは、プロセッサ805がプログラミングコードを実行できるように、プログラミング言語で作成されたプログラムコードを別のコンピュータ言語に変換し得る。例えば、ソフトウェアプログラムのコンパイルプロセスは、具体的な、非汎用の、特定のコンピューティング機能を達成するために、プロセッサ805のための符号化された命令(例えば、機械コード命令)を提供する実行可能プログラムを生成し得る。
コンパイルプロセスの後、符号化された命令は、コンピュータ実行可能命令又はプロセス工程として、ストレージ820から、メモリ810から、プロセッサ805にロードされ得、及び/又は、(例えば、キャッシュ又はオンボードROMを介して)プロセッサ805内に埋め込まれ得る。プロセッサ805は、コンピューティングデバイスを、非汎用の、特定の、特別にプログラミングされた、機械又は装置に変換するように、命令又はプロセス工程を実施するために、記憶された命令又はプロセス工程を実行するように構成され得る。記憶されたデータ、例えば、ストレージデバイス820によって記憶されたデータには、コンピュータ実行可能命令又はプロセス工程の実行中、コンピューティングデバイス800内の一つ又は複数の構成要素に命令するために、プロセッサ805によってアクセスされ得る。ストレージ820は、異なるソフトウェアプログラムによってアクセスされ得る複数のセクションに区分又は分割され得る。例えば、ストレージ820は、コンピューティングデバイス800のソフトウェアを更新するためのプログラム命令又はデータを記憶することなどの、特定の目的に指定されたセクションを含み得る。一実施形態において、更新されるべきソフトウェアは、コンピューティングデバイスのROM又はファームウェアを含む。場合によっては、コンピューティングデバイス800は複数のオペレーティングシステムを含み得る。例えば、コンピューティングデバイス800は、通常動作に利用される汎用オペレーティングシステムを含み得る。コンピューティングデバイス800は、汎用オペレーティングシステムをアップグレード及び回復させることなどの特定のタスクを実行するため、及び、一般的には汎用オペレーティングシステムを介して使用できないレベルでのコンピューティングデバイス800へのアクセスを可能にするために、ブートローダなどの別のオペレーティングシステムも含み得る。汎用オペレーティングシステム及び別のオペレーティングシステムのどちらも、特定の目的に指定されたストレージ820のセクションにアクセスし得る。
一つ又は複数の通信インターフェースは、一つ又は複数の無線通信デバイスとのインターフェースのための無線通信インターフェースを含み得る。場合によっては、プロセッサに結合される要素は、プロセッサと共有されるハードウェア上に含まれ得る。例えば、通信インターフェース825、ストレージ820、及びメモリ810は、デジタル無線などの他の要素と共に、システムオンチップ(SOC)内などの単一チップ又はパッケージ内に含められ得る。コンピューティングデバイスは、図示されていないが、入力及び/又は出力デバイスも含み得、その例は、センサやカメラ、マウス、キーボード、タッチスクリーンなどの人間入力デバイス、モニタ、ディスプレイスクリーン、触覚又は運動発生器、スピーカ、光源などを含む。例えば、レーダデバイス830からの処理された入力が、コンピューティングデバイス800から通信インターフェース825を介して一つ又は複数の他のデバイスへと出力され得る。
上記の考察は、本開示の原理及び様々な実装の例示であることが意図される。当業者であれば、上記の開示が完全に理解されると、多数の変形及び改変が明らかとなろう。下記の特許請求の範囲は、こうしたすべての変形及び改変を包含するものと解釈されることが意図される。
本明細書において、乗車運転者を伴う従来の車両について説明してきたが、他の実施形態が、遠隔サイトから制御され得る自律走行車などの、「運転者」が車両から遠く離れた車両において実装され得る。
本明細書で用いられる際、「車両」という用語は、リアルタイムで仮想視点を形成するために、複数のカメラからの低コストで低電力の画像処理が有利である、ロボット、工業用デバイス、医療用デバイスなどの、他のタイプのデバイスにも適用され得る。
本開示において説明される技法は、ハードウェア、ソフトウェア、ファームウェア、又はそれらの任意の組み合わせにおいて実装され得る。ソフトウェアにおいて実装される場合、ソフトウェアは、マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、デジタル信号プロセッサ(DSP)などの、一つ又は複数のプロセッサにおいて実行され得る。こういった技法を実行するソフトウェアは、コンパクトディスク(CD)、ディスケット、テープ、ファイル、メモリ、又は任意の他のコンピュータ可読記憶デバイスなどの、コンピュータ可読媒体内に初期に記憶され得、その後、プロセッサにロードされ実行され得る。いくつかの場合には、ソフトウェアは、コンピュータ可読媒体、及びコンピュータ可読媒体用のパッケージング材料を含む、コンピュータプログラム製品において販売もされ得る。いくつかの場合には、ソフトウェア命令は、取り外し可能コンピュータ可読媒体(例えば、フロッピーディスク、光ディスク、フラッシュメモリ、USBキー)を介する、別のデジタルシステム上のコンピュータ可読媒体からの伝送経路を介するなどによって、配布され得る。
本明細書において、「結合する」という用語は、間接的又は直接的な有線又は無線接続のいずれかを意味する。したがって、第1のデバイスが第2のデバイスに結合する場合、その接続は、直接接続を介するか、又は、他のデバイス及び接続を介した間接的接続を介することができる。
特許請求の範囲において、説明した実施形態における改変は可能であり、また他の実施形態は可能である。

Claims (20)

  1. 方法であって、
    車両の第1の位置を取得することであって、前記車両が前記車両の周りに配設される一つ又は複数のカメラを有し、各カメラが、各カメラが前記車両に関してどこに位置するかを示す物理的カメラ姿勢に関連付けられる、前記第1の位置を取得することと、
    第1のエリアの第1の画像を第1のカメラによって捕捉することと、
    前記第1の画像が捕捉されたとき、前記車両の前記第1の位置に前記第1の画像を関連付けることと、
    前記第1のエリアがもはや前記第1のカメラの視野内にないような方向に、前記車両を移動させることと、
    前記車両の第2の位置を取得することと、
    前記第1のカメラの前記物理的カメラ姿勢と前記車両の前記第2の位置とに基づいて、時間的カメラ姿勢を判定することと、
    前記時間的カメラ姿勢と前記第1の画像とに基づいて、前記第1のエリアのビューを表すことと、
    を含む、方法。
  2. 請求項1に記載の方法であって、前記車両を移動させることが、前記第1のエリアが前記車両の下にあるように前記方向に前記車両を移動させることを含み、前記ビューを表すことが、前記車両の下の前記第1のエリアを表すことを含む、方法。
  3. 請求項1に記載の方法であって、前記第1のエリアの前記第1の画像を画像バッファ内に記憶することを更に含み、前記画像バッファ内の画像が時間順に記憶され、前記ビューを表すことが、前記画像バッファ内に記憶された前記画像に基づく、方法。
  4. 請求項3に記載の方法であって、
    前記第1のカメラによって、前記第1のエリアと少なくとも部分的に重複する第2のエリアの第2の画像を捕捉することと、
    前記第2の画像を前記画像バッファ内に記憶することと、
    を更に含む、方法。
  5. 請求項4に記載の方法であって、
    前記第2の画像に関連付けられる前記車両の第3の位置が、前記第1のエリアから少なくとも最小閾値距離にあり、
    前記第3の位置が前記第1のエリアから少なくとも前記最小閾値距離にあるという判定に基づいて、前記第2の画像を記憶する、
    方法。
  6. 請求項3に記載の方法であって、前記ビューを表すことが、
    前記画像バッファから候補画像を選択する工程と、
    前記車両の現在の位置と、前記選択された候補画像に関連付けられる前記車両の前記位置との間の距離を判定する工程と、
    前記距離が最小閾値距離よりも大きいか又は等しい場合、前記選択された候補画像を選択する工程と、
    前記選択された候補画像に基づいて、前記ビューを表す工程と、
    を反復することを含む、方法。
  7. 請求項3に記載の方法であって、前記候補画像に関連付けられる前記車両の前記位置と前記車両の前記現在の位置とが、最大距離閾値を上回るという判定に基づいて、前記画像バッファから失効した画像を削除することを更に含む、方法。
  8. 請求項1に記載の方法であって、第2のカメラによって、前記第1のエリアの第2の画像を捕捉することを更に含み、前記第1のエリアの前記ビューを表すことが、前記第1のエリアの前記第2の画像に更に基づく、方法。
  9. 非一時的プログラムストレージデバイスであって、一つ又は複数のプロセッサに、
    車両の第1の位置を取得することであって、前記車両が前記車両の周りに配設される一つ又は複数のカメラを有し、各カメラが、各カメラが前記車両に関してどこに位置するかを示す物理的カメラ姿勢に関連付けられる、前記第1の位置を取得することと、
    第1のカメラから、第1のエリアの第1の画像を受けとることと、
    前記第1の画像が捕捉されたとき、前記車両の前記第1の位置に前記第1の画像を関連付けることと、
    前記第1のエリアがもはや前記第1のカメラの視野内にないように或る方向に前記車両を移動させた後、前記車両の第2の位置を取得することと、
    前記第1のカメラの前記物理的カメラ姿勢と前記車両の前記第2の位置とに基づいて、時間的カメラ姿勢を判定することと、
    前記時間的カメラ姿勢と前記第1の画像とに基づいて、前記第1のエリアのビューを表すことと、
    を行なわせるために記憶された命令を含む、非一時的プログラムストレージデバイス。
  10. 請求項9に記載の非一時的プログラムストレージデバイスであって、前記第1のエリアが前記車両の下にあるように前記方向に前記車両が移動するとき、前記ビューを表すことが、前記車両の下の前記第1のエリアを表すことを含む、非一時的プログラムストレージデバイス。
  11. 請求項9に記載の非一時的プログラムストレージデバイスであって、前記記憶された命令が更に、一つ又は複数のプロセッサに、前記第1のエリアの前記第1の画像を画像バッファ内に記憶することを実施させ、
    前記画像バッファ内の画像が時間順に記憶され、
    前記ビューを表すことが、前記画像バッファ内に記憶される前記画像に基づく、
    非一時的プログラムストレージデバイス。
  12. 請求項11に記載の非一時的プログラムストレージデバイスであって、前記記憶された命令が更に、一つ又は複数のプロセッサに、
    前記第1のカメラから、前記第1のエリアと少なくとも部分的に重複する第2のエリアの第2の画像を受けとることと、
    前記第2の画像を前記画像バッファ内に記憶することと、
    を実施させる、非一時的プログラムストレージデバイス。
  13. 請求項12に記載の非一時的プログラムストレージデバイスであって、前記記憶された命令が更に、一つ又は複数のプロセッサに、
    前記第2の画像に関連付けられる前記車両の第3の位置を取得することと、
    前記車両の前記第3の位置が、前記第1のエリアから少なくとも最小閾値距離にあると判定することと、
    前記第3の位置が、前記第1のエリアから少なくとも前記最小閾値距離にあるという前記判定に基づいて、前記第2の画像を記憶することと、
    を実施させる、非一時的プログラムストレージデバイス。
  14. 請求項11に記載の非一時的プログラムストレージデバイスであって、前記ビューを表すための前記記憶された命令が更に、一つ又は複数のプロセッサに、
    前記画像バッファから候補画像を選択する工程と、
    前記車両の現在の位置と、前記選択された候補画像に関連付けられる前記車両の前記位置との間の距離を判定する工程と、
    前記距離が最小閾値距離よりも大きいか又は等しい場合、前記選択された候補画像を選択する工程と、
    前記選択された候補画像に基づいて、前記ビューを表す工程と、
    を反復させる、非一時的プログラムストレージデバイス。
  15. 請求項11に記載の非一時的プログラムストレージデバイスであって、前記記憶された命令が更に、一つ又は複数のプロセッサに、
    前記候補画像に関連付けられる前記車両の前記位置と前記車両の前記現在の位置とが、最大距離閾値を上回るという判定に基づいて、前記画像バッファから失効した画像を削除することと、
    を行なわせる、非一時的プログラムストレージデバイス。
  16. 請求項9に記載の非一時的プログラムストレージデバイスであって、前記記憶された命令が更に、一つ又は複数のプロセッサに、
    第2のカメラによって、前記第1のエリアの第2の画像を捕捉することを実施させ、
    前記第1のエリアの前記ビューを表すことが、前記第1のエリアの前記第2の画像に更に基づく、
    非一時的プログラムストレージデバイス。
  17. 車両の周りのビューを表すためのシステムであって、前記システムが、
    前記車両の周りに配設される一つ又は複数のカメラであって、各カメラが、各カメラが前記車両に関してどこに位置するかを示す物理的カメラ姿勢に関連付けられる、前記一つ又は複数のカメラと、
    メモリと、
    前記メモリ及び前記一つ又は複数のカメラに動作可能に結合される一つ又は複数のプロセッサと、
    を含み、
    前記一つ又は複数のプロセッサが、
    前記車両の第1の位置を取得することと、
    第1のエリアの第1の画像を第1のカメラによって捕捉することと、
    前記第1の画像が捕捉されたとき、前記車両の前記第1の位置に前記第1の画像を関連付けることと、
    前記第1のエリアがもはや前記第1のカメラの視野内にないように或る方向に前記車両が移動した後、前記車両の第2の位置を取得することと、
    前記第1のカメラの前記物理的カメラ姿勢と前記車両の前記第2の位置とに基づいて、時間的カメラ姿勢を判定することと、
    前記時間的カメラ姿勢と前記第1の画像とに基づいて、前記第1のエリアのビューを表すことと、
    を前記一つ又は複数のプロセッサに実施させる非一時的命令を実行するように構成される、
    システム。
  18. 請求項17に記載のシステムであって、前記車両が前記第1のエリアが前記車両の下にあるように前記方向に移動するとき、前記ビューを表すことが、前記車両の下の前記第1のエリアを表すことを含む、システム。
  19. 請求項17に記載のシステムであって、前記非一時的命令が更に、前記一つ又は複数のプロセッサに、
    前記第1のエリアの前記第1の画像を画像バッファ内に記憶することを実施させ、
    前記画像バッファ内の画像が時間順に記憶され、前記ビューを表すことが、前記画像バッファ内に記憶される前記画像に基づく、
    システム。
  20. 請求項19に記載のシステムであって、前記非一時的命令が更に、前記一つ又は複数のプロセッサに、
    前記第1のカメラから、前記第1のエリアと少なくとも部分的に重複する第2のエリアの第2の画像を受けとることと、
    前記第2の画像を前記画像バッファに記憶することと、
    を実施させる、システム。
JP2022515621A 2019-09-09 2020-09-08 センサフュージョンに基づく知覚的に向上したサラウンドビュー Pending JP2022547531A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962897581P 2019-09-09 2019-09-09
US62/897,581 2019-09-09
US16/690,906 2019-11-21
US16/690,906 US11140364B2 (en) 2019-09-09 2019-11-21 Sensor fusion based perceptually enhanced surround view
PCT/US2020/049639 WO2021050405A1 (en) 2019-09-09 2020-09-08 Sensor fusion based perceptually enhanced surround view

Publications (2)

Publication Number Publication Date
JP2022547531A true JP2022547531A (ja) 2022-11-14
JPWO2021050405A5 JPWO2021050405A5 (ja) 2023-09-14

Family

ID=74180594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022515621A Pending JP2022547531A (ja) 2019-09-09 2020-09-08 センサフュージョンに基づく知覚的に向上したサラウンドビュー

Country Status (5)

Country Link
US (3) US10897600B1 (ja)
EP (1) EP4028288A4 (ja)
JP (1) JP2022547531A (ja)
CN (1) CN114423646A (ja)
WO (1) WO2021050405A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10861359B2 (en) * 2017-05-16 2020-12-08 Texas Instruments Incorporated Surround-view with seamless transition to 3D view system and method
EP3776485B1 (en) * 2018-09-26 2022-01-26 Coherent Logix, Inc. Any world view generation
US11341607B2 (en) * 2019-06-07 2022-05-24 Texas Instruments Incorporated Enhanced rendering of surround view images
CN114323020B (zh) * 2021-12-06 2024-02-06 纵目科技(上海)股份有限公司 车辆的定位方法、系统、设备及计算机可读存储介质
WO2024096900A1 (en) * 2022-10-30 2024-05-10 Atieva, Inc. Visual representation and control enabled by remote computation and rendering

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013541915A (ja) 2010-12-30 2013-11-14 ワイズ オートモーティブ コーポレーション 死角地帯の表示装置および方法
US9508014B2 (en) 2013-05-06 2016-11-29 Magna Electronics Inc. Vehicular multi-camera vision system
US10210399B2 (en) 2013-12-20 2019-02-19 Magna Electronics Inc. Vehicle vision system with image processing
US9533618B2 (en) 2014-03-07 2017-01-03 Texas Instruments Incorporated Method, apparatus and system for processing a display from a surround view camera solution
KR101670847B1 (ko) * 2014-04-04 2016-11-09 주식회사 와이즈오토모티브 차량 주변 이미지 생성 장치 및 방법
GB201406405D0 (en) 2014-04-09 2014-05-21 Jaguar Land Rover Ltd Apparatus and method for displaying information
US10438081B2 (en) 2015-10-30 2019-10-08 Texas Instruments Incorporated Automatic feature point detection for calibration of multi-camera systems
US10523865B2 (en) 2016-01-06 2019-12-31 Texas Instruments Incorporated Three dimensional rendering for surround view using predetermined viewpoint lookup tables
US10922559B2 (en) 2016-03-25 2021-02-16 Bendix Commercial Vehicle Systems Llc Automatic surround view homography matrix adjustment, and system and method for calibration thereof
JP6642306B2 (ja) * 2016-06-29 2020-02-05 アイシン精機株式会社 周辺監視装置
US10982968B2 (en) * 2018-03-29 2021-04-20 Nio Usa, Inc. Sensor fusion methods for augmented reality navigation

Also Published As

Publication number Publication date
US11140364B2 (en) 2021-10-05
US10897600B1 (en) 2021-01-19
CN114423646A (zh) 2022-04-29
EP4028288A1 (en) 2022-07-20
US20210092327A1 (en) 2021-03-25
EP4028288A4 (en) 2022-12-14
US11528453B2 (en) 2022-12-13
US20210075959A1 (en) 2021-03-11
WO2021050405A1 (en) 2021-03-18

Similar Documents

Publication Publication Date Title
JP7397262B2 (ja) 事前定義されたビューポイントルックアップテーブルを用いるサラウンドビューのための3次元レンダリング
JP2022547531A (ja) センサフュージョンに基づく知覚的に向上したサラウンドビュー
JP7448921B2 (ja) リアビュー可視化のためのリアスティッチされたビューパノラマ
US9633266B2 (en) Image processing apparatus and method that synthesizes an all-round image of a vehicle's surroundings
JP5818773B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20130141547A1 (en) Image processing apparatus and computer-readable recording medium
JP5959264B2 (ja) 画像処理装置及び方法、並びにコンピュータプログラム
WO2014178966A1 (en) Diminished and mediated reality effects from reconstruction
KR20170135952A (ko) 차량의 주변 영역을 표시하기 위한 방법
JP2011155393A (ja) 車両周辺画像表示装置及び車両周辺画像表示方法
JP2006333009A (ja) 俯瞰画像表示装置及び俯瞰画像表示方法
WO2019198399A1 (ja) 画像処理装置および方法
EP3098777B1 (en) Drawing apparatus, drawing method, and drawing program
JP7029350B2 (ja) 画像処理装置および画像処理方法
US11858420B2 (en) Below vehicle rendering for surround view systems
JP2009077022A (ja) 運転支援システム及び車両
WO2018016274A1 (ja) 画像処理装置
JP2020119492A (ja) 画像合成装置、及び、制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230906

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240911