JP2017536717A - ボウル型イメージングシステムにおけるオブジェクト視覚化 - Google Patents

ボウル型イメージングシステムにおけるオブジェクト視覚化 Download PDF

Info

Publication number
JP2017536717A
JP2017536717A JP2017514834A JP2017514834A JP2017536717A JP 2017536717 A JP2017536717 A JP 2017536717A JP 2017514834 A JP2017514834 A JP 2017514834A JP 2017514834 A JP2017514834 A JP 2017514834A JP 2017536717 A JP2017536717 A JP 2017536717A
Authority
JP
Japan
Prior art keywords
image
fisheye
moving object
overlapping
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017514834A
Other languages
English (en)
Other versions
JP6469849B2 (ja
Inventor
ショル,カイ−ウルリッヒ
ビュルクレ,コルネリウス
ナトロシュヴィリ,コバ
Original Assignee
インテル コーポレイション
インテル コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテル コーポレイション, インテル コーポレイション filed Critical インテル コーポレイション
Publication of JP2017536717A publication Critical patent/JP2017536717A/ja
Application granted granted Critical
Publication of JP6469849B2 publication Critical patent/JP6469849B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/08Projecting images onto non-planar surfaces, e.g. geodetic screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/12Shadow map, environment map

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Mechanical Engineering (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Signal Processing (AREA)

Abstract

移動オブジェクトをボウル形状画像に視覚化する技術は、コンピューティングデバイスが、第1の魚眼カメラにより生成され、第1のシーンを取得した第1の魚眼画像と、第2の魚眼カメラにより生成され、重複領域において第1のシーンと重複する第2のシーンを取得した第2の魚眼画像とを受け取る。コンピューティングデバイスは、重複領域内の移動オブジェクトを識別し、投影された重複画像領域を修正して、識別された移動オブジェクトを仮想ボウル形状投影表面上に視覚化する。投影される重複する画像領域は、仮想ボウル形状投影面上に投影され、第1と第2の魚眼画像に取得された重複領域に対応する。

Description

[関連米国特許出願への相互参照]
本願は、2014年9月17日出願の米国特許出願第14/488,793号(発明の名称「OBJECT VISUALIZATION IN BOWL−SHAPED IMAGING SYSTEMS」)の優先権を主張するものである。
リアビューカメラなどの車載カメラシステムは、高級車や一部のローエンド車でも主流になっている。具体的な実装に応じて、車載カメラシステムは、視覚の改善、自動並列駐車、及び/又は他の目的のために使用されてもよい。例えば、車両に搭載されたカメラによって取得された画像は、車両のナビゲーションシステムの表示画面に表示され、運転者に、車両の遮られない後方ビュー(すなわち、バックミラーより良いもの)、または車両のオーバーヘッドビュー(すなわち、車両の周囲を示すもの)を提供する。
いくつかのカメラを車両に搭載して、車両の周囲のすべてを取得することができる(すなわち、360度全体)。このような車載カメラシステムは、車両の周囲を取得するのに必要なカメラの数を最小にするために、魚眼レンズなどを有する広角カメラ(すなわち、魚眼カメラ)を使用することがある。しかしながら、隣接するカメラの重なり合った領域は、画像のあいまい性、二重性、及び/又は不可視オブジェクトを生じる単一の実世界点(a single real−world point)のさまざまな投影をもたらすことがある。例えば、重なり合った領域を歩いている歩行者が二重に表示されたり、悪くすると、表示されなかったりする可能性がある。このような車載カメラシステムは、運転者に車両周囲のすべてを見ることができるという感覚を運転者に与えるので、不可視オブジェクト(すなわち、表示されていないオブジェクト)に関連する危険が増幅される。
ここで説明するコンセプトを、添付した図面において、限定ではなく実施例により説明する。説明を単純かつ明確にするため、図に示した要素は必ずしもスケール通りには描いていない。適当であれば、対応または類似する要素を示すため、複数の図面で同じ参照レベルを用いた。
車両周囲の物理的環境を表示する、車両の車載コンピューティングシステムの少なくとも1つの実施形態の簡略化したブロック図である。
図1の車両の少なくとも1つの実施形態の簡略図である。
図1の車載コンピューティングシステムによって確立された環境の少なくとも1つの実施形態の簡略ブロック図である。
仮想ボウル形状投影面の少なくとも1つの実施形態の簡略図である。
図4の仮想ボウル形状投影面の上面簡略図である。 図4の仮想ボウル形状投影面の下面簡略図である。
図4の仮想ボウル形状投影面の垂直断面の簡略図である。
図4の仮想ボウル形状投影面上へのオブジェクトの投影の少なくとも1つの実施形態の簡略図である。
図1の車載コンピューティングシステムによってボウル形状画像上に移動するオブジェクトを視覚化する方法の少なくとも1つの実施形態の簡略化された流れ図である。
図1の車載コンピューティングシステムによって、移動するオブジェクトの輪郭を投影して、移動するオブジェクトを視覚化する方法の少なくとも1つの実施形態の簡略化された流れ図である。
図1の車載コンピューティングシステムによって、隣接する画像間の接合部を修正して、移動するオブジェクトを視覚化する方法の少なくとも1つの実施形態の簡略化された流れ図である。
図4の仮想ボウル形状投影面上への、移動するオブジェクトの輪郭の投影の少なくとも1つの実施形態の簡略図である。
図10の方法に基づいて修正された接合部を有する投影画像の簡略図である。
図10の方法に基づいて修正された接合部を有する投影画像の簡略図である。
図10の方法に基づいて修正された接合部を有する投影画像の簡略図である。
本開示のコンセプトはいろいろな修正を施したり代替的形式を取ったりすることもできるが、その具体的な実施形態を図面において実施例で示し、ここに詳細に説明する。しかし、言うまでもなく、開示した具体的な形式に本開示を限定する意図ではなく、逆に、本発明は本開示と添付した特許請求の範囲に沿ったすべての修正、等価物及び代替物をカバーするものである。
本明細書において「one embodiment」、「an embodiment」、「an illustrative embodiment」などと言う場合、記載した実施形態が、ある機能、構造、または特徴を含むが、かならずしもすべての実施形態がその機能、構造、または特徴を含んでも含まなくてもよい。さらに、かかる文言は必ずしも同じ実施形態を参照しているとは限らない。さらに、ある機能、構造、または特徴をある実施形態について説明した場合、明示的に記載していようがいまいが、他の実施形態に関するそれらの機能、構造、または特徴に影響が及ぶことは、当業者には自明である。また、言うまでもなく、「少なくとも1つのA、B及びC」は、(A)、(B)、(C)、(A及びB)、(B及びC)、(A及びC)又は(A、B、及びC)を意味し得る。同様に、「A、B又はCのうちの少なくとも1つ」との形式のリストに含まれるアイテムは、(A)、(B)、(C)、(A及びB)、(B及びC)、(A及びC)、又は(A、B、及びC)を意味し得る。
開示した実施形態は、幾つかの場合には、ハードウェア、ファームウェア、ソフトウェア、またはそれらの任意の組み合わせで実装できる。開示の実施形態は、一以上の一時的又は非一時的な機械読み取り可能(例えば、コンピュータ読み取り可能)記憶媒体により担われ、又はそれに格納された(一以上のプロセッサにより読み取られ実行され得る)命令として実装することもできる。機械読み取り可能記憶媒体は、機械により読み取り可能な形式で情報を格納又は送信する任意のストレージデバイス、メカニズム、又はその他の物理的構造(例えば、揮発性又は不揮発性メモリ、メディアディスク、又はその他のメディアデバイス)として実施できる。
図中、幾つかの構造的又は方法フィーチャを具体的な構成及び/又は順序で示すかも知れない。しかし、言うまでもなく、かかる具体的な構成及び/又は順序は必須ではない場合がある。むしろ、幾つかの場合には、かかるフィーチャは、例示した図面に示したのとは異なる方法及び/又は順序で構成することもできる。また、ある図面に構造的又は方法フィーチャを含めることは、かかるフィーチャがすべての実施形態において必要であることを意味するのではなく、幾つかの実施形態では、含まれなくてもよいし、他のフィーチャと組み合わされてもよい。
ここで図1を参照する。図1に示すように、例示的な実施形態では、車両100は、本明細書で説明される機能を実行することができる任意のタイプのコンピューティングシステムとして具体化され得る車載コンピューティングシステム102を含む。例示的な実施形態では、車両100は、車輪付き乗用車(例えば、自動車、トラック、トラックトラクター、バスなど)として具体化される。しかしながら、言うまでもなく、他の実施形態では、車両100は、別のタイプの車両(例えば、レール駆動トロリー、無人車両、または説明される技術および機構の適用に適した別の車両)として実施されてもよく、または他の可動装置として実施されてもよい。本明細書で説明するように、例示的な実施形態では、車載コンピューティングシステム102は、オーバーラップする視野(すなわち、シーン)を有する隣接する魚眼カメラで魚眼画像を取得するように構成される。車載コンピューティングシステム102は、重複領域内を移動するオブジェクトを識別し、投影された重複画像領域(すなわち、重なり合う視野に関連する重複領域に対応するもの)を修正し、識別された移動オブジェクトを仮想ボウル形状投影面(例えば、図4参照)上に視覚化する。いくつかの実施形態では、車載コンピューティングシステム102は、識別された移動オブジェクトの輪郭を仮想ボウル形状の投影面に投影して、移動オブジェクトを視覚化する。一方、他の実施形態では、車載コンピューティングシステム102は、魚眼画像の重なり領域において隣接する魚眼画像(例えば、隣接する魚眼カメラによって取得された画像)を修正して、移動オブジェクトを視覚化する。いくつかの実施形態では、車載コンピューティングシステム102は、車載インフォテインメントシステム、ナビゲーションシステム、及び/又は他の車両ベースのコンピューティングシステムとして実施されてもよく、またはそれらの一部を構成してもよい。他の実施形態では、車載コンピューティングシステム102は、スタンドアロンコンピューティングデバイスまたはコンピューティングシステムとして実施されてもよい。
さらに、いくつかの実施形態では、遠隔コンピューティングデバイスが、車載コンピューティングシステム102と通信可能に結合され、本明細書で説明される機能の1つまたは複数を(例えば、遠隔から)実行し、結果を車載コンピューティングシステム102に、ネットワーク(例えば、有線または無線の通信ネットワーク)を介して通信するように構成されてもよい。そのような実施形態では、リモートコンピューティングデバイスは、車載コンピューティングシステム102と通信し、本明細書に記載の機能を実行できる任意のタイプのコンピューティングシステム(例えば、サーバ、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、ノートブック、ネットブック、ウルトラブック(商標)、セルラフォン、スマートフォン、パーソナルデジタルアシスタント、モバイルインターネットデバイス、ウェアラブルコンピューティングデバイス、ハイブリッドデバイス、及び/又は任意の他のコンピューティング/通信デバイス)として実施してもよい。
図1に示したように、例示の車載コンピューティングシステム102は、プロセッサ110、入出力(I/O)サブシステム112、メモリ114、データストレージ116、ディスプレイ118、カメラシステム120、ユーザインターフェース122、及び、幾つかの実施形態では、一以上の周辺デバイス124を含む。また、カメラシステム120は一以上のカメラ126を含み、ユーザインターフェース122は仮想カメラ制御128を含む。もちろん、車載コンピューティングシステム102は、他の一実施形態では、典型的なコンピューティングデバイスに一般的に見つかるようなその他の又は追加的なコンポーネント(例えば、通信回路、様々な入出力デバイス、及び/又はその他のコンポーネントなど)を含み得る。また、幾つかの実施形態では、例示したコンポーネントのうち一以上は、他のコンポーネントに組み込まれていても良く、又はその一部を構成していても良い。例えば、メモリ114又はその部分は、幾つかの実施形態では、プロセッサ110に組み込まれても良い。
プロセッサ110は、ここに説明する機能を実行できる任意のタイプのプロセッサとして実施できる。例えば、このプロセッサは、シングル又はマルチコアプロセッサ、デジタルシグナルプロセッサ、マイクロコントローラ、又はその他のプロセッサ又は処理/制御回路として実施できる。同様に、メモリ114は、ここに説明する機能を実行できる、任意のタイプの揮発性又は不揮発性メモリ又はデータストレージとして実施できる。動作中、メモリ114は、オペレーティングシステム、アプリケーション、プログラム、ライブラリ、及びドライバなど、車載コンピューティングシステム102の動作中に用いられる様々なデータとソフトウェアを記憶できる。メモリ114は、I/Oサブシステム112を介してプロセッサ110に通信可能に結合している。I/Oサブシステム112は、プロセッサ110、メモリ114、及び車載コンピューティングシステム102のその他のコンポーネントとの入出力動作を容易にする回路及び/又はコンポーネントとして実施できる。例えば、I/Oサブシステム112は、メモリコントローラハブ、入出力制御ハブ、ファームウェアデバイス、通信リンク(すなわち、ポイント・ツー・ポイントリンク、バスリンク、ワイヤ、ケーブル、光ガイド、プリント回路板トレースなど)及び/又は入出力動作を容易にするその他のコンポーネント及びサブシステムとして、又はこれらを含むものとして実施できる。幾つかの実施形態では、I/Oサブシステム112は、システム・オン・チップ(SoC)の一部を形成でき、単一の集積回路チップ上にプロセッサ110、メモリ114、及び車載コンピューティングシステム102のその他のコンポーネントとともに、組み込むことができる。
データストレージ116は、例えば、メモリデバイスと回路、メモリカード、ハードディスクドライブ、固体ドライブ、その他の記憶デバイスなどの、データを短期又は長期にわたり格納するように構成された任意のタイプのデバイスとして実施できる。データストレージ116及び/又はメモリ114は、例えば、取得され処理された画像、画像フィルタ、構成要素パラメータ(例えば、カメラ126の固有パラメータ)、及び/又は後述の車載コンピューティングシステム102の動作に有用な他のデータなど、様々なデータを、車載コンピューティングシステム102の動作中に格納してもよい。
車載コンピューティングシステム102のディスプレイ118は、車載コンピューティングシステム102のユーザ(例えば、車両100の運転者または乗客)に情報を表示することができる任意の1つまたは複数の表示画面として実施することができる。ディスプレイ118は、例えば、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、陰極線管(CRT)ディスプレイ、プラズマディスプレイ、ホログラフィックまたは他の三次元(3D)ディスプレイ、及び/又は他のディスプレイ技術などを含む任意の適切なディスプレイ技術として実施され、又はそれらを使用してもよい。図1には、単一のディスプレイ118のみが示されているが、言うまでもなく、車載コンピューティングシステム102は、同じまたは異なるコンテンツが互いに同時にまたは順次に表示される複数のディスプレイまたはディスプレイ画面を含むことができる。ディスプレイ118は、様々な車両動作パラメータ及び/又は車両インフォテイメント情報(例えば、ラジオ局、温度制御など)が表示される汎用ディスプレイとして実施されてもよい。あるいは、ディスプレイ118は、後述するように、カメラシステム120によって生成された画像を表示するための特定用途ディスプレイとして実施されてもよい。
カメラシステム120は、1つ以上のカメラ126を含み、これは車両100の周囲環境、より具体的には車載コンピューティングシステム102の周囲環境の画像を取得するために使用され得る。言うまでもなく、例示的な実施形態では、カメラシステム120のカメラ126は、車両100の360度全体の周囲またはその大部分を取得するように適切に離間されている。幾つかの実施形態では、各カメラ126の視野は他の一以上のカメラ126と重なり合う。特に、隣接するカメラ126は、重なり領域において互いに重なるシーンを取得するように構成されてもよい。さらに、いくつかの実施形態では、カメラ126相互の配置、及び/又は車両100に対するカメラ126の配置に関連するジオメトリ(geometry)は、既知であるか、または決定することができる。
カメラ126の各々は、スチルカメラ、ビデオカメラ、ウェブカメラ、またはビデオ及び/又は画像を取り込むことができる他の装置のような、画像を取り込むのに適した任意の周辺デバイスまたは一体化装置として実施することができる。例示的な実施形態では、カメラ126の各々は、車両100の完全な、またはほぼ完全な周囲の取得を容易にする魚眼カメラとして実施される。もちろん、他の実施形態では、他のタイプの広角カメラ又は狭角カメラが、例えば、車両100のタイプ、使用されるカメラ126のタイプ、使用されるカメラ126の数、及び/又は他の基準に応じて使用されてもよい。さらに、カメラシステム120は、そのような様々な基準に応じて車両100の周囲を取得する2つ以上のカメラ126を含むことができる。例示的な実施形態では、カメラシステム120は、車両100の全周囲を取得するために、車両100に取り付けられた、または一体化された4つの魚眼カメラ126(すなわち、魚眼レンズを有するカメラ126)を含み、そうするために必要なカメラ126の数を最小限に抑えている。例えば、図2の例示的な実施形態に示されるように、車両100の四辺(前後、運転席側、助手席側)のそれぞれにカメラ126を搭載してもよい。もちろん、他の実施形態では、車載コンピューティングシステム102は、異なる数、タイプ、及び/又は相対的な位置のカメラ126を利用してもよい。例えば、別の実施形態では、カメラ126は、車両100の他の場所(例えば、車両100の隅部)に配置してもよい。具体的な実施形態に応じて、カメラシステム120のカメラ126は、同じタイプであってもよいし、異なるタイプであってもよい。例えば、いくつかの実施形態では、カメラシステム120の1つまたは複数のカメラ126が魚眼レンズを有し、1つまたは複数のカメラ126が従来のレンズを有することができる。
ユーザインターフェース122は、車載コンピューティングシステム102のユーザが車載コンピューティングシステム102と対話することを可能にする。例えば、以下に説明するように、ユーザは、車載コンピューティングシステム102と対話して、車両100の周囲をディスプレイ118上に表示することができる。このように、いくつかの実施形態では、ユーザインターフェース122は、I/O機能を可能にする1つ以上の仮想的及び/又は物理的ボタン、ノブ、スイッチ、キーパッド、タッチスクリーン、及び/又は他の機構を含む。例えば、いくつかの実施形態では、ユーザインターフェース122は、車両100のナビゲーションシステムまたはインフォテイメントシステムと一体化されてもよい。上述したように、ユーザインターフェース122は、例示的な実施形態では仮想カメラ制御128を含む。仮想カメラ制御128は、車載コンピューティングシステム102のユーザが、車載コンピューティングシステム102の仮想カメラ202(図2参照)の視野を(例えば、仮想カメラを「動かして」)修正できるようにする。以下で詳細に説明するように、仮想カメラ202は、ディスプレイ118上にレンダリングされる画像を「キャプチャ」する。これは、カメラ126の1つによってキャプチャされる単一の画像または複数のカメラ126(例えば、隣接するカメラ126)によってキャプチャされた画像の組み合わせに対応してもよい。したがって、仮想カメラ202を回転させるかまたは移動させ、それによって仮想カメラ202の視野を変更することによって、表示される画像は、車載コンピューティングシステム102のユーザによって調整され得る。以下でさらに詳細に説明するように、ボウル形状画像は、カメラ126によって取得され、車載コンピューティングシステム102によって処理される車両100の周囲の画像に基づいて生成される。このように、いくつかの実施形態では、複数のカメラ126からの視野の組み合わせを含んでもよい仮想カメラ202の視野に基づいて、ボウル形状画像(bowl shaped image)をディスプレイ118上にレンダリングすることができる。例えば、ボウル形状画像は、そのボウル形状画像が仮想カメラ202によって(例えば、ボウル形状画像の上/下から、遠く/近くから、内側/外側から)「キャプチャ」される視点に基づいて表示されてもよい。
幾つかの実施形態では、車載コンピューティングシステム102は、一以上の周辺デバイス124を含んでいても良い。周辺デバイス124は、スピーカ、マイクロホン、追加の記憶装置などの任意の数の追加の周辺デバイスまたはインタフェース装置を含むことができる。周辺デバイス124に含まれる具体的なデバイスは、例えば、車載コンピューティングシステム102のタイプ及び/又は意図された使用(例えば、車載コンピューティングシステム102がスタンドアロンシステムであるか、より大型の車載インフォテインメントシステムに組み込まれているか)に依存する。言うまでもなく、具体的な実施形態に応じて、車載コンピューティングシステム102の1つ以上のコンポーネント(例えば、仮想カメラ制御128及び/又は周辺デバイス124)を省略することができる。
ここで図3を参照する。図3に示すように、使用中、車載コンピューティングシステム102は、車両100の周囲のボウル形状画像上に移動するオブジェクトを視覚化するための環境300を確立する。以下に説明するように、例示的な実施形態では、車載コンピューティングシステム102は、隣接する魚眼カメラ126から魚眼画像を受信する。魚眼画像は、重複領域で互いに重なるシーン(すなわち、視野)をキャプチャする。言うまでもなく、重複領域のサイズ及び/又は形状は、例えば、カメラシステム120のジオメトリ(geometry)に依存する。さらに、重複領域において、取得された画像は、車両100を取り囲む環境の同じ実世界点の描写を含み、したがって、同じ画像特徴(image features)を含む。例示的な車載コンピューティングシステム102はさらに、重複領域内の移動するオブジェクトを識別し、重複画像領域の投影バージョン(例えば、図4の仮想ボウル形状投影面への投影)を修正して、識別された移動するオブジェクトを視覚化する。当然のことながら、いくつかの実施形態では、車載コンピューティングシステム102は、仮想ボウル形状投影面に投影する前に、魚眼画像または魚眼画像の組み合わせ/処理されたバージョンを修正することができる。以下で説明するように、車載コンピューティングシステム102は、特定された移動するオブジェクトの輪郭を仮想ボウル形状投影面に投影するか、または隣接する魚眼画像間の(すなわち、重なり合う画像領域内の)接合部を修正して移動オブジェクトを視覚化する。
車載コンピューティングシステム102の例示的な環境300は、画像取得モジュール302、ボウル生成モジュール304、表示モジュール306、カメラ制御モジュール308、重なり判定モジュール310、オブジェクト識別モジュール312、およびオブジェクト視覚化モジュール314を含む。さらに、オブジェクト識別モジュール312は、動き決定モジュール316および輪郭決定モジュール318を含み、オブジェクト視覚化モジュール314は、輪郭投影モジュール320および接合部修正モジュール322を含む。環境300のモジュールは、それぞれ、ハードウェア、ファームウェア、ソフトウェア、またはこれらの組み合わせとして実施されてもよい。例えば、環境300のモジュール、ロジック、および他のコンポーネントのそれぞれは、プロセッサ110または車載コンピューティングシステム102の他のハードウェアコンポーネントの一部を形成するか、そうでなければ確立または実行されてもよい。さらに、いくつかの実施形態では、例示的なモジュールの1つまたは複数は、別のモジュールの一部を形成してもよく、及び/又は例示的なモジュールのうちの1つまたは複数は、スタンドアロンまたは独立したモジュールとして実施されてもよい(例えば、動き判定モジュール316はオブジェクト識別モジュール312とは別であってもよい)。言うまでもなく、いくつかの実施形態では、2013年12月19日に出願された国際特許出願PCT/US2013/076644号に記載されている技術及び/又はモジュールの1つまたは複数を、車載コンピューティングシステム102により利用されても、及び/又は本明細書に記載の環境300に含まれてもよい。同様に、本明細書に記載の技術及び/又はモジュールは、国際特許出願PCT/US2013/076644号に記載されている車載コンピューティングシステムのいくつかの実施形態で利用することができる。
画像取得モジュール302は、カメラシステム120のカメラ126を制御して、各カメラ126の視野内のシーンの画像/ビデオを取得する。具体的な実施形態に応じて、画像取得モジュール302が、(例えば、ビデオストリームとして)連続的に、定期的に、時間的または条件的入力に応じて、それらの組み合わせとして、または別の方式に基づいて、画像を取り込むよう、各カメラ126に命令してもよい。例えば、カメラ126は、車両100のトランスミッション(transmission)が反転モード(reverse mode)にあるとき、及び/又は車両100がある閾値速度より遅く動いているときに、画像を取り込むことができる。
ボウル生成モジュール304は、カメラシステム120のカメラ126により取得された画像が、またはその処理されたバージョン(例えば、結合された画像)が、車載コンピューティングシステム102のユーザ(例えば、車両100の運転者)が見るよう投影される仮想ボウル形状投影面402(図4参照)を生成する。ほとんどの車載撮像システムでは、車載カメラによって取得された画像の視覚化は、車両がある地面404(図4参照)に位置していないオブジェクトの著しい歪みをもたらす。例示的な実施形態では、仮想ボウル形状投影面402は、例えば、仮想ボウル形状投影面402の滑らかさ、仮想ボウル形状投影面402と地面404の間のスムースな移行、および地面404におけるボウル形状投影面402の平坦度などのはっきりと規定されたジオメトリ的特徴を有する。例示的な実施形態では、車両100のサイズに関するさまざまなパラメータ(例えば、長さ、幅、高さなど)及び/又はその他の特徴(例えば、ボウルの高さ、水平オフセット、適応比(adaptive ratios)など)に基づき、ボウル生成モジュール304は、仮想ボウル形状の投影面402の所望の形状(geometry)を決定し、(例えば、仮想ボウル形状投影面402の各水平スライス406を構成することにより)仮想ボウル形状の投影面402を構成する。いくつかの実施形態では、各水平スライスは、具体的な実施形態に依存する幅(例えば、不均一な幅)を有することができる。
言うまでもなく、例示的な実施形態では、仮想ボウル形状投影面402は、車両100またはその仮想表示が、地面404上のボウル形状の投影面402の内側に配置されるように形成される。詳細に後述するように、ボウル生成モジュール304は、その情報に基づいて、車両100の長さに沿ってボウル形状投影面402の垂直スライス408(図4参照)の主および副の半軸(major and minor semi−axes)を決定する。さらに、ボウル生成モジュール304は、仮想ボウル形状投影面402の(例えば、ボトム410からトップ412までの)各水平スライスに対して、仮想スライス408の主半軸及び副半軸に基づいて、対応する水平スライスの主半軸を決定し、対応する水平スライスの主半軸と副半軸との間の適応比に基づいて、対応する垂直軸の副半軸を決定する。以下に説明するように、例示的な実施形態では、適応比は直線的に変化し、ボウル形状投影面402のトップ412において約1(すなわち1.0)であり、ボウル形状投影面402のボトム410において、車両100の長さを車両100の幅で割った比(すなわち、
[外1]
Figure 2017536717
)に等しい。図5Aに示すように、ボウル形状投影面402の軸504に沿って見たボウル形状投影面402の上面図502から、ボウル形状投影面402の一番上の水平スライス506は円形の幾何学的形状を有し、ボウル形状投影面402の最大のスライス508は、ボウル形状投影面402の垂直方向の中央(vertical middle)に向かっている。さらに、図5Bに示すように、ボウル形状投影面402の底面図510から軸504に沿って見た場合、ボウル形状投影面402の一番下の水平スライス512は、非円形の楕円形の幾何学的形状を有する(すなわち、一番下の水平スライス512は、長軸が短軸と等しくない楕円をとなる)。
ボウル生成モジュール304はさらに、水平スライスを結合して仮想ボウル形状投影面402を生成する。例えば、ボウル生成モジュール304は、ボウル形状投影面402の水平スライスを積み重ね、これらのスライスをマージ(merge)して、ボウル形状投影面402を形成することができる。さらに、ボウル生成モジュール304は、平らな地面404(または、より具体的には部分平面)であるボウルのボトム410を生成してマージすることができる。言うまでもなく、ボウル形状投影面402のトップ412は部分的に開いており、車両100の上方の環境の部分はボウル形状投影面402のトップに投影することができる。例示的な実施形態では、地面404に隣接して生成された仮想ボウル形状投影面402のセクションがフィルタリングされるか、さもなければ平滑化される。ボウル形状投影面402の(例えば、垂直スライス408に垂直にとった)垂直断面602の一部分によって図6に示すように、ボウル形状投影面402の底部(bottom portion)604は、ボウル形状投影面402のトップ(top portion)606がボウル形状の投影面402のトップ(top)412に近づくよりも遅い速度で、ボウル形状投影面402のボトム(bottom)410(すなわち、地面404)に近づく。
言うまでもなく、この例示的な実施形態では、ボウル形状投影面402に投影される画像(本明細書では「ボウル形状画像」と呼ぶ)は、ボウル形状投影面に関して上述した特徴を含むことになる(すなわち、ボウル形状画像は、トップの導関数の絶対値よりも小さい絶対値を有する導関数を有する底部を含むことになる)。さらに、ボウル形状投影面402の底部は、ボウル形状投影面402の地面404とマージ(merge)して、任意の場所における表面の微分を確定する(すなわち、特異点が存在しない)ようにする。言うまでもなく、ボウル生成モジュール304は、任意の適切な画像フィルタ、アルゴリズム、技術、及び/又は機構を使用して、仮想ボウル形状投影面およびボウル形状画像を生成してもよい。もちろん、いくつかの実施形態では、ボウル生成モジュール304は、本明細書で説明する図4の仮想ボウル形状投影面402とは異なる特徴を有する仮想ボウル形状投影面を生成してもよい。
再び図3を参照する。図3に示すように、表示モジュール306は、車載コンピューティングシステム102のユーザが見る画像を、ディスプレイ118上にレンダリングする。例えば、表示モジュール306は、ボウル生成モジュール304によって生成された仮想ボウル形状投影面402上に1つ以上の魚眼画像、処理された画像、及び/又は他のタイプの画像を「投影」して、ボウル形状画像を生成し、ディスプレイ118上にボウル形状画像またはその一部を表示することができる。当然のことながら、言うまでもなく、いくつかの実施形態では、生成された画像または結合された画像は、従来の意味でボウル形状投影面402に「投影」されるのではなく、むしろ、生成された画像は、あたかも画像がボウル形状投影面402上に投影されたかのように、上述した特徴を含むボウル形状を有するように修正されてもよい。
上述したように、いくつかの実施形態では、表示モジュール306は、車載コンピューティングシステム102の仮想カメラ202の視野内にボウル形状画像の部分のみをレンダリングすることができる。したがって、ボウル形状画像は、3次元表面上に「投影」された画像として実施されてもよいが、ディスプレイ118は、いくつかの実施形態において、ボウル形状画像の2次元パースペクティブ(two−dimensional perspective)をレンダリングすることができる。例示的な実施形態では、カメラ制御モジュール308は、仮想カメラ202の視点を決定し、仮想カメラ制御128と共に、車載コンピューティングシステム102のユーザが仮想カメラ202の視野を修正することを許可する。
上述のように、カメラシステム120は、車両100の周囲を取得するように戦略的に配置された複数のカメラ126を含む。カメラ126の各々は、その視野内のシーンの独立した画像を生成し、カメラ126は、隣接するカメラ126(すなわち、互いに最も隣接するカメラ126)の視野が、重なっているシーン/領域を有するように構成される。いくつかの実施形態では、車載コンピューティングシステム102は(例えば、表示モジュール306を介して)カメラ126によって生成された2つ以上の画像を結合して、仮想ボウル形状投影面402に投影する結合画像(例えば、パノラマ画像)を生成してもよい。例えば、車載コンピューティングシステム102は、隣接するカメラ126によって取り込まれた2つの画像に基づいて、投影する合成画像を生成することができる。便宜上、そのような画像を本明細書では「隣接する画像」と呼ぶことがある。他の実施形態では、車載コンピューティングシステム102は、仮想ボウル形状投影面402に画像を投影し、以下で説明するように投影を組み合わせる(combine)ことができる(例えば、投影面402の対応する重なり合う領域において投影を融合(blend)、トリミング及び/又は修正することによる)。
重なり判定モジュール310は、隣接する画像の重なり領域を判定する。言うまでもなく、重なり判定モジュール310は、任意の適切な技術、アルゴリズム、及び/又は機構を用いて、重複する画像領域を識別してもよい。例えば、例示的な実施形態では、カメラシステム120のジオメトリおよびカメラ126の固有パラメータは、既知であるか、または他の方法で決定可能である。したがって、いくつかの実施形態では、重なり領域は、そのようなジオメトリ(geometry)及び/又はパラメータに基づいて決定されてもよい。他の実施形態では、重複領域は、特徴検出および特徴マッチングアルゴリズムに基づいて決定されてもよい。例えば、重なり判定モジュール310は、高速化されたロバスト特徴(SURF)、スケール不変特徴変換(SIFT)、マルチスケール指向パッチ(MOPS)、Cannyフィルタ、Harrisフィルタ及び/又はソーベル(Sobel)フィルタなどの1つ以上の特徴検出器/ディスクリプタ(descriptors)を利用して、各隣接画像の特徴を検出および記述してもよい。さらに、重なり判定モジュール310は、2乗差分(SSD)、固定閾値、最近傍、及び/又はランダムサンプルコンセンサス(RANSAC)などのマッチングアルゴリズムまたは手法を用いて、することができるステレオ画像対)を使用して、2つの画像の識別された特徴に基づいて、互いに対応する2つの画像の特徴を識別する。言い換えれば、重なり判定モジュール310は、隣接するカメラ126の両方が取得したシーン(例えば、特定のオブジェクト、要素、及び/又は特徴を有する)の一部分(すなわち、重複領域)を識別することができる。もちろん、重なり判定モジュール310は、他の実施形態では、隣接する画像の重なり領域を決定してもよい。
オブジェクト識別モジュール312は、車両100を取り囲む近傍の1つ以上のオブジェクトを識別する。言うまでもなく、オブジェクト識別モジュール312は、任意の適切な技術、アルゴリズム、及び/又はメカニズムを使用して、車両100を取り囲む近傍の(例えば、車両100の近く)オブジェクト、および車両100または他の基準点に対するそのオブジェクトの位置を決定することができる。例えば、いくつかの実施形態では、オブジェクトは、2013年12月19日に出願された国際特許出願PCT/US2013/076644号に記載されているオプティカルフロー、セグメンテーション、及び/又は分類技術の1つまたは複数を用いて識別することができる。追加的に又は代替的に、オブジェクト識別モジュール312は、車両100の1つ以上のセンサ(例えば、3Dセンサ)を利用して、車両100の近くのオブジェクトを識別/位置特定することができる。上述したように、隣接カメラ126によって取得された画像が、仮想ボウル形状投影面に投影されたとき、ボウル形状面は、多くの場合、単一の実世界点の異なる投影を有しており、車両100の周囲の画像があいまいになり、二重に見え、及び/又はオブジェクトが見えないことがある。したがって、例示的な実施形態では、オブジェクト識別モジュール312は、重複領域内の移動オブジェクトを識別する。以下に説明するように、重なった画像領域の仮想ボウル形状投影面への投影は、識別された移動するオブジェクトを視覚化するように修正される。本明細書では、単一のオブジェクトを識別し、単一のオブジェクトに基づいて投影を修正することを参照して技術およびアルゴリズムを主に説明したが、いくつかの実施形態では、車載コンピューティングシステム102は、複数のオブジェクトを識別し、及び/又は複数のオブジェクトに基づいて投影を修正することができる。
上述したように、例示的なオブジェクト識別モジュール312は、動き判定モジュール316および輪郭判定モジュール318を含む。動き判定モジュール316は、車両100の周囲のオブジェクトの動きを判定する。特に、例示的な実施形態では、動き判定モジュール316は、対応する隣接画像を取得したカメラ126に対する重複画像領域に位置するオブジェクトの動きを決定する。言うまでもなく、動き判定モジュール316は、任意の適切な技術、アルゴリズム、及び/又は機構を用いて、かかる決定をしてもよい。例えば、動き判定モジュール316は、オプティカルフローアルゴリズム(例えば、2013年12月19日に出願された国際特許出願PCT/US2013/076644号に記載されているオプティカルフロー技術を参照)、同じカメラ126で撮影された一連の画像、及び/又は1つまたは複数のセンサ(図示せず)を利用してもよい。センサを含む実施形態では、センサは、例えば、近接センサ、光学センサ、光センサ、オーディオセンサ、温度センサ、動きセンサ、圧電センサ、及び/又は他のタイプのセンサとして実施してもよく、これらを含んでもよい。もちろん、車載コンピューティングシステム102は、センサの使用を容易にするように構成された構成要素及び/又はデバイスを含むこともできる。
輪郭決定モジュール318は、仮想ボウル形状の投影面402への投影のために、動き判定モジュール316によって識別された1つ以上の移動オブジェクトの輪郭を決定するように構成される。以下に説明するように、例示的な実施形態では、輪郭決定モジュール318または、より一般的には、オブジェクト識別モジュール312は、識別された移動オブジェクト(例えば、その輪郭)を仮想ボウル形状投影面に投影する、隣接する魚眼画像のうちの1つを選択する。したがって、輪郭決定モジュール318は、適切な技術、アルゴリズム、及び/又は機構(例えば、エッジ検出、画像セグメンテーション、及び/又は他の画像フィルタまたはアルゴリズム)を使用して、選択された魚眼画像上の識別された移動オブジェクトの輪郭を決定する。後述するように、いくつかの実施形態では、輪郭決定モジュール318は、輪郭を「フラッド・フィル(flood−fill)」して、動くオブジェクトを、生成されたボウル形状画像の他の特徴と(例えば、明るい色を用いて)コントラストをつけてもよい。他の実施形態では、輪郭決定モジュール318は、仮想ボウル形状投影面402への投影(例えば、融合(blend)された/透明なオーバーラップ領域への投影)のために、移動するオブジェクトの輪郭内の選択された魚眼画像の画像領域を特定することができる。
上述したように、隣接カメラ126によって取得された画像が、仮想ボウル形状投影面に投影されたとき、ボウル形状面は、多くの場合、単一の実世界点の異なる投影を有しており、従来の方法では、車両100の周囲の画像があいまいになり、二重に見え、及び/又はオブジェクトが見えないことがある。このように、例示的な実施形態では、オブジェクト視覚化モジュール314は、重複する画像領域内のオブジェクト視覚化を改善する。具体的には、オブジェクト視覚化モジュール314は、投影された重複画像領域(すなわち、隣接する魚眼画像の重なり領域に対応するもの)を修正して、識別された移動するオブジェクトを仮想ボウル形状投影面402上に視覚化する。上述したように、いくつかの実施形態では、オブジェクト視覚化モジュール314は、投影自体を変更して、識別された移動オブジェクトを視覚化するが、他の実施形態では、オブジェクト視覚化モジュール314は、仮想ボウル形状投影面402に投影する前に、識別された移動オブジェクトの視覚化のために、隣接する魚眼画像及び/又はその処理/結合されたバージョンを修正する。さらに、上述したように、例示的な実施形態では、オブジェクト視覚化モジュール314は、輪郭投影モジュール320および接合修正モジュール322を含む。
輪郭投影モジュール320は、隣接する画像の重複する画像領域を融合(blend)して、(例えば、投影上または結合/処理された画像自体の上に)融合(blend)された重複画像領域を生成し、融合された重複画像領域を修正して、その融合された重複画像領域に、識別された移動オブジェクトの輪郭を視覚化する。言うまでもなく、重なり合う画像領域は、任意の適切なアルゴリズム、技術、及び/又は機構を用いて融合されてもよい。例えば、いくつかの実施形態では、輪郭投影モジュール320は、平均化またはぼかしフィルタ(例えば、ガウシアンフィルタ)を利用することができる。他の実施形態では、輪郭投影モジュール320は、重なり合う画像領域またはその一部を透明にすることができる。例示的な実施形態では、輪郭投影モジュール320は、特定された移動オブジェクトの輪郭を、(例えば、ボウル形状画像の)融合された重複画像領域に投影し、オブジェクトの輪郭が、ボウル形状画像上の融合された重複画像領域にオーバーレイされるようにする。上述したように、そうすることで、輪郭投影モジュール320は、具体的な実施形態に応じて様々な方法で輪郭を投影することができる。例えば、輪郭投影モジュール320は、識別されたオブジェクトの輪郭内に、オブジェクトのフラッドフィル(flood−filled)された(例えば、単色の)輪郭、オブジェクトの強調された境界、または選択された画像の画像領域を投影することができる。
接合修正モジュール322は、特定された移動オブジェクトの連続的な視覚化のために、隣接する魚眼画像間の接合を適応的に修正する。例えば、例示的な実施形態では、接合修正モジュール322は、移動オブジェクトが常に、隣接する魚眼画像の1つから投影されるように、オブジェクトが重複画像領域を通って移動するときに、接合部を「移動する」。具体的には、接合修正モジュール322は、対応する魚眼カメラ126に対する、識別された移動オブジェクトの位置に基づいて、重複領域内の隣接する魚眼画像間の接合を決定する。例示的な実施形態では、接合部は、隣接する魚眼画像を合成する、重複画像領域内の境界である。接合修正モジュール322は、さらに、決定された接合に基づいて、重複領域内の隣接する魚眼画像を修正し、接合部において魚眼画像の修正されたバージョンを結合し、その結合されたバージョンを仮想ボウル形状投影面402に投影する。具体的には、例示的な実施形態では、接合修正モジュール322は、隣接する魚眼画像の一方または両方についての視野閾値(viewing threshold)を決定し、特定された移動オブジェクトの相対的位置及び視野閾値に基づいて、識別された移動オブジェクトを仮想ボウル形状投影面402に投影する隣接する魚眼画像のうちの1つを選択し、識別された移動オブジェクトの相対的位置及び視野閾値とに基づいて、仮想ボウル形状投影面402に投影する隣接する魚眼画像のそれぞれの対応する領域を決定する。
実施形態に応じて、視野閾値は、例えば、カメラシステム120のジオメトリ及び/又はカメラ126の固有パラメータに関連付けられ得る。上述のように、例示的な実施形態では、カメラシステム120のジオメトリ(geometry)は、カメラ126の互いの位置、カメラ126の視野、及び/又は隣接するカメラ126の重複する領域が既知であるか、または決定可能であるようになっている。さらに、カメラ126の各々は、例えば、焦点距離、主点、ズーム情報、最大/最小視野角、及び/又は対応するカメラ126の他の特性に関連する固有のパラメータを有する。言うまでもなく、カメラ126は、カメラ126がその最大視野を有し、したがってより大きなシーンを取得する最大視野角を有する。例えば、いくつかの実施形態では、魚眼カメラ126は、ほぼ180度を取得するように構成することができる。例示的な実施形態では、接合修正モジュール322は、例えば、カメラ126の視野角を調整(すなわち、低減)することによって、カメラ126の視野角を調整して、その能力よりも小さい場面を取得することができる。さらに、いくつかの実施形態では、接合部修正モジュール322は、画像が決定された接合部で結合されるように、カメラ126によってキャプチャされた画像をクロッピングするか、さもなければ修正することができる。言い換えれば、以下に説明するように、接合部修正モジュール322は、隣接する魚眼画像が結合またはジョイン(join)されるべき重複画像領域内の境界を決定する。修正なしでは、各隣接魚眼画像の一部分は接合部を越えて延びる可能性が高いため、接合修正モジュール322は、(例えば、取得前に視野角を調整することにより、または取得後に画像を修正することによって)結合される隣接する魚眼画像を構成し、それらの画像を結合する。
上述したように、車載コンピューティングシステム102は、車両100の運転者の利便性および視覚の改善のために、取得された画像及び/又は結合された画像が投影される仮想ボウル形状投影面402を生成する。さらに、隣接するカメラ126は、重なった視野を有し、それによって、隣接するカメラ126によって生成される画像は、重なる画像領域に一致する(すなわち、複製される)特徴を有する。そのような特徴の複製は、結合された画像及び/又は対応する投影においては、解消されなければ、そのような特徴のあいまいさをもたらす可能性がある。例えば、図7に示すように、2つの隣接するカメラ702,704は、(実世界点706がボウル形状投影面402と一致しない限り)同一の実世界点706をボウル形状投影面402の2つの異なる点708,710に(例えば、バックプロジェクションにより)投影する。具体的には、第1のカメラ702によって取得された実世界点706は、第1の点708でボウル形状投影面402に投影され、第2のカメラ704によって取得された実世界点706は、第2の点710でボウル形状投影面402に投影される。このように、例示的な実施形態では、車載コンピューティングシステム102は、これらの問題に対処して、重なり合う画像領域においてオブジェクト(およびオブジェクトのただ1つのコピー)が見えることを保証する。
ここで図8を参照する。図8に示すように、使用時には、車載コンピューティングシステム102は、ボウル形状画像上の、より具体的には隣接する魚眼レンズ画像の重複領域に対応するボウル形状画像領域の領域上の動くオブジェクトを視覚化する方法800を実行できる。上述したように、本明細書で説明する方法は、一般に、魚眼カメラ126およびそのようなカメラ126によって生成される魚眼画像に関して説明される。しかし、これらの方法は、他のタイプのカメラ126及び/又は画像にも適用可能である。例示的な方法800は、車載コンピューティングシステム102が周囲の物理的環境を表示するかどうかを決定するブロック802から始まる。表示する場合、車載コンピューティングシステム102は、ブロック804において、隣接/隣接する魚眼カメラ126から魚眼画像を受け取る。上述したように、例示的な実施形態(図2参照)では、カメラシステム120は4つの魚眼カメラ126を含む。したがって、方法800は、2つの隣接する魚眼画像に関して説明されるが、このような実施形態では、車載コンピューティングシステム102は、同じ取得時間に関連付けられた4つのカメラ126のそれぞれから魚眼画像(すなわち、同じ時間、またはほぼ同じ時間に取得されたもの)を受信することができる。もちろん、他の実施形態では、カメラシステム120は、異なる数のカメラ126を含むことができ、したがって、ブロック804において、異なる数の魚眼画像を受信または取得することができる。
ブロック806において、車載コンピューティングシステム102は、隣接する魚眼画像の重複領域を決定する。上述したように、車載コンピューティングシステム102は、例えば、カメラシステム120のジオメトリ、カメラ126の固有パラメータ、特徴検出およびマッチングアルゴリズム、及び/又は他の適切な技術、アルゴリズム、またはメカニズムに基づいて、重複する画像領域を決定することができる。ブロック808において、車載コンピューティングシステム102は、車両100の周囲の移動オブジェクトを識別する。上述したように、隣接する魚眼カメラ126の重複領域の外側のオブジェクトは、仮想ボウル形状投影面402上の単一の位置に投影され、したがって、一般に、上述したオブジェクトの曖昧性、重複および不可視性に関する問題は生じない。したがって、例示的な実施形態では、車載コンピューティングシステム102は、隣接する魚眼カメラ126の重複する画像領域内に動くオブジェクトがもしあれば、それを識別する。言うまでもなく、車載コンピューティングシステム102は、そうするための任意の適切な技術、アルゴリズム、及び/又はメカニズム(例えば、オプティカルフロー、画像セグメンテーション、オブジェクト分類、センサなど)を利用してもよい。
ブロック810において、車載コンピューティングシステム102は、受信した魚眼画像を仮想ボウル形状投影面402に投影して、対応するボウル形状画像を生成する。勿論、他の実施形態では、車載コンピューティングシステム102は、魚眼画像を異なる仮想ボウル形状投影面(例えば、異なる特性を有する面)に投影することができる。さらに、上述したように、いくつかの実施形態では、1つまたは複数の画像を修正して、従来の意味のボウル形状投影面402上に「投影」するのではなく、仮想ボウル形状投影面402と一致するボウル形状を有するようにできる。上述したように、ブロック812において、車載コンピューティングシステム102は、重複領域内の投影を変更して、ブロック808で識別された移動オブジェクトを視覚化する。その際、車載コンピューティングシステム102は、図9の方法900を参照して以下に説明するように、特定された移動オブジェクトの輪郭を投影してもよく、図10の方法1000を参照して以下に説明するように、隣接する画像間の接合部を修正してもよい。他の実施形態では、車載コンピューティングシステム102は、重複領域内の移動オブジェクトを視覚化する他の技術を利用することができる。さらに、上述したように、いくつかの実施形態では、車載コンピューティングシステム102は、投影そのものを修正するのではなく、仮想ボウル形状投影面402に投影する前に、魚眼画像またはその処理画像(例えば、合成画像)を修正してもよい。
ブロック814において、車載コンピューティングシステム102は、運転者が見るためのボウル形状画像(すなわち、修正された重複画像領域を含むもの)を表示する。上述したように、実施形態に応じて、車載コンピューティングシステム102は、ボウル形状画像の全体またはボウル形状画像の一部のみを表示することができる。例えば、いくつかの実施形態では、車載コンピューティングシステム102は、仮想カメラ202の視野内、及びそれと同じ視点からのボウル形状画像及び/又はボウル形状投影面402の一部を、生成及び/又は表示するだけでよい。
上述のように、いくつかの実施形態では、ユーザ(例えば、運転者)は、ボウル形状画像の視野を調整するように仮想カメラ202を制御することができる。したがって、ブロック816において、車載コンピューティングシステム102は、(例えば、仮想カメラ202を平行移動または回転させて)仮想カメラ202の視野を修正する(例えば、ドライバからの)ユーザ入力が受信されたかどうかを決定する。受信されていれば、車載コンピューティングシステム102は、ブロック818で、ユーザ入力および仮想カメラ202の新しい位置に基づいてボウル形状画像の表示を修正する。例えば、ユーザは、(例えば、車両100内の視点と一致する視点から)仮想カメラ202をボウル形状画像内で回転して、ボウル形状画像のさまざまな部分を表示してもよい。言うまでもなく、いくつかの実施形態では、車載コンピューティングシステム102は、複数の仮想カメラ202を利用することができる(例えば、ボウル形状の画像の複数の視点を同時に表示できる)。例えば、一実施形態では、車載コンピューティングシステム102は、車両100の4つの側面のそれぞれからボウル形状画像のビューを表示することができる。他の実施形態では、ボウル形状画像全体またはその一部が、上述したように3次元ディスプレイ上に表示されてもよい。方法800は、ボウル形状画像の表示を修正する(ブロック818)か、ボウル形状画像を修正するにユーザ入力が受信されていないと判定する(ブロック816)と、ブロック802に戻り、車載コンピューティングシステム102は、車両100の周囲環境を表示するかどうかを決定する。
ここで図9を参照する。上述したように、使用中、車載コンピューティングシステム102は、重複領域1102(図11参照)における投影を修正して、オブジェクトの輪郭を仮想ボウル形状投影面402の重複領域1102に投影することによって、移動オブジェクトを視覚化する方法900を実行することができる。例示的な方法900はブロック902から始まり、車載コンピューティングシステム102は、図8のブロック808で特定された移動オブジェクトの輪郭1104(図11参照)を、仮想ボウル形状投影面402に投影するかどうかを決定する。投影する場合、ブロック904において、車載コンピューティングシステム102は、特定された移動オブジェクトを仮想ボウル形状投影面402に投影する隣接する魚眼画像のうちの1つを選択する。例えば、いくつかの実施形態では、車載コンピューティングシステム102は、特定された移動オブジェクトに最も近い魚眼カメラ126によって取得された魚眼画像を選択することができる。もちろん、車載コンピューティングシステム102は、他の実施形態では、異なる基準に基づいて、識別された移動オブジェクトの投影のため、どの隣接する魚眼画像を選択するか決定することができる。
ブロック906において、車載コンピューティングシステム102は、選択された魚眼画像上の識別された移動オブジェクトの輪郭1104を決定する。上述の通り、車載コンピューティングシステム102は、そうするための任意の適切な技術、アルゴリズム、及び/又はメカニズムを利用することができる。例えば、車載コンピューティングシステム102は、エッジ検出アルゴリズム(例えば、Cannyエッジ検出、Sobelフィルタなど)、画像セグメンテーションアルゴリズム(例えば、流域セグメンテーション、ピラミッドセグメンテーションなど)、及び/又はオブジェクトの輪郭を決定する他の画像フィルタ/アルゴリズムを利用してもよい。言うまでもなく、例示的な実施形態では、オブジェクトの輪郭1104は、隣接する魚眼画像のうちの1つのみから投影される。しかし、他の実施形態では、オブジェクトの輪郭1104は、隣接する魚眼画像のそれぞれにおいて識別されてもよく、及び/又は両方の魚眼画像から投影されてもよい。
ブロック908において、車載コンピューティングシステム102は、魚眼画像投影の重なり領域1102(即ち、重なった画像領域の、仮想ボウル形状投影面402への投影)を融合する。上述したように、いくつかの実施形態では、車載コンピューティングシステム102は、重複画像領域に平均化またはぼかしフィルタ(例えば、ガウスフィルタ)を適用して、魚眼画像投影の重なり領域1102を融合してもよい。代替的にまたは追加的に、車載コンピューティングシステム102は、重複領域の一部を透明領域としてレンダリングすることができる。
ブロック910において、車載コンピューティングシステム102は、魚眼画像投影の重複領域(例えば、対応する位置)にオブジェクトの輪郭1104を視覚化する。上述したように、車載コンピューティングシステム102は、個々の実施形態に応じていくつかの方法でそうすることができる。例えば、ブロック912において、車載コンピューティングシステム102は、オブジェクトの輪郭1104を、選択された魚眼画像から仮想ボウル形状投影面402に投影することができる。上述したように、輪郭によって画定されるオブジェクトのアウトライン(outline)または境界1104は、いくつかの実施形態では(例えば、強調表示された境界線として)仮想ボウル形状投影面402の重なり領域に投影されてもよい。他の実施形態では、車載コンピューティングシステム102は、(例えば、流域アルゴリズムまたは他のセグメンテーションアルゴリズムを使用して)輪郭1104をフラッドフィル(flood−fill)し、フラッド・フィルした輪郭1104を選択された魚眼画像から重複領域に投影することができる。代替的にまたは追加的に、ブロック914において、車載コンピューティングシステム102は、移動オブジェクトの輪郭1104内の選択された魚眼画像の画像領域を識別し、その画像領域を選択された魚眼画像から仮想ボウル形状投影面402の重複領域1102に投影してもよい。上述したように、いくつかの実施形態では、オブジェクトの輪郭1104を仮想ボウル形状投影面402に投影することは、オブジェクトの輪郭1104を、融合された重なり領域1102上の適切な位置(例えば、対応する画像ピクセルが通常は面402に投影される位置)にオーバーレイすることを本質的に含む。重なり領域1102は全体が融合されるものとして図11に示されているが、いくつかの実施形態では、重なり領域1102の一部のみが融合される。
ここで図10を参照する。図10に示すように、使用中、車載コンピューティングシステム102は、隣接する魚眼画像1204,1206の間の接合部1202(図12参照)を修正し、識別された移動オブジェクト1208を視覚化する方法1000を実行することができる。上述したように、車載コンピューティングシステム102は、オブジェクト1208が、重なり領域を移動するときに、移動するオブジェクト1208が隣接する魚眼画像1204,1206のうちの1つから常に投影されるように、接合部1202を適応的に動かす。例えば、図2に示すように、例示的な実施形態では、魚眼カメラ126は、車両100の正面および右前に配置される。オブジェクト1208(例えば、歩行者)が車両100の前方を横切って左から右に移動する場合、車載コンピューティングシステム102は、(例えば、対応するカメラ126の視野角、またはカメラ126の撮像画像を修正することにより)魚眼画像1204,1206の間の接合部(junction)1202を右に移動させることができる。
例示的な方法1000は、ブロック1002から始まり、車載コンピューティングシステム102が隣接する魚眼画像1204,1206の接合部1202を修正するかどうかを決定する。修正する場合、ブロック1004において、車載コンピューティングシステム102は、オブジェクトの位置及び/又は対応する魚眼カメラ126(すなわち、魚眼画像1204,1206をキャプチャしたカメラ126)の1つまたは複数の閾値に基づいて、隣接する魚眼画像1204,1206の間の接合部1202を判定する。具体的には、ブロック1006において、車載コンピューティングシステム102は、隣接する魚眼カメラ126(すなわち、画像1204,1206を生成したカメラ126)の視野閾値を決定する。上述したように、各魚眼カメラ126は、カメラ126及びその固有パラメータに依存する、画像をカメラ126が取得することができる最大視角(例えば、約180度)および最小視角(例えば、約0度)を有する。
ブロック1008において、車載コンピューティングシステム102は、識別された移動オブジェクトの相対的位置およびカメラ126の視野閾値に基づいて、識別された移動オブジェクト1208を投影する隣接する魚眼画像1204,1206のうちの1つを選択する。例えば、いくつかの実施形態では、オブジェクト1208がそのカメラ126の視野閾値外でない限り、オブジェクト1208は、オブジェクト1208に最も近いカメラ126に対応する魚眼画像1204,1206から投影される。
ブロック1010において、車載コンピューティングシステム102は、魚眼画像1204,1206の対応する領域を、仮想ボウル形状投影面402に投影することを決定する。例えば、魚眼画像1204,1206の間の接合部1202を修正することなく、接合部1202は、通常、対応するカメラ126のほぼ中間の位置に対応しているかも知れない。しかしながら、オブジェクト1208が接合部1202の近くに位置しているか、交わっている場合、車載コンピューティングシステム102は、接合部1202をオブジェクト1208の側に移動させることができる。例えば、いくつかの実施形態では、接合部1202は、オブジェクト1208が移動している方向に移動され、他の実施形態では、接合部1202は、オブジェクト1208の中心に最も近い画像1204,1206からオブジェクト1208が投影されるように、移動される。いずれの場合でも、車載コンピューティングシステム102は、接合部1202の決定された位置に接合される2つの画像1204,1206をもたらすように投影されるべき魚眼画像1204,1206のそれぞれの対応する領域を決定する。ブロック1012において、車載コンピューティングシステム102は、投影する決定された接合部1202及び/又は決定された領域に基づいて、重複領域内の隣接する魚眼画像1204,1206を修正する。例えば、上述した、オブジェクト1208が車両100の前方を横切って左から右に移動している図12−14の実施形態では、前部カメラ126によって取得された画像1204の視野角は(少なくとも右側に)大きくされてもよく、右カメラ126によって取得された画像1206の視野角は、(少なくとも前面に向かって)小さくされてもよく、これらのカメラ126によって取得される画像は、同様の影響を受ける。別の実施形態では、車載コンピューティングシステム102は、カメラ126の視野角を調整しないが、代わりに、画像1204,1206をトリミングまたは修正して、画像1204、1206が、決定された接合部1202で接合/結合できるようにする。
ブロック1014において、車載コンピューティングシステム102は、修正された魚眼画像1204,1206を、決定された接合点で結合して、結合画像を生成する。ブロック1016において、車載コンピューティングシステム102は、結合画像を仮想ボウル形状投影面402に投影して、対応するボウル形状画像を生成する。上述のように、いくつかの実施形態では、投影前に画像1204,1206の間の接合部1202を修正するのではなく、車載コンピューティングシステム102は、画像1204,1206の見込み(すなわち、未修正の)投影を修正して、投影間の接合部を修正してもよい。さらに、言うまでもなく、車載コンピューティングシステム102は、隣接する魚眼画像間の接合部を修正するかどうかを決定する際に、複数の移動オブジェクトの位置を考慮してもよい。さらに、車載コンピューティングシステム102は、移動オブジェクトがそれらの隣接する画像の対応する重複領域において識別された隣接画像の各ペアの間の接合部を修正してもよい。
例示
本明細書に開示の技術の例を以下に記載する。本技術の実施形態は、以下に記載の一以上の例、及びそれらの組み合わせを含み得る。
例1は、ボウル形状画像に動くオブジェクトを視覚化するコンピューティングデバイスであって、第1のシーンを含む第1の魚眼画像を取得する第1の魚眼カメラと、重複領域において前記第1のシーンと重複する第2のシーンを含む第2の魚眼画像を取得する第2の魚眼カメラと、前記重複領域中の移動オブジェクトを識別するオブジェクト識別モジュールと、投影された重複する画像領域を修正して、識別された移動オブジェクトを仮想ボウル形状投影面上に視覚化するオブジェクト視覚化モジュールとを有し、投影される重複する画像領域は、前記仮想ボウル形状投影面上に投影され、前記第1と第2の魚眼画像の重複領域に対応する、コンピューティングデバイスを含むコンピューティングデバイスを含む。
例2は例1の主題を含み、投影された重複する画像領域を修正することは、魚眼画像を選択し、選択した魚眼画像から、識別された移動オブジェクトを前記仮想ボウル形状投影面に投影することであって、前記魚眼画像は前記第1の魚眼画像または前記第2の魚眼画像のうち一方から選択されることと、選択された魚眼画像における識別された移動オブジェクトの輪郭を決定することと、投影される重複画像領域を融合して、融合された重複画像領域を生成することと、融合された重複画像領域に、識別された移動オブジェクトの輪郭を視覚化することとを含む。
例3は例1及び2のいずれかの主題を含み、識別された移動オブジェクトの輪郭を視覚化することは、選択された魚眼画像から、前記仮想ボウル形状投影面の融合された重複画像領域に、識別された移動オブジェクトの輪郭を投影することを含む。
例4は例1−3のいずれかの主題を含み、識別された移動オブジェクトの輪郭を視覚化することは、識別された移動オブジェクトの輪郭内の選択された魚眼画像の画像領域を識別することと、識別された画像領域を、前記仮想ボウル形状投影面の融合された重複画像領域に投影し、識別された画像領域を、融合された重複画像領域にオーバーレイすることとを含む。
例5は例1−4のいずれかの主題を含み、前記仮想ボウル形状投影面の融合された重複画像領域は透明である。
実施例6は実施例1−5のいずれかの主題を含み、投影された重複する画像領域を修正することは、前記第1と第2の魚眼カメラに対する識別された移動オブジェクトの位置に基づき、前記第1と第2の魚眼画像の重複領域内の前記第1と第2の魚眼画像間の接合部を決定することであって、前記接合部は前記第1と第2の魚眼画像を結合する前記重複画像領域内の境界であることと、決定された接合部に基づいて前記重複領域内の前記第1と第2の魚眼画像を修正することと、決定された接合部において、修正された第1と第2の魚眼画像を結合することと、結合された第1と第2の魚眼画像を前記仮想ボウル形状投影面に投影することとを含む。
例7は例1−6のいずれかの主題を含み、前記第1と第2の魚眼画像間の接合部を決定することは、前記第1と第2の魚眼カメラの各々の、対応する視野閾値を決定することと、識別された移動オブジェクトの相対的位置と前記視野閾値とに基づいて、魚眼画像を選択し、選択した魚眼画像から、識別された移動オブジェクトを前記仮想ボウル形状投影面に投影することであって、前記魚眼画像は前記第1の魚眼画像又は前記第2の魚眼画像のうち一方から選択されることと、識別された移動オブジェクトの相対的位置と前記視野閾値とに基づいて、前記仮想ボウル形状投影面に投影する、前記第1と第2の魚眼画像の各々の対応する領域を決定することとを含む。
例8は例1−7のいずれかの主題を含み、対応する視野閾値は、対応する第1と第2の魚眼カメラの各々が取得できる最大及び最小の視野角を示す。
例9は例1−8のいずれかの主題を含み、前記第1と第2の魚眼カメラを含むカメラシステムのジオメトリに基づいて、前記重複画像領域に対応する前記第1と第2の魚眼画像の重複画像領域を決定する重複決定モジュールをさらに有する。
例10は例1−9のいずれかの主題を含み、修正された投影された重複画像領域の前記仮想ボウル形状投影面への投影に基づいて、ボウル形状画像を生成するボウル生成モジュールと、前記コンピューティングデバイスのディスプレイに、生成されたボウル形状画像を表示するディスプレイモジュールとをさらに有する。
例11は例1−10のいずれかの主題を含み、前記コンピューティングデバイスは車載計算システムとして実施される。
例12は、コンピューティングデバイスにより生成されたボウル形状画像に移動オブジェクトを視覚化する方法であって、前記コンピューティングデバイスが、(i)第1の魚眼カメラにより生成され、第1のシーンを取得した第1の魚眼画像と、(ii)第2の魚眼カメラにより生成され、重複領域において前記第1のシーンと重複する第2のシーンを取得した第2の魚眼画像とを受け取るステップと、前記コンピューティングデバイスが、前記重複領域中の移動オブジェクトを識別するステップと、前記コンピューティングデバイスが、投影された重複画像領域を修正して、識別された移動オブジェクトを仮想ボウル形状投影面に視覚化するステップであって、投影される重複画像領域は前記仮想ボウル形状投影面に投影され、前記第1と第2の魚眼画像において取得された前記重複領域と対応するステップとを含む。
例13は例12の主題を含み、投影された重複する画像領域を修正するステップは、魚眼画像を選択し、選択した魚眼画像から、識別された移動オブジェクトを前記仮想ボウル形状投影面に投影するステップであって、前記魚眼画像は前記第1の魚眼画像または前記第2の魚眼画像のうち一方から選択されるステップと、選択された魚眼画像における識別された移動オブジェクトの輪郭を決定するステップと、投影される重複画像領域を融合して、融合された重複画像領域を生成するステップと、融合された重複画像領域に、識別された移動オブジェクトの輪郭を視覚化するステップとを含む。
例14は例12及び13のいずれかの主題を含み、識別された移動オブジェクトの輪郭を視覚化するステップは、選択された魚眼画像から、前記仮想ボウル形状投影面の融合された重複画像領域に、識別された移動オブジェクトの輪郭を投影するステップを含む。
例15は例12−14のいずれかの主題を含み、識別された移動オブジェクトの輪郭を視覚化するステップは、識別された移動オブジェクトの輪郭内の選択された魚眼画像の画像領域を識別するステップと、識別された画像領域を、前記仮想ボウル形状投影面の融合された重複画像領域に投影し、識別された画像領域を、融合された重複画像領域にオーバーレイするステップとを含む。
例16は例12−15のいずれかの主題を含み、前記仮想ボウル形状投影面の融合された重複画像領域は透明である。
例17は例12−16のいずれかの主題を含み、投影された重複する画像領域を修正するステップは、前記第1と第2の魚眼カメラに対する識別された移動オブジェクトの位置に基づき、前記第1と第2の魚眼画像の重複領域内の前記第1と第2の魚眼画像間の接合部を決定するステップであって、前記接合部は前記第1と第2の魚眼画像を結合する前記重複画像領域内の境界であるステップと、決定された接合部に基づいて前記重複領域内の前記第1と第2の魚眼画像を修正するステップと、決定された接合部において、修正された第1と第2の魚眼画像を結合するステップと、結合された第1と第2の魚眼画像を前記仮想ボウル形状投影面に投影するステップとを含む。
例18は例12−17のいずれかの主題を含み、前記第1と第2の魚眼画像間の接合部を決定するステップは、前記第1と第2の魚眼カメラの各々の、対応する視野閾値を決定するステップと、識別された移動オブジェクトの相対的位置と前記視野閾値とに基づいて、魚眼画像を選択し、選択した魚眼画像から、識別された移動オブジェクトを前記仮想ボウル形状投影面に投影するステップであって、前記魚眼画像は前記第1の魚眼画像又は前記第2の魚眼画像のうち一方から選択されるステップと、識別された移動オブジェクトの相対的位置と前記視野閾値とに基づいて、前記仮想ボウル形状投影面に投影する、前記第1と第2の魚眼画像の各々の対応する領域を決定するステップとを含む。
例19は例12−18のいずれかの主題を含み、対応する視野閾値は、対応する第1と第2の魚眼カメラの各々が取得できる最大及び最小の視野角を示す。
例20は例12−19のいずれかの主題を含み、前記コンピューティングデバイスが、前記第1と第2の魚眼カメラを含むカメラシステムのジオメトリに基づいて、前記重複画像領域に対応する前記第1と第2の魚眼画像の重複画像領域を決定するステップをさらに含む。
実施例21は実施例12−20のいずれかの主題を含み、前記コンピューティングデバイスが、修正された投影された重複画像領域の前記仮想ボウル形状投影面への投影に基づいて、ボウル形状画像を生成するステップと、生成されたボウル形状画像を前記コンピューティングデバイスのディスプレイに表示するステップとをさらに含む。
例22は例12−21のいずれかの主題を含み、前記コンピューティングデバイスは車載計算システムとして実施される。
例23は、コンピューティングデバイスであって、プロセッサと、前記プロセッサにより実行されたとき、前記プロセッサに、例12−22いずれかに記載の方法を実行させる複数の命令を格納したメモリとを有する。
例24は、実行されると、コンピューティングデバイスに請求項12−22いずれか一項に記載の方法を実行させる複数の命令を格納した一以上の機械読み取り可能記憶媒体。
例25は、ボウル形状画像に動くオブジェクトを視覚化するコンピューティングデバイスであって、(i)第1の魚眼カメラにより生成され、第1のシーンを取得した第1の魚眼画像と、(ii)第2の魚眼カメラにより生成され、重複領域において前記第1のシーンと重複する第2のシーンを取得した第2の魚眼画像とを受け取る手段と、前記重複領域中の移動オブジェクトを識別する手段と、投影された重複画像領域を修正して、識別された移動オブジェクトを仮想ボウル形状投影面に視覚化する手段であって、投影される重複画像領域は前記仮想ボウル形状投影面に投影され、前記第1と第2の魚眼画像において取得された前記重複領域と対応する手段とを含む。
例26は例25の主題を含み、投影された重複する画像領域を修正する手段は、魚眼画像を選択し、選択した魚眼画像から、識別された移動オブジェクトを前記仮想ボウル形状投影面に投影する手段であって、前記魚眼画像は前記第1の魚眼画像または前記第2の魚眼画像のうち一方から選択される手段と、選択された魚眼画像における識別された移動オブジェクトの輪郭を決定する手段と、投影される重複画像領域を融合して、融合された重複画像領域を生成する手段と、融合された重複画像領域に、識別された移動オブジェクトの輪郭を視覚化する手段とを含む。
例27は例25及び26のいずれかの主題を含み、識別された移動オブジェクトの輪郭を視覚化する手段は、選択された魚眼画像からの識別された移動オブジェクトの輪郭を、前記仮想ボウル形状投影面の融合された重複画像領域に投影する手段を有する。
例28は例25−27のいずれかの主題を含み、識別された移動オブジェクトの輪郭を視覚化する手段は、識別された移動オブジェクトの輪郭内の選択された魚眼画像の画像領域を識別する手段と、識別された画像領域を、前記仮想ボウル形状投影面の融合された重複画像領域に投影し、識別された画像領域を、融合された重複画像領域にオーバーレイする手段とを含む。
例29は例25−28のいずれかの主題を含み、前記仮想ボウル形状投影面の融合された重複画像領域は透明である。
例30は例25−29のいずれかの主題を含み、投影された重複する画像領域を修正する手段は、前記第1と第2の魚眼カメラに対する識別された移動オブジェクトの位置に基づき、前記第1と第2の魚眼画像の重複領域内の前記第1と第2の魚眼画像間の接合部を決定する手段であって、前記接合部は前記第1と第2の魚眼画像を結合する前記重複画像領域内の境界である手段と、決定された接合部に基づいて前記重複領域内の前記第1と第2の魚眼画像を修正する手段と、決定された接合部において、修正された第1と第2の魚眼画像を結合する手段と、結合された第1と第2の魚眼画像を前記仮想ボウル形状投影面に投影する手段とを含む。
例31は例25−30のいずれかの主題を含み、前記第1と第2の魚眼画像間の接合部を決定する手段は、前記第1と第2の魚眼カメラの各々の、対応する視野閾値を決定する手段と、識別された移動オブジェクトの相対的位置と前記視野閾値とに基づいて、魚眼画像を選択し、選択した魚眼画像から、識別された移動オブジェクトを前記仮想ボウル形状投影面に投影する手段であって、前記魚眼画像は前記第1の魚眼画像又は前記第2の魚眼画像のうち一方から選択される手段と、識別された移動オブジェクトの相対的位置と前記視野閾値とに基づいて、前記仮想ボウル形状投影面に投影する、前記第1と第2の魚眼画像の各々の対応する領域を決定する手段とを含む。
実施例32は実施例25−31のいずれかの主題を含み、対応する視野閾値は、対応する第1と第2の魚眼カメラの各々が取得できる最大及び最小の視野角を示す。
実施例33は実施例25−32のいずれかの主題を含み、前記第1と第2の魚眼カメラを含むカメラシステムのジオメトリに基づいて、前記重複画像領域に対応する前記第1と第2の魚眼画像の重複画像領域を決定する手段をさらに含む。
例34は例25−33のいずれかの主題を含み、修正された投影された重複画像領域の前記仮想ボウル形状投影面への投影に基づいて、ボウル形状画像を生成する手段と、生成されたボウル形状画像を前記コンピューティングデバイスのディスプレイに表示する手段とをさらに含む。
例35は例25−34のいずれかの主題を含み、前記コンピューティングデバイスは車載計算システムとして実施される。

Claims (25)

  1. ボウル形状画像に動くオブジェクトを視覚化するコンピューティングデバイスであって、
    第1のシーンを含む第1の魚眼画像を取得する第1の魚眼カメラと、
    重複領域において前記第1のシーンと重複する第2のシーンを含む第2の魚眼画像を取得する第2の魚眼カメラと、
    前記重複領域中の移動オブジェクトを識別するオブジェクト識別モジュールと、
    投影される重複する画像領域を修正して、識別された移動オブジェクトを仮想ボウル形状投影面上に視覚化するオブジェクト視覚化モジュールとを有し、
    投影される重複する画像領域は、前記仮想ボウル形状投影面上に投影され、前記第1と第2の魚眼画像の重複領域に対応する、
    コンピューティングデバイス。
  2. 投影された重複する画像領域を修正することは、
    魚眼画像を選択し、選択した魚眼画像から、識別された移動オブジェクトを前記仮想ボウル形状投影面に投影することであって、前記魚眼画像は前記第1の魚眼画像または前記第2の魚眼画像のうち一方から選択されることと、
    選択された魚眼画像における識別された移動オブジェクトの輪郭を決定することと、
    投影される重複画像領域を融合して、融合された重複画像領域を生成することと、
    融合された重複画像領域に、識別された移動オブジェクトの輪郭を視覚化することとを含む、
    請求項1に記載のコンピューティングデバイス。
  3. 識別された移動オブジェクトの輪郭を視覚化することは、選択された魚眼画像から、前記仮想ボウル形状投影面の融合された重複画像領域に、識別された移動オブジェクトの輪郭を投影することを含む、
    請求項2に記載のコンピューティングデバイス。
  4. 識別された移動オブジェクトの輪郭を視覚化することは、
    識別された移動オブジェクトの輪郭内の選択された魚眼画像の画像領域を識別することと、
    識別された画像領域を、前記仮想ボウル形状投影面の融合された重複画像領域に投影し、識別された画像領域を、融合された重複画像領域にオーバーレイすることとを含む、
    請求項2に記載のコンピューティングデバイス。
  5. 前記仮想ボウル形状投影面の融合された重複画像領域は透明である、
    請求項2に記載のコンピューティングデバイス。
  6. 投影された重複する画像領域を修正することは、
    前記第1と第2の魚眼カメラに対する識別された移動オブジェクトの位置に基づき、前記第1と第2の魚眼画像の重複領域内の前記第1と第2の魚眼画像間の接合部を決定することであって、前記接合部は前記第1と第2の魚眼画像を結合する重複する画像領域内の境界であることと、
    決定された接合部に基づいて前記重複領域内の前記第1と第2の魚眼画像を修正することと、
    決定された接合部において、修正された第1と第2の魚眼画像を結合することと、
    結合された第1と第2の魚眼画像を前記仮想ボウル形状投影面に投影することとを含む、
    請求項1に記載のコンピューティングデバイス。
  7. 前記第1と第2の魚眼画像間の接合部を決定することは、
    前記第1と第2の魚眼カメラの各々の、対応する視野閾値を決定することと、
    識別された移動オブジェクトの相対的位置と前記視野閾値とに基づいて、魚眼画像を選択し、選択した魚眼画像から、識別された移動オブジェクトを前記仮想ボウル形状投影面に投影することであって、前記魚眼画像は前記第1の魚眼画像又は前記第2の魚眼画像のうち一方から選択されることと、
    識別された移動オブジェクトの相対的位置と前記視野閾値とに基づいて、前記仮想ボウル形状投影面に投影する、前記第1と第2の魚眼画像の各々の対応する領域を決定することとを含む、
    請求項6に記載のコンピューティングデバイス。
  8. 対応する視野閾値は、対応する第1と第2の魚眼カメラの各々が取得できる最大及び最小の視野角を示す、
    請求項7に記載のコンピューティングデバイス。
  9. 前記第1と第2の魚眼カメラを含むカメラシステムのジオメトリに基づいて、重複する画像領域に対応する前記第1と第2の魚眼画像の重複する画像領域を決定する重複決定モジュールをさらに有する、
    請求項1ないし8いずれか一項に記載のコンピューティングデバイス。
  10. 修正された投影された重複画像領域の前記仮想ボウル形状投影面への投影に基づいて、ボウル形状画像を生成するボウル生成モジュールと、
    前記コンピューティングデバイスのディスプレイに、生成されたボウル形状画像を表示するディスプレイモジュールとをさらに有する、
    請求項1ないし8いずれか一項に記載のコンピューティングデバイス。
  11. 前記コンピューティングデバイスは車載計算システムとして実施される、
    請求項1ないし8いずれか一項に記載のコンピューティングデバイス。
  12. コンピューティングデバイスにより生成されたボウル形状画像に移動オブジェクトを視覚化する方法であって、
    前記コンピューティングデバイスが、(i)第1の魚眼カメラにより生成され、第1のシーンを取得した第1の魚眼画像と、(ii)第2の魚眼カメラにより生成され、重複領域において前記第1のシーンと重複する第2のシーンを取得した第2の魚眼画像とを受け取るステップと、
    前記コンピューティングデバイスが、前記重複領域中の移動オブジェクトを識別するステップと、
    前記コンピューティングデバイスが、投影された重複画像領域を修正して、識別された移動オブジェクトを仮想ボウル形状投影面に視覚化するステップであって、投影される重複画像領域は前記仮想ボウル形状投影面に投影され、前記第1と第2の魚眼画像において取得された前記重複領域と対応するステップとを含む、
    方法。
  13. 投影された重複する画像領域を修正するステップは、 魚眼画像を選択し、選択した魚眼画像から、識別された移動オブジェクトを前記仮想ボウル形状投影面に投影するステップであって、前記魚眼画像は前記第1の魚眼画像または前記第2の魚眼画像のうち一方から選択されるステップと、
    選択された魚眼画像における識別された移動オブジェクトの輪郭を決定するステップと、
    投影される重複画像領域を融合して、融合された重複画像領域を生成するステップと、
    融合された重複画像領域に、識別された移動オブジェクトの輪郭を視覚化するステップとを含む、
    請求項12に記載の方法。
  14. 識別された移動オブジェクトの輪郭を視覚化するステップは、選択された魚眼画像から、前記仮想ボウル形状投影面の融合された重複画像領域に、識別された移動オブジェクトの輪郭を投影するステップを含む、
    請求項13に記載の方法。
  15. 識別された移動オブジェクトの輪郭を視覚化するステップは、
    識別された移動オブジェクトの輪郭内の選択された魚眼画像の画像領域を識別するステップと、
    識別された画像領域を、前記仮想ボウル形状投影面の融合された重複画像領域に投影し、識別された画像領域を、融合された重複画像領域にオーバーレイするステップとを含む、
    請求項13に記載の方法。
  16. 前記仮想ボウル形状投影面の融合された重複画像領域は透明である、
    請求項13に記載の方法。
  17. 投影された重複する画像領域を修正するステップは、
    前記第1と第2の魚眼カメラに対する識別された移動オブジェクトの位置に基づき、前記第1と第2の魚眼画像の重複領域内の前記第1と第2の魚眼画像間の接合部を決定するステップであって、前記接合部は前記第1と第2の魚眼画像を結合する前記重複画像領域内の境界であるステップと、
    決定された接合部に基づいて前記重複領域内の前記第1と第2の魚眼画像を修正するステップと、
    決定された接合部において、修正された第1と第2の魚眼画像を結合するステップと、
    結合された第1と第2の魚眼画像を前記仮想ボウル形状投影面に投影するステップとを含む、
    請求項12に記載の方法。
  18. 前記第1と第2の魚眼画像間の接合部を決定するステップは、
    前記第1と第2の魚眼カメラの各々の、対応する視野閾値を決定するステップと、
    識別された移動オブジェクトの相対的位置と前記視野閾値とに基づいて、魚眼画像を選択し、選択した魚眼画像から、識別された移動オブジェクトを前記仮想ボウル形状投影面に投影するステップであって、前記魚眼画像は前記第1の魚眼画像又は前記第2の魚眼画像のうち一方から選択されるステップと、
    識別された移動オブジェクトの相対的位置と前記視野閾値とに基づいて、前記仮想ボウル形状投影面に投影する、前記第1と第2の魚眼画像の各々の対応する領域を決定するステップとを含む、
    請求項17に記載の方法。
  19. 対応する視野閾値は、対応する第1と第2の魚眼カメラの各々が取得できる最大及び最小の視野角を示す、
    請求項18に記載の方法。
  20. 前記コンピューティングデバイスが、前記第1と第2の魚眼カメラを含むカメラシステムのジオメトリに基づいて、前記重複画像領域に対応する前記第1と第2の魚眼画像の重複画像領域を決定するステップをさらに含む、
    請求項12に記載の方法。
  21. 前記コンピューティングデバイスが、修正された投影された重複画像領域の前記仮想ボウル形状投影面への投影に基づいて、ボウル形状画像を生成するステップと、
    生成されたボウル形状画像を前記コンピューティングデバイスのディスプレイに表示するステップとをさらに含む、
    請求項12に記載の方法。
  22. 前記コンピューティングデバイスは車載計算システムとして実施される、
    請求項12に記載の方法。
  23. コンピューティングデバイスであって、
    プロセッサと、
    前記プロセッサにより実行されたとき、前記プロセッサに、請求項12−22いずれか一項に記載の方法を実行させる複数の命令を格納したメモリとを有する、
    コンピューティングデバイス。
  24. 実行されると、コンピューティングデバイスに請求項12−22いずれか一項に記載の方法を実行させる複数の命令を格納した一以上の機械読み取り可能記憶媒体。
  25. 移動オブジェクトをボウル形状画像に視覚化する、請求項12−22いずれか一項に記載の方法を実行する手段を有するコンピューティングデバイス。
JP2017514834A 2014-09-17 2015-08-18 ボウル型イメージングシステムにおけるオブジェクト視覚化 Active JP6469849B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/488,793 2014-09-17
US14/488,793 US10442355B2 (en) 2014-09-17 2014-09-17 Object visualization in bowl-shaped imaging systems
PCT/US2015/045649 WO2016043897A1 (en) 2014-09-17 2015-08-18 Object visualization in bowl-shaped imaging systems

Publications (2)

Publication Number Publication Date
JP2017536717A true JP2017536717A (ja) 2017-12-07
JP6469849B2 JP6469849B2 (ja) 2019-02-13

Family

ID=55456106

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017514834A Active JP6469849B2 (ja) 2014-09-17 2015-08-18 ボウル型イメージングシステムにおけるオブジェクト視覚化

Country Status (6)

Country Link
US (1) US10442355B2 (ja)
EP (1) EP3195584B1 (ja)
JP (1) JP6469849B2 (ja)
KR (1) KR102253553B1 (ja)
CN (1) CN106575432B (ja)
WO (1) WO2016043897A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7447307B2 (ja) 2020-04-09 2024-03-11 コノート、エレクトロニクス、リミテッド 信頼性の高いスティッチング画像を作成するためのシステムおよび方法

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3085074B1 (en) 2013-12-19 2020-02-26 Intel Corporation Bowl-shaped imaging system
JP6706032B2 (ja) * 2015-06-12 2020-06-03 シャープ株式会社 移動体システム及び制御装置
DE102016211227A1 (de) * 2016-06-23 2017-12-28 Conti Temic Microelectronic Gmbh Verfahren und Fahrzeugsteuersystem zum Erzeugen von Abbildungen eines Umfeldmodells und entsprechendes Fahrzeug
CN109478320B (zh) * 2016-07-12 2022-03-18 深圳市大疆创新科技有限公司 处理图像以获得环境信息
CN107666590B (zh) * 2016-07-29 2020-01-17 华为终端有限公司 一种目标监控方法、摄像头、控制器和目标监控系统
US10733697B2 (en) 2016-12-27 2020-08-04 Intel IP Corporation Convolutional neural network for wide-angle camera images
CN111033555B (zh) * 2017-08-25 2024-04-26 株式会社索思未来 修正装置、修正程序以及记录介质
US10571863B2 (en) 2017-12-21 2020-02-25 International Business Machines Corporation Determine and project holographic object path and object movement with mult-device collaboration
DE102018102047A1 (de) * 2018-01-30 2019-08-01 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Darstellen eines Umgebungsbereichs eines Kraftfahrzeugs mit virtuellen, länglichen Abstandsmarkierungen in einem Bild, Computerprogrammprodukt, sowie Anzeigesystem
JP6809495B2 (ja) * 2018-03-05 2021-01-06 株式会社デンソー 画像作成装置
DE102018203405A1 (de) * 2018-03-07 2019-09-12 Zf Friedrichshafen Ag Visuelles Surround-View-System zur Überwachung des Fahrzeuginneren
DE102018203590A1 (de) 2018-03-09 2019-09-12 Conti Temic Microelectronic Gmbh Surroundview-System mit angepasster Projektionsfläche
CN112930557A (zh) * 2018-09-26 2021-06-08 相干逻辑公司 任何世界视图生成
CN112912929A (zh) * 2018-11-02 2021-06-04 Oppo广东移动通信有限公司 鱼眼红外深度检测
GB2581191B (en) * 2019-02-08 2022-02-16 Jaguar Land Rover Ltd Image system for a vehicle
DE102019207415A1 (de) * 2019-05-21 2020-11-26 Conti Temic Microelectronic Gmbh Verfahren zur Erzeugung eines Bildes einer Fahrzeugumgebung und Vorrichtung zur Erzeugung eines Bildes einer Fahrzeugumgebung
US11217020B2 (en) 2020-03-16 2022-01-04 Snap Inc. 3D cutout image modification
CN112308766B (zh) * 2020-10-19 2023-11-24 武汉中科通达高新技术股份有限公司 一种图像数据展示方法、装置、电子设备及存储介质
CN117098693A (zh) * 2021-04-07 2023-11-21 石通瑞吉股份有限公司 包括偏移相机视图的车辆显示器
US11995757B2 (en) 2021-10-29 2024-05-28 Snap Inc. Customized animation from video

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0219552A1 (en) * 1985-04-08 1987-04-29 Anritsu Corporation Device for displaying polar coordinates in raster scanning system
WO2004029693A1 (ja) * 2002-09-24 2004-04-08 Nikon Corp 画像表示装置及び投影光学系
JP2004341570A (ja) * 2003-05-12 2004-12-02 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP2006311272A (ja) * 2005-04-28 2006-11-09 Denso Corp 車両用映像表示装置
EP1775952A2 (en) * 2005-10-17 2007-04-18 Sanyo Electric Co., Ltd. Vehicle drive assistance system
US20070085801A1 (en) * 2005-10-18 2007-04-19 Samsung Electronics Co., Ltd. Flat panel display and method of driving the same
US20100134325A1 (en) * 2008-11-28 2010-06-03 Fujisu Limited Image processing apparatus, image processing method, and recording medium
WO2012017560A1 (ja) * 2010-08-06 2012-02-09 富士通株式会社 画像処理装置および画像処理プログラム
US20130286193A1 (en) * 2012-03-21 2013-10-31 Magna Electronics Inc. Vehicle vision system with object detection via top view superposition
US20140114534A1 (en) * 2012-10-19 2014-04-24 GM Global Technology Operations LLC Dynamic rearview mirror display features
US20140168475A1 (en) * 2012-12-14 2014-06-19 Microsoft Corporation Four-lens spherical camera orientation

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11119303A (ja) * 1997-10-20 1999-04-30 Fujitsu Ltd 監視システム及び監視方法
EP2309453A3 (en) 1998-07-31 2012-09-26 Panasonic Corporation Image displaying apparatus and image displaying method
CN100438623C (zh) 1999-04-16 2008-11-26 松下电器产业株式会社 图象处理装置及监视系统
EP1303140A4 (en) 2000-07-19 2007-01-17 Matsushita Electric Ind Co Ltd MONITORING SYSTEM
KR100866450B1 (ko) 2001-10-15 2008-10-31 파나소닉 주식회사 차량 주위 감시 장치 및 그 조정 방법
US7139432B2 (en) 2002-04-10 2006-11-21 National Instruments Corporation Image pattern matching utilizing discrete curve matching with a mapping operator
ES2391556T3 (es) 2002-05-03 2012-11-27 Donnelly Corporation Sistema de detección de objetos para vehículo
JP3962676B2 (ja) 2002-11-29 2007-08-22 キヤノン株式会社 画像処理方法及び装置
KR100526817B1 (ko) 2003-04-22 2005-11-08 학교법인 중앙대학교 스테레오 영상 구현 시 기본행렬을 구하는 방법
US7336299B2 (en) 2003-07-03 2008-02-26 Physical Optics Corporation Panoramic video system with real-time distortion-free imaging
JP3921205B2 (ja) * 2004-01-13 2007-05-30 株式会社イフ 立体映像表示装置
JP4502733B2 (ja) 2004-07-15 2010-07-14 ダイハツ工業株式会社 障害物測定方法及び障害物測定装置
JP2006059202A (ja) 2004-08-20 2006-03-02 Iwate Univ 撮像装置及び画像補正方法
US7796154B2 (en) * 2005-03-07 2010-09-14 International Business Machines Corporation Automatic multiscale image acquisition from a steerable camera
JP4679293B2 (ja) * 2005-08-08 2011-04-27 三洋電機株式会社 車載パノラマカメラシステム
US20080317370A1 (en) 2005-11-08 2008-12-25 Koninklijke Philips Electronics, N.V. Method and System for Filtering Elongated Features
JP2007183877A (ja) 2006-01-10 2007-07-19 Nissan Motor Co Ltd 車両用運転支援装置及び俯瞰映像の表示方法
US7576639B2 (en) * 2006-03-14 2009-08-18 Mobileye Technologies, Ltd. Systems and methods for detecting pedestrians in the vicinity of a powered industrial vehicle
KR100966875B1 (ko) 2006-09-26 2010-06-29 삼성전자주식회사 전방위 영상을 이용한 로봇의 위치 결정방법
US8189959B2 (en) 2008-04-17 2012-05-29 Microsoft Corporation Image blending using multi-splines
EP2285109B1 (en) 2008-05-29 2018-11-28 Fujitsu Limited Vehicle image processor, and vehicle image processing system
JP5439890B2 (ja) 2009-03-25 2014-03-12 富士通株式会社 画像処理方法、画像処理装置及びプログラム
EP2437494B1 (en) * 2009-05-25 2017-10-11 Panasonic Intellectual Property Management Co., Ltd. Device for monitoring area around vehicle
JP5299513B2 (ja) 2009-08-12 2013-09-25 日本電気株式会社 障害物検知装置及び方法並びに障害物検知システム
JP2011086111A (ja) 2009-10-15 2011-04-28 Mitsubishi Electric Corp 撮像装置校正方法及び画像合成装置
JP5341789B2 (ja) * 2010-01-22 2013-11-13 富士通テン株式会社 パラメータ取得装置、パラメータ取得システム、パラメータ取得方法、及び、プログラム
JP5624370B2 (ja) 2010-06-04 2014-11-12 東芝アルパイン・オートモティブテクノロジー株式会社 移動体検出装置及び移動体検出方法
JP2011155651A (ja) 2011-02-10 2011-08-11 Toshiba Corp 車両周辺画像表示装置および車両周辺画像表示方法
CN202038230U (zh) 2011-03-24 2011-11-16 信亿科技股份有限公司 全景行车辅助监录器
EP2511137B1 (en) 2011-04-14 2019-03-27 Harman Becker Automotive Systems GmbH Vehicle Surround View System
WO2012145819A1 (en) 2011-04-25 2012-11-01 Magna International Inc. Image processing method for detecting objects using relative motion
EP2530647A1 (en) * 2011-06-01 2012-12-05 Harman Becker Automotive Systems GmbH Method of calibrating a vehicle vision system and vehicle vision system
KR101265667B1 (ko) 2011-06-21 2013-05-22 ㈜베이다스 차량 주변 시각화를 위한 3차원 영상 합성장치 및 그 방법
US8447116B2 (en) 2011-07-22 2013-05-21 Honeywell International Inc. Identifying true feature matches for vision based navigation
EP2554434B1 (en) 2011-08-05 2014-05-21 Harman Becker Automotive Systems GmbH Vehicle surround view system
JP5682788B2 (ja) * 2011-09-27 2015-03-11 アイシン精機株式会社 車両周辺監視装置
KR101913837B1 (ko) 2011-11-29 2018-11-01 삼성전자주식회사 파노라마 영상 생성 방법 및 이를 적용한 영상기기
JP5966341B2 (ja) 2011-12-19 2016-08-10 大日本印刷株式会社 画像処理装置、画像処理方法、画像処理装置用プログラム、画像表示装置
TW201333896A (zh) 2012-02-14 2013-08-16 yan-hong Jiang 使用視訊雷達的遠距交通管理系統
JP5959264B2 (ja) 2012-03-29 2016-08-02 三菱電機株式会社 画像処理装置及び方法、並びにコンピュータプログラム
US9275485B2 (en) 2012-06-28 2016-03-01 The University Of Utah Research Foundation Seam network processing for panorama weaving
DE102012018326B4 (de) 2012-09-15 2019-12-19 Zf Friedrichshafen Ag Verfahren und Vorrichtung für ein bildgebendes Fahrerassistenzsystem mit verdeckungsfreier Umsichtfunktion
WO2014100985A1 (en) 2012-12-26 2014-07-03 Harman International Industries, Incorporated Method and system for generating a surround view
US9762889B2 (en) 2013-05-08 2017-09-12 Sony Corporation Subtitle detection for stereoscopic video contents
EP3085074B1 (en) 2013-12-19 2020-02-26 Intel Corporation Bowl-shaped imaging system
US9436987B2 (en) * 2014-04-30 2016-09-06 Seiko Epson Corporation Geodesic distance based primitive segmentation and fitting for 3D modeling of non-rigid objects from 2D images
US9437001B2 (en) 2014-09-18 2016-09-06 Intel Corporation Tracking objects in bowl-shaped imaging systems

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0219552A1 (en) * 1985-04-08 1987-04-29 Anritsu Corporation Device for displaying polar coordinates in raster scanning system
WO2004029693A1 (ja) * 2002-09-24 2004-04-08 Nikon Corp 画像表示装置及び投影光学系
JP2004341570A (ja) * 2003-05-12 2004-12-02 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP2006311272A (ja) * 2005-04-28 2006-11-09 Denso Corp 車両用映像表示装置
CN1953553A (zh) * 2005-10-17 2007-04-25 三洋电机株式会社 驾驶辅助系统
EP1775952A2 (en) * 2005-10-17 2007-04-18 Sanyo Electric Co., Ltd. Vehicle drive assistance system
JP2007109166A (ja) * 2005-10-17 2007-04-26 Sanyo Electric Co Ltd 運転支援システム
US20070085801A1 (en) * 2005-10-18 2007-04-19 Samsung Electronics Co., Ltd. Flat panel display and method of driving the same
US20100134325A1 (en) * 2008-11-28 2010-06-03 Fujisu Limited Image processing apparatus, image processing method, and recording medium
JP2010128951A (ja) * 2008-11-28 2010-06-10 Fujitsu Ltd 画像処理装置、画像処理方法及びコンピュータプログラム
WO2012017560A1 (ja) * 2010-08-06 2012-02-09 富士通株式会社 画像処理装置および画像処理プログラム
US20130286193A1 (en) * 2012-03-21 2013-10-31 Magna Electronics Inc. Vehicle vision system with object detection via top view superposition
US20140114534A1 (en) * 2012-10-19 2014-04-24 GM Global Technology Operations LLC Dynamic rearview mirror display features
US20140168475A1 (en) * 2012-12-14 2014-06-19 Microsoft Corporation Four-lens spherical camera orientation

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7447307B2 (ja) 2020-04-09 2024-03-11 コノート、エレクトロニクス、リミテッド 信頼性の高いスティッチング画像を作成するためのシステムおよび方法

Also Published As

Publication number Publication date
KR102253553B1 (ko) 2021-05-18
EP3195584A4 (en) 2018-05-23
EP3195584B1 (en) 2020-11-18
JP6469849B2 (ja) 2019-02-13
US20160080699A1 (en) 2016-03-17
CN106575432B (zh) 2020-05-26
KR20170031755A (ko) 2017-03-21
EP3195584A1 (en) 2017-07-26
US10442355B2 (en) 2019-10-15
WO2016043897A1 (en) 2016-03-24
CN106575432A (zh) 2017-04-19

Similar Documents

Publication Publication Date Title
JP6469849B2 (ja) ボウル型イメージングシステムにおけるオブジェクト視覚化
EP3085074B1 (en) Bowl-shaped imaging system
US20200148114A1 (en) Vehicular vision system with reduced distortion display
JP6453449B2 (ja) ボウル型イメージングシステムにおけるオブジェクト追跡
US11472338B2 (en) Method for displaying reduced distortion video images via a vehicular vision system
JP7054293B2 (ja) リアビュー可視化のためのリアスティッチされたビューパノラマ
JP6371553B2 (ja) 映像表示装置および映像表示システム
JP5049300B2 (ja) 障害物検出表示装置
US20160280136A1 (en) Active-tracking vehicular-based systems and methods for generating adaptive image
CN109660783B (zh) 虚拟现实视差校正
TWI578271B (zh) 動態影像處理方法以及動態影像處理系統
JP5953824B2 (ja) 車両用後方視界支援装置及び車両用後方視界支援方法
JP6699427B2 (ja) 車両用表示装置および車両用表示方法
KR20160076271A (ko) 장애물 검출 장치 및 장애물 검출 방법
US10362231B2 (en) Head down warning system
CN113614779A (zh) 图像处理系统和方法
US20220277512A1 (en) Generation apparatus, generation method, system, and storage medium
US20150116202A1 (en) Image processing device and method, and program
JP6293089B2 (ja) 後方モニタ
JP2016136326A (ja) 情報表示装置および情報表示方法
JP6136747B2 (ja) 2次元3次元表示装置
JP2020119492A (ja) 画像合成装置、及び、制御方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190116

R150 Certificate of patent or registration of utility model

Ref document number: 6469849

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250