JP2017538304A - ボウル型イメージングシステムにおけるオブジェクト追跡 - Google Patents

ボウル型イメージングシステムにおけるオブジェクト追跡 Download PDF

Info

Publication number
JP2017538304A
JP2017538304A JP2017515141A JP2017515141A JP2017538304A JP 2017538304 A JP2017538304 A JP 2017538304A JP 2017515141 A JP2017515141 A JP 2017515141A JP 2017515141 A JP2017515141 A JP 2017515141A JP 2017538304 A JP2017538304 A JP 2017538304A
Authority
JP
Japan
Prior art keywords
vehicle
virtual
contour
computing device
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017515141A
Other languages
English (en)
Other versions
JP6453449B2 (ja
Inventor
ショル,カイ−ウルリッヒ
ナトロシュヴィリ,コバ
Original Assignee
インテル コーポレイション
インテル コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテル コーポレイション, インテル コーポレイション filed Critical インテル コーポレイション
Publication of JP2017538304A publication Critical patent/JP2017538304A/ja
Application granted granted Critical
Publication of JP6453449B2 publication Critical patent/JP6453449B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • G06T3/047Fisheye or wide-angle transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/12Panospheric to cylindrical image transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)

Abstract

オブジェクトの車両からの距離を決定する技術は、計算デバイスが、車両の魚眼カメラにより生成される魚眼画像に取得されたオブジェクトを識別するステップを含む。計算デバイスが、車両に対する識別されたオブジェクトの位置に基づいて、車両の外にあり、所定の仮想平面のセットから選択された仮想平面に、識別されたオブジェクトの輪郭を投影する。計算デバイスは、選択された仮想平面に投影された輪郭の底部を識別し、計算デバイスは、車両が配置された平面と一致する地平面との仮想線の交点を決定する。仮想線は、投影された輪郭の識別された底部の各々と魚眼カメラとを通る。計算デバイスは、決定された交点と、投影された輪郭の識別された底部とに基づき、識別されたオブジェクトの車両に対する位置を決定する。

Description

[関連米国特許出願への相互参照]
本願は、2014年9月18日出願の米国特許出願第14/490,369号(発明の名称「TRACKING OBJECTS IN BOWL−SHAPED IMAGING SYSTEMS」)の優先権を主張するものである。
リアビューカメラなどの車載カメラシステムは、高級車や一部のローエンド車でも主流になっている。具体的な実装に応じて、車載カメラシステムは、視覚の改善、自動並列駐車、および/または他の目的のために使用されてもよい。例えば、車両に搭載されたカメラによって取得された画像は、車両のナビゲーションシステムの表示画面に表示され、運転者に、車両の遮られない後方ビュー(すなわち、バックミラーより良いもの)、または車両のオーバーヘッドビュー(すなわち、車両の周囲を示すもの)を提供する。一部の車載カメラシステムでは、いくつかのカメラを車両に搭載して、車両の周囲のすべてを取得することができる(すなわち、360°全体)。このような車載カメラシステムは、車両の周囲を取得するのに必要なカメラの数を最小にするために、魚眼レンズなどを有する広角カメラ(すなわち、魚眼カメラ)を使用することがある。
幾つかの環境では、車両ベースの安全メカニズムが、あるオブジェクトの車両に対する距離を決定することは利益がある。例えば、車載バックアップセンサが、車載コンピューティングシステムによって利用され、オブジェクトが閾値距離内にあるときに運転者に警告し、または車両を自動的に停止させてもよい。オブジェクトの、車両のような特定の基準点までの距離を決定する様々な技術およびメカニズムが存在する。例えば、車載コンピューティングシステムは、レーダ、フォトニックミキサーデバイス(PMD)、ステレオカメラ、近接/動きセンサ、および/またはオブジェクトの、車両からの距離を決定する他のセンサを利用することができる。
ここで説明するコンセプトを、添付した図面において、限定ではなく実施例により説明する。説明を単純かつ明確にするため、図に示した要素は必ずしもスケール通りには描いていない。適当であれば、対応または類似する要素を示すため、複数の図面で同じ参照レベルを用いた。
車両周囲の物理的環境を表示し、車両からのオブジェクトの距離を決定する、車両の車載コンピューティングシステムの少なくとも1つの実施形態の簡略化したブロック図である。
図1の車両の少なくとも1つの実施形態の簡略図である。
図1の車載コンピューティングシステムによって確立された環境の少なくとも1つの実施形態の簡略ブロック図である。
仮想ボウル形状投影面の少なくとも1つの実施形態の簡略図である。
図1の車載コンピューティングシステムによる車両からのオブジェクトの距離を決定する方法の少なくとも一実施形態を示す簡略化したフロー図である。 図1の車載コンピューティングシステムによる車両からのオブジェクトの距離を決定する方法の少なくとも一実施形態を示す簡略化したフロー図である。
図1の車載コンピューティングシステムでカルマンフィルタを適用することにより、車両に対するオブジェクトの位置を決定する方法の少なくとも一実施形態を示す簡略化したフロー図である。
図2の車両を取り囲む仮想面の構成を示す簡略図である。
図8の仮想面の1つに投影された、識別されたオブジェクトの輪郭を示す簡略図である。
カルマンフィルタの少なくとも一実施形態を示す簡略化したブロック図である。
車両に対するオブジェクトの決定された位置を示す簡略図である。
本開示のコンセプトはいろいろな修正を施したり代替的形式を取ったりすることもできるが、その具体的な実施形態を図面において実施例で示し、ここに詳細に説明する。しかし、言うまでもなく、開示した具体的な形式に本開示を限定する意図ではなく、逆に、本発明は本開示と添付した特許請求の範囲に沿ったすべての修正、等価物及び代替物をカバーするものである。
本明細書において「one embodiment」、「an embodiment」、「an illustrative embodiment」などと言う場合、記載した実施形態が、ある機能、構造、または特徴を含むが、かならずしもすべての実施形態がその機能、構造、または特徴を含んでも含まなくてもよい。さらに、かかる文言は必ずしも同じ実施形態を参照しているとは限らない。さらに、ある機能、構造、または特徴をある実施形態について説明した場合、明示的に記載していようがいまいが、他の実施形態に関するそれらの機能、構造、または特徴に影響が及ぶことは、当業者には自明である。また、言うまでもなく、「少なくとも1つのA、B及びC」は、(A)、(B)、(C)、(A及びB)、(B及びC)、(A及びC)又は(A、B、及びC)を意味し得る。同様に、「A、B又はCのうちの少なくとも1つ」との形式のリストに含まれるアイテムは、(A)、(B)、(C)、(A及びB)、(B及びC)、(A及びC)、又は(A、B、及びC)を意味し得る。
開示した実施形態は、幾つかの場合には、ハードウェア、ファームウェア、ソフトウェア、またはそれらの任意の組み合わせで実装できる。開示の実施形態は、一以上の一時的又は非一時的な機械読み取り可能(例えば、コンピュータ読み取り可能)記憶媒体により担われ、又はそれに格納された(一以上のプロセッサにより読み取られ実行され得る)命令として実装することもできる。機械読み取り可能記憶媒体は、機械により読み取り可能な形式で情報を格納又は送信する任意のストレージデバイス、メカニズム、又はその他の物理的構造(例えば、揮発性又は不揮発性メモリ、メディアディスク、又はその他のメディアデバイス)として実施できる。
図中、幾つかの構造的又は方法フィーチャを具体的な構成及び/又は順序で示すかも知れない。しかし、言うまでもなく、かかる具体的な構成及び/又は順序は必須ではない場合がある。むしろ、幾つかの場合には、かかるフィーチャは、例示した図面に示したのとは異なる方法及び/又は順序で構成することもできる。また、ある図面に構造的又は方法フィーチャを含めることは、かかるフィーチャがすべての実施形態において必要であることを意味するのではなく、幾つかの実施形態では、含まれなくてもよいし、他のフィーチャと組み合わされてもよい。
ここで図1を参照する。図1に示すように、例示的な実施形態では、車両100は、本明細書で説明される機能を実行することができる任意のタイプのコンピューティングシステムとして具体化され得る車載コンピューティングシステム102を含む。例示的な実施形態では、車両100は、車輪付き乗用車(例えば、自動車、トラック、トラックトラクター、バスなど)として具体化される。しかしながら、言うまでもなく、他の実施形態では、車両100は、別のタイプの車両(例えば、レール駆動トロリー、無人車両、または説明される技術および機構の適用に適した別の車両)として実施されてもよく、または他の可動装置として実施されてもよい。本明細書で説明されるように、車載コンピューティングシステム102は、魚眼画像を取得し、その魚眼画像を仮想ボウル形状投影面(virtual bowl−shaped projection surface)に投影して、運転者が見るための対応するボウル形状画像(bowl−shaped image)を生成するように構成される。
さらに、車載コンピューティングシステム102は、車両100を取り囲む周辺のオブジェクトを識別し、車両100に対するそのオブジェクトの距離および/または位置を決定する。特に、例示的な実施形態では、車載コンピューティングシステム102は、識別されたオブジェクトの輪郭を仮想平面に投影する(図8及び図9を参照)。車載コンピューティングシステム102は、さらに、仮想平面上の投影された輪郭の底部(例えば、輪郭を囲むボックスの下の中点)を特定し、仮想的な線(すなわち、投影された輪郭の底部および対応する魚眼画像を取得した魚眼カメラを通る線)の地平面との交点を決定する。このように、言うまでもなく、車載コンピューティングシステム102は、例示的な実施形態では、オブジェクト(例えば、歩行者)が地平面に立っているか地上に配置されていると仮定する。以下でより詳細に説明するように、車載コンピューティングシステム102は、決定された交点および投影された輪郭の底部に基づいて、(例えば、それらのパラメータに基づいてカルマンフィルタを適用することによって)車両100に対する識別されたオブジェクトの位置を決定する。このように、言うまでもなく、車載コンピューティングシステム102は、レーダ、フォトニックミキサーデバイス(PMD)、ステレオカメラ、近接/動きセンサ、および/または従来からオブジェクトの距離を決定するために使用される他のセンサを使用することなく、車両100からのオブジェクトの距離および相対位置を決定する。むしろ、車載コンピューティングシステム102は、本明細書に記載の周辺車両監視システムを使用する。
いくつかの実施形態では、車載コンピューティングシステム102は、車載インフォテインメントシステム、ナビゲーションシステム、および/または他の車両ベースのコンピューティングシステムとして実施されてもよく、またはそれらの一部を構成してもよい。他の実施形態では、車載コンピューティングシステム102は、スタンドアロンコンピューティングデバイスまたはコンピューティングシステムとして実施されてもよいさらに、いくつかの実施形態では、遠隔コンピューティングデバイスが、車載コンピューティングシステム102と通信可能に結合され、本明細書で説明される機能の1つまたは複数を(例えば、遠隔から)実行し、結果を車載コンピューティングシステム102に、ネットワーク(例えば、有線または無線の通信ネットワーク)を介して通信するように構成されてもよい。そのような実施形態では、リモートコンピューティングデバイスは、車載コンピューティングシステム102と通信し、本明細書に記載の機能を実行できる任意のタイプのコンピューティングシステム(例えば、サーバ、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、ノートブック、ネットブック、ウルトラブック(商標)、セルラフォン、スマートフォン、パーソナルデジタルアシスタント、モバイルインターネットデバイス、ウェアラブルコンピューティングデバイス、ハイブリッドデバイス、および/または任意の他のコンピューティング/通信デバイス)として実施してもよい。
図1に示したように、例示の車載コンピューティングシステム102は、プロセッサ110、入出力(I/O)サブシステム112、メモリ114、データストレージ116、ディスプレイ118、カメラシステム120、ユーザインターフェース122、及び、幾つかの実施形態では、一以上の周辺デバイス124を含む。また、カメラシステム120は一以上のカメラ126を含み、ユーザインターフェース122は仮想カメラコントロール128を含む。もちろん、車載コンピューティングシステム102は、他の一実施形態では、典型的なコンピューティングデバイスに一般的に見つかるようなその他の又は追加的なコンポーネント(例えば、通信回路、様々な入出力デバイス、及び/又はその他のコンポーネントなど)を含み得る。また、幾つかの実施形態では、例示したコンポーネントのうち一以上は、他のコンポーネントに組み込まれていても良く、又はその一部を構成していても良い。例えば、メモリ114又はその部分は、幾つかの実施形態では、プロセッサ110に組み込まれても良い。
プロセッサ110は、ここに説明する機能を実行できる任意のタイプのプロセッサとして実施できる。例えば、このプロセッサは、シングル又はマルチコアプロセッサ、デジタルシグナルプロセッサ、マイクロコントローラ、又はその他のプロセッサ又は処理/制御回路として実施できる。同様に、メモリ114は、ここに説明する機能を実行できる、任意のタイプの揮発性又は不揮発性メモリ又はデータストレージとして実施できる。動作中、メモリ114は、オペレーティングシステム、アプリケーション、プログラム、ライブラリ、及びドライバなど、車載コンピューティングシステム102の動作中に用いられる様々なデータとソフトウェアを記憶できる。メモリ114は、I/Oサブシステム112を介してプロセッサ110に通信可能に結合している。I/Oサブシステム112は、プロセッサ110、メモリ114、及び車載コンピューティングシステム102のその他のコンポーネントとの入出力動作を容易にする回路及び/又はコンポーネントとして実施できる。例えば、I/Oサブシステム112は、メモリコントローラハブ、入出力制御ハブ、ファームウェアデバイス、通信リンク(すなわち、ポイント・ツー・ポイントリンク、バスリンク、ワイヤ、ケーブル、光ガイド、プリント回路板トレースなど)及び/又は入出力動作を容易にするその他のコンポーネント及びサブシステムとして、又はこれらを含むものとして実施できる。幾つかの実施形態では、I/Oサブシステム112は、システム・オン・チップ(SoC)の一部を形成でき、単一の集積回路チップ上にプロセッサ110、メモリ114、及び車載コンピューティングシステム102のその他のコンポーネントとともに、組み込むことができる。
データストレージ116は、例えば、メモリデバイスと回路、メモリカード、ハードディスクドライブ、固体ドライブ、その他の記憶デバイスなどの、データを短期又は長期にわたり格納するように構成された任意のタイプのデバイスとして実施できる。データストレージ116および/またはメモリ114は、例えば、取得され処理された画像、画像フィルタ、構成要素パラメータ(例えば、カメラ126の固有パラメータ)、カメラシステム120のジオメトリに関するデータ、および/または後述の車載コンピューティングシステム102の動作に有用な他のデータなど、様々なデータを、車載コンピューティングシステム102の動作中に格納してもよい。
車載コンピューティングシステム102のディスプレイ118は、車載コンピューティングシステム102のユーザ(例えば、車両100の運転者または乗客)に情報を表示することができる任意の1つまたは複数の表示画面として実施することができる。ディスプレイ118は、例えば、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、陰極線管(CRT)ディスプレイ、プラズマディスプレイ、ホログラフィックまたは他の三次元(3D)ディスプレイ、および/または他のディスプレイ技術などを含む任意の適切なディスプレイ技術として実施され、又はそれらを使用してもよい。図1には、単一のディスプレイ118のみが示されているが、言うまでもなく、車載コンピューティングシステム102は、同じまたは異なるコンテンツが互いに同時にまたは順次に表示される複数のディスプレイまたはディスプレイ画面を含むことができる。ディスプレイ118は、様々な車両動作パラメータおよび/または車載インフォテイメント情報(例えば、ラジオ局、温度制御など)が表示される汎用ディスプレイとして実施されてもよい。あるいは、ディスプレイ118は、後述するように、カメラシステム120によって生成された画像を表示するための特定用途ディスプレイとして実施されてもよい。
カメラシステム120は、1つ以上のカメラ126を含み、これは車両100の周囲環境、より具体的には車載コンピューティングシステム102の周囲環境の画像を取得するために使用され得る。言うまでもなく、例示的な実施形態では、カメラシステム120のカメラ126は、車両100の360°全体の周囲またはその大部分を取得するように適切に離間されている。さらに、いくつかの実施形態では、カメラ126相互の配置、および/または車両100に対するカメラ126の配置に関連するジオメトリ(geometry)は、既知であるか、または決定することができる。
カメラ126の各々は、スチルカメラ、ビデオカメラ、ウェブカメラ、またはビデオおよび/または画像を取り込むことができる他の装置のような、画像を取り込むのに適した任意の周辺装置または一体化装置として実施することができる。例示的な実施形態では、カメラ126の各々は、車両100の完全な、またはほぼ完全な周囲の取得を容易にする魚眼カメラとして実施される。もちろん、他の実施形態では、他のタイプの広角カメラ又は狭角カメラが、例えば、車両100のタイプ、使用されるカメラ126のタイプ、使用されるカメラ126の数、および/または他の基準に応じて使用されてもよい。さらに、カメラシステム120は、そのような様々な基準に応じて車両100の周囲を取得する2つ以上のカメラ126を含むことができる。例示的な実施形態では、カメラシステム120は、車両100の全周囲を取得するために、車両100に取り付けられた、または一体化された4つの魚眼カメラ126(すなわち、魚眼レンズを有するカメラ126)を含み、そうするために必要なカメラ126の数を最小限に抑えている。例えば、図2の例示的な実施形態に示されるように、車両100の四辺(前後、運転席側、助手席側)のそれぞれにカメラ126を搭載してもよい。もちろん、他の実施形態では、車載コンピューティングシステム102は、異なる数、タイプ、および/または相対的な位置のカメラ126を利用してもよい。例えば、別の実施形態では、カメラ126は、車両100の他の場所(例えば、車両100の隅部)に配置してもよい。具体的な実施形態に応じて、カメラシステム120のカメラ126は、同じタイプであってもよいし、異なるタイプであってもよい。例えば、いくつかの実施形態では、カメラシステム120の1つまたは複数のカメラ126が魚眼レンズを有し、1つまたは複数のカメラ126が従来のレンズを有することができる。
ユーザインターフェース122は、車載コンピューティングシステム102のユーザが車載コンピューティングシステム102と対話することを可能にする。例えば、以下に説明するように、ユーザは、車載コンピューティングシステム102と対話して、車両100の周囲をディスプレイ118上に表示することができる。このように、いくつかの実施形態では、ユーザインターフェース122は、I/O機能を可能にする1つ以上の仮想的および/または物理的ボタン、ノブ、スイッチ、キーパッド、タッチスクリーン、および/または他の機構を含む。例えば、いくつかの実施形態では、ユーザインターフェース122は、車両100のナビゲーションシステムまたはインフォテイメントシステムと一体化されてもよい。上述したように、ユーザインターフェース122は、例示的な実施形態では仮想カメラ制御128を含む。仮想カメラ制御128は、車載コンピューティングシステム102のユーザが、車載コンピューティングシステム102の仮想カメラ202(図2参照)の視野を(例えば、仮想カメラを「動かして」)修正できるようにする。以下で詳細に説明するように、仮想カメラ202は、ディスプレイ118上にレンダリングされる画像を「取得」する。これは、カメラ126の1つによって取得される単一の画像または複数のカメラ126(例えば、隣接するカメラ126)によって取得された画像の組み合わせに対応してもよい。したがって、仮想カメラ202を回転させるかまたは移動させ、それによって仮想カメラ202の視野を変更することによって、表示される画像は、車載コンピューティングシステム102のユーザによって調整され得る。以下でさらに詳細に説明するように、ボウル形状画像は、カメラ126によって取得され、車載コンピューティングシステム102によって処理される車両100の周囲の画像に基づいて生成される。このように、いくつかの実施形態では、複数のカメラ126からの視野の組み合わせを含んでもよい仮想カメラ202の視野に基づいて、ボウル形状画像(bowl shaped image)をディスプレイ118上にレンダリングすることができる。例えば、ボウル形状画像は、そのボウル形状画像が仮想カメラ202によって(例えば、ボウル形状画像の上/下から、遠く/近くから、内側/外側から)「取得」される視点に基づいて表示されてもよい。
幾つかの実施形態では、車載コンピューティングシステム102は、一以上の周辺デバイス124を含んでいても良い。周辺装置124は、スピーカ、マイクロホン、追加の記憶装置などの任意の数の追加の周辺装置またはインタフェース装置を含むことができる。周辺デバイス124に含まれる具体的なデバイスは、例えば、車載コンピューティングシステム102のタイプおよび/または意図された使用(例えば、車載コンピューティングシステム102がスタンドアロンシステムであるか、より大型の車載インフォテインメントシステムに組み込まれているか)に依存する。言うまでもなく、具体的な実施形態に応じて、車載コンピューティングシステム102の1つ以上のコンポーネント(例えば、仮想カメラコントロール128および/または周辺デバイス124)を省略することができる。
ここで図3を参照して、使用中、車載コンピューティングシステム102は、車両100を取り囲む物理的環境を表示し、車両100からのオブジェクトの距離を決定する環境300を確立する。上述し、以下により詳しく説明するように、車載コンピューティングシステム102は、外部センサを用いることなく、車両100からのオブジェクトの距離を決定する。代わりに、車載コンピューティングシステム102は、オブジェクトの輪郭を仮想平面に投影し、仮想平面内の投影された輪郭の底部に基づいてカルマンフィルタを適用して、オブジェクトの位置を決定する。
車載コンピューティングシステム102の例示的な環境300は、画像取得モジュール302、ボウル生成モジュール304、表示モジュール306、カメラ制御モジュール308、オブジェクト投影モジュール310、及び位置決定モジュール312を含む。さらに、オブジェクト投影モジュール310は、オブジェクト識別モジュール314、輪郭決定モジュール316、および仮想平面決定モジュール318を含む。例示的な位置決定モジュール312は、ジオメトリ決定モジュール320およびカルマンフィルタモジュール322を含む。環境300のモジュールは、それぞれ、ハードウェア、ファームウェア、ソフトウェア、またはこれらの組み合わせとして実施されてもよい。例えば、環境300のモジュール、ロジック、および他のコンポーネントのそれぞれは、プロセッサ110または車載コンピューティングシステム102の他のハードウェアコンポーネントの一部を形成するか、そうでなければ確立または実行されてもよい。また、幾つかの実施形態では、例示のモジュールのうち1つ以上は、他のモジュールの一部を構成してもよく、及び/又は例示のモジュールのうち1つ以上は、スタンドアロンまたは独立なモジュールとして実施されてもよい。言うまでもなく、いくつかの実施形態では、2013年12月19日に出願された国際特許出願PCT/US2013/076644号に記載されている技術および/またはモジュールの1つまたは複数を、車載コンピューティングシステム102により利用されても、および/または本明細書に記載の環境300に含まれてもよい。同様に、本明細書に記載の技術および/またはモジュールは、国際特許出願PCT/US2013/076644号に記載されている車載コンピューティングシステムのいくつかの実施形態で利用することができる。
画像取得モジュール302は、カメラシステム120のカメラ126を制御して、各カメラ126の視野内のシーンの画像/ビデオを取得する。具体的な実施形態に応じて、画像取得モジュール302が、(例えば、ビデオストリームとして)連続的に、定期的に、時間的または条件的入力に応じて、それらの組み合わせとして、または別の方式に基づいて、画像を取り込むよう、各カメラ126に命令してもよい。例えば、カメラ126は、車両100のトランスミッション(transmission)が反転モード(reverse mode)にあるとき、および/または車両100がある閾値速度より遅く動いているときに、画像を取り込むことができる。
ボウル生成モジュール304は、カメラシステム120のカメラ126により取得された画像が、またはその処理されたバージョン(例えば、結合された画像)が、車載コンピューティングシステム102のユーザ(例えば、車両100の運転者)が見るよう投影される仮想ボウル形状投影面402(図4参照)を生成する。ほとんどの車載撮像システムでは、車載カメラによって取得された画像の視覚化は、車両がある地平面404(図4参照)に位置していないそれらのオブジェクトの著しい歪みをもたらす。例示的な実施形態では、仮想ボウル形状投影面402は、例えば、仮想ボウル形状投影面402の滑らかさ、仮想ボウル形状投影面402と地平面404の間のスムースな移行、および地平面404におけるボウル形状投影面402の平坦度などのはっきりと規定されたジオメトリ的特徴を有する。例示的な実施形態では、車両100のサイズに関するさまざまなパラメータ(例えば、長さ、幅、高さなど)および/またはその他の特徴(例えば、ボウルの高さ、水平オフセット、適応比(adaptive ratios)など)に基づき、ボウル生成モジュール304は、仮想ボウル形状の投影面402の所望の形状(geometry)を決定し、(例えば、仮想ボウル形状投影面402の各水平スライス406を構成することにより)仮想ボウル形状の投影面402を構成する。いくつかの実施形態では、各水平スライスは、具体的な実施形態に依存する幅(例えば、不均一な幅)を有することができる。
言うまでもなく、例示的な実施形態では、仮想ボウル形状投影面402は、車両100またはその仮想表示が、地平面404上のボウル形状の投影面402の内側に配置されるように形成される。詳細に後述するように、ボウル生成モジュール304は、その情報に基づいて、車両100の長さに沿ってボウル形状投影面402の垂直スライス408(図4参照)の主および副の半軸(major and minor semi−axes)を決定する。さらに、ボウル生成モジュール304は、仮想ボウル形状投影面402の(例えば、ボトム410からトップ412までの)各水平スライスに対して、垂直スライス408の主半軸及び副半軸に基づいて、対応する水平スライスの主半軸を決定し、対応する水平スライスの主半軸と副半軸との間の適応比に基づいて、対応する水平軸の副半軸を決定する。以下に説明するように、例示的な実施形態では、適応比は直線的に変化し、ボウル形状投影面402の頂部412において約1(すなわち1.0)であり、ボウル形状投影面402のボトム410において、車両100の長さを車両100の幅で割った比(すなわち、
Figure 2017538304
)に等しい。したがって、ボウル形状投影面402の一番上の水平スライスは、円形ジオメトリ形状(circular geometry shape)を有し、一番下の水平スライスは、非円形楕円ジオメトリ形状(non−circular elliptical geometric shape)を有する(すなわち、一番下の水平スライスは、その長軸が短軸と等しくない楕円を確定する)。ボウル形状投影面402の最も大きな水平スライスは、面402の垂直方向の中央に向かっている。
ボウル生成モジュール304はさらに、水平スライスを結合して仮想ボウル形状投影面402を生成する。例えば、ボウル生成モジュール304は、ボウル形状投影面402の水平スライスを積み重ね、これらのスライスをマージ(merge)して、ボウル形状投影面402を形成することができる。さらに、ボウル生成モジュール304は、平らな地平面404(または、より具体的には部分平面)であるボウルのボトム410を生成してマージすることができる。言うまでもなく、ボウル形状投影面402の頂部412は部分的に開いており、車両100の上方の環境の部分はボウル形状投影面402の頂部に投影することができる。例示的な実施形態では、地平面404に隣接して生成された仮想ボウル形状投影面402のセクションがフィルタリングされるか、さもなければ平滑化される。すなわち、ボウル形状投影面402の底部は、ボウル形状投影面402の頂部が、ボウル形状投影面402の頂412に接近するよりも遅い速度で、ボウル形状の投影面402の底410(即ち、地平面404)に接近する。
言うまでもなく、この例示的な実施形態では、ボウル形状投影面402に投影される画像(本明細書では「ボウル形状画像」と呼ぶ)は、ボウル形状投影面に関して上述した特徴を含むことになる(すなわち、ボウル形状画像は、頂部の導関数の絶対値よりも小さい絶対値を有する導関数を有する底部を含むことになる)。さらに、ボウル形状投影面402の底部は、ボウル形状投影面402の地平面404とマージ(merge)して、任意の場所における表面の微分を確定する(すなわち、特異点が存在しない)ようにする。言うまでもなく、ボウル生成モジュール304は、任意の適切な画像フィルタ、アルゴリズム、技術、および/または機構を使用して、仮想ボウル形状投影面およびボウル形状画像を生成してもよい。もちろん、いくつかの実施形態では、ボウル生成モジュール304は、本明細書で説明する図4の仮想ボウル形状投影面402とは異なる特徴を有する仮想ボウル形状投影面を生成してもよい。
表示モジュール306は、車載コンピューティングシステム102のユーザが見る画像を、ディスプレイ118上にレンダリングする。例えば、表示モジュール306は、ボウル生成モジュール304によって生成された仮想ボウル形状投影面402上に1つ以上の魚眼画像、処理された画像、および/または他のタイプの画像を「投影」して、ボウル形状画像を生成し、ディスプレイ118上にボウル形状画像またはその一部を表示することができる。当然のことながら、言うまでもなく、いくつかの実施形態では、生成された画像または結合された画像は、従来の意味でボウル形状投影面402に「投影」されるのではなく、むしろ、生成された画像は、あたかも画像がボウル形状投影面402上に投影されたかのように、上述した特徴を含むボウル形状を有するように修正されてもよい。
上述したように、いくつかの実施形態では、表示モジュール306は、車載コンピューティングシステム102の仮想カメラ202の視野内にボウル形状画像の部分のみをレンダリングすることができる。したがって、ボウル形状画像は、3次元表面上に「投影」された画像として実施されてもよいが、ディスプレイ118は、いくつかの実施形態において、ボウル形状画像の2次元パースペクティブ(two−dimensional perspective)をレンダリングすることができる。例示的な実施形態では、カメラ制御モジュール308は、仮想カメラ202の視点を決定し、仮想カメラ制御128と共に、車載コンピューティングシステム102のユーザが仮想カメラ202の視野を修正することを許可する。
オブジェクト投影モジュール310は、識別されたオブジェクト(例えば、その輪郭)を複数の仮想平面から選択された仮想平面に投影するように構成される。上記の通り、例示の実施形態では、オブジェクト投影モジュール310は、オブジェクト識別モジュール314、輪郭決定モジュール316、および仮想平面決定モジュール318を含む。
オブジェクト識別モジュール314は、車両100を取り囲む近傍のオブジェクトを識別する。特に、例示的な実施形態では、オブジェクト識別モジュール314は、魚眼カメラ126のうちの1つによって取得された魚眼画像内のオブジェクトを識別する。言うまでもなく、オブジェクト識別モジュール314は、任意の適切な技術、アルゴリズム、および/またはそのためのメカニズムを利用してもよい。例えば、いくつかの実施形態では、オブジェクトは、2013年12月19日に出願された国際特許出願PCT/US2013/076644号に記載されているオプティカルフロー、セグメンテーション、および/または分類技術の1つまたは複数を用いて識別することができる。幾つかの実施形態では、車載コンピューティングシステム102は、車両100までの移動オブジェクトの距離のみを決定するので、オブジェクト識別モジュール314は、車両100に対して動いているオブジェクト(例えば、歩行者)を識別する。上述したように、例示的な実施形態では、車載コンピューティングシステム102は、オブジェクトが、車両100からのオブジェクトの距離を決定する際に、地平面に配置されているものと仮定する。したがって、いくつかの実施形態では、オブジェクト識別モジュール314は、識別されたオブジェクトが実際に地平面に配置されているか、または近似的に地平面に配置されるか(例えば、オブジェクトの距離を決定する前に)決定してもよい。勿論、ここでは車両100からの1つのオブジェクトの距離を決定することを参照して技術とアルゴリズムを説明するが、いくつかの実施形態では、車載コンピューティングシステム102は、車両100からの複数のオブジェクトおよび/またはオブジェクトのコレクション/セットの距離を決定することができる。
輪郭決定モジュール316は、仮想平面に投影するために、取得された魚眼画像において識別されたオブジェクトの輪郭を決定する。言うまでもなく、輪郭決定モジュール316は、任意の適切な技術、アルゴリズム、および/またはメカニズムを用いて、オブジェクトの輪郭を決定してもよい。例えば、輪郭決定モジュール316は、エッジ検出アルゴリズム(例えば、Cannyエッジ検出、Sobelフィルタなど)、画像セグメンテーションアルゴリズム(例えば、流域セグメンテーション、ピラミッドセグメンテーションなど)、および/または識別されたオブジェクトの輪郭を決定するその他の画像フィルタ/アルゴリズムを利用してもよい。もちろん、いくつかの実施形態では、車載コンピューティングシステム102は、オブジェクトの識別によってオブジェクトの輪郭を決定することができる。すなわち、魚眼画像内のオブジェクトを識別する、車載コンピューティングシステム102によって使用される技術、アルゴリズム、および/またはメカニズムは、同時にオブジェクトの輪郭(例えば、一定のエッジ検出アルゴリズムおよびセグメンテーションアルゴリズム)を決定することができる。
言うまでもなく、いくつかの実施態様では、魚眼画像内のオブジェクトの識別された輪郭の周りにバウンディングボックス(bounding box)を配置し、それを利用して、車両100からのオブジェクトの距離および/またはオブジェクトの寸法を推定できる。しかしながら、カメラ126の傾斜角および魚眼画像の魚眼の歪みは、例えば、オブジェクトの実際の寸法よりもはるかに大きなバウンディングボックスをもたらす可能性がある。換言すれば、そのような実装は、状況によっては不正確および/または信頼できない結果を与える可能性がある。したがって、例示的な実施形態では、オブジェクトの輪郭は仮想平面に投影され、それらの誤差を最小化または減少させる。具体的には、仮想平面決定モジュール318は、複数の仮想平面802から、オブジェクトの輪郭を投影する仮想平面802(図8参照)を選択する。以下により詳細に説明するように、仮想平面802は特定の構成で構成することができ、投影のために選択される仮想平面802は、例えば、識別されたオブジェクトのおよその位置および/またはオブジェクトを取得した魚眼カメラ126の位置に基づいて選ばれてもよい。オブジェクト投影モジュール310は、図9に示すように、オブジェクトの輪郭を選択された仮想平面に投影する。
位置決定モジュール312は、車両100に対するオブジェクトの位置を決定する。上述のように、例示的な実施形態では、位置決定モジュール312は、ジオメトリ決定モジュール320およびカルマンフィルタモジュール322を含む。ジオメトリ決定モジュール320は、例えば、オブジェクトの投影された輪郭の幾何学的特徴及び/又は投影された輪郭と他の構成要素との関係及び/又は車載コンピューティングシステム102により生成又は決定された仮想構造体などの様々な幾何学的特徴及び関係を決定するように構成される。ジオメトリ決定モジュール320は、図9に示すように、選択された仮想平面に投影されたオブジェクトの輪郭の底を決定する。特に、例示的な実施形態では、ジオメトリ決定モジュール320は、仮想平面802に投影されたオブジェクトの輪郭904のバウンディングボックス902を決定し、そのバウンディングボックス902の底部中点(bottom middle point)906を決定する。さらに、ジオメトリ決定モジュール320は、オブジェクトの輪郭の底部(例えば、底部中点906)およびオブジェクトの輪郭が投影された魚眼画像を取得した魚眼カメラ126(例えば、そのカメラ126の中心)の両方を通る(すなわち、交差する)線を決定する。さらに、ジオメトリ決定モジュール320は、その線の、地平面(例えば地平面404を含む平面)との交点を決定する。
位置決定モジュール312は、決定された交点およびオブジェクトの輪郭の底部(例えば、バウンディングボックス902の底部中点906)に基づいて、車両100に対するオブジェクトの位置を決定する。具体的には、例示的な実施形態では、カルマンフィルタモジュール322は、カルマンフィルタ(例えば、拡張カルマンフィルタ)を適用して、交点およびオブジェクトの輪郭の底部に基づいて、車両100に対するオブジェクトの位置を決定する。言うまでもなく、カルマンフィルタは、例えば、確定された状態ベクトル、状態遷移行列、および測定ベクトルに基づいて状態を推定するために適用されてもよい。図7に関して以下により詳細に説明するように、例示的な実施形態では、交点に対応する状態ベクトル、オブジェクトの輪郭の底部に対応する測定ベクトル、およびブラウン運動に対応する状態遷移行列を使用してカルマンフィルタが適用される例えば、以下に説明するように、車載コンピューティングシステム102は、上述した地平面を通る線の交点を確定する解析的式を決定し(または読み出し)、カルマンフィルタを再帰的に適用して、状態ベクトル(例えば、交点)を再帰的に推定する。ヤコビ行列は、ベクトル関係の非線形性に起因する共分散を扱うためにも利用される。
ここで図5ないし図6を参照すると、使用中、車載コンピューティングシステム10は、車両100からのオブジェクトの距離を決定する方法500を実行することができる。上述したように、本明細書で説明する方法は、一般に、魚眼カメラ126およびそのようなカメラ126によって生成される魚眼画像に関して説明される。しかし、これらの方法は、他のタイプのカメラ126および/または画像にも適用可能である。例示的な方法500は、図5のブロック502から始まり、車載コンピューティングシステム102は、魚眼カメラ126の1つから魚眼画像を受信する。上述のように、例示的な実施形態では、車両100は、例えば車両100の360°周囲全体を取得するように戦略的に配置された4つの魚眼カメラ126を含む。したがって、車載コンピューティングシステム102は、取得された魚眼画像の1つを選択して、選択された魚眼画像126を撮像した魚眼カメラ126の視野に対応する、車両100の周りの付近にオブジェクトがあるか決定し、もしあれば、識別されたオブジェクトの距離を決定する。
ブロック504において、車載コンピューティングシステム102は、受け取った/選択された魚眼画像のオブジェクトを識別する。上述の通り、車載コンピューティングシステム102は、そうするために、任意の適切な技術、アルゴリズム、および/またはメカニズムを利用することができる。例えば、いくつかの実施形態では、車載コンピューティングシステム102は、エッジ検出、画像セグメンテーション、オプティカルフロー、オブジェクト分類、および/または魚眼画像内のオブジェクトを識別する他の技術を利用することができる。特に、いくつかの実施形態では、車載コンピューティングシステム102は、2013年12月19日に出願された国際特許出願PCT/US2013/076644号に記載された1つ以上の技術を利用してもよい。上記の通り、幾つかの実施形態では、車載コンピューティングシステム102は、魚眼画像に取得された移動オブジェクト(例えば、歩行者)が存在するか否かを決定する。もちろん、いくつかの実施形態では、車載コンピューティングシステム102は、魚眼画像内の複数のオブジェクトを識別することができ、その場合、車載コンピューティングシステム102は、車載コンピューティングシステム102からの距離を決定する識別されたオブジェクトの1つを選択する。
ブロック506において、車載コンピューティングシステム102は、オブジェクトが、取得された魚眼画像に識別されたか決定する。そうでない場合、方法500は、ブロック502に戻り、車載コンピューティングシステム102が別の魚眼画像を受信する。例えば、いくつかの実施形態では、車載コンピューティングシステム102は、他の魚眼カメラ126のうちの1つによって取得された魚眼画像を選択して、その魚眼カメラ126の視野内にオブジェクトが存在するか否かを決定する。しかしながら、オブジェクトが識別された場合、ブロック508において、車載コンピューティングシステム102は、識別されたオブジェクトの輪郭を決定する。上記の通り、そうする時、車載コンピューティングシステム102は、例えば、エッジ検出アルゴリズム(例えば、Cannyエッジ検出、Sobelフィルタなど)、画像セグメンテーションアルゴリズム(例えば、流域(watershed)セグメンテーション、ピラミッドセグメンテーションなど)、および/またはその他の画像フィルタ/アルゴリズムを利用してもよい。さらに、具体的な実施形態および利用されるアルゴリズムに応じて、車載コンピューティングシステム102は、魚眼画像内のオブジェクトを識別し、魚眼画像内のオブジェクトの輪郭を同時に決定することができる。
ブロック510において、車載コンピューティングシステム102は、オブジェクトの輪郭を仮想平面に投影する。そうすることで、車載コンピューティングシステム102は、ブロック512においてオブジェクトの輪郭を投影する複数の仮想平面802から1つの仮想平面802(図8参照)を選択する。例示的な実施形態では、車載コンピューティングシステム102は、図8に示す構成において、8つの仮想平面802(すなわち、仮想平面804、806、808、810、812、814、816、818)のセットを生成するか、決定する。特に、図8の例示的な実施形態では、仮想平面804、812は、車両100の側面820に平行である。さらに、仮想平面808、816は、車両100の後部822に平行であり、車両100の側面820に直交する。仮想平面806、814は、互いに平行であり、仮想平面804、808に対して45度の角度である。さらに、仮想平面810、818は互いに平行であり、仮想平面806、814に対して直交し、仮想平面808、812に対して45度の角度である。さらに、例示的な実施形態では、仮想平面804、806、808、810、812、814、816、818の各々は、地平面(ground plane)(すなわち、車両100が配置される平面と一致する平面)に対して直交する。
言うまでもなく、いくつかの実施形態では、8つの仮想平面802が存在する例示的な実施形態とは異なる数の仮想平面802が存在し得る。さらに、いくつかの実施形態では、車載コンピューティングシステム102により生成/決定される複数の仮想平面802は、車両100のカメラシステム120内にある魚眼カメラ126の少なくとも2倍の仮想平面802を含む。例えば、いくつかの実施形態では、仮想平面802は、各魚眼カメラ126の光軸に対して直交して配置され、仮想平面802は、直交配置された仮想平面802の「間に」角度をなして配置されてもよい。上述したように、車載コンピューティングシステム102が、オブジェクトの輪郭を投影する仮想平面802を選択する方法は、その実施形態に応じて変化し得る。いくつかの実施形態では、車載コンピューティングシステム102は、識別されたオブジェクトに最も近い(例えば、仮想ボウル形状投影面402上へのオブジェクトの投影に最も近い)仮想平面802を選択する。例えば、例示的な実施形態では、魚眼画像がフロントカメラ126によって取得された場合、車載コンピューティングシステム102は、オブジェクトの輪郭の投影のために仮想平面806、808、810のうちの1つを選択することができる。別の実施形態では、車載コンピューティングシステム102は、魚眼カメラ126(すなわち、オブジェクトの輪郭が識別された魚眼画像を取得したカメラ126)と、識別されたオブジェクトの近似的位置(例えば、投影面402上の)を通る線を決定してもよい。そのような実施形態では、車載コンピューティングシステム102は、その線が交わる仮想平面802(例えば、線がカメラ126の方向から最初に交差する仮想平面802)を決定し、その仮想平面にオブジェクトの輪郭を投影することができる。言い換えれば、車載コンピューティングシステム102は、概してオブジェクトの方向にある仮想平面802上にオブジェクトの輪郭を投影することができる。
ブロック514において、車載コンピューティングシステム102は、投影されたオブジェクトの輪郭の底を識別する。言うまでもなく、車載コンピューティングシステム102は、任意の適切な技術、アルゴリズム、および/またはそのためのメカニズムを利用してもよい。例示的な実施形態では、車載コンピューティングシステム102は、ブロック516において、仮想平面802上のオブジェクトの輪郭904のバウンディングボックス(bounding box)902を決定する。図9に示すように、バウンディングボックス902は、オブジェクトの輪郭904を仮想平面802に投影したときに境界を定める最小の四角形のボックスである。もちろん、他の実施形態では、バウンディングボックス902は、例えば、異なるサイズ、形状、および/または他の特性を有するように構成されてもよい。ブロック518において、車載コンピューティングシステム102は、バウンディングボックス902の底部中点(bottom middle point)906を識別する。上述したように、いくつかの実施形態では、車載コンピューティングシステム102は、識別されたオブジェクトが地平面(ground plane)に配置されていると仮定する。したがって、言うまでもなく、いくつかの実施形態では、底部中点906は、オブジェクトが地平面に接触する点(例えば、歩行者の足)の仮想平面802への投影として扱われてもよい。
ここで図6を参照する。図6に示すように、ブロック520において、車載コンピューティングシステム102は、投影されたオブジェクトの輪郭の底部と、オブジェクトの輪郭が投影された魚眼画像を取得する魚眼カメラ126との両方を通る(すなわち、交わる)仮想線を生成するか又は決定する。具体的には、ブロック522において、車載コンピューティングシステム102は、例示的な実施形態において、底部中点906およびカメラ126の中心を通過する線を決定する。ブロック524において、車載コンピューティングシステム102は、その決定された線と地平面との交点を決定する。
上述したように、いくつかの実施形態では、カメラシステム120および/または車載コンピューティングシステム102の他のコンポーネントのジオメトリ(geometry)は、既知であるか、または決定可能である。したがって、車載コンピューティングシステム102は、座標系を確立し、車載コンピューティングシステム102の様々な構成要素、および/または仮想構造表現(例えば、仮想平面802、線、交点、底部中点906、地平面等)の位置を座標系内に表示する。例えば、地平面(ground plane)をベクトル
Figure 2017538304
で座標系に定義することができる。また、投影されたオブジェクトの輪郭の底部(例えば、底部中点906)を
Figure 2017538304
で表しても良く、カメラ126(例えば中点)を
Figure 2017538304
と表してもよく、線の地平面との交点を
Figure 2017538304
と表してもよい。言うまでもなく、本明細書に記載されている既知のジオメトリ及び/又は計算により、投影されたオブジェクトの輪郭の底部及びカメラ126の位置の座標値は、例示的な実施形態では既知であるか又は決定可能である。したがって、ブロック526において、車載コンピューティングシステム102は、
Figure 2017538304
に従って交点の座標値を確定する解析的式を決定することができる。言うまでもなく、いくつかの実施形態では、解析的式は、車載コンピューティングシステム102または他のコンピューティングデバイスによって事前に計算されてもよく、後の使用のために、車載コンピューティングシステム112のメモリ114および/またはデータストレージ116に格納されてもよい。したがって、経路530に示すように、分析的式は、いくつかの実施形態では一度しか計算しなくてもよく、方程式自体の再計算なしに、その後に繰り返し利用(して、例えば、カルマンフィルタなどのフィルタによる再帰的推定のため、または他の適切な目的のために、ある点の座標値を評価)することができる。
ブロック528において、車載コンピューティングシステム102は、決定された交点およびオブジェクトの輪郭の底部(例えば、底部中点906)に基づいて、車両100に対するオブジェクトの位置を決定する。上に示したように、いくつかの実施形態では、車載コンピューティングシステム102は、カルマンフィルタを適用して(例えば、交点およびオブジェクトの輪郭の底部に基づいて)車両100に対するオブジェクトの位置を決定することができる。そうするために、車載コンピューティングシステム102は、図7に示す方法700を実行することができる。例示的な方法700は、ブロック702から始まり、車載コンピューティングシステム102がカルマンフィルタの状態ベクトルを決定する。具体的には、ブロック704において、車載コンピューティングシステム102は、
Figure 2017538304
に従ってカルマンフィルタの状態ベクトルを決定する。換言すれば、カルマンフィルタの状態ベクトルは、上述した交点に基づいている。
ブロック706において、車載コンピューティングシステム102は、カルマンフィルタの測定ベクトル(measurement vector)を決定する。例示的な実施形態では、ブロック708において、車載コンピューティングシステム102は、
Figure 2017538304
に従ってカルマンフィルタの測定ベクトルを決定する。すなわち、カルマンフィルタの測定ベクトルは、仮想平面802上のオブジェクトの底部(bottom)を確定する点(例えば、下部中点906)である。言うまでもなく、例示的な実施形態の状態ベクトルおよび測定ベクトルは、
Figure 2017538304
を有し、非線形である。したがって、例示的な実施形態では、標準的な線形カルマンフィルタではなく、拡張カルマンフィルタが使用される。さらに、非線形性のために、例示的な実施形態では、共分散を直接使用するのではなく、ヤコビ行列(Jacobean)が利用される。このように、ブロック710において、車載コンピューティングシステム102は、オブジェクトの位置を決定する際にカルマンフィルタと共に使用するヤコビ行列を決定する。具体的には、ブロック712において、車載コンピューティングシステム102は、
Figure 2017538304
に従ってヤコビ行列を決定する。
ブロック714において、車載コンピューティングシステム102は、カルマンフィルタの状態遷移行列(state transition matrix)を決定する。言うまでもなく、例示的な実施形態では、オブジェクト(例えば、歩行者)がどのように動くことができるかに関する先験的な知識はない。すなわち、オブジェクトが歩行者であると仮定しても、歩行者はどの時点にでも任意の方向に移動することができる。したがって、ブロック716において、車載コンピューティングシステム102は、ブラウン運動を表すために、
Figure 2017538304
に従って、例示的な実施形態における状態遷移行列を決定する。換言すれば、例示的な実施形態では、状態遷移行列は一定値の行列である。言うまでもなく、かかる実施形態では、状態遷移行列を決定することは、車載コンピューティングシステム102のメモリ114および/またはデータストレージ116から行列または対応するデータ値を読み出すことを構成することができる。もちろん、他の実施形態では、状態遷移行列は、(例えば、オブジェクトの動きに関する情報が分かっているときに)決定することができる。
ブロック718において、車載コンピューティングシステム102は、決定された状態ベクトル、測定ベクトル、状態遷移行列、およびヤコビ行列に基づいて、拡張カルマンフィルタ(extended Kalman Filter)を適用して、オブジェクトの位置を決定する。上で説明し、パス720で示すように、いくつかの実施形態では、拡張カルマンフィルタ(または他の適切なフィルタ)を反復的に適用して、上述の交点を推定し、車両100に対するオブジェクトの位置を推定してもよい。したがって、拡張カルマンフィルタが、状態ベクトル、測定ベクトル、ヤコビ行列、および/または状態遷移行列について決定された解析的式に基づいて再帰的に適用され、状態ベクトルを推定してもよい。
ここで図10を参照する。本明細書に記載の車載コンピューティングシステム102によって利用され得るカルマンフィルタ1000の例示的な実施形態が示されている。言うまでもなく、例示的なカルマンフィルタ1000は、4つの再帰的に適用されるステージを含み、入力を受け取り、出力を生成する。具体的には、カルマンフィルタ1000のステージ1002は、状態ベクトル
Figure 2017538304
及び対応する誤差共分散行列
Figure 2017538304
の1つ以上の事前推定値を入力として受け取り、
Figure 2017538304
により、カルマンゲインKを決定する。カルマンフィルタ1000のステージ1004は、上記の測定ベクトルの値zおよびzに加えてカルマンゲイン(Kalman gain)を入力として受け取り、
Figure 2017538304
により状態ベクトルの推定値
Figure 2017538304
を測定値zで更新し、状態ベクトルの出力xとxを生成する。例示的な実施形態では、言うまでもなく、上記の交点を確定する解析的式を用いて状態ベクトルからzk_estimateが決定される(図6のブロック526参照)。カルマンフィルタ1000のステージ1006は、
Figure 2017538304
に従って誤差共分散の更新された推定値を計算する。さらに、カルマンフィルタ1000のステージ1008は、
Figure 2017538304
に従って状態ベクトルと誤差共分散の推定値を投影(projects)する。この段落の方程式で説明したように、言うまでもなく、xは状態ベクトルを示し、zは測定ベクトルを示し、Pは状態ベクトル推定値の誤差共分散行列を示し、Kはカルマンゲインを示し、Rは測定誤差共分散行列を示し、Qはプロセス雑音共分散行列を示し、Hは上記のヤコビ行列を示し、φは状態遷移行列を示し、Iは単位行列を示し、kは特定の反復を示し、「ハット」記号は推定を示す。
上述したように、実施形態に応じて、方法500は、車載コンピューティングシステム102によって実行され、カルマンフィルタの適用の有無にかかわらず、識別されたオブジェクトの位置を決定する。図11に示すように、車載コンピューティングシステム102は、カルマンフィルタが適用されるかどうかに応じて、オブジェクトの決定された位置について異なる結果を得る(observes)。特に、カルマンフィルタを適用せずに決定されたオブジェクトの位置1102と、上述のようなカルマンフィルタの適用によって決定されたオブジェクトの位置1104が、図11に示されている。言うまでもなく、オブジェクトの決定された位置1104は、オブジェクトの実際の位置を、位置1102よりも正確に推定する。すなわち、直接的な推定は、カルマンフィルタの適用を含む本明細書に記載された技術より、一貫性がなく不正確な結果となる。
例示
本明細書に開示の技術の例を以下に記載する。本技術の実施形態は、以下に記載の一以上の例、及びそれらの組み合わせを含み得る。
例1は、車両からのオブジェクトの距離を決定する計算デバイスであって、魚眼画像を取得する魚眼カメラと、(i)前記魚眼画像に取得されたオブジェクトを識別し、(ii)前記車両の外にあり、前記車両に対する識別されたオブジェクトの位置に基づいて、所定の仮想平面のセットから選択される仮想平面上に、識別されたオブジェクトの輪郭を投影するオブジェクト投影モジュールと、(i)選択された仮想平面上の投影された輪郭の底部を識別し、(ii)投影された輪郭の識別された底部と前記魚眼カメラの各々を通る仮想線の、前記車両が位置する平面と一致する地平面との交点を決定し、(iii)決定された交点と投影された輪郭の識別された底部とに基づいて、前記車両に対する識別されたオブジェクトの位置を決定する位置決定モジュールとを有する。
例2は例1の主題を含み、前記車両に対する識別されたオブジェクトの位置を決定することは、決定された交点と投影された輪郭の識別された底部とに基づきカルマンフィルタを適用することを含む。
例3は例1及び2のいずれかの主題を含み、前記カルマンフィルタを適用することは、
Figure 2017538304
により前記カルマンフィルタの状態ベクトルを決定すること、
Figure 2017538304
により前記カルマンフィルタの測定ベクトルを決定することと、決定された状態ベクトルと決定された測定ベクトルとに基づいて前記カルマンフィルタを適用することとを含み、x、y及びzは前記交点の3次元座標であり、x、y及びzは識別されたオブジェクトの底部の3次元座標である。
例4は例1−3のいずれかの主題を含み、前記カルマンフィルタを適用することは、
Figure 2017538304
によりヤコビ行列を決定することと、決定された状態ベクトル、決定された測定ベクトル、及び決定されたヤコビ行列とに基づいて、拡張されたカルマンフィルタを適用することとを含み、x、y及びzは前記魚眼カメラの3次元座標である。
例5は例1−4のいずれかの主題を含み、識別されたオブジェクトの輪郭を投影することは、識別されたオブジェクトに最も近く、識別されたオブジェクトの輪郭を投影する仮想平面を選択することを含む。
実施例6は実施例1−5のいずれかの主題を含み、識別されたオブジェクトの輪郭を投影することは、前記魚眼カメラと識別されたオブジェクトの位置とを結ぶ基準線を決定することと、識別されたオブジェクトの輪郭を、前記基準線が通る仮想平面に投影することとを含む。
例7は例1−6のいずれかの主題を含み、投影された輪郭の底部を識別することは、前記仮想平面上に投影された輪郭のバウンディングボックスを決定することと、前記バウンディングボックスの底部の中点を識別することとを含む。
例8は例1−7のいずれかの主題を含み、前記交点は、前記魚眼カメラの中心の、前記バウンディングボックスの底部の中点との交点である。
例9は例1−8のいずれかの主題を含み、前記バウンディングボックスは投影された輪郭の境界を示す最小の四角形のボックスである。
例10は例1−9のいずれかの主題を含み、前記線の、前記地平面との交点を決定することは、
Figure 2017538304
により前記交点を決定することを含み、x、y及びzは前記交点の3次元座標であり、x、y及びzは前記魚眼カメラの3次元座標であり、x、y及びzは識別されたオブジェクトの底部の3次元座標である。
例11は例1−10のいずれかの主題を含み、所定の仮想平面のセットは、前記車両の魚眼カメラの少なくとも2倍の仮想平面を含む。
実施例12は実施例1−11のいずれかの主題を含み、所定の仮想平面のセットの各仮想平面は地平面に対して直交する。
実施例13は実施例1−12のいずれかの主題を含み、所定の仮想平面のセットは8つの仮想平面よりなり、8つの仮想平面のうち第1と第2の仮想平面は前記車両の側面に対して平行であり、8つの仮想平面のうち第3と第4の仮想平面は、前記車両の後面に対して平行であり、前記車両の側面に対して直交し、8つの仮想平面のうち第5と第6の仮想平面は、互いに平行であり、前記第1と第3の仮想平面に対して45ーの角度をなし、8つの仮想平面のうち第7と第8の仮想平面は、互いに平行であり、前記第5と第6の仮想平面に対して直交し、前記第1と第3の仮想平面に対して45ーの角度をなし、所定の仮想平面のセットの各仮想平面は地平面に対して直交する。
実施例14は実施例1−13のいずれかの主題を含み、前記オブジェクト投影モジュールは、さらに、取得された魚眼画像中の識別されたオブジェクトの輪郭を決定する。
例15は例1−14のいずれかの主題を含み、前記計算デバイスは車載計算システムとして実施される。
例16は、車両の計算デバイスにより、オブジェクトの前記車両からの距離を決定する方法であって、前記計算デバイスが、前記車両の魚眼カメラにより生成される魚眼画像に取得されたオブジェクトを識別するステップと、前記計算デバイスが、前記車両に対する識別されたオブジェクトの位置に基づいて、前記車両の外にあり、所定の仮想平面のセットから選択された仮想平面に、識別されたオブジェクトの輪郭を投影するステップと、前記計算デバイスが、選択された仮想平面に投影された輪郭の底部を識別するステップと、前記計算デバイスが、前記車両が配置された平面と一致する地平面との仮想線の交点を決定するステップであって、前記仮想線は、投影された輪郭の識別された底部の各々と前記魚眼カメラとを通るステップと、前記計算デバイスが、決定された交点と、投影された輪郭の識別された底部とに基づき、識別されたオブジェクトの前記車両に対する位置を決定するステップとを含む。
例17は例16の主題を含み、前記車両に対する識別されたオブジェクトの位置を決定するステップは、決定された交点と投影された輪郭の識別された底部とに基づきカルマンフィルタを適用するステップを含む。
例18は例16及び17のいずれかの主題を含み、前記カルマンフィルタを適用するステップは、
Figure 2017538304
により前記カルマンフィルタの状態ベクトルを決定するステップと、
Figure 2017538304
により前記カルマンフィルタの測定ベクトルを決定するステップと、決定された状態ベクトルと決定された測定ベクトルとに基づいて前記カルマンフィルタを適用するステップとを含み、x、y及びzは前記交点の3次元座標であり、x、y及びzは識別されたオブジェクトの底部の3次元座標である。
例19は例16−18のいずれかの主題を含み、前記カルマンフィルタを適用するステップは、さらに、
Figure 2017538304
によりヤコビ行列を決定するステップと、決定された状態ベクトル、決定された測定ベクトル、及び決定されたヤコビ行列とに基づいて、拡張されたカルマンフィルタを適用するステップとを含み、x、y及びzは前記魚眼カメラの3次元座標である。
例20は例16−19のいずれかの主題を含み、識別されたオブジェクトの輪郭を投影するステップは、識別されたオブジェクトに最も近く、識別されたオブジェクトの輪郭を投影する仮想平面を選択するステップを含む。
実施例21は実施例16−20のいずれかの主題を含み、識別されたオブジェクトの輪郭を投影するステップは、前記魚眼カメラと識別されたオブジェクトの位置とを結ぶ基準線を決定するステップと、識別されたオブジェクトの輪郭を、前記基準線が通る仮想平面に投影するステップとを含む。
例22は例16−21のいずれかの主題を含み、投影された輪郭の底部を識別するステップは、前記仮想平面上に投影された輪郭のバウンディングボックスを決定するステップと、前記バウンディングボックスの底部の中点を識別するステップとを含む。
実施例23は実施例16−22のいずれかの主題を含み、前記線の、前記地平面との交点を決定するステップは、前記魚眼カメラの中心の、前記バウンディングボックスの底部の中点との交点を決定するステップを含む。
実施例24は実施例16−23のいずれかの主題を含み、前記バウンディングボックスは投影された輪郭の境界を示す最小の四角形のボックスである。
実施例25は実施例16−24のいずれかの主題を含み、前記線の、前記地平面との交点を決定するステップは、
Figure 2017538304
により前記交点を決定するステップを含み、x、y及びzは前記交点の3次元座標であり、x、y及びzは前記魚眼カメラの3次元座標であり、x、y及びzは識別されたオブジェクトの底部の3次元座標である。
実施例26は実施例16−25のいずれかの主題を含み、識別されたオブジェクトの輪郭を選択された仮想平面に投影するステップは、前記車両の魚眼カメラの少なくとも2倍の仮想平面を含む所定の仮想平面のセットから化麻生平面を選択するステップを含む。
実施例27は実施例16−26のいずれかの主題を含み、所定の仮想平面のセットの各仮想平面は地平面に対して直交する。
例28は例16−27のいずれかの主題を含み、識別されたオブジェクトの輪郭を選択された仮想平面に投影するステップは、8つの仮想面よりなる所定の仮想平面のセットから仮想平面を選択するステップを含み、8つの仮想平面のうち第1と第2の仮想平面は前記車両の側面に対して平行であり、8つの仮想平面のうち第3と第4の仮想平面は、前記車両の後面に対して平行であり、前記車両の側面に対して直交し、8つの仮想平面のうち第5と第6の仮想平面は、互いに平行であり、前記第1と第3の仮想平面に対して45ーの角度をなし、8つの仮想平面のうち第7と第8の仮想平面は、互いに平行であり、前記第5と第6の仮想平面に対して直交し、前記第1と第3の仮想平面に対して45ーの角度をなし、所定の仮想平面のセットの各仮想平面は地平面に対して直交する。
例29は例16−28のいずれかの主題を含み、前記計算デバイスが、取得された魚眼画像の識別されたオブジェクトの輪郭を決定するステップをさらに含む。
例30は例16−29のいずれかの主題を含み、前記計算デバイスは車載計算システムとして実施される。
例31は、計算デバイスであって、プロセッサと、前記プロセッサにより実行されたとき、前記プロセッサに、実施例16−30いずれかに記載の方法を実行させる複数の命令を格納したメモリとを有する。
例32は、実行されると、計算デバイスに請求項16−30いずれか一項に記載の方法を実行させる複数の命令を格納した一以上の機械読み取り可能記憶媒体である。
例33は、車両からのオブジェクトの距離を決定する計算デバイスであって、前記車両の魚眼カメラにより生成される魚眼画像に取得されたオブジェクトを識別する手段と、前記車両に対する識別されたオブジェクトの位置に基づいて、前記車両の外にあり、所定の仮想平面のセットから選択された仮想平面に、識別されたオブジェクトの輪郭を投影する手段と、選択された仮想平面に投影された輪郭の底部を識別する手段と、前記車両が配置された平面と一致する地平面との仮想線の交点を決定する手段であって、前記仮想線は、投影された輪郭の識別された底部の各々と前記魚眼カメラとを通る手段と、決定された交点と、投影された輪郭の識別された底部とに基づき、識別されたオブジェクトの前記車両に対する位置を決定する手段とを有する。
例34は例33の主題を含み、前記車両に対する識別されたオブジェクトの位置を決定する手段は、決定された交点と投影された輪郭の識別された底部とに基づきカルマンフィルタを適用する手段を含む。
例35は例33及び34のいずれかの主題を含み、前記カルマンフィルタを適用する手段は、
Figure 2017538304
により前記カルマンフィルタの状態ベクトルを決定する手段と、
Figure 2017538304
により前記カルマンフィルタの測定ベクトルを決定する手段と、決定された状態ベクトルと決定された測定ベクトルとに基づいて前記カルマンフィルタを適用する手段とを含み、x、y及びzは前記交点の3次元座標であり、x、y及びzは識別されたオブジェクトの底部の3次元座標である。
実施例36は実施例33−35のいずれかの主題を含み、前記カルマンフィルタを適用する手段は、さらに、
Figure 2017538304
によりヤコビ行列を決定する手段と、決定された状態ベクトル、決定された測定ベクトル、及び決定されたヤコビ行列とに基づいて、拡張されたカルマンフィルタを適用する手段とを含み、x、y及びzは前記魚眼カメラの3次元座標である。
実施例37は実施例33−36のいずれかの主題を含み、識別されたオブジェクトの輪郭を投影する手段は、識別されたオブジェクトに最も近く、識別されたオブジェクトの輪郭を投影する仮想平面を選択する手段を含む。
実施例38は実施例33−37のいずれかの主題を含み、識別されたオブジェクトの輪郭を投影する手段は、前記魚眼カメラと識別されたオブジェクトの位置とを結ぶ基準線を決定する手段と、識別されたオブジェクトの輪郭を、前記基準線が通る仮想平面に投影する手段とを含む。
実施例39は実施例33−38のいずれかの主題を含み、投影された輪郭の底部を識別する手段は、前記仮想平面上に投影された輪郭のバウンディングボックスを決定する手段と、前記バウンディングボックスの底部の中点を識別する手段とを含む。
実施例40は実施例33−39のいずれかの主題を含み、前記線の、前記地平面との交点を決定する手段は、前記魚眼カメラの中心の、前記バウンディングボックスの底部の中点との交点を決定する手段を含む。
実施例41は実施例33−40のいずれかの主題を含み、前記バウンディングボックスは投影された輪郭の境界を示す最小の四角形のボックスである。
例42は例33−41のいずれかの主題を含み、前記線の、前記地平面との交点を決定する手段は、
Figure 2017538304
により前記交点を決定する手段を含み、x、y及びzは前記交点の3次元座標であり、x、y及びzは前記魚眼カメラの3次元座標であり、x、y及びzは識別されたオブジェクトの底部の3次元座標である。
実施例43は実施例33−42のいずれかの主題を含み、識別されたオブジェクトの輪郭を選択された仮想平面に投影する手段は、前記車両の魚眼カメラの少なくとも2倍の仮想平面を含む所定の仮想平面のセットから化麻生平面を選択する手段を含む。
実施例44は実施例33−43のいずれかの主題を含み、所定の仮想平面のセットの各仮想平面は地平面に対して直交する。
実施例45は実施例33−44のいずれかの主題を含み、識別されたオブジェクトの輪郭を選択された仮想平面に投影する手段は、8つの仮想平面よりなる所定の仮想平面のセットから仮想平面を選択する手段を含み、8つの仮想平面のうち第1と第2の仮想平面は前記車両の側面に対して平行であり、8つの仮想平面のうち第3と第4の仮想平面は、前記車両の後面に対して平行であり、前記車両の側面に対して直交し、8つの仮想平面のうち第5と第6の仮想平面は、互いに平行であり、前記第1と第3の仮想平面に対して45ーの角度をなし、8つの仮想平面のうち第7と第8の仮想平面は、互いに平行であり、前記第5と第6の仮想平面に対して直交し、前記第1と第3の仮想平面に対して45ーの角度をなし、所定の仮想平面のセットの各仮想平面は地平面に対して直交する。
実施例46は実施例33−45のいずれかの主題を含み、取得された魚眼画像の識別されたオブジェクトの輪郭を決定する手段をさらに含む。
実施例47は実施例33−46のいずれかの主題を含み、前記計算デバイスは車載計算システムとして実施される。

Claims (26)

  1. 車両からのオブジェクトの距離を決定する計算デバイスであって、
    魚眼画像を取得する魚眼カメラと、
    (i)前記魚眼画像に取得されたオブジェクトを識別し、(ii)前記車両の外にあり、前記車両に対する識別されたオブジェクトの位置に基づいて、所定の仮想平面のセットから選択される仮想平面上に、識別されたオブジェクトの輪郭を投影するオブジェクト投影モジュールと、
    (i)選択された仮想平面上の投影された輪郭の底部を識別し、(ii)投影された輪郭の識別された底部と前記魚眼カメラの各々を通る仮想線の、前記車両が位置する平面と一致する地平面との交点を決定し、(iii)決定された交点と投影された輪郭の識別された底部とに基づいて、前記車両に対する識別されたオブジェクトの位置を決定する位置決定モジュールとを有する、
    計算デバイス。
  2. 前記車両に対する識別されたオブジェクトの位置を決定することは、決定された交点と投影された輪郭の識別された底部とに基づきカルマンフィルタを適用することを含む、
    請求項1に記載の計算デバイス。
  3. 前記カルマンフィルタを適用することは、
    Figure 2017538304
    により前記カルマンフィルタの状態ベクトルを決定することと、
    Figure 2017538304
    により前記カルマンフィルタの測定ベクトルを決定することと、
    決定された状態ベクトルと決定された測定ベクトルとに基づいて前記カルマンフィルタを適用することとを含み、
    、y及びzは前記交点の3次元座標であり、
    、y及びzは識別されたオブジェクトの底部の3次元座標である、
    請求項2に記載の計算デバイス。
  4. 前記カルマンフィルタを適用することは、
    Figure 2017538304
    によりヤコビ行列を決定することと、
    決定された状態ベクトル、決定された測定ベクトル、及び決定されたヤコビ行列に基づいて、拡張されたカルマンフィルタを適用することとを含み、
    、y及びzは前記魚眼カメラの3次元座標である、
    請求項3に記載の計算デバイス。
  5. 識別されたオブジェクトの輪郭を投影することは、識別されたオブジェクトに最も近く、識別されたオブジェクトの輪郭を投影する仮想平面を選択することを含む、
    請求項1に記載の計算デバイス。
  6. 識別されたオブジェクトの輪郭を投影することは、
    前記魚眼カメラと識別されたオブジェクトの位置とを通る基準線を決定することと、
    識別されたオブジェクトの輪郭を、前記基準線が通る仮想平面に投影することとを含む、
    請求項1に記載の計算デバイス。
  7. 投影された輪郭の底部を識別することは、
    前記仮想平面上に投影された輪郭のバウンディングボックスを決定することと、
    前記バウンディングボックスの底部の中点を識別することとを含む、
    請求項1に記載の計算デバイス。
  8. 前記交点は、前記魚眼カメラの中心の、前記バウンディングボックスの底部の中点との交点である、
    請求項7に記載の計算デバイス。
  9. 前記バウンディングボックスは投影された輪郭の境界を示す最小の四角形のボックスである、
    請求項7に記載の計算デバイス。
  10. 前記線の前記地平面との交点を決定することは、
    Figure 2017538304
    により前記交点を決定することを含み、
    、y及びzは前記交点の3次元座標であり、
    、y及びzは前記魚眼カメラの3次元座標であり、
    、y及びzは識別されたオブジェクトの底部の3次元座標である、
    請求項1に記載の計算デバイス。
  11. 所定の仮想平面のセットは、前記車両の魚眼カメラの少なくとも2倍の仮想平面を含む、
    請求項1ないし10いずれか一項に記載の計算デバイス。
  12. 所定の仮想平面のセットの各仮想平面は地平面に対して直交する、
    請求項1ないし10いずれか一項に記載の計算デバイス。
  13. 所定の仮想平面のセットは8つの仮想平面よりなり、
    8つの仮想平面のうち第1と第2の仮想平面は前記車両の側面に対して平行であり、
    8つの仮想平面のうち第3と第4の仮想平面は、前記車両の後面に対して平行であり、前記車両の側面に対して直交し、
    8つの仮想平面のうち第5と第6の仮想平面は、互いに平行であり、前記第1と第3の仮想平面に対して45°の角度をなし、
    8つの仮想平面のうち第7と第8の仮想平面は、互いに平行であり、前記第5と第6の仮想平面に対して直交し、前記第1と第3の仮想平面に対して45°の角度をなし、
    所定の仮想平面のセットの各仮想平面は地平面に対して直交する、
    請求項1ないし10いずれか一項に記載の計算デバイス。
  14. 前記計算デバイスは車載計算システムとして実施される、
    請求項1ないし10いずれか一項に記載の計算デバイス。
  15. 車両の計算デバイスにより、オブジェクトの前記車両からの距離を決定する方法であって、
    前記計算デバイスが、前記車両の魚眼カメラにより生成される魚眼画像に取得されたオブジェクトを識別するステップと、
    前記計算デバイスが、前記車両に対する識別されたオブジェクトの位置に基づいて、前記車両の外にあり、所定の仮想平面のセットから選択された仮想平面に、識別されたオブジェクトの輪郭を投影するステップと、
    前記計算デバイスが、選択された仮想平面に投影された輪郭の底部を識別するステップと、
    前記計算デバイスが、前記車両が配置された平面と一致する地平面との仮想線の交点を決定するステップであって、前記仮想線は、投影された輪郭の識別された底部の各々と前記魚眼カメラとを通るステップと、
    前記計算デバイスが、決定された交点と、投影された輪郭の識別された底部とに基づき、識別されたオブジェクトの前記車両に対する位置を決定するステップとを含む、
    方法。
  16. 前記車両に対する識別されたオブジェクトの位置を決定するステップは、決定された交点と投影された輪郭の識別された底部とに基づきカルマンフィルタを適用するステップを含む、
    請求項15に記載の方法。
  17. 前記カルマンフィルタを適用するステップは、
    Figure 2017538304
    により前記カルマンフィルタの状態ベクトルを決定するステップと、
    Figure 2017538304
    により前記カルマンフィルタの測定ベクトルを決定するステップと、
    決定された状態ベクトルと決定された測定ベクトルとに基づいて前記カルマンフィルタを適用するステップとを含み、
    、y及びzは前記交点の3次元座標であり、
    、y及びzは識別されたオブジェクトの底部の3次元座標である、
    請求項16に記載の方法。
  18. 前記カルマンフィルタを適用するステップは、さらに、
    Figure 2017538304
    によりヤコビ行列を決定するステップと、
    決定された状態ベクトル、決定された測定ベクトル、及び決定されたヤコビ行列とに基づいて、拡張されたカルマンフィルタを適用するステップとを含み、
    、y及びzは前記魚眼カメラの3次元座標である、
    請求項17に記載の方法。
  19. 識別されたオブジェクトの輪郭を投影するステップは、識別されたオブジェクトに最も近く、識別されたオブジェクトの輪郭を投影する仮想平面を選択するステップを含む、
    請求項15に記載の方法。
  20. 識別されたオブジェクトの輪郭を投影するステップは、
    前記魚眼カメラと識別されたオブジェクトの位置とを結ぶ基準線を決定するステップと、
    識別されたオブジェクトの輪郭を、前記基準線が通る仮想平面に投影するステップとを含む、
    請求項15に記載の方法。
  21. 投影された輪郭の底部を識別するステップは、
    前記仮想平面上に投影された輪郭のバウンディングボックスを決定するステップと、
    前記バウンディングボックスの底部の中点を識別するステップとを含む、
    請求項15に記載の方法。
  22. 前記線の、前記地平面との交点を決定するステップは、前記魚眼カメラの中心の、前記バウンディングボックスの底部の中点との交点を決定するステップを含む、
    請求項21に記載の方法。
  23. 前記線の、前記地平面との交点を決定するステップは、
    Figure 2017538304
    により前記交点を決定するステップを含み、
    、y及びzは前記交点の3次元座標であり、
    、y及びzは前記魚眼カメラの3次元座標であり、
    、y及びzは識別されたオブジェクトの底部の3次元座標である、
    請求項15に記載の方法。
  24. 識別されたオブジェクトの輪郭を選択された仮想平面に投影するステップは、前記車両の魚眼カメラの少なくとも2倍の仮想平面を含む所定の仮想平面のセットから化麻生平面を選択するステップを含み、
    所定の仮想平面のセットの各仮想平面は地平面に対して直交する、
    請求項15に記載の方法。
  25. 実行されると、計算デバイスに請求項15−24いずれか一項に記載の方法を実行させる複数の命令を含むコンピュータプログラム。
  26. 請求項25に記載のコンピュータプログラムを格納した一以上の機械読み取り可能記憶媒体。
JP2017515141A 2014-09-18 2015-08-18 ボウル型イメージングシステムにおけるオブジェクト追跡 Active JP6453449B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/490,369 2014-09-18
US14/490,369 US9437001B2 (en) 2014-09-18 2014-09-18 Tracking objects in bowl-shaped imaging systems
PCT/US2015/045652 WO2016043898A1 (en) 2014-09-18 2015-08-18 Tracking objects in bowl-shaped imaging systems

Publications (2)

Publication Number Publication Date
JP2017538304A true JP2017538304A (ja) 2017-12-21
JP6453449B2 JP6453449B2 (ja) 2019-01-16

Family

ID=55526197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017515141A Active JP6453449B2 (ja) 2014-09-18 2015-08-18 ボウル型イメージングシステムにおけるオブジェクト追跡

Country Status (6)

Country Link
US (2) US9437001B2 (ja)
EP (1) EP3195587A4 (ja)
JP (1) JP6453449B2 (ja)
KR (1) KR102240197B1 (ja)
CN (1) CN106573576B (ja)
WO (1) WO2016043898A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10442355B2 (en) 2014-09-17 2019-10-15 Intel Corporation Object visualization in bowl-shaped imaging systems
US20160162743A1 (en) * 2014-12-05 2016-06-09 Magna Electronics Inc. Vehicle vision system with situational fusion of sensor data
DE102016211227A1 (de) 2016-06-23 2017-12-28 Conti Temic Microelectronic Gmbh Verfahren und Fahrzeugsteuersystem zum Erzeugen von Abbildungen eines Umfeldmodells und entsprechendes Fahrzeug
US9953432B2 (en) 2016-08-17 2018-04-24 David M. Smith Systems and methods of detecting motion
US10733697B2 (en) 2016-12-27 2020-08-04 Intel IP Corporation Convolutional neural network for wide-angle camera images
US10606767B2 (en) * 2017-05-19 2020-03-31 Samsung Electronics Co., Ltd. Ethernet-attached SSD for automotive applications
JP6962372B2 (ja) * 2017-08-25 2021-11-05 株式会社ソシオネクスト 補正装置、補正プログラム及び記録媒体
CN108363985B (zh) * 2018-03-06 2023-06-06 深圳市易成自动驾驶技术有限公司 目标对象感知系统测试方法、装置及计算机可读存储介质
DE102018203590A1 (de) 2018-03-09 2019-09-12 Conti Temic Microelectronic Gmbh Surroundview-System mit angepasster Projektionsfläche
US11198340B2 (en) * 2018-05-01 2021-12-14 Continental Automotive Systems, Inc. Coupler and tow-bar detection for automated trailer hitching via cloud points
US10984553B2 (en) 2018-05-01 2021-04-20 Continental Automotive Systems, Inc. Real-time trailer coupler localization and tracking
CN110606021A (zh) * 2018-06-15 2019-12-24 华创车电技术中心股份有限公司 行车影像辅助系统
WO2020068960A1 (en) * 2018-09-26 2020-04-02 Coherent Logix, Inc. Any world view generation
GB2581191B (en) * 2019-02-08 2022-02-16 Jaguar Land Rover Ltd Image system for a vehicle
CN111401114B (zh) * 2019-02-12 2023-09-19 深圳市艾为智能有限公司 一种基于受限光流场横穿物体检测装置的横穿物体检测方法
CN111612812B (zh) * 2019-02-22 2023-11-03 富士通株式会社 目标物检测方法、检测装置和电子设备
CN112150554B (zh) * 2019-06-28 2023-08-04 杭州海康威视数字技术股份有限公司 画面显示方法、装置、终端和存储介质
CN112580402B (zh) * 2019-09-30 2024-08-20 广州汽车集团股份有限公司 一种单目视觉行人测距方法及其系统、车辆、介质
US11423605B2 (en) * 2019-11-01 2022-08-23 Activision Publishing, Inc. Systems and methods for remastering a game space while maintaining the underlying game simulation
US12014520B2 (en) 2021-08-26 2024-06-18 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for detecting objects within an image in a wide-view format
KR102630904B1 (ko) * 2021-11-30 2024-01-31 윤현주 Xr 환경 구축을 위한 다중 프로젝션 시스템에서의 roi 추적 및 최적화 기술

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031313A (ja) * 2004-07-15 2006-02-02 Daihatsu Motor Co Ltd 障害物測定方法及び障害物測定装置
CN102270344A (zh) * 2010-06-04 2011-12-07 东芝阿尔派·汽车技术有限公司 移动体检测装置和移动体检测方法
JP2011254436A (ja) * 2010-06-04 2011-12-15 Toshiba Alpine Automotive Technology Corp 移動体検出装置及び移動体検出方法
WO2012145819A1 (en) * 2011-04-25 2012-11-01 Magna International Inc. Image processing method for detecting objects using relative motion

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4934308B2 (ja) * 2005-10-17 2012-05-16 三洋電機株式会社 運転支援システム
US7576639B2 (en) * 2006-03-14 2009-08-18 Mobileye Technologies, Ltd. Systems and methods for detecting pedestrians in the vicinity of a powered industrial vehicle
JP4861772B2 (ja) * 2006-08-28 2012-01-25 富士通株式会社 移動体標定プログラム、該プログラムを記録した記録媒体、移動体標定装置、および移動体標定方法
US9126533B2 (en) * 2007-02-23 2015-09-08 Aisin Aw Co., Ltd. Driving support method and driving support device
EP2285109B1 (en) * 2008-05-29 2018-11-28 Fujitsu Limited Vehicle image processor, and vehicle image processing system
EP2511137B1 (en) 2011-04-14 2019-03-27 Harman Becker Automotive Systems GmbH Vehicle Surround View System
EP2523163B1 (en) * 2011-05-10 2019-10-16 Harman Becker Automotive Systems GmbH Method and program for calibrating a multicamera system
JP5875272B2 (ja) * 2011-07-22 2016-03-02 キヤノン株式会社 3次元計測方法
EP2554434B1 (en) * 2011-08-05 2014-05-21 Harman Becker Automotive Systems GmbH Vehicle surround view system
CN102509098B (zh) * 2011-10-08 2013-05-15 天津大学 一种鱼眼图像车辆识别方法
KR101440847B1 (ko) * 2013-02-25 2014-11-04 중앙대학교 산학협력단 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법
CN105765966B (zh) 2013-12-19 2020-07-10 英特尔公司 碗形成像系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031313A (ja) * 2004-07-15 2006-02-02 Daihatsu Motor Co Ltd 障害物測定方法及び障害物測定装置
CN102270344A (zh) * 2010-06-04 2011-12-07 东芝阿尔派·汽车技术有限公司 移动体检测装置和移动体检测方法
US20110298988A1 (en) * 2010-06-04 2011-12-08 Toshiba Alpine Automotive Technology Corporation Moving object detection apparatus and moving object detection method
JP2011254436A (ja) * 2010-06-04 2011-12-15 Toshiba Alpine Automotive Technology Corp 移動体検出装置及び移動体検出方法
WO2012145819A1 (en) * 2011-04-25 2012-11-01 Magna International Inc. Image processing method for detecting objects using relative motion
US20140169627A1 (en) * 2011-04-25 2014-06-19 Magna International Inc. Image processing method for detecting objects using relative motion

Also Published As

Publication number Publication date
KR102240197B1 (ko) 2021-04-14
JP6453449B2 (ja) 2019-01-16
US20160371843A1 (en) 2016-12-22
US9437001B2 (en) 2016-09-06
CN106573576A (zh) 2017-04-19
US20160086333A1 (en) 2016-03-24
US10262394B2 (en) 2019-04-16
EP3195587A1 (en) 2017-07-26
EP3195587A4 (en) 2018-08-22
KR20170032403A (ko) 2017-03-22
CN106573576B (zh) 2019-06-18
WO2016043898A1 (en) 2016-03-24

Similar Documents

Publication Publication Date Title
JP6453449B2 (ja) ボウル型イメージングシステムにおけるオブジェクト追跡
CN106575432B (zh) 碗形成像系统中的对象可视化
CN108140235B (zh) 用于产生图像视觉显示的系统和方法
CN107660337B (zh) 用于从鱼眼摄像机产生组合视图的系统及方法
KR101811157B1 (ko) 사발형 영상 시스템
EP3378033B1 (en) Systems and methods for correcting erroneous depth information
US10789719B2 (en) Method and apparatus for detection of false alarm obstacle
US20170096106A1 (en) Video synthesis system, video synthesis device, and video synthesis method
CA2993616A1 (en) System and method for laser depth map sampling
US20160284087A1 (en) Automatic orientation estimation of camera system relative to vehicle
Cheng et al. Panorama parking assistant system with improved particle swarm optimization method
US20240112363A1 (en) Position estimation system, position estimation method, and program
CN115908511A (zh) 用于图像配准的方法和装置
CN118269955A (zh) 自动泊车方法、装置、车辆及计算机可读存储介质

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181212

R150 Certificate of patent or registration of utility model

Ref document number: 6453449

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250