JP2015510171A - 衝突時間を演算することを可能にする方法と装置、並びにコンピュータプログラム、コンピュータ可読媒体、及びコンピュータ - Google Patents

衝突時間を演算することを可能にする方法と装置、並びにコンピュータプログラム、コンピュータ可読媒体、及びコンピュータ Download PDF

Info

Publication number
JP2015510171A
JP2015510171A JP2014552530A JP2014552530A JP2015510171A JP 2015510171 A JP2015510171 A JP 2015510171A JP 2014552530 A JP2014552530 A JP 2014552530A JP 2014552530 A JP2014552530 A JP 2014552530A JP 2015510171 A JP2015510171 A JP 2015510171A
Authority
JP
Japan
Prior art keywords
image
collision time
computer
detection circuit
circuit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014552530A
Other languages
English (en)
Other versions
JP5872071B2 (ja
Inventor
ロバート フォルチヘイマー
ロバート フォルチヘイマー
アンダース オストルム
アンダース オストルム
Original Assignee
シック アイヴィピー エービー
シック アイヴィピー エービー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シック アイヴィピー エービー, シック アイヴィピー エービー filed Critical シック アイヴィピー エービー
Publication of JP2015510171A publication Critical patent/JP2015510171A/ja
Application granted granted Critical
Publication of JP5872071B2 publication Critical patent/JP5872071B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/28Indexing scheme for image data processing or generation, in general involving image processing hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

画像検知回路と少なくとも部分的に画像検知回路に向かって又はこれから離れるように相対移動する物体との間の衝突時間の演算を可能にする方法及び装置が提供される。

Description

本明細書の実施形態は、方法及び装置に関する。具体的には、本明細書の実施形態は、画像検知回路と少なくとも部分的に画像検知回路に向う又はこれから離れるように相対移動する物体との間において衝突までの又は衝突からの時間を演算することができる方法に関する。
画像検知に基づいて衝突時間を演算する利用可能な従来の最新技術による方法は、いずれも、複雑な演算及び大量データの処理を必要としており、且つ、従って、少なくとも多くの用途において十分な速度で衝突までの時間を演算できるように、複雑なハードウェアを更に必要としている。この結果、従来の方法は、費用を所要し、且つ、しばしば、多くの状況において実装及び使用するための十分な費用効率性を有していない。
従って、既存の最新技術による解決策よりも費用効率の優れた方式で、但し、依然として匹敵する速度で、実現可能な衝突時間の演算を可能にすることが本明細書の実施形態の目的である。
第1の態様によれば、この目的は、請求項1に記載の方法によって実現される。第2の態様によれば、この目的は、請求項14に記載の装置によって実現される。
個々の画像点iにおけるフレームの数などの演算された持続時間値f(i)は、撮像されたシーンが、シーケンスの全体を通じて、この画像点において、どれだけ静止状態にあったのかに関する尺度となる。相対移動する物体は、画像フレームのシーケンスによって撮像されることから、これは、例えば、画像内の消失点(focus of expansion)に対応している静的な物体の部分においては、大きな持続時間値となり、且つ、消失点から遠く離れた画像点においては、相対的に小さな持続時間値となるものと予想可能である。衝突時間に関する情報が持続時間値内に符号化されており、且つ、これを衝突時間の演算に使用可能であることが判明している。演算された持続時間値は、画像位置に対応する位置と共にアレイ又はマトリックス内に保存されてもよく、この場合に、それぞれの位置は、1つの持続時間値を保存し、この持続時間値は、例えば、わずかに数ビット長であってもよい整数計数値と同程度に単純なものである。従って、光学フロー検知に基づいた衝突時間演算のための従来の方法と比べて、大幅なデータ量の低減が実現され、且つ、相対的に単純な操作によって演算することが可能であり、この場合に、低減されたデータは、依然として、対象の情報を収容しており、且つ、衝突時間の演算に使用することができる。
又、操作が独立的に画像位置に対して実行されると共に局所的極値点が局所的データとのみ関係していることに起因し、演算は、並行して実行可能であり、且つ、従って、例えば、SIMD(Single Instruction Multiple Data)型のプロセッサなどのハードウェアアーキテクチャにおける実装に非常に適していることも理解されよう。又、従って、本明細書の実施形態は、画像検知回路上において直接的に又はこれとの緊密な関連において、或いは、場合によっては、例えば、全体的な複雑性が相対的に小さく、且つ、従って、更に複雑な最新技術による解決策と比べて低費用で提供可能であるNSIP(Near Sensor Image Processing)型のプロセッサやFPA(Focal Plane Array)型の画像プロセッサ上のシングル検知要素との緊密な関連において、処理能力を有する並列アーキテクチャにおける実装に特に適していることも理解されよう。本明細書の実施形態は、最新技術による解決策以上の速度で、衝突までの時間のデータの提供と、このデータを使用した衝突までの時間の後続の演算と、を依然として可能にすることが更に示されている。
添付の概略図面を参照し、本明細書の実施形態の例について更に詳細に説明する。
概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。
本明細書の実施形態に関する説明の一環として、図1及び図2を参照し、まず、背景の節において示した問題点について更に説明することとする。
図1(a)は、センサに向って移動するそのヘッドライトを有する自動車の(夜間の)図を示している。図1(b)は、T秒のインターバルで取得された2つの画像を示している。ヘッドライトの間の及び自動車までの絶対距離が不明であるにも拘らず、以下において理解されるように、衝突時間を依然として推定することができる。従って、画像の各部分の動き推定を対象としている。この例においては、ヘッドライトは、容易に認識可能な特徴である。但し、通常は、シーンが更に複雑であり、且つ、従来の特徴に基づいた技法は、結果的に複数の画像において見出されるいくつかの特徴をペア化させるべく、対応性の問題を解決するステップを含むことになろう。これは、光学フローによって空間的及び時間的の両面において高密度の計測を実行することにより、除去することができる。時間dtにおいて近接している画像を使用することにより、且つ、画像データが「弁別可能」となるように高解像度を仮定することにより、光学フロー式を使用することが可能であり、光学フロー式は、時間dtにおいて距離(dx、dy)だけ移動する画像特徴は、その強度Iを変化させないと単純に仮定しており、その結果、次式が得られることになり、
Figure 2015510171
ここで、
u=dx/dt (2)
及び
v=dy/dt (3)
は、画像面内における水平及び垂直の動き成分である。フローベクトルとも呼ばれるこれらの動き成分を演算するには、少なくとも2つのピクセルの特徴エリアを考慮する必要がある。光学フロー場は、多数の情報(基本的に、1動きベクトル/ピクセル)を付与し、これらの情報は、動きの大部分が、静的なシーン内において移動するカメラによって生成される自己移動であると見なされる場合には、不要である。3D空間内における回転していない物体の動きは、6つのパラメータのみによって規定することが可能であり、従って、すべての動きデータを、このような6つのパラメータの組に纏めることができる。実際には、未知のスケールファクタに起因し、最後のものについてなんらかの特定の値を仮定することにより、5つのパラメータのみを推定することができる。
光学フロー場は、自己移動パラメータに関係した強力な内部構造を有する。例えば、フロー場内には、シーン内の衝突点に対応する「消失」点(FOE)(即ち、衝突が発生する位置)が存在することになる。FOEを中心としたフローベクトルのサイズは、単純な方式によって自己移動パラメータに関係付けられる。例えば、カメラが動きと同一の方向を観察している際には、即ち、視準線が動きベクトルと平行である際(正面像)には、図2に示されているように、画像内のラインに沿ってフローベクトルの長さにわたって、画像の各エッジに向かって異なる符号を伴って(理想的な場合には)線形で増大する消失点においてゼロになるベクトル場が存在することになる。これらのラインのスロープは、±kであり、且つ、この関数は、次式のように記述され、
Figure 2015510171
ここで、dは、点とFOEとの間の距離である。但し、光学フローからカメラと物体の間の絶対速度差を算出することは不可能である。その理由は、カメラが室内において壁に向かって低速で移動している場合と戦闘機が超音速で山に向かって移動している場合を弁別することができないからである。但し、衝突までの時間は、依然として、演算することができる。これは、自動車の例に戻った場合に理解可能である。自動車は、図1(a)に示されているように、一定の速度vにおいてカメラに向かって移動している。ヘッドライトの間の距離をDと仮定する。図1(b)に示されているTの時間インターバルで取得された自動車の2つの写真から、以下の関係が得られ、
Figure 2015510171
ここで、d1及びd2は、投影された画像内におけるヘッドライトの間の距離であり、fは、センサの(ピンホール)カメラの焦点距離であり、且つ、Sは、第1画像内における自動車までの距離である。
この結果、衝突までの時間は、次式のようになることがわかる。
Figure 2015510171
画像内の動きは、FOEからの距離に比例することが判明している。画像内のヘッドライトの位置がFOEを中心として対称であるとすると、2つの画像内のヘッドライトの位置の差は、次式によって表現することも可能であり、
1x−p0x=k・p0x (8)
従って、次式が得られ、
=p10−p11=p00(1+k)−p01(1+k)=d(1+k) (9)
これは、以下の式を意味している。
Figure 2015510171
及び
Figure 2015510171
従って、衝突までの時間は、スロープkのみを含む係数によって乗算された露光の間の時間インターバルTである。これは、当然のことながら、自動車の例において有効であるのみならず、センサに向って又はセンサから離れるように移動しているシーン点が存在するすべての状況において有効である。
以下、図3に示されているフローチャートを参照し、画像検知回路と少なくとも部分的に画像検知回路に向って又はこれから離れるように相対移動する物体との間の衝突時間の演算を可能にする本明細書の実施形態について説明することとする。その後、本明細書の実施形態を更に説明すると共にそれらの実施形態及びその利益の理解度を向上させるべく、異なる更に具体的な且つ詳細な実施形態について説明すると共に結果を評価することとする。
動作301
この動作においては、画像検知回路によって検知された画像フレームのシーケンスの個々の画像フレームと関連する画像データを受け取っており、これらの画像フレームは、前記物体を撮像している。
この結果、相対移動に起因して画像内に変化を引き起こす物体を撮像した画像のシーケンスが存在することになる。物体は、離れる又は接近する方向において移動していることになる。接近している場合には、衝突時間とは、衝突までの時間である。離れるように移動している場合には、衝突時間とは、衝突からの時間である。相対移動とは、移動しているのが画像検知回路であってもよく、且つ、物体が、静止状態にあるか又は同様に動いていること、又は、画像回路が静止状態にあり、且つ、物体が移動していることを意味している。
シーケンスの画像フレームは、画像検知回路によってサンプリングされると即座に、1つずつ受け取ってもよく、或いは、画像フレームの1つ又は複数のグループとして受け取ってもよい。グループ内の又はシーケンス全体内の個々の画像フレームは、リアルタイム用途の場合には、捕捉又はサンプリングされた後に、すぐに又は可能な限り即座に、受け取ってもよい。
動作302
この動作においては、複数の画像位置のうちのそれぞれについて、画像フレームのシーケンス内の連続的に発生する局所的極値点の最大持続時間を示す個々の持続時間値が演算される。
局所的極値点LEP(Local Extreme Point)は、その画像位置の画像データ値が、画像位置に隣接するすべての又は少なくとも2つのピクセル位置の対応する画像データの値との関係において、最大値及び/又は最小値である際に、画像位置に存在する。従って、2つの隣接するピクセルが同一のフレーム内においてLEPであることは絶対にできない。1次元画像フレーム内において、画像位置におけるLEPは、その2つの隣接する、即ち、最も近接した近隣の、ピクセル位置との関係において判定されることになる。2次元画像フレーム内においては、画像位置におけるLEPは、通常、その4つ又は8つの隣接ピクセル位置との関係において検討されることになる。画像データ値の一例は、強度値であるが、例えば、どのような画像検知回路が使用されるのか、ノイズの状態、どのような種類の物体をどのような環境において捕捉する必要があるのか、及び照明条件などの観点において所与の状況において最良であると考えられるものに応じて、その他の種類の画像データを使用してもよい。LEPは、通常、LEPの画像フレームのみからの画像データに基づいて判定される。
ピクセルは、それぞれの画像フレーム内における最小のピクチャ要素として定義される。それぞれの画像フレームは、ピクセルから形成されており、それぞれのピクセルは、ピクセル位置と関連付けられている。従って、シーケンスの異なる画像フレーム内においては、同一のピクセル位置に異なる画像データが存在してもよい。物体は相対移動していることから、特定のピクセル位置における画像データは、画像フレームの間において変化するものと予想される。
画像位置は、通常、ピクセル位置に対応している。本明細書においては、画像位置は、一般に、前記複数の画像位置の一部である画像位置を意味している。複数の画像位置がそれぞれの画像フレームのピクセル位置と関係する方法については、別途、後述する。理解を促進するべく、以下においては、特記されていない限り、画像位置とピクセル位置の間には、対応性が存在しており、且つ、前記複数の画像位置は、それぞれの画像フレーム内のすべてのピクセル位置と同義であると仮定してもよいが、これは、すべての実施形態に当て嵌まらない場合もある。
又、シーケンスの一部であってもよい画像フレームの数と、その一部として選択するべき数に対して影響を及ぼすものについても、別途、後述する。
従って、換言すれば、この動作においては、複数の画像位置の画像位置ごとに、結果的にいずれの画像位置がシーケンスのすべての画像フレーム内において同一であるのか、並びに、シーケンス内において連続的に後続している、即ち、互いに直接的に後続しているLEPの数がチェックされ、且つ、このような「最大連続LEPシーケンス」の最長持続時間が演算される。従って、すべての画像位置について演算された最長持続時間を示す1つの持続時間値が存在することになる。LEPが見出されない場合には、持続時間は、0であることに留意する必要があり、且つ、この場合の処理については、更に後述する。
連続的に発生するLEPを見出すためには、まず、これらを識別する必要があり、且つ、次いで、計数する必要があり、この場合に、識別は、隣接するピクセル位置の画像データとのなんらかの比較を伴うことが理解できよう。LEPの上述の説明から、識別並びに計数は、周知の動作を利用することにより、多数の異なる方法で実行することができるが、使用する1つ又は複数の動作は、例えば、この動作を実行することになるハードウェアなどの実装形態によって左右されることになることが容易に理解されよう。当業者であれば、このステップを実行するための適切な動作を選択することができよう。上述の詳細な実施形態との関連において、具体的なハードウェア上における具体的な例を以下に提供することとする。但し、一般に、通常のコンピュータ上のものなどの画像を処理することができるすべてのプロセッサを、このステップを実行するように、容易にプログラムすることもできる。
持続時間値は、前記シーケンス内の連続的に発生する局所的極値点の最大数であってもよく、これは、持続時間に含まれているLEPが連続的な画像フレーム内に存在する時点以降の持続時間に対応している。持続時間値の別の例は、時間値である。但し、フレームは、通常、既知のサンプルレートにおいて捕捉又は検知されることから、フレームの数を持続時間値として計数及び使用することが便利又は更に効率的であろう。但し、すべての画像フレームが、時間スタンプと関連付けられている場合には、この代わりに、「最大連続LEPシーケンス」の最初の画像フレームと最後の画像フレームとの間の時間スタンプの差を持続時間値として使用することができよう。
理解度を向上させるべく、画像フレームのシーケンス1とシーケンス2という2つのシーケンスを概略的に示す図4を参照されたい。それぞれの垂直ラインは、画像フレームに対応しており、且つ、それぞれの水平ラインは、結果的にそれぞれのシーケンス内の画像フレームについて同一である画像位置に対応している。i1、i2、及びi3という3つの画像位置が示されている。画像位置と画像フレームとの間の交差点には、円がプロットされており、これにより、個々の画像フレーム内の画像位置を表している。塗りつぶされた(黒色)円は、LEPが存在する位置を表しており、且つ、塗りつぶされていない(透明な)円は、LEPを有していない位置である。画像位置i1、i2、及びi3が、隣接するピクセル位置に対応していると仮定することにより、同一のフレーム内の隣接するピクセル位置には、LEPが存在できないことに留意されたい。シーケンス1及びシーケンス2のそれぞれのシーケンス内の連続的に発生するLEPの最大持続時間を表す最大持続時間値(ここでは、画像フレームの最大数)が、黒色の正方形によってマーキングされている。従って、8つの画像フレームを有するシーケンス1においては、持続時間値は、画像位置i1については、2フレームであり、画像位置i2について、0フレームであり、且つ、画像位置i3については、4フレームである。
個々の画像点Iにおけるフレームの数などの演算された持続時間値f(i)は、撮像されたシーンが、シーケンスの全体を通じて、この画像点において、どれだけ静止状態に留まっていたのかに関する尺度になることが理解できよう。相対移動する物体は、画像フレームのシーケンスによって撮像されることから、これは、例えば、画像内の消失点に対応する静的な物体部分においては、大きな持続時間値となり、且つ、消失点から遠く離れた画像点においては、相対的に小さな持続時間値になるものと予想可能である。以下、これを数学的に利用する方法と、衝突時間に関する情報を持続時間値から抽出できることと、を示すこととする。
演算された持続時間値は、画像位置に対応した位置を有するアレイ又はマトリックス内に保存してもよく、この場合に、それぞれの位置は、例えば、1つの持続時間値を保存し、この持続時間値は、わずかに数ビット長であってもよい整数計数値と同程度に単純なものであることが更に理解できよう。従って、光学フロー検知に基づいた衝突時間計算用の従来の方法と比べて、大幅なデータ量の低減が実現されており、且つ、相対的に簡単な操作によって算出することが可能であり、この場合に、低減されたデータは、依然として、対象の情報を含んでおり、且つ、衝突時間の演算のために使用可能である。
又、動作が独立的に画像位置に対して実行されると共にLEPが局所的データにのみ関係していることに起因し、演算は、並行して実行可能であり、且つ、従って、例えば、SIMD(Single Instruction Multiple Data)型のプロセッサなどのハードウェアアーキテクチャにおける実装に非常に適していることも理解されたい。又、従って、本明細書の実施形態は、特に、画像検知回路上において直接的に又はこれとの緊密な関連において、或いは、場合によっては、例えば、NSIP(Near Sensor Image Processing)型のプロセッサ又はFPA(Focal Plane Array)型の画像プロセッサ上のシングル検知要素との緊密な関連において、処理能力を有する並列アーキテクチャにおける実装に特に適していることも理解されたい。以下、本明細書の実施形態を実装してもよいアーキテクチャについて更に説明し、且つ、NSIP型のプロセッサ上における実装形態の詳細な例を付与することとする。
演算された持続時間値は、その内部において符号化された情報を抽出及び/又は利用する更なる処理のために出力されてもよく、或いは、任意選択により、以下の動作について記述されているように、本明細書の実施形態に従って更に処理されてもよい。
動作303
任意選択の動作であるこの動作においては、演算された持続時間値f(i)の合計Σf(i)が演算されている。以下には、この合計が単独で対象の情報を符号化してもよく、且つ、この合計を使用して衝突時間を演算できることが示されている。合計は、更に圧縮されたデータの組を表し、且つ、これも、単純な操作によって実現される。通常、上述のものなどの並列アーキテクチャは、個々の並列処理要素からの結果を合計する可能性を提供している。
いくつかの実施形態においては、合計を演算する前に、ゼロである任意の演算された持続時間値を近隣の画像位置からの非ゼロの持続時間値によって置換してもよい。この理由については、以下の詳細な実施形態との関連において説明することとする。
演算された合計は、その内部において符号化された情報を抽出及び/又は利用する更なる処理のために出力されてもよく、或いは、任意選択により、以下の動作について記述されているように、本明細書の実施形態に従って更に処理されてもよい。
動作304
任意選択の動作であるこの動作においては、スケールファクタcによって乗算された合計Σf(i)の逆数に基づいて、スロープ値kが演算されている。前記スロープ値kは、次式に対応しており、
Figure 2015510171
ここで、cは、前記スケールファクタであり、且つΣf(i)は、持続時間値f(i)の前記合計である。いくつかの実施形態においては、スケールファクタcは、次式に対応しており、
Figure 2015510171
ここで、iは、前記複数の画像位置の個々の画像位置である。いくつかの実施形態においては、例えば、有効な(非ゼロの)持続時間値の密度が低い場合には、スロープ値kは、代わりに、直接的にiに応じてf(i)値のラインをフィッティングすることにより、算出することが可能であり、且つ、この場合には、kは、このラインのスロープとして付与される。
このcは、通常、物体の正面像(frontal view)が存在する際に、即ち、物体が、物体を撮像している画像検知回路に向って又はこれから離れるようにまっすぐに移動している際に、kを演算するために使用される。
演算されたスロープ値kは、その内部において符号化された情報を抽出及び/又は利用する更なる処理のために出力されてもよく、或いは、任意選択により、以下の動作について記述されているように、本明細書の実施形態に従って更に処理されてもよい。
動作305
任意選択の動作であるこの動作においては、前記複数の画像位置の中心画像位置iCentreとの関係における演算された最大持続時間値f(i)のうちの最大持続時間値の画像位置imaxのオフセットを示すオフセット値δが演算されている(オフセットの例は、図16に示されており、これは、以下において更に参照される)。次いで、オフセットは、いくつかの実施形態においては、スケールファクタcを判定するべく使用され、この場合に、スケールファクタcは、次式に対応しており、
Figure 2015510171
ここで、iは、前記複数の画像位置の個々の画像位置であり、且つ、δは、前記オフセット値である。
上述のようにオフセットを考慮したcは、通常、物体の非正面像が存在している際に、即ち、物体が、物体を撮像している画像検知回路に向って部分的に又はこれから部分的に離れるように移動している際に、kを演算するべく使用される。或いは、換言すれば、画像検知回路が相対的な移動の方向とは異なる角度において観察している際に、使用される。
動作304及び動作305において上述したcを演算する様々な方法から、相対的な移動方向が既定されている場合には、スケールファクタcを同様に既定してもよく、且つ、持続時間値及び合計を演算する目的とは無関係に、正面像及び非正面像の両方について一定であるものと見なしてもよいと結論付けることができる。所与のセンサと、センサのすべてのピクセル位置に対応してもよい使用される複数の画像位置に関する知識について、cを既定することが可能であり、且つ、kを演算する際に定数として使用することができる。従って、このような状況においては、合計を十分な尺度として使用してもよく、その理由は、衝突時間を明示的に実際に演算する必要性を伴うことなしに、衝突時間の観点において、異なる演算された合計が有することになる意味を学習してもよいからである。
相応して、相対的な移動方向が事前に判明しておらず、且つ、cが、まず、上述の動作305において説明した演算された持続時間値からオフセットを演算することにより、演算される場合にも、k値を十分な尺度として使用してもよく、その理由は、衝突時間を明示的に実際に演算する必要性を伴うことなしに、衝突時間の観点において、異なるk値が有することになる意味を学習してもよいからである。
動作306
任意選択の動作であるこの動作においては、演算されたスロープ値kを使用することにより、衝突時間が演算されており、この場合に、衝突時間Tは、次式に対応しており、
Figure 2015510171
ここで、kは、演算されたスロープ値であり、Tは、画像フレームのサンプル周期である。サンプル周期は、例えば、図4に示されているように、シーケンス内の連続した画像フレームの間の時間周期Tに対応している。この式は、上述の式(11)に対応している。
演算された衝突時間TIは、そのいくつかが後述されている異なる用途における更なる使用のために出力されてもよい。
次に、図5を参照すれば、動作302において上述した図4に示されているものとの比較において、画像フレームの異なるシーケンスが互いに関係してもよい方式の別の例が示されている。
図4と同様に、それぞれの垂直ラインは、画像フレームに対応しており、且つ、それぞれの水平ラインは、結果的にそれぞれのシーケンス内の画像フレームについて同一である画像位置に対応している。3つの画像位置i1、i2、及びi3が示されている。画像位置と画像フレームの交差点には、円がプロットされており、これにより、個々の画像フレーム内の画像位置を表している。塗りつぶされた(黒色)円は、LEPが存在している位置を表しており、且つ、塗りつぶされていない(透明な)円は、LEPを有していない位置である。画像位置i1、i2、及びi3が、隣接するピクセル位置に対応していると仮定することにより、同一の画像フレーム内の隣接するピクセル位置には、LEPが存在できないことに留意されたい。図4においては、まず、上述の図3との関連において説明した動作による演算のために、N個のフレームのシーケンス1を使用しており、この結果、第1衝突時間T1を得ている。次いで、シーケンス1の画像フレームを破棄し、且つ、代わりに、上述の図3との関連において説明した動作による新しい演算のために、シーケンス1に後続するN個のフレームのシーケンス2を使用しており、この結果、第2の衝突時間T2を得ている。
図5においては、この代わりに、シーケンス2は、新しい画像フレームを加算すると共に最も古い画像フレームを除去することにより、以前のシーケンス1に基づいたものになっている。即ち、一度に1つの画像フレームを移動させるNフレーム長のウィンドウにより、シーケンスの画像フレームを判定している。この結果、新しい情報が、それぞれのフレームごとに加算され、且つ、結果的に、上述の図3との関連において説明した動作による新しい演算が得られることになる。例えば、図5に示されているように、新しい演算された衝突時間T2は、1画像フレームサンプル周期Tだけ遅れて、以前に演算された衝突時間T1に後続してもよい。例えば、シーケンス2内の連続的に発生するLEPの最大持続時間を表す最大持続時間値(ここでは、画像フレームの最大数)が、図4のシーケンス2との比較のために、黒色の正方形によってマーキングされている。図5を参照した別の例として、シーケンス1の画像位置[i1,i2,i3]の持続時間値アレイは、[2,1,4]であり、シーケンス2の場合には、[2,0,5]である。
シーケンスの一部として選択するべき画像フレームの、即ち、サンプルの、数Nは、ケースごとに変化してもよい。所与の状況において、実装のためのハードウェアの要件及び知識や物体の予想される運動及びタイプなどの観点において、当業者は、それぞれのシーケンスにおいて使用するべき適切な数のサンプルを選択することができると共に/又は、一般的な試験を使用することにより、見出すことができるであろう。いくつかの実施形態においては、一定の数を使用してもよく、その他の実施形態においては、以前の演算からの及び/又はその他の情報源からのフィードバックに基づいて、数を選択してもよい。ガイドラインとして、以前の1つ又は複数の衝突演算が、物体が近接していることを又は高速で接近していることを示している場合には、相対的に低い精度という犠牲を払って新しい演算値を相対的に高速で提供するべく、相対的に小さな数のサンプルを使用してもよい。1つ又は複数の以前の衝突演算が、物体が近接していないと共に/又は、低速で接近していることを示している場合には、精度を増大させるべく、相対的に大きな数のサンプルを使用してもよい。
次に、図6及び図7を使用し、複数の画像位置がピクセル位置と関係してもよい方式について更に説明することとする。複数の画像位置とピクセル位置との間に直接的な対応性が存在している場合については、既に説明済みである。いくつかの実施形態においては、複数の画像位置は、すべてのピクセル位置のサブセット(部分集合)に対応している。これが図6及び図7の両方の例に示されている。図6においては、すべての第2ピクセル位置iが、持続時間値が上述のように演算される複数の位置の一部となるように、画像位置iとして選択されている。いくつかの実施形態においては、複数の画像位置iは、すべてのピクセル位置iの間において、或いは、少なくとも対象のエリアAI内のすべてのピクセル位置iの間において、均一に分散されている。すべてのピクセルの間における均一な分布は、図6に示されており、且つ、対象のエリア内の均一な分布は、図7に示されている。対象の図示のエリアは、分割された視野に対応している。対象のエリアは、全体ピクセルエリアの任意のサブエリアであってもよく、通常は、物体が運動することが判明している、或いは、なんらかの理由により、演算用の使用に望ましい、エリアである。当然のことながら、これらが、すべてのピクセル位置のサブセットである際には、複数の画像位置について、すべてではない第2ピクセル位置を選択することができる。
次に図8を参照されたい。図3及び関係する動作との関連において上述した本明細書の実施形態は、動作を実行するためのソフトウェアを有する、コンピュータの内部メモリに読み込み可能である、コンピュータプログラム製品によって実装されてもよい。例えば、コンピュータプログラム製品は、ハードドライブ又はその他のストレージ手段173上に保存された実行可能ファイル173であってもよく、且つ、このストレージ手段から、インターネットなどのネットワークを介して取得可能であってもよく、且つ、コンピュータ176にダウンロードされてもよく、このコンピュータは、実行用のコンピュータ又は保存用の中間コンピュータであってもよい。又、コンピュータプログラム製品は、更なる例を挙げれば、メモリスティック171内に、或いは、CD又はDVDなどのディスク172内に、保存されてもよい。又、メモリスティック171及びディスク172は、プログラムが記録されたコンピュータ可読媒体の例でもあり、この場合に、プログラムは、図3との関連において上述した動作をコンピュータに実行させるように構成されている。
次に、本明細書の実施形態について更に説明すると共にこれらの実施形態及びその利益に関する理解度を向上させるべく、更に具体的且つ詳細な実施形態について説明すると共に結果について評価することとする。
まず、NSIPの概念が(この場合にも)導入されており、その理由は、この概念が詳細な実施形態について使用されることになるからである。NSIPは、ほとんど30年も前に初めて発表された概念であり、この場合には、光学センサアレイ及び特定の低レベルの処理ユニットが、ハイブリッドアナログ−デジタル装置として緊密に統合されている。その低い全体的な複雑性にも拘らず、最新技術による解決策に負けない高速で、多数の画像処理動作を実行することができる。図9は、NSIP概念の第1の商用実装形態のアーキテクチャであるLAPP1100チップを示している。これは、ピクセル当たりに1つずつである128個のプロセッサスライスから構成されている。光検知回路以外に、それぞれのスライスは、小さな演算ユニット(GLU、NLU、PLU)と、14ビットのストレージと、を収容していた。画像データをシフトレジスタから読み出すことができたが、128ビットのライン画像内において、1つ又は複数の設定ビット(Global−OR)又は設定ビットの合計数(COUNT)の発生について試験することもできた。オンボードのA/Dコンバータは、存在していなかった。この代わりに、A/D変換が用途の一部である場合には、いくつかの異なる原理のうちの1つを使用することにより、A/D変換をソフトウェアで実装しなければならなかった。最も単純なものは、それぞれのCMOSフォトダイオードが露光した際に示すほぼ線形の放電を利用することに基づいたものであった。次いで、演算ユニットと共に、選択された数のレジスタを使用し、それぞれのピクセルごとに、フォトダイオードが予め定義されたレベルに到達した際に、計数を停止させる並列カウンタを実装した。非常に早い段階で、A/D変換が多くの場合に不要であることが判明した。それぞれのピクセルにおいて利用可能であるスモールビットプロセッサとの組合せにおいてピクセル読出し回路を利用することにより、特定の特徴に関するフィルタリングや適応型の閾値処理の実行などの多くのタスクを容易に実行することができた。この後に、これらの経験をNSIP(Near Sensor Image Processing)という名称で要約し、且つ、発表した。同一の原理に基づいた2Dチップを構築し、且つ、100000フレーム/秒を十分に上回るレートにおいて画像を処理可能であることを示した。この時点において、実際的な最大解像度は、0.8μmのCMOSプロセスを使用することにより、128*128ピクセルであった。現在では、更に高いピクセル計数とそれぞれのピクセルにおける更に複雑な回路の両方が可能である。
図10は、基本的な光検知部分を示している。コンデンサ(b)は、フォトダイオードの固有静電容量を表している。スイッチ(a)がオンである際に、ダイオードは、そのフル値にまで事前充電される。スイッチがターンオフされ、且つ、ダイオードが、光誘発電流に起因して放電するのに伴って、比較器(d)の入力上の電圧が減少する。なんらかのレベルにおいて、この電圧は、基準電圧(e)を超過し、且つ、出力(f)がその論理値を切り替える。次いで、出力がビットシリアル演算論理ユニット(g)内において処理される。それぞれのピクセルにおいて利用可能なスモールビットプロセッサとの組合せにおいてピクセル読出し回路を利用することにより、特定の特徴に関するフィルタリング、ヒストグラム処理、又は適応型の閾値処理の実行などの多くのタスクを実行することができる。この概念は、当然のことながら、大きなダイナミックレンジと、非常に大きなフレームレートと、を付与する。
NSIPアーキテクチャのプロセッサ部分について説明する際には、このプロセッサ部分を、そのセンサ部分内のピクセルの数に等しいワード長Nを有する単一のプロセッサとして見なすことが便利である。プロセッサの主要部分は、サイズNのレジスタワードを収容するレジスタファイルである。第2の重要なレジスタは、アキュムレータAである。NSIPの後の実装形態は、特定のタイプの処理を機能強化するために、更なるレジスタを収容しているが、本発明者らは、本明細書における目的のために、これらを考慮することはしない。単純な演算は、ANDやORなどの「点演算」である。これらは、通常、レジスタRiとアキュムレータとの間において適用され、これにより、新しい結果を保持するようにアキュムレータを変更する。非常に有用な種類の演算は、「ローカル演算」であり、この場合には、ローレベルのフィルタリング動作を形成するべく、3要素テンプレートがレジスタに対して同時に適用される。このような演算の1次元の例が、演算「(01x)R1」であり、これは、テンプレート(01x)をワード内のそれぞれの位置と比較し、且つ、テンプレートがフィットしている場合には、論理1を、且つ、フィットしていない場合には、論理0を生成する。この特定のテンプレートは、その左側が0であり、且つ、右側が1又は0であってもよい(即ち、「関係ない」)状態で、ビット位置自体が、値1を有することをチェックしている。この特定のローカル演算子は、LEPを見出すために有用であると後から判明することになる強度画像内におけるエッジの検出及びこれに類似した動作において、有用である。
第3の種類の演算は、グローバル演算である。これらは、レジスタ内の最も左の又は最も右の1を見出す又は特定の位置からすべてのビットをゼロ化する又は連続したゼロビットのグループを設定するなどの多数の異なる目的のために使用される。グローバル演算は、いずれも、2つの入力レジスタをオペランドとして使用するマーキング演算から導出される。第1レジスタ内の設定ビットは、第2レジスタ内の物体に対するポインタとして見なされる。物体は、接続された1の組である。指し示された物体は、維持され、且つ、結果に対して転送されることになる。
上述の演算が利用可能である状態で、従来のローレベルの画像処理タスクの大部分を実装することができる。命令が、外部又はチップ内部のシーケンサ又はマイクロプロセッサから、(通常は)16ビットバス上において、一度に1つずつ発行される。処理済みの画像は、同一バス上において読み出されてもよいが、ほとんどの場合に、画像特徴の位置、最大強度値、第1次モーメントなどのなんらかの特定のスカラー値を演算することで十分である)。この理由から、NSIPアーキテクチャは、計数状態COUNTをも含んでおり、これは、アキュムレータ内の設定ビットの数と、レジスタ内の1つ又は複数のビットが設定されているかどうかを示すglobal−ORと、を常に反映することになる。状態情報に起因し、NSIPを使用する用途の大部分は、チップから画像を読み出す必要がなくなり、これにより、アプリケーションが相当に高速化される。一例として、b個のCOUNT演算及びCONNT結果の適切なスケーリング及び合計のみを使用することにより、プロセッサ内においてbビットによってそれぞれが表されているすべての値f(i)の合計を見出すことができる。
上述のNSIPアーキテクチャ上において本明細書の実施形態を実装する際に、この特定の実施形態においては、まず、LEPを抽出する。LEPを抽出するための最も簡単な動作の1つは、3×1の近隣部分内の局所的最小値を見出すというものである。これは、中心ピクセルが、両方のその隣接部と比べて、低い強度を有する場合には、このピクセルがLEPであることを意味している。本発明者らは、NSIPの概念を使用していることから、本発明者らは、大きなダイナミックレンジを有することになり、この結果、明るい領域と暗い領域の両方において局所的最小値を見出すことになる。これは、上述の基本的なNSIPの動作のうちの1つである。
シミュレーションである図12において、標準画像からの1つの列が取得され、且つ、LEPがマーキングされており、即ち、これが、局所的な3×1の近隣部分である。NSIP演算は、(101)として定義され、これは、中心ピクセルが閾値を超えておらず、且つ、その2つの最も近接した隣接部が、いずれも、閾値を超えていることを意味している。これは、局所的最小点に対応している。黒色の点によって示されているLEPを更に良好に示すべく、画像の一部分が拡大されている。この行は、512個のピクセルから構成されている。この特定のケースにおいては、この行に沿って、ほとんど70個のLEPが存在している。
LEPは、保存され、且つ、次の画像及びそのLEPと比較される。図13は、(1次元)画像のシーケンス内のLEPに対して発生する内容を示している。ここでは、Y軸は、時間を表しており、これは、カメラが物体に向って相対的に低速で移動していることを意味している。この場合には、本発明者らは、150個の1次元フレームを捕捉した。図2に従って、エッジに近接したLEPは、ほとんど静止状態にある行の中心に位置したLEPと比べて、高速で移動していることがわかる。速度推定は、ラインのスロープに基づいており、これらのラインは、図13に示されているように、それぞれのLEPから生成されている。スロープの値を算出するべく、本発明者らは、最大値がピクセル内に留まる時間を使用する。これは、LEPが1つのピクセル内にある際にフレーム数を計数することにより、実行される。この値は、LEPが2つの連続したフレーム間において移動する部分的距離に反比例している。これらの値f(i)の合計は、上述のように、COUNT関数を使用することにより、容易に抽出することができる。例えば、持続時間値を演算するためにM個の画像フレームのシーケンスに対応するM=50個のフレームを取得することにより、それぞれのビットスライスプロセッサを使用し、結果的に持続時間値に対応している可能なLEPの最長のランを計数する。これは、図13の最初の50本のラインに対応することになる。図14は、ランの長さがアレイに沿って変化する方式を、即ち、50個のフレームのシーケンスの持続時間値f(i)が画像位置iに沿って変化する方式を、示している。単位は、フレーム/ピクセルであり、即ち、LEPを1ピクセルだけ移動させるために必要とされるフレームの数である。
図15に示されている望ましい関数は、逆数であり、且つ、ピクセル/フレームという単位を有しており、即ち、以前のフレーム以降にLEPが移動したピクセル(又は、むしろ、サプピクセル)の数である。曲線のスロープは、図3との関連において上述したスロープ値kに対応している。参考として、図15には、本明細書の実施形態に従って提供された結果的に得られた演算されたスロープ値kがプロットされている。
次に、特定の実施形態と、図15のスロープ値kが持続時間値f(i)から実現される方式と、を参照し、図3との関連において先程提示した式について更に説明することとする。
相対速度を算出するべく、本発明者らは、センサ内の距離をピクセルを単位として表現することとする。1次元センサは、w[m]の物理的サイズを有するN個のピクセルを有する。従って、センサ面内の距離dは、p個のピクセルに対応しており、この場合に、次式のとおりである。
Figure 2015510171
センサに沿って、本発明者らは、ここで、それぞれの画像位置iについて持続時間値に対応する関数f(i)を有しており、これは、本発明者らが求めようとしているスロープを有するラインの逆数である。この関数は、次式のように表現することが可能であり、
Figure 2015510171
ここで、∧は、ランダム変数、即ち、ノイズであり、平均がゼロとなるものと仮定されている。
従って、次式が得られる。
Figure 2015510171
これは、図3との関連において上述したものに対応するという次の推定をもたらす。
Figure 2015510171
ここで、分子cは、結果的に前述のスケールファクタcに対応している。これは、事前に算出可能な定数として見なしてもよく、且つ、分母は、特定の実施形態においては、結果的に上述の持続時間値の合計に対応しているCOUNTネットワークからの出力である。ここまでの部分においては、本発明者らは、原点を最も左側のピクセルに配置していた。原点をFOE点に移動させることが更に自然である。正面像の動きの場合には、f(i)が対称であることから、本発明者らは、次式を得る。
Figure 2015510171
従って、式(4)と同様に、本発明者らは、この代わりに、次式を使用する。
Figure 2015510171
これは、定数cが絶対値によって生成される限り、本発明者らが、FOEの両側のラン長のすべてを合計することができることを意味している。kの値を知ることにより、本発明者らは、ここで、式(11)を使用することにより、衝突時間を得ることが可能であり、これは、自動車の場合のみならず、任意の可視物体の場合に機能する。
x位置が、消失点に近接している際には、本発明者らは、正しい情報を得ることにならず、その理由は、正しい値が無限大となるからである。従って、本発明者らは、中心領域においては、0であり、且つ、外部においては、1であるフィルタh(x)を使用することとする。
Figure 2015510171
この関数は、図9に示されている1つのレジスタ内に保存され、且つ、乗算は、単純なAND演算である。これは、式(19)の一定の合計cを次式のように書き換えることができることを意味している。
Figure 2015510171
通常、多数のノイズを含んでいる中心からの情報を省略することにより、本発明者らは、kの相対的に良好な推定値を取得し、この推定値は、図15に示されているスロープkを有するラインに対応している。
発生しうる別の課題は、アレイの有効な部分に沿ってゼロであるいくつかの位置が存在する場合がある、即ち、これらの位置には、LEPが存在しないというものである。式(15)から、本発明者らは、f(i)内にいくつかのゼロが存在する場合には、kの推定値が相対的に大きくなることを理解している。これを回避するべく、本発明者らは、図16に示されているように、本発明者らが「真」のLEP又は別の伝播されたLEPに遭遇する時点まで、LEPを左及び右に伝播させることができる。
カメラが動きとは異なる角度で観察している場合には、垂直の動きに対して追加された横断方向の成分が存在することになる。これは、固定点上に突出しているシーン内の点に向って移動する代わりに、図17に示されているように、カメラが、距離Δだけ離れたところに配置された衝突点に向って進んでいることを意味している。このような横断方向の速度成分が付与された場合に、LEPの移動を示す画像は、横断方向の速度が付与された状態で、図18のように見えることになる。本発明者らは、この場合には、新しいFOE位置に対応する、図19に示された、関数f(i)の最大値imaxの位置を推定することができる。図19には、imaxとicentreとの間のオフセットδのみならず、中心画像位置icentreも示されている。NSIPプロセッサ上において実装された特定の実施形態の場合においてこれを実行する方法については、Astroem A, Forchheimer R, 及びEklund J-E, “Global Feature Extraction Operations for Near-Sensor Image Processing”, IEEE Trans, Image Processing, 5,1,102−110(1996)に記述されている。図20には、対応するf(i)の逆関数が、相応して、図15と同様に、従って、ここでは、非正面像の状況において、スロープ値kを有するように描かれたラインと共に示されている。
中心点からの最大値の変位に応じて、いくつかの異なるマスクh(i)を使用してもよい。定数cは、こちらも変位に依存する予め算出されたアレイによって表されてもよい。kの値の演算は、上述のものと類似した経路を辿る。画像面内におけるFOEの変位δは、以前の結果を次式に変更する。
Figure 2015510171
これは、cが、変位δの関数であることを意味しており、これは、以下に示されているように算出することができる。
Figure 2015510171
これは、上記の図3との関連において記述したスロープ値kに対応しており、且つ、図20にプロットされているk値でもあることがわかる。
上述のように、絶対速度又は物体までの距離の知識を伴うことなしに衝突時間を演算することができる。その代わりに、本発明者らは、次式を得る。
=S/T (22)
横断方向の速度は、同一の理由から、その絶対値に対して演算することができない。その代わりに、これは、次式のように定義され、
=Δ/T (23)
ここで、Δは、図17に示されている距離である。これは、次式のように書き換えることができる。
Figure 2015510171
本発明者らは、ここで、以下のように、横断方向速度と物体に向かう速度との間の比率を演算することできる。
Figure 2015510171
これは、センサ幅、センサ解像度、及び焦点距離から導出されたカメラ定数によって乗算されたFOEの変位が2つの動き成分の間の比率を付与することを意味している。従って、視準線と動きベクトルとの間のオフセット角φは、次式によって付与される。
tan(α)=Ccamera・δ (26)
次に、更に具体的な実施形態の場合と同様にNSIPアーキテクチャを使用することによって本明細書の実施形態を実装した際の可能な性能について説明することとする。NSIPのケースにおいて実行するべき様々なステップを検討することにより、LEPの抽出は、単一の命令/露光で実行可能であることを見出すことができる。それぞれのプロセッサスライスにおいて持続時間値に対応する単一のLEPの最長のランの検出は、ランが蓄積されると共に予め得られた最長ラインと比較されるSIMDの実装形態に基づいている。新しいランが収集された際には常に、そのランは、以前の最長ランを置換するか、又は廃棄される。これには18b個のサイクルが必要であると示すことが可能であり、ここで、bは、結果を保存するために使用されるビット数である。図14に示されている結果を得るべく、50回の露光、即ち、50個の画像フレームが使用されており、これは、bが6に等しいことを意味している。これは、108サイクル/露光に対応している。従って、最短時間インターバルTは、2.5μsであり、且つ、新しいk値が、約5000サイクルの後に、或いは、40MHzのクロックサイクルが付与された場合には、8kHzのレートで、利用可能となる。上述のノイズ抑圧フィルタを含むことにより、約30〜60サイクル/露光が追加されることになる。
この「バッチ指向」の方法の一代替肢は、結果的に図5との関連において上述した状況に対応している最後の50回の露光をラウンドロビン方式で保存し、且つ、それぞれの露光の後にk値演算を実行するというものである。この結果、演算されたk値と一致するように露光の間のインターバルが増大することになる。或いは、この代わりに、最長ランの計算を連続的に実行することによって50回の露光のすべてをメモリ内に維持するニーズを除去すると共に演算時間をも低減できるように、時間スタンプを露光と関連付けることもできる。要すれば、最近のNSIP設計の場合には、10mm2未満のサイズのチップにより、約100kHzのレートで、k値と、従って、衝突時間推定値と、を出力できるようになるというのが妥当なところであろう。
従って、NSIP(Near-Sensor Image Processing)の概念又は上述の焦点面アレイの概念などのこれに類似したものを有する本明細書の実施形態を使用することにより、視覚に基づいた衝突時間センサの実装形態を、多くの用途に適しうる小さく且つ潜在的に低廉な装置とすることができる。明らかな用途の1つは、自動車産業における衝突回避である。このようなシステムは、衝突のリスクが存在することを運転者に警告するために使用することができる。又、このようなシステムは、衝突が不可避である際に、実際の衝突の前に安全装置に警告するために使用することもできる。
又、本明細書の実施形態の実装は、小さく且つ低廉な装置に関するものであってもよく、且つ、理解されるように、電力効率に優れたものにすることも可能であることから、これらの装置は、小さな自己給電型ユニットにおける使用において特に興味深いであろう。例えば、本明細書の実施形態は、例えば、人工昆虫を含む小さな無人車両などのガイダンス制御用の装置において実装されてもよい。このような車両のガイダンス制御の場合には、本明細書の実施形態を実装した2つのセンサ(眼)を使用してもよく、且つ、2つのセンサの持続時間値f(i)の値の合計を使用し、車両を制御すると共に安定化させてもよい。物体との衝突を回避するために、これらの値は、可能な限り大きなものであることを要する。従って、本明細書の実施形態は、例えば、自動車産業などにおける衝突回避又は警告のために、且つ、通常は小さな無人車両におけるガイダンス制御のために、使用されてもよい。
次に、図21に示されている概略ブロックダイアグラムを参照し、本明細書の実施形態について更に説明することとする。画像検知回路と少なくとも部分的に画像検知回路図に向って又はこれから離れるように相対移動する物体との間の衝突時間の演算を可能にするために、図3との関連において上述した動作を実行するべく、図21に概略的に示されている装置2100が提供されてもよい。装置2100は、受取りポート2120を有する。受取りポートは、前記画像検知回路によって検知された画像フレームのシーケンス1..Nの個々の画像フレームと関連付けられたデータを撮像するように構成されており、且つ、これらの画像フレームは、前記物体を撮像している。参考までに、且つ、理解度を向上させるべく、図21には、画像検知回路及び物体が画像検知回路2140及び物体2150として示されている。受取りポートは、画像データを受け取ることができる物理的又は仮想的な任意のポートであってもよい。
装置は、複数の画像位置のそれぞれの画像位置iについて、画像フレームの前記シーケンス1..N内の連続的に発生する局所的極値点の最大持続時間を示す個々の最大持続時間値f(i)を演算するように構成された第1演算回路2211を更に有する。装置2211は、特定のプログラムコードを実行するように構成された汎用コンピュータであってもよく、且つ、その場合には、演算回路は、コンピュータのCPU及びRAMに対応してもよく、或いは、SIMDアーキテクチャに基づいたものなどの本明細書の実施形態の相対的に効率的な実装のための相対的に専用であるハードウェアを有するコンピュータであってもよい。第1演算回路は、演算要素2211−1〜2211−Kを有してもよく、これらの演算要素のそれぞれは、1つの画像位置又は画像位置のグループの持続時間値f(i)を演算するように構成されてもよい。
装置は、持続時間値f(i)の合計Σf(i)を演算するように構成された第2演算回路2112を更に有してもよい。
装置は、スケールファクタcによって乗算された合計の逆数1/Σf(i)に基づいてスロープ値kを演算するように構成された第3演算回路2113を更に有してもよく、この場合に、スロープ値kは、次式に対応しており、
Figure 2015510171
ここで、cは、前記スケールファクタであり、且つ、Σf(i)は、前記持続時間値f(i)の合計である。
いくつかの実施形態においては、スケールファクタcは、次式に対応しており、
Figure 2015510171
ここで、iは、前記複数の画像位置の個々の画像位置である。
装置2100は、前記複数の画像位置の中心画像位置iCentreとの関係において演算された最大持続時間値f(i)のうちの最大持続時間値の画像位置imaxのオフセットを示すオフセット値δを演算するように構成された第4演算回路2114を更に有してもよく、この場合に、スケールファクタ(c)は、次式に対応しており、
Figure 2015510171
ここで、iは、前記複数の画像位置の個々の画像位置であり、且つ、δは、前記オフセット値である。
装置2100は、演算されたスロープ値(k)を使用することにより、衝突時間を演算するように構成された第5演算回路2115を更に有してもよく、この場合に、衝突時間(T)は、次式に対応しており、
Figure 2015510171
ここで、kは、演算されたスロープ値であり、Tは、画像フレームのサンプル周期である。演算回路のうちの1つ又は複数は、1つであると共に同一である演算回路によって実装されてもよく、例えば、第1及び第2演算回路は、例えば、SIMD又はNSIP型のプロセッサなどの共通的な物理回路として実装されてもよく、且つ/又は、第3、第4、及び第5回路は、例えば、汎用CPUなどの別の共通的な物理回路として実装されてもよい。
装置2100は、演算された最大持続時間値f(i)及び/又は持続時間値f(i)の演算された合計Σf(i)及び/又は演算されたスロープ値k及び/又は演算された衝突時間T1を出力するように構成された出力ポート2230を更に有してもよく、或いは、これらのうちの1つ又は複数は、装置2100内において内部的に更に使用されてもよい。即ち、装置2100は、図3との関連において上述したものに対応する結果的に得られた演算された値を処理するように構成されてもよい。
当業者は、上述の受取りポート、第1演算回路2111、演算要素2111−1〜2111−K、第2演算回路2112、第3演算回路2113、第4演算回路2114、第5演算回路2115、及び出力ポート2230は、アナログ及びデジタル回路の組合せを、且つ/又は、1つ又は複数のプロセッサによって実装された際に上述のように稼働する、例えば、メモリ(図示せず)内に保存されたソフトウェア及び/又はファームウェアを有するように構成された1つ又は複数のプロセッサを、意味してもよいことを理解するであろう。これらのプロセッサのうちの1つ又は複数、並びに、その他のハードウェアは、単一の特定用途向け集積回路(ASIC:Application-Specific Integrated Circuit)又はいくつかのプロセッサ内に含まれてよく、且つ、個別にパッケージ化されるか又はシステムオンチップ(SoC)内に組み立てられるかを問わず、様々なデジタルハードウェアをいくつかの別個のコンポーネントの間において分散させてもよい。
次に、図22に示されている概略ブロックダイアグラムを参照し、本明細書の実施形態について更に説明することとする。画像検知回路と少なくとも部分的に画像検知回路に向って又はこれから離れるように相対移動する物体との間の衝突時間の演算を可能にするために、図3との関連において上述した動作を実行するべく、図22に概略的に示されている装置2200が提供されてもよい。装置2200は、上述の装置2100に対応してもよいが、シーケンスの画像フレームを検知するように構成された画像検知回路を更に有する。過剰な細部によって曖昧にすることのないように、図22においては、第1演算回路2111、演算要素2111−1〜2111−K、第2演算回路2112、第3演算回路2113、第4演算回路2114、第5演算回路2115が唯一の演算回路2210として示されている。
次に、図23に示されている概略ブロックダイアグラムを参照し、本明細書の実施形態について更に説明することとする。画像検知回路と少なくとも部分的に画像検知回路に向って又はこれから離れるように相対移動する物体との間の衝突時間TIの演算を可能にするために、図3との関連において上述した動作を実行するべく、図23に概略的に示されている装置2300が提供されてもよい。装置2300は、上述の装置2200に対応してもよい。更には、ここでは、2340である画像検知回路は、検知要素2341−1〜2341−K1を有しており、これらの検知要素のそれぞれは、ピクセル位置ipと関連付けられており、且つ、光を捕捉するように構成されている。それぞれの検知要素は、捕捉された光に応答して、ピクセルに対応した局所的画像データを提供するように更に構成されている。又、例えば、その一部分が第1演算回路2111及び/又は第2演算回路2112に対応している演算回路2310は、演算要素2311−1〜2311−K2を有する。それぞれの演算要素は、1つの検知要素又は検知要素のグループと関連付けられており、且つ、これにより、1つ又は複数のピクセル位置にも対応している。複数の画像位置iのうちの1つに対応する1つ又は複数のピクセル位置と関連付けられた演算要素は、1つ又は複数の関連付けられた検知要素から局所的な画像データに基づいて個々の持続時間値f(i)を演算するように構成されている。検知要素の数K1は、演算要素の数K2に対応してもよいが、それぞれの演算要素が複数の検知要素からの画像を処理するように、演算要素よりも大きな数の検知要素を有することもできる。
画像検知回路2340と、少なくともその一部分が演算要素を有する演算回路2310と、は、NSIP回路2310に対応しており、NSIP回路は、例えば、更に詳細な実施形態との関連において上述したアーキテクチャであってもよく、或いは、別のNSIP又はFPAアーキテクチャであってもよい。この場合に、ここでは2320である受取りポートは、検知要素がその上部において画像データを演算要素に対して供給する個々の物理的なインターフェイスに対応してもよい。
衝突時間からのスロープ
物体の表面のスロープ角βを演算するための本明細書の実施形態の第2のタイプであって、物体は、少なくとも部分的に、前記物体を撮像する画像検知回路に向って又はこれから離れるように相対移動しており、且つ、前記表面は、前記画像検知回路と対向している、第2のタイプについて、図24に示されているフローチャートを参照して説明することとする。
動作2401
この動作においては、画像検知回路によって検知された画像フレームを使用することにより、画像検知回路と物体との間の第1衝突時間T1及び第2衝突時間T2が演算されている。第1衝突時間は、前記画像検知回路の分割された視野の第1視野Aに基づいて演算され、且つ、第2衝突時間は、分割された視野の第2視野Bに基づいて演算される。
動作2402
この動作においては、スロープ角が、演算された第1衝突時間、第2衝突時間、及び視野と関連する開放角(2*α)に基づいて演算されている。演算されたスロープ角βは、次式に対応してもよく、
Figure 2015510171
ここで、βは、スロープ角であり、T1は、第1衝突時間であり、T2は、第2衝突時間であり、且つ、αは、開放角の半分である。第1衝突時間T1及び第2衝突時間T2の演算は、並行して実行されてもよい。第1衝突時間T1及び第2衝突時間T2の演算は、少なくとも部分的に、図3との関連において上述した本明細書の実施形態に従って、実行されてもよい。
次に、図8を再度参照されたい。図24との関連において上述した本明細書の実施形態の第2のタイプ及び関係する動作は、動作を実行するソフトウェアを有するコンピュータの内部メモリに読み込み可能であるコンピュータプログラム製品によって実装されてもよい。例えば、コンピュータプログラム製品は、ハードドライブ又はその他のストレージ手段173上に保存された実行可能ファイル173であってもよく、且つ、これらのストレージ手段から、インターネットなどのネットワークを介して取得可能であってもよく、且つ、コンピュータ176にダウンロードされてもよく、コンピュータは、実行用のコンピュータであってもよく、或いは、ストレージ用の中間コンピュータであってもよい。又、コンピュータプログラム製品は、いくつかの更なる例を挙げれば、メモリスティック171内に、或いは、CDやDVDなどのディスク172内に、保存されてもよい。又、メモリスティック171及びディスク172は、コンピュータ可読媒体の例でもあり、コンピュータ可読媒体は、その上部に記録されたプログラムを有し、この場合に、プログラムは、コンピュータに図24との関連において上述した動作を実行させるように構成されている。
図24との関連において上述した動作について更に十分に理解するために、図25を参照し、更に詳細に説明することとする。
衝突時間を使用する際に、本発明者らは、物体までの絶対距離H0を取得することなく、且つ、速度の絶対値v0も取得しない。本発明者らが取得するものは、以下の比率である。
=H/v (27)
上述のように、これは、カメラが、物体に近接しており、且つ、低速で移動しているのか、或いは、カメラが、遠く離れた状態で、物体に向って高速で移動しているのか、を本発明者らが弁別できないことを意味している。但し、物体が面であるものと仮定することにより、物体が、接近するカメラとの関係において、どれだけ傾斜しているのかを算出することができる。本発明者らは、視野を、図25にA及びBとして示されている2つの部分に分割する。本発明者らは、2つの部分のTTIであるT1及びT2を連続的に計測する。以下のことが判明し、
=v・T・tan(α’) (28)
及び
=v・T・tan(α’) (29)
ここで、αは、視野のそれぞれの部分の開放角であり、α’は、次式に規定されているように、センサの半分に対応した角度である。
Figure 2015510171
小さなαの場合には、これは、次式に対応している。
Figure 2015510171
物体のスロープβは、ここで、次式のように表現することができる。
(D+D)・tan(β)=v・(T−T) (32)
そして、これは、次式のように単純化することができる。
Figure 2015510171
これは、スロープのタンジェントが、2つの視野及び開放角αからのT1及びT2という2つのTTI値のみに依存していることを意味している。
次に、図26に示されている概略ブロックダイアグラムを参照し、本明細書の実施形態についてさらに説明することとする。少なくとも部分的に、物体を撮像する画像検知回路に向って又はこれから離れるように相対的に移動する前記物体の表面のスロープ角を演算するために、図24との関連において上述した動作を実行するべく、図26に概略的に示されている装置2600が提供されてもよい。装置は、画像検知回路によって検知された画像フレームを使用することにより、画像検知回路と物体との間の第1衝突時間T1及び第2衝突時間T2を演算するように構成された第1演算回路2611を有しており、第1衝突時間は、前記画像検知回路の分割された視野の第1視野Aに基づいて演算され、且つ、第2衝突時間T2は、分割された視野の第2視野に基づいて演算される。装置は、演算された第1衝突時間T1、第2衝突時間T2、及び視野と関連付けられた個々の開放角2*αに基づいてスロープ角を演算するように構成された第2演算回路2612を更に有する。演算は、上述のように実行されてもよい。
第1及び第2演算回路は、1つの共通的な演算回路2610に含まれてもよい。
参考として、且つ、理解度を向上させるために、図26には、画像検知回路及び物体が画像検知回路2640及び物体2650として示されている。画像検知回路2640は、装置2600の外部において示されているが、いくつかの実施形態においては、これは、この代わりに、装置2600内に含まれてもよい。例えば、第1演算回路2611は、第1演算回路内において内部的に個々の衝突時間を提供するように構成された上述の装置2200又は2300を有する。又、衝突時間値の提供用の検知された画像フレームに基づく任意のその他の種類の衝突時間提供装置を使用することもできる。
装置2600は、受取りポート2620を有してもよい。受取りポートは、前記画像検知回路によって検知された画像フレームと関連付けられた画像データを受け取るように構成されてもよく、且つ、これらの画像フレームは、前記物体を撮像している。これは、画像検知回路2640が装置2600の外部に位置している場合に該当しよう。このような状況においては、第1演算回路は、更に、衝突時間の提供のために、図21との関連において上述した第1、第2、第3、及び第5演算回路2111、2112、2113、及び2115(並びに、更に、第4演算回路2114)を有してもよい。
従って、装置2600は、第1衝突時間T1及び/又は第2衝突時間T2を提供するように構成された上述の装置2100、2300又は2200を、或いは、これらの回路を、有してもよい。但し、検知された画像フレームから衝突時間を提供するその他の手段を使用してもよいことに留意されたい。
ロボットが視覚によってスロープ角を識別することを可能にするべく、装置2600を有するロボットを提供してもよい。
衝突時間からのステレオ
次に、図27に示されているフローチャートを参照し、少なくとも部分的に、物体を撮像する第1及び第2画像検知回路のペアに向って又はこれから離れるように相対移動する前記物体に対する絶対速度v0及び/又は絶対距離H0を演算するための本明細書の実施形態の第3のタイプについて説明することとする。
動作2701
任意選択の動作であるこの動作においては、
動作2702
この動作においては、
動作2703
この動作においては、
動作2704
この動作においては、
次に図8を再度参照されたい。図27及び関係する動作との関連において上述した本明細書の実施形態の第2のタイプは、動作を実行するためのソフトウェアを有するコンピュータの内部メモリに読み込み可能であるコンピュータプログラム製品によって実装されてもよい。例えば、コンピュータプログラム製品は、ハードドライブ又はその他のストレージ手段173上に保存された実行可能ファイル173であってもよく、且つ、このストレージ手段から、インターネットなどのネットワークを介して取得可能であってもよく、且つ、コンピュータ176にダウンロードされてもよく、コンピュータは、実行用のコンピュータであってもよく、或いは、ストレージ用の中間コンピュータであってもよい。又、コンピュータプログラム製品は、いくつかの更なる例を挙げれば、メモリスティック171内に、或いは、CD又はDVDなどのディスク172内に、保存されてもよい。又、メモリスティック171及びディスク172は、コンピュータ可読媒体の例であり、コンピュータ可読媒体は、その上部に記録されたプログラムを有し、この場合に、プログラムは、コンピュータに図27との関連において上述した動作を実行させるように構成されている。
図27との関連において上述した動作を更に十分に理解するために、図28及び図29を参照し、更に詳細に説明することとする。
2つのカメラがステレオペアとして機能している際に、深さ情報を実現することができる。これは、特徴点を一方のカメラから他方のものへ相関させることに基づいている。このような動作は、演算需要とデータ転送の両方の観点において複雑である。ここでは、図9に示されているように、本発明者らが、特定の距離Dにおいて、C1及びC2という2つのTTIカメラを使用しているものと仮定しよう。βが非ゼロである場合に、本発明者らは、次式を得る。
Figure 2015510171
ここで、v0は、絶対速度であり、T1及びT2は、図8と同一の設定を使用することによるC1内の2つの視野のTTIであり、且つ、T3は、第2カメラC2のTTIである。
ここで、本発明者らは、次式のように絶対速度を表現することができる。
Figure 2015510171
そして、tan(β)の値を挿入することにより、本発明者らは、次式を得る。
Figure 2015510171
絶対距離は、次式のとおりである。
Figure 2015510171
これは、次式に簡素化することができる。
Figure 2015510171
これらの式は、βの非ゼロの値の場合に有効である。T1=T2である場合には、本発明者らは、深さ情報を取得することができない。
興味深い特徴は、本発明者らが、2つのセンサからの画像を相関させることなしに、深さ情報を取得できるという点にある。本発明者らがTTI値を取得する自律的システムが付与された場合に、本発明者らは、左又は右にわずかに回転することによって非ゼロの角度βを得ることができる。図29は、本発明者らが方向AからBに回転して非ゼロの角度βを取得している例を示している。
次に、図30に示されている概略ブロックダイアグラムを参照し、本明細書の実施形態について更に説明することとする。少なくとも部分的に、物体を撮像する第1及び第2画像検知回路のペアに向かって又はこれから離れるように相対移動する前記物体に対する絶対速度v0及び/又は絶対距離H0を演算するために、図27との関連において上述した動作を実行するべく、図30に概略的に示されている装置3000が提供されてもよい。
衝突時間からの形状
次に、図31に示されているフローチャートを参照し、少なくとも部分的に、物体を撮像する画像検知回路に向かって又はこれから離れるように相対移動する前記物体の形状を判定するための第4のタイプの本明細書の実施形態について説明することとする。
動作3101
この動作においては、
動作3102
この動作においては、
動作3103
この動作においては、
動作3104
この動作においては、
次に図8を再度参照されたい。図31及び関係する動作との関連において上述した本明細書の実施形態の第4のタイプは、動作を実行するソフトウェアを有するコンピュータの内部メモリに読み込み可能であるコンピュータプログラム製品によって実装されてもよい。例えば、コンピュータプログラム製品は、ハードドライブ又はその他のストレージ手段173上に保存された実行可能ファイル173であってもよく、且つ、このストレージ手段から、インターネットなどのネットワークから取得可能であってもよく、且つ、コンピュータ176にダウンロードされてもよく、コンピュータは、実行用のコンピュータであってもよく、或いは、ストレージ用の中間コンピュータであってもよい。又、コンピュータプログラム製品は、いくつかの更なる例を挙げれば、メモリスティック171内に、或いは、CDやDVDなどのディスク172内に、保存されてもよい。又、メモリスティック171及びディスク172は、コンピュータ可読媒体の例であり、コンピュータ可読媒体は、その上部に記録されたプログラムを有し、この場合に、プログラムは、コンピュータに図31との関連において上述した動作を実行させるように構成されている。
図31との関連において上述した動作について更に十分に理解するために、図32〜図34を参照し、更に詳細に説明することとする。
Xからの形状は、画像処理における一般的な課題である。一例は、シェーディングからの形状であり、この場合には、表面は、均一な反射を有するものと仮定されており、且つ、強度の変動を使用して深さ情報を得ることができる。
図32は、時間に伴う4つの異なる形状(上部行)及びそれらの対応するTTI信号を示している。これらの場合には、簡潔性を目的として、本発明者らは、センサの半分のみを使用している。上部行の破線は、基準距離、即ち、衝突点までの距離を表している。下部行の破線は、本発明者らが衝突点と同一の距離に平坦な表面を有する場合のTTI信号を表している。下部部分の実線は、上部表面からのTTI信号を表している。
図33は、特定時点における表面を示している。点Cは、本発明者らがT1においてTTIを算出する際に本発明者らが観察しうる最も右側の点である。点Bは、次のTTI演算であるT2における最も右側の点である。点Aは、画像の中心である。ΔT21は、T1とT2との間の差であるセグメントのTTIである。角度αmは、レンズの開口である。
ここで、本発明者らは、T2、角度、消失セグメント、及び(2)からの2つのサンプルの間の時間Tdの観点において、次のようにT1を表現することができる。
Figure 2015510171
2つのTTIの間の差は、次式のように表現することができる。
Figure 2015510171
従って、2つのTTI値の間の差は、サンプリング時間に、差分セグメントのTTIと第2TTI値の間の差を加えたものである。この差は、TTI値T2がT1に対応した位置において占めている視野に対応する係数により、重み付けされる。本発明者らが垂直面に向かって進んでいる場合には、ΔT21及びT2は等しく、差Iであり、当然のことながら、これは、Tdである。
TTIの2次導関数を示す図34は、図32と同一のTTI関数と、(20)におけるその対応する微分と、を示している。
本発明者らは、本発明者らが既知の値Tdを差から減算した際に、(20)における微分からの出力を調査することができる。
Figure 2015510171
この差が、負である場合には、本発明者らは、図34のケースA又はBを得ることになり、さもなければ、本発明者らは、ケースC又はDを得る。本発明者らが、式(21)の傾向を調査する場合には、即ち、2次導関数を実行する際には、本発明者らは、AとBの間及びCとDの間を弁別することができる。
本発明者らは、以上において、センサ近接画像処理(NSIP:Near-Sensor Image Processing)の概念における衝突までの時間を使用したロボット視覚用のいくつかの新しいアルゴリズムを提示した。第1に、本発明者らは、本発明者らが物体に対する絶対速度又は距離を知っていない場合にも、カメラが接近している物体の垂直面に対する角度を演算できることを示した。この場合に、本発明者らは、視野を右視野と左視野に分割するための方法を使用した。2つの側のTTI値の差は、スロープを演算するために十分なものである。次に、本発明者らは、2つのカメラ設定を使用することにより、絶対距離及び絶対速度を取得可能であることを示した。ステレオカメラシステムが絶対距離を演算できるということは、既知の事実である。このアルゴリズムの興味深い部分は、2つのカメラの間における任意のピクセル又は物体の相関を必要としていないという点にある。この演算が実行可能となるために、本発明者らは、物体が垂直面に対して非ゼロの角度を有することを必要としている。例えば、自律型ロボット視覚の用途においては、深さを得るべく、カメラをわずかに左又は右に回転させることができる。
「含む(comprise)」又は「含んでいる(comprising)」という用語を使用する際には、非限定的なものとして、即ち、「少なくとも〜から構成されている」を意味するものとして、解釈されたい。
本明細書の実施形態は、上述の好適な実施形態に限定されるものではない。様々な代替形態、変更形態、及び均等物が使用されてもよい。従って、上述の実施形態は、添付の特許請求の範囲によって定義されている本発明の範囲を限定するものと解釈してはならない。
概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。 概略図である。
動作2701
任意選択の動作であるこの動作においては、第1及び第2画像検知回路のペアが、非ゼロのスロープ角を実現するように、回転及び/又は傾斜させられてもよい。即ち、それゆえ、第1及び第2画像検知回路のペアに対して非ゼロのスロープ角を有する面で、物体は第1及び第2画像検知回路のペアに面している。これは、少なくとも第1及び第2画像検知回路のペアに対してゼロのスロープ角を有する面で、物体が第1及び第2画像検知回路のペアに面している場合になされてもよい。
動作2702
この動作においては、第1画像検知回路と物体の間の第1衝突時間T1と第2衝突時間T2が、第1画像検知回路によって検知された画像フレームを用いて、演算される。第1衝突時間T1は、前記第1画像検知回路の分割された視野の第1視野Aに基づいて演算される。第2衝突時間T2は、分割された視野の第2視野Bに基づいて演算される。
動作2703
この動作においては、第2画像検知回路と前記物体の間の第3衝突時間T3は、第2画像検知回路によって検知された画像フレームを用いて、演算される。
動作2704
この動作においては、前記絶対速度v0及び/又は絶対距離H0は、第1衝突時間T1、第2衝突時間T2、第3衝突時間T3、第1及び第2画像検知回路を隔てている距離D、及び前記視野と関連付けられた開放角2*αに基づいて演算される。
本発明者らは、以上において、センサ近接画像処理(NSIP:Near-Sensor Image Processing)の概念における衝突までの時間を使用したロボット視覚用のいくつかの新しいアルゴリズムを提示した。第1に、本発明者らは、本発明者らが物体に対する絶対速度又は距離を知っていない場合にも、カメラが接近している物体の垂直面に対する角度を演算できることを示した。この場合に、本発明者らは、視野を右視野と左視野に分割するための方法を使用した。2つの側のTTI値の差は、スロープを演算するために十分なものである。次に、本発明者らは、2つのカメラ設定を使用することにより、絶対距離及び絶対速度を取得可能であることを示した。ステレオカメラシステムが絶対距離を演算できるということは、既知の事実である。このアルゴリズムの興味深い部分は、2つのカメラの間における任意のピクセル又は物体の相関を必要としていないという点にある。この演算が実行可能となるために、本発明者らは、物体が垂直面に対して非ゼロの角度を有することを必要としている。例えば、自律型ロボット視覚の用途においては、深さを得るべく、カメラをわずかに左又は右に回転させることができる。
「含む(comprise)」又は「含んでいる(comprising)」という用語を使用する際には、非限定的なものとして、即ち、「少なくとも〜から構成されている」を意味するものとして、解釈されたい。
本明細書の実施形態は、上述の好適な実施形態に限定されるものではない。様々な代替形態、変更形態、及び均等物が使用されてもよい。従って、上述の実施形態は、添付の特許請求の範囲によって定義されている本発明の範囲を限定するものと解釈してはならない。
なお本明細書から、特許請求の範囲に記載された発明のほか、以下の発明群の概念を導き出すことができる。
方法としての第2発明
少なくとも部分的に、物体を撮像する画像検知回路2640に向かって又はこの画像検知回路2640から離れるように相対移動する物体2650の表面であって、前記画像検知回路と対向している表面のスロープ角βを演算する方法であって、
− 前記画像検知回路によって検知された画像フレームを使用することにより、前記画像検知回路と前記物体との間の第1衝突時間T1及び第2衝突時間T2を演算するステップ2401であって、前記第1衝突時間は、前記画像検知回路の分割された視野の第1視野Aに基づいて演算され、且つ、前記第2衝突時間は、前記分割された視野の第2視野Bに基づいて演算される、ステップ2401と、
− 前記演算された第1衝突時間、前記第2衝突時間、及び前記視野と関連付けられた開放角2*αに基づいて前記スロープ角を演算するステップ2402と、
を有する方法。
この第2発明の好適な態様は以下の通りである。
(1)前記演算されたスロープ角βは、
Figure 2015510171
に対応し、βは前記スロープ角であり、T1は前記第1衝突時間であり、T2は前記第2衝突時間であり、且つ、αは前記開放角の半分である、第2発明としての方法。
(2)前記第1衝突時間T1及び前記第2衝突時間T2の前記演算は、並行して実行される、第2発明としての方法。
(3)前記第1衝突時間T1及び前記第2衝突時間T2の前記演算は、請求項1〜10のいずれか一項に記載の方法に従って実行される、第2発明としての方法。
また、この方法に関係する発明群には次のようなものがある。
第2発明としての方法を実行するソフトウェアを有するコンピュータの内部メモリに読み込み可能なコンピュータプログラム。
プログラムが記録されたコンピュータ可読媒体であって、前記プログラムは、前記プログラムが前記コンピュータに読み込まれた際に前記コンピュータに、第2発明としての方法を実行させるように構成されている、コンピュータ可読媒体。
第2発明としての方法を実行するように構成されたコンピュータ。
装置としての第2発明
少なくとも部分的に、物体を撮像する画像検知回路に向かって又はこの画像検知回路から離れるように相対移動する前記物体の表面であって、前記画像検知回路と対向している表面のスロープ角を演算する装置2600であって、
前記画像検知回路によって検知された画像フレームを使用することにより、前記画像検知回路と前記物体との間の第1衝突時間T1及び第2衝突時間T2を演算するように構成された第1演算回路2611であって、前記第1衝突時間は、前記画像検知回路の分割された視野の第1視野に基づいて演算され、且つ、前記第2衝突時間は、前記分割された視野の第2視野に基づいて演算される、第1演算回路2611と、
前記演算された第1衝突時間T1、前記第2衝突時間T2、及び前記視野と関連付けられた個々の開放角2*αに基づいて前記スロープ角を演算するように構成された第2演算回路2612と、
を有する装置。
この装置に関する好適な態様は以下の通りである。
(1)前記第1衝突時間T1及び前記第2衝突時間T2の前記演算に関与するように構成された請求項14〜25のいずれか一項に記載の装置を有する、第2発明としての装置。
(2)第2発明としての装置を有するロボット。
方法としての第3発明
少なくとも部分的に、物体を撮像する第1及び第2画像検知回路3041、3042のペア3040に向かって又はこのペア3040から離れるように相対移動する前記物体3050に対する絶対距離v0及び/又は絶対距離H0を演算する方法であって、
− 前記第1画像検知回路によって検知された画像フレームを使用することにより、前記第1画像検知回路と前記物体との間の第1衝突時間T1及び第2衝突時間T2を演算するステップ2702であって、前記第1衝突時間は、前記第1画像検知回路の分割された視野の第1視野Aに基づいて演算され、且つ、前記第2衝突時間は、前記分割された視野の第2視野に基づいて演算される、ステップと、
− 前記第2画像検知回路によって検知された画像フレームを使用することにより、前記第2画像検知回路と前記物体との間の第3衝突時間を演算するステップ2703と、
− 前記第1衝突時間T1、前記第2衝突時間T2、前記第3衝突時間T3、前記第1及び第2画像検知回路を隔てている距離D、及び前記視野と関連付けられた開放角2*αに基づいて前記絶対速度v0及び/又は前記絶対距離H0を演算するステップ2704と、
を有する方法。
この第3発明の好適な態様は以下の通りである。
(1)前記第1衝突時間T1及び前記第2衝突時間T2及び/又は前記第3衝突時間T3の前記演算は、並行して実行される、第3発明としての方法。
(2)前記演算された絶対速度は、
Figure 2015510171
に対応し、v0は前記絶対速度であり、Dは前記第1及び第2画像検知回路を隔てている距離であり、αは前記開放角の半分であり、T1は前記第1衝突時間であり、T2は前記第2衝突時間であり、且つ、T3は前記第3衝突時間である、第3発明としての方法。
(3)前記演算された絶対距離は、
Figure 2015510171
に対応し、H0は前記絶対距離であり、Dは前記第1及び第2画像検知回路を隔てている距離であり、αは前記開放角の半分であり、T1は前記第1衝突時間であり、T2は前記第2衝突時間であり、且つ、T3は前記第3衝突時間である、第3発明としての方法。
(4)前記第1衝突時間T1及び前記第2衝突時間T2及び/又は前記第3衝突時間T3の前記演算は、請求項1〜10のいずれか一項に記載の方法に従って実行される、第3発明としての方法。
(5)少なくとも、前記画像検知回路のペアとの関係においてゼロのスロープ角を有する表面によって前記物体が前記画像検知回路のペアと対向している際に、前記画像検知回路のペアとの関係において前記表面の非ゼロのスロープ角が結果的に得られるように、前記画像検知回路のペアを回転及び/又は傾斜させるステップ2701を更に有する、第3発明としての方法。
また、この方法に関係する発明群には次のようなものがある。
第3発明としての方法を実行するソフトウェアを有するコンピュータの内部メモリに読み込み可能であるコンピュータプログラム。
プログラムが記録されたコンピュータ可読媒体であって、前記プログラムは、前記プログラムが前記コンピュータに読み込まれた際に前記コンピュータに第3発明としての方法を実行させるように構成されている、コンピュータ可読媒体。
第3発明としての方法を実行するように構成されたコンピュータ。
装置としての第3発明
少なくとも部分的に、物体を撮像する第1及び第2画像検知回路3041、3042のペア3040に向かって又はこのペア3040から離れるように相対移動する前記物体に対する絶対速度v0及び/又は絶対距離H0を演算する装置3000であって、
前記第1画像検知回路によって検知された画像フレームを使用することにより、前記第1画像検知回路と前記物体との間の第1衝突時間T1及び第2衝突時間T2を演算するように構成された第1演算回路3011であって、前記第1衝突時間は、前記第1検知回路の分割された視野の第1視野に基づいて演算され、且つ、前記第2衝突時間は、前記分割された視野の第2視野に基づいて演算される、第1演算回路3011と、
前記第2画像検知回路によって検知された画像フレームを使用することにより、前記第2画像検知回路と前記物体との間の第3衝突時間を演算するように構成された第2演算回路3012と、
前記第1衝突時間T1、前記第2衝突時間T2、前記第3衝突時間T3、前記第1及び第2画像検知回路を隔てている距離D、及び前記視野と関連付けられた開放角2*αに基づいて前記絶対速度v0及び/又は前記絶対距離H0を演算するように構成された第3演算回路3013と、
を有する装置。
この装置に関する好適な態様は以下の通りである。
(1)少なくとも前記画像検知回路のペアとの関係においてゼロのスロープ角を有する表面によって前記物体が前記画像検知回路のペアと対向している際に、前記画像検知回路のペアとの関係において前記表面の非ゼロのスロープ角が結果的に得られるように構成された回転及び/又は傾斜制御回路3014を更に有する、第3発明としての装置。
(2)前記第1衝突時間T1及び前記第2衝突時間T2の前記演算及び/又は前記第3衝突時間T3の前記演算に関与するように構成された請求項14〜25のいずれか一項に記載の1つ又は複数の装置を有する、第3発明としての装置。
また、この装置に関係する発明群には次のようなものがある。
第3発明としての装置を有するロボット。

Claims (58)

  1. 画像検知回路(2140)と少なくとも部分的に前記画像検知回路に向かって又は前記画像検知回路から離れるように相対移動する物体(2150)との間の衝突時間を演算することを可能にする方法であって、
    − 前記画像検知回路によって検知された画像フレームであって前記物体を撮像している画像フレームのシーケンス(1..N)の個々の画像フレームと関連付けられた画像データを受け取るステップ(301)と、
    − 複数の画像位置のそれぞれの画像位置(i)ごとに、前記画像フレームのシーケンス(1..N)内の連続的に発生する局所的極値点の最大持続時間を示す個々の持続時間値(f(i))を演算するステップ(302)と、
    を有する方法。
  2. 前記持続時間値は、前記シーケンス内の連続的に発生する局所的極値点の最大数である請求項1に記載の方法。
  3. − 前記持続時間値(f(i))の合計(Σf(i))を演算するステップ(303)を更に有する請求項1又は2に記載の方法。
  4. − スケールファクタ(c)によって乗算された前記合計の逆数(1/Σf(i))に基づいてスロープ値(k)を演算するステップ(304)であって、ここで前記スロープ値(k)が、
    Figure 2015510171
    に対応し、cは前記スケールファクタであり、且つ、Σf(i)は前記持続時間値(f(i))の前記合計である、演算ステップ、又は、
    − iに応じて前記f(i)値のラインをフィッティングすることにより、このラインのスロープに対応するスロープ値(k)を演算するステップ、
    を更に有する請求項3に記載の方法。
  5. 前記スケールファクタ(c)は、
    Figure 2015510171
    に対応し、iは前記複数の画像位置の個々の画像位置である請求項4に記載の方法。
  6. − 前記複数の画像位置の中心画像位置(icentre)との関係において前記演算された最大持続時間値(f(i))のうちの最大持続時間値の画像位置(imax)のオフセットを示すオフセット値(δ)を演算するステップ(305)を更に有し、
    ここで、前記スケールファクタ(c)は、
    Figure 2015510171
    に対応し、iは前記複数の画像位置の個々の画像位置であり、且つ、δは前記オフセット値である請求項4に記載の方法。
  7. − 前記演算されたスロープ値(k)を使用することによって前記衝突時間を演算するステップ(306)を更に有し、
    ここで、前記衝突時間(T)は、
    Figure 2015510171
    に対応し、kは前記演算されたスロープ値であり、Tは前記画像フレームのサンプル周期である請求項4〜6のいずれか一項に記載の方法。
  8. 前記複数の画像位置は、すべてのピクセル位置のサブセットに対応している請求項1〜7のいずれか一項に記載の方法。
  9. 前記複数の画像位置は、すべてのピクセル位置の間において、又は、少なくとも対象のエリア内のすべてのピクセル位置の間において、均一に分散されている請求項1〜8のいずれか一項に記載の方法。
  10. 前記複数の画像位置のそれぞれの画像位置は、個々のピクセル位置と関連付けられている請求項1〜9のいずれか一項に記載の方法。
  11. 請求項1〜10のいずれか一項に記載の方法を実行するソフトウェアを有するコンピュータ(176)の内部メモリに読み込み可能であるコンピュータプログラム製品(173)。
  12. プログラムが記録されたコンピュータ可読媒体(171、172)であって、
    前記プログラムは、前記プログラムが前記コンピュータに読み込まれた際に請求項1〜10のいずれか一項に記載の方法を前記コンピュータに実行させるように構成されているコンピュータ可読媒体。
  13. 請求項1〜10のいずれか一項に記載の方法を実行するように構成されたコンピュータ(176)。
  14. 画像検知回路(2140)と少なくとも部分的に前記画像検知回路に向かって又は前記画像検知回路から離れるように相対移動する物体(2150)との間の衝突時間を演算することを可能にする装置(21)であって、
    前記画像検知回路によって検知された画像フレームであって前記物体を撮像している画像フレームのシーケンス(1..N)の個々の画像フレームと関連付けられたデータを撮像するように構成された受取りポート(2120)と、
    複数の画像位置のそれぞれの画像位置(i)ごとに、前記画像フレームのシーケンス(1..N)内にて連続的に発生する局所的極値点の最大持続時間を示す個々の最大持続時間値(f(i))を演算するように構成された第1演算回路(2111)と、
    を有する装置(21)。
  15. 前記持続時間値は、前記シーケンス内の連続的に発生する局所的極値点の最大数である請求項14に記載の装置。
  16. 前記持続時間値(f(i))の合計(Σf(i))を演算するように構成された第2演算回路(2112)を更に有する請求項14又は15に記載の装置。
  17. スケールファクタ(c)によって乗算された前記合計の逆数(1/Σf(i))に基づいてスロープ値(k)を演算するように構成された第3演算回路(2113)を更に有し、
    ここで、前記スロープ(k)は、
    Figure 2015510171
    に対応し、cは前記スケールファクタであり、且つ、Σf(i)は前記持続時間値(f(i))の前記合計である請求項16に記載の装置。
  18. 前記スケールファクタ(c)は、
    Figure 2015510171
    に対応し、iは前記複数の画像位置の個々の画像位置である請求項17に記載の装置。
  19. 前記複数の画像位置の中心画像位置(icentre)との関係において前記演算された最大持続時間値(f(i))のうちの最大持続時間値の画像位置(imax)のオフセットを示すオフセット値(δ)を演算するように構成された第4演算回路(2114)を更に有し、
    ここで、前記スケールファクタ(c)は、
    Figure 2015510171
    に対応し、iは前記複数の画像位置の個々の画像位置であり、且つ、δは前記オフセット値である請求項17に記載の装置。
  20. 前記演算されたスロープ値(k)を使用することによって前記衝突時間を演算するように構成された第5演算回路(2115)を更に有し、
    ここで、前記衝突時間(T)は、
    Figure 2015510171
    に対応し、kは演算されたスロープ値であり、且つ、Tは前記画像フレームのサンプル周期である請求項17〜19のいずれか一項に記載の装置。
  21. 前記複数の画像位置は、すべてのピクセル位置のサブセットに対応している請求項17〜20のいずれか一項に記載の装置。
  22. 前記複数の画像位置は、すべてのピクセル位置の間において、又は、少なくとも対象エリア内のすべてのピクセル位置の間において、均一に分散されている請求項14〜21のいずれか一項に記載の装置。
  23. 前記複数の画像位置のそれぞれの画像位置は、個々のピクセル位置と関連付けられている請求項14〜22のいずれか一項に記載の装置。
  24. 前記シーケンスの前記画像フレームを検知するように構成された前記画像検知回路(2140)を更に有する請求項14〜23のいずれか一項に記載の装置。
  25. 前記画像検知回路(2140)は、検知要素(2341−1〜2341−K1)を有し、これら検知要素のそれぞれは、ピクセル位置と関連付けられ、且つ、光を捕捉するように構成されており、それぞれの検知要素は、捕捉された光に応答して、ピクセルに対応した局所的画像データを提供するように更に構成されており、前記第1演算回路(2111)は、演算要素(2111−1〜2111−K)を有し、それぞれの演算要素は、1つの検知要素又は検知要素のグループと関連付けられ、且つ、これにより、1つ又は複数のピクセル位置にも対応しており、前記複数の画像位置の1つに対応する1つ又は複数のピクセル位置と関連付けられた演算要素は、前記関連付けられた1つ又は複数の検知要素からの局所的画像データに基づいて前記個々の持続時間値(f(i))を演算するように構成されている請求項24に記載の装置。
  26. 少なくとも部分的に、物体を撮像する画像検知回路(2640)に向かって又はこの画像検知回路(2640)から離れるように相対移動する物体(2650)の表面であって、前記画像検知回路と対向している表面のスロープ角(β)を演算する方法であって、
    − 前記画像検知回路によって検知された画像フレームを使用することにより、前記画像検知回路と前記物体との間の第1衝突時間(T1)及び第2衝突時間(T2)を演算するステップ(2401)であって、前記第1衝突時間は、前記画像検知回路の分割された視野の第1視野(A)に基づいて演算され、且つ、前記第2衝突時間は、前記分割された視野の第2視野(B)に基づいて演算される、ステップ(2401)と、
    − 前記演算された第1衝突時間、前記第2衝突時間、及び前記視野と関連付けられた開放角(2*α)に基づいて前記スロープ角を演算するステップ(2402)と、
    を有する方法。
  27. 前記演算されたスロープ角(β)は、
    Figure 2015510171
    に対応し、βは前記スロープ角であり、T1は前記第1衝突時間であり、T2は前記第2衝突時間であり、且つ、αは前記開放角の半分である請求項26に記載の方法。
  28. 前記第1衝突時間(T1)及び前記第2衝突時間(T2)の前記演算は、並行して実行される請求項26又は27に記載の方法。
  29. 前記第1衝突時間(T1)及び前記第2衝突時間(T2)の前記演算は、請求項1〜10のいずれか一項に記載の方法に従って実行される請求項26〜28のいずれか一項に記載の方法。
  30. 請求項26〜29のいずれか一項に記載の方法を実行するソフトウェアを有するコンピュータの内部メモリに読み込み可能なコンピュータプログラム製品。
  31. プログラムが記録されたコンピュータ可読媒体であって、
    前記プログラムは、前記プログラムが前記コンピュータに読み込まれた際に前記コンピュータに請求項26〜29のいずれか一項に記載の方法を実行させるように構成されている、コンピュータ可読媒体。
  32. 請求項26〜29のいずれか一項に記載の方法を実行するように構成されたコンピュータ。
  33. 少なくとも部分的に、物体を撮像する画像検知回路に向かって又はこの画像検知回路から離れるように相対移動する前記物体の表面であって、前記画像検知回路と対向している表面のスロープ角を演算する装置(2600)であって、
    前記画像検知回路によって検知された画像フレームを使用することにより、前記画像検知回路と前記物体との間の第1衝突時間(T1)及び第2衝突時間(T2)を演算するように構成された第1演算回路(2611)であって、前記第1衝突時間は、前記画像検知回路の分割された視野の第1視野に基づいて演算され、且つ、前記第2衝突時間は、前記分割された視野の第2視野に基づいて演算される、第1演算回路(2611)と、
    前記演算された第1衝突時間(T1)、前記第2衝突時間(T2)、及び前記視野と関連付けられた個々の開放角(2*α)に基づいて前記スロープ角を演算するように構成された第2演算回路(2612)と、
    を有する装置。
  34. 前記第1衝突時間(T1)及び前記第2衝突時間(T2)の前記演算に関与するように構成された請求項14〜25のいずれか一項に記載の装置を有する請求項33に記載の装置。
  35. 請求項33又は34に記載の装置を有するロボット。
  36. 少なくとも部分的に、物体を撮像する第1及び第2画像検知回路(3041、3042)のペア(3040)に向かって又はこのペア(3040)から離れるように相対移動する前記物体(3050)に対する絶対距離(v0)及び/又は絶対距離(H0)を演算する方法であって、
    − 前記第1画像検知回路によって検知された画像フレームを使用することにより、前記第1画像検知回路と前記物体との間の第1衝突時間(T1)及び第2衝突時間(T2)を演算するステップ(2702)であって、前記第1衝突時間は、前記第1画像検知回路の分割された視野の第1視野(A)に基づいて演算され、且つ、前記第2衝突時間は、前記分割された視野の第2視野に基づいて演算される、ステップと、
    − 前記第2画像検知回路によって検知された画像フレームを使用することにより、前記第2画像検知回路と前記物体との間の第3衝突時間を演算するステップ(2703)と、
    − 前記第1衝突時間(T1)、前記第2衝突時間(T2)、前記第3衝突時間(T3)、前記第1及び第2画像検知回路を隔てている距離(D)、及び前記視野と関連付けられた開放角(2*α)に基づいて前記絶対速度(v0)及び/又は前記絶対距離(H0)を演算するステップ(2704)と、
    を有する方法。
  37. 前記第1衝突時間(T1)及び前記第2衝突時間(T2)及び/又は前記第3衝突時間(T3)の前記演算は、並行して実行される請求項36に記載の方法。
  38. 前記演算された絶対速度は、
    Figure 2015510171
    に対応し、v0は前記絶対速度であり、Dは前記第1及び第2画像検知回路を隔てている距離であり、αは前記開放角の半分であり、T1は前記第1衝突時間であり、T2は前記第2衝突時間であり、且つ、T3は前記第3衝突時間である請求項36又は37に記載の方法。
  39. 前記演算された絶対距離は、
    Figure 2015510171
    に対応し、H0は前記絶対距離であり、Dは前記第1及び第2画像検知回路を隔てている距離であり、αは前記開放角の半分であり、T1は前記第1衝突時間であり、T2は前記第2衝突時間であり、且つ、T3は前記第3衝突時間である請求項36〜38のいずれか一項に記載の方法。
  40. 前記第1衝突時間(T1)及び前記第2衝突時間(T2)及び/又は前記第3衝突時間(T3)の前記演算は、請求項1〜10のいずれか一項に記載の方法に従って実行される請求項36〜39のいずれか一項に記載の方法。
  41. − 少なくとも、前記画像検知回路のペアとの関係においてゼロのスロープ角を有する表面によって前記物体が前記画像検知回路のペアと対向している際に、前記画像検知回路のペアとの関係において前記表面の非ゼロのスロープ角が結果的に得られるように、前記画像検知回路のペアを回転及び/又は傾斜させるステップ(2701)を更に有する請求項36〜40のいずれか一項に記載の方法。
  42. 請求項36〜41のいずれか一項に記載の方法を実行するソフトウェアを有するコンピュータの内部メモリに読み込み可能であるコンピュータプログラム製品。
  43. プログラムが記録されたコンピュータ可読媒体であって、
    前記プログラムは、前記プログラムが前記コンピュータに読み込まれた際に前記コンピュータに請求項36〜41のいずれか一項に記載の方法を実行させるように構成されている、コンピュータ可読媒体。
  44. 請求項36〜41のいずれか一項に記載の方法を実行するように構成されたコンピュータ。
  45. 少なくとも部分的に、物体を撮像する第1及び第2画像検知回路(3041、3042)のペア(3040)に向かって又はこのペア(3040)から離れるように相対移動する前記物体に対する絶対速度(v0)及び/又は絶対距離(H0)を演算する装置(3000)であって、
    前記第1画像検知回路によって検知された画像フレームを使用することにより、前記第1画像検知回路と前記物体との間の第1衝突時間(T1)及び第2衝突時間(T2)を演算するように構成された第1演算回路(3011)であって、前記第1衝突時間は、前記第1検知回路の分割された視野の第1視野に基づいて演算され、且つ、前記第2衝突時間は、前記分割された視野の第2視野に基づいて演算される、第1演算回路(3011)と、
    前記第2画像検知回路によって検知された画像フレームを使用することにより、前記第2画像検知回路と前記物体との間の第3衝突時間を演算するように構成された第2演算回路(3012)と、
    前記第1衝突時間(T1)、前記第2衝突時間(T2)、前記第3衝突時間(T3)、前記第1及び第2画像検知回路を隔てている距離(D)、及び前記視野と関連付けられた開放角(2*α)に基づいて前記絶対速度(v0)及び/又は前記絶対距離(H0)を演算するように構成された第3演算回路(3013)と、
    を有する装置。
  46. 少なくとも前記画像検知回路のペアとの関係においてゼロのスロープ角を有する表面によって前記物体が前記画像検知回路のペアと対向している際に、前記画像検知回路のペアとの関係において前記表面の非ゼロのスロープ角が結果的に得られるように構成された回転及び/又は傾斜制御回路(3014)を更に有する請求項45に記載の装置。
  47. 前記第1衝突時間(T1)及び前記第2衝突時間(T2)の前記演算及び/又は前記第3衝突時間(T3)の前記演算に関与するように構成された請求項14〜25のいずれか一項に記載の1つ又は複数の装置を有する請求項45又は46に記載の装置。
  48. 請求項45〜47のいずれか一項に記載の装置を有するロボット。
  49. 少なくとも部分的に、物体を撮像する画像検知回路に向かって又はこの画像検知回路から離れるように相対移動する前記物体の形状を判定する方法であって、
    − 連続的に検知されたフレームを分離する検知周期(Td)を有する前記画像検知回路によって検知された画像フレームを使用することにより、前記画像検知回路と前記物体との間の第1衝突時間(T1)を演算するステップ(3103)と、
    − 連続的に検知されたフレームを分離する前記検知周期(Td)を有する前記画像検知回路によって検知された画像フレームを使用することにより、前記画像検知回路と前記物体との間の第2衝突時間(T2)を演算するステップ(3102)と、
    − 前記検知周期(Td)に加算された前記衝突時間(T1)と前記第2衝突時間(T2)との間の差を演算するステップ(3104)と、
    − 前記差に基づいて前記物体の前記形状を判定するステップと、
    を有する方法。
  50. 前記形状は、前記差の符号に基づいて判定される請求項49に記載の方法。
  51. 前記形状は、既定の形状のグループから判定される請求項49又は50に記載の方法。
  52. 前記第1衝突時間(T1)及び/又は前記第2衝突時間(T2)の前記演算は、請求項1〜10のいずれか一項に記載の方法に従って実行される請求項49〜51のいずれか一項に記載の方法。
  53. 請求項49〜52のいずれか一項に記載の方法を実行するソフトウェアを有するコンピュータの内部メモリに読み込み可能であるコンピュータプログラム製品。
  54. プログラムが記録されたコンピュータ可読媒体であって、
    前記プログラムは、前記プログラムが前記コンピュータに読み込まれた際に前記コンピュータに請求項49〜52のいずれか一項に記載に方法を実行させるように構成されている、コンピュータ可読媒体。
  55. 請求項49〜52のいずれか一項に記載の方法を実行するように構成されたコンピュータ。
  56. 少なくとも部分的に、物体を撮像する画像検知回路に向かって又はこれから離れるように相対移動する前記物体の形状を判定する装置であって、
    連続的に検知されたフレームを隔てている検知周期(Td)を有する前記画像検知回路によって検知された画像フレームを使用することにより、前記画像検知回路と前記物体との間の第1衝突時間(T1)を演算するように構成された第1演算回路と、
    連続的に検知されたフレームを隔てている前記検知周期(Td)を有する前記画像検知回路によって検知された画像フレームを使用することにより、前記画像検知回路と前記物体との間の第2衝突時間(T2)を演算するように構成された第2演算回路と、
    前記検知周期(Td)に加算された前記衝突時間(T1)と前記第2衝突時間(T2)との間の差を演算するように構成された第3演算回路と、
    前記差に基づいて前記物体の前記形状を判定するように構成された判定回路と
    を有する装置。
  57. 前記第1衝突時間(T1)及び/又は前記第2衝突時間(T2)の前記演算に関与するように構成された請求項14〜25のいずれか一項に記載の装置を有する請求項56に記載の装置。
  58. 請求項56又は57に記載の装置を有するロボット。
JP2014552530A 2012-01-20 2012-01-20 衝突時間を演算することを可能にする方法と装置、並びにコンピュータプログラム、コンピュータ記録媒体、及びコンピュータ Expired - Fee Related JP5872071B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2012/050905 WO2013107525A1 (en) 2012-01-20 2012-01-20 Impact time from image sensing

Publications (2)

Publication Number Publication Date
JP2015510171A true JP2015510171A (ja) 2015-04-02
JP5872071B2 JP5872071B2 (ja) 2016-03-01

Family

ID=45524557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014552530A Expired - Fee Related JP5872071B2 (ja) 2012-01-20 2012-01-20 衝突時間を演算することを可能にする方法と装置、並びにコンピュータプログラム、コンピュータ記録媒体、及びコンピュータ

Country Status (7)

Country Link
US (1) US10078904B2 (ja)
EP (1) EP2805305B1 (ja)
JP (1) JP5872071B2 (ja)
CN (1) CN104054110B (ja)
CA (1) CA2861934C (ja)
DK (1) DK2805305T3 (ja)
WO (1) WO2013107525A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017049147A (ja) * 2015-09-02 2017-03-09 富士重工業株式会社 画像処理装置
JP2020144023A (ja) * 2019-03-07 2020-09-10 株式会社Subaru 路面計測装置、路面計測方法、及び路面計測システム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014186814A1 (de) * 2013-05-21 2014-11-27 Fts Computertechnik Gmbh Verfahren zur integration von berechnungen mit variabler laufzeit in eine zeitgesteuerte architektur
CN110171405B (zh) 2014-05-22 2021-07-13 御眼视觉技术有限公司 基于检测对象制动车辆的系统和方法
EP3296954A1 (en) 2017-01-27 2018-03-21 Sick IVP AB Method and arrangements for identifying a pixel as a local extreme point
EP3296749B1 (en) 2017-01-27 2019-01-23 Sick IVP AB Motion encoder
US10467768B2 (en) * 2017-04-07 2019-11-05 Intel Corporation Optical flow estimation using 4-dimensional cost volume processing
SE2150289A1 (en) * 2021-03-12 2022-09-13 Anders Åström Provision of measure indicative of impact time between image sensor and object

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11353565A (ja) * 1998-06-09 1999-12-24 Yazaki Corp 車両用衝突警報方法及び装置
JP2006092117A (ja) * 2004-09-22 2006-04-06 Nissan Motor Co Ltd 車両用衝突時間推定装置及び車両用衝突時間推定方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL7809028A (nl) * 1977-09-17 1979-03-20 Jones & Healy Marine Ltd Navigatiehulp.
JPS59151973A (ja) * 1983-02-17 1984-08-30 三菱電機株式会社 スウイング測定器
US6711293B1 (en) * 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
US6650774B1 (en) * 1999-10-01 2003-11-18 Microsoft Corporation Locally adapted histogram equalization
EP1426732A1 (en) * 2002-11-29 2004-06-09 Seiko Precision Inc. Angle detection apparatus, projector including the same, and angle detection method
JP4155890B2 (ja) * 2003-07-15 2008-09-24 カシオ計算機株式会社 プロジェクタ、プロジェクタの傾斜角度取得方法及び投影像補正方法
US7262710B2 (en) * 2004-09-22 2007-08-28 Nissan Motor Co., Ltd. Collision time estimation apparatus for vehicles, collision time estimation method for vehicles, collision alarm apparatus for vehicles, and collision alarm method for vehicles
DE102004046101B4 (de) 2004-09-23 2007-01-18 Daimlerchrysler Ag Verfahren, Sicherheitsvorrichtung und Verwendung der Sicherheitsvorrichtung zur Früherkennung von Kraftfahrzeugkollisionen
US8014588B2 (en) * 2005-11-04 2011-09-06 Cognitech, Inc. System and method for three-dimensional estimation based on image data
US8164628B2 (en) * 2006-01-04 2012-04-24 Mobileye Technologies Ltd. Estimating distance to an object using a sequence of images recorded by a monocular camera
US7711147B2 (en) * 2006-07-28 2010-05-04 Honda Motor Co., Ltd. Time-to-contact estimation device and method for estimating time to contact
JP5187878B2 (ja) 2007-01-31 2013-04-24 国立大学法人 東京大学 物体測定システム
TWI334393B (en) * 2008-10-07 2010-12-11 Ind Tech Res Inst Image-based vehicle maneuvering assistant method and system
US8259198B2 (en) * 2009-10-20 2012-09-04 Apple Inc. System and method for detecting and correcting defective pixels in an image sensor
CN201570127U (zh) * 2009-12-16 2010-09-01 烟台麦特电子有限公司 一种基于视觉分析的碰撞预警装置
US8565482B2 (en) * 2011-02-28 2013-10-22 Seiko Epson Corporation Local difference pattern based local background modeling for object detection

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11353565A (ja) * 1998-06-09 1999-12-24 Yazaki Corp 車両用衝突警報方法及び装置
JP2006092117A (ja) * 2004-09-22 2006-04-06 Nissan Motor Co Ltd 車両用衝突時間推定装置及び車両用衝突時間推定方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017049147A (ja) * 2015-09-02 2017-03-09 富士重工業株式会社 画像処理装置
JP2020144023A (ja) * 2019-03-07 2020-09-10 株式会社Subaru 路面計測装置、路面計測方法、及び路面計測システム
JP7256659B2 (ja) 2019-03-07 2023-04-12 株式会社Subaru 路面計測装置、路面計測方法、及び路面計測システム

Also Published As

Publication number Publication date
EP2805305A1 (en) 2014-11-26
US20150035990A1 (en) 2015-02-05
CN104054110B (zh) 2017-03-15
JP5872071B2 (ja) 2016-03-01
CA2861934A1 (en) 2013-07-25
CN104054110A (zh) 2014-09-17
WO2013107525A1 (en) 2013-07-25
DK2805305T3 (en) 2017-05-15
US10078904B2 (en) 2018-09-18
CA2861934C (en) 2019-07-30
EP2805305B1 (en) 2017-04-05

Similar Documents

Publication Publication Date Title
JP5872071B2 (ja) 衝突時間を演算することを可能にする方法と装置、並びにコンピュータプログラム、コンピュータ記録媒体、及びコンピュータ
CN112292711B (zh) 关联lidar数据和图像数据
CN107272021B (zh) 使用雷达和视觉定义的图像检测区域的对象检测
US10261574B2 (en) Real-time detection system for parked vehicles
CN107038723B (zh) 棒状像素估计方法和系统
US20190311485A1 (en) Method for Evaluating Image Data of a Vehicle Camera
US9794543B2 (en) Information processing apparatus, image capturing apparatus, control system applicable to moveable apparatus, information processing method, and storage medium of program of method
KR102038570B1 (ko) 시차 이미지 생성 디바이스, 시차 이미지 생성 방법, 시차 이미지 생성 프로그램, 물체 인식 디바이스, 및 기기 제어 시스템
US10853949B2 (en) Image processing device
US9928426B1 (en) Vehicle detection, tracking and localization based on enhanced anti-perspective transformation
WO2017001189A1 (en) Detection of lens contamination using expected edge trajectories
US20120050496A1 (en) Moving Obstacle Detection Using Images
JP6679858B2 (ja) 対象の遮蔽を検出する方法と装置
CN105654031B (zh) 用于物体检测的系统和方法
JP2008298533A (ja) 障害物計測方法、障害物計測装置及び障害物計測システム
CN110114801B (zh) 图像前景检测装置及方法、电子设备
JP2004109009A (ja) 目標角速度計測装置および目標角速度計測方法
JP6826010B2 (ja) カメラ運動推定装置、カメラ運動推定方法及びプログラム
EP3296749A1 (en) Motion encoder
KR102369802B1 (ko) 영상 처리 시스템 및 그에 의한 영상 처리 방법
Woelk et al. Fast monocular Bayesian detection of independently moving objects by a moving observer
CN114170267A (zh) 目标跟踪方法、装置、设备及计算机可读存储介质
Åström et al. Low-complexity, high-speed, and high-dynamic range time-to-impact algorithm
Guo et al. HawkDrive: A Transformer-driven Visual Perception System for Autonomous Driving in Night Scene
CN116686001A (zh) 物体检测装置、监视装置、学习装置以及模型生成方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150728

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160112

R150 Certificate of patent or registration of utility model

Ref document number: 5872071

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees