JP2015510171A - 衝突時間を演算することを可能にする方法と装置、並びにコンピュータプログラム、コンピュータ可読媒体、及びコンピュータ - Google Patents
衝突時間を演算することを可能にする方法と装置、並びにコンピュータプログラム、コンピュータ可読媒体、及びコンピュータ Download PDFInfo
- Publication number
- JP2015510171A JP2015510171A JP2014552530A JP2014552530A JP2015510171A JP 2015510171 A JP2015510171 A JP 2015510171A JP 2014552530 A JP2014552530 A JP 2014552530A JP 2014552530 A JP2014552530 A JP 2014552530A JP 2015510171 A JP2015510171 A JP 2015510171A
- Authority
- JP
- Japan
- Prior art keywords
- image
- collision time
- computer
- detection circuit
- circuit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/28—Indexing scheme for image data processing or generation, in general involving image processing hardware
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Signal Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
u=dx/dt (2)
及び
v=dy/dt (3)
は、画像面内における水平及び垂直の動き成分である。フローベクトルとも呼ばれるこれらの動き成分を演算するには、少なくとも2つのピクセルの特徴エリアを考慮する必要がある。光学フロー場は、多数の情報(基本的に、1動きベクトル/ピクセル)を付与し、これらの情報は、動きの大部分が、静的なシーン内において移動するカメラによって生成される自己移動であると見なされる場合には、不要である。3D空間内における回転していない物体の動きは、6つのパラメータのみによって規定することが可能であり、従って、すべての動きデータを、このような6つのパラメータの組に纏めることができる。実際には、未知のスケールファクタに起因し、最後のものについてなんらかの特定の値を仮定することにより、5つのパラメータのみを推定することができる。
p1x−p0x=k・p0x (8)
従って、次式が得られ、
d2=p10−p11=p00(1+k)−p01(1+k)=d1(1+k) (9)
これは、以下の式を意味している。
この動作においては、画像検知回路によって検知された画像フレームのシーケンスの個々の画像フレームと関連する画像データを受け取っており、これらの画像フレームは、前記物体を撮像している。
この動作においては、複数の画像位置のうちのそれぞれについて、画像フレームのシーケンス内の連続的に発生する局所的極値点の最大持続時間を示す個々の持続時間値が演算される。
任意選択の動作であるこの動作においては、演算された持続時間値f(i)の合計Σf(i)が演算されている。以下には、この合計が単独で対象の情報を符号化してもよく、且つ、この合計を使用して衝突時間を演算できることが示されている。合計は、更に圧縮されたデータの組を表し、且つ、これも、単純な操作によって実現される。通常、上述のものなどの並列アーキテクチャは、個々の並列処理要素からの結果を合計する可能性を提供している。
任意選択の動作であるこの動作においては、スケールファクタcによって乗算された合計Σf(i)の逆数に基づいて、スロープ値kが演算されている。前記スロープ値kは、次式に対応しており、
任意選択の動作であるこの動作においては、前記複数の画像位置の中心画像位置iCentreとの関係における演算された最大持続時間値f(i)のうちの最大持続時間値の画像位置imaxのオフセットを示すオフセット値δが演算されている(オフセットの例は、図16に示されており、これは、以下において更に参照される)。次いで、オフセットは、いくつかの実施形態においては、スケールファクタcを判定するべく使用され、この場合に、スケールファクタcは、次式に対応しており、
任意選択の動作であるこの動作においては、演算されたスロープ値kを使用することにより、衝突時間が演算されており、この場合に、衝突時間TIは、次式に対応しており、
vy=S/Tl (22)
vx=Δ/Tl (23)
ここで、Δは、図17に示されている距離である。これは、次式のように書き換えることができる。
tan(α)=Ccamera・δ (26)
物体の表面のスロープ角βを演算するための本明細書の実施形態の第2のタイプであって、物体は、少なくとも部分的に、前記物体を撮像する画像検知回路に向って又はこれから離れるように相対移動しており、且つ、前記表面は、前記画像検知回路と対向している、第2のタイプについて、図24に示されているフローチャートを参照して説明することとする。
この動作においては、画像検知回路によって検知された画像フレームを使用することにより、画像検知回路と物体との間の第1衝突時間T1及び第2衝突時間T2が演算されている。第1衝突時間は、前記画像検知回路の分割された視野の第1視野Aに基づいて演算され、且つ、第2衝突時間は、分割された視野の第2視野Bに基づいて演算される。
この動作においては、スロープ角が、演算された第1衝突時間、第2衝突時間、及び視野と関連する開放角(2*α)に基づいて演算されている。演算されたスロープ角βは、次式に対応してもよく、
Tl=H0/v0 (27)
上述のように、これは、カメラが、物体に近接しており、且つ、低速で移動しているのか、或いは、カメラが、遠く離れた状態で、物体に向って高速で移動しているのか、を本発明者らが弁別できないことを意味している。但し、物体が面であるものと仮定することにより、物体が、接近するカメラとの関係において、どれだけ傾斜しているのかを算出することができる。本発明者らは、視野を、図25にA及びBとして示されている2つの部分に分割する。本発明者らは、2つの部分のTTIであるT1及びT2を連続的に計測する。以下のことが判明し、
D1=v0・T1・tan(α’) (28)
及び
D2=v0・T2・tan(α’) (29)
ここで、αは、視野のそれぞれの部分の開放角であり、α’は、次式に規定されているように、センサの半分に対応した角度である。
(D1+D2)・tan(β)=v0・(T2−T1) (32)
そして、これは、次式のように単純化することができる。
次に、図27に示されているフローチャートを参照し、少なくとも部分的に、物体を撮像する第1及び第2画像検知回路のペアに向って又はこれから離れるように相対移動する前記物体に対する絶対速度v0及び/又は絶対距離H0を演算するための本明細書の実施形態の第3のタイプについて説明することとする。
任意選択の動作であるこの動作においては、
この動作においては、
この動作においては、
この動作においては、
次に、図31に示されているフローチャートを参照し、少なくとも部分的に、物体を撮像する画像検知回路に向かって又はこれから離れるように相対移動する前記物体の形状を判定するための第4のタイプの本明細書の実施形態について説明することとする。
この動作においては、
この動作においては、
この動作においては、
この動作においては、
ここで、本発明者らは、T2、角度、消失セグメント、及び(2)からの2つのサンプルの間の時間Tdの観点において、次のようにT1を表現することができる。
任意選択の動作であるこの動作においては、第1及び第2画像検知回路のペアが、非ゼロのスロープ角を実現するように、回転及び/又は傾斜させられてもよい。即ち、それゆえ、第1及び第2画像検知回路のペアに対して非ゼロのスロープ角を有する面で、物体は第1及び第2画像検知回路のペアに面している。これは、少なくとも第1及び第2画像検知回路のペアに対してゼロのスロープ角を有する面で、物体が第1及び第2画像検知回路のペアに面している場合になされてもよい。
この動作においては、第1画像検知回路と物体の間の第1衝突時間T1と第2衝突時間T2が、第1画像検知回路によって検知された画像フレームを用いて、演算される。第1衝突時間T1は、前記第1画像検知回路の分割された視野の第1視野Aに基づいて演算される。第2衝突時間T2は、分割された視野の第2視野Bに基づいて演算される。
この動作においては、第2画像検知回路と前記物体の間の第3衝突時間T3は、第2画像検知回路によって検知された画像フレームを用いて、演算される。
この動作においては、前記絶対速度v0及び/又は絶対距離H0は、第1衝突時間T1、第2衝突時間T2、第3衝突時間T3、第1及び第2画像検知回路を隔てている距離D、及び前記視野と関連付けられた開放角2*αに基づいて演算される。
少なくとも部分的に、物体を撮像する画像検知回路2640に向かって又はこの画像検知回路2640から離れるように相対移動する物体2650の表面であって、前記画像検知回路と対向している表面のスロープ角βを演算する方法であって、
− 前記画像検知回路によって検知された画像フレームを使用することにより、前記画像検知回路と前記物体との間の第1衝突時間T1及び第2衝突時間T2を演算するステップ2401であって、前記第1衝突時間は、前記画像検知回路の分割された視野の第1視野Aに基づいて演算され、且つ、前記第2衝突時間は、前記分割された視野の第2視野Bに基づいて演算される、ステップ2401と、
− 前記演算された第1衝突時間、前記第2衝突時間、及び前記視野と関連付けられた開放角2*αに基づいて前記スロープ角を演算するステップ2402と、
を有する方法。
(1)前記演算されたスロープ角βは、
(2)前記第1衝突時間T1及び前記第2衝突時間T2の前記演算は、並行して実行される、第2発明としての方法。
(3)前記第1衝突時間T1及び前記第2衝突時間T2の前記演算は、請求項1〜10のいずれか一項に記載の方法に従って実行される、第2発明としての方法。
第2発明としての方法を実行するソフトウェアを有するコンピュータの内部メモリに読み込み可能なコンピュータプログラム。
プログラムが記録されたコンピュータ可読媒体であって、前記プログラムは、前記プログラムが前記コンピュータに読み込まれた際に前記コンピュータに、第2発明としての方法を実行させるように構成されている、コンピュータ可読媒体。
第2発明としての方法を実行するように構成されたコンピュータ。
少なくとも部分的に、物体を撮像する画像検知回路に向かって又はこの画像検知回路から離れるように相対移動する前記物体の表面であって、前記画像検知回路と対向している表面のスロープ角を演算する装置2600であって、
前記画像検知回路によって検知された画像フレームを使用することにより、前記画像検知回路と前記物体との間の第1衝突時間T1及び第2衝突時間T2を演算するように構成された第1演算回路2611であって、前記第1衝突時間は、前記画像検知回路の分割された視野の第1視野に基づいて演算され、且つ、前記第2衝突時間は、前記分割された視野の第2視野に基づいて演算される、第1演算回路2611と、
前記演算された第1衝突時間T1、前記第2衝突時間T2、及び前記視野と関連付けられた個々の開放角2*αに基づいて前記スロープ角を演算するように構成された第2演算回路2612と、
を有する装置。
(1)前記第1衝突時間T1及び前記第2衝突時間T2の前記演算に関与するように構成された請求項14〜25のいずれか一項に記載の装置を有する、第2発明としての装置。
(2)第2発明としての装置を有するロボット。
少なくとも部分的に、物体を撮像する第1及び第2画像検知回路3041、3042のペア3040に向かって又はこのペア3040から離れるように相対移動する前記物体3050に対する絶対距離v0及び/又は絶対距離H0を演算する方法であって、
− 前記第1画像検知回路によって検知された画像フレームを使用することにより、前記第1画像検知回路と前記物体との間の第1衝突時間T1及び第2衝突時間T2を演算するステップ2702であって、前記第1衝突時間は、前記第1画像検知回路の分割された視野の第1視野Aに基づいて演算され、且つ、前記第2衝突時間は、前記分割された視野の第2視野に基づいて演算される、ステップと、
− 前記第2画像検知回路によって検知された画像フレームを使用することにより、前記第2画像検知回路と前記物体との間の第3衝突時間を演算するステップ2703と、
− 前記第1衝突時間T1、前記第2衝突時間T2、前記第3衝突時間T3、前記第1及び第2画像検知回路を隔てている距離D、及び前記視野と関連付けられた開放角2*αに基づいて前記絶対速度v0及び/又は前記絶対距離H0を演算するステップ2704と、
を有する方法。
(1)前記第1衝突時間T1及び前記第2衝突時間T2及び/又は前記第3衝突時間T3の前記演算は、並行して実行される、第3発明としての方法。
(2)前記演算された絶対速度は、
(3)前記演算された絶対距離は、
(4)前記第1衝突時間T1及び前記第2衝突時間T2及び/又は前記第3衝突時間T3の前記演算は、請求項1〜10のいずれか一項に記載の方法に従って実行される、第3発明としての方法。
(5)少なくとも、前記画像検知回路のペアとの関係においてゼロのスロープ角を有する表面によって前記物体が前記画像検知回路のペアと対向している際に、前記画像検知回路のペアとの関係において前記表面の非ゼロのスロープ角が結果的に得られるように、前記画像検知回路のペアを回転及び/又は傾斜させるステップ2701を更に有する、第3発明としての方法。
第3発明としての方法を実行するソフトウェアを有するコンピュータの内部メモリに読み込み可能であるコンピュータプログラム。
プログラムが記録されたコンピュータ可読媒体であって、前記プログラムは、前記プログラムが前記コンピュータに読み込まれた際に前記コンピュータに第3発明としての方法を実行させるように構成されている、コンピュータ可読媒体。
第3発明としての方法を実行するように構成されたコンピュータ。
少なくとも部分的に、物体を撮像する第1及び第2画像検知回路3041、3042のペア3040に向かって又はこのペア3040から離れるように相対移動する前記物体に対する絶対速度v0及び/又は絶対距離H0を演算する装置3000であって、
前記第1画像検知回路によって検知された画像フレームを使用することにより、前記第1画像検知回路と前記物体との間の第1衝突時間T1及び第2衝突時間T2を演算するように構成された第1演算回路3011であって、前記第1衝突時間は、前記第1検知回路の分割された視野の第1視野に基づいて演算され、且つ、前記第2衝突時間は、前記分割された視野の第2視野に基づいて演算される、第1演算回路3011と、
前記第2画像検知回路によって検知された画像フレームを使用することにより、前記第2画像検知回路と前記物体との間の第3衝突時間を演算するように構成された第2演算回路3012と、
前記第1衝突時間T1、前記第2衝突時間T2、前記第3衝突時間T3、前記第1及び第2画像検知回路を隔てている距離D、及び前記視野と関連付けられた開放角2*αに基づいて前記絶対速度v0及び/又は前記絶対距離H0を演算するように構成された第3演算回路3013と、
を有する装置。
(1)少なくとも前記画像検知回路のペアとの関係においてゼロのスロープ角を有する表面によって前記物体が前記画像検知回路のペアと対向している際に、前記画像検知回路のペアとの関係において前記表面の非ゼロのスロープ角が結果的に得られるように構成された回転及び/又は傾斜制御回路3014を更に有する、第3発明としての装置。
(2)前記第1衝突時間T1及び前記第2衝突時間T2の前記演算及び/又は前記第3衝突時間T3の前記演算に関与するように構成された請求項14〜25のいずれか一項に記載の1つ又は複数の装置を有する、第3発明としての装置。
第3発明としての装置を有するロボット。
Claims (58)
- 画像検知回路(2140)と少なくとも部分的に前記画像検知回路に向かって又は前記画像検知回路から離れるように相対移動する物体(2150)との間の衝突時間を演算することを可能にする方法であって、
− 前記画像検知回路によって検知された画像フレームであって前記物体を撮像している画像フレームのシーケンス(1..N)の個々の画像フレームと関連付けられた画像データを受け取るステップ(301)と、
− 複数の画像位置のそれぞれの画像位置(i)ごとに、前記画像フレームのシーケンス(1..N)内の連続的に発生する局所的極値点の最大持続時間を示す個々の持続時間値(f(i))を演算するステップ(302)と、
を有する方法。 - 前記持続時間値は、前記シーケンス内の連続的に発生する局所的極値点の最大数である請求項1に記載の方法。
- − 前記持続時間値(f(i))の合計(Σf(i))を演算するステップ(303)を更に有する請求項1又は2に記載の方法。
- 前記複数の画像位置は、すべてのピクセル位置のサブセットに対応している請求項1〜7のいずれか一項に記載の方法。
- 前記複数の画像位置は、すべてのピクセル位置の間において、又は、少なくとも対象のエリア内のすべてのピクセル位置の間において、均一に分散されている請求項1〜8のいずれか一項に記載の方法。
- 前記複数の画像位置のそれぞれの画像位置は、個々のピクセル位置と関連付けられている請求項1〜9のいずれか一項に記載の方法。
- 請求項1〜10のいずれか一項に記載の方法を実行するソフトウェアを有するコンピュータ(176)の内部メモリに読み込み可能であるコンピュータプログラム製品(173)。
- プログラムが記録されたコンピュータ可読媒体(171、172)であって、
前記プログラムは、前記プログラムが前記コンピュータに読み込まれた際に請求項1〜10のいずれか一項に記載の方法を前記コンピュータに実行させるように構成されているコンピュータ可読媒体。 - 請求項1〜10のいずれか一項に記載の方法を実行するように構成されたコンピュータ(176)。
- 画像検知回路(2140)と少なくとも部分的に前記画像検知回路に向かって又は前記画像検知回路から離れるように相対移動する物体(2150)との間の衝突時間を演算することを可能にする装置(21)であって、
前記画像検知回路によって検知された画像フレームであって前記物体を撮像している画像フレームのシーケンス(1..N)の個々の画像フレームと関連付けられたデータを撮像するように構成された受取りポート(2120)と、
複数の画像位置のそれぞれの画像位置(i)ごとに、前記画像フレームのシーケンス(1..N)内にて連続的に発生する局所的極値点の最大持続時間を示す個々の最大持続時間値(f(i))を演算するように構成された第1演算回路(2111)と、
を有する装置(21)。 - 前記持続時間値は、前記シーケンス内の連続的に発生する局所的極値点の最大数である請求項14に記載の装置。
- 前記持続時間値(f(i))の合計(Σf(i))を演算するように構成された第2演算回路(2112)を更に有する請求項14又は15に記載の装置。
- 前記複数の画像位置は、すべてのピクセル位置のサブセットに対応している請求項17〜20のいずれか一項に記載の装置。
- 前記複数の画像位置は、すべてのピクセル位置の間において、又は、少なくとも対象エリア内のすべてのピクセル位置の間において、均一に分散されている請求項14〜21のいずれか一項に記載の装置。
- 前記複数の画像位置のそれぞれの画像位置は、個々のピクセル位置と関連付けられている請求項14〜22のいずれか一項に記載の装置。
- 前記シーケンスの前記画像フレームを検知するように構成された前記画像検知回路(2140)を更に有する請求項14〜23のいずれか一項に記載の装置。
- 前記画像検知回路(2140)は、検知要素(2341−1〜2341−K1)を有し、これら検知要素のそれぞれは、ピクセル位置と関連付けられ、且つ、光を捕捉するように構成されており、それぞれの検知要素は、捕捉された光に応答して、ピクセルに対応した局所的画像データを提供するように更に構成されており、前記第1演算回路(2111)は、演算要素(2111−1〜2111−K)を有し、それぞれの演算要素は、1つの検知要素又は検知要素のグループと関連付けられ、且つ、これにより、1つ又は複数のピクセル位置にも対応しており、前記複数の画像位置の1つに対応する1つ又は複数のピクセル位置と関連付けられた演算要素は、前記関連付けられた1つ又は複数の検知要素からの局所的画像データに基づいて前記個々の持続時間値(f(i))を演算するように構成されている請求項24に記載の装置。
- 少なくとも部分的に、物体を撮像する画像検知回路(2640)に向かって又はこの画像検知回路(2640)から離れるように相対移動する物体(2650)の表面であって、前記画像検知回路と対向している表面のスロープ角(β)を演算する方法であって、
− 前記画像検知回路によって検知された画像フレームを使用することにより、前記画像検知回路と前記物体との間の第1衝突時間(T1)及び第2衝突時間(T2)を演算するステップ(2401)であって、前記第1衝突時間は、前記画像検知回路の分割された視野の第1視野(A)に基づいて演算され、且つ、前記第2衝突時間は、前記分割された視野の第2視野(B)に基づいて演算される、ステップ(2401)と、
− 前記演算された第1衝突時間、前記第2衝突時間、及び前記視野と関連付けられた開放角(2*α)に基づいて前記スロープ角を演算するステップ(2402)と、
を有する方法。 - 前記第1衝突時間(T1)及び前記第2衝突時間(T2)の前記演算は、並行して実行される請求項26又は27に記載の方法。
- 前記第1衝突時間(T1)及び前記第2衝突時間(T2)の前記演算は、請求項1〜10のいずれか一項に記載の方法に従って実行される請求項26〜28のいずれか一項に記載の方法。
- 請求項26〜29のいずれか一項に記載の方法を実行するソフトウェアを有するコンピュータの内部メモリに読み込み可能なコンピュータプログラム製品。
- プログラムが記録されたコンピュータ可読媒体であって、
前記プログラムは、前記プログラムが前記コンピュータに読み込まれた際に前記コンピュータに請求項26〜29のいずれか一項に記載の方法を実行させるように構成されている、コンピュータ可読媒体。 - 請求項26〜29のいずれか一項に記載の方法を実行するように構成されたコンピュータ。
- 少なくとも部分的に、物体を撮像する画像検知回路に向かって又はこの画像検知回路から離れるように相対移動する前記物体の表面であって、前記画像検知回路と対向している表面のスロープ角を演算する装置(2600)であって、
前記画像検知回路によって検知された画像フレームを使用することにより、前記画像検知回路と前記物体との間の第1衝突時間(T1)及び第2衝突時間(T2)を演算するように構成された第1演算回路(2611)であって、前記第1衝突時間は、前記画像検知回路の分割された視野の第1視野に基づいて演算され、且つ、前記第2衝突時間は、前記分割された視野の第2視野に基づいて演算される、第1演算回路(2611)と、
前記演算された第1衝突時間(T1)、前記第2衝突時間(T2)、及び前記視野と関連付けられた個々の開放角(2*α)に基づいて前記スロープ角を演算するように構成された第2演算回路(2612)と、
を有する装置。 - 前記第1衝突時間(T1)及び前記第2衝突時間(T2)の前記演算に関与するように構成された請求項14〜25のいずれか一項に記載の装置を有する請求項33に記載の装置。
- 請求項33又は34に記載の装置を有するロボット。
- 少なくとも部分的に、物体を撮像する第1及び第2画像検知回路(3041、3042)のペア(3040)に向かって又はこのペア(3040)から離れるように相対移動する前記物体(3050)に対する絶対距離(v0)及び/又は絶対距離(H0)を演算する方法であって、
− 前記第1画像検知回路によって検知された画像フレームを使用することにより、前記第1画像検知回路と前記物体との間の第1衝突時間(T1)及び第2衝突時間(T2)を演算するステップ(2702)であって、前記第1衝突時間は、前記第1画像検知回路の分割された視野の第1視野(A)に基づいて演算され、且つ、前記第2衝突時間は、前記分割された視野の第2視野に基づいて演算される、ステップと、
− 前記第2画像検知回路によって検知された画像フレームを使用することにより、前記第2画像検知回路と前記物体との間の第3衝突時間を演算するステップ(2703)と、
− 前記第1衝突時間(T1)、前記第2衝突時間(T2)、前記第3衝突時間(T3)、前記第1及び第2画像検知回路を隔てている距離(D)、及び前記視野と関連付けられた開放角(2*α)に基づいて前記絶対速度(v0)及び/又は前記絶対距離(H0)を演算するステップ(2704)と、
を有する方法。 - 前記第1衝突時間(T1)及び前記第2衝突時間(T2)及び/又は前記第3衝突時間(T3)の前記演算は、並行して実行される請求項36に記載の方法。
- 前記第1衝突時間(T1)及び前記第2衝突時間(T2)及び/又は前記第3衝突時間(T3)の前記演算は、請求項1〜10のいずれか一項に記載の方法に従って実行される請求項36〜39のいずれか一項に記載の方法。
- − 少なくとも、前記画像検知回路のペアとの関係においてゼロのスロープ角を有する表面によって前記物体が前記画像検知回路のペアと対向している際に、前記画像検知回路のペアとの関係において前記表面の非ゼロのスロープ角が結果的に得られるように、前記画像検知回路のペアを回転及び/又は傾斜させるステップ(2701)を更に有する請求項36〜40のいずれか一項に記載の方法。
- 請求項36〜41のいずれか一項に記載の方法を実行するソフトウェアを有するコンピュータの内部メモリに読み込み可能であるコンピュータプログラム製品。
- プログラムが記録されたコンピュータ可読媒体であって、
前記プログラムは、前記プログラムが前記コンピュータに読み込まれた際に前記コンピュータに請求項36〜41のいずれか一項に記載の方法を実行させるように構成されている、コンピュータ可読媒体。 - 請求項36〜41のいずれか一項に記載の方法を実行するように構成されたコンピュータ。
- 少なくとも部分的に、物体を撮像する第1及び第2画像検知回路(3041、3042)のペア(3040)に向かって又はこのペア(3040)から離れるように相対移動する前記物体に対する絶対速度(v0)及び/又は絶対距離(H0)を演算する装置(3000)であって、
前記第1画像検知回路によって検知された画像フレームを使用することにより、前記第1画像検知回路と前記物体との間の第1衝突時間(T1)及び第2衝突時間(T2)を演算するように構成された第1演算回路(3011)であって、前記第1衝突時間は、前記第1検知回路の分割された視野の第1視野に基づいて演算され、且つ、前記第2衝突時間は、前記分割された視野の第2視野に基づいて演算される、第1演算回路(3011)と、
前記第2画像検知回路によって検知された画像フレームを使用することにより、前記第2画像検知回路と前記物体との間の第3衝突時間を演算するように構成された第2演算回路(3012)と、
前記第1衝突時間(T1)、前記第2衝突時間(T2)、前記第3衝突時間(T3)、前記第1及び第2画像検知回路を隔てている距離(D)、及び前記視野と関連付けられた開放角(2*α)に基づいて前記絶対速度(v0)及び/又は前記絶対距離(H0)を演算するように構成された第3演算回路(3013)と、
を有する装置。 - 少なくとも前記画像検知回路のペアとの関係においてゼロのスロープ角を有する表面によって前記物体が前記画像検知回路のペアと対向している際に、前記画像検知回路のペアとの関係において前記表面の非ゼロのスロープ角が結果的に得られるように構成された回転及び/又は傾斜制御回路(3014)を更に有する請求項45に記載の装置。
- 前記第1衝突時間(T1)及び前記第2衝突時間(T2)の前記演算及び/又は前記第3衝突時間(T3)の前記演算に関与するように構成された請求項14〜25のいずれか一項に記載の1つ又は複数の装置を有する請求項45又は46に記載の装置。
- 請求項45〜47のいずれか一項に記載の装置を有するロボット。
- 少なくとも部分的に、物体を撮像する画像検知回路に向かって又はこの画像検知回路から離れるように相対移動する前記物体の形状を判定する方法であって、
− 連続的に検知されたフレームを分離する検知周期(Td)を有する前記画像検知回路によって検知された画像フレームを使用することにより、前記画像検知回路と前記物体との間の第1衝突時間(T1)を演算するステップ(3103)と、
− 連続的に検知されたフレームを分離する前記検知周期(Td)を有する前記画像検知回路によって検知された画像フレームを使用することにより、前記画像検知回路と前記物体との間の第2衝突時間(T2)を演算するステップ(3102)と、
− 前記検知周期(Td)に加算された前記衝突時間(T1)と前記第2衝突時間(T2)との間の差を演算するステップ(3104)と、
− 前記差に基づいて前記物体の前記形状を判定するステップと、
を有する方法。 - 前記形状は、前記差の符号に基づいて判定される請求項49に記載の方法。
- 前記形状は、既定の形状のグループから判定される請求項49又は50に記載の方法。
- 前記第1衝突時間(T1)及び/又は前記第2衝突時間(T2)の前記演算は、請求項1〜10のいずれか一項に記載の方法に従って実行される請求項49〜51のいずれか一項に記載の方法。
- 請求項49〜52のいずれか一項に記載の方法を実行するソフトウェアを有するコンピュータの内部メモリに読み込み可能であるコンピュータプログラム製品。
- プログラムが記録されたコンピュータ可読媒体であって、
前記プログラムは、前記プログラムが前記コンピュータに読み込まれた際に前記コンピュータに請求項49〜52のいずれか一項に記載に方法を実行させるように構成されている、コンピュータ可読媒体。 - 請求項49〜52のいずれか一項に記載の方法を実行するように構成されたコンピュータ。
- 少なくとも部分的に、物体を撮像する画像検知回路に向かって又はこれから離れるように相対移動する前記物体の形状を判定する装置であって、
連続的に検知されたフレームを隔てている検知周期(Td)を有する前記画像検知回路によって検知された画像フレームを使用することにより、前記画像検知回路と前記物体との間の第1衝突時間(T1)を演算するように構成された第1演算回路と、
連続的に検知されたフレームを隔てている前記検知周期(Td)を有する前記画像検知回路によって検知された画像フレームを使用することにより、前記画像検知回路と前記物体との間の第2衝突時間(T2)を演算するように構成された第2演算回路と、
前記検知周期(Td)に加算された前記衝突時間(T1)と前記第2衝突時間(T2)との間の差を演算するように構成された第3演算回路と、
前記差に基づいて前記物体の前記形状を判定するように構成された判定回路と
を有する装置。 - 前記第1衝突時間(T1)及び/又は前記第2衝突時間(T2)の前記演算に関与するように構成された請求項14〜25のいずれか一項に記載の装置を有する請求項56に記載の装置。
- 請求項56又は57に記載の装置を有するロボット。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2012/050905 WO2013107525A1 (en) | 2012-01-20 | 2012-01-20 | Impact time from image sensing |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015510171A true JP2015510171A (ja) | 2015-04-02 |
JP5872071B2 JP5872071B2 (ja) | 2016-03-01 |
Family
ID=45524557
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014552530A Expired - Fee Related JP5872071B2 (ja) | 2012-01-20 | 2012-01-20 | 衝突時間を演算することを可能にする方法と装置、並びにコンピュータプログラム、コンピュータ記録媒体、及びコンピュータ |
Country Status (7)
Country | Link |
---|---|
US (1) | US10078904B2 (ja) |
EP (1) | EP2805305B1 (ja) |
JP (1) | JP5872071B2 (ja) |
CN (1) | CN104054110B (ja) |
CA (1) | CA2861934C (ja) |
DK (1) | DK2805305T3 (ja) |
WO (1) | WO2013107525A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017049147A (ja) * | 2015-09-02 | 2017-03-09 | 富士重工業株式会社 | 画像処理装置 |
JP2020144023A (ja) * | 2019-03-07 | 2020-09-10 | 株式会社Subaru | 路面計測装置、路面計測方法、及び路面計測システム |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014186814A1 (de) * | 2013-05-21 | 2014-11-27 | Fts Computertechnik Gmbh | Verfahren zur integration von berechnungen mit variabler laufzeit in eine zeitgesteuerte architektur |
CN110171405B (zh) | 2014-05-22 | 2021-07-13 | 御眼视觉技术有限公司 | 基于检测对象制动车辆的系统和方法 |
EP3296954A1 (en) | 2017-01-27 | 2018-03-21 | Sick IVP AB | Method and arrangements for identifying a pixel as a local extreme point |
EP3296749B1 (en) | 2017-01-27 | 2019-01-23 | Sick IVP AB | Motion encoder |
US10467768B2 (en) * | 2017-04-07 | 2019-11-05 | Intel Corporation | Optical flow estimation using 4-dimensional cost volume processing |
SE2150289A1 (en) * | 2021-03-12 | 2022-09-13 | Anders Åström | Provision of measure indicative of impact time between image sensor and object |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11353565A (ja) * | 1998-06-09 | 1999-12-24 | Yazaki Corp | 車両用衝突警報方法及び装置 |
JP2006092117A (ja) * | 2004-09-22 | 2006-04-06 | Nissan Motor Co Ltd | 車両用衝突時間推定装置及び車両用衝突時間推定方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
NL7809028A (nl) * | 1977-09-17 | 1979-03-20 | Jones & Healy Marine Ltd | Navigatiehulp. |
JPS59151973A (ja) * | 1983-02-17 | 1984-08-30 | 三菱電機株式会社 | スウイング測定器 |
US6711293B1 (en) * | 1999-03-08 | 2004-03-23 | The University Of British Columbia | Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image |
US6650774B1 (en) * | 1999-10-01 | 2003-11-18 | Microsoft Corporation | Locally adapted histogram equalization |
EP1426732A1 (en) * | 2002-11-29 | 2004-06-09 | Seiko Precision Inc. | Angle detection apparatus, projector including the same, and angle detection method |
JP4155890B2 (ja) * | 2003-07-15 | 2008-09-24 | カシオ計算機株式会社 | プロジェクタ、プロジェクタの傾斜角度取得方法及び投影像補正方法 |
US7262710B2 (en) * | 2004-09-22 | 2007-08-28 | Nissan Motor Co., Ltd. | Collision time estimation apparatus for vehicles, collision time estimation method for vehicles, collision alarm apparatus for vehicles, and collision alarm method for vehicles |
DE102004046101B4 (de) | 2004-09-23 | 2007-01-18 | Daimlerchrysler Ag | Verfahren, Sicherheitsvorrichtung und Verwendung der Sicherheitsvorrichtung zur Früherkennung von Kraftfahrzeugkollisionen |
US8014588B2 (en) * | 2005-11-04 | 2011-09-06 | Cognitech, Inc. | System and method for three-dimensional estimation based on image data |
US8164628B2 (en) * | 2006-01-04 | 2012-04-24 | Mobileye Technologies Ltd. | Estimating distance to an object using a sequence of images recorded by a monocular camera |
US7711147B2 (en) * | 2006-07-28 | 2010-05-04 | Honda Motor Co., Ltd. | Time-to-contact estimation device and method for estimating time to contact |
JP5187878B2 (ja) | 2007-01-31 | 2013-04-24 | 国立大学法人 東京大学 | 物体測定システム |
TWI334393B (en) * | 2008-10-07 | 2010-12-11 | Ind Tech Res Inst | Image-based vehicle maneuvering assistant method and system |
US8259198B2 (en) * | 2009-10-20 | 2012-09-04 | Apple Inc. | System and method for detecting and correcting defective pixels in an image sensor |
CN201570127U (zh) * | 2009-12-16 | 2010-09-01 | 烟台麦特电子有限公司 | 一种基于视觉分析的碰撞预警装置 |
US8565482B2 (en) * | 2011-02-28 | 2013-10-22 | Seiko Epson Corporation | Local difference pattern based local background modeling for object detection |
-
2012
- 2012-01-20 CA CA2861934A patent/CA2861934C/en not_active Expired - Fee Related
- 2012-01-20 US US14/373,306 patent/US10078904B2/en active Active
- 2012-01-20 CN CN201280067424.9A patent/CN104054110B/zh not_active Expired - Fee Related
- 2012-01-20 WO PCT/EP2012/050905 patent/WO2013107525A1/en active Application Filing
- 2012-01-20 JP JP2014552530A patent/JP5872071B2/ja not_active Expired - Fee Related
- 2012-01-20 DK DK12700841.5T patent/DK2805305T3/en active
- 2012-01-20 EP EP12700841.5A patent/EP2805305B1/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11353565A (ja) * | 1998-06-09 | 1999-12-24 | Yazaki Corp | 車両用衝突警報方法及び装置 |
JP2006092117A (ja) * | 2004-09-22 | 2006-04-06 | Nissan Motor Co Ltd | 車両用衝突時間推定装置及び車両用衝突時間推定方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017049147A (ja) * | 2015-09-02 | 2017-03-09 | 富士重工業株式会社 | 画像処理装置 |
JP2020144023A (ja) * | 2019-03-07 | 2020-09-10 | 株式会社Subaru | 路面計測装置、路面計測方法、及び路面計測システム |
JP7256659B2 (ja) | 2019-03-07 | 2023-04-12 | 株式会社Subaru | 路面計測装置、路面計測方法、及び路面計測システム |
Also Published As
Publication number | Publication date |
---|---|
EP2805305A1 (en) | 2014-11-26 |
US20150035990A1 (en) | 2015-02-05 |
CN104054110B (zh) | 2017-03-15 |
JP5872071B2 (ja) | 2016-03-01 |
CA2861934A1 (en) | 2013-07-25 |
CN104054110A (zh) | 2014-09-17 |
WO2013107525A1 (en) | 2013-07-25 |
DK2805305T3 (en) | 2017-05-15 |
US10078904B2 (en) | 2018-09-18 |
CA2861934C (en) | 2019-07-30 |
EP2805305B1 (en) | 2017-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5872071B2 (ja) | 衝突時間を演算することを可能にする方法と装置、並びにコンピュータプログラム、コンピュータ記録媒体、及びコンピュータ | |
CN112292711B (zh) | 关联lidar数据和图像数据 | |
CN107272021B (zh) | 使用雷达和视觉定义的图像检测区域的对象检测 | |
US10261574B2 (en) | Real-time detection system for parked vehicles | |
CN107038723B (zh) | 棒状像素估计方法和系统 | |
US20190311485A1 (en) | Method for Evaluating Image Data of a Vehicle Camera | |
US9794543B2 (en) | Information processing apparatus, image capturing apparatus, control system applicable to moveable apparatus, information processing method, and storage medium of program of method | |
KR102038570B1 (ko) | 시차 이미지 생성 디바이스, 시차 이미지 생성 방법, 시차 이미지 생성 프로그램, 물체 인식 디바이스, 및 기기 제어 시스템 | |
US10853949B2 (en) | Image processing device | |
US9928426B1 (en) | Vehicle detection, tracking and localization based on enhanced anti-perspective transformation | |
WO2017001189A1 (en) | Detection of lens contamination using expected edge trajectories | |
US20120050496A1 (en) | Moving Obstacle Detection Using Images | |
JP6679858B2 (ja) | 対象の遮蔽を検出する方法と装置 | |
CN105654031B (zh) | 用于物体检测的系统和方法 | |
JP2008298533A (ja) | 障害物計測方法、障害物計測装置及び障害物計測システム | |
CN110114801B (zh) | 图像前景检测装置及方法、电子设备 | |
JP2004109009A (ja) | 目標角速度計測装置および目標角速度計測方法 | |
JP6826010B2 (ja) | カメラ運動推定装置、カメラ運動推定方法及びプログラム | |
EP3296749A1 (en) | Motion encoder | |
KR102369802B1 (ko) | 영상 처리 시스템 및 그에 의한 영상 처리 방법 | |
Woelk et al. | Fast monocular Bayesian detection of independently moving objects by a moving observer | |
CN114170267A (zh) | 目标跟踪方法、装置、设备及计算机可读存储介质 | |
Åström et al. | Low-complexity, high-speed, and high-dynamic range time-to-impact algorithm | |
Guo et al. | HawkDrive: A Transformer-driven Visual Perception System for Autonomous Driving in Night Scene | |
CN116686001A (zh) | 物体检测装置、监视装置、学习装置以及模型生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150716 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150728 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151021 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160112 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5872071 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |