JP2006520042A - スキャニング装置及び方法 - Google Patents
スキャニング装置及び方法 Download PDFInfo
- Publication number
- JP2006520042A JP2006520042A JP2006505899A JP2006505899A JP2006520042A JP 2006520042 A JP2006520042 A JP 2006520042A JP 2006505899 A JP2006505899 A JP 2006505899A JP 2006505899 A JP2006505899 A JP 2006505899A JP 2006520042 A JP2006520042 A JP 2006520042A
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixel
- video
- motion
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 93
- 230000033001 locomotion Effects 0.000 claims abstract description 236
- 239000002131 composite material Substances 0.000 claims abstract description 124
- 238000004458 analytical method Methods 0.000 claims abstract description 8
- 238000012545 processing Methods 0.000 claims description 72
- 239000002243 precursor Substances 0.000 claims description 39
- 238000003384 imaging method Methods 0.000 claims description 33
- 238000007792 addition Methods 0.000 claims description 22
- 238000005259 measurement Methods 0.000 claims description 16
- 238000009432 framing Methods 0.000 claims description 10
- 238000009499 grossing Methods 0.000 claims description 7
- 230000003287 optical effect Effects 0.000 claims description 6
- 230000015572 biosynthetic process Effects 0.000 claims description 3
- 239000000872 buffer Substances 0.000 description 16
- 238000004364 calculation method Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 238000003491 array Methods 0.000 description 9
- 238000001914 filtration Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 description 6
- 230000008859 change Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000006073 displacement reaction Methods 0.000 description 6
- 230000005855 radiation Effects 0.000 description 6
- 230000000630 rising effect Effects 0.000 description 6
- 230000007547 defect Effects 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 230000001186 cumulative effect Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 230000005856 abnormality Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 229910002092 carbon dioxide Inorganic materials 0.000 description 3
- 239000001569 carbon dioxide Substances 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 230000004313 glare Effects 0.000 description 3
- 238000007689 inspection Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000001931 thermography Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 239000011358 absorbing material Substances 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000005429 filling process Methods 0.000 description 1
- 230000005802 health problem Effects 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Radar Systems Or Details Thereof (AREA)
- Analysing Materials By The Use Of Radiation (AREA)
- Vehicle Body Suspensions (AREA)
Abstract
Description
a)一連の映像内の映像と映像との間の物体映像の動きの推定を発生するための動き推定手段と、
b)その推定された物体映像の動きから導出された位置において一連の映像が貢献するところの複合映像を発生するための表示処理手段と、
を備えたことを特徴とする装置を提供する。
但し、
及び
a)一連の映像の中の現在映像内の多数のピクセルの各々に対し、そのピクセルが乗物の一部分に対応する見込みを指示する各々の見込み尺度を導出するための映像分析手段であって、現在映像及びその先駆体内に含まれた情報を使用するように構成された映像分析手段と、
b)その見込み尺度に基づいて重み付けされた映像ピクセルから現在映像とその先駆体との間の物体映像の動きの推定を発生するための動き推定手段と、
c)その推定された物体映像の動きから導出された位置において一連のフレームが貢献するところの複合映像を発生するための表示処理手段と、
を備えたことを特徴とする装置を提供する。
a)現在映像を処理のために入力するステップと、
b)物体映像の動きの推定を導出するステップと、
c)一連の映像に対して前記ステップa)及びb)を繰り返すステップと、
d)物体映像の動きの推定から導出された位置において一連の映像フレームが貢献するところの複合映像を構成するステップと、
を備えたことを特徴とする方法を提供する。
b1)現在映像におけるピクセルに対し、各ピクセルが物体の部分に対応する見込みを指示する見込み尺度を導出する段階と、
b2)その見込み尺度に基づいて重み付けされた映像ピクセル情報から、物体映像の動きの推定を導出する段階と、
b3)前記推定が収斂するか又は予め構成された繰り返し限界に達するまで、前記段階(b2)で導出された物体映像の動きの推定を使用して、前記段階(b1)及び(b2)を繰り返して、前記段階(b1)で導出された見込み尺度を更新し、これにより、現在映像に対する物体映像の動きの第1推定を発生する段階と、
を備え、更に、前記ステップd)は、物体映像の動きの最終推定から導出される位置において、一連の映像が貢献するところの複合映像を構成する段階を含む。
b4)現在映像とその先駆体との間の物体映像の相対的な動きを、映像の真の動きを表わす物体映像の動きの現在推定に基づいて補償する段階と、
b5)現在映像のピクセルの強度と、その先駆体における各同等の映像ピクセルの強度との比較を行う段階と、
b6)現在映像及びその先駆体における同等の位置のピクセル及び同等の像形成ピクセルの両方との比較から、見込み尺度を導出する段階と、
を備えてもよい。
前記方法は、物体が通過する視野を有する少なくとも1つの付加的なセンサから各複合映像を構成する付加的なステップを備えてもよく、各複合映像は、少なくとも1つのセンサからの各現在映像を、前記ステップ(d)で発生された物体映像の動きの関連収斂推定から導出された各位置に入れることにより構成される。
a)物体映像の動きの各推定を、現在映像と指示されたときの各映像に関連付けるステップと、
b)現在映像を、その現在映像に対する物体映像の動きの推定と、一連の映像における早期捕獲映像に対して得られる同様の推定との和から導出されるデータアキュムレータ内の各位置に関連付けるステップと、
c)一連の映像に対して前記ステップa)及びb)を繰り返し、そして各位置に基づいた位置にある映像中央部分から複合映像を形成するステップと、
を備えた方法を提供する。
(ci)データアキュムレータ及びカウントアキュムレータのデータに空間的平滑化フィルタを適用する段階と、
(cii)各々のカウントアキュムレータピクセル値が各ケースにおいて非ゼロであるかどうかに基づいて、データアキュムレータのピクセル値を各々の対応的に位置されたカウントアキュムレータのピクセル値で除算するか、又はフィルタされたデータアキュムレータのピクセル値を各々の対応的に位置されたフィルタされたカウントアキュムレータのピクセル値で除算することにより、複合映像を形成する段階と、
を含むことができる。
(c1)カウントアキュムレータの各ピクセルに対して1つのピクセルの初期隣接範囲をセットする段階と、
(c2)カウントアキュムレータの各ピクセルに対してその各々の隣接範囲内でピクセル値のカウントアキュムレータ加算を実施する段階と、
(c3)カウントアキュムレータ加算が著しい非ゼロであるかどうかに関してチェックを実施する段階と、
(c4)チェックの結果が真でなく、カウントアキュムレータ加算が著しい非ゼロでないことを示す場合には、チェックが真になるまで、隣接範囲を増加しながら前記段階(c2)及び(c3)を繰り返す段階と、
(c5)前記段階(c2)で参照されたカウントアキュムレータピクセルに対して同等の位置にあるデータアキュムレータピクセルに対し、前記チェックで著しい非ゼロの加算が指示されたものに等しい隣接範囲内でピクセル値にわたってデータアキュムレータ加算を実施する段階と、
(c6)そのデータアキュムレータ加算を、前記著しい非ゼロのカウントアキュムレータ加算で除算することにより、除算結果を得る段階と、
(c7)その除算結果を、前記段階(c2)で参照されたカウントアキュムレータピクセルに対応的に位置された複合映像におけるピクセルに加算する段階と、
を含んでもよい。
a)一連の映像における現在映像を処理のために入力するステップと、
b)物体映像の動きの推定を導出するステップと、
c)一連の映像に対して前記ステップa)及びb)を繰り返すステップと、
d)物体映像の動きの各推定から導出された位置において一連の映像フレームが貢献するところの複合映像を構成するステップと、
を行わせることを特徴とするコンピュータ読み取り可能な媒体を提供する。
a)一連の映像における現在映像に関連したピクセルデータにアクセスするステップと、
b)現在映像におけるピクセルが、物体映像の一部分である見込みを示す見込み尺度を導出するステップであって、その見込み尺度は、一連の映像における現在映像及びその先駆体映像に含まれた情報から導出されるステップと、
c)対応する見込み尺度に基づいて重み付けされた映像ピクセル情報から物体映像の動きの推定を導出するステップと、
d)収斂又は予め構成された繰り返し限界のいずれかが最初に生じるまで、前記ステップ(b)及び(c)を繰り返すステップと、
e)前記ステップ(c)で導出された前景の動きの推定を使用して、前記ステップ(b)で導出された見込み尺度を更新し、これにより、現在映像に対する前景映像の動きの最終推定を発生するステップと、
f)一連の映像における次々の現在映像に対して前記ステップ(a)から(e)を繰り返すステップと、
g)一連の映像が貢献するところの複合映像を構成するステップであって、各映像は、前景映像の動きの各々の最終推定に基づいて位置されるものであるステップと、
を行わせることを特徴とするコンピュータ読み取り可能な媒体を提供する。
図1は、容器6の形態の物体をスキャニングするための本発明装置の第1実施形態4を示す。1組のローラー8が、容器6及び他の容器(図示せず)を、スキャニング装置4の視線11に一般的に垂直の方向10に搬送する。スキャニング装置4は、可視帯域センサ12及び映像処理ユニット14を備えている。センサ12は、各々が単一のピクセル出力を発生する検出素子(図示せず)の実質的に直線的なアレーで構成され、ここで、「直線的」という表現は、アレーの第1方向(長軸)における検出素子の数が、その第1方向に垂直なアレーの第2方向(短軸)における数より大きいことを意味する。アレーの長軸は、例えば、その程度が1024ピクセルまででよく、そして短軸は、その程度が1、3、8ピクセル以上でよい。短軸に2つ以上のピクセルを使用すると、ノイズ性能が改善され、即ち速度測定装置を必要とせずに、容器移動感知にも映像データを使用できるようになる。「短」軸が比較的長い場合には、多数の複合映像を発生することができる。これら別の態様は、以下に例示する。アレーは、その短軸が容器6の水平移動方向10に平行で且つその長軸が垂直方向となるように整列される。アレーの長軸に沿ったピクセルの数は、センサ12が、ローラーの位置において、スキャニングされるべき容器に予想される最大高さより若干大きな垂直高さを包囲する視野(16のような破線で示す)を有することを確保するに充分なものである。図1に示す特定の時点では、センサ視野16は、斜線領域20で指示された容器のエリアをカバーする。
として定義される。この導関数は、この実施形態では、単純な限定差フィルタを使用して計算される(他の標準的な数値方法も使用できるが)。典型的に、このフィルタは、中央差フィルタであり、即ち(−1/2、0、+1/2)のカーネルが、3つの次々のフレームIt(x−1、y)It(x、y)及びIt(x+1、y)のセットの乗数を指示するものであり、即ち
D1は、シーン領域を像形成する現在映像における位置(x、y)の映像ピクセルと、同じシーン領域が像形成されたと推定される直前のフレームにおける相対的にシフトされた位置(x+Δxi、y)の同等の像形成ピクセルとの間の強度差である。動き補償された手前の映像をここで定義する。これは、現在フレームにおけるピクセルの像形成された強度を、それらが直前のフレームにおいて像形成されたと推定される各々の対応するピクセル位置(Δxiだけ相対的にシフトされた)へ投影して戻すことにより発生される映像フレームである。これは、容器の移動のために手前のフレームに対応ピクセルをもたないものを除き、現在フレームの全ピクセルに対して実行される。動きが充分正確に推定される場合には、2つのフレームにおける対応ピクセルの強度が、移動する容器6を表示する全ピクセルに対して等しくなければならず(次々のフレーム間の間隔にわたるシーンの強度変動を無視して)、そして差D1がゼロに向かうことになる。
これは、異なるフレームにおける同等に位置するピクセル、即ち次々の映像フレームにおける同じフレーム位置のピクセル間の強度差を表わす。像形成されるシーンが静止している場合には、差D2がゼロである(フレーム間のシーン強度変動を無視して)。
を再計算する必要性を回避するからである。2つの近似が行われる。第1に、一方の映像フレームIt-1に適用されるシフトΔxuは、他方の映像フレームItに適用される等しく且つ逆のシフト−Δxuに対して同様の作用を有し、これは、式(4)のΔxu項を、It-1に対する表現から削除し、そしてItに対する表現において−Δxuに置き換えるのを許す。第2に、空間的強度勾配を導入するテイラー展開を使用して小さなシフトの作用を近似することができる。
Δxi+1=Δxi+Δxu (8)
次いで、ステップ68において、カウントインジケータiが1だけ増加される。
であるかどうか、或いはカウントインジケータiがある予め構成された限界に到達したかどうかのチェックを行う。これらの条件がいずれも満足されない場合には、映像処理ユニットは、ステップ56に復帰し、そして更新された推定Δxi+1を使用して動き推定更新プロセスを繰り返し、Δxuの新たな値を計算する。プロセスが無限ループにはまり込むのを回避するために、最大繰り返しカウントがセットされる。この状態は、繰り返しにより互いに近い一連の解が発生して映像処理ユニット14がそれらの間を弁別できない場合に生じることがある。又、最大繰り返しカウントは、収斂が低速であるときにリアルタイム実施の特性も保持する。動き推定Δxi等は、厳密に言うと、変位であるが、フレーム時間である固定時間Δtにおける変位であるから、速度にも等しい。フレーム時間当りの変位は、速度の単位、ひいては、動き推定の表現を有する。
但し、σf及びσbは、各々、前景及び背景強度におけるノイズの標準偏差の推定であり、上述したように、Δxiは、映像処理のステップ56から68において繰り返しiの前景の動きの推定であり、そしてIp t及びIp t-1は、各々、フレームシリーズにおける現在及びその直前の映像フレームIt及びIt-1のピクセルを指している。動き推定Δxiが更新されるときには、前景見込みpfだけが変化する。背景見込みpbは、一定のままである。前景見込みpfは、物体上のポイントに関連した現在映像ピクセルIp tと、物体上の同じポイントに対応すると推定される直前のピクセルIp t-1との間の強度差(D1、式(2))に基づいたものである。これらピクセルIp t及びIp t-1の強度が等しい場合には、ピクセルが物体の動きの結果として移動し、それ故、前景である見込みが高くなる。これらの2つのピクセル間の強度差が大きいほど、前景移動物体上の同じポイントに対応するおそれが低くなり、従って、関連する見込み推定pfは、比較的低くなる。同様に、背景見込みpbは、ある映像の現在ピクセルの強度と、その直前の映像の同じ位置の強度との比較に基づいたものである(強度差D2、式(3))。これら2つのピクセルの強度が同じである場合には、そのピクセル位置で像形成されるシーンの一部分が移動せず、それ故、ピクセルが背景に対応する見込みが比較的高くなる(それら強度が異なる場合に比して)。これら確率pf及びpbから、各ピクセル(座標x、y)に対して重みwf(x、y)が導出され、これは、動き推定への貢献を決定する。
重みwf(x、y)は、0から1の範囲に存在するように拘束される。
但し、cは、負でない小さな定数であり、ゼロで除算する潜在的な問題を防止するために含まれている。nの値が2に等しい場合に、良好に機能すると分かっているが、選択性の変化は、多少ノイズのある映像において有益であると分かっていることを銘記されたい。
但し、t0は、最初の映像フレームが収集された時間を表わす。映像処理ユニット14は、スキャニング装置の各センサ12、24、32に対して複合映像アレー82、92を含む。図6a及び6bの説明上、映像が再構成されるセンサは、動き推定のためのフレームも与えるセンサであると仮定する。即ち、図6aの場合は、可視波長帯域センサ12である。図6a及び6bの複合映像アレー82、92は、ピクセル位置のアレーで、その解像度は、各々の場合の各記録センサのピクセル解像度に等しい。データは、断片的ピクセル位置には書き込めないので、式(12)の距離x(t)(ピクセル単位)は、最も近い整数に丸められる。
x(t+α)=x(t)+αΔxc(t) (14)
wr(t)=x(t)−x’(t) (16)
wl(t)=1−wr(t) (17)
Claims (47)
- 移動物体(6)をスキャニングするための装置(4)であって、前記物体(6)がセンサ視野(20)を通過するときに前記物体の一連の映像を収集するように配向されたセンサ(12)と、前記一連の映像を入力しそしてそこから複合映像を形成するように構成された映像処理手段(14)とを備えた装置において、前記映像処理手段(14)が、
a)前記一連の映像内の映像と映像との間の物体映像の動き(Δxc(t))の推定を発生するための動き推定手段(166)と、
b)前記推定された物体映像の動き(Δxc(t))から導出された位置において前記一連の映像が貢献するところの複合映像を発生するための表示処理手段(174)と、
を備えたことを特徴とする装置。 - a)前記動き推定手段は、前記一連の映像からの現在映像内の多数のピクセルの各々に対し、各映像ピクセルが前記物体の一部分に対応する見込みを指示する見込み尺度(wf(x,y))を導出するための映像アナライザ(168)を備え、そして
b)前記動き推定手段(166)は、前記見込み尺度(wf(x,y))に基づいて重み付けされた映像ピクセルから、前記現在映像とその先駆体との間の物体映像の動き(Δxc(t))の推定を発生するように構成された、
請求項1に記載の装置。 - 前記センサ(12)は、スキャニングされるべき移動物体(6)に対して予め構成された動き方向(10)に実質的に垂直に整列された光学軸(11)を有する、請求項2に記載の装置。
- 前記一連の映像における前記現在映像の先駆体は、直前の映像である、請求項2に記載の装置。
- 前記映像アナライザ(168)は、現在映像におけるピクセルの強度Ip t(x,y)と、前記現在映像の先駆体において同等に位置するピクセルの強度Ip t-1(x,y)との比較に基づいて、各ピクセルに対する見込み尺度(wf(x,y))を導出するように構成された、請求項4に記載の装置。
- 各ピクセルに対する前記見込み尺度(wf(x,y))は、前記現在映像におけるピクセルの強度Ip t(x,y)と、それと同等に位置するピクセルの強度Ip t-1(x,y)との間の差の二乗に比例する、請求項5に記載の装置。
- 前記映像アナライザ(168)は、前記現在映像ピクセルの強度Ip t(x,y)と、前記現在映像ピクセルにより像形成されるものと同じである物体領域を像形成すべく推定された先駆体におけるピクセルの強度Ip t-1(x+Δxi,y)との比較に更に基づいて、各ピクセルに対する見込み尺度(wf(x,y))を導出するように構成され、前記先駆体におけるピクセルは、物体映像の動き(Δxi)の現在推定が真の映像の動きを表わすという仮定に基づいて動き補償により導出された位置を有する、請求項5に記載の装置。
- 前記見込み尺度(wf(x,y))は、現在映像ピクセルの強度Ip t(x,y)と、前記現在映像ピクセルと同等に前記先駆体に位置する第2ピクセルの強度Ip t-1(x,y)と、前記先駆体内の第3ピクセルであって、前記現在映像ピクセルにより像形成されるものと同じである物体領域を像形成すると推定される第3ピクセルの強度Ip t-1(x+Δxi,y)と、から導出され、前記第3ピクセルは、物体の動きの補償により導出される位置を有し、そして前記見込み尺度は、物体映像強度におけるノイズの標準偏差σf及び背景映像強度におけるノイズの標準偏差σbの推定値を使用して、次の方程式に基づいて導出される、
但し、
及び
請求項7に記載の装置。 - 1<n≦4である、請求項11に記載の装置。
- 1.5<n<2.5である、請求項10に記載の装置。
- 前記映像アナライザ(168)は、物体の動き(Δx0)の第1の推定を使用して、第2のそのような推定(Δx1)を計算し、その後、以前の繰り返しにおいて動き推定手段(166)により発生された物体の動き(Δxi-1)の推定に基づいて見込み尺度(wf(x,y))を繰り返し計算するように構成され、そして前記動き推定手段(166)は、各々の以前の動き推定(Δxi-1)を使用して更新された見込み尺度(wf(x,y))に基づいて現在の繰り返しに対する物体の動き(Δxi)の推定を繰り返し発生するよう構成された、請求項2に記載の装置。
- 前記センサ(12)は、実質的に長方形の視野(90)をもつフレーミングセンサであり、前記表示処理手段(174)は、一連の映像の各々に対し、前記センサの視野内で複数のストリップ(94)から映像データを取り出し、そして各映像における各ストリップ(94)からの貢献を各々有する対応する複数の複合映像を発生するよう構成された、請求項2に記載の装置。
- 前記センサ(12)は、第1センサであり、前記装置(22,31)は、前記物体が少なくとも1つの他のセンサの視野(30,40)を通過するときに前記物体(6)の各一連の映像を得るように配向された少なくとも1つの他のセンサ(24,32)を備え、そして前記表示処理手段(174)は、更に、前記第1のセンサの一連の映像から導出された映像の動き(Δxc(t))の推定に基づいて各一連の映像から各複合映像を発生するように構成された、請求項2に記載の装置。
- 前記少なくとも1つの他のセンサ(24,32)は、前記第1のセンサ(12)とは異なる波長で像形成でき且つ異なる方向に沿って配向された少なくとも1つのセンサである、請求項14に記載の装置。
- 前記第1のセンサ(12)は、可視帯域イメージャーであり、前記少なくとも1つの付加的なセンサ(24,32)は、可視帯域イメージャー、ミリメーター波イメージャー及び熱式イメージャーの少なくとも1つである、請求項14に記載の装置。
- 前記動き推定手段は、物体速度センサである、請求項1に記載の装置。
- 前記物体速度センサは、物体の速度に比例する周波数をもつ出力信号を与えるドップラーレーダーである、請求項17に記載の装置。
- 前記ドップラーレーダーの出力信号をタイミングどりするための共通のクロック信号を与えると共に、これらクロック信号パルスのカウントに関して前記一連の映像における映像を収集するように構成された、請求項18に記載の装置。
- 各々のフレーム信号を与えて、前記ドップラーレーダーの出力信号から導出された映像及び時間/位置データをタイミングどりして、物体移動をタイミングどりし、更に、補間を行って映像のタイミングを物体の位置に関係付け、そして物体の位置に基づいた位置にある映像から複合映像を形成するように構成された、請求項19に記載の装置。
- 運転者により制御される移動乗物(182)をスキャニングするための装置(180)であって、前記乗物がセンサ視野(20)を通過するときに前記乗物(182)の一連の映像を収集するように配向されたセンサ(186,188,190,192)と、前記一連のセンサ映像を入力しそしてそこから前記乗物の複合映像を形成するように構成された映像処理手段(14)とを備えた装置において、前記映像処理手段(14)が、
a)前記一連の映像の中の現在映像内の多数のピクセルの各々に対し、そのピクセルが前記乗物の一部分に対応する見込みを指示する各々の見込み尺度(wf(x,y))を導出するための映像分析手段(168)であって、前記現在映像及びその先駆体内に含まれた情報を使用するように構成された映像分析手段(168)と、
b)前記見込み尺度(wf(x,y))に基づいて重み付けされた映像ピクセルから前記現在映像とその先駆体との間の物体映像の動き(Δxc(t))の推定を発生するための動き推定手段(166)と、
c)前記推定された物体映像の動き(Δxc(t))から導出された位置において前記一連のフレームが貢献するところの複合映像を発生するための表示処理手段(174)と、
を備えたことを特徴とする装置。 - 物体(6)がセンサ視野(20)を通して移動するときにセンサ(12)に得られる一連の映像から複合映像を構成する方法において、
a)現在映像を処理のために入力するステップと、
b)物体映像の動きの推定を導出するステップと、
c)一連の映像に対して前記ステップa)及びb)を繰り返すステップと、
d)前記物体映像の動きの推定から導出された位置において前記一連の映像フレームが貢献するところの複合映像を構成するステップと、
を備えたことを特徴とする方法。 - 前記ステップb)は、
b1)前記現在映像フレーム(It)のピクセル(Ip t(x,y))に対し、各ピクセル(Ip t(x,y))が前記物体(6)の部分に対応する見込みを指示する見込み尺度(wf(x,y))を導出する段階と、
b2)前記見込み尺度(wf(x,y))に基づいて重み付けされた映像ピクセル情報(Ip t(x,y), Ip t-1(x,y))から、物体映像の動きの推定(Δxi)を導出する段階と、
b3)前記推定(Δxi)が収斂するか又は予め構成された繰り返し限界に達するまで、前記段階(b2)で導出された物体映像の動き(Δxi)の推定を使用して、前記段階(b1)及び(b2)を繰り返して、前記段階(b1)で導出された見込み尺度(wf(x,y))を更新し、これにより、前記現在映像フレームに対する物体映像の動き(Δxc)の第1推定を発生する段階と、
を備え、更に、前記ステップd)は、前記物体映像の動き(Δxc)の最終推定から導出される位置において、前記一連の映像フレーム(It)が貢献するところの複合映像を構成する段階を含む、請求項22に記載の方法。 - 前記ステップ(b)は、前記現在映像(It)内に含まれた情報と、先駆体(It-1)内に含まれた情報とを比較して、前記見込み尺度(wf(x,y))を導出する段階を含む、請求項23に記載の方法。
- 前記ステップ(b)は、前記現在映像(It)の各ピクセル(Ip t(x,y))に対し、ピクセル強度(Ip t(x,y))と、前記先駆体の同等の位置におけるピクセル強度(Ip t-1(x,y))との比較を行い、そしてこのような比較を使用して前記見込み尺度(wf(x,y))を導出する段階を含む、請求項24に記載の方法。
- 前記見込み尺度(wf(x,y))は、前記現在映像におけるピクセルの強度Ip t(x,y)と、前記先駆体の同等の位置のピクセルの強度Ip t-1(x,y)との間の差の二乗に比例する、請求項25に記載の方法。
- 前記現在映像(It)におけるピクセル(Ip t(x,y))に対し、前記ステップ(b)は、更に、
b4)前記現在映像とその先駆体との間の物体映像の相対的な動きを、映像の真の動きを表わす物体映像の動きの現在推定(Δxi)に基づいて補償する段階と、
b5)前記現在映像のピクセルの強度Ip t(x,y)と、前記先駆体における各同等の映像ピクセルの強度Ip t-1(x+Δxi,y)との比較を行う段階と、
b6)前記現在映像及びその先駆体における同等の位置のピクセル及び同等の像形成ピクセルの両方との比較から、前記見込み尺度(wf(x,y))を導出する段階と、
を備えた請求項25に記載の方法。 - 前記先駆体(It-1)は、前記現在映像(It)の直前のものである、請求項23に記載の方法。
- 前記物体(6)が通過する視野を有する少なくとも1つの付加的なセンサ(24,32)から各複合映像を構成する付加的なステップを備え、各複合映像は、少なくとも1つのセンサからの各現在映像(I1 t,I2 t)を、前記ステップ(d)で発生された物体映像の動きの関連収斂推定(Δxc)から導出された各位置に入れることにより構成される、請求項23に記載の方法。
- 物体映像の動きの推定を導出する前記ステップ(b)は、物体速度センサにより実施される、請求項22に記載の方法。
- 前記物体速度センサは、物体速度に比例する周波数をもつ出力信号を発生するドップラーレーダーである、請求項32に記載の方法。
- 共通のクロック信号を使用して、ドップラーレーダーの出力信号をタイミングどりし、そして前記クロック信号パルスのカウントに関して一連の映像における映像を収集する、請求項33に記載の方法。
- 各フレーム信号を使用して、前記ドップラーレーダー出力信号から導出された映像及び時間/位置データをタイミングどりして、物体の移動をタイミングどりし、更に、補間を行って、映像のタイミングを物体の位置に関係付け、そして物体位置に基づいた位置にある映像から複合映像を形成する、請求項34に記載の方法。
- 物体がセンサ視野(20)を経て移動するときに、センサ(12)により捕獲される一連の映像から複合映像を構成する方法において、
a)物体映像の動き(Δxc(t))の各推定を、現在映像として指定されるときの各映像(It)に関連付けるステップと、
b)前記現在映像を、その現在映像(It)に対する物体映像の動き(Δxc(t))の推定と、前記一連の映像における早期捕獲映像に対して得られる同様の推定との和から導出されるデータアキュムレータ(100)内の各位置x’(t)に関連付けるステップと、
c)前記一連の映像(It)に対して前記ステップa)及びb)を繰り返し、そして各位置x’(t)に基づいた位置にある映像中央部分(80,90,108)から複合映像を形成するステップと、
を備えた方法。 - 各映像中央部分(90)は、少なくとも、物体映像の動き(Δxc(t))の関連推定と同程度の巾である、請求項36に記載の方法。
- 前記ステップ(b)は、データが前記データアキュムレータ(100)に追加される位置に対応するピクセル位置でカウントアキュムレータ(102)を、各ピクセルに対するこのような追加の回数を示すのに適するように増加する段階も備え、そして前記ステップ(c)は、前記データアキュムレータのピクセル値を、各々の対応的に位置するカウントアキュムレータのピクセル値で除算する段階を含む、請求項36に記載の方法。
- 前記カウントアキュムレータの増分、及び前記現在映像(It)の中央部分におけるピクセル値を、左及び右の重み付けファクタwl(t)(110)及びwr(t)(112)で重み付けして、各々、重み付けされた増分及び重み付けされたピクセル値を発生するステップを備え、前記重み付けされた増分は、前記カウントアキュムレータ(102)における第1及び第2の整数ピクセル位置に追加され、そして前記重み付けされたピクセル値は、前記データアキュムレータ(100)における同様に位置されたピクセル位置に追加され、前記整数ピクセル位置は、前記現在映像(It)及び先駆体(It-n)に対する物体映像の動き(Δxc(t))の加算から導出された推定真のピクセル位置に隣接する位置であり、そして前記左及び右の重み付けファクタwl(t)及びwr(t)は、前記真のピクセル位置と、それに隣接する整数ピクセル位置との間の差に対して決定される、請求項38に記載の方法。
- 前記カウントアキュムレータの増分、及び前記現在映像(It)の中央部分におけるピクセル値を、重み付けファクタにより重み付けして、積を形成し、これらの積を、各々のアキュムレータ(100,102)内の対応する整数ピクセル位置に追加するステップを備え、前記整数ピクセル位置は、前記現在映像(It)及び早期捕獲映像(It-n)に対する物体映像の動き(Δxc(t))の和から導出される推定真のピクセル位置に隣接する位置であり、そして前記一連の重み付けファクタは、滑らかな補間関数に基づいて決定される、請求項38に記載の方法。
- 前記ステップ(c)は、
(ci)前記データアキュムレータ(100)及びカウントアキュムレータ(102)のデータに空間的平滑化フィルタを適用する段階と、
(cii)各々のカウントアキュムレータピクセル値が各ケースにおいて非ゼロであるかどうかに基づいて、前記データアキュムレータのピクセル値を各々の対応的に位置されたカウントアキュムレータのピクセル値で除算するか、又はフィルタされたデータアキュムレータのピクセル値を各々の対応的に位置されたフィルタされたカウントアキュムレータのピクセル値で除算することにより、前記複合映像を形成する段階と、
を備えた請求項38に記載の方法。 - 前記ステップ(c)は、
(c1)前記カウントアキュムレータ(102)の各ピクセルに対し1つのピクセルの初期隣接範囲をセットする段階と、
(c2)前記カウントアキュムレータ(102)において各ピクセルに対するその各々の隣接範囲内でピクセル値のカウントアキュムレータ加算を実施する段階と、
(c3)前記カウントアキュムレータ加算が著しい非ゼロであるかどうかに関してチェックを実施する段階と、
(c4)前記チェックの結果が真でなく、前記カウントアキュムレータ加算が著しい非ゼロでないことを示す場合には、前記チェックが真になるまで、前記隣接範囲を増加しながら前記段階(c2)及び(c3)を繰り返す段階と、
(c5)前記段階(c2)で参照された前記カウントアキュムレータピクセルに対して同等の位置にあるデータアキュムレータピクセルに対し、前記チェックで著しい非ゼロの加算が指示されたものに等しい隣接範囲内でピクセル値にわたってデータアキュムレータ加算を実施する段階と、
(c6)前記データアキュムレータ加算を、前記著しい非ゼロのカウントアキュムレータ加算で除算することにより、除算結果を得る段階と、
(c7)前記除算結果を、前記段階(c2)で参照された前記カウントアキュムレータピクセルに対応的に位置された複合映像(104)におけるピクセルに加算する段階と、
を含む請求項38に記載の方法。 - 複数のセンサを組み込んでおり、複合映像を形成するための映像を得る前記センサ(12)は、第1センサであり、更に、前記センサは、物体映像の動き(Δxc(t))の推定を発生するためのデータを得る第2センサも含み、そしてこの推定は、各々の映像(It)に関連付けされる前に再スケーリング又は補間される、請求項36に記載の方法。
- 速度センサを使用して物体速度を測定し、そしてこの測定値から前記一連の映像の各々(It)に関連した物体映像の動き(Δxc(t))の各推定を導出するステップを備えた、請求項36に記載の方法。
- 前記センサ(12)は、実質的に長方形の視野(90)をもつフレーミングセンサであり、又、前記ステップ(b)は、前記一連の映像の各々(It)内に含まれたデータの少なくとも1つの同じ位置の非中央部分を、更に別の各々の映像データアキュムレータ手段に書き込む付加的な段階を含み、そして前記ステップ(c)は、各々の映像データアキュムレータアレイに含まれたデータから複数の複合映像を形成する段階を含む、請求項36に記載の方法。
- コンピュータ処理装置により実行するためのプログラムコード命令を実施するコンピュータ読み取り可能な媒体であって、前記命令は、物体が移動する視野を有するセンサを使用して得られた映像データの処理に関連したものである媒体において、このコンピュータ読み取り可能な媒体で実施される前記命令は、
a)一連の映像における現在映像を処理のために入力するステップと、
b)物体映像の動きの推定を導出するステップと、
c)一連の映像に対して前記ステップa)及びb)を繰り返すステップと、
d)物体映像の動きの各推定から導出された位置において、前記一連の映像フレームが貢献するところの複合映像を構成するステップと、
を行わせることを特徴とするコンピュータ読み取り可能な媒体。 - コンピュータプロセッサにより実行するためのプログラムコード命令を実施するコンピュータ読み取り可能な媒体であって、前記命令は、物体(6)が移動する視野(20)を有するセンサ(12)を使用して得られた映像データの処理に関連したものである媒体において、このコンピュータ読み取り可能な媒体で実施される前記命令は、
a)一連の映像における現在映像(It)に関連したピクセルデータにアクセスするステップと、
b)前記現在映像におけるピクセル(Ip t(x,y))が、前記物体映像の一部分である見込みを示す見込み尺度(wf(x,y))を導出するステップであって、前記見込み尺度は、前記一連の映像における現在映像(It)及びその先駆体映像(It-1)に含まれた情報から導出されるステップと、
c)対応する見込み尺度(wf(x,y))に基づいて重み付けされた映像ピクセル情報(Ip t(x,y), Ip t-1(x,y))から物体映像の動き(Δxi)の推定を導出するステップと、
d)収斂又は予め構成された繰り返し限界のいずれかが最初に生じるまで、前記ステップ(b)及び(c)を繰り返すステップと、
e)前記ステップ(c)で導出された前景の動きの推定(Δxi)を使用して、前記ステップ(b)で導出された前記見込み尺度(wf(x,y))を更新し、これにより、前記現在映像に対する前景映像の動き(Δxc)の最終推定を発生するステップと、
f)前記一連の映像における次々の現在映像に対して前記ステップ(a)から(e)を繰り返すステップと、
g)前記一連の映像(It)から複合映像を構成するステップであって、各映像は、前景映像の動き(Δxc)の各々の最終推定に基づいて前記複合映像に位置されるものであるステップと、
を行わせることを特徴とするコンピュータ読み取り可能な媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GBGB0305304.8A GB0305304D0 (en) | 2003-03-07 | 2003-03-07 | Scanning apparatus and method |
PCT/GB2004/000820 WO2004079659A1 (en) | 2003-03-07 | 2004-02-27 | Scanning apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006520042A true JP2006520042A (ja) | 2006-08-31 |
JP2006520042A5 JP2006520042A5 (ja) | 2007-04-19 |
Family
ID=9954363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006505899A Pending JP2006520042A (ja) | 2003-03-07 | 2004-02-27 | スキャニング装置及び方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US7675655B2 (ja) |
EP (1) | EP1602071B1 (ja) |
JP (1) | JP2006520042A (ja) |
AT (1) | ATE552573T1 (ja) |
GB (1) | GB0305304D0 (ja) |
WO (1) | WO2004079659A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090126187A (ko) * | 2008-06-03 | 2009-12-08 | 아스트리움 게엠베하 | 검출될 표면으로부터의 고도가 가변적일 때 능동 횡방향-시야 센서의 동작을 최적화하기 위한 프로세스 |
WO2009154294A1 (ja) * | 2008-06-20 | 2009-12-23 | 国立大学法人静岡大学 | 移動量抽出装置及びプログラム、画像補正装置及びプログラム並びに記録媒体 |
JP2010079328A (ja) * | 2008-09-24 | 2010-04-08 | Nec Corp | 画像補正装置およびその補正方法 |
Families Citing this family (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7545949B2 (en) | 2004-06-09 | 2009-06-09 | Cognex Technology And Investment Corporation | Method for setting parameters of a vision detector using production line information |
US9092841B2 (en) | 2004-06-09 | 2015-07-28 | Cognex Technology And Investment Llc | Method and apparatus for visual detection and inspection of objects |
US8127247B2 (en) | 2004-06-09 | 2012-02-28 | Cognex Corporation | Human-machine-interface and method for manipulating data in a machine vision system |
US8891852B2 (en) * | 2004-06-09 | 2014-11-18 | Cognex Technology And Investment Corporation | Method and apparatus for configuring and testing a machine vision detector |
US8243986B2 (en) | 2004-06-09 | 2012-08-14 | Cognex Technology And Investment Corporation | Method and apparatus for automatic visual event detection |
US9292187B2 (en) | 2004-11-12 | 2016-03-22 | Cognex Corporation | System, method and graphical user interface for displaying and controlling vision system operating parameters |
US7720315B2 (en) | 2004-11-12 | 2010-05-18 | Cognex Technology And Investment Corporation | System and method for displaying and using non-numeric graphic elements to control and monitor a vision system |
US7507965B2 (en) * | 2005-02-14 | 2009-03-24 | Spirit Solutions, Inc | Smart thermal imaging and inspection device for wheels and components thereof and method |
US7622715B2 (en) | 2005-04-11 | 2009-11-24 | Fluke Corporation | Method and apparatus for capturing and analyzing thermo-graphic images of a moving object |
US8098256B2 (en) | 2005-09-29 | 2012-01-17 | Apple Inc. | Video acquisition with integrated GPU processing |
US7711200B2 (en) | 2005-09-29 | 2010-05-04 | Apple Inc. | Video acquisition with integrated GPU processing |
CN101074935B (zh) * | 2006-05-19 | 2011-03-23 | 清华大学 | 探测器阵列及设备 |
US7492861B2 (en) * | 2006-10-13 | 2009-02-17 | Tsinghua University | Apparatus and method for quick imaging and inspecting moving target |
US8237099B2 (en) | 2007-06-15 | 2012-08-07 | Cognex Corporation | Method and system for optoelectronic detection and location of objects |
US8290839B1 (en) | 2007-09-24 | 2012-10-16 | Wells Fargo Bank, N.A. | Computer driven simulator and optimizer for distributed capture implementation |
US8103085B1 (en) | 2007-09-25 | 2012-01-24 | Cognex Corporation | System and method for detecting flaws in objects using machine vision |
IL187708A (en) * | 2007-11-28 | 2013-04-30 | Camero Tech Ltd | A bone-through radar radar system and a method for operating it |
US8103134B2 (en) * | 2008-02-20 | 2012-01-24 | Samsung Electronics Co., Ltd. | Method and a handheld device for capturing motion |
US20100033501A1 (en) * | 2008-08-11 | 2010-02-11 | Sti Medical Systems, Llc | Method of image manipulation to fade between two images |
JP4656456B2 (ja) * | 2008-10-22 | 2011-03-23 | 日本電気株式会社 | 車線区画線検出装置、車線区画線検出方法、及び車線区画線検出プログラム |
FR2948798B1 (fr) * | 2009-07-31 | 2011-09-16 | Astrium Sas | Procede d'estimation de decalages d'images lignes obtenues par un capteur a defilement spatial ou aeroporte |
US9111351B2 (en) * | 2011-12-15 | 2015-08-18 | Sony Corporation | Minimizing drift using depth camera images |
US9651499B2 (en) | 2011-12-20 | 2017-05-16 | Cognex Corporation | Configurable image trigger for a vision system and method for using the same |
JP5935435B2 (ja) * | 2012-03-26 | 2016-06-15 | 富士通株式会社 | 画像処理装置、画像処理方法 |
CN103310437B (zh) * | 2013-03-22 | 2016-01-06 | 上海工程技术大学 | 一种基于序列图像的织物形态特征提取方法 |
BR102013013365B1 (pt) * | 2013-05-29 | 2021-12-14 | Sicpa Brasil Indústria De Tintas E Sistemas Ltda | Método e dispositivo para contagem de objetos transportados em uma esteira de transporte |
US9170193B2 (en) | 2013-06-06 | 2015-10-27 | General Electric Company | Detecting coolant leaks in turbine generators |
US9097657B2 (en) | 2013-07-23 | 2015-08-04 | General Electric Company | Leak detection of stator liquid cooling system |
CN104375143A (zh) * | 2013-08-15 | 2015-02-25 | 同方威视技术股份有限公司 | 毫米波三维全息扫描成像设备及人体或物品检查方法 |
US20150166059A1 (en) * | 2013-12-18 | 2015-06-18 | Automotive Research & Testing Center | Autonomous vehicle driving support system and autonomous driving method performed by the same |
JP6493855B2 (ja) | 2014-02-26 | 2019-04-03 | パナソニックIpマネジメント株式会社 | 画像処理装置及び画像処理方法 |
US10460194B2 (en) * | 2014-03-07 | 2019-10-29 | Lior Wolf | System and method for the detection and counting of repetitions of repetitive activity via a trained network |
IL236114A (en) * | 2014-12-07 | 2016-04-21 | Yoav Grauer | Improved object recognition in the reimbursement-based imaging unit |
US10698111B2 (en) * | 2015-05-15 | 2020-06-30 | Sikorsky Aircraft Corporation | Adaptive point cloud window selection |
US10266168B2 (en) * | 2015-08-06 | 2019-04-23 | Ford Global Technologies, Llc | System and method for predictive road sensing to minimize transient electrical load issues |
DE102015215938A1 (de) * | 2015-08-20 | 2017-02-23 | Siemens Healthcare Gmbh | Verfahren zur lokalen Verbesserung der Bildqualität |
US10142196B1 (en) * | 2016-04-15 | 2018-11-27 | Senseware, Inc. | System, method, and apparatus for bridge interface communication |
US11712225B2 (en) * | 2016-09-09 | 2023-08-01 | Koninklijke Philips N.V. | Stabilization of ultrasound images |
US10942257B2 (en) | 2016-12-31 | 2021-03-09 | Innovusion Ireland Limited | 2D scanning high precision LiDAR using combination of rotating concave mirror and beam steering devices |
US11080537B2 (en) * | 2017-11-15 | 2021-08-03 | Uatc, Llc | Autonomous vehicle lane boundary detection systems and methods |
US11493601B2 (en) | 2017-12-22 | 2022-11-08 | Innovusion, Inc. | High density LIDAR scanning |
CN112292608A (zh) | 2018-02-23 | 2021-01-29 | 图达通爱尔兰有限公司 | 用于lidar系统的二维操纵系统 |
WO2020013890A2 (en) | 2018-02-23 | 2020-01-16 | Innovusion Ireland Limited | Multi-wavelength pulse steering in lidar systems |
US11592832B2 (en) * | 2018-08-20 | 2023-02-28 | Uatc, Llc | Automatic robotically steered camera for targeted high performance perception and vehicle control |
CN109729231B (zh) * | 2018-12-17 | 2021-06-25 | 中国科学院深圳先进技术研究院 | 一种文件扫描方法、装置及设备 |
US20200389624A1 (en) * | 2019-06-10 | 2020-12-10 | Barend Oberholzer | Mobile based security system and method |
CN115208992A (zh) * | 2022-05-30 | 2022-10-18 | 元潼(北京)技术有限公司 | 元成像被动扫描系统与方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0627249A (ja) * | 1992-07-13 | 1994-02-04 | Toshiba Corp | 放射線検査装置 |
JPH10304246A (ja) * | 1997-04-25 | 1998-11-13 | Brother Ind Ltd | 広域画像入出力装置 |
JPH10334395A (ja) * | 1997-06-05 | 1998-12-18 | Sanyo Electric Co Ltd | 交通情報測定方法及び装置 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US200A (en) * | 1837-05-22 | Geoege | ||
GB2222500A (en) | 1988-09-05 | 1990-03-07 | Philips Electronic Associated | Picture motion measurement |
US5748231A (en) * | 1992-10-13 | 1998-05-05 | Samsung Electronics Co., Ltd. | Adaptive motion vector decision method and device for digital image stabilizer system |
US5777690A (en) * | 1995-01-20 | 1998-07-07 | Kabushiki Kaisha Toshiba | Device and method for detection of moving obstacles |
JPH1091795A (ja) * | 1996-09-12 | 1998-04-10 | Toshiba Corp | 移動物体検出装置及び移動物体検出方法 |
JP2000295604A (ja) * | 1999-04-06 | 2000-10-20 | Yazaki Corp | 車両用後側方監視装置 |
JP2001213254A (ja) * | 2000-01-31 | 2001-08-07 | Yazaki Corp | 車両用側方監視装置 |
JP4159794B2 (ja) * | 2001-05-02 | 2008-10-01 | 本田技研工業株式会社 | 画像処理装置及び方法 |
US20020168091A1 (en) * | 2001-05-11 | 2002-11-14 | Miroslav Trajkovic | Motion detection via image alignment |
US6895102B2 (en) | 2001-06-29 | 2005-05-17 | Raytheon Company | Probability weighted centroid tracker |
US6954544B2 (en) * | 2002-05-23 | 2005-10-11 | Xerox Corporation | Visual motion analysis method for detecting arbitrary numbers of moving objects in image sequences |
-
2003
- 2003-03-07 GB GBGB0305304.8A patent/GB0305304D0/en not_active Ceased
-
2004
- 2004-02-27 JP JP2006505899A patent/JP2006520042A/ja active Pending
- 2004-02-27 WO PCT/GB2004/000820 patent/WO2004079659A1/en active Application Filing
- 2004-02-27 US US10/547,652 patent/US7675655B2/en active Active
- 2004-02-27 AT AT04715391T patent/ATE552573T1/de active
- 2004-02-27 EP EP04715391A patent/EP1602071B1/en not_active Expired - Lifetime
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0627249A (ja) * | 1992-07-13 | 1994-02-04 | Toshiba Corp | 放射線検査装置 |
JPH10304246A (ja) * | 1997-04-25 | 1998-11-13 | Brother Ind Ltd | 広域画像入出力装置 |
JPH10334395A (ja) * | 1997-06-05 | 1998-12-18 | Sanyo Electric Co Ltd | 交通情報測定方法及び装置 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090126187A (ko) * | 2008-06-03 | 2009-12-08 | 아스트리움 게엠베하 | 검출될 표면으로부터의 고도가 가변적일 때 능동 횡방향-시야 센서의 동작을 최적화하기 위한 프로세스 |
KR101638188B1 (ko) | 2008-06-03 | 2016-07-08 | 에어버스 데에스 게엠베하 | 검출될 표면으로부터의 고도가 가변적일 때 능동 횡방향-시야 센서의 동작을 최적화하기 위한 프로세스 |
WO2009154294A1 (ja) * | 2008-06-20 | 2009-12-23 | 国立大学法人静岡大学 | 移動量抽出装置及びプログラム、画像補正装置及びプログラム並びに記録媒体 |
JP4771186B2 (ja) * | 2008-06-20 | 2011-09-14 | 国立大学法人静岡大学 | 移動量抽出装置及びプログラム、画像補正装置及びプログラム並びに記録媒体 |
JP2010079328A (ja) * | 2008-09-24 | 2010-04-08 | Nec Corp | 画像補正装置およびその補正方法 |
Also Published As
Publication number | Publication date |
---|---|
US20060146377A1 (en) | 2006-07-06 |
ATE552573T1 (de) | 2012-04-15 |
US7675655B2 (en) | 2010-03-09 |
GB0305304D0 (en) | 2003-04-09 |
EP1602071A1 (en) | 2005-12-07 |
WO2004079659A1 (en) | 2004-09-16 |
EP1602071B1 (en) | 2012-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006520042A (ja) | スキャニング装置及び方法 | |
EP3491332B1 (en) | Reflectivity map estimate from dot based structured light systems | |
CN107204012B (zh) | 降低飞行时间深度成像的功耗 | |
US10852420B2 (en) | Object detection system, autonomous vehicle using the same, and object detection method thereof | |
US10084971B2 (en) | Method for measurement and 3D reconstruction of precipitation particles based on orthogonal dual-view imaging | |
JP5048600B2 (ja) | データ品位を向上する方法及びシステム | |
US20220291387A1 (en) | Processing of lidar images | |
JP5448617B2 (ja) | 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ | |
US8860824B2 (en) | Motion blur modeling for image formation | |
US20070064976A1 (en) | Methods, systems, and computer program products for acquiring three-dimensional range information | |
US20160014395A1 (en) | Data fusion processing to identify obscured objects | |
KR20080021646A (ko) | 연속 확장 범위의 이미지 프로세싱 | |
US9576335B2 (en) | Method, device, and computer program for reducing the resolution of an input image | |
EP2372641A2 (en) | Surface detection in images based on spatial data | |
KR102438078B1 (ko) | 어라운드뷰 제공 장치 및 방법 | |
CN112424821B (zh) | 基于由旋转成像器捕获的图像的全景图像构建 | |
US9552647B2 (en) | Method and arrangement for analysing the behaviour of a moving object | |
Young et al. | Signal processing and performance analysis for imaging systems | |
CN113359692A (zh) | 一种障碍物的避让方法、可移动机器人 | |
EP4206739A1 (en) | Artificial panorama image production and in-painting for occluded areas in images | |
JP2015524946A (ja) | 画像解像度が改善された超解像画像を形成するための方法及び測定装置 | |
CN115917369A (zh) | 超快光场断层摄影 | |
CN114299137A (zh) | 激光光斑中心定位方法及测试系统 | |
Iwaszczuk et al. | Detection of windows in IR building textures using masked correlation | |
US11769331B2 (en) | Side view camera detecting wheels |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070227 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070227 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100208 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20100428 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20100511 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20101129 |