JP2006520042A - スキャニング装置及び方法 - Google Patents

スキャニング装置及び方法 Download PDF

Info

Publication number
JP2006520042A
JP2006520042A JP2006505899A JP2006505899A JP2006520042A JP 2006520042 A JP2006520042 A JP 2006520042A JP 2006505899 A JP2006505899 A JP 2006505899A JP 2006505899 A JP2006505899 A JP 2006505899A JP 2006520042 A JP2006520042 A JP 2006520042A
Authority
JP
Japan
Prior art keywords
image
pixel
video
motion
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006505899A
Other languages
English (en)
Other versions
JP2006520042A5 (ja
Inventor
ギリアン フィオナ マーシャル
フィリップ ジョン ケント
ロジャー アップルビー
デイヴィッド ジョン バーレット
ジャネット ヒューズ
ジョン ピーター ギルハム
ピーター ラッセル コワード
ゴードン ニール シンクレアー
ジョン ティモシー サヴェイジ
ピアーズ トーマス ウィンチコンブ ホークスリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qinetiq Ltd
Original Assignee
Qinetiq Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qinetiq Ltd filed Critical Qinetiq Ltd
Publication of JP2006520042A publication Critical patent/JP2006520042A/ja
Publication of JP2006520042A5 publication Critical patent/JP2006520042A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)
  • Vehicle Body Suspensions (AREA)

Abstract

移動物体をスキャニングする装置は、物体がセンサ視野(16)を通過するときに物体の一連の映像を収集するように配向された可視波長帯域センサ(12)を備えている。映像プロセッサ(14)は、これら一連の映像を使用して、複合映像を形成する。又、映像プロセッサ(14)は、一連の映像の現在映像及びその先駆体映像に対する映像ピクセルデータを記憶する。現在映像及びその先駆体映像の情報を使用して、映像を分析すると共に、現在映像のピクセルが物体の部分に対応する確率を指示する見込み尺度を導出する。更に、映像プロセッサ(14)は、見込みで重み付けされたピクセルから現在映像とその先駆体との間の動きを推定する。次いで、物体映像の動きの各推定に基づいて位置するフレームから複合映像を発生する。或いは又、映像の動きは、物体の動きを直接感知して映像タイミング信号を与えるドップラーレーダー(200)のような速度センサにより検出されてもよい。

Description

本発明は、スキャニング装置及びスキャニング方法に係り、より詳細には、物体とスキャニング装置との間に相対的な移動が生じたときにとられる一連の映像として物体を像形成するように意図された装置に係る。
物体とセンサとの間の相対的移動に基づいて物体のスキャニングを行う像形成装置が知られている。物体がセンサの視野を横切って移動する場合、物体の区分の一連の映像又はフレームとして物体の映像を収集することができる。これは、物体の運動方向に延びるフレームシーケンスを生じさせる。このような像形成装置は、比較的狭い検出器を使用して、各フレーム映像を収集することが多く、狭い検出器の寸法に平行な方向に次々のフレームが変位され、そしてスキャンは、プッシュ−ブルーム(押し箒)スキャンと称される。この構成は、スキャンされるべき物体にセンサを接近させる必要がある場合、或いは高い倍率を使用して、充分な解像度を与えるべき場合に、一般に使用される。しかしながら、単一のフレームで物体全体を像形成できるに充分な広い視野を検出器に与えることは、実際的でないか、又は不可能なこともある。その例として、ハンドバッグを検査するための空港用X線システムや、衛星地上スキャニングイメージャーが含まれる。
特許文献1(WO03/003311号)は、移動ターゲットを監視するためのターゲット追跡システムを開示している。JP7284016号は、デジタル映像安定化システムのための適応運動ベクトルの決定を開示している。GB2222500号は、2つの画像の領域を相関させて運動ベクトルを発生することによりテレビ画像の動き評価を開示している。
物体全体を単一のフレームで像形成できない像形成システムでは問題に遭遇する。その第1の問題は、物体がセンサを越えて移動するときに像形成システムによりとられる個々のフレームから物体の複合映像を組み立てねばならないことである。複合映像における各フレームの位置付けは、厳密にスキャン速度に依存する。実際のスキャン速度が、映像の再構成において仮定された速度に充分厳密に一致しない場合には、複合映像が歪んで見え、その特徴を識別するのが困難なことがある。これは、一定速度で移動している物体、例えば、全てが同じ低い速度で移動するコンベア上の物品、を監視するのに使用されるスキャナにとっては、問題にならない。しかしながら、スキャニングシステムとは独立して速度が制御される場合には、著しい問題になり得る。これは、コンベアがランダムに移動するローラーに置き換えられた場合、又はスキャン装置のオペレータではなく乗物の運転者がスキャン速度を制御するような移動乗物をスキャニングする場合である。
この形式のイメージャーに対する第2の問題として、スキャニングの目的が、多くの場合に、便利な放射波長において不透明な容器の内容物を識別することである。容器は、通常、X線を透過するが、X線は、潜在的に有害なもので、健康や安全上大きな問題を生じるだけでなく、容器の内容物にダメージを及ぼすこともあるので、常に適当ではない。例えば、ボックスが敏感な電子装置と共に正しくパッケージされたことをチェックすることが要求される場合に、X線検査は、パッケージを確認するが、装置にダメージを及ぼすことがある。更に、単一のスキャニング波長は理想的なものではなく、従って、調査及び検査システムは、例えば、可視帯域像形成、X線像形成、二酸化炭素検出、ミリメーター波像形成、及び熱式像形成のような技術を組み合わせて使用することが意図されている。これらの技術は、全て、種々の利点と欠点を持ち合わせている。
可視帯域イメージャーは、移動容器の外部の高解像度映像を発生できるが、それが透明でない限り(これはあり得ない)、その内容物は見えない。このような像形成は、付加的な(能動的な)照明が使用されない限り、夜間に使用することはできず、そして日光の中で屋外に使用した場合には、太陽光線がイメージャーの光学系に入り込むと、眩光を受け易くなる。固定位置カメラは、太陽が空を横切って移動するので、一日中、眩光を回避するために、非常に入念に位置設定することを必要とする。
X線像形成は、X線吸収材料と整列されない限り、多数の容器形式の内容物の適度な解像度の像を形成することができる。累積的露出は、生きた組織にとって危険であり、従って、著しい安全性の問題が生じる。
二酸化炭素検出は、動物生命(例えば、密輸されるペット)の存在を検出するのに有用であるが、検出器を容器内に手で挿入しなければならないという点で侵襲的技術である。
ミリメーター波像形成は、ある容器、例えば、織物又は薄いボール紙で作られた容器の内容物の低解像度映像を与えることができる。ミリメーター波イメージャーは、多くの場合に、付加的な放射器を必要とせずに、自然の周囲エネルギーの反射を像形成するだけであるという点で、受動的モードで動作され、従って、この技術は、X線の健康上の問題をもたない。しかしながら、この波帯域では、専門的でない観察者により予想されるものについて物体が非常に異なって見えるので、映像を解釈することが困難である。更に、技術的又は財務的な事柄から、解像度、視野及び/又は視界深度が限定された像形成センサの選択を招き、これらは、全て、単一のセンサ映像から全体的なシーンを見ることを困難にする。
熱式像形成は、熱波長帯域(即ち、3−5μm又は8−12μm)において容器の外部の中間解像度映像を形成することができる。これは、金属外皮容器の内部にもたれかかった内容物の何らかの異常を検出することができる。
WO03/003311号公報
一般に、像形成が不完全であるか、又は内容物が、付加的な問題を引き起こす技術により像形成され、即ち、上述したように、X線は潜在的に有害であり、そして二酸化炭素検出は侵襲的で、トラフィックフローを中断させる。受動的感知は、健康上及び安全上の観点から望ましく、特に、大衆がチェックポイントにアクセスできるときに望ましいが、単一の受動的イメージャーでは、おそらく遭遇する全ての容器の内容物の映像を撮影できない。従って、受動的感知は、多数のセンサを使用して、多数の波長帯域における映像を収集する場合にのみ効果的に使用される。このような構成は、単一センサで達成できる以上の完全な検査又は監視を与える。
各々が各センサモードをもつ複数の線スキャンイメージャーを使用して、異なる波長帯域の映像を与える場合には、付加的な問題が生じる。例えば、可視、熱式及びミリメーター波長帯域における映像がオペレータに一緒に表示されて比較を容易にするのが効果的である。これは、容器の見掛け及び内容物の異常を検出する上でオペレータを助成する。例えば、可視又はミリメーター波長帯域で観察される形状が、それ自身無害に見えるが、この知識が、容器の映像の対応部分も熱的符号を有することと結合された場合には、オペレータに警告を与え、容器が疑わしいと指示することができる。逆に、1つの帯域において疑わしく見えるもの(例えば、熱的符号)が、別の帯域における映像(例えば、異なる熱放射率を有する異なるカラーペイント)により説明できる場合には、無駄な手動サーチを回避することができる。このような有用な比較を容易にするために、3つ全部の各波長帯域において異なる検出器で収集された移動容器の映像をスケーリングして位置合わせする必要がある。更に、これは、リアルタイムシステムにおいて有用であるに充分な短い時間スケールで行う必要がある。これは、従来技術では、パワフルで且つ高価な計算リソースに依存しないと、不可能である。
異なるセンサモードを使用して得られた映像を位置合わせするための2つの主たる障害は、センサのスキャンパターンが異なることと、物体が移動することである。上述した潜在的に変化する物体速度の問題は、異なる映像の比較を容易にする上で対処しなければならない1つの観点に過ぎない。
全ての像形成技術は、物体の速度が映像捕獲速度に不一致である場合、映像欠陥が生じるという潜在的な問題で悩まされている。例えば、物体のサンプリングが過少である場合には、映像にギャップが現れる。このような欠陥は、映像の利用性を低減させる。更に、異なるセンサモードは、異なる仕方で影響され、異なる映像の位置合わせを複雑にする。
スキャン速度は一定と仮定されるが、センサを通過する真の物体速度が変化する場合には、速度の低下又は上昇により、物体の移動方向に沿って再構成される映像に各々伸張又は圧縮が生じる。この場合も、映像のクオリティ及び利用性が低下する。センサの異なるモードは、おそらく、異なるスキャンレートを有するので、それらの映像は、この速度変化により異なる仕方で影響される。この場合も、映像の位置合わせは、より困難になる。
最後に、センサは、潜在的に異なる解像度をもつ異なる動作波長を有する。これも、映像の位置合わせを複雑にする。
従って、映像を処理して複合映像を形成するスキャニングシステムであって、スキャニング速度の変化により生じる著しい映像低下を回避するようなスキャニングシステムを提供する要望があることが認められる。
本発明は、移動物体をスキャニングするための装置であって、物体がセンサ視野を通過するときに物体の一連の映像を収集するように配向されたセンサと、その一連の映像を入力しそしてそこから複合映像を形成するように構成された映像処理手段とを備えた装置において、この映像処理手段が、
a)一連の映像内の映像と映像との間の物体映像の動きの推定を発生するための動き推定手段と、
b)その推定された物体映像の動きから導出された位置において一連の映像が貢献するところの複合映像を発生するための表示処理手段と、
を備えたことを特徴とする装置を提供する。
本発明による装置は、一定であることが要求されない速度で装置を越えて移動する物体を像形成するのに使用できるという効果を発揮する。その結果、本発明は、運転者制御型移動乗物のような物体を像形成するのに特に適しており、即ち乗物の速度が装置のオペレータにより制御されるのではないときに特に適している。例えば、空港や料金所や混雑する充電ポイントや計量台等において、車両、バン、トラック及び他の移動乗物を有効にスキャニングする需要が増大している。更に、本発明は、映像情報を迅速に処理することができる。これは、異なるセンサが異なる波長で動作するマルチセンサ像形成システムへの使用を初めて実現可能にした。
好ましい実施形態では、動き推定手段は、一連の映像からの現在映像内の多数のピクセルの各々に対し、各映像ピクセルが物体の一部分に対応する見込みを指示する見込み尺度を導出するための映像アナライザを備え、そして動き推定手段は、その見込み尺度に基づいて重み付けされた映像ピクセルから、現在映像とその先駆体との間の物体映像の動きの推定を発生するように構成される。
この実施形態では、物体がセンサの瞬時視野を埋める必要がなく、即ち映像ピクセルは、物体の一部分に関連したものであるか、又はそれが現れるシーンに関連したものであると分類され、この分類は、映像内に含まれた情報を使用して行われる。
センサは、スキャニングされるべき移動物体に対して予め構成された動き方向に実質的に垂直に整列された光学軸を有してもよい。一連の映像における現在映像の先駆体は、直前の映像でよい。
映像アナライザは、現在映像におけるピクセルの強度と、現在映像の先駆体において同等に位置するピクセルの強度との比較に基づいて、各ピクセルに対する見込み尺度を導出するように構成できる。見込み尺度は、現在映像におけるピクセルの強度と、それと同等に位置するピクセルの強度との間の差の二乗に比例するものでよい。映像アナライザは、現在映像ピクセルの強度と、現在映像ピクセルにより像形成されるものと同じである物体領域を像形成すべく推定された先駆体におけるピクセルの強度との比較に更に基づいて、各ピクセルに対する見込み尺度を導出するように構成でき、先駆体におけるピクセルは、物体映像の動きの現在推定が真の映像の動きを表わすという仮定に基づいて動き補償により導出された位置を有する。
或いは又、見込み尺度は、現在映像ピクセルの強度と、その先駆体に同等に位置する第2ピクセルの強度と、該先駆体内の第3ピクセルであって、現在映像ピクセルにより像形成されるものと同じである物体領域を像形成すると推定される第3ピクセルの強度と、から導出でき、該第3ピクセルは、物体の動きの補償により導出される位置を有し、そして見込み尺度(wf(x,y))は、負でない定数をcとし、そして例えば、1から4又は1.5から2.5の範囲の正の数をnとすれば、次の式で与えられる。
Figure 2006520042
或いは又、第3ピクセルは、物体の動きの補償により導出される位置を有してもよく、そして見込み尺度は、物体映像強度におけるノイズの標準偏差σf及び背景映像強度におけるノイズの標準偏差σbの推定値を使用して、次の方程式に基づいて導出される。
Figure 2006520042
但し、
Figure 2006520042
及び
Figure 2006520042
映像アナライザは、物体の動きの第1の推定を使用して、第2のそのような推定を計算し、その後、以前の繰り返しにおいて動き推定手段により発生された物体の動きの推定に基づいて見込み尺度を繰り返し計算するように構成されてもよく、そして動き推定手段は、各々の以前の動き推定を使用して更新された見込み尺度に基づいて現在の繰り返しに対する物体の動きの推定を繰り返し発生するよう構成される。
センサは、実質的に長方形の視野をもつフレーミングセンサでよく、そして表示処理手段は、一連の映像の各々に対し、センサの視野内で複数のストリップから映像データを取り出し、そして各映像における各ストリップからの貢献を各々有する対応する複数の複合映像を発生するよう構成される。又、センサは、第1センサでよく、前記装置は、物体が少なくとも1つの他のセンサの視野を通過するときに物体の各一連の映像を得るように配向された少なくとも1つの他のセンサを備え、そして表示処理手段は、更に、第1センサの一連の映像から導出された映像の動きの推定に基づいて各一連の映像から各複合映像を発生するように構成される。少なくとも1つの他のセンサは、第1のセンサとは異なる波長で像形成でき且つ異なる方向に沿って配向された少なくとも1つのセンサでよい。又、第1のセンサは、可視帯域イメージャーでよく、そして少なくとも1つの付加的なセンサは、可視帯域イメージャー、ミリメーター波イメージャー及び熱式イメージャーの少なくとも1つである。
動き推定手段は、物体の速度に比例する周波数をもつ出力信号を与えるドップラーレーダーのような物体速度センサでよい。前記装置は、ドップラーレーダーの出力信号をタイミングどりするための共通のクロック信号を与えると共に、これらクロック信号パルスのカウントに関して一連の映像における映像を収集するように構成できる。又、各々のフレーム信号を与えて、ドップラーレーダー出力信号から導出された映像及び時間/位置データをタイミングどりして、物体移動をタイミングどりし、更に、補間を行って映像のタイミングを物体の位置に関係付け、そして物体の位置に基づいた位置にある映像から複合映像を形成するように構成できる。
更に別の態様において、本発明は、運転者により制御される移動乗物をスキャニングするための装置であって、乗物がセンサ視野を通過するときに乗物の一連の映像を収集するように配向されたセンサと、この一連のセンサ映像を入力しそしてそこから乗物の複合映像を形成するように構成された映像処理手段とを備えた装置において、映像処理手段が、
a)一連の映像の中の現在映像内の多数のピクセルの各々に対し、そのピクセルが乗物の一部分に対応する見込みを指示する各々の見込み尺度を導出するための映像分析手段であって、現在映像及びその先駆体内に含まれた情報を使用するように構成された映像分析手段と、
b)その見込み尺度に基づいて重み付けされた映像ピクセルから現在映像とその先駆体との間の物体映像の動きの推定を発生するための動き推定手段と、
c)その推定された物体映像の動きから導出された位置において一連のフレームが貢献するところの複合映像を発生するための表示処理手段と、
を備えたことを特徴とする装置を提供する。
別の態様において、本発明は、物体がセンサ視野を通して移動するときにセンサに得られる一連の映像から複合映像を構成する方法において、
a)現在映像を処理のために入力するステップと、
b)物体映像の動きの推定を導出するステップと、
c)一連の映像に対して前記ステップa)及びb)を繰り返すステップと、
d)物体映像の動きの推定から導出された位置において一連の映像フレームが貢献するところの複合映像を構成するステップと、
を備えたことを特徴とする方法を提供する。
好ましい実施形態において、前記方法のステップb)は、
b1)現在映像におけるピクセルに対し、各ピクセルが物体の部分に対応する見込みを指示する見込み尺度を導出する段階と、
b2)その見込み尺度に基づいて重み付けされた映像ピクセル情報から、物体映像の動きの推定を導出する段階と、
b3)前記推定が収斂するか又は予め構成された繰り返し限界に達するまで、前記段階(b2)で導出された物体映像の動きの推定を使用して、前記段階(b1)及び(b2)を繰り返して、前記段階(b1)で導出された見込み尺度を更新し、これにより、現在映像に対する物体映像の動きの第1推定を発生する段階と、
を備え、更に、前記ステップd)は、物体映像の動きの最終推定から導出される位置において、一連の映像が貢献するところの複合映像を構成する段階を含む。
前記ステップ(b)は、現在映像内に含まれた情報と、その先駆体内に含まれた情報とを比較して、見込み尺度を導出する段階を含んでもよい。更に、現在映像の各ピクセルに対し、ピクセル強度と、その先駆体の同等の位置におけるピクセル強度との比較を行い、そしてこのような比較を使用して見込み尺度を導出する段階を含んでもよい。
見込み尺度は、現在映像におけるピクセルの強度と、その先駆体の同等の位置のピクセルの強度との間の差の二乗に比例するものでよい。
現在映像におけるピクセルに対し、前記ステップ(b)は、更に、
b4)現在映像とその先駆体との間の物体映像の相対的な動きを、映像の真の動きを表わす物体映像の動きの現在推定に基づいて補償する段階と、
b5)現在映像のピクセルの強度と、その先駆体における各同等の映像ピクセルの強度との比較を行う段階と、
b6)現在映像及びその先駆体における同等の位置のピクセル及び同等の像形成ピクセルの両方との比較から、見込み尺度を導出する段階と、
を備えてもよい。
各ピクセルに対する見込み尺度は、現在映像におけるピクセル強度と、その先駆体における同等の位置のピクセルの強度と、該先駆体における同等の像形成ピクセルの強度とから、負でない定数をcとし、そしてn>0とすれば、次の方程式により導出できる。
Figure 2006520042
又、各ピクセルに対する前景見込みの尺度は、前景及び背景ノイズ強度の標準偏差σf及びσdの推定から、次の方程式に基づいて導出できる。
Figure 2006520042

Figure 2006520042

Figure 2006520042
先駆体(predecessor)は、現在映像の直前のものでよい。
前記方法は、物体が通過する視野を有する少なくとも1つの付加的なセンサから各複合映像を構成する付加的なステップを備えてもよく、各複合映像は、少なくとも1つのセンサからの各現在映像を、前記ステップ(d)で発生された物体映像の動きの関連収斂推定から導出された各位置に入れることにより構成される。
物体映像の動きの推定を導出する前記ステップ(b)は、例えば、物体速度に比例する周波数をもつ出力信号を発生するドップラーレーダーのような物体速度センサを使用して実施してもよい。前記方法は、共通のクロック信号を使用して、ドップラーレーダーの出力信号をタイミングどりし、そしてクロック信号パルスのカウントに関して一連の映像における映像を収集してもよい。又、各フレーム信号を使用して、ドップラーレーダー出力信号から導出された映像及び時間/位置データをタイミングどりして、物体の移動をタイミングどりし、更に、補間を行って、映像のタイミングを物体の位置に関係付け、そして物体位置に基づいた位置にある映像から複合映像を形成してもよい。
更に別の態様において、本発明は、物体がセンサ視野を経て移動するときに、センサにより捕獲される一連の映像から複合映像を構成する方法において、
a)物体映像の動きの各推定を、現在映像と指示されたときの各映像に関連付けるステップと、
b)現在映像を、その現在映像に対する物体映像の動きの推定と、一連の映像における早期捕獲映像に対して得られる同様の推定との和から導出されるデータアキュムレータ内の各位置に関連付けるステップと、
c)一連の映像に対して前記ステップa)及びb)を繰り返し、そして各位置に基づいた位置にある映像中央部分から複合映像を形成するステップと、
を備えた方法を提供する。
各映像中央部分は、少なくとも、物体映像の動きの関連推定と同程度の巾でよい。又、前記ステップ(b)は、データがデータアキュムレータに追加される位置に対応するピクセル位置でカウントアキュムレータを、各ピクセルに対するこのような追加の回数を示すのに適するように増加する段階を備えてもよく、そして前記ステップ(c)は、データアキュムレータのピクセル値を、各々の対応的に位置するカウントアキュムレータのピクセル値で除算する段階を含んでもよい。
前記方法は、カウントアキュムレータの増分、及び現在映像の中央部分におけるピクセル値を、左及び右の重み付けファクタで重み付けして、各々、重み付けされた増分及び重み付けされたピクセル値を発生するステップを備え、その重み付けされた増分は、カウントアキュムレータにおける第1及び第2の整数ピクセル位置に追加され、そしてその重み付けされたピクセル値は、データアキュムレータにおける同様に位置されたピクセル位置に追加され、整数ピクセル位置は、現在映像及びその先駆体に対する物体映像の動きの加算から導出された推定真のピクセル位置に隣接する位置であり、そして左及び右の重み付けファクタは、真のピクセル位置と、それに隣接する整数ピクセル位置との間の差に対して決定される。
前記方法は、カウントアキュムレータの増分、及び現在映像の中央部分におけるピクセル値を、重み付けファクタにより重み付けして、積を形成し、これらの積を、各アキュムレータ内の対応する整数ピクセル位置に追加するステップを備え、整数ピクセル位置は、現在映像及び早期捕獲映像に対する物体映像の動きの和から導出される推定真のピクセル位置に隣接する位置であり、そして一連の重み付けファクタは、滑らかな補間関数に基づいて決定される。
前記ステップ(c)は、
(ci)データアキュムレータ及びカウントアキュムレータのデータに空間的平滑化フィルタを適用する段階と、
(cii)各々のカウントアキュムレータピクセル値が各ケースにおいて非ゼロであるかどうかに基づいて、データアキュムレータのピクセル値を各々の対応的に位置されたカウントアキュムレータのピクセル値で除算するか、又はフィルタされたデータアキュムレータのピクセル値を各々の対応的に位置されたフィルタされたカウントアキュムレータのピクセル値で除算することにより、複合映像を形成する段階と、
を含むことができる。
或いは又、前記ステップ(c)は、
(c1)カウントアキュムレータの各ピクセルに対して1つのピクセルの初期隣接範囲をセットする段階と、
(c2)カウントアキュムレータの各ピクセルに対してその各々の隣接範囲内でピクセル値のカウントアキュムレータ加算を実施する段階と、
(c3)カウントアキュムレータ加算が著しい非ゼロであるかどうかに関してチェックを実施する段階と、
(c4)チェックの結果が真でなく、カウントアキュムレータ加算が著しい非ゼロでないことを示す場合には、チェックが真になるまで、隣接範囲を増加しながら前記段階(c2)及び(c3)を繰り返す段階と、
(c5)前記段階(c2)で参照されたカウントアキュムレータピクセルに対して同等の位置にあるデータアキュムレータピクセルに対し、前記チェックで著しい非ゼロの加算が指示されたものに等しい隣接範囲内でピクセル値にわたってデータアキュムレータ加算を実施する段階と、
(c6)そのデータアキュムレータ加算を、前記著しい非ゼロのカウントアキュムレータ加算で除算することにより、除算結果を得る段階と、
(c7)その除算結果を、前記段階(c2)で参照されたカウントアキュムレータピクセルに対応的に位置された複合映像におけるピクセルに加算する段階と、
を含んでもよい。
前記方法は、複数のセンサを使用することができ、複合映像を形成するための映像を得るセンサは、第1センサであり、更に、前記センサは、前景映像の動きの推定を発生するためのデータを得る第2センサも含み、そしてこの推定は、各映像に関連付けされる前に再スケーリング又は補間される。
前記方法は、速度センサを使用して物体速度を測定し、そしてこの測定値から一連の映像の各々に関連した前景映像の動きの各推定を導出するステップを含むことができる。
センサは、実質的に長方形の視野をもつフレーミングセンサでよく、又、前記ステップ(b)は、一連の映像の各々内に含まれたデータの少なくとも1つの同じ位置の非中央部分を、更に別の各々の映像データアキュムレータ手段に書き込む付加的な段階を含むことができ、そして前記ステップ(c)は、各々の映像データアキュムレータアレーに含まれたデータから複数の複合映像を形成する段階を含むことができる。
更に別の態様において、本発明は、コンピュータ処理装置により実行するためのプログラムコード命令を実施するコンピュータ読み取り可能な媒体であって、前記命令は、物体が移動する視野を有するセンサを使用して得られた映像データの処理に関連したものである媒体において、このコンピュータ読み取り可能な媒体で実施される前記命令は、
a)一連の映像における現在映像を処理のために入力するステップと、
b)物体映像の動きの推定を導出するステップと、
c)一連の映像に対して前記ステップa)及びb)を繰り返すステップと、
d)物体映像の動きの各推定から導出された位置において一連の映像フレームが貢献するところの複合映像を構成するステップと、
を行わせることを特徴とするコンピュータ読み取り可能な媒体を提供する。
更に別の態様において、本発明は、コンピュータプロセッサにより実行するためのプログラム命令を実施するコンピュータ読み取り可能な媒体であって、前記命令は、物体が移動する視野を有するセンサを使用して得られた映像データの処理に関連したものである媒体において、このコンピュータ読み取り可能な媒体で実施される前記命令は、
a)一連の映像における現在映像に関連したピクセルデータにアクセスするステップと、
b)現在映像におけるピクセルが、物体映像の一部分である見込みを示す見込み尺度を導出するステップであって、その見込み尺度は、一連の映像における現在映像及びその先駆体映像に含まれた情報から導出されるステップと、
c)対応する見込み尺度に基づいて重み付けされた映像ピクセル情報から物体映像の動きの推定を導出するステップと、
d)収斂又は予め構成された繰り返し限界のいずれかが最初に生じるまで、前記ステップ(b)及び(c)を繰り返すステップと、
e)前記ステップ(c)で導出された前景の動きの推定を使用して、前記ステップ(b)で導出された見込み尺度を更新し、これにより、現在映像に対する前景映像の動きの最終推定を発生するステップと、
f)一連の映像における次々の現在映像に対して前記ステップ(a)から(e)を繰り返すステップと、
g)一連の映像が貢献するところの複合映像を構成するステップであって、各映像は、前景映像の動きの各々の最終推定に基づいて位置されるものであるステップと、
を行わせることを特徴とするコンピュータ読み取り可能な媒体を提供する。
以下、添付図面を参照して、本発明の実施形態を一例として詳細に説明する。
図1は、容器6の形態の物体をスキャニングするための本発明装置の第1実施形態4を示す。1組のローラー8が、容器6及び他の容器(図示せず)を、スキャニング装置4の視線11に一般的に垂直の方向10に搬送する。スキャニング装置4は、可視帯域センサ12及び映像処理ユニット14を備えている。センサ12は、各々が単一のピクセル出力を発生する検出素子(図示せず)の実質的に直線的なアレーで構成され、ここで、「直線的」という表現は、アレーの第1方向(長軸)における検出素子の数が、その第1方向に垂直なアレーの第2方向(短軸)における数より大きいことを意味する。アレーの長軸は、例えば、その程度が1024ピクセルまででよく、そして短軸は、その程度が1、3、8ピクセル以上でよい。短軸に2つ以上のピクセルを使用すると、ノイズ性能が改善され、即ち速度測定装置を必要とせずに、容器移動感知にも映像データを使用できるようになる。「短」軸が比較的長い場合には、多数の複合映像を発生することができる。これら別の態様は、以下に例示する。アレーは、その短軸が容器6の水平移動方向10に平行で且つその長軸が垂直方向となるように整列される。アレーの長軸に沿ったピクセルの数は、センサ12が、ローラーの位置において、スキャニングされるべき容器に予想される最大高さより若干大きな垂直高さを包囲する視野(16のような破線で示す)を有することを確保するに充分なものである。図1に示す特定の時点では、センサ視野16は、斜線領域20で指示された容器のエリアをカバーする。
ローラー8が回転すると、容器6のような容器は、センサ12を越えて搬送される。物体(容器6)とセンサ12との間の相対的移動により、センサ12は、容器6のプッシュ−ブルーム(押し箒)スキャンを実行して、その映像を一連の映像フレームとして記録することができる。即ち、スキャンが進行するにつれて、容器6の次々の領域20が直線的アレーにおける各映像フレームとして像形成される。映像処理ユニット14は、個々の映像フレームから物体全体の複合映像を再構成するように形成される。複合映像は、次いで、ディスプレイ(図示せず)に送信される。
完全な複合映像を再構成するために、次々のフレームを互いに位置合わせして配置しなければならない。即ち、変化するスキャン速度(例えば、ローラーの動き)による歪みや、フレームの重畳を排除しなければならない。これを行うために、フレームとフレームとの間の容器6の動きの推定が要求される。従って、記録される映像フレームごとに、像処理ユニット14は、容器6の動きの推定を導出する。次いで、容器の推定される動きを考慮した各位置において複合映像内に各フレームを配置することにより、複合映像が組み立てられる。物体の環境を前もって知らずに、又、その動きの性質を仮定もせずに、この映像再構成を達成する仕方が、本発明の新規な特徴である。詳細は以下で述べるが、この実施形態では、映像処理ユニット14は、個々の映像フレーム内に含まれた情報のみから複合映像を再構成する。特に、スキャニング中に容器6を一定速度で移動させたり又は特定の形状をもたせたりする必要はない。
本発明は、相対的移動を与える手段に関わらず、センサに対して移動する物体のスキャニングに適用することができる。図1(及び図2及び3)に示す容器6及びローラー8の構成体は、例示に過ぎない。乗物の動きが使用される別の構成体も、図12を参照して以下に説明する。更に、実質的に直線的な検出器アレーを参照するが、これは、好ましい実施形態に過ぎない。もちろん、広いアレーを使用し、そして必要に応じて、ピクセルの特定サブセットの外側の映像情報を破棄することもできる。本発明のある用途では、水平方向に著しい巾をもち、おそらく、垂直方向より水平方向により多くのピクセルをもつセンサを使用するのが好ましい。
移動物体6をスキャニングするための別の形態の装置22が図2に示されている。この図において、上述したものと同等のコンポーネントは、同様に参照される。この場合も、移動物体は、ローラー8に取り付けられた容器6として示されている。しかしながら、この実施形態では、スキャニング装置22は、可視帯域センサ12及び映像処理ユニット14に加えて、熱式イメージャー24も備えている。スキャンを実行する際に、熱式イメージャー24は、可視センサ12に接近配置され、そして平行な方向に(即ち、光学軸25が容器6の移動方向10に垂直になるように)整列される。熱式イメージャー24は、感知素子(ピクセル)の実質的に直線的な(背が高くて狭い)アレー26を備えている。垂直方向におけるピクセルの数は、イメージャー24の視野28が、ローラーの位置において、スキャニングされることが予想される容器の最大高さより若干大きな垂直高さを包囲することを確保するに充分なものである。図2に示す特定の時点で、可視センサの視野16は、斜線領域20で示された容器の第1エリアをカバーし、熱式イメージャーの視野28は、斜線領域30で示された容器の第2エリアをカバーする。斜線領域20と30の巾の比較から明らかなように、各像形成アレーの短軸が容器6において等しい巾をもつ必要はない。
この実施形態22では、矢印10の方向における容器6の移動は、両センサ12及び24によるプッシュ−ブルームスキャンを行わせる。このスキャンが進行するにつれて、容器の次々の領域20が可視センサ12により像形成され、そして次々の領域30が熱式イメージャー24により像形成される。それ故、2つの個別の一連の映像フレームが捕獲されて、映像処理ユニット14へ分析のために通される。映像処理ユニット14は、これら一連のフレームから容器6の2つの個別の映像を再構成し、これら映像の第1は可視波帯域にあり、そして第2は熱波帯域にある。これら2つの複合映像は、スケーリングされて、ディスプレイへ出力される。スケーリングは、映像がより小さなサイズで表示されることを確保し、これは、映像と映像との間の情報を比較する上で助けとなる。ユーザ選択オプションは、異なるセンサモードからの2つの複合映像を同じディスプレイスクリーン上に表示するように映像処理ユニット14に命令する。ここに述べる実施形態では、熱的映像及び可視帯域映像の両方が、互いに上下に、一緒に表示される。
この実施形態22では、映像を正しく位置合わせできるのが重要であることが明らかであろう。容器6の歪のない映像、即ち動きによる欠陥やフレームの重畳を伴わない映像を見ることが望まれるだけでなく、オペレータが、異なる波長で得られた2つの映像を互いに直接的に比較できることも重要である。例えば、熱的映像の中心点に異常が現れた場合に、可視映像の同じ領域を直ちにクロスチェックできることが非常に有用である。これは、異常を更に検査する方が良いかどうか決定する上で助けとなる。
第1センサ12で検出された可視映像フレームは、この実施形態では、容器の動きを推定するのに使用される。これらの映像フレームは、可視波帯域の方が他の波帯域よりも解像度が一般的に高いので、好ましい。2つのセンサ12と24との間の変位は既知であり且つ固定されているので、容器の動きを適切な時間フレームに対して外挿し、且つ熱的映像の各フレームに歪修正を適用することができる。動きの修正に映像が使用されるセンサにおいて直線的検出器アレーのサイズが重要である。垂直(y)方向にはスキャンが実行されず、従って、この軸に沿ったピクセルの数は、スキャンの高さを決定し、ひいては、像形成できる容器の最大高さを決定する。以下に詳細に述べるように、このアレーは、動きの推定を映像情報のみから導出すべき場合、単一ピクセル巾より大きい水平(x方向)の広がりを有していなければならない。これは、動きの修正を正確に行うために、センサからの次々の映像に、対応する物体部分をもつ必要があるからである。センサが狭いほど、即ち短軸が小さいほど、必要とされるセンサのリフレッシュレートが速くなる。又、センサが広いほど、一度に1つの移動物体しかフレームにないという限定ファクタを受けて得られる映像の動きの推定が良好なものになる。それ故、選択されるセンサの特定のサイズは、想像される用途に依存する。像形成される容器と容器との間に大きなギャップがある場合、特に、容器が高速で移動し及び/又は目立たない場合には、より広いアレーが好ましく、このような状況では、容器の動きを決定するに充分な情報が映像内に存在しないことがある。一方、容器が互いに接近して続く場合には、広いアレーは、動きの推定を崩壊する危険が大きく、狭いアレーが好ましい。容器が著しい表面の手触りをもつことを更に保証できる種類のものである場合には、1024x16ピクセルの大きさのアレーを使用してもよい。
図2に示すものとは別の実施形態では、プッシュ−ブルームスキャンの1つの間に収集されるものを使用するのではなく、個別のセンサを使用して動き修正のためのフレームが与えられる。これは、全二次元(2−D)フレーミングカメラを動き推定センサとして使用できるようにする。それ故、この状況では、例えば、25フレーム/秒で動作する780x640ピクセルの解像度の標準CCDビデオカメラを使用することができる。水平短軸の大きさが垂直長軸に近いことにより、このカメラは、おそらく、良好な動き推定を行い得る映像を与える。しかしながら、この実施形態は、既に混雑した動作環境であるところに別のセンサを挿入することを一般的に必要とするという欠点で悩まされている。
更に別の態様は、計算上より大変であるが、両フレームシリーズにおいて独立して容器6の動きを補償することである。即ち、各センサ12及び24に記録されるフレーム内に映像再構成が完全に自蔵されてもよい。
上述したセンサ形式は、他の形式を使用する可能性を除外することを意図していない。これは、第2のセンサ24が、第1のセンサ12により形成されるものの相補的情報を与える映像を形成する場合に有用である。1つのセンサ12が可視帯域で動作するのが好ましいが、第2のセンサ24は、上述したように、熱式イメージャーであってもよいし、或いはミリメーター波イメージャー、又は別の波長帯域で動作するイメージャーであってもよい。熱式イメージャーが使用される場合には、3−5μm又は8−12μmの波長帯域で動作しなければならない。これらの波長帯域は、周囲温度スペクトル範囲内にあり、そして低コストの半導体検出器でアクセスできるものである。しかしながら、8−12μmの波長帯域では太陽放射が強くなく、従って、反射性の容器を像形成するのに本発明を使用すべき場合には、この波長帯域が好ましい。これは、反射した太陽光線から偽信号が生じる範囲を減少する。
2つのセンサ12及び24は、横に並んで(図示されたように)又は互いに上下に配置されてもよい。この後者の場合には、容器の像形成エリア20、30が部分的に一致し、単一映像を使用した動き補償が簡単化される。或いは又、第2センサ24が容器6の反対側に配置され、その視線が第1センサ12の視線11と逆平行になるようにしてもよい。この構成では、像形成エリア30は、可視波長帯域で形成される像形成エリア20に対して物体の反対側にあり、ここでも、単一映像を使用して推定される場合には、動き補償が簡単化される。
本発明による第3の実施形態のスキャニング装置31が図3に示されている。この場合も、図1又は2と同等の図3の装置31のコンポーネントが同様に参照される。このスキャニング装置31は、図2の可視帯域センサ12及び熱的イメージャー24の両方を備え、更に、第3のセンサ32がケーブル33を経て映像処理ユニット14に接続される。この第3センサ32は、可視帯域でもよいし、ミリメーター波帯域でもよいし、又は他の波長範囲でもよい。この第3センサ32は、これがミリメーター波イメージャーでない場合には、感知素子の実質的な直線アレー34も備えている。一方、ミリメーター波イメージャーが使用される場合には、そのコンフィギュレーションがより複雑になるが、感知素子のアレー34は、依然、実質的に直線的な視野38をカバーするように構成される。いずれにせよ、第3センサ32は、移動容器6の上で、視線36が垂直方向下方に向けられ、即ち容器の移動方向10及び第1センサ12の視線11の両方に垂直に向けられるように配向される。第3センサ32のアレー34は、その視野38が、容器の高さにおいて、スキャニングされることが予想される容器の最大巾より若干大きい水平巾を包囲するよう確保するに充分な感知素子(ピクセル)をその長手軸に沿って有している。図3に示す特定の時点では、可視センサの視野16が、斜線領域20で示された容器の第1エリアをカバーし、熱式イメージャーの視野28が、斜線領域30で示された容器の第2エリアをカバーし、そして第3センサの視野38が、斜線領域40で示された容器の第3エリアをカバーする。
本発明のこの実施形態31では、矢印10の方向における容器6の移動が3つ全部のセンサ12、24及び32によりプッシュ−ブルームスキャンを行わせる。このスキャンが進行するにつれて、容器の次々の側部領域20、30が可視・熱式センサ12及び24により像形成される。容器の壁が、第3センサ32が感知するところの放射に対して不透明である場合には、このセンサは、容器の次々の上面領域40の映像を与える。或いは又、第3センサ32がミリメーター波センサである場合には、それが容器の内部容積の映像を発生する。それ故、3つの映像フレームシリーズが捕獲されて、映像処理ユニット14へ分析のために通される。映像処理ユニット14は、2つの側部視点及び1つの上部視点からの容器6の3つの無歪の個別映像を再構成するように形成される。
この場合も、3つの映像が正しく位置合わせされることが重要である。第3センサ32からの上部映像は、側部映像に現れる異常をクロスチェックするための異なる視点を与える。異なる複合映像の直接的な比較を容易にするために、移動による欠陥が除去された実質的に無歪の映像を見るのが望ましい。
以下に述べる映像再構成では、本発明に使用するためのセンサの向き、形式又は個数に何ら制約が課せられない。実際には、1つのセンサが使用されてもよいし、或いは相補的な映像を与えるセンサの構成が更に有用である。図1から3は、単に3つの可能性を示す。忠告できることとして、第1に、各実施形態の映像処理ユニット14は、各センサによりスキャニングされる物体の実質的に無歪の映像を発生するように構成され、第2に、動き推定の計算が不必要に複雑でない場合に、センサは、好ましくは、その全部が、それらの視線がスキャニングされる物体(1つ又は複数)の移動方向に実質的に垂直になるよう配向されねばならない。既に述べたように、映像修正プロセスは、像形成波長、スキャニングされる物体及びその環境、スキャニング速度、特に、スキャニング中に生じる速度の変化とは独立したものである。
別の考えられる構成は、第2センサ24又はその後続センサ32を、その視線がその視野を通る垂直平面を横切って対角に下方に向けられ、即ち容器6のエッジに向けられるように配置することである。このようにして、その視野は、容器の側部及び頂部の両方の領域を包囲し、潜在的により有用な映像を発生する。
映像の再構成に含まれる処理ステップの説明を助けるために、表示を次のように定義する。図4は、センサ時間t(上図)及びt−1(下図)における容器6及びセンサ視野20を概略的に示す。センサ時間tにおいて、映像フレームItが記録され、これは、視野20に重畳して示されている。下図に示すように、その直前の映像フレームIt-1がセンサ時間t−1に記録される。これらの両映像フレームに加えて、カルテシアン座標の原点Oが左下角に示されている。2つのフレーム時間t−1とtとの間に、容器6は、矢印41で示す平均速度vにおいて図面の左に向かって(図1から3に示すものとは異なる方向に)進行するように示されている。スキャニング装置の好ましい実施形態4、22及び31において、センサ12、24、32は、容器6が水平(x)方向に移動するように配向されている。それ故、容器は、t−1とtとのフレーム間に距離Δxだけ変位して見える。
映像フレームItは、適当な波長帯域で、各検出ピクセルにおいて記録された放射強度に関連した情報を含む。各ピクセルは、そのx及びy座標で識別され、インデックスされる。センサ12、24、32がカラーイメージャーである場合には、各ピクセルは、カラープレーン値(赤、緑及び青のピクセル値)によって更にインデックスされねばならない。即ち、ピクセル化映像情報は、It(x、y)又はIt(x、y、カラープレーン)又は(省略してIt)として、より完全に特定される。便宜上、ここでは、It(x、y)及びIt表示だけを使用するが、本発明がカラー映像に適用されるとすれば、これは、暗示的に、It(x、y、カラープレーン)ピクセル識別子を含むことを理解されたい。フレームIt内の個々のピクセルを参照するときには、これらは、サブスクリプトインデックスp:It p(x、y)により示される。
再び図4を参照すれば、現在映像フレームItの単一ピクセルIt p(x、y)は、物体6の特定領域の映像に対応する。時間t−1に、その同じ物体領域は、手前のフレームIt-1においてピクセルIt-1 p(x+Δx、y)として像形成されると推定され、即ち現在映像フレームのピクセルIt p(x、y)及び手前のフレームのIt-1ピクセルIt-1 p(x+Δx、y)は、「同等に像形成」されると推定される。それ故、映像It(x、y)内の各物体映像ピクセルは、その直前の映像フレームIt-1(x+Δx、y)におけるその位置に対して、ピクセル数として表わされた映像距離Δxだけ、シフトされると推定される。
この点において、映像Itの成分の性質を区別することが必要である。移動する容器6を像形成するときには、各センサは、1つの次元において容器より大きな視野20、30、40を有する。それ故、像形成されるシーンの全部が動くのではない。即ち、映像のある部分(容器の背景に対応する部分)は、静止して見え、一方、他の部分(容器/前景に対応する部分)フレームとフレームとの間で動くように見える。これらの映像成分を含むピクセルは、必要に応じて、背景ピクセル及び物体ピクセルを参照することにより区別される。
図5は、捕獲した映像フレームから移動物体の無歪映像を発生するときに図1から3の映像処理ユニット14により実行されるステップのフローチャートである。図示されたステップは、映像フレームItが記録されるセンサ時間tに関連している。映像処理の新規性をより明確に示すために、変化するのは、映像の各ピクセルのx位置だけであると仮定する。即ち、センサは、それらの視線が、スキャニングされる物体の移動方向に実質的に垂直になるように配向されると仮定する。当業者に明らかなように、物体とセンサとの間の垂直距離がスキャニング中に変化する場合には、ここに述べる動きモデルがこの第2次元における動きを含むように適応させることができる。しかしながら、この適応及びそれにより生じるアルゴリズムは若干複雑であり、基本的な発明の理解を助けるものでない。従って、それらはここでは述べない。このように適応されたモデルに基づくプロセスの成功性は、一連の映像フレームを捕獲するに必要な時間中、容器6の収束映像を維持するに充分な焦点深度を有するセンサ12、24及び32に依存することに注意されたい。
図5を参照すれば、ステップ50において、映像フレームItが映像処理ユニット14へ通され、該ユニットは、ピクセル位置(x、y)及び強度をメモリに読み込んで、処理の準備をする。ステップ52において、カウントパラメータiが0にセットされ、そして動き推定Δxiが初期推定値Δx0にセットされ、ここで、Δxiは、直前の映像フレームIt-1における位置から現在フレームItにおける位置への容器6のシフトのi番目の推定である。初期推定Δx0は、ローラーの平均又は予想速度の知識から、又は直前のフレームIt-1において推定された動きに等しいという仮定から、或いは他の便利な基礎から、得ることができる。他の用途、例えば、乗物の像形成では、乗物が予め構成された速度限界で走行するという仮定により、映像シフトの良好な第1推定Δx0を得ることができる。又、独立した速度センサ、例えば、レーダー銃又はライダーセンサを使用して、初期推定Δx0を与えることもできる。ここに述べる本発明の実施形態では、Δx0は、全てのフレームに対して0とされる。一般的に真の映像シフトをより厳密に近似する、直前のフレームでなされた最終的な推定を使用すると、反復計算が有利になるが、この方法は、エラーが永続してその後の反復を覆すことがあるので、好ましいものではない。
ステップ54において、勾配映像が計算される。勾配映像は、映像フレームIt(x、y)の場合に、xに対する映像フレームの導関数として定義され、即ち
Figure 2006520042
として定義される。この導関数は、この実施形態では、単純な限定差フィルタを使用して計算される(他の標準的な数値方法も使用できるが)。典型的に、このフィルタは、中央差フィルタであり、即ち(−1/2、0、+1/2)のカーネルが、3つの次々のフレームIt(x−1、y)It(x、y)及びIt(x+1、y)のセットの乗数を指示するものであり、即ち
Figure 2006520042
それ故、このステップ54では、映像のx方向を横切るピクセル強度の変化が計算される。
ステップ56から68は、理想的には、繰り返される推定が単一の値に収斂するまで、物体の動きの推定を繰り返し計算するところの手順を表わす。最初に、現在映像内の各ピクセルIt p(x、y)に対し、ステップ56から62が実行される。分析されるべきピクセルIt p(x、y)は、ステップ56においてアドレスされる。
ステップ58において、第1ピクセル差D1が計算される。
Figure 2006520042
D1は、シーン領域を像形成する現在映像における位置(x、y)の映像ピクセルと、同じシーン領域が像形成されたと推定される直前のフレームにおける相対的にシフトされた位置(x+Δxi、y)の同等の像形成ピクセルとの間の強度差である。動き補償された手前の映像をここで定義する。これは、現在フレームにおけるピクセルの像形成された強度を、それらが直前のフレームにおいて像形成されたと推定される各々の対応するピクセル位置(Δxiだけ相対的にシフトされた)へ投影して戻すことにより発生される映像フレームである。これは、容器の移動のために手前のフレームに対応ピクセルをもたないものを除き、現在フレームの全ピクセルに対して実行される。動きが充分正確に推定される場合には、2つのフレームにおける対応ピクセルの強度が、移動する容器6を表示する全ピクセルに対して等しくなければならず(次々のフレーム間の間隔にわたるシーンの強度変動を無視して)、そして差D1がゼロに向かうことになる。
ステップ60において、第2のピクセル差が計算される。
Figure 2006520042
これは、異なるフレームにおける同等に位置するピクセル、即ち次々の映像フレームにおける同じフレーム位置のピクセル間の強度差を表わす。像形成されるシーンが静止している場合には、差D2がゼロである(フレーム間のシーン強度変動を無視して)。
最終的に、ピクセルごとに、ステップ62では、重みwf(x、y)が計算されるか、又はルックアップテーブル(図示せず)から抽出される。これらの重みを計算できる種々の方法は、以下で説明する。重みwf(x、y)は、現在動き推定Δxiを使用して導出されるもので、特定のピクセルIt p(x、y)が前景(移動物体を像形成する)であるか又は背景(シーンの静止部分を像形成する)であるかの見込みを表わす。重み1は、前景ピクセルを指示し、そして0は、背景ピクセルを指示する。
ステップ64において、移動推定の現在値Δxiに対する更新Δxuが、強度エラー関数E(Δxu)を最小にすることにより計算され、この関数は、次のように、全ピクセルにわたって計算された重み付けされた二乗ピクセル強度差である。
Figure 2006520042
現在フレームItに対する動き推定更新Δxuの作用を仮定することが望ましい。というのは、これは、各繰り返しにおける空間強度勾配
Figure 2006520042
を再計算する必要性を回避するからである。2つの近似が行われる。第1に、一方の映像フレームIt-1に適用されるシフトΔxuは、他方の映像フレームItに適用される等しく且つ逆のシフト−Δxuに対して同様の作用を有し、これは、式(4)のΔxu項を、It-1に対する表現から削除し、そしてItに対する表現において−Δxuに置き換えるのを許す。第2に、空間的強度勾配を導入するテイラー展開を使用して小さなシフトの作用を近似することができる。
Figure 2006520042

Figure 2006520042

Figure 2006520042
式(5)から、動き推定更新Δxuは、直線的最小二乗最適化を使用して直接推定することができる。これは、更新Δxuに対する強度エラー関数E(Δxu)の導関数をゼロにセットすることで達成され、これは、E(Δxu)を極端化する。それにより得られる極値は、E(Δxu)の二次導関数が正であるから、最小値である。更新Δxuは、次の線型方程式から決定される。
Figure 2006520042

Figure 2006520042
式(6)の2行目の左側の加算項を移動して、右側の分母になるようにすると、次のようになる。
Figure 2006520042
式(7)の分子及び分母における加算は、映像フレームIt及びIt-1の中央部分に位置するピクセルにわたって行われる。この中央部分が使用されるのは、動きの補償が適用されると、対応ピクセルが見つからない領域が生じ得るからである。動き推定更新Δxuを計算するときには、少なくともΔxiに等しい巾のストリップが映像の右側又は左側から破棄される(センサを横切る物体の移動方向に基づいて)。実際には、巾が最大の映像動きを越えると予想される映像Itの固定の中央領域を使用するのが簡単である。
ステップ66において、現在の動き推定ΔxiがΔxuで更新されて、次の繰り返しのための準備が次のようになされる。
Δxi+1=Δxi+Δxu (8)
次いで、ステップ68において、カウントインジケータiが1だけ増加される。
ステップ70において、映像処理ユニット14は、動き推定が収斂したかどうか、即ち
Figure 2006520042
であるかどうか、或いはカウントインジケータiがある予め構成された限界に到達したかどうかのチェックを行う。これらの条件がいずれも満足されない場合には、映像処理ユニットは、ステップ56に復帰し、そして更新された推定Δxi+1を使用して動き推定更新プロセスを繰り返し、Δxuの新たな値を計算する。プロセスが無限ループにはまり込むのを回避するために、最大繰り返しカウントがセットされる。この状態は、繰り返しにより互いに近い一連の解が発生して映像処理ユニット14がそれらの間を弁別できない場合に生じることがある。又、最大繰り返しカウントは、収斂が低速であるときにリアルタイム実施の特性も保持する。動き推定Δxi等は、厳密に言うと、変位であるが、フレーム時間である固定時間Δtにおける変位であるから、速度にも等しい。フレーム時間当りの変位は、速度の単位、ひいては、動き推定の表現を有する。
繰り返しステップ56から68は、映像フレームそれ自体の中に含まれた情報のみを使用して物体動き推定を抽出できるようにする手順を形成する。動きがフレーム間で一定であるという仮定はなく、即ち各フレーム対It;It-1及びIt+1;Itに対し、動き推定が異なってもよい。又、背景と前景の厳格な分類もない。ピクセルの重みwf(x、y)は、フレームごとに計算され、以下で明らかとなるように、そのフレームにおいて得られる以外の更なる情報は使用しない。
予想される動きが、動き推定手順の収斂の範囲により受け容れできるものに比して比較的高い速度であると期待される状況では、上述した解決策を適応させねばならない。このような状況では、動き推定が多解像度フレームワークに埋め込まれる。多数の解像度の映像は、推定される動きを次第に洗練するのに使用される。多解像度の映像は、単一センサの解像度を、ピクセルの平均化又は映像のフィルタリングにより所要レベルへと人為的に低下させることで、与えることができる。高速度の動きは、先ず、低解像度の映像から推定され(比較的低い精度で)、次いで、次第に高い解像度で洗練されて、以前に破棄されていた情報を使用する。多解像度及び多スケールのアルゴリズムは、映像処理の分野、特に、光学的フロー方法の分野で良く知られており、従って、この適応は、これ以上説明しない。
動き推定が収斂するか又は最大繰り返し数に達した場合には、Δxi+1の現在値が、センサ時間tにおける現在フレームの実際の動き推定Δxc(t)として得られる。映像処理ユニット14は、次いで、データフィルタリングステップ72へ進む。このステップにおいて、好ましい実施形態では、次々のフレームからの動き推定が中間フィルタに通される。このフィルタは、奇数個(5、7又は9)の次々の推定を含み、これらから、中間推定が返送される。その使用は、誤った結果の限定された割合を除去できるようにする。フィルタは、映像の処理にある程度の待ち時間を導入し、即ち動き推定は、現在フレームを取得した幾つかのフレーム後でなければ得られないことに注意されたい。又、このステップ72では、動き推定Δxc(t)におけるジッターを減少するために直線的平滑化フィルタが適用されてもよい。
最終的に、ステップ74において、フィルタされた収斂した動き推定Δxc(t)を使用して、現在フレームItを複合映像内の正しい位置に表示のために入れる。2つ以上のセンサがスキャニング装置に存在する場合には、本発明の実施形態では、この動き推定Δxc(t)が適当な再スケーリングと共に使用され、他のセンサの各々からの時間tにおける映像フレームI1 t、I2 t、I3 t、・・・を、これらセンサの各複合映像の正しい位置に入れる。
容器の映像速度が容器の物理的速度及びセンサからのその距離の両方の関数であることから再スケーリングの問題が生じる。必要となる条件は、例えば、異なるセンサが、動き推定Δxc(t)を与えるのに使用されたセンサとは異なる視野を有し、及び/又はそれらが、スキャニングされている物体から異なる距離に配置されることである。この距離がセンサ間で変化しても、物体が各センサから常に固定距離にある場合には、映像速度の差を修正することは簡単である。これは、物体がセンサに近づくか又は離れるように移動し、従って、映像速度が一定の実世界速度に対して変化するケースでは、より複雑になる。このような状況では、レンジファインダ装置(例えば、ライダー、超音波エコー探索、等)を使用して、センサと物体との距離を決定し、ひいては、センサごとに適当な動き推定再スケーリングを決定する。
図5を参照して説明した技術により得られる動き推定Δxc(t)は、ピクセルの断片でもよいし又はそれを含んでもよい映像ピクセルの数として表わされた距離である。これは、予想最大化(Expectation Maximisation)(EM)解決策に基づく。即ち、動き推定Δxiは、現在重みwf(x、y)が与えられると、更新され、次いで、この重みwf(x、y)は、現在動き推定Δxiが与えられると、更新される。これは、1GHzPentium(登録商標)プロセッサにおいて実施することができる。
本発明のこの例の中心は、各ピクセルに与えられるべき重みwf(x、y)を決定して、動き推定において映像の静止部分又は移動部分として考えられるところの程度を分類することである。この例では、映像の背景は静止であり、そして映像の前景は、像形成されるべき移動物体を潜在的に含むと仮定される。ピクセルを背景又は前景として明確に分類できない場合には、それが動き推定に誤って貢献するか、又は貢献し損なうことがある。映像内に含まれた情報に基づく分類プロセスは、本来、ノイズに敏感である。映像内のノイズレベルは、照明レベルに基づいて急激に変化し、それ故、ノイズレベルを首尾良く一定と仮定できることはあり得ないことに注意されたい。ピクセルに分類を割り当てできる仕方は、多数あり、ここでは、3つの好ましい方法を説明するが、各々、利点と欠点を有する。
重みwf(x、y)を推定する第1の方法は、慣習的なEM解決策を反映するものである。特定の映像ピクセルが前景の一部分である見込みpf(x、y、Δxi)は、次の式から計算される。
Figure 2006520042
同様に、そのピクセルが背景であるという見込みpb(x、y)は、次の式により与えられる。
Figure 2006520042
但し、σf及びσbは、各々、前景及び背景強度におけるノイズの標準偏差の推定であり、上述したように、Δxiは、映像処理のステップ56から68において繰り返しiの前景の動きの推定であり、そしてIp t及びIp t-1は、各々、フレームシリーズにおける現在及びその直前の映像フレームIt及びIt-1のピクセルを指している。動き推定Δxiが更新されるときには、前景見込みpfだけが変化する。背景見込みpbは、一定のままである。前景見込みpfは、物体上のポイントに関連した現在映像ピクセルIp tと、物体上の同じポイントに対応すると推定される直前のピクセルIp t-1との間の強度差(D1、式(2))に基づいたものである。これらピクセルIp t及びIp t-1の強度が等しい場合には、ピクセルが物体の動きの結果として移動し、それ故、前景である見込みが高くなる。これらの2つのピクセル間の強度差が大きいほど、前景移動物体上の同じポイントに対応するおそれが低くなり、従って、関連する見込み推定pfは、比較的低くなる。同様に、背景見込みpbは、ある映像の現在ピクセルの強度と、その直前の映像の同じ位置の強度との比較に基づいたものである(強度差D2、式(3))。これら2つのピクセルの強度が同じである場合には、そのピクセル位置で像形成されるシーンの一部分が移動せず、それ故、ピクセルが背景に対応する見込みが比較的高くなる(それら強度が異なる場合に比して)。これら確率pf及びpbから、各ピクセル(座標x、y)に対して重みwf(x、y)が導出され、これは、動き推定への貢献を決定する。
Figure 2006520042
重みwf(x、y)は、0から1の範囲に存在するように拘束される。
図6のステップ62に戻ると、wf(x、y)の値は、計算されるか、又はルックアップテーブルから抽出される。ノイズの標準偏差は、センサシステムの関数であり、一定であると仮定する。ルックアップテーブルを使用する場合には、差D1及びD2が、重みwf(x、y)の最終的な計算において唯一の変数となる。それ故、差D1及びD2は、ルックアップテーブルの記憶位置に対するインデックス又はアドレスとして使用される。この方法は、差D1、D2の対ごとに計算を実行するものよりも、迅速で且つあまり計算に集中しなくてよい。
慣習的なEM重み計算の欠点は、それらが、ピクセル重みを導出する確率分布関数に基づいていることである。これらの関数は、通常、多数のフリーパラメータを有し、映像処理の用途では、これらフリーパラメータは、映像ノイズの予想レベルを指してもよい。これらパラメータの選択を誤ると、性能低下を招く。ここに述べる重みwf(x、y)を計算する第2及び第3の両方法の効果は、どちらもフリーパラメータに依存しないことである。
第2の方法の背後にある原理は、背景ピクセルがフレームごとに比較的小さな強度差しかもたないことである。これに対して、前景ピクセルは、物体の異なる領域に対応するので、著しい強度変化を示す。従って、この方法では、各ピクセルに関連した重みwf(x、y)は、次のようになる。
Figure 2006520042
この方法は、図5のステップ60で計算された第2のピクセル差D2しか使用せず、これは、特定のピクセルが前景である見込みの尺度を与えるように直接使用される。この方法は、計算の観点から実施が簡単であり、従って、控えめなハードウェアでのリアルタイム映像再構成が必要とされる場合に魅力的である。これは、第1(EM)方法より正しい動き推定に関して良好な結果を示し、映像ノイズの良好な推定に依存しない。その欠点は、各重みwf(x、y)が拘束されず、たとえ異常ピクセルが物体の真の動きを表わさなくても、そのようなピクセルに大きな重みが与えられることである。このため、この第2の方法は、異常、例えば、太陽の輝きがスキャン中にシーンに影響することが予想される場合には、使用すべきでない。
第3の重み付け構成は、第2のものより頑丈で、且つ映像ノイズの標準偏差を推定する必要性を回避するものが使用されている。これは、インデックスnの値が増加するにつれて前景と背景との間の選択性を高めることのできる一般的なフォーマットで実施できる。この構成では、重みwf(x、y)は、次のように計算される。
Figure 2006520042
但し、cは、負でない小さな定数であり、ゼロで除算する潜在的な問題を防止するために含まれている。nの値が2に等しい場合に、良好に機能すると分かっているが、選択性の変化は、多少ノイズのある映像において有益であると分かっていることを銘記されたい。
Figure 2006520042
式(10)の絶対値符号||nから式(11)のかっこ()2への変化は、二乗により項が正になり、絶対値が不要になったためである。この第3の方法の背景にある原理も、現在ピクセルの強度と、その直前の映像フレームにおける同等の位置のピクセルの強度との間の差(D2)が顕著である場合に動きが指示されるというものである。これは、現在ピクセルと、その直前の映像フレームの同等の像形成ピクセル(即ち同じ物体領域を像形成する)との間の強度の差(D1)が小さい場合に特に言えることである。従って、この重み付け構成には両方の差が組み込まれる。逆に、現在映像フレーム及びその直前の映像フレームにおける同等の位置のピクセル間の強度差が小さい場合には、ピクセルがおそらく背景となる。この例では、前記重みが0に向かう。図5に示された各入力映像フレームItに対する最初の繰り返しでは、動き推定Δxiがその初期値Δx0にセットされたときに、これらの重みが0.5にセットされる。その後、映像処理ユニット14によりD1及びD2が決定されると、D1及びD2は、ルックアップテーブルへのインデックスとして使用され、重みの値wf(x、y)が返送される。
再び図3を参照すると、全てのセンサ12、24、32に対し、各映像フレームItは、物体の一部分20、30、40しかカバーしない。各センサを越える容器6の移動は、スキャニング運動を与え、容器全体を一連のフレームにおいて像形成できるようにする。従って、センサ時間tにセンサ12、24及び32により得られる各映像フレームを、映像処理ユニット14により、その対応複合映像の正しい位置に含ませることができるには、容器6がセンサ時間tに進行する距離を知ることが必要になる。本発明のこの実施形態では、センサ12から得られる映像フレームItを使用して、各フレーム時間に容器6に対する動き推定Δxc(t)を導出する。図5を参照して述べた技術を使用して発生される値Δxc(t)は、可視波長帯域センサ12のピクセルの単位である。これらの値は、ピクセルの断片の解像度に対して決定される。
図6a及び6bは、複合映像アレー82、92内の位置に入れられる映像フレーム80、90を概略的に示す。複合映像アレー82、92の左下側に原点Oが示された複合映像座標系を参照する。図6aにおいて、映像フレームは、図3の可視波長帯域センサ12のようなセンサで得られる。即ち、映像データの細いストリップの形態である。図6bにおいて、映像フレーム90は、実質的に線スキャンの可視波長帯域センサ12ではなく、フレーミングセンサ(長辺及び短辺又は同等の大きさをもつ全体的に長方形の映像フレームを捕獲するセンサ)により得られる。従って、巾の広い映像フレーム90が示され、破線94は、以下に述べる理由で、この巾の広い映像フレームを、更なるデータ処理の前に、どこで切り取るか指示する。
複合映像座標系については、容器6がセンサ時間tにx方向に移動した距離を、現在フレーム及びそれ以前の全てのフレームから抽出される全ての動き推定Δxc(t)の次々の加算により計算することができる。即ち、
Figure 2006520042
但し、t0は、最初の映像フレームが収集された時間を表わす。映像処理ユニット14は、スキャニング装置の各センサ12、24、32に対して複合映像アレー82、92を含む。図6a及び6bの説明上、映像が再構成されるセンサは、動き推定のためのフレームも与えるセンサであると仮定する。即ち、図6aの場合は、可視波長帯域センサ12である。図6a及び6bの複合映像アレー82、92は、ピクセル位置のアレーで、その解像度は、各々の場合の各記録センサのピクセル解像度に等しい。データは、断片的ピクセル位置には書き込めないので、式(12)の距離x(t)(ピクセル単位)は、最も近い整数に丸められる。
Figure 2006520042

Figure 2006520042
図6aを参照すれば、センサ時間tに得られた映像フレーム80は、原点Oから多数のピクセルx’(t)において複合映像アレー82の対応ピクセルに書き込まれる。
図6bを参照すれば、映像フレーム90は、上述したように、フレーミングセンサ(図示せず)を使用して記録される。ここに述べる動き推定を使用して複合映像を再構成することにより、容器6は、それに垂直の細い光線束を使用して像形成されると仮定される。この仮定は、線スキャンセンサを使用してデータが収集されるときには有効であるが、センサが、容器の移動方向に広い視野を有するフレーミングセンサであるときにはそうではない。この場合、映像90は、細い光線束内に記録されるデータだけが複合映像に使用されるよう確保するために、破線94で示すように水平に切り取られる。センサ映像90は、現在動き推定Δxc(t)に基づく領域を選択することにより94において適応式に切り取られるのが好ましい。即ち、線94間の切り取られる領域の巾は、動き推定Δxc(t)に依存する。容器が迅速に移動する場合には、複合映像にギャップが現れるのを回避するために、巾の広いデータセクションが使用される。逆に、容器6が低速で移動する場合には、考えられる最も細い光線束及びそれに伴う映像の幾何学的忠実さへ制限するために巾の狭いデータセクションが使用される。使用するデータセクションの巾は、整数個のピクセルとなるように拘束され、従って、図6bに示すように、動き推定Δxc(t)に対して次に最大の(大きさが)整数であるΔx’(t)にセットされる。これは、センサ視野の中心付近から選択されるのが好ましい。というのは、これは、容器6にほぼ垂直の光線に対応するからである。図6aの場合と同様に、フレームデータは、位置x’(t)において複合映像アレー92に書き込まれる。
本発明の他の実施形態では、各データストリップの位置が一貫して選択されるとすれば、フレーミングセンサの視野内のどこかから抽出されたデータを使用して映像を再構成することができる。センサが水平方向に著しい巾を有する(即ち広い光線束を受け容れる)場合には、容器6の異なる眺望を各々もつ複数の映像を再構成することもできる。即ち、センサの視野の各エリアに含まれた映像情報から各々組み立てられる多数の複合映像を、上述した方法を使用して、再構成することができる。視野の中心から取得したデータは、容器6の垂直の眺めを与え、視野の縁から取得したデータは、非垂直光線を使用して容器6の斜めの眺望を与える。これらの複合映像は、異なる視点から像形成される容器6を効果的に表わす。容器6に関する眺めを与える能力は、容器が平坦な側面をもたない場合に特に効果的であり、例えば、欠陥又は異常検出の助けとなる。この方法で異なる有効視点から複合映像を構成することは、ここに述べるように単一の垂直の視点から映像を構成するのに必要なもの以外の付加的な情報(例えば、容器の三次元構造)を必要とせずに達成される。
図6a及び6bを参照して述べた複合映像再構成が、動き推定Δxc(t)を導出するのに使用されるセンサ12に加えて、1つ以上のセンサ24、32に対して実行される場合には、ある程度の再スケーリング及び/又は補間が必要とされる。像形成センサ24、32の角度的ピクセル解像度が、動き推定に使用されるセンサ12と異なる場合には、これらセンサに適した映像速度(1つ又は複数)を与えるように動き推定Δxc(t)が再スケーリングされる。再スケーリングは、角度的ピクセル解像度の比のファクタを動き推定Δxc(t)に乗算することを含む。即ち、センサ24又は32の場合に、Δxc(t)にAPR24/APR12又はAPR32/APR12を乗算することにより、各々、Δxc(t)の等効物であるΔxc(t)24又はΔxc(t)32が得られる。ここで、APR(n=12、24又は32)は、センサnの角度的ピクセル解像度(ピクセル/度)を表わす。
複合映像が、動き推定Δxc(t)を与えるのに使用されるものより高いフレームレートを有するセンサで収集されるデータから再構成される場合には、次々の動き推定Δxc(t)が補間されて、動き推定に関連したフレームの中間フレームに適した推定値を与える。像形成センサのフレーム番号(t+α)、α<1、において簡単な直線的補間が適用され、ここで、インデックスtは、動き推定センサにおけるフレーム番号を指示する。
x(t+α)=x(t)+αΔxc(t) (14)
x(t+α)は、複合映像アレーにおけるフレーム位置を与えるために最も近い整数に丸められる。又、例えば、加速度をモデルに合体する非直線的補間を使用してもよい。しかしながら、容器の速度変化がフレーム間で著しくない限り、これは、映像のクオリティを著しく改善することはない。
複合映像を発生する別の方法が図7に概略的に示されている。この図では、映像処理ユニット14(図示せず)は、複合映像アレー104に加えて、映像データアキュムレータアレー100及びカウントアキュムレータアレー102を備えている。これらデータ及びカウントアキュムレータアレー100、102の両方における全てのピクセルの値は、最初、0にセットされる。除算器106が3つの全アレー100、102、104に接続される。到来する映像フレーム108内のデータは、上述したように、位置x’(t)に書き込まれるが、本発明のこの実施形態では、映像データアキュムレータアレー100の各ピクセルに現在保持されている値にピクセル強度値が追加される。データがデータアキュムレータアレー100に追加される位置に対応する位置におけるカウントアキュムレータアレー102の全ピクセルは、その値が1だけ増加される。現在アドレスされているセンサからの全てのフレームデータが組み立てられて、映像データアキュムレータアレー100へ書き込まれると、除算器106は、データアキュムレータアレー100の各ピクセル値を、カウントアキュムレータアレー102の同じ位置にある又は対応するピクセル値で除算する。この累積作用は、カウントアキュムレータアレー102の各ピクセルが、データアキュムレータアレー100の各同じ位置のピクセルにデータが追加された回数に等しい整数を含むことである。この整数は、次いで、106において、データアキュムレータアレーのピクセル値の除数として使用され、それ故、このようにして得られた比は、2つ以上のフレームに対する平均である。それにより得られる比は、複合映像アレー104に書き込まれる。
複合映像を組み立てるこの方法は、センサデータの積分を与え、それ故、映像ノイズを減少する。データは、映像データアキュムレータアレー100において累積加算される。物体領域が2つ以上の映像フレームのピクセルに対して像形成される場合には、この方法は、その領域に関する全てのピクセル情報を複合映像の発生に使用するのを許す。カウントアキュムレータアレー102は、複合映像のピクセルに情報が何回書き込まれたか記録する。それ故、最終的な複合映像のピクセルは、各々の場合の貢献するセンサデータピクセルにわたって平均化された強度にあり、そして貢献するピクセルの数は、異なる複合映像ピクセル間で異なってもよい。この改善された映像再構成方法により与えられるノイズ減少の程度は、容器6が移動するところの速度に依存する。即ち、低速移動容器の場合には、複合映像のピクセルは、多数のセンサデータ映像ピクセルを使用して発生されてもよい。
図8は、第2の別の複合映像発生方法を概略的に示し、図7に示したものと同等の要素は、同様に参照される。この図に示すように、映像処理ユニット14(図示せず)は、この場合も、映像データアキュムレータアレー100と、カウントアキュムレータアレー102と、複合映像アレー104と、除算器106とを備えている。又、処理ユニット14は、第1及び第2の乗算器110及び112も備えている。センサ時間tにおける映像フレームの中央フレーム部分114(1つ以上の映像フレーム列)は、先ず、両乗算器110及び112に入力される。第1の乗算器110において、フレーム部分114の各ピクセルは、左の重み付けファクタwl(t)で乗算される。第2の乗算器112において、フレーム部分114の各ピクセルは、右の重み付けファクタwr(t)で乗算される。これら重み付けファクタwl(t)、wr(t)は、累算的映像位置x(t)から次の式に基づいて計算される。
Figure 2006520042
r(t)=x(t)−x’(t) (16)
l(t)=1−wr(t) (17)
Figure 2006520042
現在アドレスされているセンサからの全てのフレームが組み立てられて、映像データアキュムレータアレー100に書き込まれると、除算器106は、データアキュムレータアレー100のコンテンツを、図7を参照して上述したように、カウントアキュムレータアレー102の対応するコンテンツで除算する。この除算の結果が複合映像アレー104に書き込まれる。
この複合映像発生方法は、センサデータを、最も近い整数位置に丸めるのではなく、複合映像の断片的ピクセル位置に書き込むのを許す。従って、複合映像の幾何学的忠実性が改善される。ここに述べる補間構成は、フレームデータが複合映像の2つの列のみに書き込まれるという点で直線的補間のみを含む。もちろん、単一センサ列からのデータが、適当な重み付けで、アキュムレータ100、102の多数の列に書き込まれるより高次の補間方法も考えられる。しかしながら、このような方法は、計算という点でより高価で、且つおそらく、映像のクオリティに控え目な改善以上のものは得られない。それ故、ほとんどの用途では、非直線的補間の付加的な複雑さが正当化されることはおそらくない。
従って、完全な容器の複合映像を作るに必要な全ての情報を含む映像フレームの集合の捕獲を許すために、センサのリフレッシュレート及び容器の速度が各々充分に高く及び低くされると仮定されている。もちろん、これは、必ずしもそうでない場合もある。容器が高速で移動する場合には、映像の取得が、容器の全エリアの像形成を確保するに充分なほど高速でないことがある。実際に、複合映像は、サンプリングが過少である。容器の移動を減少するか又はセンサの映像取得レート及び/又は視野を増加することが実際的でない場合には、映像処理により欠落情報を補間することができる。
図9は、図7及び8の処理アレー100、102、104を使用して発生された複合映像のギャップを埋める第1の方法に含まれるステップを示すフローチャートである。図9において、全ての映像フレームが処理された後であって、除算器106により複合映像が形成される前に、先ず、フィルタリングステップ120が実行される。このステップ120の後に、映像データアキュムレータアレー100及びカウントアキュムレータアレー102のコンテンツに空間的平滑化フィルタが適用される。これは、コンテンツを平滑化して、ギャップを減少させる。使用する平滑化フィルタのサイズは、橋絡できるギャップの最大サイズを定義する。大きなフィルタは、大きなギャップを除去するが、映像のディテールが低下する。フィルタされたデータは、個別アレー(図示せず)に書き込まれる。
ステップ122において、映像処理ユニットは、複合映像アレー104のピクセルを順次アドレスする。各ピクセルに対し、ステップ124において、カウントアキュムレータアレー102の対応ピクセルの値がチェックされる。このカウントアキュムレータ値が著しく非ゼロである場合には、プロセッサ14は、ステップ126へ進み、そして除算器106は、映像アキュムレータアレー100のピクセル値を、カウントアキュムレータアレー102の同じ位置にあるピクセル値で除算する。ステップ128において、この除算の結果が複合映像アレー104の適当なピクセルに書き込まれる。このように、そのピクセルの強度に充分な貢献がある(1つ以上の映像フレームから)場合には、平滑化が不要であり、そしてフィルタされないアレー100、102からデータが抽出される。
或いは又、ステップ124において、カウントアキュムレータのピクセル値が著しい非ゼロでないと分かった場合には、プロセッサは、ステップ130へ進む。このステップ130において、フィルタされたカウントアキュムレータアレーの同じ位置にあるピクセルの値がチェックされる。このフィルタされた値が著しく非ゼロである場合には、プロセッサ14は、ステップ132へ進み、除算器106が、そのフィルタされた映像アキュムレータアレーのピクセル値を、そのフィルタされたカウントアキュムレータアレーの同じ位置にあるピクセル値で除算する。次いで、プロセッサ14は、ステップ128へ復帰し、そしてこの除算の結果が複合映像アレー104の適当なピクセルに書き込まれる。一方、フィルタされたカウントアキュムレータアレーの値がゼロ又はほぼゼロである場合には、プロセッサ14は、ステップ134において、第1フィルタより大きい第2フィルタを、映像データアキュムレータアレー100及びカウントアキュムレータアレー102のコンテンツに適用する。フィルタサイズチェック及び増加ステップ130及び134は、アキュムレータアレー100及び102が充分に平滑化されてギャップが橋絡され且つカウントアキュムレータアレー102の当該ピクセルの値が著しく非ゼロになるまで、繰り返される。この点において、最も最近フィルタされたアレーのデータと、128において複合映像アレー104に書き込まれた結果とを使用して、除算が実行される。
それ故、図9に示す映像充填プロセスは、各ピクセル値に充分な貢献がある場合に複合映像を直接発生することにより最大に鮮明な映像を発生する。さもなければ、各ピクセル値の推定を発生するに充分なほどデータが補間されるまで、平滑化の量が次第に増加される。
映像充填のための別の解決策が図10のフローチャートに示されている。これは、多数の領域がそれらのデータにギャップをもたないことに関わらず、第1の解決策で行われていた、全アレーコンテンツをフィルタリングする計算上の費用を回避する。この実施形態のステップ140において、映像処理ユニットは、複合映像アレー104のピクセルに順次アドレスする。各ピクセルに対して、ステップ142において、初期隣接部範囲が単一(現在)ピクセルにセットされる。この範囲は、その後の繰り返し中に複数のピクセルを含むように拡張できる。ステップ144において、カウントアキュムレータアレー102の対応ピクセル隣接部がチェックされ、そしてその隣接部内の全ピクセルの値が加算される。ステップ146において、この加算値は、著しい非ゼロであるかどうかについてチェックされる。加算値が著しい非ゼロである場合には、プロセッサ14は、ステップ148へ進み、映像データアキュムレータアレー100の対応ピクセル隣接部に保持された値が加算される。ステップ150において、除算器106は、映像アキュムレータアレー100からの加算ピクセル値を、カウントアキュムレータアレー102の同じ位置にある加算ピクセル値で除算する。ステップ152において、この除算の結果が複合映像アレー104の適当なピクセルに書き込まれる。
或いは又、隣接部内で加算されたカウントピクセル値が、ステップ146において著しい非ゼロでないと分かる合計値を生じる場合には、プロセッサは、ステップ154へ進む。このステップ154において、隣接部範囲が増加され、そしてプロセッサは、再び、ステップ144の加算を実行し、今度は、より大きな隣接部を検査する。隣接部サイズがステップ146において著しい非ゼロの和を与えるに充分であるときには、映像アキュムレータアレー100及びカウントアキュムレータアレー102の両方の隣接部内の値が、148において加算され、150において除算され、そして152において複合映像アレー104の適当なピクセルに書き込まれる。
本発明のこの実施形態では、必要とされる領域のギャップ処理だけで複合映像が形成される。現在ピクセルを中心とする適当なサイズの領域を使用して、複合映像ピクセルが計算される。この解決策の欠点は、異なる容器の処理時間が、必要なフィルタリングの量に基づいて、著しく変化することである。
ほとんどの実施形態では、フィルタリングは、容器の移動方向に映像に適用するだけでよいことが予想される(実際にフィルタリングが万事必要とされる場合)。しかしながら、若干のセンサ、例えば、ベイヤ(Bayer)フィルタを伴うカラーセンサの場合には、列が濃密にサンプルされなくてもよい。それ故、移動に対して垂直方向の付加的なフィルタリングが必要とされる。このフィルタは、移動方向に適用されるものと同じサイズである必要はない。
映像処理機能を要約する助けとして、映像処理ユニット14のコンポーネントが図11に概略的に示されている。処理ユニット14は、処理されるべき映像情報を記憶するための映像記憶ユニット162を備えている。このユニット162は、2つの映像フレームバッファ(図示せず)、即ち現在映像フレームItを記憶するための現在映像バッファと、その直前のフレームIt-1を記憶するための手前の映像バッファとを備えている。記憶ユニット162は、勾配プロセッサ164にリンクされ、該プロセッサは、映像バッファ162に保持される現在映像フレームItの勾配を計算し(図5のステップ54)そして記憶する。映像バッファ162内のデータは、動き推定プロセッサ166及び映像アナライザ168の両方によりアクセスできる。動き推定プロセッサ166は、更に、勾配プロセッサ164にリンクされ、そして映像アナライザ168は、重みデータベース170(これは任意である)にアドレスしそしてアクセスすることができる。
映像アナライザ168は、映像バッファ162のデータを使用し、そしてデータベース170を、シーンの背景に対応する映像ピクセルと、像形成されている物体(前景)に対応する映像ピクセルとの間を区別するように重み付けする。動き推定プロセッサ166は、映像バッファ162及び勾配プロセッサ164内の映像データを、映像アナライザ168により与えられる区別の尺度に基づいて処理する。これは、現在映像フレームItと、その直前の映像フレームIt-1との間の物体の動きの推定を発生する。動きの推定が完了した後に、現在映像バッファ162の映像フレーム及びその映像フレームに対する動きの現在推定が、フィルタ172を経て、ディスプレイプロセッサ174へ通される。容器6を像形成する全てのフレームが動き推定プロセッサ166により処理されると、ディスプレイプロセッサ174は、各映像フレームに対して導出された動き推定に基づいて容器の複合映像を構成する。このプロセスは、図6から10を参照して既に詳細に説明した。1つ以上の付加的なセンサ24及び32からのフレーム出力は、ディスプレイプロセッサ174に入力することもでき、これは、次いで、各センサに対する各複合映像を、上述したように動き推定プロセッサ166により発生されて必要に応じて再スケーリングされた動き推定に基づいて形成する。
図5及び11を再び参照すれば、動き推定プロセスの始めに、新たな映像フレームItに関連したデータが映像記憶ユニット162に入力される。このデータは、現在映像バッファに記憶され、そしてその直前の映像フレームIt-1に関連したデータは、手前の映像のバッファに記憶される。データは、これらバッファ間で物理的に転送されてもよいが、実際には、それらの役割を交換するのが好ましい。即ち、現在映像フレームが処理された後に、それが保持されていたバッファは、手前の映像のバッファと再呼称され、そして他方が現在映像バッファとなる。これは、例えば、ソフトウェアでは、各フレームの開始を指すアドレスポイントをスワップすることで達成されてもよいし、又はハードウェアでは、マルチプレクサを使用して2つの映像フレームバッファ間を交番することで達成されてもよい。
ステップ54において、勾配プロセッサ164は、現在映像フレームバッファ内の情報を抽出し、そして映像勾配を計算する。処理されるべきピクセルごとに、映像アナライザ168は、先ず、式(2)及び(3)を使用してピクセル差D1及びD2を計算する。本発明のこの実施形態がルックアップテーブルを使用する場合には、D1及びD2を使用して、重みデータベース170をアドレスし、そこから、当該エントリーを映像アナライザ168へ返送する。或いは又、D1及びD2を映像アナライザ168により使用して、使用すべき所定の構成に基づき重みを直接計算する。いずれにせよ、その繰り返しサイクルにおける各ピクセルの重みは、映像アナライザ168により発生され、これは、各ピクセルが前景の一部分となる見込みを指示する尺度となる。この重みと、D1及びD2の計算は、動き推定プロセッサ166へ通され、該プロセッサは、ステップ66及び68(図5)に基づき、それらを使用して、動き推定を更新すると共に、その繰り返しカウントを増加する。動き推定プロセッサ166は、収斂又は最大カウントに達するまで繰り返しを続ける。各映像フレームItのデータは、次いで、フィルタ172へ通され、該フィルタは、動き推定を平滑化すると共に、その結果をディスプレイプロセッサ174へ通し、ここで、ステップ74において複合映像が構成される。
図6から10を参照して説明した方法から明らかなように、一連の映像フレームから複合映像を再構成するには、各対の隣接フレーム間でセンサに対する物体の動きΔxc(t)を推定することが必要である。上述した本発明の実施形態では、動き推定Δxc(t)は、映像フレーム自体内に含まれた情報を使用して得られる。このプロセスは、外部センサを参照せずにフレーム間の動きを推定するための従来技術よりも、計算の観点で低廉である。
しかしながら、本発明のある用途では、動き推定を与えるために映像情報に完全に依存する必要はなく、即ち他の情報ソースを利用し、そこから、動き推定を得ることもできる。これは、初期の動き推定に値を指定することに関連して既に述べた。個別の速度センサからの情報を使用することもできる。図12には、乗物をスキャニングするのに特に適した本発明の第4の実施形態が180で一般的に示されている。この図では、トラック182が門184を通して運転されて示されており、門には、第1、第2、第3及び第4のセンサ186、188、190及び192が取り付けられている。第1及び第2のセンサ186及び188は、ミリメーター波イメージャーであり、第1のミリメーター波イメージャー186は、トラック182の上に配置されて、垂直方向下方を見ている。第2のミリメーター波イメージャー188は、門184の上角に向けて配置されて、門184の縦断面を横切って対角方向を指している。これは、トラックの内部をカバーするように下方に向けられる。第1及び第2のミリメーター波イメージャー186及び188は、位置及び向きを調整できるように各スキャナ及び取り付け台に取り付けられる。
第3のセンサ190は、横を向いた可視帯域センサで、これは、それ自体熱式(赤外線)イメージャーである第4のセンサ192に隣接配置される。可視帯域センサ190及び熱式イメージャー192は、像形成されるべきトラックに予想される高さのほぼ半分において門184に取り付けられる。この構成は、幾何学的歪を最小にする。側部に取り付けられた第2、第3及び第4のセンサ188、190及び192により見られるトラックの側部を付加的に照明するために、ライト194が門184に取り付けられる。トラックの側部から強い赤外線ソースが反射することによる眩しさを防止する(できるだけ)ために、赤外線放射シールド196が熱式イメージャー192を取り巻いている。これは、主として、日光の反射を打ち消すことを意図しているが、その後方に位置する他の高温物体からの赤外線放射の反射も減少する。処理電子装置は、便利に配置された電子装置ベイ198に収容される。
トラック(lorry)182は、その運転者により門(portal)184を通して運転される。トラックの速度は、運転者により制御され、スキャニングオペレータの制御下になく、従って、一定とは考えられない。実際に、トラックの運転者は、映像データを妥協することを試みて常軌を逸した運転をすることがある。しかしながら、ここに述べる本発明に基づいて映像が収集されそして処理される場合には、トラックの4つの複合映像が再構成されて、リアルタイム実施に適したレートで容易に比較するように表示される。更に、ライト194は、日中及び夜間の両方に乗物のスキャンを実行して、暗闇に覆われることでスキャンを回避しようとする試みを除外することができる。与えられる照明は、可視波長帯域内であるか又は近赤外線(NIR、0.7−1.0μm)帯域内でよい。可視センサ190がNIRカットオフフィルタを有していない場合には、NIR照明(運転者には見えない)をこのセンサにより検出できる。この実施形態に適した典型的な門の大きさが図示されている。
図13は、レーダー又はライダーセンサ或いはビームブレーカのような個別の速度センサ200を組み込むように変更された図12の装置の態様を示す。前述したものと同等の部分は、同様に参照される。速度センサ200は、映像フレーム捕獲のタイミングと同期して周期的に物体の速度を測定するように構成される。即ち、フレームごとに反復計算を実行するのではなく、複合映像にフレームを入れる必要があるときに、物体の動きの推定が速度センサ200から直接収集される。
本発明の第4の実施形態のこの変形において、物体の速度は、第1のコンピュータベースのシステム(図示されていない速度測定システム)を使用して測定され、そしてその速度は、第2のコンピュータベースのシステム(図示されていない映像捕獲システム)により捕獲されて記憶された映像フレームに関連付けられる。
速度測定システムは、カウンタタイマーカードを組み込んだパーソナルコンピュータ(PC)にインターフェイスされたドップラーレーダー200の形態の速度センサを使用している。ドップラーレーダー200は、スキャニングされる物体の中心に置かれた位置を通る垂直線202から2.6m横方向にオフセットされている。この垂直線202は、あるポイントにおいて乗物が移動する表面に合流し、そしてそのポイントを通して物体移動方向に延びる水平線を、以下、物体の「中心線」と称する。ドップラーレーダー200は、移動物体から反射させるためのレーダービームを発生し、このビームは、連続波出力の形態の信号で構成される。レーダービームは、垂直線202と、可視帯域センサ190の視野の中心との交点に向けて水平に向けられる。又、これは、ビームの中心と、物体の中心線に平行な線との間に20度から30度の範囲の角度を与えるためにセンサ186−192から長手方向に離れるように向けられる。ドップラーレーダー200は、物体がセンサ190等でスキャニングされるときにそのレーダービーム巾で物体をカバーするような高さにおいてポスト204に配置される。又、このレーダーは、電気的方形波出力パルス列も発生し、方形波の周波数は、レーダー信号を反射する移動物体の速度に正比例する。
方形波の周波数は、物体の速度に正比例し、従って、物体の速度に係数を乗算し、又、各々の場合に、方形波の周波数にその係数を乗算すると共に、その周期をその係数で除算する。更に、物体の速度に係数を乗算し、物体があるポイントを通過するのに要する時間をその係数で除算し、物体が進行した距離と方形波の周期との間の直接的な関係を与える。その結果、物体は、方形波の周波数に関わりなく、次々の各対の方形波立ち上り縁の間に等しい距離を進行する。物体が予め構成されたポイントを通過し始めるときに始めて、各立ち上り縁までの各経過時間が測定される。速度測定システムは、任意の対の次々の方形波立ち上り縁間に移動した物体距離が分かるように校正され、これは、約5mmである。それ故、物体が予め構成されたポイントを越えて移動する累積距離は、各時間値に対して得ることができる。
速度測定システムは、クロック周波数のパルスより成るタイミング信号(システムクロック)を発生するカウンタタイマーカードを有し、このシステムクロックは、映像捕獲システムに分布される。速度測定システムの一部分であるスキャニングレーザー206は、映像捕獲システムの視野における物体の存在を検出するのに使用される。スキャニングレーザー206は、ドップラーレーダー200の真上に配置され、そしてそこから、垂直線202と、物体がこの線に沿って6mの距離まで移動する表面との交点に向かって延びる領域内で物体を検出する。これは、180度の弧より成るスキャンエリアにわたってそのレーザービームの繰り返し一次元スキャニングを行うように構成される。このスキャンエリアは、物体移動方向に沿って3m延びそして物体が移動する表面に向かって高さが6m延びる長方形ゾーンへと細分化される。速度測定システムがこの長方形ゾーン内から戻りレーザービーム(戻り信号)を受信すると、これは、物体がレーザービームを反射し、ひいては、映像捕獲システムの視野内に物体が存在することを指示する。長方形ゾーン内からの戻り信号の開始を使用して、映像捕獲システムをアクチベートすると共に、システムクロックをカウントするカウンタタイマーカードのカウンタをスタートさせる。同様に、映像捕獲システムは、スキャニングされるべき物体が存在しないことを指示する戻り信号終了の受信に応答してデアクチベートされる。
速度測定システムにおいて、カウンタタイマーカードは、戻り信号の開始以来生じたシステムクロックのパルス数をカウントし、この開始は、以下、スタート信号と称する。これらカウントは、ドップラーレーダーからの各方形波出力パルスの立ち上り縁と同期して速度測定システムにより記憶される。この記憶されたカウントは、スタート信号から各方形波立ち上り縁まで経過した時間を表わす。このスタート信号から各立ち上り縁まで経過した時間は、予め構成されたポイントからの物体位置変位に比例し、従って、各カウントは、物体位置が一定の距離増分だけ変化した各時間を表わす。時間及び位置は、時間/位置データのテーブルに周期的に追加されて、それを更新する。
映像捕獲システムは、速度測定システムからスタート信号及びシステムクロックを受信する。又、時間/位置データのテーブルも、更新時に、周期的に受信する。各映像フレームのスタートが捕獲されると、そのスタート信号以来生じたクロック周波数のパルス数がカウントされて記録される。カウントは、システムクロックの現在カウントをラッチするために映像フレームのスタートから導出されるタイミング信号を使用して、映像捕獲システムのカウンタタイマーカードにより行われる。これは、捕獲時間を、速度測定システムにより使用される時間原点に対して各映像フレームに関連付け、即ち時間原点は、レーザー戻り信号の開始により与えられるスタート信号である。
映像フレームから映像を適当に構築するために、映像捕獲システムは、フレームに対して記録された捕獲時間を、速度測定システムにより送信された関連時間/位置データと比較する。映像捕獲システムは、1つは記録されたフレーム捕獲時間の前で且つ1つはその後である2つの隣接時間値を見出し、それに関連する位置の値を読み取り、そして2つの位置の値の間の直線的補間を実行して、各映像フレームの捕獲時間における移動物体の位置を決定する。
映像の空間解像度が速度測定システムより低いシステムの場合、映像捕獲システムにとって、フレーム捕獲時間に最も近い時間を選択し、そしてその時間に関連した位置の値をフレーム位置として使用するのがより簡単である。
次いで、各映像フレームを、上述したようにそれに対して決定された各映像位置に指定することにより、映像捕獲システム内で複合映像が構成される。時間/位置データのテーブルは、物体がセンサを通過するときに送信され、従って、物体が像形成されるときに映像を空間的に修正することができる。それ故、物体が映像捕獲システムの視野内にあるほとんどの時間は、映像の記憶及び映像の捕獲に使用することができ、これは、次いで、速度測定システム及び映像捕獲システムの組合体のスループットを高める。これは、変化する速度で移動する物体を像形成するための非接触方法である。これは、数値的に大きなアスペクト比(巾対高さ)を有する物体を像形成するのに特に適している。
映像処理を使用して各映像フレームの位置的変位を決定する速度測定システム(上述した)では、映像フレームのスタートから導出されたタイミング信号を使用して、システムクロックカウントをラッチすることができる。これは、物体の速度/位置が推定された時間と同じである各フレームの捕獲時間を与える。個別の速度センサを使用するシステムについて述べたものと同一の方法により、個別の映像捕獲システムが、発生された時間/位置データを使用して、それ自身の映像を空間的に修正することができる。
速度センサの出力は、実世界の速度(例えば、マイル/時)でよく、この場合に、これは、映像処理に必要とされるように、映像平面を横切る対応速度(例えば、ピクセル数/秒)に変換される。これは、像形成幾何学しか含まないスカラー変換である。しかしながら、これは、物体をスキャンする各センサの配置及び特性に対して決定され、そして必要とされる変換は、映像処理の計算に容易に組み込まれる。
先に述べた実施形態と比較すると、速度センサを使用する欠点は、このようなセンサを設ける必要性であり、これはシステムのサイズを増大する。しかしながら、複合映像を再構成するのに必要な分析は、映像情報のみから動きが推定される実施形態よりも、計算上需要が低い。物体速度を直接的に測定すると、各センサをより高いフレームレートで動作することができ、ひいては、より高速に移動する物体をスキャニングすることができる。この構成の制限ファクタは、速度センサ自体の応答時間と、装置が完全な複合映像を再構成できないほど高速で物体が移動しないよう確保する必要性とである。従って、図9及び10を参照して述べた補間についてのギャップ充填方法の1つを組み込む場合に、この実施形態の効果が更に発揮される。
速度センサ情報を使用する映像処理が要求される場合には、約700ストリップ/秒のフレームレートにおける標準的パーソナルコンピュータ(PC)ハードウェア(おそらくデュアルプロセッサPC)を使用したリアルタイム映像再構成を行い得ることが想像される。この装置を乗物のスキャニングに使用し、道路の縁に配置した場合には、このフレームレートは、乗物が3m離れて140mphで走行することに等しい。逆に、ここに述べる映像データからの動き推定を使用する装置のリアルタイム動作は、30mph領域の最大速度で走行する乗物でしかスキャニングを確実に実行できないようにフレームレートを制限する。
以上の説明で取り上げた計算は、自動的な仕方で、即ち適当な搬送媒体で実施されて従来のコンピュータシステムで実行されるプログラムコード命令を含む適当なコンピュータプログラムにより、明確に評価することができる。このコンピュータプログラムは、メモリ、フロッピー(登録商標)、或いはコンパクト又は光学ディスク又は他のハードウェア記録媒体、或いは電気的又は光学的信号で実施されてもよい。このようなプログラムは、良く知られた計算手順を含むので、熟練したプログラマにとって、前記説明に基づいて実施することが容易である。
本発明によるスキャニング装置の第1実施形態を示す概略図である。 本発明によるスキャニング装置の第2実施形態を示す概略図である。 本発明によるスキャニング装置の第3実施形態を示す概略図である。 図1から3のスキャニング装置のセンサコンポーネントの視野内を移動する物体を示す概略図である。 図1、2及び3に示すスキャニング装置に収集されたデータから映像を再構成するプロセスステップを示すフローチャートである。 図1から3のスキャニング装置の1つから得た線スキャン映像フレームが複合映像アレー内の位置に入れられるところを示す概略図である。 フレーミングセンサから得られた映像フレームが複合映像アレー内の位置に適応配置されるところを示す概略図である。 積分を使用して複合映像を再構成する方法を示す概略図である。 直線補間を使用して複合映像を再構成する方法を示す概略図である。 図7及び8に示すように発生された複合映像のギャップを埋める第1の方法に含まれるプロセスステップを示すフローチャートである。 複合映像のギャップを埋める別の方法に含まれるプロセスステップを示すフローチャートである。 図1から3に示す映像処理ユニットのコンポーネントを示す概略図である。 乗物のスキャンを実行するように適応された本発明のスキャニング装置の第4実施形態を示す図である。 図12の実施形態を、個別の速度センサを組み込むように変更した変形態様を示す図である。

Claims (47)

  1. 移動物体(6)をスキャニングするための装置(4)であって、前記物体(6)がセンサ視野(20)を通過するときに前記物体の一連の映像を収集するように配向されたセンサ(12)と、前記一連の映像を入力しそしてそこから複合映像を形成するように構成された映像処理手段(14)とを備えた装置において、前記映像処理手段(14)が、
    a)前記一連の映像内の映像と映像との間の物体映像の動き(Δxc(t))の推定を発生するための動き推定手段(166)と、
    b)前記推定された物体映像の動き(Δxc(t))から導出された位置において前記一連の映像が貢献するところの複合映像を発生するための表示処理手段(174)と、
    を備えたことを特徴とする装置。
  2. a)前記動き推定手段は、前記一連の映像からの現在映像内の多数のピクセルの各々に対し、各映像ピクセルが前記物体の一部分に対応する見込みを指示する見込み尺度(wf(x,y))を導出するための映像アナライザ(168)を備え、そして
    b)前記動き推定手段(166)は、前記見込み尺度(wf(x,y))に基づいて重み付けされた映像ピクセルから、前記現在映像とその先駆体との間の物体映像の動き(Δxc(t))の推定を発生するように構成された、
    請求項1に記載の装置。
  3. 前記センサ(12)は、スキャニングされるべき移動物体(6)に対して予め構成された動き方向(10)に実質的に垂直に整列された光学軸(11)を有する、請求項2に記載の装置。
  4. 前記一連の映像における前記現在映像の先駆体は、直前の映像である、請求項2に記載の装置。
  5. 前記映像アナライザ(168)は、現在映像におけるピクセルの強度Ip t(x,y)と、前記現在映像の先駆体において同等に位置するピクセルの強度Ip t-1(x,y)との比較に基づいて、各ピクセルに対する見込み尺度(wf(x,y))を導出するように構成された、請求項4に記載の装置。
  6. 各ピクセルに対する前記見込み尺度(wf(x,y))は、前記現在映像におけるピクセルの強度Ip t(x,y)と、それと同等に位置するピクセルの強度Ip t-1(x,y)との間の差の二乗に比例する、請求項5に記載の装置。
  7. 前記映像アナライザ(168)は、前記現在映像ピクセルの強度Ip t(x,y)と、前記現在映像ピクセルにより像形成されるものと同じである物体領域を像形成すべく推定された先駆体におけるピクセルの強度Ip t-1(x+Δxi,y)との比較に更に基づいて、各ピクセルに対する見込み尺度(wf(x,y))を導出するように構成され、前記先駆体におけるピクセルは、物体映像の動き(Δxi)の現在推定が真の映像の動きを表わすという仮定に基づいて動き補償により導出された位置を有する、請求項5に記載の装置。
  8. 前記見込み尺度(wf(x,y))は、現在映像ピクセルの強度Ip t(x,y)と、前記現在映像ピクセルと同等に前記先駆体に位置する第2ピクセルの強度Ip t-1(x,y)と、前記先駆体内の第3ピクセルであって、前記現在映像ピクセルにより像形成されるものと同じである物体領域を像形成すると推定される第3ピクセルの強度Ip t-1(x+Δxi,y)と、から導出され、前記第3ピクセルは、物体の動きの補償により導出される位置を有し、そして前記見込み尺度は、物体映像強度におけるノイズの標準偏差σf及び背景映像強度におけるノイズの標準偏差σbの推定値を使用して、次の方程式に基づいて導出される、
    Figure 2006520042
    但し、
    Figure 2006520042
    及び
    Figure 2006520042
    請求項7に記載の装置。
  9. 前記見込み尺度(wf(x,y))は、現在映像ピクセルの強度Ip t(x,y)と、その先駆体に同等に位置する第2ピクセルの強度Ip t-1(x,y)と、前記先駆体内の第3ピクセルであって、前記現在映像ピクセルにより像形成されるものと同じである物体領域を像形成すると推定される第3ピクセルの強度Ip t-1(x+Δxi,y)と、から導出され、前記第3のピクセルは、物体の動きの補償により導出された位置を有し、そして前記見込み尺度(wf(x,y))は、正の数をnとし、そして負でない定数をcとすれば、
    Figure 2006520042
    により与えられる、請求項5に記載の装置。
  10. 1<n≦4である、請求項11に記載の装置。
  11. 1.5<n<2.5である、請求項10に記載の装置。
  12. 前記映像アナライザ(168)は、物体の動き(Δx0)の第1の推定を使用して、第2のそのような推定(Δx1)を計算し、その後、以前の繰り返しにおいて動き推定手段(166)により発生された物体の動き(Δxi-1)の推定に基づいて見込み尺度(wf(x,y))を繰り返し計算するように構成され、そして前記動き推定手段(166)は、各々の以前の動き推定(Δxi-1)を使用して更新された見込み尺度(wf(x,y))に基づいて現在の繰り返しに対する物体の動き(Δxi)の推定を繰り返し発生するよう構成された、請求項2に記載の装置。
  13. 前記センサ(12)は、実質的に長方形の視野(90)をもつフレーミングセンサであり、前記表示処理手段(174)は、一連の映像の各々に対し、前記センサの視野内で複数のストリップ(94)から映像データを取り出し、そして各映像における各ストリップ(94)からの貢献を各々有する対応する複数の複合映像を発生するよう構成された、請求項2に記載の装置。
  14. 前記センサ(12)は、第1センサであり、前記装置(22,31)は、前記物体が少なくとも1つの他のセンサの視野(30,40)を通過するときに前記物体(6)の各一連の映像を得るように配向された少なくとも1つの他のセンサ(24,32)を備え、そして前記表示処理手段(174)は、更に、前記第1のセンサの一連の映像から導出された映像の動き(Δxc(t))の推定に基づいて各一連の映像から各複合映像を発生するように構成された、請求項2に記載の装置。
  15. 前記少なくとも1つの他のセンサ(24,32)は、前記第1のセンサ(12)とは異なる波長で像形成でき且つ異なる方向に沿って配向された少なくとも1つのセンサである、請求項14に記載の装置。
  16. 前記第1のセンサ(12)は、可視帯域イメージャーであり、前記少なくとも1つの付加的なセンサ(24,32)は、可視帯域イメージャー、ミリメーター波イメージャー及び熱式イメージャーの少なくとも1つである、請求項14に記載の装置。
  17. 前記動き推定手段は、物体速度センサである、請求項1に記載の装置。
  18. 前記物体速度センサは、物体の速度に比例する周波数をもつ出力信号を与えるドップラーレーダーである、請求項17に記載の装置。
  19. 前記ドップラーレーダーの出力信号をタイミングどりするための共通のクロック信号を与えると共に、これらクロック信号パルスのカウントに関して前記一連の映像における映像を収集するように構成された、請求項18に記載の装置。
  20. 各々のフレーム信号を与えて、前記ドップラーレーダーの出力信号から導出された映像及び時間/位置データをタイミングどりして、物体移動をタイミングどりし、更に、補間を行って映像のタイミングを物体の位置に関係付け、そして物体の位置に基づいた位置にある映像から複合映像を形成するように構成された、請求項19に記載の装置。
  21. 運転者により制御される移動乗物(182)をスキャニングするための装置(180)であって、前記乗物がセンサ視野(20)を通過するときに前記乗物(182)の一連の映像を収集するように配向されたセンサ(186,188,190,192)と、前記一連のセンサ映像を入力しそしてそこから前記乗物の複合映像を形成するように構成された映像処理手段(14)とを備えた装置において、前記映像処理手段(14)が、
    a)前記一連の映像の中の現在映像内の多数のピクセルの各々に対し、そのピクセルが前記乗物の一部分に対応する見込みを指示する各々の見込み尺度(wf(x,y))を導出するための映像分析手段(168)であって、前記現在映像及びその先駆体内に含まれた情報を使用するように構成された映像分析手段(168)と、
    b)前記見込み尺度(wf(x,y))に基づいて重み付けされた映像ピクセルから前記現在映像とその先駆体との間の物体映像の動き(Δxc(t))の推定を発生するための動き推定手段(166)と、
    c)前記推定された物体映像の動き(Δxc(t))から導出された位置において前記一連のフレームが貢献するところの複合映像を発生するための表示処理手段(174)と、
    を備えたことを特徴とする装置。
  22. 物体(6)がセンサ視野(20)を通して移動するときにセンサ(12)に得られる一連の映像から複合映像を構成する方法において、
    a)現在映像を処理のために入力するステップと、
    b)物体映像の動きの推定を導出するステップと、
    c)一連の映像に対して前記ステップa)及びb)を繰り返すステップと、
    d)前記物体映像の動きの推定から導出された位置において前記一連の映像フレームが貢献するところの複合映像を構成するステップと、
    を備えたことを特徴とする方法。
  23. 前記ステップb)は、
    b1)前記現在映像フレーム(It)のピクセル(Ip t(x,y))に対し、各ピクセル(Ip t(x,y))が前記物体(6)の部分に対応する見込みを指示する見込み尺度(wf(x,y))を導出する段階と、
    b2)前記見込み尺度(wf(x,y))に基づいて重み付けされた映像ピクセル情報(Ip t(x,y), Ip t-1(x,y))から、物体映像の動きの推定(Δxi)を導出する段階と、
    b3)前記推定(Δxi)が収斂するか又は予め構成された繰り返し限界に達するまで、前記段階(b2)で導出された物体映像の動き(Δxi)の推定を使用して、前記段階(b1)及び(b2)を繰り返して、前記段階(b1)で導出された見込み尺度(wf(x,y))を更新し、これにより、前記現在映像フレームに対する物体映像の動き(Δxc)の第1推定を発生する段階と、
    を備え、更に、前記ステップd)は、前記物体映像の動き(Δxc)の最終推定から導出される位置において、前記一連の映像フレーム(It)が貢献するところの複合映像を構成する段階を含む、請求項22に記載の方法。
  24. 前記ステップ(b)は、前記現在映像(It)内に含まれた情報と、先駆体(It-1)内に含まれた情報とを比較して、前記見込み尺度(wf(x,y))を導出する段階を含む、請求項23に記載の方法。
  25. 前記ステップ(b)は、前記現在映像(It)の各ピクセル(Ip t(x,y))に対し、ピクセル強度(Ip t(x,y))と、前記先駆体の同等の位置におけるピクセル強度(Ip t-1(x,y))との比較を行い、そしてこのような比較を使用して前記見込み尺度(wf(x,y))を導出する段階を含む、請求項24に記載の方法。
  26. 前記見込み尺度(wf(x,y))は、前記現在映像におけるピクセルの強度Ip t(x,y)と、前記先駆体の同等の位置のピクセルの強度Ip t-1(x,y)との間の差の二乗に比例する、請求項25に記載の方法。
  27. 前記現在映像(It)におけるピクセル(Ip t(x,y))に対し、前記ステップ(b)は、更に、
    b4)前記現在映像とその先駆体との間の物体映像の相対的な動きを、映像の真の動きを表わす物体映像の動きの現在推定(Δxi)に基づいて補償する段階と、
    b5)前記現在映像のピクセルの強度Ip t(x,y)と、前記先駆体における各同等の映像ピクセルの強度Ip t-1(x+Δxi,y)との比較を行う段階と、
    b6)前記現在映像及びその先駆体における同等の位置のピクセル及び同等の像形成ピクセルの両方との比較から、前記見込み尺度(wf(x,y))を導出する段階と、
    を備えた請求項25に記載の方法。
  28. 各ピクセルに対する前記見込み尺度(wf(x,y))は、前記現在映像におけるピクセル強度(Ip t(x,y))と、その先駆体における同等の位置のピクセルの強度Ip t-1(x,y)と、前記先駆体における同等の像形成ピクセルの強度Ip t-1(x+Δxi,y)とから、負でない定数をcとし、そしてn>0とすれば、次の方程式により導出される、
    Figure 2006520042
    請求項27に記載の方法。
  29. 各ピクセルに対する前景見込み(wf(x,y))の尺度は、前景及び背景ノイズ強度の標準偏差σf及びσdの推定から、次の方程式に基づいて導出される、
    Figure 2006520042

    Figure 2006520042

    Figure 2006520042
    請求項27に記載の方法。
  30. 前記先駆体(It-1)は、前記現在映像(It)の直前のものである、請求項23に記載の方法。
  31. 前記物体(6)が通過する視野を有する少なくとも1つの付加的なセンサ(24,32)から各複合映像を構成する付加的なステップを備え、各複合映像は、少なくとも1つのセンサからの各現在映像(I1 t,I2 t)を、前記ステップ(d)で発生された物体映像の動きの関連収斂推定(Δxc)から導出された各位置に入れることにより構成される、請求項23に記載の方法。
  32. 物体映像の動きの推定を導出する前記ステップ(b)は、物体速度センサにより実施される、請求項22に記載の方法。
  33. 前記物体速度センサは、物体速度に比例する周波数をもつ出力信号を発生するドップラーレーダーである、請求項32に記載の方法。
  34. 共通のクロック信号を使用して、ドップラーレーダーの出力信号をタイミングどりし、そして前記クロック信号パルスのカウントに関して一連の映像における映像を収集する、請求項33に記載の方法。
  35. 各フレーム信号を使用して、前記ドップラーレーダー出力信号から導出された映像及び時間/位置データをタイミングどりして、物体の移動をタイミングどりし、更に、補間を行って、映像のタイミングを物体の位置に関係付け、そして物体位置に基づいた位置にある映像から複合映像を形成する、請求項34に記載の方法。
  36. 物体がセンサ視野(20)を経て移動するときに、センサ(12)により捕獲される一連の映像から複合映像を構成する方法において、
    a)物体映像の動き(Δxc(t))の各推定を、現在映像として指定されるときの各映像(It)に関連付けるステップと、
    b)前記現在映像を、その現在映像(It)に対する物体映像の動き(Δxc(t))の推定と、前記一連の映像における早期捕獲映像に対して得られる同様の推定との和から導出されるデータアキュムレータ(100)内の各位置x’(t)に関連付けるステップと、
    c)前記一連の映像(It)に対して前記ステップa)及びb)を繰り返し、そして各位置x’(t)に基づいた位置にある映像中央部分(80,90,108)から複合映像を形成するステップと、
    を備えた方法。
  37. 各映像中央部分(90)は、少なくとも、物体映像の動き(Δxc(t))の関連推定と同程度の巾である、請求項36に記載の方法。
  38. 前記ステップ(b)は、データが前記データアキュムレータ(100)に追加される位置に対応するピクセル位置でカウントアキュムレータ(102)を、各ピクセルに対するこのような追加の回数を示すのに適するように増加する段階も備え、そして前記ステップ(c)は、前記データアキュムレータのピクセル値を、各々の対応的に位置するカウントアキュムレータのピクセル値で除算する段階を含む、請求項36に記載の方法。
  39. 前記カウントアキュムレータの増分、及び前記現在映像(It)の中央部分におけるピクセル値を、左及び右の重み付けファクタwl(t)(110)及びwr(t)(112)で重み付けして、各々、重み付けされた増分及び重み付けされたピクセル値を発生するステップを備え、前記重み付けされた増分は、前記カウントアキュムレータ(102)における第1及び第2の整数ピクセル位置に追加され、そして前記重み付けされたピクセル値は、前記データアキュムレータ(100)における同様に位置されたピクセル位置に追加され、前記整数ピクセル位置は、前記現在映像(It)及び先駆体(It-n)に対する物体映像の動き(Δxc(t))の加算から導出された推定真のピクセル位置に隣接する位置であり、そして前記左及び右の重み付けファクタwl(t)及びwr(t)は、前記真のピクセル位置と、それに隣接する整数ピクセル位置との間の差に対して決定される、請求項38に記載の方法。
  40. 前記カウントアキュムレータの増分、及び前記現在映像(It)の中央部分におけるピクセル値を、重み付けファクタにより重み付けして、積を形成し、これらの積を、各々のアキュムレータ(100,102)内の対応する整数ピクセル位置に追加するステップを備え、前記整数ピクセル位置は、前記現在映像(It)及び早期捕獲映像(It-n)に対する物体映像の動き(Δxc(t))の和から導出される推定真のピクセル位置に隣接する位置であり、そして前記一連の重み付けファクタは、滑らかな補間関数に基づいて決定される、請求項38に記載の方法。
  41. 前記ステップ(c)は、
    (ci)前記データアキュムレータ(100)及びカウントアキュムレータ(102)のデータに空間的平滑化フィルタを適用する段階と、
    (cii)各々のカウントアキュムレータピクセル値が各ケースにおいて非ゼロであるかどうかに基づいて、前記データアキュムレータのピクセル値を各々の対応的に位置されたカウントアキュムレータのピクセル値で除算するか、又はフィルタされたデータアキュムレータのピクセル値を各々の対応的に位置されたフィルタされたカウントアキュムレータのピクセル値で除算することにより、前記複合映像を形成する段階と、
    を備えた請求項38に記載の方法。
  42. 前記ステップ(c)は、
    (c1)前記カウントアキュムレータ(102)の各ピクセルに対し1つのピクセルの初期隣接範囲をセットする段階と、
    (c2)前記カウントアキュムレータ(102)において各ピクセルに対するその各々の隣接範囲内でピクセル値のカウントアキュムレータ加算を実施する段階と、
    (c3)前記カウントアキュムレータ加算が著しい非ゼロであるかどうかに関してチェックを実施する段階と、
    (c4)前記チェックの結果が真でなく、前記カウントアキュムレータ加算が著しい非ゼロでないことを示す場合には、前記チェックが真になるまで、前記隣接範囲を増加しながら前記段階(c2)及び(c3)を繰り返す段階と、
    (c5)前記段階(c2)で参照された前記カウントアキュムレータピクセルに対して同等の位置にあるデータアキュムレータピクセルに対し、前記チェックで著しい非ゼロの加算が指示されたものに等しい隣接範囲内でピクセル値にわたってデータアキュムレータ加算を実施する段階と、
    (c6)前記データアキュムレータ加算を、前記著しい非ゼロのカウントアキュムレータ加算で除算することにより、除算結果を得る段階と、
    (c7)前記除算結果を、前記段階(c2)で参照された前記カウントアキュムレータピクセルに対応的に位置された複合映像(104)におけるピクセルに加算する段階と、
    を含む請求項38に記載の方法。
  43. 複数のセンサを組み込んでおり、複合映像を形成するための映像を得る前記センサ(12)は、第1センサであり、更に、前記センサは、物体映像の動き(Δxc(t))の推定を発生するためのデータを得る第2センサも含み、そしてこの推定は、各々の映像(It)に関連付けされる前に再スケーリング又は補間される、請求項36に記載の方法。
  44. 速度センサを使用して物体速度を測定し、そしてこの測定値から前記一連の映像の各々(It)に関連した物体映像の動き(Δxc(t))の各推定を導出するステップを備えた、請求項36に記載の方法。
  45. 前記センサ(12)は、実質的に長方形の視野(90)をもつフレーミングセンサであり、又、前記ステップ(b)は、前記一連の映像の各々(It)内に含まれたデータの少なくとも1つの同じ位置の非中央部分を、更に別の各々の映像データアキュムレータ手段に書き込む付加的な段階を含み、そして前記ステップ(c)は、各々の映像データアキュムレータアレイに含まれたデータから複数の複合映像を形成する段階を含む、請求項36に記載の方法。
  46. コンピュータ処理装置により実行するためのプログラムコード命令を実施するコンピュータ読み取り可能な媒体であって、前記命令は、物体が移動する視野を有するセンサを使用して得られた映像データの処理に関連したものである媒体において、このコンピュータ読み取り可能な媒体で実施される前記命令は、
    a)一連の映像における現在映像を処理のために入力するステップと、
    b)物体映像の動きの推定を導出するステップと、
    c)一連の映像に対して前記ステップa)及びb)を繰り返すステップと、
    d)物体映像の動きの各推定から導出された位置において、前記一連の映像フレームが貢献するところの複合映像を構成するステップと、
    を行わせることを特徴とするコンピュータ読み取り可能な媒体。
  47. コンピュータプロセッサにより実行するためのプログラムコード命令を実施するコンピュータ読み取り可能な媒体であって、前記命令は、物体(6)が移動する視野(20)を有するセンサ(12)を使用して得られた映像データの処理に関連したものである媒体において、このコンピュータ読み取り可能な媒体で実施される前記命令は、
    a)一連の映像における現在映像(It)に関連したピクセルデータにアクセスするステップと、
    b)前記現在映像におけるピクセル(Ip t(x,y))が、前記物体映像の一部分である見込みを示す見込み尺度(wf(x,y))を導出するステップであって、前記見込み尺度は、前記一連の映像における現在映像(It)及びその先駆体映像(It-1)に含まれた情報から導出されるステップと、
    c)対応する見込み尺度(wf(x,y))に基づいて重み付けされた映像ピクセル情報(Ip t(x,y), Ip t-1(x,y))から物体映像の動き(Δxi)の推定を導出するステップと、
    d)収斂又は予め構成された繰り返し限界のいずれかが最初に生じるまで、前記ステップ(b)及び(c)を繰り返すステップと、
    e)前記ステップ(c)で導出された前景の動きの推定(Δxi)を使用して、前記ステップ(b)で導出された前記見込み尺度(wf(x,y))を更新し、これにより、前記現在映像に対する前景映像の動き(Δxc)の最終推定を発生するステップと、
    f)前記一連の映像における次々の現在映像に対して前記ステップ(a)から(e)を繰り返すステップと、
    g)前記一連の映像(It)から複合映像を構成するステップであって、各映像は、前景映像の動き(Δxc)の各々の最終推定に基づいて前記複合映像に位置されるものであるステップと、
    を行わせることを特徴とするコンピュータ読み取り可能な媒体。
JP2006505899A 2003-03-07 2004-02-27 スキャニング装置及び方法 Pending JP2006520042A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GBGB0305304.8A GB0305304D0 (en) 2003-03-07 2003-03-07 Scanning apparatus and method
PCT/GB2004/000820 WO2004079659A1 (en) 2003-03-07 2004-02-27 Scanning apparatus and method

Publications (2)

Publication Number Publication Date
JP2006520042A true JP2006520042A (ja) 2006-08-31
JP2006520042A5 JP2006520042A5 (ja) 2007-04-19

Family

ID=9954363

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006505899A Pending JP2006520042A (ja) 2003-03-07 2004-02-27 スキャニング装置及び方法

Country Status (6)

Country Link
US (1) US7675655B2 (ja)
EP (1) EP1602071B1 (ja)
JP (1) JP2006520042A (ja)
AT (1) ATE552573T1 (ja)
GB (1) GB0305304D0 (ja)
WO (1) WO2004079659A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090126187A (ko) * 2008-06-03 2009-12-08 아스트리움 게엠베하 검출될 표면으로부터의 고도가 가변적일 때 능동 횡방향-시야 센서의 동작을 최적화하기 위한 프로세스
WO2009154294A1 (ja) * 2008-06-20 2009-12-23 国立大学法人静岡大学 移動量抽出装置及びプログラム、画像補正装置及びプログラム並びに記録媒体
JP2010079328A (ja) * 2008-09-24 2010-04-08 Nec Corp 画像補正装置およびその補正方法

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7545949B2 (en) 2004-06-09 2009-06-09 Cognex Technology And Investment Corporation Method for setting parameters of a vision detector using production line information
US9092841B2 (en) 2004-06-09 2015-07-28 Cognex Technology And Investment Llc Method and apparatus for visual detection and inspection of objects
US8127247B2 (en) 2004-06-09 2012-02-28 Cognex Corporation Human-machine-interface and method for manipulating data in a machine vision system
US8891852B2 (en) * 2004-06-09 2014-11-18 Cognex Technology And Investment Corporation Method and apparatus for configuring and testing a machine vision detector
US8243986B2 (en) 2004-06-09 2012-08-14 Cognex Technology And Investment Corporation Method and apparatus for automatic visual event detection
US9292187B2 (en) 2004-11-12 2016-03-22 Cognex Corporation System, method and graphical user interface for displaying and controlling vision system operating parameters
US7720315B2 (en) 2004-11-12 2010-05-18 Cognex Technology And Investment Corporation System and method for displaying and using non-numeric graphic elements to control and monitor a vision system
US7507965B2 (en) * 2005-02-14 2009-03-24 Spirit Solutions, Inc Smart thermal imaging and inspection device for wheels and components thereof and method
US7622715B2 (en) 2005-04-11 2009-11-24 Fluke Corporation Method and apparatus for capturing and analyzing thermo-graphic images of a moving object
US8098256B2 (en) 2005-09-29 2012-01-17 Apple Inc. Video acquisition with integrated GPU processing
US7711200B2 (en) 2005-09-29 2010-05-04 Apple Inc. Video acquisition with integrated GPU processing
CN101074935B (zh) * 2006-05-19 2011-03-23 清华大学 探测器阵列及设备
US7492861B2 (en) * 2006-10-13 2009-02-17 Tsinghua University Apparatus and method for quick imaging and inspecting moving target
US8237099B2 (en) 2007-06-15 2012-08-07 Cognex Corporation Method and system for optoelectronic detection and location of objects
US8290839B1 (en) 2007-09-24 2012-10-16 Wells Fargo Bank, N.A. Computer driven simulator and optimizer for distributed capture implementation
US8103085B1 (en) 2007-09-25 2012-01-24 Cognex Corporation System and method for detecting flaws in objects using machine vision
IL187708A (en) * 2007-11-28 2013-04-30 Camero Tech Ltd A bone-through radar radar system and a method for operating it
US8103134B2 (en) * 2008-02-20 2012-01-24 Samsung Electronics Co., Ltd. Method and a handheld device for capturing motion
US20100033501A1 (en) * 2008-08-11 2010-02-11 Sti Medical Systems, Llc Method of image manipulation to fade between two images
JP4656456B2 (ja) * 2008-10-22 2011-03-23 日本電気株式会社 車線区画線検出装置、車線区画線検出方法、及び車線区画線検出プログラム
FR2948798B1 (fr) * 2009-07-31 2011-09-16 Astrium Sas Procede d'estimation de decalages d'images lignes obtenues par un capteur a defilement spatial ou aeroporte
US9111351B2 (en) * 2011-12-15 2015-08-18 Sony Corporation Minimizing drift using depth camera images
US9651499B2 (en) 2011-12-20 2017-05-16 Cognex Corporation Configurable image trigger for a vision system and method for using the same
JP5935435B2 (ja) * 2012-03-26 2016-06-15 富士通株式会社 画像処理装置、画像処理方法
CN103310437B (zh) * 2013-03-22 2016-01-06 上海工程技术大学 一种基于序列图像的织物形态特征提取方法
BR102013013365B1 (pt) * 2013-05-29 2021-12-14 Sicpa Brasil Indústria De Tintas E Sistemas Ltda Método e dispositivo para contagem de objetos transportados em uma esteira de transporte
US9170193B2 (en) 2013-06-06 2015-10-27 General Electric Company Detecting coolant leaks in turbine generators
US9097657B2 (en) 2013-07-23 2015-08-04 General Electric Company Leak detection of stator liquid cooling system
CN104375143A (zh) * 2013-08-15 2015-02-25 同方威视技术股份有限公司 毫米波三维全息扫描成像设备及人体或物品检查方法
US20150166059A1 (en) * 2013-12-18 2015-06-18 Automotive Research & Testing Center Autonomous vehicle driving support system and autonomous driving method performed by the same
JP6493855B2 (ja) 2014-02-26 2019-04-03 パナソニックIpマネジメント株式会社 画像処理装置及び画像処理方法
US10460194B2 (en) * 2014-03-07 2019-10-29 Lior Wolf System and method for the detection and counting of repetitions of repetitive activity via a trained network
IL236114A (en) * 2014-12-07 2016-04-21 Yoav Grauer Improved object recognition in the reimbursement-based imaging unit
US10698111B2 (en) * 2015-05-15 2020-06-30 Sikorsky Aircraft Corporation Adaptive point cloud window selection
US10266168B2 (en) * 2015-08-06 2019-04-23 Ford Global Technologies, Llc System and method for predictive road sensing to minimize transient electrical load issues
DE102015215938A1 (de) * 2015-08-20 2017-02-23 Siemens Healthcare Gmbh Verfahren zur lokalen Verbesserung der Bildqualität
US10142196B1 (en) * 2016-04-15 2018-11-27 Senseware, Inc. System, method, and apparatus for bridge interface communication
US11712225B2 (en) * 2016-09-09 2023-08-01 Koninklijke Philips N.V. Stabilization of ultrasound images
US10942257B2 (en) 2016-12-31 2021-03-09 Innovusion Ireland Limited 2D scanning high precision LiDAR using combination of rotating concave mirror and beam steering devices
US11080537B2 (en) * 2017-11-15 2021-08-03 Uatc, Llc Autonomous vehicle lane boundary detection systems and methods
US11493601B2 (en) 2017-12-22 2022-11-08 Innovusion, Inc. High density LIDAR scanning
CN112292608A (zh) 2018-02-23 2021-01-29 图达通爱尔兰有限公司 用于lidar系统的二维操纵系统
WO2020013890A2 (en) 2018-02-23 2020-01-16 Innovusion Ireland Limited Multi-wavelength pulse steering in lidar systems
US11592832B2 (en) * 2018-08-20 2023-02-28 Uatc, Llc Automatic robotically steered camera for targeted high performance perception and vehicle control
CN109729231B (zh) * 2018-12-17 2021-06-25 中国科学院深圳先进技术研究院 一种文件扫描方法、装置及设备
US20200389624A1 (en) * 2019-06-10 2020-12-10 Barend Oberholzer Mobile based security system and method
CN115208992A (zh) * 2022-05-30 2022-10-18 元潼(北京)技术有限公司 元成像被动扫描系统与方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0627249A (ja) * 1992-07-13 1994-02-04 Toshiba Corp 放射線検査装置
JPH10304246A (ja) * 1997-04-25 1998-11-13 Brother Ind Ltd 広域画像入出力装置
JPH10334395A (ja) * 1997-06-05 1998-12-18 Sanyo Electric Co Ltd 交通情報測定方法及び装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US200A (en) * 1837-05-22 Geoege
GB2222500A (en) 1988-09-05 1990-03-07 Philips Electronic Associated Picture motion measurement
US5748231A (en) * 1992-10-13 1998-05-05 Samsung Electronics Co., Ltd. Adaptive motion vector decision method and device for digital image stabilizer system
US5777690A (en) * 1995-01-20 1998-07-07 Kabushiki Kaisha Toshiba Device and method for detection of moving obstacles
JPH1091795A (ja) * 1996-09-12 1998-04-10 Toshiba Corp 移動物体検出装置及び移動物体検出方法
JP2000295604A (ja) * 1999-04-06 2000-10-20 Yazaki Corp 車両用後側方監視装置
JP2001213254A (ja) * 2000-01-31 2001-08-07 Yazaki Corp 車両用側方監視装置
JP4159794B2 (ja) * 2001-05-02 2008-10-01 本田技研工業株式会社 画像処理装置及び方法
US20020168091A1 (en) * 2001-05-11 2002-11-14 Miroslav Trajkovic Motion detection via image alignment
US6895102B2 (en) 2001-06-29 2005-05-17 Raytheon Company Probability weighted centroid tracker
US6954544B2 (en) * 2002-05-23 2005-10-11 Xerox Corporation Visual motion analysis method for detecting arbitrary numbers of moving objects in image sequences

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0627249A (ja) * 1992-07-13 1994-02-04 Toshiba Corp 放射線検査装置
JPH10304246A (ja) * 1997-04-25 1998-11-13 Brother Ind Ltd 広域画像入出力装置
JPH10334395A (ja) * 1997-06-05 1998-12-18 Sanyo Electric Co Ltd 交通情報測定方法及び装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090126187A (ko) * 2008-06-03 2009-12-08 아스트리움 게엠베하 검출될 표면으로부터의 고도가 가변적일 때 능동 횡방향-시야 센서의 동작을 최적화하기 위한 프로세스
KR101638188B1 (ko) 2008-06-03 2016-07-08 에어버스 데에스 게엠베하 검출될 표면으로부터의 고도가 가변적일 때 능동 횡방향-시야 센서의 동작을 최적화하기 위한 프로세스
WO2009154294A1 (ja) * 2008-06-20 2009-12-23 国立大学法人静岡大学 移動量抽出装置及びプログラム、画像補正装置及びプログラム並びに記録媒体
JP4771186B2 (ja) * 2008-06-20 2011-09-14 国立大学法人静岡大学 移動量抽出装置及びプログラム、画像補正装置及びプログラム並びに記録媒体
JP2010079328A (ja) * 2008-09-24 2010-04-08 Nec Corp 画像補正装置およびその補正方法

Also Published As

Publication number Publication date
US20060146377A1 (en) 2006-07-06
ATE552573T1 (de) 2012-04-15
US7675655B2 (en) 2010-03-09
GB0305304D0 (en) 2003-04-09
EP1602071A1 (en) 2005-12-07
WO2004079659A1 (en) 2004-09-16
EP1602071B1 (en) 2012-04-04

Similar Documents

Publication Publication Date Title
JP2006520042A (ja) スキャニング装置及び方法
EP3491332B1 (en) Reflectivity map estimate from dot based structured light systems
CN107204012B (zh) 降低飞行时间深度成像的功耗
US10852420B2 (en) Object detection system, autonomous vehicle using the same, and object detection method thereof
US10084971B2 (en) Method for measurement and 3D reconstruction of precipitation particles based on orthogonal dual-view imaging
JP5048600B2 (ja) データ品位を向上する方法及びシステム
US20220291387A1 (en) Processing of lidar images
JP5448617B2 (ja) 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ
US8860824B2 (en) Motion blur modeling for image formation
US20070064976A1 (en) Methods, systems, and computer program products for acquiring three-dimensional range information
US20160014395A1 (en) Data fusion processing to identify obscured objects
KR20080021646A (ko) 연속 확장 범위의 이미지 프로세싱
US9576335B2 (en) Method, device, and computer program for reducing the resolution of an input image
EP2372641A2 (en) Surface detection in images based on spatial data
KR102438078B1 (ko) 어라운드뷰 제공 장치 및 방법
CN112424821B (zh) 基于由旋转成像器捕获的图像的全景图像构建
US9552647B2 (en) Method and arrangement for analysing the behaviour of a moving object
Young et al. Signal processing and performance analysis for imaging systems
CN113359692A (zh) 一种障碍物的避让方法、可移动机器人
EP4206739A1 (en) Artificial panorama image production and in-painting for occluded areas in images
JP2015524946A (ja) 画像解像度が改善された超解像画像を形成するための方法及び測定装置
CN115917369A (zh) 超快光场断层摄影
CN114299137A (zh) 激光光斑中心定位方法及测试系统
Iwaszczuk et al. Detection of windows in IR building textures using masked correlation
US11769331B2 (en) Side view camera detecting wheels

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100208

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100428

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100511

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101129