JP7286310B2 - オブジェクト検出のための画像からのクラッタ背景の除去 - Google Patents

オブジェクト検出のための画像からのクラッタ背景の除去 Download PDF

Info

Publication number
JP7286310B2
JP7286310B2 JP2018236991A JP2018236991A JP7286310B2 JP 7286310 B2 JP7286310 B2 JP 7286310B2 JP 2018236991 A JP2018236991 A JP 2018236991A JP 2018236991 A JP2018236991 A JP 2018236991A JP 7286310 B2 JP7286310 B2 JP 7286310B2
Authority
JP
Japan
Prior art keywords
pixels
pixel
array
digital image
binary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018236991A
Other languages
English (en)
Other versions
JP2019117630A (ja
Inventor
ケー.リー デイヴィッド
エル.キャバレロ デイヴィッド
ピー.ワイズミュラー トーマス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Boeing Co
Original Assignee
Boeing Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boeing Co filed Critical Boeing Co
Publication of JP2019117630A publication Critical patent/JP2019117630A/ja
Application granted granted Critical
Publication of JP7286310B2 publication Critical patent/JP7286310B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30212Military
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Image Processing (AREA)

Description

本明細書で説明する態様は、画像におけるオブジェクト検出に関し、より具体的には、クラッタ背景(cluttered background)を含むデジタル画像における対象物の追跡に関する。
視覚画像を用いたオブジェクトの追跡は、監視、ビークルのドッキング、その他多くの用途を含む様々な用途において重要である。追跡されるオブジェクトは、陸上車両、航空機、衛星、人間、又は、視野を横切って移動する他の全てのオブジェクトを含みうる。追跡に関する視覚入力は、視覚センサ、赤外線カメラ、又は、視覚入力を供給可能な他の撮像装置から取得することができる。追跡処理の一部として、システムは、画像内の対象物と背景とを区別可能でなければならない。しかしながら、対象物と背景とを区別するための現行の画像処理方法は、概して、背景の範囲内及び対象物の範囲内でピクセル強度が大幅に変化する場合、効果的でない。
本明細書で説明する一実施形態は、デジタル画像における対象物の位置及び配向を追跡することによって、ビークルのナビゲーションを制御するための方法である。前記方法においては、視覚センサによって取得されたデジタル画像を受信し、1つ以上の第1先行デジタル画像における対応するピクセルと比較したときの、前記デジタル画像における第1群のピクセルのピクセル速度に関する複数のバイナリ値を含む第1アレイを生成し、1つ以上の第2先行デジタル画像における対応するピクセルと比較したときの、前記デジタル画像における前記第1群のピクセルのピクセル強度の標準偏差に関する複数の値を含む第2アレイを生成する。前記方法においては、さらに、前記第2アレイにおける前記複数の値に関する複数の閾値を算出し、前記第1アレイ、前記第2アレイ、及び、前記複数の閾値に基づいて、前記デジタル画像における複数の対象ピクセル、及び、複数の背景ピクセルを特定し、特定された前記複数の対象ピクセル、及び、特定された前記複数の背景ピクセルに基づいて、前記デジタル画像に関するバイナリ画像を生成し、前記バイナリ画像に基づいて、前記デジタル画像における前記対象物の位置及び配向のうちの少なくとも一方を特定する。前記方法においては、さらに、前記対象物に向かって前記ビークルを誘導するのを容易にするために、前記対象物の位置及び配向のうちの特定された少なくとも一方に基づいて、前記ビークルのナビゲーションシステムにコマンドを送信する。
本明細書で説明する他の実施形態は、デジタル画像における対象物の位置及び配向を追跡するための方法である。前記方法においては、視覚センサによって取得されたデジタル画像を受信し、前記デジタル画像における第1群のピクセルのピクセル速度に関する複数のバイナリ値を含む第1アレイを生成し、前記デジタル画像における前記第1群のピクセルのピクセル強度の標準偏差に関する複数の値を含む第2アレイを生成する。前記方法においては、さらに、前記第1アレイ及び前記第2アレイに基づいて、前記デジタル画像における複数の対象ピクセル、及び、複数の背景ピクセルを特定し、特定された前記複数の対象ピクセル、及び、特定された前記複数の背景ピクセルに基づいて、前記デジタル画像における前記対象物の位置及び配向のうちの少なくとも一方を特定する。
本明細書で説明する他の実施形態は、プロセッサと、プログラムを保存するメモリと、を含むシステムである。前記プログラムは、前記プロセッサによって実行されると、以下の動作、すなわち、視覚センサによって取得されたデジタル画像を受信することと、前記デジタル画像における第1群のピクセルのピクセル速度に関する複数のバイナリ値を含む第1アレイを生成することと、前記デジタル画像における前記第1群のピクセルのピクセル強度の標準偏差に関する複数の値を含む第2アレイを生成することと、前記第1アレイ及び前記第2アレイに基づいて、前記デジタル画像における複数の対象ピクセル、及び、複数の背景ピクセルを特定することと、特定された前記複数の対象ピクセル、及び、特定された前記複数の背景ピクセルに基づいて、前記デジタル画像における前記対象物の位置及び配向のうちの少なくとも一方を特定することと、を行う。
本開示の上記特徴が詳細に理解できるように、上で簡単に要約した本開示について実施態様を参照しながらより具体的に説明する。なお、そのうちのいくつかは、添付図面に示している。
本明細書で説明する一実施形態による、画像の背景に対して対象物を検出するビークルの例を示す図である。 本明細書で説明する一実施形態による、例示的なビークルを示すブロック図である。 本明細書で説明する一実施形態による、対象オブジェクトを示す例示的なデジタル画像を示す図である。 本明細書で説明する一実施形態による、デジタル画像のための対象物追跡処理を示す図である。 本明細書で説明する一実施形態による、デジタル画像のための対象物追跡処理を示すフローチャートである。 本明細書で説明する一実施形態による、画像における背景部分のピクセル速度値の生成を示す図である。 本明細書で説明する一実施形態による、画像における背景部分のピクセル速度値の生成において畳み込みを用いることを示す図である。 本明細書で説明する一実施形態による、速度画像の生成を示すフローチャートである。 本明細書で説明する一実施形態による、速度画像の生成を示す図である。 本明細書で説明する一実施形態による、推定される対象ピクセル及び背景ピクセルの閾値の計算を示す図である。 本明細書で説明する一実施形態による、バイナリ画像の生成を示すフローチャートである。
本明細書に開示された実施形態は、対象物と背景画像とを区別するために改良された方法、システム、及び、装置に関する。デジタル画像において対象物と背景とを区別するための1つの方法として、当該対象物のピクセルと当該背景のピクセルとの分離に用いられるピクセル閾値を計算する方法がある。これは、例えば、明るく照らされた航空機が暗い夜空を横切っている際の当該航空機の追跡などにおいては、比較的単純な作業である。この場合、背景ピクセルと対象ピクセルとを区別するために用いるピクセル強度閾値の算出は比較的容易である。閾値が算出されると、当該閾値を下回る値を有するピクセルは、ほぼ確実に背景(例えば、暗い夜空)であり、当該閾値を上回る値を有するピクセルは、ほぼ確実に追跡中の対象物である。また、対象物(例えば、航空機)が非常に暗く、背景が明るい晴天の場合においても、課題は同様に単純であるが、上記とは逆になる。この場合、閾値は、対象物に属する暗いピクセルと、空に属する明るいピクセルを分離する。
しかしながら、多くの現実世界の用途においては、処理されるシーンにおける背景のピクセル強度、及び、対象物のピクセル強度の変動幅が広く、これらのピクセル強度が重なっていることが多い。このような場合、単純で瞬間的なピクセル強度閾値は、背景を除去して所望の対象物を抽出するのに十分ではない。また、この解決法は、所与のフレーム内のピクセル強度の分析に依存するので、クラッタが存在するシーン(cluttered scenes)に対しては、脆弱である。強度に区別可能な差がない場合、クラッタにより検出処理の質が低下し、所望の対象物の抽出ができない場合がある。
本開示は、対象物及び背景の両方の瞬間的なピクセル強度が大幅に変動する移動シーン及び動的シーンにおいて非常に複雑な対象物を抽出するための実施形態に関する。これらの実施形態は、他の方法(背景が静的で対象物が動いている場合)とは異なり、対象物及び背景の両方がセンサに対して動いているシーンにおいても効果を奏することができる。これにより、固定背景技術によって強いられていた多くの制約がなくなり、より多くの用途(use case)をユーザに提供することができる。さらに、いくつかの状況においては、説明する実施形態は、いくつかの速度勾配に基づいて二次閾値/弁別器(discriminator)を使用することができる。これらの勾配は、背景ノイズ源(background noise source)の特定の形態(geometry)によって予測可能であるため、様々なクラッタ状況下において、背景のピクセルと対象物のピクセルとをより効果的に区別することができる。
例えば、本明細書に開示している実施形態は、宇宙船などのビークルのためのナビゲーションシステムの一部として用いることができる。ビークルのナビゲーションシステムは、衛星や宇宙ステーションなどの宇宙空間におけるオブジェクトとのドッキングを容易にするために、ビジュアルトラッキング(visual tracking)を用いてもよい。しかしながら、これには、例えば、背景が地球である画像などの潜在的なクラッタ画像において、対象物の位置及び配向の両方を特定しなければならない。さらに、この場合、地球が球形状であり、背景画像が、ビークルの視野を横切って複雑に動くため、画像において対象物を特定するのが複雑になる。本明細書に記載の実施形態においては、フレーム間の変化に強く、フレーム間での大きいピクセル移動(例えば、フレーム当たり数十ピクセル分の対象物の動き)を処理することができるため、上記したような状況におけるオブジェクト検出を改善することができる。ビークルのナビゲーションシステムは、対象物の位置及び配向に関する検出情報を用いて、例えば、対象物への誘導及び当該対象物とのドッキングを容易にすることができる。
図1は、クラッタ背景に対する対象物の追跡が有用である状況の一例である。ビークル200は、視覚センサ202を用いて対象物110を追跡することに少なくとも部分的に基づいて誘導を行う。例えば、ビークル200は、宇宙船であってもよいし、対象物110は、衛星又は宇宙ステーションであってもよい。ビークル200は、視野120を有する視覚センサ202を備える。視覚センサ202は、例えば、カメラ又は他の適切な視覚センサである。ビークル200は、対象物110とのドッキングを容易にするために、視覚センサ202を用いて、対象物110の位置及び配向を追跡することができる。しかしながら、視覚センサ202は、背景画像150(ここでは、地球の画像)も取得(pick up)することになるであろう。ビークル200は、視覚センサ202を用いて対象物110を追跡するために、対象物110を示すピクセルと背景画像150を示すピクセルとを分離することができなければならない。これにより、ビークル200は、対象物110の位置及び配向を特定することができ、ひいては、ビークル200は、この位置及び配向を用いて、対象物110への誘導、及び、当該対象物110とのドッキングを行うことができる。
図1は、本開示による例示的なビークルとして宇宙船を示しているが、本明細書に開示する実施形態は、宇宙空間におけるビークルのナビゲーションに限定されない。本開示の実施形態は、クラッタ背景におけるオブジェクトの追跡が好ましい様々な場面において、有用であろう。例えば、本開示の実施形態は、国土安全保障又は戦場での対象物追跡及び迎撃、軍用及び商用の衛星撮像及び追跡、月及び惑星の探査、有人航空機及び無人航空機のための商用撮像及び航空撮像、地雷探知及び石油探査を含む軍用及び商用の水中探査、センサ監視、組立ライン検査、又は、他の適切な用途において使用することができる。
図2は、例示的なビークル200を示すブロック図である。ビークル200は、視覚センサ202を含む。上述したように、視覚センサ202は、可視光及び/又は赤外光を感知するように構成されたカメラ、或いは、他の適切な視覚センサであってもよい。ビークル200は、さらに、プロセッサ204を含む。プロセッサ204は、概して、メモリ206に保存されているプログラミング命令を読み出して実行する。プロセッサ204は、単一の中央処理ユニット(CPU)、複数のCPU、複数の処理コアを有する単一のCPU、複数の実行経路を有するグラフィック処理ユニット(GPU)などを表すものとして含まれている。メモリ206は、概して、ランダムアクセスメモリ又は不揮発性記憶装置を含む任意の適切なタイプの電子記憶装置を表すものとして含まれている。
メモリ206は、概して、ビークル制御及び対象物の追跡に関する様々な機能を実行するためのプログラムコードを含む。プログラムコードは、概して、メモリ206内の様々な機能的「アプリケーション」、「コンポーネント」、又は、「モジュール」として説明されるが、代替の実施形態においては、異なる機能、及び/又は、複数の機能の組み合わせを含みうる。メモリ206内のビークル制御システム230は、概して、適切な推進システムを介したビークル200の誘導制御を含む、ビークル200の制御を行うように構成されている。画像取得コンポーネント210は、視覚センサ202からの画像の取得を制御する。以降の図面で説明するように、画像取得コンポーネント210により取得された画像は、対象物の追跡に用いることができる。
メモリ206は、さらに、画像解析コンポーネント220を含む。画像解析コンポーネント220は、概して、画像取得コンポーネント210を用いて取得された画像を解析するために用いられる。画像解析コンポーネント220は、速度画像生成部222を含む。速度画像生成部222は、画像取得コンポーネント210を用いて取得された画像に基づいて、速度画像を生成するために用いられる。速度画像生成部222についての説明は、以降の図面を参照しながらより詳細に行う。
画像解析コンポーネント220は、さらに、時間アレイ生成部(temporal array generator)を含む。時間アレイ生成部は、画像取得コンポーネント210を用いて取得された画像から時間偏差アレイを生成するために用いられるものであり、これについては、図5を参照しながらより詳しく説明する。画像解析コンポーネント220は、さらに、バイナリ画像生成部226を含む。バイナリ画像生成部226は、少なくとも部分的には、速度画像生成部222によって生成された速度画像、時間アレイ生成部224によって生成された時間偏差アレイ、及び、画像解析コンポーネント220によって算出された2つの閾値に基づいて、バイナリ画像を生成するために用いられる。バイナリ画像生成部226については、図11に関連させてより詳細に説明する。
メモリ206は、さらに記憶装置240を含む。記憶装置240は、例えば、バイナリ画像生成部226によって生成された一連のバイナリ画像を記憶するために用いられる。これについては、図11に関連させてより詳細に説明する。ビークル200は、さらに、ビークルを推進するために用いられる推進システム260と、ナビゲーションシステム270とを含む。一実施形態においては、ナビゲーションシステム270は、画像解析コンポーネント220によって特定された対象物の位置及び配向を用いて容易に誘導を行うことができる。
図3は、焦点面アレイ(FPA)によって取得された画像310を示しており、例えば、視覚センサ202及び画像取得コンポーネント210によって取得された画像を示す。この画像には対象物330が示されており、これは、例えば、ビークル200が、ナビゲーション及びドッキングを容易にするために追跡している対象物である。タイトな境界ボックス(tight bounding box: TBB)320は、対象物330を囲むために生成された、一般に望ましい任意の境界ボックスである。TBB320は、所与の照準点位置340に基づいて構築される。TBB320は、対象物330を密接に囲むために、当該対象物の拡大画像を囲むように計算される。しかしながら、TBBは、対象物330が当該TBBによって完全に囲まれるように、対象物330を囲む際にゆとりを持たせるように計算してもよい。一実施形態においては、TBBは、追加のセンサからの情報、以前の画像における対象物の追跡、又は、他の適切な情報源に基づいて計算することができる。一実施形態においては、図3に示すように、対象物の追跡にTBB320を使用することができる。しかしながら、上述したように、TBBは、任意である。例えば、TBB320の代わりに、単に、画像310の複数の縁及び4つの角を使用することもできる。対象物によっては、これで十分な場合がある。
図4は、画像解析コンポーネント220が、対象物と背景とを分離するバイナリ画像を生成する処理の概要を示す。図5は、この処理を示すフローチャートである。したがって、図4及び5については、一緒に説明を行うことができる。図5に示すステップ502において、画像解析コンポーネント220は、例えば、図4に示す取得画像410などの取得画像を受信する。これは、例えば、視覚センサ202及び画像取得コンポーネント210によって取得された画像であってもよい。ステップ504において、画像解析コンポーネント220は、取得画像410において、TBBの外側に位置するピクセルの速度値を生成する。これらのピクセルは、TBBの外側に位置しているため、画像解析コンポーネント220は、これらのピクセルが対象物ではなく背景を示していると推定することができる。ステップ504についての説明は、図6及び7を参照しながらより詳細に行う。
ステップ506において、画像解析コンポーネント220は、取得画像410に関する時間アレイを更新する。画像解析コンポーネント220は、例えば、2つの異なる時間アレイ、すなわち、規定数のフレームに亘る取得画像410の時間的なピクセル強度を示すアレイと、同じ規定数のフレームに亘る取得画像410のピクセル強度の時間的な平均値2を示すアレイと、を用いることができる。ピクセルの時間的な平均値とは、第1フレームから現在のフレームまでのシーケンスにおける当該ピクセルの平均強度値である。ピクセルの時間的な平均値2は、同じフレームのシーケンスにおける、ピクセルの強度値の2乗の平均値である。一実施形態においては、検出閾値を超えるピクセルについてのみ、時間的な値を計算すればよい。
ステップ508において、速度画像生成部222は、例えば、図4に示す速度画像420などの予備的な速度画像を生成する。速度画像420は、バイナリ画像であって、白いピクセルが、推定される対象ピクセルを示しており、黒いピクセルが、推定される背景ピクセルを示している。速度画像420の生成については、図8及び9に関連させてより詳細に説明する。
ステップ510において、時間アレイ生成部224は、ステップ506で生成された時間アレイに基づいて、時間偏差アレイを生成する。図4における画像430は、時間偏差アレイを示す。時間偏差アレイは、取得画像410における各ピクセルの平均強度値の標準偏差を示しており、周知の標準偏差式を用いて計算することができる。例えば、σ2=<Mean2>-<Mean><Mean>の式を用いることができる。この式において、σ2は、分散値であり、Mean2は、ステップ506を参照しながら説明した時間平均値2であり、Meanは、ステップ506を参照しながら説明した時間平均値である。一実施形態においては、ステップ506で検出閾値が用いられた場合、検出閾値を上回らないピクセルには、非常に大きいσ値が割り当てられる。偏差アレイにおいて、標準偏差値が低いピクセルは、フレーム間で強度があまり変化しなかったピクセルに対応しているが、これらは、対象ピクセルである可能性が高い。この理由は、フレーム間において、対象物は、TBB320内でほぼ静止したままだからである。これらは、時間偏差アレイ430における黒いピクセルである。標準偏差値が高いピクセルは、フレーム間で強度が大幅に変化したピクセルに対応しているが、これらのピクセルは、背景ピクセル又は対象エッジピクセルである可能性が高い。この理由は、背景及び対象エッジは、フレーム間で変化することが予想されるからである。これらは、時間偏差アレイ430における白いピクセル及びグレーのピクセルである。
ステップ512において、画像解析コンポーネントは、ピクセルが対象ピクセルであるか、或いは、背景ピクセルであるかを推定するのに用いる2つの閾値を算出する。これについては、図10を参照しながらより詳細に説明する。ステップ514及び520においては、各ピクセルに対して適切な閾値を用いて、バイナリ画像を生成する。この処理においては、時間偏差アレイ及び速度画像の両方が用いられる。これについては、図11を参照しながらより詳細に説明する。バイナリ画像440は、ステップ520で生成されるバイナリ画像の一例であって、白いピクセルは、対象ピクセルを示しており、黒いピクセルは、背景ピクセルを示している。
図6は、画像における背景部分のピクセル速度値の生成を示す。ピクセル速度は、画像におけるピクセルで示される物体が、フレーム間でどれだけ動いているかを示す尺度である。TBB320は、対象物を囲むと推定されるので、TBB320の外側に位置する全てのピクセルは、画像の背景部分を示すと考えられる。したがって、TBB320の外側のピクセルのピクセル速度を測定することにより、画像の背景部分のピクセル速度を得ることができる。一実施形態においては、画像解析コンポーネント220は、TBB320の外側の各ピクセルの速度値を計算してもよい。
これに代えて、TBB320の外側の画像部分を、複数のサンプリングウィンドゥ610に分けてもよい。この場合、サンプリングウィンドゥ610の各々の中心に位置するピクセルの速度を計算する。その後、これらのピクセルの各々の値を補間する。これにより、より少ない数のピクセルについて速度を計算することができる。例えば、図6に示すように、8つのサンプリングウィンドゥ610を用いた場合、8つのピクセルについてのみ計算を行えばよい。また、必要に応じて、これよりも小さい数又は大きい数のサンプリングウィンドゥを用いることもできる。サンプリングウィンドゥのサイズは、任意の適切なサイズであればよく、例えば、nピクセル×mピクセルであってもよい。なお、n及びmは、それぞれ正の整数である。
図7は、図6に示すサンプリングウィンドゥ610についてピクセル速度値を生成するための1つの方法を示す。以下に述べるように、他の方法を用いることも可能である。各サンプリングウィンドゥ610におけるピクセルによって表される背景画像の速度は、当該サンプリングウィンドゥに対応する現在のピクセルと前回のピクセルとの間の畳み込み(convolution)におけるピーク位置を用いて計算される。サンプリングウィンドゥ610に対応するピクセルは、現在の画像にも前回の画像にも存在する。これら2つの領域は、高周波成分を取り出すためにラプラス変換(Laplace transform)に通される。変換された領域は、畳み込まれて、畳込画像が作成される。畳込画像においては、中心からのピーク位置のシフトにより、フレーム間の速度が求められる。この速度は、x方向及びy方向の両方で測定される。
例えば、図7に示すように、画像I(t)は、現在のフレームである。画像I(t-Δt)は、前回のフレームである。サンプリングウィンドゥ610は、ピクセル速度を計算するウィンドゥである。サンプリングウィンドゥ610における画像I(t)及び画像I(t-Δt)のピクセルは、例えば、ラプラス変換などの変換710に通される。この結果を畳み込むことにより、畳込画像750が作製される。ウィンドゥの中心からのピーク位置(例えば、畳込画像750に示すグレーの点)のシフトは、フレームI(t-Δt)とフレームI(t)との間のフレーム間速度を表す。この速度は、ウィンドゥのx軸に沿ったx成分、及び、ウィンドゥのy軸に沿ったy成分の両方を有する。
図7に示す畳込方法の代替として、解析的方法、又は、他の適切な方法を用いて、サンプリングウィンドゥにおけるピクセルの速度を得ることもできる。例えば、予想される背景画像が地球である場合に解析的方法を用いることができる。第1のステップとして、サンプリングウィンドゥの中心が示す地球上の位置を計算する。これは、Reci2fpECI=Qc2eci*(Qcam2c*Reci2fpCAM)の式を用いて計算することができる。Reci2fpECIは、地球中心慣性(ECI: Earth Centered Inertial)座標系において、ピクセルが示す地球上の位置である。Qc2eciは、ECI座標系における、例えば、図1に示すビークル200などの、対象物を追跡する物体の姿勢である。Qcam2cは、ビークル座標に対するカメラの姿勢である。Reci2fpCAMは、カメラ座標における、ECI原点からピクセルのフットプリント(footprint)の中心までのベクトルである。
第2のステップとして、前回のフレームにおけるフットプリント位置の第2のフレーム内におけるピクセル位置を計算する。上述したReci2fpECIは、前回のフレームにおけるフットプリント位置を表す。新たな値は、Rcam2fpCAM=Rcam2eciCAM+Reci2fpCAMの式を用いて計算することができる。Rcam2eciCAMは、カメラ座標における、カメラ原点からECI原点までのベクトルを表す。Reci2fpCAMは、カメラ座標における、ECI原点からピクセルのフットプリントの中心までのベクトルを表す。第3のステップとして、前回のフレームにおいてウィンドゥ中心にあったピクセルの動き(Vx,Vy)を計算する。これは、(Vx,Vy)=(xp,yp)-(px,py)の式を用いて計算することができる。この式において、(xp,yp)は、前回のフレームにおけるフットプリントについての、第2のフレームにおける位置を表す。この式において、(px,py)は、前回のフレームのウィンドゥ中心位置を表す。上述したように、所与のサンプリングウィンドゥ610についてのピクセル速度値は、図7に関連させて説明した畳込方法を用いるか、上述した解析的方法を用いるか、或いは、他の適切な方法を用いて、計算することができる。
背景のピクセル速度値を生成した後の次のステップとして、時間アレイを更新する。これは、図5に示すステップ506であり、先に説明している。その次のステップとして、TBB320内のピクセルについての予備的な速度画像を生成する。図8は、このステップを示すフローチャートである。結果として得られる速度画像は、バイナリアレイである。当該バイナリアレイにおいては、「1」に設定されている全てのピクセルは背景ピクセルであるが、「0」に設定されているピクセルは、それぞれ対象ピクセルである場合もあるし、そうでない場合もある。図8におけるステップ804~812に関連させてより詳しく説明するが、「0」に設定されたピクセルは、ピクセルの状態を計算するために用いられる勾配法では未知ということになる。関心領域における複数のピクセルが一様である(例えば、周囲のピクセルとほぼ同じ値を有する)場合、これらのピクセルは、対象物において比較的特徴のない部分を表しているか、或いは、背景の均等な部分(smooth portion)、例えば、背景が地球であれば、白い雲や青い海を表している可能性がある。
ステップ802において、画像解析コンポーネント220は、TBBの外側の各サンプリングウィンドゥ610における中心ピクセルの速度を計算する。これについては、図6及び7を参照しながら説明する。
ステップ804において、速度画像生成部222は、サンプリングウィンドゥ610毎に勾配閾値を計算する。勾配閾値は、例えば、サンプリングウィンドゥ610における各ピクセルの平均勾配である。これに代えて、勾配閾値は、サンプリングウィンドゥ610におけるピクセルの最大勾配値であってもよいし、サンプリングウィンドゥ610におけるピクセルの最小勾配値であってもよいし、他の値であってもよい。
サンプリングウィンドゥ610におけるピクセルの勾配値は、例えば、vxx+vyy+Et=0の勾配式を用いて算出することができる。この式において、vxは、ピクセルのx方向における画像速度であり、vyは、ピクセルのy方向における画像速度であり、Exは、ピクセルのx方向における勾配であり、Eyは、ピクセルのy方向における勾配であり、Etは、ピクセルの時間微分である。
勾配は、2点微分(2-point derivative)又は3点微分(3-point derivative)で計算することができる。ある点の2点微分は、その点の前回の値とその点の現在の値とを用いて求められる。速度が小さく既知である場合、2点勾配は、vxx+vyy+Et=0の式と、以下に示す式1、2、及び、3を用いて計算することができる。なお、これらの式において、Δx=Δy=Δt=1であり、vi=ピクセル/フレーム=ピクセル/Δt<1である。
Figure 0007286310000001

Figure 0007286310000002

Figure 0007286310000003
ある点の3点微分は、その点の前回の値とその点の次の値とを用いることにより求められる。上記と同様に、速度が小さく既知である場合、3点勾配は、vxx+vyy+Et=0の式と、以下に示す式4、5、及び6を用いて計算することができる。なお、これらの式においては、Δx=Δy=Δt=1とし、vi=ピクセル/フレーム=ピクセル/Δt<1とする。
Figure 0007286310000004

Figure 0007286310000005

Figure 0007286310000006
ただし、速度が十分に大きい場合には、上記の式では不十分なこともありうる。この理由は、画像点が、前回の画像における対応位置から多くのピクセルを移動した可能性があるため、近くのピクセルに依存してもうまくいかないからである。したがって、画像点の間の相関関係を再度確認する必要がある。これは、速度を整数部分[Vx]及び小数部分vxにそれぞれ分割することで達成することができる。速度が大きい場合の2点勾配は、vxx+vyy+Et=0の式と、以下に示す式7、8、及び9を用いて計算することができる。なお、これらの式においては、Vx=[Vx]+vx、Vy=[Vy]+vy、Δx’=[Vx]、Δy’=[Vy]、Δx=Δy=Δt=1、Δvi=vi-[vi]<1、及び、vi=ピクセル/フレーム=ピクセル/Δt>1とする。
Figure 0007286310000007

Figure 0007286310000008

Figure 0007286310000009
速度が大きい場合の3点勾配は、vxx+vyy+Et=0の式と、以下に示す式10、11、及び12を用いて計算することができる。なお、これらの式においては、Vx=[Vx]+vx、Vy=[Vy]+vy、Δx’=[Vx]、Δy’=[Vy]、Δx=Δy=Δt=1、Δvi=vi-[vi]<1、及び、vi=ピクセル/フレーム=ピクセル/Δt>1とする。
Figure 0007286310000010

Figure 0007286310000011

Figure 0007286310000012
速度が小さい場合の平均3点勾配は、以下に示す式13、14、及び、15により求められる。なお、これらの式においては、Ex=x+1/2における勾配=時間tにおけるピクセル(x,y)、時間tにおけるピクセル(x,y+1)、及び、t+1における両方のピクセルのx勾配の平均であるとする。また、Ey=y+1/2における勾配=時間tにおけるピクセル(x,y)、時間tにおけるピクセル(x+1,y)、及び、t+1における両方のピクセルのy勾配の平均であるとする。また、Et=t+1/2における微分=時間t+1におけるピクセル(x,y)、(x,y+1)、(x+1,y)、及び、(x+1,y+1)のt勾配の平均とする。
Figure 0007286310000013

Figure 0007286310000014

Figure 0007286310000015
速度が大きい場合の平均3点勾配は、以下に示す式16、17、及び、18により求められる。なお、これらの式においては、Vx=[Vx]+vx、Vy=[Vy]+vy、Δx’=[Vx]、Δy’=[Vy]、Δx=Δy=Δt=1、Δvi=vi-[vi]<1、及び、vi=ピクセル/フレーム=ピクセル/Δt>1とする。
Figure 0007286310000016

Figure 0007286310000017

Figure 0007286310000018
上述したように、速度が大きい場合に勾配を計算するとき、時間tにおける画像の領域を選択し、時間t+1/2において同じ領域の勾配を求めるのが目的である。しかしながら、この領域は、ピクセル速度が大きいため、時間t+1/2において画像内で異なる位置にある可能性がある。しかしながら、速度が分かっているので、時間t及び時間t+Δtにおける画像内の領域の位置を計算することができる。時間tにおける領域の位置は、x(t)である。時間t+Δtにおける領域の位置は、x(t+Δt)=x(t)+vx*Δtである。この式において、Δtは、任意の適切な値をとる。例えば、Δtは、1であってもよい。その後、これらの値を用いて、時間t+1/2における領域の位置を計算し、それに応じて領域の勾配を計算することができる。
さらに、上述したように、速度が大きい場合に勾配を計算する際、速度を整数成分と小数成分に分割すると都合がよい場合がある。小数成分は、選択された領域に対する見かけ速度(apparent velocity)を表す。小数成分Vxは、以下の式を用いて計算することができる([Vx]は整数成分である)。
Figure 0007286310000019
一実施形態においては、ステップ804において、各サンプリングウィンドゥ610について、総速度(Vx,Vy)を用いてウィンドウの小数速度(vx,y)を求めることによって、勾配閾値が計算される。
Figure 0007286310000020
次に、速度画像生成部222は、前のフレーム(t)から現在のフレーム(t+1)までの、時間tにおける画像ピクセルの位置のシフトを求める(例えば、前回のフレームにおける背景ピクセルの場合、現在のフレームにおける当該ピクセルの位置を求める)。これは、以下の式を用いて行うことができる。
Figure 0007286310000021
速度画像生成部222は、サンプリングウィンドゥ610における各ピクセルを用いて、当該ピクセルの勾配式を計算することができる。この計算は、vxx+vyy+Et=0の式を用いて行い、Ex、Ey、及び、Etは、上述した、速度が大きい場合の3点勾配式を用いて計算される。その後、速度画像生成部222は、勾配式の絶対値を計算する。
次に、速度画像生成部222は、各サンプリングウィンドゥ610におけるピクセルの最大勾配式値(Gradmax)を計算するとともに、複数の勾配式値の平均(MGradEq)及び標準偏差(σ)を計算する。サンプリングウィンドゥ610の瞬間勾配閾値は、ITGrad=3*√6*σの式によって求められ、ITGradは、瞬間勾配閾値である。ITGradがGradmaxよりも大きい場合、ITGradをGradmaxに設定する。平均を十分に計算できなかった場合、ITGrad=MGradEq-0.9*(Gradmax-MGradEq)の式を用いて平均を計算することができる。ITGradを十分に計算できない場合、この値を2*Gradmaxに設定する。勾配閾値は、サンプリングウィンドゥの勾配閾値についての移動平均フィルタ(running average filter)を用いて、さらにチェックされる。勾配閾値が、移動平均の3つの標準偏差の範囲内である場合、その閾値は、有効と見做され、移動平均が更新される。ウィンドゥの最終勾配閾値は、移動平均から取得される。最終勾配閾値が算出できない場合、サンプリングウィンドゥは無効であるとタグ付けされ、そのウィンドゥに最も近い2つの隣接するウィンドゥの平均を用いて値が割り当てられる。
ステップ806において、速度画像生成部222は、TBB内において、サンプリングウィンドゥ610a~610dの中心に位置する中心ウィンドゥの速度及び勾配の値を計算する。これを図9に示す。8つのサンプリングウィンドゥ610が、画像310内におけるTBB320の外側に配置されている。サンプリングウィンドゥ610a~610dの中心には、中心ウィンドゥ910が配置されている。
中心ウィンドゥ910の速度及び勾配は、4つの角に配置されたサンプリングウィンドゥ610a、610b、610c、及び、610dの速度及び勾配の値を二乗補間(square interpolating)することによって算出される。例えば、画像内において、角が(x1,y1)、(x2,y1)、(x2,y2)、(x1,y2)にある矩形を形成する4つのピクセル(v1,v2,v3,v4)の値の場合、矩形内の(x,y)に位置するピクセルの補間値は、以下の数式により求められる。
Figure 0007286310000022
なお、d1=x-x1、d2=x2-x、d3=y-y1、及び、d4=y2-yである。
図8に戻ると、ステップ808において、速度画像生成部222は、速度画像における全てのピクセルが処理されたか否かを判定する。全てのピクセルの処理が終了している場合、処理を終了する。全てのピクセルの処理が終了していない場合、ステップ810に進む。ステップ810において、速度画像における各ピクセルについて、速度、勾配閾値、及び、勾配を算出する。各ピクセルは、TBB320の内にあるか、又は、TBB320の外側にあるか分類される。ピクセルがTBB320の外側にある場合、当該ピクセルの速度及び勾配閾値は、最も近くに位置するサンプリングウィンドゥ610の値となる。
ピクセルがTBBの外側にない場合、ピクセルの速度及び勾配閾値は、最も近くに位置する4つのサンプリングウィンドゥ610の値を距離補間(distance interpolate)することによって求められる。例えば、画像において(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)に位置する4つのピクセル(v1,v2,v3,v4)の値の場合、囲まれた領域内の(x,y)に位置するピクセルの距離補間値は、以下の数式により求められる。
Figure 0007286310000023
なお、[]は、[x]が与えられ、且つ、x>4の場合、x=x-4となるラップアラウンド関数(wraparound function)である。この式においては、Di={(x-xi2+(y-yi2nであって、n=1である。各ピクセルの勾配は、ピクセルの速度GradEqp=vxpxp+vypyp+Etpを用いて算出される。
ステップ812において、各ピクセルの勾配の絶対値と、当該ピクセルの勾配閾値とを比較する。ステップ814において、勾配の値が閾値よりも小さい場合、当該ピクセルは、背景ピクセルとしてタグ付けされ、当該ピクセルに対応する速度画像における値が1に設定される。勾配の値が閾値よりも小さくない場合、ステップ816において、当該ピクセルは、対象ピクセルとしてタグ付けされ、バイナリ値が0に設定される。その後、速度画像生成部222は、ステップ808に戻る。
予備的な速度画像を生成した後(図5におけるステップ508)、次のステップとして、時間偏差アレイを生成する。これについては、図5におけるステップ510に関連させて説明している。時間偏差アレイを生成した後、当該アレイを複製して昇順にソートして、線形アレイを得る。次に、線形アレイをローパス平均化フィルタ(例えば、サイズ=5)に通過させて、最終的なソートを行った線形アレイを得る。
図10は、画像におけるピクセルの時間偏差値についての上記ソートされた線形アレイを用いて、下方閾値と上方閾値とからなる2つのピクセル閾値が算出されることを示す。y軸は、図5に示すステップ510に関連させて説明したように、各ピクセルの時間的な値の標準偏差を表す。x軸は、ピクセル指数(pixel index)(例えば、ソートされた線形アレイにおけるピクセルの指数)を表す。このグラフにおいては、低い値を有するピクセルが対象ピクセルであると予想され(フレーム間でピクセル強度の変化が少ない)、高い値を有するピクセルが背景ピクセルであると予想される(フレーム間でピクセル強度の変化が多い)。
下方閾値は、ソートされた線形アレイの最大勾配を求めることにより算出される。例えば、下方閾値は、図10に示す曲線において、Tlowで示された点における標準偏差値である。勾配は、i番目のピクセルについて5点微分を用いて計算される。この場合の式は、di=(-Ai+2Δ+8*Ai+Δ-8Ai-1+Ai-2Δ)/12Δであって、Δは、ソートされた線形アレイの大きさによって特定される。
上方閾値は、画像の対象部分で予想されるピクセル数により与えられる指数において、ソートされた線形アレイの値を算出することによって特定することができる。この指数は、対象部分で予想されるピクセルの数に1.5を掛けることによって特定することができる。対象部分で予想されるピクセル数は、前回の対象物の画像、又は、対象物のライブラリ画像から得られる。上方閾値は、例えば、図10においてはThighで示されている。各閾値は、当該閾値自体が対応するランニングサムフィルタ(running sum filter)に照らしてさらにチェックされる。
図10に示す処理は、下方ピクセル閾値及び上方ピクセル閾値を算出するための単に1つの方法にすぎない。これらの閾値は、TBB320内のピクセルのみを分析する方法、及び/又は、上方閾値とともに、アレイの特定の百分位数(例えば、10番目の百分位数)におけるピクセルの標準偏差を用いて下方閾値を算出する方法(例えば、Tlow=(Thigh+Tpercentile)/2)を含む、多くの適切な方法で計算することができる。
図11には、バイナリ画像の生成処理が示されている。ステップ1102において、バイナリ画像生成部226は、速度画像をバイナリ画像に複製して、バイナリ値を逆にすることにより、すなわち、速度画像において値が「1」であった部分は、バイナリ画像において「0」に設定し、且つ、速度画像において値が「0」であった部分は、バイナリ画像において「1」に設定することにより、予備的なバイナリ画像を生成する。したがって、予備的なバイナリ画像において「1」に設定されているピクセルは、予想される対象ピクセルを表す。
ステップ1104において、バイナリアレイにおける各ピクセルの周囲に小さなN×Nウィンドゥを作成する。例えば、Nは、TBB320の大きさの2%であってもよい。ステップ1106において、各ピクセルを分析して、当該ピクセルが対象ピクセルとして予め示されていたか否かを判定する。ピクセルが対象ピクセルとして予め示されていた場合、ステップ1110において、バイナリ画像生成部226は、時間偏差アレイにおいて対応するピクセルを特定する。バイナリ画像生成部226は、さらに、時間偏差アレイにおいて、目的のピクセルに関連付けられたN×Nウィンドゥにおけるピクセルを特定する。各ピクセルの時間偏差アレイ値と、(図10に関連させて説明したように)先に算出された上方閾値Thighとを比較する。時間偏差値が<Thighである場合、バイナリ画像において対応するピクセルは、対象ピクセルを表す「1」として示される。この比較的緩い閾値を使用するのは、当該画素が、対象ピクセルであると推定されているからである。
ステップ1106に戻って、ピクセルが、対象ピクセルとして予め示されていなかった場合、バイナリ画像生成部226は、ステップ1108に進む。ステップ1108は、比較に下方閾値Tlowを用いること以外は、ステップ1110と同様に行う。バイナリ画像生成部226は、時間偏差アレイにおいて対応するピクセルを特定する。バイナリ画像生成部226は、さらに、時間偏差アレイにおいて、目的のピクセルに関連付けられたN×Nウィンドゥにおけるピクセルを特定する。各ピクセルの時間偏差アレイ値と、(図10に関連させて説明したように)先に算出された下方閾値Tlowとを比較する。時間偏差値が<Thighである場合、バイナリ画像において対応するピクセルは、対象ピクセルを表す「1」として示される。この比較的厳しい閾値を使用するのは、当該画素が、対象ピクセルではなく背景ピクセルであると推定されているからである。
ステップ1114において、画像解析コンポーネントは、例えば、ビークルのナビゲーションシステムで使用するためのバイナリ画像を保存する。一実施形態においては、過去のバイナリ画像のアレイにおいて、最新のバイナリ画像を最も古いバイナリ画像と置き換えることにより、当該アレイを維持することができる。ビークルのナビゲーションシステム(例えば、ビークル200のナビゲーションシステム270)は、対象物への誘導及び当該対象物とのドッキングを容易にするために、当該対象物の位置及び配向を示すバイナリ画像のアレイを用いることができる。
本開示の様々な実施形態の説明は、例示のために提示したものであり、全てを網羅することや、開示した実施形態に限定することを意図するものではない。記載した実施形態の範囲及び思想から逸脱することなく、多くの改変及び変形が当業者には明らかであろう。本明細書で用いた用語は、実施形態の原理、及び、市場で認められる実用的な用途や技術改良を最も良く説明できるように、或いは、他の当業者が本開示の実施形態を理解できるように、選択されている。
先の記載においては、本開示で提示した実施形態について言及している。しかしながら、本開示の範囲は、記載された特定の実施形態に限定されない。むしろ、先に述べた特徴及び要素のいかなる組み合わせも、それらが互いに異なる実施形態に関連しているかどうかにかかわらず、意図した実施形態の実施に該当するものである。さらに、本開示の実施形態は、他の想定される解決策又は従来技術に対して利点をもたらすものであるが、ある実施形態によって特定の効果が得られるか否かは、本開示の範囲を限定するものではない。したがって、先に述べた態様、特徴、実施形態、及び、効果は、単に例示的なものであり、添付の特許請求の範囲に明確に記載されていない限り、当該特許請求の範囲の要素又は限定事項と考えられるべきではない。同様に、「本発明」又は「本開示」と記載することによって、本開示の発明の要旨を概括化したものと解釈されるべきではなく、添付の特許請求の範囲に明確にその旨が記載されていない限り、特許請求の範囲の要素又は限定であると解釈されるべきではない。
本開示の態様は、全体がハードウェアの態様、全体がソフトウェアの態様(ファームウェア、常駐ソフトウェア、マイクロコード等を含む)、又は、ソフトウェアとハードウェアを組み合わせた態様、の形態を取ることができ、これら全てを本明細書では概括的に「回路」「モジュール」又は「システム」と呼ぶ場合がある。
本開示の実施形態は、システム、方法、及び/又は、コンピュータプログラム製品であってもよい。コンピュータプログラム製品には、本開示の態様をプロセッサに実施させるためのコンピュータ可読プログラム命令が記憶されたコンピュータ可読記憶媒体が含まれうる。
コンピュータ可読記憶媒体は、命令実行デバイスによって使用される命令を保持及び格納することができる有形のデバイスであってもよい。コンピュータ可読記憶媒体は、例えば、限定するものではないが、電子記憶装置、磁気記憶装置、光学記憶装置、電磁記憶装置、半導体記憶装置、又は、これらの適切な組み合わせであってもよい。コンピュータ可読記憶媒体のより具体的な例の非包括的なリストは以下のものを含む。すなわち、ポータブルコンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能プログラマブルリードオンリーメモリ(EPROM又はフラッシュメモリ)、スタティックランダムアクセスメモリ(SRAM)、ポータブルコンパクトディスクリードオンリーメモリ(CD-ROM)、デジタルバーサタイルディスク(DVD)、メモリースティック、フロッピーディスク、命令が記録された、パンチカードや溝内の隆起構造などの機械的にコード化されたデバイス、及び、これらの適切な組み合わせを含む。本明細書で用いられるコンピュータ可読記憶媒体は、それ自体が、電波若しくは他の自由に伝搬する電磁波、導波路若しくは他の伝送媒体を介して伝搬する電磁波(例えば光ファイバケーブルを通過する光パルス)、又は、ワイヤを介して送信される電気信号などの、一時的な信号であると解釈されるべきではない。
本明細書に記載のコンピュータ可読プログラム命令は、コンピュータ可読記憶媒体から各演算装置/処理装置にダウンロードするか、或いは、インターネット、ローカルエリアネットワーク、ワイドエリアネットワーク、及び/又は、ワイヤレスネットワークなどのネットワークを介して外部コンピュータ又は外部記憶装置にダウンロードすることができる。ネットワークは、銅の伝送ケーブル、光伝送ファイバ、無線伝送、ルータ、ファイアウォール、スイッチ、ゲートウェイコンピュータ、及び/又は、エッジサーバを含みうる。各演算装置/処理装置におけるネットワークアダプタカード又はネットワークインターフェースは、ネットワークからコンピュータ可読プログラム命令を受信して、当該コンピュータ可読プログラム命令を各演算装置/処理装置内のコンピュータ可読記憶媒体に格納すべく転送する。
本開示の動作を実行するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、機械語命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データ、又は、1つ以上のプログラミング言語の任意の組み合わせで記述されたソースコード若しくはオブジェクトコードのいずれかであってもよい。プログラミング言語には、スモールトーク、C++などのオブジェクト指向プログラミング言語、及び、「C」プログラミング言語又はこれに類するプログラミング言語などの従来の手続き型プログラミング言語が含まれる。コンピュータ可読プログラム命令は、全てをユーザのコンピュータで実行してもよいし、一部をスタンドアローンソフトウェアパッケージとしてユーザのコンピュータで実行してもよいし、一部をユーザのコンピュータで実行し一部をリモートコンピュータで実行してもよいし、全てをリモートコンピュータ又はサーバで実行してもよい。後者の場合、リモートコンピュータを、ローカルエリアネットワーク(LAN)又はワイドエリアネットワーク(WAN)を含む任意のタイプのネットワークを介してユーザのコンピュータに接続してもよいし、(例えば、インターネットサービスプロバイダを利用したインターネットを介して)外部コンピュータに接続してもよい。いくつかの実施形態においては、本開示の態様を実現するために、例えば、プログラマブル論理回路、フィールドプログラマブルゲートアレイ(FPGA)、又は、プログラマブル論理アレイ(PLA)を含む電子回路が、コンピュータ可読プログラム命令の状態情報を用いてコンピュータ可読プログラム命令を実行することにより、電子回路をパーソナライズしてもよい。
本開示の態様を説明するにあたり、方法、装置(システム)及び、コンピュータプログラム製品のフローチャート図、及び/又は、ブロック図を参照している。これらフローチャート及び/又はブロック図における各ブロック、並びに、これらフローチャート及び/又はブロック図におけるブロックの組み合わせは、コンピュータ可読プログラム命令によって実現することができる。
コンピュータ可読プログラム命令は、マシンを構成するために、汎用コンピュータ、専用コンピュータ、又は、他のプログラム可能なデータ処理装置のプロセッサに供給される。これらの命令は、コンピュータのプロセッサ又は他のプログラム可能なデータ処理装置を介して実行され、これにより、フローチャート、及び/又は、ブロック図のブロックに明記された機能/動作を実施するための手段が形成される。これらのコンピュータ可読プログラム命令は、コンピュータ、プログラム可能なデータ処理装置、及び/又は、その他の装置に指示して特定の態様で機能させることが可能なコンピュータ可読媒体に格納することができ、これにより、命令を格納したコンピュータ可読媒体が、フローチャート、及び/又は、ブロック図の1つ又は複数のブロックに明記された機能/動作の態様を実施する命令を含む製品として構成されるようにすることができる。
また、コンピュータ可読プログラム命令を、コンピュータ、その他のプログラム可能なデータ処理装置、又は、その他の装置にロードして、当該コンピュータ、その他のプログラム可能なデータ処理装置、又は、その他の装置に一連の動作ステップを実行させて、コンピュータ実施によるプロセスを実現することができる。これにより、コンピュータ、その他のプログラム可能な装置、又は、その他の装置で実行される命令が、フローチャート、及び/又は、ブロック図のブロックに明記された機能/動作を実現することができる。
図面におけるフローチャート、及び/又は、ブロック図は、本開示の様々な実施形態によるシステム、方法、及び、コンピュータプログラム製品の可能な実施態様の構成、機能、及び動作を示している。この点において、フローチャート又はブロック図における各ブロックは、モジュール、セグメント、又は、命令の一部を表し、これらは、特定された論理機能を実現するための1つ以上の実行可能な命令を構成する。代替的な実施態様によっては、ブロックに示した機能が、図に示したものとは異なる順序で行われてもよい。例えば、関連する機能によっては、連続するものとして示されている2つのブロックが、実際には実質的に同時に実行されてもよいし、これらのブロックが逆の順序で実行されてもよい。なお、ブロック図及び/又はフローチャートにおける各ブロック、並びに、ブロック図及び/又はフローチャートにおけるブロックの組み合わせは、特定の機能又は動作を実行するか、或いは、特定用途向けハードウェアとコンピュータ命令との組み合わせを実装する特定用途向けのハードウェアベースのシステムによって実現することができる。
本開示の実施形態について説明したが、その基本的な範囲を逸脱することなく、本開示の他の様々な実施形態を想定することができ、その範囲は、以下の特許請求の範囲によって規定される。

Claims (17)

  1. デジタル画像における対象物の位置及び配向を追跡することによって、ビークルのナビゲーションを制御するための方法であって、
    視覚センサによって取得されたデジタル画像を受信し、
    1つ以上の第1先行デジタル画像における対応するピクセルと比較したときの、前記デジタル画像における第1群のピクセルのピクセル速度に関する複数のバイナリ値を含む第1アレイを生成し、
    1つ以上の第2先行デジタル画像における対応するピクセルと比較したときの、前記デジタル画像における前記第1群のピクセルのピクセル強度の標準偏差に関する複数の値を含む第2アレイを生成し、
    前記第2アレイにおける前記複数の値に関する複数の閾値を算出し、
    前記第1アレイ、前記第2アレイ、及び、前記複数の閾値に基づいて、前記デジタル画像における複数の対象ピクセル、及び、複数の背景ピクセルを特定し、
    特定された前記複数の対象ピクセル、及び、特定された前記複数の背景ピクセルに基づいて、前記デジタル画像に関するバイナリ画像を生成し、
    前記バイナリ画像に基づいて、前記デジタル画像における前記対象物の位置及び配向のうちの少なくとも一方を特定し、
    前記対象物に向かって前記ビークルを誘導するのを容易にするために、前記対象物の位置及び配向のうちの特定された少なくとも一方に基づいて、前記ビークルのナビゲーションシステムにコマンドを送信する、方法。
  2. さらに、前記バイナリ画像を電子データベースに保存することを含み、前記電子データベースは、前記視覚センサによって取得された複数の画像に関連する複数のバイナリ画像を含み、前記対象物の位置及び配向のうちの少なくとも一方を特定することは、さらに、前記複数のバイナリ画像に基づいて行われる、請求項1に記載の方法。
  3. デジタル画像における対象物の位置及び配向を追跡するための方法であって、
    視覚センサによって取得されたデジタル画像を受信し、
    前記デジタル画像における第1群のピクセルのピクセル速度に関する複数のバイナリ値を含む第1アレイを生成し、
    前記デジタル画像における前記第1群のピクセルのピクセル強度の標準偏差に関する複数の値を含む第2アレイを生成し、
    前記第1アレイ及び前記第2アレイに基づいて、前記デジタル画像における複数の対象ピクセル、及び、複数の背景ピクセルを特定し、
    特定された前記複数の対象ピクセル、及び、特定された前記複数の背景ピクセルに基づいて、前記デジタル画像における前記対象物の位置及び配向のうちの少なくとも一方を特定する、方法。
  4. 前記第1アレイにおける前記複数のバイナリ値は、1つ以上の第1先行デジタル画像におけるピクセルと比較したときの、前記デジタル画像におけるピクセルのピクセル速度に関連しており、前記第2アレイにおける前記複数の値は、1つ以上の第2先行デジタル画像におけるピクセルと比較したときの、前記デジタル画像におけるピクセルのピクセル強度の標準偏差に関連しており、前記方法は、さらに、
    前記第2アレイにおける前記複数の値に関する複数の閾値を算出することを含み、前記デジタル画像における前記複数の対象ピクセル、及び、前記複数の背景ピクセルの特定は、さらに、前記複数の閾値に基づいている、請求項3に記載の方法。
  5. さらに、前記対象物に向かってビークルを誘導するのを容易にするために、前記対象物の位置及び配向のうちの特定された少なくとも一方に基づいて、前記ビークルのナビゲーションシステムにコマンドを送信することを含む、請求項3に記載の方法。
  6. さらに、特定された前記複数の対象ピクセル、及び、特定された前記複数の背景ピクセルに基づいて、前記デジタル画像に関するバイナリ画像を生成することを含み、前記デジタル画像における前記対象物の位置及び配向のうちの少なくとも一方の特定は、さらに、前記バイナリ画像に基づいている、請求項3に記載の方法。
  7. さらに、前記デジタル画像における前記対象物を囲む境界ボックスを形成するための境界情報を受信することを含み、前記デジタル画像に関する前記第1アレイの生成は、さらに、
    前記デジタル画像において、前記境界ボックスの外側に位置する複数のサンプリングウィンドゥを特定することと、
    前記複数のサンプリングウィンドゥの各々の内部に位置するピクセルのピクセル速度値を算出することと、
    前記複数のサンプリングウィンドゥ内に位置する前記ピクセルについて算出されたピクセル速度に少なくとも部分的に基づいて、前記デジタル画像における第1群のピクセルのピクセル速度に関する前記複数のバイナリ値を算出することと、を含む、請求項1又は3に記載の方法。
  8. さらに、
    前記第1群のピクセルにおけるピクセルの勾配値を算出することと、
    前記第1群のピクセルにおける前記ピクセルの勾配閾値を算出することと、
    少なくとも部分的には、前記ピクセルの前記勾配値と前記ピクセルの前記勾配閾値との比較に基づいて、前記第1アレイにおける前記ピクセルの前記バイナリ値を算出することと、を含む、請求項1又は3に記載の方法。
  9. 前記複数の閾値は、第1閾値及び第2閾値を含み、前記第1閾値は、前記第2閾値よりも高く、前記デジタル画像における前記複数の対象ピクセル、及び、前記複数の背景ピクセルの特定は、さらに、
    前記第1アレイにおける対象ピクセルとして第1ピクセルが示されていると判定することと、
    前記第2アレイにおいて、前記第1ピクセルに対応するエントリを特定することと、
    前記第2アレイにおける前記エントリが、前記第1閾値よりも低いと判定したら、これに応答して、前記第1ピクセルを対象ピクセルとして特定することと、
    前記第1アレイにおける背景ピクセルとして第2ピクセルが示されていると判定することと、
    前記第2アレイにおいて、前記第2ピクセルに対応するエントリを特定することと、
    前記第2アレイにおける前記エントリが、前記第2閾値以上であると判定したら、これに応答して、前記第2ピクセルを背景ピクセルとして特定することと、を含む、請求項2又は4に記載の方法。
  10. さらに、前記バイナリ画像を電子データベースに保存することを含み、前記電子データベースは、前記視覚センサによって取得された複数の画像に関連する複数のバイナリ画像を含み、前記対象物の位置及び配向のうちの少なくとも一方を特定することは、さらに、前記複数のバイナリ画像に基づいて行われる、請求項6に記載の方法。
  11. デジタル画像における対象物の位置及び配向を追跡するためのシステムであって、
    プロセッサと、
    プログラムを保存するメモリと、を含み、前記プログラムは、前記プロセッサによって実行されると、以下の動作、すなわち、
    視覚センサによって取得されたデジタル画像を受信することと、
    前記デジタル画像における第1群のピクセルのピクセル速度に関する複数のバイナリ値を含む第1アレイを生成することと、
    前記デジタル画像における前記第1群のピクセルのピクセル強度の標準偏差に関する複数の値を含む第2アレイを生成することと、
    前記第1アレイ及び前記第2アレイに基づいて、前記デジタル画像における複数の対象ピクセル、及び、複数の背景ピクセルを特定することと、
    特定された前記複数の対象ピクセル、及び、特定された前記複数の背景ピクセルに基づいて、前記デジタル画像における前記対象物の位置及び配向のうちの少なくとも一方を特定することと、を行うように構成された、システム。
  12. 前記第1アレイにおける前記複数のバイナリ値は、1つ以上の第1先行デジタル画像におけるピクセルと比較したときの、前記デジタル画像におけるピクセルのピクセル速度に関連しており、前記第2アレイにおける前記複数の値は、1つ以上の第2先行デジタル画像におけるピクセルと比較したときの、前記デジタル画像におけるピクセルのピクセル強度の標準偏差に関連しており、前記動作は、さらに、
    前記第2アレイにおける前記複数の値に関する複数の閾値を算出することを含み、前記デジタル画像における前記複数の対象ピクセル、及び、前記複数の背景ピクセルの特定は、さらに、前記複数の閾値に基づいている、請求項11に記載のシステム。
  13. 前記動作は、さらに、前記対象物に向かってビークルを誘導するのを容易にするために、前記対象物の位置及び配向のうちの特定された少なくとも一方に基づいて、前記ビークルのナビゲーションシステムにコマンドを送信することを含む、請求項11に記載のシステム。
  14. 前記動作は、さらに、
    特定された前記複数の対象ピクセル、及び、特定された前記複数の背景ピクセルに基づいて、前記デジタル画像に関するバイナリ画像を生成することを含み、前記デジタル画像における前記対象物の位置及び配向のうちの少なくとも一方の特定は、さらに、前記バイナリ画像に基づいている、請求項11に記載のシステム。
  15. さらに、前記デジタル画像における前記対象物を囲む境界ボックスを形成するための境界情報を受信することを含み、前記デジタル画像に関する前記第1アレイの生成は、さらに、
    前記デジタル画像において、前記境界ボックスの外側に位置する複数のサンプリングウィンドゥを特定することと、
    前記複数のサンプリングウィンドゥの各々の内部に位置するピクセルのピクセル速度値を算出することと、
    少なくとも部分的に、前記複数のサンプリングウィンドゥ内に位置する前記ピクセルについて算出されたピクセル速度に基づいて、前記デジタル画像における第1群のピクセルのピクセル速度に関する前記複数のバイナリ値を算出することと、を含む、請求項11に記載のシステム。
  16. さらに、
    前記第1群のピクセルにおけるピクセルの勾配値を算出することと、
    前記第1群のピクセルにおける前記ピクセルの勾配閾値を算出することと、
    前記ピクセルの前記勾配値と前記ピクセルの前記勾配閾値との比較に少なくとも部分的に基づいて、前記第1アレイにおける前記ピクセルの前記バイナリ値を算出することと、を含む、請求項11に記載のシステム。
  17. 前記複数の閾値は、第1閾値及び第2閾値を含み、前記第1閾値は、前記第2閾値より
    も高く、前記デジタル画像における前記複数の対象ピクセル、及び、前記複数の背景ピクセルの特定は、さらに、
    前記第1アレイにおける対象ピクセルとして第1ピクセルが示されていると判定することと、
    前記第2アレイにおいて、前記第1ピクセルに対応するエントリを特定することと、
    前記第2アレイにおける前記エントリが、前記第1閾値よりも低いと判定したら、これに応答して、前記第1ピクセルを対象ピクセルとして特定することと、
    前記第1アレイにおける背景ピクセルとして第2ピクセルが示されていると判定することと、
    前記第2アレイにおいて、前記第2ピクセルに対応するエントリを特定することと、
    前記第2アレイにおける前記エントリが、前記第2閾値以上であると判定したら、これに応答して、前記第2ピクセルを背景ピクセルとして特定することと、を含む、請求項12に記載のシステム。
JP2018236991A 2017-12-21 2018-12-19 オブジェクト検出のための画像からのクラッタ背景の除去 Active JP7286310B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/850,219 2017-12-21
US15/850,219 US10410371B2 (en) 2017-12-21 2017-12-21 Cluttered background removal from imagery for object detection

Publications (2)

Publication Number Publication Date
JP2019117630A JP2019117630A (ja) 2019-07-18
JP7286310B2 true JP7286310B2 (ja) 2023-06-05

Family

ID=64900807

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018236991A Active JP7286310B2 (ja) 2017-12-21 2018-12-19 オブジェクト検出のための画像からのクラッタ背景の除去

Country Status (7)

Country Link
US (2) US10410371B2 (ja)
EP (1) EP3503027B1 (ja)
JP (1) JP7286310B2 (ja)
KR (1) KR20190075832A (ja)
CN (1) CN110047103A (ja)
BR (1) BR102018076778A2 (ja)
TW (1) TWI796401B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10756443B1 (en) * 2019-08-30 2020-08-25 Cth Lending Company, Llc Methods for formation of antenna array from sub-arrays
CA3137651A1 (en) 2020-12-19 2022-06-19 The Boeing Company Combined multi-spectral and polarization sensor

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6985172B1 (en) 1995-12-01 2006-01-10 Southwest Research Institute Model-based incident detection system with motion classification
JP2007323572A (ja) 2006-06-05 2007-12-13 Nec Corp 物体検出装置、物体検出方法および物体検出プログラム
JP2009251990A (ja) 2008-04-08 2009-10-29 Nippon Telegr & Teleph Corp <Ntt> 物体運動推定装置、物体運動推定方法、物体運動推定プログラムおよびそのプログラムを記録した記録媒体
JP2015207212A (ja) 2014-04-22 2015-11-19 サクサ株式会社 車両検出装置、およびシステム、ならびにプログラム

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4575805A (en) 1980-12-24 1986-03-11 Moermann Werner H Method and apparatus for the fabrication of custom-shaped implants
US4671650A (en) * 1982-09-20 1987-06-09 Crane Co. (Hydro-Aire Division) Apparatus and method for determining aircraft position and velocity
US5341142A (en) * 1987-07-24 1994-08-23 Northrop Grumman Corporation Target acquisition and tracking system
US5127037A (en) 1990-08-15 1992-06-30 Bynum David K Apparatus for forming a three-dimensional reproduction of an object from laminations
US5377011A (en) 1991-09-06 1994-12-27 Koch; Stephen K. Scanning system for three-dimensional object digitizing
AU684546B2 (en) 1993-09-10 1997-12-18 University Of Queensland, The Stereolithographic anatomical modelling process
JP3123587B2 (ja) 1994-03-09 2001-01-15 日本電信電話株式会社 背景差分による動物体領域抽出方法
JP3569992B2 (ja) 1995-02-17 2004-09-29 株式会社日立製作所 移動体検出・抽出装置、移動体検出・抽出方法及び移動体監視システム
JPH09293141A (ja) * 1996-04-24 1997-11-11 Hitachi Ltd 移動物体検出装置
JPH09303992A (ja) * 1996-05-16 1997-11-28 Toshiba Corp 飛翔体の遠方識別装置
US5960097A (en) * 1997-01-21 1999-09-28 Raytheon Company Background adaptive target detection and tracking with multiple observation and processing stages
US6052485A (en) 1997-02-03 2000-04-18 The United States Of America As Represented By The Secretary Of The Navy Fractal features used with nearest neighbor clustering for identifying clutter in sonar images
JP3544820B2 (ja) * 1997-04-03 2004-07-21 株式会社東芝 移動目標検出装置及び検出方法
JP3114668B2 (ja) 1997-10-03 2000-12-04 日本電気株式会社 物体検出・背景除去方法、装置およびプログラムを記録した記録媒体
DE19756763A1 (de) * 1997-12-19 1999-06-24 Bodenseewerk Geraetetech Suchkopf für zielverfolgende Flugkörper
US6678413B1 (en) 2000-11-24 2004-01-13 Yiqing Liang System and method for object identification and behavior characterization using video analysis
US6954551B2 (en) 2001-12-04 2005-10-11 The Boeing Company Method for determining attitude of an object
US20050157919A1 (en) 2003-07-31 2005-07-21 Di Santo Brenda I. Investigation of destroyed assemblies and identification of components thereof using texture mapping
US7315644B2 (en) 2003-07-31 2008-01-01 The Boeing Company Investigation of destroyed assemblies and identification of components thereof
US7657059B2 (en) * 2003-08-08 2010-02-02 Lockheed Martin Corporation Method and apparatus for tracking an object
US7346224B2 (en) 2003-11-07 2008-03-18 Mitsubishi Electric Research Laboratories, Inc. System and method for classifying pixels in images
KR100579890B1 (ko) 2004-12-30 2006-05-15 삼성전자주식회사 움직임 적응적 영상처리 장치 및 그 방법
US20060197664A1 (en) * 2005-01-18 2006-09-07 Board Of Regents, The University Of Texas System Method, system and apparatus for a time stamped visual motion sensor
JP4623368B2 (ja) 2005-03-16 2011-02-02 ソニー株式会社 移動物体検出装置、移動物体検出方法及びプログラム
US7860344B1 (en) * 2005-05-06 2010-12-28 Stochastech Corporation Tracking apparatus and methods using image processing noise reduction
JP4984553B2 (ja) * 2006-01-30 2012-07-25 ソニー株式会社 二次電池用負極及びそれを用いた二次電池
US8417033B2 (en) * 2007-04-27 2013-04-09 Hewlett-Packard Development Company, L.P. Gradient based background segmentation and enhancement of images
US20080310677A1 (en) 2007-06-18 2008-12-18 Weismuller Thomas P Object detection system and method incorporating background clutter removal
US8542872B2 (en) * 2007-07-03 2013-09-24 Pivotal Vision, Llc Motion-validating remote monitoring system
TW201001338A (en) * 2008-06-16 2010-01-01 Huper Lab Co Ltd Method of detecting moving objects
KR101299237B1 (ko) * 2011-11-23 2013-08-22 서울대학교산학협력단 팬틸트줌 카메라를 이용한 물체 탐지 장치 및 방법
US9530221B2 (en) * 2012-01-06 2016-12-27 Pelco, Inc. Context aware moving object detection

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6985172B1 (en) 1995-12-01 2006-01-10 Southwest Research Institute Model-based incident detection system with motion classification
JP2007323572A (ja) 2006-06-05 2007-12-13 Nec Corp 物体検出装置、物体検出方法および物体検出プログラム
JP2009251990A (ja) 2008-04-08 2009-10-29 Nippon Telegr & Teleph Corp <Ntt> 物体運動推定装置、物体運動推定方法、物体運動推定プログラムおよびそのプログラムを記録した記録媒体
JP2015207212A (ja) 2014-04-22 2015-11-19 サクサ株式会社 車両検出装置、およびシステム、ならびにプログラム

Also Published As

Publication number Publication date
JP2019117630A (ja) 2019-07-18
US10922837B2 (en) 2021-02-16
EP3503027B1 (en) 2022-08-24
US20200090364A1 (en) 2020-03-19
EP3503027A1 (en) 2019-06-26
US20190197724A1 (en) 2019-06-27
TWI796401B (zh) 2023-03-21
BR102018076778A2 (pt) 2019-07-09
CN110047103A (zh) 2019-07-23
TW201928397A (zh) 2019-07-16
KR20190075832A (ko) 2019-07-01
US10410371B2 (en) 2019-09-10

Similar Documents

Publication Publication Date Title
CN110322500B (zh) 即时定位与地图构建的优化方法及装置、介质和电子设备
US9864927B2 (en) Method of detecting structural parts of a scene
US20190122378A1 (en) Apparatuses and methods for machine vision systems including creation of a point cloud model and/or three dimensional model based on multiple images from different perspectives and combination of depth cues from camera motion and defocus with various applications including navigation systems, and pattern matching systems as well as estimating relative blur between images for use in depth from defocus or autofocusing applications
KR102462799B1 (ko) 자세 추정 방법 및 자세 추정 장치
EP2901236B1 (en) Video-assisted target location
CN109300143B (zh) 运动向量场的确定方法、装置、设备、存储介质和车辆
KR20150032789A (ko) 어떤 대상의 자기 동작 추정을 위한 방법
WO2019241782A1 (en) Deep virtual stereo odometry
US9098750B2 (en) Gradient estimation apparatus, gradient estimation method, and gradient estimation program
JP7286310B2 (ja) オブジェクト検出のための画像からのクラッタ背景の除去
Kim et al. Autonomous flight with robust visual odometry under dynamic lighting conditions
Bucci et al. Comparison of feature detection and outlier removal strategies in a mono visual odometry algorithm for underwater navigation
Morimoto et al. Detection of independently moving objects in passive video
McManamon et al. Exomars rover vehicle perception system architecture and test results
US10549853B2 (en) Apparatus, system, and method for determining an object&#39;s location in image video data
KR101350460B1 (ko) 영상의 모션 블러를 제거하는 방법 및 장치
Ha et al. 6-DOF direct homography tracking with extended Kalman filter
Wang et al. Robust monocular visual inertial odometry in γ radioactive environments using edge-based point features
Guo et al. HawkDrive: A Transformer-driven Visual Perception System for Autonomous Driving in Night Scene
Castelli et al. Moving object detection for unconstrained low-altitude aerial videos, a pose-independant detector based on artificial flow
CN116645580B (zh) 一种基于时空特征差异的弱小目标检测方法及装置
Erdem et al. Estimation of camera ego-motion for real-time computer vision applications
Sohail et al. Object Detection and Mapping in 3D Space for Quad-Copter Control Application
Zhang Aircraft detection and tracking using UAV-mounted vision system
Khan et al. A Review on Data Acquisition Devices and Algorithms for 3D Mapping

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230524

R150 Certificate of patent or registration of utility model

Ref document number: 7286310

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150