JPH04306499A - 場景認識装置及び場景認識方法 - Google Patents

場景認識装置及び場景認識方法

Info

Publication number
JPH04306499A
JPH04306499A JP3345159A JP34515991A JPH04306499A JP H04306499 A JPH04306499 A JP H04306499A JP 3345159 A JP3345159 A JP 3345159A JP 34515991 A JP34515991 A JP 34515991A JP H04306499 A JPH04306499 A JP H04306499A
Authority
JP
Japan
Prior art keywords
graph
target
scene
image
attributes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3345159A
Other languages
English (en)
Other versions
JP2518578B2 (ja
Inventor
James A Alves
ジェームス・エー・アルブス
Jerry A Burman
ジェリー・エー・バーマン
Victoria Gor
ビクトリア・ゴア
Michele K Daniels
マイケル・ケー・ダニエルス
Walter W Tackett
ウォルター・ダブリユ・タケット
Craig C Reinhart
クレイグ・シー・ラインハート
Bruce A Berger
ブルース・エー・バーガー
Brian J Birdsall
ブライアン・ジェイ・バーゾール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Raytheon Co
Original Assignee
Hughes Aircraft Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hughes Aircraft Co filed Critical Hughes Aircraft Co
Publication of JPH04306499A publication Critical patent/JPH04306499A/ja
Application granted granted Critical
Publication of JP2518578B2 publication Critical patent/JP2518578B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
    • G06V10/426Graphical representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明はシーン(光景)認識シ
ステム及び方法に関し、特に、低レベルと高レベルの特
徴検出を使用して、標的を確認して追跡するシーン認識
システム及び方法に関する。
【0002】
【従来の技術】現代のミサイルに採用されているシーン
(光景、情況)認識システム及び方法は専用の信号処理
ア−キテクチャとアルゴリズムを使用して、ミサイルの
視界内にある建造物、トラック、戦車、船舶等の目標物
の情況を迅速かつ適確に検出できるように設計されてい
る。従って、目標物を短時間に精密に確認または分類す
ることができるより精巧な設計が要求されている。
【0003】
【発明が解決しようとする課題】このように、現代のミ
サイルに採用されているシーン認識システム及び方法に
おいては、目標物をより短時間により精密に確認または
分類することができる設計が要求されている。また、こ
の要求は他の画像認識システム及び方法においても同様
である。
【0004】この発明の目的は上記実情に鑑みてなされ
たもので、目標物をより短時間により精密に確認または
分類することができるシーン認識システム及び方法を提
供することである。
【0005】また、この発明の他の目的は、目標物をよ
り短時間により精密に確認または分類することができる
ミサイル誘導システム用の認識システム及び方法を提供
することである。
【0006】
【課題を解決するための手段と作用】上記目的を達成す
るために、この発明のシーン認識システム及び方法は、
ミサイルの誘導追跡システムと共に使用され、低レベル
特徴検出と高レベル特徴検出を使用して、目標物を確認
し追跡する。
【0007】このシステムは赤外線センサ、ミリ波レ−
ダまたは合成開口レ−ダ、潜水艦探知機等の従来のイメ
−ジセンサを使用して、シーン、即ち、画像を得る。セ
ンサの出力(即ち、画像)は、低レベル特徴検出プロセ
ッサにより処理され、低レベルの特徴が画像から抽出さ
れる。これはセンサの出力データ(画像データ)のマト
リクスを直交アイコンのマトリクスに変換することによ
り達成される。この直交アイコンのマトリックスは所定
の属性の集合を使用して画像をシンボリックに(象徴的
に)表示する。
【0008】直交アイコンは、高レベルグラフ突合せプ
ロセッサにより処理される。この高レベルグラフ突合せ
プロセッサは、低レベル特徴検出処理に続き、シンボリ
ックな画像分割(セグメンテーション)処理、記述処理
、認識処理を行う。この処理は、撮像された画像中の標
的を表す属性グラフ(属性検出(又はセンス)グラフ)
を生成する。前記高レベルグラフ突合せプロセッサは、
所定の属性基準グラフを生成された属性グラフと突合せ
、その2つのグラフ間の類似の程度に基づいて最も共通
のサブグラフを生成する。さらに、高レベルグラフ突合
せプロセッサは、類似の程度と所定のしきい値に基づい
て認識を行う。高レベルグラフ突合せプロセッサの出力
データにより、照準点が決定される。この照準点は、確
認された標的を追跡するミサイルガイダンス(誘導)シ
ステムに供給される。
【0009】
【実施例】以下、図面を参照して、本願発明の実施例を
説明する。
【0010】図1は、高レベルと低レベルの特徴検出を
使用して標的を確認して追跡するシーン(光景)認識シ
ステムのブロック図であり、この発明の主要部に相当す
るものである。このシステムは低レベル特徴検出器11
を含み、低レベル特徴検出器11は例えば赤外線センサ
、テレビセンサ、レ−ダからなるイメ−ジセンサ9から
得られた画像データを受信する。低レベル特徴検出器1
1は高レベルグラフ突合せプロセッサ12に接続され、
高レベルグラフ突合せプロセッサ12は低レベル特徴検
出器11により生成されたシ−ン(画像)に含まれた特
徴を示すアイコン(視覚的要素)を処理する。ミサイル
運行システム24は照準点の情報を生成して、これを用
いて、ミサイルを所望の標的に向けて操縦する。
【0011】高レベルグラフ突合せプロセッサ12は、
直列接続されたグラフシンセサイザ13、グラフ突合せ
部14、照準点評価部15を備える。基準(参照)グラ
フメモリ16はグラフ突合せプロセッサ12に接続され
ており、画像シ−ン中に存在すると予期される標的(目
標物)を表現する所定の基準グラフを格納する。基準グ
ラフは戦車、建造物、境界標、水中物体等を示すグラフ
からなる。
【0012】低レベル特徴検出器11については、平成
2年4月25日付けで米国特許商標庁に出願された特許
出願514、779の“改良されたデータ伸張システム
と方法”に詳細に記述されている。参考のため、この米
国出願の内容をこの明細書中に取込むものとする。
【0013】低レベル特徴検出器11はイメージセンサ
9からのデータ(画像データ)のマトリックスを直交ア
イコンのマトリックスに変換する。この直交アイコンの
マトリクスは、属性の集合を使用して画像シ−ンをシン
ボリックに表示する。これらの点については、図3乃至
図12を参照してより詳細に後述する。
【0014】図1に示されるシーン認識システムにより
実行される処理は、画像情報を抽象的でより圧縮された
形式に漸進的に変換する一連の変換処理を使用する。第
1の変換は低レベル特徴検出器11により実行され、各
画素位置における強度を示す数のアレーで示されるセン
サ画像を変換して、画像データの10×10ピクセルか
らなるブロックの基本的な強度分布を示す属性を有した
アイコンのコンパクトなアレーとする。
【0015】第2の変換は、高レベルグラフ突合せプロ
セッサ12により実行され、アイコンのアレーを均一(
ほぼ均一を含む)な強度を有する別々の領域に関連付け
、領域間の線形の境界を識別する。領域が細長く両側が
ほぼ平行になっている場合には、その領域はリボンとみ
なされる。この変換により、形成された目標、目標自体
の種々の属性、目標間の関係のリストが生成される。 この情報は、属性グラフの形式にエンコ−ドされる。
【0016】グラフ突合せ部14は、センサ画像から得
られたグラフの構造を、たとえば、以前に得られて格納
されていたグラフまたは偵察情報から得られたグラフと
比較する。相関性の大きいものが見付かると、基準グラ
フにより記述されたシ−ンとセンサにより撮像されたシ
−ンが同一であると見なされる。突合せ後、照準点評価
部15は基準グラフにおいて演繹的に与えられる照準点
を検出グラフに関連付け、この情報はミサイル運行シス
テム24に供給される。
【0017】典型的なグラフ応用技術において、2つの
グラフを関係づける場合の一般的な問題はN−Pコンプ
リ−ト問題である。N−Pコンプリ−ト問題においては
、ノ−ドの数が増加するにつれてと、グラフを突合せる
ために必要とされるサ−チの回数(すなわち比較回数)
が指数関数的に増加する。この発明は、検出グラフと基
準グラフを特有な属性を用いてオ−バ−ロ−ドすること
により、サ−チ空間を大幅に縮小して迅速なリアルタイ
ムサ−チを達成し、この問題を解決する。
【0018】図2は図1のシステムの詳細な機能ブロッ
ク図である。シ−ン分割処理(セグメンテーション処理
)21は、低レベル特徴等級化処理31、強度分割処理
(強度に基づいた分割処理)32,傾斜分割処理(傾斜
に基づいた分割処理)33、傾斜/強度目標統合処理3
4を含み、低レベル特徴検出器11(図1)により実行
される。
【0019】シ−ン分割処理21の出力信号は、検出さ
れた画像中の目標のグラフを発生するグラフ合成処理3
5を含むシ−ン記述処理22に入力される。乗り物、建
造物、境界標、水中物体等を表像(代表)する基準グラ
フ36が予めメモリなどに格納されている。この基準グ
ラフは、偵察飛行等により得られたビデオデ−タから得
られた標的(目標物)などを処理して得られ、最終的に
、標的を識別し選択するための比較用データとして使用
される。
【0020】シ−ン認識処理部23はグラフ合成処理3
5により合成されたグラフと基準グラフ36を使用して
、グラフ突合せ処理37とシ−ン変換処理38により照
準点の評価を行ない、この結果を運行システム24に出
力する。
【0021】図3a−3c,4a−4cは低レベルの特
徴を識別するために実行される処理を示す。この処理は
検出デ−タ(イメ−ジデ−タ)のマトリックスを、属性
の集合によりシンボリックに検出画像を表現する直交ア
イコンのマトリックスに変換する。直交アイコンは図2
に示されるシンボリックなシ−ン分割処理、記述処理、
認識処理を実行するための基本となる。図3aは壁42
,43と屋根44,45を有する家屋41の像を示して
おり、太陽の方向に関係して異なる陰影がつけられてい
る。家屋41の各表面は図3aに示されるように異なる
テクスチャ(陰影)により確認される。家屋41の画像
はデータの各ピクセルに関連する異なる強度を示す数の
アレーである。
【0022】家屋41を表わす画像データは、図3bに
描写されるような10×10画素からなるブロックウイ
ンドウ46により処理される。ブロックウインドウ46
は図3cに示されたピクセルデータを発生する。図3c
のピクセルデータは、低レベル特徴検出器11中で生成
される。このピクセルデ−タは直交アイコンを含む。図
3cの各ピクセルは図3bに示される陰影にしたがって
陰影が付けられている。図3cに示されるデータのブロ
ックまたはセルは、低レベル特徴検出器11で生成され
る。
【0023】図4aにおいてはラインが図3cの陰影が
付けられたピクセルデータから形成され、図4bにおい
ては領域が図3cの陰影が付けられたピクセルデータか
ら形成される。ラインは図2のシ−ン分割処理21にお
いて、傾斜分割処理(傾斜に基づいた分割処理)33に
より生成され、領域は図2のシ−ン分割処理21の強度
分割処理(強度に基づいた分割処理)32により生成さ
れる。領域は平面リンクと傾斜リンクを使用して形成さ
れ、領域の形状が求められる。ラインと領域に関する情
報は図2に示される傾斜/強度目標統合処理34とグラ
フ合成処理35により領域とリボンとを形成するために
処理され、グラフが図4cに示されるように合成される
。このグラフは図3aの家屋41のグラフ的表現(グラ
フ表示)である。図4cに示される照準点が図2の基準
グラフ36を構成する情報から得られる。
【0024】平面リンク処理と領域成長処理は図2のシ
ーン分割処理21の一部である。この平面リンク処理と
領域成長処理は、2つの部分処理からなる。平面リンク
処理は、緩和法に基づいたアルゴリズムを使用して、F
LAT(平面或いは平坦)型の低レベル特徴識別直交ア
イコン(強度むらのないアイコン)を同質の強度の平面
領域に分類する。この結果、FLATアイコンからなる
領域の集合が得られ、それらは面積(要素たるFLAT
アイコンの数)、強度(要素たるFLATアイコンの平
均強度)、要素たるFLATアイコンのリストにより記
述される(描かれる)。より詳細には、同質の強度の領
域を有する直交アイコンのグル−プが形成され、ブロッ
ク分離境界を有する領域の集合が生成される。直交アイ
コンのグル−プは同質強度のアイコンからなり、要素た
る同質強度のアイコンの数を含む面積と、要素たる同質
強度のアイコンの平均強度と、要素たる同質強度のアイ
コンのリストにより記述される。領域成長処理は、強度
傾斜を有しており、特徴分離境界を生成する直交アイコ
ンを付加する。
【0025】領域成長処理は傾斜型(FLATではない
)情報の直交アイコンを成長平面領域に付加し、これに
より、平面リンク処理により生成される10×10ブロ
ック決定境界に対照したものとして特徴決定境界を生成
する。この処理に使用される方法は次の通りである。 (1)平面リンク処理により生成された平面領域から開
始する。その領域は単にFLATアイコンから成り、成
長を停止するための側面の傾斜アイコンまで成長する。 (2)傾斜アイコンが領域の側面にあると考える。各傾
斜アイコンは2−強度モデルにより記述される。各傾斜
アイコンの2つの強度のうちの1つは平面領域の強度に
近い。この強度が平面領域の強度に近い場合、その強度
で覆われた傾斜アイコンの部分を含むように、領域境界
が延びる。(3)上記動作を全ての平面領域について繰
り返す。平面リンク処理は全てのFLATアイコンに単
一の領域番号を付す。領域成長処理は傾斜アイコンに複
数の領域番号を付す。EDGE(端部)型とCORNE
R(角)型の傾斜アイコンには2つの領域番号が付され
る。RIBBON(リボン)型の傾斜アイコンには3つ
の領域番号が付される。SPOT(点)型の傾斜アイコ
ンは考慮されない。この処理により、FLATアイコン
からなる均一強度の領域の集合と部分傾斜アイコンが得
られる。この点に関する詳細は、上述の特許出願”Im
proved DataDecompression 
System andMethod” を参照されたい
【0026】図5aと5bは図2に示されるシーン分割
処理21により実行される平面リンク処理と領域成長処
理の結果を示している。この処理は、図2に示される強
度分割処理32と傾斜分割処理33と傾斜/強度目標統
合処理34によってなされる。図5aと5bにおいて、
単一の陰影を含む直交アイコンはFLATアイコン50
、51を示す。一方、2つの陰影を(対角線に沿って)
含む直交アイコンはEDGE型アイコン52を示す。領
域はFLATアイコンと傾斜(FLATではない)アイ
コンから構成される。他の傾斜アイコンと同様にEDG
Eアイコン52は複数の領域に属す。即ち、それらには
複数の領域番号が割り付けられる。
【0027】図5aと5bにおいては、各EDGEアイ
コン52には、2つの領域番号「1」と「2」が割り付
けられる。これにより、ローレベル特徴検出処理により
検出された傾斜に関する特徴に対して正確な境界が得ら
れる。
【0028】境界形成処理と線形特徴抽出処理は、図2
のシ−ン分割処理部により実行される。この処理は3つ
の部分処理から成る。各領域60−63(図6a)の傾
斜境界は、各々の領域の回りを傾斜のチェーンを形成す
るように検討される。各領域の傾斜チェインは線形セグ
メント64−68(図6b)を生成するように解析され
、各線形セグメント64−68の開始と終了においてそ
のチェインに書き込まれたポインタを有する。線形セグ
メント64−68は、線形セグメントを構成する2以上
の領域に関連する隣接セグメントの生成のために解析さ
れる。これらの処理の結果は、平面リンクと領域増加処
理により系統立てられる各領域60−63の境界の記述
と、長さ、方向、終点座標により表される線形セグメン
ト70−73(図6c)を含む。
【0029】図6a−6cは図2のシーン分割処理21
により実行される境界形成処理と線形特徴抽出処理の結
果を示す。図6aは平面リンクと領域成長処理により得
られる領域60−63を示す。図6bは境界形成処理に
より得られた各領域60−63の境界を示す。図6cは
線形特徴抽出処理により得られる線形セグメント70−
73を示す。
【0030】目標形成処理は2つの部分処理からなる。 第1の処理は、傾斜境界処理と線形特徴抽出処理から得
られる、線形特徴からリボン目標75を形成し、これら
の目標のシンボリックな描写を形成する。第2の処理は
、平面リンクと領域成長処理により得られる領域を象徴
的、即ち、シンボリックに記述し、領域目標76−78
(図9a、図9b)を生成する。リボン目標と領域目標
は、属性検出グラフ(属性が付された検出グラフ)のノ
−ドとなる。シンボリックな記述は属性として機能する
。図7と図8は、それぞれ図9aと9bに示される領域
目標とリボン目標75−78に対し、目標形成処理部に
おいて図2のシーンセグメンテーション処理21、特に
図2のグラフ合成処理部35により実行され、計算され
た属性を示す。
【0031】図7は、領域目標の属性と、図示の方程式
を使用した領域の境界と凸状の外殻に関する計算を示す
。図8はリボン目標属性を示し、このリボン目標属性は
図8aのリボン長、図8bのリボン強度、図8cの極性
、図8dのリボンの方向を含む。図8bと図8cに示さ
れる矢印はリボンを構成するラインセグメントの方向を
示す。
【0032】領域目標に関し、処理部は面積属性、周囲
長属性、凸状外殻の属性を計算する。リボン目標に対し
、処理部はラインテーブルを用いて、以下の条件を満足
する一対のラインを検索する。(1)方向が180度異
なる、(2)互いに極めて接近している、(3)同様な
強度の領域の側面に位置する、(4)どちらのラインに
も平行でない他のラインセグメントを囲まない。このよ
うな条件を満たすラインの対が見つかると、それらに関
するリボン属性が計算される。リボン目標の属性は、(
1)リボンの強度、(2)リボンの極性(暗の中の明ま
たは明の中の暗の別)(3)リボンの幅(2つのライン
の距離)(4)リボンの方向、を含む。
【0033】グラフ合成処理とそれに関連したグラフ言
語は、目標形成処理により生成された領域目標とリボン
目標75−78(図9a,図9b)の間の関係(即ち、
関係記述)を求め、領域目標とリボン目標とそれらの関
連に基づいて属性検出グラフ構造を公式化或いは規定す
る。すべての領域目標と領域目標、領域目標とリボン目
標、リボン目標とリボン目標の間の関係が求められる。 その関係は空間型(互いに近接していること)あるいは
比較型(属性の比較)である。
【0034】グラフ、ノ−ド、ノ−ド間リンク、グラフ
形成処理はよく知られた技術なのでここでは詳述しない
。グラフ処理の当業者は、参照されるべき属性に関する
知識とこの明細書に示されたグラフの説明に基づいてグ
ラフを生成できる。
【0035】属性検出グラフの作成において、領域目標
とリボン目標は、それらの属性と共に、グラフのノ−ド
におかれる。1つのノ−ドには1つの目標が置かれる。 目標の各対の関係は、グラフの弧(リンク)にそれらの
属性と共に置かれる。この手法により、十分連結され属
性付けられたグラフが形成され、シンボリックに元の画
像シ−ンを表現する。
【0036】図9a−9cは、グラフ合成処理35(図
2)で、属性検出グラフ80を生成する工程を示す。グ
ラフ80はノ−ド81−84と、ノ−ド属性と、弧(ま
たはリンク)と、リンク属性、から成る。ノ−ド81−
84はシ−ン中の目標をシンボリックに表し、ノ−ド属
性は目標を説明(記述)し、弧(またはリンク)はシ−
ン中の目標間の関連をシンボリックに表し(記述し)、
リンク属性は目標間の関連を示す(記述する)。より詳
細には、ノ−ド1は領域1即ち目標76を表し、ノ−ド
2は領域2即ち目標77を表し、ノ−ド3は領域3即ち
目標78を表し、ノ−ド4はリボン目標75を表す。リ
ボン目標と領域目標75−78間の種々のリンクは、図
面上、1リンク2、2リンク4、1リンク4、1リンク
3、2リンク3、3リンク4として示される。これらの
リンクは、領域1即ち目標76は上方にあり領域2即ち
目標77に隣接しており、領域1即ち目標76は領域3
即ち目標78の左にあり、領域2即ち目標77はリボン
目標75の左隣にある等のパラメ−タを含む。
【0037】基準グラフの処理は、目標の形成や2つの
異なるグラフを合成する処理と同一の処理によりなされ
る。基準グラフの処理は検出画像の取得とその後の分割
処理、記述処理より先に実行される。また、基準グラフ
は、一般に、自律的なシーン分割処理から得られるもの
ではなく、画像入力装置を用いてオペレ−タにより入力
される。
【0038】図10aと10bは、基準シ−ン(参照画
像)90と属性基準グラフ(属性が付された基準グラフ
)91をそれぞれ示す。図10aは、領域1と領域2、
リボンと所望の照準点94を含む基準シ−ン90を示す
。図10bに示された属性基準グラフ91は、図9cに
示されたグラフと同様にノ−ドとリンクからなる。 ノ−ドとリンクは図9cに関して説明したものと同一形
式の関連性を有する。
【0039】グラフ突合せ処理37(図2)は、属性基
準グラフと属性検出グラフを比較し、2つのグラフ間の
類似の程度に基づいた最高の共通サブグラフ(即ち、コ
ンフィデンスナンバー)を生成し、コンフィデンスナン
バーと所定のしきい値に基づき認識処理を行なう。各グ
ラフのノ−ドと弧の属性との一致の程度により成否の可
能性が決定される。予め決定されたいき値よりコンフィ
デンスナンバ−を大きくできないパスを無視するように
、発見的学習処理が採用される。不確かな解、すなわち
一方のグラフ中の1つの目標を他方のグラフの複数の目
標に突き合わせる解となるパスは無視される。最後に、
目標が元のシ−ンに表れたような目標間の空間的な関連
が保存されないパスは無視される。
【0040】図11は、図2のシ−ン認識処理23のグ
ラフ突合せにより決定された最もよい共通サブグラフ9
2を示す。図9cに示されたグラフは図10bに示され
たグラフと突合わされ、図11の共通サブグラフ92を
発生する。この処理は従来の周知のグラフプロセス技術
を用いて実行される。
【0041】図12aと12bは、それぞれ照準点94
、95を有する基準シ−ン90と検出シ−ン93を示す
。図12aと12bでは、基準グラフには示されていな
い目標を検出シ−ン(領域3)に見付ける可能性がある
。しかし、この相違や、目標に付加物あるいは脱落があ
ったり、目標の大きさや形状が相違したり、撮像の際の
状態に起因する変化にかかわらず適切な照準点が指示さ
れる。基準シ−ン90の照準点94は、属性基準グラフ
に含まれ、所望の標的となる場所を示す。この照準点は
ミサイルが狙うべき場所である照準点として検出グラフ
に移される。この情報はミサイル運行システムへ供給さ
れ、ミサイルの運行に使用される。
【0042】以上、本願発明にかかる新規で改良された
、高レベルと低レベルの特徴検出を使用して標的を確認
し追跡するシーン認識システムと方法を説明したが、上
述の具体例は、この発明の多くの具体化の一例にすぎな
い。この発明の範囲を逸脱しない範囲で、他の多くの構
成及び変形が可能である。
【0043】
【発明の効果】以上詳記したように本発明によれば、目
標をより短時間により精密に確認または分類することが
できる設計が可能となり、これをミサイル誘導システム
に使用すれば、より正確にミサイルを所望の目標に誘導
することが可能となる。
【図面の簡単な説明】
【図1】この発明の一実施例のブロック図であり、低レ
ベルと高レベルの特徴検出を使用して標的を確認し追跡
するシーン認識システムのブロック図。
【図2】図1のシステムの詳細な機能ブロック図。
【図3】低レベル特徴検出のために実行される処理を示
す図であり、図3aは検出シーンを示しており、図3b
にブロックウインドウ処理された検出シーンを示し、図
3cはピクセルデータを示す。
【図4】低レベル特徴検出のために実行される処理を示
す図であり、図4aはライン形成処理を、図4bは領域
を、図4cは合成されたグラフを示す。
【図5】図2のシ−ン分割処理において実行される平面
リンク処理と領域成長処理を示す。
【図6】図2のシ−ン分割処理において実行される境界
形成処理と線形特徴抽出処理の結果を示す。
【図7】領域目標についての属性の説明と属性を求める
方程式を示す図。
【図8】リボン目標についての属性を説明する図。
【図9】属性検出グラフを生成する過程を示す図。
【図10】基準シ−ンおよび属性基準グラフを示す図。
【図11】図2のシーン認識部のグラフ突合せ処理によ
り決定された、最もよい共通サブグラフを示す図。
【図12】照準点を有する基準シ−ンと検出シーンを示
す図。
【符号の説明】
11…低レベル特徴検出器、12…高レベルグラフ突合
せプロセッサ、13…グラフシンセサイザ、14…グラ
フ突合せ部、15…照準点評価部、16…基準グラフメ
モリ、21…シ−ン分割処理、22…シーン記述処理、
23…シ−ン認識処理、24…ミサイル運行システム、
31…低レベル特徴記述処理、32…強度分割処理、3
3…傾斜分割処理、34…傾斜/強度目標統合処理、3
5…グラフ合成処理、36…基準グラフ、37…グラフ
突合せ処理部、38…シ−ン転送処理。

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】  シーン内の標的を識別して追跡するた
    めのローレベル特徴検出及びハイレベル特徴検出を用い
    て任意の標的にミサイルを誘導するミサイルガイダンス
    システムを備えるシーン認識システムであって、撮像さ
    れたシーンから抽出され、撮像されたシーンを代表する
    画像データを処理し、所定の属性の集合を用いて前記イ
    メージデータを前記イメージをシンボリックに表現する
    垂直アイコンのマトリクスに変換することにより、撮像
    されたシーンから特徴を抽出するローレベル特徴検出プ
    ロセッサと、前記ローレベル特徴検出プロセッサに接続
    され、前記アイコンを処理してシーン中に存在する目標
    を形成し、前記目標と属性により記述されるそれらの関
    係から、各目標が記述的属性と共にグラフのノードに置
    かれ、対応する前記目標間の関係はノードをリンクする
    属性と共にグラフリンクに置かれ、イメージをシンボリ
    カルに代表し、完全接続された属性グラフはイメージを
    シンボリカルに代表するところの属性検出グラフを生成
    するグラフ合成プロセッサと、前記グラフ合成プロセッ
    サに接続され、イメージシーン内に存在すると期待され
    る識別可能な目標の表現である所定の基準グラフを記憶
    する基準グラフ記憶手段と、前記グラフ合成プロセッサ
    に接続され所定の属性基準グラフと属性検出グラフを比
    較し、属性基準グラフと属性検出グラフの類似度に基づ
    いて目標認識を行って照準点指示信号を出力し、この出
    力信号を指示された目標に向けてミサイルを誘導するガ
    イダンス信号を出力するミサイル誘導システムに供給す
    るグラフ突き合わせプロセッサ、を具備することを特徴
    とするシーン認識システム。
  2. 【請求項2】  視野内の標的を特定してトラッキング
    するためのローレベル及びハイレベル特徴検出器と任意
    の標的にミサイルを運行するミサイル誘導システムを備
    えるシーン認識システムであって、撮像されたシーンか
    ら抽出され、撮像されたシーンを代表する画像データを
    処理し、所定の属性の集合を用いて前記画像データを前
    記シーンをシンボリックに表現する垂直アイコンのマト
    リクスに変換して、撮像されたシーンから特徴を抽出す
    るするローレベル特徴検出プロセッサ手段と、前記ロー
    レベル特徴検出プロセッサ手段に接続され、前記垂直ア
    イコンを処理し、画像シーンに存在する目標を代表する
    表現を生成し、前記目標と属性により現される目標間の
    関係に基づいて属性検出グラフを形成するために目標間
    の関連を計算し、各目標を記述的属性と共にグラフのノ
    ードに置き、対応する目的間の関係をノードを結ぶ属性
    と共にグラフリンクに置き、完成に接続されたものが画
    像をシンボリカルに代表するところの属性検出グラフを
    生成するグラフ合成プロセッサ手段と、前記グラフ合成
    プロセッサ手段に接続され、画像を構成するデータに存
    在すると期待される識別可能な目標の所定の基準グラフ
    を記憶する基準グラフ記憶手段と、前記グラフ合成プロ
    セッサ手段に接続され、属性基準グラフと属性検出グラ
    フを比較し、属性基準グラフと属性検出グラフの類似度
    と所定のしきい値に基づいて目標の認識を行い、指示さ
    れた目標にミサイルを誘導するガイダンス信号を出力す
    るミサイルガイダンスシステムに供給される標的指定信
    号を出力するグラフ突き合わせプロセッサ、を具備する
    ことを特徴とするシーン認識システム。
  3. 【請求項3】  前記ローレベル特徴検出処理手段に接
    続され、ブロック分離境界を有する領域の集合を生成す
    るために均一の強度の領域を有する直交アイコンの集合
    を生成する平面リンクプロセス手段と、前記平面連結処
    理手段に接続され、特徴分離境界を生成するために強度
    勾配を有する隣接直交アイコンを付加する領域成長処理
    手段をさらに備え、前記領域は均一強度の構成アイコン
    の数で示される面積と均一強度アイコンのリストにより
    記述され、この強度は構成アイコンの平均強度である、
    ことを特徴とする請求項2記載のシーン認識システム。
  4. 【請求項4】  前記ローレベル特徴検出処理手段はさ
    らに、境界形成及び線形特徴抽出処理手段を備え、前記
    境界形成及び線形特徴抽出処理手段は前記領域成長処理
    手段に接続され、(1)各領域を囲む勾配チェーンを形
    成するために各領域の勾配境界を検討し、(2)各リニ
    アセグメントの始点と終点にある前記チェーンに挿入さ
    れたポインタを用いてリニアセグメント用の各領域の勾
    配チェーンを分析し、(3)リニアセグメントを形成す
    るために2以上の領域に関連するセグメントの結合のた
    めのリニアセグメントを分析し、平面リンク処理手段と
    領域成長処理手段により規定される各領域の境界と、長
    さ・方向・終点座標により示されるリニアセグメントを
    生成することを特徴とする請求項3記載のシーン認識シ
    ステム。
  5. 【請求項5】  前記ローレベル特徴検出処理手段はさ
    らに目標形成処理手段を備え、前記目標形成処理手段は
    前記境界形成及び線形特徴抽出処理手段に接続され、前
    記境界形成及び線形特徴抽出処理手段により提供される
    線形特徴からリボン目標を生成し、属性検出グラフのノ
    ードを定義する領域目標を生成するために、平面連結及
    び領域成長処理手段により提供された領域の属性からな
    るシンボリックな説明を生成することにより、これらの
    目標のシンボリックな説明を生成し、前記目標形成処理
    手段は領域目標のために、面積と周囲長と凸状外形属性
    を求め、リボン目標のために、前記目標形成処理手段は
    次の条件を満たすラインの対を見付けるためにラインテ
    ーブルをサーチし、(1)方向が180度異なる、(2
    )互いに接近している、(3)類似の強度の部分が側面
    に位置する、(4)いずれかのラインに平行である他の
    ラインを含まない、そして、これらの条件に合致するラ
    イン対が検出された時、それらのリボン属性を計算し、
    前記リボン目標の属性は以下のものを含む(1)リボン
    の強度、(2)暗の中の明なのかその逆なのかを示すリ
    ボンの極性、(3)2つのラインの間隔に相当するリボ
    ンの幅、(4)リボンの方向、ことを特徴とする請求項
    4記載の画像認識システム。
  6. 【請求項6】  視野内の標的を特定してトラッキング
    するためのローレベル特徴検出器及びハイレベル特徴検
    出器と任意の標的にミサイルを誘導するミサイルガイダ
    ンスシステムを備える画像認識システムであって、イメ
    ージされたシーンから抽出され、イメージされたシーン
    を代表するイメージデータ処理し、所定の属性の集合を
    用いて前記イメージデータを前記イメージをシンボリッ
    クに表現する垂直アイコンのマトリクスに変換すること
    によって、イメージされたシーンからローレベル特徴を
    抽出するローレベル特徴検出プロセッサ手段と、前記直
    交アイコンを処理する前記ローレベル特徴検出プロセッ
    サ手段に接続され、領域目標及びリボン目標とそれらの
    関係から属性検出グラフを形成するために、目標形成処
    理手段により提供された領域目標及びリボン目標の間の
    関係を求め、領域目標とリボン目標をグラフのノードに
    記述的属性と共に置き、各目標を1つのノードに置き、
    対応する前記目標間の関係を属性と共にグラフリンクに
    置き、イメージをシンボリカルに表示する属性グラフを
    生成するグラフ合成プロセッサと、前記グラフ合成プロ
    セッサに接続され、イメージシーン内に存在すると期待
    される識別可能な目標の所定の基準グラフを記憶する基
    準グラフ記憶手段と、前記グラフ合成プロセッサに接続
    され、所定の属性基準グラフと属性検出グラフを比較し
    、2つのグラフの類似度に基づいて2つのグラフ間の最
    も共通のサブグラフを生成し、類似の程度と所定のしき
    い値に基づいて目標を認識し、指示された目標にミサイ
    ルを誘導するためのガイダンス信号を出力するミサイル
    ガイダンスシステムに標的決定信号を出力するグラフ突
    き合わせプロセッサ、を具備することを特徴とする画像
    認識システム。
  7. 【請求項7】  視野内の標的を識別して追跡するため
    のローレベル及びハイレベル特徴検出器と任意の標的に
    ミサイルを運行するミサイル誘導システムを備えるシー
    ン認識システムであって、イメージされたシーンから抽
    出され、イメージされたシーンを代表するイメージデー
    タを処理し、所定の属性の集合を用いて前記イメージデ
    ータを前記イメージをシンボリックに表現する垂直アイ
    コンのマトリクスに変換し、イメージされたシーンから
    特徴を抽出するするローレベル特徴検出プロセッサ手段
    と、前記ローレベル特徴検出処理手段に接続され、均一
    強度のアイコンから構成されかつブロック分離境界を有
    する領域の集合を生成するために、緩和法に基づいたア
    ルゴリズムにより均一の強度を有する直交アイコンのグ
    ループの集合を生成し、それらの領域は均一の強度のア
    イコンの数で示される面積とアイコンのリストから構成
    され、この強度は直交アイコンの平均強度である平面連
    結プロセス手段と、前記平面連結処理手段に接続され、
    特徴分離境界を生成するために、強度勾配を有する隣接
    直交アイコンを付加する領域成長処理手段と、前記領域
    成長処理手段に接続され、(1)各領域を囲む勾配チェ
    ーンを形成するために各領域の勾配境界を検討し、(2
    )各リニアセグメントの始点と終点にある前記チェーン
    に挿入されたポインタを用いてリニアセグメントのため
    に各領域の勾配チェーンを分析し、(3)リニアセグメ
    ントを形成するために2以上の領域に関連するセグメン
    トの結合のためのリニアセグメントを分析し、平面連結
    処理手段と領域成長処理手段により規定される各領域の
    境界説明と、長さ・方向・終点座標により示されるリニ
    アセグメントを生成する境界形成及び特徴抽出処理手段
    と、前記境界生成及びリニア特徴抽出処理手段に接続さ
    れ、前記勾配境界及びリニア特徴抽出処理手段により生
    成されるリニア特徴からリボン対象を生成し、属性検出
    グラフのノードを定義する領域目的を生成するために、
    平面連結及び領域成長処理手段により提供された領域の
    属性から構成されたシンボリックな説明を生成すること
    により、これらの目標のシンボリックな説明を生成する
    目標形成処理手段と、前記ローレベル特徴検出プロセッ
    サ手段に接続され、領域目標及びリボン目標とそれらの
    関係からイメージをシンボリカルに代表する属性検出グ
    ラフを生成するために、目標形成処理手段により提供さ
    れる領域目標とリボン目標の間の関係を求め、領域目標
    とリボン目標を記述的属性と共にグラフのノードに置き
    、対応する目標間の関係をノードを結ぶ属性と共にグラ
    フリンクに置くグラフ合成プロセッサ手段と、前記グラ
    フ合成プロセッサ手段に接続され、イメージを構成する
    データ内に存在すると期待される識別可能な目標の基準
    グラフを記憶する基準グラフ記憶手段と、前記グラフ合
    成プロセッサ手段に接続され、所定の属性基準グラフと
    属性検出グラフを比較し、2つのグラフの間の類似度に
    基づいて2つのグラフ間の最も共通のサブグラフを生成
    し、属性基準グラフと属性検出グラフの類似度と所定の
    しきい値に基づいて目標認識を行う、グラフマッチング
    手段、を備え、前記目標形成処理手段は、前記領域目標
    のために、面積と周囲長と凸状外形属性を求め、リボン
    目標のために、次の条件を満足するライン対を検出する
    ためにラインテーブルをサーチし、(1)方向が180
    度異なる、(2)互いに接近している、(3)類似の領
    域が側部に存在する、(4)いずれかのラインに平行で
    ある他のラインを含まない、そして、これらの条件に合
    致するライン対が検出された時、前記リボン目標の以下
    の属性を含むリボン属性を求め(1)リボンの強度、(
    2)暗の中の明かその逆かを示すリボンの極性、(3)
    2つのラインの間隔に相当するリボンの幅、(4)リボ
    ンの方向、前記グラフマッチング手段は属性基準グラフ
    と属性検出グラフのノードとアーク間の適切なマッチン
    グを評価するために発見的学習法に方向付けられた深さ
    を中心にしたサーチ技術を用い、前記適合性はグラフ間
    のノードと弧の属性の間の突き合わせの程度により決定
    され、前記発見的学習法は前記所定のしきい値よりも大
    きな類似の程度を生成する可能性がないパスのツリー、
    一方のグラフにおける1つの目標を他方のグラフにおけ
    る複数の目標にマッチングさせる不明瞭な解に導くパス
    のツリー、元のシーンに現れる目標間の空間的関係を満
    足しないパスのツリーを無視することを特徴とするシー
    ン認識システム。
  8. 【請求項8】  視野内の標的を追跡するためのミサイ
    ルガイダンスシステムに使用される方法であって、イメ
    ージシーンから抽出され、イメージされたシーンを代表
    するイメージデータを処理し、所定の属性の集合を用い
    て前記イメージデータを前記イメージをシンボリックに
    表現する垂直アイコンのマトリクスに変換し、イメージ
    されたシーンからローレベルの特徴を抽出するイメージ
    データ処理工程と、前記垂直アイコンを処理して、直交
    アイコンとそれらの関係からなる領域目標及びリボン目
    標から属性センスグラフを形成する工程であって、領域
    目標及びリボン目標は記述的属性と共にグラフのノード
    に置かれ、1つの目標が1つのノードにおかれ、対応す
    る目標間の関係はそれらの属性と共にグラフリンクに置
    かれ、完全に接続された属性グラフはイメージをシンボ
    リカルに代表する工程と、イメージシーンを構成するデ
    ータに存在すると期待される目標の基準グラフを記憶す
    る工程と、所定の属性基準グラフと属性センスグラフを
    比較し、目標の認識を行い、標的特定信号を指示された
    目標にミサイルを誘導するガイダンス信号を出力するミ
    サイルガイダンスシステムに供給する工程、を具備する
    ことを特徴とする方法。
  9. 【請求項9】  前記イメージデータ処理工程は、緩和
    法に基づいたアルゴリズムを用いてほぼ均一強度の領域
    を有する直交アイコンのグループを形成して、ブロック
    分離境界を有する領域の集合を生成する工程と、特徴分
    離境界を生成するために、強度勾配を有する隣接直交ア
    イコンを付加する工程、  を具備し、前記領域は均一
    の強度を有する直交アイコンの数で示される面積とアイ
    コンのリストから構成され、この強度は均一強度アイコ
    ンの平均強度であることを特徴とする請求項8記載の方
    法。
  10. 【請求項10】  所定のグラフ形式で所定の目標の表
    現を保存する工程と、画像データを処理し、イメージシ
    ーンに含まれる画像的特徴を表すアイコンを生成する工
    程と、イメージシーン内の目標を形成するためにアイコ
    ンを処理する工程と、目標をイメージシーン内の目標の
    表現に合成する工程と、イメージシーン内の合成された
    目標の表現と所定の目標の保存された表現を比較し、両
    者の間に対応が存在するか否かを決定する工程と、合成
    された目標の表現と保存された表現の間の突き合わせ結
    果を示す信号を生成し、イメージシーン内の所定の目標
    の識別を示す信号を出力する工程、を具備することを特
    徴とするイメージシーン内の所定の目標を識別する方法
JP3345159A 1990-12-26 1991-12-26 場景認識装置及び場景認識方法 Expired - Lifetime JP2518578B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US07/633,833 US5093869A (en) 1990-12-26 1990-12-26 Pattern recognition apparatus utilizing area linking and region growth techniques
US633833 1990-12-26

Publications (2)

Publication Number Publication Date
JPH04306499A true JPH04306499A (ja) 1992-10-29
JP2518578B2 JP2518578B2 (ja) 1996-07-24

Family

ID=24541303

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3345159A Expired - Lifetime JP2518578B2 (ja) 1990-12-26 1991-12-26 場景認識装置及び場景認識方法

Country Status (8)

Country Link
US (1) US5093869A (ja)
EP (1) EP0492512A3 (ja)
JP (1) JP2518578B2 (ja)
KR (1) KR940006841B1 (ja)
AU (1) AU644923B2 (ja)
CA (1) CA2055714C (ja)
IL (1) IL100104A (ja)
NO (1) NO914813L (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002536709A (ja) * 1998-07-08 2002-10-29 シーメンス アクチエンゲゼルシヤフト 第1の構造と少なくとも1つの予め設定された第2の構造との類似度を算出するための方法及び装置
US6985260B1 (en) 1999-09-27 2006-01-10 Canon Kabushiki Kaisha Apparatus and method for drawing a gradient fill object
JP2021174516A (ja) * 2020-04-27 2021-11-01 ペキン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science And Technology Co., Ltd. ナレッジグラフ構築方法、装置、電子機器、記憶媒体およびコンピュータプログラム

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2502175B2 (ja) * 1990-08-18 1996-05-29 富士通株式会社 原画像パタ―ンデ―タ再生方法及び装置
GB9020082D0 (en) * 1990-09-14 1990-10-24 Crosfield Electronics Ltd Methods and apparatus for defining contours in coloured images
US5265173A (en) * 1991-03-20 1993-11-23 Hughes Aircraft Company Rectilinear object image matcher
US5268967A (en) * 1992-06-29 1993-12-07 Eastman Kodak Company Method for automatic foreground and background detection in digital radiographic images
JP3298072B2 (ja) * 1992-07-10 2002-07-02 ソニー株式会社 ビデオカメラシステム
EP0686932A3 (en) * 1994-03-17 1997-06-25 Texas Instruments Inc Computer vision system to search for three-dimensional rectangular objects
US5671294A (en) * 1994-09-15 1997-09-23 The United States Of America As Represented By The Secretary Of The Navy System and method for incorporating segmentation boundaries into the calculation of fractal dimension features for texture discrimination
JP2738325B2 (ja) * 1995-01-24 1998-04-08 日本電気株式会社 動き補償フレーム間予測装置
US5706361A (en) * 1995-01-26 1998-01-06 Autodesk, Inc. Video seed fill over time
IL114839A0 (en) * 1995-08-04 1997-02-18 Spiegel Ehud Apparatus and method for object tracking
AU728858C (en) * 1995-08-16 2001-07-19 Youn Soo Bae Magnetic circuits in the rotation system for generating both the mechanical power and the electric power
US5894525A (en) * 1995-12-06 1999-04-13 Ncr Corporation Method and system for simultaneously recognizing contextually related input fields for a mutually consistent interpretation
US6084989A (en) * 1996-11-15 2000-07-04 Lockheed Martin Corporation System and method for automatically determining the position of landmarks in digitized images derived from a satellite-based imaging system
US5978504A (en) * 1997-02-19 1999-11-02 Carnegie Mellon University Fast planar segmentation of range data for mobile robots
JP3862374B2 (ja) * 1997-09-04 2006-12-27 キヤノン株式会社 画像処理装置及び方法
US6144379A (en) * 1997-11-20 2000-11-07 International Business Machines Corporation Computer controlled user interactive display system for presenting graphs with interactive icons for accessing related graphs
EP0996091B1 (en) * 1998-04-07 2015-12-30 Omron Corporation Image processing device and method, medium on which program for image processing is stored, and inspecting device
US6671407B1 (en) * 1999-10-19 2003-12-30 Microsoft Corporation System and method for hashing digital images
WO2001063382A2 (en) * 2000-02-25 2001-08-30 Synquiry Technologies, Ltd. Conceptual factoring and unification of graphs representing semantic models
US7356188B2 (en) * 2001-04-24 2008-04-08 Microsoft Corporation Recognizer of text-based work
US7020775B2 (en) * 2001-04-24 2006-03-28 Microsoft Corporation Derivation and quantization of robust non-local characteristics for blind watermarking
US6973574B2 (en) * 2001-04-24 2005-12-06 Microsoft Corp. Recognizer of audio-content in digital signals
US6996273B2 (en) * 2001-04-24 2006-02-07 Microsoft Corporation Robust recognizer of perceptually similar content
US7324978B2 (en) * 2001-06-04 2008-01-29 Barra, Inc. Method and apparatus for creating consistent risk forecasts and for aggregating factor models
US7113637B2 (en) * 2001-08-24 2006-09-26 Industrial Technology Research Institute Apparatus and methods for pattern recognition based on transform aggregation
GB2384095B (en) * 2001-12-10 2004-04-28 Cybula Ltd Image recognition
US7746379B2 (en) * 2002-12-31 2010-06-29 Asset Intelligence, Llc Sensing cargo using an imaging device
US7336819B2 (en) * 2003-12-29 2008-02-26 Eastman Kodak Company Detection of sky in digital color images
US7831832B2 (en) * 2004-01-06 2010-11-09 Microsoft Corporation Digital goods representation based upon matrix invariances
US7587064B2 (en) * 2004-02-03 2009-09-08 Hrl Laboratories, Llc Active learning system for object fingerprinting
US7421112B2 (en) * 2004-03-12 2008-09-02 General Electric Company Cargo sensing system
US7770014B2 (en) * 2004-04-30 2010-08-03 Microsoft Corporation Randomized signal transforms and their applications
US8294763B2 (en) * 2007-12-14 2012-10-23 Sri International Method for building and extracting entity networks from video
US8036468B2 (en) * 2007-12-24 2011-10-11 Microsoft Corporation Invariant visual scene and object recognition
RU2507538C2 (ru) * 2009-10-19 2014-02-20 Алексей Александрович Галицын Способ группового опознавания объектов ("свой-чужой") и обеспечения целеуказания на основе беспроводной системы позиционирования в реальном масштабе времени и интеллектуальных радаров
US20110232719A1 (en) * 2010-02-17 2011-09-29 Freda Robert M Solar power system
US8909950B1 (en) 2010-04-18 2014-12-09 Aptima, Inc. Systems and methods of power management
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US9917739B2 (en) * 2012-02-20 2018-03-13 Aptima, Inc. Systems and methods for network pattern matching
US9076062B2 (en) * 2012-09-17 2015-07-07 Gravity Jack, Inc. Feature searching along a path of increasing similarity
US9406138B1 (en) 2013-09-17 2016-08-02 Bentley Systems, Incorporated Semi-automatic polyline extraction from point cloud
US10482900B2 (en) 2017-01-18 2019-11-19 Microsoft Technology Licensing, Llc Organization of signal segments supporting sensed features
US10635981B2 (en) 2017-01-18 2020-04-28 Microsoft Technology Licensing, Llc Automated movement orchestration
US10437884B2 (en) 2017-01-18 2019-10-08 Microsoft Technology Licensing, Llc Navigation of computer-navigable physical feature graph
US10637814B2 (en) 2017-01-18 2020-04-28 Microsoft Technology Licensing, Llc Communication routing based on physical status
US10606814B2 (en) 2017-01-18 2020-03-31 Microsoft Technology Licensing, Llc Computer-aided tracking of physical entities
US10679669B2 (en) 2017-01-18 2020-06-09 Microsoft Technology Licensing, Llc Automatic narration of signal segment
US11094212B2 (en) * 2017-01-18 2021-08-17 Microsoft Technology Licensing, Llc Sharing signal segments of physical graph

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4783829A (en) * 1983-02-23 1988-11-08 Hitachi, Ltd. Pattern recognition apparatus

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3725576A (en) * 1962-09-12 1973-04-03 Us Navy Television tracking system
GB1409448A (en) * 1966-04-27 1975-10-08 Emi Ltd Automatic target following apparatus
US3794272A (en) * 1967-02-13 1974-02-26 Us Navy Electro-optical guidance system
US4115803A (en) * 1975-05-23 1978-09-19 Bausch & Lomb Incorporated Image analysis measurement apparatus and methods
US4047154A (en) * 1976-09-10 1977-09-06 Rockwell International Corporation Operator interactive pattern processing system
US4183013A (en) * 1976-11-29 1980-01-08 Coulter Electronics, Inc. System for extracting shape features from an image
US4267562A (en) * 1977-10-18 1981-05-12 The United States Of America As Represented By The Secretary Of The Army Method of autonomous target acquisition
SE8500799L (sv) * 1984-02-21 1985-08-22 Komatsu Mfg Co Ltd Sett att identifiera foremal
GB2210487B (en) * 1987-09-11 1991-07-10 Gen Electric Co Plc Object recognition
DE3823814A1 (de) * 1988-07-14 1990-02-01 Messerschmitt Boelkow Blohm Flugkoerperfuehrungssystem
GB8905926D0 (en) * 1989-03-15 1990-04-25 British Aerospace Target aim point location

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4783829A (en) * 1983-02-23 1988-11-08 Hitachi, Ltd. Pattern recognition apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002536709A (ja) * 1998-07-08 2002-10-29 シーメンス アクチエンゲゼルシヤフト 第1の構造と少なくとも1つの予め設定された第2の構造との類似度を算出するための方法及び装置
JP4833406B2 (ja) * 1998-07-08 2011-12-07 シーメンス アクチエンゲゼルシヤフト 第1の構造と少なくとも1つの予め設定された第2の構造との類似度を算出するための方法及び装置
US6985260B1 (en) 1999-09-27 2006-01-10 Canon Kabushiki Kaisha Apparatus and method for drawing a gradient fill object
JP2021174516A (ja) * 2020-04-27 2021-11-01 ペキン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science And Technology Co., Ltd. ナレッジグラフ構築方法、装置、電子機器、記憶媒体およびコンピュータプログラム
KR20210132578A (ko) * 2020-04-27 2021-11-04 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. 지식 그래프를 구축하는 방법, 장치, 기기 및 저장 매체

Also Published As

Publication number Publication date
AU644923B2 (en) 1993-12-23
CA2055714A1 (en) 1992-06-27
US5093869A (en) 1992-03-03
EP0492512A3 (en) 1993-12-08
JP2518578B2 (ja) 1996-07-24
KR920013189A (ko) 1992-07-28
NO914813D0 (no) 1991-12-06
CA2055714C (en) 1997-01-07
AU9001691A (en) 1992-07-09
IL100104A (en) 1996-06-18
EP0492512A2 (en) 1992-07-01
KR940006841B1 (ko) 1994-07-28
NO914813L (no) 1992-06-29
IL100104A0 (en) 1992-08-18

Similar Documents

Publication Publication Date Title
JPH04306499A (ja) 場景認識装置及び場景認識方法
Steder et al. Robust place recognition for 3D range data based on point features
US11556745B2 (en) System and method for ordered representation and feature extraction for point clouds obtained by detection and ranging sensor
US9147255B1 (en) Rapid object detection by combining structural information from image segmentation with bio-inspired attentional mechanisms
CN113807187A (zh) 基于注意力特征融合的无人机视频多目标跟踪方法
CN110633632A (zh) 一种基于循环指导的弱监督联合目标检测和语义分割方法
CN113706480A (zh) 一种基于关键点多尺度特征融合的点云3d目标检测方法
US8285655B1 (en) Method for object recongnition using multi-layered swarm sweep algorithms
Shen et al. Vehicle detection in aerial images based on hyper feature map in deep convolutional network
CN116721398A (zh) 一种基于跨阶段路由注意力模块和残差信息融合模块的Yolov5目标检测方法
CN112396036A (zh) 一种结合空间变换网络和多尺度特征提取的遮挡行人重识别方法
CN113223062B (zh) 一种基于角点特征点选取与快速描述子的点云配准方法
Persson et al. Automatic building detection from aerial images for mobile robot mapping
Yao et al. Classification of urban aerial data based on pixel labelling with deep convolutional neural networks and logistic regression
Li et al. Efficient point cloud segmentation approach using energy optimization with geometric features for 3D scene understanding
CN116912763A (zh) 一种融合步态人脸模态的多行人重识别方法
Song et al. ODSPC: deep learning-based 3D object detection using semantic point cloud
Chen et al. Belief functions clustering for epipole localization
Bonin-Font et al. A monocular mobile robot reactive navigation approach based on the inverse perspective transformation
Cyganek et al. Real-time stereovision framework for underwater drone maneuvering
Zhang et al. Efficient Semantic Segmentation Backbone Evaluation for Unmanned Surface Vehicles based on Likelihood Distribution Estimation
Ohta Performance evaluation of image feature detectors and descriptors for outdoor-scene visual navigation
Aswini et al. Drone Object Detection Using Deep Learning Algorithms
Dal Poz et al. Building roof boundary extraction from lidar and image data based on Markov random field
Donadi et al. Improving Generalization of Synthetically Trained Sonar Image Descriptors for Underwater Place Recognition

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090517

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090517

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100517

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110517

Year of fee payment: 15

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110517

Year of fee payment: 15

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120517

Year of fee payment: 16

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120517

Year of fee payment: 16