JP2003500776A - パターン認識 - Google Patents

パターン認識

Info

Publication number
JP2003500776A
JP2003500776A JP2001500211A JP2001500211A JP2003500776A JP 2003500776 A JP2003500776 A JP 2003500776A JP 2001500211 A JP2001500211 A JP 2001500211A JP 2001500211 A JP2001500211 A JP 2001500211A JP 2003500776 A JP2003500776 A JP 2003500776A
Authority
JP
Japan
Prior art keywords
pattern
data
recognized
hypothesis
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001500211A
Other languages
English (en)
Inventor
デコ グスタヴォ
シュルマン ベルント
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of JP2003500776A publication Critical patent/JP2003500776A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

(57)【要約】 パターン認識システムにおいて、後で認識すべきパターンが学習フェーズにおいて予め設定される。このパターンはシーケンシャルに検出される。すなわち、このパターンの情報価値の高い領域が検出され、さらにこれらの領域の間の空間的な関係も格納される。認識フェーズにおいて、認識すべきパターンの第1の領域の検出されたデータに基づいてならびに格納されたデータに基づいて仮説が発生される。この仮説は、推定されたパターンを示し、さらに、この推定が正しければどこに他の目立つ領域がこの認識すべきパターンの中にあるのかを示す。従って、パターンは一方でその局所的な情報によってならびに他方でその互いに空間的関係によって学習され、格納され、次いで再認識される。本発明の適用範囲は例えばロボット技術、テキスト解析、画像解析、そしてまた(例えば乳房撮影法における腫瘍自動認識等々における)医療技術分野である。

Description

【発明の詳細な説明】
【0001】 本発明は、パターン認識システムのための学習方法、少なくとも1つのパター
ンを再認識するための方法、パターン認識システムならびにこのようなパターン
認識システムの使用に関する。
【0002】 本発明は一般的にパターン認識の分野に関する。この場合、パターン認識は、
所定の再認識するべきパターンが技術的なシステムに予め供給されるか、もしく
は言い換えればパターン認識システムが学習又はトレーニングされることを意味
する。このパターン認識システムは予め学習されたこれらのパターンを後で再認
識しなくてはならない。
【0003】 この場合、「パターン」を本発明の意味においては感覚的な印象のあらゆる2
次元又は多次元表示と解釈する。従って、本発明の意味におけるパターンは当然
物理的な対象のイメージである。他の感覚的な印象は例えば香り又は音声信号で
ある。音声信号の場合には2次元表示は例えば周波数スペクトル又は時間に依存
した振幅特性である。
【0004】 パターン認識のための具体的な適用例は当然多数存在する。例としてはロボッ
ト技術が挙げられる。この場合、パターン認識システムは、ロボットが所定の対
象(この場合トレーニングされたパターン)を例えばベルトコンベアなどから取
りあげるために使用される。
【0005】 他の適用範囲は一般的に医療技術である。例えば、腫瘍の典型的な患部画像が
パターンとしてパターン認識システムにおいてトレーニングされた場合に、パタ
ーン認識システムによって腫瘍患部が医療イメージングシステムのイメージにお
いて認識される。
【0006】 音響信号における適用事例においては、パターン認識システムは例えばトレー
ニングされた音声をノイズのあるスペクトルにおいて認識することができる。
【0007】 パターン認識システムの技術的な実装に関する重要なポイントは、パターン認
識システムにパターンにおいて描出される情報を供給するやり方である。従来技
術ではこの場合、このような技術的なシステムをいわゆる「フィードフォワード
(Feed-Forward)」アプローチによって実装することが公知であり、これは例え
ばMarr (1982) "Vision: A Computational Investigation into the human Repr
esentation and Processing of visual Information", New York, Freeman に記
載されている。「フィードフォワード」はこの場合基本的にとりわけパターン認
識の認識フェーズにおいて認識すべきパターンの情報だけが処理されることを意
味する。しかし、この「フィードフォワード」アプローチは、結果的に生じる処
理速度があまりにも低いので技術的な実装において不十分であることが判明した
【0008】 従って、本発明の課題は、より効率的な技術的な実現を可能にするパターン認
識のための技術を提供することである。
【0009】 この課題は独立請求項の構成によって解決される。従属請求項は本発明の中心
的な思想をとりわけ有利なやり方で実施する。
【0010】 第1の実施形態によれば、パターン認識システムのための学習方法が設けられ
る。この場合、少なくとも1つの認識すべきパターンが予め設定される。すなわ
ち、パターン認識システムにパターンすなわち感覚的な印象の2次元表示の情報
(データ)が供給される。次いで、それぞれ予め設定されたパターンの領域を描
出するデータが検出される。有利にはこの場合とりわけ情報価値の高い(aussag
ekraeftig)領域が選択される。2次元イメージの場合にはこれは通常は例えば
輝度情報又は色情報の目立つ跳躍のような高いコントラストを有する領域である
。さらにデータにより描出された少なくとも2つの領域の相対的な空間的な関係
が検出される。周波数スペクトルの場合には、これは例えば2つの領域の間隔で
あればよい。2次元イメージの場合にはこれは通常は相応の領域の相対的位置で
ある。これらの領域の空間的な関係の検出は、相応の領域の本来のデータの検出
とは別個に行われる。予め設定されたパターンの領域を描出するデータならびに
これらの領域の空間的な関係が格納される。
【0011】 予め設定されたパターンの領域を描出するデータの検出及び格納ならびにこれ
らの領域の空間的な関係の検出及び格納は、この場合シリアルに行われる。
【0012】 パターンは物理的な対象のイメージである。これらの物理的な対象は、ロボッ
トによって操作されなければならない対象であってもよい。
【0013】 少なくとも1つの予め設定されたパターンはイメージングシステムによって発
生された例えば腫瘍のような患部画像のイメージであってもよい。
【0014】 本発明によれば、さらに、少なくとも1つのパターンを再認識するための方法
が設けられる。少なくとも1つの再認識するべきパターンを表すデータがこの場
合予め格納される。これはとりわけ上述のような方法によって行われる。次いで
、本来の再認識において、認識すべきパターンの少なくとも1つの領域のデータ
が検出される。次に、いわゆる仮説が、予め格納されたデータと認識すべきパタ
ーンの少なくとも1つの領域の検出されたデータとに基づいて発生される。この
仮説は、この場合、格納されたデータによって表されたどのパターンに認識すべ
きパターンが推定において相応しているかを示す。認識すべきパターンの少なく
とも1つの他の領域のデータが検出され、推定されたパターンの相応する領域を
表す格納されたデータと比較される。認識すべきパターンのこの少なくとも1つ
の他の領域のデータが推定されたパターンの相応する領域を表す格納されたデー
タと基本的に一致する場合には、この認識すべきパターンがこの推定されたパタ
ーンとして識別され、従って再認識されたと見なされる。「基本的に一致する」
とは、この場合技術的な実現において特定の識別閾値(例えば一致における予め
決められたパーセンテージ)が予め設定され、この識別閾値を上回る場合には相
応のデータが一致と見なされることを意味する。
【0015】 仮説は例えば人工ニューラルネットワークによって発生される。
【0016】 仮説の検証に使用されるこの少なくとも1つの他の領域がこの仮説に基づいて
選択される場合、再認識するためのこの方法はとりわけ効果的に技術的に実施さ
れ得る。従って、この場合この他の領域が実際に推定されたパターンである場合
に、認識すべきパターンのこの他の領域がどこに存在しなければならないかとい
うことに関してこの仮説は分析される。
【0017】 認識すべきパターンのこの少なくとも1つの他の領域のデータが格納されたデ
ータと基本的に一致しない場合には(従って、仮説が間違いだと、すなわち推定
されたパターンが認識すべきパターンに相応しないと判明した場合には)、他の
仮説が発生され、上述のように他の領域に基づいて検証される。
【0018】 本発明によれば、さらに、パターン認識システムが設けられる。これはメモリ
を有し、このメモリには少なくとも1つの再認識するべきパターンを表すデータ
が格納されている。さらに、認識すべきパターンの少なくとも1つの領域のデー
タを検出するための手段が設けられている。メモリにおけるデータと認識すべき
パターンの少なくとも1つの領域の検出されたデータとに基づいて仮説を発生す
るための手段が設けられ、この場合、発生された仮説は予め格納されたデータに
よって表される複数のパターンの中の推定されたパターンを示している。検出の
ための手段はさらに次のように構成されている。すなわち、認識すべきパターン
の少なくとも1つの他の領域のデータが検出され、さらに推定されたパターンの
相応する領域を表すメモリにおけるデータと比較される。認識すべきパターンの
この少なくとも1つの他の領域のデータが推定されたパターンの相応する領域を
表すメモリにおけるデータと基本的に一致する場合には、この推定されたパター
ンは再認識された(識別された)と見なされる。
【0019】 仮説を発生するための手段はとりわけ人工ニューラルネットワークであっても
よい。
【0020】 システムは分析器を有し、この分析器は認識すべきパターンの少なくとも1つ
の他の領域を発生された仮説に依存して選択する。従って、この分析器は従来技
術(上記)のフィードフォワードアプローチとは対照的にトップダウン技術に従
って作動する分析器である。この場合トップダウンとは既存の例えば予め格納さ
れた情報を例えば認識フェーズに取り入れることを意味する。
【0021】 上述のように構成されたシステムは、とりわけロボットによって操作されなけ
ればならない対象を認識するために使用される。さらに、このシステムは典型的
な患部画像を認識するために使用される。
【0022】 ここに提示された技術の技術的な利点は、とりわけ学習及び/又は認識フェー
ズにおける検出がシリアルに行われることである。このシリアルな検出は、学習
すべき又は認識すべきパターンの情報のパラレルな全体検出に比べてより小さい
計算容量しか必要とせず、古典的なシリアルな計算アーキテクチュアによって良
好に実現できる。
【0023】 本発明の他の特性、利点及び特徴的な構成を実施例及び添付図面の図と関連し
つつ詳しく説明する。
【0024】 図1はニューロコグニティブ(neurokognitiv)な認識に基づくオブジェクト
の認識のための本発明のシステムを示し、 図2はオブジェクトの認識のためのフローチャートを示す。
【0025】 まず最初に図1に関連してパターンの認識のための本発明のシステムの構成部
材を説明する。これらの構成部材の制御された協働を説明するフローチャートは
その次に図2に関連して説明する。
【0026】 ここで指摘しておくが、この実施例では認識は視覚的に行われるが、本発明は
同様に例えば音響検出のような他の感覚的検出に基づいて実施することもできる
【0027】 参照符号9によってこの場合図1では認識すべきパターン(オブジェクト)を
完全に表示するための手段が示されている。この手段は例えば平面画像センサ9
である。参照符号1によってこの図には観察窓をサーチライトのように平面画像
センサ9の表面全体に亘ってシフトすることができる手段が示されている。この
手段は、例えば平面画像センサ9の所定の部分を選択的に読み出すための手段で
あればよい。観察窓1の出力信号は、すなわちちょうどこの窓に存在する領域又
はオブジェクト表示の部分の視覚的特徴を平面画像センサ9によって描出してお
り、観察窓1のこれらの出力信号は本発明では一方でいわゆるWhat分岐路3に供
給され、他方でいわゆるWhere分岐路6に供給される。このWhat分岐路3はこの
場合例えばオブジェクト9の相応の部分のエッジ、構造又は色のような局所的特
徴の検出を担当しており、これに対してWhere分岐路6は上記のような相応の局
所的特徴の空間的関係のカテゴリカルな検出を担当している。このために、Wher
e分岐路はWhat分岐路に線路10によって接続されており、この線路10によっ
てWhere分岐路6にWhat分岐路3の相応の検出された局所的特徴が供給される。
【0028】 What分岐路3ならびにWhere分岐路6はそれぞれ線路11乃至は12を介して
メモリ4に接続されている。このメモリ4は連想グラフィックメモリである。こ
のメモリ4にはグラフィカルに局所的特徴ならびにこれらの局所的特徴の空間的
な関係が格納される。これはこの場合システムのトレーニングフェーズの間に複
数のオブジェクトに関して行われる。このトレーニングフェーズの終了後に初め
てこのシステムの本来の適用フェーズにおいてメモリ4の内容の評価が行われる
【0029】 観察窓1のシフトは観察窓運動制御部2(観察窓コントローラ)によって制御
される。この観察窓運動制御部2はこの運動制御を2つの供給された分析信号、
すなわちボトムアップ分析器5からの分析信号ならびにトップダウン分析器7か
らの第2の分析信号に依存して実施する。
【0030】 ボトムアップ分析器5はWhat分岐路3の検出された局所的特徴を分析する。こ
れに対して、トップダウン分析器7は仮説発生器8を利用する。この仮説発生器
8はメモリ4に接続されおり、メモリ4にトレーニングフェーズの間に格納され
た結果を仮説の発生のために利用する。
【0031】 従って、図1に図示されたシステムは一方で下位機能をすなわちボトムアップ
分析器5によって実施することができ、このボトムアップ分析器5は直接検出さ
れたWhat分岐路3の検出された特徴を評価するのであって、メモリ4を利用する
ことはできない。従って、このボトムアップ分析器5はセンサ入力信号だけを利
用する。
【0032】 ここに図示されたシステムはさらにトップダウン分析器7ならびに仮説発生器
8によって上位機能を実施することができる。トップダウン分析器7及び仮説発
生器8はすなわちメモリ4に接続されており、この結果、これらのトップダウン
分析器7及び仮説発生器8はシステムのトレーニングフェーズから格納された認
識の供給を利用することができる。
【0033】 ここに図示されたシステムはオブジェクトの視覚的認識に固有の限定されたメ
モリリソースの問題を次のことによって解決する。すなわち、窓機構1が入力さ
れる視覚的情報の低減のために設けられる。これによって、システムの限定され
た情報技術的なリソース(相応のプロセッサのリソース)を超過することはない
。観察窓内の情報だけがより高いレベルにおける後続の処理に供給される。
【0034】 この図に図示されたシステムはWhat検出分岐路3ならびにWhere検出分岐路6
を有し、この結果、オブジェクト属性乃至は空間的属性が別個の分岐路において
処理され得る。オブジェクト属性は認識すべきオブジェクトの形態、色ならびに
構造を含む。
【0035】 空間的関係のカテゴリカルな検出のためのWhere検出分岐路6は例えばWhat検
出分岐路3により検出された局所的特徴の位置、大きさなどを検出する。従って
、What検出分岐路3が観察窓1の部分の主要属性を収集することを担当するのに
対して、Where検出分岐路6は観察窓において異なる位置に割り当てられている
局所的特徴の2つのグループの間のカテゴリカルな空間的関係(左側、右側、等
々)を決定するのに使用される。これらの2つのタイプの情報(局所的特徴乃至
はこれらの局所的特徴の間の空間的関係)は学習フェーズの間に連想メモリにグ
ラフィカルに格納される。この図形のノードはそれぞれ局所的特徴の集合を格納
している。この集合はWhat検出分岐路3によって観察窓1によりラスタ状に走査
された異なる位置において検出されたものであり、この図に図示されたエッジの
線はWhat検出分岐路3により検出された2つのノードの間の空間的関係をカテゴ
リカルに格納している。本来の適用フェーズの前の学習フェーズの間にはボトム
アップ分析器5による分析だけが行われ、この結果、感覚的な情報だけが使用さ
れ、例えば突起するエッジのようなオブジェクトの関心領域のほとんどが走査さ
れ、分析される。これによってオブジェクトの不変的な描出がメモリレコードと
してメモリ4に格納される。この場合、メモリレコードは局所的特徴(局所的な
エッジ)ならびに相応の空間的関係によって固定されている。
【0036】 図に図示されたシステムによってさらにいわゆるトップダウン分析がトップダ
ウン分析器7によって可能である。この場合、トップダウン分析器7は反復テス
ト及び仮説に基づいて観察窓をシフトするのに使用される。これらの仮説は仮説
発生器8によってメモリ4に格納された認識に基づいて生じる。言い換えれば、
本来の認識フェーズ又は適用フェーズの間には、ボトムアップ分析器5によるボ
トムアップ分析が感覚的な情報に基づいて観察窓1のシフトのために使用される
だけではなく、メモリ4に格納された知識に基づいてこの観察窓1は仮説発生器
8が所定の局所的特徴を予測するオブジェクト表示9の領域へとシフトされるの
である。このやり方で仮説発生器8が発生する仮説は反復的に正しいと実証され
るか又は却下される。この分析・総合ループは、この仮説発生器8が発生しトッ
プダウン分析器7が観察窓1の運動のために分析した仮説が正しいと実証される
まで実施される。これはこのオブジェクトが全体として認識されたことを意味す
る。
【0037】 本発明のシステムのここに図示された上記の様々なサブシステムを提供するこ
とによって、実装に使用されるメモリ、プロセッサなどの限定された容量に過大
な要求が課せられることはない。必要とされる容量(リソース)はさらに本発明
によればサーチライトのような観察窓1によって低減される。この観察窓1はラ
スタ状にオブジェクトの上を移動することができる。Whatサブシステムは観察窓
1においてオブジェクトの部分の主要な局所的特徴を分析し、他方でこれらの局
所的特徴の間の空間的な関係はWhereサブシステムによって検出され分析される
。これら2つのサブシステムの認識はメモリ4に格納される。次いで、トップダ
ウン方式で仮説がオンラインで発生される。この仮説に基づいて反復的に観察窓
1の次の運動(シフト)が行われる。観察窓1のシフトの後で認識される特徴が
、仮説発生器8により発生された仮説の予測された特徴と一致する場合には、こ
れはこのオブジェクトが実際に認識されたことを意味する。メモリ4に格納され
た認識の評価にもとづくこの反復的なプロセスによって、観察窓1は他の情報を
入手する(読み出す)ためにシフトされ、このオブジェクトが本当に認識された
のかどうか、もしくは言い換えればこの仮説により想定された特徴がこのオブジ
ェクトの実際の特徴と一致するのかどうかを検査する。従って、ここに図示され
たシステムはオブジェクト認識のためのアクティブな視覚的システムである。
【0038】 図2を参照しながら図1のシステムの構成部材の協働をより詳しく説明する。
この場合、基本的に2つのフェーズが実施される。
【0039】 1)学習又はトレーニングフェーズ。このフェーズにおいては認識すべきパター
ンのあらゆる重要な領域が観察窓によって走査され格納される。
【0040】 2)本来の認識フェーズ。このフェーズにおいてはトレーニングフェーズで格納
された認識に基づいて仮説が作成され検証される。仮説が正しいと実証される(
仮説により推定された特徴が基本的にオブジェクトの実際の特徴と等しい)場合
、パターンは正確に認識されたのである。
【0041】 個々のステップを次に詳しく記述する: まず最初にステップS1においてシーケンスのスタートが行われる。ステップ
S2においてちょうど観察窓の部分(検出領域)に存在するパターンの領域が検
出される。ステップS3では、ステップS2の結果に基づいてこれらの領域の空
間的関係が検出される。ステップS4では、これらの領域のデータ及びこれらの
領域の空間的関係が格納される。ステップS5では、メモリ内容に基づいて、十
分に情報価値の高いつまりパターンの全ての重要な領域が検出され格納されたか
どうかが検査される。ステップS5の検査がネガティブである場合にはステップ
S6において局所的特徴がボトムアップ分析される。ステップS7では観察窓が
ステップS6における分析の結果に依存してシフトされ、処理がステップS2に
戻る。従って、ステップS2〜S7は学習又はトレーニングフェーズである。こ
の学習又はトレーニングフェーズでは、認識すべき予め設定されたパターンの全
ての重要な領域が観察窓によって走査され、検出され、格納される。ステップS
2〜S7はこの場合パターンの重要な領域及びこれらの領域の空間的関係が検出
され格納されるまで繰り返される。
【0042】 ステップS5における検査がポジティブである場合には、メモリ内容に基づい
てステップS8において仮説が作成される。この仮説はこれまでにまだ走査され
ていない/検出されていないパターンの領域における推定されたデータを示す。
この仮説はステップS9では分析(トップダウン分析)され、ステップS10で
は観察窓がこの分析の結果に依存してシフトされる。ステップS11では、新た
に走査され検出された領域において仮説に従って検出されたデータがこの領域の
パターンの実際のデータに一致するかどうかの検査が行われる。この検査がネガ
ティブであり、従って瞬時の仮説が却下される場合、これはパターンが認識され
なかったことを意味するが、これらの領域の実際のデータ及びこれらの領域の空
間的関係がステップS14において検出され格納され、処理はステップS8に戻
る。
【0043】 選択的に、例えば仮説に従って他の領域の推定されたデータとパターンの実際
のデータとの間にあまりにも大きな差異がある場合にはこの認識フェーズは中断
され、学習又はトレーニングフェーズ(ステップS2〜S7)が再び行われる。
【0044】 ステップS11において新たに走査され検出された領域において仮説に従って
推定されたデータがこの領域におけるパターンの実際のデータと一致する場合に
は、これは、仮説は正しいと実証され、従ってパターンは認識されたことを意味
する。従って、このシーケンスはステップS13において終了される。
【0045】 従って、ステップS8〜S14は本来の認識フェーズであり、この本来の認識
フェーズではトレーニングフェーズにおいて格納された認識に基づいて仮説が作
成され、検証される。
【0046】 従って、要約すれば、学習又はトレーニングフェーズでは、後で認識すべきパ
ターン、すなわち感覚的な印象の2次元又は多次元表示が予め設定される。この
パターンはシーケンシャルに検出される、すなわち自動的に情報価値の高い特徴
のデータ(2次元イメージの場合にはエッジ、突起部分など)が一方で検出され
、さらにこれらの領域の間の空間的関係が格納される。既に検出された(訪問さ
れた)領域は学習フェーズの間に決して再び新たに検出されることはない。この
学習フェーズは、検出すべき及び学習すべきパターンの全ての「関心」領域が走
査されるまで予め設定されたパターンにおいて実行される。
【0047】 認識フェーズにおいては、学習フェーズで格納されたパターンが再認識される
。これは、パターンが最初に学習されたパターンと比べて特定の限定範囲内で異
なっている(回転、歪み、ノイズ...)ならば、これらのパターンは再認識さ
れるはずであるということを意味する。この認識フェーズでは、まず最初に認識
すべきパターンの目立つ、情報価値の高い領域が分析される。この最初の情報か
ら、格納されたパターンによるキャリブレーション(Abgleich)によって最初の
仮説が発生される。従って、この仮説は推定されたパターンである。それに応じ
て、この仮説に基づいて観察窓はこの仮説によれば他の目立つ領域が存在すると
思われる場所へとシフトされる。この仮説は認識フェーズ経過中に複数回変更さ
れ得る。なぜなら、検出された領域は持続的に後続処理され、メモリ4に供給さ
れるからである。しかし、この観察窓のサイズを変化させる必要はない。
【0048】 仮説が学習フェーズ経過中に間違っていると判明した場合(領域の相応のデー
タが推定されたパターンの相応の領域の格納されたデータと一致しない場合)に
は、瞬時の仮説は却下され、次の最良の仮説が検証される。認識フェーズでは認
識すべきパターンの最初の領域のデータの検出の直後に1つの仮説が作成される
ので、すなわちより正確に言えば、可能な複数の仮説のランキングリストが作成
されるので、まず最初に発生された仮説は当然全く不適当であることがあり得る
【0049】 ここに示された技術の技術的な利点は、とりわけ学習及び/又は認識フェーズ
における検出がシリアルに行われることである。このシリアルな検出は、学習す
べき又は認識すべきパターンの情報のパラレルな全体検出に比べてより小さい計
算容量しか必要とせず、古典的なシリアルな計算アーキテクチュアによって良好
に実現される。
【図面の簡単な説明】
【図1】 ニューロコグニティブな認識に基づくオブジェクトの認識のための本発明のシ
ステムを示す。
【図2】 オブジェクトの認識のためのフローチャートを示す。
【符号の説明】
1 観察窓 2 観察窓運動制御部 3 What分岐路 4 メモリ 5 ボトムアップ分析器 6 Where分岐路 7 トップダウン分析器 8 仮説発生器 9 オブジェクト表示/平面画像センサ 10 線路 11 線路 12 線路 13 線路
【手続補正書】特許協力条約第34条補正の翻訳文提出書
【提出日】平成13年8月13日(2001.8.13)
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】特許請求の範囲
【補正方法】変更
【補正の内容】
【特許請求の範囲】

Claims (14)

    【特許請求の範囲】
  1. 【請求項1】 パターン認識システムのための学習方法において、以下のス
    テップ: 少なくとも1つの認識すべきパターンを予め設定し(9)、 それぞれ予め設定されたパターンの領域を描出するデータを検出し(1、3)
    、 これらのデータにより描出された少なくとも2つの領域の相対的な空間的関係
    を検出し(1、6)、この場合、これらの領域の空間的な関係のこの検出(1、
    6)は相応する領域のデータの検出(1、3)自体とは別個に行われ、 前記予め設定されたパターンの領域を描出する前記データを格納し(4)なら
    びに前記領域の空間的な関係を格納する(4)ステップを有する、パターン認識
    システムのための学習方法。
  2. 【請求項2】 予め設定されたパターンの領域を描出するデータの検出及び
    格納ならびに前記領域の空間的な関係の検出及び格納は、シリアルに行われるこ
    とを特徴とする、請求項1記載の方法。
  3. 【請求項3】 パターンは物理的な対象のイメージであることを特徴とする
    、請求項1又は2記載の方法。
  4. 【請求項4】 予め設定されたパターンは、ロボットが操作しなくてはなら
    ない対象のイメージであることを特徴とする、請求項1〜3のうちの1項記載の
    方法。
  5. 【請求項5】 予め設定されたパターンはイメージングシステムによって発
    生された患部画像のイメージであることを特徴とする、請求項1〜4のうちの1
    項記載の方法。
  6. 【請求項6】 少なくとも1つのパターンを再認識するための方法において
    、 再認識するべきパターンを表すデータは予めとりわけ上記請求項1〜5のうち
    の1項記載の方法に従って格納されており、以下のステップ: a)認識すべきパターンの少なくとも1つの領域のデータを検出し(1)、 b)格納されたデータと認識すべきパターンの少なくとも1つの領域の検出され
    たデータとに基づいて仮説を発生し(8)、該仮説は予め格納されたデータによ
    って表される前記パターンの中からの推定されたパターンを示し、 c)前記認識すべきパターンの少なくとも1つの他の領域のデータを検出し(1
    )、この認識すべきパターンの他の領域のデータを前記推定されたパターンの相
    応する領域を表す格納されたデータと比較し、 前記認識すべきパターンの前記少なくとも1つの他の領域のデータが前記推定
    されたパターンの前記相応する領域を表す格納されたデータと基本的に一致する
    場合には、前記認識すべきパターンが前記推定されたパターンとして識別される
    ステップを有する、少なくとも1つのパターンを再認識するための方法。
  7. 【請求項7】 仮説は人工ニューラルネットワーク(8)によって発生され
    ることを特徴とする、請求項6記載の方法。
  8. 【請求項8】 認識すべきパターンの少なくとも1つの他の領域は仮説に基
    づいて選択される(7)ことを特徴とする請求項6又は7記載の方法。
  9. 【請求項9】 認識すべきパターンの少なくとも1つの他の領域のデータが
    推定されたパターンの相応する領域を描出する格納されたデータと基本的に一致
    しない場合には、他の仮説が発生され、ステップc)に従って検証されることを
    特徴とする、請求項6〜8のうちの1項記載の方法。
  10. 【請求項10】 パターン認識システムにおいて、 メモリ(4)を有し、該メモリ(4)には少なくとも1つの再認識するべきパ
    ターンを表すデータが格納されており、 認識すべきパターンの少なくとも1つの領域のデータを検出するための手段(
    1)を有し、 前記メモリ(4)におけるデータと認識すべきパターンの少なくとも1つの領
    域の検出されたデータとに基づいて仮説を発生するための手段を有し、この場合
    、前記仮説は予め格納されたデータによって表されるパターンの中からの推定さ
    れたパターンを示し、 認識すべきパターンの少なくとも1つの他の領域のデータを検出し、さらにこ
    の認識すべきパターンのこの他の領域のデータと前記推定されたパターンの相応
    する領域を表す前記メモリ(4)におけるデータとを比較するための手段を有し
    、 前記認識すべきパターンの少なくとも1つの他の領域のデータが前記推定され
    たパターンの相応する領域を表す前記メモリ(4)におけるデータと基本的に一
    致する場合には、前記認識すべきパターンが前記推定されたパターンとして識別
    される、パターン認識システム。
  11. 【請求項11】 仮説を発生するための手段は人工ニューラルネットワーク
    (8)であることを特徴とする、請求項10記載のシステム。
  12. 【請求項12】 システムは分析器(7)を有し、該分析器(7)は発生さ
    れた仮説に依存して認識すべきパターンの少なくとも1つの他の領域を選択する
    ことを特徴とする、請求項10又は11記載のシステム。
  13. 【請求項13】 ロボットによって操作すべき対象を認識するための請求項
    10〜12のうちの1項記載のシステムの使用。
  14. 【請求項14】 典型的な患部画像を認識するための請求項10〜12のう
    ちの1項記載のシステムの使用。
JP2001500211A 1999-05-26 2000-05-23 パターン認識 Withdrawn JP2003500776A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE19924010 1999-05-26
DE19924010.8 1999-05-26
PCT/DE2000/001648 WO2000073980A1 (de) 1999-05-26 2000-05-23 Mustererkennung mittels prüfung zusätzlicher merkmale nach teilverarbeitung

Publications (1)

Publication Number Publication Date
JP2003500776A true JP2003500776A (ja) 2003-01-07

Family

ID=7909177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001500211A Withdrawn JP2003500776A (ja) 1999-05-26 2000-05-23 パターン認識

Country Status (6)

Country Link
US (1) US7079688B1 (ja)
EP (1) EP1180258B1 (ja)
JP (1) JP2003500776A (ja)
AT (1) ATE237846T1 (ja)
DE (1) DE50001802D1 (ja)
WO (1) WO2000073980A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL162878A0 (en) * 2004-07-06 2005-11-20 Hi Tech Solutions Ltd Multi-level neural network based characters identification method and system
US7783113B2 (en) * 2004-10-08 2010-08-24 Drvision Technologies Llc Partition pattern match and integration method for alignment
US7773789B2 (en) * 2005-08-30 2010-08-10 Siemens Medical Solutions Usa, Inc. Probabilistic minimal path for automated esophagus segmentation
US7721269B2 (en) 2005-12-23 2010-05-18 Sas Institute Inc. System and method for detecting redundant subroutine calls
US7810079B2 (en) 2007-01-23 2010-10-05 Sas Institute Inc. System and method for determining execution path difference in program
US8566796B2 (en) * 2008-04-04 2013-10-22 Sas Institute Inc. Systems and methods for interactions with software probes
US7904754B2 (en) * 2009-03-18 2011-03-08 Sas Institute Inc. Systems and methods for automated determination of out of memory handling
US8276020B2 (en) 2009-03-18 2012-09-25 Sas Institute Inc. Systems and methods for automated determination of error handling
US9510974B1 (en) 2010-10-13 2016-12-06 Gholam A. Peyman Laser coagulation of an eye structure or a body surface from a remote location
US10456209B2 (en) 2010-10-13 2019-10-29 Gholam A. Peyman Remote laser treatment system with dynamic imaging
US9931171B1 (en) 2010-10-13 2018-04-03 Gholam A. Peyman Laser treatment of an eye structure or a body surface from a remote location
US11309081B2 (en) 2010-10-13 2022-04-19 Gholam A. Peyman Telemedicine system with dynamic imaging
WO2012129371A2 (en) 2011-03-22 2012-09-27 Nant Holdings Ip, Llc Reasoning engines
DE102017105174B4 (de) 2017-03-10 2020-04-23 Sick Ag Verfahren zum Erzeugen von Trainingsdaten für die Überwachung einer Gefahrenquelle

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4783829A (en) * 1983-02-23 1988-11-08 Hitachi, Ltd. Pattern recognition apparatus
US5014219A (en) 1988-05-06 1991-05-07 White James A Mask controled neural networks
JPH02256430A (ja) * 1989-03-29 1990-10-17 Mitsubishi Electric Corp 自動組立装置および方法
JPH0438587A (ja) * 1990-06-04 1992-02-07 Nec Corp 入力領域適応型ニューラルネットワーク文字認識装置
US5490223A (en) * 1993-06-22 1996-02-06 Kabushiki Kaisha Toshiba Pattern recognition apparatus
US5995652A (en) * 1995-01-23 1999-11-30 Sony Corporation Pattern searching method using neural networks and correlation
EP0766205B1 (fr) * 1995-09-29 2003-12-03 Koninklijke Philips Electronics N.V. Procédé et dispositif de traitement d'image, pour la détection automatique de régions d'un type prédéterminé de cancer dans une image d'intensité
US6327387B1 (en) * 1996-12-27 2001-12-04 Fujitsu Limited Apparatus and method for extracting management information from image
US6477275B1 (en) * 1999-06-16 2002-11-05 Coreco Imaging, Inc. Systems and methods for locating a pattern in an image

Also Published As

Publication number Publication date
WO2000073980A1 (de) 2000-12-07
US7079688B1 (en) 2006-07-18
ATE237846T1 (de) 2003-05-15
DE50001802D1 (de) 2003-05-22
EP1180258B1 (de) 2003-04-16
EP1180258A1 (de) 2002-02-20

Similar Documents

Publication Publication Date Title
US11507801B2 (en) Method for detecting defects in semiconductor device
US11138467B2 (en) Method, device, product, and computer program for operating a technical system
JP2003500776A (ja) パターン認識
US11645744B2 (en) Inspection device and inspection method
CN109543662B (zh) 基于区域提议的目标检测方法、系统、装置和存储介质
CN113039556B (zh) 用于使用增广数据训练机器模型的系统和方法
US10635936B2 (en) Method and system for training a neural network to classify objects or events
JP2000508805A (ja) オブジェクトを特徴付ける特性を抽出する方法及び装置並びにそれらの使用法
AU2020211766B2 (en) Tyre sidewall imaging method
JP2000048209A (ja) 画像処理方法及び装置
JP2019200671A (ja) 学習装置、学習方法、プログラム、データ生成方法及び識別装置
JP2008198078A (ja) 画像検出装置
CN115393625A (zh) 从粗略标记进行图像分段的半监督式训练
WO2020147957A1 (en) System and method for generating a mask for object instances in an image
KR920008618A (ko) 신경 회로망을 이용하는 패턴 인식 시스템
JP2019046253A (ja) 画像処理装置及びプログラム
CN113743434A (zh) 一种目标检测网络的训练方法、图像增广方法及装置
US20030223619A1 (en) Method and apparatus for visual motion recognition
Khadhouri et al. Compound effects of top-down and bottom-up influences on visual attention during action recognition
US20220012551A1 (en) Machine learning apparatus, machine learning method, and computer-readable recording medium
US20230282012A1 (en) Generating training data for machine learning
EP4293583A1 (en) Method and device for training a classification model
JP2005071125A (ja) 被写体検出装置、被写体検出方法、被写体データ選定プログラムおよび被写体位置検出プログラム
KR101467256B1 (ko) 산업용 로봇을 위한 고속 영상 이진화 방법 및 장치
JPH04250578A (ja) 二次元または三次元像の視覚的検査方法

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070807