JP2003500774A - パターン探索 - Google Patents

パターン探索

Info

Publication number
JP2003500774A
JP2003500774A JP2001500209A JP2001500209A JP2003500774A JP 2003500774 A JP2003500774 A JP 2003500774A JP 2001500209 A JP2001500209 A JP 2001500209A JP 2001500209 A JP2001500209 A JP 2001500209A JP 2003500774 A JP2003500774 A JP 2003500774A
Authority
JP
Japan
Prior art keywords
search field
information
image
pattern
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001500209A
Other languages
English (en)
Inventor
デコ グスタヴォ
シュルマン ベルント
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of JP2003500774A publication Critical patent/JP2003500774A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Optical Communication System (AREA)
  • Gyroscopes (AREA)
  • Power Steering Mechanism (AREA)

Abstract

(57)【要約】 少なくとも2つの所定のパラメータにより識別される所与のパターンを所与の探索フィールド(1)内で探索する。まず、所与の探索フィールド(1)を現在の探索フィールドに設定する。次いで所定のパラメータの各々に関して現在の探索フィールドのそれぞれ1つの局所画像(12,13,14)を生成する(3,6)。局所画像はそれぞれ探索すべきパターンの相応のパラメータの実際の値を考慮する。局所画像(12,13,14)の情報はそれぞれ互いに独立してホップフィールドネットワーク(8,9,10)により処理され、位置情報を生成する。次いでそれぞれの位置情報の結合(19)に基づいて新たな探索フィールドを特定する。新たな探索フィールド(17)は、所与の探索フィールド(1)内でパターンの推定位置を指定する。

Description

【発明の詳細な説明】
【0001】 本発明は、探索フィールド内で基準パターンを探索するための方法に関するも
のであり、技術的に効率的に実現可能でなければならない。つまり、このパター
ン探索により、複数のパラメータの値により特徴づけられる少なくとも1つのパ
ターンが所与の探索フィールド内で見いだされる。このようなパターン探索方法
の典型的な適用は、ロボット工学、テキスト分析、画像分析および医用技術の画
像生成システムの領域(例えばマンモグラフィ等における自動ガン検出の場合の
ような)にある。
【0002】 本明細書における「パターン」とは、センサ情報のそれぞれ2次元的表示また
は多次元的表示の意味であることを理解するよう述べておきたい。この場合、こ
の情報が音響的なものであるか、視覚的なものであるか、またはその他の種類の
ものであるかは重要ではない。
【0003】 基本的に、パターン探索方法を技術的に実現する際には、探索フィールドの潜
在的に膨大な量の情報を処理することが問題となる。従来技術からは、入力情報
の潜在的な関心領域を検出するいわゆる優先撮像と、探索フィールドの入力情報
を少なくするフォーカス機構とに基づいたモデルが公知であり、これにより、限
られた処理容量で残りの情報量を処理することができる。
【0004】 この場合、優先画像は探索フィールドの局所画像であり、この局所画像は探索
フィールドのさまざまな領域の関連度を描写するものであり、これにより事後的
に探索フィールドを縮小する機構が提供される。このような優先撮像のさまざま
な実現形態が公知である。例えば、Koch and Ullmann(1985),“Shifts in selec
tive visual attention: Towards the underlying neural circuitry”, Human
NeuroBiology, 4, pages 219〜227から、いわゆるボトムアップ情報によりこの
ような優先撮像を組織することが公知であり、この場合、さらなる機構が設けら
れており、この機構により、優先画像において最も目立つ位置が選択され、フォ
ーカス技術を用いてこの位置へ関心が向けられる、すなわち比較的高レベルの処
理が行われる。
【0005】 Van de Laar et al (1997) “Task-dependent learning of attention”, Neu
ral Networks, 10, pages 981〜992からは、トップダウン情報を取り入れる
ためにタスクに依存して優先画像を生成することが公知である。探索されるパタ
ーンは各タスクに応じて変化するという事実を考慮するために、タスクに依存す
る新たな優先画像が定義される。
【0006】 Wolfe (1994) “Guided search 2.0: A revised model of visual search”,
Psychonomic Bulletin & Review, 1, pages 202〜238からは、誘導探索モデル
に従って、優先画像を生成するためにボトムアップ情報およびトップダウン情報
を使用することが公知である。
【0007】 上記の従来技術を基礎として、本発明の課題は、特に効率的な技術的実現を可
能にするパターン探索の方法を提供することである。課題解決のバックグラウン
ドとなる枠組的な条件として、実際の使用において実現可能なハードウェアソリ
ューションまたはソフトウェアソリューションの提供が可能か調べられなければ
ならない。
【0008】 上記課題は、本発明によれば、請求項1の特徴により解決される。従属請求項
は、本発明の中心的な思想を特に有利な形態において構成している。
【0009】 したがって、本発明によれば、所与の探索フィールド内で基準パターンを探索
するための方法が提供され、この場合、基準パターンは少なくとも2つの予め定
められたパラメータにより特徴付けられる。まず、所与の探索フィールドを現在
の探索フィールドとして設定する。予め定められたパラメータごとに、現在の探
索フィールドの1つの局所画像を生成する。この場合、局所画像は基準パターン
の相応するパラメータの値を考慮したものである。局所画像の情報を互いに独立
して処理することにより、それぞれ1つの位置情報が生成され、この位置情報は
、それぞれのパラメータに関して、探索される基準パターンの少なくとも1つの
推定位置を現在の探索フィールド内に指定する。新たな探索フィールドは、それ
ぞれの位置情報の結合を基に特定される。新たな探索フィールドは、前記所与の
探索フィールド内に基準パターンの推定位置を指定する。
【0010】 この方法は、限られた処理容量を考慮して、実際の使用において技術的に比較
的効率的に実現される。というのも、局所画像の情報は互いに独立して処理され
、この直列処理は古典的な(直列の)計算機アーキテクチャにより効率的に実現
可能だからである。
【0011】 局所画像の生成は、現在の探索フィールドの情報の並列処理または実際の使用
においては疑似並列処理により行われる。このステップも技術的に比較的効率的
に実現される。というのも、局所画像は、本発明のこの側面によれば、確かに並
列的に生成されるが、しかしその生成は比較的低いプレーンにおいての処理しか
必要としないからである。
【0012】 局所画像内の情報は、例えばニューラルホップフィールドネットワークにより
処理することができ、その際、それぞれ1つのホップフィールドネットワークが
1つの位置情報を出力する。ホップフィールドネットワークは当業者にとっては
従来技術から公知である。例えば、Zakharian et al “Neuronale Netze fuer I
ngenieure” Vieweg Verlag, Braunschweig, Wiesbaden,1998において示されて
いる。
【0013】 ホップフィールドネットワークは、とりわけポットニューロンから構成するこ
とができる。ポットニューロンは、例えば、Peterson et al, “A new method f
or mapping optimization problems onto neural networks”, International j
ournal of neural Systems, 1, pages 3〜12から公知である。この限りにおいて
、この従来技術が参照される。
【0014】 本方法はさらに、新たな探索フィールドと現在の探索フィールドとの間の変化
を求めるステップを有することもできる。求められた変化が所定の限界値よりも
大きい場合には、現在の探索フィールドを新たな探索フィールドとして設定し、
それぞれ1つの局所画像を生成するステップ、局所画像の情報を独立して処理す
るステップ、新たな探索フィールドを特定するステップ、および新たな探索フィ
ールドと現在の探索フィールドとの間の変化を求めるステップを繰り返すことが
できる。求められた変化が所定の限界値よりも小さいか、または等しい場合には
、新たな探索フィールドは所与の探索フィールド内の基準パターンの推定位置を
指示するものと仮定される。
【0015】 現在の探索フィールドの局所画像はニューラルネットワークにより生成するこ
とができ、これらのニューラルネットワークは探索すべきパターンでトレーニン
グされ、その情報は現在の探索フィールドのパラメータ表示された画像から入力
される。
【0016】 付加的に、少なくとも2つのパラメータに関して1つの組合された局所画像を
生成し、次いで上述のようにさらに処理することもできる。
【0017】 上述のような方法の特に有利な適用形態は、ロボットによって取り扱われるべ
き対象物の自動探索である。
【0018】 つぎに、添付した図面に付属の図を参照し、実施例を用いて本発明をより詳細
に説明する。図面内の図において、同じ参照番号はそのつど同じまたは同等の構
成要素を表す。
【0019】 図1は、1つの実施例による、探索フィールド内のパターンを探索するための
システムの概略的な全体図を示しており、 図2は、図1のシステムの機能的表示を示しており、 図3は、図1および2に示されているシステムにより実行され得るシーケンス
のフローチャートを示しており、 図4は、パターン探索に要する時間を探索の複雑さに依存して表示する測定結
果を示している。
【0020】 まず図1を参照して、探索フィールド内でパターンを探索するシステムの構成
を実施例に従って説明する。
【0021】 図1に示されており、かつ図1を参照して説明される実施例では、パターンは
画像表現である。既に上で述べたように、パターンは、2次元的または多次元的
に表される他のセンサ情報の表現でもよい。同じことは探索フィールドについて
も当てはまる。
【0022】 パターン17は、全探索フィールド1の中にいわば「隠されている」。パター
ン17の探索フィールド1内での位置を検出しなければならない。図1の実施例
によれば、探索フィールド1の画像情報はディジタルビデオカメラ18を介して
検出され、このカメラの探索フィールド上の観測窓2は変化させることができる
。すなわち、探索フィールド上のディジタルビデオカメラ18の観測窓(画像セ
グメント2)のサイズも位置も変えることができる。ディジタルビデオカメラ1
8の画像情報、すなわちより詳しく言えば、ディジタルビデオカメラ18の観測
窓2内の情報は、複数の処理ユニット3,4,5に供給される。この場合、これ
らの処理ユニット3,4,5の各々は、以下の明細書でより詳細に説明するよう
に、いわゆる特徴画像(Merkmalsabbildung)の生成を担当している。
【0023】 処理ユニット3はパラメータ1に関する特徴画像の生成を担当し、処理ユニッ
ト4はパラメータ2に関する特徴画像の生成を担当し、処理ユニット5はパラメ
ータ3に関する特徴画像の生成を担当する。特徴画像の生成は、設定されたタス
ク、すなわち探索すべき基準パターンのパラメータの値には依存していない。
【0024】 これらのパラメータは、例えば探索すべきパターンのサイズ、色および位置で
あってもよい。
【0025】 処理ユニット3,4,5により生成された特徴画像は、それぞれ別個のアテン
ション(注目)−ネットワーク6に供給される。アテンション−ネットワーク6
は、予め、つまり実際のパターン探索に先行して、ターゲットメモリ7内に格納
された探索すべきパターンでトレーニングされる。
【0026】 後でより詳細に説明するように、アテンション−ネットワーク6はそれぞれ互
いに独立していわゆる優先画像を生成する。そのために、既に述べたように、探
索すべきパターンでトレーニングされたアテンション−ネットワーク6に処理ユ
ニット3,4,5により生成された特徴画像の情報が供給される。優先画像は探
索フィールド1の局所画像を表し、これらの局所画像は、探索すべきパターンに
対して割当てられたパラメータ1,2または3のそれぞれの関連度に依存して、
アテンション−ネットワーク6により重み付けられる。なお、アテンション−ネ
ットワーク6は前記探索すべきパターンを用いてトレーニングされる。
【0027】 アテンション−ネットワーク6の出力信号は、それぞれ互いに独立して別個の
ホップフィールドネットワーク8,9,10に供給される。後でより詳細に説明
するように、ホップフィールドネットワーク8,9,10は、それぞれのパラメ
ータの優先度の競合を互いに独立して解決する。ホップフィールドネットワーク
8,9,10の出力信号は、ホップフィールドネットワーク8,9,10の出力
信号の結合の1つの例である加算ユニット19に供給され、次いで規格化ユニッ
ト20により規格化される。
【0028】 ホップフィールドネットワーク8,9,10の規格化された結合出力信号は、
新たな探索フィールド生成のためにフィードバック信号17として使用される。
図1の実施例では、フィードバック信号17は制御ユニット11に供給され、こ
の制御ユニット11は、探索フィールド1に関して、供給されたフィードバック
信号17に依存してディジタルビデオカメラ18の観測窓2の位置および/また
はサイズを変更する。
【0029】 つぎに図1に示されたシステムの機能を図2を参照して説明する。
【0030】 基本的に、このシーケンスは2つのフェーズを含んでおり、詳細には、第1フ
ェーズでは、探索フィールドの全情報が特徴画像3,3′,4,4′,5,5′
と優先画像12,13,14とに平行して並列に処理される。次いで第2フェー
ズでは、優先画像の情報がそれぞれ互いに分離され、したがってさらにいわゆる
直列処理を施され、新たな探索フィールドを生成するために最終的に結合される
【0031】 上記の構想から効率的な技術的実現可能性が得られる。というのも、一方で探
索フィールドの並列処理の第1フェーズの間は、処理は比較的低いプレーンで行
われ、他方で高度な処理は優先画像12,13,14の情報に基づいて疑似直列
で行われるからである。
【0032】 第1フェーズでは、探索フィールド1のすべての点の情報が並列処理され、特
徴画像3,3′,4,4′,5,5′が生成される。それぞれの特徴画像3,3
′,4,4′,5,5′は、それぞれのパラメータに関する探索フィールドの局
所画像を表している。この場合、特徴画像による局所画像は、まだ探索タスクに
は依存していない、すなわち探索すべきパターンに依存していない。
【0033】 特徴画像を基にして、探索フィールド1の局所画像を表す優先画像12,13
,14が生成される。但し、局所画像は、タスクに(探索フィールド内で探索す
べきパターンに)関連して探索フィールド内の所定の位置における相応のパラメ
ータの関連度を描写するものである。
【0034】 このために、(予め)少なくとも1つの探索すべきパターンでトレーニングさ
れたいわゆるアテンション−ネットワーク6が使用される。このようにしてトレ
ーニングされたアテンション−ネットワーク6に特徴画像3,3′,4,4′,
5,5′のそれぞれの情報が入力され、これによりアテンション−ネットワーク
6の出力情報としてそれぞれの優先画像12,13,14が生成される。
【0035】 その際、既に述べたように、優先画像12,13,14は各パラメータに対し
て別個に生成される。さらに、優先画像12,13,14の情報は別個にホップ
フィールドネットワーク8,9,10に供給される。
【0036】 優先画像12,13,14内には、いわば、それぞれのパラメータに関して、
探索すべきパターンが探索フィールド内のどの位置に存在し得るかについての情
報が存在している。
【0037】 ホップフィールドネットワークは、パラメータごとの複数の推定位置のこの競
合を各パラメータに対して別個に解決するのに使用される。
【0038】 ホップフィールドネットワーク8,9,10の出力信号は結合され、例えば加
算19され、次いでこの結合に依存して新たな探索フィールドが特定される。
【0039】 つぎにシーケンスの2つの主フェーズを詳細に説明する。
【0040】 フェーズ1: このフェーズは、局所画像を生成するために全表面1の画像情報を並列検出す
ることから成る。
【0041】 まず表面1は視覚的対象物のマトリクスと見なされる。探索面上の各対象物の
位置は2つのインデックスijにより特定され、これらのインデックスは、i行
j列の位置を表す。特徴画像および優先画像は局所的に配置される、つまりこれ
らの画像のうちの1つにおけるニューロンijの記録フィールドは、探索面1の
位置ijのセンシングを担当する。求められるそれぞれのパターンは、全部でK
個の異なるパラメータにより規定することができる。インデックスkを有する各
パラメータはL(k)個の異なる値をとることができる。例えば、色パラメータ
は、赤または緑の値をとることができる(このケースでは、L(色)=2)。相
応するそれぞれの特徴画像に対して、それぞれのパラメータ値の存在を特徴づけ
るために、ニューロンにL(k)個の層が設けられている。fijklにより特
徴画像k内のニューロンの活動を表し、その値が1の場合にはセンシング状態で
あり、探索面1の位置ijに記録フィールドを有しているものとする。これらの
ニューロンの活動は、0から1の間の実数で与えられ、この実数により相応の位
置に相応のパラメータが在ることが識別される。最大値は相応のパラメータが存
在することに対応し、最小値はこのパラメータがこの位置にないことに対応する
。このような特徴画像のニューロンによる実現は、Vandelaar et al., “Task-D
ependent Learning of Attention”, Neural Networks, 19, 981〜992において
公開されている。このアプローチによれば、探索面1の入力対象は数のK個組に
より直接与えられており、これがそのパラメータ値を表している。
【0042】 次いで、このK個組入力は、特徴画像のそれぞれの位置およびそれぞれの層に
おけるニューロンの活動、すなわちfijklの値を得るために直接使用される
。この値は、対象物が相応するパラメータを有している場合には、例えば0.9
であり、その他の場合には0である。例えば3つの異なるパラメータを仮定する
ならば(色、位置、サイズ)、それぞれ2つの異なる値(色に対しては赤=1お
よび緑=2,位置に対しては垂直=1および水平=2,サイズに対しては大=1
および小=2)をとることができ、それぞれの目標対象物は3つ組により識別す
ることができ(例えば第1の数が色を決定し、第2の数が位置を決定し、第3の
数がサイズを決定する場合、3つ組121は赤くて、水平で大きな対象物を表す
)、この情報はそれぞれの特徴画像のそれぞれの層のニューロンの活動を決定す
るのに使用される(例えば3つ組121は、赤を検出するニューロンに対しては
0.9の活動を生じ、緑を検出するニューロンに対しては0の活動を生じる、等
々)。
【0043】 それぞれの特徴画像内の位置ijにおけるこれらのニューロンの活動は、制御
ニューロンOijにより決定される関心の強度によりパラメータ表示される。こ
れはパラメータ表示された出力信号Fijklと呼ばれ、
【0044】
【数1】
【0045】 で表される。ここで、ξは正規分布に従うノイズ信号であり、実際の画像情報に
重なっている。
【0046】 それぞれのパラメータは固有の優先画像を有しており、この優先画像は、それ
ぞれの位置における探索のために割当てられた特徴の関連度を記述するニューロ
ンを有している。hijkによりパラメータkに対応する優先画像内の位置ij
におけるニューロンの活動を表すことにする。この活動値は、前方伝播形であり
かつ隠れた層を有するニューラルネットワーク(アテンション−ネットワーク6
)の出力信号により決定され、この場合、アテンション−ネットワーク6は、タ
スクに基づいて、つまり目標対象物を特徴づける特徴に基づいて、目標対象物の
相応するパラメータを結合する特徴画像の位置に高レベルの活動を創出する。し
たがって、相応する数式は、
【0047】
【数2】
【0048】 であり、ここで、νは正規分布に従うノイズ成分であり、Vはネットワークの隠
れた層の中の隠れユニットの個数である。数式3は、目標対象物に依存した入力
情報tklを受け取るアテンション−ネットワークを記述している。入力情報t kl は、
【0049】
【数3】
【0050】 個のノードから成り、この場合、1つのノードがそれぞれのパラメータ値を表し
ている。パラメータが目標対象物内または可能な目標対象物のグループ内にある
場合には、相応の目標対象物入力ノードは1であり、その他の場合には、0であ
る。テンソルwおよびWはアテンション−ネットワーク6の重み付けパラメータ
であり、aijklはアテンション−ネットワーク6の出力信号であり、優先画
像を生成するために特徴画像の値をパラメータ表示する。
【0051】 このニューラルアテンション−ネットワーク6は、費用関数
【0052】
【数4】
【0053】 を最小化するテンソルwおよびWの値を求めるために、公知のバックプロパゲー
ション方式を用いて実際の使用に先行してトレーニングされる。ここで、位置i
jにおける対象物が実際の目標対象物と同じ特徴kを有する場合には、所望の値
ijkを1に設定する。これにより、アテンション−ネットワーク6は探索す
べきパターンでトレーニングされる。
【0054】
【外1】
【0055】 フェーズ2: フェーズ2では、「関心−探索ヘッドライト」の位置、すなわちOijにより
規定される現在の探索フィールド2の位置を、さまざまな優先画像12,13,
14または15の中に存在する情報に基づいて決定する。その際、それぞれの優
先画像12,13,14または15が、残りの優先画像に依存せずに優先度の競
合を解決し、この解決の後、すべての優先画像におけるそれぞれのステップにお
いて、次の探索ステップのための新たな探索フィールド2が特定される。それゆ
え、それぞれの優先画像12,13,14または15に対して、1つの独立した
ホップフィールドネットワーク8,9,10または16が設けられている。これ
らの制御ネットワーク8,9,10または16はポットニューロンから成ってい
る。ポットニューロンは、当業者にとっては、例えばPeterson,C. およびSoedeb
erg,B.(1989)による“A new method for mapping optimization problems
onto neural networks”, International Journal of Neural Systems, 1, 3〜
12から公知である。
【0056】
【外2】
【0057】
【数5】
【0058】 により与えられる。これにより、ネットワークは、エネルギー関数が最小である
状態へと力学的に発展する。数式8の第1項により以下の事実が考慮される。す
なわち、シーケンス終了時には、パターンが期待される(すなわちSとhとの間
のオーバラップが最大の)位置においてのみ制御ニューロンがアクティブである
ような状態が意図されている、という事実が考慮される。第2項は、ただ1つの
位置だけがアクティブであるという境界条件を実現する。第3項は、高度な優先
画像15と残りの優先画像12,13および14との間の整合性を保証する。こ
の制御ネットワーク(ホップフィールドネットワーク8,9,10,16)の力
学的発展は、いわゆる平均フィールド近似(s. Peterson, Soedeberg, 1989)の
使用のためにモデル化することができる。各スピンVijk=〈Sijk〉の平
均値を用いると、力学的発展は次の数式により表現することができる。
【0059】
【数6】
【0060】 高度な優先画像15に割当てられた制御ネットワーク(ホップフィールドネット
ワーク16)の力学的挙動は、同様に次の数式により記述される。
【0061】
【数7】
【0062】 したがって、新たな探索フィールド2は、各位置における独立したフォーカスV ijk の平均値により特定される。
【0063】
【数8】
【0064】 このために、図1および2に示されているように、ホップフィールドネットワ
ーク8,9,10または16のすべての出力信号は加算ユニット19で統合され
、次いでネットワークの個数(=パラメータの個数)で規格化される(規格化ユ
ニット20)。
【0065】 それぞれのステップでは、数式8〜13に従って反復が実行され、これにより
、現在の探索フィールド2からフェーズ1による次の並列ステップにおいて使用
すべき新たな探索フィールドへの変化が決定される。したがって、このシステム
は、システムが観測窓に応じた定常状態へ収束するまで、フェーズ1によるステ
ップとフェーズ2によるステップを交互に自動的に実行する。但し、観測窓は、
特定の位置ijでは値1を有し、残りのすべての位置では0を有する。定常状態
(位置ij)は探索されるパターンの位置に対応している。
【0066】 このシステムは、1つの位置も強調されない、つまり現在の探索フィールド2
はすべての所与の探索フィールド1と同じ(Oij=1/S)であることによ
り初期化される。ここで、Sは探索面1のサイズである。反復ステップの数が目
標対象物を探索するための反応時間を決定する。
【0067】 つぎに図3のフローチャートを用いてもう一度シーケンスを説明する。スター
ト(ステップST1)において、パラメータにより特徴づけられる基準パターン
を決定する。次いでステップST2において、所与の探索フィールド全体を現在
の探索フィールドとして設定する。
【0068】 後続のステップST3とST4は、まとめて上記フェーズ1を構成している。
この場合、ステップST3では、それぞれのパラメータに対して1つの局所画像
を生成する。これは並列的または疑似並列的に行うことができる。ステップST
4では、それぞれのパラメータの局所画像を、探索すべきパターンの実際のパラ
メータ値でパラメータ表示する。なお、このパラメータ表示はアテンション−ネ
ットワーク6を用いて行う。
【0069】 後続のステップST5,ST6およびST7は、まとめて上記プロセスのフェ
ーズ2を構成している。まず、それぞれのパラメータに対する競合をホップフィ
ールドネットワークにより解決する。なお、このホップフィールドネットワーク
にはそれぞれの優先画像12,13または14の情報が入力される。ステップS
T6では、ホップフィールドネットワークにより出力された位置情報を結合し、
これによりステップST7では新たな探索フィールドを特定することができる。
ステップST8では、新たな探索フィールドと現在の探索フィールドとの間の変
化が所定の限界値よりも大きいかまたは小さいかを判定する。変化が所定の限界
値よりも小さく、それゆえシステムが安定的に収束した場合には、ステップST
9において、現在の探索フィールドが探索すべきパターンの位置を指定している
と仮定する。したがって、パターンはこの位置で検出されたものと見なされ、ス
テップ10でプロセスを終了する。
【0070】 ステップST8において変化が所定の限界値よりも大きい場合には、現在の探
索フィールドを新たな探索フィールドとして設定し(ステップST11)、プロ
セスはステップST3に戻る。
【0071】 つぎに図4を参照して、図1および2に示されているシステムにより達成され
る測定結果を説明する。まず、異なる種類のタスクを数の対mおよびnにより決
定する。ここで、mは異なる特徴タイプの個数であり、これにより、いわゆるデ
ィストラクタ(distractor)が目標対象物から区別され、nは特徴タイプ内での
個数であり、これにより、ディストラクタのグループが目標対象物から区別され
る。言い換えると、探索対象物が1つまたは2つの特徴タイプにより残りのすべ
ての対象物から区別される場合には、純粋な特徴探索は1,1探索に相応し、標
準コンテクスト探索は2,1探索に相応し、3重コンテクスト探索は3,1また
は3,2探索に相応する。対象物はすべてそれぞれ2つの値をとることのできる
(L(k)=2,ここでk=1,2,3)3つの特徴タイプ(K=3、例えば色
、サイズおよび位置)により規定されると仮定する。
【0072】 図4に見られるように、実験ではS=2からS=16までの画像サイズを使用
した。それぞれのサイズについて実験を100回繰り返し、その際、各回ごとに
ランダムに生成されたディストラクタと目標対象物を使用した。図4には、シミ
ュレートした100個の(ミリ秒単位の)反応時間の平均値が、フレームサイズ
(画像面サイズ)の関数として示されている。
【0073】 反応時間を測定するためための実際の試験シーケンスに先行して、2つのアテ
ンション−ネットワーク、すなわち純粋な特徴−優先画像のためのアテンション
−ネットワークとより複雑な優先画像15を生成するためのアテンション−ネッ
トワークを、数式4または7に記載された費用関数に従ってトレーニングした。
隠れニューロンの個数V=20,トレーニングに使用された例の個数、すなわち
ディストラクタおよび目標対象物のバリエーションの個数は2000である。1
00回の反復の後、バックプロパゲーションアルゴリズムにより十分良好な最小
費用関数が得られた。正規分布に従うノイズは標準偏差σ=0.02でシミュレ
ートした。
【0074】 図4には、1,1探索、2,1探索、3,1探索および3,2探索に対してγ
=0.01、すなわち高レベルの影響のもとで得られた結果が示されている。画
像面に関する反応時間の勾配は、すべての結果において、既に述べた他のシステ
ムの実験結果と整合する。
【図面の簡単な説明】
【図1】 1つの実施例による、探索フィールド内のパターンを探索するためのシステム
の概略的な全体図を示す。
【図2】 図1のシステムの機能的表示を示す。
【図3】 図1および2に示されているシステムにより実行され得るシーケンスのフロー
チャートを示す。
【図4】 パターン探索に要する時間を探索の複雑さに依存して表示する測定結果を示す

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】 少なくとも2つの所定のパラメータにより特徴づけられる基
    準パターンを所与の探索フィールド内において探索するための方法において、 前記方法は以下のステップ、すなわち、 a.)前記所与の探索フィールド(1)を現在の探索フィールドとして設定する
    ステップと、 b.)前記所定のパラメータの各々に関して、そのつど現在の探索フィールドの
    1つの局所画像(12,13,14)を生成する(3,6)ステップと、但し、
    前記局所画像は基準パターンの相応のパラメータの値を考慮したものであり、 c.)前記局所画像(12,13,14)の情報を互いに独立して処理する(8
    ,9,10)ことにより、前記それぞれのパラメータに関して、現在の探索フィ
    ールド内に基準パターンの少なくとも1つの推定位置を指定するそれぞれ1つの
    位置情報を生成するステップと、 d.)前記それぞれの位置情報の結合(19)に基づいて新たな探索フィールド
    を特定するステップと、 e.)前記所与の探索フィールド内で新たな探索フィールド(17)により基準
    パターンの推定位置が指定されるステップと を有すること特徴とする所与の探索フィールド内の基準パターンを探索するため
    の方法。
  2. 【請求項2】 前記ステップb.)において、局所画像(12,13,14
    )の生成を現在の探索フィールドの情報を並列処理または疑似並列処理すること
    により行う、請求項1記載の方法。
  3. 【請求項3】 前記ステップc.)において、局所画像の情報をそれぞれ1
    つのニューラルホップフィールドネットワーク(8,9,10)により処理し、 但し、それぞれ1つのホップフィールドネットワークが1つの位置情報を出力
    するようにした、請求項1または2記載の方法。
  4. 【請求項4】 前記ホップフィールドネットワーク(8,9,10)はポッ
    トニューロンを含む、請求項3記載の方法。
  5. 【請求項5】 前記ステップd.)に続いて以下のステップさらに有する、
    すなわち、 f.)前記新たな探索フィールドと現在の探索フィールドとの間の変化を求める
    ステップと、 g.)求められた変化が所定の境界値よりも大きい場合の、現在の探索フィール
    ドを新たな探索フィールドとして設定して、ステップb.)〜e.)を繰り返す
    ステップと、 h.)求められた値が所定の境界値よりも小さいか、または等しい場合の、ステ
    ップe.)まで進むステップと をさらに有する、請求項1から4のいずれか1項記載の方法。
  6. 【請求項6】 前記ステップb.)において、現在の探索フィールドの局所
    画像(12,13,14)をニューラルネットワーク(6)により生成し、 但し、前記ニューラルネットワークは、前記基準パターン(7)でトレーニン
    グされており、前記ニューラルネットワークには、現在の探索フィールドのパラ
    メータ表示された画像(3,4,5)の情報が入力される、請求項1から5のい
    ずれか1項記載の方法。
  7. 【請求項7】 前記ステップb.)において、少なくとも2つのパラメータ
    の組合せに関して、さらに1つの組合された局所画像を生成し、該局所画像の情
    報を前記ステップc.)に従って処理する、請求項1から6のいずれか1項記載
    の方法。
  8. 【請求項8】 ロボットによりピックアップすべき対象物を自動的に探索す
    るための請求項1から7のいずれか1項による方法の使用。
JP2001500209A 1999-05-26 2000-05-11 パターン探索 Withdrawn JP2003500774A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE19924008A DE19924008C2 (de) 1999-05-26 1999-05-26 Mustersuche
DE19924008.6 1999-05-26
PCT/DE2000/001478 WO2000073978A1 (de) 1999-05-26 2000-05-11 Mustersuche

Publications (1)

Publication Number Publication Date
JP2003500774A true JP2003500774A (ja) 2003-01-07

Family

ID=7909175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001500209A Withdrawn JP2003500774A (ja) 1999-05-26 2000-05-11 パターン探索

Country Status (5)

Country Link
EP (1) EP1194882B1 (ja)
JP (1) JP2003500774A (ja)
AT (1) ATE261600T1 (ja)
DE (2) DE19924008C2 (ja)
WO (1) WO2000073978A1 (ja)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5014219A (en) * 1988-05-06 1991-05-07 White James A Mask controled neural networks
DE19652925C2 (de) * 1996-12-18 1998-11-05 Hans Dr Geiger Verfahren und Vorrichtung zur orts- und größenunabhängigen Erfassung von Merkmalen aus einem Bild

Also Published As

Publication number Publication date
ATE261600T1 (de) 2004-03-15
DE19924008A1 (de) 2000-12-07
DE19924008C2 (de) 2002-11-28
EP1194882B1 (de) 2004-03-10
DE50005604D1 (de) 2004-04-15
WO2000073978A1 (de) 2000-12-07
EP1194882A1 (de) 2002-04-10

Similar Documents

Publication Publication Date Title
CN110378381B (zh) 物体检测方法、装置和计算机存储介质
CN108062505B (zh) 用于基于神经网络的动作检测的方法和设备
CN110929637B (zh) 一种图像识别方法、装置、电子设备及存储介质
Mheich et al. SimiNet: a novel method for quantifying brain network similarity
WO2021137454A1 (ko) 인공지능 기반의 사용자 의료정보 분석 방법 및 시스템
JP6715358B2 (ja) 人工知能映像学習のための動画の学習対象フレームイメージサンプリング方法、装置、プログラム及びその映像学習方法
CN113688862B (zh) 一种基于半监督联邦学习的脑影像分类方法及终端设备
CN115471448A (zh) 基于人工智能的胸腺瘤组织病理的分型方法及装置
CN111027610B (zh) 图像特征融合方法、设备和介质
AU2022392233A1 (en) Method and system for analysing medical images to generate a medical report
Alkhudaydi et al. Counting spikelets from infield wheat crop images using fully convolutional networks
Moate et al. Vehicle detection in infrared imagery using neural networks with synthetic training data
Ozimek et al. A space-variant visual pathway model for data efficient deep learning
Vajpayee et al. Medical image fusion by adaptive Gaussian PCNN and improved Roberts operator
CN115346091B (zh) 一种Mura缺陷图像数据集的生成方法和生成装置
Goutham et al. Brain tumor classification using Efficientnet-B0 model
CN104933724A (zh) 实蝇磁共振图像的自动图像分割方法
Bhattacharjya et al. A genetic algorithm for intelligent imaging from quantum-limited data
CN115760775A (zh) 番茄病害检测方法、装置、设备及存储介质
CN110210574A (zh) 合成孔径雷达图像解译方法、目标识别装置及设备
WO2023108418A1 (zh) 脑图谱构建及神经环路检测的方法和相关产品
JP2003500774A (ja) パターン探索
Nejatbakhsh et al. Demixing calcium imaging data in C. elegans via deformable non-negative matrix factorization
CN109949332B (zh) 用于处理图像的方法和装置
Das et al. Multi‐scale decomposition‐based CT‐MR neurological image fusion using optimized bio‐inspired spiking neural model with meta‐heuristic optimization

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070807