JP2009003964A - マシンビジョンシステムの操作方法 - Google Patents

マシンビジョンシステムの操作方法 Download PDF

Info

Publication number
JP2009003964A
JP2009003964A JP2008241126A JP2008241126A JP2009003964A JP 2009003964 A JP2009003964 A JP 2009003964A JP 2008241126 A JP2008241126 A JP 2008241126A JP 2008241126 A JP2008241126 A JP 2008241126A JP 2009003964 A JP2009003964 A JP 2009003964A
Authority
JP
Japan
Prior art keywords
edge
image
boundary
routine
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008241126A
Other languages
English (en)
Inventor
Ana M Tessadro
エム テッサドロ アナ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitutoyo Corp
Mitsutoyo Kiko Co Ltd
Original Assignee
Mitutoyo Corp
Mitsutoyo Kiko Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitutoyo Corp, Mitsutoyo Kiko Co Ltd filed Critical Mitutoyo Corp
Publication of JP2009003964A publication Critical patent/JP2009003964A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Abstract

【課題】本発明は、複数の異なる画像特性に基づいたエッジ位置を正確に検出することができるマシンビジョンシステムの操作方法を提供する。
【解決手段】マシンビジョンシステムの操作方法は、テクスチャ、強度、色等の複数の異なる画像特性に基づいてエッジ又は境界の位置を正確に検出し位置決めする。ユーザは、例えば、テクスチャに基づいてエッジ発見演算(又は作動)を、場合によっては、従来の強度勾配エッジ位置決め作動によって実行する境界検出ツールを起動することができる。境界検出ツールは、捕捉された対象物の画像のエッジ又は境界を含む主な注目領域を規定する。境界検出ツールは、現在の対象物のエッジを位置決めし、また迅速且つ確実に将来の類似対象物の対応エッジを位置決めするのに用いることができる。
【選択図】図1

Description

本発明は、画像中の2領域間の境界検出及び境界位置決定を行うマシンビジョンシステムの操作方法に関する。
画像中の特徴あるエッジを位置決めするために用いられる多くの従来のマシンビジョンシステムは、主に又はもっぱら、元の画素の強度の値に対し勾配作動を適用することに基づいている。勾配演算(又は作動)を適用する際に、これらのシステムは、画像の有する元の強度に固有の差異を用いてエッジの位置決めを行う。この作動は、画像処理が行われる部分である画像中のエッジの位置決めを高い精度及び信頼性をもって強調するマシンビジョンシステムのためにしばしば用いられる。これらのときは、エッジの形状寸法は、多くの場合問題無く処理され且つ予測可能であり、これにより、これらの画像のほとんどに対し好結果が得られるようエッジの位置決め作動に適用することができる制約条件を提供する。エッジに沿ったポイントを発見して強度勾配型作動の信頼度を改善し、且つ、さらに検出されたエッジ位置の信頼度を増加させたエッジ検出の後に位置決めされたエッジポイントから境界外を除外するためフィルタ処理をエッジ検出作動の前に用いることもよく知られている。
これらの方法を用いるいくつかの従来のビジョン装置がある。これらのビジョン装置はまた、1つ以上の「エッジ設定ツール」を提供するソフトウェアを典型的に含む。エッジ設定ツールは、マシンビジョンシステムのオペレータが有用な情報及び/又は根本的なエッジ位置決め方法に用いられる制約条件をより容易に入力することを可能にする特定のカーソル及び/又はグラフィカル・ユーザ・インターフェース(GUI)要素である。
しかしながら、画像処理の分野でよく知られているように、エッジの近傍の画像領域が高度のテクスチャを示すとき、又は画像中の問題のない強度勾配に必ずしも相当するとは限らないテクスチャ、色若しくは他の画像特性の変化によってエッジが規定されるときは、これらの従来方式は信頼性を低くしうる。特定のエッジの近傍の各テクスチャの領域はエッジの近傍の高い空間周波数強度変化として画像化されるので、テクスチャを有するエッジに関連した画像は本質的に不規則、即ちノイズが多い。従って、前述した強度勾配型作動はノイズの多い結果を返す傾向があり、これは後にエッジ位置の不十分な検出に帰着する。フィルタ処理作動はこれらの状況におけるノイズを減らすために用いられてもよいが、フィルタ処理作動はまた、検出されたエッジ位置をひずませる方法で画像を故意でなくさらに乱しうる。さらに、いくつかの場合において、例えば、エッジに接するテクスチャ領域の平均強度がほぼ同じであるときは、強度勾配作動はエッジの位置の発見の信頼性が完全になくなりうる。従って、そのような状況で、明確に検出することができる有効な強度勾配、即ち差分がないので、従来方式では正確に画像のエッジ位置を検出することができない。
様々なテクスチャを有する多数の別個の対象物又は領域を含む画像では、種々様々のテクスチャに基づいた画像区分化方法が知られている。例えば、1つの方法は、特定のテクスチャの計量値に基づいた局所領域に画素をグループ化するか分類することができる。そのような方法は、一の領域でグループ化又は分類された画素を他の領域でグループ化又は分類された画素から分離する境界を、分類処理の副産物として規定する。しかしながら、そのような方法は典型的には対象物認識、対象物追跡等のために設計し、且つ適用される。
これらの既存の画像区分化システムに関連した共通の問題はシステム構造が厳格であることである。確実さのための種々様々のテクスチャのフィルタ処理を含むシステムは遅すぎるので、高速の産業処理能力の要求に耐えることができない。テクスチャのフィルタ処理の数を制限し、又は検出する領域のメンバーシップのしきい値として用いられる限られた数の予め決定されたパラメータを用いるシステムは、種々様々なテクスチャに適用されたとき、多くの場合信頼性が低い。従って、そのような既存の区分化システムは、汎用の商用のマシンビジョンシステムで用いるには用途の広さ、確実さ及び/又は速さが不十分である。
さらに、そのような区分化方法は、領域間の境界のエッジ位置の比較的正確な位置を発見するものとしては十分開発されていない。正確なエッジ/境界の保持は、正確な画素のグループ化又は分類にとって不可欠であるエネルギー評価のような作動といくぶん矛盾する最終目的であることが一般に認識されている。例えば、Li等による米国特許第6,178,260号明細書では、局所粗さ及びピーク谷算出が、ウィンドウ及び/又は画像のサブウィンドウ用に決定される場合に文字認識に用いられる方法を開示する。ウィンドウ用の入力画像データは、局所粗さ及びピーク谷算出に基づいてひき続き分類される。この方法は、線画又は漢字領域を識別時に用いなければ粗さ及びピーク谷分類により見過ごしうるようなパターン検出エッジのタイプを用いることにより追加してもよい。この画像区分化方法は多くの従来の方法より確実であり、また現画像に適合する。しかしながら、この方法は、分類領域間の境界の位置を位置決めするのに確実且つ正確に特定・使用する特定方法又はツールを開示しない。
フェンスター(Fenster)等の米国特許第6,111,983号明細書では、医療画像で用いることができる形状認識に用いられる方法を開示する。この方法では、形状モデルが、対象物への作動におけるパラメータ設定の「練習」がされた、即ち、正確な形状が特定されるような練習データに基づく。この練習は、各セクターに個々に適用されて練習することと共に、形状又は境界がセクターに分けられて取り扱われるモデルに有利に適用することができる。セクターは様々な特徴、又は特徴の組によって特徴づけられてもよく、また、この特徴は、望ましいセクター依存対象物への作動を生成するために調節される。この方法は、多くの従来の方法より確実で、また現在の画像に適合する。しかしながら、この方法は、様々なセクターの間の境界の位置を確実且つ正確に位置決めするための特定方法又はツールを開示しない。
汎用の商用マシンビジョンシステムに適用するためには、特定画像のために比較的熟練していないユーザ、即ち画像処理の分野において熟練していないユーザが、システムに組み込まれた様々な画像処理方法を設定し作動することができることも非常に望まれ、又は必要とされる。従って、用途が広く、確実で、速く、そして比較的正確な方法でテクスチャのエッジを位置決めすると同時に、比較的熟練していないオペレータによって作動可能な単純なユーザインターフェースの使用を通じてそのマシンビジョンシステムのエッジ検出処理に適応させ、且つ、管理することによりマシンビジョンシステムを作成することは、特定の問題である。
従って、テクスチャに基づいた区分化方法及び画像特有のテクスチャに基づいた区分化方法は、領域間の境界のエッジ位置の比較的正確な位置を発見するものとしては十分に開発されていない。さらに、そのような方法は、自動的にそれらを合理化し、且つ、合理的に問題ない予測可能な特徴を有する産業的に検査する対象物について発見される特定のエッジにより他のエッジ又は境界検出作動にそれらを従属させる方法と結びついていない。さらに、これらの方法は、根本的な数学的作動又は画像処理作動についてほとんど又は全く理解していないオペレータが用いることができる単純なユーザインターフェース又は互換性をもつ「エッジ設定ツール」に支えられていない。
最後に、従来のマシンビジョンシステムのユーザインターフェースは、作動を見つける従来の強度勾配型エッジ位置決め作動及び本質的に類似するエッジ設定ツール、及び又は関連するGUIを備えたテクスチャ型エッジ位置決め作動の双方を支持するものはなく、また、単一のエッジ設定ツールを用いる双方のタイプの作動を組み合わせているものはない。
従って、従来のマシンビジョンシステムの多くのオペレータは、最小のユーザ理解及び/又は関与で、ますます確実な作動を支持するより標準化されたエッジ位置決め能力を望むので、強度の変化によって十分に規定されていないエッジの画像をより正確に検出し位置決めすることができるように、強度勾配又は差分以外の画像特性を用いて領域間で境界(即ちエッジ)の位置を正確に検出することができる既存のマシンビジョンシステムと共に用いることができる方法及びシステムが必要とされる。
本発明の目的は、複数の異なる画像特性に基づいたエッジ位置を正確に検出することができるマシンビジョンシステムの操作方法を提供することにある。
本発明は、強度勾配型エッジ位置決め作動に容易に統合される追加手段及び/又は代替手段として、1つ以上の有効なテクスチャを有する領域により境界づけられる、即ち規定されるエッジ位置を正確に位置決めする方法を提供する。
本発明は、強度勾配型エッジ位置決め作動と容易に統合される追加手段及び/又は代替手段として、1つ以上の有効な有色又は色テクスチャを有する領域により境界づけられるエッジ位置を正確に位置決めする方法を提供する。
本発明は、GUIの助けをもって手動的に、半自動的に、又は自動的にエッジ位置を位置決めすることに関する決定及び作動を実行することができる方法を提供する。
本発明は、適応性のある選択されたテクスチャのフィルタ処理及び/又はテクスチャ特徴を用いて、1又は2の高度なテクスチャを有する領域により境界がつけられているエッジ位置を正確に位置決めする方法を提供する。
本発明は、学習用領域間のエッジ又は境界でエッジ位置決め作動を最も支持するテクスチャ区別フィルタ処理及び/又は特徴のある組を決定するために特定の学習用領域を使用して、エッジ位置作動の近傍で複数の特定の学習用注目領域を規定する方法を提供する。
本発明は、類似の画像化された部分の画像に類似のケース特有エッジを発見したときに、特定の速度及び信頼度で作動するカスタマイズされたケース特有エッジ発見ルーチンを決定する方法を提供する。
本発明は、GUIの助けをもって手動的に、半自動的に、又は自動的にカスタマイズされたケース特有エッジ検出ルーチンの決定に関連した一定の決定及び作動を実行できる方法を提供する。
本発明の方法の様々な典型的な具体例では、ユーザが境界検出ツール、又はエッジ設定ツールと呼ばれるものを起動して、場合によっては、従来の強度勾配エッジ設定作動に従ってテクスチャに基づいたエッジ発見作動を実行し、捕捉された対象物の画像内にあるエッジを含む主な注目範囲を規定することができる。本発明の方法に従う境界検出ツールは、現在の対象物にエッジを位置決めし、且つ類似対象物に対応するエッジを将来的に位置決めすることに用いることができる。
本発明の方法の境界検出ツールは、ユーザが随意に、位置決めされるエッジを境界とする注目サブ領域の2対以上について、形、位置、方向、大きさ及び/又は分離を指定することを可能にする。これに代えて、本発明の方法は、自動的に作動して注目サブ領域を決定することができる。従来の強度勾配型エッジ位置決め作動が主な注目領域に含まれたエッジの位置決めに適切でないときは、注目サブ領域が2つの別個のタイプ又はクラスタ中に含まれるエッジの各側の特徴画素値を有効に分離するために使用することができる1組のテクスチャに基づく特徴を決定するための学習用領域として使用される。メンバーシップ画像のような疑似画像は特徴画像を使用して算出される。その後、勾配作動を、希望のエッジを検出し且つその位置を決定するメンバーシップ画像に適用することができる。後処理は、エッジの既知の特徴及びおおよその位置に関する入力データを用いてエッジデータに適用して境界外を除外するか、さもなければエッジの位置決め信頼度の改善をすることができる。本発明のこれら及び他の特徴及び利点は、従来の強度勾配方法ではエッジの位置決めが正確にできない、又はすべてのエッジの位置決めができない様々な状況において正確且つ反復可能にエッジを位置決めする方法で比較的熟練していないユーザが汎用のマシンビジョンシステムを作動することを可能にする。
これら及び本発明の他の特徴及び利点は、以下の本発明の方法の様々な典型的な具体例の詳細な説明に記載されているか、又は明らかである。
以上詳細に説明したように、本発明の方法によれば、複数の異なる画像特性に基づいたエッジ位置を正確に検出することができる。
本発明の様々な典型的な実施の形態を図面を参照して詳細に説明する。
本発明の方法は、その全体が本明細書に参考として組込まれている米国特許第6,239,554B1号明細書に開示されたマシンビジョンシステム及び/又は光測定方法及びシステムと共に用いることができる。
本明細書で用いられる用語「境界」及び「エッジ」に関しては、用語「境界」及び「エッジ」は、本発明の方法の範囲及び演算(又は作動)に関して、一般に互換性あるものとして用いられる。しかしながら、文脈が明らかに規定しているときは、用語「エッジ」は、対象物上の異なる平面間の不連続部のエッジ及び/又はその対象物の画像をさらに意味してもよい。同様に、用語「境界」は、対象物の比較的平坦な面上の2つのテクスチャ、2つのカラー又は2つの他の比較的均質の表面特性の間の不連続部の境界及び/又はその対象物の画像をさらに意味してもよい。
簡明化且つ明確化のために、図1に示すように、本発明の作動原理と設計要因を、本発明の方法の典型的な一具体例を参照して説明する。図1に示すビジョンシステムの作動の基本的な説明は、本発明の方法を組込む任意のビジョンシステムの理解や設計にも適用することができる。
図1は、本発明の方法の典型的な具体例を組込むビジョンシステム10の典型的な一具体例を示す。図1に示すように、ビジョンシステム10は制御部100及びビジョンシステム・コンポーネント部200を含む。ビジョンシステム・コンポーネント部200は、中央透明部212を有するステージ210を含む。ビジョンシステム10を用いて画像形成すべき対象物20はステージ210上に載置される。光源220〜240の1つ以上から出射した光は対象物20を照射する。光源220〜240の1つ以上から出射した光は、対象物20を照射した後、場合によっては、対象物20を照射する前に、レンズシステム250を通過して対象物20の画像を生成するためにカメラシステム260によって集められる。カメラシステム260によって捕捉された対象物20の画像は、信号線262で制御部100に出力される。対象物20を照射するために用いられる光源220〜240は、ステージ210用の光源220、共軸光源230、輪状光源、即ちプログラム可能な輪状光源のような面光源240を含み、それらのすべては、接続線、即ちバス221,231,241を介して制御部100に各々接続される。
ステージ210とカメラシステム260の間の距離は、カメラシステム260によって捕捉された対象物20の画像の焦点を変更するために調節することができる。特に、ビジョンシステム10の様々な典型的な具体例では、カメラシステム260の位置を固定されたステージ210に対して縦軸に沿って変更することができる。ビジョンシステム10の他の様々な典型的な具体例では、ステージ210の位置を固定されたカメラシステム260に対して縦軸に沿って変更することができる。ビジョンシステム10のさらに様々な典型的な具体例では、カメラシステム260及びステージ210の双方の垂直位置をビジョンシステム10の焦点範囲を最大化するために変更することができる。
図1に示すように、制御部100の典型的な一具体例は、入力/出力インターフェース110と、コントローラ120と、メモリ130と、注目範囲生成部150と、照明電源供給部191を含む電源190とを含み、これらは、夫々、様々な要素間でデータ/制御バス140により又は直接的に相互に接続される。メモリ130は、ビデオツールメモリ部131、フィルタ処理メモリ部132及び部分プログラムメモリ部133を含み、これらは、夫々データ/制御バス140により又は直接的に相互に接続される。ステージ210用の光源220、共軸光源230、及び面光源240の接続線、即ちバス221,231,241のすべては、各々、照明電源供給部191に接続される。カメラシステム260からの信号線262は、入力/出力インターフェース110に接続される。また、表示装置102は、信号線103を介して入力/出力インターフェース110に接続することができる。1つ以上の入力装置104は、1つ以上の信号線105で接続することができる。表示装置102及び1つ以上の入力装置104を、部分プログラムの検証、作成及び/又は修正に用いてカメラシステム260によって捕捉された画像の検証及び/又はビジョンシステム・コンポーネント部200の直接制御を行う。しかしながら、予め決められた部分プログラムを有する完全に自動化されたシステムでは、表示装置102及び/又は1つ以上の入力装置104、並びにこれらに対応する信号線103及び/又は105を省略してもよいことは認識すべきである。
図1に示すように、ビジョンシステム10はまた、フィルタ処理画像解析回路/ルーチン310、ケース特有フィルタ処理選択回路/ルーチン350、疑似画像生成回路/ルーチン360、エッジポイント解析回路/ルーチン370、境界位置決め修正回路/ルーチン380、場合によっては、エッジモード決定回路/ルーチン390を含み、これらは、夫々、データ/制御バス140により又は直接的に相互に接続される。
メモリ130は、対象物20の画像を捕捉するビジョンシステム・コンポーネント部200を作動するのに用いられるデータを格納して対象物20の入力画像が望ましい画像特性を有するようにする。メモリ130は、手動又は自動で、捕捉された画像上に様々な検査及び測定作動を実行するビジョンシステム10を作動するのに用いられ、且つ入力/出力インターフェース110を介してその結果を出力するのに用いられるデータをさらに格納する。メモリ130はまた、入力/出力インターフェース110を介して作動可能なグラフィカル・ユーザ・インターフェースを規定するデータを含む。
ビデオツールメモリ部131は、グラフィカル・ユーザ・インターフェースに用いることができる様々なビデオツールと、特に、捕捉された画像内の注目範囲においてエッジ位置決め作動に関わるメモリ・データを規定し格納する注目範囲生成部150に用いることができる1つ以上のエッジ設定又は境界設定ツールとを規定するデータを含む。典型的なエッジ/境界検出ツール及びその関連データを、図3及び図4を参照して以下に詳細に説明する。フィルタ処理メモリ部132は、さらに以下に詳細に説明するように、本発明の方法で用いられる様々な画像のフィルタ処理作動を規定するデータを含んでいる。部分プログラムメモリ部133は、作動の処理又はその後にビジョンシステム10を自動作動するためのルーチンを作成・格納するのに用いられる様々な作動を規定するデータを含む。
フィルタ処理画像解析回路/ルーチン310は、現在の注目範囲において所定のテクスチャを有する入力画像の修正及び/又は解析を行うために様々な候補フィルタ処理を適用し、この修正及び/又は解析に基づいてフィルタ処理画像結果を決定する。フィルタ処理画像結果は、候補フィルタ処理のどれが注目範囲のエッジポイントを最も強調又は分離するかを決定するのに用いられる。ケース特有フィルタ処理選択回路/ルーチン350は、様々なフィルタ処理画像結果に基づいて、注目範囲のエッジポイントを最も強調又は分離するケース特有フィルタ処理を選択する。ケース特有フィルタ処理選択回路/ルーチン350は、また、メモリ130の1つ以上の部分にケース特有フィルタ処理の選択に用いられたものを記録してもよい。
疑似画像生成回路/ルーチン360は、選択ケース特有フィルタ処理に基づいて注目範囲中の疑似画像を生成する。疑似画像は、入力画像中の不明瞭なテクスチャ特性のエッジに関するエッジポイントを強調又は分離する。その後、エッジポイント解析回路/ルーチン370を注目範囲中の疑似画像に適用し、疑似画像中の1つ以上のエッジポイントを見積もる。エッジポイント解析回路/ルーチン370は、また、追加情報に基づいて元の推定エッジポイントを修正する作動を行ってもよい。エッジポイント解析回路/ルーチン370は、また、メモリ130の1つ以上の部分で、見積もられたエッジポイントについて1つ以上のエッジ検出パラメータを記録してもよい。
境界位置決め修正回路/ルーチン380は、見積もられたエッジポイントの多数を解析して、確実なエッジの基準に一致するか否かを決定する。境界位置決め修正回路/ルーチン380は、また、信頼性のないエッジポイントの修正又は除去を管理し、確実なエッジポイントに基づいて全面的なエッジポイントデータを最終的に決定する。境界位置決め修正回路/ルーチン380は、また、メモリ130の1つ以上の部分にエッジポイントデータを記録するか、又は、入力/出力インターフェース110を介してエッジポイントデータを出力してもよい。
エッジモード決定回路/ルーチン390は、制御部100の任意の要素であってもよい。制御部100は、また、ビジョンシステム10により得られた入力画像上で既知のエッジ検出作動を行うための既知の回路/ルーチンを含むことは認識すべきである。そのような既知のエッジ検出を行う既知の回路/ルーチンは、例えば、エッジポイント解析回路/ルーチン370及び/又は境界位置決め修正回路/ルーチン380に含まれていてもよい。ビデオツールメモリ部131、注目範囲生成部150、エッジポイント解析回路/ルーチン370、及び境界位置決め修正回路/ルーチン380にあるエッジ設定ツールのような様々な要素の作動範囲に応じて、そのような要素を、所定の注目範囲が入力画像に適用されたエッジ検出、又は疑似画像に適用されたエッジ検出によって適切に解析されるか否かを独立して決定するように作動させてもよい。しかしながら、そのような要素が、所定の注目範囲が入力画像に適用されるエッジ検出、又は疑似画像に適用されるエッジ検出によって適切に解析されるか否かを独立して決定できないときは、エッジモード決定回路/ルーチン390を、エッジ検出作動を実行する様々な他の要素のための適切な作動モードを決定するために含めることができる。
図2は、上述した図1のビジョンシステム10の様々な回路/ルーチンの詳細な典型的な具体例を示す。図2に示すように、フィルタ処理画像解析回路/ルーチン310は、候補フィルタ処理選択回路/ルーチン311、特徴画像生成回路/ルーチン312、注目領域生成回路/ルーチン313、注目領域比較回路/ルーチン314を含み、これらは、夫々データ/制御バス140により又は直接的に相互に接続される。エッジポイント解析回路/ルーチン370は、スキャンライン決定回路/ルーチン377、エッジポイント検出回路/ルーチン378、及びエッジポイント修正回路/ルーチン379を含み、これらは、夫々データ/制御バス140により又は直接的に相互に接続される。境界位置決め修正回路/ルーチン380は、形状解析回路/ルーチン381、境界外除去回路/ルーチン382、及びエッジ位置決定回路/ルーチン383を含み、これらは、夫々データ/制御バス140により又は直接的に相互に接続される。エッジモード決定回路/ルーチン390は、エッジ設定ツール判断回路/ルーチン391、及び注目範囲解析回路/ルーチン392を含み、これらは、夫々データ/制御バス140により又は直接的に相互に接続される。
フィルタ処理画像解析回路/ルーチン310の様々な典型的な具体例では、要素311〜314が以下のように作動する。
候補フィルタ処理選択回路/ルーチン311は、候補フィルタ処理に対応する特徴画像又はそれに類似するものを得るために入力画像に適用される候補フィルタ処理の組を選択する。候補フィルタ処理は、フィルタ処理メモリ部132に含まれるフィルタ処理の組から選択され、典型的な一具体例においては、フィルタ処理メモリ部132は候補フィルタ処理の1つ以上の予め決められたグループを含む。個々のそのようなグループは、エッジ検出を高めること、及び検出すべきエッジ周りの特性の特定の傾向を示す画像を位置決めすることに関係するフィルタ処理を含む。候補フィルタ処理選択回路/ルーチン311は、入力画像の特性に応じて特定の候補フィルタ処理を選択する。そのような特性は、例えば、検出すべきエッジの一方の側又は両側に有効なテクスチャがあるか否か、画像が白黒画像又はカラー画像であるか否か等、以下にさらに述べるようなものを含んでもよい。様々な画像のために、候補フィルタ処理選択回路/ルーチン311は、フィルタ処理メモリ部132中のフィルタ処理をすべて選択してもよい。様々な典型的な具体例では、候補フィルタ処理選択回路/ルーチン311は自動的に候補フィルタ処理を選択し、また、他の典型的な具体例では、この選択はユーザ入力に基づく。
様々な典型的な具体例では、候補フィルタ処理選択回路/ルーチン311によって選択可能な候補フィルタ処理の予め決められた部分集合は以下のものを含む。即ち、Sobelオペレータの勾配に基づいて1つ以上の特徴画像を確立するフィルタ処理を含む部分集合、Law’sフィルタ処理、即ち、5×5(場合によっては3×3)画素マスク又はウィンドウを組込んだ25個のフィルタ処理の組、に基づいて1つ以上の特徴画像を確立するフィルタ処理を含む部分集合、及びガボールフィルタ処理に基づいて1つ以上の特徴画像を確立するフィルタ処理を含む部分集合である。検出すべきエッジがそのエッジの一方の側に有効なテクスチャを含みそのエッジの反対側に有効でないテクスチャを含むときに発明者がSobel勾配フィルタ処理を用いると効果があった。検出すべきエッジがそのエッジの両側で有効且つ明確なテクスチャ及び/又は方向性のある特徴を含むときに発明者がガボールフィルタ処理を用いると効果があった。また、カラー画像における色領域の境界を検出するために、発明者は移動平均フィルタ処理を用いると効果があった。
これらの様々なフィルタ処理の部分集合は、夫々短、中、及びより長い実行時間で作動する傾向がある。従って、それらを特定の注目範囲内の適切なテクスチャ条件と合うように都合よく選択する。様々な典型的な具体例では、候補フィルタ処理選択回路/ルーチン311は、後述する注目範囲解析回路/ルーチン392と類似又は相互に影響を与える作動を含み、注目範囲にあるエッジの両側の評価領域において1つ以上のテクスチャの特性を測定する。その後、候補フィルタ処理選択回路/ルーチン311は、テクスチャ測定結果を様々な候補フィルタ処理グループに関連する予め決められた基準と比較し、適切な予め決められた候補フィルタ処理部分集合を選択する。例えば、低い変動値が境界の一方の側にあるときは、前述したSobel型フィルタ処理を用いることができる。方向性のあるテクスチャ特性が検出されたときは、ガボールフィルタ処理を用いることができる。わずかに方向性のないテクスチャが境界の両側で検出されるときは、Law’sフィルタ処理を用いることができる。カラーフィルタ処理はカラー画像等に用いることができる。様々なテクスチャを特徴づける方法は、当業者にとって周知であり、本明細書で引用した文献においても論じられている。
既知であるか又は最近開発されたフィルタ処理及び/又は1連の画像フィルタ処理方法は本発明の方法の様々な具体例で用いることができることは認識すべきである。
さらに、用語「候補フィルタ処理」及び「選択フィルタ処理」、又は「ケース特有フィルタ処理」は、本明細書の様々な典型的な具体例で用いられているように、特定のフィルタ処理機能を用いたフィルタ処理画像、局所エネルギー関数をフィルタ処理画像に適用した結果得られる特徴画像、特徴画像に基づいて標準化された特徴画像等を生成するために必要なすべての機能又は構成要素を含んでもよいことは認識すべきである。また、従来型画像を特徴づけるのに適している現在既知であるか又は最近開発された計量値を決定するのに必要な機能又は作動を含んでもよい。より一般的には、候補フィルタ処理及び選択フィルタ処理という用語は、特定のフィルタ処理機能だけでなく特定のフィルタ処理に関連する独特の機能又は構成要素を含む。フィルタ処理画像解析回路/ルーチン310及び/又は特徴画像生成回路/ルーチン312及び/又は注目領域生成回路/ルーチン313は、用いられなければならず、様々な典型的な具体例において、その特定フィルタ処理を、その機能に応じて1つ以上の部分フィルタ処理画像結果を生成するために用いなければならない。このように、候補フィルタ処理及び選択フィルタ処理という用語は、本明細書で用いられるように、後述する特定のフィルタ処理機能に応じて対応する部分フィルタ処理画像結果を決定するのに必要なすべての独特の要素を指す。本明細書では、それらの範囲が様々な典型的な具体例に及ぶためにフィルタ処理及びフィルタ処理のグループも時にはフィルタ処理方法を指す場合がある。
特徴画像生成回路/ルーチン312は、選択候補フィルタ処理に基づいて少なくとも1つの特徴画像等を生成する。特徴画像生成回路/ルーチン312を、注目範囲生成部150により生成された注目範囲に従って元の入力画像に適用する。典型的な具体例では、特徴画像Fkを各候補フィルタ処理kに対して生成する。特徴画像は、一般に、特定のフィルタ処理機能で入力画像データをフィルタ処理し、そのフィルタ処理された画像データに局所エネルギー関数を適用することにより生成する。局所エネルギー関数は、一般に、フィルタ処理された画像データに表された画像信号を修正し、且つ滑らかにする。典型的な局所エネルギー関数は特徴画像の各画素値を決定するために各画素を囲むウィンドウ中のフィルタ処理画像の画素値の大きさを集計することと、特徴画像の各画素値を決定するために各画素を囲むウィンドウ中のフィルタ処理画像の画素値の二乗を集計することを含む。
さらに、典型的な具体例では、各特徴画像を、さらに後述するように、各候補フィルタ処理に対応して部分フィルタ処理画像結果がより容易に比較されるように標準化することができる。この場合、本明細書では、標準化された特徴画像は、記号Fkによって表される特徴画像である。標準化方法は、当業者にとって周知のものである。例えば、各特徴画像の画素値は、平均0分散1である範囲に標準化することができる。一般に、既知であるか又は最近開発された標準化方法を用いることができる。
注目領域生成回路/ルーチン313は、自動的に又はユーザにより注目範囲近傍に様々な注目領域を規定する。注目領域生成回路/ルーチン313は、また、注目領域に基づいて「部分フィルタ処理画像結果」を決定する。部分フィルタ処理画像結果は、特徴画像生成回路/ルーチン312によって生成された各特徴画像Fkにある各注目領域に対して決定される。注目領域内の各部分フィルタ処理画像結果は、様々な典型的な具体例では、フィルタ処理画像であってもよいし、フィルタ処理画像に局所エネルギー関数を適用した結果得られた特徴画像であってもよいし、標準化された特徴画像等であってもよいし、従来型画像又はそれらの変形例を特徴づけるのに適している現在既知であるか又は最近開発された計量値であってもよい。典型的な具体例では、注目領域内の部分フィルタ処理画像結果は、その注目領域の標準化された特徴画像Fkの画素値の平均値である。「部分」フィルタ処理画像結果は、「中間」結果として理解すべきであり、1つ以上の「最終の」フィルタ処理画像結果を決定するために用いてもよく、本明細書では、単に「フィルタ処理画像結果」と呼称してもよい。フィルタ処理画像又は特徴画像のためのフィルタ処理画像結果は、一般に、本明細書に記載される方法及びシステムによって検出すべき境界を強調、即ち分離する画像の能力を示す。
注目領域生成回路/ルーチン313は、適切に配置されたエッジ設定ツールに関連したデータ及び/又は注目範囲生成部150の作動に基づいて注目領域を生成する。注目領域は、各特徴画像Fkと同一、即ち一致する。典型的な一具体例では、注目領域は、注目範囲に位置するエッジのほぼ中央位置に対称的に位置する1つ以上の対として規定される。中心位置は、また、後述する位置P0であってもよい。より一般には、注目領域は、注目範囲内の境界の向かい合う側にある少なくとも一対の領域を含む。注目領域は、注目範囲内の境界及びその境界の比較的近傍の一方の側に表された典型的なテクスチャ特性をすべて捕捉するのに十分な大きさであるべきである。注目範囲内の境界及び/又はその境界上の中心位置を囲む多数の注目領域の生成には、2つの長所がある。第1に、注目範囲内にかき傷や汚れのような変則的なテクスチャがあるとき、注目領域のいくつかにはその変則的なものがないであろう。第2に、多数の範囲を一般的な方法で自動的に生成することができ、後述するように、注目領域比較回路/ルーチン314は、適切な代表注目領域対を発見する好機をもたらす。典型的な注目領域を図4を参照しながら説明する。
注目領域比較回路/ルーチン314は、境界の両側のテクスチャの差分を最も良く表す代表注目領域対を選択するために、様々な注目領域で予め決定された部分フィルタ処理画像結果を比較する。典型的な一具体例では、注目領域比較回路/ルーチン314が、注目領域生成回路/ルーチン313によって対称的に位置する注目領域対毎に決定される特徴画像の計量値間の差分を決定される。この差分は、各特徴画像Fkの中の各注目領域対のために決定する。特徴画像の計量値は、例えば、前述した各注目領域の標準化された特徴画像Fkの画素値の平均値であってもよい。その後、注目領域比較回路/ルーチン314は、境界の両側のテクスチャの差分を最も反映する代表注目領域(RROI1とRROI2)として最も大きな差分を示す注目領域対を選択する。
別の典型的な具体例では、注目領域比較回路/ルーチン314は、各注目領域対の合成値結果を決定し、次に、その合成値に基づいてRROI1及びRROI2を選択する。個々の合成値結果は、特徴画像Fk夫々の部分画像結果を組み込む。典型的な具体例では、フィッシャー距離又は基準として知られている基準が各特徴画像Fk内で対称的に位置する注目領域対毎に決定された夫々の部分フィルタ処理画像結果を比較するために用いられる。フィッシャー距離は、2つの要素の平均の差分の2乗の値を分子、2つの要素の分散の合計値を分母とする商である。第1に、フィッシャー距離は、各特徴画像Fkの2つの注目領域内の特徴画像画素データである2つの要素用として決定される。第2に、各注目領域対の合成値結果は、すべての特徴画像Fkのための注目領域対用のフィッシャー距離の合計として決定される。最大の合成値結果を有する注目領域対は、代表的注目領域RROI1及びRROI2として選択される。アナログのフィッシャー距離手続きが、各特徴画像Fkの夫々のフィッシャー距離を決定することなく、根本的な特徴画素データに適用しうることは認識すべきである。
注目領域比較回路/ルーチン314が一旦代表的な一対の注目領域、RROI1及びRROI2を選択すると、図1を参照して前述したケース特有フィルタ処理選択回路/ルーチン350が候補フィルタ処理から最良のケース特有フィルタ処理を選択する。そのようなフィルタ処理を本明細書では選択フィルタ処理と呼ぶ。最良のケース特有フィルタ処理は、現在の注目範囲内のエッジポイントを最も強調、即ち分離するフィルタ処理である。
特定の候補フィルタ処理が特定の生成された特徴画像Fkに相当すると共に、関連する部分フィルタ処理画像結果及び全体フィルタ処理画像結果に相当することは認識すべきである。さらに、選択特徴画像Fjが選択されると同時に選択フィルタ処理jが有効に選択されることは認識すべきである。従って、様々な典型的な具体例では、ケース特有フィルタ処理選択回路/ルーチン350は、特徴画像Fkの候補の組から特徴画像Fjの部分集合を選択することにより候補フィルタ処理の選択を修正する。この選択は、候補特徴画像FkのRROI1及びRROI2に対応するフィルタ処理画像結果の検討に基づく。
この選択は、エッジ検出に有用な疑似画像を生成するために、元の画像又は類似の画像に適用すべきフィルタ処理の数を減らすために行われる。最も有用なフィルタ処理だけを選択することにより、より速いエッジ検出を達成し、且つ/又は本発明の方法を用いてエッジ検出する精度及び信頼度を改善することができる。一般に、注目範囲中の境界において2つの対向する側のテクスチャの差分を有効に強調しない候補フィルタ処理は除去される。特に、RROI1及びRROI2中のテクスチャの差分を有効に強調しない候補フィルタ処理は除去される。
典型的な一具体例では、上述したように、注目領域比較回路/ルーチン314は、各候補特徴画像FkのRROI1及びRROI2のための代表的なフィッシャー距離(R−フィッシャー距離)を決定している。そのような場合は、有効なR−フィッシャー距離が注目範囲中の境界を強調するのに役立つフィルタ処理に相当するので、ケース特有フィルタ処理選択回路/ルーチン350は、有効なR−フィッシャー距離を有する特徴画像を選択する。典型的な一具体例では、すべての候補画像Fk用のR−フィッシャー距離が比較され、最大のR−フィッシャー距離が決定される。その後、その最大のR−フィッシャー距離の50%以上のR−フィッシャー距離を有する特徴画像/フィルタ処理はすべて、選択特徴画像Fj及び/又は選択フィルタ処理jとして選択される。この具体例の延長上では、予め選択されたフィルタ処理のうち最も優れたものの多くとも5つは、選択フィルタ処理として保持される。前述した選択技術は、特徴画像Fj及び/又は選択フィルタ処理jの最適の部分集合を生成しないことが知られている。一般に、特徴画像の「最適の」部分集合を得るには、処理装置の処理能力及び/又は時間の消費の徹底的な方法を必要とする。従って、徹底的に最適化する技術は、本発明の方法が意図する適用範囲では現在のところ望ましいものでない。
既知であるか又は最近開発されたフィルタ処理選択技術は、特徴画像Fjの部分集合及び/又は選択フィルタ処理jを選択するために用いることができることは認識すべきである。また、特徴画像Fjの部分集合が特徴画像Fkの候補組未満であっても、特徴画像Fjの部分集合は特徴画像Fkの候補の組と等しくなりえることは認識すべきである。さらに、ケース特有フィルタ処理選択回路/ルーチン350が一旦特徴画像Fjの部分集合及び/又はフィルタ処理jを選択すると、注目領域比較回路/ルーチン314は、今度は選択特徴画像Fjのみに基づいてRROI1及びRROI2を再度決定するために最適に用いることができることは認識すべきである。異なるRROI1及びRROI2が結果として生じてもよく、且つ、RROI1及びRROI2は、引き続くケース特有作動のために用いられるべきである。
また、当業者であれば明らかなように、本発明の方法に用いることができる特徴選択技術の様々な代替手段があることは認識すべきである。さらに、特徴選択技術の代替手段として、特徴抽出技術が知られており、これはケース特有フィルタ処理選択回路/ルーチン350の様々な作動及び上記概説した要素311〜314に関連する作動の代わり、又は、これらに追加して用いることができる。例えば、アカデミック出版から1990年サンディエゴで出版されたフクナガ・ケイノスケ著の統計的パターン認識序論(Introduction to Statistical Pattern Recognition, by Keinosuke Fukunaga, Academic, San Diego, 1990)という本にある「信号表現のための特徴抽出及び線形写像(Feature Extraction and Linear Mapping for Signal Representation)」というタイトルの章を参照されたい。さらに、Sobelフィルタ処理、Law’sフィルタ処理、ガボールフィルタ処理は、多数の代替フィルタ処理と同様に、また、フィルタ処理された画像、特徴画像、特徴ベクトル、分級ベクトル、特徴抽出及び疑似画像等を生成するためにそれらの様々な使用及び実行と同様に、当業者によく知られている。例えば、1999年4月のIEEE会報「パターン解析及び人工知能」のVol.21,No.4にある「テクスチャ分類のためのフィルタ処理:比較研究」("Filtering for Texture Classification: A Comparative Study", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.21, No. 4, April 1999)を参照されたい。また、一般的な特徴選択及び抽出については、アメリカのオックスフォード大学出版社から1999年ニューヨークで共同出版されたアンドリュー・ウェッブ著の統計的パターン認識("Statistical Pattern Recognition", by Andrew Webb, co-published in the USA by Oxford University Press Inc., New York, 1999)や、1980年SPIE会議会報「ミサイル誘導のための画像加工」の376〜380頁にある「迅速なテクスチャ識別」("Rapid Texture Identification", Proc. SPIE Conf. Image Processing for Missile Guidance, pp. 376-380, 1980)や、1991年「パターン認識」のVol.24, No.12の1167〜1168頁("Pattern Recognition", vol. 24, no. 12, pp. 1,167-1,168, 1991)にある「ガボールフィルタ処理を用いる未管理テクスチャの区分化」を参照されたい。
さらに、本発明の方法の様々な典型的な具体例は、本明細書中では、画像、フィルタ処理画像、特徴画像及び/又は疑似画像を決定するか抽出するように、また同様に、様々な部分フィルタ処理画像結果と、フィルタ処理画像結果と、これらの様々な画像のタイプを評価・比較するのに用いることができる画像の計量値とを決定するように述べているが、これらの用語が、本発明の方法の様々な具体例において相互に排他的ではないことは認識すべきである。例えば、本発明で用いられる数式の変形及びアルゴリズムの性質から明らかであるように、フィルタ処理画像の部分又は特徴画像はまた、関連部分フィルタ処理画像結果として作動するか、これらの結果を推論することができるものとしてもよい。従って、これらの用語は、様々な作動を説明する目的で本明細書中の様々な情況で用いられるが、故意に相互に排他的な意味で用いられることはない。
特に、本明細書中の様々な作動は、1つ以上の特徴画像、部分フィルタ処理画像結果及び/又はフィルタ処理画像結果を決定するものとして説明する。様々な他の作動は、以前に決められた画像及び/又は結果に基づいて、即ちこれらの中から選択するものとして説明する。関連する決定・選択タイプの作動間の境界線は大部分は任意であることは認識すべきである。例えば、より基本的な特徴画像、部分フィルタ処理画像結果及び/又はフィルタ処理画像結果は、本発明の目的を達成するために、より基本的な要素の不足を補う、より修正されたセレクタによって選択することができるようにしてもよいことは明らかである。反対に、本発明の目的を達成するために、より基本的な要素の不足を補うより基本的なセレクタをより多くの修正された特徴画像、部分フィルタ処理画像結果及び/又はフィルタ処理画像結果と共に用いてもよいことは明らかである。従って、様々な典型的な具体例では、「決定」及び「選択」に関連した様々な作動を、交換し、併合し、判別不能としてもよいことは認識すべきである。
ケース特有フィルタ処理選択回路/ルーチン350が一旦特徴画像Fj及び/又は選択フィルタ処理jの部分集合を選択すると、疑似画像生成回路/ルーチン360は、図1を参照して前述したように、本明細書においてケース特有フィルタ処理と呼ばれる選択フィルタ処理jに基づいて疑似画像を生成するために作動する。
典型的な一具体例では、標準化された特徴画像Fjの1組がメモリ130から現在生成されず、即ち利用可能でないとき、疑似画像生成回路/ルーチン360は、特徴画像生成回路/ルーチン312に前述した作動によってケース特有フィルタ処理jの部分集合に基づいて標準化された特徴画像Fjの1組を生成させる。その後、疑似画像生成回路/ルーチン360はRROI1及びRROI2に対応する一対の分級ベクトルCV1及びCV2を夫々決定する。
分級ベクトルCV1は、ケース特有フィルタ処理jに対応する標準化された特徴画像Fjの各々のRROI1中の画素データの平均値を含むことができる。従って、nを上記概説したように、ケース特有フィルタ処理選択回路/ルーチン350により選択されたケース特有フィルタ処理jの数としたとき、CV1の次元はnである。CV2は、標準化された特徴画像Fj各々のRROI2の中の画素データに基づいて同様に決定された同様のベクトルである。分級ベクトルCV1及びCV2の決定後、疑似画像生成回路/ルーチン360は、エッジ位置決め作動の現在の組を実行するのに用いられるであろう疑似画像を生成する。疑似画像は、少なくとも前述した注目範囲のために生成する。この典型的な具体例は、分級ベクトルCV1及びCV2と標準化された特徴画像Fjのデータとの比較に基づいている。
疑似画像生成回路/ルーチン360は、分級機を用いて疑似画像を生成することができる。この分級機はデータ集合制御技術でありうる。この場合、注目範囲中の画素の空間位置に対応する特徴ベクトル、即ち、画素特徴ベクトルとも呼ばれるものは、メンバーシップ等級によって指定されたクラスタ又は領域に属するように決定される。本明細書で用いられているように、画素特徴ベクトル(PFV)は、ケース特有フィルタ処理jに対応して標準化された特徴画像Fjの各々の対応空間位置に対する特徴画素値を含む。従って、nを上記概説したようにケース特有フィルタ処理選択回路/ルーチン350により選択されたケース特有フィルタ処理jの数としたとき、画素特徴ベクトルの次元はnである。さらに、PFVの要素は、CV1とCV2の要素と同様に処理されるものであり、また、同じ根本的な特徴画素データ、例えば標準化された特徴画素データに基づいている。従って、PFVとCV1及びCV2とに対応する要素は有効なものとして比較してもよい。
少なくとも注目範囲の各画素位置は、疑似画像生成回路/ルーチン360によって順に選択される。分級機は、疑似画像生成回路/ルーチン360により対応する画素特徴ベクトルに適用され、その画素特徴ベクトルがROI1に対応するCV1により似ているか、ROI2に対応するCV2により似ているか否かを決定する。例えば、ユークリッドの距離は現在のPFVとCV1又はCV2との間の夫々の距離を決定するために用いてもよい。CV1又はCV2のユークリッドの距離は、現在のPFVとCV1又はCV2とに対応する要素間の差分の2乗の合計である。ユークリッドの距離がより小さいほど、そのユークリッドの距離によって比較された2つのベクトルはより相似形のものとなる。ユークリッドの距離、即ちユークリッドの距離を構成する要素に基づいて、メンバーシップ値が決定され、現在評価された画素特徴ベクトルに対応する疑似画像の画素に割り当てられる。
ある意味では、疑似画像の画素値は、RROI1の境界側又はRROI2の境界側にその画素が「属する」程度を示す。典型的な具体例では、各疑似画素はRROI1の境界側に対する完全なメンバーシップを表す0.0と、RROI2の境界側に対する完全なメンバーシップを表す1.0との間の値が割り当てられる。
1つの特定の具体例では、メンバーシップ値は、本明細書に参考文献として組み込まれている1984年の「コンピュータと地球科学」Vol.10, No.2〜3の191〜203頁にある「FCM:ファジィc−平均クラスタリングアルゴリズム」("FCM: The fuzzy c-Means Clustering Algorithm", Computers & Geosciences, Vol. 10, No. 2-3, pp 191-203, 1984)の記事に記載されるファジィc−平均分級機に基づいて修正されたファジィc−平均分級機を用いて下記のように決定される。この記事で規定される記号を使用して、分級機のパラメータは、c=2(2つのクラスタ)、m=2(重み付けべき指数)、v=CV1,CV2(本明細書中で規定される中心ベクトル)、norm=ユークリッドの距離、n=データ数=ツールの注目範囲中の画素数として設定される。このアルゴリズムの好ましい修正版では、反復は無く、また、クラスタリングをクラスタv=CV1,CV2である初期の中心で実行する。十分に規定された原型のクラスタCV1,CV2が用いられるので、最初の反復、つまり最初の分類の後にクラスタリングを止めても、好結果が得られる。境界の近傍のメンバーシップ値の分散を強調することにより、このパラメータの組が非線形の分類を生産することは認識すべきである。
一般に、このファジィクラスタリングアルゴリズムは2つのメンバーシップ画像を生成する。第1のメンバーシップ画像は、クラスタ1に対する各画素のメンバーシップ値で、第2のメンバーシップ画像は、クラスタ2に対する各画素のメンバーシップ値である。しかしながら、各画素位置に対するメンバーシップの合計が我々の場合は単一でなければならないので、メンバーシップ画像は追加的であり、且つ我々はそれらの1つを決定すれば足りる。
1組の特徴画像に基づいて様々な疑似画像を生成するための種々様々の代替手段があることは認識すべきである。そのような代替手段は、代替ファジィ分級機、神経分級機、隠しマーク付けモデル、又は本発明に用いることができる1組の疑似画像の画素値を生成することができる既知であるか又は最近開発された他のすべての技術又はアルゴリズムを含む。さらに、別のタイプの分類、即ち疑似画像の生成が実行されるときは、上述のメンバーシップ関数作動が、各画素位置に対応する様々なフィルタ処理画像結果又は特徴画像結果に重み付け因子を適用する他の適切な作動と取り替えることにより、それらがRROI1又はRROI2の特性に類似することに基づいてより大きいか又はより小さい値にそれらを一致させてもよいことは認識すべきである。本発明の方法で用いることができる様々な代替手段は、当業者にとって明らかなものである。
前述の疑似画像生成回路/ルーチン360が一旦現在の疑似画像を生成すると、エッジポイント解析回路/ルーチン370は、図1を参照して前述したように、注目範囲内の境界に沿って1つ以上のエッジポイントを決定するために作動することができる。エッジポイント解析回路/ルーチン370の様々な典型的な具体例では、要素377〜379は以下のように作動することができる。
スキャンライン決定回路/ルーチン377は、イリノイ州オローラに所在地のあるミツトヨアメリカ社(MAC)から購入可能なQUICK VISION(登録商標)シリーズのビジョン検査機械及びQVPAK(登録商標)のソフトウェアのように、商業利用できるマシンビジョンシステムの中で使用されるような既知の方法により、1つ以上のエッジ検出スキャンラインと、スキャンラインを「横断」する方向、即ち極性を決定することができる。一般に、スキャンライン決定回路/ルーチン377は、入力画像上に適切に位置するエッジ設定ツール及び/又は注目範囲生成部150の作動に関連したデータに基づいてスキャンラインを決定する。オペレータ入力によりスキャンラインの間隔、即ち、5又は20の画素単位のようなデフォルト値を変更してもよく、注目範囲の幅の割合を自動的にデフォルト値として設定することもできる。スキャンラインは疑似画像中の境界を横切って延びる。エッジ検出作動を実行するためにスキャンライン横断する方向、即ち極性は、エッジの近傍の疑似画像の特性に基づいて決定される。一般に、スキャンラインを横断する方向を、より変動値の小さい領域からより変動値の大きい領域に移行させることができる。より一般的には、スキャンラインを横断する方向を、よりノイズが小さいエッジ検出結果を呈する方向に移行させるべきである。
エッジポイント検出回路/ルーチン378は、既知であるか又は最近開発されたエッジポイント検出作動に従ってスキャンライン決定回路/ルーチン377により決定された各スキャンラインに沿ったエッジポイントを評価する。疑似画像中の各スキャンラインに沿った値は、一次元の信号を構成する。典型的な一具体例では、エッジポイントが疑似画像中のスキャンライン信号に沿った最大勾配の点である。白黒の強度画像等で用いられる既知であるか又は最近開発されたエッジ検出作動を疑似画像中のエッジ位置を検出・評価することに適用してもよいことは認識すべきである。
エッジポイント検出回路/ルーチン378はまた、メモリ130の1つ以上の部分で推定エッジポイントに関連した1つ以上のエッジ検出パラメータを記録し、ケース特有エッジ検出作動をエッジ検出及び/又はエッジポイント信頼度評価のために記録されたパラメータを用いて自動的に動作しうるようにしてもよい。そのようなパラメータは、エッジ上の画素値変化、エッジ上の画素値増加方向、しきい値を超えた画素値変化を含むエッジ上のスキャンラインの数又は割合等のような、エッジを特徴づけるスキャンラインの疑似画素値プロファイルの様々な特性を含んでいてもよい。典型的な一具体例では、各特性の平均値は、その後実行されるケース特有自動「実行時間」エッジ測定の基準として記録される値である。これはかなり高い初期信頼度を有するエッジポイントだけを検出する傾向にある。
その後、エッジポイント修正回路/ルーチン379は、追加情報に基づいて、1つ以上の初期のエッジポイント推定値を修正する作動を実行してもよい。典型的な一具体例では、エッジポイント修正回路/ルーチン379が、通常はスキャンラインと平行な1方向に沿った初期の推定エッジポイントの両側に延びる局所領域の複数の画素位置について解析作動を実行する。典型的な一作動例では、選択・検出されたエッジポイントのスキャンラインに沿った最も接近している多くの画素位置qに関連したデータが初期の推定エッジポイントの位置を修正するために用いられる。初期の推定エッジポイントを囲む画素位置qに属する各画素位置iのために、エッジポイント修正回路/ルーチン379は、特徴画像生成回路/ルーチン312によって生成されると共に、ケース特有フィルタ処理選択回路/ルーチン350によって選択された特徴画像の現在の組におけるこれらの特定の画素位置に基づいて、 画素位置(i+1)と 画素位置(i−1)の間の上述したユークリッドの距離を算出する。画素位置qの各々に位置するこれらのユークリッドの距離の値はカーブを形成する。その後、解析作動は、カーブの下のエリアに対する重心の位置を決定する。重心の位置は、その画素位置に関して存在し、従って、スキャンラインに沿って修正されたエッジポイント推定値を決定する。典型的な一具体例では、エッジポイント修正回路/ルーチン379はこの重心の位置決め作動を用いて各初期のエッジポイントの推定を修正する。
エッジポイント修正回路/ルーチン379は、初期に決定されたエッジポイントを有効にし、それらの信頼度を増加させるために、図14及び図15のステップS1651〜S1662及び/又は図17のステップS2520〜S2560を参照して後述するような作動を実行してもよい。様々な他の典型的な具体例では、エッジポイント修正回路/ルーチン379は、境界位置決め修正回路/ルーチン380と相互に作用し、図1を参照して前述したように修正されるエッジポイントを決定する。
エッジポイント修正回路/ルーチン379は、また、エッジポイント検出回路/ルーチン378によって以前に決定及び/又は記録が行われた1つ以上のエッジ検出パラメータを修正してもよい。さらに、メモリ130の1つ以上の部分で修正されたエッジポイントに関する1つ以上のエッジ追加エッジ検出パラメータを追加又は記録して、エッジ検出及び/又はエッジポイント信頼度評価のため記録されたパラメータを用いてケース特有エッジ検出作動を自動的に実行することができるようにしてもよい。
境界位置決め修正回路/ルーチン380の様々な典型的な具体例では、要素381〜383を以下のように作動させることができる。
形状解析回路/ルーチン381は、複数の推定エッジポイントを解析し、それらが信頼できるエッジ検出の基準に相当するか否かを決定する。典型的な一具体例では、基準は、推定されたポイントに合ったライン(曲線でもよい)と予期されたエッジ形状との間の偏差に基づいた形状評価に対するしきい値と、推定ポイントに合ったラインと予期されたエッジ位置との間の偏差に基づく位置評価に対するしきい値と、推定エッジポイントに合ったラインからの個々のエッジポイント距離の標準偏差に基づく境界外除去しきい値とを含む。予期されたエッジ形状及び位置は、ビジョンシステム10のオペレータがエッジ設定ツールの選択及び配置をすることによって、他のユーザ入力によって設定されたり、また、様々なCADデータ作動に基づいて自動的に設定されたりする。形状解析回路/ルーチン381の作動の結果に基づいて、境界外除去回路/ルーチン382は、除去・修正用の境界外除去しきい値基準に満たない1つ以上のエッジポイントを選択する。様々な典型的な具体例では、エッジポイント修正回路/ルーチン379は前述したエッジポイントの推定の修正を実行し、形状解析回路/ルーチン381と境界外除去回路/ルーチン382とは、信頼性の高いエッジや信頼性の低いエッジを構成する残りの推定エッジポイントが最終的に決定されるまで、複数の推定・修正されたエッジポイントを循環的に解析する。信頼性の低いエッジについては、境界外除去回路/ルーチン382が、データ/制御バス140に対応エラー信号を出力する。様々な典型的な具体例では、形状解析回路/ルーチン381及び境界外除去回路/ルーチン382の作動は合併されたり、判別不能となったりしてもよいことは認識すべきである。信頼性の高いエッジについては、エッジ位置決定回路/ルーチン383が、最終推定エッジポイント及び/又は他の由来するエッジ位置パラメータを含んでもよい最終エッジ位置データを決定し、そしてメモリ130の1つ以上の部分及び/又は入力/出力インターフェース110にデータ/制御バス140でデータを出力する。
エッジモード決定回路/ルーチン390の様々な典型的な具体例では、要素391〜392が以下のように作動することができる。
エッジ設定ツール判断回路/ルーチン391は、各特定のエッジのケースに対して、様々な他の要素が、その特定のエッジのケースに関連したエッジ設定ツールデータに基づいてエッジ検出作動を行うための作動の適切なモードを決定する。適切な作動モードは、注目範囲の特定のエッジが、前述したように入力画像に適用されたエッジ検出作動又は疑似画像に適用されたエッジ検出作動によって適切に解析されるか否かに基づく。第1の典型的な具体例では、独特なエッジ設定ツールが、明確なエッジのための入力画像エッジ検出と、重要なテクスチャを有するエッジのための疑似画像エッジ検出との夫々に排他的に関連する。そのような場合、エッジ設定ツール判断回路/ルーチン391は、現在のエッジの場合に関連したエッジ設定ツールのタイプを判断し、それに従って作動する。第2の典型的な具体例では、エッジ設定ツールはチェックボックス又はそれに類似するような第2の選択可能な機構を含み、この機構は、明確なエッジのための入力画像エッジ検出と、重要なテクスチャを有するエッジのための疑似画像エッジ検出との夫々に排他的に関連する。そのような場合、エッジ設定ツール判断回路/ルーチン391は、現在のエッジの場合に関連した第2の選択可能な機構を判断し、それに従って作動する。
しかしながら、様々な他の典型的な具体例では、1つ以上のエッジ設定ツールが、明確なエッジのための入力画像エッジ検出又は重要なテクスチャを有するエッジのための疑似画像エッジ検出に排他的に関連する特性又は特徴を備えることができない。そのような場合、注目範囲解析回路/ルーチン392は適切なエッジ検出モードを決定することができる。ここで、注目範囲解析回路/ルーチン392は、注目範囲にあるエッジの両側の評価領域における局所変動値のような、少なくとも1つのテクスチャ特性を自動的に決定することができる。評価領域の位置は、適切に位置したエッジ設定ツールに関連するデータ及び/又は注目範囲生成部150の作動に基づく。そのとき、注目範囲解析回路/ルーチン392は、決定されたテクスチャ特性に基づいてエッジ検出の適切なモードを自動的に選択することができ、特定のエッジに対してエッジ検出作動を実行する様々な他の要素のための適切な作動モードを設定する。
図3は、本発明の方法を用いて検出・位置決めできる重要なテクスチャを有するエッジを備える対象物の例の2画像を示す。画像400は、本発明の方法の様々な具体例で正確に位置決めできるエッジ/境界406を含む。画像400は、画像400の第1の部分402と画像400の第2の部分404の間に存在するエッジ/境界406を備える。画像400は、図1を参照して説明したビジョンシステム10によって捕捉された対象物20の画像である。
本発明の方法を実行モード中にエッジ又は境界を位置決めするために自動モードで用いうる状態となる前に、本発明の方法及は、特有の画像由来パラメータを用いて特定のエッジを検出するために設定されなければならない。ビジョンシステム10によって捕捉された画像を用いるときに、その捕捉された画像は、エッジ位置決め作動で入力画像500として用いられる。図3は、本発明の方法で用いることができる入力画像500の典型的な一具体例を示す。入力画像500は、入力画像500にある第1の部分502及び第2の部分504間内に規定されるエッジ506を有する。
入力画像500を捕捉した後に、入力画像500は表示装置102上に表示され、その結果、ユーザはグラフィカル・ユーザ・インターフェースを用い、且つ、境界ツール又はエッジ検出ツールと呼ばれることもある境界検出ツールで位置決めすることにより、検出すべき特定のエッジ又はエッジの一部について注目範囲を規定することができる。注目範囲は、その位置決めされたエッジ設定ツールに対応するデータに基づいて注目範囲生成部150によって規定される。1つの典型的な境界ツール508は、ユーザによって形成しうる注目範囲の輪郭の描画・決定用のボックス505を含む。例えば、このボックス505は、円弧又は円形、又は図3で示されるような長方形で形成されてもよい。しかしながら、ユーザ又は自動プロセスによって注目範囲が規定されうるあらゆる形で境界検出ツール508を描くことができることは認識すべきである。境界ツール508は、また、図3で重なった同一の長方形をとして示される注目領域指標512を含む。様々な他の具体例では、エッジ設定ツールがエッジポイントツールであり、また、注目範囲及び注目領域の指標は表示装置102上で示されないが、夫々前述した注目範囲生成部150及びフィルタ処理画像解析回路/ルーチン310によって、ユーザにより位置決めされる単純なポイント・カーソルに基づいて自動的に決定する。様々な他の典型的なエッジ設定ツールは、以前に参照した商業上利用可能なマシンビジョンシステム等で明らかである。
境界検出ツール508が入力画像500上に描画された後、ユーザは、境界ツール508によって境界づけられる注目範囲内に注目ポイント(P0)を規定することができる。これに代えて、注目ポイントP0は、境界検出ツール508の位置に相対して自動的に決定され、また表示装置102上で見ることができなくてもよい。注目ポイントP0は、一般に、場合によっては、単に境界又はエッジ上の1ポイントを示すに過ぎない。ユーザは、また、このポイントP0に注目するようにエッジ位置決め作動を指示することができる。さらに、ユーザは、注目範囲中の境界を横切って延びる様々な「スキャン」ライン509間の距離を規定することができる。これに代えて、前述した境界検出ツール作動及び情報に基づいて、前述したエッジポイント解析回路/ルーチン370は、自動的にスキャンライン509及びエンドポイント間、即ち、注目範囲中の境界を横切って延びる各スキャンライン509の(x1,y1)(x2,y2)間の距離を決定することができる。同様に、前述したフィルタ処理画像解析回路/ルーチン310は、注目領域指標512によって示された注目領域の位置を自動的に決定することができる。従って、境界検出ツール508に関連した作動を、予め定められた境界検出ツール特性を用いてユーザ入力又は自動プロセスにより手動で規定することができる。ユーザが予め決められた特性を有する境界検出ツールを選択することを可能にすることによって、根本的な数学的作動又は画像生成作動についてほとんど又は全く理解していないオペレータが境界検出作動を指示することができる。
図4では、境界検出ツール508、スキャンライン509、及び注目領域指標512が他の入力画像600にも関連する例を示す。明瞭化のために、図4は、注目領域指標512により示される他の典型的な注目領域の組であって、本発明の方法で生成され且つ用いられるものを示す。注目領域指標がいくつかの具体例では表示されず、また、入力画像に相当する独立して生成された注目領域はまた、本明細書で前述したように、他の対応するフィルタ処理画像、特徴画像、疑似画像等において、空間的に一致する注目領域を含むことを認識すべきである。前述したように、注目領域は自動的に決定することができるか、又はユーザが例えば表示された注目領域指標512を描画又は解除することにより、それらを決定することができる。前述したように、注目領域は、中央のポイントP0の周りにおいて対称又はほぼ対称な注目領域対514中に配置されてもよい。図4は、4つの注目領域対を示す。更に、代表注目領域RROI1とRROI2を決定するための前述した自動作動の代わりに、ユーザは、注目ポイントP0に関して対向して位置決めされ、且つ注目範囲内において境界にほぼ垂直なラインに沿って配置されたRROI1とRROI2を選択することができる。しかしながら、最良のRROI1とRROI2は、一般的に又は必ずしも境界にほぼ垂直なラインに沿って配置された注目領域対にならないことは認識すべきである。
図5は、前述した疑似画像生成回路/ルーチン360によって生成された疑似画像700の1つの典型的な具体例を示す。疑似画像は表示される必要はなく、一般に本発明の方法によって表示されないことは認識すべきである。
より一般に、本発明の方法の様々な典型的な具体例は、本明細書では、評価すべき画像結果の根拠として様々な「画像」を生成するものとして述べられる。しかしながら、「画像」として一般に認められない様々なデータ表現から画像結果が決定されてもよいことは認識すべきである。そのようなデータ表現を、本発明の方法に用いることができる1つ以上の画像結果を提供するのに用いることが可能なときは、そのようなデータ表現は、用語「特徴画像」、「疑似画像」等の範囲に含まれ、その結果、本発明の方法の範囲内に含まれることになる。さらに、様々な他の典型的な具体例では、決定すべき画像結果に応じて、画像結果を、入力画像及び適切な候補/選択フィルタ処理から直接決定することにより、認識しうる中間のステップとして認識しうる画像を描画、即ち生成する必要をなくしてもよいことは評価すべきである。
それにもかかわらず、疑似画像700は、明瞭化のために有用である。前述したように、疑似画像700は、入力画像、ひいては図3及び図4を参照して前述した様々なツール要素及び注目領域と空間的に一致する。特定の疑似画像700は、拡大された入力画像に相当し、従って、この特定の画像の不鮮明な外観にもかかわらず高い精度のエッジ位置を支持できることは認識すべきである。スキャンライン509上の矢印によって示すようなスキャンライン509を横断する方向は、前述したように決定される。疑似画像700は、図5におけるライン704で境界づけられる注目範囲の中で決定されれば足りる。疑似画像700のエッジ/境界706に沿った「x」で示されるエッジポイント702は、前述したように決定する。疑似画像は入力画像と空間的に一致するので、疑似画像用に決定されるエッジポイントを、本発明の方法の様々な具体例では、入力画像を含むグラフィカル・ユーザ・インターフェースで簡易に表示する。
図6は、典型的な入力画像800に対して決定され、前述した勾配タイプエッジ検出作動に用いる典型的なエッジポイント解析回路/ルーチン370によって検出すべき多数のエッジ位置802の1つの典型的な具体例を示す。疑似画像が入力画像と空間的に一致するので、疑似画像用に決定されるエッジポイント802を、本発明の方法の様々な典型的な具体例では、入力画像を含むグラフィカル・ユーザ・インターフェース上のエッジポイント802として簡易に表示する。注目領域指標814及び境界ツール808の境界も図6に示される。
ビジョンシステム10の部分プログラム又は練習モードにおいて、1つの典型的な具体例では、エッジポイント802が一旦決定されると、例えば要素800,802,808のような要素を含む表示内容がユーザに表示される。ユーザが表示されたエッジポイント802と生成・出力しうる関連エッジ位置データとを承認するときは、ユーザは1つ以上の動作を通じて結果を受理し、その結果、ビジョンシステム10により新しい作動の実行をほとんど不要にする。ユーザの受理が一旦任意の手段によって示されれば、制御部100は、部分プログラムメモリ部133でケース特有ルーチン又はケース特有練習エッジ/境界ツールとして、エッジポイント802を決定するのに用いられた前述の様々な作動及びパラメータを記録する。制御部100は、また、メモリ130に、生成・出力された関連するエッジ位置データを格納してもよい。制御部100によって格納されたケース特有ルーチン又は練習エッジ/境界検出ツールは、もう1つの部分プログラムに一般に格納且つ/又は包含され、また、自動的に、「実行モード」において同様のケースのエッジについて迅速且つ確実に検出・位置決めするのに用いることができる。ケース特有ルーチン及び/又は練習エッジ/境界ツールが有利に用いられる類似ケースには、例えば、同一のエッジを将来的に位置決めしたり、同じエッジの別の部位を同じ部分上で位置決めしたり、即ち別の視点で、同じエッジを同じ仕様で生成される将来の部分上に位置決めしたり、同じプロセスにより生成される他のエッジ、例えば、プリント回路基板の穴のように、平板上の様々な場所にある様々な類似の穴のエッジを位置決めするようなケースが含まれる。これら及び他のタイプの類似のエッジは、当業者及びマシンビジョンシステムの典型的なユーザには明らかであり、これらの例に限定するものではない。
実行モードプロセスのより詳細な説明を図16及び図17を参照して行なう。
図7は、本発明の入力画像のエッジに特有なケースを検出するための境界検出ツールの練習方法の1つの典型的な具体例を概説するフローチャートである。練習境界検出ツールは、類似部分の類似ケースのエッジの検査用部分プログラムに含むことができるような迅速且つ確実な自動境界検出ルーチンで用いることができる。ステップS1000で開始すると、作動はステップS1100に進み、最初の又は次の入力画像を捕捉する。その後、ステップS1200では、入力画像内の注目範囲を決定し、決定された注目範囲を横切って延びるスキャンラインを決定する。次に、ステップS1300では、少なくとも注目範囲の1つ以上の特徴画像を生成する。その後、作動はステップS1400へ続く。
ステップS1400では、ステップS1300で生成された特徴画像を、検出すべき特定のエッジの一方の側の第1の注目領域と、検出すべき特定のエッジの他の側の第2の注目領域とを区別するのに用いうるような特徴画像を決定・選択するために解析する。上述したように、生成された特徴画像のうちのいくつかは、選択された代表注目領域対の観点から、確実なエッジ検出を支持するエッジの両側の十分に異なる特徴画素値を持たなくてもよい。ステップS1400では、特徴画像のいずれもエッジ検出を改善するのに有用でない場合は、初期の特徴画像の組を減らすことができる。
次に、ステップS1500では、少なくとも2つのクラスタに関する注目範囲中の各画素のメンバーシップ値を示すメンバーシップ画像を生成する。2つのクラスタの中心は、ステップS1400で選択された代表注目領域対の特性に基づく。メンバーシップ値は、クラスタ中心特性と、ステップS1300で生成され、ステップS1400で選択された特徴画像とに基づく。メンバーシップ画像を作成するのに用いられる2つのクラスタは、検出すべきエッジの各側にある2つのタイプの特徴画像データであって、ステップS1400で選択された選択特徴画像に反映されるものを表す。その後、ステップS1600では、スキャンラインに沿ったエッジポイントを、ステップS1500で生成されたメンバーシップ画像に基づいて決定し、「良好」なエッジポイントを検出されたエッジポイントから選択する。その後、作動はステップS1700に進む。
ステップS1700では、ステップS1600から検出されたエッジポイントを夫々保持するために、この検出されたエッジポイントの近傍の「近隣」を、検出されたエッジポイントの位置を修正するために解析し、検出されたエッジポイントのグループを境界外を除去するために解析する。ステップS1700では、エッジポイント修正回路/ルーチン379及び境界位置決め修正回路/ルーチン380を参照して前述された1つ以上の作動を実行する。1つの典型的な作動では、選択され検出されたエッジポイントのスキャンラインに沿った多数の最も近い画素位置qに関連するデータを、選択され検出されたエッジポイントの位置を修正するために用いる。選択され検出されたエッジポイントを囲む画素位置qの各画素位置iについては、エッジポイント修正回路/ルーチン379が画素位置(i+1)及び画素位置(i−1)間のユークリッドの距離を、現在の特徴画像の組にあるこれら特定の画素位置に基づいて算出する。画素位置qの各々に対するこれらのユークリッドの距離は円弧を形成する。続いて、円弧の重心は、その選択され検出されたエッジポイントの修正位置として用いられる。境界位置決め修正回路/ルーチン380は、境界外を検出し、修正又は除去するために、選択され検出されたエッジポイントのグループを解析する。次に、ステップS1800では、練習モードで作成された入力画像においてこの特有のケースのエッジを検出するために決定された情報を表す境界検出ツールのデータを受理及び/又は格納する。受理は、最終のエッジポイントの組又は関連する境界位置データの表示に基づいて、ユーザにより決定されてもよい。デフォルト条件として、境界検出ツールのデータは特有の受理なしで格納されてもよい。次に、ステップS1900では、他の入力画像を捕捉するか否かを決定する。他の画像が選択され解析されるときは、作動はステップS1100に戻り、そうでないときは、作動はステップS1950に進み、この方法の作動を停止する。
図8は、ステップS1200で注目範囲を決定する方法の1つの典型的な具体例をより詳細に概説するフローチャートである。ステップS1200で作動が開始した後、作動はステップS1210に進み、ユーザは、エッジ位置決め作動がその中で又はそれを介して特有のエッジが検出されることになる注目範囲を表す自動境界検出ツールを用いるか否かを決定する。ユーザが自動境界検出ツールを用いないときは、作動はステップS1220に進む。そうでないときは、作動はステップS1250に飛び越す。ステップS1220では、ユーザは位置決めすべき境界と所望の注目範囲とを選択するために前述した境界検出ツールを手動で描画し、且つ/又は編集する。その後、ステップS1230では、ユーザは、作成された境界検出ツールによって境界づけられた、好ましくはその境界に近い注目範囲内のポイントP0を、エッジ検出プロセスに焦点があうように選択する。ポイントP0はツールの描画工程の一部として生成されてもよく、且つステップS1220及びS1230の作動は、区別がつかないものであってもよいことは認識すべきである。ステップS1240では、スキャンラインの位置又はその境界に沿った隙間と、そのスキャンラインの長さ又はエンドポイントとを、ユーザ入力又は選択された注目範囲に由来されるデフォルト位置によって決定する。その後、作動はステップS1260に進む。
ステップS1220,S1230及びS1240とは反対に、ステップS1250では、自動境界検出ツールを用いる。様々な自動境界検出ツールは、様々な作動範囲を持っていてもよい。1例として、ユーザは、ポイント・ツール又はボックスツールのような適切なツールを選択し、その後、「P0」を意図するポイント近傍のツールのカーソル/ポインタ要素の位置決めをほとんど行うこともなく、そのツールが自動的に前述したツールパラメータのいずれかであって、そのツールを用いるエッジ検出に要求されるものを決定してもよい。スキャンラインも自動的に規定することができる。作動はステップS1260に進む。ステップS1260では、作動はステップS1300に戻る。
図9は、ステップS1300の特徴画像を生成する方法の1つの典型的な具体例をより詳細に概説するフローチャートである。ステップS1300で開始すると、作動はステップS1310に進み、ユーザが候補フィルタ処理グループを手動で選択するか、候補フィルタ処理グループを自動的に決定させるかを決定する。前述したように、候補フィルタ処理という用語は、フィルタ処理が現在の画像からのフィルタ処理された画像結果の生成に用いられることもあるが、画像結果に基づいて後に受理されたり拒絶されたりすることもあることを意味する。候補フィルタ処理グループが自動的に設定されないときは、その後、作動はステップS1320に進む。そうでないときは、作動はステップS1330に飛び越す。自動的に候補フィルタ処理グループを選択する決定を、グラフィカル・ユーザ・インターフェースの候補フィルタ処理方法のオプションを用いて行ない、且つ/又は伝達する。
ステップS1320では、ユーザが前述した候補フィルタ処理グループを手動で選択する。その後、作動はステップS1340に飛び越す。一方、ステップS1330では、用いられる候補フィルタ処理グループを自動的に決定し、その後、作動はステップS1340に進む。ステップS1340では、候補フィルタ処理方法によって選択されたか又は自動的に決定された候補フィルタ処理を、入力画像の規定された注目範囲に適用し、対応する数の特徴画像を生成する。その後、ステップS1350では、作動はステップS1400に戻る。
図10は、ステップS1400の有用な特徴画像選択を行なう方法の1つの典型的な具体例をより詳細に概説するフローチャートである。前述したように、有用な特徴画像を選択したときに、その特徴画像を生成するのに用いられる対応フィルタ処理をも有効に選択する。ステップS1400で開始すると、作動はステップS1410に進み、単一の注目領域対、又は図3、図4、図6で示される様々な注目領域対のように1つ以上の注目領域対を規定する。特に、1つの注目領域対ごとに、第1の注目領域を、特に、境界検出ツールによって境界づけられた注目範囲内の注目ポイントP0の一方の側に規定する。その1つの注目領域対の第2の注目領域を、その注目領域対にある第1の注目領域からみて注目ポイントP0の全く反対側に規定する。その後、ステップS1420では、代表注目領域対RROI1及びRROI2を、注目領域にある1つ以上の対の1つから選択する。もちろん、単一の注目領域対をステップS1410で規定したときは、ステップS1420を省略することができることは認識すべきである。
次に、ステップS1430では、選択されたポイントP0に関して対向側の代表注目領域対の画像データを最もよく区別する特徴画像を一般に含んでいる特徴画像の部分集合を、代表注目領域対の解析に基づいて選択する。選択フィルタ処理に対応する組を、ツール関連データとして少なくとも一時的には格納する。上述したように、様々な典型的な具体例では、この選択はエッジ検出に適用されるのに必要なフィルタ処理の数を減らすために行なわれ、その結果、本発明の方法を用いて、迅速なエッジ検出の達成及び又はエッジ検出精度及び信頼度が改善される。その後、作動はステップS1440に続く。
ステップS1430は特徴選択ステップを構成する。特徴抽出が特徴選択の知られた代替又は追加手段であることは認識すべきである。特徴抽出は、小さいがより有効な特徴画像の組を生成するために特徴画像を有効に組み合わせる技術である。様々な用いうる特徴抽出方法は、この技術及び様々な具体例における当業者にとって明らかである。特徴抽出を特徴選択の代わりにステップS1430で実行する。用いうる特徴抽出方法は、前述した引用文献で説明されている。
ステップS1440では、代表注目領域対を、特徴画像の選択された部分集合に基づいて後にRROI1及びRROI2を提供するために再選択する。ステップS1440が任意のものであり、従って省略可能であることは認識すべきである。次に、ステップS1450では、例えば上述した分級ベクトルCV1及びCV2のように、特徴画像の部分集合中の各特徴画像にある最新の代表注目領域対RROI1及びRROI2に基づいて複数の分級ベクトルを作成する。1つの典型的な具体例では、代表注目領域RROI1及びRROI2内に位置する特徴画像の部分集合中の各特徴画像にある平均画像データを分級ベクトルCV1及びCV2を夫々生成するために算出する。一般に、分級ベクトルCV1とCV2の次元はnであり、ここでnは特徴画像の部分集合中の特徴画像の数である。様々な典型的な具体例では、場合によって、最新の代表注目領域対RROI1及びRROI2を、ツール関連データとして少なくとも一時的に格納する。その後、ステップS1460では、作動はステップS1500に戻る。
図11は、ステップS1500のメンバーシップ画像を決定する方法の1つの典型的な具体例をより詳細に概説するフローチャートである。ステップS1500で開始すると、作動はステップS1510に進み、最初の又は次の画素、つまり画素位置を、少なくとも境界検出ツールによって境界づけられた注目範囲内で選択する。次に、ステップS1520では、現在の画素に対するメンバーシップ値を、前述した修正ファジィc−平均分級器のような分級器及び作成された分級ベクトルCV1及びCV2を用いて決定する。その後、作動はステップS1530に進む。
修正ファジィc−平均分級器は、図10で示されるステップS1420〜S1450の作動の際、特に速く適切なステップS1520で実行される作動で用いうる単一の典型的な分級器であることは認識すべきである。本発明の方法の様々な典型的な具体例では、前述した引用文献で述べられる未「修正」ファジィc−平均分級器が用いられる。そのような分級器は、クラスタのプロトタイプを要せず、データポイントの分級処理を改善するため反復作動する。従って、少なくとも図10で示されるステップS1420~S1450の作動を実行する必要はない。
次に、ステップS1530では、解析すべき未選択の画素が残っているか否かを決定する。未選択の画素が残っているときは、その後、作動はステップS1510に戻る。そうでないときは、作動はステップS1540に進み、エッジ検出を実行するためのスキャンラインに沿って横断する方向を決定する。前述したように、スキャンラインに沿った移動方向は、メンバーシップ画像、及びメンバーシップ画像を決定するのに用いられる代表注目領域対RROI1及びRROI2を用いて決定することができる。その後、ステップS1550では、作動はステップS1600に戻る。
ステップS1540の作動は、ステップS1500で省略してもよく、それに代えてステップS1600の開始時に実行することができると認識すべきである。しかしながら、他の典型的な具体例では、ステップS1540の作動を完全に省略し、デフォルト条件の横断方向が用いられる。信頼性及び精度は、いくつかのエッジに多少影響を受けるが、本発明の方法のそのような具体例で著しい利点が保持される。
図12は、ステップS1600のエッジポイント決定選択方法の1つの典型的な具体例をより詳細に概説するフローチャートである。ステップS1600で開始すると、作動はステップS1610に進み、最初の又は次のスキャンラインを選択する。その後、ステップS1620では、ステップS1500で規定されたメンバーシップ画像を用いて、選択されたスキャンラインにある1つ(以上)のエッジポイントを検出する。元のメンバーシップ画像の画素値を計測し、本発明の方法を用いて所望の範囲に標準化することができることは認識すべきである。次に、ステップS1630では、検出されたエッジポイントを、初期のエッジポイントの組であるPEIに追加する。その後、作動はステップS1640に進む。
ステップS1640では、解析すべき未選択のスキャンラインが残っているか否かを決定する。未選択のスキャンラインが残っているときは、作動はステップS1610に戻る。そうでないときは、作動はステップS1650に進む。ステップS1650では、有効なエッジポイントをメンバーシップ画像に基づいて選択する。その後、ステップS1670では、作動はステップS1700に戻る。
図13は、ステップS1420の代表注目領域対を選択する方法の1つの典型的な具体例をより詳細に概説するフローチャートである。ステップS1420で開始すると、作動はステップS1421に進み、第1又は第2の注目領域対に対して、2つの注目領域の特徴画像データ間の類似距離を特徴画像の候補の組の各特徴画像に基づいて決定する。類似距離は、様々な典型的な具体例では、上述したフィッシャー距離である。いくつかの類似距離が決定されうることも認識すべきである。その後、ステップS1422で、規定されたすべての注目領域対に対し類似距離を決定するか否かを決定する。類似距離を決定するときは、作動はステップS1423に進む。そうでないときは、作動はステップS1421に進み、類似距離の結果を注目領域における次の対に対して決定する。
ステップS1423では、代表注目領域対RROI1及びRROI2を前述したように決定された類似距離に基づいて選択する。一般に、選択された代表する対は、決定された類似距離に基づいた最も非類似の注目領域対である。その後、作動はステップS1424に続く。単一の注目領域が規定された場合は、代表注目領域対としてそれが選択されることは認識すべきである。その後、ステップS1424では、作動はステップS1430に戻る。
図14及び図15は、本発明の図12のメンバーシップ画像を用いて有効なエッジポイントを選択する方法の1つの典型的な具体例をより詳細に概説するフローチャートである。ステップS1650で開始すると、作動はステップS1651に進み、最初の又は次のエッジポイントを選択する。その後、ステップS1652では、一般に機能及び位置が以前に規定された注目領域には無関係の新しいタイプの注目領域EROI1及びEROI2の対を選択されたエッジポイントに対して規定する。1つの典型的な具体例では、EROI1とEROI2は、各対向側において、その選択されたエッジポイントに対応するスキャンライン上に集められると共に、選択されたエッジポイントから画素10個分離れて集められた11×11個の画素の正方形状に配列されている。その後、作動はステップS1653に続く。
ステップS1653では、新しい注目領域EROI1及びEROI2の対でメンバーシップ画像の画素値の一致の程度について決定がなされる。その後、作動はステップS1654に続く。
メンバーシップ画像の画素が、RROI1に対応するクラスにおいて完全なメンバーシップを表す第1の値と、RROI2に対応するクラスにおいて完全なメンバーシップを表す第2の値との間の可能な値の範囲内にあることは認識すべきである。各新しい注目領域EROI1及びEROI2の各々にある画素は、一般に、メンバーシップ画像境界の夫々の側に一致するべきである。1つの典型的な具体例の中では、画素値が第1の値により近いときは、それはRROI1のクラスに一致し、それが第2の値により近いときは、それはRROI2のクラスに一致する。別の典型的な具体例では、メンバーシップ画像の画素値を、メンバーシップ一致評価に対して1つ以上の決定エッジポイントのメンバーシップ値に基づいて学習モード中に決定されたしきい値と比較する。
ステップS1654では、メンバーシップ一致の程度が、予め定められた「良好」の基準に入るか否かを決定する。即ち、ステップS1654では、初期のエッジポイントの組PEIが検出されたエッジポイントを無効のエッジポイントであるとして初期のエッジポイントの組から廃棄されるか否かを決定するために解析する。例えば、EROI1の画素の予め決定された割合が境界のそれらの側を表す基準、例えば、CV1やRROI1の特性等のようなものに一致し、EROI2の画素の予め決定された割合が境界のそれらの側を表す基準に一致するときは、検出されたエッジポイントを廃棄しない。「良好」の基準にあうときは、作動はステップS1656に進む。そうでないときは、作動はステップS1655に進み、選択されたエッジポイントを初期のエッジポイントの組から廃棄する。その後、作動はステップS1656に進む。1つの典型的な具体例では、各領域EROI1及びEROI2で一致する画素の割合は、少なくとも85%はなくてはならず、そうでないときは、選択されたエッジポイントを廃棄する。低い一致率は、無効のエッジポイントを示す傾向があるノイズ領域、即ち不規則な領域に相当することは認識すべきである。予め決定された割合を「受理された」エッジポイントに対して望まれる信頼度によって調節してもよい。更に、境界の一方の側と他方の側とを識別する異なるタイプの基準を、実行モードの作動及び練習モードの作動中これらの2つのモードで簡便に利用可能なデータに応じて夫々一致基準として用いてもよいことは認識すべきである。
ステップS1656では、解析すべきエッジポイントが残っているか否かを決定する。エッジポイントが残っているときは、作動はステップS1651に戻る。さもなければ、作動はステップS1657に進む。
ステップS1657では、1つ以上の特徴距離値Dを、ステップS1655で廃棄されなかった残りの各エッジポイントに対応して決定する。1つの典型的な具体例では、残りの各エッジポイントに対応する前述のEROI1とEROI2の間のフィッシャー距離を、特徴画像の選択された部分集合中のすべての特徴画像に基づいて決定する。このときは、単一の距離値Dが、残りの各エッジポイントに対して得られる。次に、ステップS1658では、1つ以上の対応する差異パラメータdを残りの各エッジポイントに対する1つ以上の決定された距離値Dに基づいて決定する。差異パラメータdは、ツール関連データとして少なくとも一時的に格納されてもよい。例えば、前述したフィッシャー距離の値Dの最小値は、単一の差異パラメータdとして決定されてもよい。その後、作動はステップS1659に続く。
ステップS1659では、最初の又は次のエッジポイントを、初期のエッジポイントの組であるPEIの残りのエッジポイントPEから選ぶ。その後、作動はステップS1660に続く。
ステップS1660では、ステップS1657で決定された選択されたエッジポイントに対する1つ以上の特徴距離(D)が、ステップS1658で決定された1つ以上の対応差異パラメータ(d)未満であるか否かを決定する。選択されたエッジポイントに対する1つ以上の特徴距離(D)が、1つ以上の対応差異パラメータ(d)未満でないときは、作動はステップS1662に進む。そうでないときは、作動はステップS1661に進み、選択されたエッジポイントを残りのエッジポイントPEの組から廃棄する。その後、作動はステップS1662に進む。ステップS1662では、確認すべき残りのエッジポイントがあるか否かを決定する。確認すべき残りのエッジポイントがあるときは、作動はステップS1659に戻る。そうでないときは、作動はステップS1663に進み、作動はステップS1670に戻る。
ステップS1657〜S1662を用いて前述した適用可能な作動に類似する方法で、実行モード中の関連練習エッジ設定ツールと協働して、ステップS1657の作動によって決定された差異パラメータdを保存して用いることができることは認識すべきである。その効果は、実行時間中で作成されたメンバーシップ画像が練習に用いられたメンバーシップ画像と少なくともほぼ同じくらいエッジ検出に適していることを保証する傾向にある。dが前述した最小値に設定されるときは、ツール練習モードでステップS1659〜S1662を実行する必要がないことも認識すべきである。ステップS1651〜S1656及びステップS1657〜S1662にほぼ対応する作動の組の双方は、夫々、残りのエッジポイントの信頼度を保証する傾向にあることも認識すべきである。従って、作動の組いずれで用いられる選考方法も一般に単独で実行することができる。いくつかのエッジが信頼性及び精度について、多少影響を受けるが、本発明の方法の上記具体例では著しい利点が保持される。
図16は、本発明に係る図7〜図15で概説した設定方法により規定されたパラメータを用いて、異なるが類似する入力画像の特定ケースで類似する特有のエッジのケースを検出する方法の1つの典型的な具体例をより詳細に概説するフローチャートである。前述したように、エッジ検出方法及びシステム、特に境界検出ツールを、特有の画像由来パラメータを用いて特有の入力画像内の特有のエッジを検出するために前述した作動によって設定する。従って、本発明の方法は、実行モードでその入力画像が異なるが類似する場合にエッジ又は境界を自動的に位置決めするモードで用いることができる。本発明の方法による実行モードの作動は前述した設定モードと同じ多くのステップを包含するので、ステップS2100〜S2400及びS2600〜S2700の詳細な説明を省略する。その理由の1つは、これらのステップを図7〜図12に対応するステップと似ており、しかも以前に「学習」モードで決定され、受理/格納されたいくつかのパラメータを「実行モード」で用いるからである。
ステップS2000で開始すると、作動はステップS2100に進み、最初の又は次の画像を捕捉する。その後、ステップS2200では、注目範囲及び1つ以上のスキャンラインを「学習モード」で決定されたパラメータを用いて決定する。次に、ステップS2300では、1つ以上の特徴画像を、ツール関連データとして格納された前述の選択フィルタ処理に基づいて生成する。その後、ステップS2400では、メンバーシップ画像をステップS2300の作動で生成された特徴画像の組及び前述した分級ベクトルCV1及びCV2に基づいて生成する。その後、作動はステップS2500に進む。
様々な他の典型的な具体例では、メンバーシップ画像は、保持されたツール関連データの様々な異なる組合せ及び現在生成されたデータに基づいて生成してもよいことは認識すべきである。例えば、第1の具体例では、分級ベクトルCV1及びCV2を練習又は学習モードの間に決定し、これに従ってメンバーシップ画像の画素値を決定する。第2の具体例では、現在の分級ベクトルCV1及びCV2を、練習又は学習モードで決定されたRROIの規定に基づいたRROIの一対を用いて、現在の特徴画像の組から決定する。第3の具体例では、現在のRROI1及びRROI1をステップS1410〜S1420の作動を用いて決定し、現在のCV1及びCV2をステップS1450の作動を用いて決定し、そして、メンバーシップ画像の画素値をこれに従って決定する。第2と第3の具体例は第1の具体例より時間がかかるだろうが、3つの具体例はすべて、ツール関連データとして格納された、前述の選択フィルタ処理を用いることに関連した利点を引き出すことは認識すべきである。様々な他の組合せ及び選択は当業者にとって明らかである。
ステップS2500では、1つ以上のエッジポイントを各スキャンラインで検出し、「良好」なエッジポイントを選択する。この作動は、図7、図12、図14及び図15のステップS1600に関連して述べたエッジポイントの検出及び選別工程と異なり、この作動はより詳しくは図17を参照して述べる。次に、ステップS2600では、ステップS2500で廃棄されていない残りのエッジポイントがある各スキャンラインに沿って検出すべきエッジの位置を修正し、また、図7のステップS1700を参照して全て前述したようにエッジ位置を最終的に決定する。その後、ステップS2700では、別の入力画像を捕捉するか否かを決定する。別の入力画像を捕捉するときは、作動はステップS2100に戻る。そうでないときは、作動はステップS2800に進み、実行モード方法の作動は終了する。
図17は、本発明に係る図16のエッジポイントの選択方法の1つの典型的な具体例をより詳細に概説するフローチャートである。ステップS2500で開始した後、作動はステップS2510に進み、決定されたスキャンラインの組に対するエッジポイントのデフォルト条件を検出する。このエッジポイントの組は、ステップS2400で生成されたメンバーシップ画像に基づく。次に、ステップS2520では、未選択のエッジポイントを選択する。その後、ステップS2540では、選択されたエッジポイント用の特徴距離(D)を、図14及び図15のステップS1657を参照して前述したようにその選択されたエッジポイントから決定する。その後、作動はステップS2550に進む。
ステップS2550では、選択されたエッジポイントに対する1つ以上の特徴距離Dが、図14及び図15のステップS1658で以前に規定された1つ以上の差異の値dに対応するものより小さいか否かを決定する。小さいときは、作動はステップS2560に進む。そうでないときは、作動はステップS2570に飛び越す。ステップS2560では、選択されたエッジポイントに対する1つ以上の特徴距離Dは、1つ以上の差異の値dに対応するものより小さく、選択されたエッジポイントを、エッジポイントのデフォルト条件から廃棄する。その後、ステップS2570では、残りの未選択のエッジポイントがあるか否かを決定する。残りの未選択のエッジポイントがあるときは、作動はステップS2510に戻る。そうでないときは、作動はステップS2580に進んでステップS2600に戻る。様々な典型的な具体例では、実行モードでステップS2560を実行するに先立ってステップS1651〜S1656を参照して説明された作動を実行すると、残りのエッジポイントの信頼度をさらに増加させることは認識すべきである。例えば、作動を、ステップS2550直後、又はステップS2510直後に実行してもよい。
様々な典型的な具体例において、制御部100を、プログラムされた汎用算出機について実行する。しかしながら、本発明に係る制御部100はまた、特別の目的のコンピュータ、プログラムされたマイクロプロセッサーかマイクロコントローラ、及び周辺の集積回路要素、例えば、ASICその他の集積回路、デジタル信号プロセサ、離散要素回路のようなハードワイヤードの電子回路又は論理回路、PLD、PLA、FPGA又はPAL等のようなプログラム可能なロジック装置について実行してもよい。一般に、図7〜図16で示されるフローチャートを順番に実行することができる有限状態遷移機械を構成することができる装置を、本発明に係る制御部100を構成するために用いることができる。
メモリ130は、書換え可、揮発性若しくは不揮発性のメモリ、又は書換え不可若しくは固定のメモリの適切な組み合わせを用いて構成することができる。書換え可のメモリは、揮発性のものでも不揮発性のものでも、SRAM又はDRAM、フロッピー(登録商標)ディスクドライブ、書き込み可能又は書き換え可能な光ディスク及びディスクドライブ、ハードドライブ、フラッシュメモリー等のうちの1つ以上を用いて構成することができる。同様に、書換え不可又は固定のメモリは、ROM、PROM、EPROM、EEPROM、CD−ROM又はDVD−ROMディスクのような光学のROMディスク、及びディスクドライブ等のうちの1つ以上を用いて構成することができる。
図1の回路その他の要素150〜180及び305〜379の各々は、適切にプログラムされた汎用算出機の一部として構成することができることは認識すべきである。これに代えて、図1の回路その他の要素150〜180及び305〜379の各々は、ASIC内の物理的に別個のハードウェア回路として、又はFPGA、PDL、PLA、若しくはPALを用いて、又は個別の論理素子又は個別の回路素子を用いて構成することができる。図1における回路その他の要素150〜180及び305〜379の各々で採られるであろう特定のタイプは設計上の選択であり、当業者にとって明らか且つ予測可能である。
さらに、制御部100は、プログラムされた汎用算出機、特別の目的のコンピュータ、マイクロプロセッサー等の上で実行するソフトウェアとして実行することができる。制御部100も、1つのビジョンシステム10のソフトウェア・ハードウェアシステムのような、ソフトウェア及び/又はハードウェア・システムに物理的にそれを組み入れることにより実行することができる。
本発明はその好ましい具体例に関して説明されているが、その発明は好ましい具体例又は構成に制限されないことは理解すべきである。これに対し、本発明は、様々な修正及び等価な配置を含むことを意図している。さらに、好ましい具体例の様々な要素を様々な組合せ及び構成で示しているが、より多く又は少ない又は単独の要素を含む他の組合せ及び構成も本発明の精神及び範囲内にある。
本発明の方法が用いられるビジョンシステムの典型的なブロック図である。 本発明の方法が用いられる図1の様々な回路/ルーチンの詳細な典型的な具体例を示す図である。 (a)及び(b)は、エッジ設定ツール及び本発明の方法を用いて検出又は位置決めされる2つの有効なテクスチャ領域及び境界を有する典型的な対象物の2つの画像を示す図である。 (a)及び(b)は、本発明の方法で生成され且つ用いられた典型的な注目領域を示す図である。 本発明の方法の様々な具体例で用いられるスキャンラインのついた疑似画像の典型的な一具体例の画像を示す図である。 本発明の方法を用いて検出された多数のエッジポイントの典型的な一具体例の画像を示す図である。 本発明に係る画像中のエッジポイントを決定する方法の典型的な一具体例を概説するフローチャートである。 本発明に係る図7の注目範囲を決定する方法の典型的な一具体例をより詳しく概説するフローチャートである。 本発明に係る図7の特徴画像を決定する方法の典型的な一具体例をより詳しく概説するフローチャートである。 本発明に係る図7の特徴選択を実行する方法の典型的な一具体例をより詳しく概説するフローチャートである。 本発明に係る図7の疑似画像を決定する方法の典型的な具体例をより詳しく概説するフローチャートである。 本発明に係る図7のエッジポイントを検出・選択する方法の典型的な具体例をより詳しく概説するフローチャートである。 本発明に係る図10の代表注目領域対を選択する方法の典型的な一具体例をより詳しく概説するフローチャートである。 本発明に係る図12の有効エッジポイントを選択する方法の典型的な具体例を概説するフローチャートである。 本発明に係る図12の有効エッジポイントを選択する方法の典型的な具体例を概説するフローチャートである。 本発明に係る第2の画像中のエッジを特定するために図7〜図15で概説した方法により決められたツールを用いる方法の典型的な一具体例を概説するフローチャートである。 本発明に係る図14及び図15の有効エッジポイントを選択する方法の典型的な一具体例をより詳しく概説するフローチャートである。
符号の説明
10 ビジョンシステム
100 制御部
102 表示装置
104 入力装置
110 入力/出力インターフェース
120 コントローラ
130 メモリ
150 注目範囲生成部
310 フィルタ処理画像解析回路/ルーチン
350 ケース特有フィルタ処理選択回路/ルーチン
360 疑似画像生成回路/ルーチン
370 エッジポイント解析回路/ルーチン
380 境界位置決め修正回路/ルーチン
390 エッジモード決定回路/ルーチン

Claims (10)

  1. 少なくとも2つの画像テクスチャフィルタ処理要素を有するマシンビジョンシステムにより画像形成される対象物上の境界位置を決定するためのマシンビジョンシステムの操作方法であって、
    前記マシンビジョンシステムによって画像形成される対象物の注目範囲であって、前記対象物上の前記境界を示すものを識別する識別ステップと、
    以前の類似ケースの境界の解析に基づいて予め選択された少なくとも1つの画像テクスチャフィルタ処理要素に基づいて前記対象物上に位置決めされた境界を含む疑似画像を生成する生成ステップと、
    前記マシンビジョンシステムによって画像形成された対象物のための寸法検査測定として用いうる前記境界位置を決定するために前記疑似画像上でエッジ検出作動を実行する実行ステップとを有することを特徴とするマシンビジョンシステムの操作方法。
  2. 前記疑似画像上で前記エッジ検出作動を実行する実行ステップは、
    前記境界位置を示す少なくとも1つのエッジポイントを決定する決定ステップと、
    前記決定された少なくとも1つのエッジポイントに基づいて前記境界位置を決定する決定ステップとをさらに有することを特徴とする請求項1記載の方法。
  3. 前記少なくとも1つのエッジポイントを決定する決定ステップは、
    前記境界位置を横切って延びる前記夫々のスキャンラインに沿った第1の解析作動に基づいて前記最初のエッジポイントを決定する決定ステップと、
    前記最初のエッジポイントの両側に延びる局所領域において夫々のスキャンラインに沿って延びる複数の画素位置iに関連するデータに対して第2の解析作動を実行する実行ステップと、
    前記第2の解析作動の結果に基づいて前記最初のエッジポイントを交換するために修正済のエッジポイントを決定する決定ステップとをさらに有することを特徴とする請求項2記載の方法。
  4. 前記第2の解析作動は、
    前記複数の画素位置iに関連するデータに基づいて前記複数の画素位置iの各々に対する値を決定する決定ステップと、
    前記決定された値の空間分布に基づいて前記夫々のスキャンラインに沿った重心を決定する決定ステップとを有することを特徴とする請求項3記載の方法。
  5. 前記決定された複数の画素位置iの各々に対して決定された値は、前記少なくとも1つの選択画像フィルタ処理要素に対応する少なくとも1つの特徴画像中における(i+1)画素位置に関連した前記データと(i−1)画素位置に関連した前記データとの間の特徴距離を含むことを特徴とする請求項4記載の方法。
  6. 前記境界位置を決定する決定ステップは、
    局所領域一致基準、局所領域特徴距離基準、及び境界形状基準の少なくとも1つから成る基準により決定エッジポイントの1組を解析する解析ステップと、
    前記基準を満たさない決定エッジポイントを除去して、前記決定エッジポイントの残りの組を決定する決定ステップと、
    前記決定エッジポイントの残りの組に基づいて前記境界位置を決定する決定ステップとをさらに有することを特徴とする請求項2記載の方法。
  7. 前記境界位置は、前記マシンビジョンシステムによって画像形成された対象物について100μmより良好な分解能で決定されることを特徴とする請求項1記載の方法。
  8. 前記境界位置は、前記マシンビジョンシステムによって画像形成された対象物について25μmより良好な分解能で決定されることを特徴とする請求項1記載の方法。
  9. 前記境界位置は、前記マシンビジョンシステムによって画像形成された対象物について5μmより良好な分解能で決定されることを特徴とする請求項1記載の方法。
  10. 前記境界位置は、前記マシンビジョンシステムによって画像形成された対象物の画像に関してサブ画素の分解能で決定されることを特徴とする請求項1記載の方法。
JP2008241126A 2001-11-16 2008-09-19 マシンビジョンシステムの操作方法 Pending JP2009003964A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US09/987,986 US7003161B2 (en) 2001-11-16 2001-11-16 Systems and methods for boundary detection in images

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002332107A Division JP4234399B2 (ja) 2001-11-16 2002-11-15 画像境界検出方法及びシステム

Publications (1)

Publication Number Publication Date
JP2009003964A true JP2009003964A (ja) 2009-01-08

Family

ID=25533757

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2002332107A Expired - Fee Related JP4234399B2 (ja) 2001-11-16 2002-11-15 画像境界検出方法及びシステム
JP2008241127A Expired - Fee Related JP4727703B2 (ja) 2001-11-16 2008-09-19 マシンビジョンシステムの作動方法及び境界位置決めシステム
JP2008241126A Pending JP2009003964A (ja) 2001-11-16 2008-09-19 マシンビジョンシステムの操作方法

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2002332107A Expired - Fee Related JP4234399B2 (ja) 2001-11-16 2002-11-15 画像境界検出方法及びシステム
JP2008241127A Expired - Fee Related JP4727703B2 (ja) 2001-11-16 2008-09-19 マシンビジョンシステムの作動方法及び境界位置決めシステム

Country Status (4)

Country Link
US (1) US7003161B2 (ja)
JP (3) JP4234399B2 (ja)
CN (1) CN100487733C (ja)
DE (1) DE10253674B4 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009037634A (ja) * 2001-11-16 2009-02-19 Mitsutoyo Corp マシンビジョンシステムの作動方法及びケース特有境界位置決めシステム
WO2018047650A1 (ja) * 2016-09-09 2018-03-15 ウシオ電機株式会社 基板角位置特定方法
JP2020181510A (ja) * 2019-04-26 2020-11-05 キヤノンメディカルシステムズ株式会社 医用画像処理装置及び医用画像処理プログラム

Families Citing this family (114)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6614452B1 (en) * 1999-11-15 2003-09-02 Xenogen Corporation Graphical user interface for in-vivo imaging
US6879719B1 (en) * 2000-02-24 2005-04-12 International Business Machines Corporation Method for measurement of full-two dimensional submicron shapes
US9092841B2 (en) 2004-06-09 2015-07-28 Cognex Technology And Investment Llc Method and apparatus for visual detection and inspection of objects
US7177445B2 (en) * 2002-04-16 2007-02-13 Koninklijke Philips Electronics N.V. Discriminating between changes in lighting and movement of objects in a series of images using different methods depending on optically detectable surface characteristics
US7263538B2 (en) * 2002-04-19 2007-08-28 City University Of Hong Kong Curve tracing system
CN1768339A (zh) * 2003-04-03 2006-05-03 都柏林城市大学 用于索引和检索多媒体数据的形状匹配方法
GB0308509D0 (en) * 2003-04-12 2003-05-21 Antonis Jan Inspection apparatus and method
US20040223053A1 (en) * 2003-05-07 2004-11-11 Mitutoyo Corporation Machine vision inspection system and method having improved operations for increased precision inspection throughput
US7805003B1 (en) * 2003-11-18 2010-09-28 Adobe Systems Incorporated Identifying one or more objects within an image
US7030351B2 (en) * 2003-11-24 2006-04-18 Mitutoyo Corporation Systems and methods for rapidly automatically focusing a machine vision inspection system
US7075097B2 (en) * 2004-03-25 2006-07-11 Mitutoyo Corporation Optical path array and angular filter for translation and orientation sensing
JP4598426B2 (ja) * 2004-03-30 2010-12-15 富士通株式会社 境界抽出方法、プログラムおよびこれを用いた装置
US7307736B2 (en) * 2004-03-31 2007-12-11 Mitutoyo Corporation Scale for use with a translation and orientation sensing system
US8243986B2 (en) 2004-06-09 2012-08-14 Cognex Technology And Investment Corporation Method and apparatus for automatic visual event detection
US8127247B2 (en) 2004-06-09 2012-02-28 Cognex Corporation Human-machine-interface and method for manipulating data in a machine vision system
US20050276445A1 (en) 2004-06-09 2005-12-15 Silver William M Method and apparatus for automatic visual detection, recording, and retrieval of events
US7522763B2 (en) * 2004-07-30 2009-04-21 Mitutoyo Corporation Method of measuring occluded features for high precision machine vision metrology
US7499584B2 (en) * 2004-10-21 2009-03-03 Mitutoyo Corporation Smear-limit based system and method for controlling vision systems for consistently accurate and high-speed inspection
US7454053B2 (en) * 2004-10-29 2008-11-18 Mitutoyo Corporation System and method for automatically recovering video tools in a vision system
US9292187B2 (en) 2004-11-12 2016-03-22 Cognex Corporation System, method and graphical user interface for displaying and controlling vision system operating parameters
US20130074005A1 (en) * 2004-11-12 2013-03-21 Cognex Corporation System, method and graphical user interface for displaying and controlling vision system operating parameters
US7636449B2 (en) 2004-11-12 2009-12-22 Cognex Technology And Investment Corporation System and method for assigning analysis parameters to vision detector using a graphical interface
US7720315B2 (en) * 2004-11-12 2010-05-18 Cognex Technology And Investment Corporation System and method for displaying and using non-numeric graphic elements to control and monitor a vision system
US7627162B2 (en) * 2005-01-31 2009-12-01 Mitutoyo Corporation Enhanced video metrology tool
US7668388B2 (en) * 2005-03-03 2010-02-23 Mitutoyo Corporation System and method for single image focus assessment
CN100377151C (zh) * 2005-03-11 2008-03-26 鸿富锦精密工业(深圳)有限公司 量测设备离线编程系统及方法
US7333219B2 (en) 2005-03-29 2008-02-19 Mitutoyo Corporation Handheld metrology imaging system and method
CN100416590C (zh) * 2005-09-23 2008-09-03 中国农业机械化科学研究院 利用位置和纹理特征自动识别作物苗期田间杂草的方法
US7400414B2 (en) * 2005-10-31 2008-07-15 Mitutoyo Corporation Hand-size structured-light three-dimensional metrology imaging system and method
US8311311B2 (en) * 2005-10-31 2012-11-13 Mitutoyo Corporation Optical aberration correction for machine vision inspection systems
JP4001162B2 (ja) * 2005-11-04 2007-10-31 オムロン株式会社 画像処理方法、画像処理用のプログラムならびにその記憶媒体、および画像処理装置
US7567713B2 (en) * 2006-02-08 2009-07-28 Mitutoyo Corporation Method utilizing intensity interpolation for measuring edge locations in a high precision machine vision inspection system
US7773829B1 (en) * 2006-02-10 2010-08-10 Adobe Systems Incorporated Image-centric rulers
US20100091104A1 (en) * 2006-09-27 2010-04-15 Georgia Tech Research Corporation Systems and methods for the measurement of surfaces
US8351713B2 (en) * 2007-02-20 2013-01-08 Microsoft Corporation Drag-and-drop pasting for seamless image composition
KR100866201B1 (ko) * 2007-02-22 2008-10-30 삼성전자주식회사 멀티미디어 휴대형 단말기 사용자를 위한 관심 영역의 추출방법
US11197651B2 (en) 2007-03-08 2021-12-14 Sync-Rx, Ltd. Identification and presentation of device-to-vessel relative motion
US11064964B2 (en) 2007-03-08 2021-07-20 Sync-Rx, Ltd Determining a characteristic of a lumen by measuring velocity of a contrast agent
US9375164B2 (en) 2007-03-08 2016-06-28 Sync-Rx, Ltd. Co-use of endoluminal data and extraluminal imaging
JP5639764B2 (ja) 2007-03-08 2014-12-10 シンク−アールエックス,リミティド 運動する器官と共に使用するイメージング及びツール
US9629571B2 (en) 2007-03-08 2017-04-25 Sync-Rx, Ltd. Co-use of endoluminal data and extraluminal imaging
US8781193B2 (en) 2007-03-08 2014-07-15 Sync-Rx, Ltd. Automatic quantitative vessel analysis
US9968256B2 (en) 2007-03-08 2018-05-15 Sync-Rx Ltd. Automatic identification of a tool
US10716528B2 (en) 2007-03-08 2020-07-21 Sync-Rx, Ltd. Automatic display of previously-acquired endoluminal images
US20090080738A1 (en) * 2007-05-01 2009-03-26 Dror Zur Edge detection in ultrasound images
US8144978B2 (en) * 2007-08-01 2012-03-27 Tandent Vision Science, Inc. System and method for identifying complex tokens in an image
US8103121B2 (en) * 2007-08-31 2012-01-24 Adobe Systems Incorporated Systems and methods for determination of a camera imperfection for an image
EP2235684B1 (en) * 2008-01-25 2018-12-26 Analogic Corporation Image combining
US8175390B2 (en) * 2008-03-28 2012-05-08 Tandent Vision Science, Inc. System and method for illumination invariant image segmentation
GB2458934A (en) * 2008-04-03 2009-10-07 Snell & Wilcox Ltd Detection of linear boundary between image border and picture regions based on pixel spatial gradients
US9041508B2 (en) * 2008-08-08 2015-05-26 Snap-On Incorporated Image-based inventory control system and method
US9147174B2 (en) * 2008-08-08 2015-09-29 Snap-On Incorporated Image-based inventory control system using advanced image recognition
US8353456B2 (en) * 2008-08-08 2013-01-15 Snap-On Incorporated Image-based inventory control system
US8842183B2 (en) 2008-08-08 2014-09-23 Snap-On Incorporated Image-based inventory control system with automatic calibration and image correction
JP5253955B2 (ja) * 2008-08-09 2013-07-31 株式会社キーエンス 画像処理におけるパターンモデルの位置決め方法、画像処理装置、画像処理プログラム及びコンピュータで読み取り可能な記録媒体
JP4613994B2 (ja) * 2008-09-16 2011-01-19 ソニー株式会社 動態推定装置、動態推定方法、プログラム
JP4964852B2 (ja) * 2008-09-24 2012-07-04 富士フイルム株式会社 画像処理装置、方法及びプログラム
US11064903B2 (en) 2008-11-18 2021-07-20 Sync-Rx, Ltd Apparatus and methods for mapping a sequence of images to a roadmap image
US10362962B2 (en) 2008-11-18 2019-07-30 Synx-Rx, Ltd. Accounting for skipped imaging locations during movement of an endoluminal imaging probe
US8290231B2 (en) * 2009-01-23 2012-10-16 Naveen Garg Method and apparatus for providing measurement data of an anomaly in a medical image
US8934545B2 (en) * 2009-02-13 2015-01-13 Yahoo! Inc. Extraction of video fingerprints and identification of multimedia using video fingerprinting
DE102009015594B4 (de) * 2009-03-30 2015-07-30 Carl Zeiss Sms Gmbh Verfahren und Vorrichtung zur subpixelgenauen Positionsbestimmung einer Kante einer Markerstruktur in einer Vielzahl von Aufnahmepixeln aufweisenden Aufnahme der Markerstruktur
US8538163B2 (en) * 2009-10-13 2013-09-17 Sony Corporation Method and system for detecting edges within an image
US8300949B2 (en) 2010-05-18 2012-10-30 Sharp Laboratories Of America, Inc. Edge detection technique having improved feature visibility
AU2010219406B2 (en) * 2010-05-19 2013-01-24 Plf Agritech Pty Ltd Image analysis for making animal measurements
US9373163B2 (en) * 2010-06-28 2016-06-21 Precitec Kg Method for controlling a laser processing operation by means of a reinforcement learning agent and laser material processing head using the same
CN101930600B (zh) * 2010-08-31 2012-10-17 南京航空航天大学 一种基于复合二阶分数阶次信号处理的边缘检测方法
DE102010037746B4 (de) * 2010-09-23 2013-01-24 Carl Mahr Holding Gmbh Verfahren zum optischen Antasten einer Kante in oder an einem Oberflächenbereich
US8280172B1 (en) * 2011-03-22 2012-10-02 Mitutoyo Corporation Edge location measurement correction for coaxial light images
EP2723231A4 (en) 2011-06-23 2015-02-25 Sync Rx Ltd LUMINAL BACKGROUND CLEANING
CN102289825B (zh) * 2011-07-08 2013-07-10 暨南大学 一种实时图像边缘检测电路及其实现方法
JP5745370B2 (ja) * 2011-09-07 2015-07-08 日本放送協会 特定領域抽出装置及び特定領域抽出プログラム
CN104169941A (zh) * 2011-12-01 2014-11-26 莱特克拉夫特科技有限责任公司 自动跟踪抠像区系统
US9651499B2 (en) 2011-12-20 2017-05-16 Cognex Corporation Configurable image trigger for a vision system and method for using the same
CN103292725A (zh) * 2012-02-29 2013-09-11 鸿富锦精密工业(深圳)有限公司 特殊边界量测系统及方法
CN103455996B (zh) 2012-05-31 2016-05-25 富士通株式会社 边缘提取方法和设备
CN103473543B (zh) * 2012-06-07 2016-10-05 富士通株式会社 用于提取图像中对象边界的装置、方法以及电子设备
US8606011B1 (en) * 2012-06-07 2013-12-10 Amazon Technologies, Inc. Adaptive thresholding for image recognition
WO2013188566A1 (en) * 2012-06-12 2013-12-19 Snap-On Incorporated Auditing and forensics for automated tool control systems
CA2875346A1 (en) 2012-06-26 2014-01-03 Sync-Rx, Ltd. Flow-related image processing in luminal organs
JP5651659B2 (ja) * 2012-08-31 2015-01-14 株式会社東芝 物体検出システムおよびプログラム
KR20140031613A (ko) * 2012-09-05 2014-03-13 삼성전자주식회사 영상 처리 장치 및 방법
JP5947169B2 (ja) * 2012-09-14 2016-07-06 株式会社キーエンス 外観検査装置、外観検査法およびプログラム
JP6056016B2 (ja) * 2012-09-14 2017-01-11 株式会社ミツトヨ 三次元モデル生成方法、システム及びプログラム
US9147275B1 (en) 2012-11-19 2015-09-29 A9.Com, Inc. Approaches to text editing
US9043349B1 (en) 2012-11-29 2015-05-26 A9.Com, Inc. Image-based character recognition
US9342930B1 (en) 2013-01-25 2016-05-17 A9.Com, Inc. Information aggregation for recognized locations
RU2013104895A (ru) * 2013-02-05 2014-08-10 ЭлЭсАй Корпорейшн Процессор изображений с функциональностью выбора контуров
DE102013003689A1 (de) * 2013-03-04 2014-09-04 Heidelberger Druckmaschinen Ag Verfahren zum Erzeugen eines aus Abschnitten zusammengesetzten Druckbildes auf einem Bedruckstoff mit zwei Tintenstrahl-Druckköpfen
US9256795B1 (en) 2013-03-15 2016-02-09 A9.Com, Inc. Text entity recognition
US9304089B2 (en) * 2013-04-05 2016-04-05 Mitutoyo Corporation System and method for obtaining images with offset utilized for enhanced edge resolution
US9934611B2 (en) * 2013-09-11 2018-04-03 Qualcomm Incorporated Structural modeling using depth sensors
KR101338138B1 (ko) * 2013-10-18 2013-12-06 주식회사 아나패스 전환 영역 검출 방법 및 이를 이용한 영상 처리 장치
US9424598B1 (en) 2013-12-02 2016-08-23 A9.Com, Inc. Visual search in a controlled shopping environment
CN104793068A (zh) * 2014-01-22 2015-07-22 佛山市顺德区顺达电脑厂有限公司 基于图像采集的自动测试方法
US9536161B1 (en) 2014-06-17 2017-01-03 Amazon Technologies, Inc. Visual and audio recognition for scene change events
US9460517B2 (en) 2014-10-22 2016-10-04 Pointivo, Inc Photogrammetric methods and devices related thereto
EP4239549A3 (en) 2015-04-15 2023-11-01 Snap-On Incorporated Automated asset management system with multiple sensing technologies
US9349085B1 (en) * 2015-04-16 2016-05-24 Digicomp Inc. Methods and system to decode hidden images
CN104792263B (zh) 2015-04-20 2018-01-05 合肥京东方光电科技有限公司 确定显示母板的待检测区域的方法和装置
CN105258681B (zh) * 2015-10-08 2017-11-03 凌云光技术集团有限责任公司 一种用于曲线边缘特征定位的控件及其定位方法
US10451407B2 (en) * 2015-11-23 2019-10-22 The Boeing Company System and method of analyzing a curved surface
US10769776B2 (en) 2016-02-12 2020-09-08 Cognex Corporation System and method for efficiently scoring probes in an image with a vision system
US10152213B2 (en) * 2016-09-01 2018-12-11 Adobe Systems Incorporated Techniques for selecting objects in images
EP3555851B1 (en) * 2016-12-14 2021-09-22 Eyes Ltd Edge detection in digitized images
CN108281120B (zh) * 2018-01-27 2020-04-10 深圳市华星光电半导体显示技术有限公司 显示面板的Mura修补方法
US11593429B2 (en) 2018-03-21 2023-02-28 Rovi Guides, Inc. Systems and methods for presenting auxiliary video relating to an object a user is interested in when the user returns to a frame of a video in which the object is depicted
KR102502431B1 (ko) * 2018-11-02 2023-02-23 어플라이드 머티리얼즈 이스라엘 리미티드 3d-nand cdsem 계측을 위한 방법, 시스템, 및 컴퓨터 프로그램 제품
US11125967B2 (en) 2018-12-26 2021-09-21 Mitutoyo Corporation System and method for calibrating variable focal length lens system using calibration object with planar tilted pattern surface
CN110458850B (zh) * 2019-08-01 2020-12-11 北京灵医灵科技有限公司 一种大关节组织的分割方法和分割系统
CN112989872B (zh) * 2019-12-12 2024-05-07 华为技术有限公司 一种目标检测方法以及相关装置
CN111981989A (zh) * 2020-01-08 2020-11-24 杨春燕 电力线路现场宽度检测平台
US20220035490A1 (en) * 2020-07-31 2022-02-03 Zebra Technologies Corporation Systems and Methods for Facilitating Selection of Tools for Machine Vision Jobs
US11393194B2 (en) 2020-08-11 2022-07-19 International Business Machines Corporation Selective analysis for field boundary detection

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05157518A (ja) * 1991-12-09 1993-06-22 Toyota Central Res & Dev Lab Inc 物体認識装置
JPH09259289A (ja) * 1996-03-25 1997-10-03 Topcon Corp エッジ姿勢認識式の測定方法および装置
JPH11160019A (ja) * 1997-11-25 1999-06-18 Sumitomo Metal Mining Co Ltd 距離計測方法とその装置
JPH11201724A (ja) * 1998-01-08 1999-07-30 Mitsutoyo Corp エッジ検出方法及び画像測定装置
JP2000310940A (ja) * 1999-04-28 2000-11-07 Hitachi Ltd 地図情報更新方法及び地図更新装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4910786A (en) * 1985-09-30 1990-03-20 Eichel Paul H Method of detecting intensity edge paths
JP2867055B2 (ja) * 1990-01-29 1999-03-08 富士写真フイルム株式会社 エッジ判定方法および装置
US5692072A (en) * 1990-11-06 1997-11-25 Olympus Optical Co., Ltd. Edge detecting device
KR940007346B1 (ko) * 1991-03-28 1994-08-13 삼성전자 주식회사 화상 처리 시스템의 엣지 검출 장치
JP3097785B2 (ja) * 1992-04-30 2000-10-10 株式会社リコー 画像処理装置
JPH0660182A (ja) * 1992-08-04 1994-03-04 Komatsu Ltd テクスチャ解析を用いた領域分割方法及び装置
JP3472596B2 (ja) * 1993-06-11 2003-12-02 株式会社日立製作所 ノイズ低減フィルター
JP3380065B2 (ja) * 1993-10-08 2003-02-24 松下電器産業株式会社 領域識別装置及び階調変換処理装置
US5563962A (en) * 1994-03-08 1996-10-08 The University Of Connecticut Two dimensional digital hysteresis filter for smoothing digital images
US5671294A (en) * 1994-09-15 1997-09-23 The United States Of America As Represented By The Secretary Of The Navy System and method for incorporating segmentation boundaries into the calculation of fractal dimension features for texture discrimination
JPH09138471A (ja) * 1995-09-13 1997-05-27 Fuji Photo Film Co Ltd 特定形状領域の抽出方法、特定領域の抽出方法及び複写条件決定方法
US6137893A (en) * 1996-10-07 2000-10-24 Cognex Corporation Machine vision calibration targets and methods of determining their location and orientation in an image
KR100219628B1 (ko) * 1997-02-15 1999-09-01 윤종용 루프필터링 방법 및 루프필터
US6141033A (en) * 1997-05-15 2000-10-31 Cognex Corporation Bandwidth reduction of multichannel images for machine vision
US6078680A (en) * 1997-07-25 2000-06-20 Arch Development Corporation Method, apparatus, and storage medium for detection of nodules in biological tissue using wavelet snakes to characterize features in radiographic images
JPH1163930A (ja) * 1997-08-19 1999-03-05 Mitsutoyo Corp 画像測定機の照明装置
US6111983A (en) * 1997-12-30 2000-08-29 The Trustees Of Columbia University In The City Of New York Determination of image shapes using training and sectoring
JPH11203485A (ja) * 1998-01-13 1999-07-30 Mitsutoyo Corp 画像測定装置
JP3847946B2 (ja) * 1998-03-06 2006-11-22 株式会社ミツトヨ 画像測定機の測定結果ファイル作成方法
JP2000028336A (ja) * 1998-07-10 2000-01-28 Hoya Corp 形状測定装置及び形状測定方法
US6178260B1 (en) * 1998-09-23 2001-01-23 Xerox Corporation Image segmentation apparatus and method
US6233060B1 (en) * 1998-09-23 2001-05-15 Seiko Epson Corporation Reduction of moiré in screened images using hierarchical edge detection and adaptive-length averaging filters
US6192150B1 (en) * 1998-11-16 2001-02-20 National University Of Singapore Invariant texture matching method for image retrieval
DE10020067B4 (de) * 1999-08-18 2008-04-10 Trimble Jena Gmbh Verfahren zur Bestimmung der Kantenposition in Farbbildern, insbesondere für Farb- und Intensitätsübergänge
US6701005B1 (en) * 2000-04-29 2004-03-02 Cognex Corporation Method and apparatus for three-dimensional object segmentation
JP4040259B2 (ja) * 2001-02-16 2008-01-30 株式会社リコー 画像評価装置
US7003161B2 (en) * 2001-11-16 2006-02-21 Mitutoyo Corporation Systems and methods for boundary detection in images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05157518A (ja) * 1991-12-09 1993-06-22 Toyota Central Res & Dev Lab Inc 物体認識装置
JPH09259289A (ja) * 1996-03-25 1997-10-03 Topcon Corp エッジ姿勢認識式の測定方法および装置
JPH11160019A (ja) * 1997-11-25 1999-06-18 Sumitomo Metal Mining Co Ltd 距離計測方法とその装置
JPH11201724A (ja) * 1998-01-08 1999-07-30 Mitsutoyo Corp エッジ検出方法及び画像測定装置
JP2000310940A (ja) * 1999-04-28 2000-11-07 Hitachi Ltd 地図情報更新方法及び地図更新装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009037634A (ja) * 2001-11-16 2009-02-19 Mitsutoyo Corp マシンビジョンシステムの作動方法及びケース特有境界位置決めシステム
JP4727703B2 (ja) * 2001-11-16 2011-07-20 株式会社ミツトヨ マシンビジョンシステムの作動方法及び境界位置決めシステム
WO2018047650A1 (ja) * 2016-09-09 2018-03-15 ウシオ電機株式会社 基板角位置特定方法
JP2018041007A (ja) * 2016-09-09 2018-03-15 ウシオ電機株式会社 基板角位置特定方法
KR20190046897A (ko) * 2016-09-09 2019-05-07 우시오덴키 가부시키가이샤 기판 모서리 위치 특정 방법
KR102227972B1 (ko) 2016-09-09 2021-03-15 우시오덴키 가부시키가이샤 기판 모서리 위치 특정 방법
JP2020181510A (ja) * 2019-04-26 2020-11-05 キヤノンメディカルシステムズ株式会社 医用画像処理装置及び医用画像処理プログラム
JP7296773B2 (ja) 2019-04-26 2023-06-23 キヤノンメディカルシステムズ株式会社 医用画像処理装置及び医用画像処理プログラム

Also Published As

Publication number Publication date
JP4234399B2 (ja) 2009-03-04
CN1423237A (zh) 2003-06-11
DE10253674B4 (de) 2012-08-30
CN100487733C (zh) 2009-05-13
JP4727703B2 (ja) 2011-07-20
DE10253674A1 (de) 2003-05-28
JP2009037634A (ja) 2009-02-19
JP2003203217A (ja) 2003-07-18
US7003161B2 (en) 2006-02-21
US20030095710A1 (en) 2003-05-22

Similar Documents

Publication Publication Date Title
JP4727703B2 (ja) マシンビジョンシステムの作動方法及び境界位置決めシステム
Jahanifar et al. Supervised saliency map driven segmentation of lesions in dermoscopic images
JP4999163B2 (ja) 画像処理方法および装置ならびにプログラム
JP4528309B2 (ja) オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム
US9363499B2 (en) Method, electronic device and medium for adjusting depth values
WO2021051604A1 (zh) Osd的文字区域的识别方法、装置及存储介质
JP3944024B2 (ja) 画像処理方法、半導体装置の製造方法、パターン検査装置およびプログラム
AU2005223213B2 (en) Segmentation of structures based on curvature slope
US20130322771A1 (en) Shape detection using chain code states
JP5707570B2 (ja) 物体識別装置、物体識別方法、及び、物体識別装置の学習方法
Yogeswaran et al. 3d surface analysis for automated detection of deformations on automotive body panels
JP2011054062A (ja) 画像処理装置、画像処理方法及びプログラム
JP6340227B2 (ja) 人物検出装置
JP2014199506A (ja) 物体検出装置、物体検出方法及びプログラム
CN104504711A (zh) 一种基于圆形轮廓图极性的血管图像处理方法
JP2022026456A (ja) 選別プログラム、選別方法、および情報処理装置
CN114898128A (zh) 图像相似度比对方法、存储介质和计算机
JP2017004052A (ja) 学習装置、方法及びプログラム
JP2008310576A (ja) 設計支援方法および設計支援システム
JP2001076150A (ja) 粗テンプレートの作成方法及び装置
US20230410273A1 (en) Using luminance distributions to detect best areas of an image for prediction of noise levels
Foolad et al. Salient regions detection using background superpixels
JP2017073138A (ja) 水状態検出装置、方法及び画像処理装置
Ali et al. Automatic feature set selection for merging image segmentation results using fuzzy clustering
Friedland et al. Object cut and paste in images and videos

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110331

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110621