JP2018152081A - 取得された画像内のクラッタを決定するためのシステム及び方法 - Google Patents

取得された画像内のクラッタを決定するためのシステム及び方法 Download PDF

Info

Publication number
JP2018152081A
JP2018152081A JP2018066893A JP2018066893A JP2018152081A JP 2018152081 A JP2018152081 A JP 2018152081A JP 2018066893 A JP2018066893 A JP 2018066893A JP 2018066893 A JP2018066893 A JP 2018066893A JP 2018152081 A JP2018152081 A JP 2018152081A
Authority
JP
Japan
Prior art keywords
clutter
image
level
determining
runtime
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018066893A
Other languages
English (en)
Inventor
デイヴィス ジェイソン
Davis Jason
デイヴィス ジェイソン
ジェイ.マイケル デイヴィッド
J Michael David
ジェイ.マイケル デイヴィッド
アール.ボーガン ナタニエル
R Bogan Nathaniel
アール.ボーガン ナタニエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cognex Corp
Original Assignee
Cognex Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cognex Corp filed Critical Cognex Corp
Publication of JP2018152081A publication Critical patent/JP2018152081A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/01Solutions for problems related to non-uniform document background

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】画像の特徴の徹底的な分析を行うことを要することなく基礎となる撮像された実行時対象物表面が不良であるかを決定する採点プロセスを提供する。【解決手段】画像内のクラッタのレベルを決定するためのシステム及び方法は高速であり、画像が容認可能なクラッタのレベルを上回るか又は下回るかを迅速に決定するために、空白部があることを示す低い勾配度を有する画像領域と関連するクラッタテストポイントを用いる。【効果】空白部の欠如がクラッタを示す座標空間内の位置にトレーニングされたクラッタテストポイントをマッピングすることによって実行時画像を迅速に分析することを可能にし、検出した相違及び/又は欠陥を高速に示すことができ、さらに画像を分析することなく画像の被写体を容認又は拒否することを可能にする。【選択図】図1

Description

本発明はマシンビジョンシステム、並びに関連する撮像されたシーンにおける対象物のアライメント及び検査のための方法
本明細書で「ビジョンシステム」とも呼ばれるマシンビジョンシステムは、製造環境において多様なタスクを実行するために使用される。一般に、ビジョンシステムは、製造中の対象物を包含するシーンのグレースケール又はカラーイメージを取得するイメージセンサ(又は「イメージャ」)を備えた1台以上のカメラからなる。対象物の画像を分析してデータ/情報をユーザ及び関連する製造工程に提供できる。画像によって生み出されたデータは、典型的には、ビジョンシステムにより1台以上のビジョンシステムプロセッサで分析及び処理され、ビジョンシステムプロセッサは専用であってもよいし、あるいは汎用コンピュータ(例えばPC、ラップトップ、タブレット又はスマートフォン)内で作成される1以上のソフトウェアアプリケーションの部分であってもよい。
ビジョンシステムの共通タスクは、アライメントと検査を含む。アライメントタスクにおいてビジョンシステムツール、例えばコグネックス社(マサチューセッツ州ネイティック)から市販されている周知のPatMax(R)システムが、シーンの画像内の特徴を(実際のモデル又は合成モデルを用いて)トレーニングされたパターンと比較して撮像されたシーンにおけるパターンの存在/不在及び姿勢を決定する。この情報は後続の検査(又は他の)操作に使用して欠陥を探し、及び/又は部品拒否など他の操作を実行できる。
(例えば)印刷された表面のアライメント及び品質を決定する際の特別の課題は、どこに「クラッタ」が存在するかである。これとの関連においてクラッタは、関心のある特徴を取り囲む勾配特徴の拡散として定義され得る。例えば印刷された文字を取り囲むスマッジはクラッタと見なすことができる。
先行技術の短所を克服するために本発明が提供する画像内のクラッタのレベルを決定するためのシステム及び方法は高速であり、画像が容認可能なクラッタのレベルを上回るか又は下回るかを迅速に決定するための採点プロセス、例えば画像の特徴の徹底的な分析を行うことを要することなく基礎となる撮像された実行時対象物表面が不良であるか決定するための採点プロセスを可能にする。このシステム及び方法は、トレーニングパターンに従い空白部と見なされる特徴のない(例えば低い勾配度を示す)画像領域と関連するクラッタテストポイントを用いる。これは空白部が存在するべき座標空間内の位置にクラッタテストポイントをマッピングするトレーニングパターンを用いることによって実行時画像を迅速に分析することを可能にする。これらの位置では特徴/高い勾配度があることはクラッタが存在する可能性を意味し、特定されたら相違及び/又は欠陥を高速に示すことができ、それによって画像をさらに分析することなく(分析なしで)画像の被写体を容認又は拒否することを可能にする。
例示的な実施形態において、ビジョンシステムで撮像されたシーン内のクラッタを決定するシステム及び方法が提供される。システム及び方法は、シーンの実行時画像と、トレーニングされたパターンにおける空白部を表す一連のクラッタテストポイントを有するトレーニングされたパターンを提供することを含む。トレーニングされたパターンを基準とした画像に対する座標空間を含んで、実行時姿勢が確定される。例示的に、クラッタテストポイントが画像に対する座標空間にマッピングされ、マッピングされたクラッタテストポイントでそれぞれ空白部のレベルが決定される。決定された空白部のレベルに基づいて、少なくとも画像の一部で関連するクラッタのレベルが決定される。例示的に、クラッタのレベルを決定するステップは、マッピングされたクラッタテストポイントに対するそれぞれのクラッタスコア値を生成することを含む。クラッタスコア値を合計されることができ、システム及び方法は少なくとも画像の一部について全体クラッタスコア値を生成できる。空白部のレベルの決定は、それぞれマッピングされたクラッタテストポイントで勾配度を決定し、その大きさを既定の限界と比較することを含むことができ、姿勢の確定は、(a)ビジョンシステム内でアライメントツールを用いて自動的に実行時画像をトレーニングされたパターンにアライメントすること、及び(b)ユーザ入力から姿勢を指示する情報の取得を含んでいてもよい。
別の例示的な実施形態において、ビジョンシステムで撮像されたシーンの少なくとも一部でクラッタのレベルを決定するためのシステム及び方法が提供される。このシステム及び方法は、関心のある特徴を有するトレーニング画像と、画像内のクラッタのない領域を示す空白部のレベルに対して相対的な既定のクラッタ限界値を含む。クラッタテストポイントは、クラッタのない空白部のレベルを表す座標空間における位置に基づくトレーニング画像の座標空間を基準にして確定される。例示的に、トレーニング画像は、トレーニング画像のどのエリアを空白部に関して評価すべきかを示すマスク及び/又はピクセル値に依存しない記述によって規定された特徴を含む。クラッタテストポイントは、トレーニング画像の領域に既定の限界値より低い勾配度が存在することによって決定され得る。クラッタテストポイントは実行時画像におけるクラッタ決定において使用するために、トレーニングされた画像の座標空間を基準にして保存されることができ、クラッタ限界値はトレーニング画像内の勾配値のヒストグラムに基づいて計算できる。クラッタ限界値は入力パラメータとして提供されてよい。
ビジョンシステムを用いてトレーニングされたパターンに基づいて実行時候補画像におけるクラッタのレベルを決定するためのシステム及び方法が提供される。トレーニング時クラッタポイント発生器が、トレーニング画像内の座標空間に対して相対的な一連のクラッタテストポイントを発生し、このトレーニング画像はクラッタ限界値を下回る空白部のレベルを有するトレーニング画像内の位置に基づく情報を含んでいる。クラッタ限界値は既定のパラメータとトレーニング画像内の情報に基づいて確定される。実行時クラッタ決定器は、クラッタテストポイントの位置を実行時姿勢に基づいて実行時候補画像にマッピングし、各々の位置で空白部のレベルを計算して取得された画像の少なくとも一部でクラッタのレベルを決定する。実行時候補画像内の空白部のレベルは、それぞれの位置で決定された勾配度に基づくことができる。クラッタ利用器は、決定されたクラッタレベルを用いて、決定されたクラッタレベルに基づく実行時候補画像と関連する表面を基準として既定の動作を行う。例を挙げれば、既定の動作は、部品拒否、警報の発生、品質データの送信及び動いているラインの停止の少なくとも1つを含んでいてもよい。少なくとも1つの既定のパラメータは、ユーザによって入力されることができる。クラッタ決定器は、各々の位置でクラッタスコアを生じることができる。クラッタ決定器は、各々の位置に対するクラッタスコアを合計して実行時候補画像に対する全体クラッタスコアを生成する。情報は関心のある特徴を含むことができ、さらにトレーニング画像と実行時候補画像の各々において関心のある特徴の少なくとも一部の位置に基づいて実行時姿勢を決定するアライメントツールを含んでいてもよい。
以下に本発明について添付の図面を参照して説明する。
クラッタを表すスマッジが存在する模範的テキストを含む対象物の表面の画像を取得するように配置されたビジョンシステムの図である。
取得された実行時画像におけるクラッタの存在又は不在を決定する際に使用するためのモデル画像に基づいてクラッタテストポイントを確定するためのトレーニング手順のフローチャートである。
図2のトレーニング手順で使用するClutterPixelCount及びTrainingPixelCountに対する値を確定するための手順のフローチャートである。
クラッタテストポイントの数を制限値に基づく最大ポイント数に制限するための手順のフローチャートである。
クラッタテストポイントが実行時画像にマッピングされ、それに基づいてクラッタの存在又は不在が決定される実行時クラッタ決定手順のフローチャートである。
図5の実行時クラッタ決定手順に使用するためのクラッタスコア決定手順のフローチャートである。
一連の模範的な文字及び数字を記したトレーニング画像/パターンを示すディスプレイの図であり、それぞれトレーニング画像上の関心のある顕著な特徴とその上にある空白領域のエッジの輪郭を描く規則的な画像特徴プローブと特徴のないクラッタテストポイントの生成を含む。
プローブとクラッタテストポイントの存在を示す図7の一部を拡大したディスプレイの図である。
トレーニングパターンプローブとクラッタテストポイントとのアライメント、及びトレーニングパターンと実行時候補画像の特徴との間の模範的な相反する特徴(文字)の存在を示す取得された実行時候補画像ディスプレイの図である。
トレーニングパターンの特徴プローブ及びクラッタテストポイントと比べて取得されたパターン上の特徴(文字)の相違を示す、図7の画像の一部を拡大したディスプレイの図である。
図1は、ビジョンシステムカメラアセンブリ120の視野(FOV)内で撮像された対象物表面110上の特徴112の検査及び/又は分析に使用するマシンビジョンシステム配置構成(単に「ビジョンシステム」とも呼ぶ)100を示す。カメラアセンブリ120はコンポーネントの任意の容認可能な配置構成であってよく、典型的にはレンズアセンブリ122と、CCD又はCMOSなどの任意の容認可能な撮像技術に基づいてイメージセンサ(又は「イメージャ」)126を収容したカメラ本体124を含む。イメージャ126は、シーンをグレースケール又はカラーで感知するように適合され得る一連の画像ピクセルにより画像を2次元(例えば高さH及び幅W)で取得するように配置構成できる。カメラ本体は、関連するビジョンプロセスを操作するビジョンプロセッサ130を構成する種々の画像処理コンポーネントを含むことができる。ビジョンプロセッサはシーンの取得された画像に作用し、ビジョンシステムツール及びプロセス132を用いて取得された画像から情報を抽出できる。この情報は関心のある特徴及び画像内に出現する他の特色に関するものであることができる。例えばコグネックス社(マサチューセッツ州ネイティック)から市販されている周知のPatMax(R)システムなどのビジョンシステムツールを用いて、画像内の特徴を分析し、相対的姿勢、アライメント及び他の詳細に関する情報、例えばエッジ、ブロブなどを提供できる。ビジョンシステムプロセスの一部又は全部は、カメラアセンブリ120の本体124内で作成できる。プロセスの一部又は全部は、適当なユーザインタフェース142とディスプレイ144、146及びディスプレイ148を備えて(破線の矢印134で示されているように)相互接続された(有線又は無線の)コンピュータデバイス/プロセッサ、例えば専用プロセッサ又は汎用コンピュータ(例えばサーバ、PC、ラップトップ、スマートフォン、タブレットなど)140によって実行され得ることが明確に想定されている。相互接続されたコンピュータデバイス/プロセッサ140は、処理された画像データを用いて以降の利用タスク(即ち「利用素子」又は「利用器」プロセスの使用)150を実効できる。例えばビジョンシステムが検査タスクを実行する場合は、品質管理情報をデータベースに供給し、又はライン上の不良品を拒否するために情報を使用できる。情報はまた(例えば)対象物上のラベル及び/又はIDコードを読むことによって物流管理用途にも使用できる。画像データ及び関連する情報を用いてその他様々な利用タスクを行うことができる。
例示的な実施形態において、ビジョンプロセス及びプロセッサはクラッタ決定プロセス/プロセッサ160を含む。これは本明細書に記載された実施形態に従い取得された画像内のクラッタのレベルを決定する働きをする。クラッタは一般的に、トレーニングされたパターンに従えば画像において存在すべきではない画像内の情報と見なされる。クラッタの1例は、所望の印刷されたパターン172と関連したスマッジ(例えば濁ったエリア170)である。一般に、最も慣用的なサーチツールはトレーニングされたパターンの存在を探し、それが見出されたら成功を示す結果を返す。しかしながら対象物表面の画像内にクラッタ又は他の望ましくない「ノイズ」がある場合には、所望の/トレーニングされたパターンが存在するかもしれないが、全体画像はなおも(追加のノイズ又はクラッタのために)欠陥を示し、その結果ユーザは当該対象物を不良品として拒否することになろう。別の例を挙げると、パターン−例えば印刷された「P」−をサーチして、サーチツールが適切にPの要素を見出したとしても、画像内には別の要素−例えば印刷された「R」を示す右下の棒が存在することを無視する。右下の棒は「クラッタ」の一形態と見なされることがある。したがって画像内のそのような「クラッタ」のレベルを決定して、そのような「クラッタ」のレベルに基づいて撮像された対象物表面が容認可能であるか又は容認不可能であるか(さらにはビジョンシステムによって適切に記録されているか)の基礎を形成することは望ましくもあり課題でもある。
画像内のクラッタのレベルを決定する際に、システムは最初にトレーニング画像データ180を提供するが、これは典型的には関心のある特徴(例えば印刷)を含み、実際のトレーニング対象物表面の取得された画像及び/又は合成画像データに基づくことができる。即ち、トレーニング画像及び関連するトレーニングパターンは、(例えば)CADモデル、合成正方形などで提供される記述によって規定されてよい。したがって「トレーニング画像」及び「トレーニングパターン」という言葉は広く解して、一般的にピクセル値に頼らずに規定されるデータセットを含むものとする。図1に示されているように、システムはトレーニング時操作と実行時操作のためにユーザから種々の入力パラメータ190も受け取るが、これについては以下に説明する。
図2を参照すると、これは以下に記す後続の実行時クラッタ決定手順で使用されるトレーニング画像を確定する手順200を示している。ステップ210で、実際のトレーニング画像又は合成トレーニング画像がシステムに供給される。トレーニング画像はピクセルの2次元(2D)配列として整えられ、それぞれ座標(xとy)及び関連する強度値(例えば多色/色強度が存在する場合)を有する。或いは他の値、例えば高さマップにおける高さが与えられた座標におけるピクセルを記述できる。追加的に、トレーニング画像は少なくとも1つ関心のある特徴−例えば対照的エッジと既定の形状を定義する印刷及び/又はグラフィックを含むことができる。画像はカメラアセンブリ(又は他のカメラ配置構成)によってマップ物理的モデルから取得でき、又はユーザが関心のある特徴に対する既定の形状、例えば与えられたサイズ/縮尺の既定の円、正方形、文字などを用いて合成して、トレーニング画像に挿入できる。
ステップ220では、手順200はトレーニング画像内の最大勾配度に基づいてクラッタ限界値を提供する。この限界はユーザ入力又はシステム供給パラメータとして提供されてよい。或いは、限界は計算されてもよい。
ステップ230で、手順200はトレーニング画像内の各々指定された位置と関連してクラッタテストポイントを生成する。これらの位置はピクセル位置に基づくか、又はサブピクセル位置に関連することができ、或いは一般的にトレーニング画像に対して相対的な任意の容認可能な座標空間で確定され得る。各々のクラッタテストポイントは、勾配度がクラッタ限界値よりちいさいそれぞれの位置で確定される。換言すれば、クラッタテストポイント(「クラッタプローブ」とも呼ぶ)は、勾配度(又は画像特徴/特性の他の指標)に対する測定値/分析値が与えられた限界を下回る画像内の弱いエッジに適用される。
例を挙げれば、手順は特に例示的な実施形態に従うクラッタ決定に適合されたシグモイド応答関数の確定を含む。非限定的な例を挙げれば、シグモイド応答関数は次式によって表すことができる。
1/(1+(t/x)1/σ
ここで、入力xは関数に与えられ、tは「ソフトな」限界値である。x及びtの値は同じ単位、例えば勾配度である。ソフトな限界は、シグモイド出力が1/2である値を指定する。加えて、0から1へのシグモイド移行率は、典型的にσと呼ばれるパラメータによって制御され得る。ソフトな限界tは、このクラッタ応答関数シグモイドの中心点を定義する。ソフトな限界tに対する値は、0.01などのデフォルト値によって定義され得るか、或いはtはユーザによって異なるパラメータ値として特別に入力されてよい。ソフトな限界tは、他のビジョンシステムアプリケーション/プロセス(例えばやはりコグネックス社から市販されているPatMax(R)又はRedLineTM)におけるノイズ限界値と類似に設定される。したがってそのようなノイズ限界を決定及び/又は入力するために使用されるメカニズム及び技術は当業界で通常の技術を用いて、システムに値tを指定/入力するために応用できる。追加的に、例示的な実施形態において、上記のシグモイド応答関数に含まれるσに対する値は、次の模範的な式によって提供され得る。
σ=logt/−3
ここで、logは10を底とする対数であり、tは限界を勾配度0〜1として表す。この式は代替的な実施において極めて可変的である。上記の非限定的な例により与えられた特定の関係は、有意味な限界の全範囲にわたりシグモイド関数に対する望ましい応答を提供する。即ち、σに対する模範的な式により、限界が高いと応答関数「立ち上り」はより緩やかになるが、応答を単純な直線的応答に過度に近くなるほど遅くすることはない。とりわけ、上述したシグモイド応答関数採点を用いると、手順はパラメータ/可変クラッタ・スコア・カットオフで表される値の出力を生み出すような入力勾配度を決定できる。
一般に、クラッタ限界値に対する上述した値は、ビジョンシステムプロセスにおけるノイズ限界と同様に、例えばヒストグラムを用いて計算できる。この場合手順は、勾配度がクラッタ限界値より小さい微妙な勾配の画像において、トレーニングマスク(もしあれば)内で「存在」(又は他の類似のフラッグ)と標識されている各ピクセルに対してクラッタテストポイントを生成する。そのようなものとしてシステムは(後の実行時分析のために)実行時に低い勾配度を持つべきトレーニング画像/パターン上の位置、したがってクラッタテストポイントを提供することが可能な位置を考慮する。
画像の領域が画像の分析にとって重要ではないと見なされたら、クラッタテストポイントの位置からマスキングできることに留意されたい。
図2のステップ230と図3を参照して、クラッタのテストポイントの生成は(サブ手順300に従い)MaxClutterPixelsの設定値に従う画像内の最大クラッタポイントカウントに制限できる。非限定的な例を挙げれば、デフォルト値10,000を採用できる。そのようなものとして、この制限なしに生成されるべきクラッタテストポイントの総数(即ちステップ310におけるClutterPixelCount)は、ステップ320におけるMaxClutterPixelsの値で除算される。例示的にこの値の平方根を計算する。例えば計20,000クラッタテストポイントが生成されるべきであり10,000が最大であるならば、結果として生じる係数nは(10,000/20,000)1/2又は1.414となる。こうして手順300はステップ330で、1.414番目毎のピクセル(又は座標空間における他の位置、例えばサブピクセル)を水平方向と垂直方向の両方でチェックし(最近傍ピクセルに丸める)、手順(図2のステップ230)は限界を下回る空白部(トレーニング時の「デッドスペース」とも呼ぶ。これは実行時画像の当該位置に予想されなかったデータが存在する場合は実行時に「クラッタ」となる)に対するピクセル/位置のみをテストする。この手順300は全画像データの1/nをサンプリングする。サンプルはMaxClutterPixels値の近似であろう。画像内のクラッタテストポイントの数を制限するために他の様々な技術を採用できることは明白であろう。一部の技術は予想された特徴又はその欠如のためにある領域を画像から省略し、又はあるエリアのカウントを重み付けすることを含んでいてもよい。次に手順300はステップ340において、ステップ330で与えられたピクセル/位置に基づいてトレーニング画像内におけるクラッタテストポイントの位置を確定する。これらは手順200のステップ240(図2)に従いリファイナに保存される。
図4のサブ手順400も参照すると、ステップ240(図2)でクラッタテストポイントを保存すると、ステップ410でもシステムは、2次クラッタシグモイド曲線上でクラッタ限界値を下回る精緻なトレーニングピクセル/位置の数を計算して(又は他の方法で確定して)、この値をリファイナにClutterPixelCount値として保存する。同様にステップ420で、既定の勾配度限界を上回る値を有する精緻なピクセル/位置の数がリファイナにTrainingPixelCountとして保存される。この値は多様な方法で確定され得る。ステップ430で、上述したようにClutterScoreCutoffに対する値もリファイナに保存される。
図5は、取得された画像(候補画像)がそれに含まれるクラッタのレベルを決定するために採点される実行時手順500を示す。ステップ510で、実行時分析のために画像がカメラアセンブリ120(図1)によって取得されて保存又は他の方法でシステムに供給される。手順500はステップ520で画像に対するカバレッジスコア(素点)を計算する。素点が「容認」限界を下回る場合は、実行時候補画像は捨てられて、「拒否」ステータスを示す次の画像が分析される。このステップは随意であり、省くことができ、手順500を通してすべての画像が処理され得ることに留意されたい。或いは、全画像分析プロセス/手順の異なる時点にステップ520が提供されてよい。カバレッジの計算、規則的な画像「プローブ」及び生成、及び実行時に画像をアライメント/採点するための他のメカニズムは、以下に述べる市販のツール及びプロセス(例えばコグネックス社PatMax(R)、RedLineTMなど)を用いて実現できる。実行時マスクは、実行時にクラッタとしてマスキングされた実行時候補画像の領域を採点することを避けるために使用できることにも留意されたい。ここで留意すべきは、少なくとも基本的登録プロセスは実行時画像の座標空間をトレーニングパターンの座標空間とアライメントするために使用されることである。これにより実行時画像の「姿勢」を確定することが可能になる(ステップ530)。
ステップ540で、実行時画像の見出された「姿勢」を用いてクラッタテストポイントを最近傍の実行時画像の座標空間にマッピングする。ステップ550で、手順500は各クラッタテストポイントについて、実行時勾配度を上述したシグモイド関数に通して、0に固定された結果からClutterScoreCutoffに対する値を減算することによって採点する。次に(非限定的な例で)この結果に(1.0/(1.0−ClutterScoreCutoff))を乗算して、スコア空間が正規化されるように(即ち0と1の間で)リスケーリングする。代替的な実施形態において他の正規化技術(又は非正規化)も採用できることに留意されたい。種々の実施形態において減算、固定及び縮尺変更を直接含むようにシグモイド正規化表を修正して、実行時にこれらの操作を不要にできることに留意されたい。
計算されたスコア情報により、手順500はステップ560に従いクラッタのレベルを供給することが可能となる。1実施形態において、さらに図6を参照して、手順600はステップ610でマッピングされたすべてのクラッタテストポイントからのクラッタスコア値を合計する。次にステップ620でその結果生じた合計を保存された値TrainingPixelCountで除算し、それによりステップ630で画像に対する全クラッタスコア(ClutterScore)を導出する。結果として生じるおおまかな平均値を得るために値ClutterPixelCountの代わりに値TrainingPixelCountで除算することにより、カバレッジ値1は可能な「正しい」ピクセル/位置と同じ数の画像内のクラッタピクセル/位置を与えることが仮定される。最終的に報告されるスコアは(CoverageScore−ClutterFactor*ClutterScore)で0に固定されており、クラッタ係数ClutterFactorのデフォルト値は0.5である。
ステップ570で、実行時候補画像におけるクラッタスコア又はクラッタのレベルに関する他の情報は、(随意の)下流プロセス及びタスクによって利用されて種々の動作、例えば(これに限らない)生産ラインの停止、警報の発生、品質管理データの保存及び/又は部品拒否を実行できる。
模範的な印刷170と所望された印刷領域を超えて延びるスマッジ172を有する上記の表面112(図1)の例では、トレーニングされた画像は関心のある特徴として印刷された画像を含み、スマッジが発生する領域はトレーニング画像に対する「デッドスペース」領域と見なされる。トレーニング画像/トレーニングされたパターンにおいて、この領域で予想される空白部に基づいてクラッタテストポイントが確定される。実行時にスマッジを伴って表示された画像は一般的に限界レベルを上回る勾配度を生じ、それによって、全画像におけるクラッタ及び欠陥を示すクラッタスコアを生成させる。したがって表示された表面112の分析画像は欠陥を示すのに十分なクラッタスコアを生み出し、下流の利用タスクはこの結果に対処するために適当な措置を講じるであろう(例えば部品拒否及び/又は警報)。
ここで、トレーニング画像(それぞれ原寸図と拡大図)のディスプレイ700を示す図7及び図8を参照すると、関心のある特徴は文字710と数字720であり、それぞれ相応に高い勾配度を有する強いエッジ712及び714を画定している。エッジ712および714は空白部730のエリアによって囲まれている。これらの領域の間に一連の規則的な非クラッタ画像プローブ810が置かれており、勾配の方向を表す矢印によって表現されている(図8に拡大して示す)。これらのプローブはエッジから空白部に向う方向で実質的に各エッジ712、714を囲んでいる。プローブ810の間隔は一部最大ポイントカウントへの制限の関数である。ポイントは空白部と出会う箇所で強いエッジを適当に界接するのに十分である。空白部内には本質的に設定された間隔を置いた「関心ポイント」820である一連のクラッタのテストポイントがある。これらのポイント820は方向を持たない。図8には(プローブ矢印ポイント810で界接された)「関心のある特徴」に対する顕著なエッジではなく、「特徴のない」ポイント(矢印のないクラッタテストポイント820)でもない領域(例えば印刷要素の端部830及び840)が存在することに留意されたい。これらは弱いが存在する(低い勾配度)エッジであり、クラッタテストポイントとは関連していない。
画像内の特徴及び/又は空白部の位置を特定するために勾配度を使用することは、当業者にとって明白であるはずの多様な技術の1つであることに留意されない。例えば代替的技術は画像上でソーベル演算子分析を実行し、次にエッジ連鎖プロセスを実行して特徴の存在/不在を決定するための連鎖がないエリアをサーチすることを伴う。このように画像における空白部/空白領域の決定は、広く解して多様な技術を含むものとする。
図9及び図10を参照すると、ディスプレイは、カメラアセンブリ120(図1)によって取得された実行時候補画像900を表示している。プローブ及びクラッタテストポイントが候補画像900の上に重ねられており、十分な一致が存在している。例えば印刷された上列の数字0、1、2及び下列の3、4、/5、6は、(プローブによって画定された)トレーニングパターンと候補画像900の特徴/エッジとの間のアライメント及びマッピングを提供する。しかしながら取得された候補画像900上の文字Q、R、Sは、それぞれP、Q、Rであるトレーニングされたパターンプローブと一致しない。特に図10の拡大図を参照すると、取得された候補文字Q910は、文字Pの輪郭を描くプローブ1010と一致しておらず、一部のクラッタテストポイント1020は印刷された特徴内にあり、勾配が小さいか又は存在してはならない箇所で顕著な勾配度を示している。こうしてプローブ1010及びクラッタテストポイント1020をサンプリングすれば、勾配度は予想された値と一致せずに、クラッタと見なされるであろう。したがって候補画像は高いクラッタスコアを持ち、拒否されるであろう。この事例では高いクラッタの存在が実際上アライメント及びパターン認識ツール、並びに純粋な欠陥検出ツールとして用いられている。しかしながら実行時候補画像内のすべての印刷された文字がトレーニングされたパターン内のポイントと一致したが、追加のスマッジ又は異質の印刷が存在した場合も類似の結果になるであろう。そのようなスマッジ又は印刷は、勾配が小さいか又は勾配のない空白部が存在すべき箇所で勾配度を示すであろう。実行時画像の分析において規則的なプローブを省き、クラッタテストポイントのみに依拠してトレーニングパターンと実行時パターンの間の容認可能な(一時的)一致を決定することが可能であることに留意されたい。クラッタテストポイントが勾配度の高いエリアにあると(空白部が存在すべき箇所におけるクラッタを表すパターン要素があるためクラッタスコアは高い)、画像は一致しない。
クラッタテストポイント・トレーニングパターンを生成することにより、実行時候補画像上の好ましくない特徴を高速かつ高い信頼性をもって検出できることは明白であろう。このアプローチは、徹底したプロセッサ/時間集約的な分析を行う前に候補の容認又は拒否を可能にし、それによって操作効率及び処理速度を増大させる。
以上、本発明の例示的な実施形態を詳細に説明した。本発明の精神と範囲を逸脱することなく種々の改変及び追加を行うことができる。上述した種々の実施形態の各特徴は、関連する新しい実施形態において多数の特徴の組み合わせを提供するのに適する限り、別の記載された実施形態の特徴と組み合わされてよい。さらに、上に本発明の装置と方法の多数の別個の実施形態を記したが、ここに記載されたものは本発明の原理の応用を例示したものに過ぎない。例えば本明細書中で使用される様々な方向及び向きを表わす言葉(及びそれらの文法的派生形)、例えば、「垂直」、「水平」、「上」、「下」、「底部」、「頂部」、「側部」、「前部」、「後部」、「左」、「右」、「前方」、「後方」およびこれに類するものは、相対的な表現法として用いられているに過ぎず、重力の作用方向などの固定した座標系を基準とした絶対的な向きを表わすものではない。さらに、表現されたプロセス又はプロセッサは他のプロセス及び/又はプロセッサと組み合わせ、又は種々のサブプロセス又はプロセッサに分割されてよい。そのようなサブプロセス及び/又はサブプロセッサは、ここに記載する実施形態に従って多様に組み合わせることができる。同様に、ここに記載された何らかの機能、プロセス及び/又はプロセッサは、プログラム命令の非一時的コンピュータ可読媒体からなる電子ハードウェア、ソフトウェア、或いはハードウェアとソフトウェアの組合せを用いて実施できることが明確に想定されている。従ってこの説明は例示の方法によるものであり、本発明の範囲を別途制限することを意味するものではない。

Claims (20)

  1. ビジョンシステムで撮像されたシーン内のクラッタを決定するための方法であって、
    シーンの実行時画像を提供するステップと;
    トレーニングされたパターンにおける空白部のレベルを表す一連のクラッタテストポイントを有するトレーニングされたパターンを提供するステップと;
    トレーニングされたパターンを基準とした画像に対する座標空間で実行時姿勢を確定するステップと;
    クラッタテストポイントを画像に対する座標空間にマッピングするステップと;
    マッピングされたクラッタテストポイントでそれぞれ空白部のレベルを決定するステップと;
    前記空白部のレベルに基づいて少なくとも画像の一部でクラッタのレベルを決定するステップと、を含む方法。
  2. 前記空白部のレベルを決定するステップは、マッピングされたクラッタテストポイントに対するそれぞれのクラッタスコア値を生成することを含む、請求項1に記載の方法。
  3. さらに、クラッタスコア値を合計し、少なくとも画像の一部について全体クラッタスコア値を生成することを含む、請求項2に記載の方法。
  4. 前記空白部のレベルを決定するステップは、それぞれマッピングされたクラッタテストポイントで勾配度を決定し、前記空白部のレベルを既定の限界と比較することを含む、請求項1に記載の方法。
  5. 前記姿勢を確定するステップは、(a)ビジョンシステム内でアライメントツールを用いて自動的に実行時画像をトレーニングされたパターンにアライメントすること、及び(b)ユーザ入力から姿勢を指示する情報を取得することの少なくとも1つを含む、請求項1に記載の方法。
  6. ビジョンシステムで撮像されたシーンの少なくとも一部でクラッタのレベルを決定するためのトレーニングパターンを抽出するための方法であって、
    関心のある特徴を有するトレーニング画像を提供するステップと;
    画像内のクラッタのない領域を示す空白部のレベルに対して相対的な既定のクラッタ限界値を提供するステップと;
    クラッタのない空白部のレベルを表す座標空間における位置に基づくトレーニング画像の座標空間を基準にしてクラッタテストポイントを確定するステップと、を含む方法。
  7. トレーニング画像は、トレーニング画像のどのエリアを空白部に関して評価すべきかを示すマスクを含む、請求項6に記載の方法。
  8. トレーニング画像は、ピクセル値に依存しない記述によって規定された特徴を含む、請求項6に記載の方法。
  9. 前記クラッタテストポイントを確定するステップは、トレーニング画像の領域で既定の限界値より低い勾配度を決定することを含む、請求項6に記載の方法。
  10. さらに、実行時画像におけるクラッタ決定において使用するために、クラッタテストポイントをトレーニングされた画像の座標空間に保存することを含む、請求項6に記載の方法。
  11. クラッタ限界値は、トレーニング画像内の勾配値のヒストグラムに基づいて計算される、請求項6に記載の方法。
  12. 前記クラッタ限界値は、入力パラメータとして提供される、請求項6に記載の方法。
  13. ビジョンシステムを用いてトレーニングされたパターンに基づいて実行時候補画像におけるクラッタのレベルを決定するためのシステムであって、
    該システムは、トレーニング時クラッタポイント発生器と実行時クラッタ決定器とを有し、
    トレーニング時クラッタポイント発生器は、トレーニング画像内の座標空間に対して相対的な一連のクラッタテストポイントを発生し、前記トレーニング画像はクラッタ限界値を下回る空白部のレベルを有するトレーニング画像内の位置に基づく情報を有し、前記クラッタ限界値は既定のパラメータとトレーニング画像内の情報に基づいて確定されており;
    実行時クラッタ決定器は、クラッタテストポイントの位置を実行時姿勢に基づいて実行時候補画像にマッピングし、各々の位置で空白部のレベルを計算して取得された画像の少なくとも一部でクラッタのレベルを決定する、
    上記システム
  14. 実行時候補画像内の空白部のレベルは、それぞれの位置で決定された勾配度に基づいている、請求項13に記載のシステム。
  15. さらに、決定されたクラッタレベルを利用して、決定されたクラッタレベルに基づく実行時候補画像と関連する表面を基準として既定の動作を行うクラッタ利用器を含む、請求項13に記載のシステム。
  16. 前記既定の動作は、部品拒否、警報の発生、品質データの送信及び動いているラインの停止の少なくとも1つを含む、請求項15に記載のシステム。
  17. 少なくとも1つの既定のパラメータは、ユーザによって入力される、請求項13に記載のシステム。
  18. クラッタ決定器は、各々の位置でクラッタスコアを生じる、請求項13に記載のシステム。
  19. クラッタ決定器は、各々の位置に対するクラッタスコアを合計して実行時候補画像に対する全体クラッタスコアを生成する、請求項18に記載のシステム。
  20. 前記情報は、関心のある特徴を含み、さらにトレーニング画像と実行時候補画像の各々において関心のある特徴の少なくとも一部の位置に基づいて実行時姿勢を決定するアライメントツールを含んでいる、請求項13に記載のシステム。
JP2018066893A 2014-12-22 2018-03-30 取得された画像内のクラッタを決定するためのシステム及び方法 Pending JP2018152081A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/580,153 2014-12-22
US14/580,153 US10192283B2 (en) 2014-12-22 2014-12-22 System and method for determining clutter in an acquired image

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015244679A Division JP6317725B2 (ja) 2014-12-22 2015-12-15 取得された画像内のクラッタを決定するためのシステム及び方法

Publications (1)

Publication Number Publication Date
JP2018152081A true JP2018152081A (ja) 2018-09-27

Family

ID=56099829

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015244679A Active JP6317725B2 (ja) 2014-12-22 2015-12-15 取得された画像内のクラッタを決定するためのシステム及び方法
JP2018066893A Pending JP2018152081A (ja) 2014-12-22 2018-03-30 取得された画像内のクラッタを決定するためのシステム及び方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015244679A Active JP6317725B2 (ja) 2014-12-22 2015-12-15 取得された画像内のクラッタを決定するためのシステム及び方法

Country Status (4)

Country Link
US (1) US10192283B2 (ja)
JP (2) JP6317725B2 (ja)
CN (1) CN105718931B (ja)
DE (1) DE102015122116A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3559600A2 (en) 2016-12-23 2019-10-30 Mobileye Vision Technologies Ltd. Navigational system with imposed liability constraints
US20180225799A1 (en) * 2017-02-03 2018-08-09 Cognex Corporation System and method for scoring color candidate poses against a color image in a vision system
CN108694729B (zh) * 2017-04-07 2021-01-29 深圳市腾盛精密装备股份有限公司 基于图像检测的定位方法、设备、装置以及存储介质
CN109102466A (zh) * 2017-06-20 2018-12-28 杭州海康威视数字技术股份有限公司 图像污点判定方法及装置
US11562505B2 (en) * 2018-03-25 2023-01-24 Cognex Corporation System and method for representing and displaying color accuracy in pattern matching by a vision system
US10594987B1 (en) * 2018-05-30 2020-03-17 Amazon Technologies, Inc. Identifying and locating objects by associating video data of the objects with signals identifying wireless devices belonging to the objects
JP7363035B2 (ja) * 2019-01-21 2023-10-18 コニカミノルタ株式会社 画像検査装置、プログラム、画像処理装置及び画像形成装置

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5109425A (en) 1988-09-30 1992-04-28 The United States Of America As Represented By The United States National Aeronautics And Space Administration Method and apparatus for predicting the direction of movement in machine vision
IL113945A0 (en) 1994-06-10 1995-08-31 Johnson & Johnson Vision Prod System and method for inspecting lenses
JPH08189905A (ja) 1995-01-10 1996-07-23 Nippon Steel Corp 疵検査装置
US5988862A (en) 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
JPH11195121A (ja) 1997-12-29 1999-07-21 Canon Inc 画像評価装置および方法
US6173070B1 (en) 1997-12-30 2001-01-09 Cognex Corporation Machine vision method using search models to find features in three dimensional images
US6323776B1 (en) * 1999-12-21 2001-11-27 Snap-On Technologies, Inc. Method and apparatus of automatically identifying faults in a machine vision measuring system
US6476803B1 (en) 2000-01-06 2002-11-05 Microsoft Corporation Object modeling system and process employing noise elimination and robust surface extraction techniques
US6941026B1 (en) 2000-06-13 2005-09-06 Cognex Corporation Method and apparatus using intensity gradients for visual identification of 2D matrix symbols
US7062093B2 (en) * 2000-09-27 2006-06-13 Mvtech Software Gmbh System and method for object recognition
US6920241B1 (en) * 2000-09-29 2005-07-19 Cognex Corporation System and method for bundled location and regional inspection
US6836560B2 (en) * 2000-11-13 2004-12-28 Kla - Tencor Technologies Corporation Advanced phase shift inspection method
US7110602B2 (en) 2002-08-21 2006-09-19 Raytheon Company System and method for detection of image edges using a polar algorithm process
US7181066B1 (en) * 2002-12-26 2007-02-20 Cognex Technology And Investment Corporation Method for locating bar codes and symbols in an image
US7242460B2 (en) * 2003-04-18 2007-07-10 Sarnoff Corporation Method and apparatus for automatic registration and visualization of occluded targets using ladar data
US7558419B1 (en) * 2003-08-14 2009-07-07 Brion Technologies, Inc. System and method for detecting integrated circuit pattern defects
US7042639B1 (en) * 2003-08-21 2006-05-09 The United States Of America As Represented By The Administrator Of Nasa Identification of cells with a compact microscope imaging system with intelligent controls
US7583852B2 (en) * 2004-10-26 2009-09-01 Mitutoyo Corporation Method of filtering an image for high precision machine vision metrology
WO2007024216A1 (en) * 2005-08-23 2007-03-01 The Mazer Corporation Test scoring system and method
US20090002224A1 (en) * 2005-09-22 2009-01-01 Nader Khatib SAR ATR tree line extended operating condition
US7995054B2 (en) 2005-11-21 2011-08-09 Leica Geosystems Ag Identification of edge regions from 3D point data
US20070161898A1 (en) * 2006-01-10 2007-07-12 Siemens Medical Solutions Usa, Inc. Raw data reprocessing in ultrasound diagnostic imaging
JP4796860B2 (ja) 2006-02-16 2011-10-19 住友化学株式会社 オブジェクト検出装置及びオブジェクト検出方法
US8054217B2 (en) 2006-10-26 2011-11-08 Raytheon Company Radar imaging system and method using gradient magnitude second moment spatial variance detection
US8331740B2 (en) * 2007-11-06 2012-12-11 Gravic, Inc. Inferential self-registration of imperfect OMR forms
EP2081133B1 (en) * 2008-01-18 2010-05-19 MVTec Software GmbH System and method for deformable object recognition
US20090232388A1 (en) 2008-03-12 2009-09-17 Harris Corporation Registration of 3d point cloud data by creation of filtered density images
WO2010042466A1 (en) 2008-10-06 2010-04-15 Kevin Scott Williams Apparatus and method for classifying point cloud data based on principal axes
US8442304B2 (en) 2008-12-29 2013-05-14 Cognex Corporation System and method for three-dimensional alignment of objects using machine vision
US8488877B1 (en) 2009-12-02 2013-07-16 Hrl Laboratories, Llc System for object recognition in colorized point clouds
CN101751559B (zh) * 2009-12-31 2012-12-12 中国科学院计算技术研究所 人脸皮肤斑痣点检测及利用皮肤斑痣识别人脸的方法
CA2801137A1 (en) * 2010-08-19 2012-02-23 Bae Systems Plc Sensor data processing
US8447099B2 (en) 2011-01-11 2013-05-21 Eastman Kodak Company Forming 3D models using two images
US8269830B1 (en) * 2011-04-14 2012-09-18 Mitutoyo Corporation Inspecting potentially interfering features in a machine vision system
WO2012146253A1 (en) 2011-04-29 2012-11-01 Scape Technologies A/S Pose estimation and classification of objects from 3d point clouds
US9235882B2 (en) * 2011-08-16 2016-01-12 Nikon Corporation Method for detecting existence of dust spots in digital images based on locally adaptive thresholding
US9098893B2 (en) * 2011-12-21 2015-08-04 Applied Materials Israel, Ltd. System, method and computer program product for classification within inspection images
US8654398B2 (en) * 2012-03-19 2014-02-18 Seiko Epson Corporation Method for simulating impact printer output, evaluating print quality, and creating teaching print samples
US9153061B2 (en) 2012-05-04 2015-10-06 Qualcomm Incorporated Segmentation of 3D point clouds for dense 3D modeling
US8971663B2 (en) * 2012-05-21 2015-03-03 Cognex Corporation System and method for producing synthetic golden template image for vision system inspection of multi-layer patterns
US8977035B2 (en) 2012-06-13 2015-03-10 Applied Materials Israel, Ltd. System, method and computer program product for detection of defects within inspection images
US20140050387A1 (en) * 2012-08-17 2014-02-20 Cognex Corporation System and Method for Machine Vision Inspection
US8897560B2 (en) * 2012-09-24 2014-11-25 Eastman Kodak Company Determining the estimated clutter of digital images
US20140192050A1 (en) 2012-10-05 2014-07-10 University Of Southern California Three-dimensional point processing and model generation
US20140120319A1 (en) 2012-11-01 2014-05-01 Benjamin E. Joseph 3d mapping using structured light and formation of custom surface contours
US9733902B2 (en) * 2013-05-13 2017-08-15 Mitutoyo Corporation Machine vision system program editing environment including operating context aware copy and paste feature
US9098773B2 (en) 2013-06-27 2015-08-04 Chevron U.S.A. Inc. System and method of detecting objects in scene point cloud
US9208609B2 (en) 2013-07-01 2015-12-08 Mitsubishi Electric Research Laboratories, Inc. Method for fitting primitive shapes to 3D point clouds using distance fields
US9280827B2 (en) 2013-07-03 2016-03-08 Mitsubishi Electric Research Laboratories, Inc. Method for determining object poses using weighted features

Also Published As

Publication number Publication date
DE102015122116A1 (de) 2016-06-23
CN105718931B (zh) 2020-08-25
JP6317725B2 (ja) 2018-04-25
CN105718931A (zh) 2016-06-29
US20160180198A1 (en) 2016-06-23
JP2016119090A (ja) 2016-06-30
US10192283B2 (en) 2019-01-29

Similar Documents

Publication Publication Date Title
JP6317725B2 (ja) 取得された画像内のクラッタを決定するためのシステム及び方法
KR102073468B1 (ko) 비전 시스템에서 컬러 이미지에 대해 컬러 후보 포즈들의 점수화를 위한 시스템 및 방법
JP2018055675A (ja) 3d画像データにおける3dポーズの改良されたスコアリング及び偽ポイント除去のためのシステム及び方法
CN107085728B (zh) 利用视觉系统对图像中的探针进行有效评分的方法及系统
US8515156B2 (en) Image analysis device and method
US9569850B2 (en) System and method for automatically determining pose of a shape
US8315457B2 (en) System and method for performing multi-image training for pattern recognition and registration
US11170246B2 (en) Recognition processing device, recognition processing method, and program
US11216905B2 (en) Automatic detection, counting, and measurement of lumber boards using a handheld device
CN110288040A (zh) 一种基于拓扑验证的图像相似评判方法及设备
CN104655041B (zh) 一种附加约束条件的工业零件轮廓线多特征提取方法
JP2022009474A (ja) ビジョンシステムでラインを検出するためのシステム及び方法
JP2020512536A (ja) モデルベースのピーク選択を使用した3dプロファイル決定のためのシステム及び方法
JP5772675B2 (ja) 濃淡画像のエッジ抽出方法、エッジ抽出装置並びに濃淡画像のエッジ抽出プログラム
JP2013182416A (ja) 特徴量抽出装置、特徴量抽出方法及び特徴量抽出プログラム
CN112730427B (zh) 一种基于机器视觉的产品表面缺陷检测方法及系统
JP2019045993A (ja) 画像処理装置、画像処理方法及びプログラム
WO2023141903A1 (en) Easy line finder based on dynamic time warping method
JP2017073138A (ja) 水状態検出装置、方法及び画像処理装置
Chen et al. A survey of 2d and 3d image matching in industrial object alignment
TW202407639A (zh) 螺件裝配誤差檢測裝置、螺件裝配誤差檢測方法及電腦程式產品
JP2022123733A (ja) 検査装置、検査方法、およびプログラム
JP2020148586A (ja) 画像処理装置、検査装置、画像処理方法、及びプログラム
JP2012128557A (ja) 被写体位置計測装置、ディスプレイシステム、および被写体位置計測方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20191218

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200313

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200925