JP2017038368A - System and method classifying image acquisition setting for pattern stitching and decoding by using multiple captured images - Google Patents

System and method classifying image acquisition setting for pattern stitching and decoding by using multiple captured images Download PDF

Info

Publication number
JP2017038368A
JP2017038368A JP2016156093A JP2016156093A JP2017038368A JP 2017038368 A JP2017038368 A JP 2017038368A JP 2016156093 A JP2016156093 A JP 2016156093A JP 2016156093 A JP2016156093 A JP 2016156093A JP 2017038368 A JP2017038368 A JP 2017038368A
Authority
JP
Japan
Prior art keywords
image
acquisition
images
symbol
settings
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016156093A
Other languages
Japanese (ja)
Other versions
JP6457983B2 (en
Inventor
ワン シエンジュ
Xianju Wang
ワン シエンジュ
イエ シャンユン
Xiangyun Ye
イエ シャンユン
エイ.ネグロ ジェイムズ
A Negro James
エイ.ネグロ ジェイムズ
ヴェコニー ダーヴィド
Vekony David
ヴェコニー ダーヴィド
ロブレス ロブ
Robles Robb
ロブレス ロブ
ボロウスキ ヨーゼフ
Borovszki Jozsef
ボロウスキ ヨーゼフ
ジー.ウェブスター スティーヴン
G Webster Steven
ジー.ウェブスター スティーヴン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cognex Corp
Original Assignee
Cognex Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/821,920 external-priority patent/US9600703B2/en
Application filed by Cognex Corp filed Critical Cognex Corp
Publication of JP2017038368A publication Critical patent/JP2017038368A/en
Application granted granted Critical
Publication of JP6457983B2 publication Critical patent/JP6457983B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10712Fixed beam scanning
    • G06K7/10722Photodetector array or CCD scanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1439Methods for optical code recognition including a method step for retrieval of the optical code
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/146Methods for optical code recognition the method including quality enhancement steps
    • G06K7/1491Methods for optical code recognition the method including quality enhancement steps the method including a reconstruction step, e.g. stitching two pieces of bar code together to derive the full bar code

Abstract

PROBLEM TO BE SOLVED: To provide imaging system and method determining an order for applying to image acquisition setting while acquiring multiple images.SOLUTION: A system and a method acquire and decode multiple images. A first image is acquired and then processed, and decoding of a symbol is tried. Contribution of the first image to decode trial is specified. An updated acquisition setting order is determined based, at least partially, on the contribution of the first image to decode trial. A second image is acquired or processed based, at least partially, on the updated acquisition setting order.SELECTED DRAWING: None

Description

本技術は、画像をデコードする画像化システム及び方法に関し、詳細には、複数の画像を取得する間に画像取得設定に適用する為の順番を決定する画像化システム及び方法に関する。   The present technology relates to an imaging system and method for decoding an image, and more particularly, to an imaging system and method for determining an order to apply to an image acquisition setting while acquiring a plurality of images.

画像化システムが、視覚対象の情報を供給するカメラセンサを含む画像取得デバイスを用いる。次いで、システムが、この情報を種々のアルゴリズムに基づいて解釈し、プログラムされた意思決定及び/又は特定機能を実施する。可視及び可視近くの光範囲におけるセンサにより最も効率的に取得される画像の為に、対象が一般的に照明される。   An imaging system uses an image acquisition device that includes a camera sensor that supplies information of a visual object. The system then interprets this information based on various algorithms and implements programmed decision making and / or specific functions. Objects are typically illuminated for images that are most efficiently acquired by sensors in the visible and near-visible light range.

画像センサを用いてのシンボル読取(一般に「バーコード」スキャンとも呼ばれる)が、画像取得センサ(CMOSカメラ、CCD等)の目標をシンボル(たとえば「バーコード」)を含む対象にそこで課し、シンボルの画像を取得する。シンボルが、キャラクタ又は形状の順番位群を表わす所定のパターンセットを含み、搭載されたデータプロセッサ(たとえばマイクロコンピュータ)が対象についての有用な情報(たとえば、シリアル番号、機種、モデル、価格など)をパターンから導く。シンボル/バーコードが種々の形状及びサイズで利用可能である。目標のマーキング及び特定に用いられる最も一般的に利用される2つのシンボルタイプが、幅と間隔の変化する縦ストライプの線から構成されるいわゆる一次元バーコード、及びドット又は矩形の二次元アレイから構成されるいわゆる二次元バーコードである。   Symbol reading using an image sensor (commonly referred to as a “barcode” scan) imposes the target of the image acquisition sensor (CMOS camera, CCD, etc.) there on the object containing the symbol (eg “barcode”) Get the image. The symbol contains a predetermined pattern set representing a character or shape order group, and an onboard data processor (eg, a microcomputer) provides useful information about the subject (eg, serial number, model, model, price, etc.). Derived from the pattern. Symbols / barcodes are available in various shapes and sizes. The two most commonly used symbol types used for target marking and identification are from so-called one-dimensional barcodes consisting of lines of vertical stripes of varying width and spacing, and two-dimensional arrays of dots or rectangles It is a so-called two-dimensional barcode configured.

多くの画像化用途において、表面特徴、照明、部分移動、又は他の変化の振動又はその大きさによって、シンボルの個々の画像が、部分的に読取り出来なくなる。たとえば、画像化システムは、対象がコンベヤラインを移動しつつ対象のシンボルの複数の画像を取得する。この配置で、画像化デバイスと対象との間の相対移動、画像解析に有害な(たとえば上述の)現象が発生する。したがって、1つ又は複数の画像のシンボルが部分的に読み取り出来ない。   In many imaging applications, an individual image of a symbol becomes partially unreadable due to surface features, illumination, partial movement, or other variation vibrations or magnitudes. For example, an imaging system acquires multiple images of a target symbol as the target moves on a conveyor line. With this arrangement, relative movement between the imaging device and the object, phenomena that are detrimental to image analysis (eg, as described above) occur. Therefore, the symbols of one or more images cannot be partially read.

例示する機械視覚検出器は、関心の対象/特徴が視野を通過しながらそれの複数の画像を取得し、各画像は検出及び/又はトリガ機能を実行するように用いられる。   The exemplary machine vision detector acquires multiple images of the object / feature of interest as it passes through the field of view, and each image is used to perform detection and / or trigger functions.

本実施形態が、画像取得設定、たとえば複数の画像の取得の間の露出時間や照明設定を適用する為の順番を決定するシステム及び方法を提供し、従来の不利な点を克服し、ある実施形態においては、シンボルの複数の画像からの情報に基づきシンボルデータをデコードするのに有用である。複数の画像が取得され、画像の試みられたデコードに関連する得点数が画像に割り当てられる。次いで、割当得点数に少なくとも部分的に基づいて取得設定テーブルが分類され、画像組の続く撮影又は処理で、取得設定テーブルの分類順番に基づく順番で異なる画像取得設定が利用される。   This embodiment provides a system and method for determining the order for applying image acquisition settings, such as exposure time between multiple image acquisitions and illumination settings, overcoming the disadvantages of the prior art, and certain implementations. In form, it is useful for decoding symbol data based on information from multiple images of the symbol. Multiple images are acquired and a score number associated with the attempted decoding of the image is assigned to the image. The acquisition setting table is then classified based at least in part on the assigned score, and different image acquisition settings are used in subsequent shooting or processing of the image set in the order based on the classification order of the acquisition setting table.

したがって、ある実施形態には、シンボルの画像を用いてシンボルをデコードする方法が含まれる。方法には、シンボルの複数の知られる特徴のモデルを含んでシンボルの合成モデルを生成することが含まれる。第1のリードサイクルに対する第1及び第2の画像が取得され、ここで第1の画像が、第1の取得設定を用いて取得され第1のシンボルデータ領域を含み、第2の画像が、第2の取得を用いて取得され第2のシンボルデータ領域を含む。シンボルの合成モデルが、第1と第2の画像、及び第1と第2のバイナリマトリクス、それぞれと比較されて抽出される。第1のバイナリマトリクスが第2のバイナリマトリクスに少なくとも部分的に複合され、複合バイナリマトリクスがシンボルのデコード可能代表である、複合バイナリマトリクスが生成される。シンボルをデコードする試みが複合バイナリマトリクスに少なくとも部分的に基づいて為される。第1及び第2の画像のシンボルをデコードする試みに対するそれぞれの第1及び第2の寄与が特定される。第1及び第2の寄与に少なくと部分的に基づいて、第1及び第2の取得設定に対して更新された取得設定順番が決定される。画像化デバイスが、更新された取得設定順番に少なくとも部分的に基づいて決定された第3の取得設定を用いて、第2のリードサイクルに対する第3の画像を取得し得る。   Accordingly, some embodiments include a method of decoding a symbol using an image of the symbol. The method includes generating a composite model of a symbol including a model of a plurality of known features of the symbol. First and second images for a first read cycle are acquired, wherein the first image is acquired using a first acquisition setting and includes a first symbol data region, and the second image is It includes the second symbol data area acquired using the second acquisition. A composite model of symbols is extracted by comparing with the first and second images and the first and second binary matrices. The first binary matrix is at least partially combined with the second binary matrix, and a composite binary matrix is generated in which the composite binary matrix is a decodable representative of the symbols. An attempt to decode the symbol is made based at least in part on the composite binary matrix. Respective first and second contributions to the attempt to decode the symbols of the first and second images are identified. Based on at least in part on the first and second contributions, an updated acquisition setting order is determined for the first and second acquisition settings. The imaging device may acquire a third image for the second read cycle using a third acquisition setting determined based at least in part on the updated acquisition setting order.

他の実施形態が、シンボルの画像を用いてシンボルをデコードする別の方法を含み、画像化デバイスが初期の取得設定順番に少なくとも部分的に基づいて決定される各取得設定の初期シーケンスを用いていて、第1の画像が第1の取得順番で取得される。方法に、2つ以上の第1の画像から画像データを少なくとも部分的にステッチすることにより第1の画像を処理してシンボルをデコードするのを試みることが含まれる。シンボルをデコードする試みに対応する少なくとも1つの寄与が、初期の取得設定の少なくとも1つを用いて取得された2つ以上の第1の画像に対し特定され得る。少なくとも1つの寄与に少なくとも部分的に基づいて、初期取得設定の集合に対し、更新された取得設定順番が決定され得る。更新された取得設定順番に少なくとも部分的に基づいて決定される第2の取得設定の更新されたシーケンスを用いて、第2の画像が画像化デバイスで取得されるか、更新された取得設定順番に少なくとも部分的に基づいて決定される処理順番を用いて、第2の画像がデコードする試みにおいて処理され得る。   Other embodiments include another method of decoding a symbol using an image of the symbol, wherein the imaging device uses an initial sequence of each acquisition setting that is determined based at least in part on the initial acquisition setting order. Thus, the first image is acquired in the first acquisition order. The method includes processing the first image and attempting to decode the symbols by at least partially stitching image data from two or more first images. At least one contribution corresponding to the attempt to decode the symbol may be identified for two or more first images acquired using at least one of the initial acquisition settings. An updated acquisition setting order may be determined for the set of initial acquisition settings based at least in part on the at least one contribution. A second image is acquired by the imaging device using an updated sequence of second acquisition settings determined based at least in part on the updated acquisition setting order, or the updated acquisition setting order The second image may be processed in an attempt to decode using a processing order that is determined based at least in part.

上述したのに準じ、ある実施形態では、シンボルの画像を用いてシンボルをデコードするシステムが設けられる。画像化デバイスは、取得された画像がそれぞれのシンボルデータ領域を含んでいる状態で、複数の画像を取得するように構成され得る。画像化デバイスに動作可能に結合されたプロセッサが、システムの第1のリードサイクルに対する第1の複数の画像を受けるように構成され得る。第1の複数の画像が、それぞれの取得設定を用いて第1の取得順番で画像化デバイスによって取得され、初期の取得設定順番に従って決定された第1及び第2の取得設定を用いてそれぞれ取得される第1及び第2の画像を含み得る。プロセッサがさらに、データステッチアルゴリズムを実行するように構成され、シンボルの複数の知られる特徴のモデルを含むシンボルの合成モデルを生成し、シンボルの合成モデルを少なくとも第1及び第2の画像と比較し、第1の画像の第1のシンボルデータ領域を第1のバイナリマトリクスに変換し、第2の画像の第2のシンボルデータ領域を第2のバイナリマトリクスに変換し、第1のバイナリマトリクスを第2のバイナリマトリクスに少なくとも部分的に複合して、シンボルのデコード可能代表を含む複合バイナリマトリクスを生成することを含む。プロセッサが、複合バイナリマトリクスに少なくとも部分的に基づいてシンボルをデコードすることを試み、システムの第2のリードサイクルに対する第2の複数の画像を受けるように構成され得る。画像の第2の複数の画像が、更新された取得設定順番に従って決定される更新された取得設定を用いて、第2の取得順番で画像化デバイスによって取得され得る。更新された取得設定順番が、第1及び第2の画像のシンボルをデコードするそれぞれの試みへの第1及び第2の寄与に少なくとも部分的に基づいて決定され得る。   In accordance with the above, in one embodiment, a system is provided for decoding a symbol using a symbol image. The imaging device may be configured to acquire a plurality of images with the acquired images including respective symbol data regions. A processor operably coupled to the imaging device may be configured to receive a first plurality of images for a first read cycle of the system. A first plurality of images are acquired by the imaging device in a first acquisition order using respective acquisition settings and acquired using first and second acquisition settings determined according to an initial acquisition setting order, respectively. First and second images to be included. The processor is further configured to execute a data stitching algorithm to generate a symbol composite model that includes a model of a plurality of known features of the symbol and compare the symbol composite model to at least the first and second images. , Converting the first symbol data area of the first image into a first binary matrix, converting the second symbol data area of the second image into a second binary matrix, and converting the first binary matrix into the first binary matrix; Generating a composite binary matrix including at least partially composited binary binary matrices including decodable representatives of symbols. A processor may be configured to attempt to decode the symbol based at least in part on the composite binary matrix and to receive a second plurality of images for a second read cycle of the system. A second plurality of images of the image may be acquired by the imaging device in a second acquisition order using the updated acquisition settings determined according to the updated acquisition setting order. An updated acquisition setting order may be determined based at least in part on the first and second contributions to the respective attempts to decode the symbols of the first and second images.

さらに他の実施形態では、シンボルの画像を用いてシンボルをデコードするシステムが設けられる。画像化デバイスが、取得された画像の各々がそれぞれシンボルデータ領域を含んでいる状態で、複数の画像を取得するように構成され得る。画像化デバイスに動作可能に結合されたプロセッサが、システムの第1のリードサイクルに対する第1に複数の画像を受けるように構成され得る。第1の複数の画像は、それぞれの取得設定を用いて第1の取得順番で画像化デバイスによって取得され、初期の取得設定順番に従って決定される第1及び第2の取得設定を用いてそれぞれ取得される第1及び第2の画像を含み得る。プロセッサがさらにデータステッチアルゴリズムを実行するように構成され、該アルゴリズムが、シンボルの知られる複数の特徴のモデルを含んでいる合成モデルを生成し、シンボルの合成モデルを少なくとも第1及び第2の画像と比較し、第1の画像の第1のシンボルデータ領域を第1のバイナリマトリクスに変換し、第2の画像の第2のシンボルデータ領域を第2のバイナリマトリクスに変換し、第1のバイナリマトリクスを第2のバイナリマトリクスに少なくとも部分的に複合してシンボルのデコード可能代表を含む複合バイナリマトリクスを生成することを含む。プロセッサがさらにシンボルをデコードするよう試みることを含み、複合バイナリマトリクスに少なくとも部分的に基づき、システムの第2のリードサイクルに対する第2の複数の画像を受ける。第1及び第2の画像のシンボルをデコードする試みへの第1及び第2の寄与に少なくとも部分的に基づいて決定される処理順番で、デコードの為に第2の複数の画像が処理され得る。   In yet another embodiment, a system for decoding a symbol using a symbol image is provided. The imaging device may be configured to acquire a plurality of images with each acquired image including a symbol data region. A processor operably coupled to the imaging device may be configured to receive a first plurality of images for a first read cycle of the system. The first plurality of images are acquired by the imaging device in a first acquisition order using the respective acquisition settings and each acquired using first and second acquisition settings determined according to the initial acquisition setting order First and second images to be included. The processor is further configured to execute a data stitch algorithm that generates a composite model that includes a model of a plurality of known features of the symbol, and that combines the composite model of the symbol with at least the first and second images. The first symbol data area of the first image is converted to a first binary matrix, the second symbol data area of the second image is converted to a second binary matrix, and the first binary Including at least partially combining the matrix with a second binary matrix to generate a composite binary matrix including a decodable representative of the symbols. The processor further includes attempting to decode the symbol and receives a second plurality of images for the second read cycle of the system based at least in part on the composite binary matrix. The second plurality of images may be processed for decoding in a processing order determined based at least in part on the first and second contributions to the attempt to decode the symbols of the first and second images. .

上述及び関連する最先端を実施する為、次いで以降で完全に説明する特徴を技術が有する。次の説明及び添付の図面が技術の例示のある態様を詳述する。これらの態様は、しかしながら、技術の原理が用いられる種々の方法のいくつかを示すに過ぎにない。他の態様や技術の有利な点、新しい特徴が、以降の技術の詳細な説明から図面と併せて検討して明白になろう。   In order to implement the above and related state-of-the-art, the technology then has features that are fully described below. The following description and the annexed drawings set forth in detail certain illustrative aspects of the technology. These aspects, however, only illustrate some of the various ways in which the principles of the technology are used. Advantages and novel features of other aspects and techniques will become apparent from the following detailed description of the technology when considered in conjunction with the drawings.

本実施形態に基づく、対象の複数の画像を取得する為の固定スキャナを含む典型的な視覚システムの概略図である。1 is a schematic diagram of an exemplary vision system including a stationary scanner for acquiring multiple images of an object, according to this embodiment. FIG. 種々の2次元マトリクスシンボルの特徴及び形式の図である。FIG. 2 is a diagram of the characteristics and format of various two-dimensional matrix symbols. 種々の2次元マトリクスシンボルの特徴及び形式の図である。FIG. 2 is a diagram of the characteristics and format of various two-dimensional matrix symbols. 種々の2次元マトリクスシンボルの特徴及び形式の図である。FIG. 2 is a diagram of the characteristics and format of various two-dimensional matrix symbols. 種々の2次元マトリクスシンボルの特徴及び形式の図である。FIG. 2 is a diagram of the characteristics and format of various two-dimensional matrix symbols. 種々の2次元マトリクスシンボルの特徴及び形式の図である。FIG. 2 is a diagram of the characteristics and format of various two-dimensional matrix symbols. 種々の2次元マトリクスシンボルの特徴及び形式の図である。FIG. 2 is a diagram of the characteristics and format of various two-dimensional matrix symbols. 画像における配置された有望候補領域及び背景ノイズの図である。It is a figure of the promising candidate area | region and background noise arrange | positioned in an image. 対象の第1及び第2の画像で2つの有望候補領域を示す図である。It is a figure which shows two promising candidate area | regions with the 1st and 2nd image of object. 対象の第1及び第2の画像で2つの有望候補領域を示す図である。It is a figure which shows two promising candidate area | regions with the 1st and 2nd image of object. 図9の第1の画像における第1の有望候補のバイナリマトリクスを示す画像である。10 is an image showing a binary matrix of first promising candidates in the first image of FIG. 9. 図9の第1の画像における第2の有望候補のバイナリマトリクスを示す画像である。10 is an image showing a binary matrix of second promising candidates in the first image of FIG. 9. 図10の第2の画像における第1の有望候補のバイナリマトリクスを示す画像である。FIG. 11 is an image showing a binary matrix of first promising candidates in the second image of FIG. 10. 図10の第2の画像における第2の有望候補のバイナリマトリクスを示す画像である。FIG. 11 is an image showing a binary matrix of second promising candidates in the second image of FIG. 10. 図9の第1の画像における第1の有望候補のバイナリマトリクスと図10の第2の画像における第1の有望候補のバイナリマトリクスとをステッチした累積バイナリマトリクスを示す画像である。FIG. 11 is an image showing a cumulative binary matrix obtained by stitching the binary matrix of the first promising candidate in the first image of FIG. 9 and the binary matrix of the first promising candidate in the second image of FIG. 10. 図9の第1の画像における第2の有望候補のバイナリマトリクスと図10の第2の画像における第2の有望候補のバイナリマトリクスとをステッチした累積バイナリマトリクスを示す画像である。10 is an image showing a cumulative binary matrix obtained by stitching the binary matrix of the second promising candidate in the first image of FIG. 9 and the binary matrix of the second promising candidate in the second image of FIG. 10. シンボルの第1の画像を示す。A first image of the symbol is shown. 図17の続く又は同じシンボルの第2の画像を示し、僅かに移動したシンボルを示している。FIG. 17 shows a second image of the same or the same symbol in FIG. 17, showing the symbol moved slightly. 相関技術に利用可能な合成モデルを示す。A composite model that can be used for correlation techniques is shown. 合成シンボルモデルと第2の画像との間の相関が、大きさと位置のパラメータ空間内で最も高いシンボルを示す。The correlation between the composite symbol model and the second image represents the highest symbol in the size and position parameter space. 第2の画像における精製された有望領域を示す。The refined promising region in the second image is shown. 有望領域が破損したデータ領域を囲む状態で、明るい視野照明を用いたシンボルの第1の画像を示す。FIG. 5 shows a first image of a symbol using bright field illumination with a promising region surrounding a corrupted data region. 知られない極のある図22のシンボルの第2の画像を示す。FIG. 23 shows a second image of the symbol of FIG. 22 with an unknown pole. ライトオンダーク(light-on-dark)を用いた第1のDOH画像を示す。Fig. 4 shows a first DOH image using light-on-dark. ダークオンライト(dark-on-light)を用いた第2のDOH画像を示す。Figure 2 shows a second DOH image using dark-on-light. 図22の第1の画像及び図23の第2の画像からのデコード可能ステッチ及び累積バイナリマトリクスを示す。FIG. 24 shows a decodable stitch and cumulative binary matrix from the first image of FIG. 22 and the second image of FIG. 取得設定テーブルのある、画像取得及び得点割当動作の概略図である。It is the schematic of an image acquisition and score allocation operation | movement with an acquisition setting table. 開示の1つの実施形態に基づいて分類した図27の取得設定テーブルのある、別の取得動作の概略図である。FIG. 28 is a schematic diagram of another acquisition operation with the acquisition setting table of FIG. 27 classified based on one embodiment of the disclosure. 得点割当の例示画像取得設定のインデックス、テーブル分類、及び画像取得動作付きのテーブルを示す図である。It is a figure which shows the table with the example image acquisition setting index of a score allocation, table classification, and image acquisition operation | movement. 図29のテーブルから画像取得設定で撮影した画像の為のリードサイクルセット、及びリードサイクルの結果に基づく画像に対する得点割当を表すテーブルを示す。FIG. 30 shows a table representing a read cycle set for an image shot with image acquisition settings from the table of FIG. 29 and a score assignment for an image based on the result of the read cycle. 取得設定テーブル用の平均分類値の計算に調節された、図30の得点割当を示す。30 shows the score assignment of FIG. 30 adjusted to calculate the average classification value for the acquisition settings table. 図31の調節された得点割当に基づいて計算された分類値の指数動き平均を示す。FIG. 32 illustrates an exponential moving average of classification values calculated based on the adjusted score assignment of FIG. 図32の平均化された分類値の分類順番を示す。The classification order of the averaged classification value of FIG. 32 is shown. 第1テーブルで図32の分類順番を示し、第2の別のテーブルで分離テーブルで表される成功シンボルデコードに寄与する画像取得設定を示す。The first table shows the classification order of FIG. 32, and the second different table shows image acquisition settings that contribute to the successful symbol decoding represented by the separation table. 図34の第1及び第2のテーブルに基づく画像取得設定の更新された順番を示す。FIG. 35 shows an updated order of image acquisition settings based on the first and second tables of FIG. 異なるデコード試みに用いられた画像の異なるセットを示す。Fig. 4 shows different sets of images used for different decoding attempts.

技術が、種々の修正及び代替の形態を受ける一方で、特定の実施形態が例として図面に示され、本明細書で詳細に説明される。しかしながら、理解すべきは、特定の実施形態の本明細書の説明が開示された具体的な形態に技術を限定すると云った意図は無く、反対に、添付の請求項で定義されるように技術の精神及び範囲の中の全ての修正、等価及び代替に及ぶものである。   While the technology is subject to various modifications and alternative forms, specific embodiments are shown by way of example in the drawings and are described in detail herein. It should be understood, however, that the intention is not to limit the technology to the specific forms disclosed by the description of the specific embodiment, but rather, as defined in the appended claims. All modifications, equivalents, and alternatives within the spirit and scope of the present invention.

では、主題の技術の種々の態様を添付の図面を参照して説明するが、ここで類似の参照番号はいくつかの図に亘って類似の要素に対応する。しかしながら、図面及び以降関連する詳細な説明が、発明特定事項を開示の特定の形態に限定するものでないことが理解されよう。寧ろ、発明特定事項の精神及び範囲に入る全ての修正、等価、及び代替に及ぶことが意図される。   Various aspects of the subject technology will now be described with reference to the accompanying drawings, wherein like reference numerals correspond to like elements throughout the several views. It will be understood, however, that the drawings and detailed description below are not intended to limit the invention-specific matter to the particular forms disclosed. On the contrary, it is intended to cover all modifications, equivalents, and alternatives falling within the spirit and scope of the invention specific matters.

本明細書に用いるような用語「構成要素(component)」、「システム(system)」、及び「デバイス(device)」などは、ハードウェア、ハードウェアとソフトウェアとの組合せ、ソフトウェア、実行のソフトウェアを指すものである。ここでの用語「例示の(exemplary)」は、「example」、「instance」、又は「illustration」として提供することを意味するのに用いられる。ここで「example」として記載される何れの態様又はデザインが必ずしも他の態様又はデザインに対して好適又は有利であるものとして解されない。   The terms “component”, “system”, and “device” as used herein refer to hardware, a combination of hardware and software, software, software for execution. It is what you point to. The term “exemplary” herein is used to mean providing as “example”, “instance”, or “illustration”. Any aspect or design described herein as “example” is not necessarily to be construed as preferred or advantageous over other aspects or designs.

さらに、記載の発明特定事項は、標準のプログラム及び/又は設計技術及び/又はハードウェア、ファームウェア、ソフトウェア、若しくはそれらの何れの組合せを生成するプログラミングを用いて、システム、方法、又は製造物として実施されてもよく、本明細書に記載する態様を実施する電子を基礎とするデバイスを制御する。   Furthermore, the described invention specifics may be implemented as a system, method, or product using standard programs and / or design techniques and / or programming that generates hardware, firmware, software, or any combination thereof. May control an electronic-based device that implements the aspects described herein.

特定しないか限定しない限り、用語「接続された(connected)」、「結合された(coupled)」、及びこれらの変形が広く用いられ、直接及び間接の両方の実装、接続、支持、及び結合に及ぶ。さらに、「接続された」、「結合された」は、物理的又は機械的な接続又は結合に制限されない。本明細書で用いられるように、明示的に記述しない限り、「接続された」は1つの要素/特徴が直接的又は間接的に別の要素/特徴に接続され必ずしも電気的又は機械的ではないことを意味する。同じように、明示的に記述しない限り、「結合された」は1つの要素/特徴が直接的又は間接的に別の要素/特徴に結合され必ずしも電気的又は機械的ではないことを意味する。   Unless specified or limited, the terms “connected”, “coupled”, and variations thereof are widely used to implement both direct and indirect implementation, connection, support, and coupling. It reaches. Further, “connected” and “coupled” are not limited to physical or mechanical connections or couplings. As used herein, unless explicitly stated, “connected” means that one element / feature is directly or indirectly connected to another element / feature and is not necessarily electrical or mechanical. Means that. Similarly, unless explicitly stated, “coupled” means that one element / feature is directly or indirectly coupled to another element / feature and is not necessarily electrical or mechanical.

本明細書で用いられるように、用語「プロセッサ」が、1つ以上のプロセッサ及びメモリ及び/又は1つ以上のプログラマブルハードウェア要素を有してもよい。ここで用いられるように、用語「プロセッサ」は、ソフトウェア命令を実行できる、何れのタイプのプロセッサ、CPU、マイクロコントローラ、デジタルシグナルプロセッサ、又は他のデバイスを含むものとする。   As used herein, the term “processor” may include one or more processors and memory and / or one or more programmable hardware elements. As used herein, the term “processor” is intended to include any type of processor, CPU, microcontroller, digital signal processor, or other device capable of executing software instructions.

ここで用いられるように、用語「メモリ」が、磁気媒体若しくはハードディスク、光学ストレージ、又はフラッシュメモリなどの不揮発性媒体、DRAM、SDRAM、EDORAM、RAMBUSRAM、DRDRAMなどのランダムアクセスメモリ(RAM)、等のシステムメモリ等の揮発性媒体、又はプログラムが保存され及び/又はデータ通信がバッファされるCD−ROM、又はフレキシブルディスクなどの実装媒体、を含む。用語「メモリ」が他の種類のメモリ又はそれらの複合を含んでもよい。   As used herein, the term “memory” refers to magnetic media or hard disks, optical storage, or non-volatile media such as flash memory, random access memory (RAM) such as DRAM, SDRAM, EDORAM, RAMBUSRAM, DRDRAM, etc. A volatile medium such as a system memory, or a mounting medium such as a CD-ROM or a flexible disk on which a program is stored and / or data communication is buffered. The term “memory” may include other types of memory or a combination thereof.

技術の実施形態が、本技術の実施形態を実施するのに用いられる実施形態の構造又は処理の何れかを例示する概略図を用いて以降に説明される。この方法の概略図を用いて技術の実施形態を提供することがその範囲を限定するとして解されない。本技術が、多重撮影画像から複合されたデータを用いて画像をステッチ及びデコードする、電子デバイス構造及びシステム並びに方法を考慮する。   Embodiments of the technology are described below using schematic diagrams illustrating either the structure or the process of the embodiments used to implement the embodiments of the technology. Providing embodiments of the technology using schematic diagrams of this method is not to be construed as limiting its scope. The present technology contemplates electronic device structures and systems and methods for stitching and decoding images using data combined from multiple captured images.

機械視覚システムの種々の実施形態が、固定実装スキャナに関して説明し、該スキャナは2次元マトリクスシンボルに適用され読取不可領域を有するシンボルの複数の画像の関心の配置領域に基づいてシンボルをデコードし関心の領域を複合してシンボルのデコード可能画像を生成し得る。これは、技術の特徴及び有利な点がこの方法によく適しているからである。但し理解すべきは、技術の種々の態様が、ロボット制御スキャナ、ハンドヘルド画像化システム、及び画像化アプリケーションに適用できることであり、それらに機械読取可能シンボル、画像システム、及び多重撮影画像から複合された画像データを用いてシンボルをデコードする能力から利益を享受してもよい何れの他の画像化システムを含む他の及びの形態が含まれる。   Various embodiments of a machine vision system are described with respect to a fixed-mount scanner that applies symbols to a two-dimensional matrix symbol and decodes a symbol based on a region of interest of a plurality of images of the symbol having unreadable regions. Can be combined to generate a symbol decodable image. This is because the technical features and advantages are well suited for this method. However, it should be understood that various aspects of the technology can be applied to robot-controlled scanners, handheld imaging systems, and imaging applications, which are combined from machine-readable symbols, imaging systems, and multi-shot images. Other and forms are included, including any other imaging system that may benefit from the ability to decode symbols using image data.

図1が機械読取可能シンボル36を含む対象34の1つ以上の画像32を取得するのに適用される例示の機械視覚システムを示す。コンベヤ38が、対象34を搬送し対象34と画像化デバイス42の視野40との間に相対動きを起こす。例示の機械視覚システムは、中でも製造アセンブリ、試験、測定、及び/又は制御アプリケーションに、限定しない例として用いられてもよい。機械視覚システム30が、何れの種々のタイプの画像取得を実行することのできる画像取得ソフトウェア44を用いてもよい。   FIG. 1 illustrates an example machine vision system applied to acquire one or more images 32 of an object 34 that includes machine readable symbols 36. A conveyor 38 conveys the object 34 and causes relative movement between the object 34 and the field of view 40 of the imaging device 42. The example machine vision system may be used as a non-limiting example, among others, in manufacturing assembly, test, measurement, and / or control applications. The machine vision system 30 may use image acquisition software 44 that can perform any of various types of image acquisition.

画像化デバイス42が、たとえば画像処理及びデコードに用いられるプロセッサ46を含める。プロセッサ46が視覚センサ48に結合されるか視覚センサ48の一部分でもよく、又は視覚センサ48にローカルで連接されてもよい。プロセッサ46が画像取得ソフトウェア44でエンコードされ、又は、ある実施形態で画像取得ソフトウェア44が別の計算機50又はプロセッサ上で動作し得る。中でも、画像取得ソフトウェア44は単一読取動作内で複数の画像を取得し照明を制御し画像データを取得し取得データを利用可能情報に処理/デコードするように構成されてもよい。   The imaging device 42 includes a processor 46 used, for example, for image processing and decoding. The processor 46 may be coupled to or part of the visual sensor 48 or may be locally connected to the visual sensor 48. The processor 46 may be encoded with the image acquisition software 44, or in some embodiments the image acquisition software 44 may run on another computer 50 or processor. Among other things, the image acquisition software 44 may be configured to acquire a plurality of images, control illumination, acquire image data, and process / decode the acquired data into usable information within a single reading operation.

画像化デバイス42が、視覚センサ48及び/又はプロセッサ46に結合されたメモリ媒体52も有してもよい。メモリ媒体52が、スキャンした又は処理した画像32を保存、又はデータ及び通信などをバッファリングする為に用いられる。通信線54が、画像化デバイス42にも結合され、任意のコンピュータ50への接続点を供給してもよい。コンピュータ50が、たとえばスキャンされ又は処理された画像32をアップロード及びダウンロードする為に用いられてもよい。ワイヤレス通信も検討されてよいことは理解される。この例において、画像化デバイス42が高角度及び/又は低角度照明、又は高低照明の複合を提供できる従来の固定実装スキャナでよい。   The imaging device 42 may also have a memory medium 52 coupled to the visual sensor 48 and / or the processor 46. A memory medium 52 is used to store the scanned or processed image 32 or to buffer data and communications. A communication line 54 may also be coupled to the imaging device 42 to provide a connection point to any computer 50. A computer 50 may be used, for example, for uploading and downloading scanned or processed images 32. It will be appreciated that wireless communication may also be considered. In this example, the imaging device 42 may be a conventional fixed mount scanner that can provide high and / or low angle illumination, or a combination of high and low illumination.

ここに説明される種々の実施形態が、対象34の複数の画像32から画像データを複合して、そうでなければ個々の画像からはデコード不可とされるシンボル36をデコードさせる。具体的には、種々の実施形態が、2次元マトリクスシンボルを画像化及びデコードする内容で説明される。この例で、シンボル36が一般的に平坦な対象34の表面に貼付される。対象34は、時に正しく例示されないか又は他の何れの理由で部分的に覆われるので、シンボル36のある部分が読取不可になる惧れがある。   Various embodiments described herein combine image data from a plurality of images 32 of the object 34 to decode symbols 36 that would otherwise not be decodable from individual images. Specifically, various embodiments are described in terms of imaging and decoding two-dimensional matrix symbols. In this example, a symbol 36 is affixed to the surface of a generally flat object 34. Because the object 34 is sometimes not properly illustrated or partially covered for any other reason, certain portions of the symbol 36 may become unreadable.

図2−7を参照し、2次元マトリクスシンボル56が規則的配列構造に配置された名目上四角シンボルモジュール60を含む1つ以上のデータ領域58で構成され得る。データ領域58が一般的に「L」形状のファインダパターン62で部分的に囲まれ、データ領域58がクワイエットゾーン64で四方が囲まれ得る。タイミングパターン66がシンボル36における行列の数を提供する。図5がダークオンライト2次元マトリクスシンボル56の例を示し、図6がシンボル70のライトオンダーク2次元マトリクスシンボル70の例を示す。アライメントパターン72も含まれてもよく、典型的に大きめのグリッドサイズシンボル(図7参照)で用いられる。   2-7, two-dimensional matrix symbols 56 may be composed of one or more data areas 58 including nominal square symbol modules 60 arranged in a regular array structure. The data area 58 may be partially surrounded by a generally “L” shaped finder pattern 62 and the data area 58 may be surrounded by a quiet zone 64 on all sides. Timing pattern 66 provides the number of matrices in symbol 36. FIG. 5 shows an example of the dark-on-light two-dimensional matrix symbol 56, and FIG. 6 shows an example of the light-on-dark two-dimensional matrix symbol 70 of the symbol 70. An alignment pattern 72 may also be included and is typically used with a larger grid size symbol (see FIG. 7).

機械視覚システム30が、シンボルの矩形若しくは四角形状又はユニークなファインダパターン62、及びタイミングパターン66に基づき、2次元マトリクスシンボルの位置を特定するシンボル特定ソフトウェア74を用い、有望候補の位置を特定する。ある実施形態で、画像取得ソフトウェア44及びシンボル位置特定ソフトウェア74が1つのソフトウェアアプリケーションに複合され、他の実施形態で、画像取得ソフトウェア44及びシンボル位置特定ソフトウェア74が別々のソフトウェアアプリケーションでもよい。画像取得ソフトウェア44及びシンボル位置特定ソフトウェア74のいずれか又は両方がコンピュータ50又は画像化デバイス42上で常駐し実行してよい。   The machine vision system 30 identifies the position of a promising candidate using symbol identification software 74 that identifies the position of a two-dimensional matrix symbol based on the rectangular or square shape of the symbol or the unique finder pattern 62 and the timing pattern 66. In some embodiments, the image acquisition software 44 and the symbol location software 74 may be combined into one software application, and in other embodiments, the image acquisition software 44 and the symbol location software 74 may be separate software applications. Either or both of image acquisition software 44 and symbol location software 74 may reside and execute on computer 50 or imaging device 42.

シンボル位置特定アルゴリズムの1つの実施形態が、米国特許第7,016,539号に記載され本明細書に援用される。他のシンボル位置特定アルゴリズムが利用可能で使用に検討される。使用において、シンボル位置特定ソフトウェア74が2次元マトリクスシンボルのファインダパターン62及び/又はタイミングパターン66を探すことでシンボル候補の位置を特定できる。シンボルのデータ領域58が損傷して、シンボルがデコードできない場合、シンボル位置特定ソフトウェア74が、ファインダ及びタイミングパターンにある程度合う複数有望候補領域を位置特定してもよい。有望候補領域が位置特定されても、画像に利用できるデータが十分でない場合はデコードできないシンボルの領域であり得る。シンボルモジュール60のたとえば65パーセント以上が期待されるファンダパターン62、タイミングパターン66、及びアライメントパターン72と合致し適用可能ならば、有望候補領域は有望であり得る。   One embodiment of a symbol location algorithm is described in US Pat. No. 7,016,539 and incorporated herein. Other symbol location algorithms are available and will be considered for use. In use, the symbol location software 74 can locate the candidate symbol by looking for the finder pattern 62 and / or timing pattern 66 of the two-dimensional matrix symbol. If the symbol data area 58 is damaged and the symbol cannot be decoded, the symbol position specifying software 74 may locate a plurality of promising candidate areas that match the finder and timing pattern to some extent. Even if a promising candidate region is located, it may be a symbol region that cannot be decoded if there is not enough data available for the image. A promising candidate region may be promising if, for example, 65 percent or more of the symbol module 60 matches and is applicable to the expected funder pattern 62, timing pattern 66, and alignment pattern 72.

図8を参照し、有望候補領域76がシンボル位置特定アルゴリズム74を用いて見出される。画像80のたとえばテキスト及び数字等の残りのシンボル78が背景のノイズとして検討され、及びファインダパターン62及びタイミングパターン66などのような二次元マトリクスシンボルに求められる何れか又は十分な特徴を含まないならば、シンボル位置特定ソフトウェア74によって無視される。前述のように、画像取得ソフトウェア44が複数の画像を取得できるので、シンボルのデータ領域58が損傷してシンボルがデコードできない場合にシンボル位置特定ソフトウェア74が複数の画像からの複数の有望候補領域76を合わせる。ある実施形態で、異なる画像取得パラメータが複数の画像に用いられ得る。   With reference to FIG. 8, a promising candidate region 76 is found using a symbol location algorithm 74. If the remaining symbols 78 of the image 80 such as text and numbers are considered as background noise and do not contain any or sufficient features required for a two-dimensional matrix symbol such as the finder pattern 62 and timing pattern 66. The symbol location software 74 ignores it. As described above, since the image acquisition software 44 can acquire a plurality of images, if the symbol data area 58 is damaged and the symbols cannot be decoded, the symbol position specifying software 74 can generate a plurality of promising candidate areas 76 from the plurality of images. Adjust. In certain embodiments, different image acquisition parameters may be used for multiple images.

図9及び10を参照し、第1の画像84及び第2の画像86が示される。対象を撮影した第1の画像84が2つの有望候補領域88及び90を示す。第2の画像86が同じ対象を撮影した別の画像であり、同じ2つの有望候補領域88及び90を示すものの、ある条件の為に、第2の画像86における使用可能な画像データが第1の画像84に利用可能な画像データと異なる。2つの画像84及び86又は複数の画像からの画像データが複合されてデコード可能データを生成する。   With reference to FIGS. 9 and 10, a first image 84 and a second image 86 are shown. A first image 84 taken of the subject shows two promising candidate regions 88 and 90. Although the second image 86 is another image obtained by photographing the same object and shows the same two promising candidate areas 88 and 90, the usable image data in the second image 86 is the first image because of certain conditions. This is different from the image data that can be used for the image 84. The image data from the two images 84 and 86 or a plurality of images are combined to generate decodable data.

図9に見られるように、シンボル位置特定ソフトウェア74は、シンボル位置特定アルゴリズムが探すファインダパターンなどの特徴を有望候補領域88が含むので、偽の有望領域であることを判断できない。この偽の候補領域は他のシンボル体系やテキスト、テクスチャなどの画像であり得る。シンボル位置特定ソフトウェア74が、有望候領域90が2次元マトリクスシンボルであることを判断でき、該領域が有望データ領域92及び右側の損傷領域94(損傷領域94に存在するシンボルモジュール60が無い)を含む。   As seen in FIG. 9, the symbol position specifying software 74 cannot determine that the area is a false promising area because the promising candidate area 88 includes a feature such as a finder pattern searched for by the symbol position specifying algorithm. This false candidate area may be an image of another symbol system, text, texture or the like. The symbol location software 74 can determine that the promising area 90 is a two-dimensional matrix symbol, and the promising data area 92 and the right damaged area 94 (there is no symbol module 60 present in the damaged area 94). Including.

図10が2つの有望候補領域88及び90の第2の画像86を示す。この第2の画像において、有望候補領域88は、シンボル位置特定ソフトウェアが探してもデータモジュールがデコード可能でない特徴を含むのでやはり偽の有望領域である。シンボル位置特定ソフトウェア74は、有望候補領域90が2次元マトリクスシンボルでることを再び判断し、該領域が、第2の画像86において、左側に損傷データ領域98を囲む異なる有望データ領域96を含む。   FIG. 10 shows a second image 86 of two promising candidate regions 88 and 90. In this second image, the promising candidate area 88 is still a false promising area because it includes features that the data module cannot decode even if the symbol location software searches. The symbol location software 74 again determines that the promising candidate region 90 is a two-dimensional matrix symbol, and that region includes a different promising data region 96 surrounding the damaged data region 98 on the left side in the second image 86.

第1の画像84からの有望候補領域88を第2の画像86からの有望候補領域88と複合し同様に第1の画像84からの有望候補領域90を第2の画像86からの有望候補領域90と複合させるために、デコード可能なデータを生成する試みで、2つの有望候補領域88及び90のバイナリマトリクスが、生成されると共にデータステッチアルゴリズム100を用いて一緒に「ステッチ」される。図11−16が、有望候補領域88及び90のバイナリマトリクスの生成及びステッチの進捗を示す。   The promising candidate area 88 from the first image 84 is combined with the promising candidate area 88 from the second image 86, and the promising candidate area 90 from the first image 84 is similarly merged with the promising candidate area from the second image 86. In an attempt to generate decodable data for compounding with 90, a binary matrix of two promising candidate regions 88 and 90 is generated and “stitched” together using the data stitching algorithm 100. FIGS. 11-16 illustrate the generation of a binary matrix of promising candidate regions 88 and 90 and the progress of the stitches.

図11が第1の画像84から生成された有望候補領域88のバイナリマトリクス102を示す。図12が第1の画像からも生成された有望候補領域90のバイナリマトリクス104を示す。同様に、図13が第2の画像86から生成された有望候補領域88のバイナリマトリクス106を示し、図14が第2の画像からも生成された有望候補領域90のバイナリマトリクス108を示す。   FIG. 11 shows a binary matrix 102 of promising candidate regions 88 generated from the first image 84. FIG. 12 shows a binary matrix 104 of promising candidate regions 90 also generated from the first image. Similarly, FIG. 13 shows the binary matrix 106 of the promising candidate area 88 generated from the second image 86, and FIG. 14 shows the binary matrix 108 of the promising candidate area 90 also generated from the second image.

図15及び16が有望候補領域88及び有望候補領域90の両方に対する第1の画像84及び第2の画像86の両方から進展されたステッチバイナリマトリクスを示す。図15において、第1の画像84及び第2の画像88からの有望候補領域88のステッチされたバイナリマトリクス102及び106が、累積バイナリマトリクス107からのデコード不可のまま残っている。ファインダパターン及び/又はタイミングパターンなどの特徴がシンボル位置特定ソフトウェア74によって検出されない。逆に、図16において、第1の画像84及び第2の画像86からの有望候補領域90のステッチバイナリマトリクス104及び108が累積バイナリマトリクス109からデコード可能である。分かるように、ファインダパターン及びタイミングパターン66の両方がシンボル位置特定ソフトウェア74によって検出可能である。   FIGS. 15 and 16 show stitched binary matrices developed from both the first image 84 and the second image 86 for both the promising candidate region 88 and the promising candidate region 90. In FIG. 15, the stitched binary matrices 102 and 106 of the promising candidate area 88 from the first image 84 and the second image 88 remain undecoded from the cumulative binary matrix 107. Features such as finder patterns and / or timing patterns are not detected by the symbol location software 74. Conversely, in FIG. 16, stitch binary matrices 104 and 108 of promising candidate regions 90 from the first image 84 and the second image 86 can be decoded from the cumulative binary matrix 109. As can be seen, both the finder pattern and the timing pattern 66 can be detected by the symbol location software 74.

ある実施例では、同じシンボルの複数の画像が取得されると、シンボル及び/又はシンボルの有望候補領域の位置が画像間で変わる。これは、照明又は正に対象の動きにおける変化によるものである。技術の実施形態が、位置関連、ここでは対応と呼ぶ、を探す、シンボルの合成モデルとシンボルの現在の画像における利用可能シンボルデータ110との間の関係(又は他の比較)を用いることで、複数の画像におけるシンボルの変化する位置に取り組む。変化する位置が知られるアフィン変換技術を用いてモデル化されるということを、データステッチアルゴリズム100は想定する。シンボル位置特定ソフトウェア74が、対象24上で取得された連続する画像(必ずしも次の画像又は複数の画像でない)上で動作すると、シンボル位置特定ソフトウェア74又はデータステッチアルゴリズム100が以前に取得した有望候補領域と現在の画像におけるシンボルデータ110との間の対応、たとえば関連を確立できる。   In some embodiments, when multiple images of the same symbol are acquired, the position of the symbol and / or the promising candidate region of the symbol changes between images. This is due to changes in illumination or just the movement of the object. By using a relationship (or other comparison) between the symbol synthesis model and the available symbol data 110 in the current image of the symbol, the embodiment of the technique looks for location related, here called correspondence. Address the changing positions of symbols in multiple images. The data stitch algorithm 100 assumes that the changing position is modeled using a known affine transformation technique. When the symbol location software 74 operates on successive images (not necessarily the next image or images) acquired on the object 24, the candidate candidates previously acquired by the symbol location software 74 or the data stitch algorithm 100 A correspondence, for example an association, between the region and the symbol data 110 in the current image can be established.

図17が第1の画像114を示し、図18が同じシンボル112の続く又は第2の画像116を示し、第2の画像116において、シンボル112の第1の画像114に配置されるところと関連してシンボル112が移動している(わずかに左下に)。第1及び第2の画像114及び116との間のこの移動のため、これら画像間の対応(他の比較)が進展される。   FIG. 17 shows a first image 114, FIG. 18 shows a continuation or second image 116 of the same symbol 112, in relation to where the second image 116 is placed in the first image 114 of the symbol 112. The symbol 112 is moving (slightly lower left). Because of this movement between the first and second images 114 and 116, correspondence between these images (another comparison) is developed.

図19を参照し、対応(他の比較)技術によって、合成モデル118がデータステッチアルゴリズム199を用いて生成され得る。合成モデル118が、特定のシンボルの知られる特徴のモデル、この実施例における2次元8×32マトリクスシンボルである。合成モデル118が知られるファインダパターン62、タイミングパターン66、及び可能なアライメントパターン72の少なくとも1つを用いることにより生成され得る。対応(又は他の比較)が知られる画像分析方法を用いて為され、たとえば、グレイレベル画像分析又は知られるフィルタ画像分析を含む。この実施例で、ドットフィルタ分析、へシアンクロスの決定基(Determinant of Hessian)(DOH)が、促進ドット120の組である特徴の組を生成するのに用いられた。DOHがドットを促進するのに用いられ一般の知られる技術である。対応を探す方法が、さらに複雑な方法、たとえば透視モデル、及びアプリケーション及び速度要求に依存する多項式モデルなどに拡張される。DOH技術を用いることで、知られるモジュール60がより高いDOH応答を生成できる。特徴の組が異なるアプリケーションに対して変わる。   Referring to FIG. 19, by a corresponding (other comparison) technique, a composite model 118 can be generated using the data stitch algorithm 199. The synthesis model 118 is a model of known features of a particular symbol, the two-dimensional 8 × 32 matrix symbol in this example. A composite model 118 can be generated by using at least one of the known finder pattern 62, timing pattern 66, and possible alignment pattern 72. Correspondence (or other comparison) is done using known image analysis methods, including, for example, gray level image analysis or known filter image analysis. In this example, a dot filter analysis, Hessian Cross Determinant of Hessian (DOH), was used to generate a set of features that is a set of facilitating dots 120. DOH is a commonly known technique used to promote dots. The method of finding correspondence is extended to more complex methods such as perspective models and polynomial models depending on the application and speed requirements. Using DOH technology, the known module 60 can generate a higher DOH response. The feature set changes for different applications.

図20を参照し、対応(又は他の比較)技術を用いることで、合成モデル118と移動した第2の画像116との間の対応が見つけられる。対応がスケール、角度、及び変換を含むパラメータ空間における対応スコアを最大にすることで確立し得る。シンボルモジュール66のシフトした組122が第1の画像114における第1のシンボル領域から確立されたモジュール位置124よりも高いDOH応答、すなわち、合成モデル118に対して示された対応が高い。シフトした組122が、合成モデル118をDOH応答に相関させて確立された新しいモジュール位置である。最後に、合成モデル118に対する対応の確立された状態で、第2の画像116が対応に基づいて精錬されて、図21に示されるように、精錬された有望領域126を生成する。新しい精錬された第2の画像126の場合、データステッチアルゴリズム100が用いられて、上述したように、第1の画像114からのデータマトリクスと精錬された有望領域126からのデータマトリクスとを一緒にステッチする。各サンプリング点の信頼、サンプリング点がシンボルモジュール66とされる、が取得され、(図16に見られるような)対応する累積バイナリマトリクス109が、累積バイナリマトリクス109結果がデコードできるまで更新される。   Referring to FIG. 20, using a correspondence (or other comparison) technique, a correspondence between the composite model 118 and the moved second image 116 is found. Correspondence can be established by maximizing the correspondence score in the parameter space including scale, angle, and transformation. The shifted set 122 of symbol modules 66 has a higher DOH response than the module position 124 established from the first symbol region in the first image 114, ie, the correspondence shown for the composite model 118. The shifted set 122 is the new module position established by correlating the composite model 118 with the DOH response. Finally, with the correspondence established for the composite model 118, the second image 116 is refined based on the correspondence to produce a refined promising region 126, as shown in FIG. For the new refined second image 126, the data stitch algorithm 100 is used to combine the data matrix from the first image 114 with the data matrix from the refined promising region 126, as described above. Stitch. The confidence of each sampling point, the sampling point being the symbol module 66, is obtained and the corresponding accumulated binary matrix 109 (as seen in FIG. 16) is updated until the accumulated binary matrix 109 result can be decoded.

ある実施形態で、データステッチアルゴリズム100が、同じ又は反対の極のある画像を分析できる。図22が有望候補領域132及び左側に破損領域134のある明るいフィールド照明を用いたシンボル130の第1の画像128を示す。第2の画像140(図23参照)が取得され且つ複数の第2の画像が不明のとき、データステッチアルゴリズム100が用いられて、第2の画像における有望候補領域を分析することで第2の画像140の極を判断する。   In some embodiments, the data stitch algorithm 100 can analyze images with the same or opposite poles. FIG. 22 shows a first image 128 of a symbol 130 using bright field illumination with a promising candidate area 132 and a damaged area 134 on the left side. When the second image 140 (see FIG. 23) is acquired and the plurality of second images is unknown, the data stitch algorithm 100 is used to analyze the promising candidate region in the second image to obtain the second The pole of the image 140 is determined.

図24及び25を参照し、第2の画像140を用いて、2つのDOH画像、ライトオンダークフィルタ(図24)を用いた第1のDOH画像136、ダークオンライトフィルタ(図25)を用いた第2のDOH画像138、が生成される。次いで、上述したように、対応ベース方法が、第1のDOH画像136及び第2のDOH画像138の両方に適用されて、DOH画像136及び138の両方における対応を探す。この例において、ライトオンダークフィルタを用いた第1のDOH画像136から対応スコアがダークオンライトフィルタを用いた第2のDOH画像138からの対応スコアよりも高い。ライトオンダークフィルタを用いた第1のDOH画像136に対する高い対応スコアに基づき、データステッチアルゴリズム100が分析した第2の画像140の極をライトオンダークであると判断する。   24 and 25, using the second image 140, two DOH images, a first DOH image 136 using a light-on-dark filter (FIG. 24), and a dark-on-light filter (FIG. 25) were used. A second DOH image 138 is generated. Then, as described above, a correspondence-based method is applied to both the first DOH image 136 and the second DOH image 138 to look for correspondences in both DOH images 136 and 138. In this example, the corresponding score from the first DOH image 136 using the light on dark filter is higher than the corresponding score from the second DOH image 138 using the dark on light filter. Based on the high correspondence score for the first DOH image 136 using the light on dark filter, the pole of the second image 140 analyzed by the data stitch algorithm 100 is determined to be light on dark.

極が決定されている状態で、データステッチアルゴリズム100が、以前に説明したように、第1の画像128からのデータマトリクスと分析された第2の画像140からのデータマトリクスとを一緒にステッチするよう処理する。図26が第1の画像128及び第2の画像140それぞれからのデコード可能なステッチされ累積(又は別には少なくとも部分的に複合された)バイナリマトリクス142及び144の画像146を示す。   With the poles determined, the data stitching algorithm 100 stitches together the data matrix from the first image 128 and the data matrix from the analyzed second image 140 as previously described. Process as follows. FIG. 26 shows images 146 of binary matrices 142 and 144 that are decodable stitched and accumulated (or otherwise at least partially composited) from first image 128 and second image 140, respectively.

機械視覚システム30などのある機械視覚システムにおいて、露出時間又は照明設定などの異なる画像取得設定が画像取得に利用可能とされてもよい。一般に、照明設定が特定の画像取得に、明るいフィールド及び暗いフィールド設定、パワー範囲(具体的には、明るいフィールド又はフィールド設定に適用されるように)、極値などを含め、照明の種々の特性を特定できる。ここに種々の例が種々のリードサイクルの例示画像取得設定として照明設定に取り組む。他の実施形態において、露出時間又は他の設定などの他の画像取得設定が追加的に(又は別に)用いられてもよい。   In some machine vision systems, such as machine vision system 30, different image acquisition settings such as exposure time or lighting settings may be made available for image acquisition. In general, various lighting characteristics, including lighting settings for specific image acquisition, bright and dark field settings, power range (specifically as applied to bright or field settings), extreme values, etc. Can be identified. Here various examples address lighting settings as exemplary image acquisition settings for various lead cycles. In other embodiments, other image acquisition settings such as exposure time or other settings may additionally (or alternatively) be used.

関連作業場における環境要因、障害、ロボット又は他のデバイスによって画像が影になるなどを含む種々の要因によって、特定の画像取得(たとえば照明)設定を用いて取得された画像の方が、他の画像取得設定を用いて取得された画像よりも成功してデコードする試みにより容易に寄与する場合がある。よって、デコードする試み、デコードする試みの連続に用いられる画像取得設定(及び画像取得設定で取得された画像)を優先する方法及びシステムを提供するのは有用である。ある実施例において、このことは、画像をデコードするのに連続する試みに対し、たとえば取得テーブルを編集する、及び編集された順番に少なくとも部分的に基づいて画像の取得設定に優先された順番を決定する方法又はシステムを含み得る。たとえば、画像化マネージャ(たとえば、半導体ウェーハ状のシンボルを画像化し分析するプログラムのマネージャモジュール)が、画像分析に画像取得設定の好ましい順番を決定するように構成され得て、好ましい順番内で画像を取得するように用いられる画像取得設定の場所に基づいてデコードするのに選択され得る。   Images acquired using a specific image acquisition (eg lighting) setting may be different from other images due to various factors, including environmental factors in the associated workplace, obstacles, shadows caused by robots or other devices, etc. An attempt to decode more successfully than an image acquired using acquisition settings may contribute more easily. Thus, it would be useful to provide a method and system that prioritizes image acquisition settings (and images acquired with image acquisition settings) that are used for decoding attempts and consecutive decoding attempts. In certain embodiments, this may be an example of editing the acquisition table for successive attempts to decode the image and prioritizing the image acquisition settings based at least in part on the editing order. A method or system for determining may be included. For example, an imaging manager (eg, a manager module for a program that images and analyzes semiconductor wafer-like symbols) can be configured to determine a preferred order of image acquisition settings for image analysis, and images within the preferred order. It can be selected to decode based on the location of the image acquisition settings used to acquire.

ある実施例で、画像取得設定(たとえば照明)が複数のエントリのある取得設定テーブル内に保存されてもよい。そのような場合、たとえば、取得設定テーブルの各エントリが、少なくとも画像取得設定(たとえば照明)フィールドを含み、取得設定テーブルの対応するエントリに関連した特定の画像取得設定(たとえば特定の照明モードや画像露出、画像利得、画像オフセット)を特定し得る。   In some embodiments, image acquisition settings (eg, lighting) may be stored in an acquisition setting table with multiple entries. In such a case, for example, each entry in the acquisition setting table includes at least an image acquisition setting (eg, lighting) field, and a specific image acquisition setting (eg, a specific lighting mode or image) associated with the corresponding entry in the acquisition setting table. Exposure, image gain, image offset).

ある実施例で、画像取得設定フィールドに特定の番号又は英数字コードが用いられて、特定の照明設定(又は他の設定)を、対応するテーブルエントリに指定する。たとえば、BF1、BF2、及びBF3のような照明モードが用いられて、特定の明るさフィールドモードを特定し、DF1、DF2、DF4、DF5、及びDF6のような照明モードコードが用いられて、ダークフィールドモードを特定し、光パワー値が特定の特定の数値範囲(たとえば0.0と127.0の間)である。ある実施例で、インデクス値(たとえば、1、2、3、4、5、など)が種々のエントリの画像取得設定フィールドに対し用いられ、特定の画像取得設定(たとえば特定の明るさ又はダークフィールドモード、極、及びパワー設定などの特定の照明設定)が特定のインデクス値に対応する。そのような場合、たとえば、別のルックアップテーブルが特定のインデクス値に対応する特定の画像取得(たとえば照明)設定を特定できる。   In one embodiment, a specific number or alphanumeric code is used in the image acquisition setting field to specify a specific lighting setting (or other setting) in the corresponding table entry. For example, illumination modes such as BF1, BF2, and BF3 are used to identify specific brightness field modes, and illumination mode codes such as DF1, DF2, DF4, DF5, and DF6 are used to darken The field mode is specified, and the optical power value is in a specific range of specific numerical values (for example, between 0.0 and 127.0). In some embodiments, index values (eg, 1, 2, 3, 4, 5, etc.) are used for image entry settings fields of various entries, and specific image acquisition settings (eg, specific brightness or dark fields). Specific lighting settings, such as mode, pole, and power settings) correspond to specific index values. In such cases, for example, another lookup table can identify a particular image acquisition (eg, lighting) setting that corresponds to a particular index value.

ある実施例で、それぞれが特定の画像取得(照明)設定のある画像の連続が、画像化システム(たとえば機械視覚システム30)によって取得され得る。最初のセットアップ又は画像化システムの続くトレーニングやキャリブレーションの間を含む、種々の環境において利用され得る。たとえば、ウェーハ特定システムが動作にセットアップされているとき、特定の画像取得設定が取得された画像の成功デコードにより確実に寄与するかどうかを判断できるように、多くの異なる画像取得(たとえば照明)設定を用いてシステムが画像を撮影することに利用できる。   In certain embodiments, a sequence of images, each with a specific image acquisition (lighting) setting, may be acquired by an imaging system (eg, machine vision system 30). It can be utilized in a variety of environments, including during initial setup or subsequent training or calibration of the imaging system. For example, when a wafer identification system is set up for operation, many different image acquisition (eg lighting) settings can be used to determine whether a particular image acquisition setting will contribute more reliably to successful decoding of the acquired image. The system can be used to take an image using.

ある実施例で、連続する画像デコード(すなわち、画像取得設定の「更新された順番」)に対する画像取得(たとえば照明モード)設定の連続が、取得設定におけるエントリの順番に基づいて特定され得る。たとえば、10個の画像の組を用いてシンボルをデコードする試みに対し、画像化マネージャが、分類された取得設定テーブルの第1の10個のエントリにおける画像取得(たとえば照明モード)設定フィールドに対応する画像取得(照明モード)設定値に対し更新された順番を決定できる。デコードの試みに対する10個の画像が、次いで選択されて(ある場合には取得されて)、画像が取得設定テーブルからの対応画像取得(たとえば照明モード)設定を順番に表す。たとえば、第1の画像が、取得設定テーブルの分類された順番から第1の画像取得(たとえば照明モード)設定を用いて取得された画像に基づいて選択され、第2の画像が、取得設定テーブルの分類された順番などから第2の画像取得(照明モード)設定を用いて取得されたことに基づいて選択される。他の実施例で、特定の画像(又は画像)に対する他の画像取得(たとえば照明モード)順番や方法もまた可能である。   In certain embodiments, a sequence of image acquisition (eg, lighting modes) settings for successive image decodes (ie, “updated order” of image acquisition settings) may be identified based on the order of entries in the acquisition settings. For example, for an attempt to decode a symbol using a set of 10 images, the imaging manager will respond to the image acquisition (eg lighting mode) setting field in the first 10 entries of the classified acquisition setting table The update order for the image acquisition (illumination mode) set value to be determined can be determined. Ten images for the decoding attempt are then selected (obtained in some cases) and the images in turn represent the corresponding image acquisition (eg, lighting mode) settings from the acquisition settings table. For example, the first image is selected based on the image acquired using the first image acquisition (for example, illumination mode) setting from the sorted order of the acquisition setting table, and the second image is acquired in the acquisition setting table. Are selected based on the second image acquisition (illumination mode) setting acquired from the sorted order. In other embodiments, other image acquisition (eg, illumination mode) orders and methods for a particular image (or image) are also possible.

ある実施例で、取得設定テーブルの分類が既に取得された画像にデコード(又は他の処理)試みに基づいて実施され、その際、取得設定テーブルの結果の分類された順番は、続く画像分析に対する取得(たとえば照明)設定の更新された順番を特定するのに用いられている。図27を参照し、たとえば、画像の組200(たとえば、画像200a、200b、200c、200dなど)が機械視覚システム30によって取得され得る。セット200の画像の各々が特定の照明設定で取得され得る。たとえば、画像化マネージャ210が、照明設定テーブル202として構成された取得テーブルにアクセスし、テーブル202から照明設定の連続の組を画像取得システム(たとえば、画像取得ソフトウェア44の種々のモジュール44)に連絡するよう動作する。画像取得システムが次いで画像マネージャ210によって特定される照明設定を用いて画像の組200の連続する(又は他の)取得を指示する。   In one embodiment, the acquisition settings table classification is performed on an already acquired image based on decoding (or other processing) attempts, where the classification order of the acquisition settings table results is for subsequent image analysis. Used to specify the updated order of acquisition (eg lighting) settings. Referring to FIG. 27, for example, a set of images 200 (eg, images 200a, 200b, 200c, 200d, etc.) may be acquired by the machine vision system 30. Each of the images of the set 200 may be acquired with a particular lighting setting. For example, the imaging manager 210 accesses an acquisition table configured as a lighting settings table 202 and communicates a series of lighting settings from the table 202 to an image acquisition system (eg, various modules 44 of the image acquisition software 44). To work. The image acquisition system then directs successive (or other) acquisition of the image set 200 using the lighting settings specified by the image manager 210.

ある実施例で、画像の組200が、機械視覚システム30に対し、特定のリードサイクル(たとえば画像に少なくとも部分的に含まれるシンボルをデコードする為の特定の動作の組)で使用の為に取得され得る。したがって、ある実施例で、組200の画像の全てが一緒に種々の方法や複合で処理され得る。他の実施例で、画像の組200が異なるリードサイクルで使用に取得され、その結果画像が別々に種々の方法や複合で処理され得る。   In one embodiment, the set of images 200 is acquired for use in a specific read cycle (eg, a specific set of operations for decoding symbols contained at least partially in the image) for the machine vision system 30. Can be done. Thus, in some embodiments, all of the images in the set 200 can be processed together in various ways and combinations. In other embodiments, the image set 200 is acquired for use in different read cycles, so that the images can be processed separately in various ways and combinations.

一般に、照明設定テーブル202が、種々の方法で構成され、照明設定データ(たとえば他の画像取得設定データ)に加えてデータの多様な種類を含み、画像取得ソフトウェア44(又は別のプログラムやモジュール)に(又はそれでアクセス可能に)含めら得る。説明したように、照明設定テーブル202がエントリ組202aから202hまでを含み、それぞれが少なくとも照明設定フィールド204及び分類値フィールド206を含んでいる。一般に、テーブル202の種々のエントリの照明設定フィールド204の値が、特定の照明設定(たとえばダーク/ブライトフィールド、パワーなど)を特定し、分類値フィールド206の値がテーブル202(たとえば分類値フィールド206の値の増加又は減少に基づいて)を特定する。他の実施例で、テーブル202の他の構成が可能で、追加のフィールドのある構成を含む。   In general, the illumination setting table 202 is configured in various ways and includes various types of data in addition to illumination setting data (eg, other image acquisition setting data), and image acquisition software 44 (or another program or module). (Or so accessible). As described, the lighting setting table 202 includes entry sets 202a to 202h, each including at least a lighting setting field 204 and a classification value field 206. In general, the values in the lighting settings field 204 of the various entries in the table 202 identify specific lighting settings (eg, dark / bright fields, power, etc.), and the values in the classification value field 206 are in the table 202 (eg, classification value field 206). (Based on an increase or decrease in the value of). In other embodiments, other configurations of table 202 are possible, including configurations with additional fields.

説明したシステムにおいて、画像化マネージャ210が照明設定テーブル202にアクセスするように動作して、照明設定フィールド(または他のフィールド)によって特定されるように、照明設定テーブル202からの照明設定(又は他の画像取得設定)を画像取得ソフトウェア44(又は一般に機械ビジョン30の別の態様)に連絡する。このように、画像取得ソフトウェア44(又は別のシステム)が取得の為に組200の種々の画像の具体的な照明設定(又は他の画像取得設定)をそれぞれ決定し得る。同様に、画像取得ソフトウェア44で取得された画像が種々の方法(たとえば画像に関連したメタデータ)で印が付けられて、画像を取得するのに用いられる具体的な照明設定(又は他の画像取得設定)を表してもよい。たとえば、テーブル202からの照明設定で取得された画像が、照明設定フィールド204の関連したエントリを表す値(たとえば、インデクス値や別には関連照明設定を表す値など)で印を付けられてもよい。   In the described system, the imaging manager 210 operates to access the lighting setting table 202 and the lighting setting (or other) from the lighting setting table 202 as specified by the lighting setting field (or other field). The image acquisition settings) to the image acquisition software 44 (or generally another aspect of the machine vision 30). In this manner, the image acquisition software 44 (or another system) can each determine specific lighting settings (or other image acquisition settings) for the various images of the set 200 for acquisition. Similarly, the images acquired by the image acquisition software 44 can be marked in various ways (eg, metadata associated with the images) and the specific lighting settings (or other images used to acquire the images) Acquisition setting). For example, an image acquired with lighting settings from the table 202 may be marked with a value representing an associated entry in the lighting settings field 204 (eg, an index value or otherwise a value representing a related lighting setting). .

画像化マネージャ210が続いてテーブル202からの照明設定(又は他の画像取得設定)を照明設定の要求セットとして連絡するか、又は、画像化マネージャ210が、照明設定(又は他の画像取得設定)の為の取得(又は他の)順番、及び自身の照明設定(又は他の画像取得設定)のパラメータ(たとえば、パワー、ブライト又はダークフィールドなど)を特定するか、又は特定の画像で特定の照明設定(又は他の画像取得設定)に関連付けられたのを特定するようにする。説明したように、たとえば、分類値フィールド206が、テーブル202に対する説明した分類された順番を表わし、そこで、テーブル202の上部のエントリ202aから順番にエントリが進んでテーブル202の下部のエントリ202hで示される。したがって、画像化マネージャ210の通信に基づいて、画像取得ソフトウェア44が、テーブル202の第1の4つの照明設定(たとえば照明設定フィールド204のエントリ202aから202dに対応する値で表される)が、第1のセット200の4つの画像200aから200dを取得する為にそれぞれ利用されるべきことを決定でき、又は、テーブル202の第1の4つの照明設定が第1の4つの画像200aから200dを取得の為に用いられる照明設定に対応することを決定できる。   The imaging manager 210 then communicates the lighting settings (or other image acquisition settings) from the table 202 as a required set of lighting settings, or the imaging manager 210 may contact the lighting settings (or other image acquisition settings). Specify acquisition (or other) order for and parameters of their lighting settings (or other image acquisition settings) (eg, power, bright or dark field, etc.) or specific lighting in a specific image Identify associated with settings (or other image acquisition settings). As described, for example, the classification value field 206 represents the described sorted order for the table 202, where the entries proceed in order from the entry 202 a at the top of the table 202 and indicated by the entry 202 h at the bottom of the table 202. It is. Thus, based on the communication of the imaging manager 210, the image acquisition software 44 determines that the first four lighting settings in the table 202 (e.g., represented by values corresponding to the entries 202a through 202d in the lighting settings field 204) It can be determined that each of the four images 200a to 200d of the first set 200 should be used, or the first four lighting settings of the table 202 can be changed to the first four images 200a to 200d. It can be determined to correspond to the lighting settings used for acquisition.

組200の画像それぞれ(又はそれのサブセット)が次いで、組200の1つ又は複数の画像に含まれるシンボル(たとえばデータマトリクスシンボルなどの分類された2次元マトリクスシンボルテキスト文字)をデコードする試みにおいて、画像取得ソフトウェア44で処理される。種々のツールが用いられて、組200の画像のシンボルをデコードする。ある実施例で、たとえば、デコード処理が2次元マトリクスシンボルをデコードする為のツール(たとえばデータマトリクスシンボルをデコードする為のアルゴリズム)を利用できる。ある実施例で、デコード処理がテキストをデコードする為の光学文字認識(「OCR」)ツール(たとえばOCRアルゴリズム)を利用できる。ある実施例で、複数のツールが用いられてもよい。たとえば、組200の画像を処理して画像のシンボルをデコードすることを試みることが、2次元マトリクスシンボルデコードツール及びOCRツールの両方で画像を処理することを含み得る。種々のな画像(たとえば画像200aから200d)が、データマトリクスデコードツール212及びOCRデコードツール214で、連続して又は並行に処理され得る。ある実施例で、デコードの為の処理がアクティブ画像取得で並行に実行され得る。   Each of the images of the set 200 (or a subset thereof) is then in an attempt to decode symbols (eg, classified 2D matrix symbol text characters such as data matrix symbols) contained in one or more images of the set 200. Processed by the image acquisition software 44. Various tools are used to decode the symbols of the set 200 images. In some embodiments, for example, a decoding process can utilize a tool for decoding a two-dimensional matrix symbol (eg, an algorithm for decoding a data matrix symbol). In certain embodiments, the decoding process can utilize an optical character recognition (“OCR”) tool (eg, an OCR algorithm) to decode the text. In some embodiments, multiple tools may be used. For example, attempting to process the images of the set 200 and decoding the symbols of the images can include processing the images with both a two-dimensional matrix symbol decoding tool and an OCR tool. Various images (e.g., images 200a-200d) may be processed sequentially or in parallel with data matrix decoding tool 212 and OCR decoding tool 214. In some embodiments, the process for decoding can be performed in parallel with active image acquisition.

ある実施例で、組200の画像の処理が、組200の画像のサブ組を特定のツール(たとえば特定のアルゴリズム)でそれぞれ処理することを含み得る。ある実施例で、特定のツールに対するリードサイクルが、複数の画像の分離処理、及び画像の種々の複合(又はそれらに含まれた又はそれらから導かれた情報)の集中処理を含めた、複数の画像の処理を含み得る。たとえば、上記に詳細に説明したように、複数の画像からのデータが集中処理の為に一緒にステッチされて、複数の画像が特定のシンボルのデコードに寄与し得る。   In certain embodiments, processing the images of the set 200 may include processing each subset of the images of the set 200 with a specific tool (eg, a specific algorithm). In one embodiment, the read cycle for a particular tool may include multiple image separation processes, and centralized processing of various composites of images (or information contained in or derived from them). Image processing may be included. For example, as described in detail above, data from multiple images can be stitched together for centralized processing, and multiple images can contribute to the decoding of a particular symbol.

本明細書での様々な説明が、複数の画像からのデータをステッチする例に取り組む。ある実施例では、しかしながら、複数の画像の他の分析も用いられる。たとえば、ある画像が分析されて画像同士を一緒にステッチするのに基づいてシンボルをデコードしてもよい。本明細書での特定の画像取得設定を優先する説明が、限定され又は特定されない限り、画像撮影の組及び画像からのデータのステッチよりも寧ろ(又は加えて)画像同士のステッチを利用するシンボルデコード動作を含んで、種々の動作において適用され得ることが理解されよう。   Various descriptions herein address examples of stitching data from multiple images. In some embodiments, however, other analyzes of multiple images are also used. For example, a symbol may be decoded based on an image being analyzed and stitched together. Symbols that make use of stitches between images rather than (or in addition to) a set of image captures and stitches of data from images, unless the description prioritizing specific image acquisition settings herein is limited or otherwise specified It will be appreciated that it can be applied in various operations, including decoding operations.

特定のリードサイクル(たとえば組200の1つ又は複数の画像のシンボルをデコードしようと試みる処理)の実行に続き、得点数が、特定の画像(及びその結果それら画像を撮影するのに用いられる画像取得設定に関わる)にリードサイクルにおける画像の処理に基づいて割り当てられ得る。一般に、そのような得点数が、合計得点が画像の特定の組の中に割り当てられている状態で、所定の合計得点数から割り当てられ得る。たとえば、1000合計点が割当てに利用可能なところで、1000点が全部画像の組の中に割り当てられ、組の異なる画像が特定の画像のデコード動作への寄与に基づいて異なる割当てを受ける。   Following the execution of a specific read cycle (e.g., a process that attempts to decode a symbol of one or more images of the set 200), the score is the specific image (and thus the image used to capture those images). Can be assigned based on the processing of the image in the read cycle. In general, such a score can be assigned from a predetermined total score, with the total score assigned in a particular set of images. For example, where 1000 total points are available for allocation, all 1000 points are allocated into the set of images, and different images in the set receive different allocations based on their contribution to the decoding operation of a particular image.

ある実施例で、得点が、リードサイクルの間にシンボルを成功してデコードする、特定のツールによって用いられた画像に割り当てられる。たとえば、OCR214が画像(又はそれのサブ組)のそれぞれの分析を含むリードサイクルの間にシンボルを成功してデコードするならば、好ましい合計得点数が組200の画像(又はそれのサブ組)の中に割り当てられ、好ましい合計得点が全て画像(又はそれのサブ組)の全ての組200に割り当てられる。得点が画像化マネージャ210によって、ある実施例では、他のソフトウェア、モジュール、ハードウェアなどによって割り当てられる。   In one embodiment, a score is assigned to the image used by a particular tool that successfully decodes the symbol during the read cycle. For example, if the OCR 214 successfully decodes a symbol during a read cycle that includes analysis of each of the images (or sub-sets thereof), the preferred total score is that of the set 200 images (or sub-sets thereof). All the preferred total scores are assigned to all sets 200 of images (or sub-sets thereof). Scores are assigned by the imaging manager 210, in some embodiments by other software, modules, hardware, and the like.

1つの画像だけで成功のリードサイクル又はデコード試み(たとえば「1枚札」(singleton)が成功デコードとなった場合)に利用された場合、合計得点数が好ましくは当該の1つの画像に割り当てられる。複数の画像が成功のリードサイクルに利用されると、得点数が、特別の画像の成功デコードの寄与に相対的に比例するのを含めて、種々の方法で複数の画像の中に割り当てられる。ある実施例で、たとえば、画像の組200に対する1つのデコードの試みが、集中処理で画像200a、200b、及び200cからのデータを一緒にステッチするのを含み、共通シンボルをデコードする。画像200aがデコード処理に主画像として用いられ、及び画像200b及び200cがデコード処理に副画像として用いられ、利用可能な得点の半分(たとえば500点)が画像200aに割り当てられ、残りの得点が画像200b及び200c間で分けられる(たとえば250得点がそれぞれに割り当てられる)。一般に得点数が、種々のファクタ、たとえば各画像のシンボル内容の程度がリードサイクル分析によって確実に特定されたかなどに基づいて複数の画像の中に割り当てられてもよい。   If only one image is used for a successful read cycle or decoding attempt (eg when a “singleton” results in a successful decoding), the total score is preferably assigned to that one image. . As multiple images are utilized for a successful read cycle, the score is assigned among the multiple images in various ways, including being relatively proportional to the contribution of successful decoding of a particular image. In one embodiment, for example, one decoding attempt for image set 200 includes stitching data from images 200a, 200b, and 200c together in a centralized process to decode common symbols. The image 200a is used as the main image for the decoding process, and the images 200b and 200c are used as the sub-image for the decoding process. Half of the available scores (for example, 500 points) are assigned to the image 200a, and the remaining scores are the images. Divided between 200b and 200c (eg, 250 points are assigned to each). In general, a score may be assigned among multiple images based on various factors, such as whether the degree of symbol content of each image has been reliably determined by read cycle analysis.

ある実施例で、リードサイクルの一部として処理されたある画像が、シンボルの成功デコードに寄与しない場合がある。たとえば、図27をまた参照し、画像の組200に対し別のデコード試みが、画像200a、200b、200c、及び200dの種々の複合でのデータをデコード処理の為に一緒にステッチすることを含み得る。画像200aがデコード処理の為に主画像として用いられ、画像200b及び200cがデコード処理の為に副画像として用いられ、画像200dがデコード処理の成功に寄与しないならば、利用可能な得点の半分(たとえば500得点)が画像200aに割り当てられ、残りの得点が画像200b及び200c間に割り当てられ(たとえばそれぞれに250得点割り当てられる)、最小インパクト(たとえばゼロ)が画像200dに割り当てられる。同様に、画像200aから200dの何れもデコード処理に寄与しない場合(たとえば、リードサイクルが画像200aから200dのデータステッチコンビネーションにシンボルを成功してデコードしない)最小インパクト(たとえばゼロ)が画像200aから200dそれぞれに割り当てられる。   In some embodiments, an image processed as part of a read cycle may not contribute to successful symbol decoding. For example, referring also to FIG. 27, another decoding attempt for image set 200 includes stitching data in various composites of images 200a, 200b, 200c, and 200d together for decoding processing. obtain. If image 200a is used as the main image for decoding, images 200b and 200c are used as sub-images for decoding, and image 200d does not contribute to the success of decoding, half of the available scores ( For example, 500 scores are assigned to image 200a, the remaining scores are assigned between images 200b and 200c (eg, 250 points are assigned to each), and a minimum impact (eg, zero) is assigned to image 200d. Similarly, if none of the images 200a to 200d contributes to the decoding process (eg, the read cycle does not successfully decode the symbol in the data stitch combination of images 200a to 200d), the minimum impact (eg, zero) is the images 200a to 200d. Assigned to each.

複数のツールが成功リードサイクルの間シンボルの成功するデコードに寄与するところで、所与の合計得点数がツールの数に比例して減少してもよい。ある実施例で、たとえば2つのツールが特別のリードサイクルに用いられ得る。したがって、どちらかのツールによって処理された画像の割当てに利用可能な得点が半分に減少されて、ツール得点数がツールの両方に分配される。たとえば、OCRツール214が特定のリードサイクルで画像100aから200cまでのデータをステッチすることでシンボルを成功してデコードし、データマトリクスツール214が画像200cから200dまでの画像からデータをステッチすることでシンボルを成功してデコードすると、それぞれのツールに割当てに利用可能な合計得点数が、ツールの1つだけがシンボルを成功してデコードした場合、合計得点数から半分に減少される。このように、たとえば、合計得点の半分(たとえば500得点)が、OCRツール214でデコードの結果に基づいて、画像200aから200cの画像への割当てに利用でき、合計得点の半分(たとえば500得点)が、データマトリクスツール212でデコードの結果に基づいて、200c及び200dの画像への割当てに利用されてもよい。   Where multiple tools contribute to successful decoding of symbols during a successful read cycle, a given total score may be reduced in proportion to the number of tools. In some embodiments, for example, two tools can be used for a special read cycle. Thus, the score available for assignment of images processed by either tool is reduced in half, and the tool score is distributed to both tools. For example, the OCR tool 214 can successfully decode a symbol by stitching data from images 100a to 200c in a specific read cycle, and the data matrix tool 214 can stitch data from images 200c to 200d. When a symbol is successfully decoded, the total score available for assignment to each tool is reduced by half from the total score if only one of the tools successfully decodes the symbol. Thus, for example, half of the total score (eg, 500 scores) can be used to assign images 200a to 200c to the image based on the decoding results in OCR tool 214, and half of the total scores (eg, 500 scores). May be used for assignment to the images 200c and 200d based on the decoding result in the data matrix tool 212.

複数のツールを用いられるある実施例において、成功デコードの試みが少なくとも2つのツールに為されない限り、得点が特定の画像に割り当てられない。たとえば、システム30がOCR及びデータマトリクスデコードを実行するように構成されるところで、ツールの両方がシンボルを成功してデコードする場合のみ、得点数が時に画像に割り当てられる場合がある。このような構成では、たとえば、OCRツールがリードサイクルの間にシンボルを成功してデコードしデータマトリクスツールがそうでない場合、何れの処理された画像に得点は割り当てられない。複数のツールを用いる他の実施例では、得点がシンボルを成功してデコードするツールに割り当てられ、シンボルを成功してデコードしないツールに割り当てられない。   In some embodiments where multiple tools are used, no score is assigned to a particular image unless a successful decoding attempt is made to at least two tools. For example, where the system 30 is configured to perform OCR and data matrix decoding, a score may sometimes be assigned to an image only if both tools successfully decode the symbol. In such a configuration, no score is assigned to any processed image if, for example, the OCR tool successfully decodes the symbol during the read cycle and the data matrix tool does not. In other embodiments using multiple tools, the score is assigned to a tool that successfully decodes the symbol and not to a tool that does not decode the symbol successfully.

デコードの試みに基づいて得点が一度割り当てられると、テーブル202が次いで更新される(たとえば、画像マネージャ210によって)。ある実施例で、成功デコード試み(たとえば成功のリードサイクル)に以前に寄与した照明設定(又は他の画像取得設定)の使用を優先する為に、テーブル202の分類されたルールが過去のデコード結果に基づいて更新され得る。これが種々の方法で達成されてもよい。   Once a score has been assigned based on a decoding attempt, the table 202 is then updated (eg, by the image manager 210). In some embodiments, the sorted rules in table 202 are used to determine past decoding results in order to prioritize the use of lighting settings (or other image acquisition settings) that previously contributed to successful decoding attempts (eg, successful read cycles). Can be updated based on This may be achieved in various ways.

ある実施例で、たとえば、指数移動平均(exponential moving average)(EPA)が、分類値フィールド206の種々のエントリ及び成功リードサイクルの続いて対応する画像に割り当てられた得点に対し計算され得る(たとえば、画像化マネージャ210)。たとえば、種々の画像に割り当てられる得点が、適当に調整されてテーブル202のエントリの分類値フィールド206の値に対応しており、関連の値が分類値フィールド206への新しいデータとして検討されてEMAが容易に計算されてもよい。さらに詳しくは、特定の画像に割り当てられる得点が、その画像を撮影するのに用いられる照明設定に対応するテーブル202のエントリの分類値フィールド206への新しいデータとして扱われ得る。EMAが次いで関連の得点及びテーブル202の分類値得点206の対応するエントリに対し計算されてもよく、分類値フィールド206が結果のEMA値に更新され得る。   In some embodiments, for example, an exponential moving average (EPA) may be calculated for the scores assigned to the corresponding images following various entries in the classification value field 206 and a successful lead cycle (eg, , Imaging manager 210). For example, the scores assigned to the various images are appropriately adjusted to correspond to the value of the classification value field 206 of the entry in the table 202, and the associated value is considered as new data into the classification value field 206 and is EMA. May be easily calculated. More specifically, the score assigned to a particular image may be treated as new data into the classification value field 206 of the table 202 entry corresponding to the lighting setting used to capture that image. The EMA may then be calculated for the associated score and the corresponding entry in the classification value score 206 of the table 202, and the classification value field 206 may be updated with the resulting EMA value.

図27をさらに参照し、テーブル202のエントリ202aに対し照明設定フィールド204によって示される照明設定が画像200aを取得するのに用いられるとき、デコード試みに画像202aの処理の後に画像202aに割り当てられる得点がエントリ202aに対する分類値フィールド206に関連され得る。EMA(又は他の平均)が計算されるとき、よって画像200aの得点数が、エントリ202aのに対する分類値フィールド206への新しいデータとして扱われて、フィールド206へのEMAが従来の方法において計算され得る。たとえば、特定の分類値フィールドに対するEMAが次式で計算され、
EMA=(P・α)+(SVFC・(1−α)) (1)
ここで、SVFCが分類値フィールド206の関連エントリの現在の値を表し、Pが対応する関連得点を表し、αがスムージングファクタを表し、該ファクタが、たとえば関連サイクルに対する画像の特定の数に基づいて計算される。
Still referring to FIG. 27, when the lighting setting indicated by the lighting setting field 204 for the entry 202a of the table 202 is used to obtain the image 200a, the score assigned to the image 202a after processing of the image 202a in a decoding attempt. May be associated with the classification value field 206 for entry 202a. When the EMA (or other average) is calculated, the score of the image 200a is thus treated as new data to the classification value field 206 for the entry 202a, and the EMA to the field 206 is calculated in a conventional manner. obtain. For example, the EMA for a particular classification value field is calculated as:
EMA = (P · α) + (SVF C · (1−α)) (1)
Where SVF C represents the current value of the associated entry in the classification value field 206, P represents the corresponding associated score, α represents the smoothing factor, which is, for example, a specific number of images for the associated cycle. Calculated based on.

EMA(又は他の平均)に類似の計算も、分類値フィールド206の他のエントリ(たとえば互いのエントリ、又は値が対応する画像に割り当てられた各エントリ)に対し実行され得る。このように、たとえば、成功リードサイクルに寄与する画像を取得するのに用いられる照明設定(又は他の画像取得設定)が、分類値フィールド206の関連するエントリにおける増加した値を備える。同様に、成功リードサイクルに寄与しない画像を取得するのに用いられる照明設定(又は他の画像取得設定)が、分類値フィールド206の関連エントリにおける減少した値を備え得る。   A calculation similar to EMA (or other average) may also be performed on other entries in the classification value field 206 (eg, each entry or each entry whose value is assigned to the corresponding image). Thus, for example, the lighting settings (or other image acquisition settings) used to acquire images that contribute to a successful lead cycle comprise an increased value in the associated entry of the classification value field 206. Similarly, the lighting settings (or other image acquisition settings) used to acquire images that do not contribute to a successful lead cycle may comprise a reduced value in the relevant entry in the classification value field 206.

EMA(又は他の平均)が分類値フィールド206の適当なエントリに対し、EMAに対する新しいデータとして対応する関連得点を用いて、一旦計算されると、分類値フィールド206のエントリが新しいEMA値で更新され得る。ある実施例で、テーブル202が次いでEMA値(すなわち、分類値フィールド206の現在の値に基づいて)に少なくとも部分的に基づいて分類され得る。分類値フィールド206の更新が、画像化マネージャ210によって、又は他のソフトウェアやハードウェアなどによって達成され得る。   Once the EMA (or other average) is calculated for the appropriate entry in the classification value field 206, using the corresponding score as new data for the EMA, the entry in the classification value field 206 is updated with the new EMA value. Can be done. In certain embodiments, the table 202 may then be classified based at least in part on the EMA value (ie, based on the current value of the classification value field 206). The update of the classification value field 206 may be achieved by the imaging manager 210 or by other software, hardware, or the like.

ある実施例で、テーブル202が分類値フィールド206に基づいて分類されて(すなわち、新しい分類順番に更新され)、成功デコードに寄与する照明設定(又は他の取得設定)が、分類された順番で進み、成功デコードに寄与しない照明設定(又は他の画像取得設定)が分類された順番に下方に移動してもよい。このように、たとえば、画像が、続くデコード試みに対して選択(取得)されると、以前に成功デコード試みに寄与した特定の画像取得(たとえば照明)で取得された画像が、成功することのより少なかった画像取得(たとえば照明)設定で取得された画像より優先され得る。   In one embodiment, the table 202 is classified based on the classification value field 206 (ie, updated to a new classification order), and the lighting settings (or other acquisition settings) that contribute to successful decoding are in the sorted order. The lighting settings (or other image acquisition settings) that do not contribute to successful decoding may be moved downward in the order in which they are classified. Thus, for example, when an image is selected (acquired) for a subsequent decoding attempt, an image acquired with a particular image acquisition (eg, lighting) that previously contributed to a successful decoding attempt may be successful. It may be prioritized over images acquired with fewer image acquisition (eg lighting) settings.

図28も参照し、たとえば、画像200c及び200d(図27参照)が、成功デコードに寄与し、画像200a及び200b(図27参照)が成功デコードに寄与しない場合、画像200c及び200dが画像200a及び200bよりも多くの得点を割り当てられる。したがって、EMAの計算及び分類値フィールド206の更新の後に、テーブル202の新しい分類された順番への再分類が、フィールド206の分類値に基づいて、画像200c及び200dに対する照明設定を設定し(すなわち、エントリ202c及び202dに対する照明設定フィールド204に反映される)、画像200a及び200bの照明設定(すなわち、エントリ202a及び202bに対する照明設フィールド204に反映される)に先んじる。したがって、照明設定が、続く(同じ又は異なるシンボルの)画像デコード試み又は他の動作における画像200c及び200dに対する照明設定より優先され得る。しかしながら、この特定の分類順番(すなわち、画像200a及び200bに対する照明設定に先んじる画像200c及び200dに対する照明設定)は、種々のEMA計算及び種々の他の要因の結果によっては必ずしも取得されない場合もある。   Referring also to FIG. 28, for example, when the images 200c and 200d (see FIG. 27) contribute to the successful decoding and the images 200a and 200b (see FIG. 27) do not contribute to the successful decoding, the images 200c and 200d become the images 200a and 200a. You can be assigned more points than 200b. Thus, after the EMA calculation and the update of the classification value field 206, the reclassification of the table 202 to the new classified order sets the lighting settings for the images 200c and 200d based on the classification value of the field 206 (ie, , Reflected in the lighting settings field 204 for the entries 202c and 202d), prior to the lighting settings of the images 200a and 200b (ie reflected in the lighting settings field 204 for the entries 202a and 202b). Thus, the lighting settings may take precedence over the lighting settings for images 200c and 200d in subsequent (same or different symbol) image decoding attempts or other operations. However, this particular classification order (ie, the lighting settings for images 200c and 200d prior to the lighting settings for images 200a and 200b) may not necessarily be obtained depending on the results of various EMA calculations and various other factors. .

他の実施例で、他の分類アルゴリズム又は処方が用いられてもよい。さらに理解されるのは、テーブル202の分類が分類値フィールド206の種々のエントリへの参照を、寧ろテーブルエントリの異なるメモリロケーションへの物理的再書込みや、テーブルエントリの仮想分類及び物理再書込みの複合よりも、テーブル202の仮想分類を含むことである。   In other embodiments, other classification algorithms or prescriptions may be used. It is further understood that the classification of the table 202 can refer to various entries in the classification value field 206, rather than physically rewriting the table entries to different memory locations, or virtually classifying and rewriting the table entries. The virtual classification of the table 202 is included rather than the composite.

テーブル202の分類順番が一旦更新されると(たとえば、テーブル202が上述のEMA計算に基づいて一旦分類されると)、画像に対する照明設定(又は他の画像取得設定)がテーブル202の更新された分類順番に基づいて優先付けされるのに用いられて、新しいデコード試みが為される。上述のように、たとえば、照明設定フィールド204によって特定されるように、照明設定テーブル202から照明設定を、画像220の別の組の処理の為に画像取得ソフトウェア44に通信するように、画像化マネージャ210が照明設定テーブル202にアクセスする。しかしながら、画像の組200(図27参照)に対する照明設定の分類順番と反対に、テーブル202の更新された分類順番が今度はテーブルエントリ202dに対する照明設定(又は他の画像取得設定)が最初に用いられ、次いでテーブルエントリ202cに対する照明設定(又は他の画像取得設定)が続き次いでテーブルエントリ202a及び202bに対する照明設定(又は他の画像取得設定)が続く。このように、画像取得ソフトウェア44が最初にテーブル202dに対応する照明設定を有する組220の画像220aのデコードを試み、テーブルエントリ202cに対応する照明設定を有する組220の画像220bのデコードを試み、同様に続く。これらの新しいデコード試みが一旦完了すると、得点が組220の画像に割り当てられ(たとえば上述のように)、新しいEMAが分類値フィールド206に対して計算され、よってテーブル202に対する新しい分類順番が決定される。   Once the classification order of the table 202 is updated (eg, once the table 202 is classified based on the EMA calculation described above), the lighting settings for the image (or other image acquisition settings) are updated in the table 202. Used to prioritize based on the sort order, a new decoding attempt is made. As described above, for example, the illumination settings from the illumination settings table 202 are imaged to be communicated to the image acquisition software 44 for another set of processing of the images 220, as specified by the illumination settings field 204. The manager 210 accesses the lighting setting table 202. However, contrary to the lighting setting classification order for the image set 200 (see FIG. 27), the updated classification order of the table 202 is now used first by the lighting setting (or other image acquisition settings) for the table entry 202d. Followed by lighting settings (or other image acquisition settings) for table entry 202c, followed by lighting settings (or other image acquisition settings) for table entries 202a and 202b. Thus, the image acquisition software 44 first tries to decode the image 220a of the set 220 having the lighting setting corresponding to the table 202d, and tries to decode the image 220b of the set 220 having the lighting setting corresponding to the table entry 202c. The same goes on. Once these new decoding attempts are complete, a score is assigned to the set 220 images (eg, as described above) and a new EMA is calculated for the classification value field 206, thus determining a new classification order for the table 202. The

一般に、好ましい(たとえば比較的高い)EMA値を有するテーブル202のテーブルエントリが、分類値フィールド206において反映されるように、比較的好ましくない(たとえば低い)EMA値を有するテーブル202に対するエントリに対し優先付けされる(すなわち分類順番又は取得順番で前に置かれる)。ある実施例で、しかしながら、他のルールが追加して(又は別に)用いられてもよい。   In general, table entries in table 202 having preferred (eg, relatively high) EMA values take precedence over entries for table 202 having relatively unfavorable (eg, low) EMA values, as reflected in classification value field 206. (I.e., preceded by sort order or acquisition order). In certain embodiments, however, other rules may be used in addition (or alternatively).

ある実施例で、ユーザが取得設定たとえば照明設定や関連の値を提供する場合、ユーザに提供される画像取得(たとえば照明)設定(又は関連の値)が、テーブル202の分類順番に関わらず潜在的にテーブル202の他の画像取得(たとえば照明)設定で優先され得る。たとえば、ユーザが特定のブライト又はダークフィールド設定やパワー設定、他の照明設定パラメータを特定する場合、デコード試みが、他の画像テーブル202から他の照明設定で他の画像の前に、最初にユーザによって特定された照明設定(又は設定)で画像を扱い、他の照明設定がユーザに特定された照明設定よりも分類値フィールド206に対するさらに好ましい(たとえばより大きい)値を示すときにおいてもそうする。   In some embodiments, if the user provides acquisition settings, such as lighting settings or related values, the image acquisition (eg, lighting) settings (or related values) provided to the user are latent regardless of the sort order of the table 202. Thus, priority may be given to other image acquisition (eg, lighting) settings of table 202. For example, if the user specifies a particular bright or dark field setting, power setting, or other lighting setting parameter, the decoding attempt is first made before the other image with other lighting settings from the other image table 202 before the user. The image is handled with the lighting settings (or settings) specified by, and when other lighting settings indicate a more preferred (eg, greater) value for the classification value field 206 than the lighting settings specified for the user.

ある実施例で、以前(たとえば直前の処理)のリードサイクルでの成功デコードの結果に寄与した画像に対する画像取得設定(たとえば照明設定)が、続くデコード試み(同じ又は異なるシンボルに対し)において優先され得る。たとえば、図27をまた参照し、画像200bが成功デコード試みに寄与し、画像200bへの照明設定が、続くデコード試みに対し用いられて、成功デコード(少なくとも最も直近のデコード試み)に寄与しない照明設定で組220の他の画像を選択する前に、同じ照明設定で組200からの画像が画像200bとして選択される。後半の照明設定が画像200bに対する照明設定よりも分類値フィールド206に対する好ましい(たとえばより大きい)値に対応していても、この優先化が実行され得る。同様に、組200の複数の画像(たとえば、画像200a、200c、及び200d)が成功デコード試みに寄与するならば、成功デコードに寄与しない照明設定のある組220の他の画像を選択する前に、画像200a、200b、及び200dへの照明設定が続くデコード試みに用いられて同じ照明設定のある組200から画像200a、200c、及び200dとして画像が選択される。後者の照明設定が、画像200a、200c、及び200dに対する照明設定よりも分類値フィールド206に対するより好ましい(たとえばより大きい)値に対応しても、この優先化は同様に実行され得る。   In some embodiments, image acquisition settings (eg, lighting settings) for images that contributed to successful decoding results in previous (eg, immediately preceding) read cycles are prioritized in subsequent decoding attempts (for the same or different symbols). obtain. For example, referring also to FIG. 27, image 200b contributes to a successful decoding attempt, and the lighting settings on image 200b are used for subsequent decoding attempts, and lighting that does not contribute to a successful decoding (at least the most recent decoding attempt). Before selecting another image in the set 220 in the settings, an image from the set 200 is selected as an image 200b with the same illumination settings. This prioritization can be performed even if the latter lighting setting corresponds to a preferred (eg, larger) value for the classification value field 206 than the lighting setting for the image 200b. Similarly, if multiple images of set 200 (eg, images 200a, 200c, and 200d) contribute to a successful decoding attempt, before selecting other images of set 220 with lighting settings that do not contribute to successful decoding. The images are selected as images 200a, 200c, and 200d from a set 200 with the same illumination settings that are used in a decoding attempt followed by illumination settings for images 200a, 200b, and 200d. This prioritization can be performed in the same way, even if the latter illumination setting corresponds to a more preferred (eg, larger) value for the classification value field 206 than the illumination setting for the images 200a, 200c, and 200d.

ある実施例で、さらなる分類が、上述の優先付け内で(又はそうでなければ追加して)実行され得る。たとえば、成功デコード画像(たとえば画像200a、200c及び200d)の組に対する照明設定が、互いに対しそれらの画像に対応するEMA値に基づいて優先付けされ、画像のエントリ組の照明設定が(たとえば画像200a、200c、及び200d)が成功デコードに寄与しなかった画像に対する照明設定を超えて優先される。   In certain embodiments, further classification may be performed within (or otherwise in addition) the above priorities. For example, lighting settings for a set of successful decoded images (eg, images 200a, 200c, and 200d) are prioritized relative to each other based on the EMA values corresponding to those images, and the lighting settings for the entry set of images (eg, image 200a). , 200c, and 200d) are prioritized over lighting settings for images that did not contribute to successful decoding.

ある実施例で、特定のツール(たとえば2次元マトリクスツール)に対する画像取得(たとえば照明)設定が、異なるツール(たとえばOCRツール)に対する画像取得(たとえば照明)設定に対し優先され得る。特定のツールの使用に基づく成功デコード試みへの優先画像取得設定が様々な方法で使用されてもよい。たとえば、画像認識分析の1つの目的が、比較的高い読取レート及び成功デコードシンボルの結果を達成することにある。したがって、たとえば、画像マネージャ210(又は他のソフトウェア、モジュール、ハードウェアなど)が、プロダクト毎画像の比較的小さい数の処理を求める照明設定を特定することで、画像化されたプロダクト毎(たとえば半導体ウェハにつき)平均リードタイムを減少させるように動作してもよい。データマトリクス(Data Matrix)及び他の類似のツールが、しばしば画像の比較的大きな数を処理するのを求められて成功デコードを達成する場合があるので、よって、他のツールに対してそうする前にこれらツールに対する画像取得(たとえば照明)設定を優先することのは有用である。このように、たとえば、デコード可能画像の無いツールのタイムアウトが避けられる場合がある。   In certain embodiments, image acquisition (eg, lighting) settings for a particular tool (eg, a two-dimensional matrix tool) may be overridden over image acquisition (eg, lighting) settings for a different tool (eg, OCR tool). The preferred image acquisition setting for successful decoding attempts based on the use of a particular tool may be used in various ways. For example, one purpose of image recognition analysis is to achieve relatively high read rates and successful decoded symbol results. Thus, for example, the image manager 210 (or other software, module, hardware, etc.) identifies lighting settings that require a relatively small number of processes for each product image, for example, for each imaged product (eg, semiconductor It may operate to reduce the average lead time (per wafer). Data Matrix and other similar tools are often required to process a relatively large number of images to achieve successful decoding, so before doing so for other tools It is useful to prioritize image acquisition (eg lighting) settings for these tools. Thus, for example, a tool timeout without a decodable image may be avoided.

したがって、ある実施例で、図27を再び参照し、データマトリクスツール212を用いて成功デコードに対する照明設定が、OCRツール214を用いての成功デコードへの照明設定に対し優先され得る。たとえば、画像200a、200b、及び200cがデータマトリクスツール212で成功デコード試みに寄与し、画像200dがOCRツール214で成功デコード試みに寄与する場合、照明設定200a、200b、及び200dがデコードに対し組200から画像の次の選択に対しテーブル202の分類順番において高いほうに移動してもよく(すなわち優先されてもよい)、たとえ、画像200dに対する照明設定の方が、画像200a、200c、及び200dに対する照明設定よりも分類値フィールド206へ好ましい(たとえばより大きい)値に対応したとしてもそうである。   Thus, in one embodiment, referring again to FIG. 27, the lighting setting for successful decoding using the data matrix tool 212 may be prioritized over the lighting setting for successful decoding using the OCR tool 214. For example, if images 200a, 200b, and 200c contribute to a successful decoding attempt with data matrix tool 212 and image 200d contributes to a successful decoding attempt with OCR tool 214, lighting settings 200a, 200b, and 200d are paired for decoding. From 200, the next selection of images may be moved higher (ie, may be prioritized) in the classification order of table 202, even if the lighting setting for image 200d is images 200a, 200c, and 200d. This is true even if it corresponds to a preferred (eg, larger) value for the classification value field 206 than the lighting setting for.

上述した種々のツールやアルゴリズムなどが、種々のコンピュータデバイス及びシステムの種類を用いる様々な方法で実行されてもよい。ある実施例で、たとえば、画像化マネージャ210が、画像取得ソフトウェア44及び/又はシンボル位置特定ソフトウェア74で1つのソフトウェアアプリケーションに統合されてもよい。他の実施例で、画像化マネージャ210が画像取得ソフトウェア44及び/又はシンボル位置特定ソフトウェア74とは別のソフトウェアアプリケーションとされ得る。異なる実施例で、画像化マネージャ210がコンピュータ50又は別のデバイス(たとえば画像化デバイス42)に常駐し実行し得る。   The various tools, algorithms, etc. described above may be implemented in various ways using various computing devices and system types. In certain embodiments, for example, the imaging manager 210 may be integrated into one software application with the image acquisition software 44 and / or the symbol location software 74. In other embodiments, the imaging manager 210 may be a software application separate from the image acquisition software 44 and / or the symbol location software 74. In different embodiments, the imaging manager 210 may reside and execute on the computer 50 or another device (eg, the imaging device 42).

さて、図29〜図35を参照し、得点割当、テーブル分類、及び画像デコード動作に対する例示のデータが示される。図29〜図35のあるテーブル及び種々の計算又は、処理の中間の結果を反映してもよいし、他のテーブル及び値の本質を明らかにするためだけに表されてもよい。よって、図29〜図35のあるテーブル及び値が必ずしも保存される必要はないし(又は実質時間量に対し保存され)、システム30によってただ実質的に利用されるのでもよい。さらに、上述したように、本明細書に記載された優先付け及び分類が、種々の画像取得設定で用いられてもよい。よって、照明設定が公述の具体的な例として示されても、類似の原理が画像取得設定の他の種類に適用されてもよいのが理解されよう。   29-35, exemplary data for scoring, table classification, and image decoding operations are shown. Some tables of FIGS. 29-35 and various calculations or intermediate results of processing may be reflected, or may be represented only to clarify the nature of other tables and values. Thus, certain tables and values of FIGS. 29-35 need not necessarily be stored (or stored for a substantial amount of time) and may simply be utilized by system 30. Further, as described above, the prioritization and classification described herein may be used in various image acquisition settings. Thus, it will be appreciated that even if the illumination setting is shown as a specific example of a statement, similar principles may be applied to other types of image acquisition settings.

図29を詳細に参照し、例示のインデクスが種々の照明設定に対し提供される。説明のように、18の異なる照明設定300が、ブライトフィールド(「BF」)、ダークフィールド(「DF」)及びパワーコード(「P」)によって指定され、関連の多くの値を有し、整数18のインデクス302に対応する。上述のように、図29の照明設定を含む照明設定テーブル(たとえば、テーブル202)が(たとえば照明フィールド204の中に)照明設定300そのもののコードを含むか、インデクス302の値のように照明設定300を表す他の値を含み得る。   With particular reference to FIG. 29, exemplary indexes are provided for various lighting settings. As illustrated, 18 different lighting settings 300 are specified by a bright field (“BF”), a dark field (“DF”), and a power code (“P”), and have many associated values, an integer This corresponds to 18 indexes 302. As described above, the illumination settings table (eg, table 202) containing the illumination settings of FIG. 29 includes the code of the illumination settings 300 itself (eg, in the illumination field 204), or the illumination settings as the value of the index 302. Other values representing 300 may be included.

例示の動作において、画像が種々の照明設定300を用いて取得されてもよい。9個のリードサイクルの組が取得された画像(たとえば画像取得の後又は並行して)が、各リードサイクルが2次元マトリクスデコードツール及びOCRツールの両方を用いて取得画像のシンボルをデコードする試みを含んでいる状態で試みられてもよい。動作などに対する例示の結果の組が図30に表される。図30のテーブルのリードサイクル欄304によって示されように、リードサイクルの各々が、リードサイクル1〜9として示されるリードサイクルがそれぞれ、特定の2次元マトリクスデコードツール(図30のツール欄306に「2−D」として表されるように)及び特定のOCRツールを用いて多くの画像からシンボルをデコードする試みを含む。ある実施例で、2−D及びOCRツールが連続して動作してもよい。ある実施例で、2−D及びOCRツールが並行して動作してもよい。   In an exemplary operation, an image may be acquired using various lighting settings 300. An image from which a set of 9 read cycles has been acquired (eg, after image acquisition or in parallel), each read cycle attempts to decode the acquired image symbols using both a 2D matrix decoding tool and an OCR tool May be attempted in a state of containing. An exemplary set of results for operations etc. is represented in FIG. As shown by the read cycle column 304 in the table of FIG. 30, each of the read cycles is represented by a specific two-dimensional matrix decoding tool (in the tool column 306 of FIG. 2), and attempts to decode symbols from many images using specific OCR tools. In some embodiments, the 2-D and OCR tools may operate sequentially. In some embodiments, the 2-D and OCR tools may operate in parallel.

特定のリードサイクルにおける成功デコード結果に寄与する各画像が、図30のインデクス欄308に関連画像を取得するのに用いられる照明設定に対応する照明設定インデクス302(図29参照)からのインデクス値によって表される。たとえば、第1のリードサイクル(すなわち「リードサイクル1」)において、2−Dツールが用いられて、照明設定BF3P02及びDF1P20(インデクス302の値11及び4に対応する)で取得される2つの画像を用いてシンボルを成功してデコードする。同様に、第1のリードサイクルにおいて、OCRツールが用いられて、照明設定BF3P01、DF3P20、及びBF2P02(インデクス302の値3、6及び9に対応する)で取得される3つの画像を用いてシンボルを成功してデコードする。他のリードサイクルに対しそれぞれ、リードサイクル6及び7を除いて、インデクス302からの他の値が同様に特定のリードサイクルにおいてシンボルを成功してデコードするのに用いられた画像の他の(又は同じ)照明設定を表す。リードサイクル6に対してツールが両方とも何れの画像を用いてもシンボルのデコードに失敗し、値が照明設定インデクス302から提供されない。リードサイクル7に対し、OCRツールが照明設定DF3P20(インデクス302の値5に対応する)の1枚札の画像でシンボルが成功してデコードし、2−Dツールが何れの画像でシンボルを成功してデコードしなかった。   Each image contributing to the successful decoding result in a particular read cycle is represented by an index value from the lighting setting index 302 (see FIG. 29) corresponding to the lighting setting used to obtain the related image in the index field 308 of FIG. expressed. For example, in a first lead cycle (ie “Lead Cycle 1”), a 2-D tool is used to obtain two images acquired with illumination settings BF3P02 and DF1P20 (corresponding to values 11 and 4 of index 302). Use to successfully decode the symbol. Similarly, in the first read cycle, an OCR tool is used to symbolize using three images acquired with illumination settings BF3P01, DF3P20, and BF2P02 (corresponding to values 302, 3, and 9 in index 302). Successfully decoded. For other read cycles, except for read cycles 6 and 7, respectively, the other values from index 302 are similarly other (or other) images used to successfully decode symbols in a particular read cycle. The same) represents the lighting setting. Symbols fail to decode any of the images used by both tools for read cycle 6 and no value is provided from the lighting settings index 302. For the lead cycle 7, the OCR tool successfully decodes the symbol on the single-tag image of the lighting setting DF3P20 (corresponding to the value 5 of the index 302), and the 2-D tool succeeds in the symbol on any image. And did not decode.

ある実施例で、特定のリードサイクルに対して処理された画像からのデータが上述のように一緒にステッチされて、デコード試みが複数の画像からのデータを同時に処理し得る。たとえば、最初のリードサイクルについて、2−Dツールが表された2つの画像(すなわち、照明設定インデクス302(図29参照)におけるインデクス値11及び4に対する照明設定で撮影された画像)から導かれた累積(別には少なくとも部分的に複合)マトリクスに基づいてシンボルを成功してデコードしてもよいし、OCRツールが、表された3つの画像(すなわち、インデクス302のインデクス値3,6、及び9に対応する照明設定で撮影された画像)に基づきシンボルを成功してデコードしてもよい。上述したように説明のリードサイクル7が1枚札での成功デコードを含んでいるものの、ステッチの同様の使用が1つまたは複数の他のリードサイクルに対し利用されて得る。   In some embodiments, data from images processed for a particular read cycle can be stitched together as described above, and a decoding attempt can process data from multiple images simultaneously. For example, for the first lead cycle, the 2-D tool was derived from the two images represented (ie, the images taken with the illumination settings for index values 11 and 4 in the illumination setting index 302 (see FIG. 29)). The symbol may be successfully decoded based on a cumulative (or at least partially composite) matrix, and the OCR tool may display the three images represented (ie, index values 3, 6, and 9 of index 302). The symbol may be successfully decoded based on the image taken with the illumination setting corresponding to. As described above, although the described read cycle 7 includes successful decoding on a single card, a similar use of stitches may be utilized for one or more other read cycles.

図30のテーブルにおけるインデクス302の値によって表される画像が、特定の取得動作の間に撮影される画像全て、又は1枚札デコード含め特定のリードサイクルに対するデコード試み及びステッチ動作を用いるデコード試みが為された画像全てにさえも、必ずしも表さなくてもよいことが理解されよう。説明するように、図30のテーブルは寧ろ、特定のリードサイクルに対する成功デコード試みに実質的に寄与したそれら画像のみを表す。上述のように、様々な実施において、そのような寄与画像にのみ得点を割り当てることが利用される。   The image represented by the value of the index 302 in the table of FIG. 30 is an image captured during a specific acquisition operation, or a decoding attempt for a specific read cycle including a single tag decoding and a decoding attempt using a stitch operation. It will be understood that not all rendered images need necessarily be represented. As will be described, the table of FIG. 30 only represents those images that have substantially contributed to successful decoding attempts for a particular read cycle. As described above, in various implementations, it is utilized to assign scores only to such contributing images.

成功デコード試みが特定のリードサイクルに対し完了した後に、得点数が成功デコードに寄与した画像それぞれに割り当てられ得る(たとえば画像化マネージャ210によって)。上述のように、これら得点数の大きさが、種々の画像の種々の成功デコードに相対的な寄与に対応し得る。図30にて、割り当てられた得点数が、得点数欄316に代表される。図30の第1のリードサイクルにて、たとえば、照明設定BF3P02(インデクス302の値11に対応する)で撮影された画像が、照明設定DF1P20(インデクス302の値4に対応する)で撮影された画像よりも2−Dデコードに顕著に寄与した。したがって、BF3P02画像(インデクス値11)が750得点(1000のうち)割り当てられ、DF1P20(インデクス値4)が250得点を割り当てられた。   After a successful decoding attempt is completed for a particular read cycle, a score may be assigned to each image that contributed to the successful decoding (eg, by imaging manager 210). As mentioned above, the magnitude of these scores can correspond to relative contributions to different successful decoding of different images. In FIG. 30, the assigned score is represented by the score column 316. In the first read cycle of FIG. 30, for example, an image photographed with the illumination setting BF3P02 (corresponding to the value 11 of the index 302) was photographed with the illumination setting DF1P20 (corresponding to the value 4 of the index 302). Contributed more significantly to 2-D decoding than images. Therefore, a BF3P02 image (index value 11) was assigned 750 points (out of 1000) and DF1P20 (index value 4) was assigned 250 points.

反対に、第1のリードサイクルにおいて成功OCRデコードに対してリストされた画像それぞれが、成功デコードと略同等に寄与し、それぞれの画像が333得点を割り当てられ、1つの画像が334得点の丸められた値を受け、そのツール及びリードサイクルに対してフル1000得点合計が割り当てらることを確実にする。他のリードサイクルで、図30に見れられように、他の得点数が、異なる(又は類似の)種々の画像(及び、対応して、種々の照明設定)に基づいて成功デコードに割り当てられる。分かるように、成功デコードが成されないので、ゼロ得点がリードサイクル6に割り当てられる。同様に、そのツールを用いて成功デコードが少しも達成されないので、ゼロ得点がリードサイクル7の2−Dツールに対して割り当てられる。ある実施例で、ゼロ以外の最小インパクト得点(たとえば、最大値の負数、又はスコアリングスケール上の最小正数)が代わりに割り当てられる。   Conversely, each image listed for successful OCR decoding in the first read cycle contributes roughly equivalent to successful decoding, each image is assigned 333 points, and one image is rounded to 334 points. Ensure that a full 1000 total score is assigned for the tool and lead cycle. In other lead cycles, as seen in FIG. 30, other score numbers are assigned to successful decoding based on different (or similar) different images (and correspondingly different lighting settings). As can be seen, a zero score is assigned to the read cycle 6 because no successful decoding has been performed. Similarly, no zero score is assigned to the 2-D tool in read cycle 7 because no successful decoding is achieved with that tool. In some embodiments, a non-zero minimum impact score (eg, a negative maximum value or a minimum positive number on the scoring scale) is assigned instead.

上述のように、OCR及び2−Dツールの両方によって成功デコードが求められるものを含める動作の間、ツールの1つのみが成功するリードサイクルに最小インパクト(たとえばゼロ)が割り当てられてもよい。そのような場合、たとえば、図30の7番目のリードサイクルにおいて、2−Dツールがシンボルを成功してデコードしないので、インデクス5に得点が割り当てられない場合がある。   As described above, during operations that include those that require successful decoding by both OCR and 2-D tools, a minimum impact (eg, zero) may be assigned to a read cycle in which only one of the tools succeeds. In such a case, for example, in the seventh read cycle of FIG. 30, the 2-D tool does not successfully decode the symbol, and therefore a score may not be assigned to the index 5.

図30に記載のように、1000と同等の合計得点の数が、各成功リードサイクルに対する各ツールに割り当てられる。他の実施例で、合計得点の他の数が用いられ得る。たとえば、ある実施例が1に等価の合計数を割り当て、特定のリードサイクルに対して用いられるセットの種々の画像が1の分数が割り当てられて画像の組全体が合計で1得点割り当てられる。   As described in FIG. 30, a total score number equal to 1000 is assigned to each tool for each successful lead cycle. In other examples, other numbers of total scores can be used. For example, one embodiment assigns an equivalent total number to 1, the various images in the set used for a particular read cycle are assigned a fraction of 1, and the entire set of images is assigned a total score of 1.

又、上記したように、得点の割り当てられた種々の画像が用いられて、取得(照明)設定テーブルの分類値フィールドを更新し得る。ある実施例では、しかしながら、種々の画像に割り当てられた得点が、最初に適当に調整されるのに必要とされてもよい。図31に示すように、たとえば、各リードサイクルに対して2つのツール(図30参照)の両方でのデコード動作に対し割り当てられた合計得点が調整され、所与のリードサイクルの合計得点が合計で1000である。たとえば、第1のリードサイクルに対し、図30から分かるように、2−D及びOCRツールの両方に対し割り当てられた合計得点が合計で2000である。したがって、これらの割当得点数が図31の第1のリードサイクル欄(欄310)に対して半分にされる(且つ適宜に丸められる)。同様に、他のリードサイクルに割り当てられた得点数が適宜に調整され、各リードサイクルに対して確実に均一の合計得点になる。尚、第7番のリードサイクル(すなわち、欄314に反映される)に対して割り当てられた得点数が調整されないが、というのは、OCRツールだけがそのリードサイクル中にシンボルを成功してデコードしたからである。   Also, as described above, various images to which scores are assigned can be used to update the classification value field of the acquisition (lighting) setting table. In some embodiments, however, the scores assigned to the various images may be required to be adjusted appropriately initially. As shown in FIG. 31, for example, for each read cycle, the total score assigned for decoding operations in both of the two tools (see FIG. 30) is adjusted so that the total score for a given read cycle is the sum 1000. For example, for the first read cycle, as can be seen from FIG. 30, the total score assigned to both 2-D and OCR tools is 2000 in total. Therefore, these assigned scores are halved (and appropriately rounded) with respect to the first read cycle column (column 310) in FIG. Similarly, the number of points assigned to other read cycles is adjusted appropriately to ensure a uniform total score for each read cycle. Note that the number of points assigned to the seventh read cycle (ie, reflected in column 314) is not adjusted because only the OCR tool successfully decodes the symbol during that read cycle. Because.

特定のリードサイクル(又はそれに関連部分)の実行の後に、EMAが特定のリードサイクル中の特定の画像(及び対応の照明設定)に割り当てられる得点を用いて各得点数エントリ(たとえば欄310に沿った各得点数エントリ)に対して計算され、EMA値が先のリードサイクル(又は後述するような、別の初期得点数)に対し計算される。EMA計算の結果が次いで取得(照明)設定テーブル(たとえば図27及び図28のテーブル202の分類値フィールド206)の対応する分類値フィールドへのエントリに用いられる。このように、たとえば、特定の画像(たとえば照明)取得設定(たとえばインデクス302又は照明設定フィールド204における特定のエントリ)に対する分類設定フィールドの値が更新されて、履歴デコード結果を反映する。したがって、取得(たとえば照明)設定テーブルが分類値フィールドに基づいて分類されるとき、テーブルの分類順番が履歴上使えた画像取得(たとえば照明)設定の続く画像処理に対し優先される結果となる。   After the execution of a specific lead cycle (or its related part), each score number entry (e.g. along field 310) with a score that the EMA is assigned to a specific image (and corresponding lighting settings) in the specific read cycle. Each score entry) and an EMA value is calculated for the previous read cycle (or another initial score as described below). The result of the EMA calculation is then used to enter the corresponding classification value field in the acquisition (lighting) settings table (eg, the classification value field 206 in the table 202 of FIGS. 27 and 28). Thus, for example, the value of the classification setting field for a particular image (eg, lighting) acquisition setting (eg, a particular entry in index 302 or lighting setting field 204) is updated to reflect the history decoding results. Therefore, when the acquisition (for example, lighting) setting table is classified based on the classification value field, the result is prioritized over the image processing following the image acquisition (for example, lighting) setting in which the classification order of the table can be used in the history.

図32を再び参照し、表示のテーブルの、それぞれ続く欄が、図30及び図31に表されるリードサイクル結果及び得点割当に基づく、続くEMA計算の結果を表す。上述にもあるように、ある実施例で、得点数の合計数(たとえば、説明した例示においては、1000)が、EMA(又は他の平均)を計算する初期ベースを提供する為に、使用可能な照明設定の全て(又はサブ組)間で、比較的均一に初期割り当てされてもよい。図32の欄312に見られるように、所与のリードサイクル対する1000合計得点がエントリインデクス302に亘り比較的均一に初期分配されている。他の実施例で、得点の他の初期割当が用いられてもよい。たとえば、ユーザが欄312の比較的均一な得点割当に置き換えるカスタム初期得点割当を提供してもよい。これが、たとえば、初期に他に対して特定の照明設定を優先するのに有用である。   Referring again to FIG. 32, the subsequent columns of the displayed table represent the results of subsequent EMA calculations based on the read cycle results and score assignments shown in FIGS. As noted above, in some embodiments, the total number of scores (eg, 1000 in the illustrated example) can be used to provide an initial basis for calculating EMA (or other average). The initial assignment may be relatively uniform among all (or a subset) of different lighting settings. As seen in column 312 of FIG. 32, 1000 total scores for a given read cycle are initially distributed relatively evenly over the entry index 302. In other embodiments, other initial assignments of scores may be used. For example, a custom initial score assignment may be provided for the user to replace with a relatively uniform score assignment in column 312. This is useful, for example, to initially prioritize certain lighting settings over others.

得点の初期割当(たとえば欄312に示される)から、又は得点数の別の組(たとえば以前のEMA計算)から初めて、分類設定値フィールドの値が次いで先行のリードサイクル結果に基づいて更新され得る。欄318から分かるが、たとえば、第1のリードサイクルの後に、初期(すなわち欄312で示されるように)の比較的均一の分類設定値フィールド値が更新されて、第1のリードサイクル中、成功デコード試みを反映し、画像がインデクス値3,4,6,9、及び11(図30参照)に対応する照明設定を有している。同様に、欄320から分かるように、第2のリードサイクルの後に、第1のリードサイクル(欄318参照)の後の分類値フィールドが更新されて、第2のリードサイクル中の成功デコードに用いられる画像の照明設定を反映する。   Starting from an initial score assignment (eg, shown in column 312) or from another set of score numbers (eg, previous EMA calculations), the value of the classification setpoint field can then be updated based on the previous read cycle results. . As can be seen from column 318, for example, after the first read cycle, the initial (ie, as indicated by column 312) relatively uniform classification setpoint field value is updated to succeed during the first read cycle. Reflecting the decoding attempt, the image has lighting settings corresponding to index values 3, 4, 6, 9, and 11 (see FIG. 30). Similarly, as can be seen from column 320, after the second read cycle, the classification value field after the first read cycle (see column 318) is updated and used for successful decoding during the second read cycle. Reflects the lighting setting of the displayed image.

図32に示した例で、EMAスムージング定数、0.0392157が、50エントリのピリオド値を仮定することによって計算されるように用いられる。様々な実施例で、そのようなピリオド値を仮定することは有用で、半導体ウェハの分析サイクルが、50ウェハの組の分析に対する画像の取得を含む。他の実施例で、他のピリオド値(及び他のスムージング定数)が適当に用いられてもよい。   In the example shown in FIG. 32, the EMA smoothing constant, 0.0392157, is used to be calculated by assuming a period value of 50 entries. In various embodiments, it is useful to assume such a period value, and a semiconductor wafer analysis cycle involves the acquisition of images for analysis of a set of 50 wafers. In other embodiments, other period values (and other smoothing constants) may be used as appropriate.

特定のリードサイクルの後、取得設定テーブル(たとえば、照明設定テーブル202)がリードサイクル(及び以前の処理)から更新されたEMA値に基づいて分類されてもよい。たとえば、図32(たとえば欄318及び320など)の種々のリードサイクルが、各それぞれのリードサイクルに続き、照明設定テーブル(たとえば照明設定テーブル202)に対する保存エントリを表せる。   After a particular lead cycle, the acquisition settings table (eg, lighting settings table 202) may be classified based on the EMA values updated from the lead cycle (and previous processing). For example, the various read cycles of FIG. 32 (eg, columns 318 and 320, etc.) can represent stored entries for a lighting settings table (eg, lighting settings table 202) following each respective read cycle.

図32に示すEMA(又は他の類似の値)の基づいて取得設定テーブル(たとえば照明設定テーブル202)が分類されて、履歴上、成功画像取得(照明)設定が、画像の続く処理においてデコードシンボルに優先されてもよい。図33に示すように、たとえば、インデクス302(たとえば図32参照)からの照明設定インデクス値が、図32のリードサイクル欄に反映された割り当て、調整され及び平均された得点数に基づいて分類されている。たとえば、図32に示されるように、第1のリードサイクルの後、インデクス302の照明設定インデクス11が、欄318の最高EMA値に対応し、照明設定インデクス3、6、及び9、並びに照明設定インデクス4が連続して続く。したがって、図33の分類欄318aにおいて、これら照明設定インデクスが、分類順番の先頭に移動する。その結果、この分類順番がアクセスされて、続くデコード試み(同じ又は異なるシンボルに対して)に対する適当な画像の画像取得(照明)設定を決定する取得(たとえば照明)設定テーブルに、保存(又は、そうでなければ反映)され、照明設定インデクス11、3、6、9及び4に対応する画像取得(たとえば照明)設定が優先される。   The acquisition setting table (for example, the lighting setting table 202) is classified based on the EMA (or other similar value) shown in FIG. May be prioritized. As shown in FIG. 33, for example, the illumination setting index value from the index 302 (see, for example, FIG. 32) is classified based on the number of assigned, adjusted, and averaged points reflected in the read cycle column of FIG. ing. For example, as shown in FIG. 32, after the first read cycle, the lighting setting index 11 of index 302 corresponds to the highest EMA value in column 318, lighting setting indexes 3, 6, and 9, and lighting setting. Index 4 continues. Therefore, in the classification column 318a of FIG. 33, these illumination setting indexes move to the top of the classification order. As a result, this sort order is accessed and stored (or, for example) in an acquisition (eg, illumination) settings table that determines the appropriate image acquisition (illumination) settings for subsequent decoding attempts (for the same or different symbols) Otherwise, the image acquisition (for example, illumination) setting corresponding to the illumination setting indexes 11, 3, 6, 9, and 4 is given priority.

示すように、種々の欄(たとえば欄318a及び320a)が分類されて、高い方のスコア照明設定が優先され(すなわち、分類順番において上昇され)、低い方のスコア照明設定が低い優先しか与えられない(すなわち、分類順番において下降される)。他の実施例では、他の分類アルゴリズムが画像取得設定の他の種類に適用されるよう含めて用いられる。   As shown, various columns (eg, columns 318a and 320a) are categorized, with higher score lighting settings taking precedence (ie, increased in the sort order) and lower score lighting settings being given lower priority. Not (ie descended in the sort order). In other embodiments, other classification algorithms are included and used to apply to other types of image acquisition settings.

ある実施例で、照明設定インデクス302の分類順番(たとえば欄318a及び320aに反映されるように)が、画像が続けて分析されてシンボルをデコードする順番を占有する。図33で分かるように、あるリードサイクルに対する成功デコードの実質結果となる照明設定が、影の付いたセルによって示されるように、値ベース分類だけによって高度に優先付けされてもよい。たとえば、照明設定8、13、14が、リードサイクル8に成功デコードに寄与したが、これら照明設定が分類欄322に分類順番に比較的かなり低い。したがって、分類順番(たとえば、更新されたEMA値に基づいて)を調節することは時に有用であって、成功デコードに寄与する照明設定(たとえば、直近に先行するデコードの試みにおける)が、エントリのブロックへ分類順番の先頭に移動される。   In some embodiments, the sorting order of the lighting settings index 302 (eg, as reflected in columns 318a and 320a) occupies the order in which the images are subsequently analyzed to decode symbols. As can be seen in FIG. 33, the lighting settings that result in successful decoding for a certain read cycle may be highly prioritized only by value-based classification, as indicated by the shaded cells. For example, lighting settings 8, 13, and 14 contributed to successful decoding in read cycle 8, but these lighting settings are relatively low in classification order in classification column 322. Therefore, it is sometimes useful to adjust the classification order (eg, based on updated EMA values), and the lighting settings that contribute to successful decoding (eg, in the most recent preceding decoding attempt) Move to the beginning of the sort order to the block.

各リードサイクルに対するエントリのそのようなブロックの例が、図34のテーブル324に表される。たとえば、テーブル324の欄326a、リードサイクル8に対するブロック328が照明設定8、13及び14のある画像を含み、というのは、これらの画像が実質リードサイクル8(図33の欄322参照)の成功デコード試みに寄与したからである。残りの照明設定インデクス値(すなわちテーブル324のブロックに含まれないもの)が、図32に表されるEMA値に従って分類された図34のテーブル330に表される。尚、テーブル330が、所与のリードサイクルに対し、テーブル324に含まれる照明設定インデクス値を含まない。たとえば、テーブル330の欄326bが、リードサイクル8に対するインデクスの分類組を表すが、インデクス値8、13、及び14を含まない、というのは、これらの値がテーブル324のブロック328に含まれるからである。   An example of such a block of entries for each read cycle is represented in table 324 of FIG. For example, column 326a of table 324, block 328 for lead cycle 8 includes images with lighting settings 8, 13, and 14, because these images were successful in real lead cycle 8 (see column 322 in FIG. 33). This is because it contributed to the decoding attempt. The remaining lighting setting index values (ie those not included in the block of table 324) are represented in table 330 of FIG. 34 sorted according to the EMA values represented in FIG. Note that the table 330 does not include the lighting setting index values included in the table 324 for a given read cycle. For example, column 326b of table 330 represents the indexed tuple for read cycle 8, but does not include index values 8, 13, and 14 because these values are included in block 328 of table 324. It is.

続く処理に画像の選択を誘導する為に、テーブル324の種々のブロック(たとえばブロック328)がテーブル330の対応する欄のインデクス値に先んじて結果の分類順番に保持される状態で、テーブル324及び330が複合されてもよい。さらに、分類インデクス値が、1つのリードサイクル(又は複数)によって遷移されて、分類インデクス値が、続くリードサイクルに対する代表値としても、それから計算されたリードサイクルに対する表示値として見られる。このように、たとえば、早い方のリードサイクルから導出された分類インデクス値が後のリードサイクルに対するある画像取得設定を優先するのに用いられてもよい。   In order to guide the selection of an image for subsequent processing, the various blocks (eg, block 328) of table 324 are held in the resulting classification order prior to the index value in the corresponding column of table 330, and 330 may be combined. Furthermore, the classification index value is transitioned by one read cycle (or plural), and the classification index value is seen as a representative value for the subsequent read cycle, as a display value for the read cycle calculated therefrom. Thus, for example, a classification index value derived from an earlier read cycle may be used to prioritize certain image acquisition settings for later read cycles.

図35を参照し、照明設定インデクステーブル334がテーブル324及び330の1つの例の複合を表す。示すように、たとえば、9番目リードサイクル(すなわち、8番目のリードサイクルに続くリードサイクル)に対する欄326cが、図34のテーブル324からの照明設定インデクス値のブロック328を含み、図34のテーブル330から欄326bの順番インデクス値が続く。さらに上述のように、図35に示す照明設定インデクス値の順番(及び、したがって、リードサイクル9中の照明設定の優先付け)が、対応のEMA値(図32参照)の分類順番に基づき、あるリードサイクル(図34参照、ブロック328)に対する成功デコードの実質結果となる照明設定の優先付けを反映する。したがって、リードサイクル9の間、インデクス8、13、及び14に対応する照明設定を有する画像が第1にデコードに選択され、欄326cの残りの分類順番に照明設定を有する画像が続く。   Referring to FIG. 35, a lighting setting index table 334 represents a composite of one example of tables 324 and 330. As shown, for example, the column 326c for the ninth read cycle (ie, the read cycle following the eighth read cycle) includes a block 328 of illumination setting index values from the table 324 of FIG. 34, and the table 330 of FIG. Followed by the order index value in column 326b. Furthermore, as described above, the order of the illumination setting index values shown in FIG. 35 (and therefore prioritization of the illumination settings during the lead cycle 9) is based on the classification order of the corresponding EMA values (see FIG. 32). Reflects the prioritization of lighting settings that will result in successful decoding for the lead cycle (see FIG. 34, block 328). Thus, during the lead cycle 9, images having illumination settings corresponding to indexes 8, 13, and 14 are first selected for decoding, followed by images having illumination settings in the remaining classification order in column 326c.

特定のリードサイクルに対し成功デコード試みに寄与した画像の無い場合、成功デコードに実質寄与した画像の照明設定に基づいて更新されなくてもよい。たとえば、図30、図33−35を参照し、リードサイクル6(図35にリードサイクル7に対して反映されるように)の間、成功してデコードされる画像が無いのが分かる。したがって、図34のテーブル324に、又はテーブル334(すなわち欄336に反映されるように)におけるリードサイクルに対し照明設定の分類順番に提供される照明設定のブロックは無い。   If no image contributes to a successful decoding attempt for a particular read cycle, it may not be updated based on the lighting settings of the image that contributed substantially to the successful decoding. For example, referring to FIGS. 30 and 33-35, it can be seen that there is no image successfully decoded during read cycle 6 (as reflected in read cycle 7 in FIG. 35). Therefore, there is no lighting setting block provided in the lighting setting classification order for the read cycle in table 324 of FIG. 34 or in table 334 (ie, as reflected in column 336).

リードサイクル6を続けて参照し、サイクル5すなわち欄338で反映されるように)及びサイクル6(すなわち、欄340で反映されるように)間のEMA値が変更されないのが、図32で分かる。リードサイクル6(図30参照)から成功デコードとならないので、リードサイクル6に基づく画像に得点数が割り当てられないし、リードサイクル5(欄338)からのEMA値が、リードサイクル6(欄340)に単に持ち越される。図35を参照すると、しかしながら、欄336の分類順番が、リードサイクル6の結果で決定されるが、欄342の分類順番から変わるのが分かる。これは、欄342の分類順番が更新されて、リードサイクル5(図30及び34参照)に成功デコード試みに寄与する画像に対応するインデクスのブロック344を優先するからである。   With continued reference to read cycle 6, it can be seen in FIG. 32 that the EMA value between cycle 5 (as reflected in column 338) and cycle 6 (ie, as reflected in column 340) is not changed. . Since no successful decoding is performed from the read cycle 6 (see FIG. 30), no score is assigned to the image based on the read cycle 6, and the EMA value from the read cycle 5 (column 338) is read in the read cycle 6 (column 340). Simply carried over. Referring to FIG. 35, however, it can be seen that the sorting order in column 336 is determined by the result of read cycle 6, but changes from the sorting order in column 342. This is because the classification order in the column 342 is updated to give priority to the block 344 of the index corresponding to the image contributing to the successful decoding attempt in the read cycle 5 (see FIGS. 30 and 34).

一般に図32〜図35を参照すると、ユーザ特定照明設定(「ユーザエントリ」)が示す例に対し提供されていないことが分かる。しかしながら、プレースホルダが図33の分類テーブル(ユーザエントリ列346参照)及び図35の更新された分類テーブル334(ユーザエントリ列348)内のユーザエントリに対し維持されている。ユーザが特定の照明設定(又はそれの態様)を特定するならば、ユーザエントリが続くリードサイクルにおいて優先されてもよく、以前の成功デコード試みに寄与した上記照明設定の場合も同様である。   In general, with reference to FIGS. 32-35, it can be seen that the user specific lighting setting (“user entry”) is not provided for the example shown. However, placeholders are maintained for user entries in the classification table of FIG. 33 (see user entry column 346) and the updated classification table 334 of FIG. 35 (user entry column 348). If the user identifies a particular lighting setting (or aspect thereof), the user entry may be prioritized in the following read cycle, as is the case for the above lighting setting that contributed to a previous successful decoding attempt.

上述のように、図29〜図35に表されるテーブルは、システム30によってそれ全体が必ずしも保存される必要が無く、又は特定のテーブル又はシステム30の他の保存庫(照明設定テーブル202)に含まれる必要が無いのは理解される。たとえば、ある実施例で、システム30がテーブル202(図27参照)に類似のテーブルを保存し、それの分類順番が、図29〜図35に示される分析に基づいた各成功リードサイクルの後に更新されてもよい。   As described above, the tables shown in FIGS. 29-35 do not necessarily have to be stored entirely by the system 30, or are stored in a specific table or other storage in the system 30 (lighting setting table 202). It is understood that it need not be included. For example, in one embodiment, system 30 stores a table similar to table 202 (see FIG. 27), whose classification order is updated after each successful read cycle based on the analysis shown in FIGS. May be.

ある実施例で、デコード動作の為にデータを一緒にステッチさせてもよい多数の画像を制限することは有用である。たとえば、2次元マトリクスシンボルデコードツールを用いてデコード操作に対し、データのステッチは、画像の数が過度であると、デコード結果を向上するよりも寧ろ悪化する惧れがある。したがって、ある実施例で、画像の最大数が、特定のリードサイクルに対し、得点数の割当へ特定されてもよい。画像の初期組が画像の最大数に達する前に、初期組が成功デコードの結果にならないならば、新しいデコード試み(同じリードサイクル内の)が画像の異なる組で開始し得る。ある実施例で、たとえば、8つの画像の最大数が特定されて、8つの組が関連ツールで成功デコードの結果にならないならば8つの画像の新しい組が新しいデコード試みに対し用いられてもよい。   In some embodiments, it is useful to limit the number of images that may be stitched together for decoding purposes. For example, for a decoding operation using a two-dimensional matrix symbol decoding tool, data stitching may worsen rather than improve the decoding result if the number of images is excessive. Thus, in certain embodiments, the maximum number of images may be specified in the score assignment for a particular read cycle. If the initial set does not result in a successful decode before the initial set of images reaches the maximum number of images, a new decoding attempt (within the same read cycle) may begin with a different set of images. In certain embodiments, for example, if a maximum number of 8 images is specified and the 8 sets do not result in successful decoding with the associated tool, a new set of 8 images may be used for a new decoding attempt. .

画像の特定の組が成功デコードの結果にならない場合であっても、しかしながら、組内のある画像が続くデコード試みに未だ利用有用な場合もある。したがって、ある実施例で、画像の初期組が成功デコード試みの結果に失敗し、新しい画像が新しいデコード試みに組み込まれるとき、初期の画像から最高スコア(1つ又は複数)が、画像の新しい組の部分として(たとえば、「シード」画像としてキャリーオーバされる)指名される。そのような場合、新しい(又は他の)画像への得点数の割当が、初期画像組から指名された画像の成功デコードの本質に基づいて緩和され得る。たとえば、画像の初期組からのシード画像が画像の新しい組と成功デコード試みに寄与するところにおいて、シード画像が強化得点数(たとえば1000得点の600)を割り当てられ得て、残りの得点(たとえば1000得点の400)が画像の新しい組の残りの画像の中に割り当てられる。   Even if a particular set of images does not result in successful decoding, however, some images in the set may still be useful for subsequent decoding attempts. Thus, in one embodiment, when the initial set of images fails the result of a successful decoding attempt and the new image is incorporated into a new decoding attempt, the highest score (s) from the initial image is (Eg, carried over as a “seed” image). In such a case, the score assignment to a new (or other) image may be relaxed based on the nature of successful decoding of the image nominated from the initial image set. For example, where the seed image from the initial set of images contributes to the new set of images and a successful decoding attempt, the seed image can be assigned an enhanced score (eg, 600 of 1000 scores) and the remaining score (eg, 1000). A score of 400) is assigned among the remaining images of the new set of images.

図36を参照し、たとえば、画像の初期組350のステッチ分析が、成功デコード試みの結果にならず、組350の画像352が、組350上のデコード試みについて(たとえば画像352のシンボル(又はシンボル部分)の代表について)、他の画像352に比較して比較的に高いスコアであってもよい。画像の最大数(たとえば8つの画像)が、組350に既に含まれ、追加の画像が組350に最早追加されない。寧ろ、画像の新しい組354が取得されてもよい。しかしながら、組350上のデコード試みに対して、画像352が比較的高くスコアし、画像352がその組のシード画像として画像の新しい組354にキャリーオーバされてもよい。   Referring to FIG. 36, for example, the stitch analysis of the initial set 350 of images does not result in a successful decoding attempt, and the image 352 of the set 350 does not contain the decoding attempt on the set 350 (eg, the symbol (or symbol For the representative of the part), the score may be relatively high compared to the other images 352. The maximum number of images (eg, 8 images) is already included in set 350 and no additional images are added to set 350 anymore. Rather, a new set of images 354 may be acquired. However, for decoding attempts on set 350, image 352 may score relatively high and image 352 may carry over to a new set of images 354 as the seed image for that set.

ある実施例で、画像の新しい組354に対し取得された画像からの情報と共に、画像の初期組350の画像からの情報を用いる為に、他の動作が実行され得る。たとえば、初期組350の最高(又は別には比較的高い)のスコア画像が特定された後に、画像それ自身が、同じ取得設定で取得された新しい組354又は別の画像に対して指定され得て、最高スコア画像が新しい組354に対して指名される。指名された画像(たとえば画像352又は同様に取得された他の画像)が、新しい組354の部分として実質的に働き、あるいは、指名画像からの情報が新しい組354における他の画像からの情報と共に用いられ、画像352を新しい組354の部分として働くことが無い。後者の例として、画像352が新しい組354に対し指名されるところで、新しい組354の部分としてそれの全体に必ずしも機能することなく、画像352がデコードの為に処理され得る。画像352の処理の結果が次いで新しい組354における他の画像の処理の結果と共に用いられて、関連シンボルのデコードするのを試みる。   In some embodiments, other operations may be performed to use the information from the images of the initial set 350 of images along with the information from the images acquired for the new set 354 of images. For example, after the highest (or otherwise relatively high) score image of the initial set 350 has been identified, the image itself can be specified for a new set 354 or another image acquired with the same acquisition settings. , The highest score image is nominated for the new set 354. The nominated image (eg, image 352 or other similarly acquired image) substantially serves as part of the new set 354, or the information from the nominated image is with information from other images in the new set 354 Used, image 352 does not serve as part of a new set 354. As an example of the latter, where image 352 is nominated for a new set 354, image 352 may be processed for decoding without necessarily functioning entirely as part of the new set 354. The results of processing of image 352 are then used along with the results of processing of other images in new set 354 to attempt to decode related symbols.

ある実施例で、特定の戦略が得点をOCRツールを用いて分析される画像に割り当てるのに用いられる。たとえば、画像が特定の位置での1つ又は複数の文字を成功デコード可能とするのなら、当該画像が文字毎に利用可能得点のパーセンテージを割り当てられ得る。たとえば、テキストの12個の文字列がデコードされるところにおいて、列の1つ又は複数の文字の成功デコードを可能とする画像が文字毎に利用可能得点の約8.3%が割り当てられ得る。   In one embodiment, a specific strategy is used to assign scores to images that are analyzed using an OCR tool. For example, if an image allows one or more characters at a particular location to be successfully decoded, the image can be assigned a percentage of available scores for each character. For example, where twelve character strings of text are decoded, an image that allows for successful decoding of one or more characters in the string can be assigned about 8.3% of the available score for each character.

別の例として、1つの画像が、文字列全体の成功デコードを可能にする場合、該1つの画像が利用可能得点の合計点を割り当てられてもよい。しかしながら、1つの画像が列の成功デコードを可能とし、1つ又は複数の他の画像が列の特定の文字の成功デコードを可能とするならば、得点数が、寄与画像のそれぞれの中で割り当てられてもよい。たとえば、全体に列の成功デコードに提供する画像が、利用可能得点の固定パーセンテージ(一般にXパーセント)が割り当てられ得て、他の画像(又は複数画像)が次式に計算されて割当てられ得て、
得点=1/(CT)×(100−X)/100×CD (2)
ここで、CTが列の文字の合計数を表し、CDが得点が割り当てられる画像に基づいてデコードされる文字の数を表す。
As another example, if one image allows for successful decoding of the entire string, the one image may be assigned a total score of available scores. However, if one image allows for successful decoding of a column and one or more other images allow for successful decoding of a particular character in the column, a score is assigned within each of the contributing images. May be. For example, the image that provides for the successful decoding of the entire column can be assigned a fixed percentage of available scores (generally X percent), and other images (or multiple images) can be calculated and assigned to ,
Score = 1 / (C T ) × (100−X) / 100 × C D (2)
Here, C T represents the total number of characters in the string indicates the number of characters to be decoded on the basis of the image C D is assigned a score.

ある実施例で、利用可能取得(たとえば照明)設定の数が動作の進行又は動作の続きを変えてもよい。たとえば、システム30について、ユーザが補助照明設定を使用可、不可にできて、たとえば利用可能照明設定の数がユーザ入力に依存して変化し得る。照明(又は他の画像取得)に対するEMA値のテーブルが構成されて(たとえば上述のように)、追加の照明(又は他の画像取得)設定が使用可となるときに、EMA値の合計が、追加の照明(又は他の画像取得)設定に対するそれらを含んで、得点の最大数(たとえば上記例において1000得点)と等価のままであるのを保証するのは有用である。したがって、追加の照明(又は他の画像取得)設定が利用可となると、追加の照明(又は他の画像取得)設定が初期にEMA値でゼロを割り当てられ得る。   In some embodiments, the number of available acquisition (eg, lighting) settings may change the progress of the action or the continuation of the action. For example, for system 30, a user can enable or disable auxiliary lighting settings, for example, the number of available lighting settings can vary depending on user input. When a table of EMA values for lighting (or other image acquisition) is constructed (eg, as described above) and additional lighting (or other image acquisition) settings are enabled, the sum of EMA values is It is useful to ensure that it remains equivalent to the maximum number of scores (eg 1000 scores in the above example), including those for additional lighting (or other image acquisition) settings. Thus, when additional lighting (or other image acquisition) settings are available, the additional lighting (or other image acquisition) settings may initially be assigned zero at the EMA value.

同様に、種々の画像取得(たとえば照明)設定に対するEMA値のテーブルが構成されて(上述のように)、いくつかの画像取得(たとえば照明)設定が、続くデコード動作に対し利用不可にされ、新しく利用不可画像取得(たとえば照明)設定に対するEMA値が、残りの取得(照明)設定の中に分配され得る。このように、たとえば、利用可能画像取得(照明)設定に対するEMA値の合計が、得点の最大数に等価で残る。さらに、新規に利用不可画像取得(照明)設定に対するEMA値が、残りの画像取得(たとえば照明)設定の中に均等に分配されるならば、残りの画像取得(たとえば照明)設定の現在の分類順番(たとえばEMA値に基づくように)が維持される。   Similarly, a table of EMA values for various image acquisition (eg, lighting) settings is constructed (as described above), and some image acquisition (eg, lighting) settings are disabled for subsequent decoding operations, EMA values for new unavailable image acquisition (eg, lighting) settings can be distributed among the remaining acquisition (lighting) settings. Thus, for example, the sum of EMA values for available image acquisition (illumination) settings remains equivalent to the maximum number of scores. Further, if the EMA values for the newly unavailable image acquisition (lighting) settings are evenly distributed among the remaining image acquisition (eg lighting) settings, the current classification of the remaining image acquisition (eg lighting) settings. Order is maintained (eg, based on EMA values).

ある実施例で、各デコードツールが成功及び失敗の場合の両方におけるゲッタファンクション(getter function)を介し結果寄与ベクタ(Result Contributors vector)を提供し、次の命令を含んでいる。   In one embodiment, each decode tool provides a Result Contributors vector via a getter function in both success and failure cases, and includes the following instructions:

Figure 2017038368
Figure 2017038368

このように、ツールによって戻った組が、画像インデクス(たとえば、照明(又は他の画像取得)設定、図29のインデクス302に類似する)、及びツールが画像に割り当てられた得点数を含み得る。   Thus, the set returned by the tool may include an image index (eg, similar to lighting (or other image acquisition) settings, index 302 of FIG. 29), and the number of scores that the tool has been assigned to the image.

ある実施例で、ツールによって戻された画像インデクスが、特定の画像が分析(又は画像取得設定テーブルの関連画像取得の対応する配置)の為にツールに渡された順番を示し得る。たとえば、照明設定テーブルの7番目エントリに対応する照明設定を示す画像が、ツールに渡され、この画像がデコードに寄与し、次いで画像インデクス値が値7で戻され得る。   In some embodiments, the image index returned by the tool may indicate the order in which a particular image was passed to the tool for analysis (or a corresponding arrangement of related image acquisitions in the image acquisition settings table). For example, an image showing the lighting settings corresponding to the seventh entry in the lighting settings table may be passed to the tool, which will contribute to the decoding, and then the image index value may be returned with the value 7.

ある実施例で、ツールによる画像の組の分析の失敗の場合、表示に対する最良とツールにされた画像が、最大得点数(たとえば得点数で1000)が割り当てられ、組における残り画像が値ゼロを受ける。他の実施例において、不成功デコード試みに対する何れの画像に得点は割り当てられない。   In one embodiment, if the tool fails to analyze an image set, the best and tooled image for display is assigned a maximum score (eg, 1000 in score) and the remaining images in the set have a value of zero. receive. In other embodiments, no score is assigned to any image for unsuccessful decoding attempts.

上記の例示の命令下で、ツールが特定のリードサイクルにおいてシンボルを成功してデコードする場合、結果寄与ベクタが、成功デコードに寄与した画像にだけ取り組んでもよい。しかしながら、失敗の場合は他の画像が取り組まれてもよい。   Under the example instructions above, if the tool successfully decodes a symbol in a particular read cycle, the result contribution vector may only work on images that contributed to successful decoding. However, other images may be addressed in case of failure.

ある実施例で、取得設定について上述したのに類似する分類が、ポスト取得処理に対して用いられ得る。たとえば、異なるポスト取得処理(たとえば、異なる画像フィルタ設定のアプリケーション又は関心調節の領域)が、異なる取得画像に適用され得る。ポスト取得設定順番が、種々のポスト処理画像の画像に対するデコード試みへの寄与に基づき決定され、そこで、デコード試みへ強い寄与を有する画像に対するポスト取得処理設定が、デコード試みへ弱い寄与を有する画像に対するポスト取得処理設定よりも高いインパクト(たとえば大きい)得点数を割り当てられる。ある実施例で、得点のこの割当てが、取得順番に対し上述の得点の割当への類似の方法で処理され得る。   In some embodiments, a classification similar to that described above for acquisition settings may be used for post acquisition processing. For example, different post acquisition processes (eg, different image filter settings applications or areas of interest adjustment) may be applied to different acquired images. The post-acquisition setting order is determined based on the contribution of the various post-processed images to the decoding attempt on the image, where the post-acquisition setting for the image having a strong contribution to the decoding attempt is for the image having a weak contribution to the decoding attempt. A higher impact (eg, larger) score is assigned than the post acquisition process setting. In certain embodiments, this assignment of scores may be processed in a similar manner to the score assignment described above for acquisition order.

一度決定されると、ポスト取得設定順番が次いで用いられて続くデコード試みを案内する。たとえば、ポスト取得設定順番(たとえば続くリードサイクルに対し更新されるように)が、新しいデコード試みを受けるであろう画像へのポスト取得処理の順番を決定するか、特定のポスト取得処理設定で既に処理されたある画像に対するデコード試みを優先するのに、用いられる。   Once determined, the post acquisition set order is then used to guide subsequent decoding attempts. For example, the post acquisition setting order (eg, as updated for subsequent read cycles) determines the order of post acquisition processing for an image that will receive a new decoding attempt, or is already at a specific post acquisition processing setting. Used to prioritize decoding attempts on certain processed images.

図34〜図35を再び参照し、たとえば、ポスト処理の異なる種類がリードサイクル8の間の照明設定8、13、及び14のある画像に適用され、該ポスト処理がそれらの画像のデコード試みへの相対寄与及びそれらの画像に対し対応上昇得点割当に少なくとも一部寄与してもよい。得点割当て及び特定の画像に用いられるポスト処理の特定の種類に基づき、ポスト取得処理設定順番が、ポスト処理又は特定の画像に対し決定され得る。リードサイクル9の間、特定のポスト取得処理が、次いで取得画像又はデコードに優先された特定のポスト処理画像に適用され、それがポスト取得処理設定順番に基づく。たとえば、新しい画像に対するポスト取得処理設定がポスト取得処理設定順番における設定優先に基づき決定され得る。   Referring again to FIGS. 34-35, for example, different types of post processing are applied to images with lighting settings 8, 13, and 14 during the lead cycle 8, and the post processing is to attempt to decode those images. May contribute at least in part to the relative contribution of and the corresponding increase score assignment for those images. Based on the score assignment and the specific type of post processing used for a particular image, the post acquisition processing set order may be determined for the post processing or the specific image. During the read cycle 9, a specific post-acquisition process is then applied to the acquired image or a specific post-processed image prioritized for decoding, which is based on the post-acquisition process setting order. For example, the post acquisition process setting for a new image can be determined based on the setting priority in the post acquisition process setting order.

ある実施例で、決定された画像取得設定が、処理順番(たとえば画像が処理されてシンボルをデコードするのを試みる順番)を取得順番を知らせる代替(又は追加して)として通知される。たとえば、図35をさらに参照し、リードサイクル10に対する取得設定が、インデクス5、8、7、及び3で示される取得設定を順番に優先する。ある実施例で、リードサイクル10からの画像をデコードする試みへの処理が、リードサイクル10に対する画像が取得設定の異なる順番(たとえば8、7、5、次いで3)で取得されたとしても、この順番(すなわち5、8、7、次いで3)に基づいて実行される。よって、この点で、図35に示される取得設定が、取得画像への処理順番として別に(又は追加して)見られ、特定の取得設定で取得された画像が処理されて、そこに表されたシンボルをデコードするのを試みる順番を特定し得る。   In some embodiments, the determined image acquisition settings are reported as an alternative (or in addition) to inform the acquisition order of the processing order (eg, the order in which the images are processed and attempt to decode the symbols). For example, referring to FIG. 35 further, the acquisition settings for the read cycle 10 prioritize the acquisition settings indicated by indexes 5, 8, 7, and 3 in order. In some embodiments, processing to an attempt to decode an image from read cycle 10 may be performed even if the images for read cycle 10 were acquired in a different order of acquisition settings (eg, 8, 7, 5, then 3). It is performed based on the order (ie 5, 8, 7, then 3). Thus, at this point, the acquisition settings shown in FIG. 35 are seen separately (or in addition) as the processing order for the acquired images, and the images acquired with the specific acquisition settings are processed and represented there. The order in which to attempt to decode the symbols may be specified.

本技術が好適な実施例を参照して説明されたが、当業者は技術の精神及び範囲から乖離することなく形式及び詳細で変更が為されるのを理解するであろう。たとえば、本技術が、2次元データマトリクスシンボルの実施例に限定されないし、他の機械読取シンボル技術で実施されてもよい。   Although the present technology has been described with reference to preferred embodiments, workers skilled in the art will recognize that changes may be made in form and detail without departing from the spirit and scope of the technology. For example, the present technology is not limited to the two-dimensional data matrix symbol embodiment and may be implemented with other machine-readable symbol technologies.

本明細書で記載された特定の方法がハンドヘルドアプリケーションまで一般化され、本明細書で記載された対応方法がパターンアライメントアプリケーションまで一般化され得る。   Certain methods described herein can be generalized to handheld applications, and corresponding methods described herein can be generalized to pattern alignment applications.

本明細書で記載した技術が複数の画像からOCR読取りなどの別のIDアプリケーションに対しデータをステッチするのに適用され得る。複数の画像からOCR読取りの知られる方法が、個々の画像から最高スコアで読取り文字を選択する。知られる方法が少なくとも1つの画像から読み取り可能になるように個々の文字を必要とする。この技術で、文字の個々のストロークが複数の画像から複合された後に、文字読取りが起こり得る。   The techniques described herein may be applied to stitch data from multiple images to another ID application such as OCR reading. Known methods of OCR reading from multiple images select reading characters from individual images with the highest score. Individual characters are required so that the known method can be read from at least one image. With this technique, character reading can occur after the individual strokes of the character have been combined from multiple images.

上述した特定の実施例が説明されるだけであるが、技術が、ここでの技術の利益を有する当業者に明らかな異なり等価の方法で修正され実施されように。さらに、ここに示された構成及び設計の詳細、以降の請求項に記述されるのを除いて、限定する意図は無い。よって、上述の特定の実施例が代替され修正され、このような変態が技術の範囲及び精神内で考慮されることは明白である。したがって、ここで求める保護は以降の請求項で記述されるものである。   While only the specific embodiments described above are described, the techniques will be modified and implemented in a different and equivalent manner apparent to those skilled in the art having the benefit of the techniques herein. Furthermore, no limitations are intended except as set forth in the construction and design details herein, and as set forth in the claims below. Thus, it will be apparent that the specific embodiments described above may be substituted and modified, and that such modifications are considered within the scope and spirit of the technology. Accordingly, the protection sought here is set forth in the following claims.

Claims (29)

シンボルの画像を用いてシンボルをデコードするシステムにおいて、
各々が各シンボルデータ領域を含む複数の画像、を取得するように構成された画像化デバイスと、
前記画像化デバイスに動作可能に接続されたプロセッサと、を備え、
前記プロセッサが、
(1)前記システムの第1のリードサイクルに対する第1の複数の画像を受け、前記第1の複数の画像が各取得設定を用いて第1の取得順番で前記画像化デバイスによって取得され、前記第1の複数の画像には初期の取得設定順番に基づいて決定された第1及び第2の取得設定を用いてそれぞれ取得される第1及び第2の画像が含まれ、
(2)データステッチアルゴリズムを実行し、該データステッチアルゴリズムには、
(i)前記シンボルの複数の知られる特徴のモデルである合成モデルを生成し、
(ii)前記シンボルの前記合成モデルを少なくとも1つの前記第1及び第2の画像と比較し、
(iii)前記第1の画像の第1のシンボルデータ領域を第1のバイナリマトリクスに変換し、前記第2の画像の第2のシンボルデータ領域を第2のバイナリマトリクスに変換し、
(iv)前記第1のバイナリマトリクスを前記第2のバイナリマトリクスと少なくとも部分的に複合して、前記シンボルのデコード可能代表とされる複合バイナリマトリクスを生成する、ことが含まれており、
(3)少なくとも部分的に前記複合バイナリマトリクスに基づいて前記シンボルをデコードすることを試み、
(4)前記システムの第2のリードサイクルに対する第2の複数の画像を受け、前記第2の複数の画像が、更新された取得設定順番に基づいて決定される更新された取得設定を用いて第2の取得順番で、前記画像化デバイスによって取得され、前記更新された取得設定順番が、前記シンボルをデコードする試みへの前記第1及び第2の画像のそれぞれの第1及び第2の寄与に少なくとも部分的に基づいて決定される、
ように構成されていることを特徴とするシステム。
In a system for decoding a symbol using a symbol image,
An imaging device configured to acquire a plurality of images, each including a respective symbol data region;
A processor operably connected to the imaging device;
The processor is
(1) receiving a first plurality of images for a first read cycle of the system, wherein the first plurality of images are acquired by the imaging device in a first acquisition order using respective acquisition settings; The first plurality of images includes first and second images respectively acquired using first and second acquisition settings determined based on an initial acquisition setting order;
(2) A data stitch algorithm is executed, and the data stitch algorithm includes:
(I) generating a composite model that is a model of a plurality of known features of the symbol;
(Ii) comparing the composite model of the symbol with at least one of the first and second images;
(Iii) converting a first symbol data area of the first image into a first binary matrix, converting a second symbol data area of the second image into a second binary matrix;
(Iv) at least partially combining the first binary matrix with the second binary matrix to generate a composite binary matrix that is a decodable representative of the symbol;
(3) attempting to decode the symbol based at least in part on the composite binary matrix;
(4) receiving a second plurality of images for a second read cycle of the system and using the updated acquisition settings, wherein the second plurality of images are determined based on an updated acquisition setting order; First and second contributions of the first and second images, respectively, to the attempt to decode the symbol, wherein the updated acquisition setting order is acquired by the imaging device in a second acquisition order. Determined based at least in part on the
A system characterized by being configured as follows.
前記第2の画像が前記シンボルの成功デコードに寄与する以上に、前記第1の画像が前記シンボルの成功デコードに寄与する場合、前記第1の取得設定が、前記更新された取得設定順番において前記第2の取得設定に先行するよう決定されることを特徴とする請求項1に記載のシステム。   If the first image contributes to the successful decoding of the symbol more than the second image contributes to the successful decoding of the symbol, then the first acquisition setting is in the updated acquisition setting order The system of claim 1, wherein the system is determined to precede the second acquisition setting. ユーザが、前記第2のリードサイクルに対する前記第1及び第2の取得設定と異なる取得設定を特定するとき、ユーザ特定取得設定が前記更新された取得設定順番の前記第1及び第2取得設定に先行するよう決定されることを特徴とする請求項1に記載のシステム。   When the user specifies an acquisition setting different from the first and second acquisition settings for the second read cycle, the user specific acquisition setting is changed to the first and second acquisition settings in the updated acquisition setting order. The system of claim 1, wherein the system is determined to precede. 前記第1及び第2の寄与に少なくとも部分的に基づいて前記更新された取得設定順番を決定する為に、前記プロセッサがさらに、
前記第1及び第2の取得設定に対し、前記第1及び第2の寄与に関連した得点数をそれぞれ割り当てて、前記第1及び第2の取得設定に対し、各平均を前記第1及び第2の初期取得設定の事前決定済スコアそれぞれに少なくとも部分的に基づき且つ前記第1及び第2の取得設定に割り当てられた前記各得点数に少なくとも部分的に基づいて算出し、
前記算出された平均に少なくとも部分的に基づいて前記更新された取得設定順番を決定する
ことを特徴とする請求項1に記載のシステム。
In order to determine the updated acquisition setting order based at least in part on the first and second contributions, the processor further comprises:
A score associated with the first and second contributions is assigned to each of the first and second acquisition settings, and each average is assigned to each of the first and second acquisition settings. 2 based at least in part on each of the pre-determined scores of the initial acquisition settings of 2 and based at least in part on the respective score assigned to the first and second acquisition settings;
The system of claim 1, wherein the updated acquisition setting order is determined based at least in part on the calculated average.
前記シンボルの成功デコードに寄与しない前記対応する第1及び第2の画像のうちの少なくとも1つに少なくとも部分的に基づいて、最小インパクト点を前記第1及び第2の取得設定の少なくとも1つに対し割り当てることを特徴とする請求項4に記載のシステム。   A minimum impact point is set to at least one of the first and second acquisition settings based at least in part on at least one of the corresponding first and second images that do not contribute to successful decoding of the symbol. 5. The system of claim 4, wherein the system is assigned to. 前記シンボルをデコードする試みが前記第1のリードサイクルに対する前記シンボルの成功デコードの結果となる場合のみ、前記平均が計算されることを特徴とする請求項4に記載のシステム。   The system of claim 4, wherein the average is calculated only if an attempt to decode the symbol results in a successful decoding of the symbol for the first read cycle. 前記平均の計算が、テーブルエントリの数を含んでいる保存された取得設定テーブルに前記プロセッサアクセスすることに少なくとも部分的に基づき、
前記テーブルエントリがそれぞれ、取得設定フィールド及び分類設定値フィールドを含み、
特定のテーブルエントリに対する前記分類値フィールドがそれぞれ、前記特定のテーブルエントリに対する前記取得設定フィールドの表わす前記取得設定に対する前記以前に決定されたスコアを表わす
ことを特徴とする請求項4に記載のシステム。
The average calculation is based at least in part on the processor access to a stored retrieval settings table that includes a number of table entries;
Each of the table entries includes an acquisition setting field and a classification setting value field;
5. The system of claim 4, wherein each of the classification value fields for a particular table entry represents the previously determined score for the acquisition setting represented by the acquisition setting field for the specific table entry.
前記プロセッサが、前記計算された平均に少なくとも部分的にそれぞれ基づいて分類値フィールドのエントリを更新するようにさらに構成され、
前記更新された取得設定順番が、前記分類値フィールドの前記更新されたエントリに少なくとも部分的に基づいて決定される
ことを特徴とする請求項7に記載のシステム。
The processor is further configured to update an entry in the classification value field based at least in part on the calculated average, respectively.
The system of claim 7, wherein the updated acquisition setting order is determined based at least in part on the updated entry in the classification value field.
前記更新された取得設定順番を決定する為に、前記プロセッサがさらに、
5)与えられたデコード試みに対し画像の最大数を設定し、
6)前記画像の最大数を含む前記第1の複数の画像の第1のサブ組を特定し、
7)前記画像のサブ組を処理し、前記シンボルをデコードすることを試み、
8)前記第1のサブ組の前記処理が前記シンボルの成功デコードの結果となる場合、前記第1のサブ組の前記画像を取得するのに用いられた前記取得設定に対し得点数を割り当て、
9)前記第1のサブ組の処理が成功デコードの結果にならない場合、
v)前記最高スコアが特定の取得設定で取得された前記第1のサブ組の最高スコア画像を特定し、
vi)画像の前記最高数を服ウ前記第1の複数の画像の第2のサブ組の部分として前記第1のサブ組の最高スコア画像及び前記取得設定で取得された別の画像の少なくとも1つを指名し、
vii)画像の前記第2のサブ組を処理して前記シンボルをデコードするのを試み、
viii)前記第2のサブ組の前記処理が成功デコードの結果となる場合、前記第2のサブ組の前記画像を取得するのに用いられた前記取得設定に対し得点数を割り当てる
ように構成されていることを特徴とする請求項1に記載のシステム。
In order to determine the updated acquisition setting order, the processor further comprises:
5) Set the maximum number of images for a given decoding attempt,
6) identify a first subset of the first plurality of images including the maximum number of the images;
7) process the subset of images and attempt to decode the symbols;
8) If the processing of the first sub-set results in a successful decoding of the symbol, assign a score to the acquisition setting used to acquire the image of the first sub-set;
9) If the processing of the first subset does not result in successful decoding,
v) identify the highest score image of the first sub-set in which the highest score was acquired with specific acquisition settings;
vi) Taking the highest number of images as a part of a second sub-set of the first plurality of images, at least one of the highest score image of the first sub-set and another image acquired with the acquisition setting Nominate one
vii) processing the second subset of images to attempt to decode the symbols;
viii) configured to assign a score to the acquisition settings used to acquire the images of the second sub-set if the processing of the second sub-set results in a successful decoding The system according to claim 1, wherein:
シンボルの画像を用いてシンボルをデコードする方法であって、
前記シンボルの知られる特徴のモデルである、前記シンボルの合成モデルを生成し、
画像化デバイスを用いて、第1のリードサイクルに対する第1の画像及び第2の画像を取得し、前記第1の画像が第1の取得設定を用いて取得され且つ第1のシンボルデータ領域を含み、前記第2の画像が第2の取得設定を用いて取得され且つ第2のシンボルデータ領域を含み、
前記シンボルの合成モデルを前記第1の画像と比較して第1のバイナリマトリクスを抽出し、
前記シンボルの合成モデルを前記第2の画像と比較して第2のバイナリマトリクスを抽出し、
前記第1のバイナリマトリクスを前記第2のバイナリマトリクスに少なくとも部分的に複合し、
前記シンボルのデコード可能代表である複合バイナリマトリクスを生成し、
前記複合バイナリマトリクスに少なくとも部分的に基づいて前記シンボルをデコードすることを試み、
前記シンボルをデコードする試みに対する、前記第1及び前記第2の画像それぞれの第1及び第2の寄与を特定し、
少なくとも前記第1及び第2の取得設定に対して構成された取得設定順番を、前記第1及び第2の寄与に少なくとも部分的に基づいて決定し、
前記画像化デバイスに第2のリードサイクルに対する第3の画像を取得させ、前記更新された取得設定順番に少なくとも部分的に基づいて決定される第3の取得設定を用いて、前記第3の画像が取得される
ことを特徴とするシンボルをデコードする方法。
A method of decoding a symbol using an image of the symbol,
Generating a composite model of the symbol, which is a model of a known feature of the symbol;
An imaging device is used to acquire a first image and a second image for a first read cycle, wherein the first image is acquired using a first acquisition setting and a first symbol data region is The second image is acquired using a second acquisition setting and includes a second symbol data region;
Comparing a composite model of the symbols with the first image to extract a first binary matrix;
Comparing the combined model of the symbols with the second image to extract a second binary matrix;
Compound at least partially the first binary matrix into the second binary matrix;
Generating a composite binary matrix that is a decodable representative of the symbol;
Attempting to decode the symbol based at least in part on the composite binary matrix;
Identifying first and second contributions of the first and second images, respectively, to an attempt to decode the symbol;
Determining an acquisition setting order configured for at least the first and second acquisition settings based at least in part on the first and second contributions;
Causing the imaging device to acquire a third image for a second read cycle and using the third acquisition setting determined at least in part based on the updated acquisition setting order; A method of decoding a symbol, characterized in that is obtained.
前記第2の画像が前記シンボルの前記成功デコードに寄与する以上に、前記第1の画像が前記シンボルの成功デコードに寄与すると、前記更新された取得設定順番において、第1の取得設定が前記第2に先行するよう決定されることを特徴とする請求項10に記載の方法。   If the first image contributes to the successful decoding of the symbol more than the second image contributes to the successful decoding of the symbol, the first acquisition setting is changed to the first acquisition setting in the updated acquisition setting order. The method of claim 10, wherein the method is determined to precede 2. ユーザが前記第2のリードサイクルに取得設定を特定すると、ユーザ特性取得設定が、前記更新された取得設定順番において前記第1及び第2の取得設定に先行するよう決定されることを特徴とする請求項10に記載の方法。   When the user specifies an acquisition setting in the second read cycle, the user characteristic acquisition setting is determined to precede the first and second acquisition settings in the updated acquisition setting order. The method of claim 10. 前記更新された取得設定を前記第1及び第2の寄与に少なくとも部分的に基づいて決定するのに、
前記第1及び前記第2の取得設定に、合計得点の所定数からそれぞれ前記第1及び前記第2の寄与に関連付けされた得点数を割り当て、
前記第1及び第2の初期取得設定に対するそれぞれの移動平均を、それぞれの以前に決定されたスコアに少なくとも部分的に基づき且つ前記第1及び第2の取得設定に対し割り当てられた前記それぞれの得点数に少なくとも部分的に基づいて、前記第1及び第2の取得設定の各々に対し計算し、
前記計算された移動平均に少なくとも部分的に基づいて前記更新された取得設定順番を決定する
ことを特徴とする請求項10に記載の方法。
Determining the updated acquisition setting based at least in part on the first and second contributions;
Assigning to the first and second acquisition settings a score number associated with the first and second contributions, respectively, from a predetermined number of total scores;
The respective moving averages for the first and second initial acquisition settings are based at least in part on respective previously determined scores and the respective acquisitions assigned to the first and second acquisition settings. Calculating for each of the first and second acquisition settings based at least in part on the score;
The method of claim 10, wherein the updated acquisition setting order is determined based at least in part on the calculated moving average.
最小インパクト得点が、前記シンボルの成功デコードに寄与しない対応する少なくとも1つの前記第1及び第2の画像に少なくとも基づいて、前記第1及び第2の取得設定の少なくとも1つに対し割り当てられることを特徴とする請求項13に記載の方法。   A minimum impact score is assigned to at least one of the first and second acquisition settings based at least on the corresponding at least one first and second image that does not contribute to successful decoding of the symbol. 14. A method according to claim 13 characterized in that 前記シンボルをデコードする試みが前記第1のリードサイクルに対し前記シンボルの成功デコードの結果となる場合にのみ、前記移動平均が計算されることを特徴とする請求項13に記載の方法。   14. The method of claim 13, wherein the moving average is calculated only if an attempt to decode the symbol results in a successful decoding of the symbol for the first read cycle. 前記第1、第2及び第3の取得設定の少なくとも1つが、照明モード、画像露出、画像ゲイン、及び画像オフセットの少なくとも1つを特定することを特徴とする請求項10に記載の方法。   11. The method of claim 10, wherein at least one of the first, second, and third acquisition settings specifies at least one of illumination mode, image exposure, image gain, and image offset. 前記シンボルをデコードする試みがさらに、第1及び第2のポスト取得処理設定それぞれに応じて前記第1及び第2の画像にポスト取得処理を適用するのに少なくも部分的に基づき、前記第1及び第2のポスト取得処理設定が、画像フィルタ設定及び関心隣接の領域の1つ又は複数を含み、
方法がさらに、更新されたポスト取得設定順番を前記第1及び第2の寄与に少なくとも部分的に基づいて決定することを含み、
前記第3の画像が、前記更新されたポスト取得設定順番に少なくとも部分的に基づいて決定される第3のポスト取得処理設定を用いて、取得後に処理されることを特徴とする請求項10に記載の方法。
The attempt to decode the symbol is further based at least in part on applying post acquisition processing to the first and second images according to first and second post acquisition processing settings, respectively. And the second post acquisition processing setting includes one or more of an image filter setting and an adjacent region of interest;
The method further comprises determining an updated post acquisition setting order based at least in part on the first and second contributions;
11. The post-acquisition process of claim 10, wherein the third image is processed after acquisition using a third post acquisition processing setting that is determined based at least in part on the updated post acquisition setting order. The method described.
初期取得設定順番に少なくとも基づいて決定されるそれぞれの取得設定の初期順番を用いて、第1の画像が第1の取得順番に画像化デバイスで取得される、シンボルの画像を用いてシンボルをデコードする方法であって、
前記第1の画像の2つ以上から少なくとも部分的にステッチすることにより、前記第1の画像を処理して前記シンボルをデコードすることを試み、
前記初期取得設定の少なくとも1つを用いて取得された前記第1の画像の2つ以上の少なくとも1つに対し、前記シンボルをデコードする試みに対応する少なくとも1つの寄与を特定し、
前記少なくとも1つの寄与に少なくとも部分的に基づいて、前記初期取得設定の集合に対して更新された取得設定順番を決定し、
前記画像化デバイスで、少なくとも1つの第2の画像を、前記更新された取得設定に少なくとも部分的に基づいて決定される第2の取得設定の更新された順番を用い、デコード試みにおいて、前記更新された取得設定順番に少なくとも部分的に基づいて決定される処理順番を用いて処理する
シンボルをデコードする方法。
Using the initial order of each acquisition setting determined at least based on the initial acquisition setting order, the first image is acquired by the imaging device in the first acquisition order, and the symbol is decoded using the image of the symbol A way to
Attempting to decode the symbol by processing the first image by at least partially stitching from two or more of the first images;
Identifying at least one contribution corresponding to an attempt to decode the symbol for at least one of two or more of the first images acquired using at least one of the initial acquisition settings;
Determining an updated acquisition setting order for the set of initial acquisition settings based at least in part on the at least one contribution;
In the imaging device, at least one second image is updated in a decoding attempt using an updated order of second acquisition settings determined based at least in part on the updated acquisition settings A method of decoding symbols to be processed using a processing order determined based at least in part on the acquired acquisition order.
前記シンボルをデコードする試みに、初期ポスト取得設定順番に少なくとも部分的に基づいて、ポスト取得処理を前記第1の画像の2つ以上に適用することが含まれ、
方法がさらに、前記少なくとも1つの寄与に少なくとも部分的に基づいて、更新されたポスト取得設定を決定することを含み、
取得された後に、前記更新されたポスト取得設定順番に少なくとも部分的に基づいて前記第2の画像が処理される
ことを特徴とする請求項18に記載の方法。
Attempting to decode the symbol includes applying a post acquisition process to two or more of the first images based at least in part on an initial post acquisition set order;
The method further comprises determining an updated post acquisition setting based at least in part on the at least one contribution;
The method of claim 18, wherein after being acquired, the second image is processed based at least in part on the updated post acquisition set order.
前記ポスト取得処理に、前記第1の画像の2つ以上の少なくと1つに1つ又は複数の画像フィルタを適用すること、及び、前記第1の画像の1つ又は複数を調節することのうち少なくとも1つが含まれ、
1つ又は複数のフィルタを提供すること、及び関心の1つ又は複数の領域を調節することの少なくとも1つに対し、前記初期及び更新されたポスト取得設定順番がそれぞれ初期及び更新された順番を示す
ことを特徴とする請求項19に記載の方法。
Applying one or more image filters to at least one or more of the first images in the post-acquisition process, and adjusting one or more of the first images At least one of them,
For at least one of providing one or more filters and adjusting one or more regions of interest, the initial and updated post acquisition set orders are the initial and updated orders respectively. 20. The method of claim 19, wherein:
シンボルの画像を用いてシンボルをデコードするシステムであって、
複数の画像を取得するように構成された、該取得された画像の各々がそれぞれのシンボルデータ領域を有する画像化デバイスと、
前記画像化デバイスに動作可能に連結されたプロセッサと、を備え、
前記プロセッサが、
1)前記システムの第1のリードサイクルに対する第1の複数の画像を受け、前記複数の第1の画像が初期取得設定順番に従って決定されたそれぞれの取得設定を用いて第1の取得順番で前記画像化デバイスによって取得され、
2)データステッチアルゴリズムを実行する、ことを含み、
前記データステッチアルゴリズムが、
i)前記シンボルの、複数の知られる特徴のモデルである合成モデルを生成し、
ii)前記シンボルの合成モデルを少なくとも前記第1及び第2の画像と比較し、
iii)前記第1の画像の第1のシンボルデータ領域を第1のバイナリマトリクスに変換し、前記第2の画像の第2のシンボルデータ領域を第2のバイナリマトリクスに変換し、
iv)前記第1のバイナリマトリクスを前記第2のバイナリマトリクスに少なくとも部分的に複合して、前記シンボルのデコード可能代表とされる複合バイナリマトリクスを生成し、
3)前記複合バイナリマトリクスに少なくとも部分的に基づいて前記シンボルをデコードすることを試み、
4)前記システムの第2のリードサイクルに対する第2の複数の画像を受け、前記第2の複数の画像が処理順番でデコードに処理され、該処理順番が前記第1及び第2の画像の前記シンボルのデコードの試みへのそれぞれ第1及び第2の寄与に少なくとも部分的に基づいて決定される
ことを特徴とするシンボルをデコードするシステム。
A system for decoding a symbol using an image of the symbol,
An imaging device configured to acquire a plurality of images, each of the acquired images having a respective symbol data region;
A processor operably coupled to the imaging device;
The processor is
1) receiving a first plurality of images for a first read cycle of the system, wherein the plurality of first images are in a first acquisition order using respective acquisition settings determined according to an initial acquisition setting order; Acquired by the imaging device,
2) performing a data stitching algorithm,
The data stitch algorithm is
i) generating a composite model that is a model of a plurality of known features of the symbol;
ii) comparing the combined model of the symbols with at least the first and second images;
iii) converting a first symbol data region of the first image into a first binary matrix, converting a second symbol data region of the second image into a second binary matrix;
iv) at least partially combining the first binary matrix with the second binary matrix to generate a composite binary matrix that is a decodable representative of the symbol;
3) Attempt to decode the symbol based at least in part on the composite binary matrix;
4) receiving a second plurality of images for a second read cycle of the system, the second plurality of images being processed for decoding in a processing order, the processing order being the ones of the first and second images; A system for decoding a symbol, characterized in that it is determined based at least in part on first and second contributions to a symbol decoding attempt, respectively.
前記第2の画像前記シンボルの成功デコードに寄与する以上に、前記第1の画像が前記シンボルの成功デコードに寄与する場合、前記第1の取得設定で取得された画像が、前記処理順番に前記第2の取得設定で取得された画像に先行するよう決定される
ことを特徴とする請求項21に記載のシステム。
If the first image contributes to the successful decoding of the symbol more than contributes to the successful decoding of the second image, the image acquired with the first acquisition setting is the processing image in the processing order. The system of claim 21, wherein the system is determined to precede an image acquired with the second acquisition setting.
ユーザが前記第2のリードサイクルに対する取得設定を特定するときに、前記ユーザ特定取得設定が前記処理順番で優先されることを特徴とする請求項21に記載のシステム。   The system of claim 21, wherein when a user specifies an acquisition setting for the second read cycle, the user specific acquisition setting is prioritized in the processing order. 前記第1及び第2の寄与に少なくとも部分的に基づいて前記処理順番を決定する為に、前記プロセッサがさらに、
前記第1及び前記第2の取得設定それぞれに前記第1及び第2の寄与に関連する得点数を割り当て、
前記第1及び第2の取得設定それぞれに対して、前記第1及び第2の初期取得設定に対してそれぞれ以前に決定されたスコアに少なくとも部分的に基づき且つ前記第1及び第2の初期取得設定に対してそれぞれ割り当てられた得点数に少なくとも部分的に基づき、それぞれの平均を計算する、ように構成される
ことを特徴とする請求項21に記載のシステム。
In order to determine the processing order based at least in part on the first and second contributions, the processor further comprises:
Assigning a score associated with the first and second contributions to the first and second acquisition settings, respectively;
For each of the first and second acquisition settings, the first and second initial acquisitions are based at least in part on scores previously determined for the first and second initial acquisition settings, respectively. The system of claim 21, wherein the system is configured to calculate a respective average based at least in part on a score assigned to each setting.
前記第1及び第2の取得設定の少なくとも1つに対し、前記シンボルの成功デコードに寄与しない前記第1及び第2の画像の対応する少なくとも1つに少なくとも部分的に基づいて最小インパクト得点が割り当てられることを特徴とする請求項24に記載のシステム。   A minimum impact score is assigned to at least one of the first and second acquisition settings based at least in part on a corresponding at least one of the first and second images that does not contribute to successful decoding of the symbol. 25. The system of claim 24, wherein: 前記シンボルをデコードする試みが前記第1のリードサイクルに対する前記シンボルの成功デコードの結果になる場合のみ、前記平均が計算されることを特徴とする請求項24に記載のシステム。   25. The system of claim 24, wherein the average is calculated only if an attempt to decode the symbol results in a successful decoding of the symbol for the first read cycle. 前記平均の計算が、プロセッサがテーブルエントリの数を含む保存された取得設定を評価するのに少なくとも部分的に基づき、
テーブルエントリそれぞれが、取得設定フィールド及び分類値フィールドを含み、
特定のテーブルエントリに対する前記分類値フィールドそれぞれが、前記特定のエントリに対する前記取得設定によって示される前記取得設定に対する前記以前に決定されたスコアを示す
ことを特徴とする請求項24に記載のシステム。
The average calculation is based at least in part on the processor evaluating a stored acquisition setting that includes the number of table entries;
Each table entry includes an acquisition setting field and a classification value field,
25. The system of claim 24, wherein each of the classification value fields for a particular table entry indicates the previously determined score for the acquisition setting indicated by the acquisition setting for the specific entry.
前記プロセッサがさらに、前記計算された平均に少なくとも部分的に基づいて前記分類値フィールドのエントリをそれぞれ更新するように構成され、
前記処理順番が、前記分類値フィールドの前記更新されたエントリに少なくとも部分的に基づいて決定される
ことを特徴とする請求項27に記載のシステム。
The processor is further configured to update each of the entries in the classification value field based at least in part on the calculated average;
28. The system of claim 27, wherein the processing order is determined based at least in part on the updated entry in the classification value field.
前記処理順番を決定する為に、前記プロセッサがさらに
5)所与のデコード試みに対し画像の最大数を設定し、
6)前記画像の最大数を含む前記第1の複数の画像の第1のサブ組を特定し、
7)前記第1のサブ組を処理して前記シンボルのデコードするのを試み、
8)前記第1のサブ組の処理が前記シンボルの成功デコードの結果となる場合、前記第1のサブ組の画像を取得するのに用いられる前記取得設定に対して得点数を割り当て、
9)前記第1のサブ組の処理が成功デコードの結果とならない場合、
i)前記第1のサブ組のうち特定の取得設定で取得された最高スコア画像を特定し、
ii)前記画像の最高数を含む前記第1の複数の画像の第2のサブ組の部分として、前記第1のサブ組の前記最高スコア画像及び前記特定の取得設定で取得された別の画像の少なくとも1つを指名し、
iii)画像の前記第2のサブ組を処理して前記シンボルをデコードし、
iv)前記第2のサブ組の前記処理が成功デコードの結果になる場合、前記第2のサブ組の前記画像を取得するのに使用された前記取得設定に得点数を割り当てる
ように構成されることを特徴とする請求項21に記載のシステム。
To determine the processing order, the processor further sets 5) the maximum number of images for a given decoding attempt;
6) identify a first subset of the first plurality of images including the maximum number of the images;
7) try to process the first subset to decode the symbols;
8) If the processing of the first sub-set results in a successful decoding of the symbol, assign a score to the acquisition setting used to acquire the first sub-set of images;
9) If the processing of the first subset does not result in successful decoding:
i) specifying the highest score image acquired with a specific acquisition setting in the first sub-set;
ii) as part of a second sub-set of the first plurality of images including the highest number of images, the highest score image of the first sub-set and another image acquired with the specific acquisition setting Nominate at least one of
iii) processing the second subset of images to decode the symbols;
iv) If the processing of the second sub-set results in a successful decoding, it is configured to assign a score to the acquisition settings used to acquire the images of the second sub-set The system according to claim 21, wherein:
JP2016156093A 2015-08-10 2016-08-09 System and method for classifying image acquisition settings for pattern stitching and decoding using multiple captured images Active JP6457983B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/821920 2015-08-10
US14/821,920 US9600703B2 (en) 2013-03-15 2015-08-10 Systems and methods for sorting image acquisition settings for pattern stitching and decoding using multiple captured images

Publications (2)

Publication Number Publication Date
JP2017038368A true JP2017038368A (en) 2017-02-16
JP6457983B2 JP6457983B2 (en) 2019-01-23

Family

ID=57907867

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016156093A Active JP6457983B2 (en) 2015-08-10 2016-08-09 System and method for classifying image acquisition settings for pattern stitching and decoding using multiple captured images

Country Status (2)

Country Link
JP (1) JP6457983B2 (en)
DE (1) DE102016114745B4 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7334561B2 (en) 2019-09-26 2023-08-29 マツダ株式会社 Butt welding method and apparatus
US11245845B2 (en) 2020-06-04 2022-02-08 Hand Held Products, Inc. Systems and methods for operating an imaging device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004078896A (en) * 2002-06-18 2004-03-11 Omron Corp Method and device for reading optical information code
JP2004110668A (en) * 2002-09-20 2004-04-08 Denso Wave Inc Optical information reader
JP2004206687A (en) * 2002-12-10 2004-07-22 Omron Corp Optical code reading method and device
JP2010538339A (en) * 2007-07-02 2010-12-09 マイクロスキャン システムズ インコーポレイテッド System, device, and method for managing data matrix writing
JP2011076517A (en) * 2009-10-01 2011-04-14 Keyence Corp Optical information reading device and method for setting imaging condition thereof
JP2014197842A (en) * 2013-03-15 2014-10-16 コグネックス・コーポレイション Systems and methods for pattern stitching and decoding using multiple captured images

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7016539B1 (en) 1998-07-13 2006-03-21 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US9734376B2 (en) 2007-11-13 2017-08-15 Cognex Corporation System and method for reading patterns using multiple image frames
US8542930B1 (en) 2010-12-30 2013-09-24 Cognex Corporation Mark reader configured to prioritize images

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004078896A (en) * 2002-06-18 2004-03-11 Omron Corp Method and device for reading optical information code
JP2004110668A (en) * 2002-09-20 2004-04-08 Denso Wave Inc Optical information reader
JP2004206687A (en) * 2002-12-10 2004-07-22 Omron Corp Optical code reading method and device
JP2010538339A (en) * 2007-07-02 2010-12-09 マイクロスキャン システムズ インコーポレイテッド System, device, and method for managing data matrix writing
JP2011076517A (en) * 2009-10-01 2011-04-14 Keyence Corp Optical information reading device and method for setting imaging condition thereof
JP2014197842A (en) * 2013-03-15 2014-10-16 コグネックス・コーポレイション Systems and methods for pattern stitching and decoding using multiple captured images

Also Published As

Publication number Publication date
DE102016114745B4 (en) 2022-12-22
DE102016114745A1 (en) 2017-02-16
JP6457983B2 (en) 2019-01-23

Similar Documents

Publication Publication Date Title
US9600703B2 (en) Systems and methods for sorting image acquisition settings for pattern stitching and decoding using multiple captured images
US10970508B2 (en) Method and apparatus for performing different decoding algorithms in different locations
US11875219B2 (en) System and method for auto-focusing a vision system camera on barcodes
US8542930B1 (en) Mark reader configured to prioritize images
US8035687B2 (en) Image processing apparatus and program
CN105308944A (en) Classifying objects in images using mobile devices
JP2002516440A (en) Image recognition and correlation system
JP2014041486A (en) Signal processing method and signal processing apparatus
CN102473236A (en) Method of setting amount of exposure for photodetector array in barcode scanner
JP6457971B2 (en) System and method for pattern stitching and decoding using multiple captured images
JP6457983B2 (en) System and method for classifying image acquisition settings for pattern stitching and decoding using multiple captured images
CN112985778B (en) Test chart positioning method, terminal and storage medium
US20230289545A1 (en) Optical information reading device
KR20020058161A (en) Coded pattern and method for the extraction of code from the same
US9104935B1 (en) Mark reader configured to prioritize images
JP4550768B2 (en) Image detection method and image detection apparatus
WO2014066928A1 (en) Detection and decoding method
CN115277993A (en) System and method for fast auto-tuning of industrial fixed vision cameras
US11854163B2 (en) Optical information reading device
CN117709380A (en) Bar code scanning method and device, storage medium and electronic equipment
Alson CS6476 FINAL PROJECT: ENHANCED AUGMENTED REALITY
CN113255663A (en) License plate region extraction method, system, terminal and readable storage medium based on vertical gradient
TW202331657A (en) Method and device for selecting two-dimensional bar code capable of determining specific two-dimensional bar code that the user expects to recognize in considering that the image to be processed contains more than two two-dimensional bar codes
JP2010211326A (en) Image processing device, control method for image processing device, image processing program, and computer-readable recording medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171226

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180319

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180625

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181221

R150 Certificate of patent or registration of utility model

Ref document number: 6457983

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250