JP6330388B2 - 画像処理方法、画像処理装置、並びに、当該方法を実行するプログラム、及び、当該プログラムを記録する記録媒体 - Google Patents

画像処理方法、画像処理装置、並びに、当該方法を実行するプログラム、及び、当該プログラムを記録する記録媒体 Download PDF

Info

Publication number
JP6330388B2
JP6330388B2 JP2014051643A JP2014051643A JP6330388B2 JP 6330388 B2 JP6330388 B2 JP 6330388B2 JP 2014051643 A JP2014051643 A JP 2014051643A JP 2014051643 A JP2014051643 A JP 2014051643A JP 6330388 B2 JP6330388 B2 JP 6330388B2
Authority
JP
Japan
Prior art keywords
symbol
image
area
color
mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014051643A
Other languages
English (en)
Other versions
JP2015176282A (ja
Inventor
正寛 藤川
正寛 藤川
池田 泰之
泰之 池田
祐己 赤塚
祐己 赤塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2014051643A priority Critical patent/JP6330388B2/ja
Priority to EP15158511.4A priority patent/EP2919161A3/en
Priority to US14/642,772 priority patent/US9607234B2/en
Publication of JP2015176282A publication Critical patent/JP2015176282A/ja
Application granted granted Critical
Publication of JP6330388B2 publication Critical patent/JP6330388B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/42Document-oriented image-based pattern recognition based on the type of document
    • G06V30/424Postal images, e.g. labels or addresses on parcels or postal envelopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/12Detection or correction of errors, e.g. by rescanning the pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/1444Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields
    • G06V30/1448Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields based on markings or identifiers characterising the document or the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/224Character recognition characterised by the type of writing of printed characters having additional code marks or containing code marks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30141Printed circuit board [PCB]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Character Input (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理方法、画像処理装置、並びに、当該方法を実行するプログラム、及び、当該プログラムを記録する記録媒体に関する。
文字や絵柄などの複数のパターンが含まれている印刷物を検査する方法の1つに、特許文献1に係る発明がある。当該方法では、画像の所定の領域が共通データ領域として設定され、画像の別の所定の領域が文字データ領域として設定される。基準画像から共通データ領域の基準共通データパターンと、文字データ領域の基準文字データパターンが記憶される。そして、検査対象となる画像から共通データ領域の部分画像と文字データ領域の部分画像とが抽出される。最後に、共通データ領域の部分画像と基準共通データパターンとが比較され、文字データ領域の部分画像と基準文字データパターンとが比較され、印刷物の良否が判定される。このように画像を複数の領域に分けてマッチングすることによって、検査の効率化が図られている。
特開2008−084174号公報
しかし、検査対象物には、複数の異なるオブジェクトが近接して印刷もしくは打刻されることがある。例えば、バーコードなどのシンボルには、使用者の便宜のために、数字や文字が近接して印刷されている。この場合、領域を指定しても、検査対象物のライン移送時の位置ずれによって、画像中に複数のオブジェクトが混入してしまい、特にシンボル以外のオブジェクトを高精度に抽出することができない。
そこで、この発明の目的は、上記の課題を解決することであり、シンボル以外のオブジェクトの抽出精度を向上させる画像処理方法、画像処理装置、並びに、当該方法を実行するプログラム、及び、当該プログラムを記録する記録媒体を提供することである。
本発明の第1の態様における画像処理方法は、以下の4つのステップを含む。第1のステップでは、画像を入力する。第2のステップでは、画像中のシンボルを読み取る。第3のステップでは、シンボルを包含するマスク領域を設定する。第4のステップでは、画像中の前記マスク領域以外の領域にあるオブジェクトの認識を行う。
本発明の第2の態様における画像処理装置は、画像入力手段と、シンボル読み取り手段と、マスク領域設定手段と、オブジェクト認識手段と、を備える。画像入力手段は、画像を入力する。シンボル読み取り手段は、画像中のシンボルを読み取る。マスク領域設定手段は、シンボルを包含するマスク領域を設定する。オブジェクト認識手段は、画像中の前記マスク領域以外の領域にあるオブジェクトの認識を行う。
本発明の第3の態様に係るプログラムは、画像入力装置と接続するコンピュータに所定の手順を実行させるプログラムである。所定の手順は、以下の4つのステップを含む。第1のステップでは、画像を入力する。第2のステップでは、画像中のシンボルを読み取る。第3のステップでは、シンボルを包含するマスク領域を設定する。第4のステップでは、画像中の前記マスク領域以外の領域にあるオブジェクトの認識を行う。
本発明の第4の態様に係る記録媒体は、画像入力装置と接続するコンピュータに所定の手順を実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体である。所定の手順は、以下の4つのステップを含む。第1のステップでは、画像を入力する。第2のステップでは、画像中のシンボルを読み取る。第3のステップでは、シンボルを包含するマスク領域を設定する。第4のステップでは、画像中の前記マスク領域以外の領域にあるオブジェクトの認識を行う。
第1から第4の態様に係る方法、装置、プログラム、及び、記録媒体では、画像中のシンボルを包含するマスク領域を設定する。したがって、シンボルが、オブジェクト認識において悪影響を与えない。よって、当該オブジェクトが高精度に抽出される。
第1の実施形態に係る画像処理装置の構成を示すブロック図である。 画像処理装置の外観及び使用状態を示す図である。 画像処理装置の内部ハードウエア構成を示す図である。 シンボル読み取り手段の詳細構成を示すブロック図である。 マスク領域設定手段の詳細構成の一例を示す図である。 マスク領域設定手段の処理の一例を示す図である。 マスク領域設定手段の処理の別の一例を示す図である。 図5のマスク処理設定手段の設定により変更となったオブジェクト認識を行う領域を説明する図である。 第1の実施形態に係る画像処理装置の全体的な処理の流れを示すフローチャートである。 第2の実施形態に係る画像処理装置の構成を示すブロック図である。 第2の実施形態に係る画像処理装置の全体的な処理の流れを示すフローチャートである。
<第1の実施形態>
以下において、本発明の一実施形態について、図面を参照しながら詳細に説明する。なお、以下で参照する図面では、同一またはそれに相当する部材には、同じ番号が付されている。
図1は、この発明にかかる画像処理装置1の構成を示す。図中、カメラ3は、シンボル7aとオブジェクト7b(以下、シンボル7aとオブジェクト7bとを組み合わせたものを複合オブジェクト7と呼ぶ)を撮影するためのもの、照明ランプ6は、処理対象の複合オブジェクト7を照明するためのものである。
画像処理装置1は、撮像制御手段104、照明制御手段105、トリガ入力手段106、A/D変換手段107、画像記憶手段108、シンボル読み取り手段109、マスク領域設定手段110、オブジェクト認識手段111、判定手段112、出力手段113などを具備する。また、上位システム11は、画像処理装置1の動作を制御し、例えば、パーソナルコンピュータやプログラマブルコントローラ(PLC)などである。また、モニタ4は、画像処理装置1の構成の1つであってもよい。
トリガ入力手段106は、上位システム11から撮像開始を指示するトリガ信号を受け付ける。このトリガ信号は、撮像制御手段104および照明制御手段105に与えられる。これにより、照明ランプ6による照明の下でカメラ3が作動し、複合オブジェクト7が撮像される。
カメラ3からの画像信号は、A/D変換手段107においてディジタル変換された後、画像記憶手段108に格納される。シンボル読み取り手段109は、画像記憶手段108に格納された画像データ(以下、「処理対象画像」という。)中のシンボルを読み取る。具体的には、シンボル読み取り手段109は、複合オブジェクト7中のシンボル7aの基準パターンを抽出した後、その抽出結果に基づき、シンボル7aの位置や傾きを判別する。またシンボル読み取り手段109は、基準パターンに隣接する周辺パターンを抽出し、その配列に基づき、シンボル7a内の各セルの位置、大きさを認識する。さらに2値化処理などにより、各セルが黒セル、白セルのいずれであるかの判別や、セルの大きさを判別する処理などを実行する。
シンボル読み取り手段109は、更に、上述の処理結果に基づき、各セルの2値情報を符号化する。さらに、シンボル読み取り手段109は、これらの符号をシンボルキャラクタ毎にまとめながら、そのシンボルキャラクタの示す値(コードワード)に誤りが生じていないかどうかを判別し、誤りがある場合にはこれを訂正する。これにより、2値情報がデコードされると、そのデコード結果はマスク領域設定手段110と出力手段113に出力される。シンボル読み取り手段109の詳細の構成、及び動作については後述する。
マスク領域設定手段110は、シンボル読み取り手段109の処理結果を用いて、シンボル7aを包含するマスク領域を設定する。マスク領域は、シンボル7aが形成される領域(以下、シンボル領域と呼ぶ)とクワイエットゾーンとを含む。クワイエットゾーンは、シンボル領域の周辺に設けられる。クワイエットゾーンには、セルが設けられない。クワイエットゾーンの位置及び大きさは、シンボル7aの規格(例えば、1次元、2次元バーコード、QRコード、Dot Code)などによって定められている。マスク領域設定手段110は、マスク領域を設定すると、設定されたマスク領域を、特定色及び/または特定輝度の画素で塗りつぶしてもよい。マスク領域設定手段110の詳細の構成、及び動作については後述する。
オブジェクト認識手段111は、処理対象画像中のマスク領域以外の領域にあるオブジェクトの認識を行う。本実施形態では、オブジェクト認識手段111は、具体的には、シンボル7aの周辺にある文字(オブジェクト7b)を認識する。オブジェクト認識手段111の詳細の構成、及び動作については後述する。
判定手段112は、シンボル読み取り手段109の処理結果と、オブジェクト認識手段111の処理結果を用いて、読み取られたシンボル7aが表す情報と、認識された文字情報とが一致するか否か判定する。シンボル7aが表す情報と、文字情報とが一致しない場合、当該複合オブジェクト7が印刷または打刻された製品は不良品であるとみなされる。
出力手段113は、シンボル読み取り手段109、オブジェクト認識手段111、判定手段112から処理結果を取り込んで上位システム11やモニタ4に出力する。
図2および図3は、画像処理装置1の具体的な構成例を示す。まず、図2は、画像処理装置1の外観とその使用状態を示すものである。画像処理装置1は、タバコ等の包装物の組立製造ラインにおける製造管理システムに組み込まれるもので、コンピュータが内蔵されたコントローラ2と、このコントローラ2にケーブル接続されるカメラ3(一般的には、CCDカメラである)とを基本構成とする。カメラ3は、画像を入力する画像入力手段に相当する。なお、コントローラ2の前面には、カメラ接続用のコネクタ8aが設けられるほか、モニタ4、コンソール5(いずれも図3に示す。)を接続するためのコネクタ8b,8cなどが設けられる。また、カメラ3の内部には、照明ランプ6が収容されている。
画像処理装置1は、包装物9の表面に印刷された複合オブジェクト7を読み取る目的で設置される。カメラ3は、部品の搬送用コンベア10(以下、単に「コンベア10」という。)の上方に設置される。コントローラ2は、コンベア10の近傍位置に設置されており、上位システム11に接続される。コントローラ2は、上位システム11からのコマンドを受けてカメラ3を作動して複合オブジェクト7を撮像させた後、その画像中の複合オブジェクト7が有する2値情報及び文字情報をデコードする。
コントローラ2で最終的に得られたデコード結果は、上位システム11に送信される。複合オブジェクト7には、製品の種類,製品番号,製品の搬送先など、製品のトレーサビリティを確保するための種々の情報(以下、製造情報と呼ぶ)が格納される。上位システム11は、これらの情報を用いて、前記コンベア10の経路を切り替えたり、図示しない製造機器にコマンドを送ったりするなどの制御を実行する。
図3は、コントローラ2を中心とした画像処理装置1のハードウェアブロック図を示す。コントローラ2は、CPU21、メインメモリ22、入出力制御部23、画像処理部24、モデルメモリ25、画像メモリ26などを主要構成として含む。カメラ3、モニタ4、コンソール5、およびカメラ3内の照明ランプ6は、それぞれインタフェース回路203,204,205,206を介して入出力制御部23に接続される。なお、カメラインタフェース回路203には、上述したA/D変換手段107が含まれる。
CPU21は、通信インタフェース回路201を介して、上位システム11とデータやコマンドのやりとりを実行する。図1のトリガ入力手段106は、通信インタフェース回路201およびCPU21におけるトリガ信号を受け付ける機能により構成される。
入出力制御部23および画像処理部24は、CPUバス27を介してCPU21に接続されるとともに、画像バス28を介して相互に画像データをやりとりできるように構成されている。カメラ3から出力された画像は、入出力制御部23から画像処理部24に提供されて、画像メモリ26に格納される。画像メモリ26は、図1の画像記憶手段108に対応する。画像処理部24は、画像メモリ26に格納された画像をCPU21からの指示に応じて読み出して、入出力制御部23に提供する。
入出力制御部23は、モニタ4に対し、画像処理部24から提供された画像およびカメラ3から入力したリアルタイムの画像を切り替えて表示させることができる。また、入出力制御部23は、CPU21からシンボル7aの読み取り結果、オブジェクト7bの認識結果、シンボル7aが表す情報と、文字情報とが一致するか否かの判定結果を表示するためのデータの提供を受け、以上の結果をモニタ4に表示させる。
メインメモリ22は、CPU21の動作に必要なプログラムを格納するほか、処理の過程で生じたデータを一時保存したり、シンボル7aの読み取り結果、オブジェクト7bの認識結果、上述の判定結果を順次蓄積したりするなどの目的で使用される。
モデルメモリ25は、シンボル7aの基準パターン、周辺パターン及びクワイエットゾーンの抽出に使用するモデル、並びに、文字を認識するための文字パターンを登録するためのもので、画像メモリ26とともに画像処理部24に接続される。画像処理部24は、画像処理専用のプロセッサやディジタル演算回路を具備するもので、図1のシンボル読み取り手段109、マスク領域設定手段110、オブジェクト認識手段111に対応する。
メインメモリ22には、図1の撮像制御手段104、照明制御手段105、判定手段112、出力手段113の各処理部に対応するプログラムが格納される。CPU21は、これらのプログラムに基づく処理を実行することにより、各処理手段として機能することができる。
画像処理装置1は、コンベア10上に搬送される包装物9の複合オブジェクト7を順に読み取って出力する必要があるため、コントローラ2は、カメラ3を作動させて複合オブジェクト7の画像を取り込む処理と、その画像のシンボル7aを読み取る処理と、オブジェクト7bを認識する処理とを、高速で繰り返し実行するように設定されている。包装物9はコンベア10によって位置決めされているため、カメラ3を予め設定した位置に移動させれば、複合オブジェクト7は撮影されるが、画像中の複合オブジェクト7の位置や向きは、撮影される包装物9によって少しずつ異なる。さらに、使用者の便宜のために、シンボル7aとオブジェクト7bの位置が近接している。このため、画像中のシンボル7aだけの領域や、オブジェクト7bだけの領域を事前に設定することは困難である。したがって、コントローラ2は、上記の問題に対処するために、画像中のシンボル7aだけの領域を画像処理によって抽出し、シンボル7aの領域をマスクすることによって、オブジェクト7bの認識精度を上げようとするものである。
ここで、シンボル読み取り手段109の詳細について説明する。図4はシンボル読み取り手段109の詳細構成を示すブロック図である。シンボル読み取り手段109は、画素抽出手段131と、シンボル領域抽出手段133と、セル読み取り手段134と、コードワード算出手段135と、誤り訂正手段136と、デコード手段137とを含む。
画素抽出手段131は、シンボル色を表す画素、及び/または、非シンボル色を表す画素を抽出する。シンボル色とは、バー、ドット、セルなど(以下、シンボル構成要素と呼ぶ)を表示する色である。非シンボル色とは、シンボル構成要素を識別可能とするために、シンボル色の周辺に着色される色である。画素抽出手段131は、基準となるシンボル構成要素を抽出した後、その周辺のシンボル構成要素を抽出する。そして、画素抽出手段131は、それらのシンボル構成要素を表示する画素、または、そのシンボル構成要素の周辺の画素を抽出する。
シンボル領域抽出手段133は、画素抽出手段131によって抽出された、基準となるシンボル構成要素、及び、その周辺のシンボル構成要素を包含する長方形状の領域(以下、シンボル領域)を抽出する。シンボル領域は、シンボル7aを形成する。なお、QRコードやデータマトリックスのように、ファインダパターンによってシンボル領域の縦と横が定義されるようなシンボルでは、シンボル領域抽出手段133は、ファインダパターンを利用してシンボル領域を抽出してもよい。
セル読み取り手段134は、画素抽出手段131によって、抽出されたシンボル構成要素の情報を、各シンボルの仕様で決められた順序に並べなおす。コードワード算出手段135は、セル読み取り手段134で読み取られたドットの情報に基づいて、コードワードを算出する。このようにして得られたコードワードには、誤り訂正コード語も含まれる。誤り訂正手段136は、得られたコードワードに対して、誤り訂正を実行する。最後にデコード手段137は、コードワード変換テーブル138を参照して、コードワードを文字列に変換する。コードワード変換テーブル138は、各コードワードとそれに対応する文字が格納されている。コードワード変換テーブル138は、モデルメモリ25に格納されている。
つぎに、マスク領域設定手段110の詳細について説明する。図5は、マスク領域設定手段110の詳細構成図である。マスク領域設定手段110は、クワイエットゾーン抽出手段142と、統計値算出手段143と、マスク領域変換手段144とを含む。
クワイエットゾーン抽出手段142は、上述するシンボル領域の境界をもとに、クワイエットゾーンを抽出する。図6(a)に示すように、クワイエットゾーンは、シンボル領域と接し、シンボル領域の周辺に設けられる。クワイエットゾーンの大きさは、各シンボルの仕様によって予め決められている。例えば、Dot Codeでは、シンボル領域の上下左右方向に隣接する3ドット幅の領域が、クワイエットゾーンとして定義されている。
統計値算出手段143は、画素抽出手段131によって抽出される画素、または、クワイエットゾーン抽出手段142によって抽出されるクワイエットゾーンの画素について、明るさ及び/または色を規定する画素成分の統計値を算出する。なお、画素抽出手段131によって抽出される画素は、シンボル色を表す画素、及び/または、非シンボル色を表す画素の2種類である。明るさ及び/または色を規定する画素成分とは、例えば、輝度値、RGBの各値、LUVなどの色空間の各パラメータを指す。統計値とは、平均値、中央値、最大値、最小値などのシンボル領域を代表する値であればどのようなものであってもよい。なお、マスク領域変換手段144によって処理される画像がグレースケールの画像や二値画像であれば、統計値算出手段143が輝度値の統計値を算出するとよい。しかし、マスク領域設定手段144によって処理される画像がカラー画像であれば、例えば、統計値算出手段143は、各色空間を定義するパラメータ(例えば、RGBなど)において、平均値、中央値、最大値、最小値などの統計値を算出するとよい。
マスク領域変換手段144は、上述するシンボル領域を包含し、クワイエットゾーンをはみ出さない程度にマスク領域を設定する。なぜなら、クワイエットゾーンの外側には、処理対象となるオブジェクト7bが写っている可能性が高いからである。マスク領域の形状は、長方形状でなくてもよい。そして、マスク領域変換手段144は、設定したマスク領域中の全ての画素について、上述する画素成分を統計値に変換するか、シンボル色を消去するための画像処理を行う。マスク領域変換手段144は、以下の4つの処理のいずれかを行う。
<第1の処理>
統計値算出手段143は、画素抽出手段131によって抽出される、シンボル色を表す画素及び/または非シンボル色を表す画素について、明るさ及び/または色を規定する画素成分の統計値を算出する。マスク領域変換手段144は、マスク領域中の全ての画素の画素成分を、画素抽出手段131によって抽出される画素の画素成分の統計値に、変換する。したがって、どのような統計値を採用するかによって、マスク領域中の全ての画素の画素成分が、シンボル色を表す画素の画素成分の統計値に変換されることもあれば、非シンボル色を表す画素の画素成分の統計値に変換されることもあれば、シンボル色と非シンボル色との中間色に変換されることもある。マスク領域変換手段144によって処理される画像がグレースケールの画像や二値画像であれば、第1マスク領域変換手段144は、マスク領域の全画素の輝度値を、画素抽出手段131によって抽出される画素の輝度値の統計値に変換する。また、マスク領域設定手段110aによって処理される画像がカラー画像であれば、マスク領域変換手段144は、マスク領域の全画素の各色空間を定義するパラメータを、画素抽出手段131によって抽出される画素の当該パラメータの統計値に変換する。図6(b)における、中間処理画像I2は、処理対象画像I0のマスク領域に対して上述する処理が施された画像である。このような中間処理画像I2が生成されることによって、後述するオブジェクト認識手段111が処理されたマスク領域をオブジェクト7bの一部として認識する可能性が低くなる。よって、オブジェクト7bの認識精度が向上する。
<第2の処理>
統計値算出手段143は、画素抽出手段131によって抽出される、非シンボル色を表す画素について、明るさ及び/または色を規定する画素成分の統計値を算出する。マスク領域変換手段144は、マスク領域中のシンボル色を表示する画素の画素成分を、非シンボル色を表す画素の画素成分の統計値に変換する。図7は、処理対象画像I0(図7(a))に対してマスク領域を処理した中間処理画像I3(図7(b))を示している。この中間処理画像I3は、マスク領域にある黒ドットが消去された例を示している。このような中間処理画像I3が生成されることによって、黒ドット領域が背景色とほぼ等しくなるので、後述するオブジェクト認識手段111が処理されたマスク領域をオブジェクト7bの一部として認識する可能性が低くなる。よって、オブジェクト7bの認識精度が向上する。
<第3の処理>
統計値算出手段143は、クワイエットゾーン抽出手段142によって求められるクワイエットゾーン内の画素について、明るさ及び/または色を規定する画素成分の統計値を算出する。マスク領域変換手段144は、シンボル領域中の全ての画素の画素成分を、統計値算出手段143が算出した統計値に変換する。この処理によっても、図7(b)に示すように、例えば、マスク領域にある黒ドットが消去された中間処理画像I3が得られる。
<第4の処理>
マスク領域変換手段144は、シンボル領域設定手段141で設定されたシンボル領域内の各画素について収縮フィルタを適用する。例えば、シンボル構成要素が黒色から成る場合、マスク領域変換手段144は、処理対象の画素の周辺画素において上述する画素成分の最大値を抽出し、それを処理対象の画素の画素成分とする。また、シンボル構成要素が白色から成る場合、マスク領域変換手段144は、処理対象の画素の周辺画素において上述する画素成分の最小値を抽出し、それを処理対象の画素の画素成分とする。このようにすることによって、シンボル色の画素が消去される。この処理によっても、図7(b)に示すように、例えば、マスク領域にある黒ドットが消去された中間処理画像I3が得られる。このような中間処理画像I3が生成されることによって、黒ドット領域が背景色とほぼ等しくなるので、後述するオブジェクト認識手段111が処理されたマスク領域をオブジェクト7bの一部として認識する可能性が低くなる。よって、オブジェクト7bの認識精度が向上する。
<マスク領域を変換しない処理>
上述する4つの処理は、マスク領域を変換する場合の処理であるが、マスク領域設定手段110は、マスク領域を変換せずに、単に領域を設定するだけでもよい。この場合、マスク領域設定手段110は、シンボル領域抽出手段133が設定したシンボル領域をマスク領域と設定する。その結果、図8(a)に示すように、シンボル7aが通常のオブジェクト認識領域に含まれる場合であっても、図8(b)のようにシンボル領域を抽出した結果、図8(c)に示すように、変更後のオブジェクト認識領域からシンボル7aが除かれる。つまり、オブジェクト認識手段111は、処理対象画像中のシンボル領域を除いた領域において、オブジェクト7bの認識を行う。これにより、後述するオブジェクト認識手段111での処理において、シンボル7aによるオブジェクト7bの認識への悪影響は避けられる。
つぎに、オブジェクト認識手段111の詳細について説明する。本実施形態におけるオブジェクト認識手段111の処理は、例えば、特開2013−182567号公報の方法が適用可能である。この方法では、オブジェクト認識手段111は、オブジェクト認識処理対象となる領域において、まず、二値化を行う。つぎに、オブジェクト認識手段111は、処理境界画素を通り、いくつかの角度をなすラインを設定し、角度毎に濃度累積値を算出する。オブジェクト認識手段111は、最も濃度累積値が高いラインに対して平行に文字列が並んでいると推定する。そして、オブジェクト認識手段111は、行ごとに周知の方法で文字を1つ1つ切り出した後、マッチング処理によって文字を認識する。
つぎに、本画像処理装置1による処理の流れについて説明する。図9は、第1の実施形態に係る画像処理装置1の全体的な処理の流れを示すフローチャートである。まず、ステップS1において、カメラ3により処理対象画像を入力する。つぎに、ステップS2によって処理対象画像中のシンボル7aを読み取る。この処理には、画素抽出手段131によるシンボル色、及び/または、非シンボル色を表す画素を抽出する処理と、シンボル領域抽出手段133によるシンボル7aを形成するシンボル領域を抽出する処理とが含まれる。
つぎに、ステップS3において、シンボルを包含するマスク領域を設定する。この方法には、以下の通りである。まず、統計値算出手段143が、画素抽出手段131によって抽出されたシンボル色、及び/または、非シンボル色を表す画素について、明るさ及び/または色を規定する画素成分の統計値を算出する。マスク領域変換手段144が、シンボル領域抽出手段133で設定されたシンボル領域を包含するマスク領域を設定する。そして、マスク領域変換手段144が、設定したマスク領域中の全ての画素について、当該画素成分を算出された統計値に変換する。
あるいは、統計値算出手段143は、画素抽出手段131によって抽出される、非シンボル色を表す画素について、明るさ及び/または色を規定する画素成分の統計値を算出する。マスク領域変換手段144は、マスク領域中のシンボル色を表示する画素の画素成分を、非シンボル色を表す画素の画素成分の統計値に変換する。
あるいは、統計値算出手段143が、クワイエットゾーン抽出手段142によって抽出されたクワイエットゾーン内の画素について、明るさ及び/または色を規定する画素成分の統計値を算出する。マスク領域変換手段144が、シンボル領域抽出手段133で抽出されたシンボル領域中の全ての画素について、当該画素成分を算出された統計値に変換する。
あるいは、マスク領域変換手段144は、収縮フィルタを用いてシンボル領域を処理することによって、シンボル色の画素を消去する。あるいは、マスク領域設定手段110eは、シンボル領域をマスク領域と設定する。
ステップS3が終了後は、オブジェクト認識手段111が処理対象画像中のマスク領域以外の領域にあるオブジェクト7bの認識を行う(ステップS4)。この方法の詳細は、上述したとおりである。なお、ステップS3においてマスク領域を変換しない方法が選択された場合、ステップS4においてオブジェクト7bの認識を行う領域は、処理対象画像中のシンボル領域を除いた領域である。
最後にステップS5において、判定手段112は、読み取られたシンボル7aが表す情報と、ステップS4において認識された文字情報が一致するか否か判定する。
<第2の実施形態>
第1の実施形態では、シンボル7aに近接して文字によるオブジェクト7bが印刷されている場合について説明した。しかし、本発明は、シンボル7aが打刻された基板等の欠陥検査、外観検査にも適用可能である。特に、本発明は、シンボル7aの近くに、欠陥検査、外観検査の検査対象がある場合に有効である。第2の実施形態では、本発明が欠陥検査、外観検査に適用される例を説明する。
図10は、第2の実施形態における画像処理装置1aの構成を示すブロック図である。図10は、図1と同じ構成のものについては同じ符号を付しており、説明を省略する。第2の実施形態は、複合オブジェクト7のうち、オブジェクト7cが文字ではなく、部品や配線形状に該当する。画像処理装置1aでは、オブジェクト認識手段111aと判定手段112aと出力手段113aとが、それぞれ、第1の実施形態に係るオブジェクト認識手段111と判定手段112と出力手段113と異なる。なお、判定手段112aは省略されてもよい。なお、第2の実施形態における画像処理装置1aのハードウエア構成は、図3と同一である。
オブジェクト認識手段111aは、例えば、特開2008−139262号公報の方法が適用可能である。この方法は、回路の配線の欠陥を検出する方法である。回路の配線は、回路基板の縦方向、横方向、斜め45度方向のいずれかに沿って延びるように形成されるのが一般的である。したがって、基板が回転することを考慮に入れても、エッジ方向が特定の角度に分布することが明らかである。したがって、欠陥検査の検査領域それぞれにおいて、エッジ構成画素の濃度勾配方向のヒストグラムを、各検査領域のモデルとして別途作成し、モデルメモリ25に予め記憶しておく。そして、オブジェクト認識手段111aは、マスク領域設定手段110によって処理された画像、または、処理対象画像から検査領域を抽出する。ここで、マスク領域設定手段110によって処理された画像とは、例えば、図6(b)、図7(b)のようにマスク領域の画素が非シンボル色などに塗りつぶされている画像に該当する。さらに、検査領域は、図8(c)のように、シンボル7aの領域が除外されたものであってもよい。そして、オブジェクト認識手段111aは、エッジ構成画素の濃度勾配方向のヒストグラムを出力する。そして、オブジェクト認識手段111aは、出力したヒストグラムに、モデルメモリ25に記憶されたヒストグラムのモデルより所定の基準値より大きくなっている濃度勾配方向が存在しているとき、オブジェクト7cに欠陥があると推定する。
なお、オブジェクト認識手段111aは、シンボル7aの領域を検査領域から除外せずに、且つ、シンボル7aの領域を塗りつぶさずに、オブジェクト認識を行ってもよい。ただし、このときの認識結果は、信頼性が低いものとして、取り扱われる。判定手段112aは、シンボル7aの領域を検査領域から除外せずにオブジェクト認識された結果と、マスク領域設定手段110で設定されたマスク領域とを参照して、オブジェクト認識手段111aの認識結果の信頼度を判定する。そして、判定手段112aは、その信頼度を優先度として出力手段113aに出力する。なお、オブジェクト認識手段111aは、シンボル7aの領域を検査領域から除外するか、または、シンボル7aの領域を塗りつぶして、オブジェクト認識を行った場合、判定手段112aの処理は省略されてもよい。
出力手段113aは、読み取られたシンボル7aが表す製品の製造情報と、欠陥の有無と、もし信頼度が推定されている場合、上述する優先度とを上位システム11のデータベースに記憶させる。これにより、出力手段113aは、シンボル7aを考慮に入れた、欠陥検査、外観検査の結果を作業者に提供することができる。
つぎに、本画像処理装置1aによる処理の流れについて説明する。図11は、第2の実施形態に係る画像処理装置1aの全体的な処理の流れを示すフローチャートである。ステップS1からS3までは、第1の実施形態に係る画像処理装置1による処理と同一であるため、説明を省略する。ステップS41では、認識対象となるオブジェクト7cが第1の実施形態のオブジェクト7bと異なるため、オブジェクトの認識方法が第1の実施形態と異なる。オブジェクト7cの認識方法は上述の通りである。ステップS6では、出力手段113aは、少なくとも、製品の製造情報と欠陥の有無とを上位システム11のデータベースに記憶させる。
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、発明の要旨を逸脱しない範囲で種々の変更が可能である。
上述の例では、DotCodeをシンボル7aとして説明した。しかし、QRバーコードやData Matrixなどの他のコードがシンボル7aであってもよい。
また、上述の実施形態のハードウエア構成では、カメラ3がコントローラ2により制御される例を示しているが、カメラ3にコントローラ2の機能が全て内蔵されてもよい。あるいは、コントローラ2の機能が、画像処理ボードとコンピュータによって実現されてもよい。
マスク領域設定手段110の第1の処理から第3の処理までのいずれか1つと、マスク領域設定手段110の第4の処理とが組み合わされてもよい。さらに、マスク領域設定手段110のマスク領域を変換しない処理を、上述の第1の処理から第4の処理のいずれか、またはそれらの組み合わせと組み合わせてもよい。
なお、上述した実施形態に係る全て又は一部のプログラムに係るプログラムデータは、記録媒体を介して記憶装置内に導入されてもよいし、記録媒体上から直接実行されてもよい。なお、記録媒体は、ROMやRAMやフラッシュメモリ等の半導体メモリ、フレキシブルディスクやハードディスク等の磁気ディスクメモリ、CD−ROMやDVDやBD等の光ディスクメモリ、及びメモリカード等をいう。また、記録媒体は、電話回線や搬送路等の通信媒体も含む概念である。
また、上述した各実施形態に係る全て又は一部のプログラムは、典型的には集積回路であるLSI(集積度の違いにより、IC、システムLSI、スーパーLSI、又はウルトラLSI等と称される)として実現されてもよい。これらは、個別に1チップ化されてもよいし、一部又は全部を含むように1チップ化されてもよい。また、集積回路化の手法は、LSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。また、LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
本発明によれば、シンボル以外のオブジェクトの抽出精度を向上させる画像処理方法、画像処理装置、並びに、当該方法を実行するプログラム、及び、当該プログラムを記録する記録媒体を提供することができる。
1、1a 画像処理装置
3 カメラ(画像入力手段)
109 シンボル読み取り手段
110 マスク領域設定手段
111、111a オブジェクト認識手段
112 判定手段
113、113a 出力手段
131 画素抽出手段
133 シンボル領域抽出手段
142 クワイエットゾーン抽出手段
143 統計値算出手段
144 マスク領域変換手段

Claims (22)

  1. 読み取り可能なシンボルと前記シンボルの周囲に配置された読み取り可能なオブジェクトとを含む画像を入力するステップと、
    前記画像中の前記シンボルを読み取るステップと、
    前記画像中の前記シンボルを形成するシンボル領域に接しており前記シンボル領域の周囲に設けられており前記オブジェクトを含まないクワイエットゾーンを抽出するステップと、
    前記シンボルを包含するとともに、前記クワイエットゾーンをはみ出さない程度にマスク領域を設定するステップと、
    前記画像中の前記マスク領域以外の領域にある前記オブジェクトの認識を行うステップと、
    を含む、画像処理方法。
  2. 前記シンボルは、シンボル色と非シンボル色とから成り、
    前記画像中のシンボルを読み取るステップは、前記シンボル色及び/または非シンボル色を表す画素を抽出するステップを含み、
    前記マスク領域を設定するステップは、
    前記抽出された画素について、明るさ及び/または色を規定する画素成分の統計値を算出するステップと、
    前記マスク領域中の全ての画素について、前記画素成分を前記統計値に変換するステップと、
    を含む、請求項1に記載の方法。
  3. 前記シンボルは、シンボル色と非シンボル色とから成り、
    前記画像中のシンボルを読み取るステップは、前記非シンボル色を表す画素を抽出するステップを含み、
    前記マスク領域を設定するステップは、
    前記抽出された画素について、明るさ及び/または色を規定する画素成分の統計値を算出するステップと、
    前記マスク領域中の前記シンボル色を表示する画素について、前記画素成分を前記統計値に変換するステップと、
    を含む、請求項1に記載の方法。
  4. 前記シンボルは、シンボル色と非シンボル色とから成り、
    前記画像中のシンボルを読み取るステップは、前記シンボルを形成するシンボル領域を抽出するステップを含み、
    前記マスク領域を設定するステップは
    記クワイエットゾーン中の画素について、明るさ及び/または色を規定する画素成分の統計値を算出するステップと、
    前記シンボル領域中の全ての画素について、前記画素成分を前記統計値に変換するステップと、
    を含む、請求項1に記載の方法。
  5. 前記シンボルは、シンボル色と非シンボル色とから成り、
    前記画像中のシンボルを読み取るステップは、前記シンボルを形成するシンボル領域を抽出するステップを含み、
    前記マスク領域を設定するステップは、収縮フィルタを用いて前記シンボル領域を処理することによって、前記シンボル色の画素を消去するステップを含む、
    請求項1に記載の方法。
  6. 前記画像中のシンボルを読み取るステップは、前記シンボルを形成するシンボル領域を抽出するステップを含み、
    前記マスク領域を設定するステップは、前記シンボル領域を前記マスク領域と設定するステップを含み、
    前記オブジェクトの認識を行うステップは、前記画像中の前記シンボル領域を除いた領域において、前記オブジェクトの認識を行う、
    請求項1に記載の方法。
  7. 前記オブジェクトは、文字である、請求項1から6までのいずれかに記載の方法。
  8. 前記読み取られたシンボルが表す情報と、前記認識された文字情報が一致するか否か判定するステップをさらに含む、請求項7に記載の方法。
  9. 前記オブジェクトは製品の欠陥である、
    請求項1から6までのいずれかに記載の方法。
  10. 前記読み取られたシンボルは、前記製品の製造情報を表す情報であり、
    前記製造情報に、前記欠陥の有無を対応づけてデータベースに記憶させるステップをさらに含む、請求項9に記載の方法。
  11. 読み取り可能なシンボルと前記シンボルの周囲に配置された読み取り可能なオブジェクトとを含む画像を入力する画像入力手段と、
    前記画像中の前記シンボルを読み取るシンボル読み取り手段と、
    前記画像中の前記シンボルを形成するシンボル領域に接しており前記シンボル領域の周囲に設けられており前記オブジェクトを含まないクワイエットゾーンを抽出するクワイエットゾーン抽出手段と、
    前記シンボルを包含するとともに、前記クワイエットゾーンをはみ出さない程度にマスク領域を設定するマスク領域設定手段と、
    前記画像中の前記マスク領域以外の領域にある前記オブジェクトの認識を行うオブジェクト認識手段と、
    を備える、画像処理装置。
  12. 前記シンボルは、シンボル色と非シンボル色から成り、
    前記シンボル読み取り手段は、前記シンボル色を表す画素、及び/または、前記非シンボル色を表す画素を抽出する画素抽出手段を含み、
    前記マスク領域設定手段は、
    前記抽出された画素について、明るさ及び/または色を規定する画素成分の統計値を算出する統計値算出手段と、
    前記マスク領域中の全ての画素について、前記画素成分を前記統計値に変換するマスク領域変換手段と、
    を含む、請求項11に記載の画像処理装置。
  13. 前記シンボルは、シンボル色と非シンボル色とから成り、
    前記画像中のシンボルを読み取るステップは、前記非シンボル色を表す画素を抽出する画素抽出手段を含み、
    前記マスク領域を設定するステップは、
    前記抽出された画素について、明るさ及び/または色を規定する画素成分の統計値を算出する統計値算出手段と、
    前記マスク領域中の前記シンボル色を表示する画素について、前記画素成分を前記統計値に変換するマスク領域変換手段と、
    を含む、請求項11に記載の画像処理装置。
  14. 前記シンボルは、シンボル色と非シンボル色とから成り、
    前記シンボル読み取り手段は、前記シンボルを形成するシンボル領域を抽出するシンボル領域抽出手段を含み、
    前記マスク領域設定手段は
    記クワイエットゾーン中の画素について、明るさ及び/または色を規定する画素成分の統計値を算出する統計値算出手段と、
    前記シンボル領域中の全ての画素について、前記画素成分を前記統計値に変換するマスク領域変換手段と、
    を含む、
    請求項11に記載の画像処理装置。
  15. 前記シンボルは、シンボル色と非シンボル色とから成り、
    前記シンボル読み取り手段は、前記シンボルを形成するシンボル領域を抽出するシンボル領域抽出手段を含み、
    前記マスク領域設定手段は、収縮フィルタを用いて前記シンボル領域を処理することによって、前記シンボル色の画素を消去するマスク領域変換手段を含む、請求項11に記載の画像処理装置。
  16. 前記シンボル読み取り手段は、前記シンボルを形成するシンボル領域を抽出するシンボル領域抽出手段を含み、
    前記マスク領域設定手段は、前記シンボル領域を前記マスク領域と設定し、
    前記オブジェクト認識手段は、前記画像中の前記シンボル領域を除いた領域において、前記オブジェクトの認識を行う、
    請求項11に記載の画像処理装置。
  17. 前記オブジェクトは、文字である、請求項11から16までのいずれかに記載の画像処理装置。
  18. 前記読み取られたシンボルが表す情報と、前記認識された文字情報が一致するか否か判定する判定手段をさらに備える、請求項17に記載の画像処理装置。
  19. 前記オブジェクトは製品の欠陥である、
    請求項11から16までのいずれかに記載の画像処理装置。
  20. 前記読み取られたシンボルは、前記製品の製造情報を表す情報であり、
    前記製造情報に、前記欠陥の有無を対応づけてデータベースに記憶させる出力手段をさらに含む、請求項19に記載の画像処理装置。
  21. 画像入力装置と接続するコンピュータに所定の手順を実行させるプログラムであって、
    前記所定の手順は、
    前記画像入力装置から読み取り可能なシンボルと前記シンボルの周囲に配置された読み取り可能なオブジェクトとを含む画像を入力するステップと、
    前記画像中の前記シンボルを読み取るステップと、
    前記画像中の前記シンボルを形成するシンボル領域に接しており前記シンボル領域の周囲に設けられており前記オブジェクトを含まないクワイエットゾーンを抽出するステップと、
    前記シンボルを包含するとともに、前記クワイエットゾーンをはみ出さない程度にマスク領域を設定するステップと、
    前記画像中の前記マスク領域以外の領域にある前記オブジェクトの認識を行うステップと、
    を含む、プログラム。
  22. 画像入力装置と接続するコンピュータに所定の手順を実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
    前記所定の手順は、
    前記画像入力装置から読み取り可能なシンボルと前記シンボルの周囲に配置された読み取り可能なオブジェクトとを含む画像を入力するステップと、
    前記画像中の前記シンボルを読み取るステップと、
    前記画像中の前記シンボルを形成するシンボル領域に接しており前記シンボル領域の周囲に設けられており前記オブジェクトを含まないクワイエットゾーンを抽出するステップと、
    前記シンボルを包含するとともに、前記クワイエットゾーンをはみ出さない程度にマスク領域を設定するステップと、
    前記画像中の前記マスク領域以外の領域にある前記オブジェクトの認識を行うステップと、
    を含む、記録媒体。
JP2014051643A 2014-03-14 2014-03-14 画像処理方法、画像処理装置、並びに、当該方法を実行するプログラム、及び、当該プログラムを記録する記録媒体 Active JP6330388B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014051643A JP6330388B2 (ja) 2014-03-14 2014-03-14 画像処理方法、画像処理装置、並びに、当該方法を実行するプログラム、及び、当該プログラムを記録する記録媒体
EP15158511.4A EP2919161A3 (en) 2014-03-14 2015-03-10 Method and apparatus for processing barcode images
US14/642,772 US9607234B2 (en) 2014-03-14 2015-03-10 Method and apparatus for processing images, and storage medium storing the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014051643A JP6330388B2 (ja) 2014-03-14 2014-03-14 画像処理方法、画像処理装置、並びに、当該方法を実行するプログラム、及び、当該プログラムを記録する記録媒体

Publications (2)

Publication Number Publication Date
JP2015176282A JP2015176282A (ja) 2015-10-05
JP6330388B2 true JP6330388B2 (ja) 2018-05-30

Family

ID=52682625

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014051643A Active JP6330388B2 (ja) 2014-03-14 2014-03-14 画像処理方法、画像処理装置、並びに、当該方法を実行するプログラム、及び、当該プログラムを記録する記録媒体

Country Status (3)

Country Link
US (1) US9607234B2 (ja)
EP (1) EP2919161A3 (ja)
JP (1) JP6330388B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6264008B2 (ja) * 2013-12-12 2018-01-24 オムロン株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP6629055B2 (ja) * 2015-11-30 2020-01-15 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
CN109690625A (zh) * 2016-05-03 2019-04-26 莱尼电缆有限公司 用于操作员增强查看的采用颜色分段的视觉系统
JP7283312B2 (ja) * 2019-03-22 2023-05-30 株式会社デンソーウェーブ 情報読取装置及びプログラム
JP2021125029A (ja) * 2020-02-06 2021-08-30 凸版印刷株式会社 記載物検知方法、記載物検知装置、及びプログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5276315A (en) * 1992-05-14 1994-01-04 United Parcel Service Of America, Inc. Method and apparatus for processing low resolution images of degraded bar code symbols
EP0584559A3 (en) * 1992-08-21 1994-06-22 United Parcel Service Inc Method and apparatus for finding areas of interest in images
US5352878A (en) * 1993-01-29 1994-10-04 United Parcel Service Of America, Inc. Method and apparatus for decoding bar code symbols using independent bar and space analysis
US5880451A (en) 1997-04-24 1999-03-09 United Parcel Service Of America, Inc. System and method for OCR assisted bar code decoding
US6674919B1 (en) * 1999-09-21 2004-01-06 Matsushita Electric Industrial Co., Ltd. Method for determining the skew angle of a two-dimensional barcode
US6556946B2 (en) * 2000-12-19 2003-04-29 Caterpillar Inc Linear position sensor
JP2002358521A (ja) * 2001-05-31 2002-12-13 Oki Electric Ind Co Ltd 帳票フォーマット登録・識別装置、方法及びプログラム
US6880313B1 (en) * 2001-12-28 2005-04-19 Gateway Manufacturing, Inc. Method for bundling multiple articles together while obscuring individual identification codes and related assembly
US6739510B2 (en) * 2002-03-08 2004-05-25 Lockheed Martin Corporation OCR/BCR sequencing priority
JP2004228811A (ja) * 2003-01-21 2004-08-12 Ricoh Co Ltd 画像処理装置、画像処理方法、およびコンピュータが実行するためのプログラム
US7055118B1 (en) * 2004-03-01 2006-05-30 Sun Microsystems, Inc. Scan chain verification using symbolic simulation
JP4032036B2 (ja) * 2004-03-23 2008-01-16 株式会社東芝 欠陥検査装置
US7414943B2 (en) * 2005-01-06 2008-08-19 Lsi Corporation Method and apparatus for extracting information from burst cutting area of recording medium
US7290717B2 (en) * 2005-06-22 2007-11-06 Symbol Technologies, Inc. System and method for machine readable symbol backup for radio frequency identification tags
JP2008084174A (ja) 2006-09-28 2008-04-10 Dainippon Printing Co Ltd 印刷物検査装置、印刷物検査方法及びプログラム
JP2008139262A (ja) * 2006-12-05 2008-06-19 Omron Corp 欠陥検査方法およびその方法を用いた検査装置
JP4818091B2 (ja) * 2006-12-13 2011-11-16 キヤノン株式会社 情報処理装置、画像処理装置、情報処理装置の制御方法及び画像処理装置の制御方法
US8152070B2 (en) * 2008-01-29 2012-04-10 Veritec, Inc. Two-dimensional symbol and method for reading same
US8456308B2 (en) * 2010-06-15 2013-06-04 International Business Machines Corporation Attachment detection method and system
JP5661549B2 (ja) * 2011-04-28 2015-01-28 富士通フロンテック株式会社 帳票上の文字を認識する文字認識装置、マスク処理方法、および、マスク処理プログラム
KR101860569B1 (ko) * 2011-09-08 2018-07-03 삼성전자주식회사 문자 및 바코드를 동시에 인식하는 문자 및 바코드 인식 장치 및 그 제어 방법
US8605129B1 (en) * 2012-01-13 2013-12-10 Intuit Inc. Method and system for providing tamper resistant checks
JP5884560B2 (ja) 2012-03-05 2016-03-15 オムロン株式会社 文字認識のための画像処理方法、およびこの方法を用いた文字認識装置およびプログラム

Also Published As

Publication number Publication date
US20150262022A1 (en) 2015-09-17
JP2015176282A (ja) 2015-10-05
US9607234B2 (en) 2017-03-28
EP2919161A3 (en) 2015-12-23
EP2919161A2 (en) 2015-09-16

Similar Documents

Publication Publication Date Title
JP6330388B2 (ja) 画像処理方法、画像処理装置、並びに、当該方法を実行するプログラム、及び、当該プログラムを記録する記録媒体
US8781221B2 (en) Hand gesture recognition system
CN110502985B (zh) 表格识别方法、装置及表格识别设备
EP1703465A2 (en) Color-based inspection of printed circuit boards
WO2014129018A1 (ja) 文字認識装置、文字認識方法及び記録媒体
CN113506243A (zh) Pcb焊接缺陷检测方法、装置及存储介质
CN113807378A (zh) 训练数据增量方法、电子装置与计算机可读记录介质
US10255513B2 (en) Systems and methods for recognition of unreadable characters on printed circuit boards
US20090121024A1 (en) Image processing apparatus, image processing method, and computer program stored in storage medium
JP2010027964A (ja) 検査領域の領域設定データの作成方法および基板外観検査装置
Piliposyan et al. Computer vision for hardware trojan detection on a PCB using siamese neural network
KR20180037347A (ko) 기판 검사장치 및 이를 이용한 기판의 왜곡 보상 방법
JP2007033126A (ja) 基板検査装置並びにそのパラメータ調整方法およびパラメータ調整装置
JP5427828B2 (ja) 2次元コード読取装置及びその方法
JP5264956B2 (ja) 2次元コード読取装置及びその方法
JP4634250B2 (ja) 矩形部品の画像認識方法及び装置
JP2008282280A (ja) 2次元コード読取装置及びその方法
KR101056995B1 (ko) 3차원 형상 검사방법
JP5901680B2 (ja) 携帯端末装置および表示装置
JP4100273B2 (ja) 2次元コードの読取方法および2次元コード読取装置
JP5337844B2 (ja) 領域検出装置、領域検出方法及びプログラム
JP2008113145A (ja) 画像処理装置及び画像処理プログラム
JP2020170466A (ja) シンボル評価装置、および評価方法
TWI842292B (zh) 自動化產線產品外觀瑕疵檢驗方法及系統
TW201928772A (zh) 二值化輪廓檢測系統及其方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161213

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180206

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180409

R150 Certificate of patent or registration of utility model

Ref document number: 6330388

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250