JP7186304B2 - 欠陥検査装置 - Google Patents

欠陥検査装置 Download PDF

Info

Publication number
JP7186304B2
JP7186304B2 JP2021543228A JP2021543228A JP7186304B2 JP 7186304 B2 JP7186304 B2 JP 7186304B2 JP 2021543228 A JP2021543228 A JP 2021543228A JP 2021543228 A JP2021543228 A JP 2021543228A JP 7186304 B2 JP7186304 B2 JP 7186304B2
Authority
JP
Japan
Prior art keywords
image
defect inspection
sub
unit
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021543228A
Other languages
English (en)
Other versions
JP2022520018A (ja
Inventor
キヨン ソン
フンミン チョ
Original Assignee
スアラブ カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by スアラブ カンパニー リミテッド filed Critical スアラブ カンパニー リミテッド
Publication of JP2022520018A publication Critical patent/JP2022520018A/ja
Application granted granted Critical
Publication of JP7186304B2 publication Critical patent/JP7186304B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q3/00Devices holding, supporting, or positioning work or tools, of a kind normally removable from the machine
    • B23Q3/155Arrangements for automatic insertion or removal of tools, e.g. combined with manual handling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q3/00Devices holding, supporting, or positioning work or tools, of a kind normally removable from the machine
    • B23Q3/155Arrangements for automatic insertion or removal of tools, e.g. combined with manual handling
    • B23Q3/1552Arrangements for automatic insertion or removal of tools, e.g. combined with manual handling parts of devices for automatically inserting or removing tools
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q3/00Devices holding, supporting, or positioning work or tools, of a kind normally removable from the machine
    • B23Q3/155Arrangements for automatic insertion or removal of tools, e.g. combined with manual handling
    • B23Q3/157Arrangements for automatic insertion or removal of tools, e.g. combined with manual handling of rotary tools
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q3/00Devices holding, supporting, or positioning work or tools, of a kind normally removable from the machine
    • B23Q3/155Arrangements for automatic insertion or removal of tools, e.g. combined with manual handling
    • B23Q3/157Arrangements for automatic insertion or removal of tools, e.g. combined with manual handling of rotary tools
    • B23Q3/15713Arrangements for automatic insertion or removal of tools, e.g. combined with manual handling of rotary tools a transfer device taking a single tool from a storage device and inserting it in a spindle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q5/00Driving or feeding mechanisms; Control arrangements therefor
    • B23Q5/22Feeding members carrying tools or work
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/89Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/89Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles
    • G01N21/8901Optical details; Scanning details
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/9515Objects of complex shape, e.g. examined with use of a surface follower device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/0078Testing material properties on manufactured objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q3/00Devices holding, supporting, or positioning work or tools, of a kind normally removable from the machine
    • B23Q3/155Arrangements for automatic insertion or removal of tools, e.g. combined with manual handling
    • B23Q3/1552Arrangements for automatic insertion or removal of tools, e.g. combined with manual handling parts of devices for automatically inserting or removing tools
    • B23Q3/1554Transfer mechanisms, e.g. tool gripping arms; Drive mechanisms therefore
    • B23Q2003/155404Transfer mechanisms, e.g. tool gripping arms; Drive mechanisms therefore the transfer mechanism comprising a single gripper
    • B23Q2003/155407Transfer mechanisms, e.g. tool gripping arms; Drive mechanisms therefore the transfer mechanism comprising a single gripper linearly movable
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • G01N2021/8867Grading and classifying of flaws using sequentially two or more inspection runs, e.g. coarse and fine, or detecting then analysing
    • G01N2021/887Grading and classifying of flaws using sequentially two or more inspection runs, e.g. coarse and fine, or detecting then analysing the measurements made in two or more directions, angles, positions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8883Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges involving the calculation of gauges, generating models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/9515Objects of complex shape, e.g. examined with use of a surface follower device
    • G01N2021/9518Objects of complex shape, e.g. examined with use of a surface follower device using a surface follower, e.g. robot
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/06Illumination; Optics
    • G01N2201/061Sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Textile Engineering (AREA)
  • Food Science & Technology (AREA)
  • Medicinal Chemistry (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Analysis (AREA)

Description

本発明は工場自動化装備に係り、より具体的には対象の欠陥を検査するための装置に関する。
工場における一対象の生産過程において、機械、工程、又はその他の事由によりオブジェクトに欠陥がある場合がある。一般的に工場では対象の生産が完了し製品として出庫する前に、当該製品に欠陥があるか否かを確認するプロセスを設けている。
しかし、完成した対象に欠陥があるか否かを人が確認する場合、時間と費用がたくさんかかり、肉眼では見付けにくい欠陥があった場合は、正常に生産されていない対象を出庫してしまう恐れがあるという問題点があり得る。従って、対象に欠陥があるか否かを効率よく判別できる装置に対するニーズが当業界に存在する。
大韓民国登録特許第10-1707206号においてグリッパフィーダを開示している。
本開示は、前述の背景技術に鑑みて案出しており、欠陥検査装置を提供することを目的とする。
前述のような課題を実現するための本開示の一実施例に基づき、欠陥検査装置は対象を保持するための保持部及び上記対象を移動させるための駆動部を含むロボットアーム;上記対象の外観を撮影する第1カメラ部;上記対象の外観に光を照射する照明部;及び上記第1カメラ部が撮影した上記対象の画像に基づき、上記対象の欠陥有無を判断する制御部を含む。
代替実施例において、欠陥検査装置は、上記第1カメラ部が撮影した上記対象の画像及び上記対象の欠陥有無が示された画像のうち少なくとも1つの画像を表示するディスプレイ部をさらに含むことができる。
代替実施例において、欠陥検査装置は、上記対象を欠陥検査のために移送するための移送部;及び上記対象に対する上記制御部の上記欠陥検査の結果に基づき上記対象を分類し、移送するための分類移送部をさらに含むことができる。
代替実施例において、欠陥検査装置の上記駆動部は、上記対象を回転させるための少なくとも1つの駆動軸を含むことができる。
代替実施例において、欠陥検査装置の上記駆動部は、上記第1カメラ部が最初の配置状態とは違う配置状態での上記対象を撮影して、最初の視点とは違う視点で撮影した画像を取得できるように上記対象の配置状態を調整することができる。
代替実施例において、欠陥検査装置は、上記保持部によって保持される前の上記対象を撮影するための第2カメラ部をさらに含むことができ、上記制御部は、上記第2カメラ部から取得した上記対象の画像に基づき、上記保持部が上記対象の配置状態に合わせて上記対象を保持するために並べ替えられるようにすることができる。
代替実施例において、欠陥検査装置の上記照明部は、光を照射する2つ以上のサブ照明部を含み、上記照明部は、内部に空間を形成し、上記第1カメラ部は、上記空間の一側に位置し、上記空間の他側に上記ロボットアームによって配置された対象を上記空間を通じて撮影するようにし、さらに上記制御部は、上記第1カメラ部が上記対象を撮影できるように、上記ロボットアームが上記対象を上記空間の上記他側に配置するようにすることができる。
代替実施例において、欠陥検査装置の上記サブ照明部は、円錐台又角錐台の形状を持つことができ、さらに錐台形状の内部の面には光を照射する発光部が位置することができる。
代替実施例において、欠陥検査装置の上記2つ以上のサブ照明部は、円錐台又角錐台の形状を持つことができ、各サブ照明部の錐台形状の下面の幅と上面の幅の比率はそれぞれ異なる場合がある。
代替実施例において、欠陥検査装置の上記照明部は2つ以上のそれぞれ異なる種類の光を上記対象の外観に照射することができる。
代替実施例において、欠陥検査装置の上記制御部は、それぞれ異なる照明条件のもとで撮影された2つ以上の画像に基づき、上記対象の欠陥有無を判断することができる。
代替実施例において、欠陥検査装置の上記制御部は、第1配置状態の上記対象をそれぞれ異なる照明条件のもとで撮影した2つ以上の画像及び第2配置状態の上記対象をそれぞれ異なる照明条件のもとで撮影した2つ以上の画像に基づき上記対象の欠陥有無を判断することができる。
代替実施例において、欠陥検査装置の上記制御部は、上記2つ以上の画像を、1つ以上のネットワーク関数を含む欠陥検査モデルに含まれた2つ以上のチャンネルの各々に入力して、上記欠陥検査モデルを利用して上記入力された2つ以上の画像の各々の特徴を抽出し、上記抽出された特徴に基づき上記2つ以上の画像の各々にアノマリーがあるか否かを判断できる。
代替実施例において、欠陥検査装置の上記制御部は、上記2つ以上の画像のうち少なくとも1つの画像にアノマリーがあると判断された場合、上記対象に欠陥があると決定することができる。
代替実施例において、欠陥検査装置の上記制御部は、アノマリー有無の判断の基礎となる正常な画像である、第1照明条件のもとで撮影された第1正常画像及び第2照明条件のもとで撮影された第2正常画像を欠陥検査モデルに含まれた第1サブモデルに含まれたチャンネルの各々に入力して演算し、アノマリー有無の判断の対象となる画像である、上記第1照明条件のもとで撮影された第1判断対象画像及び上記第2照明条件のもとで撮影された第2判断対象画像を上記欠陥検査モデルに含まれた第2サブモデルに含まれたチャンネルの各々に入力して演算し、上記第1サブモデル及び第2サブモデルの演算結果に基づき、上記対象の欠陥有無を判断できる。
代替実施例において、欠陥検査装置の上記欠陥検査モデルは、上記第1サブモデル及び第2サブモデルのうち少なくとも1つと直列に繋がる比較モジュールをさらに含むことができる。
代替実施例において、欠陥検査装置の上記第1正常画像が入力される第1サブモデル第1チャンネルは、上記第1判断対象画像が入力される第2サブモデル第1チャンネルと同一の重みを持つリンクを少なくとも1つ以上共有し、且つ、上記第2正常画像が入力される第1サブモデル第2チャンネルは、上記第2判断対象画像が入力される第2サブモデル第2チャンネルと同一の重みを持つリンクを少なくとも1つ以上共有することができる。
代替実施例において、欠陥検査装置の上記制御部は、第1サブモデル第1チャンネルの少なくとも1つのレイヤー及び第2サブモデル第1チャンネルの少なくとも1つのレイヤーに基づき、少なくとも1つの第1レイヤー比較情報を生成し、上記第1レイヤー比較情報を比較モジュール第1チャンネルにおける対応するレイヤーに伝達し、第1判断対象画像のアノマリー情報を演算し、そして、第1サブモデル第2チャンネルの少なくとも1つのレイヤー及び第2サブモデル第2チャンネルの少なくとも1つのレイヤーに基づき、少なくとも1つの第2レイヤー比較情報を生成し、上記第2レイヤー比較情報を比較モジュール第2チャンネルにおける対応するレイヤーに伝達し、第2判断対象画像のアノマリー情報を演算することができる。
本開示は、欠陥検査装置を提供することができる。
図1は、本開示の一実施例における欠陥検査装置を概略的に示した図面である。 図2は、本開示の一実施例における欠陥検査装置に適用されるロボットアームを図示した図面である。 図3は、本開示の一実施例における欠陥検査装置に適用されるロボットアームの一部である保持部を図示した図面である。 図4は、本開示の一実施例における欠陥検査装置に適用される照明部の断面を図示した図面である。 図5は、本開示の一実施例における欠陥検査装置に適用される照明部の正面を図示した図面である。 図6は、本開示の一実施例における欠陥検査装置に適用される移送部を図示した図面である。 図7は、本開示の一実施例における欠陥検査装置に適用される分類移送部を図示した図面である。 図8は、本開示の一実施例におけるシャムネットワーク(Siamese Network)を図示した図面である。 図9は、本開示の一実施例において、欠陥検査装置を実現するための欠陥検査方法を簡略化して図示した概念図である。 図10は、本開示の一実施例において、欠陥検検査方法を実現するための欠陥検査モデルの構成を示す例示図である。 図11は、本開示の一実施例において、欠陥検査方法を実現するための欠陥検査モデルの構成を示す例示図である。 図12は、本開示の一実施例において、欠陥検査方法を実現するための欠陥検査方法の学習データの例示である。 図13は、本開示の第1の一実施例において、欠陥検査方法を実現するための欠陥検査モデルの学習方式を示す概念図である。 図14は、本開示の第2の一実施例において、欠陥検査装置方法を実現するための欠陥検査モデルの学習方式を示す例示図である。 図15は、本開示の第3の一実施例において、欠陥検査方法を実現するための欠陥検査モデルの学習方式を示す概念図である。 図16は、本開示の一実施例において、欠陥検査方法を実現するための欠陥検査モデルの構成を示す図面である。 図17は、本開示の一実施例において、欠陥検査方法を実現するためのUネットワーク(ユーネットワーク)の例示図である。 図18は、本開示の他の一実施例において、欠陥検査方法を実現するためのシャムネットワーク(Siamese Network)の例示図である。
多様な実施例が以下に図面を参照しながら説明されるが、図面を通して類似の図面番号は類似の構成要素を表すために使われる。本明細書において多様な説明が本開示に対する理解を容易にするために示される。しかし、これらの実施例はこれらの具体的な説明がなくても確実に実施されることができる。
本明細書において、「コンポーネント」、「モジュール」、「システム」等の用語は、コンピューター関連エンティティ、ハードウェア、ファームウェア、ソフトウェア、ソフトウェアとハードウェアとの組み合わせ、又はソフトウェアの実行を指す。例えば、コンポーネントは、プロセッサー上で実行される処理手順(procedure)、プロセッサー、オブジェクト、実行スレッド、プログラム、及び/又はコンピューターになり得るが、これらに限定されるものではない。例えば、コンピューティング装置で実行されるアプリケーションとコンピューティング装置は、両方ともコンポーネントになり得る。1つ以上のコンポーネントは、プロセッサー及び/又は実行スレッドの中に常駐することができ、一コンポーネントは1つのコンピューターの中でローカル化されることができ、又は2つ以上のコンピューターに配分されることもできる。また、このようなコンポーネントは、その内部に保存されている多様なデータ構造を持つ多様なコンピューター可読媒体から実行することができる。コンポーネントは、例えば1つ以上のデータパケットを持つ信号(例えば、ローカルシステム、分散システムにおいて他のコンポーネントと相互作用する1つのコンポーネントからのデータ及び/又は信号を通じて、他のシステムと、インターネットのようなネットワークを介して伝送されるデータ)によってローカル及び/又は遠隔処理等を通じて通信することができる。
なお、用語「又は」は、排他的な「又は」ではなく、内包的な「又は」を意味する意図で使われる。つまり、特に特定されておらず、文脈上明確ではない場合、「XはA又はBを利用する」は、自然な内包的置換のうち1つを意味するものとする。つまり、XがAを利用したり;XがBを利用したり;又はXがA及びBの両方を利用する場合、「XはA又はBを利用する」は、これらのいずれにも当てはまるとすることができる。また、本明細書における「及び/又は」という用語は、取り挙げられた関連アイテムのうち、1つ以上のアイテムの可能なすべての組み合わせを指し、含むものと理解されるべきである。
また、述語としての「含む(含める)」及び/又は修飾語としての「含む(含める)」という用語は、当該特徴及び/又は構成要素が存在することを意味するものと理解されるべきである。ただし、述語としての「含む(含める)」及び/又は修飾語として「含む(含める)」という用語は、1つ以上の他のさらなる特徴、構成要素及び/又はこれらのグループの存在又は追加を排除しないものと理解されるべきである。また、特に数が特定されていない場合や、単数の形を示すことが文脈上明確でない場合、本明細書と請求範囲において単数は、一般的に「1つ又はそれ以上」を意味するものと解釈されるべきである。
ここに示す実施例に係る説明は、本開示の技術分野において通常の知識を持つ者が本発明を利用したり又は実施できるように提供される。このような実施例に対する多様な変形は、本開示の技術分野において通常の知識を持つ者にとっては明確であり、ここに定義された一般的な原理は、本開示の範囲を逸脱することなく他の実施例に適用されることができる。従って、本開示はここに示す実施例によって限定されるものではなく、ここに示す原理及び新規な特徴と一貫する最広義の範囲で解釈されるべきである。
図1は、本開示の一実施例における欠陥検査装置を概略的に示した図面である。
図1によると、欠陥検査装置(1)は、ロボットアーム(100)、照明部(200)、第1カメラ部(300)、移送部(410)、分類移送部(420、430)、ディスプレイ部(500)、光出力部(610、620)、第2カメラ部(700)及び制御部(800)を含むことができる。欠陥検査装置(1)は、上述の構成要素を支持するためのハウジング、カバー、支持ブロック、ブラケット等のような付属要素を含むことができる。ただし、上述の構成要素は、欠陥検査装置(1)を実装するに当たり、必須のものではなく、欠陥検査装置(1)に含まれる構成要素は、上述の構成構成より多かったり、少なかったりすることができる。
欠陥検査装置(1)は、対象(10)に欠陥があるか否かを検査するための装置になり得る。欠陥検査装置(1)は、後述する構成要素によって実現され、対象(10)の欠陥を検査できる。対象(10)は、欠陥があるか否かの判断対象になり得る。対象(10)は、欠陥検査装置(1)の構成要素ではなく、欠陥検査装置(1)の構成又は動作を説明するための付随的な構成である。例えば、欠陥検査装置(1)は、製品の一部分である部品に欠陥があるか否かを判断することもでき、完成品に欠陥があるか否かを判断することもできる。前述の欠陥検査装置の役割に係る具体的な記載は、例示に過ぎず本開示はこれに限定されない。
ロボットアーム(100)は、対象(10)を保持し、移動させることができる。ロボットアーム(100)について、図2を用いて説明する。
ロボットアーム(100)は、対象(10)を保持するための保持部(110)及び上記対象(10)を移動させるための駆動部(120)を含むことができる。
ロボットアーム(100)は、欠陥検査のために移送部(410)によって欠陥検査装置(1)の外部から内部へ移送された対象(10)を保持し、移動させることができる。ロボットアーム(100)は、移送部(410)の上の第1位置(12)に位置した対象(10)を保持することができる。ロボットアーム(100)は、第1位置(12)に位置した対象(10)を第2位置(14)に位置するように移動させることができる。ロボットアーム(100)は、欠陥検査のために第1カメラ部(300)によって対象(10)が撮影されることができるように対象(10)を第2位置(14)に位置するように移動させることができる。第1位置(12)は、移送部(410)の一側に係る位置になり得る。第1位置(12)は、ロボットアーム(100)によって対象(10)が保持されるために、移送部(410)によって欠陥検査装置(1)の外部から内部へ移送された対象(10)が停止して配置される位置になり得る。第2位置(14)は、第1カメラ部(300)の撮影によって取得された画像に対象(10)の少なくとも一部が含まれるようにする位置になり得る。ロボットアーム(100)は、欠陥検査が完了した対象を欠陥検査装置(1)の内部から外部へ移送するために、第2位置(14)から分類移送部(420、430)へ移動させることができる。ロボットアーム(100)は、対象(10)の欠陥有無に基づき、第1分類移送部(420)又は第2分類移送部(430)へ対象(10)を移動させることができる。
ロボットアーム(100)の駆動部(120)は対象(10)を移動させることができる。本開示の一実施例において、ロボットアーム(100)の駆動部(120)は、対象(10)を第1位置(12)から第2位置(14)へ移動させることができる。本開示の一実施例において、ロボットアーム(100)の駆動部(120)は、第2位置(14)における対象(10)の配置を変えることができる。駆動部(120)は、第1カメラ部(300)が最初の配置状態とは違う配置状態での対象(10)を撮影し、最初の視点とは違う視点で撮影された画像を取得できるように対象(10)の配置状態を調整することができる。例えば、駆動部(120)は、第1カメラ部(300)によって対象(10)の上部が撮影された画像を取得することができるように第1配置状態に対象(10)を移動させることができ、さらに対象(10)の側面部が撮影された画像を取得できるように第1配置状態から第2配置状態へ対象(10)を移動させることができる。例えば、第1カメラ部(300)の広角で撮影できる範囲より対象(10)が大きい場合、駆動部(120)は、分割撮影のために対象(10)を移動させることができる。例えば、駆動部(120)は、分割撮影のために、対象の一面の第1部分を撮影してから、同一面において第1部分を除いた残りの第2部分を撮影するように対象(10)を移動させることができる。例えば、対象(10)が六面体の場合、駆動部(120)は、6つの面それぞれを第1カメラ部(300)で撮影するために、第2位置(14)において対象(10)の配置状態を5回変更することができる。前述の駆動部(120)の動作に係る具体的な記載は、例示に過ぎず本開示はこれらに限定されない。
ロボットアーム(100)の駆動部(120)は、多軸多関節構造からなるものになり得る。ロボットアーム(100)の駆動部(120)は、対象(10)の移動のために、対象(10)を回転させるための少なくとも1つの駆動軸(121、122、123、124、125、126)を含むことができる。例えば、ロボットアーム(100)は、回転軸が6つある6関節で動作する構造になり得る。ロボットアーム(100)の駆動部(120)は、第1駆動軸(121)、第2駆動軸(122)、第3駆動軸(123)、第4駆動軸(124)、第5駆動軸(125)及び第6駆動軸(126)を含むことができる。駆動部(120)に含まれた1つ以上の駆動軸は互いに離隔されていることが可能である。第6駆動軸(126)は、ロボットアーム(100)の保持部(110)と繋がっていることが可能である。前述のロボットアーム(100)に係る具体的な記載は例示に過ぎず、本開示はこれにより制限されず、ロボットアーム(100)は対象(10)を移動させることのできる多様な構造を持つことが可能である。
ロボットアーム(100)の保持部(110)について図3を用いて説明する。ロボットアーム(100)の駆動部(110)は対象(10)を保持することができる。ロボットアーム(100)の保持部(110)は、対象(10)の欠陥有無の検出のために、移送部(410)上の第1位置(12)に位置する対象(10)を保持することができる。ロボットアーム(100)の保持部(110)は、対象(10)の欠陥有無の検出が完了してから、分類移送部(420、430)上に対象(10)が位置するように、対象(10)がロボットアーム(100)から離れるようにすることができる。ロボットアーム(100)の保持部(110)は、対象(10)を保持し、欠陥有無を検出する過程において対象(10)が落下することを防止できる。前述のロボットアーム(100)の対象に対する動作に係る記載は、例示に過ぎず本開示はこれらに限定されない。
ロボットアーム(100)の保持部(110)は、1つ以上のサブ保持部(111、112、113、114)で構成されることが可能である。1つ以上のサブ保持部(111、112、113、114)は、互いに離隔されるように配置されることが可能である。保持部(110)は、保持しようとする対象(10)の形状によって異なる数のサブ保持部を含むことができる。1つ以上のサブ保持部(111、112、113、114)は、保持しようとする対象(10)の形状によって配置が変わってくる場合がある。例えば、ロボットアーム(100)の保持部(110)は、第1サブ保持部(111)、第2サブ保持部(112)、第3サブ保持部(113)及び第4サブ保持部(114)で構成されることが可能である。例えば、ロボットアーム(10)の一面が四角形の形状を持つ場合、上記第1サブ保持部(111)、第2サブ保持部(112)、第3サブ保持部(113)及び第4サブ保持部(114)は、四角形の形状に配置されることも可能である。例えば、対象(10)の一面が平ではなく段差のある面の場合、2つ以上のサブ保持部の長さがそれぞれ異なるように構成されることが可能である。前述の駆動部(110)に含まれるサブ保持部の配置と数に係る具体的な記載は例示に過ぎず本開示はこれらに限定されない。
本開示の一実施例において、ロボットアーム(100)のサブ保持部(111、112、113、114)は、圧力を利用して対象(10)を保持することができる。例えば、サブ保持部(111、112、113、114)は、油圧や空気圧を利用して対象(10)を保持できる。サブ保持部(111、112、113、114)は、サブ保持部(111、112、113、114)の下段に位置する流入口を通じて外部の空気を吸入して圧縮されることができる。サブ保持部(111、112、113、114)の流入口を通じて吸入された外部空気は、排出口を通じて排出されることができる。サブ保持部(111、112、113、114)を外部の空気が通りながら発生した圧力差によって対象(10)がサブ保持部(111、112、113、114)の下段に圧着されることができる。前述のサブ保持部(111、112、113、114)に係る具体的な記載は、例示に過ぎず本開示はこれに制限されず、保持部(110)は対象(10)を保持するための多様な構造を持つことができる。
本開示の一実施例において、ロボットアーム(100)のサブ保持部(111、112、113、114)は、電磁気力を利用して対象(10)を保持することができる。サブ保持部(111、112、113、114)は、電源の供給を受けて電磁気力を発生させ、上記電磁気力で対象(10)の一面をサブ保持部(111、112、113、114)に密着又は吸着させることができる。サブ保持部(111、112、113、114)はさらに、サブ保持部(111、112、113、114)の下段の噴射口を通じて対象(10)の一面に空気を噴射し、対象(10)との間に空間を空けることができる。サブ保持部(111、112、113、114)は、電磁気力及び空気噴射を利用して、対象(10)がサブ保持部(111、112、113、114)から一定の間隔を空けて離れた状態で移動するようにすることができる。前述のサブ保持部(111、112、113、114)に係る具体的な記載は、例示に過ぎず本開示はこれに限定されず、保持部(110)は対象(10)を保持するための多様な構造を持つことができる。
本開示の一実施例において、ロボットアーム(100)のサブ保持部(111、112、113、114)は、吸着パッドや真空パッド(suction pad)で構成され、対象(10)を保持することができる。サブ保持部(111、112、113、114)は、対象(10)に弾性密着されるように構成されることが可能である。前述のサブ保持部(111、112、113、114)に係る具体的な記載は、例示に過ぎず本開示はこれに制限されず、保持部(110)は対象(10)を保持するための多様な構造を持つことができる。
本開示の一実施例において、ロボットアーム(100)のサブ保持部(111、112、113、114)は、クリッパーで構成され、対象(10)を保持することができる。例えば、クリッパーはニドルピンで構成されることができる。サブ保持部(111、112、113、114)は、クリッパーを利用して対象(10)の両端を固定して持ち上げることができる。前述のサブ保持部(111、112、113、114)に係る具体的な記載は、例示に過ぎず本開示はこれに制限されず、保持部(110)は対象(10)を保持するための多様な構造を持つことができる。
照明部(200)について、図4および図5を用いて説明する。図4は、本開示の一実施例における欠陥検査装置に適用される照明部の断面を図示した図面である。図5は、本開示の一実施例における欠陥検査装置に適用される照明部の正面を図示した図面である。
照明部(200)は、対象(10)の外観に光を照射するための欠陥検査装置(1)の構成になり得る。照明部(200)は、欠陥を検査するために対象(10)が第2位置(14)に位置しているとき、対象(10)の外観に光を照射することができる。照明部(200)を構成する2つ以上のサブ照明部(210、220、230)の各々の内部の面に位置する発光部(210c、220c、230c)の各々は、第2位置(14)の対象(10)に光を照射するように配置されることができる。照明部(200)は、対象(10)の外観に2つ以上の異なる種類の光を照射することができる。照明部(200)は、2つ以上の異なる光の強さ、光の色相、光の方向及び光のパターンのうち少なくとも1つを持つ光を対象(10)の外観に照射することができる。例えば、照明部(200)に含まれた第1照明部(210)が対象(10)の一面を基準に第1角度の光を照射し、第2照明部(200)が対象(10)の一面を基準に第2角度の光を照射することができる。
照明部(200)は2つ以上のサブ照明部(210、220、230)で構成されることができる。照明部(200)は、内部に空間を形成することができる。照明部(200)は内部に空間が形成された2つ以上のサブ照明部(210、220、230)で構成されることができる。サブ照明部(210、220、230)は、錐台形状に構成されることが可能である。サブ照明部(210、220、230)は、円錐台形状又は角錐状を持つことが可能である。サブ照明部(210、220、230)の厚みであることが可能であり、錐台をとり囲む形に構成されることができる。サブ照明部(210、220、230)の錐台の中心部には空間が形成されることが可能である。照明部(200)の内部空間の一側に第1カメラ部(300)が位置しており、他側にロボットアーム(100)によって対象(10)が位置することが可能であり、内部空間を通じて第1カメラ部(300)が対象(10)の外観を撮影できる。サブ照明部(210、220、230)は、錐台形状の内部の面の少なくとも一部に光を照射する発光部(210c、220c、230c)を含むことができる。例えば、発光部(210c、220c、230c)は、LED照明、近赤外光照明、近紫外光照明等になり得る、本開示はこれに限られない。
照明部(200)は、2段以上のサブ照明部で構成されることが可能である。照明部(200)は、第1サブ照明部(210)、第2サブ照明部(220)及び第3サブ照明部(230)が内部空間を中心に直列に繋がることが可能である。照明部(200)を構成する2つ以上のサブ照明部(210、220、230)は、互いに離隔されるように配置されることができる。サブ照明部(210、220、230)の配置状態に係る具体的な記載は例示に過ぎず、本開示はこれにより制限されず、対象(10)に光を照射するための他の方法により配置されることが可能である。
照明部(200)は2つ以上の異なる形状のサブ照明部(210、220、230)で構成されることができる。2つ以上のサブ照明部(210、220、230)の各々の錐台形状の下面の幅と上面の幅の比率は相異なる場合があり得る。上述の下面及び上面は、サブ照明部(210、220、230)の形状を説明するための用語に過ぎず、実際に面が形成されているわけではなく、錐台の下面及び上面に当たる部分は、サブ照明部(210、220、230)において空いており照明部(200)の内部空間を形成する部分である。第1サブ照明部の上面の幅(210a)と第1サブ照明部下面の幅(210b)との比率は、第2サブ照明部上面の幅(220a)と第2サブ照明部下面の幅(220b)との比率とは相異なる場合がある。第1サブ照明部の上面の幅(210a)と第1サブ照明部下面の幅(210b)との比率は、第3サブ照明部の上面の幅(230a)と第3サブ照明部の下面の幅(230b)との比率とは相異なる場合がある。つまり、照明部(200)の側面から断面図で確認したとき、第1サブ照明部の角度、第2サブ照明部の角度及び第3サブ照明部の角度は相異なる場合がある。サブ照明部(210、220、230)の形状に係る具体的な記載は例示に過ぎず、本開示はこれにより制限されず、対象(10)に光を照射するための他の方法により形成されることが可能である。
照明部(200)を構成する2つ以上のサブ照明部(210、220、230)は、予め決められた順番に沿って発光することができる。本開示の一実施例において、照明部(200)を構成する2つ以上のサブ照明部(210、220、230)の各々は、それぞれ異なる時点に発光することが可能である。例えば、第1サブ照明部(210)がつき対象(10)の撮影が完了してから、第1サブ照明部(210)が消え、第2サブ照明部(220)がつくことが可能である。本開示の一実施例において、照明部(200)を構成する2つ以上のサブ照明部(210、220、230)は、同時につくこともあれば相異なる時点につくすることも可能である。例えば、第1サブ照明部(210)及び第2サブ照明部(220)は、第1時点につくことが可能であり、第3サブ照明部は第2時点につくことも可能である。前述の照明部(200)の発光する順番やつく時点に係る具体的な記載は例示に過ぎず本開示はこれらに限定されない。
対象(10)の外観に2つ以上の異なる種類の光を照射することにより対象(10)の欠陥を検査する場合、人が光のもとで対象(10)を手に取って肉眼で検査することと同じ効果が得られる。2つ以上の異なる種類の光を利用して欠陥検査を行うことにより、特定の方向、種類、強さ等の光でのみ確認できた対象(10)の欠陥もすべて検出可能になる。相異なる種類の光を照射することにより、光の方向によって見え方が変わる欠陥部位まで検出することができ、欠陥検査装置(1)の精度が高まることが期待できる。
第1カメラ部(300)は、対象(10)の外観を撮影するための欠陥検査装置(1)の一構成になり得る。第1カメラ部(300)について、図4および図5を用いて説明する。第1カメラ部(300)は、照明部(200)と連結されることが可能である。第1カメラ部(300)は、照明部(200)の一側に配置され照明部(200)の他側に配置された対象(10)の外観を撮影することができる。第1カメラ部(300)は、対象(10)が照明部(200)の他側である第2位置(14)に配置された場合、対象(10)を撮影することができる。
本開示の一実施例において、第1カメラ部(300)は、ロボットアーム(100)によって対象(10)が配置されたとき、それぞれ異なる照明条件のもとで2つ以上の画像を撮影することができる。例えば、第1カメラ部(300)は、対象(10)の配置状態は変えずに、第1サブ照明部(210)の光を対象(10)の外観に照射したときに対象(10)を撮影して第1判断対象画像を取得し、第2サブ照明部(220)の光を対象(10)の外観に照射したときに対象(10)を撮影して第2判断対象画像を取得し、さらに第3サブ照明部(230)の光を対象(10)の外観に照射したときに対象(10)を撮影して第3画像を取得することができる。前述の第1カメラ部(300)の撮影方法に係る具体的な記載は、例示に過ぎず本開示はこれらに限定されない。
本開示の一実施例において、第1カメラ部(300)は、対象(10)がロボットアーム(100)によって再配置され停止状態になる度、対象(10)の外観を撮影することができる。第1カメラ部(300)が、対象(10)の他の面を他の角度から撮影できるように、ロボットアーム(100)は、第2位置(14)において対象(10)の配置状態を変更することができる。例えば、第1カメラ部(300)は、対象(10)が第1配置状態になっているとき対象(10)の左側面を撮影してから、ロボットアーム(100)により対象(10)が第1配置状態から第2配置状態へ変わった場合、対象(10)の右側面を撮影することができる。前述の第1カメラ部(300)の撮影方法に係る具体的な記載は、例示に過ぎず本開示はこれらに限定されない。
第1カメラ部(300)は、多様な形態の画像を撮影することが可能である。第1カメラ部(300)の撮影結果物は、3D画像、白黒画像、時間の経過に沿って保存されるGIF画像、動画、赤外線画像、電子画像等を含むことが可能である。また第1カメラ部(300)は、フィルムカメラ、デジタルカメラ、顕微鏡、拡大鏡、赤外線カメラ、紫外線(UV)カメラ、X-Ray、磁気共鳴映像装置及び任意の画像取得装置を含むことが可能である。第1カメラ部(300)は、撮影される対象(10)の撮影物によって構成が変わることもあり得る。
本開示の一実施例において、第1カメラ部(300)は、第1配置状態の対象(10)を2つ以上の照明条件のもとで撮影し2つ以上の画像を取得し、第2配置状態の対象(10)を2つ以上の照明条件のもとで撮影し他の2つ以上の画像を取得できる。
第1カメラ部(300)が対象(10)を撮影して取得した画像に基づき、欠陥検査装置(1)は、対象(10)に欠陥があるか否かを判断することができる。
移送部(410)は、欠陥検査のために対象(10)を移送することができる。移送部(410)について図6を用いて説明する。
移送部(410)は、対象(10)を欠陥検査装置(1)の外部から欠陥検査装置(1)の内部へ移送することができる。例えば、移送部(410)は、ベルトコンベアで構成されることもできるが、これは例示に過ぎず本開示はこれらに限定されない。
移送部(410)は、欠陥検査装置(1)の外側に設置された移送部第1センサー(414)及び欠陥検査装置(1)の内側に設置された移送部第2センサー(416)を含むことができる。移送部第1センサー(414)は、対象(10)が移送部(410)の一側に置かれたことを感知することができる。移送部第1センサー(414)によって対象(10)が感知された場合、移送部(410)が作動し、対象(10)を欠陥検査装置(1)の内部へ移送することができる。移送部第2センサー(416)は、対象(10)が移送部(410)の一側から他側へ移送されたことを感知することができる。移送部第2センサー(416)によって対象(10)が感知された場合、移送部(410)が作動を中止し、対象(10)が第1位置(12)に位置するようにすることができる。移送部第2センサー(416)によって対象(10)が感知された場合、ロボットアーム(100)が対象(10)を第1位置(12)にて保持して移動させることができる。前述の移送部(410)に含まれた1つ以上のセンサーに係る具体的な説明は例示に過ぎず本開示はこれらに限定されない。
移送部(410)は、欠陥検査装置(1)の外側に設置された移送部第3センサー(412a、412b)を含むことができる。移送部第3センサーの左側(412a)と移送部第3センサーの右側(412b)との間にオブジェクトが感知された場合、移送部(410)の作動を停止させることができる。例えば、移送部第3センサー(412a、412b)は、赤外線センサーになり得る。例えば、移送部第3センサー(412a、412b)によって人の体の一部分(例えば、手)が感知された場合、移送部(410)の作動を停止させることができる。上述の移送部第3センサー(412a、412b)の構成要素は、いずれも必須的なものではなく、他の構成要素が追加されたり、上述の構成要素が除かれることがあり得る。前述の移送部第3センサー(412a、412b)に係る具体的な記載は、例示に過ぎず本開示はこれらに限定されない。
分類移送部(420、430)は、対象(10)に対する欠陥検査結果に基づき、対象(10)を分類して移送することができる。分類移送部(420、430)について図7を用いて説明する。
分類移送部(420、430)は、第1分類移送部(420)及び第2分類移送部(430)を含むことができる。第1分類移送部(420)は、対象(16)に欠陥がなかった場合、対象(16)を欠陥検査装置(1)の内部から外部へ移送することができる。第2分類移送部(430)は、対象(18)に欠陥があった場合、対象(18)を欠陥検査装置(1)の内部から外部へ移送することができる。分類移送部(420、430)は、ベルトコンベアで構成されることもできるが、これは例示に過ぎず本開示はこれらに限定されない。ロボットアーム(100)は、対象(10)に対する欠陥検査結果に基づき、対象(16)に欠陥がなかった場合、第1分類移送部(420)の上に置かれるように対象(16)を移動させて降ろして置き、対象(18)に欠陥があった場合第2分類移送部(430)の上に置かれるように対象(18)を移動させて降ろして置くことができる。
分類移送部(420、430)は、欠陥検査装置(1)の内側に設置された分類移送部第1センサー(424、434)及び欠陥検査装置(1)の外側に設置された分類移送部第2センサー(426、436)を含むことができる。分類移送部第1センサー(424、434)は、欠陥検査が完了した対象(10)が分類移送部(420、430)の一側に置かれたことを感知することができる。分類移送部第1センサー(424、434)によって対象(10)が感知された場合、分類移送部(420、430)が作動し、対象(10)を欠陥検査装置(1)の外へ移送することができる。分類移送部第2センサー(426、436)は、対象(10)が分類移送部(420、430)の一側から他側へ移送されたことを感知することができる。分類移送部第2センサー(426、436)により対象(10)が感知された場合、対象(10)が欠陥検査装置(1)の外へ移動したことを認識し、分類移送部(420、430)が作動を中止することができる。前述の分類移送部(420、430)に含まれた1つ以上のセンサーに係る具体的な説明は例示に過ぎず本開示はこれらに限定されない。
分類移送部(420、430)は、欠陥検査装置(1)の外側に設置された分類移送部第3センサー(422a、422b、432a、432b)を含むことができる。分類移送部第3センサーの左側(422a、432a)と分類移送部第3センサーの右側(422b、432b)との間にオブジェクトが感知された場合、移送部(420、430)の作動を停止させることができる。例えば、分類移送部第3センサー(422a、422b、432a、432b)は、赤外線センサーになり得る。例えば、分類移送部第3センサー(422a、422b、432a、432b)によって人の体の一部分(例えば、手)が感知された場合、分類移送部(420、430)の作動を停止させることができる。上述の分類移送部第3センサー(422a、422b、432a、432b)の構成要素は、いずれも必須的なものではなく、他の構成要素が追加されたり、上述の構成要素が除かれることがあり得る。前述の分類移送部第3センサー(422a、422b、432a、432b)に係る具体的な記載は、例示に過ぎず本開示はこれらに限定されない。
ディスプレイ部(500)は、第1カメラ部(300)が撮影した対象(10)の画像及び対象(10)の欠陥有無が表示された画像のうち少なくとも1つの画像を表示することができる。ディスプレイ部(500)は、欠陥検査装置(1)の外側面に付いていることが可能である。対象(10)の欠陥有無が表示された画像は、欠陥有無を示す画像にもなり得るが、対象(10)のどの位置に欠陥があるのかを示す画像にもなり得る。例えば、ディスプレイ部(500)は、第2配置状態の対象(10)を撮影した画像にアノマリーデータが存在し対象(10)に欠陥があると決定した場合、第2配置状態及び欠陥が存在する対象(10)の位置を表示することができる。前述のディスプレイ部(500)のディスプレイ関する動作に係る具体的な記載は、例示に過ぎず本開示はこれらに限定されない。ディスプレイ部(500)は、LCD、LED、CRT等の任意の視覚的出力装置で構成されることができる。前述のディスプレイの例示と構成要素は例示に過ぎず、本開示はこれらに限定されない。
第1光出力部(610)は、対象(10)に欠陥があるか否かを表示することができる。第1サブ光出力部(612)は、対象(10)に欠陥があった場合に発光することができ、第2サブ光出力部(614)は、対象(10)に欠陥がなかった場合に発光することが可能である。例えば、対象(10)に欠陥がなかった場合、緑色の発光部が発光することができ、欠陥があった場合赤色の発光部が発光することが可能である。第2光出力部(620)は、移送部(410)及び分類移送部(420、430)のうち少なくとも1つに、予め決められた数以上の対象(10)が積載された場合、通知を表示することができる。前述の光出力部に係る具体的な記載は、例示に過ぎず本開示はこれらに限定されない。
第2カメラ部(700)は、対象(10)が保持部(110)によって保持される前に対象(10)を撮影することができる。第2カメラ部(700)は、欠陥検査装置(1)を上から垂直に見下ろしたとき、欠陥検査装置(1)の第1位置(12)の垂直で上に付いていることが可能である。第2カメラ部(700)は、移送部(410)が停止して対象(10)を第1位置(12)に置かれるようにしたとき、対象(10)を撮影することができる。ロボットアーム(100)の保持部(110)は、第2カメラ部(700)から取得した対象(10)の画像に基づき、保持部(110)が対象(10)の配置状態に合わせて対象(10)を保持するために並べ替えられることが可能である。対象(10)が移送部(410)上の第1位置において移送部(410)に対し平行に置かれた場合、保持部(110)も対象(10)を保持するために並行に並べられることが可能である。例えば、第1サブ保持部(111)が対象(10)の一側面の4つの角のうち第1角側に圧着され、第2サブ保持部(112)が対象(10)の一側面の4つの角のうち第2角側に圧着され、第3サブ保持部(113)が対象(10)の一側面の4つの角のうち第3角側に圧着され、第4サブ保持部(114)が対象(10)の一側面の4つの角のうち第4角側に圧着されるように並べられることが可能である。前述の第2カメラ部(700)の位置及び保持部(110)の並べられ方に係る具体的な記載は例示に過ぎず、本開示はこれにより制限されず、第2カメラ部(700)が対象(10)を撮影し、保持部(110)が対象(10)の配置状態に合わせて並べ替えられ、対象(10)を保持できるようにするあらゆる方法によって実現できる。
制御部(800)は、欠陥検査装置(1)の動作を制御することが可能である。制制御(800)は、ロボットアーム(100)、照明部(200)、第1カメラ部(300)、移送部(410)、分類移送部(420、430)、ディスプレイ部(500)、光出力部(610、620)及び第2カメラ部(700)のうち少なくとも1つを動作させることができる。
以下に本開示の一実施例における欠陥検査装置を実現するための欠陥検査方法について説明する。
本開示の一実施例においてサーバーには、サーバーのサーバー環境を実装するための他の構成が含まれることもあり得る。サーバーはあらゆる形態の装置をすべて含むことができる。サーバーは、デジタル機器として、ラップトップコンピューター、ノートパソコン、デスクトップコンピューター、ウェブパッド、携帯電話のようにプロセッサーが搭載されメモリーが備えられた、演算機能を持つデジタル機器になり得る。サーバーは、サービスを処理するウェブサーバーになり得る。前述のサーバーの種類は例示に過ぎず本開示はこれらに限定されない。
本明細書の全体を通して、モデル、神経回路網、ネットワーク関数、ニューラルネットワーク(neural network)は、同一の意味で使われることができる。神経回路網は、一般的に「ノード」と呼ばれることのできる相互連結された計算単位の集合で構成されることができる。このような「ノード」は、「ニューロン(neuron)」と称されることもできる。神経回路網は少なくとも1つ以上のノードを含めて構成される。神経回路網を構成するノード(又はニューロン)は1つ以上の「リンク」によって相互連結されることができる。
神経回路網において、リンクを介して繋がっている1つ以上のノードは、相対的に入力ノード及び出力ノードの関係を形成することができる。入力ノード及び出力ノードの概念は相対的なものであり、あるノードに対して出力ノードとなる任意のノードは、他のノードとの関係においては入力ノードになり得るが、その逆も成立する。前述のように、入力ノードと出力ノードとの関係はリンクを中心にして成立することができる。1つの入力ノードに1つ以上の出力ノードがリンクを介して繋がることができ、その逆も成立する。
1つのリンクを介して繋がっている入力ノード及び出力ノードの関係において、出力ノードは入力ノードに入力されたデータに基づきその値が決められることができる。ここで入力ノードと出力ノードとを相互連結するノードは重み(weight)を持つことができる。重みは可変的なものになり得るが、神経回路網が所望の機能を行うために、利用者又はアルゴリズムによって変わることができる。例えば、1つの出力ノードに1つ以上の入力ノードが各リンクによって相互連結された場合、出力ノードは上記出力ノードに繋がっている入力ノードに入力された値及び各入力ノードに対応するリンクに設定された重みに基づき出力ノードの値を決定することができる。
前述のように、神経回路網は、1つ以上のノードが1つ以上のリンクを通じて相互連結され神経回路網の中で入力ノードと出力ノードの関係を形成する。神経回路網の中で、ノードとリンクの数及びノードとリンクとの間の相関関係、各リンクに付与された重みの値によって、神経回路網の特性が決まることができる。例えば、同数のノード及びリンクが存在し、各リンクの重みの値が異なる2つの神経回路網が存在する場合、2つの神経回路網は、相異なるものと認識されることができる。
神経回路網は、1つ以上のノードを含めて構成されることができる。神経回路網を構成する数のノードのうち一部は、第1入力ノードからの距離に基づき、1つのレイヤー(layer)を構成することができる。例えば、第1入力ノードからの距離がnであるノードの集合は、nレイヤーを構成することができる。第1入力ノードからの距離は、第1入力ノードから当該ノードに到達するために経由しなければならないリンクの最小限の数によって定義されることができる。しかし、このようなレイヤーの定義は、説明のために任意に取り上げたものであり、神経回路網の中におけるレイヤーの構成は、前述の説明と異なる方法で定義されることができる。例えば、ノードのレイヤーは、最終出力ノードからの距離によって定義されることもできる。
第1入力ノードは、神経回路網の中のノードのうち、他のノードとの関係においてリンクを経由せずにデータが直接入力される1つ以上のノードを意味することができる。又は、神経回路網のネットワークの中で、リンクを基準にしたノード間の関係において、リンクによって繋がる他の入力ノードを持たないノードを意味することができる。これと同様に、最終出力ノードは、神経回路網の中のノードのうち、他のノードとの関係において、出力ノードを持たない1つ以上のノードを意味することができる。また、隠れノードは、第1入力ノード及び最終出力ノードではないノードで、神経回路網を構成するノードを意味することができる。本開示の一実施例における神経回路網は、入力レイヤーのノードの数が、出力レイヤーに近い隠れレイヤーのノードの数より多い場合があり、入力レイヤーから隠れレイヤーへと進むにつれ、ノードの数が減少する形の神経回路網になり得る。
ディープニューラルネットワーク(DNN:deep neural network、深層神経回路網)は、入力レイヤーと出力レイヤー以外に複数の隠れレイヤーを含む神経回路網を意味することができる。ディープニューラルネットワークを利用するとデータの潜在的な構造(latent structures)を把握することができる。つまり、写真、文章、ビデオ、音声、音楽の潜在的な構造(例えば、ある物体が写真に写っているかどうか、文章の内容と感情はどのようなものなのか、音声の内容と感情はどのようなものなのか等)を把握することができる。ディープニューラルネットワークは、畳み込みニューラルネットワーク(CNN:convolutional neural network)、リカレントニューラルネットワーク(RNN;recurrent neural network)、制限ボルツマンマシン(RBM:restricted boltzmann machine)、深層信頼ネットワーク(DBN:deep belief network)、Qネットワーク、Uネットワーク、シャムネットワーク等を含むことが可能である。
畳み込みニューラルネットワーク(CNN:convolutional neural network)は、ディープニューラルネットワークの一種であり、畳み込みレイヤーを含む神経回路網を含む。畳み込みニューラルネットワークは、最低限の前処理(preprocess)を使うように設計された多層パーセプトロン(multilayer perceptorns)の一種である。CNNは1つ又は複数の畳み込みレイヤーと、これと結合した人工神経回路網の階層により構成されることができ、さらに重みとプーリングレイヤー(pooling layer)を活用することができる。このような構造を持つためCNNは、2次元構造の入力データを十分に活用できる。畳み込みニューラルネットワークは、画像からオブジェクトを認識するために使われることができる。畳み込みニューラルネットワークは、画像データを次元を持つ行列で表し処理することができる。例えばRGB(red-green-blue)でエンコードされた画像データの場合、R、G、Bの色相別にそれぞれ2次元(例えば、2次元画像である場合)行列で表すことができる。つまり、画像データの各ピクセルの色相値が行列の成分になり得るとともに、行列の大きさは画像の大きさと同じ大きさになり得る。従って画像データは、3つの2次元行列で(3次元のデータアレー)表すことができる。
畳み込みニューラルネットワークにおいて、畳み込みフィルターを移動しながら、畳み込みフィルターと画像の各位置での行列成分同士を乗じることで、畳み込みのプロセス(畳み込みレイヤーの入出力)を遂行することができる。畳み込みフィルターはn*nの形の行列で構成されることができ、一般的に画像の全体のピクセル数より小さい固定された形のフィルターで構成されることができる。つまり、m*mの画像を畳み込みレイヤー(例えば、畳み込みフィルターのサイズがn*nである畳み込みレイヤー)に入力させる場合、画像の各ピクセルを含むn*nのピクセルを表す行列が畳み込みフィルターと成分積(つまり、行列の各成分同士の積)になり得る。畳み込みフィルターとの乗算によって画像から畳み込みフィルターとマッチする成分が抽出されることができる。例えば、画像から上下直線成分を抽出するための3*3畳み込みフィルターは[[0、1、0]、[0、1、0]、[0、1、0]]のように構成されることができ、こうした畳み込みフィルターが入力画像に適用されると画像から畳み込みフィルターとマッチする上下直線成分が抽出され出力されることができる。畳み込みレイヤーは、画像を示す個々のチャンネルに対する個々の行列(つまり、R、G、Bコーティング画像の場合、R、G、B色相)に畳み込みフィルターを適用することができる。畳み込みレイヤーは、入力画像に畳み込みフィルターを適用して入力画像から畳み込みフィルターとマッチする特徴を抽出することができる。畳み込みフィルターのフィルター値(つまり、行列の各成分の値)は、畳み込みニューラルネットワークの学習プロセスにおいて逆伝播(backpropagation)によって更新されることができる。
畳み込みレイヤーの出力には、サブサンプリングレイヤーが繋がり、畳み込みレイヤーの出力を単純化してメモリー使用量と演算量を減らすことができる。例えば、2*2マックスプーリングフィルターを持つプーリングレイヤーに畳み込みレイヤーの出力を入力させる場合、画像の各ピクセルから2*2パッチごとに各パッチに含まれる最大値を出力して画像を圧縮することができる。前述のプーリングは、パッチから最小値を出力したり、パッチの平均値を出力する方式になることもあり、任意のプーリング方式が本開示に含まれることもできる。
畳み込みニューラルネットワークは、一つ以上の畳み込みレイヤー、サブサンプリングレイヤーを含むことができる。畳み込みニューラルネットワークは、畳み込みのプロセスとサブサンプリングのプロセス(例えば、前述のマックスプーリング等)を繰り返し遂行して画像から特徴を抽出することができる。畳み込みのプロセスとサブサンプリングのプロセスを繰り返すことで、ニューラルネットワークは、画像のグローバルな特徴を抽出することができる。
畳み込みレイヤーやサブサンプリングレイヤーの出力は、全結合レイヤー(fully connected layer)に入力されることができる。全結合レイヤーは、一つのレイヤーにあるすべてのニューロンと隣り合っているレイヤーにあるすべてのニューロンが繋がるレイヤーである。全結合レイヤーは、ニューラルネットワークにおいて各レイヤーのすべてのノードが他のレイヤーのすべてのノードに繋がっている構造を意味することができる。
本開示の一実施例において、画像データのセグメンテーション(segmentation)を遂行するためにニューラルネットワークは、逆畳み込みニューラルネットワーク(DCNN:Deconvolutional Neural Network)を含むことができる。逆畳み込みニューラルネットワークは、畳み込みニューラルネットワークを逆方向に計算させたのと類似した動作を遂行し、畳み込みニューラルネットワークで抽出された特徴を原本データに係る特徴マップとして出力することができる。
本明細書においてネットワーク関数は、1つ以上のニューラルネットワークを含むこともでき、この場合、ネットワーク関数の出力は、1つ以上のニューラルネットワークの出力のアンサンブル(ensemble)になり得る。モデルは他のモデルとともにデータ処理を行うことができる。モデルは他のモデルと直列又は並列に相互連結されることができる。以下においてモデルは、ニューラルネットワークと同義語として使われることができる。欠陥検査モデル(900)はニューラルネットワーク(900)と称されることができ、第1サブモデル(910)は、第1サブネットワーク(910)と称されることができ、第2サブモデル(930)は、第2サブネットワーク(930)と称されることもできる。
図8は、本開示の一実施例におけるシャムネットワーク(Siamese Network)を図示した図面である。
シャムネットワーク(900)(Siamese Network)は、カテゴリ別学習データ(traing data)が十分ではない認識器に使用できるニューラルネットワークである。シャムネットワークは、データにおける類似性測定を学習することができる。シャムネットワークは、図8に示すように少なくとも部分的に重みを共有する2つ以上のニューラルネットワーク(910、930)(サブネットワーク)とニューラルネットワークからの出力が入力される比較モジュール(950)とを含むことができる。シャムネットワーク(900)には少なくとも2つの画像が入力されることができる。シャムネットワーク(200)は、入力された2つの画像の類似度を判断した結果を出力することができる。画像処理のためにシャムネットワークは、画像の入力を受ける2つの畳み込みニューラルネットワークを含むことができる。シャムネットワークにおいて、画像の入力を受ける2つの畳み込みニューラルネットワークは、重みの少なくとも一部を共有することが可能である。シャムネットワークに含まれたサブネットワークは、重み共有モジュール(920)によって重みを共有でき、サブネットワークが重みを共有することにより、シャムネットワークは入力された2つのデータに対して共通の重みで特徴を抽出し比較することができる。
シャムネットワーク構造は、入力データの類似性を測定できる学習が可能なネットワーク構造であり、カテゴリが多く、トレーニングのためのデータが十分ではない場合に使われることができる。入力データ類似性測定の学習方法は、ターゲット空間での単純距離が入力空間での意味論的距離(semantic distance)に近づくように入力パターンをターゲット空間に紐づける関数を探すプロセスを含むことができる。
Figure 0007186304000001
2つの畳み込みニューラルネットワークは、相互対応するノード同士で重みを共有することが可能である。畳み込みニューラルネットワークから出力された特徴は、比較モジュール(950)にて互いに類似度が比較されることができる。このとき比較は、両畳み込みニューラルネットワークから出力された特徴の数学的距離に基づいて遂行されることができる。シャムネットワーク(900)は、両画像を比較する方式を利用し、学習データが十分ではない場合にも画像データからオブジェクト等を認識でき、画像データの回転、変形等に敏感でないため一般的な(general)認識性能を持つことができる。
ニューラルネットワークは、教師あり学習(supervised learning)、教師なし学習(unsupervised learning)、半教師あり学習(semi supervised learning)の中から少なくともいずれか1つの方式で学習されることができる。ニューラルネットワークの学習は出力の誤りを最小化するためのものである。ニューラルネットワークの学習において、繰り返し学習データをニューラルネットワークに入力させ、学習データに関するニューラルネットワークの出力とターゲットのエラーを計算し、エラーを減らすための方向としてニューラルネットワークのエラーをニューラルネットワークの出力レイヤーから入力レイヤー方向へ逆伝播(back propagation)してニューラルネットワークの各ノードの重みを更新するプロセスが行われる。教師あり学習の場合、個々の学習データに正解がラベリングされている学習データを使い(つまり、ラベリングされた学習データ)、教師なし学習の場合は、個々の学習データに正解がラベリングされていないことがあり得る。つまり、例えばデータ分類に関する教師あり学習における学習データは、学習データそれぞれにカテゴリがラベリングされたデータになり得る。ラベリングされた学習データがニューラルネットワークに入力され、ニューラルネットワークの出力(カテゴリ)と学習データのラベルを比較することで誤差(error)が計算されることが可能である。計算された誤差は、ニューラルネットワークにおいて逆方向(つまり、出力レイヤーにおいて入力レイヤーに向かう方向)へ逆伝播され、逆伝播によってニューラルネットワークの各レイヤーの各ノードの連結重みが更新されることが可能である。更新される各ノードの連結重みは、学習率(learning rate)によって変化量が決まることが可能である。入力データに関するニューラルネットワークの計算とエラーの逆伝播は、学習のサイクル(epoch)を構成することができる。学習率は、ニューラルネットワークの学習のサイクルの反復回数によって適用方式が変わることが可能である。例えば、ニューラルネットワークの学習初期においては、学習率を高くしてニューラルネットワークが早く一定のレベルの性能を確保するようにすることで効率を高め、学習の後半においては学習率を低くして精度を上げることが可能である。
ニューラルネットワークの学習において、一般的に学習データは実際のデータ(つまり、学習されたニューラルネットワークを利用して処理しようとするデータ)の部分集合であることが可能であり、そのため学習データに係る誤差は減少するが、実際のデータについては誤差が増加する学習サイクルが存在し得る。過剰適合(over fitting)は、このように学習データにおいて過度に学習したため、実際のデータにおいて誤差が増加する現象である。例えば、黄色い猫を見て猫を学習したニューラルネットワークが、黄色以外の色の猫を見ると猫であることを認識できない現象が過剰適合の一種になり得る。過剰適合は、マシンラーニングアルゴリズムの誤差を増加させる原因になり得る。このような過剰適合を防ぐために、多様な最適化方法が使われることができる。過剰適合を防ぐためには学習データを増加させたり、正則化(regulaization)、学習のプロセスにおいてネットワークのノードの一部を省略するドロップアウト(drop out)等の方法が適用されることが可能である。
図9は、本開示の一実施例において、欠陥検査装置を実現するための欠陥検査方法を簡略化して図示した概念図である。
本開示の欠陥検査方法は、欠陥検査装置(1)の1つ以上の制御部(800)によって行われることが可能である。本開示の欠陥検査装置(1)における1つ以上の制御部(800)は、本開示の欠陥検査モデル(900)の演算プロセスを実行することができる。本開示の欠陥検査方法におけるすべての演算プロセス(つまり、ニューラルネットワーク学習、特徴抽出、特徴比較等)は、欠陥検査装置(1)の制御部(800)によって行われることが可能である。つまり、欠陥検査モデル(900)においてデータを処理するという表現は、欠陥検査装置(1)の制御部(800)が欠陥検査モデル(900)を実行してデータを処理する過程を意味することが可能である。
本開示の欠陥検査方法において欠陥検査装置(1)は、欠陥検査モデル(900)にマスター画像(1010)及びスレーブ画像(1030)を入力し、欠陥検査モデル(900)において計算した2つ画像の類似度計算結果に基づき結果を出力することができる。
本開示のニューラルネットワークは、データの分類のために使われることができる。例えば、本開示のニューラルネットワークは、アノマリー検出(Anomaly Detection)に使われることができる。
アノマリーデータは、データの正常パターンからずれている異常データを意味することができる。データは否定形パターンを持つことがあり、アノマリーデータは、このような否定形パターンからずれているデータを意味することがある。例えば、生産工程において、生産製品の画像に関するデータは、正常製品という否定形パターンを持つことがあり、アノマリーデータは、正常製品という否定形パターンからずれているデータ(つまり、例えば、不良製品の画像等)になり得る。本開示における正常データ、否定形パターン、アノマリーデータに関する記載は例示に過ぎず、本開示はこれらに限定されない。
より具体的に、本開示のニューラルネットワークは、生産工程においてアノマリー製品と正常製品を分類するために使われることができる。アノマリー製品は、欠陥のある対象(18)になり得るし正常製品は、欠陥のない対象(16)になり得る例えば、本開示の欠陥検査モデルは、対象(10)に欠陥があるか否かを検査するために使われることができる。また本開示のニューラルネットワークは、画像セグメンテーション(image segmantation)のために使われることができる。画像セグメンテーションは、画像の一部を、他の一部と区分できるよう分離するプロセスを意味することができる。画像セグメンテーションは、例えば、画像から抽出されたエッジ、色相等に基づき、画像の一部を他の一部と区分できるように分離するプロセスを含むことができる。また、画像セグメンテーションは、画像からアノマリー部分の位置情報を抽出して画像の他の部分からアノマリーデータの位置を識別するプロセスになり得る。また画像セグメンテーションは、他の一部と区分された画像の一部を視覚化して表示するプロセスも含むことができる。例えば、本開示のニューラルネットワークは、画像においてアノマリー部分を表示するために使われることができる。
マスター画像(1010)は、入力データのアノマリー(anomaly)の判断の基礎となる画像である。スレーブ画像(1030)は、アノマリーの判断対象となる画像である。本開示において、マスター画像(1010)は、正常な画像(1010)と同一の画像を指すものとして使われることができ、スレーブ画像(1030)は、判断対象画像(1030)と同一の画像を指すものとして使われることができる。
本開示において、アノマリーデータは、データの正常なパターンからずれている異常なデータを意味することができる。例えば、アノマリーデータは、欠陥のある対象(18)を第1カメラ部(300)で撮影した画像になり得る。マスター画像(1010)は、アノマリーデータを含まない正常な画像だけを含む画像になり得る。スレーブ画像(1030)は、正常なパターンであることもあり、異常なデータであることもあり、ニューラルネットワークがそれを判断する対象となる画像である場合もある。例えば、マスター画像(1010)は、欠陥のない対象(10)の外観を撮影した画像であることが可能であり、スレーブ画像(1030)は検査対象となる対象(10)の外観を撮影した画像になり得る。
欠陥検査モデル(900)に入力される複数の画像は同一の大きさを持つことが可能である。また、欠陥検査モデル(900)に入力される画像は、ニューラルネットワークの処理を容易にし、パッチを重ねて分類の精度を高めるために、一定の大きさのパッチ(patch)に分離されることができる。例えば、マスター画像(1010)とスレーブ画像(1030)は、それぞれ256*256ピクセルの大きさを持つ画像になり得るが、これらはそれぞれニューラルネットワーク、つまり欠陥検査モデル(900)のサブモデルに入力されるために32*32ピクセルの大きさを持つパッチに分離されることができる。画像におけるパッチ抽出は、画像の各ピクセルに対して遂行されることができ、個々のパッチは、重なり合う部分を持つことができる。例えば、画像の左上端のピクセルから32*32ピクセルのパッチが抽出され、当該ピクセルの右側の隣接したピクセルから32*32ピクセルのパッチを抽出する場合、各パッチは重なり合う部分を持つことができる。
欠陥検査装置(1)は、ニューラルネットワーク(900)に入力されたマスター画像(1010)とスレーブ画像(1030)からそれぞれ特徴を抽出することができる。欠陥検査装置(1)は、個々の特徴を比較してマスター画像(1010)とスレーブ画像(1030)の類似度を判断することができる。欠陥検査装置(1)は、マスター画像(1010)の特徴とスレーブ画像(1030)の特徴との間の数学的距離を求めて類似度を判断することができる。例えば、制御部(800)は、マスター画像(1010)とスレーブ画像(1030)の類似度が予め決められたしきい値以下であった場合、スレーブ画像(1030)をアノマリーデータを含む画像であると判断することができる。また、制御部(800)は、マスター画像(1010)の特徴とスレーブ画像(1030)の特徴とをディープニューラルネットワークで比較し、2つの画像において実際どのピクセルが相違しているかをピクセル単位で表すピクセルバイピクセルセグメンテーション出力(pixel by pixel segmentation output)を生成することもできる。欠陥検査装置(1)は、任意の比較アルゴリズムでサブネットワークの出力を相互比較することができる。欠陥検査装置(1)は、両特徴の差異を単純比較するだけでなく、両特徴の比較にニューラルネットワークを使用して両特徴の差異の度合い、差異のある部分のピクセルの位置等を出力することができる。
図10は、本開示の一実施例において、欠陥検査方法を実現するための欠陥検査モデルの構成を示す例示図である。
図10は、図9をより具体化した例示図である。
マスター画像(1010)とスレーブ画像(1030)は、それぞれニューラルネットワーク(900)のサブネットワーク(910、930)に入力されることができる。欠陥検査装置(1)は、個々のサブネットワーク(910、930)を利用して入力された画像をそれぞれ演算し、入力された画像の特徴をそれぞれ抽出することができる。サブネットワーク(910、930)は、シャムネットワークの少なくとも一部を構成することができる。サブネットワーク(910、930)は、互いに、重みの少なくとも一部を共有して、比較モジュール(comparator)(950)がマスター画像(1010)及びスレーブ画像(1030)に対して共通の重みで特徴を抽出して比較するようにすることができる。ここでサブネットワーク(910、930)は、ディープニューラルネットワーク構造を含むことができる。例えばネットワーク(910、930)のうち少なくとも1つは、畳み込みニューラルネットワーク構造を持つことができるが、本開示はこれらに限定されない。
比較モジュール(950)は、畳み込みニューラルネットワークや任意の比較アルゴリズム構造を持つことができる。本開示の欠陥検査方法がスレーブ画像(1030)に存在するアノマリー部分(つまり、対象(10)に欠陥がある部分)のピクセルの位置情報を出力する場合、比較モジュール(950)は、ディープニューラルネットワーク構造を持つことができる。本開示の比較方法がスレーブ画像(1030)にアノマリー部分が存在するか否かを出力する場合、比較モジュール(950)は、数学的比較アルゴリズムで構成されることができる。
比較モジュール(950)は、個々のサブネットワーク(910、930)と直列(in series)に繋がることができる。ここで直列は、サブネットワークの出力の少なくとも一部が比較モジュール(950)の入力になったり、サブネットワークの一部が比較モジュール(950)と重なることがあり得ることを意味することができる。比較モジュール(950)は、複数の画像、画像の特徴を比較できる構成を持つことができ、比較モジュール(950)は、個々のサブネットワークから出力された特徴を相互比較して比較情報を生成することができる。比較モジュール(950)は、2つの特徴の数学的距離を比較する関数の形を取ることもあり、ディープニューラルネットワークで構成され2つの特徴の類似性を判断する構成にもなり得る。比較モジュール(950)がディープニューラルネットワークで構成される場合、比較モジュール(950)は、第1サブネットワーク(910)及び第2サブネットワーク(930)から受信されたデータから画像の類似性に関連する特徴を計算することができる。比較モジュール(950)は、任意のデータ比較アルゴリズムでサブネットワークから抽出された特徴を相互比較することができ、本開示は特定の比較アルゴリズムに限定されない。比較モジュール(950)は、ディープニューラルネットワーク構造を持つことができ、そのうち逆畳み込みニューラルネットワーク構造を含むことができる。
比較モジュール(950)の比較結果に基づき、ニューラルネットワーク(900)は、アノマリー関連情報を出力することができる。アノマリー関連データは、画像がアノマリーデータを含むか否か、又は、アノマリーデータを含む場合、アノマリーが存在するピクセルの位置情報を含むことができる。アノマリー関連データは、画像に含まれた対象(10)に欠陥が含まれているか否か又は欠陥が含まれていた場合は、欠陥が存在するピクセルの位置情報を含むことができる。図11のラベリング画像(1250)は、アノマリーが存在するピクセルの位置情報を視覚化して示す画像である。画像においてアノマリーが存在するピクセルの位置情報は、画像においてアノマリーが存在する部分に重ねられた形状で表示され視覚化されることができる。他の実施例において、アノマリーが存在するピクセルの位置情報は、アノマリーが存在するデータ領域の輪郭線を特定できる情報を含むことができる。本開示は、画像においてアノマリーが存在する部分を表示するための任意の方法を含む。
図11は、本開示の一実施例において、欠陥検査方法を実現するための欠陥検査モデルの構成を示す例示図である。
図11は、図10の例示図をより具体化した例示図である。
制御部(800)は、欠陥検査モデル(900)を利用して対象(10)の欠陥有無を判断できる。本開示の一実施例において、制御部(800)は、第1カメラ部(300)が撮影した対象(10)の画像に基づき対象(10)の欠陥有無を判断できる。
本開示の一実施例において、制御部(800)は、それぞれ異なる照明条件のもとで撮影された2つ以上の画像に基づき対象(10)の欠陥有無を判断できる。欠陥検査装置(1)は、欠陥検査モデル(900)に第1正常画像(1011)、第1判断対象画像(1031)、第2正常画像(1012)及び第2判断対象画像(1032)を入力し、欠陥検査モデル(900)に含まれた第1チャンネルで計算した2つの画像の類似度及び第2チャンネルで計算した2つの画像の類似度の計算の結果に基づき結果を出力することができる。
第1正常画像(1011)は、第1サブ照明部(210)が欠陥のない対象に第1種類の光を照射したことに基づき取得された画像になり得る。第1判断対象画像(1031)は、第1サブ照明部(210)が対象(10)に第1種類の光を照射したことに基づき取得された画像になり得る。第2正常画像(1012)は、第2サブ照明部(220)が欠陥のない対象に第2種類の光を照射したことに基づき取得された画像になり得る。第2判断対象画像(1032)は、第2サブ照明部(220)が対象(10)に第2種類の光を照射したことに基づき取得された画像になり得る。第1正常画像(1011)、第1判断対象画像(1031)、第2正常画像(1012)及び第2判断対象画像(1032)は、同一の配置状態において対象の外観を撮影した画像になり得る。
照明部(200)が対象(10)に照射した光の種類の数は、判断対象画像の数とマッチングされることもあれば、欠陥検査モデル(900)のチャンネルの数とマッチングされることもあり得る。例えば、対象(10)の配置状態は変えず、照明部(200)が3つ相異なる種類の光を3つの相異なるサブ照明部を通じて照射し、各々の光のもとでの画像を取得する場合、欠陥検査装置(1)は、3つのチャンネルを含む欠陥検査モデル(900)で各々の画像を演算できる。前述の欠陥検査(900)に係る具体的な記載は、例示に過ぎず本開示はこれらに限定されない。
欠陥検査モデル(900)の第1チャンネル(901)は、第1正常画像(1011)及び第1判断対象画像(1031)からそれぞれ特徴を抽出し、各特徴を比較して第1類似度を判断できる。第1類似度がしきい値以下の場合、第1判断対象画像(1031)はアノマリーデータを含む画像だと判断できる。第1類似度に基づき、第1チャンネル(901)は、第1結果(1061)を出力できる。欠陥検査モデル(900)の第2チャンネル(902)は、第2正常画像(1012)及び第2判断対象画像(1032)からそれぞれ特徴を抽出し、各特徴を比較して第2類似度を判断できる。第2類似度に基づき、第2チャンネル(902)は、第2結果(1062)を出力できる。第2類似度がしきい値以下の場合、第2判断対象画像(1032)はアノマリーデータを含む画像だと判断できる。欠陥検査モデル(900)は、第1結果(1061)及び第2結果(1062)に基づき、対象(10)に欠陥があるか否かに関する結果(1063)を出力できる。第1判断対象画像(1031)及び第2判断対象画像(1032)のうち少なくとも1つがアノマリーデータを含む画像の場合、欠陥検査モデル(900)は対象(10)に欠陥があるという結果(1063)を出力することができる。
サブモデル(9110、9310)(9120、9320)は、シャムネットワークの少なくとも一部を構成することができる。第1チャンネルのサブモデル(9110、9310)は、互いに、重みの少なくとも一部を共有して、比較モジュール(9510)が第1正常画像(1011)及び第1判断対象画像(1031)に対して共通の重みで特徴を抽出して比較するようにすることができる。第2チャンネルのサブモデル(9120、9320)は、互いに、重みの少なくとも一部を共有して、比較モジュール(9520)が第2正常画像(1012)及び第2判断対象画像(1032)に対して共通の重みで特徴を抽出して比較するようにすることができる。本開示の一実施例において、第1チャンネル(901)及び第2チャンネル(902)の各々に入力される画像の照明条件が相異なるため、第1チャンネルのサブモデル(9110、9310)及び第2チャンネルのサブモデル(9120、9320)の各々は、重みを共有しないことがあり得る。本開示の一実施例において、第1チャンネル(901)及び第2チャンネル(902)の各々に入力される画像の照明条件は相異なるが、画像に含まれた対象(10)の配置状態が同一であるため、第1チャンネルのサブモデル(9110、9310)及び第2チャンネルのサブモデル(9120、9320)の各々は少なくとも一部の重みを共有することがあり得る。
本開示の一実施例において、制御部(800)は、第1配置状態の対象(10)をそれぞれ異なる照明条件のもとで撮影した2つ以上の画像及び第2配置状態の対象(10)をそれぞれ異なる照明条件のもとで撮影した2つ以上の画像に基づき、上記対象の欠陥有無を判断することができる。例えば、第1配置状態の対象(10)を撮影した対象(10)の第1側面に関する、それぞれ異なる照明条件のもとで撮影した2つ以上の画像、第2配置状態の対象(10)を撮影した対象(10)の第2側面に関する、それぞれ異なる条件のもとで撮影した2つ以上の画像に基づき対象(10)の欠陥有無を判断できる。前述の配置状態に係る具体的な記載は、例示に過ぎず本開示はこれらに限定されない。
制御部(800)は、第1配置状態の対象(10)をそれぞれ異なる条件のもとで撮影した2つ以上の画像を第1欠陥検査モデル(900)を利用して演算し、第2配置状態の対象(10)をそれぞれ異なる照明条件のもとで撮影した2つ以上の画像を第2欠陥検査モデル(900)を利用して演算できる。第1欠陥検査モデル(900)及び第2欠陥検査モデル(900)に含まれたニューラルネットワークの重みは相違することがあり得る。第1欠陥検査モデル(900)を利用して第1配置状態の対象(10)を撮影した画像にアノマリーがあるか否かを判断し、第2欠陥検査モデル(900)を利用して、第2配置状態の対象(10)を撮影した画像にアノマリーがあるか否かを判断できる。第1配置状態の対象(10)を撮影した画像及び第2配置状態の対象(10)を撮影した画像のうち少なくとも1つにアノマリーが存在する場合、対象(10)には欠陥があると決定できる。
図12は、本開示の一実施例において、欠陥検査方法を実現するための欠陥検査モデルの学習データの例示である。
本開示の一実施例において、欠陥検査方法を実現するためのニューラルネットワークの学習データ(1200)は、正常画像(1210)、対象画像(1230)、ラベリング画像(1250)を含むことができる。正常画像(1210)は、入力データのアノマリーの判断の基礎となる画像であり、アノマリーデータを含まない正常な状態の画像データだけを含む画像になり得る。正常画像(1210)は、学習後ニューラルネットワークのマスター画像(1010)に対応することができる。つまり、例えば、正常画像(1210)は、正常製品の否定形パターンだけを持つ、アノマリーのない画像になり得る。対象画像(1230)は、アノマリー判断の対象となる画像であって、アノマリーデータを含むことのできる画像になり得る。対象画像(1230)は、学習後ニューラルネットワークのスレーブ画像(1030)に対応することができる。ラベリング画像(1250)は、対象画像(1230)においてアノマリーが存在するピクセルをラベリングした画像である。図12に示す画像は、繊維加工分野に関する製品の画像であるが、本開示はこれに限定されない。
図13乃至15は、本開示の一実施例において、欠陥検査方法を実現するための欠陥検査モデルの学習方式を示す概念図である。
図13に示すように、本開示の実施例において、ニューラルネットワーク(900)は、正常画像(1210)及び対象画像(1230)を学習データ(1220)(つまり、異常の存在有無がラベリングされたデータ)で学習し、入力データがアノマリーデータを含むか否かを判断するように学習されることができる。ここで対象画像(1230)は、アノマリーの存在有無がラベリングされた画像になり得る。つまり、図13の学習方式において、正常画像(1210)及び対象画像(1230)はニューラルネットワーク(900)に入力され、ニューラルネットワーク(900)は対象画像(1230)からアノマリーデータが存在するか否かに関する出力(1051)を出力することができる。制御部(800)は、ニューラルネットワークの出力と対象画像(1230)にラベリングされたアノマリーデータの存在有無に係る情報とを比較して誤差を求め、誤差を逆伝播して、ニューラルネットワーク(900)がスレーブ画像(1030)にアノマリーデータが存在するか否かを分類するよう学習させることができる。つまり、制御部(800)は、アノマリーデータの存在有無がラベリングされた学習データ(1230)を利用し、アノマリーデータの存在有無に関する出力(1051)を出力するようにニューラルネットワーク(900)を学習させることができる。
図14に示すように、本開示の第2の実施例においてニューラルネットワーク(900)は、正常画像(1210)及びラベリング画像(1250)を学習データ(1240)(つまり、正常データとアノマリーが存在するピクセルがラベリングされた異常画像)で学習し、入力データにおいてアノマリーが存在するピクセルの位置情報に関するデータ(1053)を出力するように学習されることができる。ここでラベリング画像(1250)は、前述のように画像にアノマリーが存在するピクセルの位置情報がラベリングされたデータになり得る。つまり、図14に示す学習方式において、正常画像(1210)及びラベリング画像(1250)がニューラルネットワーク(900)に入力され、ニューラルネットワーク(900)は、ラベリング画像(1250)においてアノマリーが存在するピクセルの位置情報に関するデータを出力することができる。制御部(800)は、ニューラルネットワークの出力とラベリング画像(1250)にラベリングされたアノマリーが存在するピクセルの位置情報に関するデータとを比較して誤差を求め、誤差を逆伝播して、ニューラルネットワーク(900)がスレーブ画像(1030)においてアノマリーが存在するピクセルの位置情報に関するデータを出力するように学習させることができる。つまり、制御部(800)は、画像データにおいてアノマリーが存在するピクセルの位置情報がラベリングされた学習データ(1240)を利用し、画像データにおいてアノマリーが存在するピクセルの位置情報に関する出力(1053)を出力するようにニューラルネットワーク(900)を学習させることができる。
図15に示すように、本開示のさらに他の実施例において、ニューラルネットワーク(900)は、正常画像(1210)及び対象画像(1230)を学習データ(1220)で学習して、入力データにおいてアノマリーが存在するピクセルの位置情報に関するデータ(1053)を出力するように学習されることができる。つまり、図15に示す学習方式において、正常画像(1210)及び対象画像(1230)がニューラルネットワーク(900)に入力され、ニューラルネットワーク(900)は、対象画像(1230)においてアノマリーが存在するピクセルの位置情報に関するデータを出力することができる。制御部(800)は、ニューラルネットワークの出力とターゲット(例えば、対象画像(1230)にラベリングされたアノマリーの存在有無)を比較して誤差を求め、誤差を逆伝播して、ニューラルネットワーク(900)がスレーブ画像(1030)においてアノマリーが存在するピクセルの位置情報に関するデータを出力するように学習させることができる。つまり、制御部(800)は、アノマリーデータの存在有無がラベリングされた学習データ(1220)を利用し、画像データにおいてアノマリーが存在するピクセルの位置情報に関する出力(1053)を出力するようにニューラルネットワーク(900)を学習させることができる。
図16は、本開示の一実施例において、欠陥検査方法を実現するための欠陥検査モデルの構成を示す図面である。
図16は、本開示の欠陥検査方法を実現するためのシャムネットワークを図示した図面である。シャムネットワーク(900)は、図9のニューラルネットワーク(900)を構成することができる。サブネットワーク(9110、9120、9310、9320)のうち、少なくとも1つは畳み込みニューラルネットワーク構造を含むことができる。サブネットワーク(910、930)は、重み共有モジュール(920)によって一つ以上の重みを相互共有することが可能である。重み共有モジュール(920)は、2つのサブネットワーク(910、930)が一つ以上の重みを共有できるようにサブネットワーク(910、930)を連結する構造になり得る。比較モジュール(950)は、畳み込みネットワーク構造を含むことができる。サブネットワーク(910、930)は、互いに重みの少なくとも一部を共有することが可能である。従ってサブネットワーク(910、930)は、マスター画像(1010)とスレーブ画像(1030)に対し共通の重みに基づいて特徴を抽出して比較モジュール(950)が比較するようにすることができる。
比較モジュール(950)は、各サブネットワークのうち少なくとも1つとUネットワーク構造の少なくとも一部分を構成することができる。Uネットワーク(1300)については図17を用いて説明する。サブネットワーク(910、930)の全部又は一部と比較モジュール(950)の全部又は一部がUネットワークを構成することができる。そしてサブネットワーク(910、930)と比較モジュール(950)の組み合わせがUネットワーク(1300)の一部になることも可能である。
Uネットワーク(1300)は、画像セグメンテーションを遂行できるディープニューラルネットワーク構造になり得る。図17に示すUネットワークの左の部分は、入力データの次元を減少させることのできるディープニューラルネットワーク構造を持ち、右の部分は入力データの次元を増加させることのできるディープニューラルネットワーク構造を持つことができる。より具体的にUネットワーク(1300)の次元減少ネットワーク(1310)は、畳み込みニューラルネットワーク構造を持つことができ、次元増加ネットワーク(1330)は、逆畳み込みニューラルネットワーク構造を持つことができる。図17の図示において、長方形で表示されている部分は、Uネットワークの個々のレイヤーになり得る。図17の図示において、各レイヤーの1301部分の数字は、各レイヤーの例示的なチャンネルの数になり得る。図17の図示において、各レイヤーの1303部分の数字は、各レイヤーで処理される画像の例示的なピクセルの数を意味することができ、図17に示すUネットワークの演算の矢印の方向に沿って進むと画像の例示的なピクセルの数が一度減少してから増加することから、画像の次元が一度減少してから再び増加することを確認することができる。図17に示す矢印511は、画像に畳み込みフィルターを適用させる畳み込み動作を意味することができる。例えば、矢印511は、3*3畳み込みフィルターを画像に適用する畳み込み動作になり得るが、本開示はこれらに限定されない。図17に示す矢印1313は、次元が減少した画像の次元を増加させるために必要な情報を、次元減少ネットワーク(1310)から、対応する次元増加ネットワーク(1330)に伝送する動作を意味することができる。図17に示す矢印1315は、画像のピクセルを減少させるためのプーリング動作を意味することができる。例えば、矢印1315は最大値を抽出するマックスプーリング(max pooling)になり得るが、本開示はこれに限定されない。図17に示す矢印1317は、画像の次元を増加させる畳み込み動作を意味することができる。例えば、矢印1317は、2*2畳み込みフィルターを利用した畳み込み動作になり得るが、本開示はこれらに限定されない。図17に示す矢印1319は、完全連結レイヤーに出力を伝達するための畳み込み動作を意味することができる。例えば、矢印1319は、1*1畳み込みフィルターを利用した畳み込み動作になり得る。図17の図示において、次元増加ネットワーク(1330)に含まれた斜線が引かれた長方形は、画像の次元増加のための情報が次元減少ネットワーク(1310)の対応するレイヤーから伝達されたことを意味することができる。
Uネットワーク(1300)は、画像セグメンテーションのために画像の次元を減少させるプロセスから、次元増加のための情報(例えば、ピクセルの位置情報、高レベル特徴等)が、画像の次元を増加させるプロセスへ伝達されることができるようにする構造(図17の図示において矢印1313)を持つことができる。つまり、Uネットワークの次元減少ネットワーク(1310)における各レイヤーは、次元増加ネットワーク(1330)における対応するレイヤーに特徴の位置情報を伝達することができる。これにより、画像の次元を一度減少させてから次元を増加させるプロセスにおいて、失われる可能性のあるピクセルの位置情報を復元することができる。従って、ピクセルの位置情報が画像の次元を増加させるプロセスにおいて復旧されることができるため、Uネットワークは、ピクセルの位置情報が必ず必要な画像セグメンテーションに使われることができる。具体的に、図17の例示のように、Uネットワーク(1300)の次元減少ネットワーク(1310)において第1レイヤー(入力に最も近いレイヤー)は、次元増加ネットワーク(1330)の最後のレイヤー(出力に最も近いレイヤー)に情報を伝達することができる。伝達される情報は、次元増加ネットワーク(1330)において次元が減少した画像の次元を増加させるために必要な情報を含むことができる。伝達される情報は、例えば、特徴、特徴の位置情報、各特徴が抽出されたピクセルの位置情報、原本画像のピクセル位置情報等になり得るが、本開示はこれらに限定されない。そして、Uネットワークの次元減少ネットワークにおいて第2レイヤー(入力から2番目のレイヤー)は、次元増加ネットワーク(1330)の最後から2番目のレイヤー(出力から2番目のレイヤー)に情報を伝達することができる。このようなプロセスによって、Uネットワークの各サブネットワーク(次元増加ネットワーク(1330)、次元減少ネットワーク(1310)は、レイヤーの位置に基づいて決まる、対応するレイヤーに情報を伝達することができる。
比較モジュール(950)は次元増加ネットワークを含めてサブネットワーク(910、930)のうち少なくとも1つと、Uネットワーク構造の少なくとも一部分を構成することができる。図18は、本開示の欠陥検査方法を実現するためのシャムネットワークの例示図であり、サブネットワーク(910、930)が比較モジュール(950)とUネットワーク構造を構成することを示す図面である。図18の例示において、1グループの長方形は、ニューラルネットワークの1レイヤーを表すことができる。図18において構成されているニューラルネットワークは、単純化した例示に過ぎず、レイヤーの数、画像の大きさ等は変更されることができ、本開示は図18の記載に限定されない。
図18において点線の左側は、Uネットワークの入力データの次元を減少させる次元減少ネットワーク(1310)であり、点線の右側は入力データの次元を復元する次元増加ネットワーク(1330)を構成することができる。
図18の例示において、マスター画像(1010)は、第1サブネットワーク(910)に入力され、スレーブ画像(1030)は、第2サブネットワーク(930)に入力されることができる。第1サブネットワーク(910)は、マスター画像(1010)から特徴を抽出し、第2サブネットワーク(930)は、スレーブ画像(1030)から特徴を抽出することができる。このとき、第1サブネットワーク(910)及び第2サブネットワーク(930)は、互いに重みを共有することが可能である。第1サブネットワーク(910)及び第2サブネットワーク(930)の各レイヤーの特徴は、相互比較されることができる。図18に示す矢印955は、第1及び第2サブネットワークからデータを導出する動作を意味することができる。例えば、矢印955は、第1及び第2サブネットワークで計算されたデータを比較する動作を意味することができる。また例えば、矢印955は、マスター画像の特徴とスレーブ画像の特徴との差異計算、又は、マスター画像の特徴とスレーブ画像の特徴に係るディープニューラルネットワーク比較器動作を意味することができる。第1及び第2サブネットワーク(930)のそれぞれのレイヤーから抽出された特徴は、比較モジュール(950)によってそれぞれ比較されることができる。制御部(800)は、第1及び第2サブネットワーク(930)の各レイヤーから抽出された特徴をそれぞれ比較してレイヤー比較情報を生成することができる。レイヤー比較情報は、マスター画像の特徴とスレーブ画像の特徴との差異に関する情報を含むことができる。制御部(800)は、レイヤー比較情報に基づき、アノマリー関連情報を演算することができる。このために制御部(800)は、生成されたレイヤー比較情報や特徴情報を、比較モジュール(950)の対応するレイヤーに提供することができる。提供される情報は、特徴、特徴の位置情報、各特徴が抽出されたピクセルの位置情報、原本画像のピクセル位置情報、レイヤー比較情報等になり得る。対応するレイヤーは、レイヤー比較情報を生成する際ベースとなった第1サブネットワークのレイヤー又は第2サブネットワークのレイヤーの位置に基づいて決まる。より具体的に、第1及び2サブネットワークの入力レイヤーに近いレイヤーは、比較モジュール(950)の出力に近いレイヤーと対応する。図18に示された長方形に示されたパターンは、相互対応するレイヤーであることを意味することができる。つまり、図18に示す第1及び第2サブネットワークの第1レイヤー(911、931)は、比較モジュール(950)の第3レイヤーと対応することができる。つまり、第1及び第2サブネットワークの入力レイヤーを基準にしたあるレイヤーの位置と、比較モジュール(950)の出力レイヤーを基準にしたあるレイヤーの位置が相互対応することができる。つまり、図18に示す第1レイヤー比較情報(951)は、比較モジュール(950)の次元増加ネットワーク(930)の第3レイヤー(953)に伝達されることができる。図18に図示された矢印957は、第1及び第2サブネットワークから導出された情報を次元増加ネットワーク(930)に属する、対応するレイヤーに伝達する動作を意味することができる。また矢印957は、減少した画像の次元を増加させるための情報の伝達を意味することができる。レイヤー比較情報、特徴情報の伝達及び連結を意味し、これは図17のUネットワークにおいて図示された矢印1313に類似した動作である。図18のシャムネットワークは、シャムネットワークのサブネットワーク(サブネットワーク及び比較モジュール)が、Uネットワーク構造を成し、このようなレイヤー比較情報(951)が、次元増加ネットワーク(930)側に伝達され画像の次元を一度減少させてからまた次元を増加させるプロセスにおいて失われ可能性のあるピクセルの位置情報を復元することができる。従って、本開示の欠陥検査方法は、図18のようなニューラルネットワーク構造を持つことにより、アノマリー部分に対する画像セグメンテーションを遂行することができる。
本開示においてニューラルネットワーク(900)は、マスター画像(1010)とスレーブ画像(1030)との差異に基づき、スレーブ画像(1030)にアノマリーデータが含まれるか否かを分類することができる。また、本開示においてニューラルネットワーク(900)は、マスター画像(1010)とスレーブ画像(1030)との差異とレイヤー比較情報に基づき、スレーブ画像(1030)に存在するアノマリー部分のピクセルを表示することができる。
シャムネットワークを応用したニューラルネットワークを使うことにより、本開示の一実施例における欠陥検査方法は、マスター画像とスレーブ画像が一部相違する場合(2つの画像が相当類似しているが、一部アノマリーが存在し細かいところの一部が相違している場合等)と、大分相違する場合(レンズの歪曲、照明の変化、テクスチャーの相違等によって2つの画像が相当部分相違しているが、アノマリーは存在せず細かい所は類似している場合等)をすべて学習して分類することができる。本開示の欠陥検査方法は、マスター画像とスレーブ画像が同じドメインに属する場合、細かい所の差異からスレーブ画像にアノマリーデータが存在するか否かを判断することができる。具体的にマスター画像とスレーブ画像がすべて花柄を含む織物に関する画像である場合(同一の柄、同一のテクスチャーの場合)、2つの画像で差異が発生する部分がアノマリーデータになり得る。また、本開示の欠陥検査方法は、マスター画像とスレーブ画像が異なるドメインに属する場合にも、細かい所を比較してスレーブ画像にアノマリーデータが存在するか否かを判断することができる。具体的に、マスター画像は花柄を含む織物に関する画像であり、スレーブ画像は星柄を含む革に関する画像である場合(柄、テクスチャーが相違する場合)、2つの画像においてドメインが異なることにより発生する大きな差異部分は無視して、細かい所を調べてスレーブ画像にアノマリーデータが存在するか否かを判断することができる。従って本開示の欠陥検査方法は、画像データの回転、変形、レンズの歪曲による誤差、ドメインの変更等があっても一般的な認識性能を持つことができるため、ドメイン別に学習データを確保してドメイン別に学習を遂行しなければならない既存のニューラルネットワークの限界を克服したような効果を持つ。
上記のように発明の実施のための最良の形態に係る内容を記述した。
本発明は、工場で使われる自動化装備、機械及びディバイス等に利用されることができる。

Claims (16)

  1. 対象を保持するための保持部及び前記対象を移動させるための駆動部を含むロボットアーム;
    前記対象の外観を撮影する第1カメラ部;
    前記対象の外観に光を照射する照明部;及び
    前記第1カメラ部が撮影した前記対象の画像に基づき、前記対象の欠陥有無を判断する制御部;
    を含
    前記制御部は、前記それぞれ異なる照明条件のもとで撮影した2つ以上の画像に基づき、前記対象の欠陥有無を判断し、
    前記制御部は、
    アノマリー有無の判断の基礎となる正常な画像である、第1照明条件のもとで撮影された第1正常画像及び第2照明条件のもとで撮影された第2正常画像を欠陥検査モデルに含まれた第1サブモデルに含まれたチャンネルの各々に入力して演算し、
    アノマリー有無の判断の対象となる画像である、前記第1照明条件のもとで撮影された第1判断対象画像及び前記第2照明条件のもとで撮影された第2判断対象画像を前記欠陥検査モデルに含まれた第2サブモデルに含まれたチャンネルの各々に入力して演算し、さらに、
    前記第1サブモデル及び第2サブモデルの演算結果に基づき、前記対象の欠陥有無を判断する、ことを特徴とする欠陥検査装置。
  2. 請求項1において、
    前記第1カメラ部が撮影した前記対象の画像及び前記対象の欠陥有無が示された画像のうち少なくとも1つの画像を表示するディスプレイ部;
    をさらに含む、欠陥検査装置。
  3. 請求項1において、
    前記対象を欠陥検査のために移送するための移送部;及び
    前記対象に対する前記制御部の前記欠陥検査の結果に基づき前記対象を分類し、移送するための分類移送部;
    をさらに含む、欠陥検査装置。
  4. 請求項1において、
    前記駆動部は、
    前記対象を回転させるための少なくとも1つの駆動軸を含む欠陥検査装置。
  5. 請求項1において、
    前記駆動部は、
    前記第1カメラ部が最初の配置状態とは違う配置状態での前記対象を撮影して、最初の視点とは違う視点で撮影した画像を取得できるように前記対象の配置状態を調整する、欠陥検査装置。
  6. 請求項1において、
    前記保持部によって保持される前の前記対象を撮影するための第2カメラ部;
    をさらに含み、
    前記制御部は、
    前記第2カメラ部から取得した前記対象の画像に基づき、前記保持部が前記対象の配置状態に合わせて前記対象を保持するために並べ替えられるようにすることができる、欠陥検査装置。
  7. 請求項1において、
    前記照明部は、
    光を照射する2つ以上のサブ照明部を含み、前記照明部は、内部に空間を形成し、
    前記第1カメラ部は、
    前記空間の一側に位置し、前記空間の他側に前記ロボットアームによって配置された対象を前記空間を通じて撮影するようにし、さらに
    前記制御部は、
    前記第1カメラ部が前記対象を撮影できるように、前記ロボットアームが前記対象を前記空間の前記他側に配置するようにする、欠陥検査装置。
  8. 請求項7において、
    前記サブ照明部は、
    円錐台又角錐台の形状を持つことができ、さらに錐台形状の内部の面には光を照射する発光部が位置する、欠陥検査装置。
  9. 請求項7において、
    前記2つ以上のサブ照明部は、
    円錐台又角錐台の形状を持つことができ、各サブ照明部の錐台形状の下面の幅と上面の幅との比率はそれぞれ異なる、欠陥検査装置。
  10. 請求項1において、
    前記照明部は、
    2つ以上のそれぞれ異なる種類の光を前記対象の外観に照射する、欠陥検査装置。
  11. 請求項1において、
    前記制御部は、
    第1配置状態の前記対象をそれぞれ異なる照明条件のもとで撮影した2つ以上の画像及び第2配置状態の前記対象をそれぞれ異なる照明条件のもとで撮影した2つ以上の画像に基づき前記対象の欠陥有無を判断する、欠陥検査装置。
  12. 請求項1において、
    前記制御部は、
    前記2つ以上の画像を、1つ以上のネットワーク関数を含む欠陥検査モデルに含まれた2つ以上のチャンネルの各々に入力して、前記欠陥検査モデルを利用して前記入力された2つ以上の画像の各々の特徴を抽出し、前記抽出された特徴に基づき前記2つ以上の画像の各々にアノマリーがあるか否かを判断できる、欠陥検査装置。
  13. 請求項1において、
    前記制御部は、
    前記2つ以上の画像のうち少なくとも1つの画像にアノマリーがあると判断された場合、前記対象に欠陥があると決定する、欠陥検査装置。
  14. 請求項1において、
    前記欠陥検査モデルは、
    前記第1サブモデル及び第2サブモデルのうち少なくとも1つと直列に繋がる比較モジュールをさらに含む、欠陥検査装置。
  15. 請求項1において、
    前記第1正常画像が入力される第1サブモデル第1チャンネルは、
    前記第1判断対象画像が入力される第2サブモデル第1チャンネルと同一の重みを持つリンクを少なくとも1つ以上共有し、且つ、
    前記第2正常画像が入力される第1サブモデル第2チャンネルは、
    前記第2判断対象画像が入力される第2サブモデル第2チャンネルと同一の重みを持つリンクを少なくとも1つ以上共有する、欠陥検査装置。
  16. 請求項1において、
    前記制御部は、
    第1サブモデル第1チャンネルの少なくとも1つのレイヤー及び第2サブモデル第1チャンネルの少なくとも1つのレイヤーに基づき、少なくとも1つの第1レイヤー比較情報を生成し、前記第1レイヤー比較情報を比較モジュール第1チャンネルにおける対応するレイヤーに伝達し、第1判断対象画像のアノマリー情報を演算し、そして、
    第1サブモデル第2チャンネルの少なくとも1つのレイヤー及び第2サブモデル第2チャンネルの少なくとも1つのレイヤーに基づき、少なくとも1つの第2レイヤー比較情報を生成し、前記第2レイヤー比較情報を比較モジュール第2チャンネルにおける対応するレイヤーに伝達し、第2判断対象画像のアノマリー情報を演算する、欠陥検査装置。
JP2021543228A 2019-01-24 2020-01-03 欠陥検査装置 Active JP7186304B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020190009273A KR102206753B1 (ko) 2019-01-24 2019-01-24 결함 검사 장치
KR10-2019-0009273 2019-01-24
PCT/KR2020/000110 WO2020153623A1 (ko) 2019-01-24 2020-01-03 결함 검사 장치

Publications (2)

Publication Number Publication Date
JP2022520018A JP2022520018A (ja) 2022-03-28
JP7186304B2 true JP7186304B2 (ja) 2022-12-08

Family

ID=71736295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021543228A Active JP7186304B2 (ja) 2019-01-24 2020-01-03 欠陥検査装置

Country Status (5)

Country Link
US (1) US11790512B2 (ja)
JP (1) JP7186304B2 (ja)
KR (1) KR102206753B1 (ja)
CN (1) CN113383227A (ja)
WO (1) WO2020153623A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112384344A (zh) * 2018-07-13 2021-02-19 索尼公司 控制设备、控制方法和程序
JP7200037B2 (ja) * 2019-04-17 2023-01-06 株式会社日立製作所 機械の自動運転制御方法、及びシステム
US11610390B2 (en) * 2019-05-15 2023-03-21 Getac Technology Corporation System for detecting surface type of object and artificial neural network-based method for detecting surface type of object
WO2021126531A1 (en) * 2019-12-19 2021-06-24 Qeexo, Co. Automated machine vision-based defect detection
KR102472876B1 (ko) * 2020-11-12 2022-12-01 에이엠티 주식회사 불량 pcb 모듈의 리뷰 장치
KR20230020631A (ko) * 2021-08-03 2023-02-13 삼성디스플레이 주식회사 박형 유리 검사 시스템
KR102471441B1 (ko) * 2021-12-20 2022-11-28 주식회사 아이코어 딥 러닝을 기반으로 고장을 검출하는 비전 검사 시스템
US11995812B2 (en) * 2022-06-29 2024-05-28 Electrical Components International, Inc. Next generation quality inspection

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000005705A (ja) 1998-06-22 2000-01-11 Hyuu Brain:Kk 微小物体の外観検査装置
JP2005241469A (ja) 2004-02-26 2005-09-08 Kawaguchiko Seimitsu Co Ltd 製品外観検査方法
JP2009086901A (ja) 2007-09-28 2009-04-23 Nec Soft Ltd 年齢推定システム及び年齢推定方法
JP2014526706A (ja) 2011-09-26 2014-10-06 ミルテク カンパニー リミテッド 非接触式部品検査装置及び部品検査方法
JP2015026287A (ja) 2013-07-26 2015-02-05 新電元工業株式会社 はんだ付け検査装置、はんだ付け検査方法および電子部品
JP2015135253A (ja) 2014-01-16 2015-07-27 アイシン精機株式会社 欠陥検査装置
JP2017026441A (ja) 2015-07-22 2017-02-02 倉敷紡績株式会社 物品検査方法および装置
KR101736458B1 (ko) 2016-01-19 2017-05-17 삼일테크(주) 케이스용 미세 결점 검사 장비
JP2018059830A (ja) 2016-10-06 2018-04-12 川崎重工業株式会社 外観検査方法
US20180186004A1 (en) 2017-01-04 2018-07-05 Samsung Electronics Co., Ltd. Robot and electronic device for performing hand-eye calibration
KR101916347B1 (ko) 2017-10-13 2018-11-08 주식회사 수아랩 딥러닝 기반 이미지 비교 장치, 방법 및 컴퓨터 판독가능매체에 저장된 컴퓨터 프로그램
JP2019007891A (ja) 2017-06-27 2019-01-17 ファナック株式会社 機械学習装置、ロボット制御システム及び機械学習方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100753614B1 (ko) 2006-08-29 2007-08-30 송해근 웨이퍼 이송 로봇암
KR100879301B1 (ko) * 2007-06-28 2009-01-19 삼성에스디아이 주식회사 발광 장치 및 이 발광 장치를 광원으로 사용하는 표시 장치
JP2009139209A (ja) * 2007-12-06 2009-06-25 Toppan Printing Co Ltd 欠陥検査方法
KR101119278B1 (ko) * 2009-10-29 2012-03-16 삼성전기주식회사 기판검사시스템 및 기판검사방법
KR20120046494A (ko) 2010-11-02 2012-05-10 삼성테크윈 주식회사 부품 흡착 검사 장치 및 방법
KR101856533B1 (ko) 2011-03-28 2018-05-14 삼성전자주식회사 발광소자 검사 장치 및 그 검사 방법
CN102830123B (zh) * 2012-08-16 2014-07-02 北京科技大学 一种金属板带表面微小缺陷的在线检测方法
KR101442483B1 (ko) 2013-01-10 2014-09-24 주식회사 미르기술 Led 패키지 비전 검사 및 분류 시스템
JP2015194368A (ja) * 2014-03-31 2015-11-05 富士通株式会社 欠陥検査方法及び欠陥検査装置
KR101520636B1 (ko) 2014-06-24 2015-05-18 주식회사 에프에스티 불규칙 표면의 영상 취득을 위한 광학적 조명 방법 및 장치
JP6576059B2 (ja) * 2015-03-10 2019-09-18 キヤノン株式会社 情報処理、情報処理方法、プログラム
JP6543070B2 (ja) * 2015-04-01 2019-07-10 株式会社ニューフレアテクノロジー 検査方法および検査装置
CN105259181A (zh) * 2015-10-26 2016-01-20 华为技术有限公司 显示屏的显示缺陷检测方法、装置及设备
KR101707206B1 (ko) 2016-01-18 2017-02-27 (주)주강 로보테크 그리퍼 이송장치
JP6367862B2 (ja) * 2016-06-09 2018-08-01 本田技研工業株式会社 欠陥検査方法及びその装置
JP6408654B1 (ja) * 2017-06-16 2018-10-17 株式会社オプトン 検査装置
CN108337505B (zh) * 2018-01-30 2020-11-10 百度在线网络技术(北京)有限公司 信息获取方法和装置
IL259143B2 (en) * 2018-05-03 2024-07-01 Inspekto A M V Ltd System and method for visual production line inspection of various production items
US20200005422A1 (en) * 2018-06-29 2020-01-02 Photogauge, Inc. System and method for using images for automatic visual inspection with machine learning
CN108846841A (zh) * 2018-07-02 2018-11-20 北京百度网讯科技有限公司 显示屏质量检测方法、装置、电子设备及存储介质
US11682113B2 (en) * 2018-11-29 2023-06-20 Inspekto A.M.V. Ltd. Multi-camera visual inspection appliance and method of use

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000005705A (ja) 1998-06-22 2000-01-11 Hyuu Brain:Kk 微小物体の外観検査装置
JP2005241469A (ja) 2004-02-26 2005-09-08 Kawaguchiko Seimitsu Co Ltd 製品外観検査方法
JP2009086901A (ja) 2007-09-28 2009-04-23 Nec Soft Ltd 年齢推定システム及び年齢推定方法
JP2014526706A (ja) 2011-09-26 2014-10-06 ミルテク カンパニー リミテッド 非接触式部品検査装置及び部品検査方法
JP2015026287A (ja) 2013-07-26 2015-02-05 新電元工業株式会社 はんだ付け検査装置、はんだ付け検査方法および電子部品
JP2015135253A (ja) 2014-01-16 2015-07-27 アイシン精機株式会社 欠陥検査装置
JP2017026441A (ja) 2015-07-22 2017-02-02 倉敷紡績株式会社 物品検査方法および装置
KR101736458B1 (ko) 2016-01-19 2017-05-17 삼일테크(주) 케이스용 미세 결점 검사 장비
JP2018059830A (ja) 2016-10-06 2018-04-12 川崎重工業株式会社 外観検査方法
US20180186004A1 (en) 2017-01-04 2018-07-05 Samsung Electronics Co., Ltd. Robot and electronic device for performing hand-eye calibration
JP2019007891A (ja) 2017-06-27 2019-01-17 ファナック株式会社 機械学習装置、ロボット制御システム及び機械学習方法
KR101916347B1 (ko) 2017-10-13 2018-11-08 주식회사 수아랩 딥러닝 기반 이미지 비교 장치, 방법 및 컴퓨터 판독가능매체에 저장된 컴퓨터 프로그램

Also Published As

Publication number Publication date
US20220092765A1 (en) 2022-03-24
KR20200092117A (ko) 2020-08-03
CN113383227A (zh) 2021-09-10
WO2020153623A1 (ko) 2020-07-30
JP2022520018A (ja) 2022-03-28
KR102206753B1 (ko) 2021-01-22
US11790512B2 (en) 2023-10-17

Similar Documents

Publication Publication Date Title
JP7186304B2 (ja) 欠陥検査装置
Sassi et al. A smart monitoring system for automatic welding defect detection
JP7112501B2 (ja) ディープラーニングに基づく画像比較装置と方法及びコンピューター可読媒体に保存されたコンピュータープログラム
JP6822929B2 (ja) 情報処理装置、画像認識方法および画像認識プログラム
JP6795788B2 (ja) 産業機器用の画像認識装置及び画像認識方法
JP6576059B2 (ja) 情報処理、情報処理方法、プログラム
Ozdemir et al. A quality control application on a smart factory prototype using deep learning methods
CN111136027B (zh) 一种基于卷积神经网络的咸鸭蛋品质分检装置及方法
CN113711234A (zh) 纱线质量控制
JP2021515885A (ja) 照明条件を設定する方法、装置、システム及びプログラム並びに記憶媒体
US11203116B2 (en) System and method for predicting robotic tasks with deep learning
JP2022008924A (ja) 豆腐類検査装置、豆腐類製造システム、豆腐類の検査方法、およびプログラム
JP2019184305A (ja) 学習装置、製品検査システム、プログラム、学習方法、製品検査方法
US20220284567A1 (en) Teacher data generation method, trained learning model, and system
Dairath et al. Computer vision-based prototype robotic picking cum grading system for fruits
WO2023083848A1 (en) Self learning grasp sequence for robot bin picking
EP3999922A1 (en) Control system unit for use in a 3-dimensional object manufacturing system and a corresponding method of operating
KR20210009411A (ko) 결함 검사 장치
Syberfeldt et al. Improved automatic quality inspections through the integration of state-of-the-art machine vision and collaborative robots
JP7034529B1 (ja) 学習モデルの生成方法、学習モデル、検査装置、検査方法およびコンピュータプログラム
CN214608445U (zh) 烟包外观质量检测装置和烟包包装机
Kim et al. Automated end-of-line quality assurance with visual inspection and convolutional neural networks
CN117541554B (zh) 一种基于深度学习的表面缺陷检测方法
US20240198515A1 (en) Transformation for covariate shift of grasp neural networks
Sushkov Detection and pose determination of a part for bin picking

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210816

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221128

R150 Certificate of patent or registration of utility model

Ref document number: 7186304

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150