JP7435840B2 - Image processing method, device and storage medium - Google Patents

Image processing method, device and storage medium Download PDF

Info

Publication number
JP7435840B2
JP7435840B2 JP2023004967A JP2023004967A JP7435840B2 JP 7435840 B2 JP7435840 B2 JP 7435840B2 JP 2023004967 A JP2023004967 A JP 2023004967A JP 2023004967 A JP2023004967 A JP 2023004967A JP 7435840 B2 JP7435840 B2 JP 7435840B2
Authority
JP
Japan
Prior art keywords
line segment
image
extension
specific line
target image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023004967A
Other languages
Japanese (ja)
Other versions
JP2023104915A (en
Inventor
ジャン イフェイ
ワン ジチョン
ツァオ ティン
ジィア ホアヌ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2023104915A publication Critical patent/JP2023104915A/en
Application granted granted Critical
Publication of JP7435840B2 publication Critical patent/JP7435840B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、一般に画像処理の分野に関し、より詳細には、画像内の線分を延長するための画像処理方法、画像処理装置、及びコンピュータ読み取り可能な記憶媒体に関する。 TECHNICAL FIELD The present invention relates generally to the field of image processing, and more particularly to an image processing method, an image processing apparatus, and a computer-readable storage medium for extending line segments in an image.

近年、コンピュータビジョン処理に基づく欠陥検出技術は、既に様々な業界に広く応用されており、該欠陥検出技術は、被検査物体の撮影画像に対して画像処理を行うことにより、被検査物体における欠陥有無を決定することができる。例えば、欠陥検出は、生産製造等の業界において非常に重要な応用があり、製造されたワークに対して欠陥検出を行うことにより、外観輪郭が要件を満たすワークを選別し且つ外観輪郭に欠陥が存在するワークを除去することで一定の製品合格率を満たす。 In recent years, defect detection technology based on computer vision processing has already been widely applied in various industries. It is possible to determine the presence or absence. For example, defect detection has very important applications in industries such as production and manufacturing, and by performing defect detection on manufactured workpieces, it is possible to select workpieces whose external contour meets requirements and to identify defects in the external contour. A certain product acceptance rate is achieved by removing existing workpieces.

しかしながら、従来の欠陥検出技術は、画像背景の乱れ、非線形照明及びコントラスト反転等の望ましくない条件下で、悪影響を受け、画像における割れ、欠け等の欠陥特徴が不連続又は不鮮明になる状況を招く恐れがある。 However, traditional defect detection techniques are adversely affected by undesirable conditions such as image background disturbance, nonlinear illumination, and contrast inversion, leading to situations where defect features such as cracks, chips, etc. in the image become discontinuous or blurred. There is a fear.

従って、物体の欠陥を効果的に検出できる技術、特に、背景ノイズ、非線形照明、及びコントラスト反転の状況に対してロバストな画像処理技術が求められている。 Therefore, there is a need for techniques that can effectively detect defects in objects, especially image processing techniques that are robust to background noise, nonlinear illumination, and contrast inversion situations.

上述の問題点に鑑み、本発明の目的は、画像内の線分を延長するための画像処理方法、画像処理装置、及びコンピュータ読み取り可能な記憶媒体を提供することにある。 In view of the above problems, an object of the present invention is to provide an image processing method, an image processing device, and a computer-readable storage medium for extending line segments in an image.

上記課題を解決するために、本発明の1態様によれば、欠陥特徴を含む対象画像を取得するステップと、前記対象画像から少なくとも1つの線分を特定(識別)するステップと、少なくとも1つの線分に対して延長処理を行うステップと、を有し、前記少なくとも1つの線分における特定(所定)の線分に対する前記延長処理は、特定の線分の主方向及び接線方向に基づいて、前記特定の線分を延長するための延長方向を決定し、前記特定の線分の長さに基づいて、前記特定の線分を延長する延長長さを決定し、前記延長方向及び前記延長長さを用いて前記特定の線分を延長し、前記対象画像における欠陥特徴に関連する延長後の線分を取得することを含む、画像処理方法が提供される。 In order to solve the above problems, one aspect of the present invention includes the steps of: acquiring a target image including defect features; identifying (identifying) at least one line segment from the target image; performing an extension process on the line segment, and the extension process on a specific (predetermined) line segment in the at least one line segment is based on the main direction and tangential direction of the specific line segment, determining an extension direction for extending the specific line segment; determining an extension length for extending the specific line segment based on the length of the specific line segment; and determining the extension direction and the extension length. An image processing method is provided, which includes extending the specific line segment using a method and obtaining an extended line segment related to a defect feature in the target image.

本発明の1実施例形態によれば、前記少なくとも1つの線分を特定する前に、適応ヒストグラム均等化方法に基づいて、前記対象画像に対して前処理を行い、且つ前処理後の対象画像から前記少なくとも1つの線分を特定する。 According to an embodiment of the present invention, before identifying the at least one line segment, preprocessing is performed on the target image based on an adaptive histogram equalization method, and the target image after preprocessing is The at least one line segment is identified from .

本発明の1実施例形態によれば、前記対象画像から少なくとも1つの線分を特定するステップにおいては、前記対象画像に対して周波数領域フィルタリングに基づく処理を行い、高周波情報を保持する第1の結果画像を取得し、前記対象画像に対して空間バイラテラルフィルタリングに基づく処理を行い、第2の結果画像を取得し、前記第1の結果画像を前記第2の結果画像と融合させ、強化後の最終結果画像を取得し、強化後の最終結果画像に対して2値化処理を行うことにより、少なくとも1つの線分領域を取得し、且つ骨格抽出アルゴリズムを用いて前記線分領域を細線化し、前記対象画像の前記少なくとも1つの線分を得る。 According to an embodiment of the present invention, in the step of identifying at least one line segment from the target image, processing based on frequency domain filtering is performed on the target image, and a first Obtaining a result image, performing processing based on spatial bilateral filtering on the target image, obtaining a second result image, fusing the first result image with the second result image, and after enhancement. obtain a final result image, perform binarization processing on the final result image after enhancement to obtain at least one line segment area, and thin the line segment area using a skeleton extraction algorithm. , obtaining the at least one line segment of the target image.

本発明の1実施例形態によれば、前記第1の結果画像及び前記第2の結果画像にそれぞれ重み係数を設定するステップと、設定後の重み係数に基づいて、前記第1の結果画像と前記第2の結果画像とを融合するステップをさらに含む。 According to an embodiment of the present invention, the steps include setting weighting coefficients for each of the first resultant image and the second resultant image, and determining the first resultant image and the second resultant image based on the set weighting coefficients. The method further includes the step of fusing the second resultant image.

本発明の1実施例形態によれば、前記特定の線分を延長するための延長方向を決定するステップにおいては、前記特定の線分における第1の数の点の方向に基づいて、前記特定の線分の前記主方向を決定し、前記特定の線分における端点に近い前記第1の数よりも少ない第2の数の点の接線方向に基づいて、前記特定の線分の前記接線方向を決定し、前記主方向及び前記接線方向にそれぞれ重み係数を設定し、設定後の重み係数に基づいて、前記特定の線分の延長方向を決定する。 According to one embodiment of the present invention, in the step of determining an extension direction for extending the specific line segment, the specific determining the main direction of the line segment, and determining the tangential direction of the specific line segment based on the tangential directions of a second number of points smaller than the first number near the end points in the specific line segment; is determined, weighting coefficients are set in each of the main direction and the tangential direction, and the extension direction of the specific line segment is determined based on the set weighting coefficients.

本発明の1実施例形態によれば、設定後の重み係数は、該特定の線分の曲率に基づいて調整され、あるいは、設定後の重み係数は、それぞれ前記第1の数及び前記第2の数と正相関する(正の相関がある)。 According to an embodiment of the present invention, the set weighting coefficient is adjusted based on the curvature of the particular line segment, or the set weighting coefficient is adjusted based on the curvature of the particular line segment, or the set weighting coefficient is adjusted based on the curvature of the particular line segment, or the set weighting coefficient is There is a positive correlation with the number of (positive correlation).

本発明の1実施例形態によれば、前記延長処理においては、特定された少なくとも1つの線分の中から条件を満たす線分を候補線分として選択し、前記候補線分のみに対して前記延長処理を行い、前記条件は、線分の長さが第1の閾値よりも大きく、及び/又は、線分と最も近い線分との間の距離が第2の閾値よりも小さいことを含む。 According to one embodiment of the present invention, in the extension process, a line segment that satisfies a condition is selected from among the identified at least one line segment, and the line segment that satisfies the condition is selected as a candidate line segment. Extending processing is performed, and the condition includes that the length of the line segment is greater than a first threshold, and/or the distance between the line segment and the nearest line segment is less than a second threshold. .

本発明の別の態様によれば、欠陥特徴を含む対象画像を取得する取得部と、前記対象画像から少なくとも1つの線分を特定する特定部と、少なくとも1つの線分に対して延長処理を行う処理部と、を有し、前記少なくとも1つの線分における特定の線分に対する前記延長処理は、特定の線分の主方向及び接線方向に基づいて、前記特定の線分を延長するための延長方向を決定し、前記特定の線分の長さに基づいて、前記特定の線分を延長する延長長さを決定し、前記延長方向及び前記延長長さを用いて前記特定の線分を延長し、前記対象画像における欠陥特徴に関連する延長後の線分を取得することを含む、画像処理装置が提供される。 According to another aspect of the present invention, there is provided an acquisition unit that acquires a target image including a defect feature, an identification unit that identifies at least one line segment from the target image, and an extension process for the at least one line segment. and a processing unit for extending the specific line segment based on the main direction and the tangential direction of the specific line segment. determining an extension direction, determining an extension length to extend the specific line segment based on the length of the specific line segment, and using the extension direction and the extension length to extend the specific line segment; An image processing apparatus is provided that includes extending the line segment and obtaining an extended line segment associated with a defect feature in the target image.

本発明のさらに別の態様によれば、プロセッサと、コンピュータプログラム命令が格納されているメモリと、を有し、前記コンピュータプログラム命令が前記プロセッサによって実行されると、前記プロセッサに、欠陥特徴を含む対象画像を取得するステップと、前記対象画像から少なくとも1つの線分を特定するステップと、少なくとも1つの線分に対して延長処理を行うステップと、を実行させ、前記少なくとも1つの線分における特定の線分に対する前記延長処理は、特定の線分の主方向及び接線方向に基づいて、前記特定の線分を延長するための延長方向を決定し、前記特定の線分の長さに基づいて、前記特定の線分を延長する延長長さを決定し、前記延長方向及び前記延長長さを用いて前記特定の線分を延長し、前記対象画像における欠陥特徴に関連する延長後の線分を取得することを含む、画像処理装置が提供される。 According to yet another aspect of the invention, the invention comprises a processor and a memory having computer program instructions stored therein, the computer program instructions, when executed by the processor, causing the processor to include a defective feature. Acquiring a target image, identifying at least one line segment from the target image, and performing extension processing on at least one line segment, and identifying the at least one line segment. The extension process for the line segment determines an extension direction for extending the specific line segment based on the main direction and tangential direction of the specific line segment, and determines an extension direction for extending the specific line segment based on the length of the specific line segment. , determining an extension length for extending the specific line segment, extending the specific line segment using the extension direction and the extension length, and determining an extended line segment related to the defect feature in the target image. An image processing apparatus is provided, the image processing apparatus comprising: obtaining an image.

本発明のさらに別の態様によれば、コンピュータプログラム命令を格納したコンピュータ読み取り可能な記憶媒体であって、前記コンピュータプログラム命令は、プロセッサによって実行されると、欠陥特徴を含む対象画像を取得するステップと、前記対象画像から少なくとも1つの線分を特定するステップと、少なくとも1つの線分に対して延長処理を行うステップと、を実現し、前記少なくとも1つの線分における特定の線分に対する前記延長処理は、特定の線分の主方向及び接線方向に基づいて、前記特定の線分を延長するための延長方向を決定し、前記特定の線分の長さに基づいて、前記特定の線分を延長する延長長さを決定し、前記延長方向及び前記延長長さを用いて前記特定の線分を延長し、前記対象画像における欠陥特徴に関連する延長後の線分を取得することを含む、コンピュータ読み取り可能な記憶媒体が提供される。 According to yet another aspect of the invention, there is provided a computer-readable storage medium having computer program instructions stored thereon, the computer program instructions, when executed by a processor, for obtaining a target image including defective features. , identifying at least one line segment from the target image, and performing an extension process on the at least one line segment, and performing the extension process on a specific line segment in the at least one line segment. The processing includes determining an extension direction for extending the specific line segment based on the main direction and tangential direction of the specific line segment, and determining an extension direction for extending the specific line segment based on the length of the specific line segment. determining an extension length to extend, extending the specific line segment using the extension direction and the extension length, and obtaining an extended line segment related to a defect feature in the target image. , a computer readable storage medium is provided.

本発明によれば、画像から特定された線分の一部(ローカル)情報及び全体(グローバル)情報に基づいて、欠陥特徴が不連続であることを解消するように線分に対して延長処理を行うことができる。また、本発明によれば、照明ムラや背景ノイズ等による悪影響を排除し、欠陥特徴のエッジ情報を保持することができる。従って、本発明の画像処理方法及び画像処理装置は、複雑な背景、非線形照明、及びコントラスト反転を効果的に処理することができる。 According to the present invention, the line segment is extended based on the partial (local) information and the entire (global) information of the line segment identified from the image so as to eliminate the discontinuity of defect features. It can be performed. Furthermore, according to the present invention, it is possible to eliminate the adverse effects of uneven illumination, background noise, etc., and to retain edge information of defect characteristics. Therefore, the image processing method and image processing apparatus of the present invention can effectively process complex backgrounds, nonlinear illumination, and contrast inversion.

本発明の上記及び他の目的、特徴、利点は、添付の図面と併せて本発明の実施形態の以下の詳細な説明からより明らかになる。これらの図面は、本発明の実施形態のさらなる理解を提供するためのものであり、本明細書の一部を構成し、本発明の実施形態とともに本発明を説明するためのものであるが、本発明を限定するものではないことを理解されたい。さらに、図面においては、同様の参照番号は一般に同様の部分又はステップを表す。
本発明の実施形態に係る画像処理方法を示すフローチャートである。 本発明の実施形態に係る、亀裂を含むリング状ワークの画像である対象画像を示す図である。 本発明の実施形態に係る特定線分の延長処理を示す模式図である。 本発明の実施形態に係る延長処理後の線分を示す模式図である。 本発明の実施形態に係る線分特定方法を示すフローチャートである。 本発明の実施形態に係る、周波数領域フィルタリング及び空間領域フィルタリングの組み合わせによる画像強化を示す概略図である。 本発明の実施形態に係る画像処理装置の一例を示すブロック図である。 本発明の実施形態に係る画像処理装置の他の例を示すブロック図である。
The above and other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments of the invention in conjunction with the accompanying drawings. These drawings are intended to provide a further understanding of embodiments of the invention, and constitute a part of the specification and, together with the embodiments of the invention, serve to explain the invention; It should be understood that the invention is not limited. Additionally, in the drawings, like reference numbers generally represent similar parts or steps.
1 is a flowchart showing an image processing method according to an embodiment of the present invention. It is a figure which shows the target image which is an image of the ring-shaped workpiece|work containing a crack based on embodiment of this invention. FIG. 3 is a schematic diagram showing a specific line segment extension process according to an embodiment of the present invention. It is a schematic diagram which shows the line segment after the extension process based on embodiment of this invention. 3 is a flowchart showing a line segment identification method according to an embodiment of the present invention. 1 is a schematic diagram illustrating image enhancement by a combination of frequency domain filtering and spatial domain filtering, according to an embodiment of the invention; FIG. FIG. 1 is a block diagram showing an example of an image processing device according to an embodiment of the present invention. FIG. 2 is a block diagram showing another example of an image processing device according to an embodiment of the present invention.

以下、本発明に係る画像処理方法、画像処理装置及びコンピュータ読み取り可能な記録媒体の実施形態について図面を参照して説明する。当業者が本発明に記載の実施例から創造的労力を要することなく得られた全ての他の実施例は、いずれも本発明の保護範囲内に含まれるべきであり、且つ本明細書に記載の実施例は本発明の一部の実施例に過ぎず、本発明の全ての実施例ではなく、これらの実施例は説明的な、例示的なものに過ぎないため、本発明の範囲を限定するものと解釈すべきではないことを理解すべきである。また、本発明の説明の明確性及び簡潔性のために、当該技術分野で周知の機能や構成の詳細な説明は省略し、ステップ及び構成要素の重複説明も省略する。 Embodiments of an image processing method, an image processing apparatus, and a computer-readable recording medium according to the present invention will be described below with reference to the drawings. All other embodiments that a person skilled in the art can derive from the embodiments described in the present invention without any creative effort should be included within the protection scope of the present invention and are not included in the present specification. The examples are only some examples of the invention, not all examples of the invention, and these examples are only illustrative and illustrative, and therefore do not limit the scope of the invention. It should be understood that it should not be construed as Further, for clarity and conciseness of the description of the present invention, detailed descriptions of functions and structures well known in the art are omitted, and redundant descriptions of steps and components are also omitted.

まず、図1を参照して、本発明の実施形態に係る画像処理方法の基本的なフローについて詳細に説明する。図1に示すように、画像処理方法は以下の処理を含むことができる。 First, with reference to FIG. 1, a basic flow of an image processing method according to an embodiment of the present invention will be described in detail. As shown in FIG. 1, the image processing method can include the following processes.

ステップS101では、欠陥特徴を含む対象画像を取得する。 In step S101, a target image including defect features is acquired.

本発明の実施形態によれば、対象画像は、限定はしないが、有線又は無線手段を介して1つ又は複数の対象画像を受信する手段によって取得され得る。また、対象画像を取得するステップは、予め記憶された画像や、カメラ等の撮像装置により撮像された連続フレーム画像をメモリから取得するステップを含んでもよい。ここで、対象画像は画像撮像装置により撮像されたオリジナル画像であってもよく、該オリジナル画像はグレースケール又はカラーの画像であってもよく、且つオリジナル画像に対して各種の画像前処理を行った後に得られた処理後の画像であってもよい。ここで、このような画像前処理は、例えば、トリミング、拡大縮小、又は変形等の処理を含むがこれらに限定されない。 According to embodiments of the invention, the target images may be acquired by means of receiving one or more target images via, but not limited to, wired or wireless means. Further, the step of acquiring the target image may include the step of acquiring from the memory a pre-stored image or a continuous frame image captured by an imaging device such as a camera. Here, the target image may be an original image captured by an image capturing device, the original image may be a grayscale or color image, and various image preprocessing is performed on the original image. It may also be a processed image obtained after processing. Here, such image pre-processing includes, for example, processing such as trimming, scaling, or deformation, but is not limited thereto.

さらに、本発明の実施形態によれば、対象画像に含まれる欠陥特徴は、製品又は建物の表面上の亀裂、裂け目、隙間、又は汚れなどの欠陥であってもよい。さらに、本発明の画像処理方法の特定の適用シナリオに応じて、画像内の欠陥特徴は、物体の表面上に現れる欠陥に限定されず、テクスチャ又は線など、画像内の任意のタイプの関心のある直線又は曲線の一部を広く含むことができることに留意されたい。 Further, according to embodiments of the invention, the defect features included in the target image may be defects such as cracks, crevices, gaps, or stains on the surface of a product or building. Furthermore, depending on the particular application scenario of the image processing method of the present invention, defect features in the image are not limited to defects appearing on the surface of the object, but any type of interest in the image, such as texture or lines. Note that a portion of a straight line or curve can be broadly included.

ここでは、リング状ワークの画像を対象画像とする例について説明する。図2は、このようなリング状ワークの画像を示しており、該リング状ワークの表面には欠陥の特徴としての2つの割れが存在しているが、照明ムラ等の外的要因や撮像素子自体の内的要因から、図2に示すように、本来完全な割れが対象画像ではボケや不連続な画像と現れ、欠陥検出等の処理に悪影響を及ぼす。 Here, an example will be described in which an image of a ring-shaped work is used as the target image. Figure 2 shows an image of such a ring-shaped workpiece, and there are two cracks on the surface of the ring-shaped workpiece, which are characteristics of defects, but external factors such as uneven illumination and the image sensor Due to internal factors, as shown in FIG. 2, originally complete cracks appear as blurred or discontinuous images in the target image, which adversely affects processes such as defect detection.

ステップS102において、対象画像から少なくとも1つの線分を特定する。 In step S102, at least one line segment is identified from the target image.

図2に示すように、対象画像における亀裂は複数の線分として現れており、このステップでは、対象画像からこれらの線分を特定し、ステップS103において、特定した線分に対して延長処理を施す。 As shown in FIG. 2, the cracks in the target image appear as multiple line segments, and in this step, these line segments are identified from the target image, and in step S103, an extension process is performed on the identified line segments. give

次に、図3を参照して、本発明の実施形態に係る特定線分の延長処理について詳細に説明する。 Next, with reference to FIG. 3, the specific line segment extension process according to the embodiment of the present invention will be described in detail.

具体的には、画像から特定された少なくとも1つの線分のうち、延長処理が施されていない特定の線分については、その線分を延長処理するために、その特定の線分に関する延長方向及び延長長さを決定する必要がある。 Specifically, for a specific line segment that has not been subjected to extension processing among at least one line segment identified from the image, in order to perform extension processing on that line segment, the extension direction for that specific line segment is determined. It is necessary to determine the length and extension length.

本発明の実施形態によれば、特定線分の主方向と接線方向とに基づいて、特定線分を延長するための延長方向が決定される。ここで、線分の主方向は該線分における大部分の点又は全ての点の方向の平均方向を指し、例えば、図3(a)に示すように、このような主方向は、該線分の全体方向及び傾向を反映する全体情報であってもよく、本発明の実施形態によれば、該線分における大部分の点(例えば、総数の50%より大きい)又は全ての点の方向の平均方向を算出し、又は、最大数の点を代表可能な方向を選択することにより、該線分の主方向とすることができる。線分の接線方向は、該線分における端点に近い少数点(例えば、総数の50%より小さい)の方向によって得られ、例えば、主方向のアルゴリズムと同様に、平均方向を求めるか、大部分の方向を選択することによって該線分の接線方向とすることができ、代替的に、該線分における端点に近い少数点で構成される曲線の近似(フィット)関数を導出することによって、対応する接線方向を得ることができる。上述した実施形態では、接線方向は線分の端部における方向や傾向を反映した局所情報に過ぎないため、線分の接線方向を特定する点の数は、線分の主方向を特定する点の数よりも少なくなければならない。 According to an embodiment of the present invention, an extension direction for extending a specific line segment is determined based on the main direction and tangential direction of the specific line segment. Here, the main direction of a line segment refers to the average direction of most or all points in the line segment. For example, as shown in FIG. According to embodiments of the present invention, the direction of most points (e.g., greater than 50% of the total number) or all points in the line segment may be global information reflecting the overall direction and trend of the line segment. The main direction of the line segment can be determined by calculating the average direction of the line segment or by selecting the direction that can represent the maximum number of points. The tangential direction of a line segment is obtained by the direction of a small number of points (e.g., smaller than 50% of the total number) near the endpoints in the line segment, for example, by finding the average direction or by can be the tangential direction of the line segment by choosing the direction of We can obtain the tangential direction. In the embodiment described above, since the tangential direction is only local information that reflects the direction and tendency at the end of the line segment, the number of points that specify the tangential direction of the line segment is the same as the number of points that specify the main direction of the line segment. must be less than the number of

また、特定の線分の主方向及び接線方向を決定した後、主方向及び接線方向にそれぞれ重み係数を設定し、設定した重み係数に基づいて特定の線分の延長方向を決定してもよく、例えば、以下の式(1)で表すことができる。

Figure 0007435840000001
Alternatively, after determining the main direction and tangential direction of a specific line segment, weighting coefficients may be set for each of the main direction and tangential direction, and the extension direction of the specific line segment may be determined based on the set weighting coefficients. , for example, can be expressed by the following equation (1).
Figure 0007435840000001

上記式においてDtは、線分の末端の接線方向を表し、Dpは、線分の主方向を表し、DEは、線分の延長方向を表し、ct及びcpは、それぞれ接線方向及び主方向の重み係数であり、デフォルト設定は、

Figure 0007435840000002
である。各線分は両端を有し、必要に応じて線分の一端又は両端に対して対応する延長方向を決定してもよいことは理解すべきである。 In the above formula, D t represents the tangential direction of the end of the line segment, D p represents the main direction of the line segment, D E represents the extension direction of the line segment, and c t and c p are the tangents, respectively. The weighting factor for the direction and main direction, the default setting is
Figure 0007435840000002
It is. It should be understood that each line segment has opposite ends, and a corresponding direction of extension may be determined for one or both ends of the line segment, as desired.

また、線分は、実際に曲率を有する曲線の一部と見なすことができ、即ち各線分は対応する曲率を有し、本発明の好ましい実施例によれば、特定の線分の接線方向及び主方向の重み係数は、該特定の線分の曲率に基づいて調整することができ、例えば、該特定の線分の曲率が大きいほど、該特定の線分の接線方向に設定される重み係数が大きくなり、それに応じて、該特定の線分の主方向に設定される重み係数が小さくなり、逆もまた同様である。あるいは、特定の線分の接線方向及び主方向の重み係数は、方向決定用の点の数と正相関させることもできる。このようにして、決定された延長方向は、所望の適用シーンでより正確になる。 Also, a line segment can be considered as part of a curve that actually has a curvature, i.e. each line segment has a corresponding curvature, and according to a preferred embodiment of the invention, the tangential direction and The weighting coefficient in the main direction can be adjusted based on the curvature of the specific line segment; for example, the larger the curvature of the specific line segment, the more the weighting coefficient is set in the tangential direction of the specific line segment. becomes larger, and accordingly, the weighting factor set in the main direction of that particular line segment becomes smaller, and vice versa. Alternatively, the weighting factors for the tangential and principal directions of a particular line segment can be positively correlated with the number of orientation points. In this way, the determined extension direction will be more accurate in the desired application scene.

一方、本発明の実施形態によれば、特定の線分の長さに基づいて、特定の線分を延長するための延長長さが決定される。図3(b)に示すように、線分の延長長さは、該線分自体の長さの4分の1であってもよいし、任意の割合であってもよい。例えば、次式(2)で表すことができる。

Figure 0007435840000003
On the other hand, according to an embodiment of the present invention, an extension length for extending a specific line segment is determined based on the length of the specific line segment. As shown in FIG. 3(b), the extended length of the line segment may be one quarter of the length of the line segment itself, or may be any proportion. For example, it can be expressed by the following equation (2).
Figure 0007435840000003

上記式において、Lcは、線分の長さを表す。LEは、線分の延長長さを示す。ccurveは、延長係数を示す。本発明の好ましい実施形態によれば、延長係数は、線分間の距離又はエッジとの距離に応じて調整することができる。このようにして、延長後の線分は、真の欠陥特徴に、より適合される。 In the above formula, L c represents the length of the line segment. L E indicates the extended length of the line segment. c curve indicates the extension coefficient. According to a preferred embodiment of the invention, the extension factor can be adjusted depending on the distance between the line segments or the distance to the edge. In this way, the extended line segment is better adapted to the true defect features.

以上の処理により特定線分の延長方向及び延長長さが決定されると、決定された延長方向及び延長長さを用いて前記特定線分を延長し、延長後の線分を取得する。図4は、延長処理後の線分の概略図を示し、延長処理後の各線分は、連続的な完全な線分を形成し、割れが不連続となる状況を克服し、形成された完全な線分は、リング状ワークの割れにより形成されたパターンに対応するため、上記少なくとも1つの線分に対する延長処理により、対象画像における欠陥特徴を強化することができる。 When the extension direction and extension length of the specific line segment are determined through the above process, the specific line segment is extended using the determined extension direction and extension length, and the extended line segment is obtained. Figure 4 shows the schematic diagram of the line segment after the extension process, each line segment after the extension process forms a continuous complete line segment, overcomes the situation where the crack is discontinuous, and the formed complete Since the line segment corresponds to a pattern formed by a crack in the ring-shaped workpiece, the defect characteristics in the target image can be strengthened by extending the at least one line segment.

さらに、本発明の好ましい実施形態によれば、少なくとも1つの線分を特定する前に、適応ヒストグラム均等化方法に基づいて対象画像を前処理し、前処理された対象画像から少なくとも1つの線分を特定することも可能である。 Furthermore, according to a preferred embodiment of the invention, before identifying the at least one line segment, the target image is preprocessed based on an adaptive histogram equalization method, and the at least one line segment is extracted from the preprocessed target image. It is also possible to specify

具体的には、画像の階調(グレースケール)ヒストグラムは、画像階調値分布に関する関数であり、画像中の階調値分布に対する統計的なグラフとみなすことができ、画像中にある階調値を有する画素が出現する確率を画像階調値分布の関数によって反映することができる。一般的に、暗い画像の階調ヒストグラムの分布は階調値が低い側に集中するように現れ、逆に、明るい画像の階調ヒストグラムの分布は階調値が高い側に集中するように現れる。一枚の画像の階調ヒストグラムがほぼ全階調値範囲をカバーする場合、即ち全階調値分布が均一な分布に近づくと、該画像は大きな階調ダイナミックレンジ及び高コントラストを有する。上述したように、対象画像における欠陥特徴である割れのボケや不連続の原因の一つは、照明ムラによる画像の階調ダイナミックレンジが狭くなり、画像の細部が失われることにある。 Specifically, the gradation (grayscale) histogram of an image is a function related to the image gradation value distribution, and can be regarded as a statistical graph of the gradation value distribution in the image. The probability that a pixel having a value appears can be reflected by a function of the image tone value distribution. In general, the distribution of the tone histogram of a dark image appears to be concentrated on the side with low tone values, and conversely, the distribution of the tone histogram of a bright image appears to be concentrated on the side with high tone values. . When the tone histogram of an image covers almost the entire tone value range, ie, the total tone value distribution approaches a uniform distribution, the image has a large tone dynamic range and high contrast. As described above, one of the causes of the blurring and discontinuity of cracks, which are defect characteristics in the target image, is that the gradation dynamic range of the image becomes narrow due to illumination unevenness, and details of the image are lost.

従って、延長処理に用いられる線分を特定する前に、予め適応型ヒストグラム均等化方法により対象画像に対して処理を行い、例えば、適応型ヒストグラム均等化(Adaptive Histogram Equalization)、制限コントラスト適応型ヒストグラム均等化(Contrast Limited Adaptive Histogram Equalization)、及び適応型局所領域拡張(Local Region Stretch)ヒストグラム均等化等の方法により、画像の細部をより顕著化し、後続の少なくとも1つの線分に対する特定処理に役立つようにし、それに応じて、延長処理後の限定もより完全で、正確になる。 Therefore, before identifying line segments to be used for extension processing, the target image is processed in advance by an adaptive histogram equalization method, such as adaptive histogram equalization, limited contrast adaptive histogram Methods such as Contrast Limited Adaptive Histogram Equalization and Adaptive Local Region Stretch histogram equalization make image details more noticeable and aid in subsequent specific processing of at least one line segment. and, accordingly, the definition after the extension process will be more complete and accurate.

また、本発明の好ましい実施形態によれば、周波数領域フィルタリングと空間領域フィルタリングとを組み合わせた方法を用いて画像を強化し、強化された画像から少なくとも1つの線分を抽出して後続の延長処理に用いることができる。図5及び図6を参照して該線分を特定する方法を具体的に説明する。 Further, according to a preferred embodiment of the present invention, the image is enhanced using a method combining frequency domain filtering and spatial domain filtering, and at least one line segment is extracted from the enhanced image for subsequent extension processing. It can be used for. A method for specifying the line segment will be specifically explained with reference to FIGS. 5 and 6.

図5は、本発明の実施形態に係る線分特定方法を示すフローチャートである。図5に示すように、該線分を特定する方法は以下の処理を含むことができる。 FIG. 5 is a flowchart showing a line segment identification method according to an embodiment of the present invention. As shown in FIG. 5, the method for identifying the line segment can include the following process.

ステップS501において、対象画像に対して周波数領域フィルタリングによる処理を行い、高周波情報を保持する第1の結果画像を得る。 In step S501, the target image is processed by frequency domain filtering to obtain a first resultant image that retains high frequency information.

具体的には、図6に示す周波数領域フィルタリングに基づく処理の概略図のように、まず、フーリエ変換又は類似の周波数領域変換方法によって対象画像の周波数領域画像を取得し、次に、ハイパスフィルタで該周波数領域画像に対してフィルタリング処理を行い、画像中の高周波成分を保留し、その後、フィルタリング後の画像に対して逆変換処理を行い、最終的に第1の結果画像を得る。このようにして、潜在的な欠陥特徴に対応する高周波情報を保持しながら、第1の結果画像から低周波情報をフィルタリングするとともに、画像における不均一な照明の悪影響を排除することができる。 Specifically, as shown in the schematic diagram of processing based on frequency domain filtering shown in Fig. 6, a frequency domain image of the target image is first obtained by Fourier transform or a similar frequency domain transformation method, and then a frequency domain image is obtained using a high-pass filter. A filtering process is performed on the frequency domain image to retain high frequency components in the image, and then an inverse transformation process is performed on the filtered image to finally obtain a first resultant image. In this way, low frequency information can be filtered from the first resultant image while preserving high frequency information corresponding to potential defect features, as well as eliminating the negative effects of non-uniform illumination in the image.

一方、ステップS502では、対象画像に対して空間バイラテラルフィルタによる処理を行い、第2の結果画像を得る。 On the other hand, in step S502, the target image is processed by a spatial bilateral filter to obtain a second resultant image.

具体的には、空間バイラテラルフィルタリングに基づく処理は、バイラテラルフィルタによって実現される空間(空間領域)フィルタリング処理であり、このようなバイラテラルフィルタは、画素の幾何学的な近接度を使用する以外に、さらに画素間の輝度/色差を考慮し、バイラテラルフィルタによる映像上のノイズの効果的な除去と、映像上のエッジ情報の保存を可能にする。このようなバイラテラルフィルタは、例えば、画素に対するユークリッド距離の関数と、画素に関する階調差の関数とから構成される。図6に示す空間バイラテラルフィルタリングに基づく処理の概略図のように、空間領域バイラテラルフィルタリングを行った後に第2の結果画像が得られる。 Specifically, a process based on spatial bilateral filtering is a spatial (spatial domain) filtering process realized by a bilateral filter, and such a bilateral filter uses the geometric proximity of pixels. In addition, by considering the luminance/color difference between pixels, it is possible to effectively remove noise on an image using a bilateral filter and preserve edge information on an image. Such a bilateral filter is composed of, for example, a Euclidean distance function for pixels and a tone difference function for pixels. A second resultant image is obtained after performing spatial domain bilateral filtering, as shown in the schematic diagram of the process based on spatial bilateral filtering shown in FIG.

なお、ステップS501及びS502の周波数領域フィルタによる処理と空間バイラテラルフィルタによる処理とは、同期して行われてもよいし、順次行われてもよい。 Note that the processing by the frequency domain filter and the processing by the spatial bilateral filter in steps S501 and S502 may be performed synchronously or sequentially.

しかしながら、上記周波数領域フィルタリングに基づく処理及び空間バイラテラルフィルタリングに基づく処理の両方においては、いずれもそれぞれの利点及び限界が存在し、例えば、空間領域フィルタリングは、鮮鋭化の効果が顕著であり、画像中の線を突出させることができ、このようなフィルタリング方法は、アルゴリズムがシンプルで、処理速度が速い等の利点を有するが、ノイズ低減と同時に、特にエッジ及び細部において画像ボケが発生するに対し、周波数領域フィルタリングのアルゴリズムは、比較的複雑であり、算出速度が遅く、ノイズ除去と同時に、エッジ情報の損失を引き起こし、画像エッジをぼかしてしまう。 However, both the processing based on frequency domain filtering and the processing based on spatial bilateral filtering have their respective advantages and limitations. For example, spatial domain filtering has a remarkable sharpening effect, and This filtering method has the advantage of simple algorithms and fast processing speed, but it also reduces noise while at the same time causing image blurring, especially at edges and details. ,The frequency domain filtering algorithm is relatively complex, has a slow calculation speed, and at the same time removes noise, it causes loss of edge information and blurs the image edges.

そこで、本発明では、さらに、周波数領域フィルタ処理結果画像と空間領域フィルタ処理結果画像とを融合することにより、強化後の最終結果画像を取得し、すなわち、次のステップS503において、第1の結果画像と第2の結果画像とを融合して、強化後の結果画像を取得する。図6に示すように、周波数領域フィルタリング後の結果画像と、空間領域バイラテラルフィルタリング後の結果画像とが融合され、強化画像が得られる。 Therefore, in the present invention, the final result image after enhancement is obtained by further fusing the frequency domain filter processing result image and the spatial domain filter processing result image, that is, in the next step S503, the first result The image and the second resultant image are fused to obtain an enhanced resultant image. As shown in FIG. 6, the resultant image after frequency domain filtering and the resultant image after spatial domain bilateral filtering are fused to obtain an enhanced image.

また、本発明の好ましい実施形態によれば、融合処理において、第1の結果画像及び第2の結果画像にそれぞれ重み係数を設定し、設定した重み係数に基づいて第1の結果画像と第2の結果画像とを融合することも可能であり、例えば、以下の式(3)で表すことができる。

Figure 0007435840000004
Further, according to a preferred embodiment of the present invention, in the fusion process, weighting coefficients are set for each of the first result image and the second result image, and the first result image and the second result image are determined based on the set weight coefficients. It is also possible to fuse the resulting images, and for example, it can be expressed by the following equation (3).
Figure 0007435840000004

上記式において、
(外1)

Figure 0007435840000005
は、強化された最終結果画像を表し、
(外2)
Figure 0007435840000006
は、周波数領域フィルタリング処理に対応する第1の結果マップを示す。
(外3)
Figure 0007435840000007
は、空間領域フィルタ処理に対応する第2の結果マップを示す。cf及びcsは、それぞれ該第1の結果画像及び該第2の結果画像の重み係数であり、デフォルト設定は、
Figure 0007435840000008
となる。さらに、本発明の好ましい実施形態によれば、より細部の多い複雑な画像、例えば、欠陥特徴の数が多い画像に対して、周波数領域フィルタ処理の第1の結果画像の重み係数を増加し、それに応じて、空間領域フィルタ処理の第2の結果画像の重み係数を減少し、逆もまた同様である。 In the above formula,
(Outside 1)
Figure 0007435840000005
represents the enhanced final result image,
(Outside 2)
Figure 0007435840000006
shows a first result map corresponding to the frequency domain filtering process.
(Outer 3)
Figure 0007435840000007
shows a second result map corresponding to spatial domain filtering. c f and c s are weighting factors of the first result image and the second result image, respectively, and the default setting is
Figure 0007435840000008
becomes. Furthermore, according to a preferred embodiment of the invention, for complex images with more details, e.g. images with a larger number of defective features, the weighting factors of the first resultant image of the frequency domain filtering are increased; Correspondingly, the weighting factors of the second resultant image of the spatial domain filtering are decreased, and vice versa.

図5に示す線分特定方法のフローに戻り、ステップS503において強化後の結果画像を取得した後は、ステップS504において、強化後の最終結果画像に対して2値化処理を行うことにより、少なくとも1つの大まかな線分領域を取得し、且つこのような線分領域に対して骨格抽出アルゴリズムを用いて細線化を行い、対象画像の少なくとも1つの線分を取得する。 Returning to the flow of the line segment identification method shown in FIG. 5, after acquiring the enhanced result image in step S503, in step S504, at least One rough line segment area is obtained, and the line segment area is thinned using a skeleton extraction algorithm to obtain at least one line segment of the target image.

具体的には、2値化処理により、融合された結果画像を階調値が0又は255の画素のみからなる白黒画像に変換することにより、当該画像から比較的に大きな幅を有する線分、すなわち線分領域を得た上で、骨格抽出アルゴリズム(例えば、Skeletonize関数及びmedial_axis関数)により、当該領域から所望の幅(例えば、1画素程度)の線分が得られるまで、これらの線分領域の画素を剥離し元の形状を保持することにより、線分領域の細線化を図る。このようにして、画像内の余分な情報を除去し、関心のある構造及び形状情報を強化し、画像をより一層強化することができる。 Specifically, by converting the fused resultant image into a black and white image consisting only of pixels with a gradation value of 0 or 255 through binarization processing, a line segment having a relatively large width, In other words, after obtaining a line segment region, use a skeleton extraction algorithm (for example, Skeletonize function and medial_axis function) to extract these line segment regions until a line segment of a desired width (for example, about 1 pixel) is obtained from the region. By peeling off the pixels and maintaining the original shape, the line segment area is thinned. In this way, redundant information in the image can be removed and structural and shape information of interest can be enhanced, further enhancing the image.

また、上記実施例の線分を特定する方法において、対象画像に対して周波数領域フィルタリングと空間領域フィルタリングを組み合わせた方法を直接用いて画像を強化してもよく、対象画像に対して本明細書に記載の適応ヒストグラム均等化方法のような前処理を行った後、前処理後の対象画像に対して周波数領域フィルタリングと空間領域フィルタリングを組み合わせた方法を用いて画像を強化してもよい。 Furthermore, in the method for identifying line segments in the above embodiments, the image may be enhanced by directly using a method that combines frequency domain filtering and spatial domain filtering on the target image; After performing preprocessing such as the adaptive histogram equalization method described in , a method combining frequency domain filtering and spatial domain filtering may be used on the preprocessed target image to enhance the image.

以上の処理により、対象画像から少なくとも1つの線分を特定・抽出して延長処理を行い、対象画像中の欠陥特徴に関する延長線分を得ることができる。 Through the above processing, at least one line segment can be identified and extracted from the target image, and an extension process can be performed to obtain an extended line segment related to the defect feature in the target image.

しかしながら、図4から分かるように、対象画像から特定された複数の線分のうちの一部の線分は、欠陥特徴とは無関係のノイズである可能性があり、これらの欠陥特徴とは無関係の線分に対して、延長処理を行う必要がないため、本発明の好ましい実施例によれば、上記延長処理は、さらに特定された少なくとも1つの線分から条件を満たす線分を候補線分として選択し、且つ候補線分のみに対して延長処理を行い、ここで、満たすべき条件としては、線分の長さが第一閾値よりも大きいこと、又は線分と最も近い線分との距離が第二閾値よりも小さいこと、又は両者を含むことができる。このように、特定された少なくとも1つの線分の中から閾値より大きい長さを有する線分を選択するか、他の線分との距離が閾値より小さい線分を選択するか、あるいは上記2つの条件を同時に満たす線分を候補線分として選択することにより、画像中のノイズを除去して欠陥特徴に関連する線分のみを延長処理することで、画像処理方法の算出量を低減することができるとともに、欠陥検出の精度を向上させることができる。 However, as can be seen from Fig. 4, some of the line segments identified from the target image may be noise unrelated to the defect features; Therefore, according to a preferred embodiment of the present invention, the above-mentioned extension process further includes selecting a line segment that satisfies the condition from at least one specified line segment as a candidate line segment. The selected line segment is extended only to the candidate line segment, and the conditions that must be met are that the length of the line segment is greater than the first threshold, or the distance between the line segment and the nearest line segment. is less than the second threshold, or both. In this way, a line segment having a length greater than the threshold value is selected from among the identified at least one line segment, a line segment having a distance from other line segments smaller than the threshold value is selected, or By selecting a line segment that simultaneously satisfies two conditions as a candidate line segment, noise in the image is removed and only the line segment related to the defect feature is extended, thereby reducing the amount of calculation required by the image processing method. At the same time, the accuracy of defect detection can be improved.

以上説明したように、本発明の実施形態に係る画像処理方法によれば、画像から特定された線分の局所情報と全体情報とに基づいて、線分の延長処理を行うことにより、欠陥特徴が不連続のケースを解消することができる。また、照明ムラや背景ノイズ等による悪影響を除去し、欠陥特徴のエッジ情報を保持することができる。 As explained above, according to the image processing method according to the embodiment of the present invention, defect characteristics are can resolve the discontinuous case. Further, it is possible to remove the adverse effects caused by uneven illumination, background noise, etc., and to retain edge information of defect characteristics.

次に、図7を参照して、本発明の実施形態に係る画像処理装置について説明する。 Next, with reference to FIG. 7, an image processing apparatus according to an embodiment of the present invention will be described.

図7は、本発明の実施形態に係る画像処理装置700のブロック図である。図7に示すように、画像処理装置700は、取得部710と、特定部720と、処理部730とを備える。図示された構成は例示的なものにすぎず、限定的なものではなく、画像処理装置700は、これらのユニットに加えて他の構成要素を含むことができるが、これらの構成要素は本発明の実施形態の内容とは無関係であるため、本明細書では図示及び説明を省略することを理解されたい。 FIG. 7 is a block diagram of an image processing device 700 according to an embodiment of the present invention. As shown in FIG. 7, the image processing device 700 includes an acquisition section 710, a specification section 720, and a processing section 730. The illustrated configuration is merely exemplary and not limiting, and the image processing device 700 may include other components in addition to these units; however, these components are not limited to the present invention. It should be understood that illustrations and descriptions are omitted in this specification because they are unrelated to the content of the embodiments.

また、本発明の実施形態に係る画像処理装置700による以下の動作の具体的な詳細は、図1~図6を参照して上述した詳細とほぼ同様であるため、同様の詳細については、簡略化のために一部の説明を省略する。以下、画像処理装置700の各モジュールや部材について逐一説明する。 Further, since the specific details of the following operations by the image processing apparatus 700 according to the embodiment of the present invention are almost the same as the details described above with reference to FIGS. 1 to 6, similar details will be omitted. Some explanations are omitted for the sake of clarity. Each module and member of the image processing device 700 will be explained one by one below.

取得部710は、欠陥特徴を含む対象画像を取得するように構成される。取得部710によって実行される特定の処理は、図1に関連して上述したステップS101の対応内容と一致する。 The acquisition unit 710 is configured to acquire a target image including defect features. The specific process executed by the acquisition unit 710 corresponds to the corresponding content of step S101 described above in connection with FIG.

具体的には、本発明の実施形態によれば、前記取得部710は、携帯電話、カメラ、ビデオカメラ等の画像撮像装置であってもよく、又はこのような画像撮像装置から撮像画像を受信するための装置であってもよい。また、取得部710は、画像処理装置700内の他のモジュールと物理的に分離されており、取得部710は、撮像画像を画像処理装置700内の他のモジュールに有線又は無線で送信してもよい。あるいは、取得部710は、画像処理装置700内の他のモジュールや構成要素と物理的に同じ位置に配置されていてもよいし、同じ筐体内に配置されていてもよい。前記画像処理装置700内の他のモジュールや構成要素は、内部バスを介して取得部710が取得した画像を受信する。 Specifically, according to an embodiment of the present invention, the acquisition unit 710 may be an image capturing device such as a mobile phone, a camera, a video camera, etc., or may receive a captured image from such an image capturing device. It may also be a device for Further, the acquisition unit 710 is physically separated from other modules in the image processing device 700, and the acquisition unit 710 transmits captured images to other modules in the image processing device 700 by wire or wirelessly. Good too. Alternatively, the acquisition unit 710 may be located at the same physical location as other modules and components within the image processing apparatus 700, or may be located within the same housing. Other modules and components within the image processing device 700 receive the images acquired by the acquisition unit 710 via the internal bus.

特定部720は、対象画像から少なくとも1つの線分を特定するように構成される。特定部720によって実行される特定の処理は、図1に関連して上述したステップS102の対応する内容と一致する。 The identification unit 720 is configured to identify at least one line segment from the target image. The specific process executed by the specifying unit 720 matches the corresponding content of step S102 described above in connection with FIG.

具体的には、本発明の実施形態によれば、前記特定部720が、取得部710により取得された対象画像から線分を特定し、処理部730が特定後の線分に対して延長処理を行う。 Specifically, according to the embodiment of the present invention, the identifying unit 720 identifies a line segment from the target image acquired by the acquiring unit 710, and the processing unit 730 performs an extension process on the identified line segment. I do.

また、本発明の好ましい実施形態によれば、特定部720は、少なくとも1つの線分を特定する前に、適応ヒストグラム均等化方法により対象画像を前処理し、前処理された対象画像から少なくとも1つの線分を特定することもできる。 Further, according to a preferred embodiment of the present invention, before identifying the at least one line segment, the identifying unit 720 preprocesses the target image using an adaptive histogram equalization method, and includes at least one line segment from the preprocessed target image. It is also possible to specify one line segment.

さらに、本発明の好ましい実施形態によれば、特定部720は、周波数領域フィルタリングと空間領域フィルタリングとの組合せにより画像を強化し、後続の延長処理用に強化画像から少なくとも1つの線分を抽出することができる。以上の図5、6を参照して具体的に説明した方法である。 Further, according to a preferred embodiment of the present invention, the identification unit 720 enhances the image by a combination of frequency domain filtering and spatial domain filtering, and extracts at least one line segment from the enhanced image for subsequent extension processing. be able to. This is the method specifically explained with reference to FIGS. 5 and 6 above.

処理部730は、少なくとも1つの線分に対して延長処理を行うように構成され、ここで、少なくとも1つの線分のうちの特定の線分に対する延長処理は、特定の線分の主方向及び接線方向に基づき、特定の線分を延長するための延長方向を決定し、特定の線分の長さに基づき、特定の線分を延長するための延長長さを決定し、かつ延長方向及び延長長さを用いて特定の線分を延長し、対象画像における欠陥特徴に関連する延長後の線分を取得する。処理部730によって実行される具体的な処理は、図1に関連して上述したステップS103の対応内容と一致する。 The processing unit 730 is configured to perform an extension process on at least one line segment, and here, the extension process on a specific line segment among the at least one line segment is performed in the main direction and direction of the specific line segment. Based on the tangential direction, determine the extension direction for extending the specific line segment; Based on the length of the specific line segment, determine the extension length for extending the specific line segment; A specific line segment is extended using the extension length, and an extended line segment related to the defect feature in the target image is obtained. The specific process executed by the processing unit 730 corresponds to the corresponding content of step S103 described above in connection with FIG.

また、本発明の実施形態によれば、処理部730は、特定の線分の主方向及び接線方向に基づいて、特定の線分を延長するための延長方向を決定する。また、処理部730は、特定の線分の主方向及び接線方向を決定した後、上記式(1)に示すように、主方向及び接線方向にそれぞれ重み係数を設定し、設定した重み係数に基づいて特定の線分の延長方向を決定してもよい。一方、本発明の実施形態によれば、処理部730は、上記式(2)に示すように、特定の線分の長さに基づいて、特定の線分を延長するための延長長さを決定する。 Further, according to an embodiment of the present invention, the processing unit 730 determines an extension direction for extending a specific line segment based on the main direction and tangential direction of the specific line segment. Further, after determining the main direction and tangential direction of a specific line segment, the processing unit 730 sets weighting coefficients in the main direction and tangential direction, respectively, as shown in the above equation (1), and uses the set weighting coefficients. The extension direction of a specific line segment may be determined based on this. On the other hand, according to the embodiment of the present invention, the processing unit 730 calculates the extension length for extending the specific line segment based on the length of the specific line segment, as shown in equation (2) above. decide.

また、本発明の実施形態によれば、処理部730による上記延長処理においては、さらに特定された少なくとも1つの線分から条件を満たす線分を候補線分として選択し、且つ候補線分のみに対して延長処理を行い、ここで、満たすべき条件としては、線分の長さが第一閾値よりも大きいこと、又は線分と最も近い線分との距離が第二閾値よりも小さいこと、又は両者を含むことができる。 Further, according to the embodiment of the present invention, in the above-mentioned extension process by the processing unit 730, a line segment that satisfies the condition from at least one specified line segment is further selected as a candidate line segment, and only a candidate line segment is selected. The length of the line segment is greater than the first threshold, or the distance between the line segment and the nearest line segment is less than the second threshold, or It can include both.

次に、図8を参照して、本発明の実施形態に係る画像処理装置について説明する。 Next, with reference to FIG. 8, an image processing apparatus according to an embodiment of the present invention will be described.

図8は、本発明の実施形態に係る画像処理装置800のブロック図である。図8に示すように、画像処理装置800は、プロセッサ810とメモリ820とを備える。なお、該画像処理装置800は、コンピュータ又はサーバであってもよい。図示された構成は例示的なものにすぎず、限定的なものではなく、画像処理装置800は、これらのユニットに加えて他の構成要素を含むことができるが、これらの構成要素は本発明の実施形態の内容とは無関係であるため、本明細書では図示及び説明を省略することを理解されたい。 FIG. 8 is a block diagram of an image processing device 800 according to an embodiment of the present invention. As shown in FIG. 8, the image processing device 800 includes a processor 810 and a memory 820. Note that the image processing device 800 may be a computer or a server. The illustrated configuration is merely exemplary and not limiting, and the image processing device 800 may include other components in addition to these units; however, these components are not limited to the present invention. It should be understood that illustrations and descriptions are omitted in this specification because they are unrelated to the content of the embodiments.

また、本発明の実施形態に係る画像処理装置800による以下の動作の具体的な詳細は、図1~図6を参照して上述した詳細とほぼ同様であるため、同様の詳細については説明を省略する。以下、画像処理装置800の各ブロックについて逐一説明する。 Further, since the specific details of the following operations by the image processing apparatus 800 according to the embodiment of the present invention are almost the same as the details described above with reference to FIGS. 1 to 6, similar details will not be explained. Omitted. Each block of the image processing device 800 will be explained one by one below.

プロセッサ810は、中央処理装置(CPU)、又はデータ処理能力及び/もしくは命令実行能力を有する他の形態の処理装置であってもよく、メモリ820に格納されたコンピュータプログラム命令を用いて所望の機能を実行することができ、コンピュータプログラム命令がプロセッサ810によって実行されると、以下のステップが実行される。即ち、欠陥特徴を含む対象画像を取得し、対象画像から少なくとも1つの線分を特定し、少なくとも1つの線分に対して延長処理を行い、ここで、少なくとも1つの線分のうちの特定線分に対する延長処理においては、特定線分の主方向及び接線方向に基づき、特定線分を延長するための延長方向を決定し、特定線分の長さに基づき、特定線分を延長するための延長長さを決定し、かつ延長方向及び延長長さを用いて特定線分を延長することにより、対象画像における欠陥特徴に関連する延長後の線分が得られる。プロセッサ810によって実行される上述のステップは、上述のステップS101~S103のそれぞれの内容と一致する。さらに、プロセッサ810は、図1~図6に関連して上述した各実施形態に対応する処理を実行することもできる。 Processor 810 may be a central processing unit (CPU) or other form of processing device that has data processing and/or instruction execution capabilities and uses computer program instructions stored in memory 820 to perform desired functions. may be executed, and when the computer program instructions are executed by processor 810, the following steps are performed. That is, a target image including a defect feature is acquired, at least one line segment is identified from the target image, an extension process is performed on the at least one line segment, and a specific line of the at least one line segment is In the extension process for minutes, the extension direction for extending the specific line segment is determined based on the main direction and tangential direction of the specific line segment, and the extension direction for extending the specific line segment is determined based on the length of the specific line segment. By determining the extension length and extending the specific line segment using the extension direction and extension length, an extended line segment related to the defect feature in the target image is obtained. The above-described steps performed by processor 810 correspond to the contents of each of steps S101-S103 described above. Furthermore, processor 810 may also perform processing corresponding to each of the embodiments described above in connection with FIGS. 1-6.

メモリ820は、1つ又は複数のコンピュータプログラム製品を含むことができ、前記コンピュータプログラム製品は、揮発性メモリ及び/又は不揮発性メモリなど、各種形態のコンピュータ読み取り可能な記憶媒体を含むことができる。前記コンピュータ読み取り可能な記憶媒体には、プロセッサ810に前記プログラム命令を実行させることで、上述した本発明の実施形態に係る画像処理装置の機能及び/又は他の所望の機能を実現し、及び/又は本発明の実施形態に係る画像処理方法を実行できるように、1つ以上のコンピュータプログラム命令が格納されてもよい。前記コンピュータで読み取り可能な記録媒体には、多様なアプリケーションプログラム及び各種データが保存されてもよい。 Memory 820 may include one or more computer program products, which may include various forms of computer readable storage media, such as volatile memory and/or nonvolatile memory. The computer-readable storage medium is configured to cause the processor 810 to execute the program instructions to realize the functions of the image processing apparatus according to the embodiment of the present invention and/or other desired functions, and/or Alternatively, one or more computer program instructions may be stored to enable execution of image processing methods according to embodiments of the present invention. The computer readable recording medium may store various application programs and various data.

次に、本発明の実施形態に係るコンピュータ読み取り可能な記憶媒体について説明する。本発明は、プロセッサによって実行されたときに、欠陥特徴を含む対象画像を取得するステップと、対象画像から少なくとも1つの線分を特定するステップと、少なくとも1つの線分に対して延長処理を実行するステップを実現し、少なくとも1つの線分のうちの特定の線分に対する延長処理は、特定の線分の主方向及び接線方向に基づいて特定の線分を延長する延長方向を決定するステップと、特定の線分の長さに基づいて特定の線分を延長する延長長さを決定するステップと、延長方向及び延長長さを使用して特定の線分を延長して、対象画像内の欠陥特徴に関連付けられる延長後の線分を取得するステップを含む、コンピュータプログラム命令を記憶したコンピュータ読み取り可能な記憶媒体を提供する。以上のステップは、上述したステップS101~S103に対応するものである。さらに、コンピュータプログラム命令は、プロセッサによって実行されると、図1~図6に関連して上述した実施形態に対応する処理を実施することもできる。 Next, a computer-readable storage medium according to an embodiment of the present invention will be described. The present invention, when executed by a processor, includes the steps of obtaining a target image including defective features, identifying at least one line segment from the target image, and performing an extension process on the at least one line segment. The extending process for a specific line segment among the at least one line segment includes a step of determining an extension direction for extending the specific line segment based on a main direction and a tangential direction of the specific line segment. , determining an extension length to extend a specific line segment based on the length of the specific line segment, and extending the specific line segment using the extension direction and extension length to A computer readable storage medium having computer program instructions stored thereon is provided that includes the step of obtaining an extended line segment associated with a defect feature. The above steps correspond to steps S101 to S103 described above. Additionally, the computer program instructions, when executed by a processor, may perform operations corresponding to the embodiments described above in connection with FIGS. 1-6.

上記画像処理装置における各部材又はモジュールはいずれもハードウェアで実現されてもよく、ソフトウェアで実現されてもよく、且つハードウェア及びソフトウェアの組み合わせで実現されてもよいことを理解すべきである。 It should be understood that each component or module in the image processing apparatus described above may be implemented in hardware, software, or a combination of hardware and software.

上記各実施例は例示的なものに過ぎず、限定的なものではなく、且つ当業者は、本発明の概念に基づいて上記の別々に説明した各実施例からいくつかのステップ及び装置を組み合わせて本発明の効果を実現することができ、このような組み合わせ及び組み合わせた実施例も本発明に含まれ、ここではこのような組み合わせ及び組み合わせについては、逐一説明しない。なお、本発明に記載された利点、効果等は、例示であって限定的なものではなく、本発明の各実施形態に必須であるとはならない。また、上記発明の具体的な詳細は、例示的な作用及び理解を容易にするための作用に過ぎず、限定的なものではなく、上記詳細は、本発明を上記具体的な詳細で実現しなければならないことを制限するものではない。 The embodiments described above are merely illustrative and not restrictive, and those skilled in the art may combine several steps and devices from the separately described embodiments above based on the concepts of the present invention. The effects of the present invention can be realized by using the present invention, and such combinations and combined embodiments are also included in the present invention, and such combinations and combinations will not be explained in detail here. Note that the advantages, effects, etc. described in the present invention are illustrative and not limiting, and are not essential to each embodiment of the present invention. Further, the specific details of the invention described above are merely illustrative and for ease of understanding, and are not limiting, and the above details do not realize the present invention with the specific details described above. It does not limit what you have to do.

本開示で言及されるモジュール、装置、デバイス、システムのブロック図は、例示的なものにすぎず、ブロック図によって示される方法で接続、配置、構成されなければならないことを必要とするか、又は暗示するものではない。当業者が理解できるように、これらのモジュール、装置、デバイス、システムは、任意の方法で接続され、配置され、構成され得る。さらに、「備える」、「含む」、「有する」などの単語は、「含むがこれに限定されない」ことを意味する非限定的な単語であり、互換的に用いられる。本明細書で使用される場合、単語「又は」及び「及び」は、単語「及び/又は」を指し、文脈がそうでないことを明確に示さない限り、互換的に用いられる。本明細書で使用される「など」という用語は、「限定はしないが」などの語句を指し、互換的に用いられる。 Block diagrams of modules, apparatus, devices, systems referred to in this disclosure are exemplary only and require that they be connected, arranged, configured in the manner illustrated by the block diagrams, or It's not meant to be implied. These modules, apparatus, devices, and systems may be connected, arranged, and configured in any manner as can be understood by those skilled in the art. Additionally, words such as "comprises," "includes," and "having" are non-limiting words meaning "including, but not limited to," and are used interchangeably. As used herein, the words "or" and "and" refer to the words "and/or" and are used interchangeably unless the context clearly indicates otherwise. As used herein, the term "etc." refers to phrases such as "without limitation," and is used interchangeably.

本明細書におけるステップフロチャート及び上記の方法の説明は、例示的なものにすぎず、各実施形態のステップが提示された順序で実行されなければならないことを必要とするか暗示するものではない。当業者によって理解されるように、上記の実施形態におけるステップの順序は、任意の順序で行うことができる。「その後」、「続いて」、「次に」などの用語は、ステップの順序を限定することを意図するものではなく、これらの用語は、これらの方法の説明を読者に導くためにのみ使用される。さらに、単数の要素への冠詞「一つ」、「1」又は「該」、「前記」の使用のいかなる言及も、その要素を単数に限定するものとして解釈されるべきではない。 The step flowcharts herein and the method descriptions above are exemplary only and do not require or imply that the steps of each embodiment must be performed in the order presented. . As will be understood by those skilled in the art, the order of steps in the embodiments described above can be performed in any order. Terms such as "thereafter," "subsequently," and "next" are not intended to limit the order of steps; they are used only to guide the reader through the description of these methods. be done. Furthermore, any reference to the article "an," "one," or "the" or "said" to an element in the singular is not to be construed as limiting that element to the singular.

また、本明細書における各実施形態のステップ及び装置は、ある実施形態に限定して実行されるものではなく、実際には、本発明の概念に基づいて本明細書の各実施形態における関連する一部のステップ及び一部の装置を組み合わせて新たな実施形態を構想することができ、これらの新たな実施形態も本発明の範囲内に含まれる。また、本明細書で開示される方法及び機能は、前述した方法を実装するための1つ又は複数の動作を含む。方法及び/又は動作は、特許請求の範囲から逸脱することなく互換可能である。言い換えれば、動作の特定の順序が指定されない限り、特定の動作の順序及び/又は使用は、特許請求の範囲から逸脱することなく修正され得る。 Further, the steps and apparatuses of each embodiment herein are not limited to a certain embodiment, and in fact, the steps and apparatuses of each embodiment herein are performed in accordance with the concept of the present invention. New embodiments can be envisioned by combining some of the steps and some of the devices, and these new embodiments are also within the scope of the invention. The methods and features disclosed herein also include one or more acts for implementing the methods described above. The methods and/or acts may be interchangeable without departing from the scope of the claims. In other words, unless a particular order of acts is specified, the order and/or use of the particular acts may be modified without departing from the scope of the claims.

上述の方法の様々な動作は、対応機能を実行可能な任意の適切な手段によって実行され得る。該手段は、様々なハードウェア及び/又はソフトウェア構成要素及び/又はモジュールを含むことができ、限定はしないが、回路、特定用途向け集積回路(ASIC)、又はプロセッサを含むことができる。前述した様々な例示的な論理ブロック、モジュール、及び回路は、本明細書で説明した機能を実行するように設計された汎用プロセッサ、デジタル信号プロセッサ(DSP)、ASIC、フィールドプログラマブルゲートアレイ信号(FPGA)もしくは他のプログラマブル論理デバイス(PLD)、個別ゲートもしくはトランジスタ論理、個別ハードウェア構成要素、又はそれらの任意の組合せにより、実装又は実行されてもよい。汎用プロセッサは、マイクロプロセッサであってもよいが、代替として、プロセッサは、任意の市販のプロセッサ、コントローラ、マイクロコントローラ、又はステートマシンであってもよい。プロセッサはまた、例えば、DSPとマイクロプロセッサとの組合せ等のコンピューティングデバイスの組合せ、複数のマイクロプロセッサ、DSPコアと連携する1つもしくは複数のマイクロプロセッサ、又は任意の他のこのような構成として実装され得る。 The various operations of the methods described above may be performed by any suitable means capable of performing the corresponding functions. The means may include various hardware and/or software components and/or modules, including, but not limited to, circuits, application specific integrated circuits (ASICs), or processors. The various exemplary logic blocks, modules, and circuits described above may include general purpose processors, digital signal processors (DSPs), ASICs, field programmable gate array signals (FPGAs) designed to perform the functions described herein. ) or other programmable logic devices (PLDs), discrete gate or transistor logic, discrete hardware components, or any combination thereof. A general purpose processor may be a microprocessor, but in the alternative, the processor may be any commercially available processor, controller, microcontroller, or state machine. A processor may also be implemented as a combination of computing devices, e.g., a combination of a DSP and a microprocessor, multiple microprocessors, one or more microprocessors in conjunction with a DSP core, or any other such configuration. can be done.

本発明に関連して説明した方法又はアルゴリズムのステップは、ハードウェア、プロセッサによって実行されるソフトウェアモジュール、又はその2つの組合せに直接組み込むことができる。ソフトウェアモジュールは、任意の形態の有形記憶媒体に存在してもよい。使用され得る記憶媒体のいくつかの例は、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、フラッシュメモリ、EPROMメモリ、EEPROMメモリ、レジスタ、ハードディスク、リムーバブルディスク、CD-ROMなどを含む。記憶媒体は、プロセッサが記憶媒体から情報を読み取り、記憶媒体に情報を書き込むことができるように、プロセッサに結合され得る。あるいは、記憶媒体はプロセッサと一体であってもよい。ソフトウェアモジュールは、単一の命令又は多くの命令であってもよく、複数の異なるコードセグメントに、異なるプログラム間で、及び複数の記憶媒体にわたって分散されてもよい。 The steps of the method or algorithm described in connection with the present invention may be implemented directly in hardware, in a software module executed by a processor, or in a combination of the two. A software module may reside in any form of tangible storage medium. Some examples of storage media that may be used include random access memory (RAM), read only memory (ROM), flash memory, EPROM memory, EEPROM memory, registers, hard disks, removable disks, CD-ROM, and the like. A storage medium may be coupled to a processor such that the processor can read information from, and write information to, the storage medium. In the alternative, the storage medium may be integral to the processor. A software module may be a single instruction or many instructions, and may be distributed across different code segments, between different programs, and across multiple storage media.

従って、コンピュータプログラム製品は、本明細書で提示される動作を実行することができる。例えば、そのようなコンピュータプログラム製品は、命令が有形に格納(及び/又は符号化)されたコンピュータ可読有形媒体であってもよく、該命令は、本明細書で説明する動作を実行するために1つ又は複数のプロセッサによって実行可能である。コンピュータプログラム製品は、包装された材料を含むことができる。ソフトウェア又は命令はまた、伝送媒体を介して伝送され得る。例えば、ソフトウェアは、同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL)、又は赤外線、無線、もしくはマイクロ波などの無線技術などの伝送媒体を用いて、ウェブサイト、サーバ、又は他のリモートソースから送信してもよい。 Accordingly, the computer program product is capable of performing the operations presented herein. For example, such a computer program product may be a computer-readable tangible medium having instructions tangibly stored (and/or encoded thereon) for performing the operations described herein. Executable by one or more processors. The computer program product can include packaged materials. Software or instructions may also be transmitted via a transmission medium. For example, the software may be transmitted to a website, server, or other site using a transmission medium such as coaxial cable, fiber optic cable, twisted pair, digital subscriber line (DSL), or wireless technologies such as infrared, radio, or microwave. May be sent from a remote source.

さらに、本明細書で説明する方法及び技法を実行するためのモジュール及び/又は他の適切な手段は、適切な場合、ユーザ端末及び/又は基地局によってダウンロードされ、及び/又は他の形式で取得され得る。例えば、そのようなデバイスは、本明細書で説明する方法を実行するための手段の配信を容易にするためにサーバに結合され得る。代替として、本明細書で説明する各種方法は、ユーザ端末及び/又は基地局が該デバイスに接続又は該デバイスに記録手段を提供した際に各種方法を取得できるように、記憶手段(例えば、RAM、ROM、CD又はフロッピーディスクなどの物理記憶媒体)を介して提供されてもよい。さらに、本明細書で説明する方法及び技法をデバイスに提供するための任意の他の適切な技法が利用できる。 Additionally, modules and/or other suitable means for performing the methods and techniques described herein may be downloaded and/or otherwise obtained by the user terminal and/or base station, as appropriate. can be done. For example, such a device may be coupled to a server to facilitate delivery of means for performing the methods described herein. Alternatively, the methods described herein may be stored in storage means (e.g. , a physical storage medium such as a ROM, a CD, or a floppy disk). Additionally, any other suitable technique for providing a device with the methods and techniques described herein may be utilized.

他の例及び実施形態は、本発明及び添付の特許請求の範囲の範囲及び趣旨内である。例えば、ソフトウェアの性質により、上述の機能は、プロセッサ、ハードウェア、ファームウェア、ハードワイヤード、又はこれらの任意の組み合わせによって実行されるソフトウェアを用いて実装され得る。機能を実装する特徴はまた、機能の一部が異なる物理的位置で実装されるように分散されるなど、種々の場所に物理的に位置してもよい。さらに、特許請求の範囲を含めて本明細書で使用される場合、「少なくとも1つ」で始まる項目の列挙において使用される「又は」は、別個の列挙を示し、例えば、「A、B、又はCのうちの少なくとも1つ」の列挙は、AもしくはBもしくはC、又はABもしくはACもしくはBC、又はABC(すなわち、A及びB及びC)を意味する。さらに、「例示的」という表現は、記載された例が他の例よりも好ましい又は良好であることを意味しない。 Other examples and embodiments are within the scope and spirit of the invention and the appended claims. For example, due to the nature of software, the functions described above may be implemented using software executed by a processor, hardware, firmware, hardwired, or any combination thereof. Features implementing functionality may also be physically located at various locations, such as distributed such that portions of the functionality are implemented at different physical locations. Additionally, as used herein, including in the claims, "or" used in a listing of items beginning with "at least one" indicates a separate listing, e.g., "A, B, The recitation "at least one of or C" means A or B or C, or AB or AC or BC, or ABC (ie, A and B and C). Furthermore, the word "exemplary" does not imply that the described example is preferred or better than other examples.

本明細書に記載された技術に対する様々な変更、置換、及び改変は、添付の特許請求の範囲によって定義される教示の技術から逸脱することなく行うことができる。さらに、本発明の特許請求の範囲は、上述のプロセス、機械、製造、イベントの構成、手段、方法、及び動作の特定の態様に限定されない。本明細書に記載された対応態様と実質的に同じ機能を実行するか、又は実質的に同じ結果を達成する、既存の又は後に開発されるプロセス、機械、製造、イベントの構成、手段、方法、又は動作が用いられる。従って、添付の特許請求の範囲は、その範囲内に、そのようなプロセス、機械、製造、イベントの構成、手段、方法、又は動作を含む。 Various changes, substitutions, and modifications to the technology described herein can be made without departing from the teachings defined by the appended claims. Furthermore, the claims are not limited to the particular aspects of the process, machine, manufacture, arrangement of events, means, methods, and operations described above. Any existing or later developed process, machine, manufacture, arrangement of events, means or method that performs substantially the same function or achieves substantially the same results as corresponding aspects described herein. , or an action is used. Accordingly, the appended claims include within their scope such processes, machines, manufacture, arrangements of events, means, methods, or acts.

本発明の態様の上記の説明は、当業者が本発明を作成又は使用することを可能にするために提供される。これらの態様に対する様々な修正は当業者には容易に明らかであり、本明細書で定義される一般原理は、本発明の範囲から逸脱することなく他の態様に適用され得る。従って、本発明は、本明細書に示された態様に限定されるものではなく、本発明の原理及び新規の特徴と一致する最も広い範囲が与えられるべきである。 The previous description of aspects of the invention is provided to enable any person skilled in the art to make or use the invention. Various modifications to these embodiments will be readily apparent to those skilled in the art, and the general principles defined herein may be applied to other embodiments without departing from the scope of the invention. Therefore, this invention is not to be limited to the embodiments shown herein, but is to be accorded the widest scope consistent with the principles and novel features of the invention.

上記の説明は、例示及び説明の目的で提示されている。また、この説明は、本発明の実施形態を本発明の形態に限定するものではない。いくつかの例示的な態様及び実施形態が上記のように説明されたが、当業者であれば、それらのいくつかの変形、修正、変更、追加、及び下位組合せを認識することができる。 The above description has been presented for purposes of illustration and description. Further, this description does not limit the embodiments of the present invention to the form of the present invention. Although several exemplary aspects and embodiments have been described above, those skilled in the art will recognize several variations, modifications, changes, additions, and subcombinations thereof.

Claims (11)

コンピュータが実行する画像処理方法であって、
欠陥特徴を含む対象画像を取得するステップと、
前記対象画像から少なくとも1つの線分を特定するステップと、
前記少なくとも1つの線分に対して延長処理を行うステップと、を有し、
前記少なくとも1つの線分における特定の線分に対する前記延長処理は、
前記特定の線分の主方向及び接線方向に基づいて、前記特定の線分を延長するための延長方向を決定し、
前記特定の線分の長さに基づいて、前記特定の線分を延長するための延長長さを決定し、及び
前記延長方向及び前記延長長さを用いて前記特定の線分を延長し、前記対象画像における欠陥特徴に関連する延長後の線分を取得することを含む、画像処理方法。
An image processing method performed by a computer, the method comprising:
obtaining a target image including defect features;
identifying at least one line segment from the target image;
performing an extension process on the at least one line segment,
The extension process for a specific line segment in the at least one line segment includes:
determining an extension direction for extending the specific line segment based on the main direction and tangential direction of the specific line segment;
determining an extension length for extending the specific line segment based on the length of the specific line segment; and extending the specific line segment using the extension direction and the extension length; An image processing method comprising obtaining an extended line segment related to a defect feature in the target image.
前記少なくとも1つの線分を特定する前に、適応ヒストグラム均等化方法に基づいて、前記対象画像に対して前処理を行い、且つ前処理後の対象画像から前記少なくとも1つの線分を特定する、請求項1に記載の画像処理方法。 Before identifying the at least one line segment, preprocessing the target image based on an adaptive histogram equalization method, and identifying the at least one line segment from the preprocessed target image. The image processing method according to claim 1. 前記対象画像から少なくとも1つの線分を特定するステップは、
前記対象画像に対して周波数領域フィルタリングに基づく処理を行い、高周波情報を保持する第1の結果画像を取得し、
前記対象画像に対して空間バイラテラルフィルタリングに基づく処理を行い、第2の結果画像を取得し、
前記第1の結果画像を前記第2の結果画像と融合させ、強化後の最終結果画像を取得し、及び
強化後の最終結果画像に対して2値化処理を行うことにより、少なくとも1つの線分領域を取得し、且つ骨格抽出アルゴリズムを用いて前記線分領域を細線化し、前記対象画像の前記少なくとも1つの線分を得ることを含む、請求項1に記載の画像処理方法。
The step of identifying at least one line segment from the target image includes:
performing processing based on frequency domain filtering on the target image to obtain a first resultant image that retains high frequency information;
performing processing based on spatial bilateral filtering on the target image to obtain a second resultant image;
fusing the first resultant image with the second resultant image to obtain a final resultant image after enhancement; and performing a binarization process on the final resultant image after enhancement to create at least one line. 2. The image processing method according to claim 1, further comprising obtaining a line segment region and thinning the line segment region using a skeleton extraction algorithm to obtain the at least one line segment of the target image.
前記第1の結果画像及び前記第2の結果画像にそれぞれ第1の重み係数を設定するステップと、
設定後の第1の重み係数に基づいて、前記第1の結果画像と前記第2の結果画像とを融合するステップをさらに含む、請求項3に記載の画像処理方法。
setting a first weighting coefficient for each of the first result image and the second result image;
The image processing method according to claim 3, further comprising the step of fusing the first result image and the second result image based on the set first weighting coefficient.
前記特定の線分を延長するための延長方向を決定するステップは、
前記特定の線分における第1の数の点の方向に基づいて、前記特定の線分の前記主方向を決定し、
前記特定の線分における端点に近い前記第1の数よりも少ない第2の数の点の接線方向に基づいて、前記特定の線分の前記接線方向を決定し、
前記主方向及び前記接線方向にそれぞれ第2の重み係数を設定し、及び
設定後の第2の重み係数に基づいて、前記特定の線分の延長方向を決定することを含む、請求項1に記載の画像処理方法。
The step of determining an extension direction for extending the specific line segment includes:
determining the main direction of the specific line segment based on the direction of a first number of points in the specific line segment;
determining the tangential direction of the specific line segment based on the tangential directions of a second number of points smaller than the first number near the end points of the specific line segment;
2. The method according to claim 1, further comprising: setting second weighting coefficients in each of the main direction and the tangential direction, and determining the extension direction of the specific line segment based on the set second weighting coefficients. Image processing method described.
前記設定後の第2の重み係数は、前記特定の線分の曲率に基づいて調整され、あるいは、
前記設定後の第2の重み係数は、それぞれ前記第1の数及び前記第2の数と正の相関がある、請求項5に記載の画像処理方法。
The second weighting coefficient after the setting is adjusted based on the curvature of the specific line segment, or
The image processing method according to claim 5, wherein the set second weighting coefficients have a positive correlation with the first number and the second number, respectively.
前記延長処理は、
特定された前記少なくとも1つの線分の中から条件を満たす線分を候補線分として選択し、及び
前記候補線分のみに対して前記延長処理を行うことを含み、
前記条件は、
線分の長さが第1の閾値よりも大きく、及び/又は、線分と、最も近い線分との間の距離が第2の閾値よりも小さいことを含む、請求項1に記載の画像処理方法。
The extension process is
selecting a line segment that satisfies a condition from among the identified at least one line segment, and performing the extension process only on the candidate line segment;
The above conditions are:
The image according to claim 1, wherein the length of the line segment is greater than a first threshold and/or the distance between the line segment and the nearest line segment is less than a second threshold. Processing method.
欠陥特徴を含む対象画像を取得する取得部と、
前記対象画像から少なくとも1つの線分を特定する特定部と、
前記少なくとも1つの線分に対して延長処理を行う処理部と、を有し、
前記少なくとも1つの線分における特定の線分に対する前記延長処理は、
前記特定の線分の主方向及び接線方向に基づいて、前記特定の線分を延長するための延長方向を決定し、
前記特定の線分の長さに基づいて、前記特定の線分を延長するための延長長さを決定し、及び
前記延長方向及び前記延長長さを用いて前記特定の線分を延長し、前記対象画像における欠陥特徴に関連する延長後の線分を取得することを含む、画像処理装置。
an acquisition unit that acquires a target image including defect characteristics;
a specifying unit that specifies at least one line segment from the target image;
a processing unit that performs an extension process on the at least one line segment,
The extension process for a specific line segment in the at least one line segment includes:
determining an extension direction for extending the specific line segment based on the main direction and tangential direction of the specific line segment;
determining an extension length for extending the specific line segment based on the length of the specific line segment; and extending the specific line segment using the extension direction and the extension length; An image processing device comprising: acquiring an extended line segment related to a defect feature in the target image.
プロセッサと、
前記プロセッサに接続されるメモリと、を有し、
前記メモリには、コンピュータプログラムが格納されており、
前記プロセッサは、前記コンピュータプログラムを実行することで、請求項1乃至7のうちの何れか1項に記載の画像処理方法を実現するように構成される、画像処理装置。
a processor;
a memory connected to the processor;
The memory stores a computer program,
An image processing apparatus, wherein the processor is configured to implement the image processing method according to any one of claims 1 to 7 by executing the computer program.
コンピュータに、請求項1乃至7のうちの何れか1項に記載の画像処理方法を実行させるためのプログラム。 A program for causing a computer to execute the image processing method according to claim 1. 請求項10に記載のプログラムを記憶しているコンピュータ読み取り可能な記憶媒体。 A computer-readable storage medium storing the program according to claim 10.
JP2023004967A 2022-01-17 2023-01-17 Image processing method, device and storage medium Active JP7435840B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202210048889.5A CN116485702A (en) 2022-01-17 2022-01-17 Image processing method, device and storage medium
CN202210048889.5 2022-01-17

Publications (2)

Publication Number Publication Date
JP2023104915A JP2023104915A (en) 2023-07-28
JP7435840B2 true JP7435840B2 (en) 2024-02-21

Family

ID=87221935

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023004967A Active JP7435840B2 (en) 2022-01-17 2023-01-17 Image processing method, device and storage medium

Country Status (2)

Country Link
JP (1) JP7435840B2 (en)
CN (1) CN116485702A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117079144B (en) * 2023-10-17 2023-12-26 深圳市城市交通规划设计研究中心股份有限公司 Linear crack extraction method for asphalt pavement detection image under non-uniform illumination

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003108617A (en) 2001-09-28 2003-04-11 Honda Motor Co Ltd Image processing method, image processor, image processing program and recording medium
JP2011210044A (en) 2010-03-30 2011-10-20 Dainippon Screen Mfg Co Ltd Line drawing processor, line drawing processing method, and program
JP2017053812A (en) 2015-09-11 2017-03-16 オムロン株式会社 Three-dimensional measurement device, illumination device, pattern generation device, and method
JP2018531563A (en) 2015-09-29 2018-10-25 華為技術有限公司Huawei Technologies Co.,Ltd. Method, apparatus, and system for assigning IP address for master / slave network
JP2020148625A (en) 2019-03-13 2020-09-17 富士通株式会社 Image processing device, image processing method, and image processing program
JP2021526695A (en) 2018-06-12 2021-10-07 カール・ツアイス・アーゲー Methods, equipment, and systems for multi-level bilateral noise filtering

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003108617A (en) 2001-09-28 2003-04-11 Honda Motor Co Ltd Image processing method, image processor, image processing program and recording medium
JP2011210044A (en) 2010-03-30 2011-10-20 Dainippon Screen Mfg Co Ltd Line drawing processor, line drawing processing method, and program
JP2017053812A (en) 2015-09-11 2017-03-16 オムロン株式会社 Three-dimensional measurement device, illumination device, pattern generation device, and method
JP2018531563A (en) 2015-09-29 2018-10-25 華為技術有限公司Huawei Technologies Co.,Ltd. Method, apparatus, and system for assigning IP address for master / slave network
JP2021526695A (en) 2018-06-12 2021-10-07 カール・ツアイス・アーゲー Methods, equipment, and systems for multi-level bilateral noise filtering
JP2020148625A (en) 2019-03-13 2020-09-17 富士通株式会社 Image processing device, image processing method, and image processing program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Xiaohu Lu et al.,"CannyLines: A parameter-free line segment detector",2015 IEEE International Conference on Image Processing (ICIP),米国,IEEE,2015年09月27日,pp.507-511
谷口 和隆、外3名,"多重スライス画像によるムラの定量化",電気学会研究会資料 産業システム情報化研究会,日本,社団法人電気学会,2006年11月24日,pp.17-22

Also Published As

Publication number Publication date
JP2023104915A (en) 2023-07-28
CN116485702A (en) 2023-07-25

Similar Documents

Publication Publication Date Title
CN110766736B (en) Defect detection method, defect detection device, electronic equipment and storage medium
Pei et al. Removing rain and snow in a single image using saturation and visibility features
JP2016513320A (en) Method and apparatus for image enhancement and edge verification using at least one additional image
JP6446374B2 (en) Improvements in image processing or improvements related to image processing
JP7435840B2 (en) Image processing method, device and storage medium
US9762773B2 (en) Image processing apparatus and method for increasing sharpness of images
TWI548269B (en) Method, electronic apparatus, and computer readable medium for processing reflection in image
CN110933926B (en) Automatic correction method for angle of suction nozzle element of chip mounter based on angular point detection
CN109325421B (en) Eyelash removing method and system based on edge detection
CN109214996B (en) Image processing method and device
JP7449507B2 (en) Method of generating a mask for a camera stream, computer program product and computer readable medium
CN111476750B (en) Method, device, system and storage medium for detecting stain of imaging module
Deshpande et al. A novel modified cepstral based technique for blind estimation of motion blur
CN110807780A (en) Image processing method and device
CN115511907B (en) Scratch detection method for LED screen
US9342731B1 (en) System and method for identification of fingerprints
CN115004227A (en) Image processing method, device and equipment
CN112561919A (en) Image segmentation method, device and computer readable storage medium
CN109211919B (en) Method and device for identifying magnetic tile defect area
CN116109878A (en) Image reproduction identification method, system, device and storage medium
CN108647680B (en) Image positioning frame detection method and device
CN109949245B (en) Cross laser detection positioning method and device, storage medium and computer equipment
CN110599511A (en) Image filtering method and device for reserving image edge and storage medium
CN111986176A (en) Crack image identification method, system, terminal and readable storage medium
Lal et al. A comparative study on CNN based low-light image enhancement

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240122

R151 Written notification of patent or utility model registration

Ref document number: 7435840

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151