KR101016821B1 - Marking recognition method and apparatus using the same - Google Patents

Marking recognition method and apparatus using the same Download PDF

Info

Publication number
KR101016821B1
KR101016821B1 KR1020080116205A KR20080116205A KR101016821B1 KR 101016821 B1 KR101016821 B1 KR 101016821B1 KR 1020080116205 A KR1020080116205 A KR 1020080116205A KR 20080116205 A KR20080116205 A KR 20080116205A KR 101016821 B1 KR101016821 B1 KR 101016821B1
Authority
KR
South Korea
Prior art keywords
image
value
marking
pixel
calculating
Prior art date
Application number
KR1020080116205A
Other languages
Korean (ko)
Other versions
KR20100057250A (en
Inventor
주효남
정택근
류근호
Original Assignee
호서대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 호서대학교 산학협력단 filed Critical 호서대학교 산학협력단
Priority to KR1020080116205A priority Critical patent/KR101016821B1/en
Publication of KR20100057250A publication Critical patent/KR20100057250A/en
Application granted granted Critical
Publication of KR101016821B1 publication Critical patent/KR101016821B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/752Contour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing

Abstract

본 발명은 복잡한 배경에서 문자 또는 마킹(marking)을 인식할 수 있는 장치 및 방법에 관한 것이다.The present invention is directed to an apparatus and method capable of recognizing text or markings on complex backgrounds.

본 발명에 따른 마킹 인식 방법은 제1 세트(set)를 이용하여 입력된 이미지의 픽셀 값을 연산하는 제1 이미지 연산 단계, 상기 제1 세트보다 작은 크기를 갖는 제2 세트(set) 및 입력된 이미지를 이용하여, 제2 이미지의 픽셀 값을 연산하는 제2 이미지 연산 단계 및 상기 제1 이미지의 픽셀 값에서 상기 제2 이미지의 픽셀 값을 빼서 제3 이미지의 픽셀 값을 연산하는 제3 이미지 연산 단계로 이루어진다.The marking recognition method according to the present invention includes a first image calculating step of calculating pixel values of an input image using a first set, a second set having a size smaller than the first set, and an input. A second image operation step of calculating a pixel value of the second image using the image and a third image operation of calculating a pixel value of the third image by subtracting the pixel value of the second image from the pixel value of the first image Consists of steps.

본 발명에 따른 마킹 인식 장치는 상기 마킹 인식 방법에 따라 마킹을 인식할 수 있는 마킹 인식부 및 상기 마킹 인식부가 마킹을 인식할지 여부를 제어할 수 있는 제어부로 이루어진다.The marking recognition apparatus according to the present invention includes a marking recognition unit capable of recognizing a marking and a controller capable of controlling whether the marking recognition unit recognizes a marking according to the marking recognition method.

본 발명은 문자 또는 마킹(marking)을 정확하게 인식할 수 있기 때문에, 문자 또는 마킹의 인식이 필요한 다양한 분야에서의 활용이 가능하다. Since the present invention can accurately recognize characters or markings, the present invention can be utilized in various fields requiring recognition of characters or markings.

마킹 인식, 임계치, 인식 장치, 추출 Marking recognition, threshold, recognition device, extraction

Description

마킹 인식 방법 및 이를 이용한 장치{MARKING RECOGNITION METHOD AND APPARATUS USING THE SAME}MARKING RECOGNITION METHOD AND APPARATUS USING THE SAME}

본 발명은 복잡한 배경에서 마킹(Marking)을 정확하게 인식할 수 있는 장치 및 그 방법에 관한 것이다.The present invention relates to an apparatus and a method for accurately recognizing marking in a complex background.

최근에 여러 가지 배경에서 특정 문자 또는 마킹을 인식하는 기술이 발전해 오고 있다. 상기 여러 가지 배경은 정지 영상, 동영상, 칩(chip) 또는 복잡한 회로 등이 될 수 있다. 특히, 인식 장치가 상기 칩 또는 복잡한 회로 위에 표시된 문자 또는 마킹을 인식하여, 칩 또는 회로의 종류 및 제품 특성이나 제조 업체 등의 정보를 알 수 있게 된다.Recently, techniques for recognizing specific characters or markings in various backgrounds have been developed. The various backgrounds may be still images, moving pictures, chips, or complex circuits. In particular, the recognition device recognizes the characters or markings displayed on the chip or the complex circuit, so as to know the type of the chip or the circuit and the product characteristics or the manufacturer.

또한, 생산자는 상기 정보들을 이용하여 생산되는 칩 또는 회로에 인쇄된 마킹의 불량, 불량품 선별, 다른 종류의 제품 선별 등과 같은 품질 관리를 할 수 있다. 따라서, 상기 문자 또는 마킹을 더욱 정확하게 인식하기 위한 기술들이 개발되고 있다.In addition, the producer can use the above information to perform quality control, such as a defect of marking printed on a chip or a circuit produced, selection of defective products, selection of other kinds of products, and the like. Accordingly, techniques for more accurately recognizing the character or marking have been developed.

본 발명은 복잡한 배경에서도 문자 또는 마킹을 정확하게 추출할 수 있는 마킹 인식 방법 및 이를 이용한 장치를 제공하기 위한 것이다.The present invention is to provide a marking recognition method and apparatus using the same that can accurately extract a character or marking even in a complex background.

상기한 과제를 실현하기 위한 본 발명의 일 측면과 관련된 마킹 인식 방법은, 입력된 이미지에 존재하는 마킹(marking)의 폭과 동일한 크기의 폭을 갖는 n*n 블록인 제1 세트(set) 및 입력된 이미지를 이용하여, 제1 이미지의 픽셀 값을 연산하는 제1 이미지 연산 단계, 상기 제1 세트보다 작은 크기를 갖는 제2 세트(set) 및 입력된 이미지를 이용하여, 제2 이미지의 픽셀 값을 연산하는 제2 이미지 연산 단계 및 상기 제1 이미지의 픽셀 값에서 상기 제2 이미지의 픽셀 값을 빼서 제3 이미지의 픽셀 값을 연산하는 제3 이미지 연산 단계를 포함한다.According to an aspect of the present invention, there is provided a marking recognition method, comprising: a first set of n * n blocks having a width equal to a width of marking present in an input image; A first image operation step of calculating pixel values of the first image using the input image, a second set having a size smaller than the first set, and a pixel of the second image using the input image A second image calculating step of calculating a value and a third image calculating step of calculating a pixel value of a third image by subtracting the pixel value of the second image from the pixel value of the first image.

또한, 상기 제3 이미지 값을 임계치(threshold value) 변환을 이용하여 변환하는 변환 단계 및 상기 변환된 값을 팽창(dilation)시키는 단계를 더 포함하는 것을 특징으로 한다.The method may further include converting the third image value by using a threshold value transformation and dividing the converted value.

또한, 인식하려는 마킹(marking)과 관계없는 노이즈를 제거하기 위한 필터를 더 포함하는 것을 특징으로 한다.The apparatus may further include a filter for removing noise that is not related to the marking to be recognized.

위와 같이, 본 발명에 따른 마킹 인식 방법을 이용하면 복잡한 배경에 존재하는 마킹도 쉽게 추출할 수 있다.As described above, by using the marking recognition method according to the present invention, markings existing in a complex background can be easily extracted.

본 발명의 일 측면과 관련된 마킹 인식 장치는, 입력된 이미지를 인식하려는 마킹(marking)의 폭과 동일한 크기의 폭을 갖는 n*n 블록인 제1 세트(set)를 이용하여 제1 이미지의 픽셀 값을 연산하고, 입력된 이미지를 상기 제1 세트보다 작은 크기를 갖는 제2 세트(set)를 이용하여 제2 이미지의 픽셀 값을 연산하고, 상기 제1 이미지의 픽셀 값에서 상기 제2 이미지의 픽셀 값을 빼서 제3 이미지의 픽셀 값을 연산하여 마킹(Marking)을 인식하기 위한 마킹 인식부 및 상기 마킹 인식부가 마킹을 인식할지 여부를 제어할 수 있는 제어부를 포함한다.According to an aspect of the present invention, a marking recognition apparatus includes a pixel of a first image using a first set, which is an n * n block having a width equal to a width of a marking to recognize an input image. Calculate a value of the second image using a second set having a size smaller than the first set of input images, and calculate a pixel value of the second image from the pixel value of the first image. And a marking recognizing unit for recognizing a marking by calculating a pixel value of the third image by subtracting the pixel value, and a control unit for controlling whether the marking recognizing unit recognizes the marking.

또한, 상기 제어부는, 연산된 상기 제3 이미지의 픽셀 값을 임계치 변환을 이용하여 변환하고, 변환된 상기 제 3의 이미지의 픽셀 값을 팽창(dilation)시키는 것을 특징으로 한다.The control unit may convert the calculated pixel value of the third image by using a threshold transform, and expand the pixel value of the converted third image.

위와 같이, 본 발명에 따른 마킹 인식 장치를 이용하면 복잡한 배경에 존재하는 마킹도 쉽게 추출할 수 있다.As described above, by using the marking recognition apparatus according to the present invention, markings existing in a complicated background can be easily extracted.

상기와 같이 구성되는 본 발명에 관련된 문자 인식 방법 및 장치는, 복잡한 배경에서도 문자 또는 마킹(marking)을 정확하게 추출할 수 있는 이점이 있다.Character recognition method and apparatus according to the present invention configured as described above has the advantage that can accurately extract the character or marking (marking) even in a complex background.

또한, 문자의 형태에 상관없이 문자 또는 마킹을 정확하게 추출할 수 있는 이점이 있다.In addition, there is an advantage that can accurately extract the character or marking regardless of the form of the character.

또한, 불균일한 조명이 있는 경우에도 문자 또는 마킹을 정확하게 추출할 수 있는 이점이 있다.In addition, there is an advantage that can accurately extract the character or marking even when there is uneven illumination.

또한, 노이즈가 있는 환경에서도 문자 또는 마킹을 정확하게 추출할 수 있는 이점이 있다.In addition, there is an advantage that can accurately extract the character or marking even in the noisy environment.

도 1은 본 발명의 일 실시예와 관련된 마킹(marking) 인식 방법에 관한 흐름도이다. 1 is a flowchart illustrating a marking recognition method according to an embodiment of the present invention.

도 1을 참조하면, 본 발명에 따른 마킹 인식 방법은, 이미지를 입력하는 단계(S100), 입력된 이미지를 인식하려는 마킹(marking)의 폭과 동일한 크기를 갖는 n*n 블록인 제1 세트(set)를 이용하여 제1 값을 연산하는 단계(S110), 입력된 이미지를 상기 제1 세트보다 작은 크기를 갖는 제2 세트(set)를 이용하여 제2 값을 연산하는 단계(S120), 상기 제1 값에서 상기 제2 값을 빼서 제3 값을 연산하는 단계(S130), 상기 제3 값을 임계치(threshold value) 변환을 이용하여 변환하는 단계(S140), 인식하려는 마킹(marking)과 관계없는 노이즈를 제거하는 단계(S150);및 상기 노이즈가 제거된 값을 팽창(dilation)시키는 단계(S160)를 포함한다. 도 1에 도시된 흐름도의 모든 단계가 본 발명의 필수적인 구성요소가 되는 것은 아니다. 따라서, 상기 단계들보다 많은 단계를 갖거나 그보다 적은 단계를 가질 수 있다. 또한, 상기 흐름도의 순서에 한정되는 것도 아니다. Referring to FIG. 1, the method of recognizing a marking according to the present invention includes inputting an image (S100), and a first set of n * n blocks having a size equal to a width of marking to recognize the input image. calculating a first value using a set) (S110), calculating a second value using a second set having a size smaller than the first set of the input image (S120), and Calculating a third value by subtracting the second value from a first value (S130); converting the third value using a threshold value transformation (S140); marking and relation to be recognized Removing noise (S150); and dividing the noise-removed value (S160). Not all steps of the flowchart shown in FIG. 1 are essential components of the present invention. Thus, there may be more or less steps than the above steps. In addition, it is not limited to the order of the said flowchart.

수학적 형태학(mathematical Morphology)은 영상내의 형태(shape)들을 분석하고 처리하는 유용한 영상 처리 기법이다. 상기 수학적 형태학의 기본적인 연산 방법으로는 팽창(Dilation), 축소(Erosion), 제거(Opening), 채움(Closing), 골격화(Skeleton) 기법 등이 있는데, 상술한 기법 중에서 상기 팽창(Dilation) 기법은 물체, 문자 또는 마킹 등의 크기는 확장하고 배경은 축소하는 기법이다. 상기 축소(Erosion) 기법은 물체, 문자 또는 마킹 등의 크기는 축소하고 배경은 확장하는 기법이다.Mathematical Morphology is a useful image processing technique for analyzing and processing shapes in an image. Basic calculation methods of the mathematical morphology include dilation, reduction, opening, closing, skeleton technique, and the like. It is a technique of expanding the size of an object, text, or marking and reducing the background. The reduction technique is a technique of reducing the size of an object, a text, or a marking, and expanding a background.

본 발명에 따른 마킹 인식 방법에 따르면, 인식하고자 하는 마킹이 포함된 이미지를 외부에서 입력받는다(S100). 외부로부터 입력된 상기 이미지를 인식하려는 마킹(marking)의 폭과 동일한 크기를 갖는 n*n 블록인 제1 세트(set)를 이용하여 연산함으로써 제1 이미지의 픽셀 값을 연산한다(S110). 외부로부터 입력된 상기 이미지를 상기 제1 세트보다 작은 크기를 갖는 제2 세트(set)를 이용하여 연산함으로써 제2 이미지의 픽셀 값을 연산한다(S120). 상기 제1 이미지의 값에서 상기 제2 이미지의 값을 빼서 제3 이미지의 픽셀 값을 연산한다(S130). 상기 제3 이미지의 픽셀 값을 연산하는 단계는 상기 제2 이미지의 값에서 상기 제1 이미지의 값을 빼는 것도 가능하다. 상기 제2 이미지 및 제3 이미지의 픽셀 값을 연산하는 방법은 이하의 도 2 내지 5를 참조하며, 자세하게 후술하겠다. According to the marking recognition method according to the present invention, an image including a marking to be recognized is received from the outside (S100). The pixel value of the first image is calculated by using a first set, which is an n * n block having a size equal to a width of marking to recognize the image input from the outside (S110). The pixel value of the second image is calculated by calculating the image input from the outside using a second set having a smaller size than the first set (S120). The pixel value of the third image is calculated by subtracting the value of the second image from the value of the first image (S130). The calculating of the pixel value of the third image may be performed by subtracting the value of the first image from the value of the second image. A method of calculating pixel values of the second image and the third image will be described below with reference to FIGS. 2 to 5.

상기 제3 이미지의 픽셀 값을 임계치(threshold value) 변환을 이용하여 변환한다(S140). 예를 들면, 상기 임계치 변환은 특정한 임계치 T보다 작은 값은 0으로 변환하고, 임계치 T보다 큰 값은 255로 변환한다. 상기 수치는 명암도를 나타내는 값들이다. 본 발명의 실시예에서는 0은 밝은 하얀색을 255는 가장 어두운 검정색을 의미한다. 상기 숫자의 의미는 반대로 설정하는 것도 가능하다.상기 임계치 변환은 가변 임계값 방법(Variable threshold method), 반복 임계값 방법(Iterative threshold method), 이중 임계값 방법(Double threshold method)등이 사용될 수 있다.The pixel value of the third image is converted using a threshold value conversion (S140). For example, the threshold transform converts a value less than a specific threshold T to 0 and a value greater than the threshold T to 255. The numerical values indicate values of contrast. In the embodiment of the present invention, 0 means light white and 255 means darkest black. The meaning of the number may be set in reverse. The threshold conversion may include a variable threshold method, an iterative threshold method, a double threshold method, or the like. .

변환된 제3 이미지의 픽셀 값 중에서 인식하려는 마킹(marking)과 관계없는 노이즈 부분을 제거(또는 필터링)한다(S150). 상기 노이즈란 상기 마킹 이외에 부분에 존재하는 조그마한 점들을 의미한다. 상기 S150과정은 이하 도 2a 및 도 2 b에서 상세히 서술하겠다. Among the pixel values of the converted third image, a noise part not related to a marking to be recognized is removed (or filtered) (S150). The noise means small points existing in portions other than the marking. The process S150 will be described in detail later with reference to FIGS. 2A and 2B.

노이즈가 제거된 상기 제3 이미지의 픽셀 값을 팽창(dilation)시킨다(S160). The pixel value of the third image from which the noise is removed is expanded (S160).

위와 같이, 본 발명에 따른 마킹 인식 방법에 따르면, 복잡한 배경에서도 문자 또는 마킹 등을 정확하게 인식할 수 있게 된다.As described above, according to the marking recognition method according to the present invention, it is possible to accurately recognize a character or marking even in a complicated background.

도 2 내지 5는 도 1의 본 발명의 일 실시예와 관련된 마킹(marking) 인식 방법 중에 이미지들의 픽셀 값을 연산하는 구체적인 방법에 관한 도면이다. 2 to 5 are diagrams illustrating a specific method of calculating pixel values of images in a marking recognition method according to an embodiment of the present invention.

도 2는 도 1의 필터링(S100) 과정에서 입력되는 이미지(200)의 픽셀 값을 표 시한 도면이다.FIG. 2 is a diagram illustrating pixel values of an image 200 input in the filtering process S100 of FIG. 1.

도 1 및 도 2를 참조하면, 입력되는 상기 이미지(200)의 각 블록(block)은 픽셀을 의미하는 것이고, 각 블록 안에 존재하는 숫자들은 그레이 스케일(gray scale)을 의미한다. 이하에서, 상기 숫자들은 픽셀 값이라고 명칭한다. 일반적으로, 그레이 스케일은 영상의 명암도를 표현하기 위해서 8비트를 사용하는데, 이 경우 0부터 255까지 256 단계의 숫자로 명암도를 표현한다. 일반적으로, 0은 밝은 하얀색을 255는 가장 어두운 검정색을 의미한다. 상기 숫자의 의미는 반대로 설정하는 것도 가능하다. 입력되는 상기 이미지(200)의 숫자 및 블록의 크기(n*m)는 임의대로 작성한 것이고, 실질적인 이미지의 숫자 및 블록의 크기(n*m)는 상황에 따라 다양하게 변화될 수 있다.1 and 2, each block of the input image 200 represents a pixel, and numbers in each block represent gray scales. In the following, the numbers are referred to as pixel values. In general, gray scale uses 8 bits to express the intensity of an image. In this case, the intensity of the gray scale is expressed in 256 steps from 0 to 255. In general, 0 means light white and 255 means darkest black. It is also possible to set the meaning of the numbers in reverse. The number of the input image 200 and the size of the block (n * m) is made arbitrarily, the actual number of the image and the size of the block (n * m) can be changed in various ways depending on the situation.

도 3a 및 도 3b는 도 1의 제1 이미지 값 연산(S110) 과정을 구체화한 도면이다. 3A and 3B illustrate the process of calculating the first image value S110 of FIG. 1.

도 1, 도 2 및 도 3a를 참조하면, 제 1 세트(set)(310)는 인식하고자 하는 문자 또는 마킹의 폭(W)만큼의 크기를 갖는다. 본 실시예에서는 5*5 블록 크기를 가지며, 상기 제1 세트의 각 모서리 및 상기 각각의 모서리들의 중간에 존재하는 u1 내지 u8 및 원점(o)이 존재한다. 상기 u1 내지 u8 및 상기 원점(o)은 상기 제1 세트(310)가 상기 이미지(200)에 매칭된 경우, 상기 이미지(200)에 해당하는 그레이 스케일의 숫자를 의미한다. 상기 매칭이란 상기 제 1 세트(310)의 블록의 원점(o)을 상기 이미지(200)의 모든 블록에 일치시키는 과정을 의미한다. 상기 이미 지(200)에 매칭된 후에, 제1 세트(310)를 이용하여 제1 이미지의 픽셀 값을 얻어내는 방법에 있어서, 상기 u1 내지 u8에 해당하는 픽셀 값 중에 u1, u2, u3, u4에 해당하는 픽셀 값만을 이용하여 계산할 수도 있고, u1 내지 u8의 모든 픽셀 값을 이용하여 계산할 수도 있다. 또한, 상기 계산하는 방법도 해당하는 픽셀 값 중에 최대값, 최소값 또는 평균값을 계산하는 방법이 있다. 상기 최대값을 계산하는 방법은 해당하는 픽셀 값 중에 가장 큰 픽셀 값부터 1개 내지 4개를 제거한 후에, 남은 픽셀 값 중에 최대값을 계산할 수 있다. 상기 최소값을 계산하는 방법은 해당하는 픽셀 값 중에 가장 작은 픽셀 값부터 1개 내지 4개를 제거한 후에, 남은 픽셀 값 중에 최소값을 계산할 수도 있다.1, 2 and 3A, the first set 310 has a size corresponding to the width W of a character or marking to be recognized. In this embodiment, there are 5 * 5 block sizes and there are u1 to u8 and origin o present in each corner of the first set and in the middle of the respective corners. The u1 to u8 and the origin o mean numbers of gray scales corresponding to the image 200 when the first set 310 is matched to the image 200. The matching means a process of matching the origin o of the blocks of the first set 310 to all the blocks of the image 200. In the method of obtaining the pixel value of the first image using the first set 310 after matching the image 200, u1, u2, u3, u4 of the pixel values corresponding to the u1 to u8 It may be calculated using only pixel values corresponding to and may be calculated using all pixel values of u1 to u8. In addition, there is a method for calculating the maximum value, the minimum value or the average value among the corresponding pixel value. In the method of calculating the maximum value, after removing one to four of the largest pixel values among the corresponding pixel values, the maximum value of the remaining pixel values may be calculated. In the method of calculating the minimum value, one to four of the smallest pixel values among the corresponding pixel values may be removed, and then the minimum value of the remaining pixel values may be calculated.

이하에서는 구체적인 실시예를 들어 설명하겠다. 또한, 이하의 실시예에서는 제1 세트(310)의 u1 내지 u8에 해당하는 픽셀 값을 이용하고, 상기 픽셀 값들의 평균값을 계산하여, 상기 제1 세트(310)의 원점(o)과 매칭된 상기 이미지(200)에 해당하는 픽셀 값을 계산한 평균값으로 변경하는 연산 방법을 기준으로 설명하겠다. Hereinafter, a specific embodiment will be described. In addition, in the following embodiment, the pixel values corresponding to u1 to u8 of the first set 310 are used, and an average value of the pixel values is calculated to match the origin o of the first set 310. Based on the calculation method for changing the pixel value corresponding to the image 200 to the calculated average value.

예를 들면, 상기 제 1 세트(310)의 원점(o)이 도 2에서 색깔로 칠한 부분(픽셀 값 201에 해당)에 일치되도록 매칭(320)시킨다. 매칭(320)된 경우, u1 내지 u8에 해당하는 위치에 상기 이미지(200)의 픽셀 값을 얻는다(u1 = 123, u5 = 138, u2 = 165, u8 = 138, u6 = 140, u3 = 168, u7 = 98, u4 = 138). 얻어진 상기 픽셀 값들의 평균값을 구한다. 즉, 평균값은 (123 + 138 + 165 + 138 + 140 + 168 + 98 + 138)/8 = 138.5이다. 상기 결과에서 소수점 이하의 수치는 버리므로, 상기 평균값은 138로 계산된다. 만약, 최대값을 계산하는 방법을 이용하였다면, 최대값 168 이 될 것이다. 만약, 큰 픽셀 값부터 순서대로 2개의 픽셀 값을 제외한 나머지 중에 최대값을 계산하는 방법을 이용하였다면, 최대값은 140이 될 것이다. 만약, 최소값을 계산하는 방법을 이용하였다면, 최소값은 98이 될 것이다. 만약, 작은 픽셀 값부터 순서대로 2개의 픽셀 값을 제외한 나머지 중에 최소값을 계산하는 방법을 이용하였다면, 최소값은 138이 될 것이다. 상기 제1 세트(310)의 원점(o)과 매칭된 상기 이미지(200)에 해당하는 픽셀 값(해당하는 픽셀 값은 201)을 계산한 평균값으로 변경(330)한다. 만약, 최대값 또는 최소값을 구하였다면, 상기 이미지에 해당하는 픽셀 값(해당하는 픽셀 값은 201)을 상기에서 구한 최대값 또는 최소값으로 변경한다. For example, a matching 320 is performed such that the origin o of the first set 310 matches the colored portion (corresponding to the pixel value 201) of FIG. 2. In the case of matching 320, pixel values of the image 200 are obtained at positions corresponding to u1 to u8 (u1 = 123, u5 = 138, u2 = 165, u8 = 138, u6 = 140, u3 = 168, u7 = 98, u4 = 138). The average value of the obtained pixel values is obtained. That is, the average value is (123 + 138 + 165 + 138 + 140 + 168 + 98 + 138) / 8 = 138.5. Since the numerical value after the decimal point is discarded in the result, the average value is calculated as 138. If the method of calculating the maximum value was used, the maximum value would be 168. If the method of calculating the maximum value except the two pixel values in order from the large pixel value is used, the maximum value will be 140. If the method of calculating the minimum value was used, the minimum value would be 98. If the method of calculating the minimum value except the two pixel values in order from the small pixel value is used, the minimum value will be 138. The pixel value (corresponding pixel value 201) corresponding to the image 200 matched with the origin o of the first set 310 is changed to an average value 330. If the maximum or minimum value is obtained, the pixel value corresponding to the image (the corresponding pixel value is 201) is changed to the maximum or minimum value obtained above.

상기 제1 세트(310)의 위치에서 오른쪽으로 한 픽셀 옮기고 난 후에, 상기 이미지(200)와 매칭(330)시킨다. 상기의 계산 과정과 동일한 과정에 의해서 평균값을 계산하면, 평균값은 146이 된다. 상기 평균값을 상기 제1 세트(310)의 원점(o)과 매칭된 상기 이미지(200)에 해당하는 픽셀 값(해당하는 픽셀 값은 138)을 계산한 평균값으로 변경(330)한다. 또한, 제1 세트(310)의 원점을 색깔로 칠한 부분의 아래쪽으로 한 픽셀 옮기고 난 후에, 상기 이미지(200)와 매칭(360)시킨다. 상기의 계산 과정과 동일한 과정에 의해서 평균값을 계산하면, 평균값은 134가 된다. 상기 평균값을 상기 제1 세트(310)의 원점(o)과 매칭된 상기 이미지(200)에 해당하는 픽셀 값(해당하는 픽셀 값은 112)을 계산한 평균값으로 변경(370)한다. After moving one pixel to the right from the position of the first set 310, it matches 330 with the image 200. If the average value is calculated by the same process as the above calculation process, the average value is 146. The average value is changed to an average value obtained by calculating a pixel value (the corresponding pixel value is 138) corresponding to the image 200 matched with the origin o of the first set 310 (330). Further, after moving the origin of the first set 310 one pixel below the colored portion, it matches 360 with the image 200. When the average value is calculated by the same process as the above calculation process, the average value is 134. The average value is changed to an average value obtained by calculating a pixel value (the corresponding pixel value is 112) corresponding to the image 200 matched with the origin o of the first set 310 (370).

이하에서는, 제 1 세트(310)의 모든 블록이 상기 이미지(200)의 블록에 모두 포함되지 않는 경우에 대해서 기술하겠다. 상기 제 1 세트(310)의 원점(o)이 이미지(200)의 (0, 0)지점에 존재하는 픽셀(픽셀 값은 123)에 매칭(380)된 경우, 상기 제1 세트(310)와 이미지(200)와 일치되는 부분만 매칭된다. 매칭된 상기 이미지(200)에 해당하는 픽셀 값(u6 = 138, u3 = 201, u7 = 138)을 이용하여 평균값을 계산하면, 상기 평균값은 159가 될 것이다. 상기 평균값을 상기 제1 세트(310)의 원점(o)과 매칭된 상기 이미지(200)에 해당하는 픽셀 값(해당하는 픽셀 값은 123)을 계산한 평균값으로 변경(385)한다. Hereinafter, a case in which all blocks of the first set 310 are not included in all of the blocks of the image 200 will be described. When the origin (o) of the first set (310) is matched (380) to a pixel (pixel value is 123) existing at the point (0, 0) of the image 200, the first set (310) and Only parts that match the image 200 are matched. If the average value is calculated using the pixel values (u6 = 138, u3 = 201, u7 = 138) corresponding to the matched image 200, the average value will be 159. The average value is changed (385) to an average value obtained by calculating a pixel value corresponding to the image 200 matched with the origin o of the first set 310 (the corresponding pixel value is 123).

위와 같이, 상기 제1 세트(310)를 이동시켜면서, 매칭시킬 수 있는 모든 위치에서 상기와 같은 계산을 반복 수행한다. 상기 계산 과정에서는 u1 내지 u8을 이용하고 u1 내지 u8에 해당하는 픽셀 값을 평균값을 이용하여 계산하는 실시예를 기술하였지만, u1 내지 u4를 이용하고 최대값 또는 최소값을 계산하는 방법을 이용할 수 있는 것은 당연한 것이다.As above, while moving the first set 310, the above calculation is repeated at all positions that can be matched. In the above calculation process, an embodiment in which u1 to u8 are used and pixel values corresponding to u1 to u8 are calculated using an average value is described. However, a method of using u1 to u4 and calculating a maximum or minimum value can be used. It is natural.

도 3b는 제1 세트를 이용하여 제1 이미지의 픽셀 값을 모두 얻어낸 후를 도시한 도면이다.FIG. 3B is a diagram illustrating after obtaining all pixel values of the first image using the first set.

도 3b를 참조하면, 상기 제1 세트가 매칭될 수 있는 모든 부분에 픽셀 값이 변경되어 입력된 상기 이미지(200)에서 제1 이미지(390)로 변경되게 된다. Referring to FIG. 3B, a pixel value is changed in all portions where the first set may be matched to change from the input image 200 to the first image 390.

도 4a 및 도 4b는 도 1의 제2 이미지 값 연산(S120) 과정을 구체화한 도면이다. 4A and 4B illustrate the process of calculating the second image value S120 of FIG. 1.

도 1, 도 2 및 도 4a를 참조하면, 제 2 세트(set)(400)는 인식하고자 하는 문자 또는 마킹의 폭(W/2)만큼의 크기를 갖는다. 본 실시예에서는 상기 제1 세 트(310)가 5*5이므로 상기 제2 세트(400)는 3*3 블록 크기를 가지며, 상기 제2 세트(400)의 각 모서리에 v1 내지 v4 및 원점(o)이 존재한다. 상기 v1 내지 v4 및 상기 원점(o)은 상기 제1 세트(310)가 상기 이미지(200)에 매칭된 경우, 상기 이미지(200)에 해당하는 그레이 스케일의 숫자를 의미한다. 상기 이미지(200)에 매칭시킨 후에, 제2 세트(400)를 이용하여 제2 이미지의 픽셀 값을 얻어내는 방법에 있어서, 상기 v1 내지 v4 또는 원점(o)에 해당하는 픽셀 값 중에 v1, v2, v3, v4에 해당하는 픽셀 값만을 이용하여 계산할 수도 있고, v1 내지 v4 및 원점(o)에 해당하는 픽셀 값만을 이용하여 계산할 수도 있고, 원점(o)에 해당하는 픽셀 값만을 이용하여 계산할 수도 있다. 또한, 상기 계산하는 방법도 해당하는 픽셀 값 중에 최대값, 최소값 또는 평균값을 계산하는 방법이 있다. 상기 최대값을 계산하는 방법은 해당하는 픽셀 값 중에 가장 큰 픽셀 값부터 1개 내지 4개를 제거한 후에, 남은 픽셀 값 중에 최대값을 계산할 수 있다. 상기 최소값을 계산하는 방법은 해당하는 픽셀 값 중에 가장 작은 픽셀 값부터 1개 내지 4개를 제거한 후에, 남은 픽셀 값 중에 최소값을 계산할 수도 있다.1, 2 and 4A, the second set 400 has a size as wide as W / 2 of the character or marking to be recognized. In the present embodiment, since the first set 310 is 5 * 5, the second set 400 has a 3 * 3 block size, and each of the corners of the second set 400 includes v1 to v4 and origin ( o) exists. The v1 to v4 and the origin o mean the number of gray scales corresponding to the image 200 when the first set 310 is matched to the image 200. After matching the image 200, using the second set 400 to obtain a pixel value of the second image, v1, v2 of the pixel value corresponding to the v1 to v4 or the origin (o) , v3 and v4 may be calculated using only pixel values, or may be calculated using only pixel values corresponding to v1 to v4 and origin (o), or may be calculated using only pixel values corresponding to origin (o). have. In addition, there is a method for calculating the maximum value, the minimum value or the average value among the corresponding pixel value. In the method of calculating the maximum value, after removing one to four of the largest pixel values among the corresponding pixel values, the maximum value of the remaining pixel values may be calculated. In the method of calculating the minimum value, one to four of the smallest pixel values among the corresponding pixel values may be removed, and then the minimum value of the remaining pixel values may be calculated.

이하에서는 구체적인 실시예를 들어 설명하겠다. 또한, 이하의 실시예에서는 제2 세트(400)의 v1 내지 v4 및 원점(o)에 해당하는 픽셀 값을 이용하고, 상기 픽셀 값들의 최대값을 계산하여, 상기 제2 세트(400)의 원점(o)과 매칭된 상기 이미지(200)에 해당하는 픽셀 값을 계산한 최대값으로 변경하는 연산 방법을 기준으로 설명하겠다. 상기 제2 세트(400)의 원점(o)이 도 2에서 색깔로 칠한 부분(픽셀 값 201에 해당)에 일치되도록 매칭(410)시킨다. 매칭(410)된 경우, v1 내지 v4 및 원 점(o)에 해당하는 위치에 상기 이미지(200)의 픽셀 값을 얻는다(v1 = 138, v2 = 120, v3 = 138, v4 = 176, o = 201). 얻어진 상기 픽셀 값들의 최대값을 구하면, 최대값은 201이 될 것이다. 상기 제2 세트(400)의 원점(o)과 매칭된 상기 이미지(200)에 해당하는 픽셀 값(해당하는 픽셀 값은 201)을 계산한 최대값으로 변경(420)한다. Hereinafter, a specific embodiment will be described. In addition, in the following embodiment, the pixel values corresponding to v1 to v4 and the origin o of the second set 400 are calculated, and the maximum value of the pixel values is calculated to calculate the origin of the second set 400. Based on the calculation method of changing the pixel value corresponding to the image 200 matched with (o) to the calculated maximum value. The origin o of the second set 400 is matched 410 such that it matches the colored portion (corresponding to the pixel value 201) in FIG. 2. When matched 410, the pixel values of the image 200 are obtained at positions corresponding to v1 to v4 and origin o (v1 = 138, v2 = 120, v3 = 138, v4 = 176, o = 201). If the maximum value of the obtained pixel values is obtained, the maximum value will be 201. The pixel value corresponding to the image 200 matched with the origin o of the second set 400 (the corresponding pixel value is 201) is changed to the maximum value calculated (420).

상기 제2 세트(400)의 위치에서 오른쪽으로 한 픽셀 옮기고 난 후에, 상기 이미지(200)와 매칭(430)을 시킨다. 상기의 계산 과정과 동일한 과정에 의해서 최대값을 계산하면, 최대값은 135가 된다. 상기 최대값을 상기 제2 세트(400)의 원점(o)과 매칭된 상기 이미지(200)에 해당하는 픽셀 값(해당하는 픽셀 값은 120)을 계산한 평균값으로 변경(330)한다. 또한, 제2 세트(400)의 원점을 색깔로 칠한 부분의 아래쪽으로 한 픽셀 옮기고 난 후에, 상기 이미지(200)와 매칭(450)시킨다. 상기의 계산 과정과 동일한 과정에 의해서 최대값을 계산하면, 최대값은 120이 된다. 상기 최대값을 상기 제2 세트(400)의 원점(o)과 매칭된 상기 이미지(200)에 해당하는 픽셀 값(해당하는 픽셀 값은 112)을 계산한 최대값으로 변경(460)한다. After moving one pixel to the right from the position of the second set 400, a match 430 is made with the image 200. If the maximum value is calculated by the same procedure as the above calculation process, the maximum value is 135. The maximum value is changed to an average value calculated by calculating a pixel value corresponding to the image 200 matched with the origin o of the second set 400 (the corresponding pixel value is 120) (330). In addition, after moving the origin of the second set 400 one pixel below the colored portion, the second set 400 is matched 450 with the image 200. If the maximum value is calculated by the same process as the above calculation process, the maximum value is 120. The maximum value is changed to a maximum value calculated by calculating a pixel value corresponding to the image 200 matched with the origin o of the second set 400 (the corresponding pixel value is 112) (460).

이하에서는, 제2 세트(400)의 모든 블록이 상기 이미지(200)의 블록에 모두 포함되지 않는 경우에 대해서 기술하겠다. 상기 제 1 세트(310)의 원점(o)이 이미지(200)의 (0,0)지점에 존재하는 픽셀(픽셀 값은 123)에 매칭(470)된 경우, 상기 제2 세트(400)와 이미지(200)와 일치되는 부분만 매칭된다. 매칭된 상기 이미지(200)에 해당하는 픽셀 값(v3 = 135, o = 123)을 이용하여 최대값을 계산하면, 상기 최대값은 138이 될 것이다. 상기 최대값을 상기 제2 세트(400)의 원점(o)과 매칭된 상기 이미지(200)에 해당하는 픽셀 값(해당하는 픽셀 값은 123)을 계산한 최대값으로 변경(385)한다. Hereinafter, a case in which all blocks of the second set 400 are not all included in the blocks of the image 200 will be described. When the origin o of the first set 310 is matched 470 to a pixel (pixel value is 123) present at the point (0,0) of the image 200, the second set 400 Only parts that match the image 200 are matched. If the maximum value is calculated using the pixel values (v3 = 135, o = 123) corresponding to the matched image 200, the maximum value will be 138. The maximum value is changed to a maximum value calculated by calculating a pixel value (the corresponding pixel value is 123) corresponding to the image 200 matched with the origin o of the second set 400 (385).

위와 같이, 상기 제2 세트(400)를 이동시켜면서, 매칭시킬 수 있는 모든 위치에서 상기와 같은 계산을 반복 수행한다. 상기 계산 과정에서는 v1 내지 v4 및 원점(o)에 해당하는 픽셀 값을 이용하여 최대값을 계산하는 실시예를 기술하였지만, u1 내지 u4만을 이용하거나 원전(o)만을 이용하고 평균값 또는 최소값을 계산하는 방법을 이용할 수 있는 것은 당연한 것이다.As above, while moving the second set 400, the above calculation is repeated at all positions that can be matched. In the above calculation process, an embodiment in which the maximum value is calculated using pixel values corresponding to v1 to v4 and the origin (o) is described. However, only the u1 to u4 or the nuclear power source (o) are used to calculate the average value or the minimum value. It is natural to be able to use the method.

도 4b는 제2 세트를 이용하여 제2 이미지의 픽셀 값을 모두 얻어낸 후를 도시한 도면이다.FIG. 4B is a diagram showing after obtaining all pixel values of the second image using the second set.

도 4b를 참조하면, 상기 제2 세트가 매칭될 수 있는 모든 부분에 픽셀 값이 변경되어 입력된 상기 이미지(200)에서 제2 이미지(490)로 변경되게 된다. Referring to FIG. 4B, a pixel value is changed in all portions where the second set may be matched, thereby changing from the input image 200 to the second image 490.

도 5은 도 1의 제3 이미지 값 연산(S130) 과정을 구체화한 도면이다. FIG. 5 is a diagram illustrating a process of calculating a third image value S130 of FIG. 1.

도 5를 참조하면, 도 4b 및 도 5b에서 얻어진 제1 이미지(390) 및 제2 이미지(490)를 이용하여 제3 이미지(500)를 얻은 픽셀 값들을 도시한 도면이다.Referring to FIG. 5, the pixel values of the third image 500 are obtained by using the first image 390 and the second image 490 obtained in FIGS. 4B and 5B.

상기 제3 이미지(500)의 픽셀 값들은 제1 이미지(390)의 픽셀 값들에서 제2 이미지(490)의 픽셀 값들을 빼서 얻어진다. 예를 들면, 상기 제1 이미지(390)의 3번째 행에 3번째 열에 존재하는(3,3) 픽셀 값(픽셀 값은 138)에서 상기 제2 이미지(490)의 3번째 행에 3번째 열에 존재하는(3,3) 픽셀 값(픽셀 값은 201)을 뺀다. 상기 결과값은 -63에 해당하나, 결과값이 음수인 경우에는 0으로 변경한다. 따라 서, 계산 결과값은 0이 되고, 제3 이미지에 3번째 행에 3번째 열에 존재하는(3,3) 픽셀 값은 0이 된다. 상기와 같은 방법으로 계산을 수행하면, 제3 이미지의 4번째 행에 3번째 열에 존재하는(4,3) 픽셀 값은 11이 될 것이다. 이와 같은 계산 방법을 이용하여 반복적으로 실행하면 제3 이미지의 픽셀 값들(500)을 얻을 수 있다. The pixel values of the third image 500 are obtained by subtracting pixel values of the second image 490 from the pixel values of the first image 390. For example, a (3,3) pixel value (pixel value 138) present in the third column of the third row of the first image 390 in the third column of the third image of the second image 490 Subtract the existing (3,3) pixel value (the pixel value is 201). The result value corresponds to -63, but is changed to 0 when the result value is negative. Thus, the result of the calculation is zero, and the pixel values (3,3) present in the third column of the third row of the third image are zero. If the calculation is performed in the same manner as above, the (4,3) pixel value present in the third column of the fourth row of the third image will be 11. By repeatedly executing the calculation method, the pixel values 500 of the third image may be obtained.

도 6a 및 도 6b는 도 1의 필터링(S150) 과정을 구체화한 도면이다.6A and 6B illustrate the process of filtering S150 of FIG. 1.

도 6a 및 도 6b를 참조하면, 상기 필터링(S150) 과정에서는 노이즈를 제거하기 위해서 필터(filter)를 사용한다. 상기 필터의 일 실시예에 따르면, 시브(sieve) 필터의 일종인 프레임(frame) 필터를 사용할 수 있다. 상기 시브(sieve) 필터는 작은 노이즈들은 제거하고 문자 또는 마킹 형태의 긴 패턴은 그대로 유지시켜주는 필터이다. 본 실시예에 따르면, 상기 프레임 필터는 상기 S140 과정에서 변환된 상기 제3 이미지를 반전(Invert)(100)시키고, 반전된 상기 제3 이미지를 3*3 마스크(mask)(110), 5*5 마스크(mask)(120), 7*7 마스크(mask)(130) 등을 이용하여 침식(erosion)시킨다. 상기 프레임 필터는 상기 S140 과정에서 변환된 상기 제3 이미지의 픽셀 값에서 침식된 상기 제 3 이미지의 픽셀 값을 뺌으로써 필터링된 제3 이미지를 얻을 수 있다. 상기 프레임 필터는 노이즈의 크기가 일정한 것이 아니라 다양하므로, 적당한 크기의 마스크를 사용하여 반복적으로 필터링을 수행함으로써 노이즈를 완전히 제거할 수 있다. 노이즈를 제거하는 과정에서 사용되는 필터는 상기 프레임 필터 이외에도 링 필터와 같이 다양한 필터를 사용할 수 있다. 6A and 6B, in the filtering process S150, a filter is used to remove noise. According to one embodiment of the filter, a frame filter which is a type of sieve filter may be used. The sieve filter is a filter that removes small noises and maintains a long pattern of letters or markings. According to the present embodiment, the frame filter inverts the third image converted in step S140 (100), and converts the inverted third image into a 3 * 3 mask 110 and 5 *. Erosion is performed using a 5 mask 120, a 7 * 7 mask 130, or the like. The frame filter may obtain the filtered third image by subtracting the pixel value of the third image eroded from the pixel value of the third image converted in step S140. Since the size of the frame filter is not constant but varied, it is possible to completely remove the noise by repeatedly performing filtering using a mask having an appropriate size. The filter used in the process of removing noise may use various filters such as a ring filter in addition to the frame filter.

도 7은 도 1의 각 과정에 따른 이미지들을 도시한 도면이다.FIG. 7 is a diagram illustrating images according to each process of FIG. 1.

도 1 및 도 7을 참조하면, 도 1의 이미지 입력(S100) 과정에 따른 이미지는 도 7의 이미지(600)에 도시하였다. 이하에서 제3 이미지를 얻기 위해 사용된 연산 방법은, 제1 세트는 u1 내지 u8에 해당하는 픽셀 값을 모두 사용하고, 제2 세트는 v1 내지 v4에 해당하는 픽셀 값 및 원점(o)에 해당하는 픽셀값을 사용하였다. 또한, 상기 제1 세트의 픽셀 값들을 이용한 연산 방법은 평균값 연산을 하였고, 상기 제2 세트의 픽셀 값들을 이용한 연산 방법은 최대값 연산을 사용하였다. 또한, 본 실시예에서는 평균이 0이고 표준편차가 σ인 가우시안(Gaussian) 노이즈(noise)의 효과를 추가하여 실시하였다. 상기 이미지(600)는 배경이 매우 복잡하며, 복잡한 배경 내에 'A'라는 문자가 존재하는 이미지이다. 도 1의 제1 이미지 값 연산(S110) 과정에 따른 제1 이미지는 도 7의 도면 번호 610에 도시하였다. 상기 제1 이미지(610)는 상기 이미지(600)를 제1 세트를 이용하여 연산한 결과 이미지이다. 도 1의 제2 이미지 값 연산(S120) 과정에 따른 제2 이미지는 도 7의 도면 번호 620에 도시하였다. 상기 제2 이미지(620)는 상기 이미지(600)를 제2 세트를 이용하여 연산한 결과 이미지이다. 도 1의 제3 이미지 값 연산(S130) 과정에 따른 제3 이미지는 도 7의 도면 번호 630에 도시하였다. 상기 제3 이미지(630)는 상기 제1 이미지(610)의 픽셀 값들에서 상기 제2 이미지(620)의 픽셀 값들을 빼서 얻어진 것이다. 도 1의 임계치 변환(S140) 과정에 따른 제3 이미지는 도 7의 도면 번호 640에 도시하였다. 임계치 변환된 상기 제3 이미지(640)는 제3 이미지 값 연산(S130) 과정에서 얻어진 이미지(630)를 임계치 변환하여 얻어진 것이다. 도 1의 필터 링(S150) 과정에 따른 제3 이미지는 도 7의 도면 번호 650에 도시하였다. 노이즈를 제거한 상기 제3 이미지(650)는 임계치 변환(S140) 과정에서 얻어진 제3 이미지(640)를 필터를 이용하여 불필요한 노이즈를 제거함으로써 얻어진 것이다. 도 1의 팽창(S160) 과정에 따른 제3 이미지는 도 7의 도면 번호 660에 도시하였다. 팽창된 상기 제3 이미지(660)는 필터링(S150) 과정에서 얻어진 제 3 이미지(650)를 팽창(dilation) 시킴으로써 얻어진 것이다. 팽창된 상기 제3 이미지(660)는 입력된 이미지(600)에서 원하는 문자인 'A'만이 뚜렷하게 표시된다.1 and 7, an image according to the image input process S100 of FIG. 1 is illustrated in the image 600 of FIG. 7. In the following calculation method used to obtain a third image, the first set uses all pixel values corresponding to u1 to u8, and the second set corresponds to pixel values and origin o corresponding to v1 to v4. A pixel value was used. In addition, the calculation method using the first set of pixel values performed an average value operation, and the calculation method using the second set of pixel values used a maximum value calculation. In this embodiment, the effect of Gaussian noise with an average of 0 and a standard deviation of? Is added. The image 600 is an image in which the background is very complicated and the letter 'A' exists in the complicated background. A first image according to the first image value operation (S110) of FIG. 1 is illustrated at reference numeral 610 of FIG. 7. The first image 610 is an image obtained by calculating the image 600 using the first set. A second image according to the process of calculating the second image value of FIG. 1 (S120) is shown at 620 of FIG. 7. The second image 620 is an image obtained by calculating the image 600 using the second set. A third image according to the process of calculating the third image value (S130) of FIG. 1 is shown at reference numeral 630 of FIG. 7. The third image 630 is obtained by subtracting pixel values of the second image 620 from pixel values of the first image 610. A third image according to the threshold value conversion process (S140) of FIG. 1 is illustrated at reference numeral 640 of FIG. 7. The threshold-converted third image 640 is obtained by threshold-converting the image 630 obtained in the third image value operation S130. A third image according to the filtering ring S150 of FIG. 1 is shown at 650 of FIG. 7. The third image 650 from which the noise is removed is obtained by removing unnecessary noise by using a filter on the third image 640 obtained in the threshold conversion process S140. A third image according to the expansion (S160) process of FIG. 1 is shown at reference numeral 660 of FIG. 7. The expanded third image 660 is obtained by dilation of the third image 650 obtained in the filtering process S150. In the expanded third image 660, only the desired letter 'A' is clearly displayed in the input image 600.

위와 같이, 본 발명에 따르면, 복잡한 배경에 문자 또는 마킹이 존재하는 경우에도, 정확하게 해당하는 문자 또는 마킹을 추출할 수 있게 된다.As described above, according to the present invention, even when a character or marking exists on a complicated background, the corresponding character or marking can be accurately extracted.

도 8a 내지 도 8c는 본 발명에 따른 마킹 인식 방법을 이용함에 있어서 문자의 형태 변화에 따른 문자의 미검출률을 실험한 결과를 보여주는 도면이다.8A to 8C are diagrams showing the results of experiments on the undetected rate of a character according to the change of the character in using the marking recognition method according to the present invention.

도 8a는 본 실시예에 사용된 배경을 도시한 도면이다. 8A is a diagram showing a background used in this embodiment.

도 8b는 도 8a의 배경에 새겨진 문자를 'A', 'C', 'X'로 변경함에 따른 문자의 미검출률(%)의 변화를 도시한 도면이다.FIG. 8B is a diagram illustrating a change in the undetected percentage (%) of a character by changing the letter engraved on the background of FIG. 8A to 'A', 'C', and 'X'.

본 실시예에서는 평균이 0이고 표준편차가 σ인 가우시안(Gaussian) 노이즈(noise)의 효과를 추가하여 실시하였다. 상기 SNR은 20*log(S/σ)을 의미한다. 상기 S는 문자와 배경 사이에 대비(contrast)의 크기를 의미하고, 상기 σ는 가우시안 노이즈의 표준편차를 의미한다. 또한, 본 실시예에서는 상기 S는 60으로 고정하고, SNR 값을 변화시키면서 문자의 미검출률(%)을 계산하였다. 또한, 본 실시예 에서는 이미지를 비추는 조명의 밝기가 균일(밝기의 차이가 없는 경우)한 경우를 전제로 실시하였다. 상기 밝기의 차이는 이미지를 획득함에 있어서 비추어지는 조명의 각도 또는 물건에 의해서 가려짐 등에 의해서 발생하게 된다. In this example, the effect of Gaussian noise with an average of 0 and a standard deviation of? Is added. The SNR means 20 * log (S / σ). S denotes the magnitude of contrast between the character and the background, and σ denotes the standard deviation of the Gaussian noise. In the present embodiment, the S is fixed at 60, and the undetected percentage (%) of the characters was calculated while changing the SNR value. In addition, the present embodiment was carried out on the premise that the brightness of the light illuminating the image is uniform (when there is no difference in brightness). The difference in brightness is caused by the angle of illumination or the object being obscured in obtaining the image.

도 8b를 참조하면, 문자가 'A', 'C', 'X'로 변함에 따른 문자의 미검출률(%)은 SNR이 20(dB) 이상인 경우에는 5% 이하로 떨어지는 것을 볼 수 있다. 따라서, SNR이 20(dB) 이상 인 경우에는 문자의 형태에 상관없이 문자를 정확하게 검출할 수 있다는 것을 보여준다.Referring to FIG. 8B, it can be seen that the undetected percentage (%) of the letter as the letter changes to 'A', 'C', and 'X' falls below 5% when the SNR is 20 (dB) or more. Therefore, when the SNR is 20 (dB) or more, it shows that the character can be detected accurately regardless of the type of the character.

위와 같이, 본 발명에 따르면, 복잡한 배경에 존재하는 문자 또는 마킹도 정확하게 추출할 수 있다.As described above, according to the present invention, it is possible to accurately extract the characters or markings existing on a complex background.

또한, 문자의 형태에 관계없이 문자 또는 마킹을 정확하게 추출할 수 있다.In addition, it is possible to accurately extract characters or markings regardless of the form of the characters.

또한, 가우시안 노이즈가 있는 환경하에서, 별도의 필터를 사용하여 상기 가우시안 노이즈를 제거하지 않고도 문자 또는 마킹을 정확하게 추출할 수 있다.In addition, under an environment with Gaussian noise, a separate filter may be used to accurately extract characters or markings without removing the Gaussian noise.

도 8c는 문자와 배경 사이에 대비(contrast)의 크기(S)의 변화에 따른 문자의 미검출률(%)의 변화를 도시한 도면이다.FIG. 8C is a diagram illustrating a change in the undetected percentage of a character according to the change of the contrast size S between the character and the background.

본 실시예에서는 평균이 0이고 표준편차가 σ인 가우시안(Gaussian) 노이즈(noise)의 효과를 추가하여 실시하였다.In this example, the effect of Gaussian noise with an average of 0 and a standard deviation of? Is added.

도 8c를 참조하면, S의 크기가 20 이상이고, SNR이 20(dB) 이상인 경우에는 문자의 미검출률(%)이 5%이하로 떨어지는 것을 볼 수 있다. 따라서, 문자와 배경 사이에 대비(contrast)의 크기가 커지면 문자를 정확하게 검출할 수 있다는 것을 보여준다.Referring to FIG. 8C, when the size of S is 20 or more and the SNR is 20 (dB) or more, it can be seen that the undetected percentage (%) of the letter falls below 5%. Thus, the increase in the contrast between the text and the background shows that the text can be detected accurately.

도 9a 내지 도 9c는 본 발명에 따른 마킹 인식 방법에서 이미지의 밝기 차이에 따른 문자의 미검출률을 실험한 결과를 보여주는 도면이다.9A to 9C are diagrams showing results of experiments on the non-detection rate of a character according to a difference in brightness of an image in the marking recognition method according to the present invention.

도 9a는 본 실시예에 사용된 배경을 도시한 도면이다. 상기 배경은 가운데 부분은 밝고 바깥 부분은 어두운 형태를 갖는다. 상기 배경은 조명 등에 의해서 이미지에 가운데 부분만이 밝게 비추어지는 경우를 의미한다. 도 8a 내지 도 8c와는 달리 불균일한 밝기를 갖는 조명의 효과를 추가하여 실험한다. 9A is a diagram showing a background used in this embodiment. The background is bright in the middle and dark in the outer. The background refers to a case in which only a center portion of the image is brightly illuminated by illumination or the like. Unlike FIG. 8A to FIG. 8C, the experiment is performed by adding an effect of illumination having non-uniform brightness.

도 9b는 도 9a의 조명의 효과를 첨가한 이미지를 보여준다. 따라서, 이미지의 가운데 부분이 바깥쪽보다 밝게 된다.9b shows an image with the effect of illumination of FIG. 9a added. Thus, the center of the image is brighter than the outside.

도 9c는 도 9b의 이미지를 이용하여, 본 발명에 따른 마킹 인식 방법을 수행한 결과값을 보여주는 도면이다. 본 실시예에서는, 원점에 존재하는 픽셀 값과 바깥쪽에 존재하는 픽셀 값의 차이를 나타내는 파라미터로 δH를 사용한다. 상기 δH 값이 큰다는 것은, 가운데 부분과 바깥 부분의 밝기의 차이가 크다는 것을 의미한다. 예를 들면, δH 150은 원점의 픽셀 값과 바깥 쪽에 픽셀 값의 차이가 150(그레이 스케일)차이가 있다는 것을 의미한다. 상기 수치가 클수록 밝기의 차이가 크다는 것을 의미한다. 도 9c를 참조하면, 상기 δH값이 변하더라도 문자의 미검출률(%)은 변화되지 않는다는 것을 알 수 있다. FIG. 9C is a view showing a result of performing a marking recognition method according to the present invention using the image of FIG. 9B. In the present embodiment,? H is used as a parameter representing the difference between the pixel value present at the origin and the pixel value present outside. The large value of δH means that the difference between the brightness of the center portion and the outer portion is large. For example, δH 150 means that there is a difference of 150 (gray scale) between the pixel value at the origin and the pixel value at the outside. The larger the value, the greater the difference in brightness. Referring to FIG. 9C, it can be seen that the undetected percentage (%) of the character does not change even if the value of δH is changed.

도 10a 내지 도 10c는 본 발명에 따른 마킹 인식 방법에서 이미지의 밝기 차 이에 따른 문자의 미검출률을 실험한 결과를 보여주는 도면이다.10A to 10C are diagrams showing results of experiments on the non-detection rate of a character according to the difference in brightness of an image in the marking recognition method according to the present invention.

도 10a는 본 실시예에 사용된 배경을 도시한 도면이다. 상기 배경은 왼쪽부분은 밝고 오른쪽으로 갈수록 어두워지는 형태를 갖는다. 상기 배경은 조명 등에 의해서 이미지에 왼쪽 부분만을 밝게 비추어지는 경우를 의미한다.10A is a diagram showing a background used in the present embodiment. The background has a form in which the left part is brighter and becomes darker toward the right. The background refers to a case where only the left part of the image is brightly illuminated by illumination or the like.

도 10b는 도 10a의 조명의 효과를 첨가한 이미지를 보여준다. 따라서, 이미지의 왼쪽 부분이 오른쪽 부분보다 밝게 된다.FIG. 10B shows an image added with the effect of illumination of FIG. 10A. Thus, the left part of the image is brighter than the right part.

도 10c는 도 10b의 이미지를 이용하여, 본 발명에 따른 마킹 인식 방법을 수행한 결과값을 보여주는 도면이다. 본 실시예에서는, 왼쪽에서 오른쪽으로의 경사각을 을 이용하여 밝기의 차이를 파라미터로 기울기(slope)를 사용한다. 상기 기울기 값이 큰다는 것은, 왼쪽 부분과 오른쪽 부분의 밝기 차이가 크다는 것을 의미한다. 도 10c를 참조하면, 상기 기울기 값이 변하더라도 문자의 미검출률(%)은 변화되지 않는다는 것을 알 수 있다. FIG. 10C is a diagram illustrating a result of performing a marking recognition method according to the present invention using the image of FIG. 10B. In the present embodiment, a slope is used as a parameter of the difference in brightness by using an inclination angle from left to right. The larger the inclination value, the greater the difference in brightness between the left part and the right part. Referring to FIG. 10C, it can be seen that the undetected percentage of the character does not change even if the inclination value changes.

도 9c 및 도 10c를 참조하면, 본 발명에 따른 마킹 인식 방법을 이용하면, 조명 등에 의해서 발생하는 밝기의 불균형이 존재하는 환경에서도 문자 또는 마킹을 정확하게 검출할 수 있다.Referring to FIGS. 9C and 10C, when the marking recognition method according to the present invention is used, characters or markings may be accurately detected even in an environment in which an unbalance of brightness generated by illumination or the like exists.

이상에서 설명된 다양한 실시예는 소프트웨어적인 구현이 가능하다. 예를 들면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. Various embodiments described above can be implemented in software. For example, embodiments such as the procedures and functions described herein may be implemented in separate software modules. Each of the software modules may perform one or more functions and operations described herein. Software code may be implemented in software applications written in a suitable programming language.

도 11은 본 발명에 따른 마킹 인식 장치의 일실시예에 관한 도면이다.11 is a diagram illustrating an embodiment of a marking recognition apparatus according to the present invention.

도 11을 참조하면, 상기 마킹 인식 장치는, 영상데이터 입력장치(1000), 마킹 인식부(1010), 메모리부(1020), 데이터 송신부(1030), 디스플레이부(1040) 및 제어부(1050)를 포함할 수 있다.Referring to FIG. 11, the marking recognition apparatus includes an image data input apparatus 1000, a marking recognition unit 1010, a memory unit 1020, a data transmitter 1030, a display unit 1040, and a controller 1050. It may include.

상기 영상데이터 입력장치(1000)는 원하는 문자 또는 마킹이 존재하는 부분을 데이터화 할 수 있는 장치를 의미한다. 예를 들면, 상기 영상데이터 입력장치(1000)는 카메라, 스캐너 등을 의미할 수 있다. 상기 영상데이터 입력장치(1000)는 원하는 문자 또는 마킹이 존재하는 부분을 데이터화하여 저장하고, 저장된 상기 데이터의 전송 요청이 있는 경우에 해당하는 데이터를 전송한다.The image data input apparatus 1000 refers to a device capable of data-forming a portion in which a desired character or marking exists. For example, the image data input apparatus 1000 may mean a camera, a scanner, or the like. The image data input apparatus 1000 converts and stores a portion having a desired character or marking into data, and transmits data corresponding to a request for transmission of the stored data.

상기 마킹 인식부(1010)는 상기 영상데이터 입력장치(1000)로부터 입력되는 이미지 데이터에서 문자 또는 마킹을 인식한다. 상기 문자 또는 마킹을 인식하는 방법은 상기 도 1 내지 9c에서 기술한 방법과 동일한 방법을 사용한다.The marking recognition unit 1010 recognizes a character or a marking from image data input from the image data input apparatus 1000. The method of recognizing the character or marking uses the same method as described in FIGS. 1 to 9C.

상기 메모리부(1020)는 상기 마킹 인식부(1010)에서 인식된 문자 또는 마킹을 저장할 수 있다.The memory unit 1020 may store characters or markings recognized by the marking recognition unit 1010.

상기 데이터 송수신부(1030)는 데이터를 외부의 기기로 송신할 수 있다.The data transceiver 1030 may transmit data to an external device.

상기 디스플레이부(1040)는 인식된 문자 또는 마킹을 디스플레이할 수 있다.The display unit 1040 may display the recognized character or marking.

상기 제어부(1050)는 상기 마킹 인식부(1010)가 입력되는 이미지에서 문자 또는 마킹을 인식하도록 제어할 수 있다.The controller 1050 may control the marking recognition unit 1010 to recognize a character or marking in an input image.

또한, 상기 제어부(1050)는 상기 마킹 인식부(1010)에서 인식된 문자 또는 마킹을 상기 메모리부(1020)에 저장하도록 제어할 수 있다.In addition, the controller 1050 may control to store the characters or markings recognized by the marking recognition unit 1010 in the memory unit 1020.

또한, 상기 제어부(1050)는 상기 마킹 인식부(1010)에서 인식된 문자 또는 마킹을 상기 디스플레이부(1040)에 디스플레이되도록 제어하거나 상기 데이터 송신부(1030)을 통해서 외부의 기기로 송신하도록 제어할 수 있다.In addition, the controller 1050 may control to display the character or marking recognized by the marking recognition unit 1010 on the display unit 1040 or to transmit the character or marking to an external device through the data transmitter 1030. have.

위와 같이, 본 발명에 따르면, 복잡한 배경에 존재하는 문자 또는 마킹을 정확하게 인식할 수 있다.As described above, according to the present invention, it is possible to accurately recognize the characters or markings existing on a complex background.

상기와 같이 설명된 이동 단말기는 상기 설명된 실시예들의 구성과 방법에 한정되어 적용되는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The mobile terminal described above is not limited to the configuration and method of the embodiments described above, but the embodiments may be configured by selectively combining all or part of the embodiments so that various modifications can be made. have.

또한, 본 발명의 기술사상은 상기 바람직한 실시예에 따라 구체적으로 기술되었으나, 상기한 실시예는 그 설명을 위한 것이며, 그 제한을 위한 것이 아님을 주의하여야 한다. 또한, 본 발명의 기술분야의 통상의 전문가라면 본 발명의 기술사상의 범위에서 다양한 실시예가 가능함을 이해할 수 있을 것이다.In addition, although the technical idea of the present invention has been described in detail according to the above preferred embodiment, it should be noted that the above embodiment is for the purpose of description and not for the limitation thereof. In addition, those skilled in the art will understand that various embodiments are possible within the scope of the technical idea of the present invention.

도 1은 본 발명의 일 실시예와 관련된 마킹(marking) 인식 방법에 관한 흐름도.1 is a flow diagram related to a marking recognition method associated with one embodiment of the present invention.

도 2는 도 1의 S100과정에서 입력되는 이미지(200)를 표시한 도면.FIG. 2 is a diagram illustrating an image 200 input in step S100 of FIG. 1.

도 3a 및 도 3b는 도 1의 S110과정을 구체화한 도면.3A and 3B illustrate the S110 process of FIG. 1.

도 4a 및 도 4b는 도 1의 S120과정을 구체화한 도면.4A and 4B illustrate the S120 process of FIG. 1.

도 5는 도 1의 S130과정을 구체화한 도면.5 is a view embodying the process S130 of FIG.

도 6a 및 도 6b는 도 1의 S150과정을 구체화한 도면.6A and 6B illustrate the S150 process of FIG. 1.

도 7은 도 1의 각 과정에 따른 이미지들을 도시한 도면.7 is a diagram illustrating images according to each process of FIG. 1.

도 8a 내지 도 8c는 본 발명에 따른 마킹 인식 방법을 이용함에 있어서 문자의 형태 변화에 따른 문자의 미검출률을 실험한 결과를 보여주는 도면.8A to 8C are diagrams showing the results of experiments on the undetected rate of a character according to the change of the character in using the marking recognition method according to the present invention.

도 9a 내지 도 9c는 본 발명에 따른 마킹 인식 방법에서 이미지의 밝기 차이에 따른 문자의 미검출률을 실험한 결과를 보여주는 도면.9a to 9c are diagrams showing the results of experiments on the undetected rate of the character according to the brightness difference of the image in the marking recognition method according to the present invention.

도 10a 내지 도 10c는 본 발명에 따른 마킹 인식 방법에서 이미지의 밝기 차이에 따른 문자의 미검출률을 실험한 결과를 보여주는 도면.10A to 10C are diagrams showing results of experiments on the undetected rate of a character according to a difference in brightness of an image in a marking recognition method according to the present invention.

도 11은 본 발명에 따른 마킹 인식 장치의 일실시예에 관한 도면.11 is a diagram of an embodiment of a marking recognition apparatus according to the present invention;

Claims (16)

입력된 이미지에 존재하는 마킹(marking)의 폭과 동일한 크기의 폭을 갖는 n*n 블록인 제1 세트(set)의 원점과 입력된 이미지의 각각의 블록을 매칭시키고, Matching each block of the input image with the origin of the first set, which is an n * n block having a width equal to the width of the marking present in the input image, 상기 제1 세트의 블록과 상기 이미지 블록이 매칭된 부분에 존재하는 픽셀의 값들을 이용하여 최대값, 최소값 또는 평균값 중 어느 하나를 연산한 후에, 상기 제1 세트의 원점과 매칭된 상기 입력된 이미지의 픽셀의 값을 상기 연산된 픽셀의 값으로 변환하는 제1 이미지 연산 단계;The input image matched with the origin of the first set after calculating any one of a maximum value, a minimum value, and an average value by using values of pixels existing in a portion where the first set of blocks and the image block match. A first image calculating step of converting a value of a pixel of to a value of the computed pixel; 상기 제1 세트보다 작은 크기를 갖는 제2 세트(set) 및 입력된 이미지를 이용하여, 제2 이미지의 픽셀 값을 연산하는 제2 이미지 연산 단계;및A second image calculation step of calculating pixel values of the second image using a second set and an input image having a size smaller than the first set; and 상기 제1 이미지 연산 단계의 상기 연산된 픽셀의 값에서 상기 제2 이미지의 픽셀 값을 빼서 제3 이미지의 픽셀 값을 연산하는 제3 이미지 연산 단계를 포함하는 마킹 인식 방법.And a third image calculation step of calculating a pixel value of a third image by subtracting the pixel value of the second image from the calculated pixel value of the first image calculation step. 삭제delete 제 1 항에 있어서,The method of claim 1, 상기 제2 이미지 연산 단계는,The second image operation step, 상기 제2 세트의 원점과 입력된 이미지의 각각의 블록을 매칭(matching) 시키고, 상기 제2 세트의 블록과 상기 이미지 블록이 매칭된 부분에 존재하는 픽셀의 값들을 이용하여 최대값, 최소값 또는 평균값 중 어느 하나를 연산한 후에, 상기 제2 세트의 원점과 매칭된 상기 입력된 이미지의 픽셀의 값을 상기 연산된 픽셀의 값으로 변환하는 것을 특징으로 하는 마킹 인식 방법.Matching each block of the input image with the second set of origin, and using the values of pixels present in the portion where the second set of blocks and the image block match, using a maximum, minimum or average value After calculating any one of the following, converting a value of a pixel of the input image matched with the second set of origin into a value of the calculated pixel. 제 1 항 또는 제 3 항에 있어서,The method according to claim 1 or 3, 상기 최대값 연산은,The maximum value calculation, 상기 제1 세트의 크기 내에 존재하는 픽셀의 값들 중에 최대값을 1개 내지 4개를 제거하고 난 후에, 나머지 픽셀의 값들 중에 최대값을 연산하는 것을 특징으로 하는 마킹 인식 방법.And after eliminating one to four maximum values among the values of the pixels existing within the size of the first set, calculating the maximum value among the values of the remaining pixels. 제 1 항 또는 제 3 항에 있어서,The method according to claim 1 or 3, 상기 최소값의 연산은,The calculation of the minimum value is, 상기 제1 세트의 크기 내에 존재하는 픽셀의 값들 중에 최소값을 1개 내지 4개를 제거하고 난 후에, 나머지 픽셀의 값들 중에 최소값을 연산하는 것을 특징으로 하는 마킹 인식 방법.And after removing one to four minimum values among the values of the pixels existing within the size of the first set, calculating the minimum value among the values of the remaining pixels. 제 1 항에 있어서,The method of claim 1, 상기 제1 세트의 블록과 상기 이미지 블록이 매칭된 부분에 존재하는 픽셀의 값들은, The values of the pixels present in the portion where the first set of blocks and the image block match, 상기 제1 세트의 각 모서리에 존재하는 4개의 블록과 매칭된 픽셀 값을 이용하는 것을 특징으로 하는 마킹 인식 방법.And a pixel value matched with four blocks existing at each corner of the first set. 제 1 항에 있어서,The method of claim 1, 상기 제1 세트의 블록과 상기 이미지 블록이 매칭된 부분에 존재하는 픽셀의 값들은, The values of the pixels present in the portion where the first set of blocks and the image block match, 상기 제1 세트의 각 모서리에 존재하는 4개의 블록과 매칭된 픽셀 값 및 상기 각각의 모서리들의 중간에 존재하는 4개의 블록과 매칭된 픽셀 값을 이용하는 것을 특징으로 하는 마킹 인식 방법.And a pixel value matched with four blocks existing in each corner of the first set and a pixel value matched with four blocks existing in the middle of the respective corners. 제 3 항에 있어서,The method of claim 3, wherein 상기 제2 세트의 블록과 상기 이미지 블록이 매칭된 부분에 존재하는 픽셀의 값들은,The values of the pixels present in the portion where the second set of blocks and the image block match, ① 상기 제1 세트의 각 모서리에 존재하는 4개의 픽셀의 값과 원점에 존재하는 픽셀의 값, ① the value of the four pixels present at each corner of the first set and the value of the pixel present at the origin, ② 상기 원점에 존재하는 픽셀의 값 또는 The value of the pixel at the origin; or ③ 상기 제1세트의 각 모서리에 존재하는 4개의 픽셀의 값 중 어느 하나인 것을 특징으로 하는 마킹 인식 방법.(3) A marking recognition method, characterized in that any one of the values of four pixels present in each corner of the first set. 제 1 항에 있어서,The method of claim 1, 상기 제3 이미지 값을 임계치(threshold value) 변환을 이용하여 변환하는 변환 단계;및Transforming the third image value using a threshold value transformation; and 상기 변환된 값을 팽창(dilation)시키는 단계를 더 포함하는 것을 특징으로 하는 마킹 인식 방법.And dividing the converted value. 제 9 항에 있어서,The method of claim 9, 상기 변환 단계 이후에, 인식하려는 마킹(marking)과 관계없는 노이즈를 제거하기 위한 필터링 단계를 더 포함하는 것을 특징으로 하는 마킹 인식 방법.And after the converting step, a filtering step for removing noise irrelevant to the marking to be recognized. 제 1 항에 있어서,The method of claim 1, 상기 제2 세트(set)는 인식하려는 마킹의 폭의 절반 크기의 폭을 갖는 m*m 블록인 것을 특징으로 하는 마킹 인식 방법.The second set is a marking recognition method, characterized in that the m * m block having a width of half the width of the marking to be recognized. 입력된 이미지를 인식하려는 마킹(marking)의 폭과 동일한 크기의 폭을 갖는 n*n 블록인 제1 세트(set)의 원점과 입력된 이미지의 각각의 블록을 매칭(matching) 시키고, 상기 제1 세트의 블록와 상기 이미지 블록이 매칭된 부분에 존재하는 픽셀의 값들을 이용하여 최대값, 최소값 또는 평균값 중 어느 하나를 연산한 후에 상기 제1 세트의 원점과 매칭된 상기 입력된 이미지의 픽셀의 값을 상기 연산된 픽셀의 값으로 변환하고, Matching each block of the input image with the origin of the first set, which is an n * n block having a width equal to the width of marking to recognize the input image, the first set The value of the pixel of the input image matched with the origin of the first set is calculated after calculating any one of a maximum value, a minimum value, or an average value using the values of the pixels in the set of blocks and the image block. Convert to the computed pixel value, 입력된 이미지를 상기 제1 세트보다 작은 크기를 갖는 제2 세트(set)를 이용하여 제2 이미지의 픽셀 값을 연산하고, 상기 연산된 픽셀의 값에서 상기 제2 이미지의 픽셀 값을 빼서 제3 이미지의 픽셀 값을 연산하여 마킹(Marking)을 인식하기 위한 마킹 인식부;및Compute a pixel value of the second image by using a second set having an input image having a size smaller than the first set, and subtract the pixel value of the second image from the computed pixel value. Marking recognition unit for recognizing the marking (Marking) by calculating the pixel value of the image; And 상기 마킹 인식부가 마킹을 인식할지 여부를 제어할 수 있는 제어부를 포함하는 마킹 인식 장치.And a controller configured to control whether the marking recognition unit recognizes the marking. 제 12 항에 있어서, 13. The method of claim 12, 상기 제어부는,The control unit, 연산된 상기 제3 이미지의 픽셀 값을 임계치 변환을 이용하여 변환하고, 변환된 상기 제 3의 이미지의 픽셀 값을 팽창(dilation)시키는 것을 특징으로 하는 마킹 인식 장치.And converting the computed pixel value of the third image by using a threshold transform and dilatating the pixel value of the converted third image. 제 12 항에 있어서,13. The method of claim 12, 데이터를 저장할 수 있는 메모리부를 더 포함하고,Further comprising a memory unit for storing data, 상기 제어부는,The control unit, 상기 마킹 인식부에서 인식된 마킹을 상기 메모리부에 저장하도록 제어하는 것을 특징으로 하는 마킹 인식 장치.And a marking recognition device controlled to store the marking recognized by the marking recognition unit in the memory unit. 제 12 항에 있어서,13. The method of claim 12, 인식하려는 마킹이 표시된 이미지를 상기 마킹 인식부로 입력하기 위한 영상 데이터 입력장치를 더 포함하고,And an image data input device for inputting an image on which a marking to be recognized is displayed to the marking recognizing unit. 상기 제어부는,The control unit, 상기 영상 데이터 입력장치로부터 이미지가 입력되면, 상기 마킹 인식부가 상기 이미지로부터 마킹을 인식하도록 제어하는 것을 특징으로 하는 마킹 인식 장치.And a marking recognition unit controlling the marking recognition unit to recognize the marking from the image when an image is input from the image data input device. 제 12 항에 있어서,13. The method of claim 12, 상기 마킹 인식부에서 인식된 마킹을 디스플레이하기 위한 디스플레이부 또는 외부로 송신하기 위한 데이터 송신부를 더 포함하고,The apparatus may further include a display unit for displaying the marking recognized by the marking recognition unit or a data transmitter for transmitting to the outside. 상기 제어부는,The control unit, 상기 마킹 인식부에서 인식된 마킹이 상기 디스플레이부에 디스플레이되거나 상기 데이터 송신부를 통해 외부로 송신되도록 제어하는 것을 특징으로 하는 마킹 인식 장치. And a marking recognized by the marking recognizer to be displayed on the display or transmitted to the outside through the data transmitter.
KR1020080116205A 2008-11-21 2008-11-21 Marking recognition method and apparatus using the same KR101016821B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080116205A KR101016821B1 (en) 2008-11-21 2008-11-21 Marking recognition method and apparatus using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080116205A KR101016821B1 (en) 2008-11-21 2008-11-21 Marking recognition method and apparatus using the same

Publications (2)

Publication Number Publication Date
KR20100057250A KR20100057250A (en) 2010-05-31
KR101016821B1 true KR101016821B1 (en) 2011-02-21

Family

ID=42281045

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080116205A KR101016821B1 (en) 2008-11-21 2008-11-21 Marking recognition method and apparatus using the same

Country Status (1)

Country Link
KR (1) KR101016821B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230139449A (en) * 2022-03-28 2023-10-05 대한민국(관리부서: 행정안전부 국립과학수사연구원장) A recognizing method of assembled stamp using image feature analysis

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04125792A (en) * 1990-09-18 1992-04-27 Nippon Sheet Glass Co Ltd Mark inspecting method
JP2000182053A (en) 1998-12-15 2000-06-30 Toshiba Corp Method and device for processing video and recording medium in which a video processing procedure is recorded
KR100819614B1 (en) 2006-06-20 2008-04-04 호서대학교 산학협력단 Method for Generating Image for Testing Flat Pannel of Displaying Device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04125792A (en) * 1990-09-18 1992-04-27 Nippon Sheet Glass Co Ltd Mark inspecting method
JP2000182053A (en) 1998-12-15 2000-06-30 Toshiba Corp Method and device for processing video and recording medium in which a video processing procedure is recorded
KR100819614B1 (en) 2006-06-20 2008-04-04 호서대학교 산학협력단 Method for Generating Image for Testing Flat Pannel of Displaying Device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Benoit Naegel, Nicolas Passat, Christian Ronse, "Grey-level hit-or-miss transforms--Part I: Unified theory", Pattern Recognition, vol. 40, no. 2, pp. 635-647, February 2007.*

Also Published As

Publication number Publication date
KR20100057250A (en) 2010-05-31

Similar Documents

Publication Publication Date Title
CN106960427A (en) The method and apparatus of image in 2 D code processing
CN107562208A (en) The intelligent terminal control method and intelligent terminal control system of a kind of view-based access control model
CN106442556A (en) Device and method for detecting surface defects of perforated plate workpiece
CN109600605B (en) Detection method of 4K ultra-high-definition video, electronic device and computer program product
CN114022383A (en) Moire pattern removing method and device for character image and electronic equipment
CN103778621B (en) The recognition methods of foreign objects fragment
CN104156941A (en) Method and system for determining geometric outline area on image
CN108037142B (en) Mask optical defect detection method based on image gray value
CN106650614A (en) Dynamic calibration method and apparatus
CN109886914B (en) Paper defect detection method based on local brightness invariance prior
CN112837251B (en) Image processing method and device
CN110119742B (en) Container number identification method and device and mobile terminal
JP2007028604A (en) Image processing apparatus, image processing method, and video camera
CN103530625A (en) Optical character recognition method based on digital image processing
KR101016821B1 (en) Marking recognition method and apparatus using the same
CN113487473A (en) Method and device for adding image watermark, electronic equipment and storage medium
Bala et al. Image simulation for automatic license plate recognition
CN104102911A (en) Image processing for AOI (automated optical inspection)-based bullet appearance defect detection system
US20040227826A1 (en) Device and method to determine exposure setting for image of scene with human-face area
CN110688999B (en) Mach-band effect simulated point light source metal steel seal character detection method
CN106651807B (en) Image processing system, display device and image processing method
Shao et al. An adaptive image contrast enhancement algorithm based on retinex
CN113706402A (en) Neural network training method and device and electronic equipment
Lingyu et al. Defect detection method of LCD Complex display screen combining feature matching and color correction
KR102199572B1 (en) Reverse object detection method based on deep learning

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140203

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150203

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160212

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee