WO2015183015A1 - 문자 인식 방법 및 그 장치 - Google Patents

문자 인식 방법 및 그 장치 Download PDF

Info

Publication number
WO2015183015A1
WO2015183015A1 PCT/KR2015/005363 KR2015005363W WO2015183015A1 WO 2015183015 A1 WO2015183015 A1 WO 2015183015A1 KR 2015005363 W KR2015005363 W KR 2015005363W WO 2015183015 A1 WO2015183015 A1 WO 2015183015A1
Authority
WO
WIPO (PCT)
Prior art keywords
character
font
image
input image
determining
Prior art date
Application number
PCT/KR2015/005363
Other languages
English (en)
French (fr)
Inventor
박찬우
강소영
이승준
김정민
Original Assignee
삼성에스디에스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성에스디에스 주식회사 filed Critical 삼성에스디에스 주식회사
Publication of WO2015183015A1 publication Critical patent/WO2015183015A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/19007Matching; Proximity measures
    • G06V30/19093Proximity measures, i.e. similarity or distance measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Definitions

  • the present invention relates to a character recognition method and apparatus thereof. More specifically, the present invention relates to a method for recognizing an input image having a low quality input image containing a character, that is, an input image having an irregular shape in which a character part is contaminated by external factors or the character composition is uneven, and an apparatus to which the method is applied. .
  • Character recognition methods can be broadly classified into pattern matching and structure analysis.
  • the former is mainly used for the recognition of printed characters, and the latter is mainly used for the recognition of handwritten characters.
  • As the intermediate character recognition method there is a feature matching method and a stroke analysis method, and they are used separately for each purpose or purpose.
  • the technical problem to be solved by the present invention is to provide a method and apparatus for recognizing a character from a low-quality input image containing the character.
  • Another technical problem to be solved by the present invention is to determine the font of the character by using the feature value of the input image containing the character, and after dividing the input image into each character area image, the character area image is determined font
  • the present invention provides a method and apparatus for recognizing a character by comparing with each character template included in the comparison result and using the comparison result.
  • Another technical problem to be solved by the present invention is to provide a method and an apparatus capable of recognizing the character even when the character in the image is displayed in a dot type (dot type).
  • a method of verifying data comprising extracting feature values from an input image, using the feature values and font shape information of each font to display the characters displayed on the input image. Determining an applied font for the image, dividing the input image into respective character region images using font characteristic information of the applied font, comparing the character region image with each character template of the applied font, Calculating a similarity degree for each character template of the text area image, and determining a character corresponding to the text area image by using the similarity.
  • the extracting of the feature values may include applying a predetermined correction routine to the input image to extract a high quality edge from the input image, and extracting an edge from the input image. It may include.
  • the determining of the applied font may include determining a size of each character displayed on the input image and a stroke constituting a character using the extracted edge, and matching the size of the character and the thickness of the stroke. And determining a font having font shape information as the applied font.
  • the determining of the font to be applied may include determining a dot type font when the number of circular edges among the extracted edges is greater than or equal to a predetermined number, grouping adjacent circular edges, and each circular shape belonging to one group. Determining the size of each character using the coordinates of the pixels constituting the edge, determining the thickness of the dot using the diameter of each circular edge, and a font shape corresponding to the size of the character and the thickness of the dot The method may include determining a dot type font having information as the applied font.
  • the calculating of the similarity may include matching the size of the character area image with the size of the image of each character template of the applied font.
  • the calculating of the similarity may include calculating a similarity degree by calculating a pixel value matching ratio between the character area image and the image of each character template of the applied font, and wherein the character area image is used for each character template of the applied font. And adjusting the similarity by whether or not the feature requirement of the device is satisfied.
  • the dividing may include setting a character separation guideline in the input image by using letter spacing, long flat, a font image width, and a font image height among font feature information of the applied font, and based on the character separation guideline. And dividing the input image into respective text area images.
  • a method of identifying data by using font feature information, dividing an input image into each character region image, and comparing the character region image with each character template. Calculating a similarity degree to each character template of the character area image, and determining a character corresponding to the character area image by using the similarity.
  • the calculating of the similarity may include reflecting whether the text area image satisfies a feature requirement of each text template.
  • Character recognition apparatus for achieving the technical problem, an image feature extraction unit for extracting a feature value from the input image, the input image using the feature value and the font shape information of each font
  • a font determination unit for determining an application font for the characters displayed on the screen, a text area partition unit for dividing the input image into respective text area images using font feature information of the applied font, and the text area image;
  • a character determination unit that calculates a similarity degree for each character template of the character area image in comparison with each character template of an applied font, and determines a character corresponding to the character area image using the similarity.
  • the character recognition apparatus performs image processing for image quality correction for the character region image, performs binarization of the character region image on which image processing is completed, and binarizes the character region image. It may further include a character determination unit for providing the character determination unit.
  • 1 is a view for explaining the effect of the present invention.
  • FIG. 2 is a flowchart of a character recognition method according to an embodiment of the present invention.
  • FIG. 3 is a diagram illustrating a result of image classification performed at some stages of the character recognition method illustrated in FIG. 2.
  • FIG. 4 is a detailed flowchart illustrating some steps of the character recognition method illustrated in FIG. 2.
  • FIG. 5 is a conceptual diagram illustrating some steps of the character recognition method illustrated in FIG. 2.
  • FIG. 6 is an example of a user interface displayed as a result of performing the method described with reference to FIGS. 2 to 5.
  • FIG. 7 is a diagram illustrating a character recognition apparatus according to another embodiment of the present invention.
  • FIG. 8 is a block diagram of a character recognition apparatus according to another embodiment of the present invention.
  • FIG. 9 is a detailed block diagram of some blocks of the character recognition apparatus shown in FIG. 8.
  • FIG. 10 is a diagram illustrating a hardware configuration of a character recognition apparatus according to another embodiment of the present invention.
  • logic or routine refers to a series of instructions that can be executed by a processor, and is not limited to those written by a specific programming language.
  • FIG. 1 an image including a character and a recognition result thereof that can be recognized by the character recognition method and apparatus according to the embodiments of the present invention are presented.
  • relevant information can be angled on the surface of the material, such as wood, board or steel.
  • the character to be rendered may be a general character composed of connected strokes, but may also be a dot type character for efficiency of the steering angle.
  • the letters can be atypical.
  • the surface of the material may be uneven, unlike paper, or due to the nature of the process may be corroded, soiled, or damaged.
  • 1 shows an image 10 of photographing the surface of a material in which a character is dot-shaped.
  • Embodiments of the present invention may recognize text 20 from an image 10 as shown in FIG. 1.
  • embodiments of the present invention will be described. However, embodiments of the present invention are not limited to recognizing a typed character as shown in FIG. 1 or recognizing a dot type character. Embodiments of the present invention are included in a method of recognizing a character. It should be understood based on the configuration of the device to recognize each action or character.
  • FIG. 2 illustrates a flow chart for the case where an input image has already been generated
  • the present embodiment may further include generating the input image by photographing a subject on which a character is printed or a character is displayed.
  • the embodiment may further include displaying a photographed image and receiving a designation of a text display area on the displayed image from the user.
  • the character display area is designated by the user, the possibility of error in the character recognition may be reduced by recognizing the character only in the character display area.
  • a feature value is extracted from the input image (S100).
  • the extracted feature value may be used as basic data for determining a font of a character in the input image (S102).
  • a pre-process may be performed on the input image so that the feature value can be well extracted from the input image.
  • the preprocessing may include level adjusting. For example, you can lighten colors and adjust contrast.
  • various elements used as feature values of the image may be extracted. For example, an edge or a contour of the input image may be extracted. In addition, a histogram of color values of each pixel constituting the input image may be calculated.
  • the extracted edge of the input image may be used to determine the size of each character included in the input image.
  • the outline of the character constitutes a significant color change compared to the surroundings, when the edge extraction logic is applied to the image including the character, the outline of the character forms an edge. Therefore, with respect to the alphabets except for the numerals (0 to 9) constituting one character and the lowercase letters i and j, the area occupied by one edge is regarded as the character region. (Also, characters composed of strokes including dot-shaped characters can be separated according to the input image quality. If the edge spacing is within the standard value, it is regarded as the same character area.)
  • an edge refers to a set of pixels that are larger than or equal to a reference number and size, which are composed of adjacent pixels.
  • Position correction may be performed on the extracted edge.
  • the outline removal of the edges and the parallelism correction or the slope correction may be performed.
  • the size of a character can be defined by its width and height.
  • the The size may be determined to be 70 in width and 100 in length.
  • two or more strokes constitute one character. Even in this case, the strokes that make up a character will be adjacent to each other.
  • an edge group composed of adjacent edges to satisfy a predetermined criterion is considered to constitute one character, and the area occupied by the edge group is regarded as an area of the character.
  • the x-axis minimum coordinate of the pixel occupied by the first edge is 40
  • the x-axis maximum coordinate is 70
  • the y-axis minimum coordinate is 48 and the y-axis maximum coordinate is 108
  • the first edge has one If the x-axis minimum coordinate of the pixel occupied by the second edge constituting the character is 74, the x-axis maximum coordinate is 84, the y-axis minimum coordinate is 40 and the y-axis maximum coordinate is 115, then the first edge and the second edge are The size of the letters will be determined to be 44 horizontal and 75 vertical.
  • the size of each character may be determined differently. In this case, the average of each character size can be used.
  • the extracted edges of the input image may be used to determine the thickness of strokes constituting each character included in the input image. Since the edge can be seen as the outline of each stroke, the thickness of the stroke can be obtained by analyzing the coordinates of each pixel constituting the edge. Differences can occur for each stroke, for example, because an error occurs in the thickness of the stroke. In this case, the average value of the thickness of each stroke can be used.
  • the present embodiment may further include storing font shape information of each font to be recognized in advance.
  • the font shape information may include font type, kerning, longevity, character size information, stroke thickness information (dot thickness information in the case of a dot type font), and the like.
  • the font type indicates whether or not it is a dot type.
  • a ratio between the size of the character included in the input image and the thickness of the stroke may be further used as a factor for determining the applied font. For example, if the ratio between the width of a character in the input image and the thickness of a stroke is 15: 1, and the ratio between the height of the character and the thickness of a stroke is measured as 18: 1, then the font shape information matches this ratio. You can query if there are any.
  • Step S102 is performed, and the determining of the applied font comprises: determining the size of each character displayed on the input image and the thickness of the stroke constituting the character by using the extracted feature value;
  • the method may include determining a font having font shape information corresponding to a size of a character and a thickness of a stroke as the applied font.
  • the method may include noise processing, and determining the size of each character and the thickness of a stroke using coordinates of pixels constituting each edge that are not noise processed.
  • the histogram for the color values of the input image can be applied to more accurately extract the edges representing the outlines of the characters.
  • an edge may be extracted from a character candidate pixel having a color value occupying a ratio of a predetermined value or more in the histogram among the pixels constituting the input image, and its adjacent pixels.
  • an edge is extracted from a place other than the outline of the text, and the edge is treated as the outline of the text, and as a result, the size of the text can be prevented from being incorrectly determined.
  • the edge extraction logic is applied to an image including a dot type character, a plurality of circular edges will be extracted. For example, if you apply edge extraction logic to an image that contains a first character of 20 dots and a second character of 18 dots, 38 circular edges will be extracted. Therefore, in the present embodiment, when there are more than a predetermined number of circular edges as a result of edge extraction, it is determined that the applied font is one of the dot type fonts.
  • the shape of the dot is mostly circular, but the shape of the dot may be non-circular, for example, a rectangle or a triangle.
  • the present embodiment may be generalized to determine the applied font as a dot type font when more than a predetermined number of edges having the same shape exist.
  • the dots constituting one letter will be adjacent to each other to meet a predetermined criterion, they form a group with dots adjacent to each other, and the size of the letter indicated by the dot group using the area occupied by the formed dot group You will be able to decide.
  • the x-axis minimum coordinate of the pixel occupied by the outline edge of each dot in one dot group is 30, the x-axis maximum coordinate is 100, the y-axis minimum coordinate is 100 and the y-axis maximum coordinate is 200
  • the size of the letter indicated by the dot group may be determined to be 70 in width and 100 in length.
  • the extracted edge of the input image may also be used to determine the thickness of the dots constituting each character included in the input image. Since the edge can be seen as the outline of each dot, the thickness of the dot can be obtained by analyzing the coordinates of each pixel constituting the edge. A difference may occur for each dot, for example, because an error occurs in the thickness of the dot. In this case, the average value of the thickness of each dot can be used.
  • a ratio between the size of the character included in the input image and the thickness of the dot may be further used as a factor for determining the applied font. For example, if the ratio between the character width and the dot thickness of the input image is 22: 1, and the ratio between the character height and the stroke thickness is 28: 1, whether there is anything in the font shape information that matches this ratio. You can inquire.
  • determining the applied font includes grouping adjacent circular edges, determining the size of each character using coordinates of pixels constituting each circular edge belonging to one group, and And determining the thickness of the dot using the diameter of the circular edge, and determining the dot type font having font shape information corresponding to the size of the character and the thickness of the dot as the applied font.
  • the input image is divided into each character area image by using font shape information of the applied font (S104).
  • the font shape information includes tracking and longitude information and size information of each character, the tracking and longitude information may be further reflected in the area information of each character that has already been obtained by extracting an edge.
  • Character separation guideline 30 as shown in 3 may be set in the input image. Thereafter, the input image may be divided into each character area image based on the character separation guide line.
  • a step of recognizing which character is performed for each character area image is performed (S106).
  • the character area image is compared with each character template of the applied font, and a similarity degree is calculated for each character template of the character area image, and the character is based on the similarity. Determines the character corresponding to the area image.
  • image preprocessing is performed on the character region image in order to increase recognition accuracy.
  • a series of image processing such as increasing the sharpness may be performed, and binarization may be performed (S160).
  • binarization the character area image has a pixel value of zero or one.
  • the size of the text area image is matched with the size of the image of each character template of the applied font (S162).
  • a similarity is calculated by calculating a pixel value matching ratio between the character region image and the image of each character template of the applied font (S164). Since the size of the text area image coincides with the size of the text template image, pixel values between pixels of the same position may be 1: 1 matched.
  • the character template image is also assumed to be composed of pixels with pixel values of 0 and 1.
  • the similarity is adjusted based on whether or not the character area image satisfies the feature requirement of each character template of the applied font (S166).
  • S166 the similarity degree for each character template of the character area image by comparing the character area image with each character template of the applied font
  • FIG. 5 shows a virtual character area image composed of 5 ⁇ 8 (width ⁇ height) pixels and a “0” template of a specific font.
  • template image and feature requirement information of each character may be further stored as information on a font to be recognized.
  • 5 shows a template image 36 and feature requirement information 37 for the number '0'.
  • the feature requirement information 37 refers to a condition that a pixel value of a specific region of a character region image must be satisfied in order to be recognized as a corresponding character.
  • the similarity between the pixel region image 35 and the pixel value of the template image 36 with respect to the number '0' is calculated.
  • the pixels of the same position it is determined whether the pixel value is matched, and the ratio of the pixel that the pixel value is matched may be the similarity.
  • an evaluation is made as to whether the character area image 35 satisfies the feature requirement of the template for the number '0'.
  • the first feature requirement requires that the pixels of the first region 31 are all zero. In the case of the character area image 35 to be recognized, this condition is not satisfied.
  • the second feature requirement requires that at least one of the pixels in the second region 32 be one. In the case of the character area image 35, this condition is satisfied.
  • the third feature requirement requires that at least one of the pixels in the third region 33 be one. In the case of the character area image 35, this condition is satisfied. That is, in the case illustrated in FIG. 5, since the text area image 35 did not satisfy only the first feature requirement, the numerical value given to the first feature requirement is subtracted from the similarity calculated through the comparison between the images. As a result, it may be deducted by the percentage given in the first characteristic requirement.
  • each character template may have a plurality of feature requirements, and each feature requirement may have a different degree of importance, and as a result, if the feature requirements are not met, the number or ratio subtracted from the similarity is a feature requirement.
  • Each can be assigned differently.
  • the similarity calculated in advance when the feature requirement is satisfied may be increased. That is, when the similarity is adjusted by whether the character area image satisfies the characteristic requirements of each character template of the applied font, the similarity may be subtracted when the characteristic requirement is not satisfied, or the similarity may be increased when the characteristic requirement is satisfied.
  • a character template of the number '0' may have an area 31 requiring a pixel value of '0' (e.g. white), and a pixel value of '1' (e.g. black). Areas 32 and 33 are required as the feature requirement.
  • the evaluation result for the feature requirement may be calculated by how much the character region image 35 satisfies the designated pixel value in the region 31, 32, 33.
  • the evaluation result is not determined by only two things, satisfaction or dissatisfaction, and the adjustment value can be determined according to the degree of satisfaction.
  • the adjustment value may have a positive value or may have a negative value. The adjustment value is reflected in the similarity calculated previously. According to the present embodiment, it is possible to flexibly recognize text even when the text printing or the steering angle is atypical.
  • One character area image 35 may calculate the similarity with respect to all characters included in the applied font. As a result, it may be recognized that the character having the highest similarity is the character displayed in the character area image (S168).
  • the application font is identified according to a feature value of the input image, the input image is divided into a character area image, and each character area image is compared with the character template of the applied font, so that each character
  • recognizing the character through the similarity ranking with the template there is an effect that can accurately recognize the character even if the character is displayed in the input image is bad.
  • a dot type character recognizes a dot type font by accurately recognizing a plurality of dots through edge extraction, and accurately compares a character by comparing the dot type font shape data with images and feature requirements for each character. It has a recognizable effect.
  • the recognized character or character string may be displayed, stored, or transmitted to an external device through a network interface (S108).
  • the apparatus to which the character recognition method according to the present embodiment is applied may provide a user interface as shown in FIG. 6.
  • the user interface may include an area 40 for displaying the input image, an area 50 for displaying the text so as to check the recognized result, and a menu area 60 for processing the recognized result. .
  • the user may collectively process the photographing, recognition, and recognition result management of material-related information displayed on the surface of the material or displayed.
  • the character recognition apparatus 70 may be a hand-held terminal provided with a handle for convenient gripping.
  • the character recognition device 70 includes an image sensing unit 71 for sensing an image and a built-in display 72 for displaying a user interface as shown in FIG. 6, a controller (not shown), a storage unit (not shown), and a network. It may include an interface (not shown).
  • the controller is provided with a processor for executing a computer program for performing the method described with reference to FIGS. 2 to 5 and storage means for storing the execution code of the computer program.
  • the character recognition apparatus 100 may be, for example, a terminal device such as a notebook PC, a desktop PC, a tablet PC, a smartphone, or the like.
  • the character recognition apparatus 100 according to the present exemplary embodiment may include an image acquisition unit 102, a storage unit 104 including an auxiliary storage device such as a nonvolatile memory or an HDD, and an external device connected to a network to transmit and receive data.
  • the network interface 108, the display 110, and the character recognition unit 106 may be included.
  • the image acquirer 102 may include, for example, a lens, an image sensor, and a drive controller.
  • the image acquisition unit 102 converts the optical signal introduced through the lens into digital data, generates an input image, and provides the input image to the character recognition unit 106.
  • the character recognition unit 106 includes a processor for executing a computer program for performing the method described with reference to FIGS. 2 to 5 and storage means for storing the execution code of the computer program, which is provided from the image acquisition unit 102. Recognizes the characters in the input image, and generates digital output data pointing to the recognized characters.
  • the character recognition unit 106 may store the digital output data in the storage unit 104 so that the digital output data may be stored, provide the digital output data to the display 110 so that the digital output data is displayed, or transmit the digital output data to an external device. 108 may be provided.
  • a character recognition apparatus will be described with reference to FIG. 9.
  • the character recognition apparatus 106 illustrated in FIG. 9 may be employed as one component of the character recognition apparatus illustrated in FIG. 8. Accordingly, it has been described with reference to the character recognition unit 106 in FIG.
  • the character recognition apparatus 106 according to the present exemplary embodiment may include an image feature extractor 160, a font storage unit 161, a font determination unit 162, a character area partitioner 163, The image corrector 164 and the character determiner 165 may be included.
  • the image feature extractor 160 receives an input image and extracts feature values.
  • the feature value may be, for example, an edge, a histogram for color, and the like.
  • the font storage unit 161 stores font shape information and a template of each character for fonts that support recognition.
  • the letter template includes information on the image of the letter and the feature requirements of the letter.
  • the font shape information may include font type, kerning, longevity, character size information, stroke thickness information (dot thickness information in the case of a dot type font), and the like.
  • the font type indicates whether or not it is a dot type.
  • the font determination unit 162 determines the applied font for the characters displayed on the input image by using the feature value and font shape information of each font provided from the font storage unit 161.
  • the character area partitioning unit 163 divides the input image into each character area image by using font shape information of the applied font.
  • the image correction unit 164 performs image quality correction image processing on the text area image, performs binarization on the text area image on which the image processing is completed, and characterizes the binarized text area image. Provided at 165.
  • a character determination unit 165 compares the character area image with each character template of the applied font to calculate a similarity degree for each character template of the character area image, and uses the similarity to character corresponding to the character area image. Determine.
  • Each component of FIG. 9 may refer to software or hardware such as a field-programmable gate array (FPGA) or an application-specific integrated circuit (ASIC).
  • FPGA field-programmable gate array
  • ASIC application-specific integrated circuit
  • the components are not limited to software or hardware, and may be configured to be in an addressable storage medium and may be configured to execute one or more processors.
  • the functions provided in the above components may be implemented by more detailed components, or may be implemented as one component that performs a specific function by combining a plurality of components.
  • FIG. 10 is a diagram illustrating a hardware configuration of a character recognition apparatus according to another embodiment of the present invention.
  • the character recognition device 106 of FIG. 9 may be implemented with a hardware structure as shown in FIG. 10.
  • the data processing apparatus 200 may communicate with a system bus 202, a processor 212, a random access memory (RAM) 210, a storage 204, or an external device. It may include an interface unit 206 and a display 208 for connecting to the input and output device.
  • the computer program code for implementing the character recognition method according to the present invention may be stored in the storage 204, loaded into the RAM 210, and executed by the processor 212.
  • the output data indicating the execution result of the computer program code and the character recognition result may be stored in the RAM 210 or the storage 204, transmitted to an external device through the network interface 206, or displayed on the display 208. Can be.
  • the concepts of the present invention described above with reference to FIGS. 1 to 10 may be implemented in computer readable code on a computer readable medium.
  • the computer-readable recording medium may be, for example, a removable recording medium (CD, DVD, Blu-ray disc, USB storage device, removable hard disk) or a fixed recording medium (ROM, RAM, computer equipped hard disk). Can be.
  • the computer program recorded in the computer-readable recording medium may be transmitted to another computing device and installed in the other computing device through a network such as the Internet, thereby being used in the other computing device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Character Discrimination (AREA)

Abstract

문자가 포함된 저품질의 입력 이미지로부터 문자를 인식하는 방법 및 그 장치가 제공 된다. 본 발명의 일 실시예에 따른 문자 인식 방법은 입력 이미지에서 특징 값을 추출 하는 단계, 상기 특징 값과 각 폰트의 폰트 형상 정보를 이용하여 상기 입력 이미지에 표시 된 문자에 대한 적용 폰트를 결정하는 단계, 상기 적용 폰트의 폰트 특징 정보를 이용하여, 상기 입력 이미지를 각각의 문자 영역 이미지로 구분 하는 단계, 상기 문자 영역 이미지를 상기 적용 폰트의 각 문자 템플릿과 비교하여, 상기 문자 영역 이미지의 각 문자 템플릿에 대한 유사도를 연산하는 단계, 및 상기 유사도를 이용하여 상기 문자 영역 이미지에 대응하는 문자를 결정하는 단계를 포함한다.

Description

문자 인식 방법 및 그 장치
본 발명은 문자 인식 방법 및 그 장치에 관한 것이다. 보다 자세하게는, 문자가 포함 된 저품질의 입력 이미지, 즉 즉 외부 요인에 의하여 문자 부분이 오염되거나 문자 구성이 불균일한 비정형적 형태를 가진 입력 이미지를 인식하는 방법 및 그 방법이 적용 된 장치에 관한 것이다.
문자 인식 방법은 크게 패턴 정합법(pattern matching)과 구조 분석법(structure analysis)으로 분류할 수 있다. 전자는 주로 인쇄 문자의 인식에, 후자는 주로 필기문자의 인식에 사용된다. 양자의 중간적인 문자인식 방식으로 특징 정합법(feature matching) 및 획 분석법(stroke analysis) 등이 있으며, 각각의 용도나 목적에 맞추어 구분하여 사용하고 있다.
한편, 강재, 목재 등 자재의 표면에 표시된 문자를 인식해야 하는 경우, 종래의 문자 인식 방법은 적용되기 어렵다. 자재의 표면이 종이와 달리 고르지 않거나, 공정의 특성상 글자 부분이 부식되거나 오염, 손상되는 변수가 많기 때문이다. 또한, 도트(dot) 타각(打刻) 문자도 상당수를 차지하고 있어 문자의 형태가 다양하다. 따라서, 자재의 표면에 표시된 문자가 포함 된 이미지 등 문자 표시 상태가 좋지 않은 이미지로부터 문자를 인식하는 방법의 제공이 요구 된다.
본 발명이 해결하고자 하는 기술적 과제는 문자가 포함된 저품질의 입력 이미지로부터 문자를 인식하는 방법 및 그 장치를 제공 하는 것이다.
본 발명이 해결하고자 하는 다른 기술적 과제는 문자가 포함된 입력 이미지의 특징 값을 이용하여 문자의 폰트를 판정하고, 상기 입력 이미지를 각각의 문자 영역 이미지로 구분 한 후, 문자 영역 이미지를 판정 된 폰트에 포함된 각 문자 템플릿과 비교하고, 비교 결과를 이용하여 문자를 인식하는 방법 및 그 장치를 제공 하는 것이다.
본 발명이 해결하고자 하는 또 다른 기술적 과제는 이미지 내의 문자가 도트 타입(dot type)으로 표시 된 경우에도 그 문자를 인식 할 수 있는 방법 및 그 장치를 제공 하는 것이다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해 될 수 있을 것이다.
상기 기술적 과제를 달성하기 위한 본 발명의 일 실시예에 따른 데이터 확인 방법은 입력 이미지에서 특징 값을 추출 하는 단계, 상기 특징 값과 각 폰트의 폰트 형상 정보를 이용하여 상기 입력 이미지에 표시 된 문자에 대한 적용 폰트를 결정하는 단계, 상기 적용 폰트의 폰트 특징 정보를 이용하여, 상기 입력 이미지를 각각의 문자 영역 이미지로 구분 하는 단계, 상기 문자 영역 이미지를 상기 적용 폰트의 각 문자 템플릿과 비교하여, 상기 문자 영역 이미지의 각 문자 템플릿에 대한 유사도를 연산하는 단계, 및 상기 유사도를 이용하여 상기 문자 영역 이미지에 대응하는 문자를 결정하는 단계를 포함한다.
상기 특징 값을 추출 하는 단계는, 상기 입력 이미지에서 고품질의 에지(edge)를 추출 하기 위하여 상기 입력 이미지에 대하여 소정의 보정 루틴을 적용 하는 단계, 및 상기 입력 이미지에서 에지(edge)를 추출 하는 단계를 포함할 수 있다.
상기 적용 폰트를 결정하는 단계는, 상기 추출 된 에지를 이용하여 상기 입력 이미지에 표시 된 각 문자의 크기 및 문자를 구성하는 획의 굵기를 결정 하는 단계, 및 상기 문자의 크기 및 획의 굵기에 부합하는 폰트 형상 정보를 가진 폰트를 상기 적용 폰트로 결정하는 단계를 포함할 수 있다.
상기 적용 폰트를 결정하는 단계는, 상기 추출 된 에지 중 원형 에지가 기 지정 된 개수 이상 존재 하는 경우, 도트 타입 폰트로 판정 하는 단계, 인접한 원형 에지를 그룹화 하는 단계, 하나의 그룹에 속한 각각의 원형 에지를 구성하는 픽셀의 좌표를 이용하여 각 문자의 크기를 결정 하는 단계, 각각의 원형 에지의 지름을 이용하여 도트의 굵기를 결정 하는 단계, 및 상기 문자의 크기 및 도트의 굵기에 부합하는 폰트 형상 정보를 가진 도트 타입 폰트를 상기 적용 폰트로 결정하는 단계를 포함할 수 있다.
상기 유사도를 연산하는 단계는, 상기 문자 영역 이미지의 크기를 상기 적용 폰트의 각 문자 템플릿의 이미지의 크기와 일치시키는 단계를 포함할 수 있다.
상기 유사도를 연산하는 단계는, 상기 문자 영역 이미지와 상기 적용 폰트의 각 문자 템플릿의 이미지 사이의 픽셀 값 일치 비율을 연산 하여 유사도를 연산하는 단계, 및 상기 문자 영역 이미지가 상기 적용 폰트의 각 문자 템플릿의 특징 요건을 만족하는 지 여부에 의하여 상기 유사도를 조정하는 단계를 포함할 수도 있다.
상기 구분 하는 단계는, 상기 적용 폰트의 폰트 특징 정보 중 자간, 장평, 폰트 이미지 넓이 및 폰트 이미지 높이를 이용하여 상기 입력 이미지에 문자 분리 가이드 라인을 설정 하는 단계, 및 상기 문자 분리 가이드 라인을 기준으로 상기 입력 이미지를 각각의 문자 영역 이미지로 구분 하는 단계를 포함할 수 있다.
상기 기술적 과제를 달성하기 위한 본 발명의 다른 실시예에 따른 데이터 확인 방법은 폰트 특징 정보를 이용하여, 입력 이미지를 각각의 문자 영역 이미지로 구분 하는 단계, 상기 문자 영역 이미지를 각 문자 템플릿과 비교하여, 상기 문자 영역 이미지의 각 문자 템플릿에 대한 유사도를 연산하는 단계, 및 상기 유사도를 이용하여 상기 문자 영역 이미지에 대응하는 문자를 결정하는 단계를 포함한다. 이 때, 상기 유사도를 연산하는 단계는, 상기 문자 영역 이미지가 각 문자 템플릿의 특징 요건을 만족하는 지 여부를 반영하는 단계를 포함한다.
상기 기술적 과제를 달성하기 위한 본 발명의 또 다른 실시예에 따른 문자 인식 장치는, 입력 이미지에서 특징 값을 추출 하는 이미지 특징 추출부, 상기 특징 값과 각 폰트의 폰트 형상 정보를 이용하여 상기 입력 이미지에 표시 된 문자에 대한 적용 폰트를 결정 하는 폰트 결정부, 상기 적용 폰트의 폰트 특징 정보를 이용하여, 상기 입력 이미지를 각각의 문자 영역 이미지로 구분 하는 문자 영역 구획부, 및 상기 문자 영역 이미지를 상기 적용 폰트의 각 문자 템플릿과 비교하여 상기 문자 영역 이미지의 각 문자 템플릿에 대한 유사도를 연산하고, 상기 유사도를 이용하여 상기 문자 영역 이미지에 대응하는 문자를 결정하는 문자 결정부를 포함한다.
일 실시예에 따르면, 상기 문자 인식 장치는 상기 문자 영역 이미지에 대하여 소정의 화질 보정용 이미지 프로세싱을 수행하고, 이미지 프로세싱이 완료된 상기 문자 영역 이미지를 이진화(binarization)를 수행하며, 이진화 된 상기 문자 영역 이미지를 상기 문자 결정부에 제공하는 문자 결정부를 더 포함할 수 있다.
상기와 같은 본 발명에 따르면, 자재의 표면에 표시된 문자가 포함 된 이미지 등 문자 표시 상태가 좋지 않은 이미지로부터 문자를 인식할 수 있는 효과가 있다. 특히 문자 표시 부분에 오염이 존재하거나, 구성이 균일하지 않은 비정형적 문자일 경우에도 효과적으로 인식할 수 있는 효과가 있다.
또한, 도트 타입(dot type)으로 표시된 문자가 포함 된 이미지로부터 문자를 인식할 수 있는 효과가 있다.
도 1은 본 발명의 효과를 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 문자 인식 방법의 순서도이다.
도 3은 도 2에 도시된 문자 인식 방법 중 일부 단계에서 수행 되는 이미지 구분의 결과를 나타내는 도면이다.
도 4는 도 2에 도시된 문자 인식 방법 중 일부 단계를 상세히 설명하기 위한 상세 순서도이다.
도 5는 도 2에 도시된 문자 인식 방법 중 일부 단계를 설명하기 위한 개념도이다.
도 6은 도 2내지 도 5를 참조하여 설명한 방법이 수행 된 결과 표시되는 사용자 인터페이스의 일 예이다.
도 7은 본 발명의 다른 실시예에 따른 문자 인식 장치를 나타낸 도면이다.
도 8은 본 발명의 또 다른 실시예에 따른 문자 인식 장치의 블록도이다.
도 9는 도 8에 표시된 문자 인식 장치의 일부 블록에 대한 상세 블록도이다.
도 10은 본 발명의 또 다른 실시예에 따른 문자 인식 장치의 하드웨어 구성을 나타낸 도면이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
본 명세서에서 로직(LOGIC) 또는 루틴(ROUTINE)은 프로세서에 의하여 수행 될 수 있는 일련의 명령어(OPERATION)를 의미하며, 특정 프로그래밍 언어에 의하여 작성 된 것으로 한정 되지 않는다.
먼저, 도 1을 참조하여 본 발명의 실시예들에 따른 문자 인식 방법 및 그 장치가 인식 할 수 있는, 문자가 포함된 이미지 및 그 인식 결과를 제시 한다.
이미 언급 된 바와 같이, 목재, 판재, 강재 등 자재의 표면에 그 자재의 일련 번호 등 관련 정보가 타각(打刻)될 수 있다. 타각 되는 문자는 연결 된 획으로 구성된 일반 문자일 수 있으나, 타각의 효율성을 위하여 도트 타입(dot type)의 문자일 수도 있다. 또한, 공정에 발생한 여러 상황에 따라 타각 된 글자가 비정형적 형상을 가질 수도 있다. 또한, 자재의 표면이 종이와 달리 고르지 않거나, 공정의 특성상 글자 부분이 부식되거나 오염, 손상될 수도 있다. 도 1은 도트 타입으로 문자가 타각 된 자재의 표면을 촬영한 이미지(10)를 표시 한다.
본 발명의 실시예들은 도 1에 도시된 것과 같은 이미지(10)로부터 문자를 인식(20) 할 수 있다. 이하, 본 발명의 실시예들을 설명한다. 다만, 본 발명의 실시예들이 도 1에 도시된 것과 같은 타각 된 문자를 인식하거나, 도트 타입의 문자를 인식하는 것으로만 한정되지는 않으며, 본 발명의 실시예들은 문자를 인식 하는 방법에 포함 된 각각의 동작 또는 문자를 인식 하는 장치의 구성을 기준으로 이해 되어야 한다.
도 2를 참조하여, 본 발명의 일 실시예에 따른 문자 인식 방법을 설명한다. 도 2에는 입력 이미지가 이미 생성 된 경우에 대한 순서도가 기재되어 있으나, 본 실시예는, 문자가 프린트 되어 있거나 문자가 타각 되어 있는 피사체를 촬영 하여 상기 입력 이미지를 생성하는 단계를 더 포함할 수 있다. 본 실시예는, 촬영 된 이미지를 디스플레이 하는 단계 및 사용자로부터 디스플레이 된 이미지 상의 문자 표시 영역을 지정 받는 단계를 더 포함할 수도 있다. 문자 표시 영역을 사용자로부터 지정 받은 경우, 상기 문자 표시 영역에서만 문자를 인식함으로써 문자 인식의 오류 발생 가능성을 낮출 수 있다.
상기 입력 이미지에서 특징 값(feature)이 추출 된다(S100). 추출 된 상기 특징 값은 상기 입력 이미지에 문자의 폰트(font)를 결정하는데 기초 자료로 사용 될 수 있다(S102). 상기 특징 값을 추출하기 전에, 상기 입력 이미지에서 상기 특징 값이 잘 추출 될 수 있도록, 상기 입력 이미지에 대한 선처리(pre-process)가 수행 될 수 있다. 예를 들어, 상기 선처리는 레벨 조정(level adjusting)을 포함할 수 있다. 예를 들어, 색상을 밝게 하고 명암 대비를 조정할 수 있다.
본 실시예에서는, 이미지의 특징 값으로 사용 되는 다양한 요소들이 추출 될 수 있다. 예를 들어, 상기 입력 이미지의 에지(edge), 또는 윤곽선(contour)이 추출 될 수 있다. 또한, 상기 입력 이미지를 구성하는 각 픽셀의 색상 값에 대한 히스토그램(histogram)이 연산 될 수 있다.
추출 된 상기 입력 이미지의 에지는 상기 입력 이미지에 포함된 각 문자(character)의 크기를 결정하는데 사용 될 수 있다. 일반적으로, 문자의 외곽선은 주위와 비교하여 현저한 색상 변화를 구성하므로, 문자가 포함된 이미지에 대하여 소정의 에지 추출 로직을 적용하면 문자의 외곽선이 에지를 형성하게 된다. 따라서, 한 획(stroke)이 하나의 문자를 구성하는 숫자(0~9) 및 소문자 i, j 제외한 알파벳에 대하여는, 하나의 에지가 차지하는 영역이 곧 문자의 영역인 것으로 간주 된다. (또한 도트형태의 문자 포함한 획으로 구성된 문자도 입력 이미지 품질에 따라 분리될 수 있으므로 에지의 간격이 기준 값 이내일 경우 같은 문자영역으로 간주한다.)
본 명세서에서, 에지는 인접한 픽셀들로 구성 된, 끊기지 않은 기준 개수 및 크기 이상의 픽셀의 집합을 지칭한다.
추출된 에지에 대하여 위치 보정이 수행 될 수 있다. 예를 들어, 에지의 아웃라인(outline) 제거 및 평행성 보정 또는 기울기 보정 등이 수행 될 수 있다.
문자의 크기는 넓이와 높이로 정의 될 수 있다.
예를 들어, 하나의 에지가 차지하는 픽셀의 x축 최소 좌표가 30이고, x축 최대 좌표가 100이며, y축 최소 좌표가 100이고 y축 최대 좌표가 200이라면, 상기 연결 된 에지가 가리키는 문자의 크기는 가로 70, 세로 100인 것으로 결정 될 수 있을 것이다.
한글, 한자, 알파벳 소문자 i, j 및 기타 문자의 경우, 2 이상의 획이 하나의 문자를 구성한다. 이런 경우라도, 하나의 문자를 구성하는 획들은 서로 인접하게 될 것이다. 이러한 성질을 이용하여, 소정의 기준을 만족하는 정도로 인접한 에지들로 구성 된 에지 그룹은 하나의 문자를 구성하는 것으로 간주하고, 상기 에지 그룹이 차지 하는 영역이 곧 문자의 영역인 것으로 간주 된다.
예를 들어, 제1 에지가 차지하는 픽셀의 x축 최소 좌표가 40이고, x축 최대 좌표가 70이며, y축 최소 좌표가 48이고 y축 최대 좌표가 108이며, 상기 제1 에지와 함께 하나의 문자를 구성하는 제2 에지가 차지하는 픽셀의 x축 최소 좌표가 74이고, x축 최대 좌표가 84이며, y축 최소 좌표가 40이고 y축 최대 좌표가 115라면, 제1 에지와 제2 에지가 구성하는 문자의 크기는 가로 44, 세로 75인 것으로 결정 될 것이다.
한편, 문자의 개수가 복수인 경우, 각 문자의 크기는 서로 다르게 결정 될 수 있다. 이러한 경우, 각 문자 크기의 평균치를 사용할 수 있다.
추출 된 상기 입력 이미지의 에지는 상기 입력 이미지에 포함된 각 문자를 구성하는 획(stroke)의 굵기를 결정하는 데에도 사용 될 수 있다. 에지는 각 획의 윤곽선으로 볼 수 있으므로, 에지를 구성하는 각 픽셀의 좌표를 분석하여 획의 굵기가 얻어질 수 있다. 획의 굵기에도 오차가 발생하는 등의 이유로 각 획마다 차이가 발생할 수 있다. 이러한 경우, 각 획의 굵기의 평균치를 사용할 수 있다.
문자의 크기 및 획의 굵기가 얻어지면, 기 저장 된 각 폰트의 폰트 형상 정보 중 상기 문자 크기 및 획의 굵기에 부합하는 것이 있는 지 조회 한다. 이를 위해, 본 실시예는 인식하고자 하는 각 폰트의 폰트 형상 정보를 미리 저장 하는 단계를 더 포함할 수 있다.
상기 폰트 형상 정보에는 폰트 타입, 자간, 장평, 문자 크기 정보, 획 굵기 정보(도트 타입 폰트의 경우, 도트 굵기 정보) 등이 포함 될 수 있다. 상기 폰트 타입은 도트 타입인지 여부를 가리킨다.
문자 촬영 거리에 따라 문자의 크기가 달라질 수 있으므로, 일부 실시예에 따르면 입력 이미지에 포함된 문자의 크기와 획의 굵기 사이의 비율이 적용 폰트를 결정하기 위한 팩터(factor)로써 더 사용될 수 있다. 예를 들어, 입력 이미지의 문자 넓이와 획의 굵기 사이의 비율이 15:1이고, 문자 높이와 획의 굵기 사이의 비율이 18:1으로 측정 된 경우, 폰트 형상 정보에서 이러한 비율에 부합하는 것이 있는지 조회할 수 있다.
정리하면, 본 실시예에서 입력 이미지에서 에지 등 특징 값을 추출 하는 단계(S100)와, 상기 특징 값과 각 폰트의 폰트 형상 정보를 이용하여 상기 입력 이미지에 표시 된 문자에 대한 적용 폰트를 결정하는 단계(S102)가 수행 되고, 상기 적용 폰트를 결정하는 단계는, 상기 추출 된 특징 값을 이용하여 상기 입력 이미지에 표시 된 각 문자의 크기 및 문자를 구성하는 획의 굵기를 결정 하는 단계와, 상기 문자의 크기 및 획의 굵기에 부합하는 폰트 형상 정보를 가진 폰트를 상기 적용 폰트로 결정하는 단계를 포함할 수 있다. 이 때, 상기 특징 값을 이용하여 상기 입력 이미지에 표시 된 각 문자의 크기 및 문자를 구성하는 획의 굵기를 결정 하는 단계는, 추출 된 각 에지 중 기 정의 된 최소 길이에 미달 하는 길이를 가지는 에지를 노이즈 처리 하는 단계와, 노이즈 처리 되지 않은 각각의 에지를 구성하는 픽셀의 좌표를 이용하여 각 문자의 크기 및 획의 굵기를 결정 하는 단계를 포함할 수 있다.
본 실시예에서, 입력 이미지의 색상 값에 대한 히스토그램이 문자의 외곽선을 나타내는 에지를 보다 정확하게 추출하는데 적용될 수 있다. 문자의 각 획이 동일하거나 유사한 색상으로 구성되고, 하나의 획은 동일 또는 유사 색상으로 구성 되는 이상, 문자 색상은 히스토그램에서 높은 도수를 가질 것이다. 이러한 점을 이용하여, 상기 입력 이미지를 구성하는 픽셀들 중, 상기 히스토그램에서 소정 값 이상의 비율을 차지하는 색상 값을 가지는 문자 구성 후보 픽셀과 그 인접 픽셀들을 대상으로, 에지를 추출할 수 있다. 이러한 경우, 문자의 외곽선이 아닌 곳에서 에지가 추출 되어, 상기 에지가 문자의 외곽선으로 다루어지고, 그 결과 문자의 크기가 잘못 결정 되는 것을 방지할 수 있다.
이하, 입력 이미지에 도트 타입의 문자가 포함 된 경우의 본 발명의 일 실시예에 따른 폰트 결정 방법에 대하여 설명한다.
상기 입력 이미지에 도트 타입의 문자가 포함 된 경우라면, 각 도트의 외곽선이 에지를 형성하게 된다. 따라서, 도트 타입 문자를 포함한 이미지에 대하여 에지 추출 로직을 적용하면, 원형의 에지가 복수 개 추출 될 것이다. 예를 들어, 20개의 도트로 구성 된 제1 문자와 18개의 도트로 구성 된 제2 문자가 포함 된 이미지에 대하여 에지 추출 로직을 적용하면, 원형의 에지가 38개 추출 될 것이다. 따라서, 본 실시예에서는 에지 추출의 결과 원형의 에지가 기 지정 된 개수 이상 존재 하는 경우, 상기 적용 폰트가 도트 타입 폰트 중 하나인 것으로 판정한다.
상기 도트의 형상은 원형인 것이 대부분이나, 도트의 형상은 비(非)원형, 예를 들어 사각형, 삼각형 등일 수도 있다. 이러한 경우 본 실시예는 동일한 형상의 에지가 기 지정된 개수 이상 존재 하는 경우, 적용 폰트를 도트 타입 폰트로 판정 하는 것으로 일반화 될 수 있다.
하나의 문자를 구성하는 도트들은 서로 소정의 기준에 부합하는 정도로 인접할 것이므로, 서로 인접한 도트들로 하나의 그룹을 형성하고, 형성 된 도트 그룹이 차지하는 영역을 이용하여 상기 도트 그룹이 가리키는 문자의 크기를 결정할 수 있을 것이다.
예를 들어, 하나의 도트 그룹에 포함 된 각 도트의 외곽선 에지가 차지하는 픽셀의 x축 최소 좌표가 30이고, x축 최대 좌표가 100이며, y축 최소 좌표가 100이고 y축 최대 좌표가 200이라면, 상기 도트 그룹이 가리키는 문자의 크기는 가로 70, 세로 100인 것으로 결정 될 수 있을 것이다.
추출 된 상기 입력 이미지의 에지는 상기 입력 이미지에 포함된 각 문자를 구성하는 도트의 굵기를 결정하는 데에도 사용 될 수 있다. 에지는 각 도트의 윤곽선으로 볼 수 있으므로, 에지를 구성하는 각 픽셀의 좌표를 분석하여 도트의 굵기가 얻어질 수 있다. 도트의 굵기에도 오차가 발생하는 등의 이유로 각 도트마다 차이가 발생할 수 있다. 이러한 경우, 각 도트의 굵기의 평균치를 사용할 수 있다.
문자 촬영 거리에 따라 문자의 크기가 달라질 수 있으므로, 일부 실시예에 따르면 입력 이미지에 포함된 문자의 크기와 도트의 굵기 사이의 비율이 적용 폰트를 결정하기 위한 팩터(factor)로써 더 사용될 수 있다. 예를 들어, 입력 이미지의 문자 넓이와 도트 굵기 사이의 비율이 22:1이고, 문자 높이와 획의 굵기 사이의 비율이 28:1으로 측정 된 경우, 폰트 형상 정보에서 이러한 비율에 부합하는 것이 있는지 조회할 수 있다.
정리하면, 적용 폰트를 결정하는 단계는, 인접한 원형 에지를 그룹화 하는 단계와, 하나의 그룹에 속한 각각의 원형 에지를 구성하는 픽셀의 좌표를 이용하여 각 문자의 크기를 결정 하는 단계와, 각각의 원형 에지의 지름을 이용하여 도트의 굵기를 결정 하는 단계와, 상기 문자의 크기 및 도트의 굵기에 부합하는 폰트 형상 정보를 가진 도트 타입 폰트를 상기 적용 폰트로 결정하는 단계를 포함할 수 있다.
상기 설명 된 동작을 거쳐 입력 이미지에 포함된 문자에 적용 된 폰트가 결정 되면, 상기 적용 폰트의 폰트 형상 정보를 이용하여, 상기 입력 이미지를 각각의 문자 영역 이미지로 구분 한다(S104). 이미 언급한 바와 같이, 상기 폰트 형상 정보에는 자간 및 장평 정보와, 각 문자의 크기 정보가 포함 되어 있으므로, 에지의 추출을 통해 이미 구한 각 문자의 영역 정보에 상기 자간 및 장평 정보를 더 반영 하여 도 3에 도시 된 것과 같은 문자 분리 가이드 라인(30)이 상기 입력 이미지에 설정 될 수 있다. 그 후, 상기 문자 분리 가이드 라인을 기준으로 상기 입력 이미지를 각각의 문자 영역 이미지로 구분할 수 있다.
다음으로, 각각의 문자 영역 이미지 별로 어떠한 문자인지 인식하는 단계가 수행 된다(S106). 이 때, 이미 적용 폰트는 결정 된 바 있으므로, 상기 문자 영역 이미지를 상기 적용 폰트의 각 문자 템플릿과 비교하여, 상기 문자 영역 이미지의 각 문자 템플릿에 대한 유사도를 연산하여, 상기 유사도를 바탕으로 상기 문자 영역 이미지에 대응하는 문자를 결정 한다. 이하, 도 4를 참조하여 보다 자세히 설명한다.
먼저, 인식의 정확도를 높이기 위하여 상기 문자 영역 이미지에 대하여 이미지 전처리가 수행 된다. 선명도를 높이는 등의 일련의 이미지 처리가 수행 되고, 이진화(binarization)가 수행 될 수 있다(S160). 이진화에 의하여, 문자 영역 이미지는 0 또는 1의 픽셀 값을 가지게 된다.
다음으로, 상기 문자 영역 이미지의 크기를 상기 적용 폰트의 각 문자 템플릿의 이미지의 크기와 일치시킨다(S162).
다음으로, 상기 문자 영역 이미지와 상기 적용 폰트의 각 문자 템플릿의 이미지 사이의 픽셀 값 일치 비율을 연산 하여 유사도를 연산한다(S164). 상기 문자 영역 이미지의 크기와 상기 문자 템플릿 이미지의 크기가 일치하므로, 동일한 위치의 픽셀 간의 픽셀 값이 1:1 매치 될 수 있다. 문자 템플릿 이미지 역시 0, 1의 픽셀 값을 가지는 픽셀들로 구성 된 것으로 전제한다.
다음으로, 상기 문자 영역 이미지가 상기 적용 폰트의 각 문자 템플릿의 특징 요건을 만족하는 지 여부에 의하여 상기 유사도를 조정한다(S166). 이하, 도 5를 참조하여, 상기 문자 영역 이미지를 상기 적용 폰트의 각 문자 템플릿과 비교하여, 상기 문자 영역 이미지의 각 문자 템플릿에 대한 유사도를 연산하는 동작을 보다 자세히 설명한다.
도 5에는 5X8(넓이X높이) 픽셀로 구성 된 가상의 문자 영역 이미지 및 특정 폰트의 ‘0’ 템플릿이 도시 되어 있다. 본 발명의 실시예들에 따르면, 인식 대상 폰트에 대한 정보로써, 이미 설명한 폰트 형상 정보 이외에, 각 문자의 템플릿 이미지 및 특징 요건 정보가 더 저장 될 수 있다. 도 5에는 숫자 ‘0’에 대한 템플릿 이미지(36) 및 특징 요건 정보(37)가 도시 되어 있다. 특징 요건 정보(37)는 해당 문자로 인식 되기 위하여, 문자 영역 이미지 중 특정 영역의 픽셀 값이 만족해야 하는 요건(condition)을 의미한다.
먼저, 문자 영역 이미지(35)와 숫자 ‘0’에 대한 템플릿 이미지(36)의 픽셀 값의 유사도가 연산 된다. 이 때, 동일한 위치의 픽셀들끼리, 픽셀 값의 일치 여부를 판정 하고, 픽셀 값이 일치하는 픽셀의 비율이 상기 유사도가 될 수 있다. 다음으로, 문자 영역 이미지(35)가 숫자 '0'에 대한 템플릿의 특징 요건을 만족하는지 여부에 대한 평가가 수행 된다.
도 5에는 숫자 ‘0’에 대한 가상의 특징 요건으로 3가지가 예시되고 있다. 제1 특징 요건은 제1 영역(31)의 픽셀이 모두 0일 것을 요구한다. 인식 대상인 문자 영역 이미지(35)의 경우, 이 조건을 만족하지 못한다. 제2 특징 요건은 제2 영역(32)의 픽셀 중 적어도 하나는 1일 것을 요구한다. 문자 영역 이미지(35)의 경우, 이 조건을 만족한다. 제3 특징 요건은 제3 영역(33)의 픽셀 중 적어도 하나는 1일 것을 요구한다. 문자 영역 이미지(35)의 경우, 이 조건을 만족한다. 즉, 도 5에 도시된 사안의 경우, 문자 영역 이미지(35)가 제1 특징 요건 만을 만족 시키지 못했으므로, 이미지 간의 비교를 통하여 연산 된 상기 유사도에서, 제1 특징 요건에 부여 된 수치가 차감 되거나, 제1 특징 요건에 부여 된 비율만큼 감점 될 수 있다.
즉, 각 문자 템플릿은 복수의 특징 요건을 가질 수 있고, 각각의 특징 요건은 서로 다른 정도의 중요도를 가질 수 있으며, 그 결과 특징 요건을 만족하지 못하는 경우, 유사도에서 차감 되는 수치 또는 비율이 특징 요건 마다 서로 다르게 할당 될 수 있다.
일 실시예에 따르면, 상기 특징 요건의 만족 시 기 연산 된 유사도가 증가 될 수도 있다. 즉, 상기 문자 영역 이미지가 상기 적용 폰트의 각 문자 템플릿의 특징 요건을 만족하는 지 여부에 의하여 상기 유사도를 조정할 때, 특징 요건 불만족 시 유사도를 차감하거나, 특징 요건 만족 시 유사도를 증가시킬 수 있다.
다른 실시예에 따르면, 상기 특징 요건으로, 특정 영역에 대한 픽셀 값 일치 여부가 사용 될 수 있다. 예를 들어, 숫자 '0'의 문자 템플릿은, 픽셀 값이 '0'일 것(예를 들어 흰색을 의미)을 요하는 영역(31), 픽셀 값이 '1'일 것(예를 들어 검은색을 의미)을 요하는 영역(32, 33)을 상기 특징 요건으로 가질 수 있다. 이 때, 상기 특징 요건에 대한 평가 결과는, 문자 영역 이미지(35)가 영역(31, 32, 33) 내의 지정 된 픽셀 값을 어느 정도 만족 시켰는지에 의하여 연산 될 수 있다. 이 때, 상기 평가 결과는 만족, 불만족의 2가지로만 결정 되는 것이 아니라, 만족 정도에 따라 조정 수치를 결정할 수 있다. 상기 조정 수치는 + 값을 가질 수도 있고, - 값을 가질 수도 있다. 상기 조정 수치는 기 연산 된 상기 유사도에 반영 된다. 본 실시예에 따르면, 문자 프린트 또는 타각 상태가 비정형적인 경우에도 유연하게 문자 인식이 가능하도록 하는 효과가 있다.
하나의 문자 영역 이미지(35)는 적용 폰트에 포함된 모든 문자에 대하여 상기 유사도를 산정할 수 있다. 그 결과 가장 높은 유사도를 가지는 문자가 상기 문자 영역 이미지에 표시된 문자인 것으로 인식 할 수 있을 것이다(S168).
다시, 도 2로 돌아가서 설명한다. 상기 설명한 문자 영역 이미지에 대한 문자 인식 동작은 입력 이미지에 포함 된 모든 문자 영역 이미지에 대하여 반복 수행 된다. 그 결과, 입력 이미지에 포함 된 모든 문자를 인식 할 수 있다.
본 실시예에 따른 문자 인식 방법은, 입력 이미지의 특징 값에 의하여 적용 폰트를 확인하고, 입력 이미지를 문자 영역 이미지로 분리하며, 각 문자 영역 이미지를 적용 폰트의 문자 템플릿과 일일이 비교하여, 각 문자 템플릿과의 유사도 랭킹을 통해 문자를 인식함으로써, 입력 이미지에 문자가 표시 된 상태가 나쁘더라도 문자를 정확하게 인식 할 수 있는 효과가 있다. 또한, 도트 타입의 문자라도, 에지 추출을 통해 복수의 도트를 정확하게 인식하여 도트 타입의 폰트임을 인지하고, 도트 타입의 폰트 형상 데이터 및 각 문자에 대한 이미지, 특징 요건과의 비교를 통해 문자를 정확히 인식할 수 있는 효과가 있다.
인식된 문자 또는 문자열은 디스플레이 되거나, 저장 되거나, 네트워크 인터페이스를 통하여 외부 장치로 송신 될 수 있다(S108). 본 실시예에 따른 문자 인식 방법이 적용 된 장치는 도 6에 도시된 것과 같은 사용자 인터페이스를 제공 할 수 있다. 상기 사용자 인터페이스는 입력 이미지를 확인할 수 있도록 디스플레이 하는 영역(40), 인식 된 결과를 확인할 수 있도록 텍스트가 디스플레이 하는 영역(50) 및 인식 된 결과를 처리 하기 위한 메뉴 영역(60)을 포함할 수 있다. 사용자는 상기 사용자 인터페이스를 통해, 자재 표면에 표기 되거나 타각 된 자재 관련 정보의 촬영, 인식, 인식 결과 관리까지를 일괄적으로 처리할 수 있다.
도 7을 참조하여 본 발명의 다른 실시예에 따른 문자 인식 장치를 설명하기로 한다. 본 실시예에 따른 문자 인식 장치(70)는 파지가 편리하도록 손잡이가 구비 된 핸드헬드(hand-held) 단말일 수 있다. 문자 인식 장치(70)에는 이미지를 센싱하는 이미지 센싱부(71) 및 도 6에 도시 된 것과 같은 사용자 인터페이스를 디스플레이 하는 내장 디스플레이(72) 및 제어부(미도시), 저장부(미도시), 네트워크 인터페이스(미도시)를 포함할 수 있다. 상기 제어부에는 도 2 내지 도 5를 참조하여 설명한 방법을 수행하는 컴퓨터 프로그램을 실행 하는 프로세서 및 상기 컴퓨터 프로그램의 실행 코드를 저장하는 저장 수단이 구비 된다.
도 8을 참조하여 본 발명의 또 다른 실시예에 따른 문자 인식 장치를 설명하기로 한다. 본 실시예에 따른 문자 인식 장치(100)는, 예를 들어 노트북 피씨, 데스크톱 피씨, 태블릿 피씨, 스마트 폰 등의 단말 장치일 수 있다. 본 실시예에 따른 문자 인식 장치(100)는, 이미지 획득부(102), 비휘발성 메모리 또는 HDD 등의 보조 저장 장치로 구성 되는 저장부(104), 외부 장치와 네트워크를 통하여 연결 되어 데이터를 송수신 하는 네트워크 인터페이스(108), 디스플레이(110) 및 문자 인식부(106)를 포함할 수 있다.
이미지 획득부(102)는, 예를 들어 렌즈와 이미지 센서 및 구동 컨트롤러를 포함할 수 있다. 이미지 획득부(102)는 렌즈를 통해 인입 된 광 신호를 디지털 데이터로 변환하여, 입력 이미지를 생성하여 문자 인식부(106)에 제공 한다.
문자 인식부(106)에는 도 2 내지 도 5를 참조하여 설명한 방법을 수행하는 컴퓨터 프로그램을 실행 하는 프로세서 및 상기 컴퓨터 프로그램의 실행 코드를 저장하는 저장 수단이 구비 되며, 이미지 획득부(102)로부터 제공 된 입력 이미지에서 문자를 인식하여, 인식 된 문자를 가리키는 디지털 출력 데이터를 생성한다. 문자 인식부(106)는 상기 디지털 출력 데이터가 저장 되도록 저장부(104)에 저장하거나, 상기 디지털 출력 데이터가 디스플레이 되도록 디스플레이(110)에 제공하거나, 상기 디지털 출력 데이터가 외부 장치에 송신 되도록 네트워크 인터페이스(108)에 제공할 수 있다.
도 9를 참조 하여 본 발명의 또 다른 실시예에 따른 문자 인식 장치를 설명하기로 한다. 도 9에 도시 된 문자 인식 장치(106)는 도 8에 도시 된 문자 인식 장치에 하나의 구성 요소로 채용 될 수도 있다. 이에 따라, 도 8에는 문자 인식부(106)로 지칭 되어 설명 된 바 있다. 도 9에 도시 된 바와 같이, 본 실시예에 따른 문자 인식 장치(106)는 이미지 특징 추출부(160), 폰트 저장부(161), 폰트 결정부(162), 문자 영역 구획부(163), 이미지 보정부(164) 및 문자 결정부(165)를 포함할 수 있다.
이미지 특징 추출부(160)는 입력 이미지를 제공 받아 특징 값을 추출한다. 상기 특징 값은, 예를 들어 에지, 색상에 대한 히스토그램 등일 수 있다.
폰트 저장부(161)는 인식을 지원하는 폰트에 대하여, 폰트 형상 정보 및 각 문자의 템플릿을 저장한다. 상기 문자 템플릿은, 문자의 이미지 및 문자의 특징 요건에 대한 정보를 포함한다. 상기 폰트 형상 정보에는 폰트 타입, 자간, 장평, 문자 크기 정보, 획 굵기 정보(도트 타입 폰트의 경우, 도트 굵기 정보) 등이 포함 될 수 있다. 상기 폰트 타입은 도트 타입인지 여부를 가리킨다.
폰트 결정부(162)는 상기 특징 값과 폰트 저장부(161)로부터 제공 받은 각 폰트의 폰트 형상 정보를 이용하여 상기 입력 이미지에 표시 된 문자에 대한 적용 폰트를 결정한다.
문자 영역 구획부(163)는 상기 적용 폰트의 폰트 형상 정보를 이용하여, 상기 입력 이미지를 각각의 문자 영역 이미지로 구분 한다.
이미지 보정부(164)는 상기 문자 영역 이미지에 대하여 소정의 화질 보정용 이미지 프로세싱을 수행하고, 이미지 프로세싱이 완료된 상기 문자 영역 이미지를 이진화(binarization)를 수행하며, 이진화 된 상기 문자 영역 이미지를 문자 결정부(165)에 제공한다.
문자 결정부(165)는 상기 문자 영역 이미지를 상기 적용 폰트의 각 문자 템플릿과 비교하여 상기 문자 영역 이미지의 각 문자 템플릿에 대한 유사도를 연산하고, 상기 유사도를 이용하여 상기 문자 영역 이미지에 대응하는 문자를 결정한다.
도 9의 각 구성요소는 소프트웨어(software) 또는, FPGA(field-programmable gate array)나 ASIC(application-specific integrated circuit)과 같은 하드웨어(hardware)를 의미할 수 있다. 그렇지만 상기 구성요소들은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 어드레싱(addressing)할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. 상기 구성요소들 안에서 제공되는 기능은 더 세분화된 구성요소에 의하여 구현될 수 있으며, 복수의 구성요소들을 합하여 특정한 기능을 수행하는 하나의 구성요소로 구현할 수도 있다.
도 10은 본 발명의 또 다른 실시예에 따른 문자 인식 장치의 하드웨어 구성을 나타낸 도면이다. 도 9의 문자 인식 장치(106)는 도 10에 도시 된 것과 같은 하드웨어 구조로 구현 될 수 있다.
도 10을 참조하면, 본 실시예에 따른 데이터 처리 장치(200)는 시스템 버스(202), 프로세서(212), RAM(Random Access Memory)(210), 스토리지(204), 외부 장치와의 통신 또는 입출력 장치와의 연결을 위한 인터페이스부(206) 및 디스플레이(208)를 포함할 수 있다. 본 발명에 따른 문자 인식 방법을 구현하는 컴퓨터 프로그램 코드는 스토리지(204)에 저장되어 RAM(210)에 로드 되고 프로세서(212)에 의해 실행될 수 있다. 상기 컴퓨터 프로그램 코드의 실행 결과, 문자 인식 결과를 가리키는 출력 데이터가 RAM(210) 또는 스토리지(204)에 저장 되거나, 네트워크 인터페이스(206)를 통하여 외부 장치에 송신 되거나, 디스플레이(208)를 통해 표시 될 수 있다.
지금까지 도 1 내지 도 10을 참조하여 설명된 본 발명의 개념은 컴퓨터가 읽을 수 있는 매체 상에 컴퓨터가 읽을 수 있는 코드로 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체는, 예를 들어 이동형 기록 매체(CD, DVD, 블루레이 디스크, USB 저장 장치, 이동식 하드 디스크)이거나, 고정식 기록 매체(ROM, RAM, 컴퓨터 구비 형 하드 디스크)일 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체에 기록 된 상기 컴퓨터 프로그램은 인터넷 등의 네트워크를 통하여 다른 컴퓨팅 장치에 전송되어 상기 다른 컴퓨팅 장치에 설치될 수 있고, 이로써 상기 다른 컴퓨팅 장치에서 사용될 수 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.

Claims (15)

  1. 입력 이미지에서 특징 값을 추출 하는 단계;
    상기 특징 값과 각 폰트의 폰트 형상 정보를 이용하여 상기 입력 이미지에 표시 된 문자에 대한 적용 폰트를 결정하는 단계;
    상기 적용 폰트의 폰트 형상 정보를 이용하여, 상기 입력 이미지를 각각의 문자 영역 이미지로 구분 하는 단계;
    상기 문자 영역 이미지를 상기 적용 폰트의 각 문자 템플릿과 비교하여, 상기 문자 영역 이미지의 각 문자 템플릿에 대한 유사도를 연산하는 단계; 및
    상기 유사도를 이용하여 상기 문자 영역 이미지에 대응하는 문자를 결정하는 단계를 포함하는,
    문자 인식 방법.
  2. 제1 항에 있어서,
    상기 적용 폰트를 결정하는 단계는,
    상기 추출 된 특징 값을 이용하여 상기 입력 이미지에 표시 된 각 문자의 크기 및 문자를 구성하는 획의 굵기를 결정 하는 단계; 및
    상기 문자의 크기 및 획의 굵기에 부합하는 폰트 형상 정보를 가진 폰트를 상기 적용 폰트로 결정하는 단계를 포함하는,
    문자 인식 방법.
  3. 제2 항에 있어서,
    상기 입력 이미지에서 특징 값을 추출 하는 단계는,
    상기 입력 이미지에서 에지(edge)를 추출 하는 단계를 포함하고,
    상기 특징 값을 이용하여 상기 입력 이미지에 표시 된 각 문자의 크기 및 문자를 구성하는 획의 굵기를 결정 하는 단계는,
    추출 된 각 에지 중 기 정의 된 최소 길이에 미달 하는 길이를 가지는 에지를 노이즈 처리 하는 단계; 및
    노이즈 처리 되지 않은 각각의 에지를 구성하는 픽셀의 좌표를 이용하여 각 문자의 크기 및 획의 굵기를 결정 하는 단계를 포함하는,
    문자 인식 방법.
  4. 제3 항에 있어서,
    상기 에지를 추출 하는 단계는,
    상기 입력 이미지의 색상 히스토그램을 생성 하는 단계; 및
    상기 입력 이미지를 구성하는 픽셀들 중, 상기 히스토그램에서 소정 값 이상의 비율을 차지하는 색상 값을 가지는 문자 구성 후보 픽셀과 그 인접 픽셀들을 대상으로, 상기 에지를 추출 하는 단계를 포함하는,
    문자 인식 방법.
  5. 제1 항에 있어서,
    상기 입력 이미지에서 특징 값을 추출 하는 단계는,
    상기 입력 이미지에서 에지(edge)를 추출 하는 단계를 포함하고,
    상기 적용 폰트를 결정하는 단계는,
    상기 추출 된 에지 중 원형 에지가 기 지정 된 개수 이상 존재 하는 경우, 도트 타입 폰트로 판정 하는 단계를 포함하는,
    문자 인식 방법.
  6. 제5 항에 있어서,
    상기 적용 폰트를 결정하는 단계는,
    인접한 원형 에지를 그룹화 하는 단계;
    하나의 그룹에 속한 각각의 원형 에지를 구성하는 픽셀의 좌표를 이용하여 각 문자의 크기를 결정 하는 단계;
    각각의 원형 에지의 지름을 이용하여 도트의 굵기를 결정 하는 단계; 및
    상기 문자의 크기 및 도트의 굵기에 부합하는 폰트 형상 정보를 가진 도트 타입 폰트를 상기 적용 폰트로 결정하는 단계를 포함하는,
    문자 인식 방법.
  7. 제1 항에 있어서,
    상기 유사도를 연산하는 단계는,
    상기 문자 영역 이미지의 크기를 상기 적용 폰트의 각 문자 템플릿의 이미지의 크기와 일치시키는 단계를 포함하는,
    문자 인식 방법.
  8. 제1 항에 있어서,
    상기 유사도를 연산하는 단계는,
    상기 문자 영역 이미지와 상기 적용 폰트의 각 문자 템플릿의 이미지 사이의 픽셀 값 일치 비율을 연산 하여 유사도를 연산하는 단계; 및
    상기 문자 영역 이미지가 상기 적용 폰트의 각 문자 템플릿의 특징 요건을 만족하는 지 여부에 의하여 상기 유사도를 조정하는 단계를 포함하는,
    문자 인식 방법.
  9. 제8 항에 있어서,
    상기 적용 폰트의 문자 템플릿은 제1 특징 요건 및 제2 특징 요건을 가지고,
    상기 유사도를 조정하는 단계는,
    상기 문자 영역 이미지가 상기 제1 특징 요건을 만족하지 못한 경우 연산 된 유사도에서 제1 수치를 차감하고, 상기 제2 특징 요건을 만족하지 못한 경우, 연산 된 유사도에서 상기 제1 수치와 다른 값인 제2 수치를 차감하는,
    문자 인식 방법.
  10. 제8 항에 있어서,
    상기 특징 요건은, 특정 영역의 픽셀 값이 만족해야 하는 요건인,
    문자 인식 방법.
  11. 제1 항에 있어서,
    상기 구분 하는 단계는,
    상기 적용 폰트의 폰트 특징 정보 중 자간 및 장평을 이용하여 상기 입력 이미지에 문자 분리 가이드 라인을 설정 하는 단계; 및
    상기 문자 분리 가이드 라인을 기준으로 상기 입력 이미지를 각각의 문자 영역 이미지로 구분 하는 단계를 포함하는,
    문자 인식 방법.
  12. 폰트 특징 정보를 이용하여, 입력 이미지를 각각의 문자 영역 이미지로 구분 하는 단계;
    상기 문자 영역 이미지를 각 문자 템플릿과 비교하여, 상기 문자 영역 이미지의 각 문자 템플릿에 대한 유사도를 연산하는 단계; 및
    상기 유사도를 이용하여 상기 문자 영역 이미지에 대응하는 문자를 결정하는 단계를 포함하되,
    상기 유사도를 연산하는 단계는,
    상기 문자 영역 이미지가 각 문자 템플릿의 특징 요건을 만족하는 지 여부를 반영하는 단계를 포함하는,
    문자 인식 방법.
  13. 제1 내지 제12 항 중 어느 한항의 방법을 수행하는 컴퓨터 프로그램이 기록 된, 컴퓨터로 읽을 수 있는 기록 매체.
  14. 입력 이미지에서 특징 값을 추출 하는 이미지 특징 추출부;
    상기 특징 값과 각 폰트의 폰트 형상 정보를 이용하여 상기 입력 이미지에 표시 된 문자에 대한 적용 폰트를 결정 하는 폰트 결정부;
    상기 적용 폰트의 폰트 형상 정보를 이용하여, 상기 입력 이미지를 각각의 문자 영역 이미지로 구분 하는 문자 영역 구획부; 및
    상기 문자 영역 이미지를 상기 적용 폰트의 각 문자 템플릿과 비교하여 상기 문자 영역 이미지의 각 문자 템플릿에 대한 유사도를 연산하고, 상기 유사도를 이용하여 상기 문자 영역 이미지에 대응하는 문자를 결정하는 문자 결정부를 포함하는,
    문자 인식 장치.
  15. 제14 항에 있어서,
    상기 문자 영역 이미지에 대하여 소정의 화질 보정용 이미지 프로세싱을 수행하고, 이미지 프로세싱이 완료된 상기 문자 영역 이미지를 이진화(binarization)를 수행하며, 이진화 된 상기 문자 영역 이미지를 상기 문자 결정부에 제공하는 이미지 보정부를 더 포함하는,
    문자 인식 장치.
PCT/KR2015/005363 2014-05-30 2015-05-28 문자 인식 방법 및 그 장치 WO2015183015A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2014-0066190 2014-05-30
KR1020140066190A KR102208683B1 (ko) 2014-05-30 2014-05-30 문자 인식 방법 및 그 장치

Publications (1)

Publication Number Publication Date
WO2015183015A1 true WO2015183015A1 (ko) 2015-12-03

Family

ID=54699277

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/005363 WO2015183015A1 (ko) 2014-05-30 2015-05-28 문자 인식 방법 및 그 장치

Country Status (2)

Country Link
KR (1) KR102208683B1 (ko)
WO (1) WO2015183015A1 (ko)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106611174A (zh) * 2016-12-29 2017-05-03 成都数联铭品科技有限公司 一种非常见字体的ocr识别方法
CN106874911A (zh) * 2017-03-03 2017-06-20 沈阳工程学院 一种应用划分法得到的面积比例来进行印刷体数字识别的方法
CN109472234A (zh) * 2018-11-01 2019-03-15 北京爱知之星科技股份有限公司 一种手写输入智能识别的方法
CN109784146A (zh) * 2018-12-05 2019-05-21 广州企图腾科技有限公司 一种字体种类识别方法、电子设备、存储介质
CN112784932A (zh) * 2021-03-01 2021-05-11 北京百炼智能科技有限公司 一种字体识别方法、装置和存储介质
CN112800961A (zh) * 2021-01-28 2021-05-14 北京有竹居网络技术有限公司 笔画书写顺序检测方法、装置、介质和电子设备
CN113076952A (zh) * 2021-03-02 2021-07-06 西安中诺通讯有限公司 一种文本自动识别和增强的方法及装置
CN115687669A (zh) * 2022-10-12 2023-02-03 广州中望龙腾软件股份有限公司 文字缓存方法、终端以及存储介质
CN116049461A (zh) * 2023-03-29 2023-05-02 北京思想天下教育科技有限公司 一种基于大数据云平台的题目转化系统
CN116524529A (zh) * 2023-07-04 2023-08-01 青岛海信信息科技股份有限公司 一种基于图形嵌套关系的图层识别新方法
CN112784932B (zh) * 2021-03-01 2024-06-07 北京百炼智能科技有限公司 一种字体识别方法、装置和存储介质

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102073644B1 (ko) * 2017-05-04 2020-02-06 주식회사 매스프레소 이미지에 포함된 텍스트 인식장치, 텍스트 인식방법 및 텍스트 인식방법을 실행하기 위한 프로그램을 기록한 기록매체
WO2019203489A1 (ko) * 2018-04-19 2019-10-24 넷마블 주식회사 문자 인식을 위한 영상 전처리 장치 및 방법
KR102102394B1 (ko) * 2018-04-19 2020-04-27 넷마블 주식회사 문자 인식을 위한 영상 전처리 장치 및 방법
CN111144416A (zh) * 2019-12-25 2020-05-12 中国联合网络通信集团有限公司 信息处理方法和装置
KR102316969B1 (ko) * 2019-12-31 2021-10-26 주식회사 서밋코퍼레이션 카메라를 이용하여 촬상한 이미지에 포함된 텍스트의 인식이 가능한 전자장치 및 그 제어방법
CN111832550B (zh) * 2020-07-13 2022-06-07 北京易真学思教育科技有限公司 数据集制作方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05225391A (ja) * 1991-11-01 1993-09-03 Eastman Kodak Co 光学的文字認識を改善するドット・マトリックス印字テキストの検出方法および装置
KR980004113A (ko) * 1997-12-10 1998-03-30 양승택 다국어 문서 인식에서 개별 문자 추출 방법 및 그 인식 시스템
US20080235564A1 (en) * 2007-03-21 2008-09-25 Ricoh Co., Ltd. Methods for converting electronic content descriptions
KR20090058914A (ko) * 2007-12-05 2009-06-10 황병익 문자 인식 방법
US20120054231A1 (en) * 2010-08-31 2012-03-01 International Business Machines Corporation Quick Font Match

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101479850B1 (ko) 2012-07-09 2015-01-09 기산전자 주식회사 시트류 판별 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05225391A (ja) * 1991-11-01 1993-09-03 Eastman Kodak Co 光学的文字認識を改善するドット・マトリックス印字テキストの検出方法および装置
KR980004113A (ko) * 1997-12-10 1998-03-30 양승택 다국어 문서 인식에서 개별 문자 추출 방법 및 그 인식 시스템
US20080235564A1 (en) * 2007-03-21 2008-09-25 Ricoh Co., Ltd. Methods for converting electronic content descriptions
KR20090058914A (ko) * 2007-12-05 2009-06-10 황병익 문자 인식 방법
US20120054231A1 (en) * 2010-08-31 2012-03-01 International Business Machines Corporation Quick Font Match

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106611174A (zh) * 2016-12-29 2017-05-03 成都数联铭品科技有限公司 一种非常见字体的ocr识别方法
CN106874911A (zh) * 2017-03-03 2017-06-20 沈阳工程学院 一种应用划分法得到的面积比例来进行印刷体数字识别的方法
CN109472234A (zh) * 2018-11-01 2019-03-15 北京爱知之星科技股份有限公司 一种手写输入智能识别的方法
CN109472234B (zh) * 2018-11-01 2021-07-20 北京爱知之星科技股份有限公司 一种手写输入智能识别的方法
CN109784146B (zh) * 2018-12-05 2023-11-07 广州企图腾科技有限公司 一种字体种类识别方法、电子设备、存储介质
CN109784146A (zh) * 2018-12-05 2019-05-21 广州企图腾科技有限公司 一种字体种类识别方法、电子设备、存储介质
CN112800961A (zh) * 2021-01-28 2021-05-14 北京有竹居网络技术有限公司 笔画书写顺序检测方法、装置、介质和电子设备
CN112784932A (zh) * 2021-03-01 2021-05-11 北京百炼智能科技有限公司 一种字体识别方法、装置和存储介质
CN112784932B (zh) * 2021-03-01 2024-06-07 北京百炼智能科技有限公司 一种字体识别方法、装置和存储介质
CN113076952A (zh) * 2021-03-02 2021-07-06 西安中诺通讯有限公司 一种文本自动识别和增强的方法及装置
CN113076952B (zh) * 2021-03-02 2024-05-28 西安中诺通讯有限公司 一种文本自动识别和增强的方法及装置
CN115687669A (zh) * 2022-10-12 2023-02-03 广州中望龙腾软件股份有限公司 文字缓存方法、终端以及存储介质
CN116049461B (zh) * 2023-03-29 2023-05-30 北京思想天下教育科技有限公司 一种基于大数据云平台的题目转化系统
CN116049461A (zh) * 2023-03-29 2023-05-02 北京思想天下教育科技有限公司 一种基于大数据云平台的题目转化系统
CN116524529B (zh) * 2023-07-04 2023-10-27 青岛海信信息科技股份有限公司 一种基于图形嵌套关系的图层识别新方法
CN116524529A (zh) * 2023-07-04 2023-08-01 青岛海信信息科技股份有限公司 一种基于图形嵌套关系的图层识别新方法

Also Published As

Publication number Publication date
KR102208683B1 (ko) 2021-01-28
KR20150137752A (ko) 2015-12-09

Similar Documents

Publication Publication Date Title
WO2015183015A1 (ko) 문자 인식 방법 및 그 장치
US10853638B2 (en) System and method for extracting structured information from image documents
US9189694B2 (en) Image processing device and image processing method
US8965127B2 (en) Method for segmenting text words in document images
EP2669847B1 (en) Document processing apparatus, document processing method and scanner
JP5379085B2 (ja) スキャンされた文書画像内の前景画素群の連結グループをマーキング種類に基づき分類する方法及びシステム
US8027539B2 (en) Method and apparatus for determining an orientation of a document including Korean characters
CN108764352B (zh) 重复页面内容检测方法和装置
US11983910B2 (en) Image processing system, image processing method, and storage medium each for obtaining pixels of object using neural network
CN110135225B (zh) 样本标注方法及计算机存储介质
CN111291572A (zh) 一种文字排版方法、装置及计算机可读存储介质
US11935314B2 (en) Apparatus for generating a binary image into a white pixel, storage medium, and method
Ayesh et al. A robust line segmentation algorithm for Arabic printed text with diacritics
CN111738252B (zh) 图像中的文本行检测方法、装置及计算机系统
Shafait et al. Layout analysis of Urdu document images
RU2597163C2 (ru) Сравнение документов с использованием достоверного источника
Fateh et al. Enhancing optical character recognition: Efficient techniques for document layout analysis and text line detection
JP5601027B2 (ja) 画像処理装置及び画像処理プログラム
Tikader et al. Histogram of oriented gradients for English-Bengali script recognition
JP5857634B2 (ja) 単語間空白検出装置、単語間空白検出方法及び単語間空白検出用コンピュータプログラム
US11928877B2 (en) Systems and methods for automatic context-based annotation
US20210042555A1 (en) Information Processing Apparatus and Table Recognition Method
CN104981819A (zh) 字符识别系统、字符识别程序以及字符识别方法
US20220375095A1 (en) Apparatus and manual providing apparatus
JP4974367B2 (ja) 領域分割方法及び装置、並びにプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15799383

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15799383

Country of ref document: EP

Kind code of ref document: A1