WO2019059503A1 - Image capture for character recognition - Google Patents
Image capture for character recognition Download PDFInfo
- Publication number
- WO2019059503A1 WO2019059503A1 PCT/KR2018/007501 KR2018007501W WO2019059503A1 WO 2019059503 A1 WO2019059503 A1 WO 2019059503A1 KR 2018007501 W KR2018007501 W KR 2018007501W WO 2019059503 A1 WO2019059503 A1 WO 2019059503A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- character
- image
- unit
- camera unit
- camera
- Prior art date
Links
- 238000012015 optical character recognition Methods 0.000 claims abstract description 42
- 230000003287 optical effect Effects 0.000 claims abstract description 32
- 238000004891 communication Methods 0.000 claims abstract description 19
- 238000000034 method Methods 0.000 claims description 38
- 238000007781 pre-processing Methods 0.000 claims description 14
- 238000005259 measurement Methods 0.000 abstract description 7
- 210000003811 finger Anatomy 0.000 description 32
- 238000007726 management method Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 6
- 238000000605 extraction Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000003702 image correction Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 241001179707 Penthe Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/148—Segmentation of character regions
- G06V30/153—Segmentation of character regions using recognition of characters or words
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/20—Linear translation of whole images or parts thereof, e.g. panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Definitions
- This specification relates to image acquisition for character recognition.
- a character is inputted through a keypad provided, a character is inputted through a handwriting input unit, and the character is converted into character information to perform a dictionary search.
- the electronic dictionary implemented by the smartphone application program captures a character image with a camera built in a smart phone, converts the character image into an optical character recognition process, and performs a dictionary search.
- An electronic dictionary implemented by an application program causes problems such as a character recognition error due to a quality problem of a character image through a smartphone camera.
- the present invention provides an apparatus and method for increasing the character recognition rate through an electronic dictionary in a camera.
- the character image input apparatus includes a body portion extending in one direction, a communication portion provided in the body portion and performing communication with another device, a tip portion disposed at one end of the body portion, A tilt measuring unit for obtaining a tilt of an optical axis of the camera unit; and a controller for controlling the inclination of the target object when the tip unit is in contact with the target object, Acquires the image of the surface of the object and the slope between the surface of the object and the optical axis, and the other device recognizes the character information through optical character recognition based on the image and the slope, To the device.
- the camera unit may be disposed at a part of the body part, away from a surface of the object, in consideration of a focal distance.
- a finger guide portion for receiving the finger may be formed on the body portion such that when the user holds the finger, the user's finger is out of the field of view of the camera portion.
- the imaging element of the camera section may be an imaging element capable of taking an infrared image of the surface of the object.
- the present specification also discloses an electronic dictionary system configured with a character image input device and a dictionary search device.
- the character image input apparatus includes a camera unit for acquiring an image of a surface of an object disposed on an optical axis, a tilt measuring unit for obtaining a tilt of an optical axis of the camera unit with respect to a vertical axis of a surface of the object, And a first communication unit for transmitting the data and the tilt value to the dictionary searching apparatus, wherein the dictionary searching apparatus includes a second communication unit for receiving the image data and the tilt value from the character image input apparatus, An image preprocessing unit for correcting the image based on the extracted character information, an optical character recognition unit for extracting character information from the corrected image, a search unit for searching for the extracted character information, and a display unit for displaying the search result do.
- the electronic dictionary system collects image data of an image having a low character recognition rate from the acquired image data from the dictionary search apparatus, analyzes the collected image data, Further comprising a management apparatus for setting parameters related to character recognition of the optical character recognition section, wherein the dictionary search apparatus further includes a parameter management section for updating parameters of the optical character recognition section with the parameters.
- the present invention also provides a character recognition electronic dictionary, wherein the character recognition electronic dictionary includes a camera unit for acquiring an image of a character, a tilt measuring unit for measuring a tilt of the optical axis of the camera unit with respect to the character, An optical character recognition unit for extracting character information from the corrected character image, and a search unit for searching for the meaning of the extracted character information and outputting the result .
- the character recognition electronic dictionary includes a camera unit for acquiring an image of a character, a tilt measuring unit for measuring a tilt of the optical axis of the camera unit with respect to the character, An optical character recognition unit for extracting character information from the corrected character image, and a search unit for searching for the meaning of the extracted character information and outputting the result .
- the camera unit is disposed in a part of a body part extending in one direction, and the camera part is spaced apart from one end of the body part so as to position the character at a focal distance of the camera part by the body part .
- a finger guide portion for receiving the finger may be formed on the body portion such that when the user holds the finger, the user's finger is out of the field of view of the camera portion.
- a search method of a character recognition electronic dictionary includes the steps of acquiring an image for a character by user input, measuring a tilt of an optical axis of the camera with respect to the character, A step of extracting character information from the corrected character image, a step of retrieving a meaning of the extracted character information, and a step of displaying the search result .
- the character photographing apparatus and the dictionary search apparatus are separated from each other, and the character image can be quickly photographed and retrieved accurately.
- the character recognition rate can be improved by correcting the distortion of the character image due to the inclination of the camera.
- a clear character image can be quickly obtained through a character image input apparatus having a camera having a fixed focal length.
- the character recognition rate can be improved by updating the character recognition-related parameter based on the analysis result of the erroneous character image data in the process of optical character recognition.
- the character recognition rate can be increased by collecting the false-type character image and learning it through the neural network.
- FIG. 1 is a schematic view of a character recognition electronic dictionary system including a character image input device and a dictionary search device according to an embodiment of the present invention.
- FIG. 2 is a diagram illustrating an example of the components of a character image input apparatus according to an embodiment of the present invention.
- Fig. 3 is a block diagram showing the devices constituting the character recognition electronic dictionary system shown in Fig. 1 and the respective components of these devices.
- FIG. 4 is a diagram illustrating an example of measuring a tilt of a camera unit included in a character image input apparatus, and examples of character images according to a tilt of the character image input apparatus.
- FIG. 5 is a view showing a placement position of a camera unit in consideration of a focal length in a character image input device according to an embodiment of the present invention.
- FIG. 6 is a diagram illustrating an example of a finger guide unit for holding a finger so as not to block the angle of view of the camera unit and an example of holding a finger in the character image input device according to the embodiment of the present invention.
- FIG. 7 is a flowchart illustrating an operation of recognizing a character and performing a dictionary search in a character recognition electronic dictionary system according to an embodiment of the present invention.
- first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms.
- the terms may be named for the purpose of distinguishing one element from another, for example, without departing from the scope of the right according to the concept of the present invention, the first element may be referred to as a second element,
- the component may also be referred to as a first component.
- module and “part” for the components used in the present specification are given or mixed in consideration of ease of specification only and do not have their own meaning or role, May refer to a functional or structural combination of hardware to perform the method according to an embodiment of the invention or software that can drive the hardware.
- FIG. 1 schematically shows a character recognition electronic dictionary system including a character image input device and a dictionary search device according to an embodiment of the present invention.
- the character recognition electronic dictionary system 1000 can be configured to include the character image input device 100, the dictionary search device 200, and the management device 300.
- the character image input apparatus 100 is provided separately from the dictionary search apparatus 200.
- the character image input apparatus 100 is provided with a camera section in a pen-shaped body section (housing), and a word or a sentence to be searched by the user is printed or displayed It is possible to acquire an image of a character by photographing the surface, and the obtained character image can be transmitted to the dictionary searching apparatus 200, and the dictionary searching apparatus 200 can perform a dictionary search.
- the dictionary searching apparatus 200 receives the image data for the character to be searched by the user from the character image input apparatus 100, corrects the extracted character image so that the character information can be easily extracted, And extracts text data through an Optical Character Recognition (OCR) process. Then, the dictionary searching apparatus 200 performs a dictionary search, finds the meaning of the extracted character information, and displays the result to the user.
- OCR Optical Character Recognition
- the management apparatus 300 collects image data of a character image having low recognition rate such as no recognition or wrong recognition, and analyzes the collected image data to determine a recognition rate The setting of the device related to the extraction of the character information is updated.
- FIG. 2 illustrates, by way of example, constituent elements of a character image input apparatus according to an embodiment of the present invention.
- the character image input apparatus 100 includes a body part 105 formed to extend in one direction, a communication part (not shown) provided in the body part, A camera unit 120 disposed at a part of the body part 105 to acquire an image of a surface of an object disposed on the optical axis, A tilt measuring unit 130 for obtaining a tilt of an optical axis of the camera unit 120 and a tilt measuring unit 130 provided in the body unit 105.
- a control unit 150 for controlling the image and the slope to be transmitted to the other device so as to recognize the character information through optical character recognition based on the obtained image and the obtained slope value.
- the body portion 105 is a pen-shaped housing extending in one direction, and a user can take a character image by holding the body portion 105 by hand.
- a finger guide portion for receiving the finger is formed on an outer circumferential surface of the body portion 105 so that the user's finger is outside the field of view (FOV) of the camera portion when the user holds the body portion 105 . Therefore, the user can acquire a perfect image in which the finger does not cover the surface of the object.
- FOV field of view
- the tip portion 110 is disposed at one end of the body portion 105 and includes a button switch connected to the tip portion 110.
- the button switch connected to the tip part 110 is pressed .
- the camera unit 120 may be disposed on a part of the body 105 and may acquire images of the surface of the object disposed on the optical axis.
- the camera unit 120 is disposed in a part of the body part apart from the surface of the object in consideration of the focal distance of the camera unit 120, there is no need to adjust the focus when photographing the surface, So that a clear image can be captured.
- the image pickup element of the camera unit 120 may be an image pickup element capable of taking an infrared ray image as well as an image of a visible ray region on the surface of the object.
- the inclination measuring unit 130 may measure the inclination of the camera unit 120 with respect to the axis perpendicular to the surface of the object by acquiring the inclination of the optical axis of the camera unit 120.
- the controller 150 controls the other device to adjust the obtained image and the obtained tilt value
- the image and the slope may be controlled to be transmitted to the other device so as to recognize the character information through optical character recognition as a basis.
- the other apparatus corrects the tilt of the image based on the received image and tilt value, and extracts search data from the corrected image through an optical character recognition (OCR) process.
- OCR optical character recognition
- the other apparatus can perform a dictionary search, an image search, and the like based on the extracted retrieval data, and then display the retrieval result.
- the other apparatus may be a device for extracting search data through an optical character recognition process from input image data as in the case of the dictionary search apparatus shown in FIG. 1 and performing a search.
- the user can simply place the tip portion 110 of the pen-shaped body portion 105 on the surface of the object on which the character to be searched is displayed, The gradient value can be obtained.
- Fig. 3 is a block diagram showing the devices constituting the character recognition electronic dictionary system shown in Fig. 1 and the respective components of these devices.
- the character image input apparatus 100 includes a user input unit 111 for receiving a user command and instructing a camera unit to acquire a character image, a camera unit 120 for acquiring an image for a character, A communication unit 140 for transmitting the data on the obtained character image and the measured tilt value to the dictionary searching apparatus, a tilt measuring unit 130 for measuring the tilt of the optical axis of the camera unit 120, And a controller 150 for allowing the camera unit 120 to acquire a character image and allow the tilt measuring unit 130 to measure the tilt of the optical axis of the camera unit 120.
- the character image input apparatus 100 may have a pen-shaped body extending in one direction.
- the character input apparatus 100 may include a user input unit 111, a camera unit 120, The tilt measuring unit 130, and the communication unit 140 may be disposed.
- the user input unit 111 may receive a user command for a character image shooting and a dictionary search for a pre-search through an input method such as a touch input, a button input, a motion input, and a sound input.
- the user input unit 111 when the user input unit 111 receives a user's command through a touch input or a button input, the user input unit 111 displays a touch pad or a touch pad on the surface of the pen- And may be provided in the form of a push button.
- the user touches the touch pad, inputs a specific gesture on the touch pad, or presses the push button
- the camera 120 provided in the character image input apparatus 100 photographs the target character to obtain a character image and measures the tilt of the optical axis of the camera unit with respect to the character,
- the data for the obtained character image and the measured slope value are transmitted to the dictionary searching apparatus 200 in order.
- a pen-tip type button is connected to one end of the body of the character image input apparatus 100, When the user brings the character image input apparatus 100 to the surface of the printed medium or the surface of the display on which the characters are displayed, the pen tip type button can be pressed.
- the user input unit 111 recognizes a user's specific motion through a motion sensor (for example, an acceleration sensor and a gyro sensor) provided in the character image input apparatus 100, Can be input.
- a motion sensor for example, an acceleration sensor and a gyro sensor
- the user input portion 111 displays the built- The motion pattern of the character image input apparatus 100 according to the behavior of the user is measured.
- the user input unit 111 compares a motion pattern stored in advance with the measured motion pattern, for example, whether or not the character image input apparatus 100 is similar to the motion pattern when the character image is input to the printed surface of the target character do.
- the user input unit 111 causes the camera unit 120 provided in the character image input apparatus 100 to photograph the target character A step of acquiring a character image, measuring a tilt of the optical axis of the camera unit with respect to the character, and transmitting data of the obtained character image and the measured tilt value to the dictionary searching apparatus 200 .
- the user input unit 111 recognizes a specific voice of a user through a sound sensor (e.g., a microphone or the like) provided in the character image input apparatus 100, .
- a sound sensor e.g., a microphone or the like
- the camera unit 120 may capture the target character to acquire a character image, measure the tilt of the optical axis of the camera unit with respect to the character, and then calculate the data of the obtained character image and the measured tilt value
- the dictionary search apparatus 200 and procedures for performing character image correction and dictionary search are sequentially performed.
- the user command for the character image shooting and the dictionary search for the dictionary search is input through the input method such as touch input, button input, motion input, sound input, etc.
- the method and means for receiving the command are not limited to the input method and the input means and do not exclude any method or means capable of receiving the input of the user in addition to the input method and the input means.
- a character image for extracting a character is obtained by using a CMOS element used in a general digital camera or an image sensor of a visible light region such as a CCD element as an imaging element of the camera unit 120.
- the character recognition rate in the character image captured by the light scattered on the surface is low .
- the use of an imaging device capable of eliminating the influence of diffuse reflection can increase the character recognition rate.
- the character image of the infrared region can be photographed by using the image sensor of the infrared region as the image sensing element of the camera portion 120.
- the camera unit 120 may be a NoIR camera with an IR filter removed.
- the camera unit 120 can acquire not only the visible light but also the character image including the infrared region, so that regardless of the nature of the surface of the medium on which the character to be photographed is displayed, Can be obtained.
- the infrared sensor is used as the imaging element of the camera unit 120, or when the NoIR camera module is used as the module of the camera unit 120, it is possible to prevent degradation of the character image due to diffuse reflection, The recognition rate of the character information in the optical character recognition process can be increased.
- a structured light projector may be coupled to the camera unit 120 to capture a character image, thereby increasing the character recognition rate.
- the tilt measuring unit 130 measures the tilt of the character on the basis of the vertical axis with respect to the surface, The inclination of the optical axis of the camera unit 120 is measured.
- the subject 120 is a character
- a distorted character image is obtained when the subject 120 is photographed in a state in which the camera unit 120 does not form an angle perpendicular to the subject.
- the character recognition rate is lowered during the optical character recognition process.
- the image preprocessing unit 220 calculates the distortion (distortion) of the character using the measured angle value (slope) It is possible to improve the character recognition rate in the optical character recognition process.
- the communication unit 140 included in the character image input apparatus 100 transmits data on the character image acquired by the camera unit 120 and data on the tilt value measured by the tilt measuring unit 130, And transmits it to the dictionary search apparatus 200.
- the control unit 150 of the character image input apparatus 100 instructs the camera unit 120 to acquire a character image and instructs the tilt measuring unit 130 to acquire the character And transmits the data on the obtained character image and the measured tilt value to the dictionary searching apparatus 200.
- the dictionary searching apparatus 200 includes a communication unit 210 for receiving character image data and slope measurement data from the character image input apparatus 100, a video preprocessing unit for correcting the character image based on the received slope value, An optical character recognition unit 230 for extracting text data from the corrected character image, a search unit 240 for performing a dictionary search to find the meaning of the character information, And a display unit 250 for displaying an image.
- the communication unit 210 receives character image data and tilt measurement value data transmitted by the communication unit 140 of the character image input device 100.
- the image preprocessing unit 220 receives the character image data and the slope measurement value data from the communication unit 210, and then, based on the slope measurement value, The distortion of the generated character image can be corrected.
- the image preprocessing unit 220 binarizes the photographed (acquired) character image so that the optical character recognition process can be well processed.
- the binarization may be executed before the character image distortion correction, or after the character image distortion correction.
- the image preprocessing unit 220 performs a process of converting the image of the character image obtained by using the image correction method such as homography or Hough Transform to the degree of inclination of the optical axis of the camera unit 120, It is possible to provide the character image to the optical character recognition unit 230 such that the camera unit 120 vertically photographs the character to be photographed.
- the image correction method such as homography or Hough Transform
- the image preprocessing unit 220 may perform image processing such as binarization, noise removal, border removal, skewing / deskewing, By performing the correction, the character recognition rate in the optical character recognition process can be increased.
- the optical character recognition unit 230 receives the corrected character image data from the image preprocessing unit 220 and then performs character recognition on the corrected character image through an optical character recognition process, .
- the optical character recognition unit 230 analyzes characters corresponding to the character image through a classifier such as a fully-connected layer or a SVM (Support Vector Machine), and extracts a text .
- a classifier such as a fully-connected layer or a SVM (Support Vector Machine)
- SVM Small Vector Machine
- the optical character recognition unit 230 When extracting the character information from the character image, the optical character recognition unit 230 performs character extraction according to the parameter setting value according to the language-specific characteristic, thereby reducing the possibility of recognition of the character or the possibility of misrecognition, The recognition rate can be increased.
- the search unit 240 After receiving the character information recognized by the optical character recognition unit 230, the search unit 240 performs a pre-search to find the meaning of the character.
- the search unit 240 may access the network to retrieve the meaning of the character, or may access the dictionary data provided in the dictionary search apparatus 200 to retrieve the meaning of the character .
- the display unit 250 displays the result of the search by the search unit 240, and displays the meaning of the word or the translation result of the character to the user.
- the character recognition electronic dictionary system 1000 recognizes a character even if it is constituted by only the character image input device 100 and the dictionary search device 200 and searches for the meaning of the recognized character and displays it to the user .
- the character recognition electronic dictionary system 1000 may further include the management apparatus 300 to increase the character recognition rate and display more accurate search results to the user.
- the management apparatus 300 includes a mistaken image management DB 310 for collecting data of a character image in which character information extraction has failed, such as when recognition is not performed at all, or when recognition is incorrect, from the dictionary search apparatus 200, And a neural network manager 320 for adjusting parameters related to extraction of character information in the optical character recognition unit 230 so as to improve the recognition rate of the character information by analyzing and learning the image data, May be transmitted to the dictionary search apparatus 200 to increase the recognition rate of the character information of the optical character recognition unit 230.
- a mistaken image management DB 310 for collecting data of a character image in which character information extraction has failed, such as when recognition is not performed at all, or when recognition is incorrect, from the dictionary search apparatus 200
- a neural network manager 320 for adjusting parameters related to extraction of character information in the optical character recognition unit 230 so as to improve the recognition rate of the character information by analyzing and learning the image data, May be transmitted to the dictionary search apparatus 200 to increase the recognition rate of the character information of the optical character recognition unit 230.
- the misty-type image management DB 310 determines whether or not the character image has a low recognition rate, such as when the character information is not recognized at all.
- the image data is collected from the dictionary search apparatus 200 and classified into types, and the classified image data is transmitted to the neural network management unit 320.
- the neural network management unit 320 learns or re-learns the image data transmitted from the false-feeling image management DB 310 through the neural network to derive the parameters. That is, when extracting character information from the optical character recognition unit 230, the parameters can be adjusted so as to improve the recognition rate of character recognition.
- the first search device 200 may further include a parameter management unit 260 to receive parameters adjusted by the management device 300 and to update the character recognition related parameters of the optical character recognition unit 230 have.
- the parameter management unit 260 stores various parameters used for extracting text data from the character image in the optical character recognition process according to the characteristics of each language, The character information can be extracted from the photographed character image with reference to the parameters.
- the parameter may be determined according to various characteristics of each language such as a language type, a character notation method, and may be determined in consideration of characteristics related to language-specific properties in addition to the listed properties.
- the parameter may be determined according to various characteristics of the character itself such as the overall color of the character image, the lighting condition, the quality of the displayed character, the font type used, the character type, the color of the character, Can be determined in consideration of the characteristics related to the inherent properties.
- the character image is corrected using the tilted angle value of the camera unit 120 in the character image input apparatus 100, Will be described in detail with reference to Figs. 3 and 4.
- FIG. 4A is a diagram illustrating an example of a tilt of a character image input device
- FIG. 4B is a diagram illustrating an example of a character image acquired in a state where an optical axis of the character image input device is perpendicular to a character
- FIG. 4 (c) is a diagram showing an example of a character image obtained in a state in which the optical axis of the camera unit in the character image input device is inclined with respect to the character.
- the tilt measuring unit 130 included in the character image input apparatus 100 detects a tilt of a surface of a paper sheet,
- the tilt A of the optical axis of the camera unit 120 can be measured.
- a distorted character image is obtained when the camera 120 photographs the subject in a state where the camera 120 does not form an angle perpendicular to the subject (for example, the paper surface on which characters are printed) The recognition rate of the character is lowered.
- FIG. 4 (b) is an image in which the camera 120 photographs the character with an angle perpendicular to the paper surface on which the characters are printed, and there is no distortion in the characters to be photographed.
- Fig. 4 (c) The camera section 120 photographs the character in a state in which the camera section 120 does not form an angle perpendicular to the paper surface on which the character is printed as in the case of the character image input apparatus 100 shown in FIG. .
- the character image input apparatus 100 photographs a character in a state in which it is raised, distortion occurs in the character image and the character recognition rate is lowered.
- the word " contents " may be misrecognized as " corternts ".
- the image preprocessing unit 220 corrects the distortion of the character using the measured angle value, the distorted character image shown in FIG. 4C is corrected as shown in FIG. 4B as a character image in a state in which the image sensor 120 is not inclined. Accordingly, there is an effect that the character recognition rate in the optical character recognition process can be enhanced through the inclination correction of the character image.
- the character distortion correction in the character image input apparatus 100 may be performed by using an image correction method such as homography or Hough transform in the image preprocessing unit 220 so that the image sensor 120 is inclined Can be corrected as a character image acquired in a non-inclined state.
- an image correction method such as homography or Hough transform in the image preprocessing unit 220 so that the image sensor 120 is inclined Can be corrected as a character image acquired in a non-inclined state.
- the tilt measuring unit 130 may be a gyro sensor and an acceleration sensor. In this case, the tilt measuring unit 130 may measure the tilt of the camera unit 120 in more than one direction.
- the image preprocessing unit 220 can correct the photographed character image even if the character image input apparatus 100 is inclined in various directions according to the user.
- FIG. 5 is a diagram illustrating a position of a camera unit in consideration of a focal length in a character image input device according to an exemplary embodiment of the present invention.
- FIG. 5 (a) 5 (b) is an illustration showing an example in which a camera unit is disposed on the upper outer peripheral surface of the character image input device.
- the camera unit 120 of the character image input device 100 may be a camera having a fixed focus.
- a camera module of a fixed focus type is used as the camera unit 120, and the camera module 120 of the character image input device 100 includes a pen-
- the fixed focus camera module may be disposed in consideration of the focal length F thereof or the fixed camera module may be used as the camera module 120 as shown in FIG.
- the camera module of the fixed focus type is disposed in a protruding housing at the upper end of the pen-shaped body portion 105 of the character image input device 100 in consideration of the focal length F thereof, You can shoot.
- the camera module 120 of the fixed focus type is disposed on the body part 105 at a predetermined distance from the pen tip formed at one end of the body part 105, that is, at a focal distance, , It is not necessary to take a character image after focusing on each one, so that a clear character image can be obtained quickly.
- FIG. 6 is a diagram illustrating an example of a finger guide unit for holding a finger so as not to block the angle of view of the camera unit and an example of holding a finger in the character image input device according to the embodiment of the present invention.
- the pen-shaped body portion 105 may be configured such that when the user grasps the body portion 105, the user's finger enters the field of view (FOV) of the camera portion 120
- a finger guide B for receiving the finger may be formed on a part of the body part 105.
- FIG. 6A shows a state in which the camera unit 120 is disposed inside the lower end of the body part 105 and the finger guide part B is provided in the lower part of the body part 105, And is formed on the outer peripheral surface of the body portion 105.
- the middle finger stays in the finger guide portion B as shown in Fig. 6 (b) (FOV) of the camera unit 120 is not blocked.
- 6C shows a state in which the camera unit 120 is disposed outside the upper end of the body part 105 and the finger guide unit B is moved in the vertical direction of the camera unit 120, And is formed on the outer peripheral surface of the body portion 105.
- the thumb and index finger stay in the finger guide portion B as shown in Fig. 6 (d) , So that the center fingers do not obscure the angle of view (FOV) of the camera unit 120.
- the finger guide portion B guides the user's finger so as not to obscure the field of view of the camera portion 120 due to the finger, and can be any shape as long as it is a shape that is indented or protruded, Do.
- FIG. 7 is a flowchart illustrating an operation of recognizing a character and performing a dictionary search in a character recognition electronic dictionary system according to an embodiment of the present invention.
- the character image input apparatus 100 receives a user's command through the user input unit 111 and instructs the camera unit 120 to acquire a character image (S701).
- the camera unit 120 captures a character and acquires the image, and the tilt measuring unit 130 measures the tilt of the optical axis of the camera unit 120 with respect to the character (S703) .
- the character image input apparatus 100 transmits the obtained character image data and the measured tilt value to the dictionary search apparatus 200 through the communication unit 140 (S705).
- the communication unit 210 of the dictionary searching apparatus 200 receives the data on the obtained character image and the measured tilt value.
- the image preprocessing unit 220 in the dictionary searching apparatus 200 corrects the tilt distortion of the character image based on the data on the photographed character image and the received tilt value in step S707.
- the optical character recognition unit 230 in the dictionary searching apparatus 200 extracts character information from the corrected character image (S709).
- step S709 If it is determined in step S709 that the character image is erroneously recognized in the character information extraction process or is not recognized at all, the dictionary search device 200 transmits the character image in which the recognition problem occurred to the management device 300 (S713).
- the management apparatus 300 analyzes and learns the received character image data to adjust the parameters related to the extraction of information for recognizing characters in the character image, thereby improving the recognition rate of the character information (S715).
- the dictionary search apparatus 200 receives the parameter whose value has been adjusted from the management apparatus 300 (S717), and updates the parameters of the optical character recognition section 230 with the received parameters. Accordingly, the dictionary searching apparatus 200 can extract the character information from the character image in a state where the recognition rate of the optical character recognition apparatus is improved.
- the method of searching for a character recognition electronic dictionary can be embodied as computer readable code on a computer readable recording medium.
- a computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like.
- the computer-readable recording medium may be distributed over network-connected computer systems so that computer readable codes can be stored and executed in a distributed manner.
- functional programs, codes, and code segments for implementing the present invention can be easily deduced by programmers skilled in the art to which the present description belongs.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Character Input (AREA)
Abstract
A text image input device disclosed in the present specification comprises: a body extending in one direction; a communication unit disposed within the body so as to communicate with any other device; a tip unit disposed at one end of the body; a camera unit disposed in a portion of the body so as to capture an image of the surface of a subject disposed on the optical axis thereof; an inclination measurement unit for acquiring the inclination of the optical axis of the camera unit; and a control unit disposed within the body and performing control such that, when the tip unit is brought into contact with the subject, an image of the surface of the subject and the inclination between the surface of the subject and the optical axis are acquired, and the image and the inclination are transmitted to the other device so as to allow the other device to recognize character information through optical character recognition on the basis of the image and the inclination.
Description
본 명세서는 문자 인식을 위한 영상 획득에 관한 것이다.This specification relates to image acquisition for character recognition.
전자 사전은 구비된 키패드를 통해서 문자를 입력하거나, 필기입력 부를 통해서 문자를 입력하고, 이를 문자 정보로 변환하여 사전 검색을 실시하였다.In the electronic dictionary, a character is inputted through a keypad provided, a character is inputted through a handwriting input unit, and the character is converted into character information to perform a dictionary search.
키패드를 통한 문자 입력의 경우, 일본어나 중국어 등의 입력에 시간이 많이 걸린다. 또한, 필기 입력의 경우에도 필기체 인식 오류로 인해 사전 검색에 어려움이 있었다.In the case of inputting characters through the keypad, inputting in Japanese or Chinese takes a lot of time. In addition, even in the case of handwriting input, there was a difficulty in the advance search due to a handwriting recognition error.
또한, 스마트폰 어플리케이션 프로그램으로 구현된 전자 사전은 스마트폰에 내장된 카메라로 문자 영상을 촬영하고, 상기 문자 영상을 광학 문자 인식 과정으로 변환하여 사전 검색을 실시하였다.In addition, the electronic dictionary implemented by the smartphone application program captures a character image with a camera built in a smart phone, converts the character image into an optical character recognition process, and performs a dictionary search.
어플리케이션 프로그램으로 구현된 전자 사전은 스마트폰 카메라를 통한 문자 영상의 품질 문제로 인해 문자 인식 오류 등의 문제가 발생한다.An electronic dictionary implemented by an application program causes problems such as a character recognition error due to a quality problem of a character image through a smartphone camera.
본 발명은 전자 사전에서 카메라를 통한 문자 인식률을 높이는 장치와 방법을 제공하는 것이다.The present invention provides an apparatus and method for increasing the character recognition rate through an electronic dictionary in a camera.
본 명세서는 전자 사전 검색을 위한 문자 영상 입력 장치를 제시한다. 문자 영상 입력 장치는 일방향으로 연장되게 형성되는 몸체부, 상기 몸체부 내부에 구비되고, 다른 장치와 통신을 수행하는 통신부, 상기 몸체부의 일단에 배치되는 팁부, 상기 몸체부의 일부에 배치되어, 광축 상에 배치된 대상 물체의 표면의 영상을 획득하는 카메라부, 상기 카메라부의 광축의 기울기를 획득하는 기울기 측정부, 상기 몸체부 내부에 구비되어, 상기 팁부가 상기 대상 물체에 접촉되는 경우, 상기 대상 물체의 표면의 영상 및 상기 대상 물체의 표면과 상기 광축 사이의 기울기를 획득하고, 상기 다른 장치가 상기 영상 및 상기 기울기를 기초로 광학 문자 인식을 통해 문자 정보를 인식하도록 상기 영상 및 상기 기울기를 상기 다른 장치로 전송하도록 제어하는 제어부를 포함한다.This specification proposes a character image input device for electronic dictionary search. The character image input apparatus includes a body portion extending in one direction, a communication portion provided in the body portion and performing communication with another device, a tip portion disposed at one end of the body portion, A tilt measuring unit for obtaining a tilt of an optical axis of the camera unit; and a controller for controlling the inclination of the target object when the tip unit is in contact with the target object, Acquires the image of the surface of the object and the slope between the surface of the object and the optical axis, and the other device recognizes the character information through optical character recognition based on the image and the slope, To the device.
실시 예에 따라, 상기 카메라부는 초점 거리를 고려하여 상기 대상 물체의 표면으로부터 이격하여 상기 몸체부의 일부에 배치될 수 있다.According to an embodiment, the camera unit may be disposed at a part of the body part, away from a surface of the object, in consideration of a focal distance.
실시 예에 따라, 상기 몸체부에는 사용자가 손가락을 파지 할 때, 사용자의 손가락이 상기 카메라부의 화각(Field Of View) 밖에 있도록 상기 손가락을 수용하는 손가락 안내부가 형성될 수 있다.According to an embodiment of the present invention, a finger guide portion for receiving the finger may be formed on the body portion such that when the user holds the finger, the user's finger is out of the field of view of the camera portion.
실시 예에 따라, 상기 카메라부의 촬상소자는 상기 대상 물체의 표면에 대한 적외선 영상을 촬영할 수 있는 촬상소자일 수 있다.According to the embodiment, the imaging element of the camera section may be an imaging element capable of taking an infrared image of the surface of the object.
또한, 본 명세서는 문자 영상 입력 장치와 사전 검색 장치를 포함하여 구성된 전자 사전 시스템을 제시한다. 상기 문자 영상 입력 장치는 광축 상에 배치된 대상 물체의 표면의 영상을 획득하는 카메라부, 상기 대상 물체의 표면의 수직축에 대한 상기 카메라부의 광축의 기울기를 획득하는 기울기 측정부 및 상기 획득된 영상에 대한 데이터와 기울기 값을 상기 사전 검색 장치로 전송하는 제 1 통신부를 포함하고, 상기 사전 검색 장치는 상기 문자 영상 입력 장치로부터 상기 영상 데이터와 기울기 값을 수신하는 제 2 통신부, 상기 수신된 기울기 값에 기초하여 상기 영상을 보정하는 영상 전처리부, 상기 보정된 영상에서 문자 정보를 추출하는 광학 문자 인식부, 상기 추출된 문자 정보에 대한 의미를 검색하는 검색부, 및 상기 검색 결과를 표시하는 표시부를 포함한다.The present specification also discloses an electronic dictionary system configured with a character image input device and a dictionary search device. The character image input apparatus includes a camera unit for acquiring an image of a surface of an object disposed on an optical axis, a tilt measuring unit for obtaining a tilt of an optical axis of the camera unit with respect to a vertical axis of a surface of the object, And a first communication unit for transmitting the data and the tilt value to the dictionary searching apparatus, wherein the dictionary searching apparatus includes a second communication unit for receiving the image data and the tilt value from the character image input apparatus, An image preprocessing unit for correcting the image based on the extracted character information, an optical character recognition unit for extracting character information from the corrected image, a search unit for searching for the extracted character information, and a display unit for displaying the search result do.
실시 예에 따라, 상기 전자 사전 시스템은 상기 획득된 영상 데이터 중 문자 인식률이 낮은 영상에 대한 영상 데이터를 상기 사전 검색 장치로부터 수집하고, 상기 수집된 영상 데이터를 분석하여 문자 정보에 대한 인식률이 향상되도록 상기 광학 문자 인식부의 문자 인식에 관련된 파라미터를 설정하는 관리 장치를 더 포함하고, 상기 사전 검색 장치는 상기 파라미터로 상기 광학 문자 인식부의 파라미터를 갱신하는 파라미터 관리부를 더 포함할 수 있다.According to an embodiment of the present invention, the electronic dictionary system collects image data of an image having a low character recognition rate from the acquired image data from the dictionary search apparatus, analyzes the collected image data, Further comprising a management apparatus for setting parameters related to character recognition of the optical character recognition section, wherein the dictionary search apparatus further includes a parameter management section for updating parameters of the optical character recognition section with the parameters.
또한, 본 명세서는 문자 인식 전자 사전을 제시하며, 상기 문자 인식 전자 사전은 문자에 대한 영상을 획득하는 카메라부, 상기 문자에 대한 상기 카메라부의 광축의 기울기를 측정하는 기울기 측정부, 상기 측정된 기울기 값에 기초하여 상기 획득된 문자 영상을 보정하는 영상 전처리부, 상기 보정된 문자 영상에서 문자 정보를 추출하는 광학 문자 인식부, 및 상기 추출된 문자 정보에 대한 의미를 검색하여 그 결과를 출력하는 검색부를 포함한다.The present invention also provides a character recognition electronic dictionary, wherein the character recognition electronic dictionary includes a camera unit for acquiring an image of a character, a tilt measuring unit for measuring a tilt of the optical axis of the camera unit with respect to the character, An optical character recognition unit for extracting character information from the corrected character image, and a search unit for searching for the meaning of the extracted character information and outputting the result .
실시 예에 따라, 상기 카메라부는 일방향으로 연장되게 형성되는 몸체부의 일부에 배치되되, 상기 몸체부에 의해 상기 카메라부의 초점 거리에 상기 문자가 위치하도록 상기 카메라부가 상기 몸체부의 일단으로부터 타단으로 이격되어 배치될 수 있다.According to an embodiment of the present invention, the camera unit is disposed in a part of a body part extending in one direction, and the camera part is spaced apart from one end of the body part so as to position the character at a focal distance of the camera part by the body part .
실시 예에 따라, 상기 몸체부에는 사용자가 손가락을 파지 할 때, 사용자의 손가락이 상기 카메라부의 화각(Field Of View) 밖에 있도록 상기 손가락을 수용하는 손가락 안내부가 형성될 수 있다.According to an embodiment of the present invention, a finger guide portion for receiving the finger may be formed on the body portion such that when the user holds the finger, the user's finger is out of the field of view of the camera portion.
또한, 본 명세서에는 문자 인식 전자 사전의 검색 방법이 제시된다. 상기 문자 인식 전자 사전의 검색 방법은 사용자 입력에 의해 문자에 대한 영상을 획득하는 단계, 상기 문자에 대한 카메라부의 광축의 기울기를 측정하는 단계, 상기 촬영된 문자 영상에 대한 데이터와 상기 측정된 기울기 값을 기초로 상기 촬영된 문자 영상을 보정하는 단계, 상기 보정된 문자 영상에서 문자 정보를 추출하는 단계, 상기 추출된 문자 정보에 대한 의미를 검색하는 단계, 및 상기 검색 결과를 표시하는 단계를 포함한다.In this specification, a search method of a character recognition electronic dictionary is presented. A method of searching for a character recognition electronic dictionary includes the steps of acquiring an image for a character by user input, measuring a tilt of an optical axis of the camera with respect to the character, A step of extracting character information from the corrected character image, a step of retrieving a meaning of the extracted character information, and a step of displaying the search result .
본 명세서에 개시된 실시 예에 의하면, 문자 촬영 장치와 사전 검색 장치를 분리함으로써 신속하게 문자 영상을 촬영하고, 정확하게 검색할 수 있는 효과가 있다.According to the embodiments disclosed in this specification, the character photographing apparatus and the dictionary search apparatus are separated from each other, and the character image can be quickly photographed and retrieved accurately.
또한, 본 명세서에 개시된 실시 예에 의하면, 카메라의 기울어짐으로 인한 문자 영상의 왜곡을 보정하여 문자 인식률을 높일 수 있는 효과가 있다.In addition, according to the embodiments disclosed herein, there is an effect that the character recognition rate can be improved by correcting the distortion of the character image due to the inclination of the camera.
또한, 본 명세서에 개시된 실시 예에 의하면, 고정 초점 거리를 가지는 카메라를 구비한 문자 영상 입력 장치를 통해 신속하게 선명한 문자 영상을 획득할 수 있는 효과가 있다.In addition, according to the embodiments disclosed in the present specification, a clear character image can be quickly obtained through a character image input apparatus having a camera having a fixed focal length.
또한, 본 명세서에 개시된 실시 예에 의하면, 광학 문자 인식의 과정에서 오인식 문자 영상 데이터의 분석 결과에 근거하여 문자 인식관련 파라미터를 갱신함으로써 문자 인식률을 높일 수 있는 효과가 있다.In addition, according to the embodiments disclosed in the present specification, there is an effect that the character recognition rate can be improved by updating the character recognition-related parameter based on the analysis result of the erroneous character image data in the process of optical character recognition.
또한, 본 명세서에 개시된 실시 예에 의하면, 오인식 문자 영상을 수집하고, 신경망을 통해 학습함으로써, 문자 인식률을 높일 수 있는 효과가 있다.Further, according to the embodiments disclosed in the present specification, there is an effect that the character recognition rate can be increased by collecting the false-type character image and learning it through the neural network.
도 1은 본 발명의 실시예에 따른 문자 영상 입력 장치와 사전 검색 장치를 포함하여 구성된 문자 인식 전자 사전 시스템을 개략적으로 도시한 도이다.1 is a schematic view of a character recognition electronic dictionary system including a character image input device and a dictionary search device according to an embodiment of the present invention.
도 2는 본 발명의 실시예에 따른 문자 영상 입력 장치의 구성 요소를 도시한 예시도이다.2 is a diagram illustrating an example of the components of a character image input apparatus according to an embodiment of the present invention.
도 3은 도 1에 도시한 문자 인식 전자 사전 시스템을 구성하는 장치들 및 이들 장치들의 각 구성 요소를 도시한 블록도이다.Fig. 3 is a block diagram showing the devices constituting the character recognition electronic dictionary system shown in Fig. 1 and the respective components of these devices.
도 4는 문자 영상 입력 장치에 구비된 카메라부의 기울기를 측정하는 예시 및 문자 영상 입력 장치의 기울기에 따른 문자 영상의 예시들을 도시한 도이다.FIG. 4 is a diagram illustrating an example of measuring a tilt of a camera unit included in a character image input apparatus, and examples of character images according to a tilt of the character image input apparatus.
도 5는 본 발명의 실시예에 따른 문자 영상 입력 장치에서 초점 거리를 고려한 카메라부의 배치 위치를 나타낸 도면이다.FIG. 5 is a view showing a placement position of a camera unit in consideration of a focal length in a character image input device according to an embodiment of the present invention.
도 6은 본 발명의 실시예에 따른 문자 영상 입력 장치에서 카메라부의 화각을 가리지 않도록 손가락을 파지시키는 손가락 안내부와 손가락을 파지한 예시를 나타낸 도면이다.FIG. 6 is a diagram illustrating an example of a finger guide unit for holding a finger so as not to block the angle of view of the camera unit and an example of holding a finger in the character image input device according to the embodiment of the present invention.
도 7은 본 발명의 실시예에 따른 문자 인식 전자 사전 시스템에서 문자를 인식하여 사전 검색을 실시하는 동작을 나타내는 흐름도이다.7 is a flowchart illustrating an operation of recognizing a character and performing a dictionary search in a character recognition electronic dictionary system according to an embodiment of the present invention.
본 명세서에 개시된 기술은 전자 사전에 적용될 수 있다. 그러나 본 명세서에 개시된 기술은 이에 한정되지 않고, 상기 기술의 기술적 사상이 적용될 수 있는 모든 전자 장치 및 방법에도 적용될 수 있다.The techniques disclosed herein can be applied to an electronic dictionary. However, the technology disclosed in this specification is not limited thereto, and can be applied to all electronic devices and methods to which the technical idea of the above-described technology can be applied.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.It is to be understood that the specific structural or functional description of embodiments of the present invention disclosed herein is for illustrative purposes only and is not intended to limit the scope of the inventive concept But may be embodied in many different forms and is not limited to the embodiments set forth herein.
본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에서 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.The embodiments according to the concept of the present invention can make various changes and can take various forms, so that the embodiments are illustrated in the drawings and described in detail herein. It should be understood, however, that it is not intended to limit the embodiments according to the concepts of the present invention to the particular forms disclosed, but includes all modifications, equivalents, or alternatives falling within the spirit and scope of the invention.
제1 또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 벗어나지 않은 채, 제1구성 요소는 제2구성 요소로 명명될 수 있고 유사하게 제2구성 요소는 제1구성 요소로도 명명될 수 있다.The terms first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The terms may be named for the purpose of distinguishing one element from another, for example, without departing from the scope of the right according to the concept of the present invention, the first element may be referred to as a second element, The component may also be referred to as a first component.
어떤 구성 요소가 다른 구성 요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성 요소가 다른 구성 요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는 중간에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성 요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between. Other expressions that describe the relationship between components, such as "between" and "between" or "neighboring to" and "directly adjacent to" should be interpreted as well.
본 명세서에서 사용한 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로서, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 본 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The technical terms used herein are used only to describe specific embodiments and are not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises" or "having" and the like are used to specify that there are features, numbers, steps, operations, elements, parts or combinations thereof described herein, But do not preclude the presence or addition of one or more other features, integers, steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 명세서에 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 나타낸다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않아야 한다.Unless defined otherwise, all terms used herein, including technical or scientific terms, are intended to be generic to a person of ordinary skill in the art to which this disclosure belongs, unless the context clearly dictates otherwise. The same meaning as understood. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the meaning of the context in the relevant art and, unless explicitly defined herein, are to be interpreted as ideal or overly formal Should not.
본 명세서에서 사용되는 구성요소에 대한 접미사 "모듈(module)" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니며, 본 발명의 실시 예에 따른 방법을 수행하기 위한 하드웨어 또는 상기 하드웨어를 구동할 수 있는 소프트웨어의 기능적 또는 구조적 결합을 의미할 수 있다.The suffix " module " and " part " for the components used in the present specification are given or mixed in consideration of ease of specification only and do not have their own meaning or role, May refer to a functional or structural combination of hardware to perform the method according to an embodiment of the invention or software that can drive the hardware.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예들을 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals denote like or similar elements, and redundant description thereof will be omitted.
또한, 본 명세서에 개시된 기술을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 기술의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 기술의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 그 기술의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.Further, in the description of the technology disclosed in this specification, a detailed description of related arts will be omitted if it is determined that the gist of the technology disclosed in this specification may be obscured. It is to be noted that the attached drawings are only for the purpose of easily understanding the concept of the technology disclosed in the present specification, and should not be construed as limiting the spirit of the technology by the attached drawings.
이하에서는 본 발명의 바람직한 실시 예, 즉, 펜 형상의 문자 영상 입력 장치와 스마트 폰 등의 사전 검색 장치를 통해 문자를 자동으로 인식하여 사전 검색 결과를 표시하는 기술에 대하여 첨부한 도면을 참조하여 상세히 설명한다.Hereinafter, a preferred embodiment of the present invention, that is, a technique for automatically recognizing characters and displaying a dictionary search result through a pen-shaped character image input device and a smart search device such as a smart phone will be described in detail with reference to the accompanying drawings. Explain.
도 1은 본 발명의 실시예에 따른 문자 영상 입력 장치와 사전 검색 장치를 포함하여 구성된 문자 인식 전자 사전 시스템을 개략적으로 도시한다. 문자 인식 전자 사전 시스템(1000)은 문자 영상 입력 장치(100)와 사전 검색 장치(200) 및 관리 장치(300)를 포함하도록 구성될 수 있다.FIG. 1 schematically shows a character recognition electronic dictionary system including a character image input device and a dictionary search device according to an embodiment of the present invention. The character recognition electronic dictionary system 1000 can be configured to include the character image input device 100, the dictionary search device 200, and the management device 300. [
문자 영상 입력 장치(100)는 사전 검색 장치(200)와는 별도로 구비하되, 펜 형상의 몸체부(하우징) 내에 카메라부를 구비하고, 카메라부를 통해 사용자가 검색하고자 하는 단어 또는 문장이 인쇄되거나 표시된 물체의 표면을 촬영하여 문자에 대한 영상을 획득할 수 있으며, 획득된 문자 영상을 사전 검색 장치(200)로 전송하여 사전 검색 장치(200)에서 사전 검색을 실시할 수 있다.The character image input apparatus 100 is provided separately from the dictionary search apparatus 200. The character image input apparatus 100 is provided with a camera section in a pen-shaped body section (housing), and a word or a sentence to be searched by the user is printed or displayed It is possible to acquire an image of a character by photographing the surface, and the obtained character image can be transmitted to the dictionary searching apparatus 200, and the dictionary searching apparatus 200 can perform a dictionary search.
사전 검색 장치(200)는 문자 영상 입력 장치(100)로부터 사용자가 검색하고자 하는 문자에 대한 영상 데이터를 수신하고, 수신된 문자 영상에서 문자 정보를 추출하기 용이하도록 보정한 다음, 보정된 문자 영상에서 광학식 문자 인식(Optical Character Recognition; OCR) 프로세스를 통해 문자 정보(text data)를 추출한다. 이후, 사전 검색 장치(200)는 사전 검색을 실시하여 추출된 문자 정보에 대한 의미를 찾아 그 결과를 사용자에게 표시해준다.The dictionary searching apparatus 200 receives the image data for the character to be searched by the user from the character image input apparatus 100, corrects the extracted character image so that the character information can be easily extracted, And extracts text data through an Optical Character Recognition (OCR) process. Then, the dictionary searching apparatus 200 performs a dictionary search, finds the meaning of the extracted character information, and displays the result to the user.
관리 장치(300)는 인식이 전혀 되지않거나, 인식이 잘못되는 등 인식률이 낮은 문자 영상에 대한 영상 데이터를 수집하고, 수집된 영상 데이터를 분석하여 사전 검색 장치(200)에서의 문자 정보에 대한 인식률이 향상되도록 문자 정보의 추출과 관련된 장치의 설정을 갱신한다.The management apparatus 300 collects image data of a character image having low recognition rate such as no recognition or wrong recognition, and analyzes the collected image data to determine a recognition rate The setting of the device related to the extraction of the character information is updated.
도 2는 본 발명의 실시예에 따른 문자 영상 입력 장치의 구성 요소를 예시로 도시한다.FIG. 2 illustrates, by way of example, constituent elements of a character image input apparatus according to an embodiment of the present invention.
도시한 바와 같이, 본 발명의 실시예에 따른 문자 영상 입력 장치(100)는 일방향으로 연장되게 형성되는 몸체부(105), 상기 몸체부 내부에 구비되고, 다른 장치(도시하지 않음)와 통신을 수행하는 통신부(140), 상기 몸체부의 일단에 배치되는 팁부(110), 상기 몸체부(105)의 일부에 배치되어, 광축 상에 배치된 대상 물체의 표면의 영상을 획득하는 카메라부(120), 상기 카메라부(120)의 광축의 기울기를 획득하는 기울기 측정부(130), 상기 몸체부(105) 내부에 구비되어, 상기 팁부(110)가 상기 대상 물체에 접촉되는 경우, 상기 다른 장치가 상기 획득된 영상 및 상기 획득된 기울기 값을 기초로 광학 문자 인식을 통해 문자 정보를 인식하도록 상기 영상 및 상기 기울기를 상기 다른 장치로 전송하도록 제어하는 제어부(150)를 포함할 수 있다.As shown in the drawing, the character image input apparatus 100 according to the embodiment of the present invention includes a body part 105 formed to extend in one direction, a communication part (not shown) provided in the body part, A camera unit 120 disposed at a part of the body part 105 to acquire an image of a surface of an object disposed on the optical axis, A tilt measuring unit 130 for obtaining a tilt of an optical axis of the camera unit 120 and a tilt measuring unit 130 provided in the body unit 105. When the tip unit 110 contacts the object, And a control unit 150 for controlling the image and the slope to be transmitted to the other device so as to recognize the character information through optical character recognition based on the obtained image and the obtained slope value.
상기 몸체부(105)는 일 방향으로 연장된 펜 형상의 하우징으로, 사용자는 상기 몸체부(105)를 손으로 잡고 문자 영상을 취득할 수 있다.The body portion 105 is a pen-shaped housing extending in one direction, and a user can take a character image by holding the body portion 105 by hand.
또한, 상기 몸체부(105)의 외주면에는 사용자가 상기 몸체부(105)를 파지할 때, 사용자의 손가락이 상기 카메라부의 화각(Field Of View; FOV) 밖에 있도록 상기 손가락을 수용하는 손가락 안내부가 형성될 수 있다. 따라서, 사용자의 손가락이 대상 물체의 표면을 가리지 않은 상태의 온전한 영상을 획득할 수 있다.A finger guide portion for receiving the finger is formed on an outer circumferential surface of the body portion 105 so that the user's finger is outside the field of view (FOV) of the camera portion when the user holds the body portion 105 . Therefore, the user can acquire a perfect image in which the finger does not cover the surface of the object.
상기 팁부(110)는 상기 몸체부(105)의 일단에 배치되고, 상기 팁부(110)에 연결된 버튼 스위치를 포함하고 있다.The tip portion 110 is disposed at one end of the body portion 105 and includes a button switch connected to the tip portion 110.
따라서, 사용자가 상기 몸체부(105)를 움켜쥐고, 상기 팁부(110)를 검색하고자 하는 문자가 표시되어 있는 대상 물체의 표면에 접촉하면, 상기 팁부(110)에 연결된 상기 버튼 스위치가 눌러지게 된다.Accordingly, when the user grasps the body part 105 and contacts the surface of the object on which the character to be searched for the tip part 110 is displayed, the button switch connected to the tip part 110 is pressed .
상기 카메라부(120)는 상기 몸체부(105)의 일부에 배치되고, 광축 상에 배치된 대상 물체의 표면의 영상을 획득할 수 있다.The camera unit 120 may be disposed on a part of the body 105 and may acquire images of the surface of the object disposed on the optical axis.
또한, 상기 카메라부(120)는 상기 카메라부(120)의 초점 거리를 고려하여 상기 대상 물체의 표면으로부터 이격하여 상기 몸체부의 일부에 배치됨으로써 상기 표면을 촬영할 때 초점 조절을 할 필요가 없어 빠른 시간 안에 선명한 영상을 촬영할 수 있게 된다.In addition, since the camera unit 120 is disposed in a part of the body part apart from the surface of the object in consideration of the focal distance of the camera unit 120, there is no need to adjust the focus when photographing the surface, So that a clear image can be captured.
또한, 상기 카메라부(120)의 촬상소자는 상기 대상 물체의 표면에 대한 가시광선 영역의 영상 뿐만 아니라 적외선 영상을 촬영할 수 있는 촬상소자일 수 있다.In addition, the image pickup element of the camera unit 120 may be an image pickup element capable of taking an infrared ray image as well as an image of a visible ray region on the surface of the object.
상기 기울기 측정부(130)는 상기 카메라부(120)의 광축의 기울기를 획득하여 상기 카메라부(120)가 대상 물체의 표면에 수직인 축에 대해서 얼마만큼 기울어졌는 지를 측정할 수 있다.The inclination measuring unit 130 may measure the inclination of the camera unit 120 with respect to the axis perpendicular to the surface of the object by acquiring the inclination of the optical axis of the camera unit 120.
상기 팁부(110)가 대상 물체의 표면에 접촉되어, 상기 팁부(110)에 연결된 상기 버튼 스위치가 눌러지게 되면, 상기 제어부(150)는 상기 다른 장치가 상기 획득된 영상 및 상기 획득된 기울기 값을 기초로 광학 문자 인식을 통해 문자 정보를 인식하도록 상기 영상 및 상기 기울기를 상기 다른 장치로 전송하도록 제어할 수 있다.When the tip portion 110 is brought into contact with the surface of the object and the button switch connected to the tip portion 110 is pressed, the controller 150 controls the other device to adjust the obtained image and the obtained tilt value The image and the slope may be controlled to be transmitted to the other device so as to recognize the character information through optical character recognition as a basis.
이어서, 상기 다른 장치는 상기 전송 받은 영상 및 기울기 값을 기초로 상기 영상의 기울기 보정을 하고, 상기 보정된 영상에서 광학 문자 인식(Optical Character Recognition; OCR) 프로세스를 통해 검색용 데이터를 추출한다.Then, the other apparatus corrects the tilt of the image based on the received image and tilt value, and extracts search data from the corrected image through an optical character recognition (OCR) process.
상기 다른 장치는 상기 추출된 검색 데이터를 기초로 사전 검색, 이미지 검색 등을 실시한 뒤, 그 검색 결과를 표시할 수 있다.The other apparatus can perform a dictionary search, an image search, and the like based on the extracted retrieval data, and then display the retrieval result.
상기 다른 장치는 도 1에 도시한 사전 검색 장치와 같이 입력된 영상 데이터에서 광학 문자 인식 프로세스를 통해 검색용 데이터를 추출하여 검색을 실시하는 장치일 수 있다.The other apparatus may be a device for extracting search data through an optical character recognition process from input image data as in the case of the dictionary search apparatus shown in FIG. 1 and performing a search.
따라서, 사용자는 펜 형상의 몸체부(105)의 팁부(110)를 검색하고자 하는 문자가 표시되어 있는 물체의 표면에 올려놓기만 하면, 별도의 사용자 입력 없이도 광학 문자 인식을 위한 문자 영상과 카메라의 기울기 값을 획득할 수 있다.Therefore, the user can simply place the tip portion 110 of the pen-shaped body portion 105 on the surface of the object on which the character to be searched is displayed, The gradient value can be obtained.
이하에서는 도 1에 도시한 문자 인식 전자 사전 시스템(1000)을 구성하는 각 장치들을 도 3을 참조하여 상세하게 설명한다.Hereinafter, each of the devices constituting the character recognition electronic dictionary system 1000 shown in FIG. 1 will be described in detail with reference to FIG.
도 3은 도 1에 도시한 문자 인식 전자 사전 시스템을 구성하는 장치들 및 이들 장치들의 각 구성 요소를 도시한 블록도이다.Fig. 3 is a block diagram showing the devices constituting the character recognition electronic dictionary system shown in Fig. 1 and the respective components of these devices.
문자 영상 입력 장치(100)는 사용자의 명령을 입력 받아 카메라부에 문자 영상의 획득을 지시하는 사용자 입력부(111)와, 문자에 대한 영상을 획득하는 카메라부(120)와, 상기 문자에 대한 상기 카메라부(120)의 광축의 기울기를 측정하는 기울기 측정부(130), 상기 획득된 문자 영상에 대한 데이터와 상기 측정된 기울기 값을 상기 사전 검색 장치로 전송하는 통신부(140), 및 사용자의 입력에 따라 상기 카메라부(120)로 하여금 문자 영상을 획득하게 하고 상기 기울기 측정부(130)로 하여금 상기 카메라부(120)의 광축의 기울기를 측정하도록 하는 제어부(150)를 포함한다.The character image input apparatus 100 includes a user input unit 111 for receiving a user command and instructing a camera unit to acquire a character image, a camera unit 120 for acquiring an image for a character, A communication unit 140 for transmitting the data on the obtained character image and the measured tilt value to the dictionary searching apparatus, a tilt measuring unit 130 for measuring the tilt of the optical axis of the camera unit 120, And a controller 150 for allowing the camera unit 120 to acquire a character image and allow the tilt measuring unit 130 to measure the tilt of the optical axis of the camera unit 120. [
한편, 상기 문자 영상 입력 장치(100)는 일 방향으로 신장된 펜 형상의 몸체부(하우징)를 가질 수 있으며, 상기 몸체부의 일부 또는 내부에 상기 사용자 입력부(111)와, 상기 카메라부(120)와, 상기 기울기 측정부(130), 및 상기 통신부(140)가 배치될 수 있다.The character image input apparatus 100 may have a pen-shaped body extending in one direction. The character input apparatus 100 may include a user input unit 111, a camera unit 120, The tilt measuring unit 130, and the communication unit 140 may be disposed.
상기 사용자 입력부(111)는 터치 입력, 버튼 입력, 모션 입력, 소리 입력 등의 입력 방법을 통해 사전 검색을 위한 문자 영상 촬영과 사전 검색에 대한 사용자 명령을 입력 받을 수 있다.The user input unit 111 may receive a user command for a character image shooting and a dictionary search for a pre-search through an input method such as a touch input, a button input, a motion input, and a sound input.
일 실시 예에서, 사용자 입력부(111)가 터치 입력 또는 버튼 입력으로 사용자의 명령을 입력 받는 경우, 상기 사용자 입력부(111)는 문자 영상 입력 장치(100)의 펜 형상의 하우징의 표면에 터치 패드 또는 푸시 버튼 형태로 구비될 수 있다.In one embodiment, when the user input unit 111 receives a user's command through a touch input or a button input, the user input unit 111 displays a touch pad or a touch pad on the surface of the pen- And may be provided in the form of a push button.
예를 들어, 사용자가 문자 영상 입력 장치(100)를 들고 검색하고자 하는 문자가 인쇄면 지면의 목표 문자에 가져다 댄 후, 터치 패드를 터치하거나, 터치 패드 상에서 특정 제스처를 입력하거나, 푸시 버튼을 눌러 사전 검색을 지시하면, 상기 문자 영상 입력 장치(100)에 구비된 카메라부(120)가 상기 목표 문자를 촬영하여 문자 영상을 획득하고, 상기 문자에 대한 상기 카메라부의 광축의 기울기를 측정한 뒤, 상기 획득된 문자 영상에 대한 데이터와 상기 측정된 기울기 값을 사전 검색 장치(200)로 전송하는 절차들이 차례대로 수행된다.For example, when the user holds the character image input device 100 and the character to be searched is brought to the target character on the printed surface, the user touches the touch pad, inputs a specific gesture on the touch pad, or presses the push button The camera 120 provided in the character image input apparatus 100 photographs the target character to obtain a character image and measures the tilt of the optical axis of the camera unit with respect to the character, The data for the obtained character image and the measured slope value are transmitted to the dictionary searching apparatus 200 in order.
일 실시 예에서, 사용자 입력부(111)가 버튼 입력으로 사용자의 명령을 입력 받는 경우에는, 문자 영상 입력 장치(100)의 몸체부의 일단에 펜 팁 형태의 버튼이 연결되어 사용자 입력부(111)가 구성될 수 있으며, 사용자가, 촬영하고자 하는 문자가 인쇄된 매체의 표면 또는 상기 문자가 표시된 디스플레이의 표면에 문자 영상 입력 장치(100)를 가져다 대면, 상기 펜 팁 형태의 버튼이 눌러질 수 있다.In the embodiment, when the user input unit 111 receives a user's command as a button input, a pen-tip type button is connected to one end of the body of the character image input apparatus 100, When the user brings the character image input apparatus 100 to the surface of the printed medium or the surface of the display on which the characters are displayed, the pen tip type button can be pressed.
예를 들어, 사용자가 펜 형상의 문자 영상 입력 장치(100)를 들고 촬영하고자 하는 문자가 인쇄된 종이의 표면에 펜 팁을 가져다 대면, 상기 펜 팁에 연결된 버튼이 눌러 짐으로 인해 문자 촬영 시작 및 카메라의 기울기 측정 시작 명령이 입력된다.For example, when a user holds a pen-shaped character image input device 100 and brings the pen tip to the surface of the paper on which characters to be photographed are printed, the button connected to the pen tip is pushed, The start command of the tilt measurement of the camera is inputted.
일 실시 예에서, 사용자 입력부(111)는 문자 영상 입력 장치(100) 내에 구비된 모션 센서(예를 들어, 가속도센서와 자이로센서(각속도센서))를 통해 사용자의 특정 모션을 파악함으로써 사용자의 명령을 입력 받을 수 있다.The user input unit 111 recognizes a user's specific motion through a motion sensor (for example, an acceleration sensor and a gyro sensor) provided in the character image input apparatus 100, Can be input.
예를 들어, 사용자가 펜 형상의 문자 영상 입력 장치(100)의 펜 팁 부분을 검색하고자 하는 문자가 인쇄면 지면의 목표 문자에 대는 행동을 취하면, 상기 사용자 입력부(111)는 내장된 모션 센서를 통해 상기 사용자의 행동에 따른 문자 영상 입력 장치(100)의 모션 패턴을 측정한다.For example, when the user takes an action for the target character on the printed surface of the pen-tip character portion of the pen-shaped character image input device 100, the user input portion 111 displays the built- The motion pattern of the character image input apparatus 100 according to the behavior of the user is measured.
이어서, 상기 사용자 입력부(111)는 측정된 모션 패턴을 미리 저장해 둔 모션 패턴, 예를 들어, 문자 영상 입력 장치(100)가 목표 문자가 인쇄된 지면에 가져다 대어질 때의 모션 패턴과 유사한 지를 비교한다.Then, the user input unit 111 compares a motion pattern stored in advance with the measured motion pattern, for example, whether or not the character image input apparatus 100 is similar to the motion pattern when the character image is input to the printed surface of the target character do.
상기 사용자 입력부(111)는 상기 측정된 모션 패턴이 상기 미리 저장해 둔 모션 패턴과 유사하다고 판단될 경우, 상기 문자 영상 입력 장치(100)에 구비된 카메라부(120)로 하여금 상기 목표 문자를 촬영하여 문자 영상을 획득하고, 상기 문자에 대한 상기 카메라부의 광축의 기울기를 측정한 뒤, 상기 획득된 문자 영상에 대한 데이터와 상기 측정된 기울기 값을 사전 검색 장치(200)로 전송하는 절차들이 차례대로 수행되도록 한다.When it is determined that the measured motion pattern is similar to the previously stored motion pattern, the user input unit 111 causes the camera unit 120 provided in the character image input apparatus 100 to photograph the target character A step of acquiring a character image, measuring a tilt of the optical axis of the camera unit with respect to the character, and transmitting data of the obtained character image and the measured tilt value to the dictionary searching apparatus 200 .
일 실시 예에서, 사용자 입력부(111)는 문자 영상 입력 장치(100) 내에 구비된 소리 센서(예를 들어, 마이크로폰 등의 음성 입력 센서)를 통해 사용자의 특정 음성을 파악함으로써 사용자의 명령을 입력 받을 수 있다.In one embodiment, the user input unit 111 recognizes a specific voice of a user through a sound sensor (e.g., a microphone or the like) provided in the character image input apparatus 100, .
예를 들어, 사용자가 문자 영상 입력 장치(100)를 들고 검색하고자 하는 문자가 인쇄면 지면의 목표 문자에 가져다 댄 후, 특정 소리를 내어 사전 검색을 지시하면, 상기 문자 영상 입력 장치(100)에 구비된 카메라부(120)가 상기 목표 문자를 촬영하여 문자 영상을 획득하고, 상기 문자에 대한 상기 카메라부의 광축의 기울기를 측정한 뒤, 상기 획득된 문자 영상에 대한 데이터와 상기 측정된 기울기 값을 사전 검색 장치(200)로 전송하여, 문자 영상 보정 및 사전 검색을 실시하는 절차들이 차례대로 수행된다.For example, when a user takes a character image input device 100 and a character to be searched is brought to a target character on the printed surface and then instructs the character image input device 100 to make a specific sound, The camera unit 120 may capture the target character to acquire a character image, measure the tilt of the optical axis of the camera unit with respect to the character, and then calculate the data of the obtained character image and the measured tilt value To the dictionary search apparatus 200, and procedures for performing character image correction and dictionary search are sequentially performed.
본 명세서의 실시 예 들에서는 터치 입력, 버튼 입력, 모션 입력, 소리 입력 등의 입력 방법을 통해 사전 검색을 위한 문자 영상 촬영과 사전 검색에 대한 사용자 명령을 입력 받는 것으로 설명하였지만, 사용자로부터 사전 검색 시작 명령을 받는 방법 및 수단은 상기 입력 방법 및 상기 입력 수단으로만 제한되지 않으며, 상기 입력 방법과 입력 수단 외에도 사용자의 입력을 받을 수 있는 어떠한 방법과 수단들도 배제하지 아니한다.In the embodiments of the present invention, the user command for the character image shooting and the dictionary search for the dictionary search is input through the input method such as touch input, button input, motion input, sound input, etc. However, The method and means for receiving the command are not limited to the input method and the input means and do not exclude any method or means capable of receiving the input of the user in addition to the input method and the input means.
상기 카메라부(120)의 촬상소자로 일반적인 디지털 카메라에 사용되는 CMOS 소자 또는 CCD 소자 같은 가시광선 영역대의 이미지 센서를 사용하여 문자를 추출하고자 하는 문자 영상을 획득한다.A character image for extracting a character is obtained by using a CMOS element used in a general digital camera or an image sensor of a visible light region such as a CCD element as an imaging element of the camera unit 120. [
문자가 인쇄된 종이의 표면이나, 문자가 표시된 디스플레이의 표면의 빛 반사 특징이 확산 반사(diffuse reflection)의 성질을 띌 경우, 표면에서의 산란되는 빛으로 인해 촬영된 문자 영상에서의 문자 인식률이 낮아지게 된다.When the light reflection characteristic of the surface of a paper on which a character is printed or the surface of a display on which a character is displayed has a property of diffuse reflection, the character recognition rate in the character image captured by the light scattered on the surface is low .
본 발명의 실시예에서는 확산 반사에 의한 영향을 제거할 수 있는 촬상소자를 사용함으로써 문자 인식률을 높일 수 있다. 이 경우, 적외선 영역의 이미지센서를 상기 카메라부(120)의 촬상소자로 사용함으로써 적외선 영역의 문자 영상을 촬영할 수 있다.In the embodiment of the present invention, the use of an imaging device capable of eliminating the influence of diffuse reflection can increase the character recognition rate. In this case, the character image of the infrared region can be photographed by using the image sensor of the infrared region as the image sensing element of the camera portion 120.
다른 실시 예로, 상기 카메라부(120)는 IR필터를 제거한 NoIR 카메라일 수 있다. NoIR 카메라로 문자 영상을 취득할 경우, 카메라부(120)는 가시광선 뿐만 아니라 적외선 영역까지 포함된 문자 영상을 획득할 수 있어서 촬영대상 문자가 표시된 매체의 표면의 성질에 관계없이 높은 품질의 문자 영상을 취득할 수 있다.In another embodiment, the camera unit 120 may be a NoIR camera with an IR filter removed. When the character image is acquired by the NoIR camera, the camera unit 120 can acquire not only the visible light but also the character image including the infrared region, so that regardless of the nature of the surface of the medium on which the character to be photographed is displayed, Can be obtained.
따라서, 카메라부(120)의 촬상소자로서 적외선 센서를 사용하거나, 카메라부(120)의 모듈로서 NoIR 카메라 모듈을 사용하면, 확산 반사에 의한 문자 영상의 품질 저하를 방지할 수 있는 효과가 있어서 광학식 문자 인식(Optical Character Recognition) 과정에서의 문자 정보의 인식률을 높일 수 있다.Therefore, when the infrared sensor is used as the imaging element of the camera unit 120, or when the NoIR camera module is used as the module of the camera unit 120, it is possible to prevent degradation of the character image due to diffuse reflection, The recognition rate of the character information in the optical character recognition process can be increased.
또한, 카메라부(120)에 구조광 프로젝터(structured light projector)를 결합하여 문자 영상을 촬영함으로써 문자 인식률을 높일 수도 있다.In addition, a structured light projector may be coupled to the camera unit 120 to capture a character image, thereby increasing the character recognition rate.
한편, 상기 기울기 측정부(130)는 상기 카메라부(120)가 문자 영상을 촬영할 때, 촬영 대상 문자가 인쇄된 종이나 상기 문자가 표시된 디스플레이 등의 표면에 대하여, 상기 표면에 대한 수직축을 기준으로 상기 카메라부(120)의 광축의 기울기를 측정한다.On the other hand, when the camera unit 120 photographs the character image, the tilt measuring unit 130 measures the tilt of the character on the basis of the vertical axis with respect to the surface, The inclination of the optical axis of the camera unit 120 is measured.
카메라부(120)가 피사체와 수직의 각도를 이루지 않은 상태로 상기 피사체를 촬영하면, 상기 피사체가 문자일 경우, 일그러진 문자 영상이 획득되므로, 광학 문자 인식 과정에서 문자 인식률의 저하를 가져오게 된다.When the subject 120 is a character, a distorted character image is obtained when the subject 120 is photographed in a state in which the camera unit 120 does not form an angle perpendicular to the subject. Thus, the character recognition rate is lowered during the optical character recognition process.
따라서, 상기 기울기 측정부(130)가 촬영 대상 문자에 대한 카메라부(120)의 각도를 측정하면, 영상 전처리부(220)가 측정된 각도 값(기울기)을 이용하여 문자의 일그러짐(왜곡)을 보정할 수 있기 때문에 광학 문자 인식 과정에서 문자 인식률을 높일 수 있는 효과가 있다.Therefore, when the tilt measuring unit 130 measures the angle of the camera unit 120 with respect to the character to be imaged, the image preprocessing unit 220 calculates the distortion (distortion) of the character using the measured angle value (slope) It is possible to improve the character recognition rate in the optical character recognition process.
기울기 측정 및 이를 이용한 문자 영상 보정에 대해서는 후술할 도 3에 대한 설명에서 상세히 설명하겠다.The tilt measurement and the character image correction using the tilt will be described in detail with reference to FIG. 3, which will be described later.
상기 문자 영상 입력 장치(100)에 포함된 통신부(140)는 상기 카메라부(120)가 획득한 문자 영상에 대한 데이터와 상기 기울기 측정부(130)가 측정한 기울기 값에 대한 데이터를 무선 통신으로 사전 검색 장치(200)로 전송한다.The communication unit 140 included in the character image input apparatus 100 transmits data on the character image acquired by the camera unit 120 and data on the tilt value measured by the tilt measuring unit 130, And transmits it to the dictionary search apparatus 200.
문자 영상 입력 장치(100)의 제어부(150)는 사용자의 명령이 입력되면, 카메라부(120)에 문자 영상의 획득을 지시하고, 기울기 측정부(130)에 상기 문자에 대한 상기 카메라부(120)의 광축의 기울기 측정을 지시하고, 상기 획득된 문자 영상에 대한 데이터와 상기 측정된 기울기 값을 사전 검색 장치(200)로 전송하게 할 수 있다.The control unit 150 of the character image input apparatus 100 instructs the camera unit 120 to acquire a character image and instructs the tilt measuring unit 130 to acquire the character And transmits the data on the obtained character image and the measured tilt value to the dictionary searching apparatus 200. [0050] FIG.
사전 검색 장치(200)는 상기 문자 영상 입력 장치(100)로부터 문자 영상 데이터와 기울기 측정 값에 대한 데이터를 수신하는 통신부(210), 상기 수신된 기울기 값에 기초하여 상기 문자 영상을 보정하는 영상 전처리부(220), 상기 보정된 문자 영상에서 문자 정보(text data)를 추출하는 광학 문자 인식부(230), 문자 정보의 의미를 찾기 위해 사전 검색을 실시하는 검색부(240), 및 사전 검색 결과를 표시해주는 표시부(250)를 포함하여 구성된다.The dictionary searching apparatus 200 includes a communication unit 210 for receiving character image data and slope measurement data from the character image input apparatus 100, a video preprocessing unit for correcting the character image based on the received slope value, An optical character recognition unit 230 for extracting text data from the corrected character image, a search unit 240 for performing a dictionary search to find the meaning of the character information, And a display unit 250 for displaying an image.
상기 통신부(210)는 상기 문자 영상 입력 장치(100)의 통신부(140)가 전송한 문자 영상 데이터와 기울기 측정 값 데이터를 수신한다.The communication unit 210 receives character image data and tilt measurement value data transmitted by the communication unit 140 of the character image input device 100.
상기 영상 전처리부(220)는 상기 통신부(210)로부터 상기 문자 영상 데이터와 기울기 측정 값 데이터를 전달받은 후, 상기 기울기 측정 값에 기초하여 카메라부(120)가 촬영 대상 문자에 대해서 기울어짐에 따라 발생한 문자 영상의 왜곡을 보정할 수 있다.The image preprocessing unit 220 receives the character image data and the slope measurement value data from the communication unit 210, and then, based on the slope measurement value, The distortion of the generated character image can be corrected.
또한, 상기 영상 전처리부(220)는 촬영된(획득된) 문자 영상을 이진화(binarization)하여 광학식 문자 인식 과정이 잘 처리 될 수 있도록 한다. 이진화는 문자 영상 왜곡 보정 전에 실행할 수도 있고, 문자 영상 왜곡 보정 후에 실행할 수도 있다.In addition, the image preprocessing unit 220 binarizes the photographed (acquired) character image so that the optical character recognition process can be well processed. The binarization may be executed before the character image distortion correction, or after the character image distortion correction.
상기 영상 전처리부(220)는 호모그래피(Homography), 허프변환(Hough Transform) 등의 이미지 보정 방법을 이용하여 획득된 문자 영상에서 카메라부(120)의 광축이 문자와 수직이 아니라 기울어진 정도에 따라 발생한 이미지 왜곡을 보정함으로써, 상기 카메라부(120)가 촬영 대상 문자를 수직으로 촬영한 것과 같은 문자 영상을 광학 문자 인식부(230)에 제공할 수 있다.The image preprocessing unit 220 performs a process of converting the image of the character image obtained by using the image correction method such as homography or Hough Transform to the degree of inclination of the optical axis of the camera unit 120, It is possible to provide the character image to the optical character recognition unit 230 such that the camera unit 120 vertically photographs the character to be photographed.
또한, 상기 영상 전처리부(220)는 이진화(Binarization), 노이즈 제거(Noise removal), 경계 제거(Border removal), 스큐잉/디스큐잉(Skewing/Deskewing) 등의 이미지 프로세싱(image processing)을 통해 이미지 보정을 함으로써, 광학 문자 인식 과정에서의 문자 인식률을 높일 수 있다.The image preprocessing unit 220 may perform image processing such as binarization, noise removal, border removal, skewing / deskewing, By performing the correction, the character recognition rate in the optical character recognition process can be increased.
상기 광학 문자 인식부(230)는 상기 영상 전처리부(220)로부터 보정된 문자 영상 데이터를 전달받은 후, 광학식 문자 인식(Optical Character Recognition) 프로세스를 통해 상기 보정된 문자 영상에서 문자 정보(text data)를 추출한다.The optical character recognition unit 230 receives the corrected character image data from the image preprocessing unit 220 and then performs character recognition on the corrected character image through an optical character recognition process, .
상기 광학 문자 인식부(230)는 전결합 레이어(Fully-connected layer)나 SVM(Support Vector Machine)과 같은 분류기를 통해서 상기 문자 영상이 어떤 문자에 해당하는 지를 분석한 뒤 문자(text)를 추출할 수 있다.The optical character recognition unit 230 analyzes characters corresponding to the character image through a classifier such as a fully-connected layer or a SVM (Support Vector Machine), and extracts a text .
문자 영상에서 문자 정보를 추출할 때, 상기 광학 문자 인식부(230)는 언어별 특성에 따른 파라미터 설정 값에 따라 문자 추출을 실시함으로써 문자 인식이 안되거나, 잘 못 인식되는 가능성을 낮추어 결과적으로 문자 인식률을 높일 수 있다.When extracting the character information from the character image, the optical character recognition unit 230 performs character extraction according to the parameter setting value according to the language-specific characteristic, thereby reducing the possibility of recognition of the character or the possibility of misrecognition, The recognition rate can be increased.
상기 검색부(240)는 상기 광학 문자 인식부(230)에서 인식된 문자 정보를 전달받은 후, 상기 문자의 의미를 찾기 위해 사전 검색을 실시한다.After receiving the character information recognized by the optical character recognition unit 230, the search unit 240 performs a pre-search to find the meaning of the character.
일 실시 예에 따라, 상기 검색부(240)는 네트워크에 접속하여 상기 문자의 의미를 검색하거나, 상기 사전 검색 장치(200)에 내에 구비된 사전 데이터에 접속하여 상기 문자의 의미를 검색할 수 있다.According to one embodiment, the search unit 240 may access the network to retrieve the meaning of the character, or may access the dictionary data provided in the dictionary search apparatus 200 to retrieve the meaning of the character .
이후, 상기 표시부(250)는 상기 검색부(240)가 검색한 결과를 출력하여 사용자가 찾고자 하는 단어의 의미 또는 문자의 번역 결과를 사용자에게 표시해 준다.Thereafter, the display unit 250 displays the result of the search by the search unit 240, and displays the meaning of the word or the translation result of the character to the user.
본 명세서에 개시된 실시 예에 따른 문자 인식 전자 사전 시스템(1000)은 문자 영상 입력 장치(100)와 사전 검색 장치(200)만으로 구성되어도 문자를 인식하고 인식된 문자의 의미를 검색하여 사용자에게 보여줄 있다.The character recognition electronic dictionary system 1000 according to the embodiment of the present invention recognizes a character even if it is constituted by only the character image input device 100 and the dictionary search device 200 and searches for the meaning of the recognized character and displays it to the user .
또한, 본 명세서에 개시된 실시 예에 따른 문자 인식 전자 사전 시스템(1000)은 문자 인식률을 높여 더 정확한 검색 결과를 사용자에게 보여주도록 관리 장치(300)를 더 포함할 수도 있다.In addition, the character recognition electronic dictionary system 1000 according to the embodiment disclosed herein may further include the management apparatus 300 to increase the character recognition rate and display more accurate search results to the user.
관리 장치(300)는 인식이 전혀 되지않거나, 인식이 잘못되는 경우 등 문자 정보 추출에 문제가 발생한 문자 영상의 데이터를 사전 검색 장치(200)로부터 수집하는 오인식 이미지 관리 DB(310)와, 상기 수집된 영상 데이터를 분석 및 학습하여 문자 정보에 대한 인식률이 향상되도록, 상기 광학 문자 인식부(230)에서의 문자 정보의 추출에 관련된 파라미터를 조절하는 신경망 관리부(320)를 포함하여 구성됨으로써 새로운 파라미터 값을 사전 검색 장치(200)로 전송하여 상기 광학 문자 인식부(230)의 문자 정보 인식률을 높일 수 있다.The management apparatus 300 includes a mistaken image management DB 310 for collecting data of a character image in which character information extraction has failed, such as when recognition is not performed at all, or when recognition is incorrect, from the dictionary search apparatus 200, And a neural network manager 320 for adjusting parameters related to extraction of character information in the optical character recognition unit 230 so as to improve the recognition rate of the character information by analyzing and learning the image data, May be transmitted to the dictionary search apparatus 200 to increase the recognition rate of the character information of the optical character recognition unit 230.
오인식 이미지 관리 DB(310)는 상기 광학 문자 인식부(230)에서 문자 영상을 인식하여 문자 정보를 추출할 때, 문자 정보가 전혀 인식되지 않거나, 인식이 잘못되는 경우 등 인식률이 낮은 문자 영상에 대한 영상 데이터를 사전 검색 장치(200)로부터 수집하여 유형별로 분류한 뒤, 분류된 영상 데이터를 신경망 관리부(320)로 전달한다.When the optical character recognition unit 230 recognizes the character image and extracts the character information, the misty-type image management DB 310 determines whether or not the character image has a low recognition rate, such as when the character information is not recognized at all, The image data is collected from the dictionary search apparatus 200 and classified into types, and the classified image data is transmitted to the neural network management unit 320.
신경망 관리부(320)는 상기 오인식 이미지 관리 DB(310)로부터 전달된 영상 데이터를 신경망을 통해 학습시키거나 재학습시켜서 파라미터들을 도출한다. 즉, 상기 광학 문자 인식부(230)에서 문자 정보의 추출 시, 문자 인식 인식률이 향상되도록 파라미터들을 조절할 수 있다.The neural network management unit 320 learns or re-learns the image data transmitted from the false-feeling image management DB 310 through the neural network to derive the parameters. That is, when extracting character information from the optical character recognition unit 230, the parameters can be adjusted so as to improve the recognition rate of character recognition.
한편, 상기 사전 검색 장치(200)는 파라미터 관리부(260)를 더 포함함으로써 상기 관리 장치(300)에서 조절된 파라미터를 수신하여, 상기 광학 문자 인식부(230)의 문자 인식 관련 파라미터를 갱신할 수 있다.The first search device 200 may further include a parameter management unit 260 to receive parameters adjusted by the management device 300 and to update the character recognition related parameters of the optical character recognition unit 230 have.
상기 파라미터 관리부(260)는 각 언어별 특성에 따라 광학식 문자 인식 과정에서 문자 영상에서 문자 정보(text data)를 추출하는 데 사용되는 다양한 파라미터들을 저장하고 있으며, 상기 광학 문자 인식부(230)는 상기 파라미터들을 참조하여 촬영된 문자 영상에서 문자 정보를 추출할 수 있다.The parameter management unit 260 stores various parameters used for extracting text data from the character image in the optical character recognition process according to the characteristics of each language, The character information can be extracted from the photographed character image with reference to the parameters.
상기 파라미터는 언어의 종류, 문자표기 방법 등 각 언어의 다양한 특성에 따라 결정될 수 있으며, 열거한 특성들 외에도 언어 고유의 성질과 관련되는 특성을 고려하여 결정될 수 있다.The parameter may be determined according to various characteristics of each language such as a language type, a character notation method, and may be determined in consideration of characteristics related to language-specific properties in addition to the listed properties.
또한, 상기 파라미터는 문자 영상의 전체 색상, 조명 조건, 표시된 문자의 품질, 사용되는 폰트의 종류, 문자의 형태, 문자의 색상 등 문자 자체의 다양한 특성에 따라 결정될 수 있으며, 열거한 특성들 외에도 문자 고유의 성질과 관련되는 특성을 고려하여 결정될 수 있다.In addition, the parameter may be determined according to various characteristics of the character itself such as the overall color of the character image, the lighting condition, the quality of the displayed character, the font type used, the character type, the color of the character, Can be determined in consideration of the characteristics related to the inherent properties.
이하에서는 본 발명의 실시 예에 따른 문자 인식 전자 사전 시스템(1000)에서 문자 영상 입력 장치(100) 내의 카메라부(120)가 기울어진 각도 값을 이용하여 문자 영상을 보정함으로써 광학 문자 인식부(230)에서의 문자 정보 인식률을 높이는 방법에 대해서 도 3 및 도 4을 참조하여 상세하게 설명한다.Hereinafter, in the character recognition electronic dictionary system 1000 according to the embodiment of the present invention, the character image is corrected using the tilted angle value of the camera unit 120 in the character image input apparatus 100, Will be described in detail with reference to Figs. 3 and 4. Fig.
도 4(a)는 문자 영상 입력 장치의 기울기를 측정하는 예시도이고, 도 4(b)는 문자 영상 입력 장치의 광축이 문자에 대해서 수직인 상태에서 획득한 문자 영상의 예시를 도시한 도이며, 도 4(c)는 문자 영상 입력 장치 내의 카메라부의 광축이 문자에 대해서 기울어진 상태에서 획득한 문자 영상의 예시를 도시한 도이다.FIG. 4A is a diagram illustrating an example of a tilt of a character image input device, and FIG. 4B is a diagram illustrating an example of a character image acquired in a state where an optical axis of the character image input device is perpendicular to a character , And FIG. 4 (c) is a diagram showing an example of a character image obtained in a state in which the optical axis of the camera unit in the character image input device is inclined with respect to the character.
도 4(a)를 참조하면, 상기 문자 영상 입력 장치(100)에 구비된 기울기 측정부(130)는 카메라부(120)가 문자 영상을 촬영할 때, 촬영 대상 문자가 표시된 종이 등의 표면에 대한 상기 카메라부(120)의 광축의 기울기(A)를 측정할 수 있다.Referring to FIG. 4A, the tilt measuring unit 130 included in the character image input apparatus 100 detects a tilt of a surface of a paper sheet, The tilt A of the optical axis of the camera unit 120 can be measured.
카메라부(120)가 피사체(예를 들어 문자가 인쇄된 종이면)와 수직의 각도를 이루지 않은 상태로 상기 피사체를 촬영하면, 상기 피사체가 문자일 경우, 일그러진 문자 영상이 획득되므로, 광학 문자 인식 과정에서 문자 인식률의 저하를 가져오게 된다.When the subject is a character, a distorted character image is obtained when the camera 120 photographs the subject in a state where the camera 120 does not form an angle perpendicular to the subject (for example, the paper surface on which characters are printed) The recognition rate of the character is lowered.
도 4(b)는 카메라부(120)가 문자가 인쇄된 종이면과 수직의 각도를 이룬 상태로 상기 문자를 촬영하여 촬영대상 문자(contents)에 왜곡이 없는 영상이고, 도 4(c)는 도 4(a)에 도시된 문자 영상 입력 장치(100)의 예와 같이 카메라부(120)가 문자가 인쇄된 종이면과 수직의 각도를 이루지 않은 상태로 상기 문자를 촬영하여 촬영대상 문자에 왜곡이 발생한 영상이다.4 (b) is an image in which the camera 120 photographs the character with an angle perpendicular to the paper surface on which the characters are printed, and there is no distortion in the characters to be photographed. Fig. 4 (c) The camera section 120 photographs the character in a state in which the camera section 120 does not form an angle perpendicular to the paper surface on which the character is printed as in the case of the character image input apparatus 100 shown in FIG. .
도시한 바와 같이 문자 주변을 둘러싸고 있는 사각형으로 비교하면, 문자가 인쇄된 종이면과 수직의 각도를 이룬 상태로 상기 문자를 촬영하면 직사각형으로 문자 영상이 촬영되고, 문자가 인쇄된 종이면과 수직의 각도를 이루지 않은 상태로 상기 문자를 촬영하면 아랫변 보다 윗변이 좁은 사다리꼴의 형상으로 문자 영상이 촬영된다.As shown in the figure, when the characters are photographed in a state of being perpendicular to the paper surface on which the characters are printed, the characters are photographed in a rectangular shape, When the character is photographed in an angle, the character image is photographed in a trapezoidal shape whose upper side is narrower than the lower side.
따라서, 문자 영상 입력 장치(100)가 기운 상태에 문자를 촬영하면, 문자 영상에 왜곡이 발생되어 문자 인식률이 떨어지게 된다.Therefore, when the character image input apparatus 100 photographs a character in a state in which it is raised, distortion occurs in the character image and the character recognition rate is lowered.
예를 들어, 카메라부(120)가 기울어진 상태, 즉, 문자 영상 입력 장치(100)가 기운 상태에서 문자를 촬영하면 "contents"라는 단어가 "corternts"로 잘 못 인식될 수 있다.For example, if the camera section 120 is tilted, that is, when the character image input apparatus 100 captures a character in a tilted state, the word " contents " may be misrecognized as " corternts ".
상기 기울기 측정부(130)가 촬영 대상 문자에 대한 카메라부(120)의 각도(A)를 측정하면, 영상 전처리부(220)가 측정된 각도 값을 이용하여 문자의 일그러짐을 보정함으로써, 도 4(c)에 도시한 바와 같은 왜곡된 문자 영상이 도 4(b)에 도시한 바와 같이 이미지 센서(120)가 기울어지지 않은 상태의 문자 영상처럼 보정된다. 따라서, 문자 영상의 기울기 보정을 통해서 광학 문자 인식 과정에서의 문자 인식률을 높일 수 있는 효과가 있다.When the tilt measuring unit 130 measures the angle A of the camera unit 120 with respect to the character to be imaged, the image preprocessing unit 220 corrects the distortion of the character using the measured angle value, the distorted character image shown in FIG. 4C is corrected as shown in FIG. 4B as a character image in a state in which the image sensor 120 is not inclined. Accordingly, there is an effect that the character recognition rate in the optical character recognition process can be enhanced through the inclination correction of the character image.
문자 영상 입력 장치(100)에서의 문자 왜곡 보정은 상기 영상 전처리부(220)에서 호모그래피(Homography), 허프변환(Hough Transform) 등의 이미지 보정 방법을 이용함으로써 이미지 센서(120)가 기울어진 상태에서 획득한 문자 영상을 기울어지지 않은 상태에서 획득한 문자 영상처럼 보정할 수 있다.The character distortion correction in the character image input apparatus 100 may be performed by using an image correction method such as homography or Hough transform in the image preprocessing unit 220 so that the image sensor 120 is inclined Can be corrected as a character image acquired in a non-inclined state.
일 실시 예에서, 상기 기울기 측정부(130)가 자이로 센서와 가속도 센서일 수 있다. 이 경우, 상기 기울기 측정부(130)는 일 방향 이상으로 카메라부(120)가 기울어진 정도를 측정할 수 있다.In one embodiment, the tilt measuring unit 130 may be a gyro sensor and an acceleration sensor. In this case, the tilt measuring unit 130 may measure the tilt of the camera unit 120 in more than one direction.
따라서, 영상 전처리부(220)는 문자 영상 입력 장치(100)가 사용자에 따라 다양한 방향으로 기울게 되어도 촬영된 문자 영상을 보정할 수 있다.Accordingly, the image preprocessing unit 220 can correct the photographed character image even if the character image input apparatus 100 is inclined in various directions according to the user.
이하에서는 도 5를 참조하여 문자 영상 입력 장치(100)에서 카메라부(120)와 그 초점 거리(F)를 고려한 카메라부의 배치 위치에 대해 설명한다.Hereinafter, the arrangement position of the camera unit 120 considering the camera unit 120 and the focal length F in the character image input apparatus 100 will be described with reference to FIG.
도 5는 본 발명의 실시예에 따른 문자 영상 입력 장치에서 초점 거리를 고려한 카메라부의 배치 위치를 나타낸 도면으로, 도 5(a)는 문자 영상 입력 장치의 하단 내부에 카메라부가 배치된 예시도이고, 도 5(b)는 문자 영상 입력 장치의 상단 외주면에 카메라부가 배치된 예시도이다.FIG. 5 is a diagram illustrating a position of a camera unit in consideration of a focal length in a character image input device according to an exemplary embodiment of the present invention. FIG. 5 (a) 5 (b) is an illustration showing an example in which a camera unit is disposed on the upper outer peripheral surface of the character image input device.
문자 영상 입력 장치(100)의 카메라부(120)는 고정 초점을 가진 카메라일 수 있다.The camera unit 120 of the character image input device 100 may be a camera having a fixed focus.
실시 예에 따라, 도 5(a)에 도시한 바와 같이, 상기 카메라부(120)로 고정 초점 방식의 카메라 모듈을 사용하되, 문자 영상 입력 장치(100)의 펜 형상의 몸체부(105) 하단 내부에 상기 고정 초점 방식의 카메라 모듈을 그 초점 거리(F)를 고려하여 배치하거나, 도 5(b)에 도시한 바와 같이, 상기 카메라부(120)로 고정 초점 방식의 카메라 모듈을 사용하되, 문자 영상 입력 장치(100)의 펜 형상의 몸체부(105) 상단의 돌출된 하우징 안에 상기 고정 초점 방식의 카메라 모듈을 그 초점 거리(F)를 고려하여 배치함으로써 문자에 대한 영상을 신속하고 선명하게 촬영할 수 있다.5A, a camera module of a fixed focus type is used as the camera unit 120, and the camera module 120 of the character image input device 100 includes a pen- The fixed focus camera module may be disposed in consideration of the focal length F thereof or the fixed camera module may be used as the camera module 120 as shown in FIG. The camera module of the fixed focus type is disposed in a protruding housing at the upper end of the pen-shaped body portion 105 of the character image input device 100 in consideration of the focal length F thereof, You can shoot.
상기 고정 초점 방식의 카메라 모듈(120)은 상기 몸체부(105)의 일단에 형성된 펜 팁으로부터 일정한 거리, 즉, 초점 거리만큼 떨어져서 상기 몸체부(105)에 배치함으로써 사전 검색을 위한 문자의 촬영 시, 일일이 초점을 맞춘 후, 문자 영상을 촬영할 필요가 없어지므로 신속하게 선명한 문자 영상을 획득할 수 있다.The camera module 120 of the fixed focus type is disposed on the body part 105 at a predetermined distance from the pen tip formed at one end of the body part 105, that is, at a focal distance, , It is not necessary to take a character image after focusing on each one, so that a clear character image can be obtained quickly.
이하에서는 문자 영상 입력 장치(100)에서 카메라부(120)의 영상 촬영 시야를 가리지 않도록 손가락을 파지시키는 방법에 대해서 도 6을 참조하여 설명한다.Hereinafter, a method of gripping a finger so as not to obscure the visual field of view of the camera unit 120 in the character image input apparatus 100 will be described with reference to FIG.
도 6은 본 발명의 실시예에 따른 문자 영상 입력 장치에서 카메라부의 화각을 가리지 않도록 손가락을 파지시키는 손가락 안내부와 손가락을 파지한 예시를 나타낸 도면이다.FIG. 6 is a diagram illustrating an example of a finger guide unit for holding a finger so as not to block the angle of view of the camera unit and an example of holding a finger in the character image input device according to the embodiment of the present invention.
본 발명의 실시 예에 따른 펜 형상의 몸체부(105)에는 사용자가 상기 몸체부(105)를 움켜쥘 때, 사용자의 손가락이 상기 카메라부(120)의 화각(Field Of View; FOV) 내에 들어가는 것을 방지할 필요가 있으며, 이를 위해 상기 손가락을 수용하는 손가락 안내부(B)가 상기 몸체부(105)의 일부에 형성될 수 있다.The pen-shaped body portion 105 according to the embodiment of the present invention may be configured such that when the user grasps the body portion 105, the user's finger enters the field of view (FOV) of the camera portion 120 For this purpose, a finger guide B for receiving the finger may be formed on a part of the body part 105.
도 6(a)는 상기 카메라부(120)가 상기 몸체부(105)의 하단 내부에 배치된 것으로 상기 카메라부(120)의 화각 내에 사용자의 손가락이 들어가지 않도록 손가락 안내부(B)가 상기 몸체부(105)의 외주면에 형성된다.6A shows a state in which the camera unit 120 is disposed inside the lower end of the body part 105 and the finger guide part B is provided in the lower part of the body part 105, And is formed on the outer peripheral surface of the body portion 105.
예를 들어, 상기 펜 형상의 몸체부(105)를 사용자가 연필을 쥐듯이 손가락을 파지하면 도 6(b)에 도시한 바와 같이 가운데 손가락이 상기 손가락 안내부(B) 내에 머무르게 되어, 가운데 손가락이 상기 카메라부(120)의 화각(FOV)을 가리지 않게 된다.For example, when the user holds the pen-shaped body portion 105 as if holding a pencil, the middle finger stays in the finger guide portion B as shown in Fig. 6 (b) (FOV) of the camera unit 120 is not blocked.
도 6(c)는 상기 카메라부(120)가 상기 몸체부(105)의 상단 외부에 배치된 것으로 상기 카메라부(120)의 화각 내에 사용자의 손가락이 들어가지 않도록 손가락 안내부(B)가 상기 몸체부(105)의 외주면에 형성된다.6C shows a state in which the camera unit 120 is disposed outside the upper end of the body part 105 and the finger guide unit B is moved in the vertical direction of the camera unit 120, And is formed on the outer peripheral surface of the body portion 105.
예를 들어, 상기 펜 형상의 몸체부(105)를 사용자가 연필을 쥐듯이 손가락을 파지하면 도 6(d)에 도시한 바와 같이 엄지 손가락과 검지 손가락이 상기 손가락 안내부(B) 내에 머무르게 되어, 가운데 손가락이 상기 카메라부(120)의 화각(FOV)을 가리지 않게 된다.For example, when the user holds the pen-shaped body portion 105 as if holding a pencil, the thumb and index finger stay in the finger guide portion B as shown in Fig. 6 (d) , So that the center fingers do not obscure the angle of view (FOV) of the camera unit 120.
손가락 안내부(B)는 손가락으로 인해 카메라부(120)의 시야를 가리지 않도록 사용자의 손가락을 안내하는 것으로, 만입 또는 돌출된 형상이거나 벽의 형태 등 손가락이 움직이는 것을 막는 형상이면 어떤 형태이든 지 가능하다.The finger guide portion B guides the user's finger so as not to obscure the field of view of the camera portion 120 due to the finger, and can be any shape as long as it is a shape that is indented or protruded, Do.
이하에서는 본 발명의 실시 예에 따른 문자 인식 전자 사전 시스템(1000)에서 검색을 하고자 하는 문자에 대한 영상 촬영하여 사전 검색을 실시하는 방법을 도 7을 참조하여 설명한다.Hereinafter, a method for photographing a character to be searched and performing a dictionary search in the character recognition electronic dictionary system 1000 according to an embodiment of the present invention will be described with reference to FIG.
도 7은 본 발명의 실시예에 따른 문자 인식 전자 사전 시스템에서 문자를 인식하여 사전 검색을 실시하는 동작을 나타내는 흐름도이다.7 is a flowchart illustrating an operation of recognizing a character and performing a dictionary search in a character recognition electronic dictionary system according to an embodiment of the present invention.
일 실시 예에서, 문자 영상 입력 장치(100)는 구비된 사용자 입력부(111)를 통해서 사용자의 명령을 입력 받아 카메라부(120)에 문자 영상의 획득을 지시한다(S701).In one embodiment, the character image input apparatus 100 receives a user's command through the user input unit 111 and instructs the camera unit 120 to acquire a character image (S701).
사용자의 명령이 입력되면 카메라부(120)는 문자를 촬영하여 그 영상을 획득하는 한편, 기울기 측정부(130)가 상기 문자에 대한 상기 카메라부(120)의 광축의 기울기를 측정한다(S703).When the command of the user is inputted, the camera unit 120 captures a character and acquires the image, and the tilt measuring unit 130 measures the tilt of the optical axis of the camera unit 120 with respect to the character (S703) .
이어서, 문자 영상 입력 장치(100)는 통신부(140)를 통해 상기 획득된 문자 영상에 대한 데이터와 상기 측정된 기울기 값을 사전 검색 장치(200)로 전송한다(S705).Then, the character image input apparatus 100 transmits the obtained character image data and the measured tilt value to the dictionary search apparatus 200 through the communication unit 140 (S705).
상기 사전 검색 장치(200)의 통신부(210)는 상기 획득된 문자 영상에 대한 데이터와 상기 측정된 기울기 값을 수신한다.The communication unit 210 of the dictionary searching apparatus 200 receives the data on the obtained character image and the measured tilt value.
상기 사전 검색 장치(200) 내의 영상 전처리부(220)는 상기 촬영된 문자 영상에 대한 데이터와 상기 수신된 기울기 값에 기초하여 상기 문자 영상의 기울기 왜곡을 보정한다(S707).The image preprocessing unit 220 in the dictionary searching apparatus 200 corrects the tilt distortion of the character image based on the data on the photographed character image and the received tilt value in step S707.
상기 사전 검색 장치(200) 내의 광학 문자 인식부(230)는 상기 보정된 문자 영상에서 문자 정보를 추출한다(S709).The optical character recognition unit 230 in the dictionary searching apparatus 200 extracts character information from the corrected character image (S709).
이어서, 상기 변환된 문자 정보에 대한 의미를 검색하고, 상기 검색된 결과를 표시한다(S711).Next, the meaning of the converted character information is retrieved, and the retrieved result is displayed (S711).
상기 S709단계에서, 문자 영상에서 문자 정보의 추출 과정에서 잘못 인식하거나, 또는 전혀 문자를 인식하지 못할 경우에는 상기 사전 검색 장치(200)는 상기 인식 문제가 발생한 문자 영상을 관리 장치(300)로 전송한다(S713).If it is determined in step S709 that the character image is erroneously recognized in the character information extraction process or is not recognized at all, the dictionary search device 200 transmits the character image in which the recognition problem occurred to the management device 300 (S713).
관리 장치(300)는 수신된 문자 영상 데이터를 분석 및 학습하여 문자 영상에서 문자를 인식하는 정보의 추출에 관련된 파라미터를 조절함으로써 문자 정보에 대한 인식률이 향상되도록 한다(S715).The management apparatus 300 analyzes and learns the received character image data to adjust the parameters related to the extraction of information for recognizing characters in the character image, thereby improving the recognition rate of the character information (S715).
사전 검색 장치(200)는 관리 장치(300)로부터 값이 조절된 파라미터를 수신하고(S717), 광학 문자인식부(230)의 파라미터들을 상기 수신된 파라미터들로 업데이트 한다. 따라서, 사전 검색 장치(200)는 광학 문자 인식 장치의 인식률이 개선된 상태에서 문자 영상에서 문자 정보를 추출할 수 있게 된다.The dictionary search apparatus 200 receives the parameter whose value has been adjusted from the management apparatus 300 (S717), and updates the parameters of the optical character recognition section 230 with the received parameters. Accordingly, the dictionary searching apparatus 200 can extract the character information from the character image in a state where the recognition rate of the optical character recognition apparatus is improved.
본 명세서에 개시된 실시예들에 따른 문자 인식 전자 사전의 검색 방법은 컴퓨터로 읽을 수 있는 기록 매체에서 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 명세서의 기술이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The method of searching for a character recognition electronic dictionary according to the embodiments disclosed herein can be embodied as computer readable code on a computer readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like. In addition, the computer-readable recording medium may be distributed over network-connected computer systems so that computer readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present invention can be easily deduced by programmers skilled in the art to which the present description belongs.
이상에서 본 명세서의 기술에 대한 바람직한 실시 예가 첨부된 도면들을 참조하여 설명되었다. 여기서, 본 명세서 및 청구 범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다.In the foregoing, preferred embodiments of the present invention have been described with reference to the accompanying drawings. Here, terms and words used in the present specification and claims should not be construed as limited to ordinary or dictionary terms, and should be construed in a sense and concept consistent with the technical idea of the present invention.
본 발명의 범위는 본 명세서에 개시된 실시 예들로 한정되지 아니하고, 본 발명은 본 발명의 사상 및 특허청구범위에 기재된 범주 내에서 다양한 형태로 수정, 변경, 또는 개선될 수 있다.The scope of the present invention is not limited to the embodiments disclosed herein, and the present invention can be modified, changed, or improved in various forms within the scope of the present invention and the claims.
Claims (10)
- 일방향으로 연장되게 형성되는 몸체부;A body portion formed to extend in one direction;상기 몸체부 내부에 구비되고, 다른 장치와 통신을 수행하는 통신부;A communication unit provided in the body part and performing communication with another device;상기 몸체부의 일단에 배치되는 팁부;A tip portion disposed at one end of the body portion;상기 몸체부의 일부에 배치되어, 광축 상에 배치된 대상 물체의 표면의 영상을 획득하는 카메라부;A camera unit disposed on a part of the body part to acquire an image of a surface of an object disposed on an optical axis;상기 카메라부의 광축의 기울기를 획득하는 기울기 측정부;A tilt measuring unit for obtaining a tilt of an optical axis of the camera unit;상기 몸체부 내부에 구비되어, 상기 팁부가 상기 대상 물체에 접촉되는 경우, 상기 대상 물체의 표면의 영상 및 상기 대상 물체의 표면과 상기 광축 사이의 기울기를 획득하고, 상기 다른 장치가 상기 영상 및 상기 기울기를 기초로 광학 문자 인식을 통해 문자 정보를 인식하도록 상기 영상 및 상기 기울기를 상기 다른 장치로 전송하도록 제어하는 제어부를 포함하는 문자 영상 입력 장치.And a controller that is provided in the body and obtains an image of a surface of the object and a slope between the surface of the object and the optical axis when the tip contacts the object, And controlling the image and the tilt to be transmitted to the other device so as to recognize the character information through optical character recognition based on the tilt.
- 제 1항에 있어서, 상기 카메라부는The apparatus of claim 1, wherein the camera unit초점 거리를 고려하여 상기 대상 물체의 표면으로부터 이격하여 상기 몸체부의 일부에 배치되는 것을 특징으로 하는 문자 영상 입력 장치.Wherein the light source is disposed at a part of the body part from a surface of the object in consideration of a focal distance.
- 제 1항에 있어서, 상기 몸체부의 외주면에는[2] The apparatus according to claim 1, wherein an outer circumferential surface of the body portion파지하는 사용자의 손가락이 상기 카메라부의 화각(Field Of View) 밖에 있도록 상기 손가락을 수용하는 손가락 안내부가 형성된 것을 특징으로 하는 문자 영상 입력 장치.Wherein a finger guide portion for receiving the finger is formed such that the finger of the user holding the finger is outside the field of view of the camera portion.
- 제 1항에 있어서,The method according to claim 1,상기 카메라부의 촬상소자는 상기 대상 물체의 표면에 대한 적외선 영상을 촬영할 수 있는 촬상소자인 것을 특징으로 하는 문자 영상 입력 장치.Wherein the image pickup element of the camera unit is an image pickup element capable of taking an infrared image of the surface of the object.
- 문자 영상 입력 장치와 사전 검색 장치를 포함하여 구성된 전자 사전 시스템에 있어서,An electronic dictionary system comprising a character image input device and a dictionary search device,상기 문자 영상 입력 장치는,Wherein the character image input device comprises:광축 상에 배치된 대상 물체의 표면의 영상을 획득하는 카메라부;A camera unit for acquiring an image of a surface of an object disposed on an optical axis;상기 대상 물체의 표면의 수직축에 대한 상기 카메라부의 광축의 기울기를 획득하는 기울기 측정부; 및A tilt measuring unit for obtaining a tilt of an optical axis of the camera unit with respect to a vertical axis of the surface of the object; And상기 획득된 영상에 대한 데이터와 기울기 값을 상기 사전 검색 장치로 전송하는 제 1 통신부를 포함하고,And a first communication unit for transmitting data and slope values of the obtained image to the dictionary search apparatus,상기 사전 검색 장치는,The dictionary searching apparatus comprises:상기 문자 영상 입력 장치로부터 상기 영상 데이터와 기울기 값을 수신하는 제 2 통신부;A second communication unit for receiving the image data and the slope value from the character image input device;상기 수신된 기울기 값에 기초하여 상기 영상을 보정하는 영상 전처리부;An image preprocessing unit for correcting the image based on the received slope value;상기 보정된 영상에서 문자 정보를 추출하는 광학 문자 인식부;An optical character recognition unit for extracting character information from the corrected image;상기 추출된 문자 정보에 대한 의미를 검색하는 검색부; 및A searching unit searching for the meaning of the extracted character information; And상기 검색 결과를 표시하는 표시부를 포함하는 문자 인식 전자 사전 시스템.And a display unit for displaying the search result.
- 제 1항에 있어서,The method according to claim 1,상기 전자 사전 시스템은,The electronic dictionary system comprises:상기 획득된 영상 데이터 중 문자 인식률이 낮은 영상에 대한 영상 데이터를 상기 사전 검색 장치로부터 수집하고, 상기 수집된 영상 데이터를 분석하여 문자 정보에 대한 인식률이 향상되도록 상기 광학 문자 인식부의 문자 인식에 관련된 파라미터를 설정하는 관리 장치를 더 포함하고,Acquiring image data of an image having a low character recognition rate from the acquired image data from the dictionary search apparatus and analyzing the collected image data to calculate a parameter related to character recognition of the optical character recognition unit Further comprising:상기 사전 검색 장치는,The dictionary searching apparatus comprises:상기 파라미터로 상기 광학 문자 인식부의 파라미터를 갱신하는 파라미터 관리부를 더 포함하는 것을 특징으로 하는 문자 인식 전자 사전 시스템.And a parameter management unit for updating the parameter of the optical character recognition unit with the parameter.
- 문자에 대한 영상을 획득하는 카메라부;A camera unit for acquiring an image of a character;상기 문자에 대한 상기 카메라부의 광축의 기울기를 측정하는 기울기 측정부;A tilt measuring unit for measuring a tilt of an optical axis of the camera unit with respect to the character;상기 측정된 기울기 값에 기초하여 상기 획득된 문자 영상을 보정하는 영상 전처리부;An image preprocessing unit for correcting the obtained character image based on the measured slope value;상기 보정된 문자 영상에서 문자 정보를 추출하는 광학 문자 인식부; 및An optical character recognition unit for extracting character information from the corrected character image; And상기 추출된 문자 정보에 대한 의미를 검색하여 그 결과를 출력하는 검색부를 포함하는 문자 인식 전자 사전.And a search unit for searching for a meaning of the extracted character information and outputting the result.
- 제 7항에 있어서,8. The method of claim 7,상기 카메라부는 일방향으로 연장되게 형성되는 몸체부의 일부에 배치되되,Wherein the camera unit is disposed in a part of a body part extending in one direction,상기 몸체부에 의해 상기 카메라부의 초점 거리에 상기 문자가 위치하도록 상기 카메라부가 상기 몸체부의 일단으로부터 타단으로 이격되어 배치되는 것을 특징으로 하는 문자 인식 전자 사전.Wherein the camera unit is disposed apart from one end of the body part to the other end such that the character is positioned at a focal distance of the camera unit by the body part.
- 제 7항에 있어서,8. The method of claim 7,상기 몸체부에는 사용자가 손가락을 파지 할 때, 사용자의 손가락이 상기 카메라부의 화각(Field Of View) 밖에 있도록 상기 손가락을 수용하는 손가락 안내부가 형성된 것을 특징으로 하는 문자 인식 전자 사전.Wherein the body portion is formed with a finger guide portion for receiving the finger so that the user's finger is outside the field of view of the camera portion when the user holds the finger.
- 사용자 입력에 의해 문자에 대한 영상을 획득하는 단계;Acquiring an image for a character by user input;상기 문자에 대한 카메라부의 광축의 기울기를 측정하는 단계;Measuring a tilt of an optical axis of the camera unit with respect to the character;상기 촬영된 문자 영상에 대한 데이터와 상기 측정된 기울기 값을 기초로 상기 촬영된 문자 영상을 보정하는 단계;Correcting the photographed character image based on the data on the photographed character image and the measured slope value;상기 보정된 문자 영상에서 문자 정보를 추출하는 단계;Extracting character information from the corrected character image;상기 추출된 문자 정보에 대한 의미를 검색하는 단계; 및Retrieving a meaning of the extracted character information; And상기 검색 결과를 표시하는 단계를 포함하는 문자 인식 전자 사전의 검색 방법.And displaying the search result.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2017-0123287 | 2017-09-25 | ||
KR1020170123287A KR102022772B1 (en) | 2017-09-25 | 2017-09-25 | Acquisition of images for character recognition |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019059503A1 true WO2019059503A1 (en) | 2019-03-28 |
Family
ID=65810798
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2018/007501 WO2019059503A1 (en) | 2017-09-25 | 2018-07-03 | Image capture for character recognition |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102022772B1 (en) |
WO (1) | WO2019059503A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113392847A (en) * | 2021-06-17 | 2021-09-14 | 拉萨搻若文化艺术产业开发有限公司 | OCR (optical character recognition) handheld scanning translation device and translation method for Tibetan Chinese and English |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024177387A1 (en) * | 2023-02-23 | 2024-08-29 | 삼성전자주식회사 | Electronic device and method for text recognition |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001155140A (en) * | 1999-11-30 | 2001-06-08 | Hitachi Ltd | Video information input device and information processing system |
KR20010085741A (en) * | 1998-08-31 | 2001-09-07 | 가나이 쓰도무 | Pen type input device with camera |
KR100741368B1 (en) * | 2005-03-21 | 2007-07-20 | 유니챌(주) | Apparatus and method for automatic recognition of character |
JP2007323667A (en) * | 2007-07-30 | 2007-12-13 | Fujitsu Ltd | Imaging apparatus |
KR20110029189A (en) * | 2009-09-15 | 2011-03-23 | 연제성 | Electronic dictionary for words of takenpicture translation-equipped portable device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006072542A (en) * | 2004-08-31 | 2006-03-16 | Sato Corp | Device and method for reading bar code |
KR101310515B1 (en) * | 2006-05-17 | 2013-09-25 | 정병주 | Method and device for character entry, using projection keyboard |
JP5848230B2 (en) * | 2012-11-12 | 2016-01-27 | グリッドマーク株式会社 | Handwriting input / output system, handwriting input sheet, information input system, information input auxiliary sheet |
-
2017
- 2017-09-25 KR KR1020170123287A patent/KR102022772B1/en active IP Right Grant
-
2018
- 2018-07-03 WO PCT/KR2018/007501 patent/WO2019059503A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010085741A (en) * | 1998-08-31 | 2001-09-07 | 가나이 쓰도무 | Pen type input device with camera |
JP2001155140A (en) * | 1999-11-30 | 2001-06-08 | Hitachi Ltd | Video information input device and information processing system |
KR100741368B1 (en) * | 2005-03-21 | 2007-07-20 | 유니챌(주) | Apparatus and method for automatic recognition of character |
JP2007323667A (en) * | 2007-07-30 | 2007-12-13 | Fujitsu Ltd | Imaging apparatus |
KR20110029189A (en) * | 2009-09-15 | 2011-03-23 | 연제성 | Electronic dictionary for words of takenpicture translation-equipped portable device |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113392847A (en) * | 2021-06-17 | 2021-09-14 | 拉萨搻若文化艺术产业开发有限公司 | OCR (optical character recognition) handheld scanning translation device and translation method for Tibetan Chinese and English |
CN113392847B (en) * | 2021-06-17 | 2023-12-05 | 拉萨搻若文化艺术产业开发有限公司 | Tibetan Chinese-English three-language OCR handheld scanning translation device and translation method |
Also Published As
Publication number | Publication date |
---|---|
KR102022772B1 (en) | 2019-09-18 |
KR20190034812A (en) | 2019-04-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2015102361A1 (en) | Apparatus and method for acquiring image for iris recognition using distance of facial feature | |
WO2017204596A1 (en) | Facial contour correcting method and device | |
WO2016129917A1 (en) | User terminal and providing method therefor | |
WO2015122577A1 (en) | Electronic device comprising minimum sensing area and fingerprint information processing method therefor | |
WO2016163755A1 (en) | Quality measurement-based face recognition method and apparatus | |
WO2017099427A1 (en) | Convergent biometric authentication method based on finger joint and finger vein, and apparatus therefor | |
WO2013085193A1 (en) | Apparatus and method for enhancing user recognition | |
WO2018062580A1 (en) | Method for translating characters and apparatus therefor | |
WO2021025290A1 (en) | Method and electronic device for converting handwriting input to text | |
KR102236616B1 (en) | Information processing apparatus, control method thereof, and storage medium | |
WO2018008881A1 (en) | Terminal device and service server, method and program for providing diagnostic analysis service performed by same device, and computer-readable recording medium having same program recorded therein | |
WO2018117353A1 (en) | Method for detecting borderline between iris and sclera | |
WO2015137666A1 (en) | Object recognition apparatus and control method therefor | |
WO2018164364A1 (en) | Contactless multiple body part recognition method and multiple body part recognition device, using multiple biometric data | |
WO2019059503A1 (en) | Image capture for character recognition | |
WO2019164288A1 (en) | Method for providing text translation managing data related to application, and electronic device thereof | |
WO2016122068A1 (en) | Method for recognizing tire and device therefor | |
WO2022045746A1 (en) | Computing apparatus and method for authentication of pattern code including facial feature information | |
WO2016080716A1 (en) | Iris recognition camera system, terminal comprising same, and iris recognition method of system | |
WO2020256517A2 (en) | Automatic phase mapping processing method and system based on omnidirectional image information | |
WO2019035544A1 (en) | Face recognition apparatus and method using learning | |
WO2022092743A1 (en) | Method for extracting characters from vehicle license plate, and license plate character extraction device for performing method | |
WO2016148322A1 (en) | Method and device for detecting voice activity based on image information | |
WO2021162353A1 (en) | Electronic device comprising camera and method of operating same | |
KR100901125B1 (en) | Face detecting method and apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18858814 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 18858814 Country of ref document: EP Kind code of ref document: A1 |