KR101842396B1 - System for studying of sentence, and method for studying of sentence using the same - Google Patents

System for studying of sentence, and method for studying of sentence using the same Download PDF

Info

Publication number
KR101842396B1
KR101842396B1 KR1020170065410A KR20170065410A KR101842396B1 KR 101842396 B1 KR101842396 B1 KR 101842396B1 KR 1020170065410 A KR1020170065410 A KR 1020170065410A KR 20170065410 A KR20170065410 A KR 20170065410A KR 101842396 B1 KR101842396 B1 KR 101842396B1
Authority
KR
South Korea
Prior art keywords
scanning
sentence
data
unit
learning
Prior art date
Application number
KR1020170065410A
Other languages
Korean (ko)
Inventor
한성호
박용
Original Assignee
한성호
박용
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한성호, 박용 filed Critical 한성호
Priority to KR1020170065410A priority Critical patent/KR101842396B1/en
Application granted granted Critical
Publication of KR101842396B1 publication Critical patent/KR101842396B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • G06K9/3258
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa

Abstract

The present invention discloses a sentence learning system and a sentence learning method using the same. The sentence learning system comprises a scanning pen and a sentence learning device. The scanning pen includes: a first switching unit for switching on or off a scanning beginning command of a sentence to be scanned; a second switching unit for switching on or off a multi-scanning command of the sentence; a scanning unit for scanning images of the sentence; a controller for controlling scanning motions of the scanning unit; and a communication unit for transmitting scanning data on the sentence scanned by the scanning unit. The sentence learning device performs processing of the images and extraction of letters by using the scanning data transmitted from the scanning pen. In addition, the sentence learning device performs processing of images and extraction of letters so that each of the scanning data, generated by repetition of switching on or off of the scanning beginning command when the multi-scanning command is switched on, can form one sentence, and composes and outputs sentences corresponding to learning commands of a user by using data on the extracted letters. Therefore, the sentence learning system and the sentence learning method using the same can scan sentences for learning a language and can variously compose and output compositions of the scanned sentences.

Description

문장 학습 시스템 및 이를 이용한 문장 학습 방법{SYSTEM FOR STUDYING OF SENTENCE, AND METHOD FOR STUDYING OF SENTENCE USING THE SAME}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a sentence learning system and a sentence learning method using the sentence learning system.

본 발명은 국어 또는 영어 등의 언어에 대한 문장 학습에 관한 것이며, 더 자세하게는 문장을 구성하는 요소들을 다양하게 변경하면서 학습할 수 있도록 하는 문장 학습 시스템 및 이를 이용한 문장 학습 방법에 관한 것이다.The present invention relates to a sentence learning system for a language such as Korean or English, and more particularly, to a sentence learning system and a sentence learning method using the sentence learning system.

요즘은 어려서부터 언어 능력에 대한 관심이 매우 증가되고 있다. 국어 또는 영어 등에 대한 올바른 언어 학습을 위해 많은 시간과 노력과 비용이 투자되고 있으며 다양한 학습 방법이 제공되고 있다.Nowadays, interest in language ability has been greatly increased since childhood. A lot of time, effort, and money are invested in learning the correct language for Korean or English, and various learning methods are provided.

가장 보편적이고 일반적인 학습은 언어를 배우기에 적합하게 만들어진 책과 필요에 따라 이를 보충하기 위한 오디오 테이프 또는 오디오 파일 등으로 이루어진 특정 교재 내의 해당 언어 문장들을 하나씩 보고 이해 및 암기하는 과정으로 진행된다. 그러나, 이러한 방식으로 진행되는 언어 학습은 동일한 문장을 지속적인 반복 학습을 통해 암기될 수는 있지만, 해당 문장과 유사한 문장으로 변형되어 사용해야 할 경우에는 실제 상황에서 적절하게 활용되는데 어려움이 있다. The most common and common learning process involves viewing, understanding, and memorizing each language sentence in a specific textbook, such as a book that is tailored to learn a language, and an audio tape or audio file to supplement it as needed. However, although language learning that proceeds in this way can be memorized through continuous repetition of the same sentence, it is difficult to utilize it appropriately in a real situation when it is used in a form similar to the sentence.

또한, 기존의 언어 학습방법들 중에는 단어 또는 문장을 무조건 반복학습하여 암기식으로 학습함으로 인해, 학습 시간과 비용이 많이 들어가면서도 학습자의 의욕을 저하시키는 부작용을 야기한다. 이에 따라, 이러한 종래의 다양한 언어 학습 방법에서 탈피하여 사용자 중심으로 다양한 문장 패턴이 만들어질 수 있도록 할 필요가 있다. In addition, among the existing language learning methods, learning by memorizing the words or sentences unconditionally repeatedly leads to a side effect that reduces the learner 's motivation even though it takes a lot of learning time and cost. Accordingly, there is a need to avoid various conventional language learning methods so that various sentence patterns can be created based on the user.

본 발명이 해결하고자 하는 일 실시예의 과제는 언어 학습을 위한 문장을 스캐닝하고, 이렇게 스캐닝된 문장의 구성 요소를 다양하게 합성하여 출력할 수 있도록 하는 문장 학습 시스템 및 이를 이용한 문장 학습 방법을 제공하는데 있다.An object of the present invention is to provide a sentence learning system that scans a sentence for language learning, synthesizes various components of the scanned sentence in various ways, and outputs a sentence learning method using the sentence learning system .

상기의 과제를 해결하기 위한 본 발명에 따른 일 실시예의 문장 학습 시스템은 스캐닝 대상이 되는 문장에 대해 스캐닝 개시 명령을 온(on) 스위칭 또는 오프(off) 스위칭하는 제1 스위칭부, 상기 문장에 대한 멀티 스캐닝 명령을 온 스위칭 또는 오프 스위칭하는 제2 스위칭부, 상기 문장에 대한 이미지를 스캐닝하는 스캐닝부; 및 상기 스캐닝부의 스캐닝 동작을 제어하는 컨트롤러 및 상기 스캐닝부에서 스캐닝된 상기 문장에 대한 스캐닝 데이터를 전송하는 통신부를 포함하는 스캐닝 펜; 및 상기 스캐닝 펜으로부터 전송된 상기 스캐닝 데이터를 이용해 이미지 처리 및 문자 추출을 수행하는 문장 학습장치를 포함하고, 상기 문장 학습장치는, 상기 멀티 스캐닝 명령이 온 스위칭된 상태에서 상기 스캐닝 개시 명령의 온 스위칭과 오프 스위칭의 반복에 따라 생성되는 각각의 스캐닝 데이터들이 하나의 문장을 구성하도록 이미지 처리 및 문자 추출을 수행하고, 추출된 문자 데이터를 이용하여 사용자의 학습 명령에 대응하는 문장을 합성 및 출력하는 것을 특징으로 한다.According to an embodiment of the present invention, there is provided a sentence learning system including a first switching unit for switching on or off a scanning start command for a sentence to be scanned, A second switching unit for on-switching or off-switching the multi-scanning command, a scanning unit scanning the image for the sentence, A controller for controlling a scanning operation of the scanning unit, and a communication unit for transmitting scanning data for the sentence scanned by the scanning unit; And a sentence learning device for performing image processing and character extraction using the scanning data sent from the scanning pen, wherein the sentence learning device is configured to perform on-switching of the scanning start command in a state in which the multi- Image processing and character extraction are performed so that each of the scanning data generated in accordance with the repetition of the off-switching operation constitutes one sentence, and a sentence corresponding to the learning instruction of the user is synthesized and output using the extracted character data .

상기 컨트롤러는, 상기 멀티 스캐닝 명령이 온 스위칭된 상태에서 상기 스캐닝 개시 명령의 오프 스위칭 후에 상기 스캐닝 개시 명령의 온 스위칭이 있을 때까지의 인터럽트 시간과 기준 시간을 비교하고, 상기 인터럽트 시간이 상기 기준 시간보다 큰 경우에 상기 인터럽트 시간 이후의 스캐닝 동작에 따라 생성된 스캐닝 데이터와 상기 인터럽트 시간 이전의 스캐닝 동작에 따라 생성된 스캐닝 데이터가 한 문장을 구성하는 문장 구성요소들에 해당되도록 독립적 스캐닝 데이터로 처리하고, 상기 인터럽트 시간 이후의 스캐닝 동작에 따른 문장 구성요소와 상기 인터럽트 시간 이전의 스캐닝에 따른 문장 구성요소가 상기 한 문장을 구성하는 공통 객체군이 되도록 상호 매핑시키는 것을 특징으로 한다.Wherein the controller compares an interrupt time from when the scanning start command is off-switching to when there is on-switching of the scanning start command to a reference time in a state where the multi-scanning command is on-switched, The scanning data generated according to the scanning operation after the interruption time and the scanning data generated according to the scanning operation before the interruption time are processed as independent scanning data so as to correspond to the sentence components constituting one sentence And mapping the sentence components according to the scanning operation after the interruption time and the sentence components according to the scanning before the interruption time to the common object group constituting the sentence.

상기 컨트롤러는, 상기 인터럽트 시간이 상기 기준 시간보다 크지 않은 경우에 상기 인터럽트 시간 이후의 스캐닝 동작에 따른 스캐닝 데이터와 상기 인터럽트 시간 이전의 스캐닝에 따른 스캐닝 데이터가 하나의 문장이 되도록 단일 스캐닝 데이터로 처리하는 것을 특징으로 한다.Wherein the controller processes the scanning data according to the scanning operation after the interruption time and the scanning data according to the scanning prior to the interruption time into single sentence data if the interruption time is not greater than the reference time .

상기 문장 학습장치는, 상기 스캐닝 펜으로부터 전달된 상기 스캐닝 데이터를 이용해 이미지 처리을 수행하는 이미지 처리부; 이미지 처리된 스캐닝 데이터로부터 문자 데이터를 추출하는 문자 추출부; 상기 추출된 문자 데이터를 저장하는 데이터 저장부; 사용자로부터 문장 학습을 위한 학습 명령을 입력받고, 상기 입력된 학습 명령에 따른 영상 또는 음성을 출력하는 사용자 인터페이스부; 및 상기 이미지 처리부, 상기 문자 추출부, 상기 데이터 저장부 및 상기 사용자 인터페이스부의 동작을 제어하는 제어부를 포함하고, 상기 제어부는, 상기 데이터 저장부에 저장된 상기 문자 데이터를 이용하여, 문장을 구성하는 복수의 문장 구성요소들을 합성하고, 합성된 문장을 상기 사용자 인터페이스부를 통해 표시하도록 제어하는 것을 특징으로 한다.The sentence learning apparatus includes an image processing unit that performs image processing using the scanning data transmitted from the scanning pen; A character extracting unit for extracting character data from image-processed scanning data; A data storage unit for storing the extracted character data; A user interface unit for receiving a learning command for sentence learning from a user and outputting an image or voice according to the input learning command; And a control unit for controlling operations of the image processing unit, the character extracting unit, the data storage unit, and the user interface unit, wherein the control unit is configured to use the character data stored in the data storage unit, And the synthesized sentence is displayed through the user interface unit.

상기 제어부는, 상기 사용자 인터페이스부에 표시된 상기 복수의 문장 구성요소들 중에서 상기 사용자에 의해 선택된 문장 구성요소를 대체하는 다른 문장 구성요소들을 순차적으로 표시하도록 제어하는 것을 특징으로 한다.The control unit controls the display unit to sequentially display other sentence components replacing sentence components selected by the user from among the plurality of sentence components displayed on the user interface unit.

상기 데이터 저장부는, 문장을 구성하는 단어 데이터, 관용구 데이터, 예시 구성요소 데이터 중 적어도 하나 이상의 데이터를 저장하는 것을 특징으로 한다.The data storage unit stores at least one of word data, idiomatic data, and example component data that constitute a sentence.

상기의 과제를 해결하기 위한 본 발명에 따른 다른 실시예의 문장 학습 방법은 스캐닝 대상이 되는 문장에 대해 스캐닝 펜을 이용해 스캐닝하고, 스캐닝된 상기 문장에 대한 스캐닝 데이터를 전송하는 단계; 상기 스캐닝 펜으로부터 전송된 상기 스캐닝 데이터를 이미지 처리 및 이미지 처리된 스캐닝 데이터로부터 문자 데이터를 추출하는 단계; 및 사용자로부터 문장 학습을 위한 학습 명령을 입력받으면, 상기 문자 데이터를 이용하여 상기 학습 명령에 대응하는 문장을 합성 및 출력하는 단계를 포함하고, 상기 스캐닝 데이터에 대한 이미지 처리 및 문자 데이터를 추출하는 단계는, 상기 멀티 스캐닝 명령이 온 스위칭된 상태에서 상기 스캐닝 개시 명령의 온 스위칭과 오프 스위칭의 반복에 따라 생성되는 각각의 스캐닝 데이터들이 하나의 문장을 구성하도록 이미지 처리 및 문자 추출하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a sentence learning method including scanning a sentence to be scanned using a scanning pen, and transmitting scanning data for the scanned sentence; Extracting the character data from the scanned data transmitted from the scanning pen; And a step of synthesizing and outputting a sentence corresponding to the learning command using the character data when a learning command for learning a sentence is input from a user, the method comprising: extracting image data and character data for the scanning data; Is characterized in that image scanning and character extraction are performed so that each scanning data generated in accordance with repetition of on-switching and off-switching of the scanning start command constitutes one sentence in a state in which the multi-scanning command is on-switched.

상기 문장을 스캐닝하는 단계는, 상기 멀티 스캐닝 명령이 온 스위칭된 상태에서 상기 스캐닝 개시 명령의 오프 스위칭 후에 상기 스캐닝 개시 명령의 온 스위칭이 있을 때까지의 인터럽트 시간과 기준 시간을 비교하고, 상기 인터럽트 시간이 상기 기준 시간보다 큰 경우에 상기 인터럽트 시간 이후의 스캐닝 동작에 따라 생성된 스캐닝 데이터와 상기 인터럽트 시간 이전의 스캐닝 동작에 따라 생성된 스캐닝 데이터가 한 문장을 구성하는 문장 구성요소들에 해당되도록 독립적 스캐닝 데이터로 처리하고, 상기 인터럽트 시간 이후의 스캐닝 동작에 따른 문장 구성요소와 상기 인터럽트 시간 이전의 스캐닝에 따른 문장 구성요소가 상기 한 문장을 구성하는 공통 객체군이 되도록 상호 매핑시키는 것을 특징으로 한다.Wherein the step of scanning the sentence includes comparing an interrupt time from when the scanning start command is off-switching to when there is on-switching of the scanning start command to a reference time in a state where the multi-scanning command is on- The scanning data generated according to the scanning operation after the interruption time and the scanning data generated according to the scanning operation preceding the interruption time correspond to the sentence components constituting the one sentence, Data is mapped so that a sentence component according to the scanning operation after the interruption time and a sentence component according to the scanning prior to the interruption time become a common object group constituting the sentence.

상기 문장을 스캐닝하는 단계는, 상기 인터럽트 시간이 상기 기준 시간보다 크지 않은 경우에 상기 인터럽트 시간 이후의 스캐닝 동작에 따른 스캐닝 데이터와 상기 인터럽트 시간 이전의 스캐닝에 따른 스캐닝 데이터가 하나의 문장이 되도록 단일 스캐닝 데이터로 처리하는 것을 특징으로 한다.Wherein the step of scanning the sentence comprises: if the interrupt time is not greater than the reference time, if the scanning data after the interruption time and the scanning data according to the scanning before the interruption time are one sentence, And processing it with data.

상기 학습 명령에 대응하는 문장을 합성 및 출력하는 단계는, 상기 학습 명령에 따라 한 문장을 구성하는 복수의 문장 구성요소들을 표시하며, 상기 표시된 복수의 문장 구성요소들 중에서 상기 사용자에 의해 선택된 문장 구성요소를 대체하는 다른 문장 구성요소들을 순차적으로 표시하는 것을 특징으로 한다.Wherein the step of synthesizing and outputting the sentence corresponding to the learning instruction comprises the steps of displaying a plurality of sentence components constituting one sentence according to the learning instruction and selecting one of the plurality of sentence components displayed by the user And sequentially displaying other sentence constituent elements replacing the element.

본 발명에 따르면, 멀티 스캐닝 명령에 따라 생성되는 각각의 스캐닝 데이터들이 하나의 문장을 구성하도록 이미지 처리 및 문자 추출을 수행하고, 사용자로부터 입력된 학습 명령에 따라 한 문장을 구성하는 복수의 문장 구성요소들을 변경하여 출력되도록 함으로써, 언어 학습을 위한 문장을 다양하게 조합하여 사용자에게 제공할 수 있고 이에 따라 사용자의 흥미를 지속적으로 유발시키는 가운데 언어 학습이 이루어질 수 있도록 한다.According to the present invention, image processing and character extraction are performed so that each scanning data generated according to a multi-scanning command constitutes one sentence, and a plurality of sentence components So that the sentence for language learning can be variously combined and provided to the user so that the language learning can be performed while continuously causing the interest of the user.

도 1은 본 발명에 따른 문장 학습 시스템을 설명하기 위한 일 실시예의 블록도이다.
도 2는 도 1에 도시된 스캐닝 펜을 설명하기 위한 일 실시예의 구성 블록도이다.
도 3은 도 1에 도시된 스캐닝 펜의 외관을 나타내는 일 실시예의 참조도이다.
도 4a는 제어부의 제어에 따른 멀티 스캐닝 모드 중 동종 스캐닝 모드를 설명하기 위한 일 실시예의 참조도이다.
도 4b는 제어부의 제어에 따른 멀티 스캐닝 모드 중 혼합 스캐닝 모드를 설명하기 위한 일 실시예의 참조도이다.
도 5는 본 발명에 따른 문장 학습장치를 설명하기 위한 일 실시예의 블록도이다.
도 6은 도 5에 도시된 제어부의 제어에 따라 사용자 인터페이스부에 표시되는 문장을 예시하는 참조도이다.
도 7은 본 발명에 따른 문장 학습 방법을 설명하기 위한 일 실시예의 순서도이다.
1 is a block diagram of an embodiment for explaining a sentence learning system according to the present invention.
FIG. 2 is a block diagram of an embodiment for explaining the scanning pen shown in FIG. 1. FIG.
3 is a reference view of an embodiment showing the appearance of the scanning pen shown in Fig.
4A is a reference diagram of an embodiment for explaining a homogeneous scanning mode among multi-scanning modes under control of a controller.
4B is a reference view of an embodiment for explaining a mixed scanning mode among multi-scanning modes controlled by a control unit.
5 is a block diagram of an embodiment for explaining a sentence learning apparatus according to the present invention.
FIG. 6 is a reference view illustrating a sentence displayed on the user interface unit according to the control of the control unit shown in FIG. 5;
7 is a flowchart of an embodiment for explaining a sentence learning method according to the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.  Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 실시예들은 당해 기술 분야에서 통상의 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위하여 제공되는 것이며, 아래의 실시예들은 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 아래의 실시예들로 한정되는 것은 아니다. 오히려, 이들 실시예는 본 개시를 더욱 충실하고 완전하게 하며 당업자에게 본 발명의 사상을 완전하게 전달하기 위하여 제공되는 것이다.  Embodiments of the present invention are provided to more fully describe the present invention to those skilled in the art, and the following embodiments may be modified in various other forms, The present invention is not limited to the following embodiments. Rather, these embodiments are provided so that this disclosure will be more thorough and complete, and will fully convey the concept of the invention to those skilled in the art.

본 명세서에서 사용된 용어는 특정 실시예를 설명하기 위하여 사용되며, 본 발명을 제한하기 위한 것이 아니다. 본 명세서에서 사용된 바와 같이 단수 형태는 문맥상 다른 경우를 분명히 지적하는 것이 아니라면, 복수의 형태를 포함할 수 있다. 또한, 본 명세서에서 사용되는 경우 "포함한다(comprise)" 및/또는"포함하는(comprising)"은 언급한 형상들, 숫자, 단계, 동작, 부재, 요소 및/또는 이들 그룹의 존재를 특정하는 것이며, 하나 이상의 다른 형상, 숫자, 동작, 부재, 요소 및/또는 그룹들의 존재 또는 부가를 배제하는 것이 아니다. 본 명세서에서 사용된 바와 같이, 용어 "및/또는"은 해당 열거된 항목 중 어느 하나 및 하나 이상의 모든 조합을 포함한다.  The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. As used herein, the singular forms "a", "an," and "the" include plural forms unless the context clearly dictates otherwise. Also, " comprise "and / or" comprising "when used herein should be interpreted as specifying the presence of stated shapes, numbers, steps, operations, elements, elements, and / And does not preclude the presence or addition of one or more other features, integers, operations, elements, elements, and / or groups. As used herein, the term "and / or" includes any and all combinations of one or more of the listed items.

본 명세서에서 제1, 제2 등의 용어가 다양한 부재, 영역 및/또는 부위들을 설명하기 위하여 사용되지만, 이들 부재, 부품, 영역, 층들 및/또는 부위들은 이들 용어에 의해 한정되어서는 안됨은 자명하다. 이들 용어는 특정 순서나 상하, 또는 우열을 의미하지 않으며, 하나의 부재, 영역 또는 부위를 다른 부재, 영역 또는 부위와 구별하기 위하여만 사용된다. 따라서, 이하 상술할 제1 부재, 영역 또는 부위는 본 발명의 가르침으로부터 벗어나지 않고서도 제2 부재, 영역 또는 부위를 지칭할 수 있다.Although the terms first, second, etc. are used herein to describe various elements, regions and / or regions, it should be understood that these elements, components, regions, layers and / Do. These terms do not imply any particular order, top, bottom, or top row, and are used only to distinguish one member, region, or region from another member, region, or region. Thus, the first member, region or region described below may refer to a second member, region or region without departing from the teachings of the present invention.

이하, 본 발명의 실시예들은 본 발명의 실시예들을 개략적으로 도시하는 도면들을 참조하여 설명한다. 도면들에 있어서, 예를 들면, 제조 기술 및/또는 공차에 따라, 도시된 형상의 변형들이 예상될 수 있다. 따라서, 본 발명의 실시예는 본 명세서에 도시된 영역의 특정 형상에 제한된 것으로 해석되어서는 아니 되며, 예를 들면 제조상 초래되는 형상의 변화를 포함하여야 한다.Hereinafter, embodiments of the present invention will be described with reference to the drawings schematically showing embodiments of the present invention. In the figures, for example, variations in the shape shown may be expected, depending on manufacturing techniques and / or tolerances. Accordingly, embodiments of the present invention should not be construed as limited to any particular shape of the regions illustrated herein, including, for example, variations in shape resulting from manufacturing.

도 1은 본 발명에 따른 문장 학습 시스템(10)을 설명하기 위한 일 실시예의 블록도이다.1 is a block diagram of an embodiment for explaining a sentence learning system 10 according to the present invention.

도 1을 참조하면, 문장 학습 시스템(10)은 스캐닝 펜(100) 및 문장 학습장치(200)를 포함한다.1, the sentence learning system 10 includes a scanning pen 100 and a sentence learning apparatus 200. [

스캐닝 펜(100)은 스캐닝 대상이 되는 객체 즉, 문장을 스캐닝하고, 문장의 스캐닝에 따른 스캐닝 데이터를 문장 학습장치(200)로 전송한다. The scanning pen 100 scans the object to be scanned, that is, the sentence, and transmits the scanning data according to the scanning of the sentence to the sentence learning apparatus 200. [

도 2는 도 1에 도시된 스캐닝 펜(100)을 설명하기 위한 일 실시예의 구성 블록도이고, 도 3은 도 1에 도시된 스캐닝 펜(100)의 외관을 나타내는 일 실시예의 참조도이다.FIG. 2 is a block diagram of an embodiment for explaining the scanning pen 100 shown in FIG. 1, and FIG. 3 is a reference view of an embodiment showing the appearance of the scanning pen 100 shown in FIG.

도 2 및 도 3을 참조하면, 스캐닝 펜(100)은 스캐닝 대상이 되는 객체의 이미지를 획득하기 위해, 제1 스위칭부(110), 제2 스위칭부(120), 스캐닝부(130), 컨트롤러(140) 및 통신부(150)를 포함할 수 있다.2 and 3, the scanning pen 100 includes a first switching unit 110, a second switching unit 120, a scanning unit 130, a controller 130, (140) and a communication unit (150).

스캐닝 펜(100)은 펜 형태의 하우징(H)을 포함하며, 하우징의 하단부에 제1 스위칭부(110)가 배치되고, 하우징(H)의 측면부에 제2 스위칭부(120)가 배치되어 있다. 다만, 도 3에 도시된 스캐닝 펜(100)의 하우징(H)의 형상과 하우징(H) 상에 배치된 제1 스위칭부(110) 및 제2 스위칭부(120)의 위치는 예시적인 것이며, 하우징(H)의 형상에 따라 제1 스위칭부(110) 및 제2 스위칭부(120)가 배치되는 위치는 다양하게 설계 변경될 수 있다.The scanning pen 100 includes a pen-shaped housing H, a first switching unit 110 is disposed at a lower end portion of the housing, and a second switching unit 120 is disposed at a side portion of the housing H . 3 shows the shape of the housing H of the scanning pen 100 and the positions of the first switching unit 110 and the second switching unit 120 disposed on the housing H are illustrative, The positions where the first switching unit 110 and the second switching unit 120 are disposed may be variously changed according to the shape of the housing H. [

제1 스위칭부(110)는 전술한 바와 같이 스캐닝 펜(100)의 하우징(H) 하단부에 위치할 수 있으며, 스캐닝하고자 하는 객체 또는 객체의 인접 영역과 접촉하여 해당 객체에 대한 스캐닝 개시 명령을 사용자로부터 입력받는다. 여기서, 객체는 출판물(예를 들어, 종이, 직물 등)에 인쇄되거나 디스플레이 장치(예를 들어, 태블릿 PC, 스마트폰, 데스크탑 PC 등)에 표시된 문자, 도형, 그림 등 스캐닝이 가능한 일체의 대상을 포함할 수 있으며, 특히 언어 학습을 위한 문장을 포함할 수 있다. 이하에서는 '객체'라는 용어를 대신하여 '문장'이라는 용어를 사용하며 필요에 따라 객체라는 용어를 혼용하기로 한다. 또한, 이하에서 사용되는 문장 구성요소는 한 문장을 구성하는 요소로서, 예를 들어, 주어부, 술어부, 목적어부 또는 보어부 등을 포함할 수 있다. 이러한 문장 구성요소는 물품에 비유하면 부품에 대응하는 것이라는 점에서, 문장 구성요소는 주어 부품, 술어 부품, 목적어 부품 또는 보어 부품으로 칭해질 수도 있다. The first switching unit 110 may be located at the lower end of the housing H of the scanning pen 100 as described above. The first switching unit 110 contacts the adjacent area of the object or the object to be scanned, Lt; / RTI > Here, the object can be any object that can be printed on a publication (e.g., paper, fabric, etc.) or can be scanned, such as characters, figures, or pictures displayed on a display device (e.g., tablet PC, smart phone, desktop PC, And may include sentences specifically for language learning. In the following, the term 'sentence' will be used instead of the term 'object', and the term 'object' will be used as needed. Further, the sentence components used in the following may be elements constituting a sentence, and may include, for example, a subject, a slave unit, a target fish unit or a fisher unit. A sentence component may be referred to as a subject part, a predicate part, a target part, or a bore part in that such a sentence component corresponds to a part when compared to an article.

제1 스위칭부(110)는 사용자로부터 입력된 스캐닝 개시 명령에 따라 문장의 스캐닝을 개시하기 위한 온(on) 스위칭 동작을 수행한다. 제1 스위칭부(110)는 온 스위칭된 스캐닝 개시 명령을 컨트롤러(140)로 전달한다. The first switching unit 110 performs an on switching operation to start scanning of a sentence according to a scanning start command input from a user. The first switching unit 110 transfers the on-switching scanning start command to the controller 140.

스캐닝 개시 명령이 온 스위칭되는 상황에서 후술할 멀티 스캐닝 명령이 제2 스위칭부(120)를 통해 입력되지 않는 경우에, 이러한 스캐닝 개시 명령은 문장에 대한 싱글 스캐닝 명령이라 할 수 있다. 싱글 스캐닝 명령은 한번의 스캐닝 동작(예를 들어, 스캐닝 개시 명령이 한번 온 스위칭된 후에 스캐닝 개시 명령이 오프(off) 스위칭된 경우)에 따라 생성된 스캐닝 데이터를 하나의 메모리 영역에 저장하도록 하는 스캐닝 명령일 수 있다. 이에 비해, 후술할 멀티 스캐닝 명령은 2회 이상의 스캐닝 동작들에 대응하는 스캐닝 데이터들을 매핑하여 하나의 문장을 구성하도록 하는 스캐닝 명령일 수 있다.In the case where a scanning start command is on-switched and a multi-scanning command to be described later is not input through the second switching unit 120, such a scanning start command may be referred to as a single scanning command for a sentence. The single scanning command is used to perform a scanning operation to cause scanning data generated according to one scanning operation (for example, when the scanning start command is switched off after the scanning start command is once switched on) to be stored in one memory area Command. In contrast, a multi-scanning command, which will be described later, may be a scanning command for mapping the scanning data corresponding to two or more scanning operations to form a single sentence.

제1 스위칭부(110)는 객체에 접촉함으로 인해 가해지는 압력에 의해 작동하는 압력 감지식 센서일 수 있다. 압력 감지식 센서가 온되면 스캐닝 개시 명령으로 인식되고, 압력 감지식 센서가 오프되면 스캐닝 종료 명령으로 인식될 수 있다. The first switching unit 110 may be a pressure sensitive sensor operated by the pressure applied by contacting the object. When the pressure sensitive sensor is turned on, it is recognized as a scanning start command, and when the pressure sensitive sensor is turned off, it can be recognized as a scanning end command.

객체와 접촉한 제1 스위칭부(110)는 스캐닝 펜(100)의 자체 하중 또는 사용자의 외력에 의해 하우징(H)의 길이방향으로 상하 이동이 이루어지는 스캐닝 개시버튼을 포함할 수 있다. 스캐닝 개시버튼은 객체에 접촉하여 이동할 수 있도록 스캐닝 펜(100)에 돌출된 형태로서, 뾰족한 팁(tip) 형태 또는 객체와의 마찰을 최소화하기 위한 볼 형태 등일 수 있다. The first switching unit 110 in contact with the object may include a scanning start button for moving the scanning pen 100 in the lengthwise direction of the housing H by the own load of the scanning pen 100 or an external force of the user. The scanning start button may be a shape protruding from the scanning pen 100 so as to be able to move in contact with the object, such as a sharp tip shape or a ball shape for minimizing the friction with the object.

스캐닝 개시버튼은 스캐닝 펜(100)의 자체 하중 또는 사용자의 외력이 작용하지 않는 경우에는 하우징(H)의 하단부에서 외부로 돌출된다. 또한, 스캐닝 개시버튼은 스캐닝 펜(100)의 자체 하중 또는 사용자의 외력이 작용하는 경우에는 상하 이동에 의해 하우징(H)의 내부로 삽입된다. 스캐닝 개시버튼이 하우징(H) 내로 삽입되면, 스캐닝 펜(100)은 스캐닝 개시버튼의 삽입에 대해 스캐닝 개시 명령으로 인식한다.The scanning start button protrudes outward from the lower end of the housing H when the self-weight of the scanning pen 100 or the external force of the user does not act. In addition, the scanning start button is inserted into the housing H by the up-and-down movement when the self-weight of the scanning pen 100 or the external force of the user acts. When the scanning start button is inserted into the housing H, the scanning pen 100 recognizes the insertion of the scanning start button as a scanning start instruction.

스캐닝 펜(100)의 자체 하중 또는 사용자의 외력이 작용하지 않는 경우에는 스캐닝 개시 버튼이 하우징(H)의 하단부에서 외부로 돌출되도록 하고, 스캐닝 펜(100)의 자체 하중 또는 사용자의 외력이 작용하는 경우에는 스캐닝 개시 버튼이 상하 이동에 의해 하우징(H)의 내부로 삽입되도록 하기 위해, 제1 스위칭부(110)는 스캐닝 개시 버튼의 상하 이동을 위한 탄성 부재(예를 들어, 스프링)를 포함하거나 탄성력을 갖는 구조체를 포함할 수 있다. 이에 따라, 제1 스위칭부(110)는 스캐닝부(130)와 객체와의 간격을 일정하게 유지시킴으로써, 스캐닝 펜(100)의 스캐닝 동작이 효율적으로 이루어질 수 있도록 한다. The scanning start button may protrude outward from the lower end of the housing H so that the scanning pen 100 may be operated by its own load or by an external force of the user The first switching unit 110 may include an elastic member (for example, a spring) for moving the scanning start button up or down, so that the scanning start button is inserted into the housing H by the up and down movement And may include a structure having an elastic force. Accordingly, the first switching unit 110 maintains the interval between the scanning unit 130 and the object to be constant so that the scanning operation of the scanning pen 100 can be efficiently performed.

제2 스위칭부(120)는 전술한 도 3에 도시된 바와 같이 스캐닝 펜(100)의 하우징(H) 측면부에 위치할 수 있으며, 문장에 대한 멀티 스캐닝 명령을 입력받는다. The second switching unit 120 may be located at the side of the housing H of the scanning pen 100 as shown in FIG. 3, and receives a multi-scanning command for the sentence.

제2 스위칭부(120)는 사용자로부터 입력된 멀티 스캐닝 명령에 따라 문장에 대한 멀티 스캐닝을 위한 온 스위칭 동작을 수행한다. 제2 스위칭부(120)는 온 스위칭된 멀티 스캐닝 명령을 컨트롤러(140)로 전달한다. The second switching unit 120 performs an on-switching operation for multi-scanning on the sentence according to the multi-scanning command input from the user. The second switching unit 120 transfers the on-switched multi-scanning command to the controller 140.

전술한 바와 같이, 멀티 스캐닝 명령은 2회 이상의 스캐닝 동작들에 따른 스캐닝 데이터들을 하나의 문장이 되도록 처리하며, 결국 2회 이상의 스캐닝 동작들에 대해 한번의 스티칭이 이루어질 수 있도록 하는 명령일 수 있다. 이러한 멀티 스캐닝 명령은 제2 스위칭부(120)를 통한 스캐닝 명령의 입력에 의해 이루어지며, 실제 멀티 스캐닝 동작은 제2 스위칭부(120)를 통한 멀티 스캐닝 명령과 아울러 제1 스위칭부(110)의 스캐닝 개시 명령의 입력이 있어야 멀티 스캐닝 동작이 이루어진다.As described above, the multi-scanning command may be a command to process the scanning data according to two or more scanning operations to be one sentence, so that one stitching can be performed for two or more scanning operations. The multi-scanning operation is performed by inputting a scanning command through the second switching unit 120, and the actual multi-scanning operation is performed by the multi-scanning command through the second switching unit 120 and the multi-scanning command by the first switching unit 110 A scanning start command is input to perform a multi-scanning operation.

제2 스위칭부(120)는 사용자의 외력에 의해 하우징(H)의 폭방향으로 왕복 운동이 이루어지는 멀티 스캐닝 버튼을 포함할 수 있다. 멀티 스캐닝 버튼은 사용자의 외력이 작용하지 않는 경우에는 하우징(H)의 측면부에서 외부로 돌출된다. 또한, 멀티 스캐닝 버튼은 사용자의 외력이 작용하는 경우에는 왕복 이동에 의해 하우징(H)의 내부로 삽입된다. 멀티 스캐닝 버튼이 하우징(H) 내로 삽입되면, 스캐닝 펜(100)은 멀티 스캐닝 버튼의 삽입에 대해 멀티 스캐닝 명령으로 인식한다.The second switching unit 120 may include a multi-scanning button that reciprocates in the width direction of the housing H by an external force of the user. The multi-scanning button is protruded outward from a side portion of the housing (H) when no external force acts on the user. Further, the multi-scanning button is inserted into the housing H by reciprocating movement when an external force of the user is applied. When the multi-scanning button is inserted into the housing H, the scanning pen 100 recognizes the insertion of the multi-scanning button as a multi-scanning command.

사용자의 외력이 작용하지 않는 경우에는 멀티 스캐닝 버튼이 하우징(H)의 측면부에서 외부로 돌출되도록 하고, 사용자의 외력이 작용하는 경우에는 멀티 스캐닝 버튼이 왕복 이동에 의해 하우징(H)의 내부로 삽입되도록 하기 위해, 제2 스위칭부(120)는 멀티 스캐닝 버튼의 왕복 이동을 위한 탄성 부재(예를 들어, 스프링)를 포함하거나 탄성력을 갖는 구조체를 포함할 수 있다. When the external force of the user does not act, the multi-scanning button is projected to the outside from the side portion of the housing H, and when the external force of the user is applied, the multi-scanning button is inserted into the housing H The second switching unit 120 may include an elastic member (for example, a spring) for reciprocating movement of the multi-scanning button or a structure having an elastic force.

스캐닝부(130)는 컨트롤러(140)의 제어에 따라 객체 즉, 문장에 대한 이미지를 스캐닝한다. 스캐닝부(130)는 하우징(H)의 하단부에 위치할 수 있으며, 특히 제1 스위칭부(110)가 위치한 곳과 인접한 곳에 위치할 수 있다. 스캐닝부(130)는 일정한 폭을 갖고 길이가 긴 라인 영역의 이미지를 스캐닝할 수 있다. The scanning unit 130 scans an image of an object, i.e., a sentence, under the control of the controller 140. The scanning unit 130 may be positioned at the lower end of the housing H and may be located adjacent to the first switching unit 110. The scanning unit 130 can scan an image of a line region having a predetermined width and a long length.

스캐닝부(130)는 객체에 대한 이미지를 스캔할 수 있는 이미지 센서를 포함할 수 있다. 예를 들어, 이미지 센서는 CCD(charge-coupled device) 또는 CMOS(complementary metal oxide semiconductor) 등을 포함할 수 있다. 이러한 이미지 센서는 객체에 대한 이미지를 한 번에 스캐닝할 수 있는 범위에 따라 라인 이미지 센서 또는 와이드 이미지 센서로 구분될 수도 있다. 라인 이미지 센서는 다수의 수광 소자가 일정 길이를 갖는 직선형으로 배열된 것을 의미하고, 와이드 이미지 센서는 다수의 수광소자가 일정한 폭과 길이를 갖는 직사각형을 이루어 배열된 것을 의미한다. 또한, 스캐닝부(130)는 객체에 대한 양호한 이미지를 얻기 위해 스캐닝될 객체에 조명을 인가하기 위한 광원을 포함할 수도 있다.The scanning unit 130 may include an image sensor capable of scanning an image for an object. For example, the image sensor may include a charge-coupled device (CCD) or a complementary metal oxide semiconductor (CMOS). Such an image sensor may be classified into a line image sensor or a wide image sensor depending on a range in which an image of an object can be scanned at one time. The line image sensor means that a plurality of light receiving elements are arranged in a linear shape having a predetermined length, and the wide image sensor means that a plurality of light receiving elements are arranged in a rectangular shape having a certain width and length. In addition, the scanning unit 130 may include a light source for applying illumination to an object to be scanned in order to obtain a good image for the object.

컨트롤러(140)는 제1 스위칭부(110)를 통해 입력된 스캐닝 개시 명령 및/또는 제2 스위칭부(120)를 통해 입력된 멀티 스캐닝 명령에 따라, 스캐닝부(130)의 스캐닝 동작 또는 통신부(150)의 데이터 송수신 동작을 제어한다. 이를 위해, 컨트롤러(140)는 PLC(Programmable Logic Controller), CPU 및 메모리를 포함할 수 있다. 또한, 컨트롤러(140)는 스캐닝부(130)에서 획득된 이미지를 처리하는 기능을 수행할 수도 있다. 여기서, 이미지 처리의 일 예로서 이미지 스티칭 또는 스티칭된 이미지에 대해 OCR(optical character recognition) 방식으로 문자를 추출하는 것을 포함할 수 있다. 또한, 스캐닝 펜(100)이 네트워크 상에 있는 다른 기기와 연결될 수 있는 경우에, 컨트롤러(140)는 이미지 처리와 관련한 이미지 스티칭 및/또는 문자 추출 동작을 네트워크로 연결된 기기와 분산 처리할 수도 있다.The controller 140 performs a scanning operation or a scanning operation of the scanning unit 130 according to a scanning start command input through the first switching unit 110 and / or a multi-scanning command input through the second switching unit 120 150 in accordance with the control signal. To this end, the controller 140 may include a programmable logic controller (PLC), a CPU, and a memory. In addition, the controller 140 may perform a function of processing the image acquired by the scanning unit 130. [ Here, as an example of the image processing, extraction may be performed on an image stitching or stitching image using an optical character recognition (OCR) method. In addition, in the case where the scanning pen 100 can be connected to other devices on the network, the controller 140 may perform image processing and / or character extraction operations related to image processing with distributed processing of devices connected to the network.

제1 스위칭부(110)를 통해 스캐닝 개시 명령만 입력되는 경우에, 컨트롤러(140)는 싱글 스캐닝을 위해 스캐닝부(130)의 스캐닝 동작을 제어한다. 예를 들어, 제1 스위칭부(110)에 해당하는 스캐닝 개시 버튼이 온 스위칭된 경우에, 컨트롤러(140)는 객체에 대한 싱글 스캐닝을 위해 스캐닝부(130)의 스캐닝 개시를 지시한다. 이에 따라, 스캐닝부(130)는 객체에 대한 싱글 스캐닝을 수행한다. 객체에 대한 싱글 스캐닝 동작이 수행되는 중에 스캐닝 개시 버튼이 오프 스위칭된 경우에, 컨트롤러(140)는 객체에 대한 싱글 스캐닝의 종료를 스캐닝부(130)에 지시한다. 이에 따라, 스캐닝부(130)는 객체에 대한 싱글 스캐닝 동작을 종료한다. When only the scanning start command is inputted through the first switching unit 110, the controller 140 controls the scanning operation of the scanning unit 130 for single scanning. For example, when the scanning start button corresponding to the first switching unit 110 is on-switched, the controller 140 instructs the scanning unit 130 to start scanning for a single scanning of the object. Accordingly, the scanning unit 130 performs a single scanning operation on the object. When the scanning start button is turned off while the single scanning operation for the object is being performed, the controller 140 instructs the scanning unit 130 to terminate the single scanning for the object. Accordingly, the scanning unit 130 ends the single scanning operation on the object.

한편, 제1 스위칭부(110)를 통해 스캐닝 개시 명령이 입력됨과 동시에 제2 스위칭부(120)를 통해 멀티 스캐닝 명령이 입력되면, 컨트롤러(140)는 멀티 스캐닝을 위해 스캐닝부(130)의 스캐닝 동작을 제어한다. 예를 들어, 제1 스위칭부(110)에 해당하는 스캐닝 개시 버튼이 온 스위칭되고 또한, 제2 스위칭부(120)에 해당하는 멀티 스캐닝 버튼이 온 스위칭된 경우에, 컨트롤러(140)는 객체에 대한 멀티 스캐닝을 위해 스캐닝부(130)의 스캐닝 개시를 지시한다. 이에 따라, 스캐닝부(130)는 객체에 대한 멀티 스캐닝을 수행한다. 스캐닝 펜(100)은 문장 학습장치(200)로부터 멀티 스캐닝 동작 모드가 실행되도록 지시하는 제어 신호를 수신할 수 있다. 여기서, 멀티 스캐닝 동작 모드는 동작 방식에 따라 동종 스캐닝 모드 또는 혼합 스캐닝 모드를 포함할 수 있다. 컨트롤러(140)는 이러한 문장 학습장치(200)의 제어 신호에 따라 멀티 스캐닝 동작 중 어느 하나의 모드로 동작하도록 스캐닝부(130)의 스캐닝 동작을 제어할 수 있다. When a scanning start command is input through the first switching unit 110 and a multi-scanning command is input through the second switching unit 120, the controller 140 performs scanning of the scanning unit 130 for multi- And controls the operation. For example, when the scanning start button corresponding to the first switching unit 110 is on-switched and the multi-scanning button corresponding to the second switching unit 120 is on-switched, And instructs the scanning unit 130 to start scanning for multi-scanning. Accordingly, the scanning unit 130 performs multi-scanning on the object. The scanning pen 100 may receive a control signal instructing the sentence learning apparatus 200 to execute the multi-scanning operation mode. Here, the multi-scanning operation mode may include the homogeneous scanning mode or the mixed scanning mode depending on the operation mode. The controller 140 may control the scanning operation of the scanning unit 130 so as to operate in any one of the multi-scanning operations according to the control signal of the sentence learning apparatus 200.

동종 스캐닝 모드는 멀티 스캐닝 명령이 온 스위칭된 상태에서 스캐닝 개시 명령이 온 스위칭과 오프 스위칭이 반복됨으로써, 각각의 스캐닝 동작들에 대응하는 스캐닝 데이터들이 하나의 객체가 되도록 처리하는 것을 의미한다. 예를 들어, 스캐닝 개시 명령과 멀티 스캐닝 명령 모두의 입력에 따라, 컨트롤러(140)는 줄바꿈을 포함하는 2줄의 문장을 갖는 객체에 대해 각각 한줄씩 스캐닝하도록 제어하고, 각각 스캐닝된 스캐닝 데이터들을 하나의 객체로 하여 저장 및 이미지 처리가 이루어질 수 있도록 제어할 수 있다. The homogeneous scanning mode means that the scanning start command is repeatedly turned on and off in a state where the multi-scanning command is on-switched, thereby processing the scanning data corresponding to each scanning operation to be one object. For example, in accordance with the input of both the scanning start command and the multi-scanning command, the controller 140 controls the scanning of the objects having two lines of sentence including line breaks, one line at a time, It is possible to control storage and image processing as a single object.

도 4a는 컨트롤러(140)의 제어에 따른 동종 스캐닝 모드를 설명하기 위한 다른 실시예의 참조도이다. 또한, 다음의 표 1은 도 4a의 동종 스캐닝 모드에 대한 순차적인 동작 과정을 설명하기 위한 표이다.4A is a reference diagram of another embodiment for explaining the homogeneous scanning mode under the control of the controller 140. [ Table 1 below is a table for explaining the sequential operation procedure for the homogeneous scanning mode of FIG. 4A.

과정process 스캐닝 개시버튼Scanning start button 멀티 스캐닝 버튼Multi-scan button 객체 스캐닝Object scanning P1P1 On On L1 스캐닝L1 scanning P2P2 오프off On 스캐닝 중지(줄바꿈)Stop scanning (line break) P3P3 On 오프off L2 스캐닝L2 scanning P4P4 오프off 오프off 스캐닝 종료Scanning terminated

도 4a 및 표 1을 참조하면, 제1과정(P1)에서, 스캐닝 개시 버튼이 온 스위칭되고 멀티 스캐닝 버튼이 온 스위칭된 경우에, 스캐닝부(130)는 컨트롤러(140)의 제어에 따라 객체를 구성하는 첫번째 라인(L1)에 대한 스캐닝을 실행한다. 그 후, 제2과정(P2)에서, 객체에 대한 줄바꿈을 위해, 스캐닝 개시 버튼이 오프 스위칭되고 멀티 스캐닝 버튼이 온 스위칭 상태를 유지한 경우에, 스캐닝부(130)는 컨트롤러(140)의 제어에 따라 스캐닝 개시 버튼이 오프 스위칭 상태이므로 스캐닝 동작을 일시 중지한다. 이때, 스캐닝 동작 자체는 일시 중지되지만, 멀티 스캐닝 버튼이 온 스위칭 상태를 유지하고 있으므로 멀티 스캐닝을 위한 동작 모드는 유지되고 있다. 그 후, 제3과정(P3)에서, 스캐닝 개시 버튼이 다시 온 스위칭되고 멀티 스캐닝 버튼이 온 스위칭 상태를 유지한 경우에, 스캐닝부(130)는 컨트롤러(140)의 제어에 따라 줄바꿈에 따른 객체를 구성하는 두번째 라인(L2)에 대한 스캐닝을 실행한다. 그 후, 제4과정(P4)에서, 스캐닝 개시 버튼이 오프 스위칭되고 멀티 스캐닝 버튼이 오프 스위칭되는 경우에, 스캐닝부(130)는 컨트롤러(140)의 제어에 따라 멀티 스캐닝 동작을 종료한다. 즉, 컨트롤러(140)는 객체를 구성하는 한 줄에 대한 스캐닝이 이루어진 후에, 다음 줄에 대한 연속적인 스캐닝이 이루어질 수 있도록 하여 줄바꿈이 요구되는 2줄 이상의 객체에 대해 하나의 객체로 인식하여 이미지 처리가 이루어질 수 있도록 하는 동종 멀티 스캐닝 모드를 수행할 수 있도록 한다. Referring to FIG. 4A and Table 1, in the first process P1, when the scanning start button is on-switched and the multi-scanning button is on-switched, the scanning unit 130 controls the object And executes the scanning for the first line (L1) constituting it. Thereafter, in the second process P2, the scanning unit 130 controls the scanning start button to be turned off and the multi-scanning button to remain in the on-switching state, The scanning operation is paused because the scanning start button is in the off-switching state according to the control. At this time, although the scanning operation itself is suspended, the operation mode for multi-scanning is maintained because the multi-scanning button maintains the on-switching state. Thereafter, in the third process P3, when the scanning start button is switched on again and the multi-scanning button is maintained in the on-switching state, the scanning unit 130 controls the scanning unit 130 And performs scanning for the second line (L2) constituting the object. Then, in a fourth step P4, when the scanning start button is off-switching and the multi-scanning button is off-switching, the scanning unit 130 ends the multi-scanning operation under the control of the controller 140. [ In other words, the controller 140 can perform continuous scanning for the next line after scanning one line constituting the object, and recognizes the object as a single object for two or more lines requiring line wrapping, So that it is possible to perform a homogeneous multi-scanning mode in which processing can be performed.

혼합 스캐닝 모드는 멀티 스캐닝 명령이 온 스위칭된 상태에서 스캐닝 개시 명령의 오프 스위칭 후에 스캐닝 개시 명령의 온 스위칭이 있을 때까지의 인터럽트 시간이 기준 시간 이내에 해당하는가를 비교하여, 멀티 스캐닝 명령에 따른 2회 이상의 스캐닝 동작들이 독립된 객체들이 되도록 스캐닝하되, 상기 인터럽트 시간 이후의 스캐닝 동작에 따른 객체와 상기 인터럽트 시간 이전의 스캐닝에 따른 객체를 서로 매핑시키는 것을 의미한다. 컨트롤러(140)는 상기 인터럽트 시간이 상기 기준 시간보다 큰 경우에 상기 인터럽트 시간 이후의 스캐닝 동작에 따라 생성된 스캐닝 데이터와 상기 인터럽트 시간 이전의 스캐닝 동작에 따라 생성된 스캐닝 데이터가 서로 한 문장을 구성하는 문장 구성요소들에 해당되도록 독립적인 스캐닝 데이터들로 각각 처리하고, 상기 인터럽트 시간 이후의 스캐닝 동작에 따른 문장 구성요소와 상기 인터럽트 시간 이전의 스캐닝에 따른 문장 구성요소가 상기 한 문장을 구성하는 공통 객체군이 되도록 상호 매핑시킨다. In the mixed scanning mode, it is determined whether or not the interruption time from when the scanning start command is off-switching to when the scanning start command is on-switching is within the reference time while the multi-scanning command is on-switching, The scanning operation is performed so as to be independent objects, and mapping of the object according to the scanning operation after the interrupt time and the object according to the scanning before the interrupt time are mapped to each other. When the interrupt time is greater than the reference time, the controller 140 forms a sentence between the scanning data generated according to the scanning operation after the interruption time and the scanning data generated according to the scanning operation before the interruption time Each of the sentence components according to the scanning operation after the interruption time and the sentence components according to the scanning prior to the interruption time are processed with independent scanning data corresponding to the sentence constituent elements, Mapped to be a group.

인터럽트 시간은 한번의 멀티 스캐닝이 이루어지고 난 후 그 다음의 멀티 스캐닝이 이루어지기 전까지의 시간으로, 이러한 인터럽트 시간이 기준 시간(예를 들어, 2[초])보다 큰 경우에는 인터럽트 시간 전후의 멀티 스캐닝 동작들은 각각 별개의 객체들로 처리되며, 인터럽트 시간이 기준 시간 이내인 경우에는 인터럽트 시간 전후의 멀티 스캐닝 동작들은 하나의 객체로 처리된다. 즉, 컨트롤러(140)는 인터럽트 시간과 기준 시간을 비교하고, 상기 인터럽트 시간이 상기 기준 시간보다 큰 경우에 상기 인터럽트 시간 이후의 스캐닝 동작에 따른 객체는 상기 인터럽트 시간 이전의 스캐닝에 따른 객체와는 상이한 객체로 처리하되, 인터럽트 시간 이후의 스캐닝 동작에 따른 객체와 인터럽트 시간 이전의 스캐닝에 따른 객체를 한 문장을 구성하는 요소로 색인되도록 상호 매핑시킨다. 객체들에 대한 상호 매핑은 한 객체의 액세스에 따라, 이에 대응하여 매핑된 객체를 액세스할 수 있음을 의미한다. 또한, 컨트롤러(140)는 상기 인터럽트 시간 이후의 스캐닝 동작에 따른 스캐닝 데이터와 상기 인터럽트 시간 이전의 스캐닝에 따른 스캐닝 데이터가 하나의 문장이 되도록 단일 스캐닝 데이터로 처리할 수 있다.When the interrupt time is longer than the reference time (for example, 2 [seconds]), the interrupt time is a time before the next multi-scanning after the multi-scanning is performed. The scanning operations are each treated as separate objects, and when the interrupt time is within the reference time, the multi-scanning operations before and after the interrupt time are processed as one object. That is, the controller 140 compares the interrupt time with the reference time, and if the interrupt time is larger than the reference time, the object according to the scanning operation after the interrupt time is different from the object according to the scanning before the interrupt time Objects are mapped so that the objects according to the scanning operation after the interruption time and the objects according to the scanning before the interruption time are indexed into the elements constituting one sentence. Mutual mapping to objects means that, depending on the access of one object, the corresponding mapped object can be accessed. In addition, the controller 140 may process the scanning data according to the scanning operation after the interruption time and the scanning data according to the scanning prior to the interruption time as single scanning data.

도 4b는 컨트롤러(140)의 제어에 따른 혼합 스캐닝 모드를 설명하기 위한 일 실시예의 참조도이다. 또한, 다음의 표 2는 도 4b의 혼합 스캐닝 모드에 대한 순차적인 동작 과정을 설명하기 위한 표이다.4B is a reference diagram of an embodiment for explaining a mixed scanning mode according to the control of the controller 140. As shown in FIG. Table 2 below is a table for explaining the sequential operation procedure for the mixed scanning mode of FIG. 4B.

과정process 스캐닝 개시버튼Scanning start button 멀티 스캐닝 버튼Multi-scan button 객체 스캐닝 여부Whether the object is scanned P1P1 On On E1 스캐닝E1 Scanning P2P2 오프off On 스캐닝 중지(인터럽트 시간)Stop scanning (interrupt time) P3P3 On On E2 스캐닝E2 Scanning P4P4 오프off On 스캐닝 중지(인터럽트 시간)Stop scanning (interrupt time) P5P5 On On E3 스캐닝E3 Scanning P6P6 오프off 오프off 스캐닝 종료Scanning terminated

도 4b 및 표 2를 참조하면, 제1과정(P1)에서, 스캐닝 개시 버튼이 온 스위칭되고 멀티 스캐닝 버튼이 온 스위칭된 경우에, 스캐닝부(130)는 컨트롤러(140)의 제어에 따라 객체를 구성하는 문장 구성요소들 중 첫번째 문장 구성요소(E1)에 대한 스캐닝을 실행한다. 그 후, 제2과정(P2)에서, 스캐닝 개시 버튼이 오프 스위칭되고 멀티 스캐닝 버튼이 온 스위칭 상태를 유지한 경우에, 스캐닝부(130)는 컨트롤러(140)의 제어에 따라 스캐닝 동작을 일시 중지한다. 그 후, 제3과정(P3)에서, 스캐닝 개시 버튼이 다시 온 스위칭되고 또한 멀티 스캐닝 버튼이 온 스위칭 상태를 유지한 경우에, 스캐닝부(130)는 컨트롤러(140)의 제어에 따라 문장 구성요소들 중 두번째 문장 구성요소(E2)에 대한 스캐닝을 실행한다. 그 후, 제4과정(P4)에서, 스캐닝 개시 버튼이 다시 오프 스위칭되고 멀티 스캐닝 버튼이 온 스위칭 상태를 유지한 경우에, 스캐닝부(130)는 컨트롤러(140)의 제어에 따라 스캐닝 동작을 일시 중지한다. 그 후, 제5과정(P5)에서, 스캐닝 개시 버튼이 다시 온 스위칭되고 또한 멀티 스캐닝 버튼이 온 스위칭 상태를 유지한 경우에, 스캐닝부(130)는 컨트롤러(140)의 제어에 따라 문장 구성요소들 중 세번째 문장 구성요소(E3)에 대한 스캐닝을 실행한다. 그 후, 제6과정(P6)에서, 스캐닝 개시 버튼이 오프 스위칭되고 멀티 스캐닝 버튼도 오프 스위칭되면, 스캐닝부(130)는 컨트롤러(140)의 제어에 따라 멀티 스캐닝 동작을 종료한다. 이때, 제2과정(P2) 또는 제4과정(P4)에서 인터럽트 시간이 기준 시간보다 큰 경우에, 컨트롤러(140)는 제1과정(P1), 제3과정(P3) 또는 제5과정(P5) 에 따른 각각의 스캐닝 동작들에 대해 각각 독립적인 객체들이 될 수 있도록 제어하며, 각 객체들이 공통 객체군으로서 한 문장을 구성하는 문장 구성요소들이 될 수 있도록 제1과정(P1), 제3과정(P3) 또는 제5과정(P5)에 따른 객체들을 상호 매핑시킬 수 있다. Referring to FIGS. 4B and 2, in the first process P1, when the scanning start button is on-switched and the multi-scanning button is on-switched, the scanning unit 130 controls the object And executes the scanning for the first sentence component (E1) among the constituent sentence components. Thereafter, in the second process P2, when the scanning start button is off-switched and the multi-scanning button remains in the on-switching state, the scanning unit 130 suspends the scanning operation under the control of the controller 140 do. Thereafter, in the third step P3, when the scanning start button is switched on again and the multi-scanning button is maintained in the on-switching state, the scanning unit 130 is controlled by the controller 140, Of the second sentence component (E2). Thereafter, in the fourth step P4, when the scanning start button is switched off again and the multi-scanning button is maintained in the on-switching state, the scanning unit 130 controls the scanning operation in accordance with the control of the controller 140 Stop. Thereafter, in the fifth step P5, when the scanning start button is switched on again and the multi-scanning button is maintained in the on-switching state, the scanning unit 130, under the control of the controller 140, Of the third sentence component (E3). Thereafter, in a sixth step P6, when the scanning start button is off-switched and the multi-scanning button is also off-switched, the scanning unit 130 terminates the multi-scanning operation under the control of the controller 140. [ At this time, if the interruption time is greater than the reference time in the second process P2 or the fourth process P4, the controller 140 may perform the first process P1, the third process P3, or the fifth process P5 (P1), the third process (P1), and the third process (P1) so that each object can be a sentence component constituting one sentence as a group of common objects (P3) or the fifth process (P5).

한편, 객체를 구성하는 문장 구성요소들은 반드시 완전한 문장일 필요는 없으며, 예를 들어, 전술한 첫번째 문장 구성요소(E1), 두번째 문장 구성요소(E2) 또는 세번째 문장 구성요소(E3) 중 적어도 하나는 블랭크(blank) 즉 빈 공간에 대응하는 스캐닝 데이터일 수도 있다. 이때, 블랭크는 다양한 문장 구성요소들이 삽입될 수 있는 대체 영역으로서 기능하는 스캐닝 데이터일 수 있다.On the other hand, the sentence components constituting the object do not necessarily have to be complete sentences. For example, at least one of the first sentence component E1, the second sentence component E2 or the third sentence component E3 described above May be scanning data corresponding to a blank space. At this time, the blank may be scanning data functioning as a substitute area in which various sentence components can be inserted.

통신부(150)는 인트라넷, 인터넷 등과 같은 각종 통신 네트워크 상의 문장 학습장치(200)와 연결될 수 있는 유선 및/또는 무선 통신포트 또는 통신 모듈을 구비할 수 있다. 통신 포트 또는 통신 모듈은 USB(Universal Serial Bus), UWB(Ultra-wideband), 지그비(Zigbee), 블루투스(Bluetooth) 등과 같은 적절한 통신 프로토콜을 이용하여 구성될 수 있다. 통신부(150)는 컨트롤러(140)의 제어에 따라, 스캐닝부(130)에서 스캐닝된 객체에 대한 스캐닝 데이터를 문장 학습장치(200)로 전송할 수 있다. The communication unit 150 may include a wired and / or wireless communication port or a communication module that can be connected to the sentence learning apparatus 200 on various communication networks such as an intranet, the Internet, and the like. The communication port or communication module may be configured using an appropriate communication protocol such as Universal Serial Bus (USB), Ultra-wideband (UWB), Zigbee, Bluetooth, The communication unit 150 may transmit the scanning data of the object scanned by the scanning unit 130 to the sentence learning apparatus 200 under the control of the controller 140. [

문장 학습장치(200)는 스캐닝 펜(100)으로부터 전송된 스캐닝 데이터를 이용해 이미지 처리 및 문자 추출을 수행한다. 이때, 문장 학습장치(200)는 상기 멀티 스캐닝 명령이 온 스위칭된 상태에서 상기 스캐닝 개시 명령의 온 스위칭과 오프 스위칭의 반복에 따라 생성되는 각각의 스캐닝 데이터들이 하나의 문장을 구성하도록 이미지 처리 및 문자 추출을 수행하고, 추출된 문자 데이터를 이용하여 사용자의 학습 명령에 대응하는 문장을 합성 및 출력한다. The sentence learning apparatus 200 performs image processing and character extraction using the scanning data transmitted from the scanning pen 100. At this time, the sentence learning apparatus 200 performs image processing such that each scanning data generated according to the repetition of on-switching and off-switching of the scanning start command in a state in which the multi-scanning command is on- Extracts sentences corresponding to the user's learning instruction using the extracted character data, and outputs the synthesized sentences.

도 5는 본 발명에 따른 문장 학습장치(200)를 설명하기 위한 일 실시예의 블록도이다.5 is a block diagram of an embodiment for explaining a sentence learning apparatus 200 according to the present invention.

도 5를 참조하면, 문장 학습장치(200)는 이미지 처리부(210), 문자 추출부(220), 데이터 저장부(230), 사용자 인터페이스부(240) 및 제어부(250)를 포함할 수 있다.5, the sentence learning apparatus 200 may include an image processing unit 210, a character extraction unit 220, a data storage unit 230, a user interface unit 240, and a control unit 250.

이미지 처리부(210)는 스캐닝 펜(100)으로부터 전달된 스캐닝 데이터를 이용해 이미지 처리을 수행할 수 있다. 이미지 처리부(210)는 스캐닝 펜(100)으로부터 연속적으로 전송되는 다수의 이미지로부터 객체의 실제의 상에 대응하는 이미지 스트립(이를 이미지 스티칭이라고 칭함)을 생성한다. 즉, 이미지 처리부(210)는 연속적으로 전송되는 라인 이미지를 순서대로 접합하는 스티칭 처리를 수행할 수 있다. 또한, 이미지 처리부(210)는 스캐닝 펜(100)으로부터 수신된 이미지로부터 노이즈 제거 및/또는 모노크로매틱(monochromatic) 처리를 수행할 수 있다. The image processing unit 210 may perform image processing using the scanning data transmitted from the scanning pen 100. [ The image processing unit 210 generates an image strip (referred to as image stitching) corresponding to an actual image of the object from a plurality of images successively transmitted from the scanning pen 100. That is, the image processing unit 210 may perform a stitching process for sequentially connecting line images sequentially transmitted. In addition, the image processing unit 210 may perform noise removal and / or monochromatic processing from the image received from the scanning pen 100.

이미지 처리부(210)는 싱글 스캐닝 명령 또는 멀티 스캐닝 명령에 의해 스캐닝된 데이터들에 대해 이미지 처리할 수 있다. 이때, 멀티 스캐닝 명령 중에서 동종 스캐닝 모드에 따라 스캐닝된 데이터의 경우에, 이미지 처리부(210)는 스캐닝 데이터에 대해 하나의 객체로서 이미지 처리를 수행할 수 있다. 또한, 멀티 스캐닝 명령 중에서 혼합 스캐닝 모드에 따라 스캐닝된 데이터들의 경우에, 이미지 처리부(210)는 한 문장을 구성하는 요소로 상호 매핑된 스캐닝 데이터들 각각에 대해 독립적인 객체들로서 이미지 처리를 수행할 수 있다. The image processing unit 210 may process image data scanned by a single scanning command or a multi-scanning command. In this case, in the case of data scanned according to the homogeneous scanning mode among the multi-scanning commands, the image processing unit 210 may perform image processing as one object with respect to the scanning data. Also, in the case of data scanned according to the mixed scanning mode among the multi-scanning commands, the image processing unit 210 can perform image processing as independent objects for each of the scanning data mutually mapped to elements constituting one sentence have.

문자 추출부(220)는 이미지 처리부(210)에서 이미지 처리된 스캐닝 데이터로부터 문자 데이터를 추출할 수 있다. 이를 위해, 문자 추출부(220)는 OCR(optical character reader) 모듈을 포함할 수 있고, OCR 모듈은 이미지 처리부(210)에서 스티칭된 이미지에 대해 문자 추출 알고리즘을 이용하여 이미지에 대응하는 문자 데이터를 추출할 수 있다.The character extracting unit 220 can extract character data from the scanned image subjected to image processing in the image processing unit 210. [ For this, the character extracting unit 220 may include an optical character reader (OCR) module, and the OCR module may use the character extraction algorithm for the stitched image in the image processing unit 210 to convert the character data corresponding to the image Can be extracted.

데이터 저장부(230)는 문자 추출부(220)에서 추출된 문자 데이터를 저장한다. 데이터 저장부(230)는 싱글 스캐닝 명령에 따라 스캐닝, 이미지 처리 및 문자 추출된 데이터를 저장할 수 있다. 또한, 데이터 저장부(230)는 멀티 스캐닝 명령에 따라 스캐닝, 이미지 처리 및 문자 추출된 데이터들을 저장할 수 있다. 이때, 멀티 스캐닝 명령 중에서 동종 스캐닝 모드에 따라 스캐닝된 데이터의 경우에, 데이터 저장부(230)는 하나의 객체로서 이미지 처리 및 문자 추출된 데이터를 단일 메모리 주소 영역에 저장할 수 있다. 또한, 멀티 스캐닝 명령 중에서 혼합 스캐닝 모드에 따라 스캐닝된 데이터들의 경우에, 데이터 저장부(230)는 한 문장을 구성하는 요소로 상호 매핑된 데이터들 각각에 대해 독립적인 문장 구성요소들로서 독립적인 메모리 주소 영역에 저장할 수 있다. The data storage unit 230 stores the character data extracted by the character extraction unit 220. The data storage unit 230 may store scanned, image-processed, and character-extracted data according to a single scanning command. In addition, the data storage unit 230 may store scanned, image-processed, and character-extracted data according to a multi-scanning command. At this time, in the case of data scanned according to the homogeneous scanning mode among the multi-scanning commands, the data storage unit 230 may store the image processed and character extracted data as one object in a single memory address area. In addition, in the case of data scanned according to the mixed scanning mode among the multi-scanning commands, the data storage unit 230 is an independent memory element for independent data elements mutually mapped to elements constituting a single sentence, Area.

또한, 데이터 저장부(230)는 문장을 구성하는 단어 데이터, 관용구 데이터, 예시 문장 데이터 중 적어도 하나 이상의 데이터를 저장할 수 있다. 여기서, 단어 데이터, 관용구 데이터, 예시 구성요소 데이터는 전술한 스캐닝 펜(100)에 의한 스캐닝 데이터로부터 추출된 문자 데이터와 상이한 것으로, 별도의 저장 과정을 통해 데이터 저장부(230)에 저장될 수 있다. 이러한 단어 데이터, 관용구 데이터, 예시 구성요소 데이터는 다양한 문장을 구성하기 위한 문장 데이터베이스로서 기능할 수 있다. In addition, the data storage unit 230 may store at least one of word data, idiomatic data, and example sentence data constituting a sentence. Here, the word data, idiomatic data, and example component data are different from the character data extracted from the scanning data by the above-described scanning pen 100, and may be stored in the data storage unit 230 through a separate storing process . Such word data, idiomatic data, and example component data can function as a sentence database for composing various sentences.

사용자 인터페이스부(240)는 스캐닝 펜(100)의 스캐닝 모드 즉, 싱글 스캐닝 모드 또는 멀티 스캐닝 모드를 사용자로부터 입력받을 수 있다. 특히, 사용자 인터페이스부(240)는 멀티 스캐닝 모드 중에서 동종 스캐닝 모드 또는 혼합 스캐닝 모드 중 어느 하나에 대핸 스캐닝 명령을 입력받을 수 있다. 이를 위해, 사용자 인터페이스부(240)는 입력 모듈로서 키패드, 조그 셔틀, 터치 스크린 등을 포함할 수 있다.The user interface unit 240 may receive a scanning mode of the scanning pen 100, that is, a single scanning mode or a multi-scanning mode from a user. In particular, the user interface unit 240 may receive a scanning command for either the homogeneous scanning mode or the mixed scanning mode among the multi-scanning modes. For this, the user interface unit 240 may include a keypad, a jog shuttle, a touch screen, or the like as an input module.

또한, 사용자 인터페이스부(240)는 사용자로부터 문장 학습을 위한 학습 명령을 입력받고, 입력된 학습 명령에 따른 문장을 영상 또는 음성으로 출력한다. 이를 위해, 사용자 인터페이스부(240)는 디스플레이 모듈 또는 오디오 출력 모듈을 포함할 수 있다. 사용자 인터페이스부(240)는 추출된 문자를 TTS(text-to-speech) 모듈을 이용하여 음성정보로 변환하여 오디오 출력 모듈을 통해 출력할 수도 있다.In addition, the user interface unit 240 receives a learning instruction for learning a sentence from a user, and outputs a sentence corresponding to the inputted learning instruction as a video or a voice. To this end, the user interface unit 240 may include a display module or an audio output module. The user interface unit 240 may convert the extracted characters into voice information using a text-to-speech (TTS) module and output the converted voice information through an audio output module.

제어부(250)는 이미지 처리부(210), 문자 추출부(220), 데이터 저장부(230) 및 사용자 인터페이스부(240)의 동작을 제어한다. 특히, 제어부(250)는 데이터 저장부(230)에 저장된 문자 데이터를 이용하여, 문장을 구성하는 복수의 문장 구성요소들을 합성하고, 합성된 문장을 사용자 인터페이스부(240)를 통해 표시하도록 제어할 수 있다. 사용자의 학습 명령에 따라, 데이터 저장부(230)에 저장된 문장에 대한 액세스가 요구되면, 제어부(250)는 학습 명령에 대응하는 문장을 데이터 저장부(230)로부터 액세스하여 사용자 인터페이스부(240)에 표시하도록 제어한다. 이때, 제어부(250)는 사용자 인터페이스부(240)에 표시된 복수의 문장 구성요소들 중에서 상기 사용자에 의해 선택된 문장 구성요소를 대체하는 다른 문장 구성요소들을 순차적으로 표시하도록 제어할 수 있다. 제어부(250)는 사용자에 의해 선택된 문장 구성요소를 대체하는 다른 문장 구성요소들에 대해 반복적인 학습에 따라 생성되는 문장들에 대한 정보를 저장하며, 이렇게 반복적 학습에 따라 저장된 문장들에 기초하여 사용자가 선택한 문장 구성요소와 결합하여 하나의 문장을 형성하기 위한 다른 문장 구성요소를 순차적으로 표시하도록 제어할 수 있다. The control unit 250 controls operations of the image processing unit 210, the character extraction unit 220, the data storage unit 230, and the user interface unit 240. In particular, the control unit 250 synthesizes a plurality of sentence components constituting a sentence using the character data stored in the data storage unit 230, and controls the synthesized sentence to be displayed through the user interface unit 240 . The control unit 250 accesses the sentence corresponding to the learning instruction from the data storage unit 230 and transmits the sentence corresponding to the learning instruction to the user interface unit 240. [ As shown in FIG. At this time, the control unit 250 may control to sequentially display other sentence components replacing the sentence component selected by the user from a plurality of sentence components displayed on the user interface unit 240. [ The control unit 250 stores information on the sentences generated according to the repetitive learning for the other sentence components that replace the sentence component selected by the user. Based on the stored sentences, May combine with the selected sentence components to sequentially display other sentence components for forming one sentence.

또한, 제어부(250)는 사용자 인터페이스부(240)에 표시된 복수의 문장 구성요소들 중에서 상기 사용자에 의해 선택된 문장 구성요소를 대체하는 다른 문장 구성요소로서, 블랭크(blank) 즉 빈 공간을 표시하도록 제어할 수도 있다. 이때, 사용자 인터페이스부(240)에 표시되는 블랭크는 다양한 문장 구성요소들이 삽입될 수 있는 대체 영역으로서 기능할 수도 있고, 사용자로 하여금 다양한 문장 구성요소들을 떠올릴 수 있도록 여백 처리하는 기능을 수행할 수도 있다.In addition, the control unit 250 is a different sentence component that replaces the sentence component selected by the user from among a plurality of sentence components displayed on the user interface unit 240. The control unit 250 controls the display unit 240 to display a blank, You may. At this time, the blank displayed on the user interface unit 240 may function as a substitute area into which various sentence components can be inserted, perform a margin process so that the user can recall various sentence components have.

도 6은 제어부(250)의 제어에 따라 사용자 인터페이스부(240)에 표시되는 문장을 예시하는 참조도이다.6 is a reference diagram illustrating a sentence displayed on the user interface unit 240 under the control of the control unit 250. As shown in FIG.

도 6을 참조하면, 문장 구성요소들(E1. E2, E3)이 결합되어 하나의 문장을 표현하고 있음을 확인할 수 있다. 도 6에 도시된 문장 구성요소들(E1. E2, E3)은 하나의 문장 즉, "I started my own business"를 구성하는 각각의 요소들로서, 스캐닝 펜(100)의 멀티 스캐닝 명령 중 혼합 스캐닝 모드의 동작에 따라 스캐닝되고, 문장 학습장치(200)의 이미지 처리부(210) 및 문자 추출부(220)에서 이미지 처리 및 문자 추출되어 데이터 저장부(230)에 하나의 문장을 구성하는 요소로서 상호 매핑되어 저장되어 있다. 데이터 저장부(230)에 저장된 다양한 문장들 중에서 사용자가 학습 명령에 의해 문장 구성요소들(E1. E2, E3) 중 어느 하나의 문장 구성요소 예를 들어, E3(my own business)를 선택한 경우에, E3에 매핑된 E1(I) 및 E2(started)의 문장 구성요소들이 함께 액세스되어 사용자 인터페이스부(240)에 표시될 수 있다. Referring to FIG. 6, it can be seen that the sentence components E1. E2 and E3 are combined to represent one sentence. The sentence elements E1. E2 and E3 shown in FIG. 6 are elements constituting one sentence, that is, "I started my own business ", and the mixed scanning mode among the multi-scanning commands of the scanning pen 100 And is subjected to image processing and character extraction by the image processing unit 210 and the character extracting unit 220 of the sentence learning apparatus 200 and is mutually mapped as an element constituting one sentence in the data storage unit 230. [ And stored. If the user selects one of the sentence components E1, E2 and E3, for example, E3 (my own business), from among various sentences stored in the data storage unit 230, , The sentence components of E1 (I) and E2 (started) mapped to E3 may be accessed together and displayed in the user interface unit 240. [

이때, 제어부(250)는 사용자 인터페이스부(240)에 표시된 문장 구성요소들(E1. E2, E3) 중 사용자가 어느 하나의 문장 구성요소 예를 들어, E2(started)를 선택하는 경우에, 사용자에 의해 선택된 E2(started)를 대체하는 다른 문장 구성요소들 예를 들어, "abandoned" 또는 "stopped"을 E2(started)를 대체하여 순차적으로 표시되도록 제어할 수 있다. 여기서, "abandoned" 또는 "stopped" 등과 같은 문장 구성요소들은 데이터 저장부(230)에 미리 저장되어 있는 단어 데이터, 관용구 데이터 또는 예시 구성요소 데이터 중에서 액세스된 것일 수 있다. 사용자에 의해 선택된 E2(started)를 대체하는 다른 문장 구성요소들을 액세스하기 위해, 제어부(250)는 문장 분석 알고리즘을 사용해 문장 구성요소 E1(I) 및 E3(my own business)와 조합하여 하나의 완성된 문장을 구성할 수 있는 문장 구성요소를 데이터 저장부(230)로부터 액세스할 수 있다. At this time, when the user selects any one of the sentence components E2 (started), for example, among the sentence components E1, E2, and E3 displayed on the user interface unit 240, Quot; abandoned "or" stopped " in place of E2 (started) in place of E2 (started) selected by the user. Here, sentence components such as "abandoned" or "stopped" may be accessed from word data, idiomatic data, or example component data previously stored in the data storage unit 230. In order to access other sentence components that replace the E2 (started) selected by the user, the control unit 250 uses the sentence analysis algorithm to combine the sentence components E1 (I) and E3 (my own business) A sentence component that can constitute the sentence can be accessed from the data storage unit 230.

도 7은 본 발명에 따른 문장 학습 방법을 설명하기 위한 일 실시예의 순서도이다.7 is a flowchart of an embodiment for explaining a sentence learning method according to the present invention.

스캐닝 펜(100)은 스캐닝 대상이 되는 문장을 스캐닝하고, 스캐닝된 상기 문장에 대한 스캐닝 데이터를 문장 학습장치(200)로 전송한다(S300 단계).The scanning pen 100 scans the sentence to be scanned, and transmits the scanned data of the scanned sentence to the sentence learning apparatus 200 (step S300).

스캐닝 펜(100)은 사용자로부터 스캐닝 개시 명령이 입력되는가를 확인하고, 스캐닝 개시 명령이 입력되면 객체의 스캐닝을 개시하기 위한 온 스위칭 동작을 수행한다. 스캐닝 개시 명령은 객체에 대한 싱글 스캐닝 명령이라 할 수 있다. 스캐닝 펜(100)은 사용자로부터 멀티 스캐닝 명령이 입력되는가를 확인하고, 멀티 스캐닝 명령이 입력되면 객체에 대한 멀티 스캐닝을 위한 온 스위칭 동작을 수행한다. The scanning pen 100 confirms whether a scanning start command is input from a user and performs an on-switching operation to start scanning of the object when a scanning start command is input. The scanning start command may be referred to as a single scanning command for the object. The scanning pen 100 confirms whether a multi-scanning command is input from the user, and performs an on-switching operation for multi-scanning on the object when a multi-scanning command is input.

스캐닝 펜(100)은 상기 멀티 스캐닝 명령이 온 스위칭된 상태에서 상기 스캐닝 개시 명령의 온 스위칭과 오프 스위칭의 반복에 따른 각각의 스캐닝 동작들에 대응하는 스캐닝 데이터들이 동일한 객체가 되도록 스캐닝할 수 있다. 예를 들어, 스캐닝 펜(100)은 스캐닝 개시 명령과 멀티 스캐닝 명령 모두의 입력에 따라, 줄바꿈을 포함하는 2줄의 문장을 갖는 객체에 대해 각각 한줄씩 스캐닝하고, 각각 스캐닝된 스캐닝 데이터들을 하나의 객체로 처리한다.The scanning pen 100 may scan the scanning data corresponding to the respective scanning operations according to repetition of the on-switching and the off-switching of the scanning start command in the state that the multi-scanning command is on-switched to be the same object. For example, according to the input of both the scanning start command and the multi-scanning command, the scanning pen 100 scans each line for each object having two lines of sentences including a line break, As an object of.

또한, 스캐닝 펜(100)은 상기 멀티 스캐닝 명령이 온 스위칭된 상태에서 상기 스캐닝 개시 명령의 오프 스위칭 후에 상기 스캐닝 개시 명령의 온 스위칭이 있을 때까지의 인터럽트 시간과 기준 시간을 비교하고, 상기 인터럽트 시간이 상기 기준 시간보다 큰 경우에 상기 인터럽트 시간 이후의 스캐닝 동작에 따라 생성된 스캐닝 데이터와 상기 인터럽트 시간 이전의 스캐닝 동작에 따라 생성된 스캐닝 데이터가 한 문장을 구성하는 문장 구성요소들에 해당되도록 독립적 스캐닝 데이터들로 처리하고, 상기 인터럽트 시간 이후의 스캐닝 동작에 따른 문장 구성요소와 상기 인터럽트 시간 이전의 스캐닝에 따른 문장 구성요소가 상기 한 문장을 구성하는 요소로 색인되도록 상호 매핑시킨다. 또한, 상기 인터럽트 시간이 상기 기준 시간보다 크지 않은 경우에 상기 인터럽트 시간 이후의 스캐닝 동작에 따른 스캐닝 데이터와 상기 인터럽트 시간 이전의 스캐닝에 따른 스캐닝 데이터가 하나의 문장이 되도록 단일 스캐닝 데이터로 처리한다.Also, the scanning pen 100 compares the interrupt time from when the scanning start command is off-switching to when there is on-switching of the scanning start command to the reference time in a state where the multi-scanning command is on-switching, The scanning data generated according to the scanning operation after the interruption time and the scanning data generated according to the scanning operation preceding the interruption time correspond to the sentence components constituting the one sentence, And maps the sentence components according to the scanning operation after the interruption time and the sentence components according to the scanning before the interruption time to the elements constituting the sentence. If the interrupt time is not greater than the reference time, the scan data according to the scanning operation after the interruption time and the scanning data according to the scanning prior to the interruption time are processed as single scanning data.

S300 단계 후에, 문장 학습장치(200)는 상기 스캐닝 펜으로부터 전송된 상기 스캐닝 데이터를 이미지 처리 및 이미지 처리된 스캐닝 데이터로부터 문자 데이터를 추출한다(S302 단계). 문장 학습장치(200)는 스캐닝 펜(100)으로부터 연속적으로 전송되는 다수의 이미지로부터 객체의 실제의 상에 대응하는 이미지 스트립을 생성하며, 또한, 수신된 이미지로부터 노이즈 제거 및/또는 모노크로매틱(monochromatic) 처리를 수행한다. After step S300, the sentence learning apparatus 200 extracts character data from the scanned data transmitted from the scanning pen from the image data and image-processed scanning data (step S302). The sentence learning apparatus 200 generates an image strip corresponding to an actual image of an object from a plurality of images successively transmitted from the scanning pen 100 and also removes noise from the received image and / or monochromatic ) Processing.

문장 학습장치(200)는 상기 멀티 스캐닝 명령이 온 스위칭된 상태에서 상기 스캐닝 개시 명령의 온 스위칭과 오프 스위칭의 반복에 따라 생성되는 각각의 스캐닝 데이터들이 하나의 문장을 구성하도록 이미지 처리 및 문자 데이터를 추출한다.The sentence learning apparatus 200 performs the image processing and the character data so that each scanning data generated in accordance with the repetition of on switching and off switching of the scanning start command constitute one sentence in a state in which the multi- .

특히, 문장 학습장치(200)는 멀티 스캐닝 명령 중에서 동종 스캐닝 모드에 따라 스캐닝된 데이터의 경우에, 스캐닝 데이터에 대해 하나의 객체로서 이미지 처리를 수행할 수 있다. 또한, 멀티 스캐닝 명령 중에서 혼합 스캐닝 모드에 따라 스캐닝된 데이터들의 경우에, 문장 학습장치(200)는 한 문장을 구성하는 요소로 상호 매핑된 스캐닝 데이터들 각각에 대해 독립적인 객체들로서 이미지 처리를 수행할 수 있다. 그 후, 문장 학습장치(200)는 스티칭된 이미지에 대해 문자 추출 알고리즘을 이용하여 이미지에 대응하는 문자 데이터를 추출할 수 있다.In particular, the sentence learning apparatus 200 can perform image processing as one object with respect to the scanning data in the case of data scanned according to the homogeneous scanning mode among the multi-scanning commands. Also, in the case of data scanned according to the mixed scanning mode among the multi-scanning commands, the sentence learning apparatus 200 performs image processing as independent objects for each of the scanning data mutually mapped to elements constituting one sentence . Thereafter, the sentence learning apparatus 200 can extract the character data corresponding to the image using the character extraction algorithm for the stitched image.

S302 단계 후에, 문장 학습장치(200)는 사용자로부터 문장 학습을 위한 학습 명령을 입력받으면, 상기 문자 데이터를 이용하여 상기 학습 명령에 대응하는 문장을 합성 및 출력한다(S304 단계).After the step S302, the sentence learning apparatus 200 receives a learning instruction for the sentence learning from the user and synthesizes and outputs the sentence corresponding to the learning instruction using the character data (S304).

문장 학습장치(200)는 상기 학습 명령에 따라 한 문장을 구성하는 복수의 문장 구성요소들을 표시하며, 상기 표시된 복수의 문장 구성요소들 중에서 상기 사용자에 의해 선택된 문장 구성요소를 대체하는 다른 문장 구성요소들을 순차적으로 표시할 수 있다.The sentence learning apparatus 200 displays a plurality of sentence components constituting a sentence according to the learning instruction, and further includes another sentence component that replaces the sentence component selected by the user from among the displayed plurality of sentence components Can be sequentially displayed.

사용자의 학습 명령에 따라, 문장 학습장치(200)는 사용자의 학습 명령에 대응하는 문장을 데이터베이스로부터로부터 액세스하여 표시한다. 이때, 문장 학습장치(200)는 표시된 복수의 문장 구성요소들 중에서 상기 사용자에 의해 선택된 문장 구성요소를 대체하는 다른 문장 구성요소들을 순차적으로 표시할 수 있다. 문장 학습장치(200)는 사용자에 의해 선택된 문장 구성요소를 대체하는 다른 문장 구성요소들을 액세스하기 위해, 문장 분석 알고리즘을 사용해 이미 표시된 문장 구성요소들과 조합되어 하나의 완성된 문장을 구성할 수 있는 문장 구성요소를 데이터베이스로부터 액세스할 수 있다. In accordance with the learning instruction of the user, the sentence learning device 200 accesses and displays a sentence corresponding to the learning instruction of the user from the database. At this time, the sentence learning apparatus 200 may sequentially display other sentence components replacing the sentence component selected by the user from the plurality of displayed sentence components. The sentence learning apparatus 200 may combine the already displayed sentence components with sentence analysis elements using a sentence analysis algorithm to access other sentence components that replace the sentence components selected by the user Sentence components can be accessed from the database.

본 발명은 소프트웨어적인 프로그램으로 구현하여 컴퓨터로 읽을 수 있는 소정 기록매체에 기록해 둠으로써 다양한 재생장치에 적용할 수 있다. 다양한 재생장치는 PC, 노트북, 휴대용 단말 등일 수 있다. 예컨대, 기록매체는 각 재생장치의 내장형으로 하드디스크, 플래시 메모리, RAM, ROM 등이거나, 외장형으로 CD-R, CD-RW와 같은 광디스크, 콤팩트 플래시 카드, 스마트 미디어, 메모리 스틱, 멀티미디어 카드일 수 있다.The present invention can be applied to various playback apparatuses by being implemented in a software program and recorded in a predetermined recording medium readable by a computer. The various playback devices may be a PC, a notebook, a portable terminal, and the like. For example, the recording medium may be a hard disk, a flash memory, a RAM, a ROM, or the like embedded in each reproduction apparatus, or an external optical disk such as a CD-R or a CD-RW, a compact flash card, a smart media, have.

이상과 같이 본 발명의 실시예를 설명하였으나, 본 발명의 명세서에 개시된 실시예들은 본 발명을 한정하는 것이 아니다. 본 발명의 범위는 아래의 특허청구범위에 의해 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술도 본 발명의 범위에 포함되는 것으로 해석해야 할 것이다.Although the embodiments of the present invention have been described above, the embodiments disclosed in the specification of the present invention do not limit the present invention. The scope of the present invention should be construed according to the following claims, and all the techniques within the scope of equivalents should be construed as being included in the scope of the present invention.

100: 스캐닝 펜
110: 제1 스위칭부
120: 제2 스위칭부
130: 스캐닝부
140: 컨트롤러
150: 통신부
200: 문장 학습장치
210: 이미지 처리부
220: 문자 추출부
230: 데이터 저장부
240: 사용자 인터페이스부
250: 제어부
100: Scanning pen
110: first switching unit
120: a second switching unit
130: Scanning section
140: controller
150:
200: Sentence learning device
210:
220:
230: Data storage unit
240: User interface section
250:

Claims (10)

스캐닝 대상이 되는 문장에 대해 스캐닝 개시 명령을 온(on) 스위칭 또는 오프(off) 스위칭하는 제1 스위칭부, 상기 문장에 대한 멀티 스캐닝 명령을 온 스위칭 또는 오프 스위칭하는 제2 스위칭부, 상기 문장에 대한 이미지를 스캐닝하는 스캐닝부; 및 상기 스캐닝부의 스캐닝 동작을 제어하는 컨트롤러 및 상기 스캐닝부에서 스캐닝된 상기 문장에 대한 스캐닝 데이터를 전송하는 통신부를 포함하는 스캐닝 펜; 및
상기 스캐닝 펜으로부터 전송된 상기 스캐닝 데이터를 이용해 이미지 처리 및 문자 추출을 수행하는 문장 학습장치를 포함하고,
상기 컨트롤러는,
멀티 스캐닝 모드 중 혼합 스캐닝 모드에 따라, 상기 멀티 스캐닝 명령이 온 스위칭된 상태에서 상기 스캐닝 개시 명령의 오프 스위칭 후에 상기 스캐닝 개시 명령의 온 스위칭이 있을 때까지의 인터럽트 시간과 기준 시간을 비교하고, 상기 인터럽트 시간이 상기 기준 시간보다 큰 경우에 상기 인터럽트 시간 이전의 스캐닝 동작에 따라 생성된 제1 스캐닝 데이터와 상기 인터럽트 시간 이후의 스캐닝 동작에 따라 생성된 제2 스캐닝 데이터가 독립적인 객체에 해당하도록 스캐닝 처리하고, 상기 제1 스캐닝 데이터에 따른 문장 구성요소와 상기 제2 스캐닝 데이터에 따른 문장 구성요소가 한 문장을 구성하는 공통 객체군이 되도록 상호 매핑시키고,
상기 문장 학습장치는,
상기 혼합 스캐닝 모드에 따라 상기 공통 객체군으로 상호 매핑된 상기 제1 스캐닝 데이터 및 상기 제2 스캐닝 데이터가 상기 한 문장을 구성하는 문장 구성요소들이 되도록 이미지 처리 및 문자 추출을 수행하고, 추출된 문자 데이터를 이용하여 사용자의 학습 명령에 대응하는 문장을 합성 및 출력하되, 상기 한 문장을 구성하는 문장 구성요소들 각각에 대해 독립적으로 대체하여 출력하거나 블랭크(blank)로 출력하는 것을 특징으로 하는 문장 학습 시스템.
A first switching unit for switching the scanning start command on or off for a sentence to be scanned, a second switching unit for on-switching or off-switching the multi-scanning command for the sentence, A scanning unit that scans the image; A controller for controlling a scanning operation of the scanning unit, and a communication unit for transmitting scanning data for the sentence scanned by the scanning unit; And
And a sentence learning device for performing image processing and character extraction using the scanning data sent from the scanning pen,
The controller comprising:
Comparing the interrupt time and the reference time from when the scanning start command is on-switched to when the scanning start command is on-switching after the multi-scanning command is on-switched in the mixed scanning mode during the multi-scanning mode, When the interrupt time is larger than the reference time, the first scanning data generated according to the scanning operation preceding the interrupt time and the second scanning data generated according to the scanning operation after the interrupt time are scanned And mapping the sentence component according to the first scanning data and the sentence component according to the second scanning data to a common object group constituting a sentence,
The sentence learning apparatus comprises:
The first scanning data and the second scanning data mapped to the common object group according to the mixed scanning mode perform image processing and character extraction so as to become the sentence constituting elements constituting the sentence, And outputting or outputting a blank corresponding to each of the sentence components constituting the sentence independently of the sentence components constituting the sentence, .
삭제delete 청구항 1에 있어서,
상기 컨트롤러는,
상기 인터럽트 시간이 상기 기준 시간보다 크지 않은 경우에 상기 인터럽트 시간 이후의 스캐닝 동작에 따른 스캐닝 데이터와 상기 인터럽트 시간 이전의 스캐닝에 따른 스캐닝 데이터가 하나의 문장이 되도록 단일 스캐닝 데이터로 처리하는 것을 특징으로 하는 문장 학습 시스템.
The method according to claim 1,
The controller comprising:
When the interrupt time is not greater than the reference time, processes the scan data according to the scanning operation after the interruption time and the scanning data according to the scanning time prior to the interruption time into single sentence data. Sentence learning system.
청구항 1에 있어서,
상기 문장 학습장치는,
상기 스캐닝 펜으로부터 전달된 상기 스캐닝 데이터를 이용해 이미지 처리를 수행하는 이미지 처리부;
이미지 처리된 스캐닝 데이터로부터 문자 데이터를 추출하는 문자 추출부;
상기 추출된 문자 데이터를 저장하는 데이터 저장부;
사용자로부터 문장 학습을 위한 학습 명령을 입력받고, 상기 입력된 학습 명령에 따른 영상 또는 음성을 출력하는 사용자 인터페이스부; 및
상기 이미지 처리부, 상기 문자 추출부, 상기 데이터 저장부 및 상기 사용자 인터페이스부의 동작을 제어하는 제어부를 포함하고,
상기 제어부는,
상기 데이터 저장부에 저장된 상기 문자 데이터를 이용하여, 문장을 구성하는 복수의 문장 구성요소들을 합성하고, 합성된 문장을 상기 사용자 인터페이스부를 통해 표시하도록 제어하는 것을 특징으로 하는 문장 학습 시스템.
The method according to claim 1,
The sentence learning apparatus comprises:
An image processing unit that performs image processing using the scanning data transmitted from the scanning pen;
A character extracting unit for extracting character data from image-processed scanning data;
A data storage unit for storing the extracted character data;
A user interface unit for receiving a learning command for sentence learning from a user and outputting an image or voice according to the input learning command; And
And a control unit for controlling operations of the image processing unit, the character extracting unit, the data storage unit, and the user interface unit,
Wherein,
Wherein the control unit synthesizes a plurality of sentence constituent elements constituting a sentence by using the character data stored in the data storage unit, and displays the synthesized sentence through the user interface unit.
청구항 4에 있어서,
상기 제어부는,
상기 사용자 인터페이스부에 표시된 상기 복수의 문장 구성요소들 중에서 상기 사용자에 의해 선택된 문장 구성요소를 대체하는 다른 문장 구성요소들을 순차적으로 표시하도록 제어하는 것을 특징으로 하는 문장 학습 시스템.
The method of claim 4,
Wherein,
And controls to sequentially display other sentence components replacing sentence components selected by the user from among the plurality of sentence components displayed on the user interface unit.
청구항 5에 있어서,
상기 데이터 저장부는,
문장을 구성하는 단어 데이터, 관용구 데이터, 예시 구성요소 데이터 중 적어도 하나 이상의 데이터를 저장하는 것을 특징으로 하는 문장 학습 시스템.
The method of claim 5,
The data storage unit stores,
And at least one of word data, idiomatic data, and example component data constituting a sentence is stored.
스캐닝 대상이 되는 문장에 대해 스캐닝 펜을 이용해 스캐닝하고, 스캐닝된 상기 문장에 대한 스캐닝 데이터를 전송하는 단계;
상기 스캐닝 펜으로부터 전송된 상기 스캐닝 데이터를 이미지 처리 및 이미지 처리된 스캐닝 데이터로부터 문자 데이터를 추출하는 단계; 및
사용자로부터 문장 학습을 위한 학습 명령을 입력받으면, 상기 문자 데이터를 이용하여 상기 학습 명령에 대응하는 문장을 합성 및 출력하는 단계를 포함하고,
상기 문장을 스캐닝하는 단계는,
멀티 스캐닝 모드 중 혼합 스캐닝 모드에 따라, 멀티 스캐닝 명령이 온 스위칭된 상태에서 스캐닝 개시 명령의 오프 스위칭 후에 상기 스캐닝 개시 명령의 온 스위칭이 있을 때까지의 인터럽트 시간과 기준 시간을 비교하고, 상기 인터럽트 시간이 상기 기준 시간보다 큰 경우에 상기 인터럽트 시간 이전의 스캐닝 동작에 따라 생성된 제1 스캐닝 데이터와 상기 인터럽트 시간 이후의 스캐닝 동작에 따라 생성된 제2 스캐닝 데이터가 독립적인 객체에 해당하도록 스캐닝 처리하고, 상기 제1 스캐닝 데이터에 따른 문장 구성요소와 상기 제2 스캐닝 데이터에 따른 문장 구성요소가 한 문장을 구성하는 공통 객체군이 되도록 상호 매핑시키고,
상기 문자 데이터를 추출하고, 학습 명령에 대응하는 문장을 합성 및 출력하는 단계는,
상기 혼합 스캐닝 모드에 따라 상기 공통 객체군으로 상호 매핑된 상기 제1 스캐닝 데이터 및 상기 제2 스캐닝 데이터가 상기 한 문장을 구성하는 문장 구성요소들이 되도록 이미지 처리 및 문자 추출을 수행하고, 추출된 문자 데이터를 이용하여 사용자의 학습 명령에 대응하는 문장을 합성 및 출력하되, 상기 한 문장을 구성하는 문장 구성요소들 각각에 대해 독립적으로 대체하여 출력하거나 블랭크(blank)로 출력하는 것을 특징으로 하는 문장 학습 방법.
Scanning a sentence to be scanned using a scanning pen, and transmitting scanning data for the scanned sentence;
Extracting the character data from the scanned data transmitted from the scanning pen; And
And synthesizing and outputting a sentence corresponding to the learning instruction using the character data when a learning instruction for learning a sentence is input from a user,
The step of scanning the sentence comprises:
The interlace time and the reference time from when the scanning start instruction is on-switching to when the scanning start instruction is on-switching after the scanning start instruction is off-state is compared with the reference time in the mixed scanning mode among the multi-scanning modes, Scanning is performed so that the first scanning data generated according to the scanning operation before the interrupt time and the second scanning data generated according to the scanning operation after the interrupt time correspond to the independent object, Mapping a sentence component according to the first scanning data and a sentence component according to the second scanning data to a common object group constituting a sentence,
Extracting the character data, and synthesizing and outputting a sentence corresponding to the learning instruction,
The first scanning data and the second scanning data mapped to the common object group according to the mixed scanning mode perform image processing and character extraction so as to become the sentence constituting elements constituting the sentence, And a sentence element corresponding to a learning instruction of a user is synthesized and output, and each of the sentence elements constituting the sentence is independently replaced or outputted as a blank. .
삭제delete 청구항 7에 있어서,
상기 문장을 스캐닝하는 단계는,
상기 인터럽트 시간이 상기 기준 시간보다 크지 않은 경우에 상기 인터럽트 시간 이후의 스캐닝 동작에 따른 스캐닝 데이터와 상기 인터럽트 시간 이전의 스캐닝에 따른 스캐닝 데이터가 하나의 문장이 되도록 단일 스캐닝 데이터로 처리하는 것을 특징으로 하는 문장 학습 방법.
The method of claim 7,
The step of scanning the sentence comprises:
When the interrupt time is not greater than the reference time, processes the scan data according to the scanning operation after the interruption time and the scanning data according to the scanning time prior to the interruption time into single sentence data. Sentence learning method.
청구항 7에 있어서,
상기 학습 명령에 대응하는 문장을 합성 및 출력하는 단계는,
상기 학습 명령에 따라 한 문장을 구성하는 복수의 문장 구성요소들을 표시하며, 상기 표시된 복수의 문장 구성요소들 중에서 상기 사용자에 의해 선택된 문장 구성요소를 대체하는 다른 문장 구성요소들을 순차적으로 표시하는 것을 특징으로 하는 문장 학습 방법.
The method of claim 7,
Synthesizing and outputting a sentence corresponding to the learning instruction,
And displaying the plurality of sentence components constituting one sentence according to the learning instruction and sequentially displaying other sentence components replacing the sentence component selected by the user from among the plurality of displayed sentence components .
KR1020170065410A 2017-05-26 2017-05-26 System for studying of sentence, and method for studying of sentence using the same KR101842396B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170065410A KR101842396B1 (en) 2017-05-26 2017-05-26 System for studying of sentence, and method for studying of sentence using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170065410A KR101842396B1 (en) 2017-05-26 2017-05-26 System for studying of sentence, and method for studying of sentence using the same

Publications (1)

Publication Number Publication Date
KR101842396B1 true KR101842396B1 (en) 2018-03-27

Family

ID=61874577

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170065410A KR101842396B1 (en) 2017-05-26 2017-05-26 System for studying of sentence, and method for studying of sentence using the same

Country Status (1)

Country Link
KR (1) KR101842396B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011521364A (en) * 2008-06-23 2011-07-21 シルバーブルック リサーチ ピーティワイ リミテッド Electronic pen with retractable pen tip and force sensor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011521364A (en) * 2008-06-23 2011-07-21 シルバーブルック リサーチ ピーティワイ リミテッド Electronic pen with retractable pen tip and force sensor

Similar Documents

Publication Publication Date Title
KR101780029B1 (en) Scanning pen, and scanning method using thefor scanning the same
CN103530096B (en) Long-range control method, remote control equipment and display equipment
CN1729427B (en) Projection device, projection system, and image obtainment method
US10637895B2 (en) Communication terminal, communication system, communication control method and program
US20180115681A1 (en) Display system
JP4450799B2 (en) Method for controlling target image detection apparatus
CN103677597A (en) Terminal equipment and same-screen display method and system
CN100403399C (en) Display apparatus and control method thereof
JP2015056030A (en) Image processing apparatus and image processing system
WO2017010469A1 (en) Handwriting device and voice/handwriting communication system
KR101842396B1 (en) System for studying of sentence, and method for studying of sentence using the same
JP4133976B2 (en) Image processing apparatus, game apparatus, and image processing method
KR101116689B1 (en) Apparatus and method for outputting an information based on dot-code using gesture recognition
JP2015161748A (en) Projection device, image processing apparatus, and control method thereof
US20080122867A1 (en) Method for displaying expressional image
JP2010015032A (en) Projector, control method thereof, and image projection display system
KR101380276B1 (en) The relay apparatus of touch information and method thereof
CN107911750B (en) Method and device for modifying television user interface
CN108108138B (en) Intelligent pen box, image display method thereof and computer readable storage medium
US10762344B2 (en) Method and system for using whiteboard changes as interactive directives for vectorization software
US10601741B2 (en) Message transmission device and message transmission method
CN111562878A (en) Picture display method and device, television and storage medium
US20200294552A1 (en) Recording device, recording method, reproducing device, reproducing method, and recording/reproducing device
JP6294572B2 (en) Image processing apparatus, image processing method, and program
JP2023020330A (en) Image signal switcher and display device including the same

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant