KR102388599B1 - Apparatus and method for correcting sentence using test and image - Google Patents

Apparatus and method for correcting sentence using test and image Download PDF

Info

Publication number
KR102388599B1
KR102388599B1 KR1020210111748A KR20210111748A KR102388599B1 KR 102388599 B1 KR102388599 B1 KR 102388599B1 KR 1020210111748 A KR1020210111748 A KR 1020210111748A KR 20210111748 A KR20210111748 A KR 20210111748A KR 102388599 B1 KR102388599 B1 KR 102388599B1
Authority
KR
South Korea
Prior art keywords
text
user input
word
area
image
Prior art date
Application number
KR1020210111748A
Other languages
Korean (ko)
Inventor
김홍현
유재연
Original Assignee
(주)제로엑스플로우
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)제로엑스플로우 filed Critical (주)제로엑스플로우
Priority to KR1020210111748A priority Critical patent/KR102388599B1/en
Application granted granted Critical
Publication of KR102388599B1 publication Critical patent/KR102388599B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/106Display of layout of documents; Previewing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/109Font handling; Temporal or kinetic typography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/232Orthographic correction, e.g. spell checking or vowelisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/253Grammatical analysis; Style critique

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

According to one embodiment of the present invention, provided is a method for correcting a sentence utilizing text and images. The method includes the steps of: receiving a first user input for inputting a first text in a first area of a screen; displaying a first image corresponding to the first text in a second area different from the first area of the screen in response to the first user input; receiving a second user input for changing the first image into a second image; and displaying second text corresponding to the second image in the first area in response to the second user input.

Description

텍스트 및 이미지를 활용한 문장 교정 장치 및 방법{Apparatus and method for correcting sentence using test and image}Apparatus and method for correcting sentence using test and image}

본 발명의 실시예들은 텍스트 및 이미지를 활용한 문장 교정 장치 및 방법 에 관한 것이다.Embodiments of the present invention relate to a sentence correction apparatus and method using text and images.

온라인 교육 시스템이 확대됨에 따라, 모국어 및 외국어 교재 역시 온라인화되고 있는 것이 추세이다.As the online education system expands, it is a trend that textbooks in native languages and foreign languages are also online.

온라인 언어 교육 시스템의 중요한 이슈는 학습자의 액션에 대한 시스템의 리액션이며, 시스템의 리액션 중 오프라인에서 언어를 교육할 때 사용되는 교육자의 언어 교정을 자동화한 리액션의 정도는 교육의 수준을 결정할 만큼 중요한 이슈이다.An important issue of the online language education system is the system's reaction to the learner's actions, and among the system's reactions, the degree of the educator's automated language correction used when teaching language offline is an issue that is important enough to determine the level of education. am.

삽화를 이용하는 언어 교육 시스템은 전통적인 언어 교육 시스템에 해당하며, 그 만큼 교육자의 교육의 수준 및 학습자에 대한 교육의 효과가 보장된 방법이다.The language education system using illustrations corresponds to the traditional language education system, and thus the level of education of the educator and the effect of education on learners are guaranteed.

학습자가 보다 편리하고 효율적으로 언어를 습득할 수 있도록 삽화를 이용하는 언어 교육 시스템을 온라인화할 필요가 있다.It is necessary to bring the language education system using illustrations online so that learners can acquire language more conveniently and efficiently.

본 발명의 실시예들은 텍스트 및 이미지를 활용하여 보다 직관적이고 효율적인 문장 교정 장치 및 방법을 제공하고자 한다.Embodiments of the present invention are intended to provide a more intuitive and efficient sentence correction apparatus and method by using text and images.

본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법은 사용자 인터페이스에 의해, 화면의 제1 영역에 제1 텍스트를 입력하는 제1 사용자 입력을 수신하는 단계; 프로세서에 의해, 상기 제1 사용자 입력에 대응하여, 상기 화면의 상기 제1 영역과 상이한 제2 영역에 상기 제1 텍스트에 대응하는 제1 이미지를 표시하는 단계; 상기 사용자 인터페이스에 의해, 상기 제1 이미지를 제2 이미지로 변경시키는 제2 사용자 입력을 수신하는 단계; 상기 프로세서에 의해, 상기 제2 사용자 입력에 대응하여, 상기 제1 영역에 상기 제2 이미지에 대응하는 제2 텍스트를 표시하는 단계;를 포함한다.According to an embodiment of the present invention, a method for correcting a sentence using text and an image includes: receiving, through a user interface, a first user input for inputting a first text into a first area of a screen; displaying, by the processor, a first image corresponding to the first text in a second area different from the first area of the screen in response to the first user input; receiving, by the user interface, a second user input for changing the first image into a second image; and displaying, by the processor, a second text corresponding to the second image in the first area in response to the second user input.

본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 장치는 화면의 제1 영역에 제1 텍스트를 입력하는 제1 사용자 입력 및 제1 이미지를 제2 이미지로 변경시키는 제2 사용자 입력을 수신하는 사용자 인터페이스; 및 상기 제1 사용자 입력에 대응하여 상기 화면의 상기 제1 영역과 상이한 제2 영역에 상기 제1 텍스트에 대응하는 상기 제1 이미지를 표시하고, 상기 제2 사용자 입력에 대응하여 상기 제1 영역에 상기 제2 이미지에 대응하는 제2 텍스트를 표시하는 프로세서;를 포함한다.A sentence correction apparatus using text and an image according to an embodiment of the present invention receives a first user input for inputting a first text in a first area of a screen and a second user input for changing a first image to a second image receiving user interface; and displaying the first image corresponding to the first text in a second area different from the first area of the screen in response to the first user input, and displaying the first image corresponding to the first text in the first area in response to the second user input and a processor configured to display a second text corresponding to the second image.

본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법은 사용자 인터페이스에 의해, 화면의 제1 영역에 제1 텍스트를 입력하는 제1 사용자 입력을 수신하는 단계; 프로세서에 의해, 상기 제1 사용자 입력에 대응하여, 상기 제1 영역에 상기 제1 텍스트를 표시하고, 상기 화면의 상기 제1 영역과 상이한 제2 영역에 상기 제1 텍스트에 대응하는 제1 이미지를 표시하는 단계; 상기 사용자 인터페이스에 의해, 상기 제1 텍스트의 제1 단어를 선택하는 제2 사용자 입력을 수신하는 단계; 상기 프로세서에 의해, 상기 제2 사용자 입력에 대응하여, 상기 화면의 적어도 하나의 영역에 하나 이상의 아이콘을 표시하는 단계; 상기 사용자 인터페이스에 의해, 상기 하나 이상의 아이콘 중에서 제1 아이콘을 선택하는 제3 사용자 입력을 수신하는 단계; 및 상기 프로세서에 의해, 상기 제3 사용자 입력에 대응하여, 상기 제1 텍스트를 제2 텍스트로 변경하고, 상기 제1 이미지를 제2 이미지로 변경하는 단계;를 포함한다.According to an embodiment of the present invention, a method for correcting a sentence using text and an image includes: receiving, through a user interface, a first user input for inputting a first text into a first area of a screen; In response to the first user input, the processor displays the first text in the first area, and displays a first image corresponding to the first text in a second area different from the first area of the screen displaying; receiving, by the user interface, a second user input for selecting a first word of the first text; displaying, by the processor, one or more icons on at least one area of the screen in response to the second user input; receiving, by the user interface, a third user input for selecting a first icon from among the one or more icons; and, by the processor, in response to the third user input, changing the first text into a second text and changing the first image into a second image.

본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법은 사용자 인터페이스에 의해, 화면의 제1 영역에 제1 텍스트를 입력하는 제1 사용자 입력을 수신하는 단계; 프로세서에 의해, 상기 제1 사용자 입력에 대응하여, 상기 제1 영역에 상기 제1 텍스트를 표시하고, 상기 화면의 상기 제1 영역과 상이한 제2 영역에 상기 제1 텍스트에 대응하는 제1 이미지를 표시하는 단계; 상기 프로세서에 의해, 상기 제1 텍스트의 제1 단어에 대응하는 오브젝트가 존재하지 않는 경우, 상기 화면의 적어도 하나의 영역에 하나 이상의 수정 아이콘을 표시하는 단계; 상기 프로세서에 의해, 상기 하나 이상의 수정 아이콘 중에서 제1 수정 아이콘을 선택하는 제2 사용자 입력을 수신하는 단계; 및 상기 프로세서에 의해, 상기 제2 사용자 입력에 대응하여, 상기 제1 텍스트를 제2 텍스트로 변경하고, 상기 제1 이미지를 제2 이미지로 변경하는 단계;를 포함한다.According to an embodiment of the present invention, a method for correcting a sentence using text and an image includes: receiving, through a user interface, a first user input for inputting a first text into a first area of a screen; In response to the first user input, the processor displays the first text in the first area, and displays a first image corresponding to the first text in a second area different from the first area of the screen displaying; displaying, by the processor, one or more correction icons on at least one area of the screen when an object corresponding to the first word of the first text does not exist; receiving, by the processor, a second user input for selecting a first correction icon from among the one or more correction icons; and, by the processor, in response to the second user input, changing the first text into a second text and changing the first image into a second image.

본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법은 사용자 인터페이스에 의해, 화면의 제1 영역에 일반 명사인 제1 단어 및 소유격 명사인 제2 단어를 포함하는 제1 텍스트를 입력하는 제1 사용자 입력을 수신하는 단계; 및 프로세서에 의해, 상기 화면의 상기 제1 영역과 상이한 제2 영역에 상기 제1 텍스트에 대응하는 제1 이미지를 표시하는 단계;를 포함하고, 상기 제1 이미지에서, 상기 제1 단어에 대응하는 제1 오브젝트는 상기 제2 단어에 대응하는 제2 오브젝트의 사정 거리 내에 위치한다.In the sentence correction method using text and images according to an embodiment of the present invention, a first text including a first word that is a common noun and a second word that is a possessive noun is input in a first area of a screen through a user interface receiving a first user input; and displaying, by the processor, a first image corresponding to the first text in a second area different from the first area of the screen, wherein in the first image, the first image corresponding to the first word The first object is located within the range of the second object corresponding to the second word.

본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법은 사용자 인터페이스에 의해, 화면의 제1 영역에 일반 명사인 제1 단어, 소유격 명사인 제2 단어, 및 부정어인 제3 단어를 포함는 제1 텍스트를 입력하는 제1 사용자 입력을 수신하는 단계; 및 프로세서에 의해, 상기 화면의 상기 제1 영역과 상이한 제2 영역에 상기 제1 텍스트에 대응하는 제1 이미지를 표시하는 단계;를 포함하고, 상기 제1 이미지에서, 상기 제1 단어에 대응하는 제1 오브젝트는 상기 제2 단어에 대응하는 제2 오브젝트의 사정 거리 밖에 위치한다.In a sentence correction method using text and images according to an embodiment of the present invention, a first word as a general noun, a second word as a possessive noun, and a third word as a negative word in a first area of a screen by a user interface inclusion includes: receiving a first user input for entering a first text; and displaying, by the processor, a first image corresponding to the first text in a second area different from the first area of the screen, wherein in the first image, the first image corresponding to the first word The first object is located outside the range of the second object corresponding to the second word.

본 발명의 실시예들에 따르면, 사용자는 입력한 텍스트와 관련된 이미지를 제공받으로써, 문장의 오류 여부를 보다 직관적으로 확인할 수 있다.According to embodiments of the present invention, by receiving an image related to the input text by the user, it is possible to more intuitively check whether there is an error in the sentence.

또한, 사용자는 이미지를 통해 문장에 오류가 있음을 확인한 경우, 이미지를 변경하여 문장을 교정받음으로써, 보다 직관적으로 문장을 학습할 수 있다.In addition, when the user confirms that there is an error in the sentence through the image, the user can learn the sentence more intuitively by changing the image to have the sentence corrected.

또한, 사용자는 이미지를 통해 문장에 오류가 있음을 확인한 경우, 텍스트를 변경하여 문장을 교정받음으로써, 보다 직관적으로 문장을 학습할 수 있다.In addition, when the user confirms that there is an error in the sentence through the image, the user can learn the sentence more intuitively by changing the text to have the sentence corrected.

또한, 사용자는 이미지를 통해 문장에 오류가 있음을 확인한 경우, 교정 아이콘을 이용하여 문장을 교정받음으로써, 보다 직관적으로 문장을 학습할 수 있다.In addition, when the user confirms that there is an error in the sentence through the image, the user can learn the sentence more intuitively by receiving the correction using the correction icon.

또한, 사용자는 사용자는 이미지를 통해 문장 내 소유격의 의미를 보다 직관적으로 이해할 수 있다.In addition, the user can more intuitively understand the meaning of the possessive in the sentence through the image.

도 1은 본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 장치의 구조를 설명하기 위한 도면이다.
도 2a 내지 도 2d는 본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법을 설명하기 위한 도면이다.
도 3a 내지 도 3d는 본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법을 설명하기 위한 도면이다.
도 4a 내지 도 4c는 본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법을 설명하기 위한 도면이다.
도 5a 내지 도 5d는 본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법을 설명하기 위한 도면이다.
도 6a 내지 도 6c는 본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법을 설명하기 위한 도면이다.
도 7a 내지 도 7d는 본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법을 설명하기 위한 도면이다.
도 8a 내지 도 8d는 본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법을 설명하기 위한 도면이다.
도 9a 내지 도 9c는 본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법을 설명하기 위한 도면이다.
도 10a 내지 도 10c는 본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법을 설명하기 위한 도면이다.
도 11a 내지 도 11c는 본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법을 설명하기 위한 도면이다.
도 12a 및 도 12b는 본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법을 설명하기 위한 도면이다.
도 13a 및 도 13b는 본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법을 설명하기 위한 도면이다.
1 is a view for explaining the structure of a sentence correction apparatus using text and images according to an embodiment of the present invention.
2A to 2D are diagrams for explaining a sentence correction method using text and images according to an embodiment of the present invention.
3A to 3D are diagrams for explaining a sentence correction method using text and images according to an embodiment of the present invention.
4A to 4C are diagrams for explaining a sentence correction method using text and images according to an embodiment of the present invention.
5A to 5D are diagrams for explaining a sentence correction method using text and images according to an embodiment of the present invention.
6A to 6C are diagrams for explaining a sentence correction method using text and images according to an embodiment of the present invention.
7A to 7D are diagrams for explaining a sentence correction method using text and images according to an embodiment of the present invention.
8A to 8D are diagrams for explaining a sentence correction method using text and images according to an embodiment of the present invention.
9A to 9C are diagrams for explaining a sentence correction method using text and images according to an embodiment of the present invention.
10A to 10C are diagrams for explaining a sentence correction method using text and images according to an embodiment of the present invention.
11A to 11C are diagrams for explaining a sentence correction method using text and images according to an embodiment of the present invention.
12A and 12B are diagrams for explaining a sentence correction method using text and images according to an embodiment of the present invention.
13A and 13B are diagrams for explaining a sentence correction method using text and images according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Since the present invention can apply various transformations and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. In describing the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.

이하의 실시예에서, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.In the following embodiments, terms such as first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

이하의 실시예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 다수의 표현을 포함한다. 이하의 실시예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the following examples are used only to describe specific examples, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the following examples, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification is present, but one or more It is to be understood that this does not preclude the possibility of addition or presence of other features or numbers, steps, operations, components, parts, or combinations thereof.

본 발명의 실시예들은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명의 실시예의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 발명의 실시예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명의 실시예들은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. 매커니즘, 요소, 수단, 구성과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.Embodiments of the present invention may be represented by functional block configurations and various processing steps. These functional blocks may be implemented in any number of hardware and/or software configurations that perform specific functions. For example, embodiments of the present invention may be implemented directly, such as memory, processing, logic, look-up table, etc., capable of executing various functions by control of one or more microprocessors or other control devices. Circuit configurations may be employed. Similar to how components of an embodiment of the invention may be implemented as software programming or software elements, embodiments of the invention may include various algorithms implemented in combinations of data structures, processes, routines, or other programming constructs. , C, C++, Java, assembler, etc. may be implemented in a programming or scripting language. Functional aspects may be implemented in an algorithm running on one or more processors. In addition, embodiments of the present invention may employ conventional techniques for electronic environment setting, signal processing, and/or data processing, and the like. Terms such as mechanism, element, means, and configuration may be used broadly and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in connection with a processor or the like.

도 1은 본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 장치의 구조를 설명하기 위한 도면이다.1 is a view for explaining the structure of a sentence correction apparatus using text and images according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 장치(100)은 사용자 인터페이스(110), 디스플레이부(130), 프로세서(150), 메모리(170), 및 통신 인터페이스(190)를 포함한다.Referring to FIG. 1 , a sentence correction apparatus 100 using text and images according to an embodiment of the present invention includes a user interface 110 , a display unit 130 , a processor 150 , a memory 170 , and and a communication interface 190 .

사용자 인터페이스(110)는 사용자 입력을 수신할 수 있다.The user interface 110 may receive a user input.

사용자 인터페이스(110)는 키보드, 마우스, 터치 패드 등의 사용자 입력을 수신하는 모든 종류의 도구를 포함할 수 있다.The user interface 110 may include all kinds of tools for receiving user input, such as a keyboard, a mouse, and a touch pad.

디스플레이부(130)는 사용자 입력에 따른 출력을 제공할 수 있다.The display 130 may provide an output according to a user input.

디스플레이부(130)는 화면 등의 텍스트 및 이미지를 출력하는 모든 종류의 도구를 포함할 수 있다.The display unit 130 may include all kinds of tools for outputting text and images such as a screen.

프로세서(150)는 사용자 입력에 따른 동작을 수행하여 출력을 생성할 수 있다.The processor 150 may generate an output by performing an operation according to a user input.

프로세서(150)는 텍스트 및 이미지를 활용한 문장 교정 프로그램을 운용할 수 있으며, 텍스트, 이미지, 및 텍스트 및 이미지를 활용한 문장 교정 프로그램을 업데이트할 수 있다.The processor 150 may operate a sentence correction program using text and images, and may update text, images, and sentence correction programs using text and images.

메모리(150)는 텍스트 및 이미지를 활용한 문장 교정 프로그램을 위한 데이터를 저장할 수 있다.The memory 150 may store data for a sentence correction program using text and images.

상세하게는, 메모리(150)는 텍스트 및 이미지를 활용한 문장 교정 프로그램, 텍스트 및 이미지를 활용한 문장 교정 프로그램에 대한 사용자 입력 및 이에 대응하는 출력을 데이터 형태로 저장할 수 있다.In detail, the memory 150 may store a sentence correction program using text and images, a user input to a sentence correction program using text and images, and an output corresponding thereto in the form of data.

텍스트 및 이미지를 활용한 문장 교정 프로그램은 서로 대응하는 단어 및 오브젝트 쌍을 저장할 수 있다.A sentence correction program using text and images may store pairs of words and objects corresponding to each other.

통신 인터페이스(190)는 외부와의 통신을 수행할 수 있다.The communication interface 190 may communicate with the outside.

통신 인터페이스(190)는 텍스트 및 이미지를 활용한 문장 교정 프로그램, 텍스트 및 이미지를 활용한 문장 교정 프로그램에 대한 사용자 입력 및 이에 대응하는 출력을 수신하거나 전송할 수 있다.The communication interface 190 may receive or transmit a user input for a sentence correction program using text and images and a sentence correction program using text and images and an output corresponding thereto.

이하에서, 텍스트 및 이미지를 활용한 문장 교정 장치(100)가 텍스트 및 이미지를 활용한 문장 교정 방법을 수행하는 다양한 실시예들에 대하여 각각 상세하게 설명한다.Hereinafter, various embodiments in which the sentence correction apparatus 100 using text and images performs a sentence correction method using text and images will be described in detail.

도 2a 내지 도 2d는 본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법을 설명하기 위한 도면이다.2A to 2D are diagrams for explaining a sentence correction method using text and images according to an embodiment of the present invention.

이하에서, 디스플레이부(130)는 텍스트를 표시하는 제1 영역(AR1) 및 이미지를 표시하는 제2 영역(AR2)을 포함하는 화면을 포함할 수 있다.Hereinafter, the display 130 may include a screen including a first area AR1 displaying text and a second area AR2 displaying an image.

도 2a 및 도 2b를 참조하면, 사용자 인터페이스(110)는 화면의 제1 영역(AR1)에 제1 텍스트(TXT1)를 입력하는 제1 사용자 입력을 수신한다(S201).2A and 2B , the user interface 110 receives a first user input for inputting a first text TXT1 into the first area AR1 of the screen ( S201 ).

프로세서(150)는 제1 사용자 입력에 대응하여, 화면의 제1 영역(AR1)에 제1 텍스트(TXT1)를 표시할 수 있다.The processor 150 may display the first text TXT1 in the first area AR1 of the screen in response to the first user input.

예를 들어, 제1 사용자 입력에 대응하여, 화면의 제1 영역(AR1)에 제1 텍스트(TXT1)인 “A dog is up the table.”이 표시될 수 있다.For example, in response to the first user input, the first text TXT1 “A dog is up the table.” may be displayed in the first area AR1 of the screen.

이어서, 프로세서(150)는 제1 사용자 입력에 대응하여, 화면의 제1 영역(AR1)과 상이한 제2 영역(AR2)에 제1 텍스트(TXT1)에 대응하는 제1 이미지(IMG1)를 표시한다(S203).Subsequently, in response to the first user input, the processor 150 displays the first image IMG1 corresponding to the first text TXT1 in a second area AR2 different from the first area AR1 of the screen. (S203).

예를 들어, 제1 이미지(IMG1)는 제1 텍스트(TXT1)의 “dog”과 “table”에 대응하는 제1 오브젝트(OB1) 및 제2 오브젝트(OB2)를 포함할 수 있다.For example, the first image IMG1 may include a first object OB1 and a second object OB2 corresponding to “dog” and “table” of the first text TXT1 .

도시하지 않았으나, 제1 이미지(IMG1)는 제1 텍스트(TXT1)의 “A”, “is”, “up”, 및 “the”에 대응하는 오브젝트들을 더 포함할 수 있다.Although not shown, the first image IMG1 may further include objects corresponding to “A”, “is”, “up”, and “the” of the first text TXT1 .

이하에서, 오브젝트의 위치는 이미지 내 오브젝트의 X 좌표 값 및 Y 좌표 값일 수 있으며, 이에 한정하지 않는다.Hereinafter, the position of the object may be the X coordinate value and the Y coordinate value of the object in the image, but is not limited thereto.

도 2a 및 도 2c를 참조하면, 사용자 인터페이스(110)는 제1 이미지(IMG1)를 제2 이미지(IMG2)로 변경시키는 제2 사용자 입력을 수신한다(S205).2A and 2C , the user interface 110 receives a second user input for changing the first image IMG1 to the second image IMG2 ( S205 ).

제2 사용자 입력은 제1 이미지(IMG1)의 제1 오브젝트(OB1)의 위치를 변경시키는 사용자 입력일 수 있다.The second user input may be a user input for changing the position of the first object OB1 of the first image IMG1 .

예를 들어, 제2 사용자 입력은 제1 오브젝트(OB1)를 선택하고, 선택된 제1 오브젝트(OB1)를 제2 오브젝트(OB2)의 상부로 이동시키는 사용자 입력일 수 있다.For example, the second user input may be a user input that selects the first object OB1 and moves the selected first object OB1 to the top of the second object OB2 .

제2 사용자 입력의 선택은 마우스를 클릭하거나, 터치 패드를 터치하는 사용자 입력일 수 있으며, 이에 한정하지 않는다. 제2 사용자 입력의 이동은 마우스를 클릭하거나, 터치 패드를 터치하거나, 마우스를 클릭한 상태 또는 터치 패드를 터치한 상태에서 드래그하는 사용자 입력일 수 있으며, 이에 한정하지 않는다.The selection of the second user input may be a user input of clicking a mouse or touching a touch pad, but is not limited thereto. The movement of the second user input may be a user input of clicking the mouse, touching the touchpad, or dragging the mouse while clicking or touching the touchpad, but is not limited thereto.

이하에서, 오브젝트의 이동 여부는 오브젝트의 X 좌표 값 및/또는 Y 좌표 값의 변화, 및/또는 벡터 값의 변화로 판단할 수 있으며, 이에 한정하지 않는다.Hereinafter, whether the object is moved may be determined by a change in an X coordinate value and/or a Y coordinate value of the object, and/or a change in a vector value, but is not limited thereto.

제2 사용자 입력은 제1 이미지(IMG1)의 제1 및 제2 오브젝트(OB1, OB2)들 사이의 위치 관계를 변경시키는 사용자 입력일 수 있다.The second user input may be a user input for changing a positional relationship between the first and second objects OB1 and OB2 of the first image IMG1 .

예를 들어, 제2 사용자 입력은 제1 오브젝트(OB1)를 선택 및 이동, 제2 오브젝트(OB2)를 선택 및 이동, 또는 제1 오브젝트(OB1) 및 제2 오브젝트를 선택 및 이동시켜, 제1 오브젝트(OB1)를 제2 오브젝트(OB2)의 상부에 위치시키는 사용자 입력일 수 있다.For example, the second user input selects and moves the first object OB1 , selects and moves the second object OB2 , or selects and moves the first object OB1 and the second object so that the first It may be a user input for positioning the object OB1 on top of the second object OB2 .

이하에서, 복수의 오브젝트들의 위치 관계의 변경 여부는 복수의 오브젝트들의 X 방향의 거리 값 및/또는 Y 방향의 거리 값의 변화, 및/또는 복수의 오브젝트들 중 적어도 하나의 벡터 값의 변화로 판단할 수 있으며, 이에 한정하지 않는다.Hereinafter, whether the positional relationship of the plurality of objects is changed is determined by a change in the distance value in the X direction and/or the distance value in the Y direction of the plurality of objects, and/or a change in the vector value of at least one of the plurality of objects can, but is not limited thereto.

한편, 사용자 인터페이스(110)는 제1 이미지(IMG1)의 제1 오브젝트(OB1)를 선택하는 제3 사용자 입력을 수신할 수 있다.Meanwhile, the user interface 110 may receive a third user input for selecting the first object OB1 of the first image IMG1 .

제3 사용자 입력의 선택은 포인터를 위치시키거나, 마우스를 클릭하거나, 터치 패드를 터치하는 사용자 입력일 수 있으며, 이에 한정하지 않는다.The selection of the third user input may be a user input of positioning a pointer, clicking a mouse, or touching a touch pad, but is not limited thereto.

이어서, 프로세서(150)는 제3 사용자 입력에 대응하여, 제1 텍스트(TXT1) 중에서 제1 오브젝트(OBJ)에 대응하는 적어도 일부가 나머지와 식별되도록 표시할 수 있다.Subsequently, in response to the third user input, the processor 150 may display at least a portion of the first text TXT1 corresponding to the first object OBJ to be identified from the rest.

예를 들어, 제1 이미지(IMG1)의 제1 오브젝트(OB1)에 포인터를 위치시키는 제3 사용자 입력에 대응하여, 제1 텍스트(TXT1)의 “dog”에 마크(MK)가 표시될 수 있다.For example, in response to a third user input for positioning the pointer on the first object OB1 of the first image IMG1 , the mark MK may be displayed on “dog” of the first text TXT1 . .

아울러, 제1 이미지(IMG1)의 제1 오브젝트(OB1)에 포인터를 위치시키는 제3 사용자 입력에 대응하여, 제1 이미지(IMG1)의 제1 오브젝트(OB1)에 마크(MK)가 표시될 수 있다.In addition, the mark MK may be displayed on the first object OB1 of the first image IMG1 in response to a third user input for positioning the pointer on the first object OB1 of the first image IMG1. there is.

도시하지 않았으나, 사용자 인터페이스(110)는 제1 텍스트(TXT1)의 제1 단어를 선택하는 제3 사용자 입력을 수신할 수 있다.Although not shown, the user interface 110 may receive a third user input for selecting a first word of the first text TXT1 .

이어서, 프로세서(150)는 제3 사용자 입력에 대응하여, 제1 이미지(IMG1) 중에서 제1 단어에 대응하는 오브젝트가 나머지와 식별되도록 표시할 수 있다.Subsequently, in response to the third user input, the processor 150 may display an object corresponding to the first word in the first image IMG1 to be identified from the rest.

예를 들어, 제1 텍스트(TXT1)의 “dog”에 포인터를 위치시키는 제3 사용자 입력에 대응하여, 제1 이미지(IMG1)의 제1 오브젝트(OB1)에 마크(MK)가 표시될 수 있다.For example, the mark MK may be displayed on the first object OB1 of the first image IMG1 in response to a third user input for positioning the pointer on “dog” of the first text TXT1 . .

도 2a 및 도 2d를 참조하면, 프로세서(150)는 제2 사용자 입력에 대응하여, 제1 영역(AR1)에 제2 이미지(IMG2)에 대응하는 제2 텍스트(TXT2)를 표시한다(S207).2A and 2D , in response to the second user input, the processor 150 displays the second text TXT2 corresponding to the second image IMG2 in the first area AR1 ( S207 ). .

예를 들어, 제1 영역(AR1)에 제2 텍스트(TXT2)인 “A dog is on the table.”이 표시될 수 있다.For example, “A dog is on the table.” which is the second text TXT2 may be displayed in the first area AR1 .

이때, 제2 텍스트(TXT2)인 “A dog is on the table.”은 제1 텍스트(TXT1)인 “A dog is up the table.”과 위치 관계를 나타내는 단어인 “on”이 상이하다.In this case, “A dog is on the table.” which is the second text TXT2 is different from “A dog is up the table.” which is the first text TXT1 and “on”, which is a word indicating a positional relationship.

프로세서(150)는 제2 텍스트(TXT2) 중에서 제1 텍스트(TXT)와 상이한 적어도 일부가 나머지와 식별되도록 표시할 수 있다.The processor 150 may display at least a portion of the second text TXT2 that is different from the first text TXT to be identified from the rest.

이를 위해, 프로세서(150)는 제2 텍스트(TXT2) 중에서 제1 텍스트(TXT)와 상이한 적어도 일부의 두께, 크기, 모양, 색상 등을 나머지의 두께, 크기, 모양, 색상 등과 다르게 표시하거나, 제2 텍스트(TXT2) 중에서 제1 텍스트(TXT)와 상이한 적어도 일부에만 밑줄, 음영, 하이라이트를 표시할 수도 있으며, 이에 한정하지 않는다.To this end, the processor 150 displays the thickness, size, shape, color, etc. of at least a part of the second text TXT2 different from the first text TXT to be different from the thickness, size, shape, color, etc. of the rest, or An underline, a shadow, and a highlight may be displayed only on at least a part of the two texts TXT2 that is different from the first text TXT, but the present invention is not limited thereto.

예를 들어, 제2 텍스트(TXT2) 중에서 제1 텍스트와 상이한 “on”에만 밑줄이 표시될 수 있다.For example, only “on” different from the first text among the second text TXT2 may be underlined.

한편, 프로세서(130)는 제2 사용자 입력에 대응하여, 제2 영역(AR2)에 제1 이미지(IMG1)의 제1 오브젝트(OB1)의 위치가 변경된 제2 이미지(IMG2)를 표시할 수 있다.Meanwhile, the processor 130 may display the second image IMG2 in which the position of the first object OB1 of the first image IMG1 is changed in the second area AR2 in response to the second user input. .

일 실시예에 따르면, 사용자는 텍스트 입력 후 제공받은 이미지를 이용하여 텍스트를 교정할 수 있다. 사용자는 입력한 텍스트와 관련된 이미지를 제공받으로써, 문장의 오류 여부를 보다 직관적으로 확인할 수 있다. 또한, 사용자는 이미지를 통해 문장에 오류가 있음을 확인한 경우, 이미지에 포함된 오브젝트들 사이의 위치 관계 등을 변경하여 문장을 교정받음으로써, 보다 직관적으로 문장을 학습할 수 있다.According to an embodiment, the user may correct the text using an image provided after inputting the text. By receiving an image related to the input text, the user can more intuitively check whether there is an error in the sentence. In addition, when the user confirms that there is an error in the sentence through the image, the user can learn the sentence more intuitively by changing the positional relationship between objects included in the image to have the sentence corrected.

이하에서는, 상기 설명된 부분과 동일한 부분에 대한 설명은 생략하거나 간단히 한다.Hereinafter, descriptions of the same parts as those described above will be omitted or simplified.

도 3a 내지 도 3d는 본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법을 설명하기 위한 도면이다.3A to 3D are diagrams for explaining a sentence correction method using text and images according to an embodiment of the present invention.

도 3a 및 도 3b를 참조하면, 제1 영역(AR1)에 제1 텍스트(TXT1)를 입력하는 제1 사용자 입력에 대응하여, 제1 영역(AR1)에 제1 텍스트(TXT1)인 “A dog is up the table.”이 표시되고, 제2 영역(AR2)에 제1 텍스트(TXT1)의 “dog”과 “table”에 대응하는 제1 오브젝트(OB1) 및 제2 오브젝트(OB2)를 포함하는 제1 이미지(IMG1)가 표시될 수 있다.3A and 3B , in response to a first user input of inputting the first text TXT1 into the first area AR1 , “A dog” which is the first text TXT1 in the first area AR1 is up the table.” is displayed, and the first object OB1 and the second object OB2 corresponding to “dog” and “table” of the first text TXT1 are displayed in the second area AR2. The first image IMG1 may be displayed.

이어서, 사용자 인터페이스(110)는 제1 이미지(IMG1)의 제1 오브젝트(OB1)를 선택하는 제2-1 사용자 입력을 수신한다(S301).Next, the user interface 110 receives a 2-1 user input for selecting the first object OB1 of the first image IMG1 ( S301 ).

이때, 사용자는 마크(MK)를 활용하여 변경하고자 하는 오브젝트 및 단어를 확인할 수 있다. 예를 들어, 포인터가 제1 이미지(IMG1)의 제1 오브젝트(OB1)를 가리키면, 제1 이미지(IMG1)의 제1 오브젝트(OB1) 및 제1 텍스트(TXT1)의 “dog”에 마크(MK)가 표시될 수 있다.In this case, the user may check the object and word to be changed by using the mark MK. For example, when the pointer points to the first object OB1 of the first image IMG1, the mark MK on the first object OB1 of the first image IMG1 and “dog” of the first text TXT1 ) may be displayed.

이어서, 사용자는 마크(MK)가 표시된 제1 오브젝트(OB1)를 클릭 또는 터치하여 제1 오브젝트(OB1)를 선택할 수 있다.Subsequently, the user may select the first object OB1 by clicking or touching the first object OB1 on which the mark MK is displayed.

이어서, 도 3a 및 도 3c를 참조하면, 프로세서(130)는 제2-1 사용자 입력에 대응하여, 화면의 적어도 하나의 영역에 하나 이상의 아이콘(IC)을 표시한다(S303).Next, referring to FIGS. 3A and 3C , the processor 130 displays one or more icons IC on at least one area of the screen in response to the 2-1 user input ( S303 ).

하나 이상의 아이콘(IC)은 하나 이상의 오브젝트를 가리킬 수 있다.One or more icons IC may indicate one or more objects.

아이콘이 가리키는 오브젝트는 제1 오브젝트(OB1)와 동일 카테고리로 분류되거나, 동일 또는 유사한 단어로 지칭되거나, 문장 내에서 자주 대체되는 오브젝트일 수 있으며, 이에 한정하지 않는다.The object indicated by the icon may be an object classified into the same category as the first object OB1 , referred to as the same or similar word, or frequently replaced in a sentence, but is not limited thereto.

또는, 아이콘이 가리키는 오브젝트는 제2 오브젝트(OB2)와 동일 카테고리로 분류되거나, 동일 또는 유사한 단어로 지칭되거나, 문장 내에서 자주 대체되거나, 문장 내에서 자주 같이 사용되는 오브젝트일 수 있으며, 이에 한정하지 않는다.Alternatively, the object indicated by the icon may be an object classified into the same category as the second object OB2, referred to as the same or similar word, frequently replaced in a sentence, or frequently used together in a sentence, but is not limited thereto. does not

또는, 아이콘이 가리키는 오브젝트는 무작위로 추천된 오브젝트일 수 있으며, 이에 한정하지 않는다.Alternatively, the object indicated by the icon may be a randomly recommended object, but is not limited thereto.

아이콘(IC)은 화면의 제1 영역(AR1), 제2 영역(AR1), 및 제1 및 제2 영역(AR1, AR2) 외 영역 내부에 표시될 수도 있고, 제1 영역(AR1), 제2 영역(AR1), 및 제1 및 제2 영역(AR1, AR2) 중 적어도 2 이상의 영역에 걸쳐 표시될 수도 있으며, 이에 한정하지 않는다.The icon IC may be displayed inside an area other than the first area AR1 , the second area AR1 , and the first and second areas AR1 and AR2 of the screen, and the first area AR1 , the second area AR1 The second area AR1 and at least two of the first and second areas AR1 and AR2 may be displayed, but the present invention is not limited thereto.

예를 들어, 아이콘(IC)은 제2 영역(AR2) 내 제1 오브젝트(OB) 근처에 표시될 수 있다.For example, the icon IC may be displayed near the first object OB in the second area AR2 .

한편, 도시하지 않았으나, 아이콘(IC)은 화면의 제1 및 제2 영역(AR1, AR2) 외 소정 영역에 항상 표시될 수 있다.Meanwhile, although not shown, the icon IC may always be displayed in a predetermined area other than the first and second areas AR1 and AR2 of the screen.

한편, 도시하지 않았으나, 아이콘(IC)은 제1 및 제2 영역(AR1, AR2) 외 소정 영역에 비활성화된 상태로 표시되고, 제2-1 사용자 입력에 대응하여 활성화된 상태로 표시될 수 있으며, 이에 한정하지 않는다.Meanwhile, although not shown, the icon IC may be displayed in an inactive state in a predetermined area other than the first and second areas AR1 and AR2, and may be displayed in an activated state in response to the 2-1 user input. , but not limited thereto.

이어서, 사용자 인터페이스(110)는 하나 이상의 아이콘(IC) 중에서 제1 아이콘(IC1)을 선택하는 제2-2 사용자 입력을 수신한다(S305).Next, the user interface 110 receives a 2-2 user input for selecting a first icon IC1 from among one or more icons IC ( S305 ).

제1 아이콘(IC1)은 제1 오브젝트(OB1)와 상이한 제2 오브젝트(OB3)를 가리킬 수 있다.The first icon IC1 may indicate a second object OB3 different from the first object OB1 .

도 3d를 참조하면, 프로세서(130)는 제2-2 사용자 입력에 대응하여, 제1 영역(AR1)에 제1 텍스트(TXT1)의 제1 오브젝트(OB1)에 대응하는 제1 단어(WD1)인 “dog”가 제2 오브젝트(OB3)에 대응하는 제2 단어(WD2)인 “ball”로 변경된 제2 텍스트(TXT2)를 표시할 수 있다.Referring to FIG. 3D , in response to the second-second user input, the processor 130 generates a first word WD1 corresponding to the first object OB1 of the first text TXT1 in the first area AR1 . The second text TXT2 in which “dog” is changed to “ball” which is the second word WD2 corresponding to the second object OB3 may be displayed.

한편, 프로세서(130)는 제2-2 사용자 입력에 대응하여, 제2 영역(AR2)에 제1 이미지(IMG1)의 제1 오브젝트(OB1)가 제2 오브젝트(OB3)로 변경된 제2 이미지(IMG2)를 표시할 수 있다.Meanwhile, in response to the 2-2 user input, the processor 130 generates a second image ( OB1 ) in which the first object OB1 of the first image IMG1 is changed to the second object OB3 in the second area AR2 . IMG2) can be displayed.

일 실시예에 따르면, 사용자는 텍스트 입력 후 제공받은 이미지를 이용하여 텍스트를 교정할 수 있다. 특히, 사용자는 이미지를 통해 문장에 오류가 있음을 확인한 경우, 이미지에 포함된 오브젝트를 다른 오브젝트로 변경하여 문장을 교정받음으로써, 보다 직관적으로 문장을 학습할 수 있다.According to an embodiment, the user may correct the text using an image provided after inputting the text. In particular, when the user confirms that there is an error in the sentence through the image, the user can learn the sentence more intuitively by changing the object included in the image to another object and correcting the sentence.

도 4a 내지 도 4c는 본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법을 설명하기 위한 도면이다.4A to 4C are diagrams for explaining a sentence correction method using text and images according to an embodiment of the present invention.

도 4a를 참조하면, 제1 영역(AR1)에 제1 텍스트(TXT1)를 입력하는 제1 사용자 입력에 대응하여, 제1 영역(AR1)에 제1 텍스트(TXT1)인 “A dog is up the table.”이 표시되고, 제2 영역(AR2)에 제1 텍스트(TXT1)의 “dog”과 “table”에 대응하는 제1 오브젝트(OB1) 및 제2 오브젝트(OB2)를 포함하는 제1 이미지(IMG1)가 표시될 수 있다.Referring to FIG. 4A , in response to a first user input of inputting the first text TXT1 into the first area AR1 , “A dog is up the table.” is displayed, and a first image including a first object OB1 and a second object OB2 corresponding to “dog” and “table” of the first text TXT1 in the second area AR2 (IMG1) may be displayed.

이때, 포인터가 제1 텍스트(TXT1)의 “dog”를 가리키면, 제1 텍스트(TXT1)의 “dog” 및 제1 이미지(IMG1)의 제1 오브젝트(OB1)에 마크(MK)가 표시될 수 있다.At this time, when the pointer points to “dog” of the first text TXT1, the mark MK may be displayed on “dog” of the first text TXT1 and on the first object OB1 of the first image IMG1. there is.

사용자는 마크(MK)가 표시된 “dog”를 클릭 또는 터치하여 제1 단어(WD1)를 선택할 수 있다.The user may select the first word WD1 by clicking or touching “dog” on which the mark MK is displayed.

도 4b 를 참조하면, 제1 단어(WD1)를 선택하는 제2 사용자 입력에 대응하여, 화면의 적어도 하나의 영역에 하나 이상의 아이콘(IC)이 표시될 수 있다.Referring to FIG. 4B , in response to a second user input for selecting the first word WD1 , one or more icons IC may be displayed on at least one area of the screen.

예를 들어, 아이콘(IC)은 제1 영역(AR1)에 적어도 일부가 걸쳐지도록 제1 단어(WD1) 근처에 표시될 수 있다.For example, the icon IC may be displayed near the first word WD1 so that at least a part of it spans the first area AR1 .

사용자 인터페이스(110)는 하나 이상의 아이콘(IC) 중에서 제1 아이콘(IC1)을 선택하는 제3 사용자 입력을 수신할 수 있다.The user interface 110 may receive a third user input for selecting the first icon IC1 from among one or more icons IC.

제1 아이콘(IC1)은 제1 단어(WD1)과 상이한 제2 단어(WD2)를 가리킬 수 있다.The first icon IC1 may indicate a second word WD2 different from the first word WD1 .

도 4c 를 참조하면, 프로세서(130)는 제3 사용자 입력에 대응하여, 제1 영역(AR1)에 제1 텍스트(TXT1)의 제1 단어(WD1)인 “dog”가 제2 단어(WD2)인 “ball”로 변경된 제2 텍스트(TXT2)를 표시할 수 있다.Referring to FIG. 4C , in response to the third user input, the processor 130 indicates that “dog”, which is the first word WD1 of the first text TXT1 , is the second word WD2 in the first area AR1 . The second text TXT2 changed to “ball” may be displayed.

한편, 프로세서(130)는 제3 사용자 입력에 대응하여, 제2 영역(AR2)에 제1 이미지(IMG1)의 제1 단어(WD1)에 대응하는 제1 오브젝트(OB1)가 제2 단어(WD2)에 대응하는 제2 오브젝트(OB2)로 변경된 제2 이미지(IMG2)를 표시할 수 있다.Meanwhile, in response to the third user input, the processor 130 sets the first object OB1 corresponding to the first word WD1 of the first image IMG1 to the second word WD2 in the second area AR2 . The second image IMG2 changed to the second object OB2 corresponding to ) may be displayed.

일 실시예에 따르면, 사용자는 텍스트 입력 후 제공받은 이미지를 이용하여 텍스트를 교정할 수 있다. 특히, 사용자는 이미지를 통해 문장에 오류가 있음을 확인한 경우, 텍스트에 포함된 단어를 다른 단어로 변경하여 문장을 교정받음으로써, 보다 직관적으로 문장을 학습할 수 있다.According to an embodiment, the user may correct the text using an image provided after inputting the text. In particular, when the user confirms that there is an error in the sentence through the image, the user can learn the sentence more intuitively by changing the word included in the text to another word and correcting the sentence.

도 5a 내지 도 5d는 본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법을 설명하기 위한 도면이다.5A to 5D are diagrams for explaining a sentence correction method using text and images according to an embodiment of the present invention.

도 5a 및 도 5b를 참조하면, 제1 영역(AR1)에 제1 텍스트(TXT1)를 입력하는 제1 사용자 입력에 대응하여, 제1 영역(AR1)에 제1 텍스트(TXT1)인 “A dog is up the table.”이 표시되고, 제2 영역(AR2)에 제1 텍스트(TXT1)의 “dog”과 “table”에 대응하는 제1 오브젝트(OB1) 및 제2 오브젝트(OB2)를 포함하는 제1 이미지(IMG1)가 표시될 수 있다.5A and 5B , in response to a first user input of inputting the first text TXT1 into the first area AR1 , “A dog” which is the first text TXT1 in the first area AR1 is up the table.” is displayed, and the first object OB1 and the second object OB2 corresponding to “dog” and “table” of the first text TXT1 are displayed in the second area AR2. The first image IMG1 may be displayed.

이어서, 사용자 인터페이스(110)는 제1 이미지(IMG1)의 제1 오브젝트(OB1)를 선택하는 제2-1 사용자 입력을 수신한다(S501).Subsequently, the user interface 110 receives a 2-1 user input for selecting the first object OB1 of the first image IMG1 ( S501 ).

도 5a 및 도 5c를 참조하면, 프로세서(130)는 제2-1 사용자 입력에 대응하여, 화면의 적어도 하나의 영역에 문법 변경 아이콘을 표시한다(S503).5A and 5C , the processor 130 displays a grammar change icon on at least one area of the screen in response to the 2-1 user input (S503).

문법 변경 아이콘은 수 변경 아이콘(GIC1-1, GIC1-2)일 수 있다.The grammar change icon may be a number change icon (GIC1-1, GIC1-2).

수 변경 아이콘(GIC1-1, GIC1-2)은 수 증가 아이콘(GIC1-1) 및 수 감소 아이콘(GIC1-2) 중 적어도 하나를 포함할 수 있다.The number change icons GIC1-1 and GIC1-2 may include at least one of a number increase icon GIC1-1 and a number decrease icon GIC1-2.

수 증가 아이콘(GIC1-1) 및 수 감소 아이콘(GIC1-2)은 문자, 숫자, 기호 등으로 표시될 수 있다.The number increase icon GIC1-1 and the number decrease icon GIC1-2 may be displayed as letters, numbers, symbols, or the like.

문법 변경 아이콘은 화면의 제1 영역(AR1), 제2 영역(AR1), 및 제1 및 제2 영역(AR1, AR2) 외 영역 내부에 표시될 수도 있고, 제1 영역(AR1), 제2 영역(AR1), 및 제1 및 제2 영역(AR1, AR2) 중 적어도 2 이상의 영역에 걸쳐 표시될 수도 있으며, 이에 한정하지 않는다.The grammar change icon may be displayed inside the area other than the first area AR1, the second area AR1, and the first and second areas AR1 and AR2 of the screen, and the first area AR1 and the second area AR1 It may be displayed over at least two of the area AR1 and the first and second areas AR1 and AR2, but is not limited thereto.

예를 들어, 수 변경 아이콘(GIC1-1, GIC1-2)은 제2 영역(AR2) 내 제1 오브젝트(OB) 근처에 표시될 수 있다.For example, the number change icons GIC1-1 and GIC1-2 may be displayed near the first object OB in the second area AR2.

한편, 도시하지 않았으나, 수 변경 아이콘(GIC1-1, GIC1-2)은 화면의 제1 및 제2 영역(AR1, AR2) 외 소정 영역에 항상 표시될 수 있다.Meanwhile, although not shown, the number change icons GIC1-1 and GIC1-2 may always be displayed in a predetermined area other than the first and second areas AR1 and AR2 of the screen.

한편, 도시하지 않았으나, 수 변경 아이콘(GIC1-1, GIC1-2)은 제1 및 제2 영역(AR1, AR2) 외 소정 영역에 비활성화된 상태로 표시되고, 제2-1 사용자 입력에 대응하여 활성화된 상태로 표시될 수 있으며, 이에 한정하지 않는다.Meanwhile, although not shown, the number change icons GIC1-1 and GIC1-2 are displayed in an inactive state in predetermined areas other than the first and second areas AR1 and AR2, and respond to the 2-1 user input. It may be displayed in an activated state, but is not limited thereto.

이어서, 사용자 인터페이스(110)는 문법 변경 아이콘을 선택하는 제2-2 사용자 입력을 수신한다(S505).Then, the user interface 110 receives a 2-2 user input for selecting the grammar change icon (S505).

예를 들어, 사용자 인터페이스(110)는 수 증가 아이콘(GIC1-1)을 1회 선택하는 제2-2 사용자 입력을 수신할 수 있다.For example, the user interface 110 may receive a 2-2 user input of selecting the number increase icon GIC1-1 once.

도 5d를 참조하면, 프로세서(130)는 제2-2 사용자 입력에 대응하여, 제1 영역(AR1)에 제1 텍스트(TXT1)의 제1 오브젝트(OB1)의 수에 대응하는 제1 단어(WD1)인 “A dog is”가 수 증가 아이콘(GIC1-1)이 가리키는 수에 대응하는 제2 단어(WD2)인 “Two dogs are”로 변경된 제2 텍스트(TXT2)를 표시할 수 있다.Referring to FIG. 5D , in response to the second-second user input, the processor 130 generates a first word ( ) corresponding to the number of first objects OB1 of the first text TXT1 in the first area AR1 . The second text TXT2 in which “A dog is” as WD1) is changed to “Two dogs are” as the second word WD2 corresponding to the number indicated by the number increasing icon GIC1-1 may be displayed.

한편, 프로세서(130)는 제2-2 사용자 입력에 대응하여, 제2 영역(AR2)에 수 증가 아이콘(GIC1-1)이 가리키는 수의 제1 오브젝트(OB1-1, OB1-2)가 포함된 제2 이미지(IMG2)를 표시할 수 있다.Meanwhile, the processor 130 includes in the second area AR2 the number of first objects OB1-1 and OB1-2 indicated by the number increase icon GIC1-1 in response to the 2-2 user input. The second image IMG2 may be displayed.

도 6a 내지 도 6c는 본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법을 설명하기 위한 도면이다.6A to 6C are diagrams for explaining a sentence correction method using text and images according to an embodiment of the present invention.

도 5a 및 도 6a를 참조하면, 제1 영역(AR1)에 제1 텍스트(TXT1)를 입력하는 제1 사용자 입력에 대응하여, 제1 영역(AR1)에 제1 텍스트(TXT1)인 “A mas is standing.”이 표시되고, 제2 영역(AR2)에 제1 텍스트(TXT1)의 “man”에 대응하는 제1 오브젝트(OB1)를 포함하는 제1 이미지(IMG1)가 표시될 수 있다.5A and 6A , in response to a first user input of inputting the first text TXT1 into the first area AR1, “A mas is standing.” is displayed, and the first image IMG1 including the first object OB1 corresponding to “man” of the first text TXT1 may be displayed in the second area AR2 .

이어서, 사용자 인터페이스(110)는 제1 이미지(IMG1)의 제1 오브젝트(OB1)를 선택하는 제2-1 사용자 입력을 수신한다(S501).Subsequently, the user interface 110 receives a 2-1 user input for selecting the first object OB1 of the first image IMG1 ( S501 ).

도 5a 및 도 6b를 참조하면, 프로세서(130)는 제2-1 사용자 입력에 대응하여, 화면의 적어도 하나의 영역에 문법 변경 아이콘을 표시한다(S503).5A and 6B , the processor 130 displays a grammar change icon on at least one area of the screen in response to the 2-1 user input (S503).

문법 변경 아이콘은 시제 변경 아이콘(GIC2-1, GIC2-2, GIC2-3)일 수 있다.The grammar change icon may be a tense change icon (GIC2-1, GIC2-2, GIC2-3).

시제 변경 아이콘(GIC2-1, GIC2-2, GIC2-3)은 과거 시제 변경 아이콘(GIC2-1), 현재 시제 변경 아이콘(GIC2-2), 및 미래 시제 변경 아이콘(GIC2-3) 중 적어도 하나를 포함할 수 있으며, 이에 한정하지 않는다.The change tense icon (GIC2-1, GIC2-2, GIC2-3) is at least one of a past tense change icon (GIC2-1), a present tense change icon (GIC2-2), and a future tense change icon (GIC2-3) may include, but is not limited thereto.

과거 시제 변경 아이콘(GIC2-1), 현재 시제 변경 아이콘(GIC2-2), 및 미래 시제 변경 아이콘(GIC2-3)은 문자, 숫자, 기호 등으로 표시될 수 있다.The past tense change icon GIC2-1, the present tense change icon GIC2-2, and the future tense change icon GIC2-3 may be displayed as letters, numbers, symbols, or the like.

예를 들어, 시제 변경 아이콘(GIC2-1, GIC2-2, GIC2-3)은 제2 영역(AR2) 내 소정 영역에 표시될 수 있다.For example, the tense change icons GIC2-1, GIC2-2, and GIC2-3 may be displayed in a predetermined area within the second area AR2.

한편, 도시하지 않았으나, 시제 변경 아이콘(GIC2-1, GIC2-2, GIC2-3)은 화면의 제1 및 제2 영역(AR1, AR2) 외 소정 영역에 항상 표시될 수 있다.Meanwhile, although not shown, the tense change icons GIC2-1, GIC2-2, and GIC2-3 may always be displayed in a predetermined area other than the first and second areas AR1 and AR2 of the screen.

한편, 도시하지 않았으나, 시제 변경 아이콘(GIC2-1, GIC2-2, GIC2-3)은 제1 및 제2 영역(AR1, AR2) 외 소정 영역에 비활성화된 상태로 표시되고, 제2-1 사용자 입력에 대응하여 활성화된 상태로 표시될 수 있으며, 이에 한정하지 않는다.Meanwhile, although not shown, the tense change icons GIC2-1, GIC2-2, and GIC2-3 are displayed in an inactivated state in a predetermined area other than the first and second areas AR1 and AR2, and the 2-1 user It may be displayed in an activated state in response to an input, but is not limited thereto.

이어서, 사용자 인터페이스(110)는 문법 변경 아이콘을 선택하는 제2-2 사용자 입력을 수신한다(S505).Then, the user interface 110 receives a 2-2 user input for selecting the grammar change icon (S505).

예를 들어, 사용자 인터페이스(110)는 과거 시제 변경 아이콘(GIC2-1)을 선택하는 제2-2 사용자 입력을 수신할 수 있다.For example, the user interface 110 may receive a 2-2 user input for selecting the past tense change icon GIC2-1.

도 6c를 참조하면, 프로세서(130)는 제2-2 사용자 입력에 대응하여, 제1 영역(AR1)에 제1 텍스트(TXT1)의 제1 오브젝트(OB1)의 시제에 대응하는 제1 단어(WD1)인 “A man is standing.”이 과거 시제 변경 아이콘(GIC2-1)이 가리키는 시제에 대응하는 제2 단어(WD2)인 “A man was standing.”으로 변경된 제2 텍스트(TXT2)를 표시할 수 있다.Referring to FIG. 6C , in response to the second-second user input, the processor 130 generates a first word ( ) corresponding to the tense of the first object OB1 of the first text TXT1 in the first area AR1 . The second text (TXT2) in which “A man is standing.” which is WD1) is changed to “A man was standing.” is displayed, which is the second word (WD2) corresponding to the tense indicated by the past tense change icon GIC2-1 can do.

한편, 프로세서(130)는 제2-2 사용자 입력에 대응하여, 제2 영역(AR2)에 제1 오브젝트(OB1)에 대하여 과거 시제 변경 아이콘(GIC2-1)이 가리키는 시제가 시각적으로 표현된 제2 이미지(IMG2)를 표시할 수 있다.Meanwhile, in response to the 2-2 user input, the processor 130 is configured to visually express the tense indicated by the past tense change icon GIC2-1 with respect to the first object OB1 in the second area AR2. 2 images (IMG2) can be displayed.

예를 들어, 제2 이미지(IMG2)에서 제1 오브젝트(OB1)는 블러 처리(BL)로 표현될 수 있다.For example, the first object OB1 in the second image IMG2 may be expressed by blur processing BL.

일 실시예에 따르면, 사용자는 텍스트 입력 후 제공받은 이미지를 이용하여 텍스트를 교정할 수 있다. 특히, 사용자는 이미지를 통해 문장에 오류가 있음을 확인한 경우, 문법 변경 아이콘을 이용하여 문장을 교정받음으로써, 보다 직관적으로 문장을 학습할 수 있다.According to an embodiment, the user may correct the text using an image provided after inputting the text. In particular, when the user confirms that there is an error in the sentence through the image, the user can learn the sentence more intuitively by correcting the sentence using the grammar change icon.

도 7a 내지 도 7d는 본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법을 설명하기 위한 도면이다.7A to 7D are diagrams for explaining a sentence correction method using text and images according to an embodiment of the present invention.

도 7a 및 도 7b를 참조하면, 제1 영역(AR1)에 제1 텍스트(TXT1)를 입력하는 제1 사용자 입력에 대응하여, 제1 영역(AR1)에 제1 텍스트(TXT1)인 “A mas is standing.”이 표시되고, 제2 영역(AR2)에 제1 텍스트(TXT1)의 “man”에 대응하는 제1 오브젝트(OB1)를 포함하는 제1 이미지(IMG1)가 표시될 수 있다.7A and 7B , in response to a first user input of inputting the first text TXT1 into the first area AR1, “A mas” which is the first text TXT1 in the first area AR1 is standing.” is displayed, and the first image IMG1 including the first object OB1 corresponding to “man” of the first text TXT1 may be displayed in the second area AR2 .

이어서, 사용자 인터페이스(110)는 제1 이미지(IMG1)의 제1 오브젝트(OB1)를 선택하는 제2-1 사용자 입력을 수신한다(S701).Next, the user interface 110 receives a 2-1 user input for selecting the first object OB1 of the first image IMG1 ( S701 ).

도 7a 및 도 7c를 참조하면, 프로세서(130)는 제2-1 사용자 입력에 대응하여, 화면의 적어도 하나의 영역에 하나 이상의 동작 아이콘(MIC1, MIC2, MIC3, MIC4)을 표시한다(S703).7A and 7C , the processor 130 displays one or more operation icons MIC1, MIC2, MIC3, and MIC4 on at least one area of the screen in response to the 2-1 user input (S703) .

동작 아이콘(MIC1, MIC2, MIC3, MIC4)은 달리는 동작 아이콘(MIC1), 제자리 뛰는 동작 아이콘(MIC2), 걷는 동작 아이콘(MIC3), 및 앉은 동작 아이콘(MIC4) 중 적어도 하나를 포함할 수 있으며, 이에 한정하지 않는다.The motion icons (MIC1, MIC2, MIC3, MIC4) may include at least one of a running motion icon (MIC1), a running motion icon (MIC2), a walking motion icon (MIC3), and a sitting motion icon (MIC4), It is not limited to this.

달리는 동작 아이콘(MIC1), 제자리 뛰는 동작 아이콘(MIC2), 걷는 동작 아이콘(MIC3), 및 앉은 동작 아이콘(MIC4)은 이미지, 문자, 기호 등으로 표시될 수 있다.The running motion icon MIC1 , the running motion icon MIC2 , the walking motion icon MIC3 , and the sitting motion icon MIC4 may be displayed as images, characters, symbols, or the like.

예를 들어, 동작 아이콘(MIC1, MIC2, MIC3, MIC4)은 제2 영역(AR2) 내 제1 오브젝트(OB) 근처에 표시될 수 있다.For example, the action icons MIC1 , MIC2 , MIC3 , and MIC4 may be displayed near the first object OB in the second area AR2 .

한편, 도시하지 않았으나, 동작 아이콘(MIC1, MIC2, MIC3, MIC4)은 화면의 제1 및 제2 영역(AR1, AR2) 외 소정 영역에 항상 표시될 수 있다.Meanwhile, although not shown, the operation icons MIC1 , MIC2 , MIC3 , and MIC4 may always be displayed in a predetermined area other than the first and second areas AR1 and AR2 of the screen.

한편, 도시하지 않았으나, 동작 아이콘(MIC1, MIC2, MIC3, MIC4)은 제1 및 제2 영역(AR1, AR2) 외 소정 영역에 비활성화된 상태로 표시되고, 제2-1 사용자 입력에 대응하여 활성화된 상태로 표시될 수 있으며, 이에 한정하지 않는다.Meanwhile, although not shown, the operation icons MIC1, MIC2, MIC3, and MIC4 are displayed in an inactive state in predetermined areas other than the first and second areas AR1 and AR2, and are activated in response to the 2-1 user input. It may be displayed in a state of being in the same state, but is not limited thereto.

이어서, 사용자 인터페이스(110)는 제1 동작 아이콘(MIC1)을 선택하는 제2-2 사용자 입력을 수신한다(S705).Next, the user interface 110 receives a 2-2 user input for selecting the first operation icon MIC1 ( S705 ).

예를 들어, 사용자 인터페이스(110)는 달리는 동작 아이콘(MIC1)을 선택하는 제2-2 사용자 입력을 수신할 수 있다.For example, the user interface 110 may receive a 2-2 user input for selecting the running motion icon MIC1 .

도 7d를 참조하면, 프로세서(130)는 제2-2 사용자 입력에 대응하여, 제1 영역(AR1)에 제1 텍스트(TXT1)의 제1 오브젝트(OB1)의 동작에 대응하는 제1 단어(WD1)인 “standing”이 달리는 동작 아이콘(MIC1)이 가리키는 동작에 대응하는 제2 단어(WD2)인 “running”으로 변경된 제2 텍스트(TXT2)를 표시할 수 있다.Referring to FIG. 7D , the processor 130 generates a first word ( ) corresponding to the operation of the first object OB1 of the first text TXT1 in the first area AR1 in response to the 2-2 second user input. The second text TXT2 changed to “running” as the second word WD2 corresponding to the motion indicated by the running motion icon MIC1 in which “standing” (WD1) is indicated may be displayed.

한편, 프로세서(130)는 제2-2 사용자 입력에 대응하여, 제2 영역(AR2)에 제1 이미지(IMG1)의 제1 오브젝트(OB1)가 달리는 동작 아이콘(MIC1)이 가리키는 동작에 대응하는 제2 오브젝트(OB2)로 변경된 제2 이미지(IMG2)를 표시할 수 있다.Meanwhile, in response to the 2-2 user input, the processor 130 corresponds to an operation indicated by the operation icon MIC1 in which the first object OB1 of the first image IMG1 runs in the second area AR2. The second image IMG2 changed to the second object OB2 may be displayed.

도 8a 내지 도 8d는 본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법을 설명하기 위한 도면이다.8A to 8D are diagrams for explaining a sentence correction method using text and images according to an embodiment of the present invention.

도 8a 및 도 8b를 참조하면, 제1 영역(AR1)에 제1 텍스트(TXT1)를 입력하는 제1 사용자 입력에 대응하여, 제1 영역(AR1)에 제1 텍스트(TXT1)인 “A mas is jumping.”이 표시되고, 제2 영역(AR2)에 제1 텍스트(TXT1)의 “man”에 대응하는 제1 오브젝트(OB1)를 포함하는 제1 이미지(IMG1)가 표시될 수 있다.8A and 8B , in response to a first user input of inputting the first text TXT1 into the first area AR1, “A mas” which is the first text TXT1 in the first area AR1 is jumping.” is displayed, and a first image IMG1 including the first object OB1 corresponding to “man” of the first text TXT1 may be displayed in the second area AR2 .

이어서, 사용자 인터페이스(110)는 제1 이미지(IMG1)의 제1 오브젝트(OB1)를 선택 및 반복 이동시키는 제2-1 사용자 입력을 수신한다(S801).Next, the user interface 110 receives a 2-1 user input for selecting and repeatedly moving the first object OB1 of the first image IMG1 ( S801 ).

예를 들어, 제2-1 사용자 입력은 제1 오브젝트(OB1)를 클릭하여 좌우 드래그를 소정 속도 이상으로 소정 횟수 이상 반복하는 사용자 입력일 수 있다.For example, the 2-1 user input may be a user input of clicking the first object OB1 and repeating left and right drag at a predetermined speed or more a predetermined number of times or more.

도 8a 및 도 8c를 참조하면, 프로세서(130)는 제2-1 사용자 입력에 대응하여, 화면의 적어도 하나의 영역에 제2-1 사용자 입력에 대응하는 달리는 동작 아이콘(MIC)을 표시한다(S803).8A and 8C , in response to the 2-1 user input, the processor 130 displays a running motion icon MIC corresponding to the 2-1 user input on at least one area of the screen ( S803).

예를 들어, 달리는 동작 아이콘(MIC)은 오브젝트를 클릭하여 좌우 드래그를 소정 속도 이상으로 소정 횟수 이상 반복하는 사용자 입력에 대응되는 동작 아이콘일 수 있다.For example, the running motion icon MIC may be a motion icon corresponding to a user input of clicking an object and repeating left and right drag at a predetermined speed or more a predetermined number of times or more.

예를 들어, 걷는 동작 아이콘은 오브젝트를 클릭하여 좌우 드래그를 소정 속도 미만으로 소정 횟수 이상 반복하는 사용자 입력에 대응되는 동작 아이콘일 수 있다.For example, the walking motion icon may be a motion icon corresponding to a user input of clicking an object and repeating left and right dragging at less than a predetermined speed a predetermined number of times or more.

예를 들어, 제자리 뛰는 동작 아이콘은 오브젝트를 클릭하여 원을 그리는 드래그를 소정 횟수 이상 반복하는 사용자 입력에 대응되는 동작 아이콘일 수 있다.For example, the running motion icon may be a motion icon corresponding to a user input of clicking an object and repeating a drag to draw a circle a predetermined number of times or more.

동작 아이콘은 이미지, 문자, 기호 등으로 표시될 수 있다.The action icon may be displayed as an image, text, symbol, or the like.

예를 들어, 동작 아이콘은 제2 영역(AR2) 내 제1 오브젝트(OB) 근처에 표시될 수 있다.For example, the action icon may be displayed near the first object OB in the second area AR2 .

한편, 도시하지 않았으나, 동작 아이콘은 제1 및 제2 영역(AR1, AR2) 외 소정 영역에 비활성화된 상태로 표시되고, 제2-1 사용자 입력에 대응하여 활성화된 상태로 표시될 수 있으며, 이에 한정하지 않는다.Meanwhile, although not shown, the action icon may be displayed in an inactive state in a predetermined area other than the first and second areas AR1 and AR2, and may be displayed in an activated state in response to the 2-1 user input. do not limit

이어서, 사용자 인터페이스(110)는 동작 아이콘을 선택하는 제2-2 사용자 입력을 수신한다(S805).Next, the user interface 110 receives a 2-2 user input for selecting an action icon (S805).

예를 들어, 사용자 인터페이스(110)는 달리는 동작 아이콘(MIC)을 선택하는 제2-2 사용자 입력을 수신할 수 있다.For example, the user interface 110 may receive a 2-2 user input for selecting the running motion icon MIC.

도 8d를 참조하면, 프로세서(130)는 제2-2 사용자 입력에 대응하여, 제1 영역(AR1)에 제1 텍스트(TXT1)의 제1 오브젝트(OB1)의 동작에 대응하는 제1 단어(WD1)인 “jumping”이 달리는 동작 아이콘(MIC)이 가리키는 동작에 대응하는 제2 단어(WD2)인 “running”으로 변경된 제2 텍스트(TXT2)를 표시할 수 있다.Referring to FIG. 8D , the processor 130 generates a first word ( ) corresponding to the operation of the first object OB1 of the first text TXT1 in the first area AR1 in response to the 2-2 user input. The second text TXT2 changed to “running” as the second word WD2 corresponding to the motion indicated by the running motion icon MIC in which “jumping” (WD1) is indicated may be displayed.

한편, 프로세서(130)는 제2-2 사용자 입력에 대응하여, 제2 영역(AR2)에 제1 이미지(IMG1)의 제1 오브젝트(OB1)가 달리는 동작 아이콘(MIC)이 가리키는 동작에 대응하는 제2 오브젝트(OB2)로 변경된 제2 이미지(IMG2)를 표시할 수 있다.Meanwhile, in response to the 2-2 user input, the processor 130 corresponds to an operation indicated by the operation icon MIC in which the first object OB1 of the first image IMG1 runs in the second area AR2. The second image IMG2 changed to the second object OB2 may be displayed.

한편, 도시하지 않았으나, 프로세서(130)는 제1 오브젝트(OB1)를 클릭하여 좌우 드래그를 소정 속도 이상으로 소정 횟수 이상 반복하는 제2-1 사용자 입력에 대응하여, 제1 영역(AR1)에 제1 텍스트(TXT1)의 제1 오브젝트(OB1)의 동작에 대응하는 제1 단어(WD1)인 “jumping”이 달리는 동작 아이콘(MIC)이 가리키는 동작에 대응하는 제2 단어(WD2)인 “running”으로 변경된 제2 텍스트(TXT2)를 표시할 수 있다.Meanwhile, although not shown, in response to the 2-1 user input of clicking the first object OB1 and repeating the left and right drag at a predetermined speed or more for a predetermined number of times or more, the processor 130 displays the first object OB1 in the first area AR1. “Jumping”, which is the first word WD1 corresponding to the motion of the first object OB1 in the text TXT1, is “running”, which is the second word WD2, which corresponds to the motion indicated by the running motion icon MIC. It is possible to display the second text TXT2 changed to .

일 실시예에 따르면, 사용자는 텍스트 입력 후 제공받은 이미지를 이용하여 텍스트를 교정할 수 있다. 특히, 사용자는 이미지를 통해 문장에 오류가 있음을 확인한 경우, 동작 아이콘을 이용하여 문장을 교정받음으로써, 보다 직관적으로 문장을 학습할 수 있다.According to an embodiment, the user may correct the text using an image provided after inputting the text. In particular, when the user confirms that there is an error in the sentence through the image, the user can learn the sentence more intuitively by correcting the sentence using the action icon.

도 9a 내지 도 9c는 본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법을 설명하기 위한 도면이다.9A to 9C are diagrams for explaining a sentence correction method using text and images according to an embodiment of the present invention.

도 9a를 참조하면, 제1 영역(AR1)에 제1 텍스트(TXT1)를 입력하는 제1 사용자 입력에 대응하여, 제1 영역(AR1)에 제1 텍스트(TXT1)인 “A dog is up the tavle.”이 표시되고, 제2 영역(AR2)에 제1 텍스트(TXT1)의 “dog”에 대응하는 제1 오브젝트(OB1)를 포함하는 제1 이미지(IMG1)가 표시될 수 있다.Referring to FIG. 9A , in response to a first user input of inputting the first text TXT1 into the first area AR1 , “A dog is up the tavle.” is displayed, and the first image IMG1 including the first object OB1 corresponding to “dog” of the first text TXT1 may be displayed in the second area AR2 .

한편, 프로세서(150)는 메모리(170)로부터 제1 텍스트(TXT1)의 제1 단어인 “tavle” 및 제1 단어인 “tavle”에 대응하는 오브젝트 쌍을 검출할 수 있다.Meanwhile, the processor 150 may detect an object pair corresponding to the first word “tavle” and the first word “tavle” of the first text TXT1 from the memory 170 .

메모리(170)에 “tavle”이 저장되어 있지 않은 경우, 프로세서(150)는 메모리(170)로부터 “tavle” 및 “tavle”에 대응하는 오브젝트 쌍을 검출할 수 없으며, “tavle”에 대응하는 오브젝트가 존재하지 않는다고 판단할 수 있다. If “tavle” is not stored in the memory 170 , the processor 150 cannot detect an object pair corresponding to “tavle” and “tavle” from the memory 170 , and an object corresponding to “tavle” It can be concluded that does not exist.

도 9b를 참조하면, 제1 텍스트(TXT1)의 “tavle”에 대응하는 오브젝트가 존재하지 않는 경우, 프로세서(150)는 화면의 적어도 하나의 영역에 하나 이상의 수정 아이콘(CIC1, CIC2)을 표시할 수 있다.Referring to FIG. 9B , when an object corresponding to “tavle” of the first text TXT1 does not exist, the processor 150 displays one or more correction icons CIC1 and CIC2 on at least one area of the screen. can

예를 들어, 수정 아이콘(CIC1, CIC2)은 제1 영역(AR1)에 적어도 일부가 걸쳐지도록 제1 단어(WD1) 근처에 표시될 수 있다.For example, the correction icons CIC1 and CIC2 may be displayed near the first word WD1 so that at least a part thereof spans the first area AR1 .

사용자 인터페이스(110)는 하나 이상의 수정 아이콘(CIC1, CIC2) 중에서 제1 수정 아이콘(CIC1)을 선택하는 제2 사용자 입력을 수신할 수 있다.The user interface 110 may receive a second user input for selecting the first correction icon CIC1 from among the one or more correction icons CIC1 and CIC2 .

제1 수정 아이콘(CIC1)은 제1 단어(WD1)과 상이한 제2 단어(WD2)를 가리킬 수 있다.The first correction icon CIC1 may indicate a second word WD2 different from the first word WD1 .

제2 단어(WD2)는 제1 단어(WD1)와 적어도 일부가 동일한 단어일 수 있다.The second word WD2 may be at least partially the same as the first word WD1 .

예를 들어, 제2 단어(WD2)는 제1 단어(WD1)와 소정 개수 이상의 문자가 동일하거나, 소정 개수 이상의 문자의 나열이 동일하거나, 소정 개수 미만의 문자가 상이하거나, 문장 내에서 자주 대체되는 단어 등일 수 있으며, 이에 한정하지 않는다.For example, the second word WD2 has the same number of characters or more as the first word WD1 , the arrangement of the characters more than a predetermined number is the same, less than a predetermined number of characters is different, or is frequently replaced in a sentence It may be a word or the like, but is not limited thereto.

제1 수정 아이콘(CIC1)은 이미지일 수 있고, 제2 수정 아이콘(CIC2)은 텍스트일 수 있으며, 이에 한정하지 않는다.The first correction icon CIC1 may be an image, and the second correction icon CIC2 may be a text, but is not limited thereto.

도 9c를 참조하면, 프로세서(130)는 제2 사용자 입력에 대응하여, 제1 영역(AR1)에 제1 텍스트(TXT1)의 제1 단어(WD1)인 “tavle”이 제2 단어(WD2)인 “table”로 변경된 제2 텍스트(TXT2)를 표시할 수 있다.Referring to FIG. 9C , in response to the second user input, the processor 130 converts the first word WD1 of the first text TXT1 “tavle” to the second word WD2 in the first area AR1 . The second text TXT2 changed to “table” may be displayed.

한편, 프로세서(130)는 제2 사용자 입력에 대응하여, 제2 영역(AR2)에 제1 이미지(IMG1)에 제2 단어(WD2)에 대응하는 제2 오브젝트(OB2)가 추가된 제2 이미지(IMG2)를 표시할 수 있다.Meanwhile, in response to the second user input, the processor 130 generates a second image in which the second object OB2 corresponding to the second word WD2 is added to the first image IMG1 in the second area AR2 . (IMG2) can be displayed.

일 실시예에 따르면, 사용자는 텍스트 입력 후 제공받은 이미지를 이용하여 텍스트를 교정할 수 있다. 특히, 사용자는 이미지를 통해 문장에 오류가 있음을 확인할 수 있으며, 텍스트에 포함된 단어를 다른 단어로 변경하여 문장을 교정받음으로써, 보다 직관적으로 문장을 교정할 수 있다.According to an embodiment, the user may correct the text using an image provided after inputting the text. In particular, the user can confirm that there is an error in the sentence through the image, and can correct the sentence more intuitively by changing the word included in the text to another word and receiving the correction.

도 10a 내지 도 10c는 본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법을 설명하기 위한 도면이다.10A to 10C are diagrams for explaining a sentence correction method using text and images according to an embodiment of the present invention.

도 10a를 참조하면, 제1 영역(AR1)에 제1 텍스트(TXT1)를 입력하는 제1 사용자 입력에 대응하여, 제1 영역(AR1)에 제1 텍스트(TXT1)인 “This is her bag.”이 표시되고, 제2 영역(AR2)에 제1 텍스트(TXT1)의 제1 단어(WD1)인 “bag”과 제2 단어(WD2)인 “her”에 대응하는 제1 오브젝트(OB1) 및 제2 오브젝트(OB2)를 포함하는 제1 이미지(IMG1)가 표시될 수 있다.Referring to FIG. 10A , in response to a first user input of inputting the first text TXT1 into the first area AR1 , “This is her bag. ' is displayed, and a first object OB1 corresponding to “bag” as the first word WD1 of the first text TXT1 and “her” as the second word WD2 in the second area AR2 and The first image IMG1 including the second object OB2 may be displayed.

제1 텍스트는 일반 명사인 제1 단어(WD1) 및 소유격 명사인 제2 단어(WD2)를 포함할 수 있다.The first text may include a first word WD1 that is a general noun and a second word WD2 that is a possessive noun.

제1 이미지(IMG1)는 제2 단어(WD2)에 대응하는 제2 오브젝트(OB2)의 제1 사정 거리(DT1) 내에 위치하는 제1 단어(WD1)에 대응하는 제1 오브젝트(OB1)를 포함할 수 있다.The first image IMG1 includes the first object OB1 corresponding to the first word WD1 positioned within the first range DT1 of the second object OB2 corresponding to the second word WD2 can do.

제1 이미지(IMG1)는 제1 영역(AR1)에 제1 텍스트(TXT1)를 입력하는 제1 사용자 입력 외의 사용자 입력에 대응하여, 제1 텍스트(TXT1)에 대응하지 않는 제3 오브젝트(OB3)를 더 포함할 수 있다.The first image IMG1 corresponds to a user input other than the first user input for inputting the first text TXT1 into the first area AR1 , and the third object OB3 that does not correspond to the first text TXT1 may further include.

프로세서(150)는 제2 영역(AR2)에 표시되는 오브젝트들 사이의 거리에 기초하여, 제1 영역(AR1)에 표시되는 단어를 변경할 수 있다.The processor 150 may change the word displayed in the first area AR1 based on the distance between the objects displayed in the second area AR2 .

도 10b를 참조하면, 사용자 인터페이스(110)는 제1 이미지(IMG1)의 제1 오브젝트(OB1)를 선택하여 제3 오브젝트(OB3)의 제2 사정 거리(DT2) 내로 이동시키는 제2 사용자 입력을 수신할 수 있다.Referring to FIG. 10B , the user interface 110 receives a second user input for selecting the first object OB1 of the first image IMG1 and moving it within the second range DT2 of the third object OB3. can receive

도 10c를 참조하면, 프로세서(150)는 제2 사용자 입력에 대응하여, 제1 영역(AR1)에 제1 텍스트(TXT1)의 제2 단어(WD2)인 “her”가 제3 오브젝트(OB3)에 대응하며 소유격 명사인 제3 단어(WD3) 예를 들어, “his”로 변경된 제2 텍스트(TXT2)를 표시할 수 있다.Referring to FIG. 10C , in response to the second user input, the processor 150 sets “her” as the second word WD2 of the first text TXT1 to the third object OB3 in the first area AR1 . The third word WD3 corresponding to the possessive noun, for example, the second text TXT2 changed to “his” may be displayed.

도시하지 않았으나, 제2 사용자 입력은 제1 오브젝트(OB1) 및 제3 오브젝트(OB3) 사이의 거리가 제1 오브젝트(OB1) 및 제2 오브젝트(OB2) 사이의 거리보다 작도록 제1 오브젝트(OB1)를 선택 및 이동시키는 사용자 입력일 수 있다.Although not illustrated, the second user input is such that the distance between the first object OB1 and the third object OB3 is smaller than the distance between the first object OB1 and the second object OB2. ) may be a user input to select and move.

프로세서(150)는 제2 영역(AR2)에 표시되는 오브젝트들 사이의 거리에 기초하여, 제1 및 제2 사정 거리(DT1, DT2)를 표시할 수 있다. The processor 150 may display the first and second shooting distances DT1 and DT2 based on the distance between the objects displayed in the second area AR2 .

제1 및 제2 사정 거리(DT1, DT2)는 개방된 직선이나 폐곡선 등으로 표시될 수 있으며, 이에 한정하지 않는다.The first and second range DT1 and DT2 may be displayed as an open straight line or a closed curve, but is not limited thereto.

도 11a 내지 도 11c는 본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법을 설명하기 위한 도면이다.11A to 11C are diagrams for explaining a sentence correction method using text and images according to an embodiment of the present invention.

도 11a를 참조하면, 제1 영역(AR1)에 제1 텍스트(TXT1)를 입력하는 제1 사용자 입력에 대응하여, 제1 영역(AR1)에 제1 텍스트(TXT1)인 “This is her bag.”이 표시되고, 제2 영역(AR2)에 제1 텍스트(TXT1)의 제1 단어(WD1)인 “bag”과 제2 단어(WD2)인 “her”에 대응하는 제1 오브젝트(OB1) 및 제2 오브젝트(OB2)를 포함하는 제1 이미지(IMG1)가 표시될 수 있다.Referring to FIG. 11A , in response to a first user input of inputting the first text TXT1 into the first area AR1 , “This is her bag. ' is displayed, and a first object OB1 corresponding to “bag” as the first word WD1 of the first text TXT1 and “her” as the second word WD2 in the second area AR2 and The first image IMG1 including the second object OB2 may be displayed.

제1 텍스트는 일반 명사인 제1 단어(WD1) 및 소유격 명사인 제2 단어(WD2)를 포함할 수 있다.The first text may include a first word WD1 that is a general noun and a second word WD2 that is a possessive noun.

제1 이미지(IMG1)는 제2 단어(WD2)에 대응하는 제2 오브젝트(OB2)의 제1 사정 거리(DT1) 내에 위치하는 제1 단어(WD1)에 대응하는 제1 오브젝트(OB1)를 포함할 수 있다.The first image IMG1 includes the first object OB1 corresponding to the first word WD1 positioned within the first range DT1 of the second object OB2 corresponding to the second word WD2 can do.

프로세서(150)는 제2 영역(AR2)에 표시되는 오브젝트들 사이의 거리에 기초하여, 제1 영역(AR1)에 표시되는 단어를 변경할 수 있다.The processor 150 may change the word displayed in the first area AR1 based on the distance between the objects displayed in the second area AR2 .

도 11b를 참조하면, 사용자 인터페이스(110)는 제1 이미지(IMG1)의 제1 오브젝트(OB1)를 선택하여 제2 오브젝트(OB3)의 제1 사정 거리(DT1) 밖으로 이동시키는 제2 사용자 입력을 수신할 수 있다.Referring to FIG. 11B , the user interface 110 receives a second user input for selecting the first object OB1 of the first image IMG1 and moving it outside the first range DT1 of the second object OB3 can receive

도 11c를 참조하면, 프로세서(150)는 제2 사용자 입력에 대응하여, 제1 영역(AR1)에 제1 텍스트(TXT1)에 부정어인 제3 단어(WD3) 예를 들어, “not”이 추가된 제2 텍스트(TXT2)를 표시할 수 있다.Referring to FIG. 11C , in response to the second user input, the processor 150 adds a third word WD3 that is a negative word, for example, “not”, to the first text TXT1 in the first area AR1 . The second text TXT2 may be displayed.

프로세서(150)는 제2 영역(AR2)에 표시되는 오브젝트들 사이의 거리에 기초하여, 제1 사정 거리(DT1)를 표시할 수 있다.The processor 150 may display the first shooting distance DT1 based on the distance between the objects displayed in the second area AR2 .

일 실시예에 따르면, 사용자는 텍스트 입력 후 제공받은 이미지를 이용하여 텍스트를 교정할 수 있다. 특히, 사용자는 이미지를 통해 문장에 오류가 있음을 확인할 수 있으며, 이미지에 포함된 오브젝트들 사이의 거리를 조절하여 문장을 교정받음으로써, 보다 직관적으로 문장을 교정할 수 있다.According to an embodiment, the user may correct the text using an image provided after inputting the text. In particular, the user can confirm that there is an error in the sentence through the image, and can correct the sentence more intuitively by adjusting the distance between the objects included in the image to receive the correction.

도 12a 및 도 12b는 본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법을 설명하기 위한 도면이다.12A and 12B are diagrams for explaining a sentence correction method using text and images according to an embodiment of the present invention.

도 12a 및 도 12b를 참조하면, 사용자 인터페이스(110)는 화면의 제1 영역(AR1)에 일반 명사인 제1 단어(WD1) 및 소유격 명사인 제2 단어(WD2)를 포함하는 제1 텍스트(TXT1)를 입력하는 사용자 입력을 수신한다(S1201).12A and 12B , the user interface 110 displays a first text ( WD1 ) including a first word WD1 as a general noun and a second word WD2 as a possessive noun in the first area AR1 of the screen ( A user input for inputting TXT1) is received (S1201).

제1 텍스트(TXT1)는 예를 들어, 일반 명사인 “bag” 및 소유격 명사인 “her”를 포함할 수 있다.The first text TXT1 may include, for example, “bag” as a general noun and “her” as a possessive noun.

프로세서(150)는 사용자 입력에 대응하여, 화면의 제1 영역(AR1)에 제1 텍스트(TXT1)인 “This is her bag.”을 표시할 수 있다.The processor 150 may display “This is her bag.” which is the first text TXT1 in the first area AR1 of the screen in response to the user input.

이어서, 프로세서(150)는 사용자 입력에 대응하여, 화면의 제2 영역(AR2)에 제1 텍스트(TXT1)에 대응하는 제1 이미지(IMG1)를 표시한다(S1203).Next, in response to the user input, the processor 150 displays the first image IMG1 corresponding to the first text TXT1 on the second area AR2 of the screen ( S1203 ).

제1 이미지(IMG1)는 제1 텍스트(TXT1)의 “bag”과 “her”에 대응하는 제1 오브젝트(OB1) 및 제2 오브젝트(OB2)를 포함할 수 있다.The first image IMG1 may include a first object OB1 and a second object OB2 corresponding to “bag” and “her” of the first text TXT1 .

제1 이미지(IMG1)에서, 제1 오브젝트(OB1)는 제2 오브젝트(OB2)의 사정 거리(DT) 내에 위치하도록 표시될 수 있다.In the first image IMG1 , the first object OB1 may be displayed to be located within the range DT of the second object OB2 .

도 13a 및 도 13b는 본 발명의 일 실시예에 따른 텍스트 및 이미지를 활용한 문장 교정 방법을 설명하기 위한 도면이다.13A and 13B are diagrams for explaining a sentence correction method using text and images according to an embodiment of the present invention.

도 13a 및 도 13b를 참조하면, 사용자 인터페이스(110)는 화면의 제1 영역(AR1)에 일반 명사인 제1 단어(WD1), 소유격 명사인 제2 단어(WD2), 및 부정어인 제3 단어(WD3)를 포함하는 제1 텍스트(TXT1)를 입력하는 사용자 입력을 수신한다(S1301).13A and 13B , the user interface 110 displays a first word WD1 as a general noun, a second word WD2 as a possessive noun, and a third word as a negative word in the first area AR1 of the screen. A user input of inputting the first text TXT1 including (WD3) is received (S1301).

제1 텍스트(TXT1)는 예를 들어, 일반 명사인 “bag”, 소유격 명사인 “her”, 및 부정어인 “not”을 포함할 수 있다.The first text TXT1 may include, for example, “bag” as a general noun, “her” as a possessive noun, and “not” as a negative word.

프로세서(150)는 사용자 입력에 대응하여, 화면의 제1 영역(AR1)에 제1 텍스트(TXT1)인 “This is not her bag.”을 표시할 수 있다.The processor 150 may display “This is not her bag.” which is the first text TXT1 in the first area AR1 of the screen in response to the user input.

이어서, 프로세서(150)는 사용자 입력에 대응하여, 화면의 제2 영역(AR2)에 제1 텍스트(TXT1)에 대응하는 제1 이미지(IMG1)를 표시한다(S1303).Then, in response to the user input, the processor 150 displays the first image IMG1 corresponding to the first text TXT1 on the second area AR2 of the screen ( S1303 ).

제1 이미지(IMG1)는 제1 텍스트(TXT1)의 “bag”과 “her”에 대응하는 제1 오브젝트(OB1) 및 제2 오브젝트(OB2)를 포함할 수 있다.The first image IMG1 may include a first object OB1 and a second object OB2 corresponding to “bag” and “her” of the first text TXT1 .

제1 이미지(IMG1)에서, 제1 오브젝트(OB1)는 제2 오브젝트(OB2)의 사정 거리(DT) 밖에 위치하도록 표시될 수 있다.In the first image IMG1 , the first object OB1 may be displayed to be located outside the range DT of the second object OB2 .

일 실시예에 따르면, 사용자는 이미지를 통해 문장 내 소유격의 의미를 보다 직관적으로 이해할 수 있다.According to an embodiment, the user may more intuitively understand the meaning of the possessive in the sentence through the image.

이제까지 본 발명에 대하여 바람직한 실시예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다.So far, the present invention has been focused on preferred embodiments. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention can be implemented in modified forms without departing from the essential characteristics of the present invention.

그러므로 상기 개시된 실시예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 특허청구범위에 의해 청구된 발명 및 청구된 발명과 균등한 발명들은 본 발명에 포함된 것으로 해석되어야 한다.Therefore, the disclosed embodiments are to be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated in the claims rather than the above description, and the invention claimed by the claims and inventions equivalent to the claimed invention should be construed as being included in the present invention.

100: 텍스트 및 이미지를 활용한 문장 교정 장치
110: 사용자 인터페이스
130: 디스플레이부
150: 프로세서
170: 메모리
190: 통신 인터페이스
100: Sentence correction device using text and images
110: user interface
130: display unit
150: processor
170: memory
190: communication interface

Claims (25)

사용자 인터페이스에 의해, 화면의 제1 영역에 제1 텍스트를 입력하는 제1 사용자 입력을 수신하는 단계;
프로세서에 의해, 상기 제1 사용자 입력에 대응하여, 상기 화면의 상기 제1 영역과 상이한 제2 영역에 상기 제1 텍스트에 대응하는 제1 이미지를 표시하는 단계;
상기 사용자 인터페이스에 의해, 상기 제1 이미지를 제2 이미지로 변경시키는 제2 사용자 입력을 수신하는 단계; 및
상기 프로세서에 의해, 상기 제2 사용자 입력에 대응하여, 상기 제1 영역에 상기 제2 이미지에 대응하는 제2 텍스트를 표시하는 단계;를 포함하고,
상기 프로세서에 의해, 상기 제1 텍스트의 제1 단어에 대응하는 오브젝트가 존재하지 않는 경우, 상기 화면의 적어도 하나의 영역에 하나 이상의 수정 아이콘을 표시하는 단계;
상기 사용자 인터페이스에 의해, 상기 하나 이상의 수정 아이콘 중에서 제1 수정 아이콘을 선택하는 제3 사용자 입력을 수신하는 단계; 및
상기 프로세서에 의해, 상기 제3 사용자 입력에 대응하여, 상기 제1 텍스트의 상기 제1 단어를 상기 제1 수정 아이콘이 가리키는 제2 단어로 변경하는 단계;를 포함하는, 텍스트 및 이미지를 활용한 문장 교정 방법.
receiving, by the user interface, a first user input of inputting a first text in a first area of the screen;
displaying, by the processor, a first image corresponding to the first text in a second area different from the first area of the screen in response to the first user input;
receiving, by the user interface, a second user input for changing the first image into a second image; and
Displaying, by the processor, a second text corresponding to the second image in the first area in response to the second user input;
displaying, by the processor, one or more correction icons on at least one area of the screen when an object corresponding to the first word of the first text does not exist;
receiving, by the user interface, a third user input for selecting a first correction icon from among the one or more correction icons; and
Sentence using text and images, including; by the processor, in response to the third user input, changing the first word of the first text to a second word indicated by the first correction icon calibration method.
청구항 1에 있어서,
상기 제2 사용자 입력은 상기 제1 이미지의 제1 오브젝트의 위치를 변경시키는 사용자 입력인, 텍스트 및 이미지를 활용한 문장 교정 방법.
The method according to claim 1,
The second user input is a user input for changing the position of the first object of the first image, a method of correcting a sentence using text and images.
청구항 1에 있어서,
상기 제2 사용자 입력은 상기 제1 이미지의 제1 및 제2 오브젝트들 사이의 위치 관계를 변경시키는 사용자 입력인, 텍스트 및 이미지를 활용한 문장 교정 방법.
The method according to claim 1,
The second user input is a user input for changing a positional relationship between the first and second objects of the first image.
청구항 1에 있어서,
상기 프로세서에 의해, 상기 제1 사용자 입력에 대응하여, 상기 제1 영역에 상기 제1 텍스트를 표시하는 단계;를 더 포함하는, 텍스트 및 이미지를 활용한 문장 교정 방법.
The method according to claim 1,
Displaying, by the processor, the first text in the first area in response to the first user input; further comprising, a method of correcting a sentence using text and images.
청구항 1에 있어서,
상기 제2 텍스트는 상기 제1 텍스트와 적어도 일부가 상이하고,
상기 제2 텍스트를 표시하는 단계는,
상기 제2 텍스트 중에서 상기 제1 텍스트와 상이한 상기 적어도 일부가 나머지와 식별되도록 표시하는 단계;를 포함하는, 텍스트 및 이미지를 활용한 문장 교정 방법.
The method according to claim 1,
The second text is at least partially different from the first text,
Displaying the second text comprises:
Displaying the at least a portion of the second text that is different from the first text to be identified from the rest of the second text.
청구항 1에 있어서,
상기 제2 텍스트 중에서 상기 제1 텍스트와 상이한 적어도 일부는 위치 관계를 나타내는 단어인, 텍스트 및 이미지를 활용한 문장 교정 방법.
The method according to claim 1,
At least a portion of the second text that is different from the first text is a word indicating a positional relationship.
청구항 1에 있어서,
상기 프로세서에 의해, 상기 제1 사용자 입력에 대응하여, 상기 제1 영역에 상기 제1 텍스트를 표시하는 단계;
상기 사용자 인터페이스에 의해, 상기 제1 이미지의 제1 오브젝트를 선택하는 제4 사용자 입력을 수신하는 단계; 및
상기 프로세서에 의해, 상기 제4 사용자 입력에 대응하여, 상기 제1 텍스트 중에서 상기 제1 오브젝트에 대응하는 적어도 일부가 나머지와 식별되도록 표시하는 단계;를 더 포함하는, 텍스트 및 이미지를 활용한 문장 교정 방법.
The method according to claim 1,
displaying, by the processor, the first text in the first area in response to the first user input;
receiving, by the user interface, a fourth user input for selecting a first object of the first image; and
Displaying, by the processor, in response to the fourth user input, at least a portion of the first text corresponding to the first object to be identified from the rest; Sentence correction using text and images, further comprising Way.
청구항 1에 있어서,
상기 제2 사용자 입력을 수신하는 단계는,
상기 사용자 인터페이스에 의해, 상기 제1 이미지의 제1 오브젝트를 선택하는 제2-1 사용자 입력을 수신하는 단계;
상기 프로세서에 의해, 상기 제2-1 사용자 입력에 대응하여, 상기 화면의 적어도 하나의 영역에 하나 이상의 아이콘을 표시하는 단계; 및
상기 사용자 인터페이스에 의해, 상기 하나 이상의 아이콘 중에서 제1 아이콘을 선택하는 제2-2 사용자 입력을 수신하는 단계;를 포함하는, 텍스트 및 이미지를 활용한 문장 교정 방법.
The method according to claim 1,
Receiving the second user input comprises:
receiving, by the user interface, a 2-1 user input for selecting a first object of the first image;
displaying, by the processor, one or more icons on at least one area of the screen in response to the 2-1 user input; and
Receiving a 2-2 user input for selecting a first icon from among the one or more icons by the user interface; comprising, a sentence correction method using text and images.
청구항 8에 있어서,
상기 제1 아이콘은 상기 제1 오브젝트와 상이한 제2 오브젝트를 가리키고,
상기 제2 텍스트는, 상기 제1 텍스트의 상기 제1 오브젝트에 대응하는 제1 단어가 상기 제2 오브젝트에 대응하는 제2 단어로 변경된 텍스트인, 텍스트 및 이미지를 활용한 문장 교정 방법.
9. The method of claim 8,
The first icon points to a second object different from the first object,
The second text is a text in which a first word corresponding to the first object of the first text is changed to a second word corresponding to the second object.
청구항 1에 있어서,
상기 제2 사용자 입력을 수신하는 단계는,
상기 사용자 인터페이스에 의해, 상기 제1 이미지의 제1 오브젝트를 선택하는 제2-1 사용자 입력을 수신하는 단계;
상기 프로세서에 의해, 상기 제2-1 사용자 입력에 대응하여, 상기 화면의 적어도 하나의 영역에 문법 변경 아이콘을 표시하는 단계; 및
상기 사용자 인터페이스에 의해, 상기 문법 변경 아이콘을 선택하는 제2-2 사용자 입력을 수신하는 단계;를 포함하는, 텍스트 및 이미지를 활용한 문장 교정 방법.
The method according to claim 1,
Receiving the second user input comprises:
receiving, by the user interface, a 2-1 user input for selecting a first object of the first image;
displaying, by the processor, a grammar change icon on at least one area of the screen in response to the 2-1 user input; and
Receiving a 2-2 user input for selecting the grammar change icon through the user interface; comprising, a method for correcting a sentence using text and images.
청구항 10에 있어서,
상기 문법 변경 아이콘은 수 변경 아이콘이고,
상기 제2 텍스트는, 상기 제1 텍스트의 상기 제1 오브젝트의 수에 대응하는 제1 단어가 상기 수 변경 아이콘이 가리키는 수에 대응하는 제2 단어로 변경된 텍스트인, 텍스트 및 이미지를 활용한 문장 교정 방법.
11. The method of claim 10,
The grammar change icon is a number change icon,
The second text is a text in which a first word corresponding to the number of the first object of the first text is changed to a second word corresponding to the number indicated by the number change icon. Sentence correction using text and images Way.
청구항 10에 있어서,
상기 문법 변경 아이콘은 시제 변경 아이콘이고,
상기 제2 텍스트는, 상기 제1 텍스트의 상기 제1 오브젝트의 시제에 대응하는 제1 단어가 상기 시제 변경 아이콘이 가리키는 시제에 대응하는 제2 단어(WD2)로 변경된 텍스트인, 텍스트 및 이미지를 활용한 문장 교정 방법.
11. The method of claim 10,
The grammar change icon is a tense change icon,
The second text is a text in which the first word corresponding to the tense of the first object of the first text is changed to the second word WD2 corresponding to the tense indicated by the tense change icon, using text and images One sentence proofreading method.
청구항 1에 있어서,
상기 제2 사용자 입력을 수신하는 단계는,
상기 사용자 인터페이스에 의해, 상기 제1 이미지의 제1 오브젝트를 선택하는 제2-1 사용자 입력을 수신하는 단계;
상기 프로세서에 의해, 상기 제2-1 사용자 입력에 대응하여, 상기 화면의 적어도 하나의 영역에 하나 이상의 동작 아이콘을 표시하는 단계; 및
상기 사용자 인터페이스에 의해, 상기 하나 이상의 동작 아이콘 중에서 제1 동작 아이콘을 선택하는 제2-2 사용자 입력을 수신하는 단계;를 포함하는, 텍스트 및 이미지를 활용한 문장 교정 방법.
The method according to claim 1,
Receiving the second user input comprises:
receiving, by the user interface, a 2-1 user input for selecting a first object of the first image;
displaying, by the processor, one or more operation icons on at least one area of the screen in response to the 2-1 user input; and
Receiving a 2-2 user input for selecting a first action icon from among the one or more action icons by the user interface; comprising, a method for correcting sentences using text and images.
청구항 13에 있어서,
상기 제2 텍스트는, 상기 제1 텍스트의 상기 제1 오브젝트의 동작에 대응하는 제1 단어가 상기 제1 동작 아이콘이 가리키는 동작에 대응하는 제2 단어로 변경된 텍스트인, 텍스트 및 이미지를 활용한 문장 교정 방법.
14. The method of claim 13,
The second text is a text in which a first word corresponding to the action of the first object of the first text is changed to a second word corresponding to the action indicated by the first action icon, a sentence using text and images calibration method.
청구항 1에 있어서,
상기 제2 사용자 입력을 수신하는 단계는,
상기 사용자 인터페이스에 의해, 상기 제1 이미지의 제1 오브젝트를 선택 및 반복 이동시키는 제2-1 사용자 입력을 수신하는 단계;
상기 프로세서에 의해, 상기 제2-1 사용자 입력에 대응하여, 상기 화면의 적어도 하나의 영역에 상기 제2-1 사용자 입력에 대응하는 동작 아이콘을 표시하는 단계; 및
상기 사용자 인터페이스에 의해, 상기 동작 아이콘을 선택하는 제2-2 사용자 입력을 수신하는 단계;를 포함하는, 텍스트 및 이미지를 활용한 문장 교정 방법.
The method according to claim 1,
Receiving the second user input comprises:
receiving, by the user interface, a 2-1 user input for selecting and repeatedly moving a first object of the first image;
displaying, by the processor, an operation icon corresponding to the 2-1 user input on at least one area of the screen in response to the 2-1 user input; and
Receiving a 2-2 user input for selecting the action icon through the user interface; including, a method for correcting a sentence using text and images.
청구항 15에 있어서,
상기 제2 텍스트는, 상기 제1 텍스트의 상기 제1 오브젝트의 동작에 대응하는 제1 단어가 상기 동작 아이콘이 가리키는 동작에 대응하는 제2 단어로 변경된 텍스트인, 텍스트 및 이미지를 활용한 문장 교정 방법.
16. The method of claim 15,
The second text is a text in which a first word corresponding to the action of the first object of the first text is changed to a second word corresponding to the action indicated by the action icon. .
청구항 1에 있어서,
상기 제1 텍스트는 일반 명사인 제1 단어 및 소유격 명사인 제2 단어를 포함하고,
상기 제1 이미지는 제1 및 제2 단어에 대응하는 제1 및 제2 오브젝트, 및 제3 오브젝트를 포함하고,
상기 제2 사용자 입력은, 상기 제1 이미지의 상기 제1 오브젝트를 선택하여 상기 제3 오브젝트의 사정 거리 내로 이동시키는 입력이고,
상기 제2 텍스트는, 상기 제1 텍스트의 상기 제2 단어가 상기 제3 오브젝트에 대응하며 소유격 명사인 제3 단어로 변경된 텍스트인, 텍스트 및 이미지를 활용한 문장 교정 방법.
The method according to claim 1,
The first text includes a first word that is a common noun and a second word that is a possessive noun,
the first image includes first and second objects corresponding to the first and second words, and a third object;
The second user input is an input for selecting the first object of the first image and moving it within a range of the third object,
The second text is a text in which the second word of the first text corresponds to the third object and is changed to a third word that is a possessive noun.
청구항 1에 있어서,
상기 제1 텍스트는 일반 명사인 제1 단어 및 소유격 명사인 제2 단어를 포함하고,
상기 제1 이미지는 제1 및 제2 단어에 대응하는 제1 및 제2 오브젝트를 포함하고,
상기 제2 사용자 입력은, 상기 제1 이미지의 상기 제1 오브젝트를 선택하여 상기 제2 오브젝트의 사정 거리 밖으로 이동시키는 입력이고,
상기 제2 텍스트는, 상기 제1 텍스트에 부정어인 제3 단어를 더 포함하는 텍스트인, 텍스트 및 이미지를 활용한 문장 교정 방법.
The method according to claim 1,
The first text includes a first word that is a common noun and a second word that is a possessive noun,
The first image includes first and second objects corresponding to first and second words,
The second user input is an input for selecting the first object of the first image and moving it out of a range of the second object,
The second text is a text that further includes a third word that is a negative word in the first text.
화면의 제1 영역에 제1 텍스트를 입력하는 제1 사용자 입력, 제1 이미지를 제2 이미지로 변경시키는 제2 사용자 입력, 및 제1 수정 아이콘을 선택하는 제3 사용자 입력을 수신하는 사용자 인터페이스; 및
상기 제1 사용자 입력에 대응하여 상기 화면의 상기 제1 영역과 상이한 제2 영역에 상기 제1 텍스트에 대응하는 상기 제1 이미지를 표시하고, 상기 제2 사용자 입력에 대응하여 상기 제1 영역에 상기 제2 이미지에 대응하는 제2 텍스트를 표시하고, 상기 제1 텍스트의 제1 단어에 대응하는 오브젝트가 존재하지 않는 경우 상기 화면의 적어도 하나의 영역에 하나 이상의 수정 아이콘을 표시하고, 상기 제3 사용자 입력에 대응하여 상기 제1 텍스트의 상기 제1 단어를 상기 제1 수정 아이콘이 가리키는 제2 단어로 변경하는 프로세서;를 포함하는, 텍스트 및 이미지를 활용한 문장 교정 장치.
a user interface for receiving a first user input for inputting a first text in a first area of the screen, a second user input for changing the first image into a second image, and a third user input for selecting a first correction icon; and
The first image corresponding to the first text is displayed in a second area different from the first area of the screen in response to the first user input, and the first image corresponding to the second user input is displayed in the first area in response to the second user input a second text corresponding to a second image is displayed, and when an object corresponding to the first word of the first text does not exist, one or more correction icons are displayed on at least one area of the screen, and the third user and a processor for changing the first word of the first text into a second word indicated by the first correction icon in response to an input.
사용자 인터페이스에 의해, 화면의 제1 영역에 제1 텍스트를 입력하는 제1 사용자 입력을 수신하는 단계;
프로세서에 의해, 상기 제1 사용자 입력에 대응하여, 상기 제1 영역에 상기 제1 텍스트를 표시하고, 상기 화면의 상기 제1 영역과 상이한 제2 영역에 상기 제1 텍스트에 대응하는 제1 이미지를 표시하는 단계;
상기 사용자 인터페이스에 의해, 상기 제1 텍스트의 제1 단어를 선택하는 제2 사용자 입력을 수신하는 단계;
상기 프로세서에 의해, 상기 제2 사용자 입력에 대응하여, 상기 화면의 적어도 하나의 영역에 하나 이상의 아이콘을 표시하는 단계;
상기 사용자 인터페이스에 의해, 상기 하나 이상의 아이콘 중에서 제1 아이콘을 선택하는 제3 사용자 입력을 수신하는 단계; 및
상기 프로세서에 의해, 상기 제3 사용자 입력에 대응하여, 상기 제1 텍스트를 제2 텍스트로 변경하고, 상기 제1 이미지를 제2 이미지로 변경하는 단계;를 포함하고,
상기 프로세서에 의해, 상기 제1 텍스트의 제1 단어에 대응하는 오브젝트가 존재하지 않는 경우, 상기 화면의 적어도 하나의 영역에 하나 이상의 수정 아이콘을 표시하는 단계;
상기 사용자 인터페이스에 의해, 상기 하나 이상의 수정 아이콘 중에서 제1 수정 아이콘을 선택하는 제4 사용자 입력을 수신하는 단계; 및
상기 프로세서에 의해, 상기 제4 사용자 입력에 대응하여, 상기 제1 텍스트의 상기 제1 단어를 상기 제1 수정 아이콘이 가리키는 제2 단어로 변경하는 단계;를 포함하는, 텍스트 및 이미지를 활용한 문장 교정 방법.
receiving, by the user interface, a first user input of inputting a first text in a first area of the screen;
In response to the first user input, the processor displays the first text in the first area, and displays a first image corresponding to the first text in a second area different from the first area of the screen displaying;
receiving, by the user interface, a second user input for selecting a first word of the first text;
displaying, by the processor, one or more icons on at least one area of the screen in response to the second user input;
receiving, by the user interface, a third user input for selecting a first icon from among the one or more icons; and
changing, by the processor, in response to the third user input, changing the first text to a second text, and changing the first image to a second image;
displaying, by the processor, one or more correction icons on at least one area of the screen when an object corresponding to the first word of the first text does not exist;
receiving, by the user interface, a fourth user input for selecting a first correction icon from among the one or more correction icons; and
Sentence using text and images including; changing, by the processor, the first word of the first text to a second word indicated by the first correction icon in response to the fourth user input calibration method.
청구항 20에 있어서,
상기 제1 아이콘은 상기 제1 단어와 상이한 제2 단어를 가리키고,
상기 제2 텍스트는, 상기 제1 텍스트의 제1 단어가 상기 제2 단어로 변경된 텍스트인, 텍스트 및 이미지를 활용한 문장 교정 방법.
21. The method of claim 20,
The first icon points to a second word different from the first word,
The second text is a text in which a first word of the first text is changed to the second word.
사용자 인터페이스에 의해, 화면의 제1 영역에 제1 텍스트를 입력하는 제1 사용자 입력을 수신하는 단계;
프로세서에 의해, 상기 제1 사용자 입력에 대응하여, 상기 제1 영역에 상기 제1 텍스트를 표시하고, 상기 화면의 상기 제1 영역과 상이한 제2 영역에 상기 제1 텍스트에 대응하는 제1 이미지를 표시하는 단계;
상기 프로세서에 의해, 상기 제1 텍스트의 제1 단어에 대응하는 오브젝트가 존재하지 않는 경우, 상기 화면의 적어도 하나의 영역에 하나 이상의 수정 아이콘을 표시하는 단계;
상기 사용자 인터페이스에 의해, 상기 하나 이상의 수정 아이콘 중에서 제1 수정 아이콘을 선택하는 제2 사용자 입력을 수신하는 단계; 및
상기 프로세서에 의해, 상기 제2 사용자 입력에 대응하여, 상기 제1 텍스트를 제2 텍스트로 변경하고, 상기 제1 이미지를 제2 이미지로 변경하는 단계;를 포함하는, 텍스트 및 이미지를 활용한 문장 교정 방법.
receiving, by the user interface, a first user input of inputting a first text in a first area of the screen;
In response to the first user input, the processor displays the first text in the first area, and displays a first image corresponding to the first text in a second area different from the first area of the screen displaying;
displaying, by the processor, one or more correction icons on at least one area of the screen when an object corresponding to the first word of the first text does not exist;
receiving, by the user interface, a second user input for selecting a first correction icon from among the one or more correction icons; and
Sentence using text and images, including, by the processor, in response to the second user input, changing the first text to a second text, and changing the first image to a second image calibration method.
청구항 22에 있어서,
상기 제2 텍스트는, 상기 제1 텍스트의 상기 제1 단어가 상기 제1 수정 아이콘이 가리키는 제2 단어로 변경된 텍스트인, 텍스트 및 이미지를 활용한 문장 교정 방법.
23. The method of claim 22,
The second text is a text in which the first word of the first text is changed to a second word indicated by the first correction icon.
사용자 인터페이스에 의해, 화면의 제1 영역에 일반 명사인 제1 단어 및 소유격 명사인 제2 단어를 포함하는 제1 텍스트를 입력하는 제1 사용자 입력을 수신하는 단계; 및
프로세서에 의해, 상기 화면의 상기 제1 영역과 상이한 제2 영역에 상기 제1 텍스트에 대응하는 제1 이미지를 표시하는 단계;를 포함하고,
상기 제1 이미지에서, 상기 제1 단어에 대응하는 제1 오브젝트는 상기 제2 단어에 대응하는 제2 오브젝트의 사정 거리 내에 위치하는, 텍스트 및 이미지를 활용한 문장 교정 방법.
receiving, by the user interface, a first user input for inputting first text including a first word that is a general noun and a second word that is a possessive noun in a first area of the screen; and
displaying, by a processor, a first image corresponding to the first text in a second area different from the first area of the screen;
In the first image, a first object corresponding to the first word is located within a range of a second object corresponding to the second word.
사용자 인터페이스에 의해, 화면의 제1 영역에 일반 명사인 제1 단어, 소유격 명사인 제2 단어, 및 부정어인 제3 단어를 포함는 제1 텍스트를 입력하는 제1 사용자 입력을 수신하는 단계; 및
프로세서에 의해, 상기 화면의 상기 제1 영역과 상이한 제2 영역에 상기 제1 텍스트에 대응하는 제1 이미지를 표시하는 단계;를 포함하고,
상기 제1 이미지에서, 상기 제1 단어에 대응하는 제1 오브젝트는 상기 제2 단어에 대응하는 제2 오브젝트의 사정 거리 밖에 위치하는, 텍스트 및 이미지를 활용한 문장 교정 방법.
receiving, by the user interface, a first user input for inputting a first text including a first word as a general noun, a second word as a possessive noun, and a third word as a negative word in a first area of the screen; and
displaying, by a processor, a first image corresponding to the first text in a second area different from the first area of the screen;
In the first image, a first object corresponding to the first word is located outside a range of a second object corresponding to the second word.
KR1020210111748A 2021-08-24 2021-08-24 Apparatus and method for correcting sentence using test and image KR102388599B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210111748A KR102388599B1 (en) 2021-08-24 2021-08-24 Apparatus and method for correcting sentence using test and image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210111748A KR102388599B1 (en) 2021-08-24 2021-08-24 Apparatus and method for correcting sentence using test and image

Publications (1)

Publication Number Publication Date
KR102388599B1 true KR102388599B1 (en) 2022-04-21

Family

ID=81437440

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210111748A KR102388599B1 (en) 2021-08-24 2021-08-24 Apparatus and method for correcting sentence using test and image

Country Status (1)

Country Link
KR (1) KR102388599B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160350655A1 (en) * 2015-05-26 2016-12-01 Evature Technologies (2009) Ltd. Systems Methods Circuits and Associated Computer Executable Code for Deep Learning Based Natural Language Understanding
US10452978B2 (en) * 2017-05-23 2019-10-22 Google Llc Attention-based sequence transduction neural networks
KR20200033066A (en) * 2018-09-19 2020-03-27 강철희 method for educating English using image and service system therefor
KR20200083111A (en) * 2018-12-31 2020-07-08 주식회사 엘솔루 System for correcting language and method thereof, and method for learning language correction model

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160350655A1 (en) * 2015-05-26 2016-12-01 Evature Technologies (2009) Ltd. Systems Methods Circuits and Associated Computer Executable Code for Deep Learning Based Natural Language Understanding
US10452978B2 (en) * 2017-05-23 2019-10-22 Google Llc Attention-based sequence transduction neural networks
KR20200033066A (en) * 2018-09-19 2020-03-27 강철희 method for educating English using image and service system therefor
KR20200083111A (en) * 2018-12-31 2020-07-08 주식회사 엘솔루 System for correcting language and method thereof, and method for learning language correction model

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
DALL·E: Creating Images form Text, OpenAI, https://openai.com/blog/dall-e/ (2021.01.05.) *
DALL·E: Creating Images form Text, OpenAI, https://openai.com/blog/dall-e/ (2021.01.05.) 1부.*
J. Devlin et al., BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding, https://arxiv.org/pdf/1810.04805.pdf (2018) *
M. Peters et al., Deep Contextualized Word Representations, https://aclweb.org/anthology/N18-1202 (2018) *

Similar Documents

Publication Publication Date Title
US20220035999A1 (en) Electronic apparatus for recommending words corresponding to user interaction and controlling method thereof
JP6987067B2 (en) Systems and methods for multiple input management
CN108351871B (en) General translator
US8812302B2 (en) Techniques for inserting diacritical marks to text input via a user device
US10409919B2 (en) Language translation for display device
US10606474B2 (en) Touch screen finger tracing device
US20180349346A1 (en) Lattice-based techniques for providing spelling corrections
CN108255290A (en) Mode study in mobile device
JP5521028B2 (en) Input method editor
JP2021108115A (en) Method and device for training machine reading comprehension model, electronic apparatus, and storage medium
JP7031603B2 (en) Information processing equipment and information processing method
JP2022519981A (en) Variable speed phoneme sounding machine
KR20180015515A (en) Method and system for learning languages using a smart pen
US10885320B2 (en) Enhanced accessibility in mixed reality experience for collaboration tools
Zhao et al. Eyesaycorrect: Eye gaze and voice based hands-free text correction for mobile devices
KR102284903B1 (en) Mehtod and apparatus for input sequence
CN111858880A (en) Method and device for obtaining query result, electronic equipment and readable storage medium
KR102149131B1 (en) Method for augmentative and alternative communication, and computer program recorded on record-medium for executing method therefor
KR102388599B1 (en) Apparatus and method for correcting sentence using test and image
US9785252B2 (en) Method for inputting multi-language texts
US20180196597A1 (en) Prompted touchscreen for teaching user input and data entry
US20180300021A1 (en) Text input system with correction facility
KR20170132643A (en) Method for displaying character and Apparatus thereof
CN115083222B (en) Information interaction method and device, electronic equipment and storage medium
US20160078013A1 (en) Fault-tolerant input method editor

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant