KR102244447B1 - Method and server for providing image tlanslation service - Google Patents

Method and server for providing image tlanslation service Download PDF

Info

Publication number
KR102244447B1
KR102244447B1 KR1020200128008A KR20200128008A KR102244447B1 KR 102244447 B1 KR102244447 B1 KR 102244447B1 KR 1020200128008 A KR1020200128008 A KR 1020200128008A KR 20200128008 A KR20200128008 A KR 20200128008A KR 102244447 B1 KR102244447 B1 KR 102244447B1
Authority
KR
South Korea
Prior art keywords
information
text
user terminal
image
original text
Prior art date
Application number
KR1020200128008A
Other languages
Korean (ko)
Inventor
이정수
김진구
강동한
Original Assignee
주식회사 플리토
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 플리토 filed Critical 주식회사 플리토
Priority to KR1020200128008A priority Critical patent/KR102244447B1/en
Priority to KR1020210045253A priority patent/KR20220045879A/en
Priority to KR1020210045250A priority patent/KR102258002B1/en
Priority to KR1020210045251A priority patent/KR102258003B1/en
Priority to KR1020210045249A priority patent/KR102258000B1/en
Priority to KR1020210045248A priority patent/KR102258001B1/en
Priority to KR1020210045252A priority patent/KR102258004B1/en
Application granted granted Critical
Publication of KR102244447B1 publication Critical patent/KR102244447B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/51Translation evaluation
    • G06K9/344
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words
    • G06K2209/01

Abstract

In one embodiment of the present invention, disclosed is a method for generating an arcade image by performing conversion on text existing in an image file performed by one or more processors of a computing device. The method comprises the steps of: recognizing one or more character images included in the image file to obtain original text information; determining the adequacy of the original text information by performing a quality check on the obtained original text information; determining to transmit a translation interface including the original text information to a user terminal based on the adequacy determination result; receiving translation text information corresponding to the one or more character images from the user terminal through the translation interface; and generating a translated text image based on the one or more character images and the received translated text information, and displaying the generated translated text image as an upper layer of the one or more character images to generate an arcade image file.

Description

이미지 번역 서비스를 제공하기 위한 방법 및 서버{METHOD AND SERVER FOR PROVIDING IMAGE TLANSLATION SERVICE}Method and server for providing image translation service {METHOD AND SERVER FOR PROVIDING IMAGE TLANSLATION SERVICE}

본 개시는 이미지 번역 기술에 관한 것으로, 보다 구체적으로, 이미지 파일 내에 존재하는 글자 이미지를 번역하여 번역에 관련한 이미지를 생성하고, 해당 글자 이미지에 대응하는 영역에 생성된 번역에 관련한 이미지를 반영하여 번역된 이미지 파일을 제공하기 위함이다.The present disclosure relates to image translation technology, and more specifically, to generate an image related to translation by translating a text image existing in an image file, and to translate an image related to the generated translation in a region corresponding to the text image. This is to provide an image file.

오늘날 인터넷 사용이 보편화되면서 사용자들은 인터넷 검색을 통하여 다양한 정보를 획득할 수 있게 되었다. 구체적으로, 사용자들은 인터넷에 접속이 가능한 단말을 통해 인터넷 검색 사이트에 접속한 후, 뉴스, 지식, 게임, 커뮤니티 등에 관련된 각종 컨텐츠 검색하며, 웹 페이지나 파일 등에 대한 정보를 획득할 수 있다. Today, as Internet use becomes more common, users can obtain a variety of information through Internet search. Specifically, after accessing an Internet search site through a terminal capable of accessing the Internet, users may search for various contents related to news, knowledge, games, and communities, and obtain information on web pages or files.

한편, 오늘날 생활환경이 다변화됨에 따라 국내는 물론 해외로의 취업이나 진출이 활성화되고 있으며, sns 등의 플랫폼으로 인해 다양한 국적의 사용자 간의 의사소통의 필요성이 더 증대되고 있다. 이러한 환경에서 해외 사이트를 통한 다양한 컨텐츠의 획득이 활성화되고 있다. 다만, 해당 컨텐츠에 포함된 텍스트가 사용자가 활용하지 않는 외국어인 경우, 원하는 정보를 획득하는데 어려움을 겪을 수 있다. 이러한 사용자들의 인터넷 검색 활용도를 높이고, 수많은 컨텐츠들로부터 원하는 정보를 획득할 수 있도록 하기 위해, 많은 웹 사이트의 운영자들은 웹 번역 서비스를 제공하고 있다. 대한민국 공개특허 2000-0072108은 언어 번역기를 이용하여 인터넷상에서의 다국어를 지원하는 방법을 개시하고 있다. On the other hand, as the living environment is diversifying today, employment or entry into the country as well as overseas is active, and the need for communication between users of various nationalities is increasing due to platforms such as sns. In this environment, acquisition of various contents through overseas sites is being activated. However, if the text included in the corresponding content is a foreign language that the user does not use, it may be difficult to obtain desired information. In order to increase the utilization of Internet search by these users and to obtain desired information from numerous contents, operators of many web sites provide web translation services. Korean Patent Application Publication No. 2000-0072108 discloses a method of supporting multiple languages on the Internet using a language translator.

한편, 사용자에게 제공되는 웹 페이지에는 이미지가 포함되어 있을 수 있으며, 해당 이미지에는 하나 이상의 문자 또는 기호 등이 포함되어 있을 수 있다. 그러나, 통상적인 웹 번역 서비스는 해당 컨텐츠에 포함된 텍스트에 대해서만 이루어지고 있는 실정이다.Meanwhile, a web page provided to a user may include an image, and the image may include one or more characters or symbols. However, a typical web translation service is performed only on texts included in the corresponding content.

즉, 해당 컨텐츠 내에 이미지, 동영상, 텍스트 등이 포함되어 있는 경우, 텍스트에 대응하는 부분에 대해서만 번역이 수행되어 제공된다. 다시 말해, 번역을 원하는 컨텐츠가 이미지 또는 동영상 등의 형태인 경우, 웹 번역 서비스에 의해 번역되지 않을 수 있다. 예컨대, 사용자가 획득하고자 하는 주요 정보가 이미지 또는 동영상 형태로 표시되는 경우, 주요 정보에 대해서는 번역되지 않은 채, 주변의 텍스트에 대해서만 번역이 이루어 질 수 있다.That is, when an image, video, text, etc. are included in the corresponding content, translation is performed and provided only for a portion corresponding to the text. In other words, if the content desired to be translated is in the form of an image or a video, it may not be translated by the web translation service. For example, when the main information that the user wants to acquire is displayed in the form of an image or a video, the main information may not be translated, but only the surrounding text may be translated.

이와 같은 문제점을 해소하기 위해, OCR(Optical Character Recognition) 등의 문자 판독 기술을 통해 다양한 언어를 통한 번역 서비스가 제공될 수 있다. 다만, 이미지로부터의 문자 기호의 판독이나 이미지 상의 텍스트의 번역 등과 같은 서비스를 위해서는 문자 판독 장치나 번역 장치 등과 같은 고가의 장치가 구비되어야 하며, 이에 따른 시스템의 구축 및 유지/보수를 위한 관리 비용을 초래할 우려가 있다.In order to solve such a problem, translation services through various languages may be provided through character reading technology such as OCR (Optical Character Recognition). However, for services such as reading character symbols from images or translating text on images, an expensive device such as a character reading device or a translation device must be provided. There is a risk of causing.

따라서, 당 업계에는, 다양한 언어를 활용 가능한 다수의 사용자들의 자발적인 참여를 유도하여 이미지 번역 서비스를 제공받고자 하는 사용자와 연계함으로써, 이미지 내 포함된 글자에 대응하는 번역 서비스를 제공하는 서버에 대한 수요가 존재할 수 있다.Therefore, in the industry, there is a demand for a server that provides a translation service corresponding to the characters included in the image by inducing the voluntary participation of a large number of users who can use various languages and connecting with users who want to receive the image translation service. Can exist.

본 개시가 해결하고자 하는 과제는 상술한 문제점을 해결하기 위한 것으로서, 이미지 파일 내에 존재하는 글자 이미지를 번역하여 번역에 관련한 이미지를 생성하고, 해당 글자 이미지에 대응하는 영역에 생성된 번역에 관련한 이미지를 반영하여 번역된 이미지 파일을 제공하기 위함이다.The problem to be solved by the present disclosure is to solve the above-described problem, and generate an image related to translation by translating a character image existing in an image file, and an image related to the translation generated in a region corresponding to the corresponding character image. It is to provide an image file that has been reflected and translated.

본 개시가 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Problems to be solved by the present disclosure are not limited to the problems mentioned above, and other problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 개시의 다양한 실시예에 따른 컴퓨팅 장치의 하나 이상의 프로세서에서 수행되는 이미지 파일에 존재하는 텍스트에 대한 변환을 수행하여 아케이드 이미지를 생성하기 위한 방법이 개시된다. 상기 방법은, 이미지 파일에 포함된 하나 이상의 글자 이미지를 인식하여 원문 텍스트 정보를 획득하는 단계, 상기 획득된 원문 텍스트 정보에 대한 품질 검사를 수행하여 상기 원문 텍스트 정보에 대한 적정성을 판별하는 단계, 상기 적정성 판별 결과에 기초하여 상기 원문 텍스트 정보를 포함하는 번역 인터페이스를 사용자 단말로 전송할 것을 결정하는 단계, 상기 사용자 단말로부터 상기 번역 인터페이스를 통해 상기 하나 이상의 글자 이미지에 대응하는 번역 텍스트 정보를 수신하는 단계 및 상기 하나 이상의 글자 이미지 및 상기 수신된 번역 텍스트 정보에 기초하여 번역 텍스트 이미지를 생성하고, 상기 생성된 번역 텍스트 이미지를 상기 하나 이상의 글자 이미지의 상위 레이어로 표시하여 아케이드 이미지 파일을 생성하는 단계를 포함할 수 있다. Disclosed is a method for generating an arcade image by performing conversion on text existing in an image file performed by one or more processors of a computing device according to various embodiments of the present disclosure for solving the above-described problem. The method includes the steps of acquiring original text information by recognizing one or more text images included in an image file, determining appropriateness for the original text information by performing a quality check on the obtained original text information, the Determining to transmit a translation interface including the original text information to a user terminal based on the appropriateness determination result, receiving translated text information corresponding to the one or more character images from the user terminal through the translation interface, and Generating a translated text image based on the at least one character image and the received translated text information, and displaying the generated translated text image as an upper layer of the at least one character image to generate an arcade image file. I can.

대안적인 실시예에서, 상기 이미지 파일에 포함된 하나 이상의 글자 이미지를 인식하여 원문 텍스트 정보를 획득하는 단계는, 하나 이상의 네트워크 함수를 포함하는 글자 인식 모델을 통해 상기 이미지 파일 내에 포함된 하나 이상의 글자 이미지에 대응하는 상기 원문 텍스트 정보를 획득하는 단계 또는 원문 인터페이스를 통해 상기 사용자 단말로부터 상기 원문 텍스트 정보를 획득하는 단계 중 적어도 하나를 포함할 수 있다. In an alternative embodiment, the step of acquiring original text information by recognizing one or more text images included in the image file includes one or more text images included in the image file through a text recognition model including one or more network functions. It may include at least one of acquiring the original text information corresponding to or acquiring the original text information from the user terminal through an original text interface.

대안적인 실시예에서, 상기 원문 인터페이스를 통해 상기 사용자 단말로부터 상기 원문 텍스트 정보를 획득하는 단계는, 상기 이미지 파일에 포함된 하나 이상의 글자 이미지 중 일부를 포함하는 원문 인터페이스를 생성하여 상기 사용자 단말에 전송할 것을 결정하는 단계 및 상기 원문 인터페이스를 통한 상기 사용자 단말의 사용자 입력에 기초하여 상기 원문 텍스트 정보를 수신하는 단계를 포함할 수 있다. In an alternative embodiment, the step of obtaining the original text information from the user terminal through the original text interface comprises generating an original text interface including some of one or more text images included in the image file and transmitting the text to the user terminal. And receiving the original text information based on a user input of the user terminal through the original text interface.

대안적인 실시예에서, 상기 원문 인터페이스에 대한 상기 사용자 단말의 타이핑 입력을 감지하는 단계, 미리 정해진 단위 시간을 기준으로 미리 정해진 임계 횟수 이상의 타이핑 입력이 감지되면, 상기 사용자 단말의 타이핑 입력을 오류 입력으로 결정하는 단계 및 상기 오류 입력이 감지된 사용자 단말에 대해 상기 하나 이상의 글자 이미지를 미리 정해진 시간동안 노출시키지 않을 것을 결정하는 단계를 더 포함할 수 있다. In an alternative embodiment, the step of detecting a typing input of the user terminal for the original text interface, and when a typing input of more than a predetermined threshold number of times is detected based on a predetermined unit time, the typing input of the user terminal is converted to an error input. It may further include determining and determining not to expose the one or more text images for a predetermined time to the user terminal in which the error input is detected.

대안적인 실시예에서, 상기 원문 텍스트 정보에 대한 품질 검사를 수행하여 상기 원문 텍스트 정보에 대한 적정성을 판별하는 단계는, 상기 사용자 단말의 히스토리 정보에 기초하여 상기 품질 검사를 수행할 다른 사용자 단말의 수를 결정하는 단계, 상기 결정된 다른 사용자 단말의 수에 대응하여 하나 이상의 다른 사용자 단말에게 상기 하나 이상의 글자 이미지 및 상기 원문 텍스트 정보를 포함하는 평가 정보 입력 창을 전송할 것을 결정하는 단계, 상기 하나 이상의 다른 사용자 단말 각각으로부터 상기 평가 정보 입력 창을 통해 수신한 품질 평가 정보에 기초하여 상기 원문 텍스트 정보에 대한 적정성을 판별하는 단계 및 상기 적정성 판별 결과에 기초하여 상기 사용자 단말에 리워드(reward)를 부여하는 단계를 포함하고, 상기 히스토리 정보는, 상기 사용자 단말의 입력 참여 횟수 정보 및 누적 품질 평가 정보 중 적어도 하나를 포함할 수 있다.In an alternative embodiment, the step of determining adequacy of the original text information by performing a quality check on the original text information includes the number of other user terminals to perform the quality check based on the history information of the user terminal. Determining, in response to the determined number of other user terminals, transmitting an evaluation information input window including the one or more character images and the original text information to one or more other user terminals, the one or more other users Determining adequacy of the original text information based on quality evaluation information received from each terminal through the evaluation information input window, and giving a reward to the user terminal based on the adequacy determination result. And the history information may include at least one of information on the number of input participation and cumulative quality evaluation information of the user terminal.

대안적인 실시예에서, 복수의 사용자 단말 중 상기 번역 인터페이스에 포함된 상기 원문 텍스트 정보와 매칭되는 사용자 단말을 식별하는 단계 및 상기 식별된 사용자 단말을 상기 번역 인터페이스를 전송할 사용자 단말로 결정하는 단계를 더 포함할 수 있다. In an alternative embodiment, the step of identifying a user terminal matching the original text information included in the translation interface among a plurality of user terminals, and determining the identified user terminal as a user terminal to which the translation interface is to be transmitted. Can include.

대안적인 실시예에서, 하나 이상의 다른 사용자 단말로 상기 원문 텍스트 정보 및 상기 번역 텍스트 정보를 포함하는 평가 인터페이스를 생성하여 전송할 것을 결정하는 단계 및 상기 평가 인터페이스를 통한 하나 이상의 다른 사용자 단말 각각의 번역 평가 정보에 기초하여 상기 번역 텍스트 정보에 대한 적정성을 판별하는 단계를 더 포함할 수 있다. In an alternative embodiment, determining to generate and transmit an evaluation interface including the original text information and the translated text information to one or more other user terminals, and translation evaluation information of each of one or more other user terminals through the evaluation interface It may further include the step of determining the appropriateness of the translated text information based on.

대안적인 실시예에서, 상기 평가 인터페이스는, 상기 번역 텍스트 정보에 대한 검수 입력을 허용하는 검수 정보 입력 영역 및 상기 번역 텍스트 정보에 대한 평가 점수를 산출하기 위한 하나 이상의 평가 그래픽 객체를 포함할 수 있다. In an alternative embodiment, the evaluation interface may include a review information input area allowing a review input of the translated text information and one or more evaluation graphic objects for calculating an evaluation score for the translated text information.

대안적인 실시예에서, 상기 하나 이상의 글자 이미지 및 상기 번역 텍스트 정보에 기초하여 번역 텍스트 이미지를 생성하고, 상기 번역 텍스트 이미지를 상기 하나 이상의 글자 이미지의 상위 레이어로 표시하여 아케이드 이미지를 생성하는 단계는, 상기 하나 이상의 글자 이미지의 좌표 정보, 색상 정보 및 폰트 정보를 포함하는 글자 이미지 정보를 식별하는 단계, 상기 좌표 정보에 대응하는 영역의 평균 색상 값에 기초하여 번역 텍스트 배경 이미지를 생성하는 단계, 상가 번역 텍스트 배경 이미지에 상기 번역 텍스트 정보를 상기 폰트 정보에 기초하여 반영함으로써 상기 번역 텍스트 이미지를 생성하는 단계 및 상기 번역 텍스트 이미지를 상기 좌표 정보에 대응하는 영역에 상위 레이어로 표시하여 상기 아케이드 이미지 파일을 생성하는 단계를 포함할 수 있다. In an alternative embodiment, generating a translated text image based on the at least one character image and the translated text information, and generating an arcade image by displaying the translated text image as an upper layer of the at least one character image, Identifying text image information including coordinate information, color information, and font information of the one or more text images, generating a translated text background image based on an average color value of an area corresponding to the coordinate information, shopping mall translation Generating the translated text image by reflecting the translated text information on a text background image based on the font information, and generating the arcade image file by displaying the translated text image as a higher layer in an area corresponding to the coordinate information It may include the step of.

본 개시의 다른 실시예에 따르면, 이미지 파일 내에 존재하는 텍스트에 대한 변환을 수행하여 아케이드 이미지 파일을 생성하기 위한 컴퓨팅 장치가 개시된다. 상기 컴퓨팅 장치는 하나 이상의 코어를 포함하는 프로세서, 상기 프로세서에서 실행가능한 프로그램 코드들을 저장하는 메모리 및 하나 이상의 사용자 단말과 데이터를 송수신하는 네트워크부를 포함하고, 상기 프로세서는, 이미지 파일에 포함된 하나 이상의 글자 이미지를 인식하여 원문 텍스트 정보를 획득하고, 상기 획득된 원문 텍스트 정보에 대한 품질 검사를 수행하여 상기 원문 텍스트 정보에 대한 적정성을 판별하고, 상기 적정성 판별 결과에 기초하여 상기 원문 텍스트 정보를 포함하는 번역 인터페이스를 사용자 단말로 전송할 것을 결정하고, 상기 사용자 단말로부터 상기 번역 인터페이스를 통해 상기 하나 이상의 글자 이미지에 대응하는 번역 텍스트 정보를 수신하고, 상기 하나 이상의 글자 이미지 및 상기 수신된 번역 텍스트 정보에 기초하여 번역 텍스트 이미지를 생성하고, 상기 생성된 번역 텍스트 이미지를 상기 하나 이상의 글자 이미지의 상위 레이어로 표시하여 아케이드 이미지 파일 생성할 수 있다. According to another embodiment of the present disclosure, a computing device for generating an arcade image file by performing conversion on text existing in an image file is disclosed. The computing device includes a processor including one or more cores, a memory storing program codes executable in the processor, and a network unit for transmitting and receiving data to and from one or more user terminals, and the processor includes one or more characters included in an image file. Recognizing an image to obtain original text information, performing a quality check on the obtained original text information to determine adequacy of the original text information, and translation including the original text information based on the adequacy determination result Determine to transmit an interface to a user terminal, receive translation text information corresponding to the one or more text images from the user terminal through the translation interface, and translate based on the one or more text images and the received translation text information An arcade image file may be generated by generating a text image and displaying the generated translated text image as an upper layer of the one or more text images.

본 개시의 다양한 실시예에 따라, 이미지 파일 내에 존재하는 글자 이미지를 번역하여 번역에 관련한 이미지를 생성하고, 해당 글자 이미지에 대응하는 영역에 생성된 번역에 관련한 이미지를 반영하여 번역된 이미지 파일을 제공함으로써, 다양한 언어에 관련한 텍스트를 포함하는 이미지로부터의 정보 획득의 편의성을 제공할 수 있다. According to various embodiments of the present disclosure, an image related to translation is generated by translating a character image existing in an image file, and a translated image file is provided by reflecting the generated translation-related image in a region corresponding to the corresponding character image. By doing so, it is possible to provide convenience in obtaining information from images including texts related to various languages.

추가적으로, 다양한 언어의 활용이 가능한 다수의 사용자들의 자발적인 참여를 유도함으로써, 학습성 또는 오락적 요소를 제공하는 등 부가가치 창출에 기여할 수 있으며, 이와 동시에 번역의 정확도 향상을 도모할 수 있다. In addition, by inducing the voluntary participation of multiple users who can use various languages, it is possible to contribute to the creation of added value, such as providing learning or entertainment elements, and at the same time improving the accuracy of translation.

본 개시의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present disclosure are not limited to the effects mentioned above, and other effects that are not mentioned will be clearly understood by those skilled in the art from the following description.

다양한 양상들이 이제 도면들을 참조로 기재되며, 여기서 유사한 참조 번호들은 총괄적으로 유사한 구성요소들을 지칭하는데 이용된다. 이하의 실시예에서, 설명 목적을 위해, 다수의 특정 세부사항들이 하나 이상의 양상들의 총체적 이해를 제공하기 위해 제시된다. 그러나, 그러한 양상(들)이 이러한 구체적인 세부사항들 없이 실시될 수 있음은 명백할 것이다.
도 1은 본 개시의 일 실시예와 관련된 이미지 파일 내에 존재하는 텍스트에 대한 변환을 수행하여 아케이드 이미지를 생성하기 위한 컴퓨팅 장치의 다양한 양태가 구현될 수 있는 시스템을 나타낸 개념도를 도시한다.
도 2는 본 개시의 일 실시예와 관련한 이미지 파일 내에 존재하는 텍스트에 대한 변환을 수행하여 아케이드 이미지를 생성하기 위한 컴퓨팅 장치의 블록 구성도를 도시한다.
도 3는 본 개시의 일 실시예와 관련된 원문 인터페이스 및 번역 인터페이스를 예시적으로 도시한 예시도이다.
도 4는 본 개시의 일 실시예와 관련된 번역 인터페이스를 예시적으로 도시한 예시도이다.
도 5는 본 개시의 일 실시예와 관련된 평가 인터페이스 및 아케이드 이미지를 예시적으로 도시한 예시도이다.
도 6은 본 개시의 일 실시예와 관련된 이미지 파일 내에 존재하는 텍스트에 대한 변환을 수행하여 아케이드 이미지를 생성하기 위한 방법을 수행하기 위한 단계들을 예시적으로 도시한 순서도이다.
도 7은 본 개시의 일 실시예와 관련된 하나 이상의 네트워크 함수를 나타낸 개략도이다.
Various aspects are now described with reference to the drawings, wherein like reference numbers are used collectively to refer to like elements. In the examples that follow, for illustrative purposes, a number of specific details are presented to provide a comprehensive understanding of one or more aspects. However, it will be apparent that such aspect(s) may be practiced without these specific details.
1 is a conceptual diagram illustrating a system in which various aspects of a computing device for generating an arcade image by performing conversion on text existing in an image file according to an embodiment of the present disclosure may be implemented.
2 is a block diagram of a computing device for generating an arcade image by performing conversion on text existing in an image file according to an embodiment of the present disclosure.
3 is an exemplary diagram illustrating an original text interface and a translation interface related to an embodiment of the present disclosure.
4 is an exemplary diagram illustrating a translation interface related to an embodiment of the present disclosure.
5 is an exemplary diagram illustrating an evaluation interface and an arcade image related to an exemplary embodiment of the present disclosure.
6 is a flowchart illustrating steps for performing a method for generating an arcade image by performing conversion on text existing in an image file according to an exemplary embodiment of the present disclosure.
7 is a schematic diagram illustrating one or more network functions related to an embodiment of the present disclosure.

다양한 실시예들이 이제 도면을 참조하여 설명된다. 본 명세서에서, 다양한 설명들이 본 개시의 이해를 제공하기 위해서 제시된다. 그러나, 이러한 실시예들은 이러한 구체적인 설명 없이도 실행될 수 있음이 명백하다.Various embodiments are now described with reference to the drawings. In this specification, various descriptions are presented to provide an understanding of the present disclosure. However, it is clear that these embodiments may be implemented without this specific description.

본 명세서에서 사용되는 용어 "컴포넌트", "모듈", "시스템" 등은 컴퓨터-관련 엔티티, 하드웨어, 펌웨어, 소프트웨어, 소프트웨어 및 하드웨어의 조합, 또는 소프트웨어의 실행을 지칭한다. 예를 들어, 컴포넌트는 프로세서상에서 실행되는 처리과정(procedure), 프로세서, 객체, 실행 스레드, 프로그램, 및/또는 컴퓨터일 수 있지만, 이들로 제한되는 것은 아니다. 예를 들어, 컴퓨팅 장치에서 실행되는 애플리케이션 및 컴퓨팅 장치 모두 컴포넌트일 수 있다. 하나 이상의 컴포넌트는 프로세서 및/또는 실행 스레드 내에 상주할 수 있다. 일 컴포넌트는 하나의 컴퓨터 내에 로컬화 될 수 있다. 일 컴포넌트는 2개 이상의 컴퓨터들 사이에 분배될 수 있다. 또한, 이러한 컴포넌트들은 그 내부에 저장된 다양한 데이터 구조들을 갖는 다양한 컴퓨터 판독가능한 매체로부터 실행할 수 있다. 컴포넌트들은 예를 들어 하나 이상의 데이터 패킷들을 갖는 신호(예를 들면, 로컬 시스템, 분산 시스템에서 다른 컴포넌트와 상호작용하는 하나의 컴포넌트로부터의 데이터 및/또는 신호를 통해 다른 시스템과 인터넷과 같은 네트워크를 통해 전송되는 데이터)에 따라 로컬 및/또는 원격 처리들을 통해 통신할 수 있다.As used herein, the terms "component", "module", "system" and the like refer to a computer-related entity, hardware, firmware, software, a combination of software and hardware, or execution of software. For example, a component may be, but is not limited to, a process executed on a processor, a processor, an object, a thread of execution, a program, and/or a computer. For example, both an application running on a computing device and a computing device may be components. One or more components may reside within a processor and/or thread of execution. A component can be localized within a single computer. A component can be distributed between two or more computers. In addition, these components can execute from a variety of computer readable media having various data structures stored therein. Components can be, for example, through a signal with one or more data packets (e.g., data from one component interacting with another component in a local system, a distributed system, and/or a signal through another system and a network such as the Internet. Depending on the data being transmitted), it may communicate via local and/or remote processes.

더불어, 용어 "또는"은 배타적 "또는"이 아니라 내포적 "또는"을 의미하는 것으로 의도된다. 즉, 달리 특정되지 않거나 문맥상 명확하지 않은 경우에, "X는 A 또는 B를 이용한다"는 자연적인 내포적 치환 중 하나를 의미하는 것으로 의도된다. 즉, X가 A를 이용하거나; X가 B를 이용하거나; 또는 X가 A 및 B 모두를 이용하는 경우, "X는 A 또는 B를 이용한다"가 이들 경우들 어느 것으로도 적용될 수 있다. 또한, 본 명세서에 사용된 "및/또는"이라는 용어는 열거된 관련 아이템들 중 하나 이상의 아이템의 가능한 모든 조합을 지칭하고 포함하는 것으로 이해되어야 한다.In addition, the term “or” is intended to mean an inclusive “or” rather than an exclusive “or”. That is, unless specified otherwise or is not clear from the context, "X employs A or B" is intended to mean one of the natural inclusive substitutions. That is, X uses A; X uses B; Or when X uses both A and B, "X uses A or B" can be applied to either of these cases. In addition, the term “and/or” as used herein should be understood to refer to and include all possible combinations of one or more of the listed related items.

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하는 것으로 이해되어야 한다. 다만, "포함한다" 및/또는 "포함하는"이라는 용어는, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다. 또한, 달리 특정되지 않거나 단수 형태를 지시하는 것으로 문맥상 명확하지 않은 경우에, 본 명세서와 청구범위에서 단수는 일반적으로 "하나 또는 그 이상"을 의미하는 것으로 해석되어야 한다.In addition, the terms "comprises" and/or "comprising" should be understood to mean that the corresponding features and/or components are present. However, it is to be understood that the terms "comprising" and/or "comprising" do not exclude the presence or addition of one or more other features, elements, and/or groups thereof. In addition, unless otherwise specified or when the context is not clear to indicate a singular form, the singular in the specification and claims should be interpreted as meaning "one or more" in general.

당업자들은 추가적으로 여기서 개시된 실시예들과 관련되어 설명된 다양한 예시적 논리적 블록들, 구성들, 모듈들, 회로들, 수단들, 로직들, 및 알고리즘 단계들이 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양쪽 모두의 조합들로 구현될 수 있음을 인식해야 한다. 하드웨어 및 소프트웨어의 상호교환성을 명백하게 예시하기 위해, 다양한 예시적 컴포넌트들, 블록들, 구성들, 수단들, 로직들, 모듈들, 회로들, 및 단계들은 그들의 기능성 측면에서 일반적으로 위에서 설명되었다. 그러한 기능성이 하드웨어로 또는 소프트웨어로서 구현되는지 여부는 전반적인 시스템에 부과된 특정 어플리케이션(application) 및 설계 제한들에 달려 있다. 숙련된 기술자들은 각각의 특정 어플리케이션들을 위해 다양한 방법들로 설명된 기능성을 구현할 수 있다. 다만, 그러한 구현의 결정들이 본 개시내용의 영역을 벗어나게 하는 것으로 해석되어서는 안된다.Those of skill in the art would further describe the various illustrative logical blocks, configurations, modules, circuits, means, logics, and algorithm steps described in connection with the embodiments disclosed herein, including electronic hardware, computer software, or a combination of both. It should be recognized that it can be implemented as To clearly illustrate the interchangeability of hardware and software, various illustrative components, blocks, configurations, means, logics, modules, circuits, and steps have been described above generally in terms of their functionality. Whether such functionality is implemented in hardware or as software depends on the specific application and design restrictions imposed on the overall system. Skilled technicians can implement the described functionality in various ways for each particular application. However, such implementation decisions should not be interpreted as causing a departure from the scope of the present disclosure.

제시된 실시예들에 대한 설명은 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 개시를 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이다. 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 개시는 여기에 제시된 실시예들로 한정되는 것이 아니다. 본 개시는 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.Description of the presented embodiments is provided so that a person of ordinary skill in the art of the present disclosure can use or implement the present disclosure. Various modifications to these embodiments will be apparent to those of ordinary skill in the art. The general principles defined herein may be applied to other embodiments without departing from the scope of the present disclosure. Thus, the present disclosure is not limited to the embodiments presented herein. This disclosure is to be accorded the widest scope consistent with the principles and novel features presented herein.

본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In the present specification, a computer means all kinds of hardware devices including at least one processor, and may be understood as encompassing a software configuration operating in the corresponding hardware device according to embodiments. For example, the computer may be understood as including all of a smartphone, a tablet PC, a desktop, a laptop, and a user client and application running on each device, and is not limited thereto.

이하, 첨부된 도면을 참조하여 본 개시의 실시예를 상세하게 설명한다.Hereinafter, exemplary embodiments of the present disclosure will be described in detail with reference to the accompanying drawings.

본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.Each of the steps described herein is described as being performed by a computer, but the subject of each step is not limited thereto, and at least some of the steps may be performed by different devices according to embodiments.

도 1은 본 개시의 일 실시예와 관련된 이미지 파일 내에 존재하는 텍스트에 대한 변환을 수행하여 아케이드 이미지를 생성하기 위한 컴퓨팅 장치의 다양한 양태가 구현될 수 있는 시스템을 나타낸 개념도를 도시한다.1 is a conceptual diagram illustrating a system in which various aspects of a computing device for generating an arcade image by performing conversion on text present in an image file according to an embodiment of the present disclosure may be implemented.

본 개시의 실시예들에 따른 시스템은, 컴퓨팅 장치(100), 사용자 단말(10), 외부 서버(20) 및 네트워크를 포함할 수 있다. 도 1에서 도시되는 컴포넌트들은 예시적인 것으로서, 추가적인 컴포넌트들이 존재하거나 또는 도 1에서 도시되는 컴포넌트들 중 일부는 생략될 수 있다. 본 개시의 실시예들에 따른 컴퓨팅 장치(100), 사용자 단말(10) 및 외부 서버(20)는 네트워크를 통해, 본 개시의 일 실시예들에 따른 시스템을 위한 데이터를 상호 송수신할 수 있다.A system according to embodiments of the present disclosure may include a computing device 100, a user terminal 10, an external server 20, and a network. Components illustrated in FIG. 1 are exemplary, and additional components may be present or some of the components illustrated in FIG. 1 may be omitted. The computing device 100, the user terminal 10, and the external server 20 according to the embodiments of the present disclosure may mutually transmit and receive data for the system according to the exemplary embodiments of the present disclosure through a network.

본 개시의 실시예들에 따른 네트워크는 공중전화 교환망(PSTN: Public Switched Telephone Network), xDSL(x Digital Subscriber Line), RADSL(Rate Adaptive DSL), MDSL(Multi Rate DSL), VDSL(Very High Speed DSL), UADSL(Universal Asymmetric DSL), HDSL(High Bit Rate DSL) 및 근거리 통신망(LAN) 등과 같은 다양한 유선 통신 시스템들을 사용할 수 있다.Networks according to embodiments of the present disclosure include Public Switched Telephone Network (PSTN), x Digital Subscriber Line (xDSL), Rate Adaptive DSL (RADSL), Multi Rate DSL (MDSL), and Very High Speed DSL (VDSL). ), Universal Asymmetric DSL (UADSL), High Bit Rate DSL (HDSL), and local area network (LAN).

또한, 여기서 제시되는 네트워크는 CDMA(Code Division Multi Access), TDMA(Time Division Multi Access), FDMA(Frequency Division Multi Access), OFDMA(Orthogonal Frequency Division Multi Access), SC-FDMA(Single Carrier-FDMA) 및 다른 시스템들과 같은 다양한 무선 통신 시스템들을 사용할 수 있다.In addition, the networks presented here include Code Division Multi Access (CDMA), Time Division Multi Access (TDMA), Frequency Division Multi Access (FDMA), Orthogonal Frequency Division Multi Access (OFDMA), Single Carrier-FDMA (SC-FDMA), and Various wireless communication systems such as other systems can be used.

본 개시의 실시예들에 따른 네트워크는 유선 및 무선 등과 같은 그 통신 양태를 가리지 않고 구성될 수 있으며, 단거리 통신망(PAN: Personal Area Network), 근거리 통신망(WAN: Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 또한, 상기 네트워크는 공지의 월드와이드웹(WWW: World Wide Web)일 수 있으며, 적외선(IrDA: Infrared Data Association) 또는 블루투스(Bluetooth)와 같이 단거리 통신에 이용되는 무선 전송 기술을 이용할 수도 있다. 본 명세서에서 설명된 기술들은 위에서 언급된 네트워크들뿐만 아니라, 다른 네트워크들에서도 사용될 수 있다.The network according to the embodiments of the present disclosure may be configured regardless of its communication mode, such as wired or wireless, and is composed of various communication networks such as a short-range communication network (PAN) and a local area network (WAN). Can be. In addition, the network may be a known World Wide Web (WWW), and a wireless transmission technology used for short-range communication such as infrared (IrDA) or Bluetooth may be used. The techniques described herein may be used not only in the networks mentioned above, but also in other networks.

본 개시의 일 실시예에 따르면, 사용자 단말(10)은 컴퓨팅 장치(100)에 엑세스하여 이미지 파일에 포함된 하나 이상의 글자 이미지에 대한 정보를 수신하거나, 또는 하나 이상의 글자 이미지에 대응하는 번역 테스트 정보를 제공하기 위한 사용자와 관련된 단말일 수 있다. 도 1에서는 단순히 컴퓨팅 장치(100)와 연계된 하나의 사용자 단말만을 예시적으로 도시하나, 본 개시에서의 컴퓨팅 장치(100)와 연계된 사용자 단말(10)은 복수 개일 수 있다. 예를 들어, 컴퓨팅 장치(100)와 연결된 복수의 사용자 단말 중 제 1 사용자 단말은 이미지 파일 내에 포함된 하나 이상의 글자 이미지에 대한 번역 텍스트 정보를 제공받기 위한 제 1 사용자에 관련한 단말일 수 있으며, 제 2 사용자 단말은 하나 이상의 글자 이미지에 대한 번역 텍스트 정보를 제공하여 리워드를 획득하기 위한 제 2 사용자에 관련한 단말일 수 있으며, 제 3 사용자 단말은 제 2 사용자가 제공한 번역 텍스트 정보가 적정한지 여부에 대한 품질 검사를 수행하는 제 3 사용자에 관련한 단말일 수 있다. 전술한 각각의 사용자 단말에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다. 즉, 본 개시에서의 사용자 단말(10)은, 컴퓨팅 장치(100)와 연결되어 다양한 서비스를 제공받기 위한 복수의 사용자 각각에 대응하여 복수 개로 구비될 수 있다.According to an embodiment of the present disclosure, the user terminal 10 accesses the computing device 100 to receive information on one or more text images included in an image file, or translation test information corresponding to one or more text images. It may be a terminal related to a user for providing a. In FIG. 1, only one user terminal connected to the computing device 100 is illustrated as an example, but there may be a plurality of user terminals 10 connected to the computing device 100 in the present disclosure. For example, among a plurality of user terminals connected to the computing device 100, the first user terminal may be a terminal related to the first user to receive translated text information for one or more text images included in the image file. 2 The user terminal may be a terminal related to a second user for obtaining a reward by providing translated text information for one or more text images, and the third user terminal is used to determine whether the translated text information provided by the second user is appropriate. It may be a terminal related to a third user who performs a quality check on the device. The detailed description of each of the user terminals described above is only an example, and the present disclosure is not limited thereto. That is, in the present disclosure, a plurality of user terminals 10 may be provided corresponding to each of a plurality of users who are connected to the computing device 100 to receive various services.

이러한 사용자 단말(10)은 컴퓨팅 장치(100)와 통신을 위하 메커니즘을 갖는 시스템에서의 임의의 형태의 엔티티(들)를 의미할 수 있다. 예를 들어, 이러한 사용자 단말(10)은 PC(personal computer), 노트북(note book), 모바일 단말기(mobile terminal), 스마트 폰(smart phone), 태블릿 PC(tablet pc) 및 웨어러블 디바이스(wearable device) 등을 포함할 수 있으며, 유/무선 네트워크에 접속할 수 있는 모든 종류의 단말을 포함할 수 있다. 또한, 사용자 단말(10)은 에이전트, API(Application Programming Interface) 및 플러그-인(Plug-in) 중 적어도 하나에 의해 구현되는 임의의 서버를 포함할 수도 있다. 또한, 사용자 단말(10)은 애플리케이션 소스 및/또는 클라이언트 애플리케이션을 포함할 수 있다.The user terminal 10 may refer to any type of entity(s) in a system having a mechanism for communicating with the computing device 100. For example, the user terminal 10 includes a personal computer (PC), a notebook (note book), a mobile terminal, a smart phone, a tablet PC, and a wearable device. And the like, and may include all types of terminals capable of accessing a wired/wireless network. In addition, the user terminal 10 may include an arbitrary server implemented by at least one of an agent, an application programming interface (API), and a plug-in. In addition, the user terminal 10 may include an application source and/or a client application.

본 개시의 일 실시예에 따르면, 외부 서버(20)는 이미지 파일에 포함된 하나 이상의 글자 이미지를 기초로 원문 텍스트 정보를 생성하기 위한 글자 인식 모델의 학습에 관련한 학습 데이터들을 저장하는 서버일 수 있다. 본 개시의 글자 인식 모델은 OCR 기초 문자 인식이 가능한 신경망 모델일 수 있다. 구체적으로, 글자 인식 모델은, 이미지 파일을 스캔하여 이미지 파일에 포함된 하나 이상의 글자 이미지를 인식하고, 하나 이상의 글자 이미지를 각각의 글자로 분류하여 하나 이상의 글자 이미지 각각이 포함하는 글자를 인식할 수 있다. 이 경우, 글자 인식 모델은 하나 이상의 네트워크 함수를 포함할 수 있으며, 하나 이상의 네트워크 함수는 딥러닝 알고리즘을 통해 학습될 수 있다. 즉, 글자 인식 모델은 이미지 파일에 존재하는 하나 이상의 글자 이미지를 인식하여 해당 하나 이상의 글자 이미지에 대응하는 원문 텍스트 정보를 생성하는 자연어 처리 모델일 수 있다.According to an embodiment of the present disclosure, the external server 20 may be a server that stores training data related to training of a character recognition model for generating original text information based on one or more character images included in an image file. . The character recognition model of the present disclosure may be a neural network model capable of OCR-based character recognition. Specifically, the character recognition model scans an image file to recognize one or more character images included in the image file, and classifies one or more character images into each character to recognize characters included in each of the at least one character image. have. In this case, the character recognition model may include one or more network functions, and one or more network functions may be learned through a deep learning algorithm. That is, the text recognition model may be a natural language processing model that recognizes one or more text images existing in an image file and generates original text information corresponding to the one or more text images.

외부 서버(20)에 저장된 정보들은 본 개시에서의 신경망을 학습시키기 위한 학습 데이터, 검증 데이터 및 테스트 데이터로 활용될 수 있다. 즉, 외부 서버(20)는 본 개시의 딥러닝 모델을 학습시키기 위한 데이터 세트에 관한 정보를 저장하고 있는 서버일 수 있다.Information stored in the external server 20 may be used as training data, verification data, and test data for training the neural network in the present disclosure. That is, the external server 20 may be a server that stores information on a data set for training the deep learning model of the present disclosure.

본 개시의 컴퓨팅 장치(100)는 외부 서버(20)로부터 다양한 카테고리의 비디오 데이터들 및 각 비디오 데이터에 관한 정보에 기초하여 학습 데이터 세트를 구축할 수 있으며, 학습 데이터 세트를 통해 하나 이상의 네트워크 함수를 포함하는 신경망 모델을 학습시킴으로써, 이미지 파일에서 하나 이상의 글자 이미지를 인식하여 원문 텍스트 정보를 생성하는 글자 인식 모델을 생성할 수 있다. 또한, 본 개시의 컴퓨팅 장치(100)는 원문 텍스트 정보에 대응하여 생성된 번역 텍스트 정보를 외부 서버(20)로 전송함으로써, 학습 데이터에 대한 증강(augmentation)을 수행할 수도 있다.The computing device 100 of the present disclosure may construct a training data set based on video data of various categories and information on each video data from the external server 20, and perform one or more network functions through the training data set. By training the included neural network model, it is possible to generate a character recognition model that recognizes one or more character images from an image file to generate original text information. In addition, the computing device 100 of the present disclosure may perform augmentation on the learning data by transmitting the translated text information generated in response to the original text information to the external server 20.

외부 서버(20)는 디지털 기기로서, 랩탑 컴퓨터, 노트북 컴퓨터, 데스크톱 컴퓨터, 웹 패드, 이동 전화기와 같이 프로세서를 탑재하고 메모리를 구비한 연산 능력을 갖춘 디지털 기기일 수 있다. 외부 서버(20)는 서비스를 처리하는 웹 서버일 수 있다. 전술한 서버의 종류는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.The external server 20 is a digital device, such as a laptop computer, a notebook computer, a desktop computer, a web pad, and a mobile phone. The external server 20 may be a web server that processes a service. The types of servers described above are only examples, and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 이미지 파일을 획득할 수 있다. 이 경우, 이미지 파일은, 하나 이상의 인식 대상 글자 이미지를 포함하는 이미지 파일일 수 있다. 글자 이미지는 하나의 글자를 포함하는 이미지일 수 있다. 예를 들어, 글자 이미지는 '나'라는 글자 하나를 포함하고 있는 이미지일 수 있다. 컴퓨팅 장치(100)는 네트워크부(110)를 통해 사용자 단말(10)로부터 이미지 파일을 수신하여 획득하거나, 카메라부(미도시)를 통한 촬영을 통해 이미지 파일을 획득할 수 있다.According to an embodiment of the present disclosure, the computing device 100 may obtain an image file. In this case, the image file may be an image file including one or more character images to be recognized. The text image may be an image including one text. For example, the text image may be an image including one letter'I'. The computing device 100 may receive and acquire an image file from the user terminal 10 through the network unit 110 or may acquire an image file through photographing through a camera unit (not shown).

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 이미지 파일에 포함된 하나 이상의 글자 이미지에 대한 변환을 수행하여 아케이드 이미지 파일을 생성함으로써, 이미지 파일 내 글자 이미지에 대한 번역 정보를 제공할 수 있다. 이 경우, 아케이드 이미지 파일은, 하나 이상의 글자 이미지가 특정 언어로 번역된 번역 텍스트 이미지로 대체된 이미지 파일을 의미할 수 있다.According to an embodiment of the present disclosure, the computing device 100 may generate an arcade image file by performing conversion on one or more text images included in the image file, thereby providing translation information for the text image in the image file. have. In this case, the arcade image file may mean an image file in which one or more text images are replaced with translated text images translated into a specific language.

보다 구체적으로, 컴퓨팅 장치(100)는 이미지 파일에 포함된 하나 이상의 글자 이미지에 인식하여 원문 텍스트 정보를 획득할 수 있다. 원문 텍스트 정보는, 하나 이상의 글자 이미지 각각에 대응하는 글자들에 대한 정보일 수 있다. 예컨대, 컴퓨팅 장치(100)는 글자 인식 모델을 활용하여 하나 이상의 글자 이미지에 대응하는 원문 텍스트 정보를 획득하거나, 또는 원문 인터페이스를 통해 사용자 단말(10)로부터 원문 텍스트 정보를 획득할 수 있다. 컴퓨팅 장치(100)는 획득한 원문 텍스트 정보의 적정성을 판별하고, 원문 텍스트 정보의 적정성이 사전 결정된 임계치 이상인 경우, 원문 텍스트 정보를 포함하는 번역 인터페이스를 생성하여 사용자 단말로 전송할 수 있다. 번역 인터페이스는, 이미지 파일 내 하나 이상의 글자에 대응하는 번역 텍스트 정보를 수신하기 위한 사용자 인터페이스로, 원문 텍스트 정보에 대한 정보를 포함할 수 있다. 다시 말해, 컴퓨팅 장치(100)가 사용자 단말(10)로 번역 인터페이스를 제공하는 경우, 번역 인터페이스는 사용자 단말(10)에 표시되어 하나 이상의 글자 이미지에 대응하는 번역 텍스트 정보를 수신하기 위한 사용자와의 상호 작용을 허용할 수 있다. 예컨대, 번역 인터페이스는 번역 텍스트 정보에 관련하여 사용자 단말(10)의 사용자와의 상호 작용을 허용하기 위한 하나 이상의 입력 영역, 또는 하나 이상의 그래픽 객체 등을 포함할 수 있다. 즉, 사용자 단말(10)은 컴퓨팅 장치(100)로부터 번역 인터페이스를 수신하여 디스플레이할 수 있으며, 사용자는 사용자 단말(10)을 통해 번역 인터페이스에 포함된 원문 텍스트 정보에 기초하여 하나 이상의 글자 이미지에 대응하는 번역 텍스트 정보를 입력할 수 있다. 이에 따라, 컴퓨팅 장치(100)는 번역 인터페이스를 통해 사용자 단말(10)로부터 하나 이상의 글자 이미지에 대응하는 번역 텍스트 정보를 수신할 수 있다. 또한, 컴퓨팅 장치(100)는 하나 이상의 글자 이미지 및 번역 텍스트 정보에 기초하여 번역 텍스트 이미지를 생성할 수 있다.More specifically, the computing device 100 may acquire original text information by recognizing one or more text images included in the image file. The original text information may be information on characters corresponding to each of one or more character images. For example, the computing device 100 may acquire original text information corresponding to one or more text images using a text recognition model, or may acquire original text information from the user terminal 10 through an original text interface. The computing device 100 may determine the appropriateness of the acquired original text information, and when the appropriateness of the original text information is greater than or equal to a predetermined threshold, generate a translation interface including the original text information and transmit it to the user terminal. The translation interface is a user interface for receiving translated text information corresponding to one or more characters in an image file, and may include information on original text information. In other words, when the computing device 100 provides a translation interface to the user terminal 10, the translation interface is displayed on the user terminal 10 to communicate with the user for receiving translated text information corresponding to one or more character images. Interaction can be allowed. For example, the translation interface may include one or more input areas for allowing interaction with the user of the user terminal 10 in relation to the translated text information, or one or more graphic objects. That is, the user terminal 10 may receive and display a translation interface from the computing device 100, and the user responds to one or more text images based on the original text information included in the translation interface through the user terminal 10. You can enter the translated text information. Accordingly, the computing device 100 may receive translated text information corresponding to one or more text images from the user terminal 10 through the translation interface. In addition, the computing device 100 may generate a translated text image based on one or more text images and translated text information.

자세히 설명하면, 컴퓨팅 장치(100)는 이미지 파일에서 하나 이상의 글자 이미지에 대응하는 글자 이미지 정보를 식별할 수 있다. 글자 이미지 정보는 이미지 파일 내에서, 하나 이상의 글자에 대응하는 좌표 정보, 색상 정보 및 폰트 정보를 포함할 수 있다. 예컨대, 글자 이미지 정보는, 이미지 내에서 하나 이상의 글자 이미지의 위치가 제 1 위치에 위치한다는 좌표 정보, 하나 이상의 글자 이미지의 배경 색상이 노란색이며, 텍스트 색상이 검정색이라는 색상 정보 및 하나 이상의 글자 이미지가 폰트 사이즈 '11'이며, 서체 '맑은 고딕'이라는 폰트 정보를 포함할 수 있다. 전술한 글자 이미지 정보에 포함된 좌표 정보, 색상 정보 및 폰트 정보에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다. 또한, 컴퓨팅 장치(100)는 번역 텍스트 이미지를 글자 이미지의 상위 레이어로 표시하여 아케이드 이미지를 생성할 수 있다. 즉, 컴퓨팅 장치(100)에 의해 생성된 아케이드 이미지는, 이미지 파일에 제 1 언어로 표시된 하나 이상의 글자 이미지가 제 2 언어의 번역 이미지로 변경된 이미지 파일일 수 있다. 이 경우, 제 1 언어는 사용자가 번역을 수행하고자 하는 시작 언어와 관련한 것일 수 있으며, 제 2 언어는 사용자가 이해하고자 하는 도착 언어와 관련한 것일 수 있다. 예컨대, 제 1 언어는 사용자가 자주 활용하지 않은 외국어일 수 있으며, 제 2 언어는 사용자가 활용하는 모국어에 관련한 언어일 수 있다.In detail, the computing device 100 may identify text image information corresponding to one or more text images in the image file. The character image information may include coordinate information, color information, and font information corresponding to one or more characters in the image file. For example, the text image information includes coordinate information indicating that the position of one or more text images is located at a first position in the image, color information indicating that the background color of one or more text images is yellow, the text color is black, and one or more text images. It is a font size of '11' and may include font information of the font'clear gothic'. The detailed description of coordinate information, color information, and font information included in the above-described text image information is only an example, and the present disclosure is not limited thereto. In addition, the computing device 100 may generate an arcade image by displaying the translated text image as an upper layer of the text image. That is, the arcade image generated by the computing device 100 may be an image file in which at least one character image displayed in the first language in the image file is changed to a translated image in the second language. In this case, the first language may be related to a starting language in which the user wants to perform translation, and the second language may be related to a destination language that the user wants to understand. For example, the first language may be a foreign language that is not frequently used by the user, and the second language may be a language related to the native language used by the user.

즉, 컴퓨팅 장치(100)는 이미지 파일 내에서 사용자가 이해하지 못하는 언어(예컨대, 외국어)로 작성된 하나 이상의 글자 이미지에 대한 번역을 수행하여 번역 텍스트 정보를 생성하고, 생성된 번역 텍스트 정보에 기초하여 이미지 파일에 대한 변환을 통해 아케이드 이미지를 생성할 수 있다. 이에 따라, 사용자는 자신에게 익숙한 언어를 통해 생성된 아케이드 이미지를 제공받을 수 있으므로, 이미지 파일 내에서 자신이 이해하지 못하는 정보들을 용이하게 획득할 수 있다. 이와 더불어, 컴퓨팅 장치(100)를 통해 생성된 아케이드 이미지는, 기존 하나 이상의 글자 이미지의 글자 이미지 정보에 기초하여 생성된 번역 이미지 정보를 포함할 수 있다. 즉, 아케이드 이미지 번역 전 이미지 내의 원문에 해당하는 글자의 표시 영역, 색상, 글자 크기, 서체 등에 기초하여 생성된 번역 이미지 정보를 포함함으로써, 번역에 관련한 정보를 획득하고자 하는 사용자에게 번역 전 이미지와 유사한 자연스러운 이미지를 제공할 수 있다.That is, the computing device 100 generates translated text information by performing translation on one or more text images written in a language (eg, a foreign language) that the user does not understand in the image file, and generates translated text information based on the generated translated text information. Arcade images can be created through conversion to image files. Accordingly, since the user may be provided with an arcade image generated through a language familiar to the user, information that the user does not understand in the image file can be easily obtained. In addition, the arcade image generated through the computing device 100 may include translated image information generated based on text image information of one or more existing text images. In other words, by including the translated image information generated based on the display area, color, font size, font, etc. of the character corresponding to the original text in the image before translation of the arcade image, It can provide a natural image.

일 실시예에서, 컴퓨팅 장치(100)는 단말 또는 서버일 수 있으며, 임의의 형태의 장치는 모두 포함할 수 있다. 컴퓨팅 장치(100)는 디지털 기기로서, 랩탑 컴퓨터, 노트북 컴퓨터, 데스크톱 컴퓨터, 웹 패드, 이동 전화기와 같이 프로세서를 탑재하고 메모리를 구비한 연산 능력을 갖춘 디지털 기기일 수 있다. 컴퓨팅 장치(100)는 서비스를 처리하는 웹 서버일 수 있다. 전술한 컴퓨팅 장치의 종류는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.In one embodiment, the computing device 100 may be a terminal or a server, and any type of device may be included. The computing device 100 is a digital device, and may be a digital device equipped with a processor, such as a laptop computer, a notebook computer, a desktop computer, a web pad, and a mobile phone, and equipped with a memory and a computing capability. The computing device 100 may be a web server that processes a service. The types of computing devices described above are only examples, and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 클라우드 컴퓨팅 서비스를 제공하는 서버일 수 있다. 보다 구체적으로, 컴퓨팅 장치(100)는 인터넷 기초 컴퓨팅의 일종으로 정보를 사용자의 컴퓨터가 아닌 인터넷에 연결된 다른 컴퓨터로 처리하는 클라우드 컴퓨팅 서비스를 제공하는 서버일 수 있다. 상기 클라우드 컴퓨팅 서비스는 인터넷 상에 자료를 저장해 두고, 사용자가 필요한 자료나 프로그램을 자신의 컴퓨터에 설치하지 않고도 인터넷 접속을 통해 언제 어디서나 이용할 수 있는 서비스일 수 있으며, 인터넷 상에 저장된 자료들을 간단한 조작 및 클릭으로 쉽게 공유하고 전달할 수 있다. 또한, 클라우드 컴퓨팅 서비스는 인터넷 상의 서버에 단순히 자료를 저장하는 것뿐만 아니라, 별도로 프로그램을 설치하지 않아도 웹에서 제공하는 응용프로그램의 기능을 이용하여 원하는 작업을 수행할 수 있으며, 여러 사람이 동시에 문서를 공유하면서 작업을 진행할 수 있는 서비스일 수 있다. 또한, 클라우드 컴퓨팅 서비스는 IaaS(Infrastructure as a Service), PaaS(Platform as a Service), SaaS(Software as a Service), 가상 머신 기초 클라우드 서버 및 컨테이너 기초 클라우드 서버 중 적어도 하나의 형태로 구현될 수 있다. 즉, 본 개시의 컴퓨팅 장치(100)는 상술한 클라우드 컴퓨팅 서비스 중 적어도 하나의 형태로 구현될 수 있다. 전술한 클라우드 컴퓨팅 서비스의 구체적인 기재는 예시일 뿐, 본 개시의 클라우드 컴퓨팅 환경을 구축하는 임의의 플랫폼을 포함할 수도 있다.According to an embodiment of the present disclosure, the computing device 100 may be a server providing a cloud computing service. More specifically, the computing device 100 may be a server that provides a cloud computing service that processes information with another computer connected to the Internet, not a user's computer, as a type of Internet basic computing. The cloud computing service may be a service that stores data on the Internet and can be used anytime, anywhere through an Internet connection without having to install data or programs required by a user on his or her computer. It can be easily shared and delivered with a click. In addition, the cloud computing service not only simply stores data on a server on the Internet, but also allows users to perform desired tasks using the functions of an application program provided on the web without installing a separate program. It may be a service that allows you to work while sharing. In addition, the cloud computing service may be implemented in at least one of an infrastructure as a service (IaaS), a platform as a service (PaaS), a software as a service (SaaS), a virtual machine-based cloud server, and a container-based cloud server. . That is, the computing device 100 of the present disclosure may be implemented in the form of at least one of the above-described cloud computing services. The detailed description of the cloud computing service described above is merely an example, and may include any platform for constructing the cloud computing environment of the present disclosure.

본 개시에서의 이미지 파일 내에 존재하는 텍스트에 대한 변환을 수행하여 아케이드 이미지를 생성하는 방법에 대한 구체적인 구성 및 이에 따른 효과는 도 2를 참조하여 후술하도록 한다.A detailed configuration of a method of generating an arcade image by performing conversion on text existing in an image file in the present disclosure and effects thereof will be described later with reference to FIG. 2.

도 2는 본 개시의 일 실시예와 관련한 이미지 파일 내에 존재하는 텍스트에 대한 변환을 수행하여 아케이드 이미지를 생성하기 위한 컴퓨팅 장치의 블록 구성도를 도시한다.2 is a block diagram of a computing device for generating an arcade image by performing conversion on text existing in an image file according to an embodiment of the present disclosure.

도 2에 도시된 바와 같이, 컴퓨팅 장치(100)는 네트워크부(110), 메모리(120) 및 프로세서(130)를 포함할 수 있다. 전술한 컴퓨팅 장치(100)에 포함된 컴포넌트들은 예시적인 것으로 본 개시내용의 권리범위가 전술한 컴포넌트들로 제한되지 않는다. 즉, 본 개시내용의 실시예들에 대한 구현 양태에 따라서 추가적인 컴포넌트들이 포함되거나 전술한 컴포넌트들 중 일부가 생략될 수 있다.As shown in FIG. 2, the computing device 100 may include a network unit 110, a memory 120, and a processor 130. Components included in the above-described computing device 100 are exemplary, and the scope of the present disclosure is not limited to the above-described components. That is, additional components may be included or some of the above-described components may be omitted according to implementation aspects of the embodiments of the present disclosure.

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 사용자 단말(10) 및 외부 서버(20)와 데이터를 송수신하는 네트워크부(110)를 포함할 수 있다. 네트워크부(110)는 본 개시의 일 실시예에 따른 이미지 파일에 존재하는 텍스트에 대한 변환을 수행하여 아케이드 이미지를 생성하기 위한 방법을 수행하기 위한 데이터들 및 신경망 모델을 학습시키기 위한 학습 데이터 세트 등을 다른 컴퓨팅 장치, 서버 등과 송수신할 수 있다. 즉, 네트워크부(110)는 컴퓨팅 장치(100)와 사용자 단말(10) 및 외부 서버(20) 간의 통신 기능을 제공할 수 있다. 예를 들어, 네트워크부(110)는 사용자 단말(10)로부터 원문 텍스트 정보, 번역 텍스트 정보 및 각 텍스트 정보의 적정성 판별에 기준이 되는 평가 정보 등을 수신할 수 있다. 다른 예를 들어, 네트워크부(110)는 외부 서버(20)로부터 본 개시의 글자 인식 모델을 학습시키기 위한 학습 데이터 세트를 수신할 수 있다. 추가적으로, 네트워크부(110)는 컴퓨팅 장치(100)로 프로시저를 호출하는 방식으로 컴퓨팅 장치(100)와 사용자 단말(10) 및 외부 서버(20) 간의 정보 전달을 허용할 수 있다.According to an embodiment of the present disclosure, the computing device 100 may include a user terminal 10 and a network unit 110 that transmits and receives data to and from the external server 20. The network unit 110 converts text existing in an image file according to an embodiment of the present disclosure to perform a method for generating an arcade image and a training data set for training a neural network model Can be transmitted and received with other computing devices, servers, etc. That is, the network unit 110 may provide a communication function between the computing device 100 and the user terminal 10 and the external server 20. For example, the network unit 110 may receive original text information, translated text information, and evaluation information that is a criterion for determining the appropriateness of each text information from the user terminal 10. For another example, the network unit 110 may receive a training data set for training the character recognition model of the present disclosure from the external server 20. Additionally, the network unit 110 may allow information transfer between the computing device 100 and the user terminal 10 and the external server 20 by calling a procedure to the computing device 100.

본 개시의 일 실시예에 따른 네트워크부(110)는 공중전화 교환망(PSTN: Public Switched Telephone Network), xDSL(x Digital Subscriber Line), RADSL(Rate Adaptive DSL), MDSL(Multi Rate DSL), VDSL(Very High Speed DSL), UADSL(Universal Asymmetric DSL), HDSL(High Bit Rate DSL) 및 근거리 통신망(LAN) 등과 같은 다양한 유선 통신 시스템들을 사용할 수 있다.The network unit 110 according to an embodiment of the present disclosure includes a public switched telephone network (PSTN), x Digital Subscriber Line (xDSL), Rate Adaptive DSL (RADSL), Multi Rate DSL (MDSL), and VDSL ( Various wired communication systems such as Very High Speed DSL), Universal Asymmetric DSL (UADSL), High Bit Rate DSL (HDSL), and local area network (LAN) can be used.

또한, 본 명세서에서 제시되는 네트워크부(110)는 CDMA(Code Division Multi Access), TDMA(Time Division Multi Access), FDMA(Frequency Division Multi Access), OFDMA(Orthogonal Frequency Division Multi Access), SC-FDMA(Single Carrier-FDMA) 및 다른 시스템들과 같은 다양한 무선 통신 시스템들을 사용할 수 있다.In addition, the network unit 110 presented in the present specification includes Code Division Multi Access (CDMA), Time Division Multi Access (TDMA), Frequency Division Multi Access (FDMA), Orthogonal Frequency Division Multi Access (OFDMA), and SC-FDMA ( Single Carrier-FDMA) and various wireless communication systems can be used.

본 개시에서 네트워크부(110)는 유선 및 무선 등과 같은 그 통신 양태를 가리지 않고 구성될 수 있으며, 단거리 통신망(PAN: Personal Area Network), 근거리 통신망(WAN: Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 또한, 상기 네트워크는 공지의 월드와이드웹(WWW: World Wide Web)일 수 있으며, 적외선(IrDA: Infrared Data Association) 또는 블루투스(Bluetooth)와 같이 단거리 통신에 이용되는 무선 전송 기술을 이용할 수도 있다. 본 명세서에서 설명된 기술들은 위에서 언급된 네트워크들뿐만 아니라, 다른 네트워크들에서도 사용될 수 있다.In the present disclosure, the network unit 110 may be configured regardless of its communication mode, such as wired and wireless, and may be configured with various communication networks such as a short-range communication network (PAN) and a local area network (WAN). I can. In addition, the network may be a known World Wide Web (WWW), and a wireless transmission technology used for short-range communication such as infrared (IrDA) or Bluetooth may be used. The techniques described herein may be used not only in the networks mentioned above, but also in other networks.

본 개시의 일 실시예에 따르면, 메모리(120)는 본 개시의 일 실시예에 따른 이미지 파일 내 존재하는 텍스트에 대한 변환을 수행하여 아케이드 이미지를 생성하기 위한 방법을 수행하기 위한 컴퓨터 프로그램을 저장할 수 있으며, 저장된 컴퓨터 프로그램은 프로세서(130)에 의하여 판독되어 구동될 수 있다. 또한, 메모리(120)는 프로세서(130)가 생성하거나 결정한 임의의 형태의 정보 및 네트워크부(110)가 수신한 임의의 형태의 정보를 저장할 수 있다. 또한, 메모리(120)는 단일 이미지 데이터에 관련한 정보들을 저장할 수 있다. 예를 들어, 메모리(120)는 입/출력되는 데이터들(예를 들어, 하나 이상의 글자 이미지에 대응하는 원문 텍스트 정보, 하나 이상의 글자 이미지에 대응하는 번역 텍스트 정보 및 번역 텍스트 정보에 대응하는 번역 이미지가 반영됨에 따라 생성되는 아케이드 이미지 등)을 임시 또는 영구 저장할 수 있다.According to an embodiment of the present disclosure, the memory 120 may store a computer program for performing a method for generating an arcade image by performing conversion on text existing in an image file according to an embodiment of the present disclosure. In addition, the stored computer program may be read and driven by the processor 130. In addition, the memory 120 may store information in any form generated or determined by the processor 130 and information in any form received by the network unit 110. Also, the memory 120 may store information related to single image data. For example, the memory 120 includes input/output data (eg, original text information corresponding to one or more character images, translation text information corresponding to one or more character images, and translation image corresponding to the translated text information). The arcade image, etc., which is generated as is reflected) can be temporarily or permanently stored.

본 개시의 일 실시예에 따르면, 메모리(120)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 컴퓨팅 장치(100)는 인터넷(internet) 상에서 상기 메모리(120)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다. 전술한 메모리에 대한 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.According to an embodiment of the present disclosure, the memory 120 is a flash memory type, a hard disk type, a multimedia card micro type, and a card type memory (for example, SD or XD memory), RAM (Random Access Memory, RAM), SRAM (Static Random Access Memory), ROM (Read-Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read) -Only Memory), magnetic memory, magnetic disk, and optical disk. The computing device 100 may operate in connection with a web storage that performs a storage function of the memory 120 on the Internet. The description of the above-described memory is only an example, and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따르면, 프로세서(130)는 하나 이상의 코어로 구성될 수 있으며, 서버의 중앙 처리 장치(CPU: central processing unit), 범용 그래픽 처리 장치(GPGPU: general purpose graphics processing unit), 텐서 처리 장치(TPU: tensor processing unit) 등의 데이터 분석, 딥러닝을 위한 프로세서를 포함할 수 있다.According to an embodiment of the present disclosure, the processor 130 may be composed of one or more cores, and a central processing unit (CPU) of a server, a general purpose graphics processing unit (GPGPU), It may include a processor for data analysis and deep learning, such as a tensor processing unit (TPU).

프로세서(130)는 메모리(120)에 저장된 컴퓨터 프로그램을 판독하여 본 개시의 일 실시예에 따른 딥러닝을 위한 데이터 처리를 수행할 수 있다. 본 개시의 일 실시예에 따라 프로세서(130)는 신경망의 학습을 위한 연산을 수행할 수 있다. 프로세서(130)는 딥러닝(DL: deep learning)에서 학습을 위한 입력 데이터의 처리, 입력 데이터에서의 피처 추출, 오차 계산, 역전파(backpropagation)를 이용한 신경망의 가중치 업데이트 등의 신경망의 학습을 위한 계산을 수행할 수 있다.The processor 130 may read a computer program stored in the memory 120 to process data for deep learning according to an embodiment of the present disclosure. According to an embodiment of the present disclosure, the processor 130 may perform an operation for learning a neural network. The processor 130 processes input data for learning in deep learning (DL), extracts features from the input data, calculates errors, and uses backpropagation to update the weights of the neural network. You can perform calculations.

또한, 프로세서(130)는 CPU, GPGPU, 및 TPU 중 적어도 하나가 네트워크 함수의 학습을 처리할 수 있다. 예를 들어, CPU 와 GPGPU가 함께 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류를 처리할 수 있다. 또한, 본 개시의 일 실시예에서 복수의 컴퓨팅 장치의 프로세서를 함께 사용하여 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류를 처리할 수 있다. 또한, 본 개시의 일 실시예에 따른 컴퓨팅 장치에서 수행되는 컴퓨터 프로그램은 CPU, GPGPU 또는 TPU 실행가능 프로그램일 수 있다.In addition, the processor 130 may process learning of a network function by at least one of a CPU, a GPGPU, and a TPU. For example, the CPU and GPGPU can work together to learn network functions and classify data using network functions. In addition, in an embodiment of the present disclosure, learning of a network function and data classification using a network function may be processed by using processors of a plurality of computing devices together. In addition, the computer program executed in the computing device according to an embodiment of the present disclosure may be a CPU, a GPGPU, or a TPU executable program.

본 명세서에서 네트워크 함수는 인공 신경망, 뉴럴 네트워크와 상호 교환 가능하게 사용될 수 있다. 본 명세서에서 네트워크 함수는 하나 이상의 뉴럴 네트워크를 포함할 수도 있으며, 이 경우 네트워크 함수의 출력은 하나 이상의 뉴럴 네트워크의 출력의 앙상블(ensemble)일 수 있다.In the present specification, the network function may be used interchangeably with an artificial neural network or a neural network. In the present specification, the network function may include one or more neural networks, and in this case, the output of the network function may be an ensemble of outputs of one or more neural networks.

프로세서(130)는 메모리(120)에 저장된 컴퓨터 프로그램을 판독하여 본 개시의 일 실시예에 따른 글자 인식 모델을 제공할 수 있다. 본 개시의 일 실시예에 따라, 프로세서(130)는 하나 이상의 글자 이미지로부터 원문 텍스트 정보를 획득하기 위한 계산을 수행할 수 있다. 본 개시의 일 실시예에 따라 프로세서(130)는 글자 인식 모델을 학습시키기 위한 계산을 수행할 수 있다.The processor 130 may provide a character recognition model according to an embodiment of the present disclosure by reading a computer program stored in the memory 120. According to an embodiment of the present disclosure, the processor 130 may perform calculation to obtain original text information from one or more character images. According to an embodiment of the present disclosure, the processor 130 may perform calculation for training a character recognition model.

본 개시의 일 실시예에 따르면, 프로세서(130)는 통상적으로 컴퓨팅 장치(100)의 전반적인 동작을 처리할 수 있다. 프로세서(130)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(120)에 저장된 응용 프로그램을 구동함으로써, 사용자 단말에게 적정한 정보 또는, 기능을 제공하거나 처리할 수 있다.According to an embodiment of the present disclosure, the processor 130 may typically process the overall operation of the computing device 100. The processor 130 may provide or process appropriate information or functions to the user terminal by processing signals, data, information, etc. that are input or output through the above-described components, or by running an application program stored in the memory 120. have.

본 개시의 일 실시예에 따르면, 프로세서(130)는 이미지 파일을 획득할 수 있다. 이 경우, 이미지 파일은 네트워크부(110)를 통해 사용자 단말(10)로부터 획득된 것일 수 있다. 이미지 파일은, 사용자 단말(10)에서 캡쳐되는 이미지에 관련한 파일이거나 또는 사용자 단말(10)에 구비된 카메라 모듈을 통해 촬영된 이미지에 관련한 파일일 수 있다. 또한, 이미지 파일은, 하나 이상의 인식 대상 글자 이미지를 포함하는 파일일 수 있다. 글자 이미지는 다양한 언어 텍스트로 작성된 하나 이상의 글자를 포함하는 이미지일 수 있다. 예를 들어, 글자 이미지는 '나'라는 글자(즉, 한국어로 작성된 글자) 하나를 포함하고 있는 이미지일 수 있다. 추가적인 실시예에서, 컴퓨팅 장치(100)는 별도의 카메라부(미도시)를 더 포함할 수 있으며, 해당 카메라부를 통한 촬영을 통해 이미지 파일을 획득할 수도 있다.According to an embodiment of the present disclosure, the processor 130 may obtain an image file. In this case, the image file may be obtained from the user terminal 10 through the network unit 110. The image file may be a file related to an image captured by the user terminal 10 or a file related to an image captured through a camera module provided in the user terminal 10. Also, the image file may be a file including one or more images of characters to be recognized. The character image may be an image including one or more characters written in various language texts. For example, the character image may be an image including one character of'I' (ie, a character written in Korean). In an additional embodiment, the computing device 100 may further include a separate camera unit (not shown), and may acquire an image file through photographing through the corresponding camera unit.

본 개시의 일 실시예에 따르면, 프로세서(130)는 이미지 파일에 포함된 하나 이상의 글자 이미지를 인식하여 원문 텍스트 정보를 획득할 수 있다. 원문 텍스트 정보는, 하나 이상의 글자 이미지 각각에 대응하는 글자들에 대한 정보일 수 있다. 예를 들어, 프로세서(130)는 제 1 이미지 파일 내 포함된 하나 이상의 글자 이미지를 인식하여 '오돌뼈'라는 원문 텍스트 정보를 획득할 있다. 다른 예를 들어, 프로세서(130)는 제 2 이미지 파일 내 포함된 하나 이상의 글자 이미지를 인식하여 '양깃머리는 소의 첫번째 위 부위로 담백한 맛이 일품입니다'라는 원문 텍스트 정보를 획득할 수 있다. 프로세서(130)는 글자 인식 모델을 활용하여 하나 이상의 글자 이미지에 대응하는 원문 텍스트 정보를 획득하거나, 또는 원문 인터페이스를 통해 사용자 단말(10)로부터 원문 텍스트 정보를 획득할 수 있다. 전술한 원문 텍스트 정보에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.According to an embodiment of the present disclosure, the processor 130 may obtain original text information by recognizing one or more text images included in an image file. The original text information may be information on characters corresponding to each of one or more character images. For example, the processor 130 may recognize one or more text images included in the first image file to obtain original text information called'Odolbone'. For another example, the processor 130 may recognize one or more text images included in the second image file to obtain original text information such that'the head of both feathers is the first upper part of the cow and the light taste is excellent. The processor 130 may acquire original text information corresponding to one or more text images using a text recognition model, or acquire original text information from the user terminal 10 through an original text interface. The detailed description of the above-described original text information is only an example, and the present disclosure is not limited thereto.

자세히 설명하면, 프로세서(130)는 하나 이상의 네트워크 함수를 포함하는 글자 인식 모델을 통해 이미지 파일 내에 포함된 하나 이상의 글자 이미지에 대응하는 원문 텍스트 정보를 획득할 수 있다. 프로세서(130)는 이미지 파일에 포함된 하나 이상의 글자 이미지를 글자 인식 모델을 통해 각각의 글자로 분류하여 하나 이상의 글자 이미지 각각이 포함하는 글자를 인식할 수 있다. 프로세서(130)는 외부 서버(20)를 통해 글자 인식 모델을 학습시키기 위한 학습 데이터를 수신하고, 그리고 수신한 학습 데이터를 활용하여 하나 이상의 네트워크 함수에 대한 학습을 수행함으로써, 하나 이상의 글자 이미지에 대응하여 원문 텍스트 정보를 생성하는 글자 인식 모델을 생성할 수 있다. 즉, 글자 인식 모델은 하나 이상의 네트워크 함수를 포함할 수 있으며, 하나 이상의 네트워크 함수는 딥러닝 알고리즘을 통해 학습될 수 있다. 프로세서(130)는 이미지 파일에 대한 글자 세그멘테이션(segmentation)을 수행할 수 있으며, 글자 각각에 대한 세그멘테이션을 수행할 수 있다. 즉, 프로세서(130)는 이미지 파일 내 포함된 하나 이상의 글자 이미지를 인식할 수 있다.In detail, the processor 130 may obtain original text information corresponding to one or more text images included in an image file through a text recognition model including one or more network functions. The processor 130 may recognize a character included in each of the one or more character images by classifying one or more character images included in the image file into each character through a character recognition model. The processor 130 responds to one or more text images by receiving training data for training a character recognition model through the external server 20, and learning about one or more network functions using the received training data Thus, it is possible to create a character recognition model that generates original text information. That is, the character recognition model may include one or more network functions, and one or more network functions may be learned through a deep learning algorithm. The processor 130 may perform character segmentation on an image file, and may perform segmentation on each character. That is, the processor 130 may recognize one or more text images included in the image file.

자세한 예를 들어, 프로세서(130)는 글자 인식 모델을 통해 글자 이미지의 피처를 추출하여, 하나 이상의 클래스 각각에 대한 스코어를 추출할 수 있다. 클래스는, 글자 이미지가 의미하는 글자일 수 있다. 예를 들어, 하나 이상의 클래스 각각은, 가, 나, 다, 라 등일 수 있다. 프로세서(130)는 글자 이미지의 클래스 각각에 대한 스코어 값에 기초하여 글자 이미지를 글자로 분류할 수 있다. 프로세서(130)는 글자 인식 모델을 통하여 글자 이미지를 연산한 결과, 가장 높은 스코어 값을 가지는 클래스로 글자 이미지를 분류하여 하나 이상의 글자 이미지 각각이 포함하는 글자를 결정함으로써, 하나 이상의 글자 이미지에 대응하는 원문 텍스트 정보를 획득할 수 있다. 전술한 글자 이미지의 클래스에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.For example, the processor 130 may extract a feature of a character image through a character recognition model and extract a score for each of one or more classes. The class may be a character that a character image means. For example, each of the one or more classes may be a, a, a, a, a, etc. The processor 130 may classify the character image as a character based on the score value for each class of the character image. As a result of calculating the character image through the character recognition model, the processor 130 classifies the character image into a class having the highest score value, and determines a character included in each of the at least one character image. Original text information can be obtained. The detailed description of the class of the character image described above is only an example, and the present disclosure is not limited thereto.

또한, 프로세서(130)는 원문 인터페이스를 통해 사용자 단말(10)로부터 원문 텍스트 정보를 획득할 수 있다. 구체적으로, 프로세서(130)는 이미지 파일에 포함된 하나 이상의 글자 이미지를 포함하는 원문 인터페이스(200)를 생성하여 사용자 단말(10)에 전송할 것을 결정할 수 있다. 원문 인터페이스(200)는, 사용자로부터 하나 이상의 글자 이미지에 대응하는 원문 텍스트 정보를 획득하기 위해 사용자 단말(10)에 표시되는 사용자 인터페이스일 수 있다. 이러한 원문 인터페이스(200)는 특정 언어 텍스트로 구성된 하나 이상의 글자 이미지를 포함할 수 있다. Also, the processor 130 may obtain the original text information from the user terminal 10 through the original text interface. Specifically, the processor 130 may determine to generate the original text interface 200 including one or more text images included in the image file and transmit it to the user terminal 10. The original text interface 200 may be a user interface displayed on the user terminal 10 to obtain original text information corresponding to one or more text images from a user. The original text interface 200 may include one or more text images composed of text in a specific language.

프로세서(130)가 원문 인터페이스(200)를 제공하는 사용자 단말(10)은, 컴퓨팅 장치(100)에 연계된 서버에 접속 중이거나, 또는 컴퓨팅 장치와 연계된 서버에 가입한 복수의 사용자 단말 중 적어도 하나의 사용자 단말일 수 있다. 다시 말해, 프로세서(130)는 컴퓨팅 장치(100)와 연계된 복수의 사용자 단말 중 원문 인터페이스(200)를 전송할 사용자 단말을 결정함으로써, 해당 사용자 단말로부터 하나 이상의 글자 이미지에 대응하는 원문 텍스트 정보를 획득할 수 있다. 이 경우, 프로세서(130)가 원문 인터페이스(200)를 전송할 단말로 결정(또는 선별)하는 사용자 단말(즉, 원문 텍스트 정보를 획득하고자 하는 사용자 단말들)은 하나 이상의 글자 이미지에 관련한 언어를 활용 가능한 사용자에 관련한 단말일 수 있다. 예를 들어, 제 1 사용자 단말이 영어를 모국어로 활용하는 사용자에 관련한 단말인 경우, 프로세서(130)는 영어에 대응하는 글자 이미지들을 포함하는 원문 인터페이스(200)를 해당 제 1 사용자 단말로 전송할 것을 결정할 수 있다. 다른 예를 들어, 제 2 사용자 단말이 한국어를 모국어 활용하는 사용자에 관련한 단말인 경우, 프로세서(130)는 한국어에 대응하는 글자 이미지들을 포함하는 원문 인터페이스(200)를 해당 제 2 사용자 단말로 전송할 것을 결정할 수 있다. 전술한 각 사용자 단말에 관련한 언어에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.The user terminal 10 to which the processor 130 provides the original text interface 200 is at least one of a plurality of user terminals that are connected to a server linked to the computing device 100 or subscribed to a server linked to the computing device. It may be one user terminal. In other words, the processor 130 obtains original text information corresponding to one or more text images from the user terminal by determining a user terminal to which the original text interface 200 is to be transmitted, among a plurality of user terminals linked to the computing device 100. can do. In this case, the user terminal for which the processor 130 determines (or selects) the terminal to which the original text interface 200 is to be transmitted (ie, user terminals for obtaining the original text information) can utilize a language related to one or more text images. It may be a terminal related to a user. For example, if the first user terminal is a terminal related to a user using English as a native language, the processor 130 may transmit the original text interface 200 including text images corresponding to English to the corresponding first user terminal. You can decide. For another example, when the second user terminal is a terminal related to a user who uses Korean as a native language, the processor 130 requests to transmit the original text interface 200 including text images corresponding to Korean to the corresponding second user terminal. You can decide. The detailed description of the language related to each user terminal described above is only an example, and the present disclosure is not limited thereto.

추가적인 실시예에서, 프로세서(130)는 컴퓨팅 장치(100)와 연계된 복수의 사용자 단말 각각의 참여 이력 정보 또는 언어 숙련도에 기초하여 복수의 사용자 단말 각각에 원문 인터페이스(200)가 노출되는 정도(즉, 원문 인터페이스가 제공되는 횟수)를 결정할 수 있다. 예컨대, 참여 이력 정보 및 언어 숙련도는 각 사용자 단말의 활동 정보 또는 개인 정보를 통해 식별될 수 있다. 구체적으로, 프로세서(130)는 복수의 사용자 단말 각각의 기존 참여 이력 정보 또는 언어 숙련도에 기초하여 복수의 사용자 단말 중 원문 인터페이스(200)를 통해 원문 텍스트 정보를 획득하기 위한 하나 이상의 사용자 단말(10)을 결정할 수 있다. 예를 들어, 제 1 사용자 단말의 참여 이력 정보가 기존 참여 횟수(즉, 과거 시점에 원문 인터페이스를 통한 사용자 단말의 응답 횟수)가 10회 라는 정보를 포함하며, 제 2 사용자 단말의 참여 이력 정보가 기존 참여 횟수가 20회 라는 정보를 포함하는 경우, 프로세서(130)는 제 2 사용자 단말 보다 제 1 사용자 단말에 원문 인터페이스(200)가 노출되는 횟수 증가하거나 또는 노출 시간 주기를 짧게 결정할 수 있다. 다른 예를 들어, 제 3 사용자 단말이 제 4 사용자 단말 보다 특정 언어인 '영어'에 대한 언어 숙련도가 높은 경우, 프로세서(130)는 제 4 사용자 단말 보다 제 3 사용자 단말에 원문 인터페이스(200)가 노출되는 횟수를 증가시키거나 또는 노출 시간 주기를 짧게 결정할 수 있다. 전술한 각 사용자 단말의 참여 이력 정보 또는 언어 숙련도에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다. In a further embodiment, the processor 130 is based on the participation history information or language proficiency of each of the plurality of user terminals associated with the computing device 100, the extent to which the original text interface 200 is exposed to each of the plurality of user terminals (i.e. , The number of times the original text interface is provided) can be determined. For example, participation history information and language proficiency may be identified through activity information or personal information of each user terminal. Specifically, the processor 130 is one or more user terminals 10 for acquiring original text information through the original text interface 200 among a plurality of user terminals based on the existing participation history information or language proficiency level of each of the plurality of user terminals. Can be determined. For example, the participation history information of the first user terminal includes information that the number of existing participation (that is, the number of responses of the user terminal through the original text interface in the past) is 10, and the participation history information of the second user terminal is When the information that the existing number of participation is 20 is included, the processor 130 may increase the number of times the original text interface 200 is exposed to the first user terminal rather than the second user terminal or determine a shorter exposure time period. For another example, if the third user terminal has a higher language proficiency for'English', which is a specific language than the fourth user terminal, the processor 130 may have the original text interface 200 on the third user terminal rather than the fourth user terminal. You can increase the number of exposures or shorten the exposure time period. The detailed description of the participation history information or language proficiency level of each user terminal described above is only an example, and the present disclosure is not limited thereto.

다시 말해, 프로세서(130)는 과거 참여 이력이 많은 사용자 단말(즉, 참여율이 높은 사용자 단말) 또는 언어 숙력도가 보다 높은 사용자 단말에 원문 인터페이스(200)가 다수 회 노출되도록 결정할 수 있다. 즉, 과거 참여 이력이 많거나 또는 특정 언어에 대한 언어 숙련도가 높은 사용자 단말일수록 원문 인터페이스를 수신할 확률이 증가할 수 있다. 이에 따라, 하나 이상의 글자 이미지에 대응하는 원문 텍스트 정보 수신의 응답률이 향상될 수 있다.In other words, the processor 130 may determine to expose the original text interface 200 to a user terminal having a large participation history (ie, a user terminal having a high participation rate) or a user terminal having a higher language proficiency level. That is, the probability of receiving the original text interface may increase as a user terminal with a large past participation history or a high language proficiency for a specific language increases. Accordingly, a response rate of receiving original text information corresponding to one or more character images may be improved.

보다 구체적으로, 도 3을 참조하면, 원문 인터페이스(200)는, 원문 안내 정보 표시 영역(210), 글자 이미지 표시 영역(220), 원문 텍스트 입력 영역(230), 이미지 건너뛰기 그래픽 객체(240) 및 선택 저장 그래픽 객체(250)를 포함할 수 있다.More specifically, referring to FIG. 3, the original text interface 200 includes an original text guide information display area 210, a text image display area 220, an original text input area 230, and an image skipping graphic object 240. And a selective storage graphic object 250.

원문 인터페이스(200)에 포함된 원문 안내 정보 표시 영역(210)은, 해당 인터페이스에 관련한 안내 정보가 표시되는 영역일 수 있다. 예컨대, 도 3에 도시된 바와 같이, "박스 속 글자를 읽고 똑같이 써주세요"와 같이 한국어로 구성된 텍스트 정보가 표시될 수 있다. 이 경우, 원문 안내 정보 표시 영역(210)에 표시되는 텍스트 정보는 하나 이상의 글자 이미지에 대응하는 언어로 표시될 수 있다. 예를 들어, 하나 이상의 글자 이미지가 한국어에 관련한 경우, 원문 안내 정보 표시 영역(210)에 표시되는 텍스트 정보는 해당 글자 이미지에 대응하는 한국어에 관련한 텍스트일 수 있으며, 하나 이상의 글자 이미지가 중국어에 관련한 경우, 원문 안내 정보 표시 영역(210)에 표시되는 텍스트 정보는 해당 글자 이미지에 대응하는 중국어에 관련한 텍스트일 수 있다. 또한, 원문 안내 정보 표시 영역(210)은 원문 텍스트 정보에 관련한 사용자의 입력에 관련하여 발생하는 리워드에 관한 정보를 포함할 수 있다. 여기서 리워드는, 원문 인터페이스(200)를 통해 원문 텍스트 정보에 관련한 입력에 따라 사용자 단말(10)의 사용자에게 제공되는 보상에 관한 정보일 수 있다. 예컨대, 사용자의 입력에 관련하여 발생하는 리워드에 관한 정보는 도 3에 도시된 바와 같이, '10P'일 수 있다. 이러한 리워드는, 프로세서(130)에 의해 산출될 수 있다. 구체적으로, 프로세서(130)는 하나 이상의 글자 이미지의 수에 기초하여 리워드를 산출할 수 있다. 예를 들어, 원문 텍스트 정보의 획득에 관련한 하나 이상의 글자 이미지의 수가 5개인 경우, 프로세서(130)는 사용자 단말에 제공될 리워드를 '12P'로 산출할 수 있다. 다른 예를 들어, 원문 텍스트 정보의 획득에 관련한 하나 이상의 글자 이미지의 수가 10개인 경우, 프로세서(130)는 사용자 단말에 제공될 리워드를 '20P'로 산출할 수 있다. 즉, 프로세서(130)는 하나 이상의 글자 이미지의 수에 기초하여, 글자 이미지에 대응하여 입력해야할 원문 텍스트가 보다 적을 것으로 예상되는 경우, 발생하는 리워드를 보다 적게 산출하고, 그리고 해당 이미지에 대응하는 원문 텍스트가 보다 많을 것으로 예상되는 경우, 발생하는 리워드를 보다 많게 산출할 수 있다. 즉, 원문 텍스트를 입력하는 사용자의 노력의 정도에 따라 상이한 리워드를 할당함으로써, 사용자들의 자발적인 참여를 유도할 수 있으며, 오락적 흥미 요소를 제공할 수 있다.The original guide information display area 210 included in the original text interface 200 may be an area in which guide information related to a corresponding interface is displayed. For example, as shown in FIG. 3, text information composed of Korean may be displayed such as "Please read and write the same characters in the box". In this case, text information displayed on the original guide information display area 210 may be displayed in a language corresponding to one or more text images. For example, when one or more character images are related to Korean, text information displayed on the original guide information display area 210 may be text related to Korean corresponding to the corresponding character image, and at least one character image is related to Chinese. In this case, the text information displayed on the original guide information display area 210 may be text related to Chinese corresponding to the corresponding character image. In addition, the original text guide information display area 210 may include information on rewards generated in relation to a user's input related to the original text information. Here, the reward may be information on a reward provided to the user of the user terminal 10 according to an input related to the original text information through the original text interface 200. For example, information on a reward generated in relation to a user's input may be '10P' as shown in FIG. 3. These rewards may be calculated by the processor 130. Specifically, the processor 130 may calculate a reward based on the number of one or more character images. For example, when the number of one or more character images related to the acquisition of original text information is 5, the processor 130 may calculate a reward to be provided to the user terminal as '12P'. For another example, when the number of one or more character images related to the acquisition of original text information is 10, the processor 130 may calculate a reward to be provided to the user terminal as '20P'. That is, based on the number of one or more character images, when it is expected that there are fewer original texts to be input corresponding to the character images, the processor 130 calculates less rewards, and If more text is expected, more rewards can be calculated. That is, by allocating different rewards according to the level of the user's effort to input the original text, it is possible to induce voluntary participation of users and provide an element of entertainment interest.

다시 말해, 사용자 단말의 사용자는 원문 안내 정보 표시 영역(210)에 표시된 텍스트 정보를 통해 원문 인터페이스(200)를 통한 원문 텍스트 정보 입력 방법 및 그에 따른 리워드에 관한 안내 정보를 제공받을 수 있다.In other words, a user of the user terminal may be provided with guide information regarding a method of inputting original text information through the original text interface 200 and a reward according to the text information displayed on the original text guide information display area 210.

원문 인터페이스(200)에 포함된 이미지 표시 영역(220)은, 하나 이상의 글자 이미지가 표시되는 영역일 수 있다. 여기서, 이미지 표시 영역(220)에 표시되는 하나 이상의 글자 이미지는, 사용자가 원문 텍스트 입력 영역(230)에 텍스트를 입력하기 위한 기준이 되는 이미지일 수 있다. 또한, 하나 이상의 글자 이미지는, 사용자 단말(10)에 구비된 카메라 모듈을 통해 획득한 이미지 파일에 관련한 것일 수 있다. 예컨대, 사용자는 자신이 이해하지 못하는 언어로 작성된 글자를 사용자 단말(10)을 통해 촬영하여 해당 글자를 포함하는 이미지 파일을 획득하여 프로세서(130)로 전송할 수 있다. 구체적인 예를 들어, 영어를 활용하는 사용자가 한국어로 작성된 텍스트에 대한 정보를 획득하고자 하는 경우, 사용자 단말(10)의 카메라 모듈을 통해 해당 텍스트를 촬영하여 하나 이상의 글자 이미지를 포함하는 이미지 파일을 획득하고, 획득된 이미지 파일을 프로세서(130)로 전송할 수 있다. 프로세서(130)는 하나 이상의 글자 이미지를 포함하는 이미지 파일을 수신하는 경우, 이미지 파일에 포함된 하나 이상의 글자 이미지를 이미지 표시 영역(220)에 표시하도록 하는 원문 인터페이스(200)를 생성할 수 있다. 즉, 사용자 단말(10)이 수신하는 원문 인터페이스(200)는 이미지 표시 영역(220)에 하나 이상의 글자 이미지를 표시할 수 있다. 사용자 단말(10)의 사용자는 이미지 표시 영역(220)에 표시된 하나 이상의 글자 이미지를 참조하여 원문 텍스트 입력에 원문 텍스트에 관련한 정보를 입력할 수 있다. 이미지 표시 영역(220)은 하나 이상의 글자 이미지에 대한 조정을 위한 사용자의 조정 입력을 허용할 수 있다. 사용자의 조정 입력은, 하나 이상의 글자 이미지에 대한 크기 조정, 또는 방향 조정에 관련한 것일 수 있다. 즉, 글자 이미지 표시 영역(220)은 사용자의 조정 입력에 대응하여 하나 이상의 글자 이미지를 확대/축소하거나, 또는 시계/반시계 방향으로 회전시켜 표시할 수 있다. 이에 따라, 하나 이상의 글자 이미지에 대한 사용자의 가독성이 향상될 수 있다. The image display area 220 included in the original text interface 200 may be an area in which one or more text images are displayed. Here, the one or more text images displayed on the image display area 220 may be an image that serves as a reference for a user to input text into the original text input area 230. In addition, one or more text images may be related to an image file acquired through a camera module provided in the user terminal 10. For example, the user may capture a character written in a language that he or she does not understand through the user terminal 10 to obtain an image file including the character and transmit it to the processor 130. For a specific example, when a user who uses English wants to obtain information on text written in Korean, the text is captured through the camera module of the user terminal 10 to obtain an image file including one or more text images. Then, the obtained image file may be transmitted to the processor 130. When receiving an image file including one or more text images, the processor 130 may generate the original text interface 200 to display one or more text images included in the image file on the image display area 220. That is, the original text interface 200 received by the user terminal 10 may display one or more text images on the image display area 220. A user of the user terminal 10 may input information related to the original text in the original text input by referring to one or more text images displayed on the image display area 220. The image display area 220 may allow a user's adjustment input for adjustment of one or more text images. The user's adjustment input may be related to adjusting the size or direction of one or more text images. That is, the text image display area 220 may enlarge/reduce one or more text images in response to a user's adjustment input, or may be rotated in a clockwise/counterclockwise direction to be displayed. Accordingly, a user's readability of one or more text images may be improved.

원문 인터페이스(200)에 포함된 원문 텍스트 입력 영역(230)은, 원문 텍스트 정보에 관련하여 사용자 단말의 사용자의 입력을 수신하기 위한 영역일 수 있다. 즉, 사용자 단말(10)의 사용자는 이미지 표시 영역(220)에 표시된 하나 이상의 글자 이미지를 참조하여 원문 텍스트 입력 영역(230)에 원문 텍스트에 관련한 입력을 수행할 수 있다. 예를 들어, 도 3에 도시된 바와 같이, 사용자는 이미지 표시 영역(220)에 표시된 하나 이상의 글자 이미지를 참조하여 원문 텍스트 입력 영역(230)에 '오뎅탕'을 입력할 수 있다. 또한, 사용자는 원문 텍스트 입력 영역(230)에 입력을 완료한 경우, 선택 저장 그래픽 객체(250)에 대한 선택 입력을 인가할 수 있으며, 프로세서(130)는 선택 저장 그래픽 객체(250)에 대한 사용자의 입력에 대응하여 원문 텍스트 입력 영역(230)에 입력된 텍스트 정보를 원문 텍스트 정보로써 획득할 수 있다. 즉, 사용자가 원문 텍스트 입력 영역(230)에 '오뎅탕'을 입력한 후, 선택 저장 그래픽 객체(250)에 대한 입력을 인가하는 경우, 프로세서(130)는 '오뎅탕'을 하나 이상의 글자 이미지 객체에 대응하는 원문 텍스트 정보로 획득할 수 있다. The original text input area 230 included in the original text interface 200 may be an area for receiving a user input of the user terminal in relation to the original text information. That is, the user of the user terminal 10 may perform input related to the original text in the original text input area 230 by referring to one or more text images displayed on the image display area 220. For example, as shown in FIG. 3, the user may input'odentang' in the original text input area 230 by referring to one or more text images displayed on the image display area 220. In addition, when the user completes the input to the original text input area 230, the user may apply a selection input for the selective storage graphic object 250, and the processor 130 Text information input into the original text input area 230 in response to an input of may be obtained as original text information. That is, when a user inputs'odentang' in the original text input area 230 and then applies an input to the selectively stored graphic object 250, the processor 130 transfers'odentang' to one or more text image objects. It can be obtained as the corresponding original text information.

원문 인터페이스(200)에 포함된 이미지 건너뛰기 그래픽 객체(240)는 이미지 표시 영역(220)에 표시되는 글자 이미지를 다른 글자 이미지로 전환하기 위한 사용자의 입력을 수신하는 그래픽 객체일 수 있다. 구체적으로, 이미지 건너뛰기 그래픽 객체(240)에 대한 사용자의 입력이 수신되는 경우, 프로세서(130)는 현재 이미지 표시 영역(220)에 표시된 이미지 파일을 다른 글자 이미지를 포함하는 다른 이미지 파일로 전환할 수 있다. The image skipping graphic object 240 included in the original text interface 200 may be a graphic object that receives a user's input for converting a text image displayed on the image display area 220 into another text image. Specifically, when a user's input for the image skipping graphic object 240 is received, the processor 130 converts the image file currently displayed on the image display area 220 into another image file including another text image. I can.

예를 들어, 이미지 표시 영역(220)에는 하나 이상의 글자 이미지를 포함하는 이미지 파일이 표시될 수 있으며, 사용자는 해당 글자 이미지를 참조하여 원문 텍스트 입력 영역(230)에 원문 텍스트 정보에 관련한 입력을 입력시킬 수 있다. 다만, 사용자가 해당 이미지 표시 영역(220)에 표시된 하나 이상의 글자 이미지의 식별이 어려울 수 있다. 예컨대, 사용자가 하나 이상의 글자 이미지의 조합을 인지하지 못하거나, 해당 글자 이미지의 낮은 해상도를 통해 획득됨에 따라 가독성이 저하될 수 있다. 다른 예를 들어, 사용자는 높은 리워드를 획득하기 위하여 이미지 표시 영역(220)에 표시된 이미지 파일을 전환하고자 할 수 있다. 이러한 경우, 사용자는 이미지 건너뛰기 그래픽 객체(240)에 대한 입력을 인가할 수 있으며, 프로세서(130)는 해당 입력에 대응하여 이미지 표시 영역(220)에 표시된 하나 이상의 글자 이미지를 포함하는 이미지 파일을 다른 글자 이미지들을 포함하는 다른 이미지 파일로 전환할 수 있다. 즉, 원문 인터페이스(200)에 포함된 이미지 건너뛰기 그래픽 객체(240)를 통해 상이한 글자 이미지들을 포함하는 이미지 파일을 전환할 수 있음에 따라, 다양한 이미지 파일(또는 다양한 글자 이미지)에 대응하는 원문 텍스트 정보 획득의 편의성이 향상될 수 있다. For example, an image file including one or more text images may be displayed in the image display area 220, and a user inputs an input related to the original text information in the original text input area 230 by referring to the corresponding text image. I can make it. However, it may be difficult for a user to identify one or more text images displayed on the corresponding image display area 220. For example, as the user does not recognize a combination of one or more text images or is acquired through a low resolution of the text image, readability may be degraded. For another example, the user may wish to switch the image file displayed on the image display area 220 in order to obtain a high reward. In this case, the user may apply an input to the image skipping graphic object 240, and the processor 130 may generate an image file including one or more text images displayed on the image display area 220 in response to the input. You can switch to another image file containing different text images. That is, as the image file including different character images can be switched through the image skipping graphic object 240 included in the original text interface 200, the original text corresponding to various image files (or various character images) Convenience of obtaining information can be improved.

즉, 전술한 바와 같이, 프로세서(130)가 제공하는 원문 인터페이스(200)는 사용자 단말(10)에 표시될 수 있다. 또한, 원문 인터페이스에 포함된 각 표시 영역 및 그래픽 객체를 통한 사용자와 상호 작용에 따라 원문 텍스트 정보가 획득될 수 있다. 이는, 글자 인식 모델을 활용하여 원문 텍스트 정보를 획득하는 것보다 향상된 품질의 원문 텍스트 정보가 획득된다는 장점이 있다. 예를 들어, 신경망의 학습을 통해 하나 이상의 글자 이미지에 대응하는 원문 텍스트 정보를 출력하는 글자 인식 모델은, 학습 데이터가 부족하거나, 또는 해당 이미지 파일에서 글자 이미지들에 대한 가독성이 결여되는 경우, 정확도가 결여된 원문 텍스트 정보를 출력할 우려가 있다. 다만, 본 개시에서 원문 인터페이스를 활용하여 원문 텍스트 정보를 획득하는 구성은, 다수의 사용자 단말 각각의 사용자들의 직접적인 입력과 관련하여 획득되는 것임에 따라, 기계가 식별, 또는 판독하지 못하는 글자 이미지에 관련하여 향상된 정확도를 가진 원문 텍스트 정보의 획득이 가능해질 수 있다.That is, as described above, the original text interface 200 provided by the processor 130 may be displayed on the user terminal 10. In addition, original text information may be obtained according to an interaction with a user through each display area included in the original text interface and a graphic object. This has the advantage of obtaining the original text information of improved quality than the obtaining of the original text information using a character recognition model. For example, a character recognition model that outputs original text information corresponding to one or more character images through training of a neural network is accurate when the training data is insufficient or when the legibility of the character images in the corresponding image file is insufficient. There is a risk of outputting the original text information lacking in However, in the present disclosure, the configuration of acquiring the original text information by using the original text interface is obtained in relation to the direct input of users of each of a plurality of user terminals, and thus relates to a text image that the machine cannot identify or read. Thus, it may be possible to obtain original text information with improved accuracy.

본 개시의 일 실시예에 따르면, 프로세서(130)는 원문 인터페이스(200)에 대한 사용자 단말(10)의 타이핑 입력을 식별할 수 있다. 구체적으로, 프로세서(130)는 원문 인터페이스(200)에 포함된 원문 텍스트 입력 영역(230) 및 선택 저장 그래픽 객체(250)에 대한 사용자 단말(10)의 타이핑 입력을 식별할 수 있다. 예를 들어, 프로세서(130)는 제 1 사용자 단말(10)에 표시된 원문 인터페이스에 관련하여 제 1 사용자가 원문 텍스트 입력 영역(230)에 특정 텍스트를 입력하는 시점 및 선택 저장 그래픽 객체(250)에 대하여 입력을 인가하는 시점을 식별할 수 있다. According to an embodiment of the present disclosure, the processor 130 may identify a typing input of the user terminal 10 for the original text interface 200. Specifically, the processor 130 may identify a typing input of the user terminal 10 for the original text input area 230 and the selectively stored graphic object 250 included in the original text interface 200. For example, in relation to the original text interface displayed on the first user terminal 10, the processor 130 may input a specific text in the original text input area 230 and the selection stored in the It is possible to identify the point of time to apply the input to the user.

또한, 프로세서(130)는 미리 정해진 단위 시간을 기준으로 미리 정해진 임계 횟수 이상의 타이핑 입력이 식별되면, 사용자 단말(10)의 타이핑 입력을 오류 입력으로 결정할 수 있다. 구체적인 예를 들어, 미리 정해진 단위 시간이 5초이며, 미리 정해진 임계 횟수가 2회이고, 제 1 사용자 단말에 표시된 원문 텍스트 입력 영역(230) 및 선택 저장 그래픽 객체(250)에 대한 제 1 사용자의 타이핑 입력이 10초 이내에 10회 발생하였다는 정보를 포함하는 경우, 프로세서(130)는 해당 사용자 단말(10)의 타이핑 입력을 오류 입력으로 결정할 수 있다. 이러한 오류 입력에 관련한 타이밍 입력은, 원문 텍스트 정보 획득 과정에서 폐기될 수 있다. 즉, 프로세서(130)는 원문 텍스트 정보 입력에 관련한 사용자의 입력이 비정상적으로 빠른 경우, 해당 사용자 단말(10)에 관련한 타이핑 입력으로 오류 입력(예컨대, 어뷰징)으로 결정할 수 있다. 이에 따라, 비정상적인 활동에 관련한 무분별한 정보 입력을 방지함으로써, 원문 인터페이스(200)를 통해 확보되는 원문 텍스트 정보의 정확성 향상을 도모할 수 있다. In addition, when a typing input of more than a predetermined threshold number of times is identified based on a predetermined unit time, the processor 130 may determine the typing input of the user terminal 10 as an error input. For a specific example, the predetermined unit time is 5 seconds, the predetermined threshold number of times is 2, and the first user for the original text input area 230 and the selectively stored graphic object 250 displayed on the first user terminal. If the information indicating that the typing input has occurred 10 times within 10 seconds is included, the processor 130 may determine the typing input of the corresponding user terminal 10 as an error input. The timing input related to the error input may be discarded in the process of obtaining the original text information. That is, when the user's input related to the input of the original text information is abnormally fast, the processor 130 may determine an error input (eg, abusing) as a typing input related to the user terminal 10. Accordingly, it is possible to improve the accuracy of the original text information secured through the original text interface 200 by preventing indiscriminate input of information related to abnormal activities.

또한, 프로세서(130)는 오류 입력에 관련한 사용자 단말(10)에 하나 이상의 글자 이미지를 미리 정해진 시간 기간동안 노출시키기 않을 것을 결정할 수 있다. 예컨대, 프로세서(130)에 의해 제 2 사용자 단말에 관련한 타이핑 입력이 오류 입력으로 결정된 경우, 제 2 사용자 단말에 하나 이상의 글자 이미지를 미리 정해진 시간 기간동안(예컨대, 24시간) 노출시키지 않을 수 있다. 즉, 프로세서(130)는 오류 입력(즉, 부정 입력)에 관련한 사용자 단말을 식별하고, 식별된 사용자 단말에 사전 결정된 기간 동안의 패널티를 부과함으로써, 시스템 내에서의 선순환을 유도할 수 있다. 다시 말해, 부당하게 리워드를 획득하려는 사용자 단말에 대하여 미리 정해진 시간기간 동안 리워드의 획득이 제한되도록 하나 이상의 글자 이미지를 노출시키지 않음으로써, 사용자 단말들의 올바른 참여를 유도할 수 있다. 즉, 프로세서(130)는 부정 입력에 관련한 사용자 단말에 패널티를 부과하여 시스템 내의 사용자 단말들의 선순환을 유도함으로써, 향상된 품질의 원문 텍스트 정보 획득을 야기시킬 수 있다. In addition, the processor 130 may determine not to expose one or more text images to the user terminal 10 related to the error input for a predetermined period of time. For example, when the typing input related to the second user terminal is determined as an error input by the processor 130, one or more text images may not be exposed to the second user terminal for a predetermined period of time (eg, 24 hours). That is, the processor 130 may induce a virtuous cycle in the system by identifying a user terminal related to an error input (ie, a negative input) and imposing a penalty for a predetermined period on the identified user terminal. In other words, it is possible to induce correct participation of user terminals by not exposing one or more text images so that the acquisition of the reward is restricted for a predetermined period of time with respect to the user terminal unfairly trying to obtain a reward. That is, the processor 130 may induce a virtuous cycle of user terminals in the system by imposing a penalty on the user terminal related to an illegal input, thereby causing the acquisition of the original text information of improved quality.

추가적인 실시예에서, 프로세서(130)는 글자 인식 모델의 출력 정확도에 기반하여 원문 인터페이스를 활용 여부를 결정할 수 있다. 구체적으로, 프로세서(130)는 글자 인식 모델의 출력에 관한 스코어에 기초하여 원문 인터페이스(200)를 사용자 단말로 전송할지 여부를 결정할 수 있다. 프로세서(130)는 하나 이상의 글자 이미지를 포함하는 이미지 파일을 글자 인식 모델에 입력으로 처리하여 하나 이상의 글자 이미지에 대응하는 원문 텍스트 정보를 출력할 수 있다. 이 경우, 프로세서(130)는 원문 텍스트 정보의 출력에 관련한 스코어 값에 기초하여 원문 인터페이스(200)를 사용자 단말로 전송할지 여부를 결정할 수 있다. In an additional embodiment, the processor 130 may determine whether to use the original text interface based on the output accuracy of the character recognition model. Specifically, the processor 130 may determine whether to transmit the original text interface 200 to the user terminal based on the score regarding the output of the character recognition model. The processor 130 may output original text information corresponding to one or more text images by processing an image file including one or more text images as input to a text recognition model. In this case, the processor 130 may determine whether to transmit the original text interface 200 to the user terminal based on a score value related to the output of the original text information.

구체적인 예를 들어, 글자 인식 모델이 제 1 이미지 파일을 입력으로 하여 제 1 텍스트 정보를 출력하고, 해당 제 1 텍스트 정보 출력에 관련한 스코어 값이 80이며, 미리 정해진 임계 스코어 값이 85인 경우, 프로세서(130)는 원문 인터페이스(200)를 사용자 단말로 전송할 것을 결정할 수 있다. 이에 따라, 원문 인터페이스(200)에 대한 사용자 단말의 입력에 대응하여 원문 텍스트 정보가 획득될 수 있다. For a specific example, when the character recognition model outputs first text information by inputting the first image file, and the score value related to the output of the first text information is 80, and the predetermined threshold score value is 85, the processor 130 may determine to transmit the original text interface 200 to the user terminal. Accordingly, original text information may be obtained in response to an input of the user terminal to the original text interface 200.

다른 예를 들어, 글자 인식 모델이 제 2 이미지 파일을 입력으로 하여 제 2 텍스트 정보를 출력하고, 해당 제 2 텍스트 정보 출력에 관련한 스코어 값이 90이며, 미리 정해진 임계 스코어 값이 85인 경우, 프로세서(130)는 원문 인터페이스(200)를 사용자 단말로 전송하지 않을 수 있다. 즉, 프로세서(130)는 글자 인식 모델의 출력의 정확도가 임계치 이상인 경우, 해당 글자 인식 모델의 출력을 통해 원문 텍스트 정보를 획득할 수 있다. For another example, if the character recognition model outputs second text information by inputting the second image file, and the score value related to the output of the second text information is 90, and the predetermined threshold score value is 85, the processor 130 may not transmit the original text interface 200 to the user terminal. That is, when the accuracy of the output of the character recognition model is greater than or equal to the threshold value, the processor 130 may obtain the original text information through the output of the corresponding character recognition model.

즉, 프로세서(130)는 글자 인식 모델의 출력에 관련한 스코어가 임계치 이상인 경우, 해당 출력 통해 원문 텍스트 정보를 획득할 수 있다. 또한, 프로세서(130)는 글자 인식 모델의 출력에 관련한 스코어가 임계치 미만인 경우, 해당 모델의 정확도가 임계치에 도달하지 못한것으로 판별하여, 사용자 단말로 원문 인터페이스를 전송함으로써, 원문 텍스트 정보를 수신할 수 있다. 따라서, 글자 인식 모델의 출력 정확도에 따라 사용자 단말을 통해 원문 텍스트 정보를 획득할 지 여부를 결정함에 따라, 원문 텍스트 정보를 획득하는 프로세스의 응답 속도가 향상시킬 수 있다.That is, when the score related to the output of the character recognition model is greater than or equal to the threshold value, the processor 130 may obtain the original text information through the corresponding output. In addition, if the score related to the output of the character recognition model is less than the threshold, the processor 130 determines that the accuracy of the model has not reached the threshold, and transmits the original text interface to the user terminal, thereby receiving the original text information. have. Accordingly, as it is determined whether to acquire the original text information through the user terminal according to the output accuracy of the character recognition model, the response speed of the process of obtaining the original text information can be improved.

본 개시의 일 실시예에 따르면, 프로세서(130)는 원문 텍스트 정보에 대한 품질 검사를 수행하여 원문 텍스트 정보에 대한 적정성을 판별할 수 있다. 구체적으로, 프로세서(130)는 사용자 단말의 히스토리 정보에 기초하여 품질 검사를 수행할 다른 사용자 단말의 수를 결정할 수 있다. 히스토리 정보는, 사용자 단말의 입력 참여 횟수 정보, 또는 누적 품질 평가 정보 중 적어도 하나를 포함할 수 있다. 입력 참여 횟수 정보는, 사용자 단말(10)이 원문 인터페이스를 통해 프로세서(130)로 원문 텍스트 정보를 전송한 횟수에 관련한 참여 이력에 관한 정보일 수 있다. 누적 품질 평가 정보는, 사용자 단말(10)이 프로세서(130)로 전송한 원문 텍스트 정보에 대한 다른 사용자들의 품질 평가 정보에 관련한 것일 수 있다. According to an embodiment of the present disclosure, the processor 130 may determine the appropriateness of the original text information by performing a quality check on the original text information. Specifically, the processor 130 may determine the number of other user terminals to perform quality inspection based on the history information of the user terminal. The history information may include at least one of input participation number information of the user terminal or cumulative quality evaluation information. The input participation number information may be information on a participation history related to the number of times the user terminal 10 transmits the original text information to the processor 130 through the original text interface. The cumulative quality evaluation information may be related to quality evaluation information of other users with respect to the original text information transmitted from the user terminal 10 to the processor 130.

구체적인 예를 들어, 제 1 사용자 단말(10)의 입력 참여 횟수 정보가 과거 시점에 원문 텍스트 정보를 다수 회 전송하였다는 정보를 포함하는 경우, 프로세서(130)는 제 1 사용자 단말(10)로부터 수신한 원문 텍스트 정보에 대한 품질 검사를 수행할 다른 사용자 단말의 수를 '2'로 결정할 수 있다. 다른 예를 들어, 제 2 사용자 단말(10)의 입력 참여 횟수 정보가 과거 시점에 원문 텍스트 정보 이력이 존재하지 않는다는 정보를 포함하는 경우, 프로세서(130)는 제 2 사용자 단말(10)로부터 수신한 원문 텍스트 정보에 대한 품질 검사를 수행할 다른 사용자 단말의 수를 '5'로 결정할 수 있다. 또 다른 예를 들어, 제 3 사용자 단말(10)의 누적 품질 평가 정보가 3점이며, 제 4 사용자 단말(10)의 누적 품질 평가 정보가 9점인 경우, 프로세서(130)는 제 3 사용자 단말(10)로부터 수신한 원문 텍스트 정보에 대한 품질 검사를 수행할 다른 사용자 단말의 수를 '6'로 결정할 수 있으며, 제 4 사용자 단말로부터 수신한 원문 텍스트 정보에 대한 품질 검사를 수행할 다른 사용자 단말의 수를 '2'로 결정할 수 있다. 전술한 각 사용자 단말의 입력 참여 횟수 정보, 누적 품질 평가 정보 및 다른 사용자 단말의 수에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.For a specific example, when the input participation number information of the first user terminal 10 includes information indicating that the original text information has been transmitted multiple times in the past, the processor 130 receives it from the first user terminal 10. The number of other user terminals to perform quality check on one original text information may be determined as '2'. For another example, when the input participation number information of the second user terminal 10 includes information that the original text information history does not exist at the past time, the processor 130 The number of other user terminals to perform quality check on the original text information may be determined as '5'. For another example, when the accumulated quality evaluation information of the third user terminal 10 is 3 points, and the accumulated quality evaluation information of the fourth user terminal 10 is 9 points, the processor 130 is the third user terminal ( 10) It is possible to determine the number of other user terminals to perform quality check on the original text information received from '6'. The number can be determined as '2'. The detailed description of the input participation count information, accumulated quality evaluation information, and the number of other user terminals described above are only examples, and the present disclosure is not limited thereto.

즉, 프로세서(130)는 원문 텍스트 정보를 송신한 사용자 단말의 입력 참여 횟수 정보에 다수의 과거 참여 이력이 존재하거나, 또는 누적 품질 평가 정보에 타 사용자들로터의 과거 품질 평가 점수가 높은 경우, 해당 원문 텍스트 정보에 대한 품질 평가를 위한 다른 사용자 단말의 수를 적게 결정할 수 있다. 즉, 원문 텍스트 정보를 송신한 사용자 단말 각각의 정보(입력 참여 횟수 정보 및 누점 품질 평가 정보)에 기반하여 각 단말로부터 획득한 원문 텍스트 정보에 대한 평가를 위한 다른 사용자 단말의 수를 상이하게 결정할 수 있다. 이는, 각 사용자 단말을 특성을 고려하여 평가를 위한 타 사용자 단말을 수를 결정함으로써, 평가를 위한 응답속도를 극대화하는 효과를 가질 수 있다. 다시 말해, 검증이 필요한 사용자 단말의 원문 텍스트 정보는 보다 많은 다른 사용자 단말을 통해 평가되도록 하며, 검증된 사용자 단말의 원문 텍스트 정보는 보다 적은 다른 사용자 단말을 통해 평가되도록 함으로써, 원문 텍스트 정보의 품질 평가의 응답 속도의 최적화를 야기시킬 수 있다.That is, the processor 130, when there is a number of past participation histories in the input participation count information of the user terminal that has transmitted the original text information, or when the past quality evaluation score of other users is high in the accumulated quality evaluation information, the corresponding It is possible to determine a small number of other user terminals for quality evaluation of original text information. In other words, the number of different user terminals for evaluation of the original text information obtained from each terminal can be determined differently based on the information of each user terminal that has transmitted the original text information (input participation count information and cumulative quality evaluation information). have. This may have an effect of maximizing response speed for evaluation by determining the number of other user terminals for evaluation in consideration of characteristics of each user terminal. In other words, the original text information of the user terminal that needs to be verified is evaluated through more other user terminals, and the original text information of the verified user terminal is evaluated through fewer other user terminals, thereby evaluating the quality of the original text information. Can lead to optimization of the response speed.

또한, 프로세서(130)는 결정된 다른 사용자 단말의 수에 대응하여 하나 이상의 다른 사용자 단말에게 하나 이상의 글자 이미지 및 원문 텍스트 정보를 포함하는 평가 정보 입력 창을 전송할 것을 결정할 수 있다. 구체적으로, 프로세서(130)는 사용자 단말(10)의 과거 참여 이력 정보 및 누적 품질 평가 정보에 기초하여 평가에 관련한 다른 사용자 단말들을 결정할 수 있으며, 결정된 하나 이상의 다른 사용자 단말 각각에 평가 정보 입력 창을 전송할 것을 결정할 수 있다. 이 경우, 평가 정보 입력 창은, 사용자 단말(10)을 통해 획득된 원문 텍스트 정보가 적정한지 여부를 판별하기 위한 다른 사용자 단말 각각에 전송되는 입력 창일 수 있다. In addition, the processor 130 may determine to transmit an evaluation information input window including one or more character images and original text information to one or more other user terminals in response to the determined number of other user terminals. Specifically, the processor 130 may determine other user terminals related to the evaluation based on the past participation history information and the accumulated quality evaluation information of the user terminal 10, and provide an evaluation information input window to each of the determined You can decide what to send. In this case, the evaluation information input window may be an input window transmitted to each of the other user terminals for determining whether the original text information obtained through the user terminal 10 is appropriate.

구체적인 예를 들어, 프로세서(130)는 제 1 사용자 단말에 과거 참여 이력 정보 및 누적 품질 평가 정보에 기초하여 제 2 사용자 단말 및 제 3 사용자 단말을 제 1 사용자 단말이 전송한 제 1 원문 텍스트 정보에 대한 평가를 위한 다른 사용자 단말로 결정할 수 있다. 이 경우, 프로세서(130)는 제 2 사용자 단말 및 제 3 사용자 단말 각각에 제 1 원문 텍스트 정보를 포함하는 평가 정보 입력 창을 전송할 것을 결정할 수 있다. 평가 정보 창은, 원문 텍스트 정보에 대한 평가를 위한 하나 이상의 그래픽 객체를 포함할 수 있다. 예를 들어, 하나 이상의 그래픽 객체는 원문 텍스트 정보에 관련한 타 사용자의 품질 평가를 위해 '나쁨', '좋음'으로 구성되거나, '상', '중', '하'로 구성되거나, 또는 평가 품질에 관련한 복수의 수치를 통해 구성될 수 있으나, 이에 제한되는 것은 아니다. 즉, 프로세서(130)는 제 1 사용자 단말로부터 수신한 제 1 원문 텍스트 정보를 포함하는 평가 정보 입력 창을 생성하여 제 2 사용자 단말 및 제 3 사용자 단말에 전송할 것을 결정할 수 있다.For a specific example, the processor 130 transmits the second user terminal and the third user terminal to the first original text information transmitted from the first user terminal based on the past participation history information and the accumulated quality evaluation information to the first user terminal. It can be decided by another user terminal for evaluation. In this case, the processor 130 may determine to transmit an evaluation information input window including the first original text information to each of the second user terminal and the third user terminal. The evaluation information window may include one or more graphic objects for evaluation of original text information. For example, one or more graphic objects are composed of'bad','good','high','medium','low', or evaluation quality for the quality evaluation of other users related to the original text information. It may be configured through a plurality of numerical values related to, but is not limited thereto. That is, the processor 130 may determine to generate an evaluation information input window including the first original text information received from the first user terminal and transmit it to the second user terminal and the third user terminal.

또한, 프로세서(130)는 하나 이상의 다른 사용자 단말 각각으로부터 평가 정보 입력 창을 통해 수신한 품질 평가 정보에 기초하여 원문 텍스트 정보에 대한 적정성을 판별할 수 있다. 구체적으로, 프로세서(130)는 평가 정보 입력 창을 통해 다른 사용자 단말 각각으로부터 하나 이상의 품질 평가 정보를 획득할 수 있다. 또한, 프로세서(130)는 각 단말로부터 수신한 하나 이상의 품질 평가 정보와 미리 정해진 평가 기준에 기초하여 원문 텍스트 정보에 대한 적정성을 판별할 수 있다. 예를 들어, 미리 정해진 기준이 평균 품질 평가 정보가 8점 이상이며, 제 2 사용자 단말 및 제 3 사용자 단말 각각으로부터 평가 정보 입력 창을 통해 '8', '9'라는 품질 평가 정보를 수신하는 경우, 프로세서(130)는 단말들의 평균 품질 평가 정보(즉, 8.5)가 미리 정해진 기준을 충족하는 것으로 판별하여 해당 원문 텍스트 정보가 적정하다고 판별할 수 있다. 다른 예를 들어, 미리 정해진 기준이 2개 이상의 사용자로부터 7점 이하의 품질 평가 정보 수신하는 것이며, 제 1 사용자 단말, 제 2 사용자 단밀 및 제 3 사용자 단말 각각으로부터 평가 정보 입력 창을 '6', '7', '5'라는 품질 평가 정보를 수신하는 경우, 프로세서(130)는 6점 이하의 품질 평가 정보를 적어도 둘 이상의 사용자 단말(즉, 제 1 사용자 단말 및 제 3 사용자 단말)로부터 수신한 것을 식별하여, 해당 원문 텍스트 정보가 적정하지 않은 것으로 판별할 수 있다. 이에 따라, 프로세서(130)는 해당 원문 텍스트 정보를 폐기할 것을 결정할 수 있다. 전술한, 미리 정해진 기준 및 각 사용자 단말을 통해 수신한 품질 평가 정보에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다. In addition, the processor 130 may determine the appropriateness of the original text information based on the quality evaluation information received through the evaluation information input window from each of one or more other user terminals. Specifically, the processor 130 may acquire one or more quality evaluation information from each of the other user terminals through the evaluation information input window. In addition, the processor 130 may determine the appropriateness of the original text information based on one or more quality evaluation information received from each terminal and a predetermined evaluation criterion. For example, when the predetermined criterion is that the average quality evaluation information is 8 points or more, quality evaluation information of '8' and '9' is received from each of the second user terminal and the third user terminal through the evaluation information input window. , The processor 130 may determine that the average quality evaluation information of the terminals (ie, 8.5) satisfies a predetermined criterion and determine that the original text information is appropriate. For another example, the predetermined criterion is to receive 7 points or less of quality evaluation information from two or more users, and the evaluation information input window from each of the first user terminal, the second user terminal and the third user terminal is '6', When receiving quality evaluation information of '7' or '5', the processor 130 receives quality evaluation information of 6 points or less from at least two or more user terminals (ie, a first user terminal and a third user terminal). By identifying that, it can be determined that the original text information is not appropriate. Accordingly, the processor 130 may determine to discard the corresponding original text information. The detailed description of the above-described predetermined criteria and quality evaluation information received through each user terminal is only an example, and the present disclosure is not limited thereto.

또한, 프로세서(130)는 원문 데이터 정보에 대한 적정성 판별 결과에 기초하여 사용자 단말(10)에 리워드를 부여할 수 있다. 이 경우, 리워드는 원문 데이터 정보 생성에 관련하여 사용자 단말(10)에 부여되는 포인트에 관련한 것일 수 있으며, 예컨대, 해당 포인트는 특정 서버에서 활용 가능하거나, 또는 사용자의 계좌에 현금으로 지급되어 활용 가능한 것일 수 있다. 예를 들어, 프로세서(130)는 제 1 사용자 단말(10)을 통해 수신한 제 1 원문 데이터가 적정한 것으로 판별한 경우, 제 1 사용자 단말(10)에 '10P'의 리워드를 부여할 수 있다. 전술한 리워드에 관련한 구체적인 수치적 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.In addition, the processor 130 may grant a reward to the user terminal 10 based on a result of determining the adequacy of the original text data information. In this case, the reward may be related to points given to the user terminal 10 in relation to the creation of original data information. Can be. For example, when it is determined that the first original text data received through the first user terminal 10 is appropriate, the processor 130 may give the first user terminal 10 a reward of '10P'. The detailed numerical description related to the above-described reward is merely an example, and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따르면, 프로세서(130)는 번역 인터페이스를 통해 사용자 단말(10)로부터 번역 텍스트 정보를 획득할 수 있다. 구체적으로, 프로세서(130)는 원문 텍스트 정보에 대한 적정성 판별 결과에 기초하여 원문 텍스트 정보를 포함하는 번역 인터페이스(300)를 생성하여 사용자 단말(10)로 전송할 것을 결정할 수 있다. 예컨대, 프로세서(130)는 원문 텍스트 정보가 적정하다고 판별되는 경우, 해당 원문 텍스트 정보를 포함하는 번역 인터페이스(300)를 생성하여 사용자 단말로 전송할 것을 결정할 수 있다. 번역 인터페이스(300)는 사용자로부터 원문 텍스트 정보에 대응하는 번역 텍스트 정보를 획득하기 위해 사용자 단말(10)로 제공되는 사용자 인터페이스일 수 있다. 본 개시의 원문 텍스트 정보는 하나 이상의 글자 이미지에 대응하여 획득되는 것임에 따라, 원문 텍스트 정보에 대응하여 생성되는 번역 텍스트 정보는 하나 이상의 글자 이미지에 번역과 관련한 텍스트 정보일 수 있다. 이러한 번역 인터페이스(300)는 특정 언어 텍스트로 구성된 하나 이상의 글자 이미지 및 원문 텍스트 정보를 포함할 수 있다. According to an embodiment of the present disclosure, the processor 130 may obtain translated text information from the user terminal 10 through a translation interface. Specifically, the processor 130 may determine to generate the translation interface 300 including the original text information based on a result of determining the adequacy of the original text information and transmit it to the user terminal 10. For example, when it is determined that the original text information is appropriate, the processor 130 may determine to generate and transmit the translation interface 300 including the original text information to the user terminal. The translation interface 300 may be a user interface provided to the user terminal 10 to obtain translated text information corresponding to the original text information from a user. As the original text information of the present disclosure is obtained in response to one or more text images, the translated text information generated in response to the original text information may be text information related to translation on one or more text images. The translation interface 300 may include one or more character images and original text information composed of text in a specific language.

이 경우, 프로세서(130)는 번역 인터페이스를 전송하기 위한 하나 이상의 다른 사용자 단말을 결정할 수 있다. 구체적으로, 프로세서(130)는 복수의 사용자 단말 중 상기 번역 인터페이스에 포함된 상기 원문 텍스트 정보와 매칭되는 사용자 단말을 식별할 수 있다. 또한, 프로세서(130)는 식별된 사용자 단말을 상기 번역 인터페이스를 전송할 사용자 단말로 결정할 수 있다. 예컨대, 원문 텍스트 정보가 한국어에 관련한 경우, 프로세서(130)는 해당 한국어를 활용 가능한 사용자 단말을 번역 인터페이스를 전송할 사용자 단말로 결정할 수 있다.In this case, the processor 130 may determine one or more other user terminals for transmitting the translation interface. Specifically, the processor 130 may identify a user terminal matching the original text information included in the translation interface among a plurality of user terminals. In addition, the processor 130 may determine the identified user terminal as a user terminal to which the translation interface is to be transmitted. For example, when the original text information is related to Korean, the processor 130 may determine a user terminal capable of utilizing the corresponding Korean as a user terminal to which the translation interface is to be transmitted.

추가적으로, 프로세서(130)가 번역 인터페이스(300)를 제공하는 사용자 단말(10)은, 컴퓨팅 장치(100)와 연계된 서버에 접속 중이거나, 또는 컴퓨팅 장치와 연계된 서버에 가입한 복수의 사용자 단말 중 적어도 하나의 사용자 단말일 수 있다. 다시 말해, 프로세서(130)는 컴퓨팅 장치(100)와 네트워크를 통해 연계된 복수의 사용자 단말 중 번역 인터페이스를 전송한 사용자 단말을 결정함으로써, 해당 사용자 단말로부터 원문 텍스트에 대응하는 번역 텍스트 정보를 획득할 수 있다. 이 경우, 프로세서(130)가 번역 인터페이스를 전송한 단말로 결정하는 사용자 단말(즉, 원문 텍스트 정보에 대응하는 번역 텍스트 정보를 획득하고자 하는 사용자 단말)은 원문 텍스트 정보에 관련한 제 1 언어 및 번역 텍스트 정보에 관련한 제 2 언어를 활용 가능한 사용자에 관련한 단말일 수 있다. 예를 들어, 번역 인터페이스(300)에 포함된 원문 텍스트 정보가 한국어로 구성된 텍스트이며, 획득하고자 하는 번역 텍스트 정보가 영어로 구성된 텍스트인 경우, 프로세서(130)는 한국어와 영어 모두 활용 가능한 제 1 사용자에 관련한 제 1 사용자 단말을 번역 인터페이스를 전송할 사용자 단말로 결정할 수 있다. 이 경우, 제 1 사용자 단말의 활용 가능 언어는 예를 들어, 가입 시, 입력되는 사용자 정보를 통해 식별될 수 있다. 추가적인 실시예에서, 프로세서(130)는 원문 텍스트 정보에 대응하는 주제를 식별하고, 식별된 주제에 대응하는 사용자 단말들을 번역 인터페이스를 전송할 사용자 단말로 결정할 수도 있다. Additionally, the user terminal 10 for which the processor 130 provides the translation interface 300 is connected to the server associated with the computing device 100, or a plurality of user terminals subscribed to the server associated with the computing device. It may be at least one of the user terminals. In other words, the processor 130 may obtain the translated text information corresponding to the original text from the user terminal by determining the user terminal that has transmitted the translation interface among the plurality of user terminals connected through the computing device 100 and the network. I can. In this case, the user terminal that the processor 130 determines as the terminal that has transmitted the translation interface (that is, the user terminal that wants to obtain the translated text information corresponding to the original text information) is the first language and the translated text related to the original text information. It may be a terminal related to a user capable of using a second language related to information. For example, if the original text information included in the translation interface 300 is text composed of Korean, and the translated text information to be acquired is text composed of English, the processor 130 is a first user who can utilize both Korean and English. The first user terminal related to may be determined as a user terminal to which the translation interface is to be transmitted. In this case, the available language of the first user terminal may be identified through user information input at the time of registration, for example. In an additional embodiment, the processor 130 may identify a subject corresponding to the original text information, and determine user terminals corresponding to the identified subject as user terminals to transmit the translation interface.

즉, 프로세서(130)는 컴퓨팅 장치(100)와 연계된 복수의 사용자 단말 중 번역 작업에 보다 적합한 사용자 단말을 식별하여 번역 인터페이스를 전송할 사용자 단말로 결정할 수 있다.That is, the processor 130 may identify a user terminal more suitable for a translation job among a plurality of user terminals connected to the computing device 100 and determine the user terminal to which the translation interface is to be transmitted.

본 개시의 일 실시예에 따르면, 프로세서(130)는 원문 텍스트 정보에 대한 적정성 판별 결과에 기초하여 원문 텍스트 정보를 포함하는 번역 인터페이스를 생성하여 사용자 단말(10)로 전송할 것을 결정할 수 있다.According to an exemplary embodiment of the present disclosure, the processor 130 may determine to generate a translation interface including the original text information and transmit it to the user terminal 10 based on a result of determining adequacy of the original text information.

구체적인 예를 들어, 번역 인터페이스(300)는 도 4에 도시된 바와 같이, 번역 안내 정보 표시 영역(310), 이미지 표시 영역(320), 원문 텍스트 표시 영역(330), 번역 텍스트 입력 영역(340), 건너뛰기 그래픽 객체(350) 및 선택 저장 그래픽 객체(360)를 포함할 수 있다. For a specific example, as shown in FIG. 4, the translation interface 300 includes a translation guide information display area 310, an image display area 320, an original text display area 330, and a translation text input area 340. , A skip graphic object 350 and a selection storage graphic object 360.

번역 인터페이스(300)에 포함된 번역 안내 정보 표시 영역(310)은, 해당 인터페이스에 관련한 안내 정보가 표시되는 영역일 수 있다. 예컨대, 도 4에 도시된 바와 같이, "이 문장을 번역하세요"와 같이 한국어로 작성된 텍스트 정보가 표시될 수 있다. 이 경우, 번역 안내 정보 표시 영역(310)에 표시되는 텍스트 정보는 원문 텍스트 정보에 대응하는 언어로 표시될 수 있다. 예를 들어, 원문 텍스트 정보가 영어에 관련한 경우, 번역 안내 정보 표시 영역(310)에 표시되는 텍스트 정보는 해당 원문 텍스트 정보에 대응하는 영어에 관련한 텍스트 일 수 있으며, 원문 텍스트 정보가 일본어에 관련한 경우, 번역 안내 정보 표시 영역(310)은 해당 원문 텍스트 정보에 대응하는 일본어에 관련한 텍스트일 수 있다. 또한, 번역 안내 정보 표시 영역(310)은 번역 텍스트 정보에 관련한 사용자의 입력에 관련하여 발생하는 리워드에 관한 정보를 포함할 수 있다. 여기서, 리워드는, 번역 인터페이스(300)를 통해 번역 텍스트 정보에 관련한 입력이 수신됨에 따라 사용자 단말(10)에게 제공되는 보상에 관한 정보일 수 있다. 예컨대, 사용자의 입력에 관련하여 발생하는 리워드에 관한 정보는 도 4에 도시된 바와 같이, '10P'일 수 있다. 이러한 리워드는, 프로세서(130)에 의해 산출될 수 있다. 구체적으로, 프로세서(130)는 원문 텍스트 정보에 포함된 단어의 수에 기초하여 리워드를 산출할 수 있다. 예를 들어, 원문 텍스트 정보에 포함된 단어의 수가 10개인 경우, 프로세서(130)는 사용자 단말에 제공될 리워드를 '20P'로 산출할 수 있다. 다른 예를 들어, 원문 텍스트 정보에 포함된 단어의 수가 15개인 경우, 프로세서(130)는 사용자 단말에 제공될 리워드를 '30P'로 산출할 수 있다. 즉, 프로세서(130)는 원문 텍스트 정보에 포함된 하나 이상의 단어의 수에 기초하여, 원문 텍스트에 대응하여 입력해야할 번역 텍스트가 보다 적을 것으로 예상되는 경우, 발생하는 리워드를 보다 적게 산출하고, 그리고 해당 원문 텍스트 정보에 대응하여 입력해야할 번역 텍스트가 보다 많을 것으로 예상되는 경우, 발생하는 리워드를 보다 많게 산출할 수 있다. 즉, 번역 텍스트를 입력하는 사용자의 노력의 정도에 따라 상이한 리워드를 부여함으로써, 사용자들의 자발적인 참여를 유도할 수 있으며, 오락적 흥미 요소를 제공할 수 있다.The translation guide information display area 310 included in the translation interface 300 may be an area in which guide information related to a corresponding interface is displayed. For example, as shown in FIG. 4, text information written in Korean may be displayed such as "translate this sentence". In this case, text information displayed on the translation guide information display area 310 may be displayed in a language corresponding to the original text information. For example, if the original text information is related to English, the text information displayed in the translation guide information display area 310 may be text related to English corresponding to the original text information, and if the original text information is related to Japanese , The translation guide information display area 310 may be text related to Japanese corresponding to the original text information. Also, the translation guide information display area 310 may include information on rewards generated in relation to a user's input related to the translated text information. Here, the reward may be information about a reward provided to the user terminal 10 as an input related to translated text information is received through the translation interface 300. For example, information on a reward generated in relation to a user's input may be '10P' as shown in FIG. 4. These rewards may be calculated by the processor 130. Specifically, the processor 130 may calculate a reward based on the number of words included in the original text information. For example, when the number of words included in the original text information is 10, the processor 130 may calculate a reward to be provided to the user terminal as '20P'. For another example, when the number of words included in the original text information is 15, the processor 130 may calculate a reward to be provided to the user terminal as '30P'. That is, based on the number of one or more words included in the original text information, the processor 130 calculates less rewards to be generated when it is expected that there are fewer translated texts to be input corresponding to the original text, and the corresponding If it is expected that there will be more translated texts to be input corresponding to the original text information, more rewards can be calculated. That is, by giving different rewards according to the user's effort to input the translated text, it is possible to induce voluntary participation of users and provide an interesting element of entertainment.

다시 말해, 사용자 단말의 사용자는 번역 안내 정보 표시 영역(310)에 표시된 텍스트 정보를 통해 번역 인터페이스(300)를 통한 번역 텍스트 정보 입력 방법 및 그에 따른 리워드에 관한 안내 정보를 제공받을 수 있다.In other words, the user of the user terminal may be provided with guide information regarding a method of inputting translated text information through the translation interface 300 and a reward according to the text information displayed on the translation guide information display area 310.

번역 인터페이스(300)에 포함된 이미지 표시 영역(320)은, 하나 이상의 글자 이미지가 표시되는 영역일 수 있다. 여기서, 이미지 표시 영역(320)에 표시되는 하나 이상의 글자 이미지는, 사용자가 번역 텍스트 입력 영역(340)에 텍스트를 입력하기 위한 기준이 되는 이미지일 수 있다. 예컨대, 사용자 단말의 사용자는 이미지 표시 영역(320)과 원문 텍스트 표시 영역(330)에 표시된 정보들을 비교하여 번역 텍스트 입력 영역(340)에 번역 텍스트에 관련한 입력을 수행할 수 있다. 즉, 사용자 단말(10)의 사용자는 이미지 표시 영역(320)에 표시된 하나 이상의 글자 이미지와 원문 텍스트 표시 영역(330)에 표시된 원문 텍스트 정보를 참조하여 번역 텍스트 입력 영역(340)에 번역 텍스트에 관련한 정보를 입력할 수 있다. 이미지 표시 영역(320)은 하나 이상의 글자 이미지에 대한 조정을 위한 사용자의 조정 입력을 허용할 수 있다. 사용자의 조정 입력은, 하나 이상의 글자 이미지에 대한 크기 조정, 또는 방향 조정에 관련한 것일 수 있다. 즉, 이미지 표시 영역(320)은 사용자의 조정 입력에 대응하여 하나 이상의 글자 이미지를 확대/축소하거나, 또는 시계/반시계 방향으로 회전시켜 표시할 수 있다. 이에 따라, 하나 이상의 글자 이미지에 대한 사용자의 가독성이 향상될 수 있다. The image display area 320 included in the translation interface 300 may be an area in which one or more text images are displayed. Here, the one or more text images displayed on the image display area 320 may be images that serve as a reference for a user to input text into the translated text input area 340. For example, a user of the user terminal may compare information displayed in the image display area 320 and the original text display area 330 to perform an input related to the translated text in the translated text input area 340. That is, the user of the user terminal 10 refers to one or more character images displayed on the image display area 320 and the original text information displayed on the original text display area 330, and displays the translated text in the translated text input area 340. You can enter information. The image display area 320 may allow a user's adjustment input for adjustment of one or more text images. The user's adjustment input may be related to adjusting the size or direction of one or more text images. That is, the image display area 320 may enlarge/reduce one or more text images or rotate it clockwise/counterclockwise in response to a user's adjustment input for display. Accordingly, a user's readability of one or more text images may be improved.

번역 인터페이스(300)에 포함된 원문 텍스트 표시 영역(330)은, 전술한 도 3에서의 원문 텍스트 입력 영역(230)을 통해 획득한 원문 텍스트 정보가 표시되는 영역일 수 있다. 즉, 사용자 단말(10)의 사용자가 원문 인터페이스(200)의 이미지 표시 영역(220)에 표시된 하나 이상의 글자 이미지를 참조하여 원문 텍스트 입력 영역(230)에 원문 텍스트에 관련한 입력을 수행함에 따라 획득되는 원문 텍스트 정보가 원문 텍스트 표시 영역(330)에 표시될 수 있다.The original text display area 330 included in the translation interface 300 may be an area in which the original text information acquired through the original text input area 230 of FIG. 3 is displayed. That is, obtained as the user of the user terminal 10 performs an input related to the original text in the original text input area 230 by referring to one or more character images displayed on the image display area 220 of the original text interface 200. Original text information may be displayed on the original text display area 330.

번역 인터페이스(300)에 포함된 번역 텍스트 입력 영역(340)은, 번역 텍스트 정보에 관련하여 사용자 단말의 사용자의 입력을 수신하기 위한 영역일 수 있다. 즉, 사용자 단말(10)의 사용자는 이미지 표시 영역(320) 및 원문 텍스트 표시 영역(330)에 표시된 정보들을 참조하여 번역 텍스트 입력 영역(340)에 번역 텍스트에 관련한 입력을 수행할 수 있다. 예를 들어, 도 4에 도시된 바와 같이, 사용자는 이미지 표시 영역(320) 및 원문 텍스트 표시 영역(330)에 표시된 정보들을 참조하여 번역 텍스트 입력 영역(340)에 대한 입력을 수행할 수 있다. 또한, 사용자는 번역 텍스트 입력 영역(340)에 입력을 완료한 경우, 선택 저장 그래픽 객체(360)에 대한 입력을 인가할 수 있으며, 프로세서(130)는 선택 저장 그래픽 객체(360)에 대한 사용자의 입력에 대응하여 번역 텍스트 입력 영역(340)에 입력된 텍스트 정보를 번역 텍스트 정보로써 획득할 수 있다. 즉, 사용자가 번역 텍스트 입력 영역(340)에 번역 텍스트를 입력한 후, 선택 저장 그래픽 객체(360)에 대한 입력을 인가하는 경우, 프로세서(130)는 해당 번역 텍스트를 하나 이상의 글자 이미지 또는 원문 텍스트 정보에 대응하는 번역 텍스트 정보로 획득할 수 있다. The translation text input area 340 included in the translation interface 300 may be an area for receiving a user input of a user terminal in relation to the translation text information. That is, the user of the user terminal 10 may perform an input related to the translated text in the translated text input area 340 by referring to information displayed on the image display area 320 and the original text display area 330. For example, as shown in FIG. 4, the user may perform input on the translated text input area 340 by referring to information displayed on the image display area 320 and the original text display area 330. In addition, when the user completes the input to the translated text input area 340, the user may apply an input for the selectively stored graphic object 360, and the processor 130 In response to the input, text information input into the translated text input area 340 may be obtained as translated text information. That is, when the user inputs the translated text in the translated text input area 340 and then applies the input to the selective storage graphic object 360, the processor 130 converts the translated text into one or more character images or original text. It can be obtained as translated text information corresponding to the information.

번역 인터페이스(300)에 포함된 텍스트 건너뛰기 그래픽 객체(350)는 이미지 표시 영역(320) 및 원문 텍스트 표시 영역(330)에 표시된 정보들을 전환하기 위한 사용자의 입력을 수신하는 그래픽 객체일 수 있다. 구체적으로, 텍스트 건너뛰기 그래픽 객체(350)에 대한 사용자의 입력을 수신하는 경우, 프로세서(130)는 현재 이미지 표시 영역(320) 및 원문 텍스트 표시 영역(330) 각각에 표시된 정보들을 다른 이미지 파일 및 다른 원문 텍스트 정보로 전환할 수 있다.The text skip graphic object 350 included in the translation interface 300 may be a graphic object that receives a user's input for switching information displayed on the image display area 320 and the original text display area 330. Specifically, when receiving a user's input for the text skip graphic object 350, the processor 130 may transfer information displayed in each of the current image display area 320 and the original text display area 330 to another image file You can switch to other original text information.

예를 들어, 이미지 표시 영역(320) 및 원문 텍스트 표시 영역(330) 각각에는 영어에 관련한 하나 이상의 글자 이미지 및 하나 이상의 글자 이미지에 대응하는 원문 텍스트 정보가 표시될 수 있으며, 사용자는 해당 정보들을 참조하여 번역 텍스트 입력 영역(340)에 번역 텍스트 정보에 관련한 입력을 입력할 수 있다. 다만, 사용자가 해당 이미지 표시 영역(320) 또는 원문 텍스트 표시 영역(330)에 대응하는 번역 텍스트 정보를 생성하기 위한 사용자의 언어 지식이 부족할 수 있다. 이러한 경우, 텍스트 건너뛰기 그래픽 객체(350)를 활용하여 이미지 표시 영역(320) 및 원문 텍스트 표시 영역(330)에 표시된 정보들을 전환함으로써, 자신이 수행할 수 있는 번역 문장을 선택할 수 있다.For example, in each of the image display area 320 and the original text display area 330, one or more text images related to English and original text information corresponding to one or more text images may be displayed, and the user refers to the information. Accordingly, an input related to the translated text information may be input in the translated text input area 340. However, the user's language knowledge for generating translated text information corresponding to the image display area 320 or the original text display area 330 may be insufficient. In this case, by using the text skipping graphic object 350 to switch information displayed on the image display area 320 and the original text display area 330, it is possible to select a translated sentence that can be performed by itself.

다른 예를 들어, 사용자는 높은 리워드를 획득하기 위하여 이미지 표시 영역(320)에 표시된 이미지 파일을 전환하고자 할 수 있다. 이 경우, 사용자는 이미지 건너뛰기 그래픽 객체(350)에 대한 입력을 인가할 수 있으며, 프로세서(130)는 해당 입력에 대응하여 이미지 표시 영역(320)에 표시된 하나 이상의 글자 이미지를 포함하는 이미지 파일을 다른 글자 이미지들을 포함하는 다른 이미지 파일로 전환하여 표시하고, 그리고 원문 텍스트 표시 영역(330)에 표시된 원문 텍스트 정보를 다른 이미지 파일에 포함된 다른 들자 이미지들에 대응하는 다른 원문 텍스트 정보로 전환하여 표시할 수 있다. 즉, 번역 인터페이스(300)에 포함된 이미지 건너뛰기 그래픽 객체(350)를 통해 상이한 글자 이미지들을 포함하는 이미지 파일 및 그에 대응하는 원문 텍스트 정보를 전환할 수 있음에 따라, 다양한 이미지 파일(또는 다양한 글자 이미지), 또는 다양한 원문 텍스트 정보에 대응하는 번역 텍스트 정보 획득의 편의성이 향상될 수 있다. For another example, the user may wish to switch the image file displayed on the image display area 320 in order to obtain a high reward. In this case, the user may apply an input to the image skipping graphic object 350, and the processor 130 may generate an image file including one or more text images displayed on the image display area 320 in response to the input. Converts and displays the original text information displayed in the original text display area 330 to other original text information corresponding to the different field images included in the other image file. can do. That is, as the image file including different character images and the original text information corresponding thereto can be converted through the image skipping graphic object 350 included in the translation interface 300, various image files (or various characters Image), or the convenience of obtaining translated text information corresponding to various original text information may be improved.

즉, 전술한 바와 같이 사용자 단말로 제공된 번역 인터페이스를 통해 프로세서(130)는 사용자 단말(10)로부터 하나 이상의 글자 이미지에 대응하는 번역 텍스트 정보를 수신할 수 있다. 또한, 번역 인터페이스에 포함된 각 표시 영역 및 그래픽 객체를 통해 사용자와의 상호작용을 수행함에 따라 번역 텍스트 정보가 획득될 수 있다. 이는, 단순히 인공 신경망 기반 번역 모델을 활용하여 번역 텍스트 정보를 획득하는 것보다 향상된 품질의 번역 텍스트 정보가 획득된다는 장점이 있다. 예를 들어, 신경망의 학습을 통해 원문 텍스트 정보에 대응하는 번역 텍스트 정보를 출력하는 번역 모델은, 학습 데이터 자체에 오류에 관련한 정보가 포함되거나, 또는 학습을 위한 학습 데이터의 양이 충분하지 않은 경우, 정확도가 결여된 번역 텍스트 정보를 출력할 우려가 있다. 다만, 본 개시에서 번역 인터페이스를 활용하여 번역 텍스트 정보를 획득하는 구성은, 원문 텍스트 및 번역 텍스트에 관련한 언어를 모두 활용 가능한 사용자 단말들 각각의 사용자들의 직접적인 입력과 관련하여 획득되는 것임에 따라, 기계 번역 보다 향상된 품질의 번역 텍스트 정보의 제공이 가능해질 수 있다. That is, as described above, the processor 130 may receive translated text information corresponding to one or more text images from the user terminal 10 through the translation interface provided to the user terminal. In addition, translation text information may be obtained as an interaction with a user is performed through each display area and graphic object included in the translation interface. This has the advantage of obtaining translated text information of improved quality than simply obtaining translated text information using an artificial neural network-based translation model. For example, in a translation model that outputs translated text information corresponding to original text information through training of a neural network, the training data itself contains information related to errors, or when the amount of training data for training is insufficient. However, there is a fear of outputting translated text information that lacks accuracy. However, in the present disclosure, the configuration of obtaining the translated text information using the translation interface is obtained in connection with the direct input of users of each of the user terminals that can utilize both the original text and the language related to the translated text. It may be possible to provide translated text information of improved quality than translation.

본 개시의 일 실시예에 따르면, 프로세서(130)는 번역 텍스트 정보에 대한 품질 검사를 수행하여 번역 텍스트 정보에 대한 적정성을 판별할 수 있다. 자세히 설명하면, 프로세서(130)는 하나 이상의 다른 사용자 단말로 원문 텍스트 정보 및 번역 텍스트 정보를 포함하는 평가 인터페이스를 생성하여 전송할 것을 결정할 수 있다. 평가 인터페이스(400)는 사용자 단말을 통해 획득한 번역 텍스트 정보에 대한 적정성 평가를 위해 하나 이상의 다른 사용자 단말로 제공되는 사용자 인터페이스일 수 있다.According to an embodiment of the present disclosure, the processor 130 may determine the appropriateness of the translated text information by performing a quality check on the translated text information. In detail, the processor 130 may determine to generate and transmit an evaluation interface including original text information and translated text information to one or more other user terminals. The evaluation interface 400 may be a user interface provided to one or more other user terminals to evaluate the appropriateness of the translated text information acquired through the user terminal.

이 경우, 프로세서(130)는 평가 인터페이스를 전송하기 위한 하나 이상의 다른 사용자 단말을 결정할 수 있다. 구체적으로, 프로세서(130)는 복수의 사용자 단말 중 상기 번역 인터페이스에 포함된 상기 원문 텍스트 정보와 매칭되는 사용자 단말을 식별할 수 있다. 또한, 프로세서(130)는 식별된 사용자 단말을 상기 번역 인터페이스를 전송할 사용자 단말로 결정할 수 있다. 예컨대, 원문 텍스트 정보가 한국어에 관련한 경우, 프로세서(130)는 해당 한국어를 활용 가능한 사용자 단말을 번역 인터페이스를 전송할 사용자 단말로 결정할 수 있다. In this case, the processor 130 may determine one or more other user terminals for transmitting the evaluation interface. Specifically, the processor 130 may identify a user terminal matching the original text information included in the translation interface among a plurality of user terminals. In addition, the processor 130 may determine the identified user terminal as a user terminal to which the translation interface is to be transmitted. For example, when the original text information is related to Korean, the processor 130 may determine a user terminal capable of utilizing the corresponding Korean as a user terminal to which the translation interface is to be transmitted.

일 실시예에 따르면, 프로세서(130)는 사용자 단말의 히스토리 정보에 기초하여 품질 검사를 수행할 다른 사용자 단말의 수를 결정할 수 있다. 히스토리 정보는, 사용자 단말의 번역 입력 참여 횟수 정보 또는 누적 번역 평가 정보 중 적어도 하나를 포함할 수 있다. 번역 입력 참여 횟수 정보는, 사용자 단말이 번역 인터페이스를 통해 프로세서(130)로 번역 텍스트 정보를 전송한 횟수에 관련한 참여 이력에 관한 정보일 수 있다. 누적 번역 평가 정보는, 사용자 단말이 프로세서(130)로 전송한 원문 텍스트 정보에 대한 다른 사용자 단말들의 번역 평가 정보에 관련한 것일 수 있다. According to an embodiment, the processor 130 may determine the number of other user terminals to perform a quality check based on the history information of the user terminal. The history information may include at least one of information on the number of times the user terminal participates in translation input or cumulative translation evaluation information. The translation input participation number information may be information on a participation history related to the number of times the user terminal transmits the translated text information to the processor 130 through the translation interface. The cumulative translation evaluation information may be related to translation evaluation information of other user terminals with respect to the original text information transmitted from the user terminal to the processor 130.

또한, 프로세서(130)는 평가 인터페이스를 통한 하나 이상의 다른 사용자 단말 각각의 번역 평가 정보에 기초하여 번역 텍스트 정보에 대한 적정성을 판별할 수 있다. 도 5의 (a)를 참조하여 보다 구체적으로 설명하면, 평가 인터페이스(400)는, 이미지 표시 영역(410), 원문 텍스트 표시 영역(420), 번역 텍스트 표시 영역(430), 검수 관련 하나 이상의 그래픽 객체(440), 건너뛰기 그래픽 객체(450) 및 선택 저장 그래픽 객체(460)를 포함할 수 있다.In addition, the processor 130 may determine appropriateness of the translated text information based on translation evaluation information of each of one or more other user terminals through the evaluation interface. In more detail with reference to FIG. 5A, the evaluation interface 400 includes an image display area 410, an original text display area 420, a translated text display area 430, and one or more graphics related to inspection. An object 440, a skip graphic object 450, and a selection storage graphic object 460 may be included.

평가 인터페이스(400)에 포함된 이미지 표시 영역(410)은, 하나 이상의 글자 이미지가 표시되는 영역일 수 있다. 여기서, 이미지 표시 영역(410)에 표시되는 하나 이상의 글자 이미지는, 번역 텍스트 표시 영역(430)에 표시된 번역 텍스트 정보가 적정한지 여부를 판별하기 위한 기준이 되는 이미지일 수 있다. 예컨대, 사용자 단말의 사용자는 이미지 표시 영역(410), 원문 텍스트 표시 영역(420) 및 번역 텍스트 표시 영역(430)에 표시된 정보들을 비교하여 번역 텍스트 정보가 적정한지 여부를 평가할 수 있다. The image display area 410 included in the evaluation interface 400 may be an area in which one or more text images are displayed. Here, the one or more text images displayed on the image display area 410 may be images that serve as a criterion for determining whether the translated text information displayed on the translated text display area 430 is appropriate. For example, a user of the user terminal may compare information displayed in the image display area 410, the original text display area 420, and the translated text display area 430 to evaluate whether the translated text information is appropriate.

평가 인터페이스(400)에 포함된 원문 텍스트 표시 영역(420)은, 전술한 도 3에서의 원문 텍스트 정보 입력 영역(230)을 통해 획득한 원문 텍스트 정보가 표시되는 영역일 수 있다. 즉, 사용자 단말(10)의 사용자가 원문 인터페이스(200)의 이미지 표시 영역(220)에 표시된 하나 이상의 글자 이미지를 참조하여 원문 텍스트 입력 영역(230)에 원문 텍스트에 관련한 입력을 수행함에 따라 획득되는 원문 텍스트 정보가 원문 텍스트 표시 영역(420)에 표시될 수 있다.The original text display area 420 included in the evaluation interface 400 may be an area in which the original text information acquired through the original text information input area 230 of FIG. 3 is displayed. That is, obtained as the user of the user terminal 10 performs an input related to the original text in the original text input area 230 by referring to one or more character images displayed on the image display area 220 of the original text interface 200 Original text information may be displayed on the original text display area 420.

평가 인터페이스(400)에 포함된 번역 텍스트 표시 영역(430)은, 전술한 도 4에서의 번역 텍스트 입력 영역(340)을 통해 획득한 번역 텍스트 정보가 표시되는 영역일 수 있다. 즉, 사용자 단말의 사용자가 번역 인터페이스(300)의 원문 텍스트 표시 영역(330)에 표시된 원문 텍스트 정보를 참조하여 번역 텍스트 입력 영역(340)에 번역 텍스트에 관련한 입력을 수행함에 따라 획득되는 번역 텍스트 정보가 번역 텍스트 표시 영역(430)에 표시될 수 있다.The translation text display area 430 included in the evaluation interface 400 may be an area in which translation text information acquired through the translation text input area 340 of FIG. 4 is displayed. That is, translated text information obtained as the user of the user terminal performs input related to the translated text in the translated text input area 340 by referring to the original text information displayed in the original text display area 330 of the translation interface 300 May be displayed on the translated text display area 430.

평가 인터페이스(400)에 포함된 검수 관련 하나 이상의 그래픽 객체(440)는, 번역 텍스트 정보에 대한 검수 입력을 허용하기 위한 검수 그래픽 객체(442) 및 번역 텍스트 정보에 대한 평가 점수를 산출하기 위한 하나 이상의 평가 그래픽 객체(441, 443)를 포함할 수 있다. The one or more graphic objects 440 related to the inspection included in the evaluation interface 400 include a review graphic object 442 for allowing inspection input for the translated text information, and one or more graphic objects 442 for calculating an evaluation score for the translated text information. Evaluation graphic objects 441 and 443 may be included.

검수 그래픽 객체(442)는 번역 텍스트 정보에 대한 타 사용자의 검수 입력을 허용하기 위한 것으로, 사용자의 선택 입력을 수신하는 경우, 번역 텍스트 정보에 대한 사용자의 검수 입력을 허용하도록 번역 텍스트 표시 영역(430)을 활성화시킬 수 있다. 예를 들어, 평가 인터페이스(400)는 번역 텍스트 정보의 품질 평가를 위해 제 2 사용자 단말로 전송될 수 있으며, 번역 인터페이스(300)에 포함된 번역 텍스트 표시 영역(430)에는 제 1 사용자 단말을 통해 획득된 제 1 번역 텍스트 정보가 표시될 수 있다. 이 경우, 평가를 수행하는 제 2 사용자 단말의 제 2 사용자는 제 1 원문 텍스트 정보와 제 1 번역 텍스트 정보를 참조하여 해당 제 1 번역 텍스트 정보가 적정한지 여부를 판별할 수 있다. 제 2 사용자 단말의 제 2 사용자가 번역 텍스트 표시 영역(430)에 표시된 제 1 원문 텍스트 정보가 적정하지 않은 것으로 판별한 경우, 제 2 사용자는 검수 그래픽 객체(442)에 입력을 인가할 수 있다. 이 경우, 프로세서(130)는 제 2 사용자의 입력에 대응하여 번역 텍스트 표시 영역(430)을 제 2 사용자의 검수 입력을 허용하도록 활성화시킬 수 있다. 이에 따라, 제 2 사용자는 번역 텍스트 표시 영역(430)에 표시된 제 1 번역 텍스트 정보에 대한 검수 작업을 수행할 수 있다. 즉, 번역 텍스트 표시 영역(430)은 검수 그래픽 객체(442)에 대한 사용자의 입력 여부에 따라 검수 작업을 위한 영역으로 전환될 수 있다. 또한, 제 2 사용자는 검수 작업을 완료한 경우, 선택 저장 그래픽 객체(460)에 대한 선택 입력을 인가할 수 있으며, 프로세서(130)는 선택 저장 그래픽 객체(460)에 대한 제 2 사용자의 입력에 대응하여 번역 텍스트 정보에 수행된 제 2 사용자의 감수 입력을 감수 텍스트 정보로써 획득할 수 있다. The review graphic object 442 is for allowing another user to input the translation text information, and when receiving the user's selection input, the translation text display area 430 is configured to allow the user to input the translation text information. ) Can be activated. For example, the evaluation interface 400 may be transmitted to the second user terminal to evaluate the quality of the translated text information, and the translated text display area 430 included in the translation interface 300 is provided through the first user terminal. The obtained first translated text information may be displayed. In this case, the second user of the second user terminal performing the evaluation may determine whether the corresponding first translated text information is appropriate by referring to the first original text information and the first translated text information. When the second user of the second user terminal determines that the first original text information displayed on the translated text display area 430 is not appropriate, the second user may apply an input to the review graphic object 442. In this case, the processor 130 may activate the translated text display area 430 to allow the second user's input of verification in response to the second user's input. Accordingly, the second user may perform a review operation on the first translated text information displayed on the translated text display area 430. That is, the translation text display area 430 may be converted into an area for a review operation according to whether a user inputs the review graphic object 442. In addition, the second user may apply a selection input to the selectively stored graphic object 460 when the inspection operation is completed, and the processor 130 may respond to the second user's input to the selectively stored graphic object 460. Correspondingly, the second user's supervision input performed on the translated text information may be obtained as supervised text information.

이 경우, 프로세서(130)는 검수 텍스트 정보를 획득함에 따라, 제 2 사용자 단말로 리워드를 제공할 수 있다. 즉, 프로세서(130)는 제 1 사용자 단말(10)이 제공한 번역 텍스트 정보에 대한 검수 작업을 수행하는 제 2 사용자 단말에 리워드를 제공할 수 있다. 이에 따라, 번역 텍스트 정보에 대한 평가 또는 검수(또는 교정)를 위한 타 사용자들의 능동적인 참여가 이뤄질 수 있다. 또한, 다른 사용자들의 검수 작업을 통해 번역 텍스트 정보에 대한 교정이 수행됨에 따라 원문 텍스트에 대응하여 보다 적절한 번역 텍스트 정보가 생성될 수 있다. In this case, the processor 130 may provide a reward to the second user terminal as the verification text information is acquired. That is, the processor 130 may provide a reward to the second user terminal that performs a review on the translated text information provided by the first user terminal 10. Accordingly, active participation of other users for evaluation or review (or proofreading) of translated text information may be achieved. In addition, as the translation text information is corrected through the inspection work of other users, more appropriate translation text information may be generated corresponding to the original text.

추가적인 실시예에서, 번역 텍스트 정보에 대응하여 검수 텍스트 정보가 생성된 경우, 프로세서(130)는 생성된 검수 텍스트 정보를 번역 텍스트 정보 생성에 관련한 사용자 단말(10)에 전송할 것을 결정할 수 있다. 예를 들어, 제 1 사용자 단말(10)을 통해 획득된 제 1 번역 텍스트 정보에 대하여 제 2 사용자 단말(10)의 검수 입력을 통해 제 1 검수 텍스트 정보가 생성된 경우, 프로세서(130)는 검수 텍스트 정보를 제 1 사용자 단말로 전송할 것을 결정할 수 있다. 이에 따라, 제 1 사용자 단말의 사용자는 자신이 번역한 번역 텍스트 정보의 교정에 관한 정보를 수신할 수 있음에 따라, 원문 텍스트 정보에 대응하여 보다 적정한 번역 텍스트 정보를 학습할 수 있다. 즉, 교정에 관련한 정보를 통해 번역에 대한 학습 효과를 제공할 수 있다. In an additional embodiment, when the review text information is generated in response to the translated text information, the processor 130 may determine to transmit the generated review text information to the user terminal 10 related to the generation of the translated text information. For example, when the first translation text information obtained through the first user terminal 10 is generated through the inspection input of the second user terminal 10, the processor 130 It may be determined to transmit text information to the first user terminal. Accordingly, as the user of the first user terminal can receive information on the correction of the translated text information translated by himself/herself, the user of the first user terminal can learn more appropriate translated text information corresponding to the original text information. In other words, it is possible to provide a learning effect on translation through information related to proofreading.

하나 이상의 평가 그래픽 객체는 도 5의 (a)에 도시된 바와 같이, 번역 텍스트 정보에 관련한 번역이 적정하지 않다는 제 1 그래픽 객체(441) 및 번역 텍스트 정보에 관련한 번역이 적정하다는 제 2 그래픽 객체(442)를 포함할 수 있다. 즉, 평가 인터페이스(400)가 다른 하나 이상의 사용자 단말로 제공되는 경우, 다른 하나 이상의 사용자 단말 각각의 사용자는 제 1 그래픽 객체(441) 및 제 2 그래픽 객체(442) 중 적어도 하나에 대한 선택 입력을 통해 번역 텍스트 정보가 적정한지 여부에 관한 번역 평가 정보를 생성할 수 있다. 도 5의 예시에서는, 제 1 그래픽 객체 및 제 2 그래픽 객체 즉, 좋음, 또는 나쁨, 2개의 그래픽 객체를 통해 번역 텍스트 정보에 대한 번역 평가 정보를 생성함을 예시적으로 나타내나, 이에 제한되는 것은 아니다. 예컨대, 번역 평가 정보를 생성하기 위한 그래픽 객체는 '상', '중', '하'로 구성되거나, 또는 평가 품질에 관련한 복수의 수치를 통해 구성될 수도 있다.As shown in FIG. 442). That is, when the evaluation interface 400 is provided to one or more other user terminals, each user of the other one or more user terminals receives a selection input for at least one of the first graphic object 441 and the second graphic object 442. Through this, translation evaluation information regarding whether or not the translated text information is appropriate can be generated. In the example of FIG. 5, it is illustratively shown that translation evaluation information for the translated text information is generated through the first graphic object and the second graphic object, that is, good or bad, and two graphic objects, but are limited thereto. no. For example, a graphic object for generating translation evaluation information may be composed of'upper','middle', and'lower', or may be composed of a plurality of values related to evaluation quality.

실시 예에 따라서, 번역 평가를 수행하기 위한 기준에 대한 정보가 함께 제공될 수 있다. 예를 들어, 고유명사 혹은 식품명 등 특정 어휘들의 경우 언어 혹은 문화적 차이로 인하여 명확한 번역이 불가능하거나, 정확한 뜻을 전달하기 어려울 수 있다. 이 경우, 유사한 단어를 이용하여 번역하거나, 문장 혹은 구문으로 풀어서 번역하거나, 발음 그대로 음역을 하는 방법 중 하나를 선택하여 적용할 수 있다. 예를 들어, 도 5에 도시된 '양깃머리' 및 '오돌뼈'의 경우 Gras-double 및 Tribe 라고 번역할 수도 있지만, 'yanggit-meori' 혹은 'oddol-byeo' 와 같이 번역하는 것이 더 적절할 수도 있다.According to embodiments, information on criteria for performing translation evaluation may be provided together. For example, in the case of certain words such as proper nouns or food names, it may not be possible to clearly translate or convey an accurate meaning due to language or cultural differences. In this case, one of the methods of translating using similar words, translating and translating into sentences or phrases, or transliteration as pronunciation may be selected and applied. For example, in the case of'yanggital head' and'odolbone' shown in FIG. 5, it may be translated as Gras-double and Tribe, but it may be more appropriate to translate such as'yanggit-meori' or'oddol-byeo'. .

이 경우, 번역 평가를 수행하기 위한 기준에 대한 정보가 함께 제공되지 않는다면 평가자마다 상이한 평가결과를 내놓을 수 있어, 혼란이 야기될 수 있다. 따라서, 번역 평가 인터페이스(400)에는 번역 평가기준이 표시될 수 있다. 예를 들어, 번역 평가 인터페이스(400)에 포함된 원문을 키워드 단위로 검색하였을 때, 직접적으로 매칭되는 단어가 사전에 존재하지 않는 경우, 음역을 기준으로 평가하도록 할 수 있고, 이 경우 평가자는 외래어표기법을 기준으로 음역이 정상적으로 이루어졌는지를 평가할 수 있다.In this case, if information on the criteria for performing the translation evaluation is not provided together, different evaluation results may be produced for each evaluator, which may lead to confusion. Accordingly, translation evaluation criteria may be displayed on the translation evaluation interface 400. For example, when the original text included in the translation evaluation interface 400 is searched by keyword unit, if a word that directly matches does not exist in the dictionary, it may be evaluated based on the transliteration. In this case, the evaluator Based on the notation method, it is possible to evaluate whether the transliteration has been performed normally.

다른 예로, 번역 평가 인터페이스(400)에 포함된 원문을 키워드 단위로 검색하였을 때, 직접적으로 매칭되는 단어가 사전에 존재하지 않지만 예문에 해당 단어가 존재하거나, 기 설정된 유사도 이상의 단어가 존재하는 경우 유사 단어를 이용하여 번역하도록 할 수 있다. 이 경우, 평가자는 가장 유사한 단어를 잘 선택했는지 여부에 기초하여 번역결과를 평가할 수 있다. 단어의 유사도 평가는 word2vec 에 기반하여 수행될 수 있으나, 이에 제한되는 것은 아니다.As another example, when the original text included in the translation evaluation interface 400 is searched by keyword unit, a word that is directly matched does not exist in the dictionary, but the corresponding word exists in the example sentence, or if there is a word with a pre-set similarity or higher, it is similar. You can have them translate using words. In this case, the evaluator can evaluate the translation result based on whether or not the most similar word is well selected. The word similarity evaluation may be performed based on word2vec, but is not limited thereto.

일 실시 예에서, 번역 평가 인터페이스(400)에는 번역 평가 기준을 선택하거나 변경할 수 있는 인터페이스가 더 표시될 수 있다. 예를 들어, 번역 평가 기준이 별도로 제시되지 않은 경우, 평가자는 본인이 번역을 평가한 기준을 선택할 수 있다. 예를 들어, 평가자는 해당 원문에 대하여 적절하다고 판단되는 번역 평가기준 혹은 번역이 기 수행된 번역문의 번역방법에 대응하는 평가기준을 선택하고, 이에 대한 평가결과를 입력할 수 있다. 마찬가지로, 번역 평가 기준이 제시되어 있는 경우에도 평가자는 번역 평가 기준이 잘못 제시되었거나, 더 나은 평가 기준이 있다고 판단되는 경우 이를 변경하는 입력을 수행할 수 있다.In an embodiment, the translation evaluation interface 400 may further display an interface for selecting or changing a translation evaluation criterion. For example, if a translation evaluation criterion is not provided separately, the evaluator can select the criterion for which he/she evaluated the translation. For example, the evaluator may select a translation evaluation criterion that is deemed appropriate for the original text or an evaluation criterion corresponding to a translation method of a previously translated text, and input the evaluation result. Likewise, even when the translation evaluation criteria are presented, the evaluator may perform an input to change the translation evaluation criteria when it is determined that the translation evaluation criteria are incorrectly presented or that there is a better evaluation criteria.

평가 인터페이스(400)에 포함된 텍스트 건너뛰기 그래픽 객체(450)는 이미지 표시 영역(410), 원문 텍스트 표시 영역(420), 번역 텍스트 표시 영역(430)에 표시된 정보들을 전환하기 위한 사용자의 입력을 수신하는 그래픽 객체일 수 있다. 구체적으로, 텍스트 건너뛰기 그래픽 객체(450)에 대한 사용자의 입력을 수신하는 경우, 프로세서(130)는 현재 이미지 표시 영역(410), 원문 텍스트 표시 영역(420) 및 번역 텍스트 표시 영역(430) 각각에 표시된 정보들을 다른 이미지 파일 및 다른 원문 텍스트 정보로 전환할 수 있다.The text skip graphic object 450 included in the evaluation interface 400 receives a user's input for switching information displayed in the image display area 410, the original text display area 420, and the translated text display area 430. It may be a graphic object to be received. Specifically, when receiving a user's input for the skip text graphic object 450, the processor 130 may each of the current image display area 410, the original text display area 420, and the translated text display area 430 The information displayed in can be converted into other image files and other original text information.

본 개시의 일 실시예에 따르면, 프로세서(130)는 원문 텍스트 정보 및 해당 원문 텍스트 정보에 대응하는 번역 텍스트 정보에 기초하여 번역 모델을 학습시키기 위한 학습 데이터를 구축할 수 있다. 이 경우, 번역 모델은, 제 1 언어에 관련한 텍스트를 입력으로하여 제 2 언어에 관련한 텍스트를 출력하는 신경망 모델일 수 있다. 일반적으로, 인공 신경망 기반의 번역 모델은 학습 데이터가 많은수록 유의미한 정보의 추출이 가능해짐에 따라 향상된 정확도의 출력을 제공할 수 있다. 다만, 언어의 종류가 다양하고, 각 언어에는 수만가지의 단어와 각 단어의 조합을 통한 다양한 표현 방법이 존재하므로 적정한 학습 데이터 구축에 어려움이 있을 수 있다. 예컨대, 학습 데이터가 다량으로 확보되지 않는 경우, 번역 모델의 출력 정확도가 저하될 수 있다. 또한, 검증되지 않은 번역 데이터에 관련한 학습 데이터를 통한 학습은 번역 모델의 정확도를 결여시킬 우려가 있다. 이에 따라, 신경망을 학습시키기 위한 학습 데이터 구축 시, 검증 과정이 필수적으로 요구될 수 있다.According to an embodiment of the present disclosure, the processor 130 may construct training data for training a translation model based on original text information and translated text information corresponding to the original text information. In this case, the translation model may be a neural network model that outputs text related to the second language by inputting text related to the first language. In general, a translation model based on an artificial neural network can provide an output with improved accuracy as it becomes possible to extract meaningful information as the number of training data increases. However, since there are various kinds of languages, and there are tens of thousands of words in each language and various expression methods through combinations of each word, it may be difficult to construct appropriate learning data. For example, if a large amount of training data is not secured, the output accuracy of the translation model may be degraded. In addition, there is a concern that learning through training data related to unverified translation data may lack the accuracy of the translation model. Accordingly, when constructing training data for training a neural network, a verification process may be required.

본 개시에서 프로세서(130)가 구축하는 학습 데이터(즉, 원문 텍스트 정보 및 번역 텍스트 정보)는 다수의 사용자들의 직접적인 입력 과정과 검증 과정을 거친 데이터임에 따라 다량으로 확보될 수 있으며, 추가적인 별도의 검증 과정이 생략될 수 있다. 즉, 신뢰도를 가진 다량 정보들을 통해 학습 데이터를 구축하고, 해당 학습 데이터를 통해 학습된 번역 모델이 제공될 수 있음에 따라, 학습 데이터 구축의 편의성 및 번역 모델의 출력 정확도 향상에 기여할 수 있다. In the present disclosure, the learning data (i.e., original text information and translated text information) constructed by the processor 130 may be secured in a large amount according to data that has been directly input and verified by a number of users. The verification process can be omitted. That is, as learning data is constructed through a large amount of information with reliability, and a translation model learned through the learning data can be provided, it is possible to contribute to the convenience of construction of learning data and improvement of the output accuracy of the translation model.

본 개시의 일 실시예에 따르면, 프로세서(130)는 하나 이상의 글자 이미지 및 번역 텍스트 정보에 기초하여 번역 텍스트 이미지를 생성하고, 번역 텍스트 이미지를 하나 이상의 글자 이미지의 상위 레이어로 표시하여 아케이드 이미지를 생성할 수 있다. 구체적으로, 프로세서(130)는 하나 이상의 글자 이미지의 좌표 정보, 생성 정보 및 폰트 정보를 포함하는 글자 이미지 정보를 식별할 수 있다. 예컨대, 글자 이미지 정보는, 이미지 내에서 하나 이상의 글자 이미지의 위치가 제 1 위치에 위치한다는 좌표 정보, 하나 이상의 글자 이미지의 배경 색상이 노란색이며, 텍스트 색상이 검정색이라는 색상 정보 및 하나 이상의 글자 이미지가 폰트 사이즈 '11'이며, 서체 '맑은 고딕'이라는 폰트 정보를 포함할 수 있다. 전술한 글자 이미지 정보에 포함된 좌표 정보, 색상 정보 및 폰트 정보에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.According to an embodiment of the present disclosure, the processor 130 generates a translated text image based on one or more character images and translated text information, and displays the translated text image as an upper layer of the one or more character images to generate an arcade image. can do. Specifically, the processor 130 may identify text image information including coordinate information, generation information, and font information of one or more text images. For example, the text image information includes coordinate information indicating that the position of one or more text images is located at a first position in the image, color information indicating that the background color of one or more text images is yellow, the text color is black, and one or more text images. It is a font size of '11' and may include font information of the font'clear gothic'. The detailed description of coordinate information, color information, and font information included in the above-described text image information is only an example, and the present disclosure is not limited thereto.

프로세서(130)는 좌표 정보에 대응하는 영역의 평균 색상 값에 기초하여 번역 텍스트 배경 이미지를 생성할 수 있다. 즉, 프로세서(130)에 의해 생성된 번역 텍스트 배경 이미지는 하나 이상의 글자 이미지에 대응하는 색상으로 구성될 수 있다. The processor 130 may generate a translated text background image based on an average color value of an area corresponding to the coordinate information. That is, the translated text background image generated by the processor 130 may be configured with a color corresponding to one or more text images.

프로세서(130)는 번역 텍스트 배경 이미지에 번역 텍스트 정보를 상기 폰트 정보에 기초하여 반영함으로써 번역 텍스트 이미지를 생성할 수 있다. 예컨대, 하나 이상의 글자 이미지에 폰트 정보가 폰트 사이즈 '11'이며, 서체 '맑은 고딕'이라는 정보를 포함하는 경우, 프로세서(130)는 번역 텍스트 정보를 폰트 사이즈 '11'이며, 서체 '맑은 고딕'로 하여 번역 텍스트 이미지를 생성할 수 있다.The processor 130 may generate a translated text image by reflecting the translated text information on the translated text background image based on the font information. For example, if the font information is the font size '11' in one or more text images and the font'clear Gothic' includes information, the processor 130 uses the translated text information as the font size '11', and the font'clear gothic' You can generate a translated text image by using.

또한, 프로세서(130)는 생성된 번역 텍스트 이미지를 좌표 정보에 대응하는 영역에 상위 레이어로 표시하여 아케이드 이미지 파일을 생성할 수 있다. 즉, 이미지 파일 내 하나 이상의 글자 이미지 위에 생성된 번역 텍스트 이미지를 상위 레이어로 표시함으로써, 하나 이상의 글자 이미지가 특정 언어로 번역된 번역 텍스트 이미지로 대체된 아케이드 이미지 파일을 생성할 수 있다. 예컨대, 도 5의 (a)의 이미지 표시 영역(410) 표시된 하나 이상의 글자 이미지를 포함하는 이미지 파일에 대한 변환이 수행됨에 따라 생성되는 아케이드 이미지 파일은 도 5의 (b)와 같을 수 있다. Also, the processor 130 may generate an arcade image file by displaying the generated translated text image as an upper layer in an area corresponding to the coordinate information. That is, by displaying the translated text image generated on one or more text images in the image file as an upper layer, an arcade image file in which one or more text images are replaced with the translated text images translated into a specific language may be generated. For example, an arcade image file generated as an image file including one or more text images displayed in the image display area 410 of FIG. 5A is converted and may be the same as that of FIG. 5B.

다시 말해, 프로세서(130)는 이미지 파일 내에서 사용자가 이해하지 못하는 언어(예컨대, 외국어)로 작성된 하나 이상의 글자 이미지에 대한 번역을 수행하여 번역 텍스트 정보를 생성하고, 생성된 번역 텍스트 정보에 기초하여 이미지 파일에 대한 변환을 통해 아케이드 이미지를 생성할 수 있다. 이에 따라, 사용자는 자신에게 익숙한 언어를 통해 생성된 아케이드 이미지를 제공받을 수 있으므로, 이미지 파일 내에서 자신이 이해하지 못하는 정보들을 용이하게 획득할 수 있다. 이와 더불어, 프로세서(130)를 통해 생성된 아케이드 이미지는, 기존 하나 이상의 글자 이미지의 글자 이미지 정보에 기초하여 생성된 번역 이미지 정보를 포함할 수 있다. 즉, 아케이드 이미지 번역 전 이미지 내의 원문에 해당하는 글자의 표시 영역, 색상, 글자 크기, 서체 등에 기초하여 생성된 번역 이미지 정보를 포함함으로써, 번역에 관련한 정보를 획득하고자 하는 사용자에게 번역 전 이미지와 유사한 자연스러운 이미지를 제공할 수 있다.In other words, the processor 130 generates translated text information by performing translation on one or more text images written in a language (eg, a foreign language) that the user does not understand in the image file, and based on the generated translated text information. Arcade images can be created through conversion to image files. Accordingly, since the user may be provided with an arcade image generated through a language familiar to the user, information that the user does not understand in the image file can be easily obtained. In addition, the arcade image generated through the processor 130 may include translated image information generated based on text image information of one or more existing text images. In other words, by including the translated image information generated based on the display area, color, font size, font, etc. of the character corresponding to the original text in the image before translation of the arcade image, It can provide a natural image.

도 6은 본 개시의 일 실시예와 관련된 이미지 파일 내에 존재하는 텍스트에 대한 변환을 수행하여 아케이드 이미지를 생성하기 위한 방법을 수행하기 위한 단계들을 예시적으로 도시한 순서도이다.6 is a flowchart illustrating steps for performing a method for generating an arcade image by performing conversion on text existing in an image file according to an exemplary embodiment of the present disclosure.

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 이미지 파일에 포함된 하나 이상의 글자 이미지를 인식하여 원문 텍스트 정보를 획득할 수 있다(510).According to an embodiment of the present disclosure, the computing device 100 may obtain original text information by recognizing one or more text images included in an image file (510 ).

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 획득된 원문 텍스트 정보에 대한 품질 검사를 수행하여 원문 텍스트 정보에 대한 적정성을 판별할 수 있다(520).According to an embodiment of the present disclosure, the computing device 100 may determine appropriateness of the original text information by performing a quality check on the obtained original text information (520 ).

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 적정성 판별 결과에 기초하여 원문 텍스트 정보를 포함하는 번역 인터페이스를 사용자 단말로 전송할 수 있다(530). According to an embodiment of the present disclosure, the computing device 100 may transmit a translation interface including original text information to the user terminal based on a result of determining the appropriateness (530 ).

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 사용자 단말(10)로부터 번역 인터페이스를 통해 하나 이상의 글자 이미지에 대응하는 번역 텍스트 정보를 수신할 수 있다(540).According to an embodiment of the present disclosure, the computing device 100 may receive translated text information corresponding to one or more character images from the user terminal 10 through a translation interface (540 ).

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 하나 이상의 글자 이미지 및 번역 텍스트 정보에 기초하여 번역 텍스트 이미지를 생성하고, 생성된 번역 텍스트 이미지를 하나 이상의 글자 이미지의 상위 레이어로 표시하여 아케이드 이미지 파일을 생성할 수 있다(550).According to an embodiment of the present disclosure, the computing device 100 generates a translated text image based on one or more character images and translated text information, and displays the generated translated text image as an upper layer of the one or more character images to form an arcade. An image file may be generated (550).

전술한 도 6에 도시된 단계들은 필요에 의해 순서가 변경될 수 있으며, 적어도 하나 이상의 단계가 생략 또는 추가될 수 있다. 즉, 전술한 단계는 본 개시의 일 실시예에 불과할 뿐, 본 개시의 권리 범위는 이에 제한되지 않는다.The order of the steps illustrated in FIG. 6 may be changed as necessary, and at least one or more steps may be omitted or added. That is, the above-described steps are only one embodiment of the present disclosure, and the scope of the present disclosure is not limited thereto.

도 7은 본 개시의 일 실시예와 관련된 하나 이상의 네트워크 함수를 나타낸 개략도이다.7 is a schematic diagram illustrating one or more network functions related to an embodiment of the present disclosure.

본 명세서에 걸쳐, 연산 모델, 신경망, 네트워크 함수, 뉴럴 네트워크(neural network)는 동일한 의미로 사용될 수 있다. 신경망은 일반적으로 “노드”라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있다. 이러한 “노드”들은 “뉴런(neuron)”들로 지칭될 수도 있다. 신경망은 적어도 하나 이상의 노드들을 포함하여 구성된다. 신경망들을 구성하는 노드(또는 뉴런)들은 하나 이상의“링크”에 의해 상호 연결될 수 있다.Throughout this specification, a computational model, a neural network, a network function, and a neural network may be used with the same meaning. A neural network can be made up of a set of interconnected computational units, which can generally be referred to as “nodes”. These “nodes” may also be referred to as “neurons”. The neural network is composed of at least one or more nodes. The nodes (or neurons) that make up neural networks can be interconnected by one or more “links”.

신경망 내에서, 링크를 통해 연결된 하나 이상의 노드들은 상대적으로 입력 노드 및 출력 노드의 관계를 형성할 수 있다. 입력 노드 및 출력 노드의 개념은 상대적인 것으로서, 하나의 노드에 대하여 출력 노드 관계에 있는 임의의 노드는 다른 노드와의 관계에서 입력 노드 관계에 있을 수 있으며, 그 역도 성립할 수 있다. 상술한 바와 같이, 입력 노드 대 출력 노드 관계는 링크를 중심으로 생성될 수 있다. 하나의 입력 노드에 하나 이상의 출력 노드가 링크를 통해 연결될 수 있으며, 그 역도 성립할 수 있다.In a neural network, one or more nodes connected through a link may relatively form a relationship between an input node and an output node. The concepts of an input node and an output node are relative, and any node in an output node relationship with respect to one node may have an input node relationship in a relationship with another node, and vice versa. As described above, the input node to output node relationship can be created around the link. One or more output nodes may be connected to one input node through a link, and vice versa.

하나의 링크를 통해 연결된 입력 노드 및 출력 노드 관계에서, 출력 노드는 입력 노드에 입력된 데이터에 기초하여 그 값이 결정될 수 있다. 여기서 입력 노드와 출력 노드를 상호 연결하는 노드는 가중치(weight)를 가질 수 있다. 가중치는 가변적일 수 있으며, 신경망이 원하는 기능을 수행하기 위해, 사용자 또는 알고리즘에 의해 가변될 수 있다. 예를 들어, 하나의 출력 노드에 하나 이상의 입력 노드가 각각의 링크에 의해 상호 연결된 경우, 출력 노드는 상기 출력 노드와 연결된 입력 노드들에 입력된 값들 및 각각의 입력 노드들에 대응하는 링크에 설정된 가중치에 기초하여 출력 노드 값을 결정할 수 있다.In the relationship between the input node and the output node connected through one link, the value of the output node may be determined based on data input to the input node. Here, a node interconnecting the input node and the output node may have a weight. The weight may be variable, and in order for the neural network to perform a desired function, it may be changed by a user or an algorithm. For example, when one or more input nodes are interconnected to one output node by respective links, the output node includes values input to input nodes connected to the output node and a link corresponding to each input node. The output node value may be determined based on the weight.

상술한 바와 같이, 신경망은 하나 이상의 노드들이 하나 이상의 링크를 통해 상호 연결되어 신경망 내에서 입력 노드 및 출력 노드 관계를 형성한다. 신경망 내에서 노드들과 링크들의 개수 및 노드들과 링크들 사이의 연관관계, 링크들 각각에 부여된 가중치의 값에 따라, 신경망의 특성이 결정될 수 있다. 예를 들어, 동일한 개수의 노드 및 링크들이 존재하고, 링크들 사이의 가중치 값이 상이한 두 신경망이 존재하는 경우, 두 개의 신경망들은 서로 상이한 것으로 인식될 수 있다.As described above, in a neural network, one or more nodes are interconnected through one or more links to form an input node and an output node relationship in the neural network. The characteristics of the neural network may be determined according to the number of nodes and links in the neural network, the association relationship between the nodes and the links, and a weight value assigned to each of the links. For example, when there are the same number of nodes and links, and two neural networks having different weight values between the links exist, the two neural networks may be recognized as being different from each other.

신경망은 하나 이상의 노드들을 포함하여 구성될 수 있다. 신경망을 구성하는 노드들 중 일부는, 최초 입력 노드로부터의 거리들에 기초하여, 하나의 레이어(layer)를 구성할 수 있다, 예를 들어, 최초 입력 노드로부터 거리가 n인 노드들의 집합은, n 레이어를 구성할 수 있다. 최초 입력 노드로부터 거리는, 최초 입력 노드로부터 해당 노드까지 도달하기 위해 거쳐야 하는 링크들의 최소 개수에 의해 정의될 수 있다. 그러나, 이러한 레이어의 정의는 설명을 위한 임의적인 것으로서, 신경망 내에서 레이어의 차수는 상술한 것과 상이한 방법으로 정의될 수 있다. 예를 들어, 노드들의 레이어는 최종 출력 노드로부터 거리에 의해 정의될 수도 있다.A neural network may be configured including one or more nodes. Some of the nodes constituting the neural network may configure one layer based on the distances from the initial input node. For example, a set of nodes with a distance n from the initial input node, n layers can be configured. The distance from the first input node may be defined by the minimum number of links that must be traversed to reach the node from the first input node. However, the definition of such a layer is arbitrary for explanation, and the order of the layer in the neural network may be defined in a different way than that described above. For example, the layer of nodes may be defined by the distance from the last output node.

최초 입력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서 링크를 거치지 않고 데이터가 직접 입력되는 하나 이상의 노드들을 의미할 수 있다. 또는, 신경망 네트워크 내에서, 링크를 기준으로 한 노드 간의 관계에 있어서, 링크로 연결된 다른 입력 노드들 가지지 않는 노드들을 의미할 수 있다. 이와 유사하게, 최종 출력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서, 출력 노드를 가지지 않는 하나 이상의 노드들을 의미할 수 있다. 또한, 히든 노드는 최초 입력 노드 및 최후 출력 노드가 아닌 신경망을 구성하는 노드들을 의미할 수 있다. 본 개시의 일 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수와 동일할 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하다가 다시 증가하는 형태의 신경망일 수 있다. 또한, 본 개시의 다른 일 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수 보다 적을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하는 형태의 신경망일 수 있다. 또한, 본 개시의 또 다른 일 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수보다 많을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 증가하는 형태의 신경망일 수 있다. 본 개시의 또 다른 일 실시예에 따른 신경망은 상술한 신경망들의 조합된 형태의 신경망일 수 있다.The first input node may mean one or more nodes to which data is directly input without going through a link in a relationship with other nodes among nodes in the neural network. Alternatively, in a relationship between nodes based on a link in a neural network network, it may mean nodes that do not have other input nodes connected by a link. Similarly, the final output node may mean one or more nodes that do not have an output node in a relationship with other nodes among nodes in the neural network. In addition, the hidden node may refer to nodes constituting a neural network other than the first input node and the last output node. In the neural network according to an embodiment of the present disclosure, the number of nodes in the input layer may be the same as the number of nodes in the output layer, and the number of nodes decreases and then increases again as the input layer proceeds to the hidden layer. I can. In addition, the neural network according to another embodiment of the present disclosure may be a neural network in which the number of nodes of an input layer is less than the number of nodes of an output layer, and the number of nodes decreases as the number of nodes progresses from the input layer to the hidden layer. have. In addition, the neural network according to another embodiment of the present disclosure may be a neural network in which the number of nodes of an input layer is greater than the number of nodes of an output layer, and the number of nodes increases as the number of nodes progresses from the input layer to the hidden layer. I can. The neural network according to another embodiment of the present disclosure may be a neural network in the form of a combination of the aforementioned neural networks.

딥 뉴럴 네트워크(DNN: deep neural network, 심층신경망)는 입력레이어와 출력 레이어 외에 복수의 히든 레이어를 포함하는 신경망을 의미할 수 있다. 딥 뉴럴 네트워크를 이용하면 데이터의 잠재적인 구조(latent structures)를 파악할 수 있다. 즉, 사진, 글, 비디오, 음성, 음악의 잠재적인 구조(예를 들어, 어떤 물체가 사진에 있는지, 글의 내용과 감정이 무엇인지, 음성의 내용과 감정이 무엇인지 등)를 파악할 수 있다. 딥 뉴럴 네트워크는 컨볼루션 뉴럴 네트워크(CNN: convolutional neural network), 리커런트 뉴럴 네트워크(RNN: recurrent neural network), 오토 인코더(auto encoder), GAN(Generative Adversarial Networks), 제한 볼츠만 머신(RBM: restricted boltzmann machine), 심층 신뢰 네트워크(DBN: deep belief network), Q 네트워크, U 네트워크, 샴 네트워크 등을 포함할 수 있다. 전술한 딥 뉴럴 네트워크의 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.A deep neural network (DNN) may mean a neural network including a plurality of hidden layers in addition to an input layer and an output layer. Deep neural networks can be used to identify potential structures in data. In other words, it is possible to understand the potential structures of photos, texts, videos, voices, and music (for example, what objects are in photos, what are the content and emotions of the text, what are the contents and emotions of the voice, etc.). . Deep neural networks include convolutional neural networks (CNNs), recurrent neural networks (RNNs), auto encoders, Generative Adversarial Networks (GANs), and restricted boltzmann machines (RBMs). machine), deep belief network (DBN), Q network, U network, and Siam network. The description of the above-described deep neural network is only an example, and the present disclosure is not limited thereto.

뉴럴 네트워크는 교사 학습(supervised learning), 비교사 학습(unsupervised learning) 및 반교사학습(semi supervised learning) 중 적어도 하나의 방식으로 학습될 수 있다. 뉴럴 네트워크의 학습은 출력의 오류를 최소화하기 위한 것이다. 뉴럴 네트워크의 학습에서 반복적으로 학습 데이터를 뉴럴 네트워크에 입력시키고 학습 데이터에 대한 뉴럴 네트워크의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 뉴럴 네트워크의 에러를 뉴럴 네트워크의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation)하여 뉴럴 네트워크의 각 노드의 가중치를 업데이트 하는 과정이다. 교사 학습의 경우 각각의 학습 데이터에 정답이 라벨링되어있는 학습 데이터를 사용하며(즉, 라벨링된 학습 데이터), 비교사 학습의 경우는 각각의 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 교사 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 라벨링 된 데이터 일 수 있다. 라벨링된 학습 데이터가 뉴럴 네트워크에 입력되고, 뉴럴 네트워크의 출력(카테고리)과 학습 데이터의 라벨이 비교함으로써 오류(error)가 계산될 수 있다. 다른 예로, 데이터 분류에 관한 비교사 학습의 경우 입력인 학습 데이터가 뉴럴 네트워크 출력과 비교됨으로써 오류가 계산될 수 있다. 계산된 오류는 뉴럴 네트워크에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 뉴럴 네트워크의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 뉴럴 네트워크의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 뉴럴 네트워크의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 뉴럴 네트워크의 학습 초기에는 높은 학습률을 사용하여 뉴럴 네트워크가 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다.The neural network may be learned in at least one of supervised learning, unsupervised learning, and semi supervised learning. Learning of neural networks is to minimize output errors. In learning of a neural network, iteratively inputs training data to the neural network, calculates the output of the neural network for the training data and the error of the target, and reduces the error from the output layer of the neural network to the input layer. This is a process of updating the weight of each node of the neural network by backpropagation in the direction. In the case of teacher learning, learning data in which the correct answer is labeled in each learning data is used (ie, labeled learning data), and in the case of non-satellite learning, the correct answer may not be labeled in each learning data. That is, for example, in the case of teacher learning related to data classification, the learning data may be data in which a category is labeled with each learning data. Labeled training data is input to a neural network, and an error may be calculated by comparing an output (category) of the neural network with a label of the training data. As another example, in the case of comparative history learning regarding data classification, an error may be calculated by comparing the input training data with the neural network output. The calculated error is backpropagated in the neural network in the reverse direction (ie, from the output layer to the input layer), and the connection weight of each node of each layer of the neural network may be updated according to the backpropagation. The amount of change in the connection weight of each node to be updated may be determined according to a learning rate. The computation of the neural network for the input data and the backpropagation of the error can constitute a learning cycle (epoch). The learning rate may be applied differently according to the number of repetitions of the learning cycle of the neural network. For example, a high learning rate is used in the early stages of training of a neural network, so that the neural network quickly secures a certain level of performance to increase efficiency, and a low learning rate can be used in the later stages of training to increase accuracy.

뉴럴 네트워크의 학습에서 일반적으로 학습 데이터는 실제 데이터(즉, 학습된 뉴럴 네트워크를 이용하여 처리하고자 하는 데이터)의 부분집합일 수 있으며, 따라서, 학습 데이터에 대한 오류는 감소하나 실제 데이터에 대해서는 오류가 증가하는 학습 사이클이 존재할 수 있다. 과적합(overfitting)은 이와 같이 학습 데이터에 과하게 학습하여 실제 데이터에 대한 오류가 증가하는 현상이다. 예를 들어, 노란색 고양이를 보여 고양이를 학습한 뉴럴 네트워크가 노란색 이외의 고양이를 보고는 고양이임을 인식하지 못하는 현상이 과적합의 일종일 수 있다. 과적합은 머신러닝 알고리즘의 오류를 증가시키는 원인으로 작용할 수 있다. 이러한 과적합을 막기 위하여 다양한 최적화 방법이 사용될 수 있다. 과적합을 막기 위해서는 학습 데이터를 증가시키거나, 레귤라이제이션(regularization), 학습의 과정에서 네트워크의 노드 일부를 생략하는 드롭아웃(dropout) 등의 방법이 적용될 수 있다.In learning of a neural network, in general, training data may be a subset of actual data (that is, data to be processed using a trained neural network), and thus, errors in the training data decrease, but errors in the actual data are reduced. There may be increasing learning cycles. Overfitting is a phenomenon in which errors in actual data increase due to over-learning on learning data. For example, a neural network learning a cat by showing a yellow cat may not recognize that it is a cat when it sees a cat other than yellow, which may be a kind of overfitting. Overfitting can cause an increase in errors in machine learning algorithms. Various optimization methods can be used to prevent such overfitting. In order to prevent overfitting, methods such as increasing training data, regularization, and dropout in which some nodes of the network are omitted during the training process may be applied.

본 개시의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 개시가 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.Steps of a method or algorithm described in connection with an embodiment of the present disclosure may be implemented directly in hardware, implemented as a software module executed by hardware, or a combination thereof. Software modules include Random Access Memory (RAM), Read Only Memory (ROM), Erasable Programmable ROM (EPROM), Electrically Erasable Programmable ROM (EEPROM), Flash Memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer-readable recording medium well known in the art to which the present disclosure pertains.

본 개시의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 개시의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.Components of the present disclosure may be implemented as a program (or application) and stored in a medium to be executed by being combined with a computer that is hardware. Components of the present disclosure may be executed as software programming or software elements, and similarly, embodiments include various algorithms implemented with a combination of data structures, processes, routines or other programming components, including C, C++ , Java, assembler, or the like may be implemented in a programming or scripting language. Functional aspects can be implemented with an algorithm running on one or more processors.

본 개시의 기술 분야에서 통상의 지식을 가진 자는 여기에 개시된 실시예들과 관련하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 프로세서들, 수단들, 회로들 및 알고리즘 단계들이 전자 하드웨어, (편의를 위해, 여기에서 "소프트웨어"로 지칭되는) 다양한 형태들의 프로그램 또는 설계 코드 또는 이들 모두의 결합에 의해 구현될 수 있다는 것을 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 호환성을 명확하게 설명하기 위해, 다양한 예시적인 컴포넌트들, 블록들, 모듈들, 회로들 및 단계들이 이들의 기능과 관련하여 위에서 일반적으로 설명되었다. 이러한 기능이 하드웨어 또는 소프트웨어로서 구현되는지 여부는 특정한 애플리케이션 및 전체 시스템에 대하여 부과되는 설계 제약들에 따라 좌우된다. 본 개시의 기술 분야에서 통상의 지식을 가진 자는 각각의 특정한 애플리케이션에 대하여 다양한 방식들로 설명된 기능을 구현할 수 있으나, 이러한 구현 결정들은 본 개시의 범위를 벗어나는 것으로 해석되어서는 안 될 것이다.A person of ordinary skill in the art of the present disclosure includes various exemplary logical blocks, modules, processors, means, circuits and algorithm steps described in connection with the embodiments disclosed herein, electronic hardware, (convenience). For the sake of clarity, it will be appreciated that it may be implemented by various forms of program or design code or a combination of both (referred to herein as "software"). To clearly illustrate this interchangeability of hardware and software, various illustrative components, blocks, modules, circuits, and steps have been described above generally in terms of their functionality. Whether such functionality is implemented as hardware or software depends on the particular application and design constraints imposed on the overall system. A person of ordinary skill in the art of the present disclosure may implement the described functions in various ways for each specific application, but such implementation decisions should not be interpreted as causing a departure from the scope of the present disclosure.

여기서 제시된 다양한 실시예들은 방법, 장치, 또는 표준 프로그래밍 및/또는 엔지니어링 기술을 사용한 제조 물품(article)으로 구현될 수 있다. 용어 "제조 물품"은 임의의 컴퓨터-판독가능 장치로부터 액세스 가능한 컴퓨터 프로그램, 캐리어, 또는 매체(media)를 포함한다. 예를 들어, 컴퓨터-판독가능 매체는 자기 저장 장치(예를 들면, 하드 디스크, 플로피 디스크, 자기 스트립, 등), 광학 디스크(예를 들면, CD, DVD, 등), 스마트 카드, 및 플래쉬 메모리 장치(예를 들면, EEPROM, 카드, 스틱, 키 드라이브, 등)를 포함하지만, 이들로 제한되는 것은 아니다. 또한, 여기서 제시되는 다양한 저장 매체는 정보를 저장하기 위한 하나 이상의 장치 및/또는 다른 기계-판독가능한 매체를 포함한다. 용어 "기계-판독가능 매체"는 명령(들) 및/또는 데이터를 저장, 보유, 및/또는 전달할 수 있는 무선 채널 및 다양한 다른 매체를 포함하지만, 이들로 제한되는 것은 아니다. The various embodiments presented herein may be implemented as a method, apparatus, or article of manufacture using standard programming and/or engineering techniques. The term “article of manufacture” includes a computer program, carrier, or media accessible from any computer-readable device. For example, computer-readable media include magnetic storage devices (e.g., hard disks, floppy disks, magnetic strips, etc.), optical disks (e.g., CD, DVD, etc.), smart cards, and flash memory. Devices (eg, EEPROM, card, stick, key drive, etc.). In addition, the various storage media presented herein include one or more devices and/or other machine-readable media for storing information. The term “machine-readable medium” includes, but is not limited to, wireless channels and various other media capable of storing, holding, and/or transmitting instruction(s) and/or data.

제시된 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조는 예시적인 접근들의 일례임을 이해하도록 한다. 설계 우선순위들에 기초하여, 본 개시의 범위 내에서 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조가 재배열될 수 있다는 것을 이해하도록 한다. 첨부된 방법 청구항들은 샘플 순서로 다양한 단계들의 엘리먼트들을 제공하지만 제시된 특정한 순서 또는 계층 구조에 한정되는 것을 의미하지는 않는다.It is to be understood that the specific order or hierarchy of steps in the presented processes is an example of exemplary approaches. Based on the design priorities, it is to be understood that a specific order or hierarchy of steps in processes may be rearranged within the scope of the present disclosure. The appended method claims provide elements of the various steps in a sample order, but are not meant to be limited to the specific order or hierarchy presented.

제시된 실시예들에 대한 설명은 임의의 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 개시를 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 개시는 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.A description of the presented embodiments is provided to enable any person skilled in the art to make or use the present disclosure. Various modifications to these embodiments will be apparent to those of ordinary skill in the art, and general principles defined herein may be applied to other embodiments without departing from the scope of the present disclosure. Thus, the present disclosure is not to be limited to the embodiments presented herein, but is to be construed in the widest scope consistent with the principles and novel features presented herein.

Claims (10)

이미지 파일에 포함된 하나 이상의 글자 이미지를 인식하여 원문 텍스트 정보를 획득하는 단계;
상기 획득된 원문 텍스트 정보에 대한 품질 검사를 수행하여 상기 원문 텍스트 정보에 대한 적정성을 판별하는 단계;
상기 적정성 판별 결과에 기초하여 상기 원문 텍스트 정보를 포함하는 번역 인터페이스를 사용자 단말로 전송할 것을 결정하는 단계;
상기 사용자 단말로부터 상기 번역 인터페이스를 통해 상기 하나 이상의 글자 이미지에 대응하는 번역 텍스트 정보를 수신하는 단계; 및
상기 하나 이상의 글자 이미지 및 상기 수신된 번역 텍스트 정보에 기초하여 번역 텍스트 이미지를 생성하고, 상기 생성된 번역 텍스트 이미지를 상기 하나 이상의 글자 이미지의 상위 레이어로 표시하여 아케이드 이미지 파일을 생성하는 단계;
를 포함하고,
상기 이미지 파일에 포함된 하나 이상의 글자 이미지를 인식하여 원문 텍스트 정보를 획득하는 단계는,
상기 이미지 파일에 포함된 하나 이상의 글자 이미지 중 일부를 포함하는 원문 인터페이스를 생성하여 상기 사용자 단말에 전송할 것을 결정하는 단계; 및
상기 원문 인터페이스를 통한 상기 사용자 단말의 사용자 입력에 기초하여 상기 원문 텍스트 정보를 수신하는 단계;
를 포함하고,
상기 원문 인터페이스는,
상기 사용자 단말의 참여 이력 정보 또는 언어 숙련도 중 적어도 하나에 기초하여 노출되는 정도가 결정되는 것을 특징으로 하는,
컴퓨팅 장치의 하나 이상의 프로세서에서 수행되는, 이미지 파일에 존재하는 텍스트에 대한 변환을 수행하여 아케이드 이미지 파일을 생성하기 위한 방법.
Acquiring original text information by recognizing one or more text images included in the image file;
Determining adequacy of the original text information by performing a quality check on the obtained original text information;
Determining to transmit a translation interface including the original text information to a user terminal based on the adequacy determination result;
Receiving translated text information corresponding to the one or more text images from the user terminal through the translation interface; And
Generating a translated text image based on the at least one character image and the received translated text information, and displaying the generated translated text image as an upper layer of the at least one character image to generate an arcade image file;
Including,
Recognizing one or more text images included in the image file to obtain original text information,
Generating an original text interface including some of one or more text images included in the image file and determining to transmit it to the user terminal; And
Receiving the original text information based on a user input of the user terminal through the original text interface;
Including,
The original text interface,
The degree of exposure is determined based on at least one of participation history information or language proficiency level of the user terminal,
A method for generating an arcade image file by performing a transformation on text present in an image file, performed on one or more processors of a computing device.
제 1 항에 있어서,
상기 이미지 파일에 포함된 하나 이상의 글자 이미지를 인식하여 원문 텍스트 정보를 획득하는 단계는,
하나 이상의 네트워크 함수를 포함하는 글자 인식 모델을 통해 상기 이미지 파일 내에 포함된 하나 이상의 글자 이미지에 대응하는 상기 원문 텍스트 정보를 획득하는 단계; 또는
원문 인터페이스를 통해 상기 사용자 단말로부터 상기 원문 텍스트 정보를 획득하는 단계;
중 적어도 하나를 포함하는,
컴퓨팅 장치의 하나 이상의 프로세서에서 수행되는, 이미지 파일에 존재하는 텍스트에 대한 변환을 수행하여 아케이드 이미지 파일을 생성하기 위한 방법.
The method of claim 1,
Recognizing one or more text images included in the image file to obtain original text information,
Obtaining the original text information corresponding to one or more text images included in the image file through a text recognition model including one or more network functions; or
Obtaining the original text information from the user terminal through an original text interface;
Containing at least one of,
A method for generating an arcade image file by performing a transformation on text present in an image file, performed on one or more processors of a computing device.
삭제delete 제 1 항에 있어서,
상기 원문 인터페이스에 대한 상기 사용자 단말의 타이핑 입력을 감지하는 단계;
미리 정해진 단위 시간을 기준으로 미리 정해진 임계 횟수 이상의 타이핑 입력이 감지되면, 상기 사용자 단말의 타이핑 입력을 오류 입력으로 결정하는 단계; 및
상기 오류 입력이 감지된 사용자 단말에 대해 상기 하나 이상의 글자 이미지를 미리 정해진 시간동안 노출시키지 않을 것을 결정하는 단계;
를 더 포함하는,
컴퓨팅 장치의 하나 이상의 프로세서에서 수행되는, 이미지 파일에 존재하는 텍스트에 대한 변환을 수행하여 아케이드 이미지 파일을 생성하기 위한 방법.
The method of claim 1,
Detecting a typing input of the user terminal for the original text interface;
Determining a typing input of the user terminal as an error input when a typing input of more than a predetermined threshold number of times is detected based on a predetermined unit time; And
Determining not to expose the one or more text images for a predetermined time to the user terminal in which the error input is detected;
Further comprising,
A method for generating an arcade image file by performing a transformation on text present in an image file, performed on one or more processors of a computing device.
제 1 항에 있어서,
상기 원문 텍스트 정보에 대한 품질 검사를 수행하여 상기 원문 텍스트 정보에 대한 적정성을 판별하는 단계는,
상기 사용자 단말의 히스토리 정보에 기초하여 상기 품질 검사를 수행할 다른 사용자 단말의 수를 결정하는 단계;
상기 결정된 다른 사용자 단말의 수에 대응하여 하나 이상의 다른 사용자 단말에게 상기 하나 이상의 글자 이미지 및 상기 원문 텍스트 정보를 포함하는 평가 정보 입력 창을 전송할 것을 결정하는 단계;
상기 하나 이상의 다른 사용자 단말 각각으로부터 상기 평가 정보 입력 창을 통해 수신한 품질 평가 정보에 기초하여 상기 원문 텍스트 정보에 대한 적정성을 판별하는 단계; 및
상기 적정성 판별 결과에 기초하여 상기 사용자 단말에 리워드(reward)를 부여하는 단계;
를 포함하고,
상기 히스토리 정보는,
상기 사용자 단말의 입력 참여 횟수 정보 및 누적 품질 평가 정보 중 적어도 하나를 포함하는,
컴퓨팅 장치의 하나 이상의 프로세서에서 수행되는, 이미지 파일에 존재하는 텍스트에 대한 변환을 수행하여 아케이드 이미지 파일을 생성하기 위한 방법.
The method of claim 1,
The step of determining adequacy of the original text information by performing a quality check on the original text information,
Determining the number of other user terminals to perform the quality check based on the history information of the user terminal;
Determining to transmit an evaluation information input window including the one or more character images and the original text information to one or more other user terminals in response to the determined number of other user terminals;
Determining adequacy of the original text information based on quality evaluation information received through the evaluation information input window from each of the one or more other user terminals; And
Granting a reward to the user terminal based on the adequacy determination result;
Including,
The history information,
Including at least one of input participation count information and cumulative quality evaluation information of the user terminal,
A method for generating an arcade image file by performing a transformation on text present in an image file, performed on one or more processors of a computing device.
제 1 항에 있어서,
복수의 사용자 단말 중 상기 번역 인터페이스에 포함된 상기 원문 텍스트 정보와 매칭되는 사용자 단말을 식별하는 단계; 및
상기 식별된 사용자 단말을 상기 번역 인터페이스를 전송할 사용자 단말로 결정하는 단계;
를 더 포함하는,
컴퓨팅 장치의 하나 이상의 프로세서에서 수행되는, 이미지 파일에 존재하는 텍스트에 대한 변환을 수행하여 아케이드 이미지 파일을 생성하기 위한 방법.
The method of claim 1,
Identifying a user terminal matching the original text information included in the translation interface among a plurality of user terminals; And
Determining the identified user terminal as a user terminal to which the translation interface is to be transmitted;
Further comprising,
A method for generating an arcade image file by performing a transformation on text present in an image file, performed on one or more processors of a computing device.
제 1 항에 있어서,
하나 이상의 다른 사용자 단말로 상기 원문 텍스트 정보 및 상기 번역 텍스트 정보를 포함하는 평가 인터페이스를 생성하여 전송할 것을 결정하는 단계; 및
상기 평가 인터페이스를 통한 하나 이상의 다른 사용자 단말 각각의 번역 평가 정보에 기초하여 상기 번역 텍스트 정보에 대한 적정성을 판별하는 단계;
를 더 포함하는,
컴퓨팅 장치의 하나 이상의 프로세서에서 수행되는, 이미지 파일에 존재하는 텍스트에 대한 변환을 수행하여 아케이드 이미지 파일을 생성하기 위한 방법.
The method of claim 1,
Determining to generate and transmit an evaluation interface including the original text information and the translated text information to one or more other user terminals; And
Determining adequacy of the translated text information based on translation evaluation information of each of one or more other user terminals through the evaluation interface;
Further comprising,
A method for generating an arcade image file by performing a transformation on text present in an image file, performed on one or more processors of a computing device.
제 7 항에 있어서,
상기 평가 인터페이스는,
상기 번역 텍스트 정보에 대한 검수 입력을 허용하는 검수 정보 입력 영역 및 상기 번역 텍스트 정보에 대한 평가 점수를 산출하기 위한 하나 이상의 평가 그래픽 객체를 포함하는,
컴퓨팅 장치의 하나 이상의 프로세서에서 수행되는, 이미지 파일에 존재하는 텍스트에 대한 변환을 수행하여 아케이드 이미지 파일을 생성하기 위한 방법.
The method of claim 7,
The evaluation interface,
Including a review information input area for allowing a review input of the translated text information and at least one evaluation graphic object for calculating an evaluation score for the translated text information,
A method for generating an arcade image file by performing a transformation on text present in an image file, performed on one or more processors of a computing device.
제 1 항에 있어서,
상기 하나 이상의 글자 이미지 및 상기 번역 텍스트 정보에 기초하여 번역 텍스트 이미지를 생성하고, 상기 번역 텍스트 이미지를 상기 하나 이상의 글자 이미지의 상위 레이어로 표시하여 아케이드 이미지를 생성하는 단계는,
상기 하나 이상의 글자 이미지의 좌표 정보, 색상 정보 및 폰트 정보를 포함하는 글자 이미지 정보를 식별하는 단계;
상기 좌표 정보에 대응하는 영역의 평균 색상 값에 기초하여 번역 텍스트 배경 이미지를 생성하는 단계;
상가 번역 텍스트 배경 이미지에 상기 번역 텍스트 정보를 상기 폰트 정보에 기초하여 반영함으로써 상기 번역 텍스트 이미지를 생성하는 단계; 및
상기 번역 텍스트 이미지를 상기 좌표 정보에 대응하는 영역에 상위 레이어로 표시하여 상기 아케이드 이미지 파일을 생성하는 단계;
를 포함하는,
컴퓨팅 장치의 하나 이상의 프로세서에서 수행되는, 이미지 파일에 존재하는 텍스트에 대한 변환을 수행하여 아케이드 이미지 파일을 생성하기 위한 방법.
The method of claim 1,
Generating a translated text image based on the at least one character image and the translated text information, and generating an arcade image by displaying the translated text image as an upper layer of the at least one character image,
Identifying text image information including coordinate information, color information, and font information of the one or more text images;
Generating a translated text background image based on an average color value of an area corresponding to the coordinate information;
Generating the translated text image by reflecting the translated text information on a commercial translation text background image based on the font information; And
Generating the arcade image file by displaying the translated text image as an upper layer in an area corresponding to the coordinate information;
Containing,
A method for generating an arcade image file by performing a transformation on text present in an image file, performed on one or more processors of a computing device.
이미지 파일 내에 존재하는 텍스트에 대한 변환을 수행하여 아케이드 이미지 파일을 생성하기 위한 컴퓨팅 장치로서,
하나 이상의 코어를 포함하는 프로세서;
상기 프로세서에서 실행가능한 프로그램 코드들을 저장하는 메모리; 및
하나 이상의 사용자 단말과 데이터를 송수신하는 네트워크부;
를 포함하고,
상기 프로세서는,
이미지 파일에 포함된 하나 이상의 글자 이미지를 인식하여 원문 텍스트 정보를 획득하고,
상기 획득된 원문 텍스트 정보에 대한 품질 검사를 수행하여 상기 원문 텍스트 정보에 대한 적정성을 판별하고,
상기 적정성 판별 결과에 기초하여 상기 원문 텍스트 정보를 포함하는 번역 인터페이스를 사용자 단말로 전송할 것을 결정하고,
상기 사용자 단말로부터 상기 번역 인터페이스를 통해 상기 하나 이상의 글자 이미지에 대응하는 번역 텍스트 정보를 수신하고,
상기 하나 이상의 글자 이미지 및 상기 수신된 번역 텍스트 정보에 기초하여 번역 텍스트 이미지를 생성하고, 상기 생성된 번역 텍스트 이미지를 상기 하나 이상의 글자 이미지의 상위 레이어로 표시하여 아케이드 이미지 파일 생성하고,
상기 이미지 파일에 포함된 하나 이상의 글자 이미지를 인식하여 원문 텍스트 정보를 획득하는 것은,
이미지 파일에 포함된 하나 이상의 글자 이미지 중 일부를 포함하는 원문 인터페이스를 생성하여 상기 사용자 단말에 전송할 것을 결정하고, 상기 원문 인터페이스를 통한 상기 사용자 단말의 사용자 입력에 기초하여 상기 원문 텍스트 정보를 수신하는 것을 포함하고,
상기 원문 인터페이스는,
상기 사용자 단말의 참여 이력 정보 또는 언어 숙련도 중 적어도 하나에 기초하여 노출되는 정도가 결정되는 것을 특징으로 하는,
이미지 파일에 존재하는 텍스트에 대한 변환을 수행하여 아케이드 이미지 파일을 생성하기 위한 컴퓨팅 장치.
As a computing device for generating an arcade image file by performing conversion on the text existing in the image file,
A processor including one or more cores;
A memory storing program codes executable in the processor; And
A network unit for transmitting and receiving data with one or more user terminals;
Including,
The processor,
Acquire original text information by recognizing one or more text images included in the image file,
To determine the appropriateness of the original text information by performing a quality check on the obtained original text information,
It is determined to transmit a translation interface including the original text information to a user terminal based on the adequacy determination result,
Receiving translated text information corresponding to the one or more text images from the user terminal through the translation interface,
Generating a translated text image based on the at least one character image and the received translated text information, and displaying the generated translated text image as an upper layer of the at least one character image to generate an arcade image file,
Acquiring original text information by recognizing one or more text images included in the image file,
Creating an original text interface including a portion of one or more text images included in an image file to transmit to the user terminal, and receiving the original text information based on a user input of the user terminal through the original text interface Including,
The original text interface,
The degree of exposure is determined based on at least one of participation history information or language proficiency level of the user terminal,
A computing device for generating an arcade image file by performing conversion on text present in an image file.
KR1020200128008A 2020-10-05 2020-10-05 Method and server for providing image tlanslation service KR102244447B1 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020200128008A KR102244447B1 (en) 2020-10-05 2020-10-05 Method and server for providing image tlanslation service
KR1020210045253A KR20220045879A (en) 2020-10-05 2021-04-07 Method and server for providing image tlanslation service
KR1020210045250A KR102258002B1 (en) 2020-10-05 2021-04-07 Method and server for providing image tlanslation service using artificial intelligence
KR1020210045251A KR102258003B1 (en) 2020-10-05 2021-04-07 Method and server for providing image tlanslation service using character recognition model
KR1020210045249A KR102258000B1 (en) 2020-10-05 2021-04-07 Method and server for providing image tlanslation service through linkage with a plurality of user terminals
KR1020210045248A KR102258001B1 (en) 2020-10-05 2021-04-07 Method and server for providing image tlanslation service through arcade image files
KR1020210045252A KR102258004B1 (en) 2020-10-05 2021-04-07 Method and server for providing image tlanslation service using a user interface displaying one or more text images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200128008A KR102244447B1 (en) 2020-10-05 2020-10-05 Method and server for providing image tlanslation service

Related Child Applications (6)

Application Number Title Priority Date Filing Date
KR1020210045251A Division KR102258003B1 (en) 2020-10-05 2021-04-07 Method and server for providing image tlanslation service using character recognition model
KR1020210045252A Division KR102258004B1 (en) 2020-10-05 2021-04-07 Method and server for providing image tlanslation service using a user interface displaying one or more text images
KR1020210045253A Division KR20220045879A (en) 2020-10-05 2021-04-07 Method and server for providing image tlanslation service
KR1020210045248A Division KR102258001B1 (en) 2020-10-05 2021-04-07 Method and server for providing image tlanslation service through arcade image files
KR1020210045249A Division KR102258000B1 (en) 2020-10-05 2021-04-07 Method and server for providing image tlanslation service through linkage with a plurality of user terminals
KR1020210045250A Division KR102258002B1 (en) 2020-10-05 2021-04-07 Method and server for providing image tlanslation service using artificial intelligence

Publications (1)

Publication Number Publication Date
KR102244447B1 true KR102244447B1 (en) 2021-04-27

Family

ID=75725929

Family Applications (7)

Application Number Title Priority Date Filing Date
KR1020200128008A KR102244447B1 (en) 2020-10-05 2020-10-05 Method and server for providing image tlanslation service
KR1020210045252A KR102258004B1 (en) 2020-10-05 2021-04-07 Method and server for providing image tlanslation service using a user interface displaying one or more text images
KR1020210045250A KR102258002B1 (en) 2020-10-05 2021-04-07 Method and server for providing image tlanslation service using artificial intelligence
KR1020210045253A KR20220045879A (en) 2020-10-05 2021-04-07 Method and server for providing image tlanslation service
KR1020210045249A KR102258000B1 (en) 2020-10-05 2021-04-07 Method and server for providing image tlanslation service through linkage with a plurality of user terminals
KR1020210045248A KR102258001B1 (en) 2020-10-05 2021-04-07 Method and server for providing image tlanslation service through arcade image files
KR1020210045251A KR102258003B1 (en) 2020-10-05 2021-04-07 Method and server for providing image tlanslation service using character recognition model

Family Applications After (6)

Application Number Title Priority Date Filing Date
KR1020210045252A KR102258004B1 (en) 2020-10-05 2021-04-07 Method and server for providing image tlanslation service using a user interface displaying one or more text images
KR1020210045250A KR102258002B1 (en) 2020-10-05 2021-04-07 Method and server for providing image tlanslation service using artificial intelligence
KR1020210045253A KR20220045879A (en) 2020-10-05 2021-04-07 Method and server for providing image tlanslation service
KR1020210045249A KR102258000B1 (en) 2020-10-05 2021-04-07 Method and server for providing image tlanslation service through linkage with a plurality of user terminals
KR1020210045248A KR102258001B1 (en) 2020-10-05 2021-04-07 Method and server for providing image tlanslation service through arcade image files
KR1020210045251A KR102258003B1 (en) 2020-10-05 2021-04-07 Method and server for providing image tlanslation service using character recognition model

Country Status (1)

Country Link
KR (7) KR102244447B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102625441B1 (en) * 2023-09-04 2024-01-16 주식회사 에이디자인그룹 Method and system for experiencing the transcription of digital scriptures

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102431383B1 (en) 2021-07-04 2022-08-10 글로지 주식회사 Server and method for providing subtitle service of many languages using artificial intelligence learning model, and control method of the server
KR20230083971A (en) * 2021-12-03 2023-06-12 주식회사 오후랩스 A method for translating and editing text contained within an image and a device for performing the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100045336A (en) * 2008-10-23 2010-05-03 엔에이치엔(주) Method, system and computer-readable recording medium for providing web contents by translating one language included therein into the other language
KR20160064370A (en) * 2014-11-27 2016-06-08 네이버 주식회사 Cartoon participation translation apparatus and method for cartoon participation translation

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190088437A (en) * 2019-07-08 2019-07-26 성정두 Complete text conversion of scanned book images and text file utilization system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100045336A (en) * 2008-10-23 2010-05-03 엔에이치엔(주) Method, system and computer-readable recording medium for providing web contents by translating one language included therein into the other language
KR20160064370A (en) * 2014-11-27 2016-06-08 네이버 주식회사 Cartoon participation translation apparatus and method for cartoon participation translation

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102625441B1 (en) * 2023-09-04 2024-01-16 주식회사 에이디자인그룹 Method and system for experiencing the transcription of digital scriptures

Also Published As

Publication number Publication date
KR20220045879A (en) 2022-04-13
KR102258004B1 (en) 2021-05-31
KR102258003B1 (en) 2021-05-31
KR102258000B1 (en) 2021-05-31
KR102258001B1 (en) 2021-05-31
KR102258002B1 (en) 2021-05-31

Similar Documents

Publication Publication Date Title
KR102258004B1 (en) Method and server for providing image tlanslation service using a user interface displaying one or more text images
US11816442B2 (en) Multi-turn dialogue response generation with autoregressive transformer models
US11468239B2 (en) Joint intent and entity recognition using transformer models
CN109214386B (en) Method and apparatus for generating image recognition model
CN109815459A (en) Generate the target summary for being adjusted to the content of text of target audience's vocabulary
KR102040400B1 (en) System and method for providing user-customized questions using machine learning
US11381651B2 (en) Interpretable user modeling from unstructured user data
US11928985B2 (en) Content pre-personalization using biometric data
JP7290861B2 (en) Answer classifier and expression generator for question answering system and computer program for training the expression generator
KR102244448B1 (en) The method for providing the speciality translation service platform
CN112364170B (en) Data emotion analysis method and device, electronic equipment and medium
Singh et al. Mobile Deep Learning with TensorFlow Lite, ML Kit and Flutter: Build scalable real-world projects to implement end-to-end neural networks on Android and iOS
CN112131345A (en) Text quality identification method, device, equipment and storage medium
CN117349402A (en) Emotion cause pair identification method and system based on machine reading understanding
JP7449332B2 (en) Handwriting recognition method and apparatus by augmenting content-aware and style-aware data
CN113869068A (en) Scene service recommendation method, device, equipment and storage medium
CN115510457A (en) Data identification method, device, equipment and computer program product
Almahri Arabic Sign Language Recognition: A Deep Learning Approach
US20220269869A1 (en) Handwriting text summarization
KR102409001B1 (en) A computer program that provides functions to streamline the translation and proofreading process
CN111191078B (en) Video information processing method and device based on video information processing model
CN110866543B (en) Picture detection and picture classification model training method and device
KR20230108432A (en) Translation platform
US20200183984A1 (en) Method and apparatus for responding to question, and storage medium
Asha et al. Artificial Neural Networks based DIGI Writing

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant