KR101597017B1 - Multi-language support services using optical character recognition code - Google Patents

Multi-language support services using optical character recognition code Download PDF

Info

Publication number
KR101597017B1
KR101597017B1 KR1020140016066A KR20140016066A KR101597017B1 KR 101597017 B1 KR101597017 B1 KR 101597017B1 KR 1020140016066 A KR1020140016066 A KR 1020140016066A KR 20140016066 A KR20140016066 A KR 20140016066A KR 101597017 B1 KR101597017 B1 KR 101597017B1
Authority
KR
South Korea
Prior art keywords
data
recognition code
optical recognition
information
augmented reality
Prior art date
Application number
KR1020140016066A
Other languages
Korean (ko)
Other versions
KR20150095034A (en
Inventor
원혁
Original Assignee
원혁
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 원혁 filed Critical 원혁
Priority to KR1020140016066A priority Critical patent/KR101597017B1/en
Publication of KR20150095034A publication Critical patent/KR20150095034A/en
Application granted granted Critical
Publication of KR101597017B1 publication Critical patent/KR101597017B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/224Character recognition characterised by the type of writing of printed characters having additional code marks or containing code marks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/35Aspects of automatic or semi-automatic exchanges related to information services provided via a voice call
    • H04M2203/359Augmented reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3245Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document of image modifying data, e.g. handwritten addenda, highlights or augmented reality information

Abstract

실시예는 광학 인식 코드를 이용한 다국어 지원 방법에 관한 것으로, 상기 광학 인식 코드를 포함하는 대상물이 촬영된 영상 데이터로부터 상기 광학 인식 코드를 추출하는 단계; 상기 광학 인식 코드를 해석하여 연결 서버의 주소를 획득하는 단계; 상기 연결 서버에 연결하여 상기 대상물에 대응하는 증강 현실 데이터를 수신하는 단계; 및 상기 증강 현실 데이터를 이용하여 상기 촬영된 영상 데이터 상에 증강현실로 매칭시키는 단계를 포함할 수 있다.An embodiment of the present invention relates to a multilingual support method using an optical recognition code, comprising: extracting the optical recognition code from image data of an object including the optical recognition code; Analyzing the optical recognition code to obtain an address of a connection server; Receiving the augmented reality data corresponding to the object by connecting to the connection server; And matching the augmented reality on the photographed image data using the augmented reality data.

Description

광학 인식 코드를 이용한 다국어 지원 서비스{MULTI-LANGUAGE SUPPORT SERVICES USING OPTICAL CHARACTER RECOGNITION CODE}[0001] MULTI-LANGUAGE SUPPORT SERVICES [0002] USING OPTICAL CHARACTER RECOGNITION CODE [

아래의 설명은 광학 인식 코드를 이용한 서비스 기술에 관한 것으로, 광학 인식 코드를 이용함으로써 다국어를 지원할 수 있는 서비스 방법에 관한 것이다.
The following description relates to a service technique using an optical recognition code, and relates to a service method capable of supporting multiple languages by using an optical recognition code.

음식점의 메뉴판의 경우 전통적인 인쇄형태로 되어 있으며, 그 공간적인 한계로 인하여 표시할 수 있는 정보에는 한계가 따르게 된다. 이 같은 문제를 해결하기 위하여 메뉴판에 2차원 바코드를 추가하여 2차원 바코드를 인식할 수 있는 장치의 애플리케이션을 이용할 경우 미리 준비된 홈페이지에 연결되어 추가적인 정보를 얻을 수 있는 방법이 주로 이용될 수 있다. The menus of restaurants are in traditional print form, and due to their spatial limitations, there is a limit to the information that can be displayed. In order to solve such a problem, when a two-dimensional barcode is added to a menu plate so that an application of a device capable of recognizing a two-dimensional barcode can be used, a method of obtaining additional information can be used.

한국공개특허 제2010-0085887호는 큐알 코드를 이용한 숲길 안내 시스템 및 안내 방법에 관한 것으로, 2차원 바코드를 인식함으로써 스마트 폰의 카메라를 통해 비춰진 영상을 화면에 표시하되 설명 컨텐츠를 오버레이하여 표시할 수 있다. 그러나, 종래의 기술은 글로벌화 되어 있는 현 시대에 다국어를 적용하는 방법은 제시되지 않았으며, 다국어를 적용하기에는 많은 비용적인 문제점뿐만 아니라 전문가를 통한 번역 서비스를 거쳐야 하기 때문에 복잡한 절차가 따른다.
Korean Patent Publication No. 2010-0085887 relates to a forest guide system and a guidance method using a squirrel cord. By recognizing a two-dimensional bar code, an image displayed through a camera of a smart phone is displayed on the screen, have. However, the conventional technology does not provide a method of applying a multilingual language in a globalized era, and complicated procedures are required because multilingual applications require not only costly troubles but also translation services through experts.

일 실시예에 따른 다국어 지원 장치는 인쇄물에 광학 인식 코드를 접착하고 인식함으로써 외국인들에게 증강 현실이 적용된 번역 서비스를 제공한다.The multilingual support apparatus according to an embodiment provides a translation service to a foreigner by applying an augmented reality to an imprint by recognizing and attaching an optical recognition code to a printed matter.

일 실시예에 따른 광학 인식 코드를 이용한 다국어 지원 방법은, 상기 광학 인식 코드를 포함하는 대상물이 촬영된 영상 데이터로부터 상기 광학 인식 코드를 추출하는 단계; 상기 광학 인식 코드를 해석하여 연결 서버의 주소를 획득하는 단계; 상기 연결 서버에 연결하여 상기 대상물에 대응하는 증강 현실 데이터를 수신하는 단계; 및 상기 증강 현실 데이터를 이용하여 상기 촬영된 영상 데이터 상에 증강현실로 매칭시키는 단계를 포함할 수 있다.The multi-language support method using an optical recognition code according to an exemplary embodiment includes: extracting the optical recognition code from image data of an object including the optical recognition code; Analyzing the optical recognition code to obtain an address of a connection server; Receiving the augmented reality data corresponding to the object by connecting to the connection server; And matching the augmented reality on the photographed image data using the augmented reality data.

상기 연결 서버에 연결하여 상기 대상물에 대응하는 증강 현실 데이터를 수신하는 단계는, 타겟 언어에 관한 정보를 상기 연결 서버로 전달하는 단계; 및 상기 연결 서버로부터 상기 대상물에 대응하고 상기 타겟 언어로 구성된 증강 현실 데이터를 수신하는 단계를 포함할 수 있다.The step of receiving the augmented reality data corresponding to the object by connecting to the connection server includes: transmitting information on the target language to the connection server; And receiving augmented reality data corresponding to the object from the connection server and configured in the target language.

일 측에 따르면, 상기 광학 인식 코드를 이용한 다국어 지원 방법은, 상기 증강 현실 데이터 중 상기 타겟 언어로 구성된 데이터를 선택한 경우, 상기 선택된 데이터를 TTS를 이용하여 오디오로 출력하는 단계를 더 포함할 수 있다. According to one aspect of the present invention, the multi-language support method using the optical recognition code may further include the step of outputting the selected data to audio using the TTS when the data configured in the target language is selected from the augmented reality data .

또 다른 일측에 따르면, 상기 광학 인식 코드는, 상기 연결 서버 주소 정보; 상기 광학 인식 코드의 물리적인 크기 정보; 및 상기 광학 인식 코드가 부착된 대상물의 전체 레이아웃 크기 정보를 포함하고, 상기 연결 서버 주소 정보는, 상기 연결 서버의 네트워크 주소; 상기 대상물과 연관된 고객에 대응하는 고객 코드; 및 부가 정보를 포함할 수 있다.According to another aspect, the optical recognition code includes: the connection server address information; Physical size information of the optical recognition code; And an overall layout size information of an object to which the optical recognition code is attached, and the connection server address information includes a network address of the connection server; A customer code corresponding to a customer associated with the object; And additional information.

또 다른 일측에 따르면, 상기 광학 인식 코드를 이용한 다국어 지원 방법은, 상기 광학 인식 코드를 해석하여 상기 광학 인식 코드의 물리적인 크기 정보 및 상기 광학 인식 코드를 포함하는 상기 대상물의 전체 레이아웃 크기 정보를 획득하는 단계를 더 포함할 수 있다.According to another aspect of the present invention, a multi-language support method using the optical recognition code may include analyzing the optical recognition code to obtain physical size information of the optical recognition code and total layout size information of the object including the optical recognition code The method comprising the steps of:

또 다른 일측에 따르면, 상기 광학 인식 코드의 물리적인 크기 정보는, 상기 광학 인식 코드의 가로 길이 및 상기 광학 인식 코드의 세로 길이를 포함하고, 상기 대상물의 전체 레이아웃 크기 정보는, 상기 대상물에 대응하는 사각형의 각 꼭지점의 좌표를 포함하고, 상기 대상물에 대응하는 사각형의 각 꼭지점 중 상기 광학 인식 코드와 가장 가까운 점의 좌표를 기준점으로 하고, 다른 꼭지점들은 상기 기준점을 기준으로 하여 좌표가 정해질 수 있다. According to another aspect, the physical size information of the optical recognition code includes a transverse length of the optical recognition code and a longitudinal length of the optical recognition code, and the total layout size information of the object corresponds to The coordinates of the vertexes of the quadrangle corresponding to the object are set as the reference points and the coordinates of the other vertexes are determined based on the reference point .

또 다른 일측에 따르면, 상기 증강 현실 데이터를 이용하여 상기 촬영된 영상 데이터 상에 증강현실로 매칭시키는 단계는, 상기 광학 인식 코드의 상기 물리적인 크기 정보 및 상기 광학 인식 코드를 포함하는 상기 대상물의 상기 전체 레이아웃 크기 정보를 이용하여 상기 촬영된 영상 데이터 상에 상기 증강 현실 데이터를 매칭시키는 단계를 포함할 수 있다. According to another aspect of the present invention, the step of matching the augmented reality on the photographed image data using the augmented reality data includes a step of acquiring the physical size information of the optical recognition code, And matching the augmented reality data on the photographed image data using the whole layout size information.

또 다른 일측에 따르면, 상기 증강 현실 데이터는, 상기 광학 인식 코드의 상기 물리적인 크기 정보; 상기 광학 인식 코드를 포함하는 상기 대상물의 상기 전체 레이아웃 크기 정보; 및 적어도 하나의 메인 정보 데이터를 포함하고, 상기 메인 정보 데이터의 각각은, 상기 메인 정보 데이터의 위치와 관련된 기준점 데이터; 상기 메인 정보 데이터의 레이아웃과 관련된 레이아웃 데이터; 및 추가의 정보 데이터를 포함할 수 있다.According to another aspect, the augmented reality data includes: the physical size information of the optical recognition code; The total layout size information of the object including the optical recognition code; And at least one main information data, wherein each of the main information data includes reference point data related to a position of the main information data; Layout data related to the layout of the main information data; And additional information data.

또 다른 일측에 따르면, 상기 증강 현실 데이터를 이용하여 상기 촬영된 영상 데이터 상에 증강현실로 매칭시키는 단계는, 상기 메인 정보 데이터의 상기 기준점 데이터 및 상기 메인 정보 데이터의 상기 레이아웃 데이터를 이용하여 상기 메인 정보 데이터를 상기 촬영된 영상 데이터 상에 매칭시키는 단계를 포함할 수 있다. According to another aspect of the present invention, the step of matching the augmented reality on the photographed image data using the augmented reality data includes a step of, by using the reference point data of the main information data and the layout data of the main information data, And matching the information data on the photographed image data.

또 다른 일측에 따르면, 상기 대상물은 메뉴판을 포함하고, 상기 추가의 정보 데이터는, 상기 메인 정보 데이터에 대응하는 음식의 조리법, 섭취법, 및 재료 중 적어도 하나에 관한 타겟 언어로 된 설명을 포함할 수 있다. According to another aspect, the object includes a menu plate, wherein the additional information data includes a description in a target language for at least one of a recipe, an intake method, and a material of the food corresponding to the main information data .

또 다른 일측에 따르면, 상기 증강 현실 데이터를 이용하여 상기 촬영된 영상 데이터 상에 증강현실로 매칭시키는 단계는, 상기 촬영된 영상 데이터가 가격 정보를 포함하는 경우, 상기 증강 현실 데이터는 타겟 언어의 국가의 환율을 적용하여 상기 타겟 언어의 국가의 화폐 단위를 기준으로 상기 가격 정보를 변환하여 표시하는 단계를 포함할 수 있다.According to another aspect of the present invention, the step of matching the augmented reality on the photographed image data using the augmented reality data may include the step of, when the photographed image data includes price information, And converting and displaying the price information based on a currency unit of the country of the target language.

일 실시예에 따른 광학 인식 코드를 이용한 다국어 지원 방법은, DB 서버에 증강 현실 데이터를 유지하는 단계; 개인 정보 기기로부터 광학 인식 코드와 연관된 고객 코드 및 부가 정보를 수신하는 단계; 상기 고객 코드 및 상기 부가 코드를 이용하여 상기 DB 서버에서 증강 현실 데이터를 검색하는 단계; 및 상기 검색된 증강 현실 데이터를 상기 개인 정보 기기로 송신하는 단계를 포함하고, 상기 증강 현실 데이터는, 상기 증강 현실 데이터를 상기 광학 인식 코드를 포함하는 대상물에 매칭하기 위한 레이아웃 정보를 포함할 수 있다. The multi-language support method using an optical recognition code according to an exemplary embodiment includes: maintaining augmented reality data in a DB server; Receiving a customer code and additional information associated with an optical identification code from a personal information device; Retrieving augmented reality data from the DB server using the customer code and the additional code; And transmitting the searched augmented reality data to the personal information device, wherein the augmented reality data may include layout information for matching the augmented reality data to an object including the optical recognition code.

일 측에 따르면, 상기 증강 현실 데이터는, 상기 광학 인식 코드의 물리적인 크기 정보; 상기 광학 인식 코드를 포함하는 대상물의 전체 레이아웃 크기 정보; 및 적어도 하나의 메인 정보 데이터를 포함하고, 상기 메인 정보 데이터의 각각은, 상기 메인 정보 데이터의 위치와 관련된 기준점 데이터; 상기 메인 정보 데이터의 레이아웃과 관련된 레이아웃 데이터; 및 추가의 정보 데이터를 포함할 수 있다. According to one aspect, the augmented reality data includes: physical size information of the optical recognition code; Total layout size information of an object including the optical recognition code; And at least one main information data, wherein each of the main information data includes reference point data related to a position of the main information data; Layout data related to the layout of the main information data; And additional information data.

일 실시예에 따른 광학 인식 코드를 이용한 다국어 지원 방법은, 상기 광학 인식 코드를 포함하는 영상 데이터로부터 상기 광학 인식 코드를 추출하는 단계; 상기 광학 인식 코드를 해석하여 연결 서버의 주소를 획득하는 단계; 상기 연결 서버에 연결하여 상기 대상물에 대응하는 증강 현실 데이터를 수신하는 단계; 및 상기 증강 현실 데이터에 포함된 레이아웃 정보를 이용하여 상기 영상 데이터 상의 자막 부분에 번역된 자막을 오버레이하여 표시하는 단계를 포함할 수 있다.The multi-language support method using an optical recognition code according to an exemplary embodiment of the present invention includes: extracting the optical recognition code from image data including the optical recognition code; Analyzing the optical recognition code to obtain an address of a connection server; Receiving the augmented reality data corresponding to the object by connecting to the connection server; And a step of overlaying and displaying the translated caption on the caption portion on the image data using the layout information included in the augmented reality data.

일 실시예에 따른 다국어 지원 장치는 광학인식 코드를 통하여 추가적인 비용없이 번역 서비스를 제공할 수 있고, 증강현실 기술을 적용함으로써 사용자들에게 직관적으로 인식할 수 있도록 제공할 수 있다.The multi-language support apparatus according to an embodiment can provide a translation service through an optical recognition code at no additional cost, and can provide intuitive recognition to users by applying augmented reality technology.

도 1은 일실시예에 따른 다국어 지원 장치의 구성을 나타낸 도면이다.
도 2는 일실시예에 따른 다국어 지원 장치의 연결 서버의 Address 구성을 나타낸 도면이다.
도 3은 일실시예에 따른 광학 인식 코드의 물리적인 크기 정보를 설명하기 위한 도면이다.
도 4는 일실시예에 따른 광학 인식 코드가 부착된 대상물의 전체 레이아웃 크기 정보를 설명하기 위한 도면이다.
도 5는 일실시예에 따른 연결 서버의 증강 현실 데이터 구성을 나타낸 도면이다.
도 6은 일실시예에 따른 연결 서버의 증강 현실 데이터를 적용한 예를 나타낸 것이다.
도 7은 일실시예에 따른 다국어 지원 장치의 동작을 나타낸 도면이다.
도 8은 일실시예에 따른 다국어 지원 장치의 다국어 지원 방법을 나타낸 흐름도이다.
도 9는 일실시예에 따른 다국어 지원 장치의 overlay 프로그램이 적용된 예이다.
1 is a block diagram of a multi-language support apparatus according to an exemplary embodiment of the present invention.
2 is a diagram illustrating an address configuration of a connection server of a multi-language support apparatus according to an exemplary embodiment.
3 is a view for explaining physical size information of an optical recognition code according to an embodiment.
4 is a diagram for explaining total layout size information of an object to which an optical recognition code is attached according to an embodiment.
5 is a diagram illustrating a configuration of augmented reality data of a connection server according to an exemplary embodiment.
FIG. 6 illustrates an example of applying augmented reality data of a connection server according to an embodiment.
7 is a diagram illustrating an operation of the multi-language support apparatus according to an exemplary embodiment of the present invention.
8 is a flowchart illustrating a multi-language support method of the multi-language support apparatus according to one embodiment.
9 is an example in which an overlay program of the multi-language support apparatus according to an embodiment is applied.

이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

광학 인식 코드란 이미지 형태로 정보를 전달하는 코드로서, 예를 들어 1차원 바코드, 2차원 바코드, 3차원 바코드 등을 포함할 수 있다. 이하에서는 광학 인식 코드와 관련하여 2차원 바코드를 이용한 경우를 예로서 설명하지만, 광학 인식 코드는 이에 제한되지 않는다.The optical recognition code is a code for transmitting information in the form of an image, and may include, for example, a one-dimensional bar code, a two-dimensional bar code, a three-dimensional bar code and the like. Hereinafter, the case where the two-dimensional bar code is used in connection with the optical recognition code will be described as an example, but the optical recognition code is not limited thereto.

도 1은 일실시예에 따른 다국어 지원 장치의 구성을 나타낸 도면이다.1 is a block diagram of a multi-language support apparatus according to an exemplary embodiment of the present invention.

다국어 지원 장치는 개인 정보 기기(110), 연결 서버(120) 및 데이터베이스 서버(130)를 포함할 수 있다.The multilingual support device may include a personal information device 110, a connection server 120, and a database server 130.

개인 정보 기기(110)는 광학 인식 코드를 포함하는 대상물이 촬영된 영상 데이터로부터 광학 인식 코드를 추출하고, 추출된 광학 인식 코드를 해석하여 연결 서버(120)의 주소를 획득할 수 있다. 예를 들면, 광학 인식 코드는 2차원 바코드일 수 있다. 또한, 광학 인식 코드를 해석하여 광학 인식 코드의 물리적인 크기 정보 및 광학 인식 코드를 포함하는 대상물의 전체 레이아웃 크기 정보를 획득할 수 있다.The personal information device 110 may extract the optical recognition code from the captured image data of the object including the optical recognition code and interpret the extracted optical recognition code to obtain the address of the connection server 120. [ For example, the optical recognition code may be a two-dimensional barcode. In addition, the optical recognition code can be interpreted to obtain the physical size information of the optical recognition code and the whole layout size information of the object including the optical recognition code.

개인 정보 기기(110)는 연결 서버(120)에 연결하여 대상물에 대응하는 증강 현실 데이터를 수신할 수 있다. 예를 들면, 개인 정보 기기(110)는 타겟 언어에 관한 정보를 연결 서버(120)로 전달할 수 있고, 연결 서버(120)로부터 대상물에 대응하고 타겟 언어로 구성된 증강 현실 데이터를 수신할 수 있다. 이때, 증강 현실 데이터 중 타켓 언어로 구성된 데이터를 선택한 경우, 선택된 데이터를 TTS를 이용하여 오디오로 출력할 수 있다. The personal information device 110 may connect to the connection server 120 and receive the augmented reality data corresponding to the object. For example, the personal information device 110 can transmit information on the target language to the connection server 120 and receive the augmented reality data corresponding to the object and configured in the target language from the connection server 120. [ At this time, if data of the augmented reality language is selected from the augmented reality data, the selected data can be output as audio using the TTS.

개인 정보 기기(110)는 연결 서버(120)로부터 수신된 증강 현실 데이터를 이용하여 촬영된 영상 데이터 상에 증강 현실로 매칭시킬 수 있다. 예를 들면, 광학 인식 코드의 물리적인 크기 정보 및 광학 인식 코드를 포함하는 대상물의 전체 레이아웃 크기 정보를 이용하여 촬영된 데이터 상에 증강 현실 데이터를 매칭시킬 수 있다. 또한, 메인 정보 데이터의 기준점 데이터 및 메인 정보 데이터의 레이아웃과 관련된 레이아웃 데이터를 이용하여 메인 정보 데이터를 촬영된 영상 데이터 상에 매칭시킬 수 있다. 촬영된 영상 데이터가 가격 정보를 포함하는 경우, 증강 현실 데이터는 타겟 언어의 국가의 환율을 적용하여 타겟 언어의 국가의 화폐 단위를 기준으로 가격 정보를 변환하여 표시할 수 있다.The personal information device 110 may match the augmented reality on the photographed image data using the augmented reality data received from the connection server 120. [ For example, it is possible to match the augmented reality data on the photographed data by using the physical size information of the optical recognition code and the whole layout size information of the object including the optical recognition code. The main information data can be matched on the photographed image data by using the reference point data of the main information data and the layout data related to the layout of the main information data. If the photographed image data includes price information, the augmented reality data can be converted and displayed based on the currency unit of the country of the target language by applying the exchange rate of the country of the target language.

데이터베이스 서버(130)는 증강 현실 데이터를 유지할 수 있다. The database server 130 can maintain the augmented reality data.

연결 서버(120)는 개인 정보 기기(110)로부터 광학 인식 코드와 연관된 부가 코드 및 부가 정보를 수신할 수 있고, 고객 코드 및 부가 코드를 이용하여 데이터베이스 서버(130)에서 증강 현실 데이터를 검색할 수 있다. 연결 서버(120)는 검색된 증강 현실 데이터를 개인 정보 기기(110)로 송신할 수 있다. The connection server 120 can receive the additional code and the additional information associated with the optical recognition code from the personal information device 110 and can retrieve the augmented reality data from the database server 130 using the customer code and the additional code have. The connection server 120 may transmit the augmented reality data to the personal information device 110. [

도 2는 일실시예에 따른 다국어 지원 장치의 연결 서버의 Address 구성을 나타낸 도면이다.2 is a diagram illustrating an address configuration of a connection server of a multi-language support apparatus according to an exemplary embodiment.

광학 인식 코드 정보는 연결 서버 Address, 광학 인식 코드 물리적인 크기 정보 및 전체 레이아웃 크기 정보를 포함할 수 있다. 연결 서버의 Address(200)는 서버 주소(210), 구분 기호1(220), 고객 코드(230), 구분 기호 2(240) 및 부가 정보(250)를 포함할 수 있다. 이때, 연결 서버의 Address(200) 정보의 구성은 현재 사용되고 있는 http와 동일한 구조를 사용할 수 있다.The optical recognition code information may include connection server address, optical recognition code physical size information, and total layout size information. The address 200 of the connection server may include a server address 210, a separator 1 220, a customer code 230, a separator 2 240 and additional information 250. At this time, the configuration of the address (200) information of the connection server can use the same structure as the currently used http.

서버 주소(210)는 서버의 네트워크 주소로서, 예를 들어, IPv4, IPv6형식의 IP 주소일 수도 있고, 또는 도메인 네임 주소일 수도 있다. 연결 서버의 Address(200)는 전달될 내용의 구분을 위해서 고객 코드(230)와 부가 정보(240)를 이용할 수 있다. 고객 코드(230)와 부가 정보(240)를 이용하여 다수의 고객에게 상황에 맞는 데이터(xml) 연결 서비스가 가능할 수 있다. The server address 210 is the network address of the server, for example, it may be an IP address in the form of IPv4, IPv6, or a domain name address. The address (200) of the connection server can use the customer code (230) and the additional information (240) to distinguish the contents to be transmitted. The customer can use the customer code 230 and the additional information 240 to provide a plurality of customers with contextual data (xml) connection service.

도 2를 참고하면, 203.211.215.32는 서버의 네트워크 주소(210)를 나타낸 것이고, 구분 기호(220)는 /, ? 와 같이 기호를 넣음으로써 서버의 네트워크 주소(210), 고객 코드(230) 및 부가 정보(250)를 구분할 수 있다.Referring to FIG. 2, 203.211.215.32 represents the network address 210 of the server, and the delimiter 220 represents /,? The customer code 230 and the additional information 250 can be distinguished by entering a symbol as shown in FIG.

고객 코드(230)는 고객마다 부여된 코드 번호로서, 201301004050508888과 같이 나타낼 수 있다. 예를 들면, 고객 코드(230)는 식당, 클라이언트 등과 같이 일정 기준에 의하여 부여될 수 있다.The customer code 230 is a code number assigned to each customer, and can be represented as 201301004050508888. For example, the customer code 230 may be given a certain criterion, such as a restaurant, a client, or the like.

부가 정보(250)에서 Page=04 에서, 메뉴판의 페이지는 전체 페이지 중 4페이지 또는 어느 메뉴판의 몇 페이지인지를 의미할 수 있다. lang=en에서 언어는 영어로 설정함을 의미할 수 있다. 이때, 부가 정보(250)는 광학 인식 코드(예를 들면, 2차원 바코드)에 포함되어 있을 수 있고, 앱을 통해서 추가로 설정할 수도 있다. 예를 들면, 언어를 설정함에 있어서, 영어로 설정한다면, 2차원 바코드에 언어를 영어로 설정할 수 있고, 앱을 통하여 사용자에 의하여 출력하고자 하는 언어(예를 들면, 영어)를 설정할 수 있다. At page = 04 in the additional information 250, the page of the menu sheet may mean four pages of the whole page or a few pages of the menu board. At lang = en, the language can be set to English. At this time, the additional information 250 may be included in an optical recognition code (for example, a two-dimensional bar code) or may be additionally set through an app. For example, in setting the language, if it is set to English, the language can be set to English in the two-dimensional barcode, and a language (for example, English) to be output by the user through the app can be set.

도 3은 일실시예에 따른 광학 인식 코드의 물리적인 크기 정보를 설명하기 위한 도면이다.3 is a view for explaining physical size information of an optical recognition code according to an embodiment.

광학 인식 코드 정보는 연결 서버 Address, 광학 인식 코드 물리적인 크기 정보 및 전체 레이아웃 크기 정보를 포함할 수 있으며, 연결 서버 Address 정보에 대한 설명은 도 2를 참고할 수 있으며, 전체 레이아웃 크기 정보에 대한 설명은 도 4를 참고하기로 한다. The optical recognition code information may include a connection server address, optical identification code physical size information, and overall layout size information. A description of connection server address information can be referred to FIG. 2, 4 will be referred to.

광학 인식 코드의 기본 단위는 mm이고, 너비(W)와 높이(H)로 구성될 수 있다. 광학 인식 코드의 물리적인 크기 정보는 촬영된 이미지에 증강 현실로 데이터를 배치하기 위한 기준 정보로 사용될 수 있다. The basic unit of the optical recognition code is mm, and it can be composed of the width (W) and the height (H). The physical size information of the optical recognition code can be used as reference information for arranging the data into the augmented reality in the photographed image.

도 4는 일실시예에 따른 광학 인식 코드가 부착된 대상물의 전체 레이아웃 크기 정보를 설명하기 위한 도면이다.4 is a diagram for explaining total layout size information of an object to which an optical recognition code is attached according to an embodiment.

도 4a는 일실시예에 따른 광학 인식 코드에 포함되는 전체 레이아웃 크기 정보를 나타낸 도면이다.4A is a diagram illustrating total layout size information included in the optical recognition code according to an exemplary embodiment.

광학 인식 코드 정보는 연결 서버 Address, 광학 인식 코드 물리적인 크기 정보, 전체 레이아웃 크기 정보를 포함할 수 있다. 전체 레이아웃 크기 정보는 광학 인식 코드에서 가장 가까운 점이 기준점으로 인식될 수 있다. 이때, 물리적 좌표는 (0, 0)이 될 수 있다. The optical recognition code information may include connection server address, optical recognition code physical size information, and overall layout size information. The entire layout size information can be recognized as a reference point closest to the optical recognition code. At this time, the physical coordinates may be (0, 0).

도 4a를 참고하면, 광학 인식 코드에서 가장 가까운 점이 기준점(410)이 될 수 있으므로, 기준점(410)은 (0, 0)으로 지정할 수 있다. 이때, 데이터 저장 순서는 기준점(410)을 시작으로 시계 방향으로 저장될 수 있고, 전체 레이아웃 크기 정보는 기준점을 포함하여 정수(Point 정보)와 (x, y) 좌표의 데이터 형태로 저장될 수 있다. 이때, 기본 단위는 mm가 될 수 있다. 이에 따라, 기준점(410)의 시계방향으로 Point 정보(1)(420), Point 정보(2)(430), Point 정보(3)(440)가 저장될 수 있다. Referring to FIG. 4A, since the closest point in the optical recognition code may be the reference point 410, the reference point 410 may be designated as (0, 0). At this time, the data storage order can be stored clockwise starting from the reference point 410, and the entire layout size information can be stored in the form of data including integers (Point information) and (x, y) coordinates including reference points . At this time, the basic unit may be mm. Accordingly, the Point information (1) 420, the Point information (2) 430, and the Point information (3) 440 can be stored in the clockwise direction of the reference point 410.

일 실시예에 따른 다국어 지원 장치는 광학 인식 코드 물리적인 크기 정보와 왜곡률(예를 들면, 기울기) 및 저장된 전체 레이아웃 크기 정보를 이용하여 촬영된 이미지를 보정함으로써 증강현실 구현 시 정보의 배치를 명확하게 할 수 있다.The multi-lingual support apparatus according to an embodiment can correct the photographed image by using the optical recognition code physical size information, the distortion rate (for example, slope) and the stored total layout size information, can do.

도 4b는 일실시예에 따른 광학 인식 코드에 포함되는 전체 레이아웃 크기 정보의 예를 나타낸 도면이다.4B is a diagram illustrating an example of total layout size information included in the optical recognition code according to an embodiment.

도 4b를 참고하면, 도 4a의 전체 레이아웃 크기 정보를 xml 로 표현한 것이다. 도 4a에서 설명한 바와 같이, 전체 레이아웃 크기 정보는 기준점(410), Point 정보(1)(420), Point 정보(2)(430) 및 Point 정보(3)(440)가 저장될 수 있고, 이를 xml 로 표현할 때, 전체 레이아웃 크기 정보는 <number>4</number>로 4개의 점이 표현될 수 있고, 기준점(0, 0)은 <point data><x>0</x><y>0</y>으로 표현될 수 있고, Point 정보(1)은 <point data><x>200</x><y>0</y>로 표현될 수 있다. 이와 같이 Point 정보(2), Point 정보(3)도 표현될 수 있다. Referring to FIG. 4B, the entire layout size information in FIG. 4A is represented by xml. 4A, the overall layout size information may include a reference point 410, Point information 1 420, Point information 2 430, and Point information 3 440, (x, y), the total layout size information can be represented by four points with the number <4> and the reference point (0, 0) can be represented by <point data> <x> 0 </ x> Point data 1 can be represented by <point data> <x> 200 </ x> <y> 0 </ y>. In this way, Point information 2 and Point information 3 can also be expressed.

도 5는 일실시예에 따른 연결 서버의 증강 현실 데이터 구성을 나타낸 도면이다. 5 is a diagram illustrating a configuration of augmented reality data of a connection server according to an exemplary embodiment.

연결 서버의 증강 현실 데이터는 광학 인식 코드 물리적인 크기 정보(510), 전체 레이아웃 크기 정보(520) 및 메인 정보 데이터(530)를 포함할 수 있다. 광학 인식 코드 물리적인 크기 정보와 전체 레이아웃 크기 정보는 증강 현실을 적용할 때, 데이터의 위치 정보로 이용될 수 있다.The augmented reality data of the connection server may include optical recognition code physical size information 510, total layout size information 520 and main information data 530. [ The optical recognition code physical size information and the whole layout size information can be used as positional information of data when augmented reality is applied.

광학 인식 코드 물리적인 크기 정보(510)는 도 3에서 설명한 바와 같이, 광학 인식 코드의 기본 단위는 mm이고, 너비(W)와 높이(H)로 구성될 수 있다. As described in FIG. 3, the optical recognition code physical size information 510 may be composed of a width W and a height H as a basic unit of the optical recognition code.

전체 레이아웃 크기 정보(520)는 도 4에서 설명한 바와 같이, 기준점(0,0), Point 정보(1), Point 정보(2) 및 Point 정보(3)으로 구성될 수 있다. 이에 대한 상세한 설명은 도 4를 참고하기로 한다. The overall layout size information 520 may be composed of a reference point (0,0), Point information (1), Point information (2), and Point information (3) as described in FIG. A detailed description thereof will be given with reference to FIG.

메인 정보 데이터(530)는 기준점 데이터, 정보 데이터 레이아웃과 관련된 레이아웃 데이터 및 추가의 정보 데이터를 포함할 수 있다. 메인 정보 데이터(530)는 적용되는 대상물(예를 들면, 표지판, 안내판, 메뉴판)에 따라 메인 정보 데이터1, 메인 정보 데이터 2,…, 메인 정보 데이터 n이 될 수 있다. 기준점 데이터는 광학 인식 코드와 가까운 점이 될 수 있으며, 기준점의 시계 방향으로 정보데이터 레이아웃과 관련된 레이아웃 데이터가 저장될 수 있다. 기준점 데이터와 정보데이터 레이아웃과 관련된 레이아웃 데이터는 증강현실 적용시 데이터의 위치 정보로 이용될 수 있다. The main information data 530 may include reference point data, layout data associated with the information data layout, and additional information data. The main information data 530 includes main information data 1, main information data 2, ..., and main information data 3 according to an object (e.g., a signboard, a signboard, , And main information data n. The reference point data may be close to the optical recognition code, and the layout data related to the information data layout may be stored in the clockwise direction of the reference point. The layout data related to the reference point data and the information data layout can be used as the position information of the data when the augmented reality is applied.

또한, 메인 정보 데이터는 xml 을 이용하여 부가적인 정보를 표시할 수 있다. 예를 들면, 하이퍼링크, 이미지, 동영상 연결 등과 같은 부가 정보를 xml 형식을 이용하여 표시할 수 있다. 이에 대한 설명은 도 6에서 상세하게 설명하기로 한다.Further, the main information data can display additional information using xml. For example, additional information such as a hyperlink, an image, a video link, and the like can be displayed using the xml format. This will be described in detail with reference to FIG.

도 6은 일실시예에 따른 연결 서버의 증강 현실 데이터를 적용한 예를 나타낸 것이다.FIG. 6 illustrates an example of applying augmented reality data of a connection server according to an embodiment.

메인 정보 데이터는 메인 정보 데이터의 위치와 관련된 기준점 데이터(610), 메인 정보 데이터의 레이아웃과 관련된 레이아웃 데이터 및 추가의 정보 데이터를 포함할 수 있다. 예를 들면, 추가의 정보 데이터는 링크, 환율을 적용한 가격 정보, TTS 오디오 출력 등을 포함할 수 있다. The main information data may include reference point data 610 related to the position of the main information data, layout data related to the layout of the main information data, and additional information data. For example, the additional information data may include links, price information with applied currency rates, TTS audio output, and the like.

기준점 데이터(610)는 기준점 데이터는 광학 인식 코드와 가까운 점이 될 수 있으며, <Point><X>30</X><Y>30</Y></Point>와 같이 xml로 표현될 수 있다. The reference point data 610 may be a point close to the optical recognition code and may be represented by xml such as <Point> <X> 30 </ X> <Y> 30 </ Y> </ Point> .

외곽 영역(620)은 메인 정보 데이터의 레이아웃과 관련된 레이아웃 데이터로서, <NUMBER>4</NUMBER>로 4개의 점이 xml로 표현될 수 있고, <POINT_DATA><X>30</X><Y>30</Y></POINT_DATA>,<POINT_DATA><X>300</X><Y>30</Y></POINT_DATA>,<POINT_DATA><X>300</X><Y>80</Y></POINT_DATA>,<POINT_DATA><X>30</X><Y>80</Y></POINT_DATA>로 표현될 수 있다. The outline area 620 is layout data related to the layout of the main information data. Four points can be represented by xml as <NUMBER> 4 </ NUMBER>, and <POINT_DATA> <X> 30 </ X> 30 </ Y> </ POINT_DATA>, <POINT_DATA> <X> 300 </ X> <Y> 80 </ Y> </ / Y> </ POINT_DATA>, <POINT_DATA> <X> 30 </ X> <Y> 80 </ Y> </ POINT_DATA>.

증강 현실 데이터 중 타겟 언어로 구성된 데이터를 선택한 경우, 선택된 데이터를 TTS(640)를 이용하여 오디오로 출력할 수 있다. 타겟 언어로 구성된 데이터를 클릭함으로써 링크(630) 기능을 수행할 수 있다. 촬영된 영상 데이터가 가격 정보를 포함하는 경우, 증강 현실 데이터는 타겟 언어의 국가의 환율을 적용하여 타겟 언어의 국가의 화폐 단위를 기준으로 가격 정보를 변환하여 표시할 수 있다. When the data configured in the target language is selected from the augmented reality data, the selected data can be outputted as audio using the TTS 640. [ The link 630 function can be performed by clicking the data configured in the target language. If the photographed image data includes price information, the augmented reality data can be converted and displayed based on the currency unit of the country of the target language by applying the exchange rate of the country of the target language.

도 6을 참고하면, 예를 들면, 타겟 언어가 영어라고 가정하면, 영어로 번역된 모둠 보쌈인 Assorted Bossam을 출력할 수 있고, Assorted Bossam를 클릭함으로써 이미지를 출력하거나 동영상을 연결할 수 있다. 예를 들면, 메인 정보 데이터에 대응하는 음식의 조리법, 섭취법 및 재료 중 적어도 하나에 관하여 타겟 언어로 설명할 수 있고, 모둠 보쌈 재료의 사진과 함께, 사진에 대한 boiled pork, cabbage, spicy radish 와 같이 재료의 이름이 출력될 수 있다. 모둠 보쌈을 TTS(640)를 이용하여 오디오로 출력할 수 있다. 모둠 보쌈을 오디오로 출력하기 위하여 예를 들면, TTS 변환 프로그램을 이용하여 모둠 보쌈 텍스트를 모둠 보쌈 오디오로 출력할 수 있다. 또한, 메뉴판에 음식에 대한 가격 정보를 포함하고 있는 경우, 모둠 보쌈에 대한 한국의 가격 20000원 및 미국의 달러로 변환된 가격 18.85$를 표시할 수 있다. 이때, 미국의 달러로 변환된 가격은 한국의 원을 입력하면 환율에 맞게 달러로 변환되어 출력될 수 있다.Referring to FIG. 6, for example, assuming that the target language is English, it is possible to output Assorted Bossam, which is translated into English, and output an image or connect a moving image by clicking Assorted Bossam. For example, it is possible to describe in at least one of the recipes, recipes and materials of the food corresponding to the main information data in a target language, and with the pictures of all the ingredients, such as boiled pork, cabbage, spicy radish The name of the material can be output. All bosses can be output as audio by using the TTS 640. [ In order to output all bossam as audio, for example, all bossam texts can be output as bossam audio using TTS conversion program. In addition, if the menu includes price information for the food, it is possible to display the Korean price of 20000 won for all bossams and the price of 18.85 dollars converted to US dollars. At this time, the price converted into US dollars can be converted into dollars in accordance with the exchange rate when the Korean won is inputted.

또한, 메뉴에 대한 설명(Text 정보)이 출력될 수 있으며, 기준점 데이터, 메인 정보 데이터의 레이아웃과 관련된 레이아웃 데이터를 이용하여 xml로 저장할 수 있고, 메뉴에 대한 설명은 <TEXT>Description</TEXT>를 통하여 표현될 수 있다.  TEXT> Description </ TEXT> A description of the menu (text information) can be output and can be stored as xml using the layout data related to the layout of the reference point data and main information data. Lt; / RTI >

도 7은 일실시예에 따른 다국어 지원 장치의 동작을 나타낸 도면이다.7 is a diagram illustrating an operation of the multi-language support apparatus according to an exemplary embodiment of the present invention.

도 7은 개인 정보 기기의 앱을 통하여 타겟 언어를 설정하고, 광학 인식 코드를 인식하는 예를 나타낸 도면이다. 7 is a diagram showing an example of setting a target language through an app of a personal information device and recognizing an optical recognition code.

개인 정보 기기로부터 앱을 실행시킬 수 있다. 앱을 실행시킨 후, 타겟 언어를 설정할 수 있고, 설정하는 언어로 서비스를 받을 수 있다. 또한, 선택된 언어가 존재하지 않을 경우, 기본 언어로 제공될 수 있다. 예를 들면, 타겟 언어를 영어로 설정한다면, 영어로 번역된 서비스를 받을 수 있다. 언어를 선택하지 않으면, GPS를 이용하여 현재 지역의 언어를 서비스 언어로 선택될 수 있다. 예를 들면, 사용자 설정에 의하여 애드혹 서비스를 통해서 로컬번역 및 네트워크 번역 서비스를 연동할 수 있다. The application can be executed from the personal information device. After running the app, you can set the target language and get the service in the language you set. Also, if the selected language does not exist, it can be provided in the default language. For example, if you set the target language to English, you can get translated services in English. If no language is selected, the current local language can be selected as the service language using GPS. For example, local translation and network translation services can be linked through an ad hoc service by user setting.

언어를 설정한 후에, 카메라 촬영 모드를 실행시킬 수 있다. 사용자에 의하여 전체 대상물(예를 들면, 메뉴판)을 촬영할 수 있고, 이때, 전체 메뉴판은 광학 인식 코드를 포함할 수 있다. 앱은 촬영된 영상으로부터 광학 인식 코드 및 외곽선 정보를 분리할 수 있고, 광학 인식 코드를 해석하여 정보 데이터를 추출할 수 있다. 예를 들면, 연결 서버 주소, 광학 인식 코드 물리 크기 정보 및 전체 레이아웃 크기 정보 등을 추출할 수 있다. After setting the language, the camera shooting mode can be executed. The entire object (e.g., a menu plate) can be photographed by the user, wherein the entire menu plate can include an optical identification code. The app can separate the optical recognition code and the outline information from the photographed image, and can extract the information data by analyzing the optical recognition code. For example, the connection server address, optical recognition code physical size information, and overall layout size information can be extracted.

개인 정보 기기는 광학 인식 코드로부터 추출한 데이터 중 접속 서버 주소를 이용하여 연결 서버로 연결할 수 있고, 연결 서버는 개인 정보 기기로부터 전달된 고객 코드 및 부가 정보를 바탕으로 데이터베이스 서버에서 해당 증강 현실 데이터를 검색할 수 있고, 검색된 증강 현실 데이터를 개인 정보 기기에 전달할 수 있다. 증강현실을 적용함으로써, 사용자에게 영어로 번역된 메뉴판을 제공할 수 있다. 예를 들면, 제공된 앱의 UI를 통해서 직관적으로 메뉴를 선택하여 주문을 가능하도록 제공할 수 있다. The personal information device can connect to the connection server using the connection server address from the data extracted from the optical recognition code, and the connection server retrieves the augmented reality data from the database server based on the customer code and the additional information transmitted from the personal information device And the retrieved augmented reality data can be transmitted to the personal information device. By applying the Augmented Reality, a menu translated into English can be provided to the user. For example, a user can intuitively select a menu through a UI of a provided app to provide an order.

도 8은 일실시예에 따른 다국어 지원 장치의 다국어 지원 방법을 나타낸 흐름도이다.8 is a flowchart illustrating a multi-language support method of the multi-language support apparatus according to one embodiment.

다국어 지원 장치는 개인 정보 기기, 연결 서버 및 데이터베이스 서버로 구성될 수 있다. 이에 따라, 개인 정보 기기, 연결 서버 및 데이터베이스 서버를 통해 다국어를 지원하는 방법을 설명하기로 한다.The multilingual support device may be configured as a personal information device, a connection server, and a database server. Accordingly, a method of supporting multi-language through a personal information device, a connection server, and a database server will be described.

개인 정보 기기는 예를 들면, 통신기능을 포함하고 있는 기기로서, 광학 인식 코드를 인식하고, 촬영이 가능한 스마트 기기가 될 수 있다. 개인 정보 기기에서 앱을 선택한 후, 실행(801)시킬 수 있다. 이때, 실행시킨 앱을 통하여 타겟 언어를 설정(803)할 수 있고, 선택된 언어를 통하여 해당 언어로 서비스를 받을 수 있다. 또한, 언어를 설정함에 있어서, 사용자에 의하여 설정될 수 있고, 기본으로 설정된 언어를 통해서 번역될 수 있다(804). 예를 들면, 언어를 설정하지 않으면, GPS를 이용하여 현재 지역의 언어를 서비스 언어로 선택할 수 있다.The personal information device is, for example, a device including a communication function, and can be a smart device capable of recognizing an optical recognition code and photographing. After selecting the app from the personal information device, it can be executed (801). At this time, the target language can be set through the executed application (803), and the service can be received in the selected language through the selected language. Also, in setting the language, it may be set by the user and translated through the default language (804). For example, if you do not set a language, you can use the GPS to select the current local language as the service language.

앱을 실행시킨 후, 카메라 촬영 모드를 실행할 수 있다(805). 사용자에 의하여 전체 대상물을 촬영할 수 있으며, 전체 대상물은 광학 인식 코드를 포함할 수 있다. 이때, 언어의 재설정이 필요하거나, 다른 이유에 의하여 촬영을 하지 않고 초기 화면으로 돌아갈 수 있다(802). 앱은 촬영된 영상으로부터 광학 인식 코드 및 외곽선 정보를 분리해낼 수 있다(806). 앱은 광학 인식 코드를 해석하여 연결 서버 주소, 광학 인식 코드 물리 크기 정보 및 전체 레이아웃 크기 정보를 추출할 수 있다. After running the app, the camera shooting mode can be executed (805). The entire object can be photographed by the user, and the entire object can include an optical recognition code. At this time, it is necessary to reset the language or return to the initial screen without taking a picture for another reason (802). The app can separate the optical recognition code and the outline information from the captured image (806). The app can interpret the optical recognition code to extract the connection server address, the optical recognition code physical size information, and the entire layout size information.

앱은 연결 서버의 주소를 이용하여 연결 서버에 연결할 수 있다(807). 연결 서버는 연결 서버 주소에 포함된 고객 코드 및 부가 정보를 이용하여 데이터베이스 서버로 증강현실 데이터를 검색 및 요청을 할 수 있다(809). 데이터베이스 서버는 요청된 증강 현실 데이터를 검색할 수 있다(810). 이때, 데이터베이스 서버는 광학 인식 코드 물리 사이즈 정보, 전체 레이아웃 사이즈 정보 및 메인 정보 데이터를 포함할 수 있다. 데이터베이스 서버는 요청된 증강 현실 데이터가 있다면(811), xml 데이터를 선택하고, 일치하는 증간 현실 데이터가 없다면, 기본 xml 데이터를 선택할 수 있다. The application can connect to the connection server using the address of the connection server (807). The connection server can search and request the augmented reality data to the database server using the customer code and the additional information included in the connection server address (809). The database server may retrieve the requested augmented reality data (810). At this time, the database server may include optical recognition code physical size information, total layout size information, and main information data. If the augmented reality data requested is present (811), the database server selects the xml data, and if there is no matching actual reality data, the base xml data can be selected.

데이터베이스 서버로부터 선택된 xml 데이터를 개인 정보 기기로 전달할 수 있다(812). 예를 들면, 데이터베이스 서버로부터 선택된 xml 데이터는 연결 서버로 전송된 후(813), 개인 정보 기기의 해당 앱에 전달될 수 있다. 앱은 xml 데이터를 이용하여 촬영된 영상을 보정할 수 있다. 앱은 xml 데이터를 보정된 영상 위에 증강 현실로 매칭시킬 수 있고, 이에 따라 사용자는 타겟 언어로 서비스(예를 들면, 타겟 언어로 번역된 메뉴판)를 이용할 수 있다(814). 촬영된 영상에 xml 데이터를 매치할 때 광학 인식 코드 물리 사이즈 정보를 기준 정보로 이용할 수 있다. 예를 들면, 촬영된 영상이 비틀어지거나 왜곡되었어도 영상을 보정할 수 있다.The xml data selected from the database server may be transmitted to the personal information device (812). For example, the xml data selected from the database server may be transmitted to the connection server (813) and then delivered to the corresponding application of the personal information appliance. The app can use the xml data to correct the captured image. The app can match the xml data to the augmented reality over the corrected image so that the user can use the service in the target language (e. G., Translated menu language into the target language) (814). When the xml data is matched with the photographed image, the optical recognition code physical size information can be used as the reference information. For example, the image can be corrected even if the photographed image is distorted or distorted.

일 실시예에 따른 다국어 지원 장치는 광학인식 코드를 통하여 추가적인 비용없이 번역 서비스를 제공할 수 있고, 증강현실 기술을 적용함으로써 사용자들에게 직관적으로 인식할 수 있도록 제공할 수 있다.The multi-language support apparatus according to an embodiment can provide a translation service through an optical recognition code at no additional cost, and can provide intuitive recognition to users by applying augmented reality technology.

도 9는 일실시예에 따른 다국어 지원 장치의 overlay 프로그램이 적용된 예이다.9 is an example in which an overlay program of the multi-language support apparatus according to an embodiment is applied.

도 9는 광학 인식 코드와 번역이 필요한 부분의 레이아웃 정보를 이용하여 xml 정보가 오버레이 되어 적용되는 다국어 지원 장치를 나타낸 것이다.9 shows a multi-language support apparatus in which xml information is overlaid by using an optical recognition code and a layout information of a part requiring translation.

응용 애플리케이션(예를 들면, 게임)(910)을 동작시킴에 있어서, 앱에서 오버레이 애플리케이션(920)을 구동시킴으로써 다국어를 지원할 수 있다. 광학 인식 코드(930)를 포함하는 영상 데이터로부터 광학 인식 코드(930)를 추출하고, 광학 인식 코드(930)를 해석하여 연결 서버의 주소를 획득할 수 있다. 연결 서버에 연결하여 대상물에 대응하는 증강 현실 데이터를 수신할 수 있다. 증강 현실 데이터에 포함된 레이아웃 정보를 이용하여 영상 데이터 상의 자막 부분에 번역된 자막을 오버레이하여 표시할 수 있다. In operating an application (e.g., game) 910, it is possible to support multiple languages by running an overlay application 920 in the app. Extract the optical recognition code 930 from the image data including the optical recognition code 930, and interpret the optical recognition code 930 to obtain the address of the connection server. It is possible to connect to the connection server and receive the augmented reality data corresponding to the object. The translated subtitle can be overlaid on the subtitle portion on the video data using the layout information included in the augmented reality data.

도 9를 참고하면, 예를 들면, 외국인 사용자가 게임을 하기 위하여, 한국어로 된 게임을 러시아어로 게임을 수행하고 싶다면, 다국어 지원 장치의 오버레이 프로그램을 적용함으로써 러시아어로 게임을 진행할 수 있다. Referring to FIG. 9, for example, if a foreign user wants to play a game in Korean in Russian for playing a game, the game can be played in Russian by applying an overlay program of a multi-language support device.

예를 들면, 표지판, 안내판에도 적용될 수 있으며, 기존의 표지판 및 안내판에 광학 인식 코드만 부착한 후, 앱을 실행함으로써 증강현실로 사용자에게 정보를 제공할 수 있다. 이에 따라, 사용자는 정보를 직관적으로 인식할 수 있으며, 서버에서 공통적으로 관리되므로 표준화 및 정확한 표현법이 가능하다. 또한, 지하철 노선도에도 적용될 수 있어 공간적인 제약없이 다국어를 지원할 수 있다.For example, it can be applied to signboards and signboards. After attaching only the optical recognition code to the existing signboards and signboards, it is possible to provide information to the user as augmented reality by executing the app. Accordingly, the user can intuitively recognize the information, and is commonly managed by the server, so that standardization and accurate expression are possible. In addition, it can be applied to the subway route map, so it can support multilingual without space limitations.

일 실시예에 따른 다국어 지원 장치는 프로그램에 추가적인 수정이 없이, 오버레이 프로그램의 구동만으로 다국어를 지원할 수 있고, 수정이 간편하다.The multi-language support apparatus according to an embodiment can support multi-language by only operating an overlay program without any additional modification to the program, and is easy to modify.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI &gt; or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

110: 개인 정보 기기
120: 연결 서버
130: 데이터베이스 서버
110: Personal information device
120: connection server
130: Database server

Claims (14)

광학 인식 코드를 이용한 다국어 지원 방법에 있어서,
상기 광학 인식 코드를 포함하는 대상물이 촬영된 영상 데이터로부터 상기 광학 인식 코드를 추출하는 단계;
상기 광학 인식 코드를 해석하여 상기 광학 인식 코드의 물리적인 크기 정보 및 상기 광학 인식 코드를 포함하는 상기 대상물의 전체 레이아웃 크기 정보를 획득하는 단계;
상기 광학 인식 코드를 해석하여 연결 서버의 주소를 획득하는 단계;
상기 연결 서버에 연결하여 상기 대상물에 대응하는 증강 현실 데이터를 수신하는 단계; 및
상기 증강 현실 데이터를 이용하여 상기 촬영된 영상 데이터 상에 증강현실로 매칭시키는 단계
를 포함하고,
상기 광학 인식 코드의 물리적인 크기 정보는, 상기 광학 인식 코드의 가로 길이 및 상기 광학 인식 코드의 세로 길이를 포함하고,
상기 대상물의 전체 레이아웃 크기 정보는, 상기 대상물에 대응하는 사각형의 각 꼭지점의 좌표를 포함하고,
상기 증강 현실 데이터를 이용하여 상기 촬영된 영상 데이터 상에 증강현실로 매칭시키는 단계는,
상기 증강 현실 데이터를 상기 광학 인식 코드의 상기 물리적인 크기 정보와 왜곡률 및 상기 광학 인식 코드를 포함하는 상기 대상물의 상기 전체 레이아웃 크기 정보를 이용하여 상기 촬영된 영상 데이터를 보정함으로써 상기 촬영된 영상 데이터 상에 증강현실로 매칭시키는 단계
를 포함하는 광학 인식 코드를 이용한 다국어 지원 방법.
In a multi-language support method using an optical recognition code,
Extracting the optical recognition code from the captured image data of an object including the optical recognition code;
Analyzing the optical recognition code to obtain physical size information of the optical recognition code and total layout size information of the object including the optical recognition code;
Analyzing the optical recognition code to obtain an address of a connection server;
Receiving the augmented reality data corresponding to the object by connecting to the connection server; And
And a step of matching the augmented reality on the photographed image data using the augmented reality data
Lt; / RTI &gt;
Wherein the physical size information of the optical recognition code includes a transverse length of the optical recognition code and a longitudinal length of the optical recognition code,
Wherein the total layout size information of the object includes coordinates of each vertex of the rectangle corresponding to the object,
Wherein the step of matching the augmented reality on the photographed image data using the augmented reality data comprises:
The augmented reality data is corrected by correcting the photographed image data using the physical size information and the distortion rate of the optical recognition code and the entire layout size information of the object including the optical recognition code, To augmented reality
The method comprising the steps of:
제1항에 있어서,
상기 연결 서버에 연결하여 상기 대상물에 대응하는 증강 현실 데이터를 수신하는 단계는,
타겟 언어에 관한 정보를 상기 연결 서버로 전달하는 단계; 및
상기 연결 서버로부터 상기 대상물에 대응하고 상기 타겟 언어로 구성된 증강 현실 데이터를 수신하는 단계
를 포함하는 광학 인식 코드를 이용한 다국어 지원 방법.
The method according to claim 1,
Wherein the step of receiving the augmented reality data corresponding to the object connected to the connection server comprises:
Forwarding information about a target language to the connection server; And
Receiving augmented reality data corresponding to the object from the connection server and configured in the target language
The method comprising the steps of:
제2항에 있어서,
상기 증강 현실 데이터 중 상기 타겟 언어로 구성된 데이터를 선택한 경우, 상기 선택된 데이터를 TTS를 이용하여 오디오로 출력하는 단계
를 더 포함하는 광학 인식 코드를 이용한 다국어 지원 방법.
3. The method of claim 2,
Outputting the selected data as audio using the TTS when data configured in the target language is selected from the augmented reality data;
The method comprising the steps of:
제1항에 있어서,
상기 광학 인식 코드는,
상기 연결 서버 주소 정보;
상기 광학 인식 코드의 물리적인 크기 정보; 및
상기 광학 인식 코드가 부착된 대상물의 전체 레이아웃 크기 정보
를 포함하고,
상기 연결 서버 주소 정보는,
상기 연결 서버의 네트워크 주소;
상기 대상물과 연관된 고객에 대응하는 고객 코드; 및
부가 정보
를 포함하는 광학 인식 코드를 이용한 다국어 지원 방법.
The method according to claim 1,
The optical recognition code comprises:
The connection server address information;
Physical size information of the optical recognition code; And
The total layout size information of the object to which the optical recognition code is attached
Lt; / RTI &gt;
The connection server address information may include,
A network address of the connection server;
A customer code corresponding to a customer associated with the object; And
Additional Information
The method comprising the steps of:
삭제delete 제1항에 있어서,
상기 대상물에 대응하는 사각형의 각 꼭지점 중 상기 광학 인식 코드와 가장 가까운 점의 좌표를 기준점으로 하고, 다른 꼭지점들은 상기 기준점을 기준으로 하여 좌표가 정해지는
광학 인식 코드를 이용한 다국어 지원 방법.
The method according to claim 1,
A coordinate of a point closest to the optical recognition code among the vertexes of the quadrangle corresponding to the object is set as a reference point and the other vertices are set as coordinates with reference to the reference point
Multilingual support method using optical recognition code.
삭제delete 제1항에 있어서,
상기 증강 현실 데이터는,
상기 광학 인식 코드의 상기 물리적인 크기 정보;
상기 광학 인식 코드를 포함하는 상기 대상물의 상기 전체 레이아웃 크기 정보; 및
적어도 하나의 메인 정보 데이터
를 포함하고,
상기 메인 정보 데이터의 각각은,
상기 메인 정보 데이터의 위치와 관련된 기준점 데이터;
상기 메인 정보 데이터의 레이아웃과 관련된 레이아웃 데이터; 및
추가의 정보 데이터
를 포함하는 광학 인식 코드를 이용한 다국어 지원 방법.
The method according to claim 1,
Wherein the augmented reality data comprises:
The physical size information of the optical recognition code;
The total layout size information of the object including the optical recognition code; And
At least one main information data
Lt; / RTI &gt;
Wherein each of the main information data includes:
Reference point data related to a position of the main information data;
Layout data related to the layout of the main information data; And
Additional information data
The method comprising the steps of:
제8항에 있어서,
상기 증강 현실 데이터를 이용하여 상기 촬영된 영상 데이터 상에 증강현실로 매칭시키는 단계는,
상기 메인 정보 데이터의 상기 기준점 데이터 및 상기 메인 정보 데이터의 상기 레이아웃 데이터를 이용하여 상기 메인 정보 데이터를 상기 촬영된 영상 데이터 상에 매칭시키는 단계
를 포함하는 광학 인식 코드를 이용한 다국어 지원 방법.
9. The method of claim 8,
Wherein the step of matching the augmented reality on the photographed image data using the augmented reality data comprises:
Matching the main information data on the photographed image data using the reference point data of the main information data and the layout data of the main information data
The method comprising the steps of:
제8항에 있어서,
상기 대상물은 메뉴판을 포함하고,
상기 추가의 정보 데이터는,
상기 메인 정보 데이터에 대응하는 음식의 조리법, 섭취법, 및 재료 중 적어도 하나에 관한 타겟 언어로 된 설명
을 포함하는 광학 인식 코드를 이용한 다국어 지원 방법.
9. The method of claim 8,
Wherein the object includes a menu plate,
Wherein the additional information data comprises:
A description in the target language regarding at least one of the food recipe, the intake method and the material corresponding to the main information data
The method comprising the steps of:
제3항에 있어서,
상기 증강 현실 데이터를 이용하여 상기 촬영된 영상 데이터 상에 증강현실로 매칭시키는 단계는,
상기 촬영된 영상 데이터가 가격 정보를 포함하는 경우, 상기 증강 현실 데이터는 타겟 언어의 국가의 환율을 적용하여 상기 타겟 언어의 국가의 화폐 단위를 기준으로 상기 가격 정보를 변환하여 표시하는 단계
를 포함하는 광학 인식 코드를 이용한 다국어 지원 방법.
The method of claim 3,
Wherein the step of matching the augmented reality on the photographed image data using the augmented reality data comprises:
If the photographed image data includes price information, the augmented reality data converts the price information based on the currency unit of the country of the target language by applying the exchange rate of the country of the target language, and displays
The method comprising the steps of:
광학 인식 코드를 이용한 다국어 지원 방법에 있어서,
DB 서버에 증강 현실 데이터를 유지하는 단계;
개인 정보 기기로부터 광학 인식 코드와 연관된 고객 코드 및 부가 정보를 수신하는 단계;
상기 고객 코드 및 상기 부가 정보를 이용하여 상기 DB 서버에서 증강 현실 데이터를 검색하는 단계; 및
상기 검색된 증강 현실 데이터를 상기 개인 정보 기기로 송신하는 단계
를 포함하고,
상기 증강 현실 데이터는,
상기 광학 인식 코드의 물리적인 크기 정보;
상기 광학 인식 코드를 포함하는 대상물의 전체 레이아웃 크기 정보; 및 상기 증강 현실 데이터를 상기 광학 인식 코드를 포함하는 대상물에 매칭하기 위한 레이아웃 정보
를 포함하고,
상기 광학 인식 코드의 물리적인 크기 정보는, 상기 광학 인식 코드의 가로 길이 및 상기 광학 인식 코드의 세로 길이를 포함하고,
상기 대상물의 전체 레이아웃 크기 정보는, 상기 대상물에 대응하는 사각형의 각 꼭지점의 좌표를 포함하는 광학 인식 코드를 이용한 다국어 지원 방법.
In a multi-language support method using an optical recognition code,
Maintaining augmented reality data on a DB server;
Receiving a customer code and additional information associated with an optical identification code from a personal information device;
Retrieving augmented reality data from the DB server using the customer code and the additional information; And
Transmitting the retrieved augmented reality data to the personal information device
Lt; / RTI &gt;
Wherein the augmented reality data comprises:
Physical size information of the optical recognition code;
Total layout size information of an object including the optical recognition code; And layout information for matching the augmented reality data to an object including the optical recognition code
Lt; / RTI &gt;
Wherein the physical size information of the optical recognition code includes a transverse length of the optical recognition code and a longitudinal length of the optical recognition code,
Wherein the overall layout size information of the object includes the coordinates of each vertex of the rectangle corresponding to the object.
제12항에 있어서,
상기 증강 현실 데이터는,
적어도 하나의 메인 정보 데이터
를 포함하고,
상기 메인 정보 데이터의 각각은,
상기 메인 정보 데이터의 위치와 관련된 기준점 데이터;
상기 메인 정보 데이터의 레이아웃과 관련된 레이아웃 데이터; 및
추가의 정보 데이터
를 포함하는 광학 인식 코드를 이용한 다국어 지원 방법.
13. The method of claim 12,
Wherein the augmented reality data comprises:
At least one main information data
Lt; / RTI &gt;
Wherein each of the main information data includes:
Reference point data related to a position of the main information data;
Layout data related to the layout of the main information data; And
Additional information data
The method comprising the steps of:
광학 인식 코드를 이용한 다국어 지원 방법에 있어서,
상기 광학 인식 코드를 포함하는 영상 데이터로부터 상기 광학 인식 코드를 추출하는 단계;
상기 광학 인식 코드를 해석하여 연결 서버의 주소를 획득하는 단계;
상기 연결 서버에 연결하여 대상물에 대응하는 증강 현실 데이터를 수신하는 단계; 및
상기 증강 현실 데이터에 포함된 레이아웃 정보를 이용하여 상기 영상 데이터 상의 자막 부분에 번역된 자막을 오버레이하여 표시하는 단계
를 포함하고,
상기 증강 현실 데이터는,
상기 광학 인식 코드의 물리적인 크기 정보;
상기 광학 인식 코드를 포함하는 대상물의 전체 레이아웃 크기 정보; 및 상기 증강 현실 데이터를 상기 광학 인식 코드를 포함하는 대상물에 매칭하기 위한 레이아웃 정보
를 포함하고,
상기 광학 인식 코드의 물리적인 크기 정보는, 상기 광학 인식 코드의 가로 길이 및 상기 광학 인식 코드의 세로 길이를 포함하고,
상기 대상물의 전체 레이아웃 크기 정보는, 상기 대상물에 대응하는 사각형의 각 꼭지점의 좌표를 포함하는 광학 인식 코드를 이용한 다국어 지원 방법.
In a multi-language support method using an optical recognition code,
Extracting the optical recognition code from the image data including the optical recognition code;
Analyzing the optical recognition code to obtain an address of a connection server;
Receiving augmented reality data corresponding to an object by connecting to the connection server; And
A step of overlaying the translated caption on the caption portion on the image data using the layout information included in the augmented reality data
Lt; / RTI &gt;
Wherein the augmented reality data comprises:
Physical size information of the optical recognition code;
Total layout size information of an object including the optical recognition code; And layout information for matching the augmented reality data to an object including the optical recognition code
Lt; / RTI &gt;
Wherein the physical size information of the optical recognition code includes a transverse length of the optical recognition code and a longitudinal length of the optical recognition code,
Wherein the overall layout size information of the object includes the coordinates of each vertex of the rectangle corresponding to the object.
KR1020140016066A 2014-02-12 2014-02-12 Multi-language support services using optical character recognition code KR101597017B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140016066A KR101597017B1 (en) 2014-02-12 2014-02-12 Multi-language support services using optical character recognition code

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140016066A KR101597017B1 (en) 2014-02-12 2014-02-12 Multi-language support services using optical character recognition code

Publications (2)

Publication Number Publication Date
KR20150095034A KR20150095034A (en) 2015-08-20
KR101597017B1 true KR101597017B1 (en) 2016-03-08

Family

ID=54058178

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140016066A KR101597017B1 (en) 2014-02-12 2014-02-12 Multi-language support services using optical character recognition code

Country Status (1)

Country Link
KR (1) KR101597017B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102005907B1 (en) * 2018-12-24 2019-07-31 주식회사 펀웨이브 System sign language and sign language translation service using augmented reality translation application
CN111832555A (en) * 2019-04-19 2020-10-27 泰州腾翔信息科技有限公司 Navigation data based serial number identification method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101173358B1 (en) * 2010-05-12 2012-08-10 (주)에코펌 Apparatus and method of guiding woodland path based on qr code
KR20140015730A (en) * 2012-07-20 2014-02-07 노영희 A tourist guiding system with an advertisement information and a radio frequency identification, and a driving method of the same

Also Published As

Publication number Publication date
KR20150095034A (en) 2015-08-20

Similar Documents

Publication Publication Date Title
US9934254B2 (en) Terminal apparatus, information processing system, and information processing method
US11062096B2 (en) Displaying information in multiple languages based on optical code reading
US20180107876A1 (en) Method and system for providing augmented reality contents by using user editing image
US10650264B2 (en) Image recognition apparatus, processing method thereof, and program
JP2012048720A (en) Apparatus and method for providing augmented reality (ar) using marker
CN105706077A (en) Presenting translations of text depicted in images
JP2017085533A (en) Information processing system and information processing method
CN109859814A (en) DICOM digitized video and film printing method and system based on Web
KR101597017B1 (en) Multi-language support services using optical character recognition code
US20160119500A1 (en) Image processing apparatus, terminal device, and non-transitory data recording medium recording control program
KR101913567B1 (en) Operating method of web server, screen shot server, web browser and target terminal for sharing digital contents
JP2014160413A (en) Data processing device, data processing system and program
KR102034897B1 (en) Terminal apparatus for providing information of object comprised broadcast program and method for operating terminal apparatus
KR20130082755A (en) Service server and method by object recognition
KR102175519B1 (en) Apparatus for providing virtual contents to augment usability of real object and method using the same
KR101403159B1 (en) Apparatus and method for providing additional information about object
JP5998952B2 (en) Sign image placement support apparatus and program
JP6168872B2 (en) Image processing apparatus, image processing method, and program
Letellier et al. Providing adittional content to print media using augmented reality
KR20170002921A (en) Apparatus and method for creating digital building instruction
JP5541868B2 (en) Image search command system and operation control method thereof
JP2007124653A (en) System, device, method, and utility to convert image retrieved from device to format supported by device management tool
US20220343571A1 (en) Information processing system, information processing apparatus, and method of processing information
JP6977264B2 (en) Document processing equipment, terminal equipment and document processing system
JP6989769B2 (en) Information processing systems, information processing system control methods, and programs

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee