KR20170030075A - Method for providing interpreting sound information, customized interpretation of server and system implementing the same - Google Patents

Method for providing interpreting sound information, customized interpretation of server and system implementing the same Download PDF

Info

Publication number
KR20170030075A
KR20170030075A KR1020167022447A KR20167022447A KR20170030075A KR 20170030075 A KR20170030075 A KR 20170030075A KR 1020167022447 A KR1020167022447 A KR 1020167022447A KR 20167022447 A KR20167022447 A KR 20167022447A KR 20170030075 A KR20170030075 A KR 20170030075A
Authority
KR
South Korea
Prior art keywords
interpretation
language
speech information
server
content
Prior art date
Application number
KR1020167022447A
Other languages
Korean (ko)
Other versions
KR101897968B1 (en
Inventor
조중규
홍성훈
김준용
Original Assignee
(주)지엘컴
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)지엘컴 filed Critical (주)지엘컴
Publication of KR20170030075A publication Critical patent/KR20170030075A/en
Application granted granted Critical
Publication of KR101897968B1 publication Critical patent/KR101897968B1/en

Links

Images

Classifications

    • G06F17/289
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • G06F17/30864
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

통역음성 정보를 제공하는 방법, 이를 운용하는 맞춤형 통역 서버 및 시스템이 개시된다. 본 발명의 다양한 실시예에 따른 통역음성 정보 제공 방법은 맞춤형 통역 서버에서 원어에 대한 통역음성 정보를 제공하는 방법으로서, 원어와 관련된 컨텐츠의 UI 아이템을 웹 페이지 또는 청자 단말기에 설치된 애플리케이션을 통해 표시하는 단계; 상기 원어에 대하여 미리 정해진 언어로 생성되는 제1 통역음성 정보를 실시간으로 수집하는 단계; 및 상기 UI 아이템에 대한 사용자 선택 입력을 수신하는 것에 응답하여 상기 수집되는 제1 통역음성 정보를 상기 청자 단말기에 실시간으로 제공하는 단계를 포함할 수 있다.A method of providing interpretation voice information, and a customized interpretation server and system for operating the same are disclosed. A method of providing interpreted speech information according to various embodiments of the present invention is a method of providing interpreted speech information for a source language in a customized interpretation server, the method comprising: displaying UI items of content related to a source word through an application installed in a web page or a listener terminal step; Collecting, in real time, first interpretation speech information generated in a predetermined language for the source language; And providing the collected first interpretation voice information to the listener terminal in real time in response to receiving a user selection input for the UI item.

Description

통역음성 정보를 제공하는 방법, 이를 운용하는 맞춤형 통역 서버 및 시스템{METHOD FOR PROVIDING INTERPRETING SOUND INFORMATION, CUSTOMIZED INTERPRETATION OF SERVER AND SYSTEM IMPLEMENTING THE SAME}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for providing interpretation voice information and a customized interpretation server and system for operating the same,

본 발명은 통역음성 정보를 제공하는 방법, 이를 운용하는 맞춤형 통역 서버 및 시스템에 관한 것으로서, 다양한 환경에서 화자에게 원어에 대한 통역음성 정보를 제공하는 기술에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for providing interpreted speech information, a customized interpretation server and system for operating the interpreted speech information, and a technique for providing interpreted speech information to a speaker in various environments.

종래의 실시간 통역 서비스 또는 동시 통역 서비스는 주로 FM 동시 통역 시스템을 이용하여 제공되어 왔다. 일반적으로 FM 동시 통역 시스템은 오디오 제어 장치(Audio Control), 변조기(Modulator), 안테나 조합기(Antenna Combiner), 통역자 유닛(Interpreter Unit), 수신기(Receiver) 등을 포함하여 구성된다.Conventional real-time interpretation services or simultaneous interpretation services have been provided primarily using the FM simultaneous interpretation system. In general, the FM simultaneous interpretation system includes an audio control unit, a modulator, an antenna combiner, an interpreter unit, a receiver, and the like.

본 발명이 해결하고자 하는 과제는 실시간으로 수집되는 통역음성 정보를 어플리케이션을 통해 이를 청취하고자 하는 화자에게 실시간으로 제공하고자 하는 것이다.An object of the present invention is to provide interpretation voice information collected in real time to a speaker who wishes to listen to it through an application in real time.

본 발명이 해결하고자 하는 다른 과제는 실시간 통역음성 정보가 제공되는 컨텐츠 제공이 종료된 경우, 특정인으로 하여금 해당 컨텐츠에 대해 다른 언어의 통역음성 정보를 서버에 업로드할 수 있는 환경을 제공하기 위한 것이다.Another object of the present invention is to provide an environment in which a specific person can upload interpreted speech information of a different language to the server when the provision of the contents provided with real-time interpretation speech information is terminated.

본 발명이 해결하고자 하는 또다른 과제는 통역음성 정보가 포함된 컨텐츠를 기반으로 커머스와 관련된 다양한 비즈니스 환경을 구축하고자 하는 것이다.Another problem to be solved by the present invention is to establish various business environments related to commerce based on content including interpreted voice information.

본 발명이 해결하고자 하는 또다른 과제는 실시간 통역 서비스를 제공하기 위하여 청자에게 별도의 수신기 및/또는 이어폰 등을 대여하는 것이 필요하지 않은 통역 방법을 제공하는 것이다.Another object of the present invention is to provide an interpretation method that does not require renting a separate receiver and / or earphone to a listener to provide a real-time interpretation service.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the above-mentioned problems, and other problems which are not mentioned can be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명의 다양한 실시예에 따른 통역음성 정보 제공 방법은 맞춤형 통역 서버에서 원어에 대한 통역음성 정보를 제공하는 방법으로서, 원어와 관련된 컨텐츠의 UI 아이템을 웹 페이지 또는 청자 단말기에 설치된 애플리케이션을 통해 표시하는 단계; 상기 원어에 대하여 미리 정해진 언어로 생성되는 제1 통역음성 정보를 실시간으로 수집하는 단계; 및 상기 UI 아이템에 대한 사용자 선택 입력을 수신하는 것에 응답하여 상기 수집되는 제1 통역음성 정보를 상기 청자 단말기에 실시간으로 제공하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method of providing interpreted speech information, the method comprising the steps of: Through an application installed in the mobile terminal; Collecting, in real time, first interpretation speech information generated in a predetermined language for the source language; And providing the collected first interpretation voice information to the listener terminal in real time in response to receiving a user selection input for the UI item.

일부 실시예에서, 통역음성 정보 제공 방법은 상기 제1 통역음성 정보에 해당하는 제1 언어 아이템을 구성하는 단계; 및 상기 웹 페이지 또는 상기 애플리케이션을 통해 출력되는 화면 상에서 상기 제1 언어 아이템을 상기 컨텐츠의 UI 아이템이 표시되는 위치와 인접한 위치에 표시하는 단계를 더 포함할 수 있다.In some embodiments, the method for providing interpreted speech information comprises: constructing a first language item corresponding to the first interpreted speech information; And displaying the first language item on a screen displayed through the web page or the application at a position adjacent to a position at which the UI item of the content is displayed.

일부 실시예에서, 통역음성 정보 제공 방법은 상기 제1 통역음성 정보의 실시간 수집이 종료된 경우, 상기 원어에 대하여 상기 제1 통역음성 정보와 다른 언어에 해당하는 제2 통역음성 정보를 미리 설정된 사용자 단말 또는 임의의 사용자 단말로부터 수집하는 단계; 및 상기 컨텐츠의 UI 아이템에 대한 사용자 선택 입력을 수신하는 것에 응답하여 상기 제1 통역음성 정보 또는 상기 제2 통역음성 정보 중 적어도 하나를 상기 청자 단말기에 제공하는 단계를 더 포함할 수 있다.In some embodiments, when the real-time collection of the first interpretation speech information is terminated, the second interpretation speech information corresponding to a different language from the first interpretation speech information is sent to the user Collecting from a terminal or an arbitrary user terminal; And providing at least one of the first interpretation voice information or the second interpretation voice information to the listener terminal in response to receiving a user selection input for a UI item of the content.

일부 실시예에서, 통역음성 정보 제공 방법은 상기 제2 통역음성 정보를 제공한 사용자 계정에 대하여 소정의 리워드를 지급하는 단계를 더 포함할 수 있다.In some embodiments, the method for providing interpreted voice information may further comprise paying a predetermined reward for the user account that provided the second interpreted voice information.

일부 실시예에서, 통역음성 정보 제공 방법은 상기 제1 통역음성 정보에 해당하는 제1 언어 아이템 및 상기 제2 통역 음성 정보에 해당하는 제2 언어 아이템을 서로 구별되도록 표시하는 단계를 더 포함할 수 있다.In some embodiments, the method for providing interpreted speech information may further include displaying a first language item corresponding to the first interpreted speech information and a second language item corresponding to the second interpreted speech information to be distinguished from each other have.

본 발명의 다양한 실시예에 따른 통역음성 정보 제공 방법은 맞춤형 통역 서버에서 원어에 대한 통역음성 정보를 제공하는 방법으로서, 특정 상품 또는 특정 서비스에 대한 커머스 컨텐츠를 컨텐츠 제작자 단말로부터 수신하는 단계로서, 상기 커머스 컨텐츠는 상기 특정 상품 또는 상기 특정 서비스를 원어로 표현한 컨텐츠인, 수신하는 단계; 상기 커머스 컨텐츠의 UI 아이템을 웹 페이지 또는 애플리케이션을 통해 표시하는 단계; 상기 커머스 컨텐츠의 UI 아이템에 대한 사용자 선택 입력을 수신하는 것에 응답하여 상기 원어에 대하여 미리 정해진 언어로 생성된 제1 통역음성 정보를 출력하는 단계; 상기 원어에 대하여 상기 제1 통역음성 정보와 다른 언어에 해당하는 제2 통역음성 정보를 판매 희망자 단말로부터 수집하는 단계; 및 상기 제2 통역음성 정보가 반영된 커머스 컨텐츠를 표시하는 단계를 포함할 수 있다.A method for providing interpreted speech information according to various embodiments of the present invention is a method for providing interpreted speech information for a source language in a customized interpretation server, the method comprising: receiving commerce content for a specific product or a specific service from a content producer terminal Wherein the commerce content is content representing the specific commodity or the specific service in a source language; Displaying a UI item of the commerce content through a web page or an application; Outputting first interpretation speech information generated in a predetermined language for the source language in response to receiving a user selection input for a UI item of the commerce content; Collecting second interpretation speech information corresponding to a language different from the first interpretation speech information from the seller terminal; And displaying commerce contents reflecting the second interpretation speech information.

일부 실시예에서, 통역음성 정보 제공 방법은 상기 특정 상품 또는 특정 서비스를 공급하는 상품 공급자 또는 컨텐츠 제작자의 요청에 응답하여, 상기 특정 상품의 정보 또는 상기 컨텐츠 제작자의 정보를 표시하는 단계를 더 포함할 수 있다.In some embodiments, the interpretation voice information providing method further includes the step of displaying the information of the specific commodity or the information of the content creator in response to a request from the commodity supplier or the content producer to supply the specific commodity or the specific service .

일부 실시예에서, 통역음성 정보 제공 방법은 상기 제2 통역음성 정보가 반영된 커머스 컨텐츠를 외부 미디어 서버로 전송하는 단계를 더 포함할 수 있다.In some embodiments, the method for providing interpreted speech information may further include transmitting the commerce content reflecting the second interpreted speech information to an external media server.

본 발명의 다양한 실시예에 따른 맞춤형 통역 서버는 원어에 대한 통역음성 정보를 제공하는 맞춤형 통역 서버로서, 통신부; 및 원어와 관련된 컨텐츠의 UI 아이템를 웹 페이지 또는 청자 단말기에 설치된 애플리케이션을 통해 표시하며, 상기 원어에 대하여 미리 정해진 언어로 생성되는 제1 통역음성 정보를 실시간으로 수집하고, 상기 컨텐츠의 UI 아이템에 대한 사용자 선택 입력을 수신하는 것에 응답하여 상기 수집되는 제1 통역음성 정보를 상기 통신부를 통해 상기 청자 단말기에 실시간으로 제공하는 제어부를 포함할 수 있다.A customized interpretation server according to various embodiments of the present invention is a customized interpretation server for providing interpretation speech information for a source language, comprising: a communication unit; And displaying UI items of contents related to the original language through an application installed on a web page or a listener terminal, collecting first interpretation speech information generated in a predetermined language for the original language in real time, And a control unit for providing the collected first interpretation voice information to the listener terminal through the communication unit in real time in response to receiving the selection input.

일부 실시예에서, 상기 제어부는, 상기 제1 통역음성 정보에 해당하는 제1 언어 아이템을 구성하고, 구성된 제1 언어 아이템을 상기 컨텐츠의 UI 아이템이 표시되는 위치와 인접한 위치에 표시하며, 상기 제1 통역음성 정보의 실시간 수집이 종료된 경우, 상기 원어에 대하여 상기 제1 통역음성 정보와 다른 언어에 해당하는 제2 통역음성 정보를 미리 설정된 사용자 또는 임의의 사용자로부터 수집하고, 상기 컨텐츠의 UI 아이템에 대한 사용자 선택 입력을 수신하는 것에 응답하여 상기 제1 통역음성 정보 또는 상기 제2 통역음성 정보 중 적어도 하나를 상기 통신부를 통해 상기 청자 단말기에 제공할 수 있다.In some embodiments, the control unit configures a first language item corresponding to the first interpretation speech information, displays a configured first language item at a position adjacent to a position at which the UI item of the content is displayed, 1 collects the second interpretation speech information corresponding to a language different from the first interpretation speech information from the preset user or an arbitrary user when the real-time collection of the interpretation speech information is finished, In response to receiving the user selection input for the first interpretation speech information or the second interpretation speech information, the at least one of the first interpretation speech information or the second interpretation speech information to the listener terminal through the communication section.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

본 발명의 통역음성 정보 제공 방법 및 이를 수행하는 서버에서 실시간으로 통역음성 정보를 어플리케이션을 통해 청자에게 제공함으로써, 청자는 어플리케이션에서 제공하는 다양한 컨텐츠 중 자기가 원하는 통역음성을 간편하게 실시간으로 청취할 수 있다.By providing the interpretive audio information providing method of the present invention and the server performing the interpretation audio information to the listener through the application in real time, the listener can easily listen to the desired interpretation voice among the various contents provided by the application in real time .

또한, 본 발명의 통역음성 정보 제공 방법 및 이를 수행하는 서버에서 특정인으로 하여금 해당 컨텐츠에 대해 다른 언어의 통역음성 정보를 서버에 업로드할 수 있는 환경을 제공함으로써, 사업자 측면에서는 보다 능동적인 음성번역 컨텐츠 플랫폼을 구현할 수 있고, 특정인에 대하여는 소정 리워드를 지급함으로써 음성번역 컨텐츠 시장 참여에 대한 의욕을 고취시킬 수 있다.Further, by providing an interpretation audio information providing method and an environment in which a specific person in the server can upload the interpretation audio information of a different language to the server, it is possible to provide a more active voice translation content Platform can be implemented, and a certain reward can be paid to a specific person, which can encourage enthusiasm for participation in the voice translation content market.

또한, 본 발명의 통역음성 정보 제공 방법 및 이를 수행하는 서버에서 통역음성 정보가 포함된 컨텐츠를 기반으로 커머스와 관련된 컨텐츠를 생성/보급함으로써 다양한 비즈니스 환경을 구축할 수 있다는 효과가 있다.Also, it is possible to construct various business environments by generating / distributing contents related to commerce based on the interpretation voice information providing method of the present invention and the contents including the interpretation voice information in the server performing the method.

또한, 본 발명의 통역음성 정보 제공 방법 및 이를 수행하는 서버에 의하면, 청자는 자신이 가지고 있는 단말기(청자 단말기)를 이용하여 통역어 신호를 수신할 수 있으므로, 청자에게 별도의 수신기 및/또는 이어폰 등을 대여하지 않더라도, 실시간 통역 서비스를 제공할 수 있다.In addition, according to the interpretive audio information providing method and server of the present invention, a listener can receive an interpreter signal using his / her terminal (listener terminal), so that the listener can receive a separate receiver and / A real-time interpretation service can be provided even if the user does not rent the service.

또한, 본 발명의 통역음성 정보 제공 방법 및 이를 수행하는 서버에 의하면, 별도의 수신기 및/또는 이어폰 등의 대여로 인해 발생하는 임대 비용을 절감할 수 있으며, 수신기 및/또는 이어폰 등의 미반납, 분실, 파손 등으로 인해 발생하는 손실을 방지할 수 있다.In addition, according to the interpretive audio information providing method and server of the present invention, it is possible to reduce the rental cost caused by rental of a separate receiver and / or an earphone, It is possible to prevent the loss caused by the breakage or the like.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 다양한 실시예에 따른 맞춤형 통역 시스템의 개념도이다.
도 2는 본 발명의 다양한 실시예에 따른 맞춤형 통역 서버에서 컨텐츠에 대한 제1 통역음성 정보 또는 제2 통역음성 정보를 제공하는 동작을 나타내는 순서도이다.
도 3은 장내 통역 상황에서의 맞춤형 통역 시스템의 기능을 나타내는 예시도이다.
도 4는 원격 통역 상황에서의 맞춤형 통역 시스템의 기능을 나타내는 예시도이다.
도 5는 서버를 이용하는 소규모 통역 상황에서의 맞춤형 통역 시스템의 기능을 나타내는 예시도이다.
도 6은 서버를 이용하지 않는 소규모 통역 상황에서의 맞춤형 통역 시스템의 기능을 나타내는 예시도이다.
도 7은 본 발명의 다양한 실시예에 따라 컨텐츠의 제공을 특정 조건으로 제한하는 동작을 나타내는 예시도이다.
도 8은 본 발명의 다양한 실시예에 따른 맞춤형 통역 서버에서 커머스 컨텐츠를 제공하는 동작을 나타내는 흐름도이다.
도 9는 본 발명의 또다른 실시예에 따른 맞춤형 통역 시스템을 개략적으로 도시한 도면이다.
도 10은 도 1의 청자 단말기의 세부 구성을 개략적으로 도시한 도면이다.
도 11은 본 발명의 일 실시예에 따른 실시간 통역 방법을 개략적으로 도시한 도면이다.
도 12는 본 발명의 일 실시에에 따른 실시간 통역 방법을 수행하는 청자 단말기의 표시 화면을 개략적으로 도시한 도면이다.
도 13은 본 발명의 일 실시예에 따른 실시간 통역 방법을 개략적으로 도시한 도면이다.
도 14는 본 발명의 다른 일 실시예에 따른 실시간 통역 방법을 개략적으로 도시한 도면이다.
도 15는 본 발명의 일 실시예에 따른 실시간 통역 방법을 수행하는 어플리케이션을 표시한 청자 단말기의 표시 화면을 개략적으로 도시한 도면이다.
도 16은 본 발명의 또 다른 실시예에 따른 실시간 통역 방법을 개략적으로 도시한 도면이다.
도 17은 본 발명의 일 실시예에 따른 실시간 통역 방법을 수행하는 어플리케이션을 표시한 청자 단말기의 다른 표시 화면을 개략적으로 도시한 도면이다.
도 18은 본 발명의 또 다른 실시예에 따른 실시간 통역 방법을 수행하는 어플리케이션을 표시한 청자 단말기의 또 다른 표시 화면을 개략적으로 도시한 도면이다.
1 is a conceptual diagram of a customized interpretation system in accordance with various embodiments of the present invention.
FIG. 2 is a flow chart illustrating the operation of providing first interpreted speech information or second interpreted speech information for content in a customized interpretation server according to various embodiments of the present invention.
3 is an exemplary diagram showing the function of the personalized interpretation system in the intestinal interpretation situation.
4 is an exemplary diagram showing the function of a customized interpretation system in a remote interpretation situation.
5 is an exemplary diagram showing the function of a customized interpretation system in a small-scale interpretation situation using a server.
6 is an exemplary diagram showing the function of a customized interpretation system in a small-scale interpretation situation in which a server is not used.
7 is an exemplary diagram illustrating an operation for restricting the provision of content to certain conditions in accordance with various embodiments of the present invention.
Figure 8 is a flow diagram illustrating the operation of providing commerce content in a customized interpretation server in accordance with various embodiments of the present invention.
9 is a schematic diagram of a customized interpretation system in accordance with another embodiment of the present invention.
FIG. 10 is a view schematically showing a detailed configuration of the listener terminal of FIG. 1. FIG.
11 is a view schematically showing a real-time interpretation method according to an embodiment of the present invention.
12 is a view schematically showing a display screen of a listener terminal for performing a real-time interpretation method according to an embodiment of the present invention.
13 is a view schematically showing a real-time interpretation method according to an embodiment of the present invention.
FIG. 14 is a view schematically showing a real-time interpretation method according to another embodiment of the present invention.
15 is a view schematically showing a display screen of a listener terminal displaying an application for performing a real-time interpretation method according to an embodiment of the present invention.
16 is a view schematically showing a real-time interpretation method according to another embodiment of the present invention.
17 is a view schematically showing another display screen of a listener terminal displaying an application for performing a real-time interpretation method according to an embodiment of the present invention.
18 is a view schematically showing another display screen of a listener terminal displaying an application for performing a real-time interpretation method according to another embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. It should be understood, however, that the invention is not limited to the disclosed embodiments, but may be embodied in many different forms and should not be construed as limited to the embodiments set forth herein, Is provided to fully convey the scope of the present invention to a technician, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. The terms " comprises "and / or" comprising "used in the specification do not exclude the presence or addition of one or more other elements in addition to the stated element. Like reference numerals refer to like elements throughout the specification and "and / or" include each and every combination of one or more of the elements mentioned. Although "first "," second "and the like are used to describe various components, it is needless to say that these components are not limited by these terms. These terms are used only to distinguish one component from another. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical scope of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense that is commonly understood by one of ordinary skill in the art to which this invention belongs. In addition, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.The terms spatially relative, "below", "beneath", "lower", "above", "upper" And can be used to easily describe a correlation between an element and other elements. Spatially relative terms should be understood in terms of the directions shown in the drawings, including the different directions of components at the time of use or operation. For example, when inverting an element shown in the figures, an element described as "below" or "beneath" of another element may be placed "above" another element . Thus, the exemplary term "below" can include both downward and upward directions. The components can also be oriented in different directions, so that spatially relative terms can be interpreted according to orientation.

본 문서에서 언급하는 ‘원어’는 화자에 의해 발화되는 언어로 해석될 수 있으며, 특정 언어로 한정하는 것은 아니다. The 'original language' mentioned in this document can be interpreted as a language uttered by a speaker, and is not limited to a specific language.

또한, 본 문서에서 언급하는 ‘통역음성 정보’는 상기 원어와 다른 종류의 언어에 해당하는 음성으로 해석될 수 있다.In addition, 'interpretation voice information' mentioned in this document can be interpreted as a voice corresponding to a language different from the original language.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 다양한 실시예에 따른 맞춤형 통역 시스템(1000)의 개념도이다.1 is a conceptual diagram of a customized interpretation system 1000 in accordance with various embodiments of the present invention.

도시되는 바와 같이, 맞춤형 통역 시스템(1000)은 영상 또는 음성 신호(예: 번역음성 신호) 중 적어도 하나가 포함된 컨텐츠를 생성하여 사용자(예: 청자)에게 실시간(LIVE)으로 제공하거나, 해당 컨텐츠를 제공할 것을 예고(READY)할 수 있다. 이러한 컨텐츠의 제공은 사용자 단말에 설치된 어플리케이션 또는 인터넷을 이용한 웹 서비스를 통해 수행될 수 있다. As shown, the customized interpretation system 1000 generates content containing at least one of an image or a voice signal (e.g., a translation voice signal) and provides it to a user (e.g., a listener) in a live mode, (READY). The provision of such contents can be performed through an application installed in a user terminal or a web service using the Internet.

도 2는 본 발명의 다양한 실시예에 따른 맞춤형 통역 서버(100)에서 컨텐츠에 대한 제1 통역음성 정보 또는 제2 통역음성 정보를 제공하는 동작을 나타내는 순서도이다. 2 is a flowchart showing an operation of providing first interpretation voice information or second interpretation voice information for contents in the customized interpretation server 100 according to various embodiments of the present invention.

이해의 편의를 위해, 도 2의 설명 과정에서 도 3 내지 도 6을 참조하여 설명하도록 한다. 도 3은 장내 통역 상황에서의 맞춤형 통역 시스템(1000)의 기능을 나타내는 예시도이고, 도 4는 원격 통역 상황에서의 맞춤형 통역 시스템(1000)의 기능을 나타내는 예시도이며, 도 5는 맞춤형 통역 서버(100)를 이용하는 소규모 통역 상황에서의 맞춤형 통역 시스템(1000)의 기능을 나타내는 예시도이고, 도 6은 맞춤형 통역 서버(100)를 이용하지 않는 소규모 통역 상황에서의 맞춤형 통역 시스템(1000)의 기능을 나타내는 예시도이다. For convenience of explanation, the description process of FIG. 2 will be described with reference to FIG. 3 to FIG. FIG. 3 is an exemplary view showing the function of the customized interpretation system 1000 in the introductory interpretation situation, FIG. 4 is an exemplary view showing the function of the customized interpretation system 1000 in the remote interpretation situation, 6 is a diagram illustrating functions of the personalized interpretation system 1000 in a small scale interpretation situation in which the personalized interpretation server 100 is not used. Fig.

먼저, 맞춤형 통역 서버(100)는 어플리케이션 또는 웹 페이지를 통해 원어와 관련된 컨텐츠의 UI 아이템을 표시할 수 있다(S210). 원어와 관련된 컨텐츠는 예컨대, 회의 또는 세미나 등에서 특정 언어의 형태로 발생하는 영상 또는 음성을 포함할 수 있다. 그리고, UI 아이템은 이러한 컨텐츠를 어플리케이션 또는 웹 페이지를 통해 보거나 들을 수 있도록 실행 기능을 가진 아이콘 또는 UI 메뉴일 수 있다. First, the customized interpretation server 100 may display a UI item of content related to a source language through an application or a web page (S210). The content related to the source language may include, for example, images or voices that occur in the form of a specific language at a meeting or a seminar. The UI item may be an icon or UI menu having an execution function for viewing or listening to such content through an application or a web page.

다양한 실시예에서, 맞춤형 통역 서버(100)는 어플리케이션 상에서 특정 컨텐츠에 해당하는 영상과 음성이 할당될 수 있는 공간(예: 컨텐츠 룸)을 개설할 수 있다. 예를 들면, 후술할 도 15에서의 각 UI 창이 이러한 컨텐츠 룸에 해당하는 섬네일일 수 있다. 이러한 공간은 해당 컨텐츠의 UI 아이템(예: 섬네일)과 연동되며, 현장 등에 설치된 전송 클라이언트로부터 수집되는 음성 신호(예: 번역음성 신호)가 상기 개설된 공간으로 전송되거나 할당될 수 있다.In various embodiments, the customized interpretation server 100 may open a space (e.g., a content room) where video and audio corresponding to specific content can be allocated in the application. For example, each UI window in FIG. 15 to be described later may be a thumbnail corresponding to the content room. Such a space is interlocked with a UI item (e.g., a thumbnail) of the corresponding content, and a voice signal (e.g., a translation voice signal) collected from a transmission client installed on a site or the like may be transmitted or allocated to the opened space.

다음으로, 맞춤형 통역 서버(100)는 제1 통역음성 정보를 실시간으로 수집할 수 있다(S220). 여기서, 제1 통역음성 정보는 원어에 대하여 미리 정해진 언어로 번역되어 생성되는 음성신호일 수 있다. Next, the personalized interpretation server 100 can collect the first interpretation speech information in real time (S220). Here, the first interpretation speech information may be a speech signal generated by translating the original language into a predetermined language.

예를 들어, 도 3과 같은 장내 통역 상황에서, 화자(예: 연설자)는 원어(예: 영어)로 스피치를 진행할 수 있고, 이와 동시에 또는 연속적으로, 통역자는 미리 설정된 언어(예: 한국어)로 원어를 번역하여 말할 수 있다. 이 경우, 현장에 설치된 콘솔을 통해 상기 번역된 음성인 제1 통역음성 정보가 수집될 수 있다. 이러한 제1 통역음성 정보는 전송 클라이언트(10)에서 수집될 수 있고, 전송 클라이언트(10)는 맞춤형 통역 서버(100)로 제1 통역음성 정보를 전달할 수 있다.For example, in the intramural interpretation situation shown in FIG. 3, a speaker (e.g., a speaker) can speak in a native language (e.g., English), and simultaneously or successively, the interpreter can speak in a predetermined language You can translate the original language. In this case, the first interpretation voice information, which is the translated voice, may be collected through the console installed in the field. This first interpretation speech information can be collected at the transmission client 10 and the transmission client 10 can deliver the first interpretation speech information to the customized interpretation server 100. [

본 발명의 실시예에서, 전송 클라이언트(10)는 음성(예: 통역음성 정보) 또는 영상을 외부 기기(예: 콘솔)로부터 수집하기 위해 현장 또는 임의의 위치에 설치되는 전자 장치일 수 있다. 이 경우, 전송 클라이언트(10)는 맞춤형 통역 서버(100)가 어플리케이션 또는 웹 페이지 상에서 미리 개설한 공간(예: 특정 컨텐츠 룸)에 상기 수집된 영상 또는 음성을 전송할 수 있다. In an embodiment of the present invention, the transmission client 10 may be an electronic device installed at the site or at any location for collecting voice (e.g., interpretation voice information) or video from an external device (e.g., console). In this case, the transmission client 10 can transmit the collected image or voice to a space (for example, a specific content room) previously opened on the application or web page by the customized interpretation server 100.

도 4와 같은 원격 통역 상황에서는, 전송 클라이언트(10)가 화자의 음성(예: 원어) 또는 현장의 영상을 콘솔을 대신하여 수집할 수 있다. 다만 이에 한정하는 것은 아니며, 전송 클라이언트(10)는 도 3과 같이 콘솔을 경유하여 음성 또는 영상 신호를 수집할 수도 있다. 그리고, 전송 클라이언트(10)는 수집된 음성 또는 영상을 원어 서버(110)로 전송할 수 있다. 원어 서버(110)는 수집된 원어를 통역자에게 제공할 수 있고, 통역 서버(120)는 통역자로부터 통역음성 정보를 수집할 수 있다. 이 경우, 통역음성 정보는 전술한 제1 통역음성 정보에 해당한다. 즉, 통역자는 화자의 원어를 미리 지시된 특정 언어로 번역하는 자이다. 도 4에서는 맞춤형 통역 서버(100)의 구성을 원어 서버(110)와 통역 서버(120)를 기능적으로 분류하였으나 이에 한정하는 것은 아니며 하나의 맞춤형 통역 서버(100)에서 전술한 원어 서버(110) 및 통역 서버(120)의 기능들을 수행할 수도 있다.In the remote interpretation situation as shown in Fig. 4, the transmission client 10 can collect the speaker's voice (e.g., original word) or the scene image on behalf of the console. However, the present invention is not limited thereto, and the transmission client 10 may collect voice or image signals via the console as shown in FIG. Then, the transmission client 10 can transmit the collected voice or image to the original language server 110. The source language server 110 can provide the collected original words to the interpreter, and the interpretation server 120 can collect the interpretation voice information from the interpreter. In this case, the interpretation speech information corresponds to the first interpretation speech information described above. That is, the interpreter is a person who translates the original language of the speaker into a specific language designated in advance. 4, the configuration of the customized interpretation server 100 is functionally classified into the native language server 110 and the interpretation server 120. However, the customized interpretation server 100 is not limited thereto, And may perform the functions of the interpretation server 120.

또한, 전송 클라이언트(10)는 도 5와 같이 통역자 단말기(300) 또는 통역자 단말기(300)에 설치된 어플리케이션을 통해 구현될 수도 있다. 이 경우, 통역자 단말기(300)는 통역자가 말하는 제1 통역음성 정보를 수집하여 맞춤형 통역 서버(100)로 전송할 수 있다. Also, the transmission client 10 may be implemented through an application installed in the interpreter terminal 300 or the interpreter terminal 300 as shown in FIG. In this case, the interpreter terminal 300 can collect the first interpretation speech information, which the interpreter speaks, and transmit it to the customized interpretation server 100.

한편, 맞춤형 통역 서버(100)를 통하지 않고 통역자 단말기(300)에 설치된 어플리케이션만으로도 제1 통역음성 정보가 청자에게 제공될 수 있다. 예를 들어, 도 6과 같이 맞춤형 통역 서버(100)를 이용하지 않는 소규모 통역 상황에서, 통역자 단말기(300)는 어플리케이션을 통해 전술한 도 3 내지 도 5에서의 콘솔, 전송 클라이언트(10) 또는 맞춤형 통역 서버(100)의 기능을 수행할 수 있다. On the other hand, the first interpretation voice information can be provided to the listener only by the application installed in the interpreter terminal 300 without going through the customized interpretation server 100. [ For example, in a small-scale interpretation situation in which the customized interpretation server 100 is not used as shown in FIG. 6, the interpreter terminal 300 may be connected to the console, the transmission client 10, And can perform functions of the interpretation server 100.

다시 도 2를 참조하면, 맞춤형 통역 서버(100)는 사용자 요청에 따라 제1 통역음성 정보를 청자들에게 실시간으로 제공할 수 있다(S230). 예를 들어, 컨텐츠를 시청하고자 하는 청자들은 청자 단말기(400)를 통해 어플리케이션 또는 웹 페이지에서 노출되는 컨텐츠의 UI 아이템을 선택(예: 클릭 또는 터치)할 수 있고, 맞춤형 통역 서버(100)는 다양한 실시예들의 형태로 수집되는 제1 통역음성 정보를 어플리케이션 또는 웹 페이지에서 미리 개설된 공간을 통해 도 3 내지 도 5의 청자 단말기(400)에 실시간으로 제공할 수 있다. 이 경우, 맞춤형 통역 서버(100)는 제1 통역음성 정보 이외에 영상 또는 원어음성 정보를 청자 단말기(400)에 실시간으로 제공할 수도 있다. 한편, 도 6과 같은 통역현장에서는 맞춤형 통역 서버(100) 대신 통역자 단말기(300)의 어플리케이션이 제1 통역음성 정보를 청자 단말기(400)에 제공할 수 있다.Referring again to FIG. 2, the customized interpretation server 100 may provide the first interpretation speech information to the listeners in real time according to a user request (S230). For example, a listener who wishes to view content can select (e.g., click or touch) a UI item of content exposed in an application or a web page through the listener terminal 400, and the customized interpretation server 100 can select The first interpretation speech information collected in the form of embodiments can be provided in real time to the listener terminal 400 of FIGS. 3 through 5 through a space previously provided in the application or web page. In this case, the customized interpretation server 100 may provide video or original speech information in addition to the first interpretation speech information to the listener terminal 400 in real time. 6, the application of the interpreter terminal 300 may provide the first interpretation voice information to the listener terminal 400 instead of the customized interpretation server 100. [

몇몇 실시예에 따르면, 맞춤형 통역 서버(100)는 특정 컨텐츠의 UI 아이템이 표시되는 위치와 인접한 영역에 상기 제1 통역음성 정보에 해당하는 제1 언어 아이템을 표시할 수 있다. 이러한 제1 언어 아이템은 제1 통역음성 정보가 어떠한 언어인지를 나타낼 수 있는 텍스트 또는 이미지(예: 국기 이미지)를 포함하는 아이콘등일 수 있으나 특정 형태로 한정하는 것은 아니다. 이에 의해, 청자들은 어플리케이션 또는 웹 페이지 상에서 해당 컨텐츠가 어떠한 언어로 방송되고 있는지를 직관적으로 확인할 수 있다.According to some embodiments, the customized interpretation server 100 may display a first language item corresponding to the first interpreted speech information in an area adjacent to a location where a UI item of a specific content is displayed. The first language item may be an icon including a text or an image (e.g., a flag image) indicating the language of the first interpretation speech information, but is not limited to a specific form. Thus, listeners can intuitively confirm in which language the corresponding content is being broadcast on an application or a web page.

다음으로, 맞춤형 통역 서버(100)는 실시간 컨텐츠가 종료되는지를 확인할 수 있다(S240). 예컨대, 현장에서의 강연 또는 세미나 등이 종료되는 경우, 통역자는 통역을 종료할 수 있고, 맞춤형 통역 서버(100)는 제1 통역음성 정보가 더 이상 수신되지 않음을 확인함으로써 실시간 컨텐츠가 종료되는지 여부를 확인할 수 있다. Next, the customized interpretation server 100 can confirm whether the real-time content is terminated (S240). For example, if a lecture or a seminar at the site ends, the interpreter can terminate the interpretation, and the customized interpretation server 100 confirms that the first interpretation speech information is no longer received, .

실시간 컨텐츠가 종료되지 않았다면 S210 단계 내지 S240 단계가 계속되어 수행될 수 있고, 실시간 컨텐츠가 종료되었다면 맞춤형 통역 서버(100)는 VOD와 같은 다시보기 서비스를 제공할 수 있다.If the real-time content has not been terminated, steps S210 to S240 may be continuously performed. If the real-time content is terminated, the customized interpretation server 100 may provide a re-viewing service such as VOD.

구체적으로, 맞춤형 통역 서버(100)는 실시간 컨텐츠가 종료되는 경우 해당 컨텐츠의 내용(예: 음성 또는 영상) 및 제1 통역음성 정보의 싱크를 조절하거나 추가적인 자막 삽입 과정들을 수행함으로써 실시간 컨텐츠를 가공할 수 있고, 가공된 컨텐츠의 UI 아이템(예: VOD 텍스트 처리)을 구성하여 표시할 수 있다. Specifically, when the real-time content is terminated, the personalized interpretation server 100 processes real-time content by adjusting the content of the content (e.g., voice or image) and the first interpretation audio information or performing additional subtitle insertion processes And a UI item (e.g., VOD text processing) of the processed content can be configured and displayed.

다양한 실시예에 따르면, 다시보기 서비스가 수행되는 과정에서 또는 이와 별도의 과정으로, 맞춤형 통역 서버(100)는 제2 통역음성 정보 업로드 서비스를 수행할 수 있다(S250). 이러한 제2 통역음성 정보 업로드 서비스는 맞춤형 통역 시스템(1000)에서 특정 컨텐츠에 대하여 미리 준비되지 않는 언어의 음성을 임의의 사용자로부터 제공받아 청자에게 공유하는 서비스이다. 여기서 제2 통역음성 정보는, 제1 통역음성 정보와 다른 언어에 해당하는 음성정보일 수 있다.According to various embodiments, the customized interpretation server 100 can perform the second interpretation voice information upload service in the process of performing the refresh service or in a separate process (S250). This second interpretation voice information uploading service is a service in which a voice of a language not prepared in advance for a specific content in the personalized interpretation system 1000 is received from an arbitrary user and is shared with the listener. Here, the second interpretation speech information may be speech information corresponding to a language other than the first interpretation speech information.

예를 들어, 영어로 스피치된 강연에 대하여 한국어 번역음성이 삽입된 VOD 컨텐츠가 맞춤형 통역 서버(100)에 업로드 된 경우를 가정하도록 한다. 이때, 영어 또는 한국어 중 어느 하나와 일본어를 구사할 수 있는 청자는 해당 컨텐츠를 시청한 뒤 일본어로 번역음성을 생성하여 맞춤형 통역 서버(100)에 업로드할 수 있다. 여기서 일본어는 제2 통역음성 정보에 해당한다. 이렇게 함으로써, 맞춤형 통역 서버(100)는 미리 준비된 한국어(제1 통역음성 정보) 이외에 일본어(제2 통역음성 정보)로 출력되는 컨텐츠를 청자들에게 제공할 수 있다. 즉, 다수의 청자들의 재능을 이용하여 컨텐츠의 확장이 가능하다. For example, it is assumed that a VOD content in which a Korean translation voice is inserted into a customized interpretation server 100 in response to a speech spoken in English is assumed. At this time, a listener who can speak either English or Korean can generate a translated voice in Japanese after watching the corresponding content, and upload the voice to the customized interpretation server 100. Here, Japanese corresponds to the second interpretation speech information. By doing so, the customized interpretation server 100 can provide the listener with the contents output in Japanese (second interpretation speech information) in addition to the Korean (first interpretation speech information) prepared in advance. That is, it is possible to expand the contents by utilizing the talents of a large number of listeners.

그러면, 맞춤형 통역 서버(100)는 제2 통역음성 정보가 반영된 컨텐츠를 개시할 수 있고(S260), 게시된 컨텐츠를 통해 제1 통역음성 정보 또는 제2 통역음성 정보를 청자들에게 제공할 수 있다(S270). Then, the customized interpretation server 100 can start the contents reflecting the second interpretation speech information (S260), and can provide the first interpretation speech information or the second interpretation speech information to the listeners through the posted content (S270).

이 경우, 맞춤형 통역 서버(100)는 제2 통역음성 정보를 제공한 사용자 계정에 대하여 소정의 리워드를 지급할 수 있다. 이에 의해 제2 통역음성 정보가 보다 능동적으로 수집될 수 있는 환경을 조성할 수 있다. 이러한 소정의 리워드는 사이버 머니 또는 포인트등일 수 있으나 이에 한정하는 것은 아니다.In this case, the customized interpretation server 100 may pay a predetermined reward for the user account providing the second interpretation speech information. Thus, it is possible to create an environment in which the second interpretation speech information can be more actively collected. Such predetermined reward may be, but is not limited to, cyber money or points.

또한, 맞춤형 통역 서버(100)는 제2 통역음성 정보가 제공된 경우, 다시 보기 컨텐츠의 UI 아이템과 인접한 위치에 제1 통역음성 정보를 나타내는 제1 언어 아이템 및 제2 통역음성 정보를 나타내는 제2 언어 아이템을 서로 구별하여 표시할 수 있다. 이렇게 함으로써, 청자들은 제공되는 통역음성 정보의 출처 또는 신뢰도를 직관적으로 확인할 수 있다. When the second interpretation speech information is provided, the customized interpretation server 100 generates a first language item representing the first interpretation speech information and a second language item representing the second interpretation speech information at a position adjacent to the UI item of the view content Items can be distinguished from each other and displayed. By doing so, the listener can intuitively confirm the source or reliability of the provided interpretation voice information.

도 7은 컨텐츠의 제공을 특정 조건으로 제한하는 동작을 나타내는 예시도이다.7 is an exemplary diagram showing an operation for restricting the provision of contents to specific conditions.

맞춤형 통역 시스템(1000) 또는 맞춤형 통역 서버(100)는 701 화면과 같이 어플리케이션 상에서 소정 비밀번호를 입력해야만 전술한 실시간 컨텐츠 또는 다시보기 컨텐츠를 제공할 수 있다. 또한, 보다 강력한 보안을 요구하는 통역 상황의 경우, 맞춤형 통역 서버(100)는 703 화면과 같이 비콘(705)의 통신 반경 내(707)에 위치한 청자 단말기(400)에 대해서만 실시간 컨텐츠 또는 다시보기 컨텐츠를 제공할 수 있다. The customized interpretation system 1000 or the customized interpretation server 100 can provide the above-mentioned real-time content or re-viewing content only by inputting a predetermined password on the application, such as the 701 screen. In the case of an interpreter situation requiring stronger security, the customized interpretation server 100 may transmit only real-time contents or re-view contents (not shown) to the culler's terminal 400 located in the communication radius 707 of the beacon 705 Can be provided.

몇몇 실시예에 따르면, 이러한 보안조건은 단계적으로 수행될 수 있다. 즉, 맞춤형 통역 서버(100)는 제1 조건으로 어플리케이션 또는 웹 페이지 상에서 미리 설정된 정보(예: 비밀번호)가 입력될 것은 요구할 수 있고, 제2 조건으로 해당 청자 단말기(400)가 특정 비콘(705)의 통신 반경 내(707)에 위치하는지를 요구할 수 있다. 맞춤형 통역 서버(100)는 제1 조건과 제2 조건의 충족 여부에 따라 실시간 컨텐츠 또는 다시보기 컨텐츠의 일부 또는 전부를 제공할 수 있다.According to some embodiments, this security condition may be performed step by step. That is, the customized interpretation server 100 can request that information (for example, password) set in advance on the application or web page under the first condition be input, and if the listener terminal 400 receives the specific beacon 705 in the second condition, Or within the communication radius 707 of < / RTI > The customized interpretation server 100 may provide some or all of the real-time content or the re-viewed content depending on whether the first condition and the second condition are satisfied.

도 8은 본 발명의 다양한 실시예에 따른 맞춤형 통역 서버(100)에서 커머스 컨텐츠를 제공하는 동작을 나타내는 흐름도이다. 이러한 도 8의 실시예는 맞춤형 통역 시스템(1000)을 통해 커머스 플랫폼이 구현되는 실시예를 나타낼 수 있으며, 전술한 도 2의 과정과 중복되는 내용은 생략되거나 간략히 하도록 한다.8 is a flow diagram illustrating an operation for providing commerce content in a customized interpretation server 100 in accordance with various embodiments of the present invention. The embodiment of FIG. 8 may represent an embodiment in which the commerce platform is implemented through the personalized interpretation system 1000, and redundant contents of the process of FIG. 2 described above may be omitted or simplified.

먼저, 맞춤형 통역 서버(100)는 커머스 컨텐츠를 수집할 수 있다(S810). 커머스 컨텐츠는 특정 상품이나 특정 서비스에 대해 원어로 설명되는 영상 또는 음성이 포함된 컨텐츠일 수 있으며, 예컨대, 광고 컨텐츠일 수 있다.First, the customized interpretation server 100 can collect commerce content (S810). The commerce content may be a content including a video or a voice described in a source language for a specific commodity or a specific service, and may be, for example, advertisement contents.

다양한 실시예에 따르면, 맞춤형 통역 서버(100)는 매칭 시스템을 통해 이러한 커머스 컨텐츠를 수집할 수 있다(S810). 구체적으로, 맞춤형 통역 서버(100)는 특정 상품 또는 특정 서비스를 공급하는 상품 공급자와 이러한 상품과 서비스를 영상 또는 음성 형태의 컨텐츠로 제작하는 컨텐츠 제작자를 매칭시킬 수 있다. According to various embodiments, the customized interpretation server 100 may collect such commerce content through a matching system (S810). Specifically, the customized interpretation server 100 can match a goods supplier that supplies a specific product or a specific service, and a content producer that produces such goods and services as content in the form of image or voice.

이를 위해, 맞춤형 통역 서버(100)는 회원가입 또는 정보기입 과정을 통해 특정 상품을 공급하고자 하는 상품 또는 서비스의 정보(예: 상품/서비스 이름, 개수, 특징, 크기, 효과 등)를 수집할 수 있고, 수집된 상품 정보를 어플리케이션 또는 웹 페이지에 노출시킬 수 있다. 또한, 맞춤형 통역 서버(100)는 컨텐츠를 제작하는 컨텐츠 제작자의 정보(예: 컨텐츠 제작 이력, 특화 분야 등)를 상기 회원가입 또는 정보기입 과정에서 수집할 수 있고, 수집된 컨텐츠 제작자의 정보를 마찬가지로 어플리케이션 또는 웹 페이지에 노출시킬 수 있다. 이에 의해, 상품 공급자와 컨텐츠 제작자간의 커뮤니케이션이 수행되어 커머스 컨텐츠가 제작될 수 있고, 제작된 커머스 컨텐츠가 맞춤형 통역 서버(100)에 제공될 수 있다.To this end, the customized interpretation server 100 can collect information (for example, product / service name, number, feature, size, effect, etc.) of a product or service to which a specific product is to be supplied And expose the collected product information to an application or a web page. In addition, the customized interpretation server 100 can collect information (e.g., content production history, specialized field, etc.) of the content creator who produces the content in the membership subscription or information writing process, Application or web page. Thus, the commerce content can be produced by communicating between the commodity supplier and the content producer, and the produced commerce content can be provided to the customized interpretation server 100.

다음으로, 맞춤형 통역 서버(100)는 수집된 커머스 컨텐츠의 UI 아이템을 구성하여 어플리케이션 또는 웹 페이지를 통해 표시할 수 있고(S820), 커머스 컨텐츠에 대한 제1 통역음성 정보를 청자 단말기(400)를 통해 제공할 수 있다(S830).Next, the customized interpretation server 100 forms the UI items of the collected commerce content and displays it on the application or web page (S820), and transmits the first interpretation voice information for the commerce content to the listener terminal 400 (S830).

도 8에서의 제1 통역음성 정보는 도 2의 제1 통역음성 정보와 같이 실시간으로 수집될 수 있으나, 다양한 실시예에 따르면 커머스 컨텐츠에 이미 포함된 형태로 구현될 수도 있다. 즉, 커머스 컨텐츠는 실시간으로 생성될 수도 있지만 컨텐츠 제작자에 의해 제작이 완료된 상태일 수 있기 때문에, 제1 통역음성 정보는 커머스 컨텐츠에 포함되어 가공된 형태로 제공될 수 있다. The first interpretation speech information in FIG. 8 may be collected in real time like the first interpretation speech information in FIG. 2, but may be implemented in a form already included in the commerce content according to various embodiments. That is, the commerce content may be generated in real time, but may be in a state in which the content producer has completed the production, so that the first interpretation voice information may be provided in a processed form included in the commerce content.

그러면, 전술한 도 2와 같이 특정 청자가 커머스 컨텐츠에 대한 제2 통역음성 정보를 맞춤형 통역 서버(100)에 업로드할 수 있다(S840). Then, as shown in FIG. 2, a specific listener can upload the second interpretation voice information for the commerce content to the customized interpretation server 100 (S840).

도 8의 실시예에서, 제2 통역음성 정보를 업로드하는 청자는 해당 컨텐츠에 포함된 상품 또는 서비스의 판매 희망자일 수 있다. 예를 들어, 영어로 광고가 되는 특이한 형태의 물병이 한국어로 통역되어 커머스 컨텐츠로서 맞춤형 통역 서버(100)에 업로드 된 경우, 일본에서 이를 청취한 청자(일본어 구사 가능)는 해당 물병을 일본에서 판매하고자 할 수도 있다. 그러면, 상기 청자는 일본에 있는 고객들로 하여금 해당 물병에 대한 구매욕구를 고취시키기 위해 자신의 재능을 이용하여 커머스 컨텐츠를 일본어로 통역한 번역음성 정보를 맞춤형 통역 서버(100)에 업로드할 수 있다. In the embodiment of FIG. 8, the listener who uploads the second interpretation voice information may be a salesperson of the goods or services included in the contents. For example, when a water bottle of a specific type to be advertised in English is interpreted in Korean and uploaded as commerce content to the customized interpretation server 100, a listener (Japanese-speaking) who listens to it in Japan will sell the water bottle in Japan You might want to. Then, the listener can upload the translated speech information translated into Japanese into the customized interpretation server 100 by using his or her talent to encourage customers in Japan to purchase the water bottle.

그러면, 맞춤형 통역 서버(100)는 제2 통역음성 정보(예: 일본어)가 반영된 커머스 컨텐츠를 자체 웹 사이트 또는 어플리케이션을 통해 게시하거나(S850), 유투브™와 같은 외부 미디어 서버로 전송할 수 있다(S860). 이 경우, 맞춤형 통역 서버(100)의 관리자는 커머스 컨텐츠의 물품(예: 상품 또는 서비스)을 상품 공급자로부터 소싱하여 제2 통역음성 정보를 업로드한 판매 희망자에게 공급할 수도 있다. Then, the customized interpretation server 100 can publish the commerce content reflecting the second interpretation speech information (e.g., Japanese) through its own website or application (S850) or transmit it to an external media server such as YouTube (S860 ). In this case, the manager of the customized interpretation server 100 may source the commodity article (e.g., goods or service) of commerce content from the commodity supplier and supply the second interpretation voice information to the uploaded salesperson.

상기와 같은 도 8의 실시예에 의해, 통역음성 정보가 포함된 컨텐츠를 기반으로 커머스와 관련된 컨텐츠를 생성/보급함으로써 다양한 비즈니스 환경을 구축할 수 있다.According to the embodiment of FIG. 8 as described above, various business environments can be constructed by generating / distributing contents related to commerce based on contents including interpreted speech information.

이하 도 9 내지 도 18을 통해 본 발명의 다양한 실시예에 따른 맞춤형 통역 시스템(1000)을 설명하도록 한다. 도 9 내지 도 18을 통해 개시되는 맞춤형 통협 서버(100), 화자 단말기(200), 통역자 단말기(300) 및 청자 단말기(400)의 구성과 기능은 전술한 도 1 내지 도 8에 대하여 동일하게 적용될 수 있다.9 through 18, a personalized interpretation system 1000 according to various embodiments of the present invention will be described. The configuration and functions of the customized settlement server 100, the speaker terminal 200, the interpreter terminal 300 and the listener terminal 400 disclosed in Figs. 9 to 18 are applied to the above-described Figs. 1 to 8 .

도 9는 본 발명의 또다른 실시예에 따른 맞춤형 통역 시스템(1000)을 개략적으로 도시한 도면이다.Figure 9 is a schematic illustration of a customized interpretation system 1000 in accordance with another embodiment of the present invention.

도 9를 참조하면, 맞춤형 통역 시스템(1000)은 맞춤형 통역 서버(100), 화자 단말기(200), 통역자 단말기(300), 청자 단말기(400)를 포함한다.Referring to FIG. 9, the customized interpretation system 1000 includes a customized interpretation server 100, a speaker terminal 200, an interpreter terminal 300, and a listener terminal 400.

맞춤형 통역 서버(100), 화자 단말기(200), 통역자 단말기(300), 청자 단말기(400)는 네트워크를 통해서 서로 각종 데이터 및/또는 정보를 송수신할 수 있다. 네트워크는 유선 또는 무선 네트워크를 포함한다. 무선 네트워크는 이동 통신, 근거리 통신, 전파 통신, 광 통신, 위성 통신 등과 같은 각종 통신 방식의 무선 네트워크를 포함한다. 또한, 맞춤형 통역 서버(100)는 저장부(예: 메모리), 통신부(예: 무선통신 모듈) 및 제어부(예: 프로세서)를 포함할 수 있으나 이에 한정하는 것은 아니다. 이러한 맞춤형 통역 서버(100)는 물리적으로 또는 기능적으로 구분된 복수의 서버(원어 서버(110)와 통역 서버(120))를 포함하여 구성될 수 있다. The personalized interpretation server 100, the speaker terminal 200, the interpreter terminal 300, and the listener terminal 400 can transmit and receive various data and / or information to / from each other via the network. The network includes a wired or wireless network. Wireless networks include wireless networks of various communication types such as mobile communication, local area communication, radiocommunication, optical communication, satellite communication, and the like. The customized interpretation server 100 may also include a storage unit (e.g., memory), a communication unit (e.g., a wireless communication module), and a control unit (e.g., a processor). The customized interpretation server 100 may be configured to include a plurality of servers physically or functionally distinguished (the native language server 110 and the interpretation server 120).

원어 서버(110)는 화자 단말기(200)로부터 적어도 하나의 연설(Speech)의 원어 신호를 수신하고, 이를 통역자 단말기(300)와 청자 단말기(400)에게 전송할 수 있다. The original language server 110 may receive at least one speech signal of a speech from the speaker terminal 200 and transmit the same to the interpreter terminal 300 and the listener terminal 400.

통역 서버(120)는 통역자 단말기(300)로부터 상기 적어도 하나의 연설의 원어 신호에 대응하는 통역어 신호를 수신하고, 이를 청자 단말기(400)에게 전송할 수 있다. The interpreter server 120 may receive an interpreter signal corresponding to the original speech signal of the at least one speech from the interpreter terminal 300 and may transmit the interpreter signal to the listener terminal 400.

여기서, 원어(Original Language)는 화자에 의해 사용된 본래(통역되기 전의) 언어를 나타내고, 통역어(Interpreted language)는 통역자에 의해 원어로부터 통역하고자 하는 대상 언어를 나타낸다. Here, the original language represents the original language (before the interpretation) used by the speaker, and the interpreter language represents the target language to be interpreted by the interpreter from the original language.

한편, 서버의 개수는 특정한 실시예에 제한되는 것은 아니고, 맞춤형 통역 서버(100)가 물리적으로 또는 기능적으로 구분된 복수의 서버를 포함하여 구성되거나, 또는 하나의 서버로 구성될 수 있음은 본 발명이 속하는 기술분야의 통상의 기술자에게 자명하게 이해될 수 있을 것이다.On the other hand, the number of servers is not limited to the specific embodiment, and the customized interpretation server 100 may be configured to include a plurality of servers physically or functionally separated or may be constituted by one server. As will be apparent to those skilled in the art.

화자 단말기(Speaker Terminal, 200)는 화자에 의해 사용되는 단말기를 나타낸다. 화자 단말기(200)는 마이크 모듈과 무선 통신부 등을 포함하는 전자 시스템 또는 컴퓨터 시스템 등으로 제공될 수 있다. A speaker terminal (200) represents a terminal used by a speaker. The speaker terminal 200 may be provided in an electronic system including a microphone module, a wireless communication unit, or a computer system.

본 실시예에서 화자 단말기(200)는 사용자(즉, 화자)로부터 (음성 형태의) 적어도 하나의 연설에 대한 원어 신호를 입력 받고, 상기 입력된 원어 신호를 상기 원어 서버(110)에 전송할 수 있다.In the present embodiment, the speaker terminal 200 receives a source speech signal for at least one speech (in the form of speech) from a user (i.e., a speaker) and transmits the source speech signal to the source language server 110 .

통역자 단말기(Interpreter Terminal, 300)는 통역자에 의해 사용되는 단말기를 나타낸다. 통역자 단말기(300)는 마이크 모듈 및/또는 스피커 모듈과 무선 통신부 등을 포함하는 전자 시스템 또는 컴퓨터 시스템 등으로 제공될 수 있다. The interpreter terminal 300 represents a terminal used by an interpreter. The interpreter terminal 300 may be provided in an electronic system or a computer system including a microphone module and / or a speaker module and a wireless communication unit.

본 실시예에서 통역자 단말기(300)는 원어 서버(110)로부터 적어도 하나의 연설에 대한 원어 신호를 수신할 수 있다. 통역자 단말기(300)는 상기 원어 신호를 출력하고, 사용자(즉, 통역자)로부터 상기 원어 신호에 대응하는 (음성 형태의) 통역어 신호를 입력 받은 후, 상기 입력된 통역어 신호를 통역 서버(120)에게 전송할 수 있다.In this embodiment, the interpreter terminal 300 can receive the source speech signal for at least one speech from the source language server 110. The interpreter terminal 300 outputs the original speech signal, receives an interpreter signal (in the form of voice) corresponding to the original speech signal from a user (that is, an interpreter), and transmits the interpreter speech signal to the interpretation server 120 ).

청자 단말기(Hearer Terminal, 400)는 청자에 의해 사용되는 단말기를 나타낸다. 청자 단말기(400)는 사용자(즉, 청자)가 이동하면서 사용할 수 있는 컴퓨터 시스템으로 제공될 수 있다. A hearer terminal (400) represents a terminal used by a listener. The listener terminal 400 may be provided as a computer system that a user (i.e., a listener) can use while moving.

예를 들어, 청자 단말기(400)는 스마트폰, 태블릿(tablet), PDA(Personal Digital Assistant), 랩톱(laptop) 등과 같은 컴퓨터 시스템일 수 있으나, 본 발명이 이에 제한되는 것은 아니다. For example, the listener terminal 400 may be a computer system such as a smart phone, a tablet, a PDA (Personal Digital Assistant), a laptop, and the like, but the present invention is not limited thereto.

즉, 청자 단말기(400)는 네트워크에 연결 가능하고 이동성이 존재하는 임의의 컴퓨터 시스템으로 제공될 수 있다. 본 발명에서 청자 단말기(400)는 원어 서버(110)로부터 적어도 하나의 연설의 원어 신호를 수신하고, 통역 서버(120)로부터 상기 원어 신호에 대응하는 통역어 신호를 수신할 수 있으며, 상기 원어 서버(110)로부터의 원어 신호 수신과 상기 통역 서버(120)로부터의 통역어 신호의 수신은 동시에 혹은 구분적으로 수신하는 것을 포함할 수 있다.That is, the listener terminal 400 may be provided in any computer system that is connectable to the network and has mobility. In the present invention, the listener terminal 400 may receive at least one source speech signal from the source language server 110 and receive an interpretation signal corresponding to the source speech signal from the interpretation server 120, Reception of a source language signal from the translator server 110 and reception of an interpreter signal from the interpretation server 120 may be simultaneously or separately received.

도 10은 도 9의 청자 단말기(400)의 세부 구성을 개략적으로 도시한 도면이다.FIG. 10 is a view schematically showing the detailed configuration of the listener terminal 400 of FIG.

도 9를 참조하면, 청자 단말기(400)는 무선 통신부(410), A/V 입력부(420), 사용자 입력부(430), 센싱부(440), 출력부(450), 저장부(460), 인터페이스부(470), 제어부(480), 전원 공급부(490)를 포함한다.9, the listener terminal 400 includes a wireless communication unit 410, an A / V input unit 420, a user input unit 430, a sensing unit 440, an output unit 450, a storage unit 460, An interface unit 470, a control unit 480, and a power supply unit 490.

무선 통신부(410)는 외부 디바이스와 무선 통신할 수 있다. 무선 통신부(410)는 이동 통신, 와이브로, 블루투스(Bluetooth), 와이파이(WiFi), 지그비(Zigbee), 초음파, 적외선, RF(Radio Frequency) 등과 같은 무선 통신 방식을 이용하여 외부 디바이스와 무선 통신할 수 있다. The wireless communication unit 410 may wirelessly communicate with an external device. The wireless communication unit 410 can wirelessly communicate with an external device using a wireless communication method such as mobile communication, WiBro, Bluetooth, WiFi, Zigbee, ultrasonic, infrared, and RF have.

그러나, 청자 단말기(400)의 무선 통신 방식이 특정한 실시예에 제한되는 것은 아니다. 무선 통신부(410)는 외부 디바이스로부터 수신한 데이터 및/또는 정보를 제어부(480)에 전달하고, 제어부(480)로부터 전달된 데이터 및/또는 정보를 외부 디바이스에 전송할 수 있다. 이를 위하여, 무선 통신부(410)는 이동 통신 모듈(411) 및 근거리 통신 모듈(412)을 포함할 수 있다.However, the radio communication method of the listener terminal 400 is not limited to the specific embodiment. The wireless communication unit 410 may transmit data and / or information received from the external device to the control unit 480 and may transmit the data and / or information transmitted from the control unit 480 to the external device. For this, the wireless communication unit 410 may include a mobile communication module 411 and a short-range communication module 412.

또한, 무선 통신부(410)는 위치 정보 모듈(413)을 포함하여 청자 단말기(400)의 위치 정보를 획득할 수 있다. 청자 단말기(400)의 위치 정보는 예를 들어 GPS 측위 시스템, WiFi 측위 시스템, 셀룰러(Cellular) 측위 시스템 또는 비콘(beacon) 측위 시스템들로부터 제공될 수 있으나, 본 발명이 이에 제한되는 것은 아니고, 임의의 측위 시스템들로부터 위치 정보가 제공될 수 있다. 무선 통신부(410)는 측위 시스템으로부터 수신한 위치 정보를 제어부(480)에 전달할 수 있다.Also, the wireless communication unit 410 may acquire location information of the listener terminal 400 including the location information module 413. [ The location information of the listener terminal 400 may be provided from, for example, a GPS positioning system, a WiFi positioning system, a cellular positioning system or a beacon positioning system, but the present invention is not limited thereto, The location information may be provided from the positioning systems of the mobile terminal. The wireless communication unit 410 may transmit the position information received from the positioning system to the control unit 480.

A/V 입력부(420)는 영상 또는 음성 신호 입력을 위한 것으로, 카메라 모듈(421)과 마이크 모듈(422)을 포함할 수 있다.The A / V input unit 420 is for inputting video or audio signals, and may include a camera module 421 and a microphone module 422.

사용자 입력부(430)는 사용자로부터 각종 정보를 입력받는다. 사용자 입력부(430)는 키 패드, 버튼, 스위치, 터치 패드, 조그 휠 등의 입력 수단을 포함할 수 있다. 터치 패드가 후술하는 디스플레이 모듈(451)과 상호 레이어 구조를 이루는 경우, 터치스크린을 구성할 수 있다.The user input unit 430 receives various information from the user. The user input unit 430 may include input means such as a keypad, a button, a switch, a touch pad, and a jog wheel. When the touch pad has a mutual layer structure with a display module 451 described later, a touch screen can be configured.

센싱부(440)는 청자 단말기(400)의 상태 또는 사용자의 상태를 감지한다. 센싱부(440)는 터치 센서, 근접 센서, 압력 센서, 진동 센서, 지자기 센서, 자이로 센서, 속도 센서, 가속도 센서, 생체 인식 센서 등의 감지 수단을 포함할 수 있다. 센싱부(440)는 사용자 입력을 위하여 이용될 수도 있다.The sensing unit 440 senses the state of the listener terminal 400 or the state of the user. The sensing unit 440 may include sensing means such as a touch sensor, a proximity sensor, a pressure sensor, a vibration sensor, a geomagnetic sensor, a gyro sensor, a velocity sensor, an acceleration sensor, and a biometric sensor. The sensing unit 440 may be used for user input.

출력부(450)는 사용자에게 각종 정보를 통보한다. 출력부(450)는 텍스트, 영상 또는 음성의 형태로 정보를 출력할 수 있다. 이를 위하여, 출력부(450)는 디스플레이 모듈(451) 및 스피커 모듈(452)을 포함할 수 있다. The output unit 450 notifies the user of various types of information. The output unit 450 can output information in the form of text, image, or voice. To this end, the output unit 450 may include a display module 451 and a speaker module 452.

디스플레이 모듈(451)은 PDP(Plasma Display Panel), LCD(Liquid Crystal Display), TFT(Thin Film Transistor) LCD, OLED(Organic Light Emitting Diode), 플렉시블 디스플레이, 3차원 디스플레이, 전자잉크 디스플레이, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태로 제공될 수 있다. The display module 451 may be a PDP (Plasma Display Panel), an LCD (Liquid Crystal Display), a TFT (Thin Film Transistor) LCD, an OLED (Organic Light Emitting Diode), a flexible display, May be provided in any form well known in the art.

출력부(450)는 본 발명이 속하는 기술분야에서 잘 알려진 임의의 형태의 출력 수단을 더 포함하여 구성될 수 있다.The output unit 450 may further comprise any type of output means well known in the art.

저장부(460)는 각종 데이터 및 명령을 저장한다. 저장부(460)는 청자 단말기(400)의 동작을 위한 시스템 소프트웨어와 각종 애플리케이션을 저장할 수도 있다. The storage unit 460 stores various data and commands. The storage unit 460 may store system software and various applications for operation of the listener terminal 400.

저장부(460)는 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable-Programmable ROM), EEPROM(Electrically EPROM), 플래시 메모리, 하드 디스크, 착탈형 디스크, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함할 수 있다.The storage unit 460 may be a random access memory (RAM), a read only memory (ROM), an erasable-programmable ROM (EPROM), an electrically erasable programmable read-only memory (EEPROM), a flash memory, a hard disk, a removable disk, Lt; RTI ID = 0.0 > computer-readable < / RTI >

인터페이스부(470)는 청자 단말기(400)에 접속되는 외부 디바이스와의 통로 역할을 수행한다. 인터페이스부(470)는 외부 디바이스로부터 데이터 및/또는 정보를 수신하거나 전원을 공급받아 청자 단말기(400) 내부의 구성요소들에 전달하거나, 외부 디바이스에 청자 단말기(400) 내부의 데이터 및/또는 정보를 전송하거나 내부의 전원을 공급할 수 있다. The interface unit 470 serves as a channel with an external device connected to the listener terminal 400. The interface unit 470 receives data and / or information from an external device or receives power and transmits the received data and / or information to the internal components of the listener terminal 400, Or supply internal power.

인터페이스부(470)는 예를 들어, 유/무선 헤드셋 포트, 충전용 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 범용 직렬 버스(Universal Serial Bus; USB) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트 등을 포함할 수 있다.The interface unit 470 includes, for example, a wired / wireless headset port, a charging port, a wired / wireless data port, a memory card port, a universal serial bus An audio input / output port, a video input / output (I / O) port, and the like.

제어부(480)는 다른 구성요소들을 제어하여 청자 단말기(400)의 전반적인 동작을 제어한다. 제어부(480)는 저장부(460)에 저장된 시스템 소프트웨어와 각종 애플리케이션을 수행할 수 있다.The control unit 480 controls other components to control the overall operation of the listener terminal 400. The control unit 480 can execute the system software stored in the storage unit 460 and various applications.

전원 공급부(490)는 무선 통신부(410), A/V 입력부(420), 사용자 입력부(430), 센싱부(440), 출력부(450), 저장부(460), 인터페이스부(470), 제어부(480)의 동작에 필요한 전원을 공급한다. 전원 공급부(490)는 내장 배터리를 포함할 수 있다.The power supply unit 490 includes a wireless communication unit 410, an A / V input unit 420, a user input unit 430, a sensing unit 440, an output unit 450, a storage unit 460, an interface unit 470, And supplies power necessary for the operation of the control unit 480. The power supply 490 may include an internal battery.

다시 도 9를 참조하면, 도 9에서는 하나의 화자 단말기(200)와 하나의 통역자 단말기(300)를 도시하였으나, 본 발명이 이에 제한되는 것은 아니고, 화자 단말기(200)와 통역자 단말기(300)의 개수는 실시예에 따라 다양하게 변형될 수 있다.9, one speaker terminal 200 and one interpreter terminal 300 are shown in FIG. 9. However, the present invention is not limited thereto, and the speaker terminal 200 and the interpreter terminal 300 The number may be variously modified according to the embodiment.

도 11은 본 발명의 일 실시예에 따른 실시간 통역 방법을 개략적으로 도시한 도면이다.11 is a view schematically showing a real-time interpretation method according to an embodiment of the present invention.

도 11을 참조하면, 단계 S510에서, 화자 단말기(200)가 특정인으로부터 입력 받은 원어 신호를 상기 원어 서버(110)로 전송한다. (S510)Referring to FIG. 11, in step S510, the speaker terminal 200 transmits a source signal received from a specific person to the source language server 110. FIG. (S510)

이어서, 단계 S520-1에서, 원어 서버(110)가 화자 단말기(200)로부터 수신한 원어 신호를 통역자 단말기(300)에게 전송할 수 있으며, 이어서, 단계 S520-2에서, 원어 서버(110)는 화자 단말기(200)로부터 수신한 원어 신호를 청자 단말기(400)에게 전송한다. (S520-1, S520-2)Subsequently, in step S520-1, the source language server 110 can transmit the source language signal received from the speaker terminal 200 to the interpreter terminal 300, and then, in step S520-2, And transmits the original speech signal received from the terminal 200 to the listener terminal 400. (S520-1, S520-2)

이 때, 상기 S520-1 단계와 S520-2 단계는 서로 동시에 실시될 수 있으며, 이와 달리 서로 구분되어 실시될 수 있다. 또한, 상기 S520-1 단계 및 S520-2 단계는 상기 구분된 단계의 순서대로 실시될 수도 있으며, 이와 달리 설정에 따라 반대의 순서대로 실시될 수도 있다.In this case, steps S520-1 and S520-2 may be performed simultaneously, or may be separately performed. In addition, the steps S520-1 and S520-2 may be performed in the order of the divided steps, or may be performed in the reverse order according to the setting.

한편, 단계 S530에서, 통역자 단말기(300)가 상기 원어 신호에 대응하는 통역어 신호를 사용자(즉, 통역자)로부터 입력받은 후 이를 통역 서버(120)에게 전송할 수 있다. 이 때, 상기 통역 서버는 도 11에 도시된 맞춤형 통역 서버(100)에 포함되어 있을 수 있으며, 이와 달리 앞서 설명한 바와 같이 원어 서버와 구분되는 별도의 서버로 존재할 수도 있다. (S530)On the other hand, in step S530, the interpreter terminal 300 may receive an interpreter signal corresponding to the original speech signal from the user (that is, an interpreter), and then transmit the interpreter signal to the interpretation server 120. [ At this time, the interpretation server may be included in the customized interpretation server 100 shown in FIG. 11, or may be a separate server separated from the original language server as described above. (S530)

이어서, 단계 S540에서, 통역 서버(120)는 앞서 S530 단계에서 통역자 단말기(300)로부터 수신한 통역어 신호를 청자 단말기(400)에게 전송한다. (S540)Then, in step S540, the interpretation server 120 transmits the interpretation speech signal received from the interpreter terminal 300 to the listener terminal 400 in step S530. (S540)

그 후, 단계 S550에서, 청자 단말기(400)는 상기 원어 신호 및 상기 통역어 신호 중 적어도 하나 이상의 언어 신호에 관한 사용자의 선택을 입력받을 수 있다. (S550)Thereafter, in step S550, the listener terminal 400 can receive a user's selection regarding at least one of the source speech signal and the interpretation speech signal. (S550)

이어서, 단계 S560에서, 청자 단말기(400)가 사용자에 의해 선택된 언어 신호를 출력한다. (S560)Subsequently, in step S560, the listener terminal 400 outputs the language signal selected by the user. (S560)

이 때, 상기 청자 단말기(400)의 사용자가 원어 신호를 선택한 경우, 청자 단말기(400)는 원어 신호를 출력하며, 만약 청자 단말기(400)의 사용자가 통역어 신호를 선택한 경우 상기 청자 단말기(400)는 통역어 신호를 출력할 수 있다. 또한, 이와 달리 상기 청자 단말기(400)의 사용자가 원어 신호 및 통역어 신호 모두를 선택한 경우에는 상기 청자 단말기(400)는 원어 신호와 통역어 신호 모두를 구분하여 출력할 수 있다.When the user of the listener terminal 400 selects the original speech signal, the listener terminal 400 outputs the original speech signal. If the user of the listener terminal 400 selects the interpreter signal, the listener terminal 400 Can output an interpreter signal. Alternatively, when the user of the listener terminal 400 selects both the original speech signal and the interpretation speech signal, the listener terminal 400 may distinguish between the original speech signal and the interpretation speech signal.

도 12는 본 발명의 일 실시에에 따른 실시간 통역 방법을 수행하는 청자 단말기(400)의 표시 화면을 개략적으로 도시한 도면이다.FIG. 12 is a view schematically showing a display screen of a listener terminal 400 performing a real-time interpretation method according to an embodiment of the present invention.

도 12를 참조하면, 청자 단말기(400)는 원어 신호에 관한 화면(10)과 통역어 신호에 관한 화면(20)을 표시할 수 있다. 사용자는 각각의 화면에 대해서 터치 등을 포함하는 제어 동작을 입력함으로써, 원어 신호 및/또는 통역어 신호의 출력을 제어할 수 있다. Referring to FIG. 12, the listener terminal 400 can display the screen 10 related to the original speech signal and the screen 20 relating to the interpreter speech signal. The user can control the output of the source language signal and / or the translator language signal by inputting a control operation including a touch or the like to each screen.

각각의 화면은 출력 상태를 나타내는 프로그레스 바(Progress Bar, 11) 및 사용자의 제어를 위한 하나 이상의 각종 버튼(12)을 표시할 수 있다.Each screen may display a progress bar 11 indicating the output status and one or more various buttons 12 for controlling the user.

예를 들어 상기 각종 버튼(12) 중 하나가 녹음 기능을 수행하는 버튼으로 설정된 경우, 사용자가 터치, 클릭 등을 포함하는 제어동작을 해당 버튼을 누르는 경우, 청자 단말기(400)는 출력되는 원어 신호 및/또는 통역어 신호를 녹음하여 상기 청자 단말기(400) 내에 저장할 수 있으며, 위 버튼과 동일한 버튼 또는 다른 버튼을 이용하여 상기 녹음하여 저장된 원어 신호 및/또는 통역어 신호를 재생하는 것이 가능하다.For example, when one of the various buttons 12 is set as a button for performing a recording function, when the user presses a corresponding control operation including a touch, a click, etc., the listener terminal 400 outputs the original speech signal And / or an interpreter signal to be stored in the listener terminal 400, and it is possible to reproduce the original sound signal and / or the translator signal by using the same button or the same button as the upper button.

도 13은 본 발명의 일 실시예에 따른 실시간 통역 방법을 개략적으로 도시한 도면이다.13 is a view schematically showing a real-time interpretation method according to an embodiment of the present invention.

도 13의 실시간 통역 방법은, 연설 목록의 전송과 연설 목록 중 적어도 하나의 연설의 선택이 이루어지는 점에서, 도 11을 참조하여 설명한 실시간 통역 방법과 차이점이 존재한다. 다만, 이하에서는 설명의 편의를 위하여, 도 11을 참조하여 설명한 실시간 통역 방법과 실질적으로 동일한 단계에 대하여는 상세한 설명을 생략하거나 간단히 하기로 한다.The real-time interpretation method of FIG. 13 differs from the real-time interpretation method described with reference to FIG. 11 in that transmission of the speech list and selection of at least one speech among the speech list are performed. Hereinafter, for the sake of convenience of explanation, a detailed description of the substantially same steps as those of the real-time interpretation method described with reference to FIG. 11 will be omitted or simplified.

다시 도 13을 참조하면, 단계 S610에서, 원어 서버(110)는 적어도 하나의 연설을 포함하는 연설 목록을 청자 단말기(400)에게 전송한다. (S610) 이 때, 원어 서버(110)는 도 13에 도시된 바와 같이 통역 서버와 함께 맞춤형 통역 서버(100)로서 구현될 수도 있으며, 이와 달리 원어 서버(110)는 통역 서버와는 구분되어 별개의 서버로서 존재할 수도 있다.Referring again to FIG. 13, in step S610, the original language server 110 transmits a list of speeches including at least one speech to the listener terminal 400. FIG. (S610). At this time, the source language server 110 may be implemented as a customized interpretation server 100 together with the interpretation server as shown in FIG. 13, whereas the source language server 110 is separated from the interpretation server, Lt; / RTI > server.

이어서, 단계 S620에서, 청자 단말기(400)는 원어 서버(110)로부터 수신한 연설 목록 중 적어도 하나의 연설에 관한 사용자 선택을 입력 받고, 사용자에 의해 선택된 연설 정보를 상기 원어 서버(110)에게 전송한다. (S620)In step S620, the listener terminal 400 receives a user selection regarding at least one speech from the speech list received from the source language server 110, and transmits the speech information selected by the user to the source language server 110 do. (S620)

그 후, 단계 S640-1 및 단계 S640-2에서, 원어 서버(110)가 사용자에 의해 선택된 적어도 하나의 연설에 관한 원어 신호를 통역자 단말기(300)와 청자 단말기(400)에게 각각 전송한다. (S640-1, S640-2)Thereafter, in steps S640-1 and S640-2, the source language server 110 transmits a source language signal related to at least one speech selected by the user to the interpreter terminal 300 and the listener terminal 400, respectively. (S640-1, S640-2)

그리고, 단계 S660에서, 통역 서버(120)는 사용자에 의해 선택된 연설에 관한 원어 신호에 대응하는 통역어 신호를 청자 단말기(400)로 전송한다. (S660)In step S660, the interpretation server 120 transmits an interpreter signal corresponding to the original speech signal related to the speech selected by the user to the listener terminal 400. [ (S660)

도 14는 본 발명의 다른 일 실시예에 따른 실시간 통역 방법을 개략적으로 도시한 도면이다.FIG. 14 is a view schematically showing a real-time interpretation method according to another embodiment of the present invention.

도 14의 실시간 통역 방법은, 연설 목록의 전송과 키워드에 대응하는 적어도 하나의 연설의 검색이 이루어지는 점에서, 도 11을 참조하여 설명한 실시간 통역 방법과 차이점이 존재한다. 설명의 편의를 위하여, 도 11을 참조하여 설명한 실시간 통역 방법과 실질적으로 동일한 단계에 대하여는 상세한 설명을 생략하거나 간단히 하기로 한다.The real-time interpretation method of FIG. 14 differs from the real-time interpretation method described with reference to FIG. 11 in that transmission of the speech list and retrieval of at least one speech corresponding to the keyword are performed. For the sake of convenience of explanation, detailed description of steps substantially the same as those of the real-time interpretation method described with reference to Fig. 11 will be omitted or simplified.

도 14를 참조하면, 단계 S710에서, 원어 서버(110)가 적어도 하나의 연설을 포함하는 연설 목록을 청자 단말기(400)에게 전송한다. (S710)Referring to FIG. 14, in step S710, the original language server 110 transmits a list of speeches including at least one speech to the listener terminal 400. FIG. (S710)

이어서, 단계 S720-1에서, 청자 단말기(400)가 사용자로부터 키워드를 입력 받고, 사용자에 의해 입력된 키워드 정보를 원어 서버(110)에게 전송한다. (S720-1)Then, in step S720-1, the listener terminal 400 receives the keyword from the user and transmits the keyword information input by the user to the source language server 110. [ (S720-1)

이어서, 단계 S720-2에서, 원어 서버(110)가 상기 연설 목록 중 상기 키워드에 대응하는 적어도 하나의 연설을 검색하고, 상기 검색 결과를 청자 단말기(400)에게 전송한다. (S720-2)Then, in step S720-2, the original language server 110 searches for at least one speech corresponding to the keyword in the speech list, and transmits the search result to the listener terminal 400. [ (S720-2)

이어서, 단계 S720-3에서, 청자 단말기(400)가 원어 서버(110)로부터 수신한 검색 결과 중 적어도 하나의 연설에 관한 사용자 선택을 입력받고, 사용자에 의해 선택된 연설 정보를 원어 서버(110)에게 전송한다. (S720-3)Then, in step S720-3, the listener terminal 400 receives the user selection regarding at least one of the search results received from the source language server 110, and transmits the speech information selected by the user to the source language server 110 send. (S720-3)

그리고, 단계 S740-1 및 단계 S740-2에서, 원어 서버(110)가 사용자에 의해 선택된 적어도 하나의 연설에 관한 원어 신호를 통역자 단말기(300)와 청자 단말기(400)에게 각각 전송한다. (S740-1)Then, in steps S740-1 and S740-2, the source language server 110 transmits a source language signal related to at least one speech selected by the user to the interpreter terminal 300 and the listener terminal 400, respectively. (S740-1)

그리고, 단계 S760에서, 통역 서버(120)가 사용자에 의해 선택된 연설에 관한 원어 신호에 대응하는 통역어 신호를 청자 단말기(400)에게 전송한다. (S760)Then, in step S760, the interpretation server 120 transmits an interpreter signal corresponding to the original speech signal relating to the speech selected by the user to the listener terminal 400. [ (S760)

도 15는 본 발명의 일 실시예에 따른 실시간 통역 방법을 수행하는 어플리케이션을 표시한 청자 단말기(400)의 표시 화면을 개략적으로 도시한 도면이다.FIG. 15 is a view schematically showing a display screen of a listener terminal 400 displaying an application for performing a real-time interpretation method according to an embodiment of the present invention.

도 15를 참조하면, 701 내지 703 화면을 통해, 본 발명인 실시간 통역 방법이 수행되기 위한 어플리케이션이 도시되어 있다.Referring to FIG. 15, an application for real-time interpretation method of the present invention is shown through screens 701 to 703.

앞서 도 1 내지 도 14에서 설명한 통역 방법은 도 15에 도시된 어플리케이션 상에서 수행될 수 있으며, 상기 실시간 통역 방법이 수행될 수 있는 어플리케이션은 청자 단말기에 미리 저장되어 있을 수 있으며, 상기 청자 단말기는 상기 저장된 어플리케이션에 관한 화면을 표시할 수 있다.The interpretation method described above with reference to FIGS. 1 to 14 may be performed on the application shown in FIG. 15, and the application in which the real-time interpretation method can be performed may be stored in advance in the listener terminal, A screen relating to the application can be displayed.

이 때, 상기 저장된 어플리케이션에 관한 화면은, 701에 도시된 바와 같이 앞서 도 1 내지 도 14에서 설명한 통역 방법이 수행되기 위한 영역을 화면 상단에 포함시켜 표시될 수 있을 뿐만 아니라, 이와 함께 화면 하단에는 방송 콘텐츠(Telecast), 엔터테인먼트(Entertainment) 및 강의(Lecture) 등이 수행되기 위한 영역을 더 포함하여 표시할 수 있다. At this time, the screen for the stored application can be displayed by including the area for performing the interpretation method described above with reference to FIGS. 1 to 14 on the upper part of the screen as shown in 701, An area for performing broadcast contents (Telecast), an entertainment (Entertainment), a lecture, and the like can be further displayed.

즉, 상기 청자 단말기에 표시된 상기 어플리케이션에 관한 화면 상에서, 사용자(즉, 청자)가 실시간 통역 방법이 수행되기 위한 영역, 방송 콘텐츠 화면 영역, 엔터테인먼트 영역 및 강의 영역 중 어느 하나를 선택하는 경우, 상기 청자 단말기에 표시된 상기 어플리케이션은 선택된 영역을 상기 청자단말기의 화면을 통해 표시할 수 있다.That is, when the user (i.e., listener) selects any one of the area for performing the real-time interpretation method, the broadcast content screen area, the entertainment area, and the lecture area on the screen related to the application displayed on the listener terminal, The application displayed on the terminal can display the selected area on the screen of the listener terminal.

이 ‹š, 방송 콘텐츠 화면이라 함은, 지상파, 케이블, 종편 등을 포함하는 TV 프로그램 콘텐츠를 의미하며, 엔터테인먼트 영역은 뮤직비디오, 음악, 개그 동영상 등 TV 프로그램 콘텐츠를 제외한 영상 및/또는 음성 콘텐츠를 의미한다.The broadcast content screen means a TV program content including a terrestrial wave, a cable, a partial piece and the like, and an entertainment area means a video and / or audio content excluding a TV program content such as a music video, music, it means.

보다 구체적으로, 만약 사용자가 방송 콘텐츠 영역을 선택한 경우라면, 702에 도시된 바와 같이 미리 정해진 적어도 하나 이상의 방송 콘텐츠 영상이 구분되어 표시될 수 있으며, 이들 중 어느 하나의 방송 콘텐츠 영상을 선택하는 경우, 선택된 방송 콘텐츠 영상이 재생될 수 있다. 이 때, 앞서 도 1 내지 도 14에서 설명한 통역 방법이 그대로 적용되어 사용자가 선택한 통역어가 포함된 방송 콘텐츠 영상이 재생될 수도 있다.More specifically, if the user selects the broadcast content area, at least one broadcast content image determined in advance, as shown in 702, may be separately displayed. In the case of selecting any one of the broadcast content images, The selected broadcast content video can be played back. In this case, the interpreting method described above with reference to FIGS. 1 to 14 may be applied as it is, and the broadcast content image including the translator selected by the user may be reproduced.

또한, 만약 사용자가 엔터테인먼트 영상을 선택한 경우라면, 703에 도시된 바와 같이 미리 정해진 적어도 하나 이상의 엔터테인먼트 영상이 구분되어 표시될 수 있으며, 이들 중 어느 하나의 엔터테인먼트 영상을 선택하는 경우, 선택된 엔터테인먼트 영상이 재생될 수 있다. 이 때, 앞서 도 1 내지 도 14에서 설명한 실시간 통역 방법이 적용될 수 있어 사용자가 선택한 통역어가 포함된 엔터테인먼트 영상이 재생될 수도 있다.In addition, if the user selects the entertainment image, at least one predetermined entertainment image, as shown in 703, may be separately displayed. If any one of the entertainment images is selected, the selected entertainment image is reproduced . In this case, the real-time interpretation method described above with reference to FIGS. 1 to 14 may be applied, so that an entertainment image including a translator selected by the user may be reproduced.

도 16은 본 발명의 또 다른 실시예에 따른 실시간 통역 방법을 개략적으로 도시한 도면이다. 16 is a view schematically showing a real-time interpretation method according to another embodiment of the present invention.

도 16을 참조하면, 하나 이상의 청자 단말기(801 내지 812)가 도시되어 있으며, 상기 하나 이상의 청자 단말기(801 내지 812)에는 앞서 도 15에서 설명한 실시간 통역 방법이 수행될 수 있는 어플리케이션이 미리 저장되어 있을 수 있다.16, one or more listener terminals 801 to 812 are shown. In the one or more listener terminals 801 to 812, an application in which the real-time interpretation method described with reference to FIG. .

한편, 실시간 통역은 큰 규모의 행사 등에서도 요구될 수 있으나, 이와 달리 소규모의 행사 내지 토론 등에서도 요구될 수 있다. 이러한 경우, 통역 서버나 원어 서버를 포함하는 맞춤형 통역 서버를 이용하면 서버를 이용하지 않고 단말 자체에서 실시간 통역이 이루어지는 것과 비교할 때, 부하(load)가 증가하게 되므로 실효성이 줄어들 수 있다.On the other hand, real-time interpretation can be demanded in large-scale events, but may be required in small events or discussions. In this case, if a customized interpretation server including an interpretation server or a native language server is used, the efficiency may be reduced because the load increases as compared with the real time interpretation performed in the terminal itself without using the server.

이에 따라, 본 발명의 일실시예에 따르면 소규모의 행사(예를 들어, 20명 이하의 인원이 참여한 행사, 단, 설정에 따라 인원 수는 달라질 수 있다)의 경우에는, 앞서 설명한 실시간 통역 방법과는 달리 서버의 개입 없이 청자 단말기만을 이용하여 실시간 통역을 수행할 수 있다.Accordingly, according to an embodiment of the present invention, in the case of a small-scale event (for example, an event in which 20 or fewer persons are participating, but the number may vary according to the setting), the real- It is possible to perform real-time interpretation using only the listener's terminal without the intervention of the server.

보다 구체적으로, 801 내지 812와 같이 12명의 청자가 참여한 행사에서, 화자가 이야기 하는 특정 원어를 통역할 수 있는 청자(예를 들어, 801)는, 어플리케이션을 이용하여 통역되는 음성을 입력할 수 있고, 다른 청자들은 통역된 음성을 자신의 어플리케이션을 통해 제공받을 수 있다. More specifically, at a ceremony in which 12 listeners participate, such as 801 to 812, a listener (for example, 801) who can interpret a specific original language spoken by the speaker can input a voice to be interpreted using the application , Other listeners can receive the interpreted voice through their application.

도 17은 본 발명의 일 실시예에 따른 실시간 통역 방법을 수행하는 어플리케이션을 표시한 청자 단말기의 다른 표시 화면을 개략적으로 도시한 도면이다.17 is a view schematically showing another display screen of a listener terminal displaying an application for performing a real-time interpretation method according to an embodiment of the present invention.

특정 청자는 어플리케이션을 통해 대화방 개설을 수행할 수 있다. 예컨대, 행사에 참여한 청자 중 임의의 청자가 대화방 개설을 수행하는 것이 가능하며, 이와 달리 행사에 참여하지 않은 행사 외부의 청자 또한 대화방 개설을 수행하는 것도 가능하다.A specific listener can perform a chat room opening through an application. For example, it is possible for a listener of a listener who participated in the event to perform the opening of the room, or to open a room for the listener outside the event that is not participating in the event.

이 때, 상기 대화방이라 함은 상기 특정 원어를 통역할 수 있는 청자를 포함한 다른 청자들이 실시간으로 텍스트, 사진, 동영상, 음성 메시지 등을 포함하는 데이터를 실시간으로 송수신할 수 있는 가상의 공간을 의미한다.In this case, the chat room refers to a virtual space in which other listeners including a listener capable of interpreting the specific original language can transmit and receive data including text, pictures, moving pictures, voice messages, etc. in real time in real time .

한편, 특정 원어를 통역할 수 있는 청자는 상기 대화방을 개설하는 과정에서, 대화방 입장을 위한 보안코드를 설정할 수 있다.On the other hand, a listener who can interpret a specific original language can set a security code for entering a chat room in the process of opening the chat room.

즉, 대화방 입장을 위한 보안코드를 설정하는 경우, 상기 설정된 보안코드(특정 자릿수의 숫자 및/또는 특정 자릿수의 문자)를 입력한 청자에 한해서만 상기 대화방에 입장할 수 있도록 설정하는 것을 의미하며, 이와 같은 설정을 통해 다른 청자들은, 상기 대화방에 입장하고자 하는 경우, 상기 특정 원어를 통역할 수 있는 청자가 대화방 개설 시 설정한 보안 코드를 입력하여야만 대화방 입장이 가능할 수 있다.That is, when a security code for entering a chat room is set, it means that only the listener who has input the set security code (a number of a specific digit and / or a certain number of digits) is allowed to enter the chat room. When other culprits want to enter the chat room through the same setting, a listener who is able to interpret the specific original language can input the security code only by entering the security code set when the chat room is opened.

한편, 특정 원어를 통역할 수 있는 청자가 개설한 대화방에 참여한 상기 특정 원어를 통역할 수 있는 청자를 포함한 다른 청자들 각각은, 상기 대화방에 입장한 이후 하나 이상의 통역 언어 중 적어도 하나 이상의 언어에 대한 선택을 입력함으로써 자신이 원하는 통역 언어를 결정할 수 있다.Each of the other listeners including the listener who is able to interpret the specific original language participating in the chat room opened by the listener who is able to interpret a specific original language can listen to at least one of the at least one interpretation language By entering a choice, you can determine the interpreter language you want.

예를 들어, 상기 대화방에서 한국어, 중국어, 일본어, 프랑스어로 통역이 수행되는 경우, 상기 실시간 통역 방법이 수행될 수 있는 어플리케이션은 도 17의 902 화면에 도시된 바와 같이 상기 4개의 통역 언어를 나타내는 표시를 화면에 나타낼 수 있으며, 상기 특정 원어를 통역할 수 있는 청자를 포함한 다른 청자들은, 상기 4개의 통역 언어를 나타내는 표시 중 적어도 하나 이상을 선택함으로써 자신이 원하는 통역 언어를 결정할 수 있게 된다.For example, when the interpretation is performed in the chat room in Korean, Chinese, Japanese, and French, the application in which the real-time interpretation method can be performed is as shown in the screen 902 of FIG. And other listeners including the listener who is able to interpret the specific original language can select a desired interpretation language by selecting at least one of the indications indicating the four interpretation languages.

도 18은 본 발명의 또 다른 실시예에 따른 실시간 통역 방법을 수행하는 어플리케이션을 표시한 청자 단말기(400)의 또 다른 표시 화면을 개략적으로 도시한 도면이다.18 is a view schematically showing another display screen of the listener terminal 400 displaying an application for performing a real-time interpretation method according to another embodiment of the present invention.

도 18을 참조하면, 청자 단말기(1500)가 도시되어 있으며, 상기 청자 단말기(1500)에는 앞서 도 15에서 설명한 실시간 통역 방법이 수행될 수 있는 어플리케이션이 미리 저장되어 있을 수 있다.Referring to FIG. 18, a listener terminal 1500 is shown. In the listener terminal 1500, an application in which the real-time interpretation method described with reference to FIG. 15 is performed may be stored in advance.

이 때, 본 발명의 일실시예에 따르면 상기 실시간 통역 방법이 수행될 수 있는 어플리케이션에는 시각 장애인을 위한 청취/통역 모드가 포함될 수 있다.At this time, according to an embodiment of the present invention, an application in which the real-time interpretation method can be performed may include a listening / interpreting mode for a visually impaired person.

보다 구체적으로, 사용자(즉, 청자)는 상기 실시간 통역 방법이 수행될 수 있는 어플리케이션에서 터치, 클릭 등을 포함하는 미리 정해진 제어 동작을 입력함으로써, 상기 시각 장애인을 위한 청취/통역 모드를 실행할 수 있다.More specifically, a user (i.e., listener) can execute a listening / interpretation mode for the visually impaired by inputting a predetermined control operation including touch, click, etc. in an application in which the real-time interpretation method can be performed .

상기 시각 장애인을 위한 청취/통역 모드가 실행되는 경우 도 18에 도시된 바와 같이 가로형태의 프로그레스 바(Progress Bar, 1010)와 세로 형태의 프로그레스 바(1011)가 표시될 수 있으며, 도 18에서는 각각 화면 좌측과 화면 하단에 표시되어 있으나 이는 예시일 뿐 화면 내 어느 곳에나 다양한 크기의 가로 형태 및 세로 형태로 표시될 수 있다.When the listening / interpreting mode for the visually impaired is executed, a progressive bar 1010 and a vertical progress bar 1011 can be displayed as shown in FIG. 18, Are displayed on the left side of the screen and the bottom of the screen, respectively. However, this is only an example, and may be displayed in various shapes such as a horizontal shape and a vertical shape anywhere in the screen.

한편, 상기 세로형태의 프로그레스 바(1011)의 경우, 사용자가 상기 세로 형태의 프로그레스 바(1011)에 터치, 클릭, 드래그(drag) 등을 포함하는 제어 동작을 상하(up and down)로 입력하면, 상기 청자 단말기 상에서 출력되는 음성(예를 들어, 통역 언어, 방송 콘텐츠 영상의 음성 등)의 볼륨(Volume)을 조절할 수 있다.On the other hand, in the case of the vertical progress bar 1011, when the user moves up and down a control operation including touch, click, drag, and the like to the vertical progress bar 1011 The user can adjust the volume of the voice output on the listener terminal (for example, the interpretation language, the voice of the broadcast content video, etc.).

또한, 상기 가로형태의 프로그레스 바(1010)의 경우, 사용자가 상기 가로 형태의 프로그레스 바(1010)에 터치, 클릭, 드래그 등을 포함하는 제어 동작을 좌우(left and right)로 입력하면, 상기 청자 단말기 상에서 출력되는 음성(예를 들어, 통역 언어, 방송 콘텐츠 영상의 음성 등)의 재생 시점 내지 재생 속도를 조절할 수 있다.In the case of the horizontal progress bar 1010, when the user inputs a control operation including touch, click, drag, and the like to the horizontal progress bar 1010 left and right, (For example, an interpretation language, a sound of a broadcast content video, etc.) output on the listener terminal can be regulated.

예를 들어, 상기 청자 단말기(1500)의 사용자가 상기 시각 장애인을 위한 청취/통역 모드를 실행한 후, 상기 시각 장애인을 위한 청취/통역 모드에서 실시간 통역 언어를 청취하고 있는 경우, 세로 형태의 프로그레스 바(1011)를 상하로 조절함으로써 상기 실시간 통역 언어의 출력 볼륨을 더 크게 혹은 더 작게 조절할 수 있다. 또한, 상기 사용자는 상기 가로 형태의 프로그레스 바(1010)를 좌우로 조절함으로써 상기 실시간 통역 언어의 재생 속도를 조절할 수 있으며, 이와 함께 또는 개별적으로 재생 시점 또한 조절할 수 있다.For example, if the user of the listener terminal 1500 is listening to the real-time interpretation language in the listening / interpreting mode for the visually impaired after executing the listening / interpreting mode for the visually impaired, The output volume of the real-time interpretation language can be adjusted to be larger or smaller by adjusting the response bar 1011 up or down. Also, the user can adjust the playback speed of the real-time interpretation language by adjusting the horizontal progress bar 1010 to the left or right, and the playback time can be adjusted together with the progress bar 1010.

한편, 명확하게 도시하지 않았으나, 본 발명의 실시예들에 따른 실시간 통역 방법에서, 적어도 일부의 단계는 도시된 순서와 다른 순서로 수행되거나, 또는 다른 단계와 동시에 수행되도록 변형될 수 있다.On the other hand, although not clearly shown, in the real-time interpretation method according to the embodiments of the present invention, at least some of the steps may be performed in a different order from the order shown, or may be modified to be performed simultaneously with the other steps.

또한, 명확하게 도시하지 않았으나, 본 발명의 실시예들에 따른 실시간 통역 방법은, 통역 서버(120)가 하나의 또는 복수의 통역자 단말기(300)로부터 원어 신호에 대응하는 복수의 통역어 신호를 수신하고, 통역 서버(120)가 상기 복수의 통역어 신호 중 청자에 의한 언어 설정에 대응하는 적어도 하나의 통역어 신호를 청자 단말기(400)에게 전송하도록 변형될 수 있다.Also, although not explicitly shown, the real-time interpretation method according to the embodiments of the present invention may be configured such that the interpreter server 120 receives a plurality of interpreter signals corresponding to a source language signal from one or a plurality of interpreter terminals 300 And the interpretation server 120 may be modified to transmit at least one interpretation signal corresponding to the language setting by the listener among the plurality of interpreter signals to the listener terminal 400. [

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with the embodiments of the present invention may be embodied directly in hardware, in software modules executed in hardware, or in a combination of both. The software module may be a random access memory (RAM), a read only memory (ROM), an erasable programmable ROM (EPROM), an electrically erasable programmable ROM (EEPROM), a flash memory, a hard disk, a removable disk, a CD- May reside in any form of computer readable recording medium known in the art to which the invention pertains.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. Therefore, it should be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

Claims (10)

맞춤형 통역 서버에서 원어에 대한 통역음성 정보를 제공하는 방법으로서,
원어와 관련된 컨텐츠의 UI 아이템을 웹 페이지 또는 청자 단말기에 설치된 애플리케이션을 통해 표시하는 단계;
상기 원어에 대하여 미리 정해진 언어로 생성되는 제1 통역음성 정보를 실시간으로 수집하는 단계; 및
상기 UI 아이템에 대한 사용자 선택 입력을 수신하는 것에 응답하여 상기 수집되는 제1 통역음성 정보를 상기 청자 단말기에 실시간으로 제공하는 단계를 포함하는 통역음성 정보 제공 방법.
A method of providing interpreted speech information for a source language in a customized interpretation server,
Displaying a UI item of contents related to a source language through an application installed in a web page or a listener terminal;
Collecting, in real time, first interpretation speech information generated in a predetermined language for the source language; And
And providing the collected first interpretation speech information to the listener terminal in real time in response to receiving a user selection input for the UI item.
제 1항에 있어서,
상기 제1 통역음성 정보에 해당하는 제1 언어 아이템을 구성하는 단계; 및
상기 웹 페이지 또는 상기 애플리케이션을 통해 출력되는 화면 상에서 상기 제1 언어 아이템을 상기 컨텐츠의 UI 아이템이 표시되는 위치와 인접한 위치에 표시하는 단계를 더 포함하는, 통역음성 정보 제공 방법.
The method according to claim 1,
Configuring a first language item corresponding to the first interpretation speech information; And
Further comprising the step of displaying the first language item on a screen displayed through the web page or the application at a position adjacent to a location where the UI item of the content is displayed.
제 1항에 있어서,
상기 제1 통역음성 정보의 실시간 수집이 종료된 경우, 상기 원어에 대하여 상기 제1 통역음성 정보와 다른 언어에 해당하는 제2 통역음성 정보를 미리 설정된 사용자 단말 또는 임의의 사용자 단말로부터 수집하는 단계; 및
상기 컨텐츠의 UI 아이템에 대한 사용자 선택 입력을 수신하는 것에 응답하여 상기 제1 통역음성 정보 또는 상기 제2 통역음성 정보 중 적어도 하나를 상기 청자 단말기에 제공하는 단계를 더 포함하는, 통역음성 정보 제공 방법.
The method according to claim 1,
Collecting second interpretation speech information corresponding to a language different from the first interpretation speech information with respect to the source language from a preset user terminal or an arbitrary user terminal when real-time collection of the first interpretation speech information is finished; And
Further comprising providing at least one of the first interpretation speech information or the second interpretation speech information to the listener terminal in response to receiving a user selection input for a UI item of the content .
제 3항에 있어서,
상기 제2 통역음성 정보를 제공한 사용자 계정에 대하여 소정의 리워드를 지급하는 단계를 더 포함하는, 통역음성 정보 제공 방법.
The method of claim 3,
Further comprising paying a predetermined reward for a user account providing the second interpretation speech information.
제 4항에 있어서,
상기 제1 통역음성 정보에 해당하는 제1 언어 아이템 및 상기 제2 통역 음성 정보에 해당하는 제2 언어 아이템을 서로 구별되도록 표시하는 단계를 더 포함하는, 통역음성 정보 제공 방법.
5. The method of claim 4,
Further comprising displaying a first language item corresponding to the first interpreted speech information and a second language item corresponding to the second interpreted speech information to be distinguished from each other.
맞춤형 통역 서버에서 원어에 대한 통역음성 정보를 제공하는 방법으로서,
특정 상품 또는 특정 서비스에 대한 커머스 컨텐츠를 컨텐츠 제작자 단말로부터 수신하는 단계로서, 상기 커머스 컨텐츠는 상기 특정 상품 또는 상기 특정 서비스를 원어로 표현한 컨텐츠인, 수신하는 단계;
상기 커머스 컨텐츠의 UI 아이템을 웹 페이지 또는 애플리케이션을 통해 표시하는 단계;
상기 커머스 컨텐츠의 UI 아이템에 대한 사용자 선택 입력을 수신하는 것에 응답하여 상기 원어에 대하여 미리 정해진 언어로 생성된 제1 통역음성 정보를 출력하는 단계;
상기 원어에 대하여 상기 제1 통역음성 정보와 다른 언어에 해당하는 제2 통역음성 정보를 판매 희망자 단말로부터 수집하는 단계; 및
상기 제2 통역음성 정보가 반영된 커머스 컨텐츠를 표시하는 단계를 포함하는, 통역음성 정보 제공 방법.
A method of providing interpreted speech information for a source language in a customized interpretation server,
The method comprising: receiving commerce content for a specific commodity or a specific service from a content producer terminal, the commodity content being content representing the specific commodity or the specific service in a source language;
Displaying a UI item of the commerce content through a web page or an application;
Outputting first interpretation speech information generated in a predetermined language for the source language in response to receiving a user selection input for a UI item of the commerce content;
Collecting second interpretation speech information corresponding to a language different from the first interpretation speech information from the seller terminal; And
And displaying commerce contents reflecting the second interpretation speech information.
제 6항에 있어서,
상기 특정 상품 또는 특정 서비스를 공급하는 상품 공급자 또는 컨텐츠 제작자의 요청에 응답하여, 상기 특정 상품의 정보 또는 상기 컨텐츠 제작자의 정보를 표시하는 단계를 더 포함하는, 통역음성 정보 제공 방법.
The method according to claim 6,
Further comprising the step of displaying information of the specific product or information of the content creator in response to a request from a goods supplier or a contents producer supplying the specific goods or a specific service.
제 6항에 있어서,
상기 제2 통역음성 정보가 반영된 커머스 컨텐츠를 외부 미디어 서버로 전송하는 단계를 더 포함하는, 통역음성 정보 제공 방법.
The method according to claim 6,
And transmitting the commercial contents reflecting the second interpretation speech information to an external media server.
원어에 대한 통역음성 정보를 제공하는 맞춤형 통역 서버로서,
통신부; 및
원어와 관련된 컨텐츠의 UI 아이템를 웹 페이지 또는 청자 단말기에 설치된 애플리케이션을 통해 표시하며, 상기 원어에 대하여 미리 정해진 언어로 생성되는 제1 통역음성 정보를 실시간으로 수집하고, 상기 컨텐츠의 UI 아이템에 대한 사용자 선택 입력을 수신하는 것에 응답하여 상기 수집되는 제1 통역음성 정보를 상기 통신부를 통해 상기 청자 단말기에 실시간으로 제공하는 제어부;
를 포함하는, 맞춤형 통역 서버.
A personalized interpretation server for providing interpretation voice information about a source language,
A communication unit; And
A method for displaying a UI item of a content related to a source language through an application installed on a web page or a listener terminal, collecting first interpretation speech information generated in a predetermined language for the source language in real time, A controller for providing the collected first interpretation voice information to the listener terminal through the communication unit in real time in response to receiving the input;
And a personalized interpretation server.
제 9항에 있어서,
상기 제어부는,
상기 제1 통역음성 정보에 해당하는 제1 언어 아이템을 구성하고, 구성된 제1 언어 아이템을 상기 컨텐츠의 UI 아이템이 표시되는 위치와 인접한 위치에 표시하며, 상기 제1 통역음성 정보의 실시간 수집이 종료된 경우, 상기 원어에 대하여 상기 제1 통역음성 정보와 다른 언어에 해당하는 제2 통역음성 정보를 미리 설정된 사용자 또는 임의의 사용자로부터 수집하고, 상기 컨텐츠의 UI 아이템에 대한 사용자 선택 입력을 수신하는 것에 응답하여 상기 제1 통역음성 정보 또는 상기 제2 통역음성 정보 중 적어도 하나를 상기 통신부를 통해 상기 청자 단말기에 제공하는, 맞춤형 통역 서버.
10. The method of claim 9,
Wherein,
A first language item corresponding to the first interpretation voice information is displayed and a first language item is displayed at a position adjacent to a location where the UI item of the content is displayed, Collecting second interpretation speech information corresponding to a language different from the first interpretation speech information from a predetermined user or an arbitrary user for the original language and receiving a user selection input for a UI item of the content And provides at least one of the first interpretation voice information or the second interpretation voice information to the listener terminal through the communication unit in response to the request.
KR1020167022447A 2015-08-12 2016-08-11 Method for providing interpreting sound information, customized interpretation of server and system implementing the same KR101897968B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020150113768 2015-08-12
KR20150113768 2015-08-12
PCT/KR2016/008848 WO2017026817A1 (en) 2015-08-12 2016-08-11 Method for providing voice translation information, and customized translation server and system operating same

Publications (2)

Publication Number Publication Date
KR20170030075A true KR20170030075A (en) 2017-03-16
KR101897968B1 KR101897968B1 (en) 2018-09-12

Family

ID=57983394

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167022447A KR101897968B1 (en) 2015-08-12 2016-08-11 Method for providing interpreting sound information, customized interpretation of server and system implementing the same

Country Status (2)

Country Link
KR (1) KR101897968B1 (en)
WO (1) WO2017026817A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102041730B1 (en) * 2018-10-25 2019-11-06 강병진 System and Method for Providing Both Way Simultaneous Interpretation System
KR20200049404A (en) * 2018-10-31 2020-05-08 강병진 System and Method for Providing Simultaneous Interpretation Service for Disabled Person

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109614628A (en) * 2018-11-16 2019-04-12 广州市讯飞樽鸿信息技术有限公司 A kind of interpretation method and translation system based on Intelligent hardware

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110038448A (en) * 2009-10-08 2011-04-14 한국전자통신연구원 Translation terminal and server, system and method therefor
KR20110137961A (en) * 2010-06-18 2011-12-26 에스케이플래닛 주식회사 Apparatus and method for translating using overlay of the original and translation
KR101192207B1 (en) * 2012-03-05 2012-10-17 전정환 System for providing real-time subtitles service of many languages for online live broadcasting and method thereof

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101133575B1 (en) * 2010-06-29 2012-04-05 김용덕 Interpretation service system using transmitter and receiver and method thereof
US9160967B2 (en) * 2012-11-13 2015-10-13 Cisco Technology, Inc. Simultaneous language interpretation during ongoing video conferencing
KR101454745B1 (en) * 2013-03-28 2014-11-06 주식회사 두드림 Method and system for providing of a simultaneous interpretation service based on multi codec and multi channel
KR20150090357A (en) * 2014-01-28 2015-08-06 엠플레어 주식회사 System for providing multi language real-time translation service

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110038448A (en) * 2009-10-08 2011-04-14 한국전자통신연구원 Translation terminal and server, system and method therefor
KR20110137961A (en) * 2010-06-18 2011-12-26 에스케이플래닛 주식회사 Apparatus and method for translating using overlay of the original and translation
KR101192207B1 (en) * 2012-03-05 2012-10-17 전정환 System for providing real-time subtitles service of many languages for online live broadcasting and method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102041730B1 (en) * 2018-10-25 2019-11-06 강병진 System and Method for Providing Both Way Simultaneous Interpretation System
KR20200049404A (en) * 2018-10-31 2020-05-08 강병진 System and Method for Providing Simultaneous Interpretation Service for Disabled Person

Also Published As

Publication number Publication date
WO2017026817A1 (en) 2017-02-16
KR101897968B1 (en) 2018-09-12

Similar Documents

Publication Publication Date Title
US10235305B2 (en) Method and system for sharing content, device and computer-readable recording medium for performing the method
CN113015012B (en) Live broadcast data processing method, device, computer equipment and storage medium
US8522283B2 (en) Television remote control data transfer
US8539531B2 (en) Mobile terminal, method of participating in interactive service therein, internet protocol television terminal and communication system including the same
US11409817B2 (en) Display apparatus and method of controlling the same
KR102013338B1 (en) Sharing Method of Service Page and Electronic Device operating the same
EP3343412B1 (en) Method and system for reproducing contents, and computer-readable recording medium thereof
CN103577138A (en) Method and mobile terminal for displaying information
JP7297737B2 (en) Display device and method of operation thereof
US11455140B2 (en) Electronic device and method for same controlling external device
US11012754B2 (en) Display apparatus for searching and control method thereof
KR101897968B1 (en) Method for providing interpreting sound information, customized interpretation of server and system implementing the same
US20180198905A1 (en) Electronic apparatus and method of operating the same
KR20180061908A (en) Display device and method for controlling the same
KR102127909B1 (en) Chatting service providing system, apparatus and method thereof
US20150066887A1 (en) Information processing apparatus, information processing method, and program
KR20160001028A (en) Method and apparatus for providing Push-To-Talk service using sound effect
US20230084372A1 (en) Electronic content glossary
AU2017202560B2 (en) Method and system for reproducing contents, and computer-readable recording medium thereof
CN114630154A (en) Live broadcast audience importing method, system and device and computer equipment
US11893603B1 (en) Interactive, personalized advertising
CN116320564A (en) Display device, terminal device, and device control method
CN116939262A (en) Display device and sound effect setting method of audio device
CN117806587A (en) Display device and multi-round dialog prediction generation method
CN115119008A (en) Broadcast recommendation method and device in live scene and electronic equipment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant