KR101917648B1 - 단말 및 그 제어 방법 - Google Patents

단말 및 그 제어 방법 Download PDF

Info

Publication number
KR101917648B1
KR101917648B1 KR1020160115904A KR20160115904A KR101917648B1 KR 101917648 B1 KR101917648 B1 KR 101917648B1 KR 1020160115904 A KR1020160115904 A KR 1020160115904A KR 20160115904 A KR20160115904 A KR 20160115904A KR 101917648 B1 KR101917648 B1 KR 101917648B1
Authority
KR
South Korea
Prior art keywords
language
terminal
type
greeting
user
Prior art date
Application number
KR1020160115904A
Other languages
English (en)
Other versions
KR20180028341A (ko
Inventor
안상일
Original Assignee
주식회사 하이퍼커넥트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 하이퍼커넥트 filed Critical 주식회사 하이퍼커넥트
Priority to KR1020160115904A priority Critical patent/KR101917648B1/ko
Priority to US15/699,588 priority patent/US10430523B2/en
Publication of KR20180028341A publication Critical patent/KR20180028341A/ko
Application granted granted Critical
Publication of KR101917648B1 publication Critical patent/KR101917648B1/ko
Priority to US16/589,685 priority patent/US11379672B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72519
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/152Multipoint control units therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L21/10Transforming into visible information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Machine Translation (AREA)
  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

기재된 실시예는 서로 다른 언어를 구사하는 사용자들이 서로 영상통화를 하도록 도울 수 있는 단말 및 단말 제어 방법에 관한 것으로서, 제1언어를 구사하는 제1사용자가 사용하는 제1단말이 제1언어와 서로 다른 제2언어를 구사하는 제2사용자가 사용하는 제2단말과의 연결을 수립하는 단계, 제1언어로 음역(transliteration)된 제2언어의 인사말을 획득하는 단계, 및 획득된 인사말을 표시하는 단계를 포함하는 단말 제어 방법이 제공될 수 있다.

Description

단말 및 그 제어 방법{TERMINAL AND METHOD OF CONTROLLING THE SAME}
기재된 실시예는 서로 다른 언어를 구사하는 사용자들이 서로 영상통화를 하도록 도울 수 있는 단말 및 단말 제어 방법에 관한 것이다.
통신 기술이 발전되고 전자 장치가 소형화됨에 따라 개인용 단말이 일반 소비자에게 널리 보급되고 있다. 특히 최근에는 스마트폰 또는 스마트 태블릿과 같은 휴대용 개인 단말이 널리 보급되고 있다. 상기 단말의 대부분은 통신 기능을 포함하고 있다. 사용자는 단말을 이용하여 인터넷에서 검색을 수행하거나 다른 사용자와 메시지를 주고받을 수 있다.
또한, 소형 카메라 기술, 소형 마이크 기술, 소형 디스플레이 기술 및 소형 스피커 기술의 발전에 따라 스마트폰과 같은 대부분의 단말에는 카메라, 마이크, 디스플레이 및 스피커가 포함되어 있다. 사용자는 단말을 이용하여 음성을 녹음하거나 음성이 포함된 동영상을 촬영할 수 있다. 사용자는 단말에 포함된 스피커를 통해 상기 녹음된 음성을 확인하거나 디스플레이를 통해 상기 촬영된 동영상을 확인할 수 있다.
또한, 사용자는 단말의 통신 기능을 이용하여 상기 녹음된 음성 또는 상기 촬영된 동영상을 다른 사용자와 공유할 수 있다. 사용자는 이전에 녹음된 음성 또는 이전에 촬영된 동영상을 다른 사용자에게 전송할 수 있다. 또한, 사용자는 단말에 의해 현재 녹음되고 있는 음성 또는 현재 촬영되고 있는 동영상을 실시간으로 다른 사용자에게 전송할 수 있다.
또한, 동시에, 상기 다른 사용자는 자신의 단말에 의해 현재 녹음되고 있는 음성 또는 현재 촬영되고 있는 동영상을 실시간으로 상기 사용자에게 전송할 수 있다. 사용자의 단말에 포함된 디스플레이는 사용자의 단말에 의해 현재 촬영되고 있는 동영상 및 다른 사용자의 단말에 의해 현재 촬영되고 있는 동영상을 동시에 표시할 수 있다. 또한, 사용자의 단말에 포함된 스피커는 다른 사용자의 단말에 의해 현재 녹음되고 있는 음성을 동시에 재생할 수 있다. 다시 말해서, 사용자 및 다른 사용자는 각자의 단말을 이용하여 서로 영상통화(video call)를 할 수 있다.
상기 사용자 및 다른 사용자는 서로 이미 아는 관계일 수도 있고, 서로 모르는 관계일 수도 있다. 상기 사용자의 단말 및 상기 다른 사용자의 단말을 포함한 복수의 단말은 서버에 연결될 수 있다. 서버는 상기 사용자의 단말 및 상기 다른 사용자의 단말 사이를 중개할 수 있다. 따라서, 상기 사용자 및 다른 사용자는 서로 모르는 관계였다고 하더라도 서버의 중개를 통해 서로 영상통화를 할 수 있다.
상기 사용자가 구사하는 언어는 상기 다른 사용자가 구사하는 언어와 서로 다를 수 있다. 영상통화를 하는 사용자들이 구사하는 언어가 서로 다를 경우, 서로 간에 어색한 분위기가 조성될 수 있고 서로 간의 대화가 단절될 수 있다.
기재된 실시예에 따르면 서로 다른 언어를 구사하는 사용자들이 서로 영상통화를 하도록 도울 수 있는 단말 및 단말 제어 방법이 제공될 수 있다.
또한, 서로 다른 언어를 구사하는 사용자들이 서로 영상통화를 할 때 서로 간의 어색함을 줄일 수 있는 단말 및 단말 제어 방법이 제공될 수 있다.
또한, 서로 다른 언어를 구사하는 사용자들이 서로 영상통화를 할 때 서로 간의 대화를 유도할 수 있는 단말 및 단말 제어 방법이 제공될 수 있다.
실시예에 따른 단말 제어 방법은, 제1언어를 구사하는 제1사용자가 사용하는 제1단말이 상기 제1언어와 서로 다른 제2언어를 구사하는 제2사용자가 사용하는 제2단말과의 연결을 수립하는 단계, 상기 제1언어로 음역(transliteration)된 상기 제2언어의 인사말을 획득하는 단계, 및 상기 획득된 인사말을 표시하는 단계를 포함할 수 있다.
또한, 상기 인사말을 획득하는 단계는, 상기 제1언어의 종류를 식별하는 단계, 상기 제2언어의 종류를 식별하는 단계, 및 상기 식별된 제1언어의 종류 및 상기 식별된 제2언어의 종류가 서로 다르면 상기 제1언어로 음역된 상기 제2언어의 인사말을 획득하는 단계를 포함할 수 있다.
또한, 상기 제1언어의 종류를 식별하는 단계는, 상기 제1단말에 의해 녹음된 상기 제1사용자의 음성을 이용하여 상기 제1언어의 종류를 식별하는 단계를 포함할 수 있다.
또한, 상기 제1언어의 종류를 식별하는 단계는, 상기 제1단말에 설정된 언어 설정을 이용하여 상기 제1언어의 종류를 식별하는 단계를 포함할 수 있다.
또한, 상기 제1언어의 종류를 식별하는 단계는, 상기 제1단말이 위치한 지역에 대한 정보를 획득하는 단계, 및 상기 제1단말이 위치한 지역에 대응하는 언어의 종류를 식별하는 단계를 포함할 수 있다.
또한, 상기 제1언어의 종류를 식별하는 단계는, 상기 제1단말에 의해 녹음된 상기 제1사용자의 음성, 상기 제1단말에 설정된 언어 설정, 또는 상기 제1단말이 위치한 지역에 대한 정보를 서버에 전송하는 단계, 및 상기 전송에 대한 응답으로 상기 서버로부터 상기 제1언어의 종류에 대한 식별 정보를 수신하는 단계를 포함할 수 있다.
또한, 상기 제1언어의 종류를 식별하는 단계는, 상기 제1단말에 의해 녹음된 상기 제1사용자의 음성, 상기 제1단말에 설정된 언어 설정, 또는 상기 제1단말이 위치한 지역에 대한 정보를 상기 제2단말에 전송하는 단계, 및 상기 전송에 대한 응답으로 상기 제2단말로부터 상기 제1언어의 종류에 대한 식별 정보를 수신하는 단계를 포함할 수 있다.
또한, 상기 제2언어의 종류를 식별하는 단계는, 상기 제2단말에 의해 녹음된 상기 제2사용자의 음성을 수신하는 단계, 및 상기 수신된 제2사용자의 음성을 이용하여 상기 제2언어의 종류를 식별하는 단계를 포함할 수 있다.
또한, 상기 제2언어의 종류를 식별하는 단계는, 상기 제2단말에 설정된 언어 설정에 대한 정보를 수신하는 단계, 및 상기 수신된 정보를 이용하여 상기 제2언어의 종류를 식별하는 단계를 포함할 수 있다.
또한, 상기 제2언어의 종류를 식별하는 단계는, 상기 제2단말이 위치한 지역에 대한 정보를 수신하는 단계, 및 상기 제2단말이 위치한 지역에 대응하는 언어의 종류를 식별하는 단계를 포함할 수 있다.
또한, 상기 제2언어의 종류를 식별하는 단계는, 서버 또는 상기 제2단말로부터 상기 제2언어의 종류에 대한 식별 정보를 수신하는 단계를 포함할 수 있다.
또한, 상기 식별된 제1언어의 종류 및 상기 식별된 제2언어의 종류가 서로 다르면 상기 제1언어로 음역된 상기 제2언어의 인사말을 획득하는 단계는, 데이터베이스에서 상기 제1언어의 종류에 대한 식별 정보 및 상기 제2언어의 종류에 대한 식별 정보를 조회하는 단계, 및 상기 제1언어의 종류 및 상기 제2언어의 종류에 대응하는 상기 인사말이 상기 데이터베이스 내에 존재하면 상기 조회의 결과로서 상기 인사말을 상기 데이터베이스로부터 획득하는 단계를 포함할 수 있다.
또한, 상기 식별된 제1언어의 종류 및 상기 식별된 제2언어의 종류가 서로 다르면 상기 제1언어로 음역된 상기 제2언어의 인사말을 획득하는 단계는, 데이터베이스에서 상기 제1언어의 종류에 대한 식별 정보 및 상기 제2언어의 종류에 대한 식별 정보를 조회하는 단계, 상기 제1언어의 종류 및 상기 제2언어의 종류에 대응하는 상기 인사말이 상기 데이터베이스 내에 존재하지 않으면 상기 제1언어의 종류에 대한 식별 정보 및 상기 제2언어의 종류에 대한 식별 정보를 서버에 전송하는 단계, 상기 전송에 대한 응답으로 상기 제1언어의 종류 및 상기 제2언어의 종류에 대응하는 상기 인사말을 상기 서버로부터 수신하는 단계, 및 상기 제1언어의 종류에 대한 식별 정보, 상기 제2언어의 종류에 대한 식별 정보, 및 상기 수신된 인사말을 상기 데이터베이스 내에 캐시(cache)하는 단계를 포함할 수 있다.
또한, 상기 식별된 제1언어의 종류 및 상기 식별된 제2언어의 종류가 서로 다르면 상기 제1언어로 음역된 상기 제2언어의 인사말을 획득하는 단계는, 상기 제1언어의 종류에 대한 식별 정보 및 상기 제2언어의 종류에 대한 식별 정보를 서버에 전송하는 단계, 및 상기 전송에 대한 응답으로 상기 제1언어의 종류 및 상기 제2언어의 종류에 대응하는 상기 인사말을 상기 서버로부터 수신하는 단계를 포함할 수 있다.
또한, 상기 인사말을 획득하는 단계는, 상기 제1단말에 의해 녹음된 상기 제1사용자의 음성, 상기 제1단말에 설정된 언어 설정, 또는 상기 제1단말이 위치한 지역에 대한 정보를 서버에 전송하는 단계, 및 상기 전송에 대한 응답으로 상기 서버로부터 상기 제1언어로 음역된 상기 제2언어의 인사말을 수신하는 단계를 포함할 수 있다.
또한, 상기 인사말을 획득하는 단계는, 상기 제1단말에 의해 녹음된 상기 제1사용자의 음성, 상기 제1단말에 설정된 언어 설정, 또는 상기 제1단말이 위치한 지역에 대한 정보를 상기 제2단말에 전송하는 단계, 및 상기 전송에 대한 응답으로 상기 제2단말로부터 상기 제1언어로 음역된 상기 제2언어의 인사말을 수신하는 단계를 포함할 수 있다.
또한, 상기 제1단말이 상기 제2단말과의 연결을 수립하는 단계는, 상기 제1단말이 상기 제2단말과의 영상통화 세션을 수립하는 단계, 상기 제1단말에 의해 촬영된 상기 제1사용자의 영상 및 상기 제1단말에 의해 녹음된 상기 제1사용자의 음성을 포함하는 스트림을 상기 제2단말에 전송하는 단계, 및 상기 제2단말에 의해 촬영된 상기 제2사용자의 영상 및 상기 제2단말에 의해 녹음된 상기 제2사용자의 음성을 포함하는 스트림을 상기 제2단말로부터 수신하는 단계를 포함할 수 있다.
다른 실시예에 따른 단말 제어 방법은, 서버가 제1단말 및 제2단말과의 연결을 수립하는 단계, 상기 제1단말에 의해 녹음된 제1음성, 상기 제1단말에 설정된 제1 언어 설정, 또는 상기 제1단말이 위치한 지역에 대한 제1정보를 수신하는 단계, 상기 제1음성, 상기 제1 언어 설정, 또는 상기 제1정보를 이용하여 상기 제1단말에 대응하는 제1언어의 종류를 식별하는 단계, 상기 제2단말에 의해 녹음된 제2음성, 상기 제2단말에 설정된 제2 언어 설정, 또는 상기 제2단말이 위치한 지역에 대한 제2정보를 수신하는 단계, 상기 제2음성, 상기 제2 언어 설정, 또는 상기 제2정보를 이용하여 상기 제2단말에 대응하는 제2언어의 종류를 식별하는 단계, 및 상기 식별된 제1언어의 종류 및 상기 식별된 제2언어의 종류가 서로 다르면 상기 제1언어로 음역(transliteration)된 상기 제2언어의 인사말을 상기 제1단말에 전송하는 단계를 포함할 수 있다.
실시예에 따른 단말은, 제1언어를 구사하는 사용자가 사용하는 단말에 있어서, 상기 제1언어와 서로 다른 제2언어를 구사하는 다른 사용자가 사용하는 다른 단말과의 연결을 수립하는 통신부, 상기 제1언어로 음역(transliteration)된 상기 제2언어의 인사말을 획득하는 제어부, 및 상기 획득된 인사말을 표시하는 출력부를 포함할 수 있다.
기재된 실시예에 따르면 서로 다른 언어를 구사하는 사용자들이 보다 원활하게 서로 영상통화를 할 수 있다.
또한, 실시예에 따르면 서로 다른 언어를 구사하는 사용자들이 서로 영상통화를 할 때 서로 간의 어색함이 줄어들 수 있다.
또한, 실시예에 따르면 서로 다른 언어를 구사하는 사용자들이 서로 영상통화를 할 때 서로 간의 대화가 유도될 수 있다.
도 1은 실시예에 따른 단말이 동작하는 환경을 나타내는 네트워크 구성도이다.
도 2는 실시예에 따른 단말의 구성을 나타내는 블록도이다.
도 3은 실시예에 따른 단말 제어 방법이 수행되는 과정을 나타내는 순서도이다.
도 4는 실시예에 따른 제1단말이 제2단말과의 연결을 수립하는 단계가 수행되는 과정을 나타내는 순서도이다.
도 5는 실시예에 따른 제1단말이 인사말을 획득하는 단계가 수행되는 과정을 나타내는 순서도이다.
도 6은 실시예에 따른 제1단말이 제1언어의 종류를 식별하는 단계가 수행되는 과정을 나타내는 순서도이다.
도 7은 실시예에 따른 제1단말이 식별된 언어의 종류에 따라 인사말을 획득하는 단계가 수행되는 과정을 나타내는 순서도이다.
도 8은 실시예에 따른 제1언어로 음역된 제2언어의 인사말이 나열된 표이다.
도 9는 다른 실시예에 따른 제1단말이 식별된 언어의 종류에 따라 인사말을 획득하는 단계가 수행되는 과정을 나타내는 순서도이다.
도 10은 또 다른 실시예에 따른 제1단말이 식별된 언어의 종류에 따라 인사말을 획득하는 단계가 수행되는 과정을 나타내는 순서도이다.
도 11은 다른 실시예에 따른 제1단말이 인사말을 획득하는 단계가 수행되는 과정을 나타내는 순서도이다.
도 12는 실시예에 따른 제1언어로 음역된 제2언어의 인사말을 표시한 제1단말의 정면도이다.
도 13은 다른 실시예에 따른 단말 제어 방법이 수행되는 과정을 나타내는 순서도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
비록 "제1" 또는 "제2" 등이 다양한 구성요소를 서술하기 위해서 사용되나, 이러한 구성요소는 상기와 같은 용어에 의해 제한되지 않는다. 상기와 같은 용어는 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용될 수 있다. 따라서, 이하에서 언급되는 제1구성요소는 본 발명의 기술적 사상 내에서 제2구성요소일 수도 있다.
본 명세서에서 사용된 용어는 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 또는 "포함하는(comprising)"은 언급된 구성요소 또는 단계가 하나 이상의 다른 구성요소 또는 단계의 존재 또는 추가를 배제하지 않는다는 의미를 내포한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 해석될 수 있다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
이하에서는, 도 1 내지 도 13을 참조하여 실시예에 따른 단말(100, 150) 및 단말 제어 방법에 대해 상세히 설명하기로 한다.
도 1은 실시예에 따른 단말(100, 150)이 동작하는 환경을 나타내는 네트워크 구성도이다. 도 1을 참조하면, 단말(100, 150)이 동작하는 환경은 제1단말(100), 및 상기 제1단말(100)과 서로 연결된 제2단말(150)을 포함할 수 있다.
다른 실시예에 따르면, 상기 단말(100, 150)이 동작하는 환경은 상기 제1단말(100) 또는 상기 제2단말(150)과 서로 연결된 서버(200)를 더 포함할 수 있다. 상기 단말(100, 150)이 동작하는 환경은 상기 서버(200)를 포함하지 않을 수 있다.
제1단말(100)은 예를 들어, 데스크탑 컴퓨터, 랩탑 컴퓨터, 스마트폰, 스마트 태블릿, 스마트 워치, 이동 단말, 디지털 카메라, 웨어러블 디바이스(wearable device), 또는 휴대용 전자기기 등일 수 있다. 제1단말(100)은 프로그램 또는 애플리케이션을 실행할 수 있다.
제1단말(100)은 통신망에 연결될 수 있다. 제1단말(100)은 상기 통신망을 통해 외부의 다른 장치와 서로 연결될 수 있다. 제1단말(100)은 서로 연결된 다른 장치에 데이터를 전송하거나 상기 다른 장치로부터 데이터를 수신할 수 있다.
제1단말(100)과 연결된 통신망은 유선 통신망, 무선 통신망, 또는 복합 통신망을 포함할 수 있다. 통신망은 3G, LTE, 또는 LTE-A 등과 같은 이동 통신망을 포함할 수 있다. 통신망은 와이파이(Wi-Fi), UMTS/GPRS, 또는 이더넷(Ethernet) 등과 같은 유선 또는 무선 통신망을 포함할 수 있다. 통신망은 마그네틱 보안 전송(MST, Magnetic Secure Transmission), RFID(Radio Frequency IDentification), NFC(Near Field Communication), 지그비(ZigBee), Z-Wave, 블루투스(Bluetooth), 저전력 블루투스(BLE, Bluetooth Low Energy), 또는 적외선 통신(IR, InfraRed communication) 등과 같은 근거리 통신망을 포함할 수 있다. 통신망은 근거리 네트워크(LAN, Local Area Network), 도시권 네트워크(MAN, Metropolitan Area Network), 또는 광역 네트워크(WAN, Wide Area Network) 등을 포함할 수 있다.
도 2는 실시예에 따른 단말(100, 150)의 구성을 나타내는 블록도이다. 도 2를 참조하면, 실시예에 따른 단말(100, 150)은 입력부(101), 제어부(102), 저장부(103), 통신부(104), 및 출력부(105)를 포함할 수 있다.
입력부(101)는 외부로부터 신호를 수신할 수 있다. 입력부(101)는 단말(100, 150)의 사용자로부터 신호를 수신할 수 있다. 또한, 입력부(101)는 외부 장치로부터 신호를 수신할 수 있다. 입력부(101)는 예를 들어, 마이크, 카메라, 키보드, 마우스, 트랙볼, 터치스크린, 버튼, 스위치, 센서, 네트워크 인터페이스, 또는 기타 입력 장치를 포함할 수 있다.
입력부(101)는 입력부(101)에 포함된 카메라를 통해 외부로부터 빛을 수신할 수 있다. 입력부(101)는 외부의 사물로부터 방출된 빛 또는 외부의 사물에서 반사된 빛을 수신할 수 있다. 입력부(101)는 상기 카메라를 통해 단말(100, 150)의 사용자의 영상을 촬영할 수 있다.
입력부(101)는 입력부(101)에 포함된 마이크를 통해 외부로부터 음성을 수신할 수 있다. 입력부(101)는 단말(100, 150)의 사용자로부터 음성을 수신할 수 있다. 또한, 입력부(101)는 외부의 음성 재생 장치로부터 음성을 수신할 수 있다. 입력부(101)는 상기 마이크를 통해 단말(100, 150)의 사용자의 음성을 녹음할 수 있다.
제어부(102)는 단말(100, 150)의 동작을 제어할 수 있다. 제어부(102)는 단말(100, 150)에 포함된 각각의 구성요소와 서로 연결될 수 있다. 제어부(102)는 단말(100, 150)에 포함된 각각의 구성요소의 동작을 제어할 수 있다. 제어부(102)는 입력부(101)에 의해 수신된 신호에 대한 응답으로, 단말(100, 150)의 동작을 제어할 수 있다.
또한, 제어부(102)는 신호를 처리할 수 있다. 제어부(102)는 입력부(101)에 의해 수신된 신호를 처리할 수 있다. 예를 들어, 제어부(102)는 입력부(101)에 포함된 카메라에 의해 촬영된 단말(100, 150)의 사용자의 영상을 처리할 수 있다. 제어부(102)는 입력부(101)에 포함된 마이크에 의해 녹음된 단말(100, 150)의 사용자의 음성을 처리할 수 있다.
또한, 제어부(102)는 연산을 수행할 수 있다. 제어부(102)는 입력부(101)에 의해 수신된 신호에 따라 연산을 수행할 수 있다. 제어부(102)는 입력부(101)에 의해 수신된 신호 또는 저장부(103)에 저장된 데이터를 이용하여 연산을 수행할 수 있다. 예를 들어, 제어부(102)는 입력부(101)에 포함된 카메라에 의해 촬영된 영상을 인코딩할 수 있다. 제어부(102)는 입력부(101)에 포함된 마이크에 의해 녹음된 음성을 인코딩할 수 있다. 제어부(102)는 연산 결과가 저장부(103)에 저장되도록 제어할 수 있다. 제어부(102)는 연산 결과가 출력부(105)에 의해 출력되도록 제어할 수 있다.
제어부(102)는 예를 들어, 중앙 처리 장치(Central Processing Unit, CPU), 그래픽 처리 장치(Graphic Processing Unit, GPU), 마이크로컨트롤러유닛(Micro Controller Unit, MCU), 또는 마이크로프로세서(microprocessor)를 포함할 수 있다.
저장부(103)는 데이터를 저장할 수 있다. 저장부(103)는 제어부(102)가 연산을 수행하는 데에 이용할 데이터를 저장할 수 있다. 저장부(103)는 제어부(102)에 의해 수행된 연산 결과를 저장할 수 있다. 예를 들어, 저장부(103)는 제어부(102)에 의해 인코딩된 영상 또는 음성을 저장할 수 있다. 저장부(103)는 통신부(104)를 통해 외부로 전송할 데이터를 저장하거나 통신부(104)를 통해 외부로부터 수신된 데이터를 저장할 수 있다.
저장부(103)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. 저장부(103)는 예를 들어, 플래시(flash) 메모리, ROM, RAM, EEROM, EPROM, EEPROM, 하드디스크 드라이브(HDD, Hard Disk Drive), 또는 레지스터(register) 등을 포함할 수 있다. 저장부(103)는 예를 들어, 파일 시스템, 데이터베이스, 또는 임베디드 데이터베이스 등을 포함할 수 있다.
통신부(104)는 외부에 데이터를 전송하거나 외부로부터 데이터를 수신할 수 있다. 통신부(104)는 다른 단말(100, 150) 또는 서버(200)에 데이터를 전송할 수 있다. 통신부(104)는 다른 단말(100, 150) 또는 서버(200)로부터 데이터를 수신할 수 있다. 통신부(104)는 제어부(102)에 의해 수행된 연산 결과를 외부에 전송할 수 있다. 또한, 통신부(104)는 저장부(103)에 저장된 데이터를 외부에 전송할 수 있다. 통신부(104)는 제어부(102)가 연산을 수행하는 데에 이용할 데이터를 외부로부터 수신할 수 있다.
통신부(104)에 의해 전송될 데이터 또는 통신부(104)에 의해 수신된 데이터는 저장부(103)에 저장될 수 있다. 예를 들어, 통신부(104)는 저장부(103)에 저장된 인코딩된 영상 또는 음성을 서버(200) 또는 다른 단말(100, 150)에 전송할 수 있다. 또한, 통신부(104)는 다른 단말(100, 150)로부터 상기 다른 단말(100, 150)에 의해 인코딩된 영상 또는 음성을 수신할 수 있다.
통신부(104)는 예를 들어, 3G 모듈, LTE 모듈, LTE-A 모듈, Wi-Fi 모듈, 와이기그(WiGig) 모듈, UWB(Ultra Wide Band) 모듈, 또는 랜카드 등과 같은 원거리용 네트워크 인터페이스를 포함할 수 있다. 또한, 통신부(104)는 마그네틱 보안 전송(MST, Magnetic Secure Transmission) 모듈, 블루투스 모듈, NFC 모듈, RFID 모듈, 지그비(ZigBee) 모듈, Z-Wave 모듈, 또는 적외선 모듈 등과 같은 근거리용 네트워크 인터페이스를 포함할 수 있다. 또한, 통신부(104)는 기타 네트워크 인터페이스를 포함할 수 있다.
출력부(105)는 외부에 신호를 출력할 수 있다. 출력부(105)는 예를 들어, 화면을 표시하거나, 소리를 재생하거나, 또는 진동을 출력할 수 있다. 출력부(105)는 디스플레이, 스피커, 바이브레이터, 오실레이터, 또는 기타 출력 장치를 포함할 수 있다.
출력부(105)는 화면을 표시할 수 있다. 제어부(102)는 출력부(105)가 화면을 표시하도록 출력부(105)를 제어할 수 있다. 출력부(105)는 사용자 인터페이스를 표시할 수 있다. 출력부(105)는 사용자로부터의 입력에 대한 응답으로 다른 화면을 표시할 수 있다.
출력부(105)는 데이터를 표시할 수 있다. 출력부(105)는 제어부(102)에 의해 수행된 연산 결과를 표시할 수 있다. 출력부(105)는 저장부(103)에 저장된 데이터를 표시할 수 있다. 출력부(105)는 통신부(104)에 의해 수신된 데이터를 표시할 수 있다.
출력부(105)는 예를 들어, LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diode), 또는 PDP(Plasma Display Panel) 등의 평판 표시 장치를 포함할 수 있다. 출력부(105)는 곡면 디스플레이 또는 플렉서블 디스플레이(flexible display)를 포함할 수 있다. 출력부(105)는 터치스크린을 포함할 수 있다.
출력부(105)는 제1단말(100)에 의해 촬영된 제1단말(100)의 사용자의 영상 또는 제2단말(150)에 의해 촬영된 제2단말(150)의 사용자의 영상을 표시할 수 있다. 또한, 출력부(105)는 제1단말(100)에 의해 녹음된 제1단말(100)의 사용자의 음성 또는 제2단말(150)에 의해 녹음된 제2단말(150)의 사용자의 음성을 재생할 수 있다.
제2단말(150)은 제1단말(100)과 서로 동일한 종류의 단말일 수도 있고, 서로 다른 종류의 단말일 수도 있다. 제2단말(150)은 프로그램 또는 애플리케이션을 실행할 수 있다.
제2단말(150)은 통신망에 연결될 수 있다. 제2단말(150)은 상기 통신망을 통해 외부의 다른 장치와 서로 연결될 수 있다. 제2단말(150)은 서로 연결된 다른 장치에 데이터를 전송하거나 상기 다른 장치로부터 데이터를 수신할 수 있다.
제2단말(150)은 상기 제1단말(100)과 서로 연결될 수 있다. 제2단말(150)은 상기 통신망을 통해 상기 제1단말(100)과 서로 연결될 수 있다. 제2단말(150)은 제1단말(100)에 데이터를 전송하거나 제1단말(100)로부터 데이터를 수신할 수 있다.
서로 연결된 제1단말(100) 및 제2단말(150)은 서로 메시지, 파일, 음성 데이터, 영상, 또는 동영상 등을 주고 받을 수 있다. 제1단말(100)은 제2단말(150)과의 음성통화 세션 또는 영상통화(video call) 세션을 수립할 수 있다. 제1단말(100)의 사용자 및 제2단말(150)의 사용자는 서로 음성통화 또는 영상통화를 할 수 있다.
제1단말(100) 및 제2단말(150)은 서로 직접 데이터를 주고 받을 수 있다. 또한, 제1단말(100) 및 제2단말(150)은 서버(200) 또는 다른 중개 장치를 경유하여 서로 데이터를 주고 받을 수 있다.
제1단말(100)의 사용자가 구사하는 언어 및 제2단말(150)의 사용자가 구사하는 언어는 서로 동일하거나 서로 다를 수 있다. 제1단말(100)의 사용자가 구사하는 언어는 제1언어일 수 있다. 제2단말(150)의 사용자가 구사하는 언어는 제2언어일 수 있다. 제1언어 및 제2언어는 서로 동일하거나 서로 다를 수 있다. 제1언어 또는 제2언어는 예를 들어, 한국어, 영어, 일본어, 중국어, 독일어, 프랑스어, 스페인어, 이탈리아어, 터키어, 아랍어, 태국어, 또는 베트남어 등일 수 있다.
서버(200)는 제1단말(100) 또는 제2단말(150)과 서로 연결될 수 있다. 서버(200)가 제1단말(100)과 서로 연결된 경우, 서버(200)는 제1단말(100)과 통신망을 통해 서로 데이터를 주고 받을 수 있다. 서버(200)가 제2단말(150)과 서로 연결된 경우, 서버(200)는 제2단말(150)과 통신망을 통해 서로 데이터를 주고 받을 수 있다.
서버(200)는 제1단말(100)로부터 데이터를 수신할 수 있다. 서버(200)는 제1단말(100)로부터 수신된 데이터를 이용하여 연산을 수행할 수 있다. 서버(200)는 상기 연산 결과를 제1단말(100) 또는 제2단말(150)에 전송할 수 있다. 서버(200)는 제2단말(150)로부터 데이터를 수신할 수 있다. 서버(200)는 제2단말(150)로부터 수신된 데이터를 이용하여 연산을 수행할 수 있다. 서버(200)는 상기 연산 결과를 제1단말(100) 또는 제2단말(150)에 전송할 수 있다.
이하에서는, 도 3 내지 도 13을 참조하여 실시예에 따른 단말 제어 방법 내에서의 단말(100, 150)의 보다 구체적인 동작에 대하여 상세히 설명하기로 한다.
도 3은 실시예에 따른 단말 제어 방법이 수행되는 과정을 나타내는 순서도이다. 도 3을 참조하면, 실시예에 따른 통역 방법에서는, 먼저, 제1언어를 구사하는 제1사용자가 사용하는 제1단말(100)이 상기 제1언어와 서로 다른 제2언어를 구사하는 제2사용자가 사용하는 제2단말(150)과의 연결을 수립하는 단계(S100)가 수행될 수 있다.
제1사용자는 제1단말(100)을 사용할 수 있다. 제1사용자는 제1언어를 구사할 수 있다. 제1언어는 예를 들어, 한국어, 영어, 일본어, 중국어, 독일어, 프랑스어, 스페인어, 이탈리아어, 터키어, 아랍어, 태국어, 또는 베트남어 등일 수 있다. 이하에서는 제1언어가 한국어라고 가정하기로 한다.
제2사용자는 제2단말(150)을 사용할 수 있다. 제2사용자는 제2언어를 구사할 수 있다. 제2언어는 예를 들어, 한국어, 영어, 일본어, 중국어, 독일어, 프랑스어, 스페인어, 이탈리아어, 터키어, 아랍어, 태국어, 또는 베트남어 등일 수 있다. 이하에서는 제2언어가 스페인어라고 가정하기로 한다.
제1단말(100)은 제2단말(150)과의 연결을 수립할 수 있다. 도 4는 실시예에 따른 제1단말(100)이 제2단말(150)과의 연결을 수립하는 단계(S100)가 수행되는 과정을 나타내는 순서도이다.
도 4를 참조하면, 먼저, 상기 제1단말(100)이 상기 제2단말(150)과의 영상통화 세션을 수립하는 단계(S110)가 수행될 수 있다. 제1단말(100)의 통신부(104) 및 제2단말(150)의 통신부(104)는 상기 영상통화 세션을 수립할 수 있다.
영상통화 세션은 제1단말(100) 및 제2단말(150) 사이에 직접적으로 수립될 수 있다. 다른 실시예에 따르면, 적어도 하나 이상의 다른 장치를 경유하여 제1단말(100) 및 제2단말(150) 사이에 영상통화 세션이 수립될 수 있다. 예를 들어, 상기 영상통화 세션은 제1단말(100)과 서버(200) 사이에 수립된 세션 및 서버(200)와 제2단말(150) 사이에 수립된 세션을 포함할 수 있다.
다음으로, 상기 제1단말(100)에 의해 촬영된 상기 제1사용자의 영상 및 상기 제1단말(100)에 의해 녹음된 상기 제1사용자의 음성을 포함하는 스트림을 상기 제2단말(150)에 전송하는 단계(S120)가 수행될 수 있다. 제1단말(100)의 입력부(101)에 포함된 카메라는 제1사용자의 영상을 촬영할 수 있다. 또한, 제1단말(100)의 입력부(101)에 포함된 마이크는 제1사용자의 음성을 녹음할 수 있다.
제1단말(100)의 통신부(104)는 상기 촬영된 영상 및 상기 녹음된 음성을 포함하는 스트림을 제2단말(150)에 전송할 수 있다. 제1단말(100)의 통신부(104)는 상기 스트림을 상기 영상통화 세션을 통해 제2단말(150)에 전송할 수 있다. 제2단말(150)의 통신부(104)는 상기 스트림을 제1단말(100)로부터 수신할 수 있다.
다음으로, 상기 제2단말(150)에 의해 촬영된 상기 제2사용자의 영상 및 상기 제2단말(150)에 의해 녹음된 상기 제2사용자의 음성을 포함하는 스트림을 상기 제2단말(150)로부터 수신하는 단계(S130)가 수행될 수 있다. 제2단말(150)의 입력부(101)에 포함된 카메라는 제2사용자의 영상을 촬영할 수 있다. 또한, 제2단말(150)의 입력부(101)에 포함된 마이크는 제2사용자의 음성을 녹음할 수 있다.
제2단말(150)의 통신부(104)는 상기 촬영된 영상 및 상기 녹음된 음성을 포함하는 스트림을 제1단말(100)에 전송할 수 있다. 제2단말(150)의 통신부(104)는 상기 스트림을 상기 영상통화 세션을 통해 제1단말(100)에 전송할 수 있다. 제1단말(100)의 통신부(104)는 상기 스트림을 제2단말(150)로부터 수신할 수 있다.
다시 도 3을 참조하면, 다음으로, 상기 제1언어로 음역(transliteration)된 상기 제2언어의 인사말을 획득하는 단계(S200)가 수행될 수 있다. 제1단말(100)은 제1언어로 음역된 제2언어의 인사말을 획득할 수 있다.
제2언어의 인사말은 예를 들어, "Hola. Mucho gusto en conocerte."일 수 있다. 상기 제2언어의 인사말이 제1언어로 음역된 결과물은 제1언어로 표기된 상기 제2언어의 인사말의 발음을 포함할 수 있다. 다시 말해서, 제2언어의 인사말이 제1언어로 음역되면, 제2언어의 인사말의 발음이 소리나는 대로 제1언어로 표기될 수 있다. 상기 제1언어로 음역된 결과물은 예를 들어, "올라. 무초 구스또 엥 꼬노쎄르떼."일 수 있다.
도 5는 실시예에 따른 제1단말(100)이 인사말을 획득하는 단계(S200)가 수행되는 과정을 나타내는 순서도이다. 도 5를 참조하면, 먼저, 상기 제1언어의 종류를 식별하는 단계(S210)가 수행될 수 있다.
제1단말(100)은 상기 제1언어의 종류를 식별할 수 있다. 제1단말(100)의 제어부(102)는 제1단말(100)의 입력부(101)에 의해 녹음된 제1사용자의 음성을 이용하여 상기 제1언어의 종류를 식별할 수 있다. 제어부(102)는 상기 녹음된 음성을 이용하여 음성 인식을 수행할 수 있다. 제어부(102)는 상기 음성 인식의 결과로서 상기 제1언어의 종류를 검출할 수 있다.
예를 들어, 제어부(102)는 상기 녹음된 음성으로부터 적어도 하나 이상의 특징점(feature)를 추출할 수 있다. 제어부(102)는 기계 학습(machine learning)을 이용하여 상기 추출된 특징점에 대응하는 언어의 종류에 대한 확률 분포를 산출할 수 있다. 예를 들어, 제어부(102)는 베이지언 다항 로지스틱 회귀 분석(Bayesian multinomial logistic regression)을 이용하여 상기 확률 분포를 산출할 수 있다. 제어부(102)는 상기 산출된 확률 분포에서 가장 높은 확률에 대응하는 언어의 종류를 선택할 수 있다.
다른 실시예에 따르면, 제어부(102)는 상기 제1단말(100)에 설정된 언어 설정을 이용하여 상기 제1언어의 종류를 식별할 수 있다. 제1단말(100)에는 제1사용자가 선호하는 언어의 종류에 대한 정보가 미리 설정될 수 있다. 상기 정보는 제1단말(100)의 저장부(103)에 저장될 수 있다. 제어부(102)는 상기 정보에 대응하는 언어의 종류를 상기 제1언어의 종류로 정의할 수 있다.
또 다른 실시예에 따르면, 제어부(102)는 제1단말(100)이 위치한 지역에 대한 정보를 이용하여 상기 제1언어의 종류를 식별할 수 있다. 제어부(102)는 제1단말(100)의 입력부(101)에 포함된 위성 항법 장치(Global Positioning System, GPS)를 통해 제1단말(100)이 위치한 지역에 대한 정보를 획득할 수 있다.
제어부(102)는 상기 획득한 정보를 이용하여 제1단말(100)이 위치한 지역에 대응하는 언어의 종류를 획득할 수 있다. 예를 들어, 제어부(102)는 제1단말(100)이 위치한 위도 및 경도를 이용하여 제1단말(100)이 위치한 지역의 명칭을 획득할 수 있다.
제1단말(100)의 저장부(103), 외부의 데이터베이스, 또는 서버(200)는 각각의 지역의 명칭에 대응하는 언어의 종류에 대한 정보를 저장할 수 있다. 예를 들어, "서울"은 한국어에 대응하고, "뉴욕"은 영어에 대응할 수 있다. 제어부(102)는 저장부(103), 외부의 데이터베이스, 또는 서버(200)를 이용하여 상기 획득한 지역의 명칭에 대응하는 언어의 종류를 획득할 수 있다.
또 다른 실시예에 따르면, 제어부(102)는 서버(200) 또는 제2단말(150)을 통해 상기 제1언어의 종류를 식별할 수 있다. 도 6은 실시예에 따른 제1단말(100)이 서버(200) 또는 제2단말(150)을 통해 상기 제1언어의 종류를 식별하는 방법이 수행되는 과정을 나타내는 순서도이다.
도 6을 참조하면, 먼저, 상기 제1단말(100)에 의해 녹음된 상기 제1사용자의 음성, 상기 제1단말(100)에 설정된 언어 설정, 또는 상기 제1단말(100)이 위치한 지역에 대한 정보를 서버(200) 또는 제2단말(150)에 전송하는 단계(S211)가 수행될 수 있다. 제1단말(100)의 통신부(104)는 상기 녹음된 음성, 상기 언어 설정, 또는 상기 지역에 대한 정보를 서버(200) 또는 제2단말(150)에 전송할 수 있다.
다음으로, 상기 전송에 대한 응답으로 상기 서버(200) 또는 상기 제2단말(150)로부터 상기 제1언어의 종류에 대한 식별 정보를 수신하는 단계(S212)가 수행될 수 있다. 서버(200) 또는 제2단말(150)은 제1단말(100)로부터 수신된 상기 녹음된 음성, 언어 설정, 또는 지역에 대한 정보를 이용하여 제1언어의 종류를 식별할 수 있다. 서버(200) 또는 제2단말(150)은 상기 제1언어의 종류에 대한 식별 정보를 제1단말(100)에 전송할 수 있다. 제1단말(100)의 통신부(104)는 서버(200) 또는 제2단말(150)로부터 상기 제1언어의 종류에 대한 식별 정보를 수신할 수 있다.
다시 도 5를 참조하면, 다음으로, 상기 제2언어의 종류를 식별하는 단계(S220)가 수행될 수 있다. 제1단말(100)은 제2단말(150)에 의해 녹음된 제2사용자의 음성을 이용하여 상기 제2언어의 종류를 식별할 수 있다. 제1단말(100)의 통신부(104)는 제2단말(150)로부터 제2단말(150)에 의해 녹음된 제2사용자의 음성을 수신할 수 있다. 제1단말(100)의 제어부(102)는 상기 수신된 제2사용자의 음성을 이용하여 음성 인식을 수행할 수 있다. 제어부(102)는 상기 음성 인식의 결과로서 상기 제2언어의 종류를 검출할 수 있다.
다른 실시예에 따르면, 제1단말(100)은 제2단말(150)에 설정된 언어 설정에 대한 정보를 이용하여 상기 제2언어의 종류를 식별할 수 있다. 제2단말(150)에는 제2사용자가 선호하는 언어의 종류에 대한 정보가 미리 설정될 수 있다. 제2단말(150)의 통신부(104)는 상기 정보를 제1단말(100)에 전송할 수 있다. 제1단말(100)의 통신부(104)는 제2단말(150)로부터 상기 정보를 수신할 수 있다. 제어부(102)는 상기 정보에 대응하는 언어의 종류를 상기 제2언어의 종류로 정의할 수 있다.
또 다른 실시예에 따르면, 제1단말(100)은 제2단말(150)이 위치한 지역에 대한 정보를 이용하여 상기 제2언어의 종류를 식별할 수 있다. 제2단말(150)은 제2단말(150)에 포함된 위성 항법 장치(GPS)를 통해 제2단말(150)이 위치한 지역에 대한 정보를 획득할 수 있다. 제2단말(150)의 통신부(104)는 상기 정보를 제1단말(100)에 전송할 수 있다. 제1단말(100)의 통신부(104)는 제2단말(150)로부터 상기 정보를 수신할 수 있다. 제1단말(100)의 제어부(102)는 상기 정보를 이용하여 제2단말(150)이 위치한 지역에 대응하는 언어의 종류를 획득할 수 있다.
또 다른 실시예에 따르면, 제1단말(100)의 통신부(104)는 서버(200) 또는 제2단말(150)로부터 상기 제2언어의 종류에 대한 식별 정보를 수신할 수 있다. 서버(200) 또는 제2단말(150)은 제2단말(150)에 의해 녹음된 음성, 제2단말에 설정된 언어 설정, 또는 제2단말(150)이 위치한 지역에 대한 정보를 이용하여 상기 제2언어의 종류를 식별할 수 있다. 서버(200) 또는 제2단말(150)은 상기 제2언어의 종류에 대한 식별 정보를 제1단말(100)에 전송할 수 있다.
다음으로, 상기 식별된 제1언어의 종류 및 상기 식별된 제2언어의 종류가 서로 다르면 상기 제1언어로 음역된 상기 제2언어의 인사말을 획득하는 단계(S230)가 수행될 수 있다. 제1단말(100)의 제어부(102)는 상기 식별된 제1언어의 종류 및 상기 식별된 제2언어의 종류를 서로 비교할 수 있다. 제어부(102)는 상기 비교의 결과로서 제1언어의 종류 및 제2언어의 종류가 서로 동일한지 여부를 판정할 수 있다.
만약 제1언어의 종류 및 제2언어의 종류가 서로 다르다고 판정되면 제1단말(100)은 제1언어로 음역된 제2언어의 인사말을 획득할 수 있다. 도 7은 실시예에 따른 제1단말(100)이 식별된 언어의 종류에 따라 인사말을 획득하는 단계(S230)가 수행되는 과정을 나타내는 순서도이다.
도 7을 참조하면, 먼저, 데이터베이스에서 상기 제1언어의 종류에 대한 식별 정보 및 상기 제2언어의 종류에 대한 식별 정보를 조회하는 단계(S231)가 수행될 수 있다. 제1단말(100)의 제어부(102)는 상기 데이터베이스에서 상기 식별 정보를 조회할 수 있다. 제1단말(100)의 저장부(103)는 상기 데이터베이스를 포함할 수 있다. 다른 실시예에 따르면, 상기 데이터베이스는 제1단말(100)의 외부에 배치될 수 있다.
상기 데이터베이스는 제1언어의 종류에 대한 식별 정보, 제2언어의 종류에 대한 식별 정보, 및 제1언어로 음역된 제2언어의 인사말이 저장된 관계형 데이터베이스일 수 있다. 상기 데이터베이스에 포함된 각각의 레코드는 제1언어의 종류에 대한 식별 정보, 제2언어의 종류에 대한 식별 정보, 및 상기 식별 정보에 대응하는 인사말을 포함할 수 있다.
도 8은 실시예에 따른 제1언어로 음역된 제2언어의 인사말이 나열된 표이다. 상기 데이터베이스에 포함된 각각의 레코드는 도 8의 표에 포함된 각각의 항목에 대응할 수 있다. 예를 들어, 상기 데이터베이스에 포함된 하나의 레코드는 제1언어의 종류에 대한 식별 정보로서 "한국어", 제2언어의 종류에 대한 식별 정보로서 "스페인어", 상기 식별 정보에 대응하는 인사말로서 "올라. 무초 구스또 엥 꼬노쎄르떼."를 포함할 수 있다. 다른 예로서, 다른 하나의 레코드는 제1언어의 종류에 대한 식별 정보로서 "영어", 제2언어의 종류에 대한 식별 정보로서 "한국어", 상기 식별 정보에 대응하는 인사말로서 "an-nyeong-ha-se-yo. ban-gab-seub-ni-da."를 포함할 수 있다.
다시 도 7을 참조하면, 다음으로, 상기 제1언어의 종류 및 상기 제2언어의 종류에 대응하는 상기 인사말이 상기 데이터베이스 내에 존재하면 상기 조회의 결과로서 상기 인사말을 상기 데이터베이스로부터 획득하는 단계(S232)가 수행될 수 있다. 만약 상기 인사말이 상기 데이터베이스 내에 존재하면, 제1단말(100)의 제어부(102)는 상기 데이터베이스로부터 상기 인사말을 획득할 수 있다.
도 9는 다른 실시예에 따른 제1단말(100)이 식별된 언어의 종류에 따라 인사말을 획득하는 단계(S230)가 수행되는 과정을 나타내는 순서도이다. 도 9를 참조하면, 먼저, 데이터베이스에서 상기 제1언어의 종류에 대한 식별 정보 및 상기 제2언어의 종류에 대한 식별 정보를 조회하는 단계(S231)가 수행될 수 있다. 제1단말(100)의 제어부(102)는 상기 데이터베이스에서 상기 식별 정보를 조회할 수 있다.
다음으로, 상기 제1언어의 종류 및 상기 제2언어의 종류에 대응하는 상기 인사말이 상기 데이터베이스 내에 존재하지 않으면 상기 제1언어의 종류에 대한 식별 정보 및 상기 제2언어의 종류에 대한 식별 정보를 서버(200)에 전송하는 단계(S233)가 수행될 수 있다.
예를 들어, 제1언어의 종류는 한국어이고, 제2언어의 종류는 터키어일 수 있다. 상기 제1언어 및 제2언어의 종류에 대응하는 인사말은 데이터베이스 내에 존재하지 않을 수 있다. 제1단말(100)의 통신부(104)는 상기 제1언어의 종류에 대한 식별 정보 및 상기 제2언어의 종류에 대한 식별 정보를 서버(200)에 전송할 수 있다.
다음으로, 상기 전송에 대한 응답으로 상기 제1언어의 종류 및 상기 제2언어의 종류에 대응하는 상기 인사말을 상기 서버(200)로부터 수신하는 단계(S234)가 수행될 수 있다. 서버(200)는 제1언어로 음역된 제2언어의 인사말을 제1단말(100)에 전송할 수 있다. 제1단말(100)은 서버(200)로부터 상기 인사말을 수신할 수 있다.
다음으로, 상기 제1언어의 종류에 대한 식별 정보, 상기 제2언어의 종류에 대한 식별 정보, 및 상기 수신된 인사말을 상기 데이터베이스 내에 캐시(cache)하는 단계(S235)가 수행될 수 있다. 제1단말(100)의 제어부(102)는 상기 제1언어 및 제2언어의 종류에 대한 식별 정보, 및 상기 수신된 인사말을 상기 데이터베이스에 저장할 수 있다. 상기 데이터베이스에는 상기 제1언어 및 제2언어의 종류에 대한 식별 정보, 및 상기 수신된 인사말을 포함하는 새로운 레코드가 저장될 수 있다. 이로써, 다음번에 상기 데이터베이스에서 상기 제1언어의 종류에 대한 식별 정보 및 상기 제2언어의 종류에 대한 식별 정보가 조회되면 제1단말(100)이 상기 조회의 결과로서 상기 인사말을 획득할 수 있도록 준비될 수 있다.
도 10은 또 다른 실시예에 따른 제1단말(100)이 식별된 언어의 종류에 따라 인사말을 획득하는 단계(S230)가 수행되는 과정을 나타내는 순서도이다. 도 10을 참조하면, 먼저, 상기 제1언어의 종류에 대한 식별 정보 및 상기 제2언어의 종류에 대한 식별 정보를 서버(200)에 전송하는 단계(S241)가 수행될 수 있다. 제1단말(100)은 상기 데이터베이스에의 조회 없이, 바로 서버(200)에 상기 제1언어 및 제2언어의 종류에 대한 식별 정보를 전송할 수 있다.
다음으로, 상기 전송에 대한 응답으로 상기 제1언어의 종류 및 상기 제2언어의 종류에 대응하는 상기 인사말을 상기 서버(200)로부터 수신하는 단계(S242)가 수행될 수 있다. 서버(200)는 제1언어로 음역된 제2언어의 인사말을 제1단말(100)에 전송할 수 있다. 제1단말(100)은 서버(200)로부터 상기 인사말을 수신할 수 있다.
도 11은 다른 실시예에 따른 제1단말(100)이 인사말을 획득하는 단계(S200)가 수행되는 과정을 나타내는 순서도이다. 도 11을 참조하면, 먼저, 상기 제1단말(100)에 의해 녹음된 상기 제1사용자의 음성, 상기 제1단말(100)에 설정된 언어 설정, 또는 상기 제1단말(100)이 위치한 지역에 대한 정보를 서버(200) 또는 제2단말(150)에 전송하는 단계(S310)가 수행될 수 있다. 제1단말(100)의 통신부(104)는 상기 녹음된 음성, 상기 언어 설정, 또는 상기 지역에 대한 정보를 서버(200) 또는 제2단말(150)에 전송할 수 있다.
다음으로, 상기 전송에 대한 응답으로 상기 서버(200) 또는 제2단말(150)로부터 상기 제1언어로 음역된 상기 제2언어의 인사말을 수신하는 단계(S320)가 수행될 수 있다. 서버(200) 또는 제2단말(150)은 제1단말(100)로부터 수신된 상기 녹음된 음성, 언어 설정, 또는 지역에 대한 정보를 이용하여 제1언어의 종류를 식별할 수 있다. 또한, 서버(200) 또는 제2단말(150)은 제2단말(150)에 의해 녹음된 제2사용자의 음성, 제2단말(150)에 설정된 언어 설정, 또는 제2단말(150)이 위치한 지역에 대한 정보를 이용하여 제2언어의 종류를 식별할 수 있다.
서버(200) 또는 제2단말(150)은 상기 식별된 제1언어의 종류 및 상기 식별된 제2언어의 종류를 이용하여 상기 제1언어로 음역된 상기 제2언어의 인사말을 획득할 수 있다. 서버(200) 또는 제2단말(150)은 상기 획득된 인사말을 제1단말(100)에 전송할 수 있다. 제1단말(100)의 통신부(104)는 상기 인사말을 수신할 수 있다.
다시 도 3을 참조하면, 다음으로, 상기 획득된 인사말을 표시하는 단계(S400)가 수행될 수 있다. 제1단말(100)의 출력부(105)는 상기 획득된 인사말을 표시할 수 있다.
도 12는 실시예에 따른 제1언어로 음역된 제2언어의 인사말을 표시한 제1단말(100)의 정면도이다. 예를 들어, 제1언어의 종류는 한국어이고, 제2언어의 종류는 스페인어라고 가정하기로 한다. 제1단말(100)이 획득한 인사말은 예를 들어, "올라. 무초 구스또 엥 꼬노쎄르떼."일 수 있다. 도 12에 도시된 바와 같이 제1단말(100)의 출력부(105)는 획득된 인사말을 표시할 수 있다.
제1사용자는 제1단말(100)에 표시된 상기 인사말을 소리내어 읽도록 유도될 수 있다. 다시 말해서, 제1단말(100)은 제1언어를 구사하는 제1사용자가 제2언어의 인사말을 용이하게 말할 수 있도록 제1사용자를 도울 수 있다. 이로써, 서로 다른 언어를 구사하는 사용자들이 보다 원활하게 서로 영상통화를 할 수 있다. 또한, 서로 다른 언어를 구사하는 사용자들이 서로 영상통화를 할 때 서로 간의 어색함이 줄어들 수 있다. 또한, 서로 다른 언어를 구사하는 사용자들이 서로 영상통화를 할 때 서로 간의 대화가 유도될 수 있다.
도 13은 다른 실시예에 따른 단말 제어 방법이 수행되는 과정을 나타내는 순서도이다. 도 13을 참조하면, 먼저, 서버(200)가 제1단말(100) 및 제2단말(150)과의 연결을 수립하는 단계(S500)가 수행될 수 있다.
다음으로, 상기 서버(200)가 상기 제1단말(100)에 의해 녹음된 제1음성, 상기 제1단말(100)에 설정된 제1 언어 설정, 또는 상기 제1단말(100)이 위치한 지역에 대한 제1정보를 수신하는 단계(S510)가 수행될 수 있다. 다음으로, 상기 서버(200)가 상기 제1음성, 상기 제1 언어 설정, 또는 상기 제1정보를 이용하여 상기 제1단말(100)에 대응하는 제1언어의 종류를 식별하는 단계(S520)가 수행될 수 있다.
다음으로, 상기 서버(200)가 상기 제2단말(150)에 의해 녹음된 제2음성, 상기 제2단말(150)에 설정된 제2 언어 설정, 또는 상기 제2단말(150)이 위치한 지역에 대한 제2정보를 수신하는 단계(S530)가 수행될 수 있다. 다음으로, 상기 서버(200)가 상기 제2음성, 상기 제2 언어 설정, 또는 상기 제2정보를 이용하여 상기 제2단말(150)에 대응하는 제2언어의 종류를 식별하는 단계(S540)가 수행될 수 있다.
다음으로, 상기 식별된 제1언어의 종류 및 상기 식별된 제2언어의 종류가 서로 다르면 상기 서버(200)가 상기 제1언어로 음역(transliteration)된 상기 제2언어의 인사말을 상기 제1단말(100)에 전송하는 단계(S550)가 수행될 수 있다. 제1단말(100)의 통신부(104)는 서버(200)로부터 상기 인사말을 수신할 수 있다. 제1단말(100)의 출력부(105)는 상기 수신된 인사말을 표시할 수 있다.
또한, 서버(200)는 상기 제2언어로 음역된 상기 제1언어의 인사말을 상기 제2단말(150)에 전송할 수 있다. 제2단말(150)의 통신부(104)는 서버(200)로부터 상기 인사말을 수신할 수 있다. 제2단말(150)의 출력부(105)는 상기 수신된 인사말을 표시할 수 있다.
이상에서 설명된 실시예에 따르면, 서로 다른 언어를 구사하는 사용자들이 보다 원활하게 서로 영상통화를 할 수 있다. 또한, 서로 다른 언어를 구사하는 사용자들이 서로 영상통화를 할 때 서로 간의 어색함이 줄어들 수 있다. 또한, 서로 다른 언어를 구사하는 사용자들이 서로 영상통화를 할 때 서로 간의 대화가 유도될 수 있다.
이상에서 설명된 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함할 수 있다.
또한, 컴퓨터 판독 가능 매체는 컴퓨터 저장 매체 또는 통신 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다. 통신 매체는 전형적으로 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함할 수 있다.
이상에서 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
100: 제1단말
101: 입력부
102: 제어부
103: 저장부
104: 통신부
105: 출력부
150: 제2단말
200: 서버

Claims (20)

  1. 제1언어를 구사하는 제1사용자가 사용하는 제1단말이 상기 제1언어와 서로 다른 제2언어를 구사하는 제2사용자가 사용하는 제2단말과의 영상 통화 연결을 수립하는 단계;
    상기 영상 통화 연결 수립에 대응하여 상기 제1사용자의 입력에 독립적으로 상기 제2언어의 인사말의 발음이 상기 제1언어로 표기된 음역 인사말을 획득하는 단계; 및
    상기 제1단말이 상기 획득된 음역 인사말을 표시하는 단계
    를 포함하고,
    상기 음역 인사말을 획득하는 단계는,
    상기 제1언어의 종류를 식별하는 단계;
    상기 제2언어의 종류를 식별하는 단계; 및
    상기 식별된 제1언어의 종류 및 상기 식별된 제2언어의 종류가 서로 다르면 상기 음역 인사말을 획득하는 단계
    를 포함하는 단말 제어 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 제1언어의 종류를 식별하는 단계는,
    상기 제1단말에 의해 녹음된 상기 제1사용자의 음성을 이용하여 상기 제1언어의 종류를 식별하는 단계
    를 포함하는 단말 제어 방법.
  4. 제1항에 있어서,
    상기 제1언어의 종류를 식별하는 단계는,
    상기 제1단말에 설정된 언어 설정을 이용하여 상기 제1언어의 종류를 식별하는 단계
    를 포함하는 단말 제어 방법.
  5. 제1항에 있어서,
    상기 제1언어의 종류를 식별하는 단계는,
    상기 제1단말이 위치한 지역에 대한 정보를 획득하는 단계; 및
    상기 제1단말이 위치한 지역에 대응하는 언어의 종류를 식별하는 단계
    를 포함하는 단말 제어 방법.
  6. 제1항에 있어서,
    상기 제1언어의 종류를 식별하는 단계는,
    상기 제1단말에 의해 녹음된 상기 제1사용자의 음성, 상기 제1단말에 설정된 언어 설정, 또는 상기 제1단말이 위치한 지역에 대한 정보를 서버에 전송하는 단계; 및
    상기 전송에 대한 응답으로 상기 서버로부터 상기 제1언어의 종류에 대한 식별 정보를 수신하는 단계
    를 포함하는 단말 제어 방법.
  7. 제1항에 있어서,
    상기 제1언어의 종류를 식별하는 단계는,
    상기 제1단말에 의해 녹음된 상기 제1사용자의 음성, 상기 제1단말에 설정된 언어 설정, 또는 상기 제1단말이 위치한 지역에 대한 정보를 상기 제2단말에 전송하는 단계; 및
    상기 전송에 대한 응답으로 상기 제2단말로부터 상기 제1언어의 종류에 대한 식별 정보를 수신하는 단계
    를 포함하는 단말 제어 방법.
  8. 제1항에 있어서,
    상기 제2언어의 종류를 식별하는 단계는,
    상기 제2단말에 의해 녹음된 상기 제2사용자의 음성을 수신하는 단계; 및
    상기 수신된 제2사용자의 음성을 이용하여 상기 제2언어의 종류를 식별하는 단계
    를 포함하는 단말 제어 방법.
  9. 제1항에 있어서,
    상기 제2언어의 종류를 식별하는 단계는,
    상기 제2단말에 설정된 언어 설정에 대한 정보를 수신하는 단계; 및
    상기 수신된 정보를 이용하여 상기 제2언어의 종류를 식별하는 단계
    를 포함하는 단말 제어 방법.
  10. 제1항에 있어서,
    상기 제2언어의 종류를 식별하는 단계는,
    상기 제2단말이 위치한 지역에 대한 정보를 수신하는 단계; 및
    상기 제2단말이 위치한 지역에 대응하는 언어의 종류를 식별하는 단계
    를 포함하는 단말 제어 방법.
  11. 제1항에 있어서,
    상기 제2언어의 종류를 식별하는 단계는,
    서버 또는 상기 제2단말로부터 상기 제2언어의 종류에 대한 식별 정보를 수신하는 단계
    를 포함하는 단말 제어 방법.
  12. 제1항에 있어서,
    상기 식별된 제1언어의 종류 및 상기 식별된 제2언어의 종류가 서로 다르면 상기 음역 인사말을 획득하는 단계는,
    데이터베이스에서 상기 제1언어의 종류에 대한 식별 정보 및 상기 제2언어의 종류에 대한 식별 정보를 조회하는 단계; 및
    상기 제1언어의 종류 및 상기 제2언어의 종류에 대응하는 상기 음역 인사말이 상기 데이터베이스 내에 존재하면 상기 조회의 결과로서 상기 음역 인사말을 상기 데이터베이스로부터 획득하는 단계
    를 포함하는 단말 제어 방법.
  13. 제1항에 있어서,
    상기 식별된 제1언어의 종류 및 상기 식별된 제2언어의 종류가 서로 다르면 상기 음역 인사말을 획득하는 단계는,
    데이터베이스에서 상기 제1언어의 종류에 대한 식별 정보 및 상기 제2언어의 종류에 대한 식별 정보를 조회하는 단계;
    상기 제1언어의 종류 및 상기 제2언어의 종류에 대응하는 상기 음역 인사말이 상기 데이터베이스 내에 존재하지 않으면 상기 제1언어의 종류에 대한 식별 정보 및 상기 제2언어의 종류에 대한 식별 정보를 서버에 전송하는 단계;
    상기 전송에 대한 응답으로 상기 제1언어의 종류 및 상기 제2언어의 종류에 대응하는 상기 음역 인사말을 상기 서버로부터 수신하는 단계; 및
    상기 제1언어의 종류에 대한 식별 정보, 상기 제2언어의 종류에 대한 식별 정보, 및 상기 음역 인사말을 상기 데이터베이스 내에 캐시(cache)하는 단계
    를 포함하는 단말 제어 방법.
  14. 제1항에 있어서,
    상기 식별된 제1언어의 종류 및 상기 식별된 제2언어의 종류가 서로 다르면 상기 음역 인사말을 획득하는 단계는,
    상기 제1언어의 종류에 대한 식별 정보 및 상기 제2언어의 종류에 대한 식별 정보를 서버에 전송하는 단계; 및
    상기 전송에 대한 응답으로 상기 제1언어의 종류 및 상기 제2언어의 종류에 대응하는 상기 음역 인사말을 상기 서버로부터 수신하는 단계
    를 포함하는 단말 제어 방법.
  15. 제1항에 있어서,
    상기 음역 인사말을 획득하는 단계는,
    상기 제1단말에 의해 녹음된 상기 제1사용자의 음성, 상기 제1단말에 설정된 언어 설정, 또는 상기 제1단말이 위치한 지역에 대한 정보를 서버에 전송하는 단계; 및
    상기 전송에 대한 응답으로 상기 서버로부터 상기 음역 인사말을 수신하는 단계
    를 포함하는 단말 제어 방법.
  16. 제1항에 있어서,
    상기 음역 인사말을 획득하는 단계는,
    상기 제1단말에 의해 녹음된 상기 제1사용자의 음성, 상기 제1단말에 설정된 언어 설정, 또는 상기 제1단말이 위치한 지역에 대한 정보를 상기 제2단말에 전송하는 단계; 및
    상기 전송에 대한 응답으로 상기 제2단말로부터 상기 음역 인사말을 수신하는 단계
    를 포함하는 단말 제어 방법.
  17. 제1항에 있어서,
    상기 제1단말이 상기 제2단말과의 연결을 수립하는 단계는,
    상기 제1단말이 상기 제2단말과의 영상통화 세션을 수립하는 단계;
    상기 제1단말에 의해 촬영된 상기 제1사용자의 영상 및 상기 제1단말에 의해 녹음된 상기 제1사용자의 음성을 포함하는 스트림을 상기 제2단말에 전송하는 단계; 및
    상기 제2단말에 의해 촬영된 상기 제2사용자의 영상 및 상기 제2단말에 의해 녹음된 상기 제2사용자의 음성을 포함하는 스트림을 상기 제2단말로부터 수신하는 단계
    를 포함하는 단말 제어 방법.
  18. 제1항의 단말 제어 방법을 컴퓨터에서 실행시키는 프로그램이 기록된 컴퓨터 판독 가능 기록 매체.
  19. 서버가 제1단말 및 제2단말과의 영상 통화 연결을 수립하는 단계;
    상기 제1단말에 의해 녹음된 제1음성, 상기 제1단말에 설정된 제1 언어 설정, 또는 상기 제1단말이 위치한 지역에 대한 제1정보를 수신하는 단계;
    상기 제1음성, 상기 제1 언어 설정, 또는 상기 제1정보를 이용하여 상기 제1단말에 대응하는 제1언어의 종류를 식별하는 단계;
    상기 제2단말에 의해 녹음된 제2음성, 상기 제2단말에 설정된 제2 언어 설정, 또는 상기 제2단말이 위치한 지역에 대한 제2정보를 수신하는 단계;
    상기 제2음성, 상기 제2 언어 설정, 또는 상기 제2정보를 이용하여 상기 제2단말에 대응하는 제2언어의 종류를 식별하는 단계; 및
    상기 영상 통화 연결 수립에 대응하여 상기 제1단말에 대한 사용자 입력에 독립적으로 상기 식별된 제1언어의 종류 및 상기 식별된 제2언어의 종류가 서로 다르면 상기 제2언어의 인사말의 발음이 상기 제1언어로 표기된 음역 인사말을 상기 제1단말에 전송하는 단계
    를 포함하는 단말 제어 방법.
  20. 제1언어를 구사하는 사용자가 사용하는 단말에 있어서,
    상기 제1언어와 서로 다른 제2언어를 구사하는 다른 사용자가 사용하는 다른 단말과의 영상 통화 연결을 수립하는 통신부;
    상기 영상 통화 연결 수립에 대응하여 상기 제1언어를 구사하는 사용자의 입력에 독립적으로 상기 제2언어의 인사말의 발음이 상기 제1언어로 표기된 음역 인사말을 획득하는 제어부; 및
    상기 음역 인사말을 표시하는 출력부
    를 포함하고,
    상기 제어부는 상기 제1언어 및 상기 제2언어의 종류를 식별하고, 상기 식별된 제1언어의 종류 및 상기 식별된 제2언어의 종류가 서로 다르면 상기 음역 인사말을 획득하는 단말.
KR1020160115904A 2016-09-08 2016-09-08 단말 및 그 제어 방법 KR101917648B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020160115904A KR101917648B1 (ko) 2016-09-08 2016-09-08 단말 및 그 제어 방법
US15/699,588 US10430523B2 (en) 2016-09-08 2017-09-08 Terminal and method of controlling the same
US16/589,685 US11379672B2 (en) 2016-09-08 2019-10-01 Method of video call

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160115904A KR101917648B1 (ko) 2016-09-08 2016-09-08 단말 및 그 제어 방법

Publications (2)

Publication Number Publication Date
KR20180028341A KR20180028341A (ko) 2018-03-16
KR101917648B1 true KR101917648B1 (ko) 2018-11-13

Family

ID=61280772

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160115904A KR101917648B1 (ko) 2016-09-08 2016-09-08 단말 및 그 제어 방법

Country Status (2)

Country Link
US (2) US10430523B2 (ko)
KR (1) KR101917648B1 (ko)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
KR20150104615A (ko) 2013-02-07 2015-09-15 애플 인크. 디지털 어시스턴트를 위한 음성 트리거
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11475884B2 (en) * 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
CN110414014B (zh) * 2019-08-05 2020-12-04 珠海格力电器股份有限公司 一种语音设备控制方法、装置、存储介质及语音设备
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014150442A (ja) * 2013-02-01 2014-08-21 Nippon Telegraph & Telephone East Corp 通話システム及び通話中継方法
US20140337007A1 (en) * 2013-05-13 2014-11-13 Facebook, Inc. Hybrid, offline/online speech translation system

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1125098A (ja) * 1997-06-24 1999-01-29 Internatl Business Mach Corp <Ibm> 情報処理装置、リンク先ファイルの取得方法および記憶媒体
US6810374B2 (en) * 2001-07-23 2004-10-26 Pilwon Kang Korean romanization system
US7039172B2 (en) * 2002-05-14 2006-05-02 Avaya Technology Corp. Dual language caller ID with asian language support
US7310605B2 (en) * 2003-11-25 2007-12-18 International Business Machines Corporation Method and apparatus to transliterate text using a portable device
JP2010519655A (ja) * 2007-02-26 2010-06-03 ベイシス テクノロジー コーポレーション 名前照合システムの名前インデックス付け
US20080294455A1 (en) * 2007-05-23 2008-11-27 General Electric Company System and method for communicating in a multilingual network
US20100283829A1 (en) * 2009-05-11 2010-11-11 Cisco Technology, Inc. System and method for translating communications between participants in a conferencing environment
WO2011040056A1 (ja) * 2009-10-02 2011-04-07 独立行政法人情報通信研究機構 音声翻訳システム、第一端末装置、音声認識サーバ装置、翻訳サーバ装置、および音声合成サーバ装置
US8554537B2 (en) * 2009-10-23 2013-10-08 Samsung Electronics Co., Ltd Method and device for transliteration
JP5090547B2 (ja) * 2011-03-04 2012-12-05 楽天株式会社 翻字処理装置、翻字処理プログラム、翻字処理プログラムを記録したコンピュータ読み取り可能な記録媒体、及び翻字処理方法
US8849628B2 (en) * 2011-04-15 2014-09-30 Andrew Nelthropp Lauder Software application for ranking language translations and methods of use thereof
US8224836B1 (en) * 2011-11-02 2012-07-17 Google Inc. Searching in multiple languages
US8943404B1 (en) * 2012-01-06 2015-01-27 Amazon Technologies, Inc. Selective display of pronunciation guides in electronic books
US8838459B2 (en) * 2012-02-29 2014-09-16 Google Inc. Virtual participant-based real-time translation and transcription system for audio and video teleconferences
KR102108500B1 (ko) 2013-02-22 2020-05-08 삼성전자 주식회사 번역 기반 통신 서비스 지원 방법 및 시스템과, 이를 지원하는 단말기
US11032676B2 (en) * 2013-03-13 2021-06-08 Vascode Technologies Ltd. System and method for transliteration of textual messages for mobile devices
US9401987B2 (en) * 2013-05-07 2016-07-26 Yellowpages.Com Llc Systems and methods to provide connections to users in different geographic regions
US9953630B1 (en) * 2013-05-31 2018-04-24 Amazon Technologies, Inc. Language recognition for device settings
KR20150105075A (ko) 2014-03-07 2015-09-16 한국전자통신연구원 자동 통역 장치 및 방법
US9614969B2 (en) * 2014-05-27 2017-04-04 Microsoft Technology Licensing, Llc In-call translation
US9276971B1 (en) * 2014-11-13 2016-03-01 Sorenson Communications, Inc. Methods and apparatuses for video and text in communication greetings for the audibly-impaired
US20160170970A1 (en) * 2014-12-12 2016-06-16 Microsoft Technology Licensing, Llc Translation Control
KR20160105215A (ko) 2015-02-27 2016-09-06 삼성전자주식회사 텍스트 처리 장치 및 방법
US10394964B2 (en) * 2016-04-04 2019-08-27 Oslabs Pte. Ltd. Gesture based system for translation and transliteration of input text and a method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014150442A (ja) * 2013-02-01 2014-08-21 Nippon Telegraph & Telephone East Corp 通話システム及び通話中継方法
US20140337007A1 (en) * 2013-05-13 2014-11-13 Facebook, Inc. Hybrid, offline/online speech translation system

Also Published As

Publication number Publication date
KR20180028341A (ko) 2018-03-16
US20200026764A1 (en) 2020-01-23
US11379672B2 (en) 2022-07-05
US10430523B2 (en) 2019-10-01
US20180067929A1 (en) 2018-03-08

Similar Documents

Publication Publication Date Title
KR101917648B1 (ko) 단말 및 그 제어 방법
KR101861006B1 (ko) 통역 장치 및 방법
JP6289448B2 (ja) 即時翻訳システム
KR101827773B1 (ko) 통역 장치 및 방법
JP5331936B2 (ja) 音声制御画像編集
US10419312B2 (en) System, device, and method for real-time conflict identification and resolution, and information corroboration, during interrogations
US20060173859A1 (en) Apparatus and method for extracting context and providing information based on context in multimedia communication system
US10122916B2 (en) Object monitoring method and device
KR101359880B1 (ko) 자신의 사진들을 자동으로 찍기 위한 방법, 장치 및 컴퓨터 프로그램 제품
CN111128183B (zh) 语音识别方法、装置和介质
WO2021008538A1 (zh) 语音交互方法及相关装置
KR101835235B1 (ko) 시각 장애인 보조장치 및 그 제어방법
EP3669277B1 (en) Associating a user voice query with head direction
US20190147889A1 (en) User identification method and apparatus based on acoustic features
WO2021208531A1 (zh) 一种语音处理方法、装置和电子设备
CA3073507C (en) Associating a user voice query with head direction
JPWO2017175442A1 (ja) 情報処理装置、および情報処理方法
US11756573B2 (en) Electronic apparatus and control method thereof
JP2006080850A (ja) 通信端末とその通信方法
WO2019150708A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
KR102315211B1 (ko) 단말기 및 그것의 동작 방법
CN111479060B (zh) 图像采集方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant