KR20180093100A - 손 동작을 기반으로 한 입력문자의 번역 및 음역용 시스템 및 방법 - Google Patents

손 동작을 기반으로 한 입력문자의 번역 및 음역용 시스템 및 방법 Download PDF

Info

Publication number
KR20180093100A
KR20180093100A KR1020187022878A KR20187022878A KR20180093100A KR 20180093100 A KR20180093100 A KR 20180093100A KR 1020187022878 A KR1020187022878 A KR 1020187022878A KR 20187022878 A KR20187022878 A KR 20187022878A KR 20180093100 A KR20180093100 A KR 20180093100A
Authority
KR
South Korea
Prior art keywords
input character
user
input
user interface
rubbing
Prior art date
Application number
KR1020187022878A
Other languages
English (en)
Other versions
KR101995741B1 (ko
Inventor
데시무크 라케시
방가람반디 수디르
동그레 아카쉬
파드마나반 하리하란
Original Assignee
오에스랩스 피티이 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오에스랩스 피티이 리미티드 filed Critical 오에스랩스 피티이 리미티드
Publication of KR20180093100A publication Critical patent/KR20180093100A/ko
Application granted granted Critical
Publication of KR101995741B1 publication Critical patent/KR101995741B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/018Input/output arrangements for oriental characters
    • G06F17/289
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/15Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Machine Translation (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)

Abstract

본 발명에 의하면, 입력문자의 번역 및 음역용 손동작을 기반으로 하는 시스템 및 대응하는 방법이 개시된다. 본 발명에 의한 시스템 및 방법은 사용자에 의하여 수행되는 손동작에 근거하여 입력문자의 선택적인 번역 및 음역을 제공한다. 본 발명에 따르면, 사용자가 예컨대 좌측 문지름 손동작을 행할 때, 제1 언어로 된 입력문자는 사용자에 의하여 미리 정해진 언어로 음역된다. 사용자가 예컨대 우측 문지름을 수행하면, 입력문자는 제1 언어로부터 사용자에 의하여 미리 정해진 언어로 번역된다. 본 발명에 의한 시스템 및 방법은 또한, 사용자로 하여금 미리 정해진 손동작을 수행함으로써 입력문자의 원래 언어, 즉 제1 언어로 되돌릴 수 있도록 한다.

Description

손 동작을 기반으로 한 입력문자의 번역 및 음역용 시스템 및 방법 {A GESTURE BASED SYSTEM FOR TRANSLATION AND TRANSLITERATION OF INPUT TEXT AND A METHOD THEREOF}
본 출원은, 2013년 10월 4일자로 출원된 인도 임시 특허출원번호 3161/MUM/2013 호의 우선권의 이익을 주장하는 PCT 국제출원번호 PCT/IN2014/000623호에 대한 한국내 국내단계출원으로서 2016년 4월 26일자로 출원된 특허출원 제10-2016-7011036호의 분할출원이다.
본 발명은 컴퓨터 구현 사용자 인터페이스 분야에 관한 것으로서, 특히, 본 발명은 컴퓨터 구현 인도어 인터페이스에 관한 것이다. 보다 상세하게는, 본 발명은 번역 및 음역 능력을 가지는 컴퓨터 구현 사용자 인터페이스에 관한 것이다.
통신분야에서의 최근의 기술적 발전상태를 감안할 때, 상호간에 통신을 목적으로 휴대전화를 사용하는 사람들의 수가 상당수 증가되었다. 현재 상용 휴대전화는 사용자들로 하여금 음성으로 상호간에 통신을 가능하게 함과 동시에 문자 메시지를 교환하는 것도 가능하게 한다.
또한, 일부 휴대전화는 사용자들에게 기계 번역 기능을 제공하기도 한다. 전형적으로, 기계 번역기는 휴대전화 상에서 별도의 설치가능한 소프트웨어 어플리케이션으로서 제공된다. 또한, 사용자는 인터넷 상에서 제공되는 기계 번역기를 이용하도록 휴대전화 상에서 월드와이드웹에 액세스할 수 있는 선택이 주어지기도 한다.
하지만, 종래의 기계 번역기 및 그의 어플리케이션과 관련된 결점 중의 하나는, 이들 어플리케이션들이 휴대전화의 운용 시스템과 일체로 되어 있지 않다는 점이며, 결과적으로, 입력된 문자가 번역되도록 하기 위하여 이들 기능을 사용하려면 사용자는 입력된 문자를 수작업으로 복사하고 이들을 번역 어플리케이션에 넣어야만 한다. 이와 같이 종래 기술에서의 번역기(어플리케이션) 상의 기계번역 과정은 번역과정이 귀찮을 뿐 아니라 실행하기도 용이하지 않다.
상술한 문제점을 해결하고, 입력된 문자의 번역/음역의 전체 과정을 단순화하기 위하여, 미국 특허출원공개 US20070255554 호에는 '통신 네트워크 내에서 자동 언어번역을 제공하는 시스템 및 방법'이 제안되어 있다. 그러나, US20070255554 호에 의한 시스템은 자동 번역을 위하여 서비스 센터를 통한 통신 호출을 보내는 것을 포함한다. 자동 번역을 위하여 제 3의 서비스 센터를 이용한다는 것은, 무엇보다도 입력된 문자가 제 3의 서비스센터로 재전송되기 때문에 비밀유지/비밀보장이 훼손될 수 밖에 없으며, 두번째로 실제의 번역은 메시지가 전송 중에 있을 때 발생하기 때문에 사용자로서는 원래의 문자와 번역된 문자를 비교해볼 수 없다는 것을 의미한다.
또한, US2013/151234호는 사용자가 문자들의 제1 문자열 상의 첫문자를 터치하고 계속하여 그의 손가락을 제2 문자열에 따른 다른 방향/다른 거리으로 미끄러트려서, 처음 터치한 문자에 기반하여 두번째 문자열을 입력할 수 있도록 하는 시스템을 개시함에 부가하여, 터치 컴퓨팅 장치 상에서 다중 문자 복합 자음 및 모음의 입력을 가능(신속한)하게 하는 기술을 개시한다. US2013/151234호는 또한, 터치식 컴퓨팅 장치 상에서 한 언어의 문자를 다른 언어의 문자로 음역하고, 컴퓨팅 장치는 사용자로부터의 입력을 수신하고 정보를 표시하도록 구성되는 터치 디스플레이를 포함하는 것을 개시한다. 전형적으로 사용자는 터치 디스플레이에 대한 입력을 제공하기 위하여 하나 이상의 손가락을 사용하며, 입력기술은 '점 입력' 및 '미끄럼 입력'을 포함한다. US2013/151234호는, 터치 컴퓨팅 장치 상에 표시된 키보드로부터 하나의 문자를 선택하는 것을 '점 입력'이라 개시하며, 사용자에 의하여 터치 디스플레이 가로지르는 미끄럼 동작을 '미끄럼 입력'이라 개시한다.
US2008/097745호는 초기의 언어로부터의 문장을 목표언어로 번역하기 위한 시스템을 개시한다. US2008/097745호에 따르면, 이 시스템은 문장을 입력하는 입력 장치를 포함한다. 제1 분석기는 입력된 문장을 분석하고 초기언어(입력된 문장의 언어)의 하나 이상의 가능한 문자들을 확인한다. 계속하여, 제2 분석기는 제1 분석기에 의하여 확인된 문자를 분석하고, 그들로부터 알려진 문자 또는 인식할 수 있는 패턴들을 확인하며, 잠재적인 번역문을 알고 있는 문자 또는 인식가능한 패턴들로 배정한다. 계속하여, 제3 분석기는 어떤 잠재적인 번역이 개념적 틀에 대응하는지를 결정하기 위하여 입력된 문장의 개념적 틀을 대표하는 하나 이상의 확정적인 요인들과 관련된 잠재적인 번역문을 분석한다. 계속하여 개념적 틀에 관련된 것으로 결정된 잠재적인 번역문들이 표시된다.
US2005/043941호는 사용자가 한 인도 언어로 된 문장을 보고, 한 단어 또는 구를 강조표시하고, 그 선택된 단어 또는 구를 목표로 하는 언어 또는 문자로 음역할 수 있도록 하는 음역 메커니즘을 개시한다. US2005/043941호에 따르면, 키 순서, 메뉴 선택 또는 마우스 조작에 응하여 음역 요청이 수신되었을 때, 문서가 분할되고(802 단계) 선택된 단어 또는 구가 확인된다. 선택된 단어 또는 구는 바람직하게는 띄어쓰기, 구둣점, 및/또는 하이퍼텍스트 태그의 조합을 이용하여 확인된다. 계속하여, 원 단어들에 대한 유사어를 검색함으로써 음역된 단어/구가 생성된다. 만약 어떠한 유사어도 존재하지 않는 것으로 결정되면, 음역된 단어를 나타낸다. 선택적으로, 만약 유사어가 확인되면, 유사어들의 음역이 실행되고, 음역된 유사어들이 사용자의 선택에 따라 표시된다.
US2013/191108호는, 입력 언어로부터의 출력 언어로 문장 조각들을 번역하고 그 번역의 결과를 표시 스크린 상에 표시하는 방법을 개시한다. US2013/191108호에 따르면, 사용자가 전자장치의 디스플레이 화면 상의 문장을 읽고 일부 조각의 번역을 찾아보고자 하면, 그 사용자는 마우스 커서 또는 손가락으로 그 문장을 포함하는 구역을 가리키도록 하고 스크린 상의 손가락이나 커서를 이동함으로써 디스클레이 스크린 상에 해당 영역을 선택한다. 만약 선택된 영역의 좌표가 이미지(의 일부)를 가리키면, OCR 알고리듬이 적용되고, 사용자에 의하여 선택된 문장에 대응하는 사각형 구역이 확인된다. OCR 알고리듬은 계속하여 확인된 사각형 구역 상에서 작동하고, 단어, 단어의 조합 또는 문장을 확인한다. 또한 문장의 선택 및 인식된 부분이 단어의 조합인지가 결정된다. 단어의 조합은 수 개의 단어만을 포함하는 문자열일 수 있다. 만약 선택된 조각이 단어의 조합이면, 사전적 번역이 수행된다. 그렇지 않으면, 번역 데이터베이스 또는 기계번역 시스템을 이용함으로써, 선택되고 인식된 문장의 조각에 대한 번역이 수행된다.
상술한 종래 기술의 시스템 및 방법들 중의 어느 것도 인도 언어를 영어로 음역(音譯)하는 기능을 제공하지 않는 것에 주목해야 한다.
본 발명의 목적은 입력된 문자의 효율적이며 효과적인 번역을 가능하게 하는 시스템을 제공함에 있다.
본 발명의 다른 목적은 입력된 문자의 효율적이며 효과적인 음역을 가능하게 하는 시스템을 제공함에 있다.
본 발명의 다른 목적은 사용자에 의해 수행된 미리 정해진 손동작(gesture)에 근거하여 입력된 문자의 번역 및 음역을 가능하게 하는 시스템을 제공함에 있다.
본 발명의 또 하나의 목적은 사용자 친화적이며 사용하기에 용이한 시스템을 제공하는 것이다.
본 발명의 다른 목적은 다수 개의 인도 언어로부터 영어로 입력문자를 번역 및 음역하고 그 반대의 경우도 가능한 시스템을 제공함에 있다.
본 발명의 다른 목적은 사용자에게 모국어(인도 언어)로 된 입력문자를 제공하고, 그 후 입력문자를 SMS/이메일로 발송하기 전에 영어로 된 입력문자로 변환할 수 있도록 하는 시스템을 제공하는 것이다.
본 발명의 다른 목적은 사용자로 하여금 영어로 된 문자열을 수신하고, 그 후 수신된 문자열을 미리 정해진 인도 언어 중의 하나로 변환할 수 있는 시스템을 제공함에 있다.
본 발명은, 입력 언어 이외의 다른 언어로 입력문자를 선택적으로 표시하기 위한 컴퓨터 구현 시스템을 제공한다. 본 발명에 의한 시스템은 사용자에 의하여 수행된 손동작에 근거하여 입력문자를 번역/음역한다. 이 시스템은 사용자로부터의 입력으로서, 문자를 받아들이도록 구성되는 사용자 인터페이스를 포함한다.
이 시스템은 사용자 인터페이스와 협력하는 인식모듈을 포함한다. 이 인식모듈은 사용자 인터페이스 상에서 사용자에 의하여 수행되는 손동작을 인식하고, 미리 정해진 사용자의 손동작을 대응하는 전기신호로 변환하도록 구성된다. 그 전기신호는 입력문자를 그 입력된 언어 이외의 언어로 표현하기 위한 지령을 포함한다.
상기 시스템은 상기 전기 신호를 선택적으로 수신하도록 인식모듈과 협력하는 번역모듈을 더 포함하며, 번역모듈은 인식모듈로부터의 전기신호를 수신한 후에 입력문자를 번역하도록 구성된다.
상기 시스템은 또한 상기 전기 신호를 선택적으로 수신하도록 인식모듈과 협력하는 음역모듈을 더 포함하며, 음역모듈은 인식모듈로부터의 전기신호를 수신한 후에 입력문자를 음역하도록 구성된다.
본 발명에 따르면, 사용자 인터페이스는 번역된 문자 및 음역된 문자를 수신하도록 번역모듈 및 음역모듈과 협력하고, 또한 사용자 인터페이스는 사용자에 의하여 수행된 미리 정해진 손동작에 근거하여 적어도 입력문자, 번역된 문자 및 음역된 문자를 선택적으로 표시하도록 구성된다.
본 발명에 따르면, 인식모듈은 사용자 인터페이스 상에서, 사용자에 의하여 수행된 적어도 좌측 문지름 손동작 및 우측 문지름 손동작을 인식하도록 구성된다.
본 발명에 따르면, 인식모듈은 사용자에 의하여 제공된 입력문자를 음역하기 위하여 좌측 문지름 손동작을 전기신호로 변환하고, 또한 인식모듈은 사용자에 의하여 제공된 입력문자를 번역하기 위하여 우측 문지름 손동작을 전기신호로 변환하도록 구성된다.
본 발명은 또한 사용자에 의하여 수행된 손동작에 근거하여 입력문자를 선택적으로 입력 언어 이외의 언어로 표시하기 위한 컴퓨터 구현 방법을 제공한다. 본 발명에 따르면, 컴퓨터 구현 방법은; 사용자 인터페이스를 통하여 사용자로부터의 입력문자를 수신하는 단계; 인식모듈을 사용하여 사용자 인터페이스 상에서 사용자에 의하여 수행된 미리 정해진 손동작을 인식하는 단계; 사용자로부터의 미리 정해진 손동작을 대응하는 전기신호로 변환하며, 전기신호는 입력언어 이외의 언어로 입력문자를 표시하기 위한 지령을 포함하는 단계; 전기신호들을 선택적으로 번역모듈 및 음역모듈로 전송하는 단계; 인식모듈로부터의 전기신호를 수신한 후, 입력문자를 번역하는 단계; 인식모듈로부터 전기신호를 수신한 후, 입력문자를 음역하는 단계 및; 사용자 인터페이스를 사용하여 번역된 문자 및 음역된 문자를 수신하고, 사용자에 의하여 수행된 미리 정해진 손동작에 근거하여, 사용자 인터페이스 상에서 그 입력문자, 번역된 문자 및 음역된 문자를 선택적으로 표시하는 단계를 포함한다.
본 발명에 따르면, 사용자 인터페이스 상에서 사용자에 의하여 수행된 미리 정해진 손동작을 인식하는 단계는, 사용자 인터페이스 상에서 사용자에 의하여 수행된 적어도 좌측 문지름 손동작 및 우측 문지름 손동작을 인식하는 단계를 더 포함한다.
본 발명에 따르면, 적어도 좌측 문지름 손동작 및 우측 문지름 손동작을 인식하는 단계는, 사용자에 의하여 제공된 입력문자를 음역하기 위하여 좌측 문지름 손동작을 전기신호로 변환하고, 또한 사용자에 의하여 제공된 입력문자를 번역하기 위하여 우측 문지름 손동작을 전기신호로 변환하는 단계를 더 포함한다.
컴퓨터로 판독가능한 지령들이 저장된, 컴퓨터로 판독가능한 비일시적 저장매체는, 상기 컴퓨터로 판독가능한 지령들을 프로세서에 의하여 실행할 때, 컴퓨터로 실행되는 장치로 하여금: 사용자 인터페이스를 통하여, 사용자로부터의 입력문자를 수신하고; 인식모듈을 사용하여, 사용자 인터페이스 상에서 사용자에 의하여 수행된 소정의 손동작을 인식하고, 사용자로부터의 소정의 손동작을 대응하는 전기신호로 변환하고, 그 전기신호는 입력 문자를 입력언어 이외의 다른 언어로 표현하도록 하는 지력을 포함하며; 그 전기신호를 번역모듈 및 음역모듈로 선택적으로 전송하고; 인식모듈로부터의 전기신호를 수신한 후, 입력 문자로 음역하고; 사용자 인터페이스를 사용하여 번역된 문자 및 음역된 문자를 수신하고; 사용자에 의하여 수행된 미리 정해진 손동작에 근거하여 사용자 인터페이스 상에 입력 문자, 번역된 문자 및 음역된 문자를 선택적으로 표시하도록 구성된다.
본 기술내용에 따르면, 컴퓨터로 판독가능한 지령들은 컴퓨터로 실행되는 장치로 하여금, 사용자 인터페이스 상에서 사용자에 의하여 수행된 적어도 좌측 문지름 손동작 및 우측 문지름 손동작을 인식하도록 구성된다.
본 기술내용에 따르면, 컴퓨터로 판독가능한 지령들은 좌측 문지름 손동작을 사용자에 의하여 제공된 입력 문자를 음역하기 위한 전기신호로 변환하고, 우측 문지름 손동작을 사용자에 의하여 제공된 입력 문자를 번역하기 위한 전기신호로 변환하도록 구성된다.
본 발명에 의하여 나타나는 기술적인 효과는, 입력문자의 효율적이고 유효한 번역을 가능하게 하는 시스템의 실현을 포함한다. 또한, 본 발명에 의한 기술적인 효과는 입력문자의 효율적이고 유효한 음역을 가능하게 하는 시스템의 실현을 포함한다. 또한, 본 발명에 의한 기술적인 효과는 사용자에 의하여 수행된 미리 정해진 손동작에 근거하여 입력문자의 번역 및 음역을 가능하게 한다. 본 발명에 의하여 제공되는 시스템은 사용하기에 용이하며 사용자 친화적이다. 이 시스템은 입력문자를 다수 개의 인도 언어로부터 영어로, 혹은 그 반대의 경우로의 번역 및 음역을 제공한다. 본 발명에 의한 시스템은 사용자로 하여금 모국어(인도 언어)로 된 입력문자를 제공하고, 그 후 입력문자를 SMS/이메일로 발송하기 전에 영어로 된 입력문자로 변환할 수 있도록 한다. 또한, 본 발명에 의한 시스템은 사용자로 하여금 영어로 된 문자열을 수신하고, 그 후 수신된 문자열을 미리 정해진 인도 언어 중의 하나로 변환할 수 있도록 해준다.
본 발명은, 첨부된 도면을 참조하는 이하의 상세한 설명으로부터 보다 잘 이해될 수 있다.
도 1은 입력문자의 번역 및 음역을 위한 시스템에 대응하는 컴퓨터 구현 시스템-레벨 블록 다이어그램을 나타낸다.
도 2A 및 도 2B는 입력문자의 번역 및 음역을 위한 컴퓨터 구현 방법에 포함되는 단계를 나타내는 플로우 차트이다.
도 3A 및 3B는 입력문자를 번역하기 위한 예시적인 사용자 인터페이스를 나타낸다.
도 4A 및 4B는 입력문자를 음역하기 위한 예시적인 사용자 인터페이스를 나타낸다.
본 발명은 컴퓨터로 구현되며 손동작을 기반으로 하는, 입력문자의 선택적인 번역 및 음역용 시스템을 제공한다. 번역 및 음역은, 사용자에 의하여 수행된 미리 정해진 손동작에 반응해서만 그 번역된/음역된 입력문자가 사용자에게 표시된다는 맥락에서 선택적이라 할 수 있다. 본 발명에 의하여 제공되는 시스템은 영어로부터 다수 개의 인도 언어로의 입력문자의 효율적이며 효과적인 번역 및 음역과, 그 반대의 작용을 가능하게 한다. 본 발명에 의하여 제공되는 시스템은 사용자에게 모국어(인도 언어)로 입력문자를 제공한 후, SMS/이메일로서 입력문자를 전송하기 전에 그 입력문자를 영어로 변환할 수 있도록 한다. 또한, 이 시스템은 사용자가 영어로 된 문자열을 수신한 후, 그 수신된 문자열을 미리 정해진 인도 언어 중의 하나로 변환할 수 있도록 한다.
도면을 참조하면, 도 1은 컴퓨터로 구현되는, 손동작(gesture)을 기반으로 하는 입력문자의 번역 및 음역용 시스템(100)을 나타낸다. 본 발명에 따른 시스템(100)은 사용자 인터페이스(10)를 포함한다. 사용자 인터페이스(10)는, 사용자로부터의 입력된 문자를 받아들이도록 구성된다. 사용자에 의한 문자입력은, 영어이거나, 또는 한정되는 것은 아니지만, 벵골어 (Bengali), 구자라트어 (Guajarati), 아삼어 (Assamese), 오리야어 (Oriya), 칸나다어 (Kannada), 타밀어 (Tamil), 텔루구어 (Telugu) 및 말라얄람어 (Malayalam)를 포함하는 미리 정해진 인도 언어 중의 하나가 될 수 있다. 또한, 사용자 인터페이스(10)는 이메일/SMS/웹페이지 등의 형태로 수신된 문자를 표시하도록 구성된다.
본 발명에 따른 사용자 인터페이스(10)는 사용자가 미리 정해진 여러 개의 손동작을 통하여 사용자 인터페이스(10)와 교류할 수 있도록 구성된다. 바람직한 실시예에서, 사용자 인터페이스(10)는 접촉 감지/감응 디스플레이 스크린 상에서 진행되며, 한정되는 것은 아니지만, 좌측 문지름 손동작, 우측 문지름 손동작, 두드림 손동작, 두드리고 정지하는 손동작, 원운동 손동작, 반원운동 손동작, 및 두번 두드림 손동작 등을 포함하는 특정한 손동작들을 수행함으로써, 사용자로 하여금 상호교류할 수 있도록 구성된다. 또한, 사용자 인터페이스(10)는, 사용자로 하여금 그에 표시된 알파벳 키, 글자 및 숫자 키, 및 숫자 키를 선택적으로 두드림으로써 문자를 입력할 수 있도록 구성된다.
본 발명에 따른 시스템(100)은 사용자 인터페이스(10)와 협력하는 인식모듈(12)을 더 포함한다. 본 발명에 따른 인식모듈(12)은 사용자 인터페이스(10) 상에서 사용자에 의하여 수행된 손동작을 인식 및 해석하도록 구성된다. 인식모듈(12)은 사용자 인터페이스(10) 상에서 사용자 손가락의 접촉점을 인식하고 (저항성 기술, 용량성 기술 및 표면 음향파 기술을 포함하는 주지의 기술들을 사용함), 사용자로부터의 '접촉'을 선택 가능한 키들의 형태로 표시되는 대응하는 글자/숫자/기능의 선택으로서 해석하도록 구성된다.
또한, 사용자에 의해서 대응하는 키들이 접촉되거나 선택된 해당 키들은, 인식모듈(12)에 의하여 입력문자로서 간주된다. 본 발명에 있어서 '입력문자'라는 용어는 문자열인 것으로 고려된다. 또한, '입력문자'는 알파벳 및 숫자의 조합을 포함하는 것으로서 이해될 수 있다. 또한, '입력문자'는, 알파벳, 숫자 및 특수문자들의 조합으로서 이해될 수도 있다. 하지만, 본 발명의 바람직한 실시예에 있어서는, 설명의 편의상, 입력문자는 알파벳의 문자열인 것으로 고려된다.
본 발명에 따르면, 인식모듈(12)은 사용자의 미리 정해진 손동작을 입력문자의 번역 및 음역에 대한 요청을 표시하는 손동작으로 해석하도록 구성될 수 있다.
본 발명의 바람직한 실시예에 따르면, 사용자 인터페이스(10) 상에서 사용자에 의하여 수행된 좌측 문지름 손동작은, 인식모듈(12)에 의하여 입력문자의 음역을 요청하는 것으로서 해석된다. 본 발명의 바람직한 실시예에 따르면, 사용자 인터페이스(10) 상에서 사용자에 의하여 수행된 우측 문지름 손동작은, 인식모듈(12)에 의하여 입력문자의 번역을 요청하는 것으로서 해석된다. 좌측 문지름 손동작 및 우측 문지름 손동작에 응답하여 인식모듈(12)에 의해 수행되는 해석은, 본 발명의 바람직한 실시예에 따라서, 인식모듈(12) 상에 쉽게 변경하지 못하도록 기록된다. 하지만, 좌측 문지름 손동작 및 우측 문지름 손동작을 다른 적절한 손동작들로 대체하고 그 대체 손동작들을 번역 및 음역요청으로 기록하는 것은 본 발명의 범위 내에 있는 것이다.
본 발명의 바람직한 실시예에 따르면, 인식모듈(12)은 사용자 인터페이스와 협력하여 좌측 문지름 손동작 및 우측 문지름 손동작을 각각 확인하게 된다. 입력문자의 입력이 끝난 후에, 사용자가 사용자 인터페이스(10) 상에서 좌측 문지름 손동작을 수행하게 되며, 인식모듈(12)은 음역모듈(16)을 기동하고, 계속하여 음역모듈(16)로 하여금 사용자에 의하여 선택된 언어로 입력문자를 음역하도록 지시한다. 입력문자를 입력한 후에 사용자가 우측 문지름 손동작을 수행하게 되는 경우, 인식모듈(12)은 번역모듈(14)을 기동하고, 계속하여 번역모듈(14)로 하여금 사용자에 의하여 선택된 언어로 입력문자를 번역하도록 지시한다. 비록 사용자에 의한 문자입력을 참조하여 번역모듈(14)과 음역모듈(16)의 기능들이 설명되었으나, 번역모듈(14)과 음역모듈(16)은 어떠한 문자, 예를 들어 SMS/이메일/웹페이지 등의 형태로 수신된 문자라도, 사용자의 모국어로부터 지정한 언어로 각각 번역 및 음역하도록 구성될 수도 있다.
도 3A를 참조하면, 하나의 사용자 인터페이스(10)의 예를 도시하며, 이를 이용하여 사용자는 영어로 'how are you'라는 문장을 입력한다. 입력문자에 대한 입력 후, 사용자가 좌측으로 문지름 손동작을 수행하게 되면, 음역모듈(16)이 기동되고 영어문장 'how are you'는 도 3B에 나타낸 바와 같이 사용자에 의하여 선택된 인도 언어 중의 하나로 음역된다.
도 4A를 참조하면, 하나의 사용자 인터페이스(10)의 예를 도시하며, 이를 이용하여 사용자는 영어로 'how are you'라는 문장을 입력한다. 입력문자에 대한 입력 후, 사용자가 우측으로 문지름 손동작을 수행하게 되면, 번역모듈(14)이 기동되고 영어문장 'how are you'는 도 4B에 나타낸 바와 같이 사용자에 의하여 선택된 인도 언어 중의 하나로 번역된다.
본 발명에 따르면, 사용자 인터페이스(10)는 사용자로 하여금 입력문자를 입력하기 위한 언어를 먼저 선택할 수 있도록 구성된다. 사용자에 의하여 선택된 언어는, 한정하는 것은 아니지만 힌디어 (Hindi), 벵골어, 구자라트어, 아삼어, 오리야어, 우르두어 (Urdu), 타밀어, 텔루구어, 말라얄람어 및 칸나다어를 포함한다. 또한, 상술한 언어의 리스트는 한정되는 것은 아니며, 입력문자로 번역 및/또는 음역되어야 하는 언어로서 어떤 것이든 선택될 수 있다. 또한, 인식모듈(12)은 번역모듈(14)과 음역모듈(16)을 활성화하기 위하여 내장되는 명령어들을 가지는 전기신호를 전송함으로써 번역모듈(14)과 음역모듈(16)을 기동하도록 구성된다.
또한 본 발명에 따르면, 사용자 인터페이스의 디폴트 화면은 입력문자를 입력하는데 사용되는 화면 (도 3A에 도시한 것과 같음)이며, 입력문자가 입력되고 사용자가 좌측 문지름 손동작을 수행하는 경우에, 사용자 인터페이스(10)는 도 3B에 나타낸 것과 같이 바뀌고, 도 3B에서 예시된 사용자 인터페이스(10) 상에서 사용자가 우측 문지름 손동작을 수행하게 되면, 사용자 인터페이스(10)는 도 3A에 나타낸 디폴트 화면으로 복귀된다.
또한, 본 발명에 따르면, 사용자 인터페이스(10)의 디폴트 화면은 입력문자를 입력하는데 사용되는 화면 (도 4A에 도시한 것과 같음)이며, 입력문자가 입력되고 사용자가 우측 문지름 손동작을 수행하는 경우에, 사용자 인터페이스(10)는 도 4B에 나타낸 것과 같이 바뀌고, 도 4B에서 예시된 사용자 인터페이스(10) 상에서 사용자가 좌측 문지름 손동작을 수행하게 되면, 사용자 인터페이스(10)는 도 4A에 나타낸 디폴트 화면으로 복귀된다.
도 2A 및 2B를 조합하여 참조하면, 입력문자의 번역 및 음역을 위한 방법에 관계된 단계들을 나타내는 플로우 차트가 도시된다. 본 발명에 의하여 제공되는 방법은 사용자에 의하여 수행된 손동작에 응답하는 것이다. 본 발명에 따른 방법은 다음의 단계를 포함한다.
사용자 인터페이스를 통하여, 이메일 메시지, SMS 메시지 및 웹페이지 발췌물로 구성되는 군으로부터 선택된 포맷으로 된, 사용자로부터의 입력문자를 수신하는 단계(200);
인식모듈을 사용하여, 사용자에 의한 입력문자의 키입력 및 사용자에 의한 입력문자의 선택 중의 적어도 하나를 인식하는 단계(202);
인식모듈을 사용하여, 입력문자의 선택 또는 키입력을 인식한 후, 사용자 인터페이스 상에서 사용자에 의하여 수행된 좌측 문지름 손동작 및 우측 문지름 손동작을 더 인식하는 단계(204);
입력문자의 음역을 기동하기 위하여 좌측 문지름 손동작을 전기신호로 변환하고, 입력문자의 번역을 기동하기 위하여 우측 문지름 손동작을 전기신호로 변환하는 단계(206);
인식모듈이 우측 문지름 손동작을 인식하고 입력문자의 번역을 기동하기 위하여 전기신호를 생성하는 경우에 번역모듈을 사용하여 입력문자를 번역하는 단계(208);
인식모듈이 좌측 문지름 손동작을 인식하고 입력문자의 음역을 기동하기 위하여 전기신호를 생성하는 경우에 음역모듈을 사용하여 입력문자를 음역하는 단계(210);
사용자 인터페이스에서 번역된 입력문자 및 음역된 입력문자 중의 적어도 하나를 수신하는 단계(212);
사용자에 의하여 수행된 좌측 문지름 손동작 및 우측 문지름 손동작 중의 적어도 하나에 응답하여, 사용자 인터페이스 상에서, 입력문자와 함께, 번역된 입력문자 및 음역된 입력문자를 선택적으로 표시하는 단계(214) 및,
사용자 인터페이스 상에, 입력문자의 포맷과 동일한 포맷으로 사용자에게 번역된 입력문자 및 음역된 입력문자를 표시하는 단계(216).
본 발명의 다른 실시예는, 컴퓨터로 판독가능한 지령들이 저장된, 컴퓨터로 판독가능한 비일시적 저장매체로서, 상기 컴퓨터로 판독가능한 지령들은, 프로세서에 의하여 실행될 때, 컴퓨터로 실행되는 장치로 하여금:
사용자 인터페이스를 통하여, 이메일 메시지, SMS 메시지 및 웹페이지 발췌물로 구성되는 군으로부터 선택된 포맷으로 된, 사용자로부터의 입력문자를 수신하고;
인식모듈을 사용하여, 사용자에 의한 입력문자의 키입력 및 사용자에 의한 입력문자 중의 적어도 하나의 선택을 인식하고;
인식모듈을 사용하여, 입력문자의 선택 또는 키입력을 인식한 후, 사용자 인터페이스 상에서 사용자에 의하여 수행된 좌측 문지름 손동작 및 우측 문지름 손동작을 인식하고;
인식모듈이 입력문자의 음역을 기동하기 위하여 좌측 문지름 손동작을 전기신호로 변환하고, 입력문자의 번역을 기동하기 위하여 우측 문지름 손동작을 전기신호로 변환하고;
인식모듈이 우측 문지름 손동작을 인식하고 입력문자의 번역을 기동하기 위하여 전기신호를 생성하는 경우에 입력문자를 번역하고;
인식모듈이 좌측 문지름 손동작을 인식하고 입력문자의 음역을 기동하기 위하여 전기신호를 생성하는 경우에 입력문자를 음역하고;
사용자 인터페이스에서 번역된 입력문자 및 음역된 입력문자를 수신하고;
사용자에 의하여 수행된 좌측 문지름 손동작 및 우측 문지름 손동작 중의 적어도 하나에 응답하여, 사용자 인터페이스 상에서, 입력문자와 함께, 번역된 입력문자 및 음역된 입력문자를 선택적으로 표시하며, 또한 입력문자의 포맷과 동일한 포맷으로 사용자에게 번역된 입력문자 및 음역된 입력문자를 표시하도록 구성된다.

Claims (4)

  1. 사용자에 의하여 수행된 손동작 (gesture)에 근거하여, 입력문자를 입력 언어 이외의 다른 언어로 선택적으로 표시하기 위한 컴퓨터 구현 시스템으로서:
    사용자가 접근가능하며, 사용자로부터의 입력문자를 받아들이도록 구성되며, 입력문자는 이메일 메시지, SMS 메시지 및 웹페이지 발췌물로 구성된 군으로부터 선택된 포맷에 포함되는 사용자 인터페이스;
    사용자 인터페이스와 협력하며, 사용자 인터페이스 상에서 사용자에 의한 입력문자의 선택 및 사용자에 의한 입력문자의 키입력 중의 적어도 하나를 인식하고, 또한 입력문자의 선택 또는 키입력의 인식 후에, 사용자에 의하여 수행된 좌측 문지름 손동작 및 우측 문지름 손동작을 인식하도록 구성되고, 또한 상기 좌측 문지름 손동작을 입력문자의 음역을 위한 전기신호로 변환하고, 상기 우측 문지름 손동작을 입력문자의 번역을 위한 전기신호로 변환하도록 구성되는 인식모듈;
    상기 입력문자의 번역을 위하여 상기 전기신호를 수신하도록 상기 인식모듈과 협력하며, 상기 인식모듈이 우측 문지름 손동작을 인식한 경우에, 그 입력문자의 번역을 위한 전기신호를 수신한 후에 그 입력된 문자를 번역하도록 구성되는 번역모듈: 및
    상기 입력문자의 음역을 위하여 상기 전기신호를 수신하도록 상기 인식모듈과 협력하며, 상기 인식모듈이 좌측 문지름 손동작을 인식한 경우에, 그 입력문자의 음역을 위한 전기신호를 수신한 후에 그 입력된 문자를 음역하도록 구성되는 음역모듈;
    을 포함하며,
    상기 사용자 인터페이스는 번역된 입력문자 및 음역된 입력문자를 수신하도록 상기 번역모듈 및 음역모듈과 협력하고, 또한 사용자 인터페이스는 사용자에 의하여 수행된 좌측 문지름 손동작 및 우측 문지름 손동작 중의 적어도 하나에 응답하여 입력문자와 함께 번역된 입력문자 및 음역된 입력문자를 선택적으로 표시하며, 또한 상기 사용자 인터페이스는 번역된 입력문자 및 음역된 입력문자를 그 입력문자의 포맷과 동등한 포맷으로 표시하도록 구성되는 컴퓨터 구현 시스템.
  2. 제 1 항에 있어서,
    상기 인식모듈은, 사용자 인터페이스 상에서의 우측 문지름 손동작을 인식함에 응답하여 번역모듈을 기동하고, 또한 사용자 인터페이스 상에서의 좌측 문지름 손동작을 인식함에 응답하여 음역모듈을 기동하도록 구성되는 컴퓨터 구현 시스템.
  3. 사용자에 의하여 수행된 손동작에 근거하여 입력문자를 그 입력언어 이외의 언어로 선택적으로 표현하기 위한 컴퓨터 구현 방법으로서,
    사용자 인터페이스를 통하여, 이메일 메시지, SMS 메시지 및 웹페이지 발췌물로 구성되는 군으로부터 선택된 포맷으로 된, 사용자로부터의 입력문자를 수신하는 단계;
    인식모듈을 사용하여, 사용자에 의한 입력문자의 키입력 및 사용자에 의한 입력문자의 선택 중의 적어도 하나를 인식하는 단계;
    인식모듈을 사용하여, 입력문자의 선택 또는 키입력을 인식한 후, 사용자 인터페이스 상에서 사용자에 의하여 수행된 좌측 문지름 손동작 및 우측 문지름 손동작을 더 인식하는 단계;
    입력문자의 음역을 기동하기 위하여 상기 좌측 문지름 손동작을 전기신호로 변환하고, 입력문자의 번역을 기동하기 위하여 상기 우측 문지름 손동작을 전기신호로 변환하는 단계;
    인식모듈이 우측 문지름 손동작을 인식하고 입력문자의 번역을 기동하기 위하여 상기 전기신호를 생성하는 경우에 번역모듈을 사용하여 입력문자를 번역하는 단계;
    인식모듈이 좌측 문지름 손동작을 인식하고 입력문자의 음역을 기동하기 위하여 상기 전기신호를 생성하는 경우에 음역모듈을 사용하여 입력문자를 음역하는 단계;
    사용자 인터페이스에서 번역된 입력문자 및 음역된 입력문자 중의 적어도 하나를 수신하는 단계;
    사용자에 의하여 수행된 좌측 문지름 손동작 및 우측 문지름 손동작 중의 적어도 하나에 응답하여, 사용자 인터페이스 상에서, 입력문자와 함께, 번역된 입력문자 및 음역된 입력문자를 선택적으로 표시하는 단계 및,
    사용자 인터페이스 상에, 입력문자의 포맷과 동일한 포맷으로 사용자에게 번역된 입력문자 및 음역된 입력문자를 표시하는 단계를 포함하는,
    컴퓨터 구현 방법.
  4. 컴퓨터로 판독가능한 지령들이 저장된, 컴퓨터로 판독가능한 비일시적 저장매체로서, 상기 컴퓨터로 판독가능한 지령들은, 프로세서에 의하여 실행될 때, 컴퓨터로 실행되는 장치로 하여금:
    사용자 인터페이스를 통하여, 이메일 메시지, SMS 메시지 및 웹페이지 발췌물로 구성되는 군으로부터 선택된 포맷으로 된, 사용자로부터의 입력문자를 수신하고;
    인식모듈을 사용하여, 사용자에 의한 입력문자의 키입력 및 사용자에 의한 입력문자의 선택 중의 적어도 하나를 인식하고;
    인식모듈을 사용하여, 입력문자의 선택 또는 키입력을 인식한 후, 사용자 인터페이스 상에서 사용자에 의하여 수행된 좌측 문지름 손동작 및 우측 문지름 손동작을 인식하고;
    입력문자의 음역을 기동하기 위하여 상기 좌측 문지름 손동작을 전기신호로 변환하고, 입력문자의 번역을 기동하기 위하여 상기 우측 문지름 손동작을 전기신호로 변환하고;
    인식모듈이 우측 문지름 손동작을 인식하고 입력문자의 번역을 기동하기 위하여 상기 전기신호를 생성하는 경우에 입력문자를 번역하고;
    인식모듈이 좌측 문지름 손동작을 인식하고 입력문자의 음역을 기동하기 위하여 상기 전기신호를 생성하는 경우에 입력문자를 음역하고;
    사용자 인터페이스에서 번역된 입력문자 및 음역된 입력문자를 수신하고;
    사용자에 의하여 수행된 좌측 문지름 손동작 및 우측 문지름 손동작 중의 적어도 하나에 응답하여, 사용자 인터페이스 상에서, 입력문자와 함께, 번역된 입력문자 및 음역된 입력문자를 선택적으로 표시하며, 또한 입력문자의 포맷과 동일한 포맷으로 사용자에게 번역된 입력문자 및 음역된 입력문자를 표시하도록 하는,
    컴퓨터로 판독가능한 비일시적 저장매체.
KR1020187022878A 2013-10-04 2014-09-29 손 동작을 기반으로 한 입력문자의 번역 및 음역용 시스템 및 방법 KR101995741B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
IN3161/MUM/2013 2013-10-04
PCT/IN2014/000623 WO2015049697A1 (en) 2013-10-04 2014-09-29 A gesture based system for translation and transliteration of input text and a method thereof
IN3161MU2013 IN2013MU03161A (ko) 2013-10-04 2014-09-29

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020167011036A Division KR20160071400A (ko) 2013-10-04 2014-09-29 손 동작을 기반으로 한 입력문자의 번역 및 음역용 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20180093100A true KR20180093100A (ko) 2018-08-20
KR101995741B1 KR101995741B1 (ko) 2019-07-03

Family

ID=52778327

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187022878A KR101995741B1 (ko) 2013-10-04 2014-09-29 손 동작을 기반으로 한 입력문자의 번역 및 음역용 시스템 및 방법

Country Status (8)

Country Link
EP (1) EP3053061A4 (ko)
KR (1) KR101995741B1 (ko)
IL (1) IL244824B (ko)
IN (1) IN2013MU03161A (ko)
PH (1) PH12016500592A1 (ko)
RU (1) RU2708357C2 (ko)
SG (1) SG11201602622QA (ko)
WO (1) WO2015049697A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11144197B2 (en) 2019-03-25 2021-10-12 Samsung Electronics Co., Ltd. Electronic device performing function according to gesture input and operation method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5432948A (en) * 1993-04-26 1995-07-11 Taligent, Inc. Object-oriented rule-based text input transliteration system
US20080097745A1 (en) * 2006-10-18 2008-04-24 Domenica Bagnato Text analysis, transliteration and translation method and apparatus for hieroglypic, hieratic, and demotic texts from ancient egyptian
KR20130001261A (ko) * 2010-03-12 2013-01-03 뉘앙스 커뮤니케이션즈, 인코포레이티드 이동 전화의 터치 스크린과 함께 사용하기 위한 다중 모드 문자 입력 시스템
US20130151234A1 (en) * 2011-12-12 2013-06-13 Google Inc. Techniques for input of a multi-character compound consonant or vowel and transliteration to another language using a touch computing device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2146066C1 (ru) * 1998-11-30 2000-02-27 Рудковский Александр Валентинович Пособие для изучения иностранного языка а.в.рудковского
US7369986B2 (en) * 2003-08-21 2008-05-06 International Business Machines Corporation Method, apparatus, and program for transliteration of documents in various Indian languages
US7822596B2 (en) * 2005-12-05 2010-10-26 Microsoft Corporation Flexible display translation
US20070255554A1 (en) 2006-04-26 2007-11-01 Lucent Technologies Inc. Language translation service for text message communications
US9262409B2 (en) * 2008-08-06 2016-02-16 Abbyy Infopoisk Llc Translation of a selected text fragment of a screen
CN102246126B (zh) * 2008-12-15 2015-11-25 惠普开发有限公司 基于手势的编辑模式

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5432948A (en) * 1993-04-26 1995-07-11 Taligent, Inc. Object-oriented rule-based text input transliteration system
US20080097745A1 (en) * 2006-10-18 2008-04-24 Domenica Bagnato Text analysis, transliteration and translation method and apparatus for hieroglypic, hieratic, and demotic texts from ancient egyptian
KR20130001261A (ko) * 2010-03-12 2013-01-03 뉘앙스 커뮤니케이션즈, 인코포레이티드 이동 전화의 터치 스크린과 함께 사용하기 위한 다중 모드 문자 입력 시스템
US20130151234A1 (en) * 2011-12-12 2013-06-13 Google Inc. Techniques for input of a multi-character compound consonant or vowel and transliteration to another language using a touch computing device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11144197B2 (en) 2019-03-25 2021-10-12 Samsung Electronics Co., Ltd. Electronic device performing function according to gesture input and operation method thereof

Also Published As

Publication number Publication date
PH12016500592A1 (en) 2016-06-13
WO2015049697A1 (en) 2015-04-09
RU2016115384A3 (ko) 2018-08-15
EP3053061A4 (en) 2017-04-19
RU2016115384A (ru) 2017-11-10
RU2708357C2 (ru) 2019-12-05
IL244824B (en) 2020-09-30
SG11201602622QA (en) 2016-04-28
EP3053061A1 (en) 2016-08-10
KR101995741B1 (ko) 2019-07-03
IL244824A0 (en) 2016-05-31
IN2013MU03161A (ko) 2015-07-03

Similar Documents

Publication Publication Date Title
CN101526879B (zh) 设备上的语言输入接口
CN101206528B (zh) 用多种词汇之一以及解析模态对简化用户输入文本的处理
KR101895503B1 (ko) 시맨틱 줌 애니메이션 기법
WO2015088669A1 (en) Multiple character input with a single selection
KR20140074889A (ko) 시맨틱 줌
KR20140074888A (ko) 시맨틱 줌 제스처
JP5947887B2 (ja) 表示制御装置、制御プログラム、および表示装置の制御方法
EP2909702B1 (en) Contextually-specific automatic separators
US20190034080A1 (en) Automatic translations by a keyboard
US20140123036A1 (en) Touch screen display process
WO2013086675A1 (en) Techniques for input of a multi-character compound consonant or vowel and transliteration to another language using a touch computing device
EP3241105B1 (en) Suggestion selection during continuous gesture input
Shi et al. VIPBoard: Improving screen-reader keyboard for visually impaired people with character-level auto correction
KR102260989B1 (ko) 제스쳐에 의한 톤 및 발음 기호들의 입력
US10394964B2 (en) Gesture based system for translation and transliteration of input text and a method thereof
KR101995741B1 (ko) 손 동작을 기반으로 한 입력문자의 번역 및 음역용 시스템 및 방법
US8711100B2 (en) Sign language keyboard and sign language searching apparatus using the same
KR102206486B1 (ko) 입력 어플리케이션을 이용한 번역 서비스 제공 방법 및 이를 이용하는 단말장치
JP2009116529A (ja) 入力処理装置
WO2022143523A1 (zh) 词汇显示方法、装置和电子设备
JP2012098891A (ja) 情報処理システムおよび情報処理方法
US10671272B2 (en) Touchscreen oriented input integrated with enhanced four-corner indexing
CN105892710B (zh) 基于文本框的汉字输入方法及其装置
US20170091596A1 (en) Electronic apparatus and method
KR20160071400A (ko) 손 동작을 기반으로 한 입력문자의 번역 및 음역용 시스템 및 방법

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant