RU2708357C2 - Gestures-controlled system for translation and transliteration of input text and method of input text translation and transliteration - Google Patents

Gestures-controlled system for translation and transliteration of input text and method of input text translation and transliteration Download PDF

Info

Publication number
RU2708357C2
RU2708357C2 RU2016115384A RU2016115384A RU2708357C2 RU 2708357 C2 RU2708357 C2 RU 2708357C2 RU 2016115384 A RU2016115384 A RU 2016115384A RU 2016115384 A RU2016115384 A RU 2016115384A RU 2708357 C2 RU2708357 C2 RU 2708357C2
Authority
RU
Russia
Prior art keywords
input text
sliding
user
gesture
user interface
Prior art date
Application number
RU2016115384A
Other languages
Russian (ru)
Other versions
RU2016115384A3 (en
RU2016115384A (en
Inventor
Дешмух Ракеш
Бангарамбанди Судхир
Донгре Акаш
Падманабхан Харихаран
Original Assignee
ОСЛабс Пте. Лтд.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ОСЛабс Пте. Лтд. filed Critical ОСЛабс Пте. Лтд.
Publication of RU2016115384A publication Critical patent/RU2016115384A/en
Publication of RU2016115384A3 publication Critical patent/RU2016115384A3/ru
Application granted granted Critical
Publication of RU2708357C2 publication Critical patent/RU2708357C2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/018Input/output arrangements for oriental characters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/15Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Abstract

FIELD: physics.SUBSTANCE: invention relates to user interfaces. Such a result is achieved due to the fact that when the user performs the sliding to the left gesture, the text entered in the first language is transliterated into the language specified by the user, if the user makes the sliding to the right gesture, the input text is translated from the first language into the language specified by the user.EFFECT: technical result consists in translation and transliteration of input text depending on given gestures carried out by user.4 cl, 6 dwg

Description

ССЫЛКА НА РОДСТВЕННУЮ ЗАЯВКУLINK TO RELATED APPLICATION

[0001] По настоящей заявке испрашивается приоритет по дате подачи индийской предварительной патентной заявки №3161/MUM/2013 под названием "СПОСОБ И СИСТЕМА ДЛЯ ЯЗЫКОВОГО ПЕРЕВОДА И ТРАНСЛИТЕРАЦИИ В РЕАЛЬНОМ ВРЕМЕНИ", поданной в индийское патентное ведомство 4 октября 2013 г., содержание которой включено в настоящее описание посредством ссылки.[0001] This application claims priority on the filing date of the Indian provisional patent application No. 3161 / MUM / 2013 entitled "METHOD AND SYSTEM FOR LANGUAGE TRANSLATION AND TRANSLITERATION IN REAL TIME", filed with the Indian Patent Office on October 4, 2013, the contents of which incorporated herein by reference.

ПРЕДПОСЫЛКИ СОЗДАНИЯ ИЗОБРЕТЕНИЯBACKGROUND OF THE INVENTION

Область техникиTechnical field

[0002] Настоящее изобретение относится к области пользовательских интерфейсов. В частности, настоящее изобретение относится к интерфейсам на индийском языке. Более конкретно, настоящее изобретение относится к пользовательским интерфейсам с возможностью перевода и транслитерации.[0002] The present invention relates to the field of user interfaces. In particular, the present invention relates to interfaces in the Indian language. More specifically, the present invention relates to user interfaces with the ability to translate and transliterate.

Описание предшествующего уровня техникиDescription of the Related Art

[0003] В связи с новейшими технологическими достижениями в области коммуникации, количество людей, использующих мобильные телефоны для общения друг с другом, значительно увеличилось. Имеющиеся в настоящее время в продаже мобильные телефоны позволяют пользователям общаться друг с другом устно, а также позволяют обмениваться текстовыми сообщениями.[0003] In connection with the latest technological advances in communication, the number of people using mobile phones to communicate with each other has increased significantly. The currently available mobile phones allow users to communicate with each other verbally and also allow the exchange of text messages.

[0004] Кроме того, некоторые из мобильных телефонов предоставляют пользователям средства машинного перевода. Обычно, в мобильных телефонах средства машинного перевода представлены в виде отдельных инсталлируемых программных приложений. Кроме того, чтобы пользоваться средствами машинного перевода, предоставляемыми по сети Интернет, пользователь на своем мобильном телефоне также устанавливает дополнительные средства доступа к глобальной компьютерной сети.[0004] In addition, some of the mobile phones provide machine translation tools to users. Typically, in mobile phones, machine translation tools are presented as separate installable software applications. In addition, in order to use machine translation tools provided over the Internet, the user also installs additional means of access to the global computer network on his mobile phone.

[0005] Однако, одним из недостатков известных в технике средств машинного перевода и соответствующих приложений является то, что эти приложения не интегрированы в операционную систему мобильного телефона, и, чтобы воспользоваться указанными средствами для перевода вводимого текста, пользователю нужно вручную скопировать вводимый текст и ввести его в приложение для перевода. Вышеуказанный процесс осуществления машинного перевода с помощью известных в технике средств перевода (приложений) делает процесс перевода не только утомительным, но и трудновыполнимым.[0005] However, one of the drawbacks of the machine translation tools and related applications known in the art is that these applications are not integrated into the mobile phone operating system, and in order to use these tools to translate the input text, the user needs to manually copy the input text and enter its into a translation application. The above process of machine translation using the means of translation (applications) known in the art makes the translation process not only tedious, but also difficult to perform.

[0006] Для устранения указанных проблем и упрощения всего процесса перевода/транслитерации вводимого текста, в опубликованной патентной заявке США US 20070255554 предложены система и способ для обеспечения автоматического языкового перевода в сетях связи. Однако, в системе, предложенной в US 20070255554, предусмотрена маршрутизация вызова связи через сервисный центр для автоматического перевода. Использование стороннего сервисного центра для автоматического перевода означает, что, во-первых, подвергается риску секретность/конфиденциальность вводимого текста, так как вводимый текст перенаправляется в сторонний сервисный центр, и, во-вторых, пользователь не имеет возможности сравнивать исходный текст и переведенный текст, так как фактический перевод осуществляется в то время, когда сообщение находится в процессе передачи. Кроме того, известные в технике системы не обеспечивают средства транслитерации с индийского языка на английский язык.[0006] To eliminate these problems and simplify the entire process of translation / transliteration of the entered text, the published US patent application US 20070255554 proposes a system and method for providing automatic language translation in communication networks. However, the system proposed in US 20070255554 provides for routing a call through a service center for automatic transfer. Using a third-party service center for automatic translation means that, firstly, the privacy / confidentiality of the input text is at risk, as the input text is redirected to a third-party service center, and secondly, the user is not able to compare the source text and the translated text, as the actual translation is carried out while the message is in the process of being transmitted. In addition, systems known in the art do not provide a means of transliteration from Indian to English.

ЦЕЛИ ИЗОБРЕТЕНИЯOBJECTS OF THE INVENTION

[0007] Цель настоящего изобретения - обеспечить систему, которая позволяет осуществлять перевод вводимого текста.[0007] An object of the present invention is to provide a system that allows translation of input text.

[0008] Еще одна цель настоящего изобретения - обеспечить систему, которая позволяет осуществлять перевод и транслитерацию вводимого текста в зависимости от заданных жестов, осуществляемых пользователем.[0008] Another objective of the present invention is to provide a system that allows the translation and transliteration of the input text depending on the specified gestures made by the user.

[0009] Другим преимуществом настоящего изобретения является обеспечение перевода и транслитерации вводимого текста с множества индийских языков на английский язык и наоборот.[0009] Another advantage of the present invention is the provision of translation and transliteration of input text from a variety of Indian languages into English and vice versa.

[0010] Еще одно преимущество настоящего изобретения - обеспечение системы, которая позволяет пользователю осуществлять ввод текста на родном (индийском) языке, а затем преобразовывать вводимый текст в текст на английском языке перед отправкой вводимого текста в виде SMS/E-mail.[0010] Another advantage of the present invention is the provision of a system that allows a user to enter text in their native (Indian) language, and then convert the input text to English text before sending the input text as SMS / E-mail.

[0011] Еще одно преимущество настоящего изобретения - обеспечение системы, которая позволяет пользователю получать строку текста на английском языке, а затем преобразовывать полученную строку текста в строку текста на любом из заданных индийских языков.[0011] Another advantage of the present invention is the provision of a system that allows the user to receive a string of text in English, and then convert the resulting string of text into a string of text in any of the specified Indian languages.

СУЩНОСТЬ ИЗОБРЕТЕНИЯSUMMARY OF THE INVENTION

[0012] В настоящем изобретении предложена компьютерно-реализуемая система для избирательного представления вводимого текста на языке, отличном от языка ввода. Система, предложенная в настоящем изобретении, переводит/транслитерирует вводимый текст в зависимости от жестов, осуществляемых пользователем. Система содержит пользовательский интерфейс, настроенный для получения текста, вводимого пользователем.[0012] The present invention provides a computer-implemented system for selectively presenting input text in a language other than the input language. The system proposed in the present invention translates / translites the input text depending on the gestures made by the user. The system contains a user interface configured to receive user input.

[0013] Система содержит также модуль распознавания, взаимодействующий с пользовательским интерфейсом. Модуль распознавания настроен для распознавания жестов, осуществляемых пользователем в пользовательском интерфейсе, и преобразования заданных жестов пользователя в соответствующие электрические сигналы. Электрические сигналы содержат команды для представления вводимого текста на языке, отличном от языка ввода.[0013] The system also includes a recognition module that interacts with the user interface. The recognition module is configured to recognize gestures performed by the user in the user interface and to convert the specified gestures of the user into corresponding electrical signals. Electrical signals contain commands for representing the input text in a language other than the input language.

[0014] Система содержит также модуль перевода, взаимодействующий с модулем распознавания для избирательного получения от него электрических сигналов и настроенный также для перевода вводимого текста после получения электрических сигналов от модуля распознавания.[0014] The system also includes a translation module that interacts with a recognition module to selectively receive electrical signals from it and is also configured to translate input text after receiving electrical signals from the recognition module.

[0015] Система также содержит модуль транслитерации, взаимодействующий с модулем распознавания для избирательного получения от него электрических сигналов и настроенный также для транслитерации вводимого текста после получения электрических сигналов от модуля распознавания.[0015] The system also comprises a transliteration module cooperating with a recognition module to selectively receive electrical signals from it and also configured to transliterate input text after receiving electrical signals from the recognition module.

[0016] Согласно настоящему изобретению, пользовательский интерфейс также взаимодействует с модулем перевода и модулем транслитерации для получения переведенного текста и транслитерированного текста. Кроме того, пользовательский интерфейс настроен также для избирательного отображения по меньшей мере вводимого текста, переведенного текста и транслитерированного текста в зависимости от заданных жестов, осуществляемых пользователем.[0016] According to the present invention, the user interface also interacts with a translation module and a transliteration module to obtain translated text and transliterated text. In addition, the user interface is also configured to selectively display at least input text, translated text and transliterated text depending on the specified gestures made by the user.

[0017] Согласно настоящему изобретению модуль распознавания настроен также для распознавания по меньшей мере жеста "скользящее движение влево" и жеста "скользящее движение вправо", осуществляемых пользователем в пользовательском интерфейсе.[0017] According to the present invention, the recognition module is also configured to recognize at least the gesture "sliding left" and the gesture "sliding right", performed by the user in the user interface.

[0018] Согласно настоящему изобретению, модуль распознавания настроен также на преобразование жеста "скользящее движение влево" в электрические сигналы для транслитерации вводимого текста, предоставляемого пользователем, и на преобразование жеста "скользящее движение вправо" в электрические сигналы для перевода вводимого текста, предоставляемого пользователем.[0018] According to the present invention, the recognition module is also configured to convert the gesture "sliding left" to electrical signals to transliterate the input text provided by the user, and to convert the gesture "sliding motion right" to electrical signals to translate the input text provided by the user.

[0019] В настоящем изобретении предложен также компьютерно-реализуемый способ избирательного представления вводимого текста на языке, отличном от языка ввода, в зависимости от жестов, осуществляемых пользователем. Согласно настоящему изобретению компьютерно-реализуемый способ содержит следующие стадии: получение вводимого текста от пользователя посредством пользовательского интерфейса; распознавание с помощью модуля распознавания заданных жестов, осуществляемых пользователем в пользовательском интерфейсе; преобразование заданных жестов пользователя в соответствующие электрические сигналы, содержащие команды для представления вводимого текста на языке, отличном от языка ввода; избирательную передачу электрических сигналов модулю перевода и модулю транслитерации; перевод вводимого текста после получения электрических сигналов от модуля распознавания; транслитерацию вводимого текста после получения электрических сигналов от модуля распознавания; получение переведенного текста и транслитерированного текста с помощью пользовательского интерфейса и избирательное отображение вводимого текста, переведенного текста и транслитерированного текста в пользовательском интерфейсе на основе заданных жестов, осуществляемых пользователем.[0019] The present invention also provides a computer-implemented method for selectively presenting input text in a language other than the input language, depending on gestures by the user. According to the present invention, a computer-implemented method comprises the following steps: receiving input text from a user through a user interface; recognition with the help of the recognition module for specified gestures performed by the user in the user interface; converting user predefined gestures into corresponding electrical signals containing commands for representing input text in a language other than the input language; selective transmission of electrical signals to the translation module and transliteration module; translation of the input text after receiving electrical signals from the recognition module; transliteration of the input text after receiving electrical signals from the recognition module; receiving translated text and transliterated text using the user interface and selectively displaying input text, translated text and transliterated text in the user interface based on predefined gestures made by the user.

[0020] Согласно настоящему изобретению стадия распознавания заданных жестов, осуществляемых пользователем в пользовательском интерфейсе, включает в себя стадию распознавания по меньшей мере жеста "скользящее движение влево" и жеста "скользящее движение вправо", осуществляемых пользователем в пользовательском интерфейсе.[0020] According to the present invention, the step of recognizing predetermined gestures performed by the user in the user interface includes the step of recognizing at least the “sliding left motion” gesture and the “sliding right motion” gesture performed by the user in the user interface.

[0021] Согласно настоящему изобретению стадия распознавания по меньшей мере жеста "скользящее движение влево" и жеста "скользящее движение вправо" включает в себя стадию преобразования жеста "скользящее движение влево" в электрические сигналы для транслитерации вводимого текста, предоставляемого пользователем, и преобразования жеста "скользящее движение вправо" в электрические сигналы для перевода вводимого текста, предоставляемого пользователем.[0021] According to the present invention, the step of recognizing at least the gesture “sliding left” and the gesture “sliding right” includes the step of converting the gesture “moving left” into electrical signals to transliterate the input text provided by the user, and convert the gesture sliding motion to the right "into electrical signals to translate the input text provided by the user.

[0022] Энергонезависимый машиночитаемый носитель, на котором хранятся машиночитаемые команды, выполнение которых процессором приводит к тому, что совместимое с компьютером устройство: получает вводимый текст от пользователя посредством пользовательского интерфейса; распознает с помощью модуля распознавания заданные жесты, осуществляемые пользователем в пользовательском интерфейсе; преобразует заданные жесты пользователя в соответствующие электрические сигналы, при этом электрические сигналы содержат команды для представления вводимого текста на языке, отличном от языка ввода; избирательно передает электрические сигналы модулю перевода и модулю транслитерации; переводит вводимый текст после получения электрических сигналов от модуля распознавания; транслитерирует вводимый текст после получения электрических сигналов от модуля распознавания; получает переведенный текст и транслитерированный текст посредством пользовательского интерфейса; и избирательно отображает вводимый текст, переведенный текст и транслитерированный текст в пользовательском интерфейсе в зависимости от заданных жестов, осуществляемых пользователем.[0022] A non-volatile machine-readable medium on which machine-readable instructions are stored, the execution of which by the processor results in a computer-compatible device: receiving input from a user through a user interface; recognizes with the help of the recognition module the set gestures performed by the user in the user interface; converts the specified gestures of the user into the corresponding electrical signals, while the electrical signals contain commands for representing the input text in a language other than the input language; selectively transmits electrical signals to the translation module and the transliteration module; translates the input text after receiving electrical signals from the recognition module; transliterates the input text after receiving electrical signals from the recognition module; receives translated text and transliterated text through the user interface; and selectively displays the input text, translated text and transliterated text in the user interface depending on the specified gestures made by the user.

[0023] Согласно настоящему изобретению, машиночитаемые команды также позволяют совместимому с компьютером устройству распознавать по меньшей мере жест "скользящее движение влево" и жест "скользящее движение вправо", осуществляемые пользователем в пользовательском интерфейсе.[0023] According to the present invention, machine-readable instructions also allow a computer-compatible device to recognize at least a "sliding left gesture" and a "sliding right gesture" made by a user in a user interface.

[0024] Согласно настоящему изобретению, машиночитаемые команды также позволяют совместимому с компьютером устройству преобразовывать жест "скользящее движение влево" в электрические сигналы для транслитерации вводимого текста, предоставляемого пользователем, и преобразовывать жест "скользящее движение вправо" в электрические сигналы для перевода вводимого текста, предоставляемого пользователем.[0024] According to the present invention, machine-readable instructions also allow a computer-compatible device to convert the “sliding left gesture” to electrical signals to transliterate the text provided by the user, and to convert the sliding right gesture to electrical signals to translate the text provided by user.

ПЕРЕЧЕНЬ ЧЕРТЕЖЕЙLIST OF DRAWINGS

[0025] Настоящее изобретение будет лучше понятно из последующего подробного описания изобретения со ссылкой на прилагаемые чертежи, в которых:[0025] The present invention will be better understood from the following detailed description of the invention with reference to the accompanying drawings, in which:

[0026] фиг. 1 - иллюстрирует структурную схему компьютерно-реализуемой системы, соответствующей системе для перевода и транслитерации вводимого текста;[0026] FIG. 1 illustrates a block diagram of a computer-implemented system corresponding to a system for translating and transliterating input text;

[0027] фиг. 2 - блок-схему, на которой показаны стадии компьютерно-реализуемого способа перевода и транслитерации вводимого текста;[0027] FIG. 2 is a flowchart showing the stages of a computer-implemented method for translating and transliterating input text;

[0028] фиг. 3А и 3В - иллюстрируют пример пользовательского интерфейса для транслитерации вводимого текста; и[0028] FIG. 3A and 3B illustrate an example user interface for transliterating input text; and

[0029] фиг. 4А и 4В - иллюстрируют пример пользовательского интерфейса для перевода вводимого текста.[0029] FIG. 4A and 4B illustrate an example user interface for translating input text.

ПОДРОБНОЕ ОПИСАНИЕ ИЗОБРЕТЕНИЯDETAILED DESCRIPTION OF THE INVENTION

[0030] В настоящем изобретении предложена компьютерно-реализуемая, основанная на жестах система для избирательного перевода и транслитерации вводимого текста. Перевод и транслитерация являются избирательными в том смысле, что переведенный/транслитерированный вводимый текст показывается пользователю только в результате осуществления пользователем заданных жестов. Система, предложенная в настоящем изобретении, позволяет переводить и транслитерировать вводимый текст с английского языка на множество индийских языков и наоборот. Система, предложенная в настоящем изобретении, позволяет пользователю осуществлять ввод текста на родном (индийском) языке, а затем преобразовывать вводимый текст в текст на английском языке перед его отправкой в виде SMS/E-mail. Кроме того, система также позволяет пользователю получать строку текста на английском языке, а затем преобразовывать полученную строку текста в строку текста на любом из заданных индийских языков.[0030] The present invention provides a computer-based, gesture-based system for selectively translating and transliterating input text. Translation and transliteration are selective in the sense that the translated / transliterated input text is shown to the user only as a result of the user performing the specified gestures. The system proposed in the present invention allows you to translate and transliterate the input text from English into many Indian languages and vice versa. The system proposed in the present invention allows the user to enter text in their native (Indian) language, and then convert the input text to English text before sending it as SMS / E-mail. In addition, the system also allows the user to receive a string of text in English, and then convert the resulting string of text to a string of text in any of the specified Indian languages.

[0031] Со ссылкой на приложенные чертежи, на фиг. 1 показана компьютерно-реализуемая, основанная на жестах система 100 для перевода и транслитерации вводимого текста. Система 100 по настоящему изобретению содержит пользовательский интерфейс 10. Пользовательский интерфейс 10 настроен, помимо прочего, для получения текста в виде текста, вводимого пользователем. Ввод текста пользователем может осуществляться либо на английском языке, либо на любом из заданных индийских языков, в том числе на бенгальском, гуджаратском, ассамском, ория, каннада, тамильском, тулугу и малаялам. Кроме того, пользовательский интерфейс 10 также настроен для отображения текста, полученного в виде e-mails/SMS/веб-страниц и т.п.[0031] With reference to the attached drawings, in FIG. 1 shows a computer-based, gesture-based system 100 for translating and transliterating input text. The system 100 of the present invention comprises a user interface 10. The user interface 10 is configured, inter alia, to receive text in the form of text entered by the user. User input can be either in English or in any of the specified Indian languages, including Bengali, Gujarati, Assamese, Oriya, Kannada, Tamil, Tulugu and Malayalam. In addition, the user interface 10 is also configured to display text received in the form of e-mails / SMS / web pages, etc.

[0032] Пользовательский интерфейс 10 по настоящему изобретению настроен также, чтобы позволить пользователю взаимодействовать с пользовательским интерфейсом 10 посредством заданного набора жестов. В предпочтительном варианте пользовательский интерфейс 10, размещенный на сенсорном экране дисплея, позволяет пользователю взаимодействовать посредством осуществления некоторых жестов, в том числе жеста "скользящее движение влево", жеста "скользящее движение вправо", жеста "нажатие", жеста "нажатие и удерживание", кругового жеста, полукруглого жеста и жеста "двойное нажатие". Кроме того, пользовательский интерфейс 10 настроен также, чтобы позволить пользователю вводить текст посредством избирательного нажатия на отображаемые в нем буквенные клавиши, алфавитно-цифровые клавиши и цифровые клавиши.[0032] The user interface 10 of the present invention is also configured to allow the user to interact with the user interface 10 through a predetermined set of gestures. In a preferred embodiment, the user interface 10, located on the touch screen of the display, allows the user to interact through the implementation of certain gestures, including the gesture “sliding left”, the gesture “sliding right”, the gesture “pressing”, the gesture “pressing and holding”, a circular gesture, a semicircular gesture, and a double-tap gesture. In addition, the user interface 10 is also configured to allow the user to enter text by selectively pressing the displayed alphabetical keys, alphanumeric keys and numeric keys.

[0033] Система 100 по настоящему изобретению содержит также модуль распознавания 12, взаимодействующий с пользовательским интерфейсом 10. Модуль распознавания 12 по настоящему изобретению настроен для распознавания и интерпретации жестов, осуществляемых пользователем в пользовательском интерфейсе 10. Модуль распознавания 12 настроен для распознавания точки касания пальца пользователя в пользовательском интерфейсе 10 (с помощью хорошо известных технологий, включая резистивную технологию, емкостную технологию и технологию поверхностно-акустических волн) и соответственно для интерпретации "касания" пользователя в качестве выбора соответствующих букв/цифр/функций, отображаемых в виде выбираемых клавиш.[0033] The system 100 of the present invention also includes a recognition module 12 that interacts with the user interface 10. The recognition module 12 of the present invention is configured to recognize and interpret gestures performed by the user in the user interface 10. The recognition module 12 is configured to recognize a user's finger touch point in user interface 10 (using well-known technologies, including resistive technology, capacitive technology, and surface acoustic technology iCal waves) and, accordingly, to interpret the "touch" the user as the selection of appropriate letters / characters / functions are displayed as selectable keys.

[0034] Кроме того, символы/цифры, соответствующие клавиши которых касаются/выбираются пользователем, модуль распознавания 12 распознает как вводимый текст. В контексте настоящего изобретения термин "вводимый текст" рассматривается как строка символов. Кроме того, "вводимый текст" может истолковываться как содержащий сочетание букв и цифр. Кроме того, "вводимый текст" также может истолковываться как сочетание букв, цифр и специальных символов. Однако, в предпочтительном варианте настоящего изобретения, в целях пояснения, вводимый текст рассматривается как строка букв.[0034] In addition, characters / numbers whose corresponding keys are touched / selected by the user, the recognition module 12 recognizes as the input text. In the context of the present invention, the term “input text” is understood as a string of characters. In addition, “input text” may be construed as containing a combination of letters and numbers. In addition, “input text” can also be interpreted as a combination of letters, numbers and special characters. However, in a preferred embodiment of the present invention, for purposes of explanation, the input text is treated as a string of letters.

[0035] Согласно настоящему изобретению модуль распознавания 12 настроен также для интерпретации заданных жестов пользователя в качестве жестов, являющихся признаком запроса на перевод и транслитерацию вводимого текста.[0035] According to the present invention, the recognition module 12 is also configured to interpret the user's specified gestures as gestures that are a sign of a request for translation and transliteration of the input text.

[0036] Согласно предпочтительному варианту настоящего изобретения жест "скользящее движение влево", осуществляемый пользователем в пользовательском интерфейсе 10, интерпретируется модулем распознавания 12 как запрос на транслитерацию вводимого текста. Согласно предпочтительному варианту настоящего изобретения жест "скользящее движение вправо", осуществляемый пользователем в пользовательском интерфейсе 10, интерпретируется модулем распознавания 12 как запрос на перевод вводимого текста. Согласно предпочтительному варианту настоящего изобретения интерпретации, осуществляемые модулем распознавания 12 в ответ на жесты "скользящее движение влево" и "скользящее движение вправо", жестко запрограммированы в модуле распознавания 12. Однако, в рамках настоящего изобретения жесты "скользящее движение влево" и "скользящее движение вправо" можно заменить другими подходящими жестами и жестко запрограммировать замененные жесты, соответствующие запросам на перевод и транслитерацию.[0036] According to a preferred embodiment of the present invention, the “sliding left” gesture by the user in the user interface 10 is interpreted by the recognition module 12 as a request for transliteration of the input text. According to a preferred embodiment of the present invention, the gesture “sliding to the right” made by the user in the user interface 10 is interpreted by the recognition module 12 as a request to translate the input text. According to a preferred embodiment of the present invention, the interpretations made by the recognition module 12 in response to the gestures "sliding left" and "sliding right" are hardcoded in the recognition module 12. However, within the framework of the present invention, gestures "sliding left and sliding motion" right "can be replaced with other appropriate gestures and hard-coded replaced gestures that correspond to requests for translation and transliteration.

[0037] Согласно предпочтительному варианту настоящего изобретения модуль распознавания 12 взаимодействует с пользовательским интерфейсом, чтобы соответственно идентифицировать жест "скользящее движение влево" и жест "скользящее движение вправо". Если после набора вводимого текста с помощью клавиатуры пользователь осуществляет скользящее движение влево в пользовательском интерфейсе 10, то модуль распознавания 12 запускает модуль транслитерации 16 и затем дает команду модулю транслитерации 16 транслитерировать вводимый текст на язык, выбранный пользователем. Если после набора вводимого текста пользователь осуществляет скользящее движение вправо, то модуль распознавания 12 запускает модуль перевода 14 и затем дает команду модулю перевода 14 перевести вводимый текст на язык, выбранный пользователем. Несмотря на то, что функциональные возможности модуля перевода 14 и модуля транслитерации 16 показаны применительно к тексту, вводимому пользователем, модуль перевода 14 и модуль транслитерации 16 настроены также для перевода и транслитерации любого текста соответственно, например, текста, полученного в виде SMS/e-mail/веб-страниц и т.п., с родного языка на язык, заданный пользователем.[0037] According to a preferred embodiment of the present invention, the recognition module 12 interacts with the user interface to respectively identify the gesture "sliding left" and the gesture "sliding left." If, after typing the input text using the keyboard, the user makes a leftward sliding movement in the user interface 10, then the recognition module 12 starts the transliteration module 16 and then instructs the transliteration module 16 to transliterate the input text into the language selected by the user. If, after typing the input text, the user makes a sliding movement to the right, then the recognition module 12 starts the translation module 14 and then instructs the translation module 14 to translate the input text into the language selected by the user. Despite the fact that the functionality of the translation module 14 and the transliteration module 16 are shown in relation to the text entered by the user, the translation module 14 and the transliteration module 16 are also configured to translate and transliterate any text, respectively, for example, text received in the form of SMS / e- mail / web pages, etc., from the native language to the language specified by the user.

[0038] На фиг. 3А показан пример пользовательского интерфейса 10, используя который пользователь ввел с помощью клавиатуры предложение "how are you" на английском языке. Если после набора вводимого текста с помощью клавиатуры пользователь осуществляет жест "скользящее движение влево", то запускается модуль транслитерации 16, и английский текст "how are you" транслитерируется на любой выбранный пользователем индийский язык, как показано на фиг. 3В.[0038] FIG. 3A shows an example user interface 10, using which a user entered the English sentence "how are you" using the keyboard. If, after typing the input text using the keyboard, the user makes a “sliding move to the left” gesture, then the transliteration module 16 starts, and the English text “how are you” is transliterated into any Indian language chosen by the user, as shown in FIG. 3B.

[0039] На фиг. 4А показан другой пример пользовательского интерфейса 10, используя который пользователь ввел с помощью клавиатуры предложение "how are you" на английском языке. Если после набора вводимого текста посредством клавиатуры пользователь осуществляет жест "скользящее движение вправо", то запускается модуль перевода 14, и английский текст "how are you" переводится на любой выбранный пользователем индийский язык, как показано на фиг. 4В.[0039] FIG. 4A shows another example of user interface 10, using which a user entered the sentence "how are you" in English using the keyboard. If, after typing the text to be entered using the keyboard, the user makes a "sliding move to the right" gesture, then the translation module 14 starts, and the English text "how are you" is translated into any Indian language selected by the user, as shown in FIG. 4B.

[0040] Согласно настоящему изобретению пользовательский интерфейс 10 настроен, чтобы позволить пользователю сначала выбрать язык для набора вводимого текста с помощью клавиатуры. Язык, выбираемый пользователем, может включать, в том числе, английский язык, хинди, бенгальский язык, гуджарати, ассамский язык, ория, урду, тамильский язык, телугу, малаялам и каннада. Кроме того, вышеуказанный неполный перечень языков может также использоваться для выбора языка, на который должен переводиться и/или транслитерироваться вводимый текст. Кроме того, модуль распознавания 12 настроен для запуска модуля перевода 14 и модуля транслитерации 16 посредством передачи электрических сигналов с содержащимися в них командами активации модуля перевода 14 и модуля транслитерации 16.[0040] According to the present invention, the user interface 10 is configured to allow a user to first select a language for typing input using a keyboard. A user selectable language may include, but are not limited to, English, Hindi, Bengali, Gujarati, Assamese, Oriya, Urdu, Tamil, Telugu, Malayalam, and Kannada. In addition, the above non-exhaustive list of languages can also be used to select the language into which the input text is to be translated and / or transliterated. In addition, the recognition module 12 is configured to run the translation module 14 and the transliteration module 16 by transmitting electrical signals with the activation commands of the translation module 14 and the transliteration module 16 contained therein.

[0041] Кроме того, согласно настоящему изобретению экран по умолчанию в пользовательском интерфейсе 10 является экраном, используемым для набора вводимого текста с помощью клавиатуры (как показано на фиг. 3А), и если после набора вводимого текста с помощью клавиатуры пользователь осуществит жест "скользящее движение влево", то пользовательский интерфейс 10 изменится и примет вид, показанный на фиг. 3В, а если пользователь осуществит жест "скользящее движение вправо" в пользовательском интерфейсе 10, показанном в качестве примера на фиг. 3В, то пользовательский интерфейс 10 будет возвращен к экрану по умолчанию, показанному на фиг. 3А.[0041] Furthermore, according to the present invention, the default screen in the user interface 10 is a screen used for typing input text using a keyboard (as shown in FIG. 3A), and if after typing input text using a keyboard, the user makes a “sliding” gesture move left ", then the user interface 10 will change and take the form shown in FIG. 3B, and if the user makes a gesture “sliding to the right” in the user interface 10, shown as an example in FIG. 3B, the user interface 10 will be returned to the default screen shown in FIG. 3A.

[0042] Кроме того, согласно настоящему изобретению экран по умолчанию в пользовательском интерфейсе 10 является экраном, используемым для набора вводимого текста с помощью клавиатуры (как показано на фиг. 4А), и если после набора вводимого текста с помощью клавиатуры пользователь осуществит жест "скользящее движение вправо", то пользовательский интерфейс 10 изменится и примет вид, показанный на фиг. 4В, а если пользователь осуществит жест "скользящее движение влево" в пользовательском интерфейсе 10, показанном в качестве примера на фиг. 4В, то пользовательский интерфейс 10 будет возвращен к экрану по умолчанию, показанному на фиг. 4А.[0042] Furthermore, according to the present invention, the default screen in the user interface 10 is a screen used for typing input text using a keyboard (as shown in FIG. 4A), and if after typing input text using a keyboard, the user makes a “sliding” gesture move to the right, "then the user interface 10 will change and take the form shown in FIG. 4B, and if the user makes a gesture “sliding left” in the user interface 10, shown as an example in FIG. 4B, the user interface 10 will be returned to the default screen shown in FIG. 4A.

[0043] На фиг. 2 показана блок-схема, иллюстрирующая стадии способа перевода и транслитерации вводимого текста. Способ по настоящему изобретению выполняется в зависимости от жестов, осуществляемых пользователем. Способ по настоящему изобретению содержит следующие стадии:[0043] FIG. 2 is a flowchart illustrating the steps of a method for translating and transliterating input text. The method of the present invention is performed depending on gestures performed by the user. The method of the present invention comprises the following steps:

получение от пользователя вводимого текста посредством пользовательского интерфейса (200);receiving input from a user through a user interface (200);

распознавание с помощью модуля распознавания заданных жестов, осуществляемых пользователем в пользовательском интерфейсе (202);recognition using the module recognition of specified gestures performed by the user in the user interface (202);

преобразование указанных заданных жестов пользователя в соответствующие электрические сигналы, содержащие команды для представления вводимого текста на языке, отличном от языка ввода (204);converting said predetermined user gestures into corresponding electrical signals containing commands for presenting input text in a language other than the input language (204);

избирательную передачу указанных электрических сигналов модулю перевода и модулю транслитерации (206);selectively transmitting said electrical signals to the translation module and the transliteration module (206);

перевод вводимого текста после получения указанных электрических сигналов от модуля распознавания (208);translation of the input text after receiving the indicated electrical signals from the recognition module (208);

транслитерацию вводимого текста после получения указанных электрических сигналов от модуля распознавания (210); иtransliteration of the input text after receiving the indicated electrical signals from the recognition module (210); and

получение переведенного текста и транслитерированного текста с помощью пользовательского интерфейса и избирательное отображение вводимого текста, переведенного текста и транслитерированного текста в пользовательском интерфейсе на основе заданных жестов, осуществляемых пользователем (212).receiving translated text and transliterated text using the user interface and selectively displaying input text, translated text and transliterated text in the user interface based on predefined gestures made by the user (212).

[0044] Согласно настоящему изобретению стадия распознавания заданных жестов, осуществляемых пользователем в пользовательском интерфейсе, дополнительно содержит стадию распознавания по меньшей мере жеста "скользящее движение влево" и жеста "скользящее движение вправо", осуществляемых пользователем в пользовательском интерфейсе.[0044] According to the present invention, the step of recognizing predetermined gestures performed by the user in the user interface further comprises the step of recognizing at least the gesture “sliding left” and the gesture “sliding right” performed by the user in the user interface.

[0045] Согласно настоящему изобретению стадия распознавания по меньшей мере жеста "скользящее движение влево" и жеста "скользящее движение вправо" дополнительно содержит стадию преобразования жеста "скользящее движение влево" в электрические сигналы для транслитерации вводимого пользователем текста и преобразования жеста "скользящее движение вправо" в электрические сигналы для перевода вводимого пользователем текста.[0045] According to the present invention, the step of recognizing at least a “sliding left motion” gesture and a “sliding right motion” gesture further comprises the step of converting the “sliding left motion” gesture into electrical signals to transliterate user input text and converting the “sliding right motion” gesture into electrical signals to translate user-entered text.

[0046] Другой вариант настоящего изобретения раскрывает энергонезависимый машиночитаемый носитель, на котором хранятся машиночитаемые команды, выполнение которых процессором приводит к тому, что совместимое с компьютером устройство: получает вводимый текст от пользователя посредством пользовательского интерфейса; распознает с помощью модуля распознавания заданные жесты, осуществляемые пользователем в пользовательском интерфейсе; преобразует указанные заданные жесты пользователя в соответствующие электрические сигналы, при этом указанные электрические сигналы содержат команды для представления вводимого текста на языке, отличном от языка ввода; избирательно передает указанные электрические сигналы модулю перевода и модулю транслитерации; переводит вводимый текст после получения электрических сигналов от модуля распознавания; транслитерирует вводимый текст после получения электрических сигналов от модуля распознавания; и получает переведенный текст и транслитерированный текст посредством пользовательского интерфейса; и избирательно отображает вводимый текст, переведенный текст и транслитерированный текст в пользовательском интерфейсе в зависимости от заданных жестов, осуществляемых пользователем.[0046] Another embodiment of the present invention discloses a non-volatile machine-readable medium on which computer-readable instructions are stored, the execution of which by a processor results in a computer-compatible device: receiving input text from a user through a user interface; recognizes with the help of the recognition module the set gestures performed by the user in the user interface; converts said predetermined user gestures into corresponding electrical signals, wherein said electrical signals comprise instructions for presenting input text in a language other than the input language; selectively transmits said electrical signals to the translation module and the transliteration module; translates the input text after receiving electrical signals from the recognition module; transliterates the input text after receiving electrical signals from the recognition module; and receives the translated text and transliterated text through the user interface; and selectively displays the input text, the translated text and the transliterated text in the user interface depending on the specified gestures made by the user.

[0047] Согласно настоящему изобретению машиночитаемые команды настроены также, чтобы позволить совместимому с компьютером устройству распознавать по меньшей мере жест "скользящее движение влево" и жест "скользящее движение вправо", осуществляемые пользователем в пользовательском интерфейсе.[0047] According to the present invention, machine-readable instructions are also configured to allow a computer-compatible device to recognize at least the "sliding left gesture" and the "sliding right gesture" made by the user in the user interface.

[0048] Согласно настоящему изобретению машиночитаемые команды настроены также, чтобы позволить совместимому с компьютером устройству преобразовывать жест "скользящее движение влево" в электрические сигналы для транслитерации вводимого текста, предоставляемого пользователем, и преобразовывать жест "скользящее движение вправо" в электрические сигналы для перевода вводимого текста, предоставляемого пользователем.[0048] According to the present invention, machine-readable commands are also configured to allow a computer-compatible device to convert the "sliding left gesture" to electrical signals to transliterate the text provided by the user, and to convert the "sliding right movement" gesture to electrical signals to translate the input text provided by the user.

ТЕХНИЧЕСКИЕ ПРЕИМУЩЕСТВАTECHNICAL ADVANTAGES

[0049] Технические преимущества настоящего изобретения включают в себя реализацию системы, которая делает возможным перевод вводимого текста. Система, предложенная в настоящем изобретении, также обеспечивает квалифицированную и эффективную транслитерацию вводимого текста. Кроме того, система, предложенная в настоящем изобретении, позволяет переводить и транслитерировать вводимый текст в зависимости от заданных жестов, осуществляемых пользователем. Система обеспечивает перевод и транслитерацию вводимого текста с множества индийских языков на английский язык и наоборот. Система, предложенная в настоящем изобретении, позволяет пользователю представлять вводимый текст на родном (индийском) языке, а затем преобразовывать вводимый текст в текст на английском языке перед отправкой вводимого текста в виде SMS/E-mail. Кроме того, система позволяет также пользователю получать строку текста на английском языке, а затем преобразовывать полученную строку текста в строку текста на любом из заданных индийских языков.[0049] Technical advantages of the present invention include an implementation of a system that enables translation of input text. The system proposed in the present invention also provides qualified and efficient transliteration of the input text. In addition, the system proposed in the present invention allows you to translate and transliterate the input text depending on the specified gestures made by the user. The system provides translation and transliteration of input text from many Indian languages into English and vice versa. The system proposed in the present invention allows the user to present input text in their native (Indian) language, and then convert the input text to English text before sending the input text as SMS / E-mail. In addition, the system also allows the user to receive a string of text in English, and then convert the resulting string of text into a string of text in any of the specified Indian languages.

Claims (20)

1. Компьютерно-реализуемая система для избирательного представления вводимого текста на языке, отличном от языка ввода, в ответ на заданные жесты, осуществляемые пользователем, содержащая пользовательский интерфейс, доступный для пользователя и настроенный для получения вводимого текста от пользователя, отличающаяся тем, что она также содержит:1. A computer-implemented system for selectively presenting input text in a language other than the input language, in response to predetermined gestures made by the user, comprising a user interface accessible to the user and configured to receive input text from the user, characterized in that it also contains: модуль распознавания, взаимодействующий с пользовательским интерфейсом и настроенный на распознавание жестов "скользящее движение влево" и "скользящее движение вправо", осуществляемых пользователем в пользовательском интерфейсе, а также на преобразование жеста "скользящее движение влево" в электрический сигнал для транслитерации вводимого текста и на преобразование жеста "скользящее движение вправо" в электрический сигнал для перевода вводимого текста;recognition module that interacts with the user interface and is configured to recognize gestures "sliding left" and "sliding right", performed by the user in the user interface, as well as to convert the gesture "sliding left" to an electrical signal to transliterate the text entered and to convert gesture "sliding to the right" into an electrical signal to translate the input text; модуль перевода, взаимодействующий с модулем распознавания для получения указанного электрического сигнала для перевода вводимого текста, если модуль распознавания распознает жест "скользящее движение вправо", и настроенный для перевода вводимого текста после получения указанного электрического сигнала для перевода вводимого текста; иa translation module interacting with a recognition module to obtain a specified electrical signal for translating input text if the recognition module recognizes a gesture "sliding to the right" and configured to translate the input text after receiving the specified electrical signal to translate the input text; and модуль транслитерации, взаимодействующий с модулем распознавания для получения указанного электрического сигнала для транслитерации вводимого текста, если модуль распознавания распознает жест "скользящее движение влево", и настроенный для транслитерации вводимого текста после получения указанного электрического сигнала для транслитерации вводимого текста; причемa transliteration module interacting with a recognition module to obtain a specified electrical signal for transliterating the input text, if the recognition module recognizes a gesture "sliding left", and configured to transliterate the input text after receiving the specified electrical signal for transliteration of the input text; moreover указанный пользовательский интерфейс, взаимодействующий также с указанными модулем перевода и модулем транслитерации для получения переведенного вводимого текста и транслитерированного вводимого текста, настроен также для выборочного отображения переведенного вводимого текста и транслитерированного вводимого текста, а также вводимого текста в ответ по меньшей мере на один из жестов "скользящее движение влево" и "скользящее движение вправо", осуществляемых пользователем.the specified user interface, which also interacts with the specified translation module and transliteration module to receive translated input text and transliterated input text, is also configured to selectively display the translated input text and transliterated input text, as well as the input text in response to at least one of the gestures " sliding motion to the left "and" sliding motion to the right "by the user. 2. Система по п. 1, отличающаяся тем, что указанный модуль распознавания настроен также на запуск модуля перевода в ответ на распознавание жеста "скользящее движение вправо" в пользовательском интерфейсе и на запуск модуля транслитерации в ответ на распознавание жеста "скользящее движение влево" в пользовательском интерфейсе.2. The system according to claim 1, characterized in that said recognition module is also configured to start the translation module in response to the recognition of the gesture "sliding to the right" in the user interface and to start the transliteration module in response to recognition of the gesture "sliding to the left" in user interface 3. Компьютерно-реализуемый способ избирательного представления вводимого текста на языке, отличном от языка ввода, в ответ на заданные жесты, осуществляемые пользователем, содержащий следующие стадии:3. A computer-implemented method for selectively presenting input text in a language other than the input language, in response to predetermined gestures by the user, comprising the following steps: получение вводимого текста от пользователя посредством пользовательского интерфейсаreceiving input from a user interface и распознавание с помощью модуля распознавания жестов "скользящее движение влево" и "скользящее движение вправо", осуществляемых пользователем в пользовательском интерфейсе, отличающийся тем, что включает следующие стадии:and recognition using the gesture recognition module "sliding left" and "sliding right", performed by the user in the user interface, characterized in that it includes the following stages: преобразование указанного жеста "скользящее движение влево" в электрический сигнал для запуска транслитерации вводимого текста и преобразование указанного жеста "скользящее движение вправо" в электрический сигнал для запуска перевода вводимого текста;converting the specified gesture "sliding to the left" into an electrical signal to start transliteration of the input text and converting the specified gesture "sliding to the right" to an electrical signal to start the translation of the input text; перевод вводимого текста с помощью модуля перевода, если модуль распознавания распознает жест "скользящее движение вправо" и генерирует указанный электрический сигнал для запуска перевода вводимого текста;the translation of the input text using the translation module, if the recognition module recognizes the gesture "sliding to the right" and generates the specified electrical signal to start the translation of the input text; транслитерацию вводимого текста с помощью модуля транслитерации, если модуль распознавания распознает жест "скользящее движение влево" и генерирует указанный электрический сигнал для запуска транслитерации вводимого текста;transliteration of the input text using the transliteration module, if the recognition module recognizes the gesture "sliding left" and generates a specified electrical signal to start transliteration of the input text; получение по меньшей мере одного из переведенного вводимого текста и транслитерированного вводимого текста в пользовательском интерфейсе и отображение переведенного вводимого текста, транслитерированного вводимого текста, а также вводимого текста в пользовательском интерфейсе в ответ по меньшей мере на один из жестов "скользящее движение влево" и "скользящее движение вправо", осуществляемых пользователем.receiving at least one of the translated input text and transliterated input text in the user interface and displaying the translated input text, transliterated input text, as well as the entered text in the user interface in response to at least one of the gestures "sliding left" and "sliding move to the right "by the user. 4. Энергонезависимый машиночитаемый носитель, на котором хранятся машиночитаемые команды, выполнение которых процессором приводит к тому, что совместимое с компьютером устройство:4. Non-volatile machine-readable medium on which computer-readable instructions are stored, the execution of which by the processor leads to the fact that a computer-compatible device: получает вводимый текст от пользователя посредством пользовательского интерфейса иreceives input from the user through the user interface and распознает с помощью модуля распознавания жесты "скользящее движение влево" и "скользящее движение вправо", осуществляемые пользователем в пользовательском интерфейсе;recognizes using the recognition module gestures "sliding left" and "sliding right" made by the user in the user interface; преобразует жест "скользящее движение влево" в электрический сигнал для запуска транслитерации вводимого текста и преобразует жест "скользящее движение вправо" в электрический сигнал для запуска перевода вводимого текста;converts the gesture "sliding to the left" into an electrical signal to trigger transliteration of the input text and converts the gesture "sliding to the right" into an electrical signal to trigger translation of the input text; переводит вводимый текст, если модуль распознавания распознает жест "скользящее движение вправо" и генерирует указанный электрический сигнал для запуска перевода вводимого текста;translates the input text, if the recognition module recognizes the gesture "sliding movement to the right" and generates the specified electrical signal to start the translation of the input text; транслитерирует вводимый текст, если модуль распознавания распознает жест "скользящее движение влево" и генерирует указанный электрический сигнал для запуска транслитерации вводимого текста; иtransliterates the input text if the recognition module recognizes the gesture "sliding to the left" and generates the specified electrical signal to start transliteration of the input text; and получает переведенный вводимый текст и транслитерированный вводимый текст в пользовательском интерфейсе в ответ по меньшей мере на один из жестов "скользящее движение влево" и "скользящее движение вправо", осуществляемых пользователем.receives translated input text and transliterated input text in the user interface in response to at least one of the gestures "sliding left" and "sliding right" made by the user.
RU2016115384A 2013-10-04 2014-09-29 Gestures-controlled system for translation and transliteration of input text and method of input text translation and transliteration RU2708357C2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
IN3161/MUM/2013 2013-10-04
IN3161MU2013 IN2013MU03161A (en) 2013-10-04 2014-09-29
PCT/IN2014/000623 WO2015049697A1 (en) 2013-10-04 2014-09-29 A gesture based system for translation and transliteration of input text and a method thereof

Publications (3)

Publication Number Publication Date
RU2016115384A RU2016115384A (en) 2017-11-10
RU2016115384A3 RU2016115384A3 (en) 2018-08-15
RU2708357C2 true RU2708357C2 (en) 2019-12-05

Family

ID=52778327

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2016115384A RU2708357C2 (en) 2013-10-04 2014-09-29 Gestures-controlled system for translation and transliteration of input text and method of input text translation and transliteration

Country Status (8)

Country Link
EP (1) EP3053061A4 (en)
KR (1) KR101995741B1 (en)
IL (1) IL244824B (en)
IN (1) IN2013MU03161A (en)
PH (1) PH12016500592A1 (en)
RU (1) RU2708357C2 (en)
SG (1) SG11201602622QA (en)
WO (1) WO2015049697A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200113522A (en) 2019-03-25 2020-10-07 삼성전자주식회사 Method for performing fucntion according to gesture input and electronic device performing thereof

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5432948A (en) * 1993-04-26 1995-07-11 Taligent, Inc. Object-oriented rule-based text input transliteration system
RU2146066C1 (en) * 1998-11-30 2000-02-27 Рудковский Александр Валентинович Foreign language learning tutorial
US20080097745A1 (en) * 2006-10-18 2008-04-24 Domenica Bagnato Text analysis, transliteration and translation method and apparatus for hieroglypic, hieratic, and demotic texts from ancient egyptian
US20110258537A1 (en) * 2008-12-15 2011-10-20 Rives Christopher M Gesture based edit mode
RU2436146C2 (en) * 2005-12-05 2011-12-10 Майкрософт Корпорейшн Flexible display transfer
US20130151234A1 (en) * 2011-12-12 2013-06-13 Google Inc. Techniques for input of a multi-character compound consonant or vowel and transliteration to another language using a touch computing device
US20130191108A1 (en) * 2008-08-06 2013-07-25 Abbyy Software Ltd. Translation of a Selected Text Fragment of a Screen

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7369986B2 (en) * 2003-08-21 2008-05-06 International Business Machines Corporation Method, apparatus, and program for transliteration of documents in various Indian languages
US20070255554A1 (en) 2006-04-26 2007-11-01 Lucent Technologies Inc. Language translation service for text message communications
JP5642809B2 (en) * 2010-03-12 2014-12-17 ニュアンス コミュニケーションズ, インコーポレイテッド Multi-modal text input system for use with mobile phone touchscreen etc.

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5432948A (en) * 1993-04-26 1995-07-11 Taligent, Inc. Object-oriented rule-based text input transliteration system
RU2146066C1 (en) * 1998-11-30 2000-02-27 Рудковский Александр Валентинович Foreign language learning tutorial
RU2436146C2 (en) * 2005-12-05 2011-12-10 Майкрософт Корпорейшн Flexible display transfer
US20080097745A1 (en) * 2006-10-18 2008-04-24 Domenica Bagnato Text analysis, transliteration and translation method and apparatus for hieroglypic, hieratic, and demotic texts from ancient egyptian
US20130191108A1 (en) * 2008-08-06 2013-07-25 Abbyy Software Ltd. Translation of a Selected Text Fragment of a Screen
US20110258537A1 (en) * 2008-12-15 2011-10-20 Rives Christopher M Gesture based edit mode
US20130151234A1 (en) * 2011-12-12 2013-06-13 Google Inc. Techniques for input of a multi-character compound consonant or vowel and transliteration to another language using a touch computing device

Also Published As

Publication number Publication date
PH12016500592A1 (en) 2016-06-13
WO2015049697A1 (en) 2015-04-09
IN2013MU03161A (en) 2015-07-03
IL244824A0 (en) 2016-05-31
IL244824B (en) 2020-09-30
RU2016115384A3 (en) 2018-08-15
RU2016115384A (en) 2017-11-10
KR20180093100A (en) 2018-08-20
KR101995741B1 (en) 2019-07-03
EP3053061A1 (en) 2016-08-10
SG11201602622QA (en) 2016-04-28
EP3053061A4 (en) 2017-04-19

Similar Documents

Publication Publication Date Title
US11782581B2 (en) Display control method and device, electronic device and storage medium
KR102045585B1 (en) Adaptive input language switching
US8892782B1 (en) System for and method of translating motion-based user input between a client device and an application host computer
RU2436146C2 (en) Flexible display transfer
US9292203B2 (en) Providing a vertical candidate bar with an on-screen keyboard
CN108829686B (en) Translation information display method, device, equipment and storage medium
EP2940605A1 (en) Information search system and method
US20130263039A1 (en) Character string shortcut key
KR20120136642A (en) Apparatus and method for providing interface in device with touch screen
KR20080071523A (en) Apparatus and method for inputing characters of terminal
JP2006338667A (en) User-machine communication method, device, interface processor and program
EP2909702B1 (en) Contextually-specific automatic separators
RU2632422C2 (en) Method and device for the user input processing
US9395826B1 (en) System for and method of translating motion-based user input between a client device and an application host computer
KR20110103265A (en) Text input method and portable device supporting the same
CN106095128B (en) Character input method of mobile terminal and mobile terminal
US10394964B2 (en) Gesture based system for translation and transliteration of input text and a method thereof
RU2708357C2 (en) Gestures-controlled system for translation and transliteration of input text and method of input text translation and transliteration
JP7145988B2 (en) Translation service providing method using input application and terminal device using the same
KR20080095823A (en) Device and method for multilingual mailing capable of selecting text input mode
KR20160071400A (en) A gesture based system for translation and transliteration of input text and a method thereof
KR101618353B1 (en) Method for synchronizing server-side language and client-side language, and server-client system using the same
KR20110084610A (en) Device for inputting character on touch screen
Jensen Keyboard and Mouse Input for Controlling a Remote Machine via A Mobile Device
CN102375560A (en) Method and system for inputting symbol