KR100851629B1 - 음성 사용자 인터페이스를 구비한 전자 장치 및 사용자인터페이스를 위한 언어 설정을 수행하는 전자 장치의 방법 - Google Patents

음성 사용자 인터페이스를 구비한 전자 장치 및 사용자인터페이스를 위한 언어 설정을 수행하는 전자 장치의 방법 Download PDF

Info

Publication number
KR100851629B1
KR100851629B1 KR1020067012066A KR20067012066A KR100851629B1 KR 100851629 B1 KR100851629 B1 KR 100851629B1 KR 1020067012066 A KR1020067012066 A KR 1020067012066A KR 20067012066 A KR20067012066 A KR 20067012066A KR 100851629 B1 KR100851629 B1 KR 100851629B1
Authority
KR
South Korea
Prior art keywords
language
electronic device
user interface
package
information
Prior art date
Application number
KR1020067012066A
Other languages
English (en)
Other versions
KR20060100470A (ko
Inventor
주하 이소-시필래
올리 비이키
Original Assignee
노키아 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 노키아 코포레이션 filed Critical 노키아 코포레이션
Publication of KR20060100470A publication Critical patent/KR20060100470A/ko
Application granted granted Critical
Publication of KR100851629B1 publication Critical patent/KR100851629B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/454Multi-language systems; Localisation; Internationalisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/42204Arrangements at the exchange for service or number selection by voice
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/40Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/20Aspects of automatic or semi-automatic exchanges related to features of supplementary services
    • H04M2203/2061Language aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/58Details of telephonic subscriber devices including a multilanguage function
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/74Details of telephonic subscriber devices with voice recognition means

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Cash Registers Or Receiving Machines (AREA)

Abstract

본 발명은 전자 장치 (10) 에 관한 것으로, 전자 장치 (10)는 음성 사용자 인터페이스 (VUI), 음성 사용자 인터페이스 (VUI)를 구현하기 위한 말 인식 장치들 (SR), 및 메모리 (MEM)를포함하며, 메모리 안에는 사용자 인터페이스 (VUI, UI)를위한 언어 설정 데이터가 구성되어 있으며, 언어 설정 데이터에는 다수의 언어 패키지들 (LP1 - LP9)이 포함되고, 이 패키지들(LP1 - LP9)에는 다수의 언어들 (L1 - L34)이 그룹화되어 있으며, 그 가운데 적어도 일부 언어들 (L1 - L34)은 여러 언어 패키지들 (LP1 - LP9)에 속할 수 있고, 적어도 하나의 언어 패키지 (LP1)가 사용자 인터페이스 (VUI, UI)에 사용되기 위해 선택되게 된다. 본 발명에서, 언어 패키지 (LP1 - LP9)는 전자 장치 (10)에 의해 선택된다.

Description

음성 사용자 인터페이스를 구비한 전자 장치 및 사용자 인터페이스를 위한 언어 설정을 수행하는 전자 장치의 방법{An electronic device equipped with a voice user interface and a method in an electronic device for performing language configurations of a user interface}
본 발명은 전자 장치에 관한 것으로서, 이 전자 장치는
- 장치의 기능을 제어하기 위한 음성 사용자 인터페이스 및 가능한 그래픽 사용자 인터페이스,
- 음성 사용자 인터페이스를 구현하기 위한 말 인식 장치, 및
- 몇몇 언어 패키지들을 포함하는, 사용자 인터페이스에 대한 언어 설정 데이터가 마련되어 있고, 언어 패키지들 안에서 몇몇 언어들이 그룹화되고, 이 언어들 중 적어도 일부는 몇몇 언어 패키지들에 속할 수 있고, 언어 패키지들 중 적어도 하나가 사용자 인터페이스에서 사용되도록 선택되는, 메모리를 포함한다. 또, 본 발명은 전자 장치에서 사용자 인터페이스의 언어 설정을 수행하는 방법, 및 본 발명에 따른 전자 장치 내에서 실행되도록 된 컴퓨터 프로그램에 대한 것이기도 하다.
다양한 전자 장치들에 있어 상당히 많은 화자 독립 (speaker-independent) 음성 사용자 인터페이스 (VUI)들이 최근 개발되어 왔다. 이러한 사용자 인터페이스들은 여러 언어들로 된 언어 설정을 필요로 한다. 오늘날 몇몇 제조자들의 화자 독립 음성 인식 시스템들은 수십 개까지의 언어들을 지원하고 있다.
장치들의 제한된 메모리 특성과 음성 인식 시스템의 제한된 처리 용량으로 인해, 모든 언어들이 하나의 패키지에 전부 포함될 수는 없고, 이들은 보다 작은 언어 패키지들로 분할되어 들어가야 한다. 만일 지나치게 많은 언어들이 하나의 데이터 패키지 안에 마련되어야 한다면, 이것은 음성 인식의 정확도를 감소하게 될 것이다. 또한, 그 다음에는 여러 언어 영역들에 대한 청각적 음성 모델들의 '트레이닝(training)'이 최적화될 수 있는데, 이렇게 하여 가령 상이한 방언들의 인식에 있어 이점을 가지게 될 것이다. 각 언어 패키지는 다수의 언어들을 포함할 수 있는데, 그 수가 가령 4 내지 10 개의 언어들이 될 것이다. 언어는 가령, 지역으로의 지리적 구분에 따라 언어 패키지들 안에 정렬될 수 있다. 이로 인해, 사용할 언어 패키지는 가령 음성 사용자 인터페이스 같은 장치의 사용자 인터페이스마다 각자 선택되어져야 하고, 그 후 그 언어 패키지가 음성 인식 등에 사용된다.
특정한 지리적 영역에 대해 특유한 언어들이, 이를테면 개별 언어 패키지들 안에 정렬될 수 있다. 이 언어들 외에, 언어 패키지들에는 어떤 널리 퍼져 일반적으로 통용되는 국제어들 (이를테면, 영어, 포르투갈어, 스페인어, 독어, 러시아어, 이태리어)을 포함할 수 있고, 이 언어들은 몇 가지 이유로 몇몇 언어 패키지들 안에 포함될 것이 요망될 수도 있다. 이러한 구분에 따라, 지원되는 각 언어가 적어도 한 언어 패키지 안에 포함되고, 한편 일부 언어들은 여러 언어 패키지들 안에 포함된다. 이 경우, 그리고 일반적으로 이러한 어플리케이션에서, 한 언어의 방언 역시 하나의 언어로서 파악될 수 있다.
다중 언어 시스템은 아직까지 여전히 무척 드문데, 그것은 언어 패키지 선택을 구현하는 매우 엉성한 수단만이 종래 기술에 알려져 있기 때문이다. 이러한 시스템들에서, 사용자들은 장치의 사용자 인터페이스로부터 매시간에 사용할 언어 패키지를 스스로 결정하여 수동적으로 선택해야 한다. 그러나, 이것은 잘못된 언어 패키지가 선택될 여지를 제공하는 약점을 가진다. 또한, 장치가 말 언어에 대해 전혀 아는 바가 없으면, 말 인식 동작이 더더욱 악화 될 수 있다.
사용자에 의해 현재 수행되는 언어 패키지 선택은 에러에 노출된다. 이러한 것의 한 예가, 가령, 러시아인 사용자가 독어 등을 VUI 언어 (즉, 말로 장치를 제어하고자 할 때의 언어)로서 사용하고 러시아어를 사용자 인터페이스 언어 (즉, 가령 장치의 그래픽 사용자 인터페이스 GUI에 사용되는 언어)로 사용하고자 하는 상황이다. 독어는 국제어이므로 여러 언어 패키지들에 마련되어 있고 그에 따라 사용자는 한 언어 패키지를 선택할 여러 안들을 가지게 될 것이고, 그 자체가 장치 이용에 있어 바람직하지 못한 불편함을 조장할 수 있다. 보통 언어 패키지들과 이들의 콘텐츠들에 대해 다소 모호한 중요성을 이해하지 못하는 사용자들은 가령 중앙 유럽 언어 패키지로부터, 말 인식에 사용할 독어를 선택할지도 모른다. 이러한 선택은 사용자가 가령 사용자 인터페이스 언어로서 원하는 러시아어를 선택하는 것에 지장을 주게 되는데, 이는 적합성을 이유로 러시아어가 중앙 유럽 언어 패키지 안에 반드시 포함되는 것이라고 간주되지 않기 때문이다. 이러한 상황은 사용자를 철저히 혼란시켜 이들로 하여금 언어 패키지를 재선택할 수 없게 할 수 있다. 일반적으로, 그러한 상황이 일어나게 놔두는 것은 별로 사용자 친화적이지 못한 것이 된다.
또, 서로 다른 여러 지역들에서 말해지는 국제어들의 발음이 지역마다 큰 차이를 보일 수 있다. 예를 들어, 슬라브인들은 영어 원주민들과는 다르게 영어를 발음한다. 가령, 스위스/오스트리아인들이 말하는 독어와 독어 원주민들이 말하는 독어 사이에도 그와 유사한 일반적 차이가 존재한다. 이것 역시 잘못된 언어 패키지가 선택되게 만들어, 그에 따라 음성 인식과 뒤이은 음성 사용자 인터페이스의 '불완전한' 동작이 야기될 수 있다.
최신 기술 중 하나가 미국 특허 5,917,484에 개시되는데, 여기서는 전자 장치, 특히 컴퓨터인 경우에 사용할 언어가 선택된다. 그러나, 이 해법은 음성 사용자 인터페이스들이나 그 안에서 사용되는 말 인식 기능을 전혀 다루고 있지 못하다. 또, WO 공개 2004/019207 A1 (노키아)에는 특히 언어 집합들을 편집하기 위한 사용자 인터페이스 언어 설정에 관련된 선행 기술에 대해 설명하고 있다. 거기에서는 음성 사용자 인터페이스와 관련되는 언어 패키지 선택 문제들에 대해서는 논의되고 있지 않다.
본 발명은 보다 고차원적으로 개발된 사용자 인터페이스 언어 구성을 갖는 새로운 타입의 전자 장치 및, 사용자 인터페이스의 언어 설정을 수행하기 위한 전자 장치의 방법을 제공하기 위한 것이다. 본 발명에 따른 장치의 특징적 성격들은 첨부된 청구항 1에 기술되어 있고, 본 발명에 따른 방법의 특징적 성격들은 청구항 9에서 기술된다. 또, 본 발명은 본 발명에 따른 장치에서 실행될 컴퓨터 프로그램과도 관련되며, 그 특징적 성격들이 청구항 16에 기술된다.
본 발명은 특히 음성 사용자 인터페이스들 및 말 인식에 사용될 언어 패키지 선택뿐 아니라 전자 장치 내 언어 설정 데이터의 구성과도 관련된 것이다.
본 발명에 따른 장치 및 방법은 언어 패키지 선택을 결정하기 위해 장치가 언어 정보를 등록하는 것을 특징으로 한다. 언어 정보는 적어도 한 사용자 인터페이스에 대한 적어도 제1언어 관련 정보를 포함한다. 제1실시예에 따르면, 이러한 언어에 기초해, 장치가 언어 패키지를 선택할 수 있다. 선택을 수행하기 위해, 언어 패키지들에 포함된 언어들에 대한 정보가 장치 안에 마련된다.
본 발명에서, 사용자 인터페이스에서 사용하고자 하는 언어 패키지가 이제 가령 사용자로부터 등록된 언어 정보에 기초하는 장치 동작을 통해 선택된다. 이 경우, 이러한 언어 패키지 정보를 포함하는 데이터 구조가 장치 안에 구성될 수 있다. 사용자에 의해 제공되는 언어 정보로부터, 장치는, 각각의 선택 가능 상황에서, 장치에 사용할 가장 적합한 언어 패키지를 선택할 수 있고, 그것은 어떤 세트(set) 기준에 따라 이 언어 정보에 링크된다.
일실시예에 따르면, 언어 패키지는 단 하나의 언어에 관한 정보에 기초해 선택될 수 있다. 제2실시예에 따르면, 언어 패키지 선택이 충분히 명료하게 수행될 수 없으면, 제2언어에 대한 정보가 추가로 이용될 수 있다. 이 겨우, 언어 패키지는 정해진 방식을 통해 이 언어들에 기초하여 선택될 수 있다.
일실시예에 따르면, 각 언어에 대해 원주만 언어 패키지가 정해질 수 있는데, 이것은 소정의 특별한 선택 상황들의 경우 디폴트 값으로서 사용하기 위해 선택된다. 사용자의 언어 선택과 무관하게, 이 경우 적합성에 있어 항상 최선의 언어 패키지가 사용되도록 정해진다.
일실시예에 따르면 장치에 등록된 언어 정보는, 가령 사용자가 말하고 음성 사용자 인터페이스에 사용하고 싶어하는 언어의 정보를 포함할 수 있다. 만일, 가령, 장치 사용자 인터페이스에 사용하고자 의도한 언어가 사용자의 말-언어(speech-language) 선택과 다르다면, 언어 패키지가 반드시 분명하게 선택될 수만은 없다. 이러한 상황에 대한 두 번째 예가, 음성 사용자 인터페이스에 사용하고자 하는 언어가 다수의 언어 패키지들 안에 들어 있어, 한 언어 패키지 선택이 반드시 명료하지만은 않을 수 있는 상황일 수 있다. 본 발명에서, 그러한 문제는 장치가 사용자로부터 수신된 언어 정보 등에 기초해, 자동으로 언어 패키지를 선택함으로써 해결된다.
본 발명의 지원으로, 사용자들이 파악하기 어려운 적절한 언어 패키지를 스스로 선택할 필요가 없게 되어 잘못된 언어 패키지가 선택되지 않게 된다는 이점이 얻어진다. 본 발명에 따른 경우에서, 사용자가 어떤 선택된 순서로 구두 언어와 사용자 인터페이스 언어를 정하고, 이때 두 번째 언어는 매 상황에서 정해질 필요조차 없는 경우, 언어 패키지는 명료하게 자동으로 선택될 수 있다.
일실시예에 따르면, 언어 선택 조합에 대한 룩업(look-up) 테이블이 장치의 메모리 안에 구성될 수 있고, 그것은 사용자 인터페이스 언어들의 선택 사항들과 관련된 전부 혹은 적어도 대부분의 언어 선택 조합들, 혹은 한편으로 가능한 언어 선택 조합들만을 디스플레이한다. 사용하기 위해 선택될 수 있는 언어 패키지는 각각의 조합에 부가된다. 또한, 최선의 언어 패키지가 선택된다는 것은, 사용자를 자신의 선택에 대해 고민하게하거나 혼란을 줄 필요가 있을 수 있다는 사실을 배제하고 전체 중에 가장 이상한 것과 전부 중 부조리한 것의 선택들 역시 명백히 실현될 수 있다는 것이다.
본 발명에 따른 장치 및 방법의 다른 특징적 성격들은 첨부된 청구항들로부터 명확해질 것이고, 얻어지는 추가 이점들은 상세설명 부분에서 조목조목 설명될 것이다.
이하에서, 다음에 개시되는 실시예들에 국한되지 않는 본 발명에 따른 전자 장치 및 관련 방법에 대해 첨부된 도면을 참조해 보다 상세하게 설명될 것이다.
도 1은 본 발명에 따른 전자 장치의 한 예에 대한 대략적 블록도이다.
도 2는 각 언어 패키지에 배치되는 언어들의 일례를 보인다.
도 3a는 각 언어가 오직 한 언어 패키지 안에 있는 언어 리스트의 예를 보인다.
도 3b는 각 언어가 다수의 언어 패키지들 안에 있는 언어 리스트의 예를 보인다.
도 3c는 다수의 언어 패키지들 내 언어들에 대한 원주민 언어 패키지의 예를 보인 것이다.
도 3d는 언어 패키지 선택시 사용할 룩업 테이블의 일 실시예를 부분적인 리스트로서 도시한 것이다.
도 3e는 언어 패키지 선택시 사용할 룩업 테이블의 일 실시예를, 특별 경우들을 판단하기 위한 리스트로서 도시한 것이다.
도 4는 언어 패키지 선택시 본 발명에 따른 방법의 일실시예에 대한 흐름도를 도시한 것이다.
도 1은 본 발명에 따른 전자 장치 (10)의 일례에 대한 대략적 블록도를 보인 것으로, 이에 대해 아래에서 모바일 스테이션인 경우의 실시예로서 설명이 이뤄질 것이다. 본 발명이 적용될 수 있는 전자 장치의 카테고리는 극도로 넓게 해석되어야 한다는 것을 알아야 한다. 장치들에 대한 어떤 다른 예들은 PDA (Personal Digial Assistant) 타입 장치들 (가령, Palm, Vizor), 팜 컴퓨터들, 스마트 폰들, 멀티미디어 기기들, 카메라 기기들, 게임 콘솔들, 전화기들, 및 구술 장치들과 같은 일반적인 휴대형 핸드-헬드(hand-held) 장치들을 포함한다. 또, 본 발명은 이를테면 비디오/DVD 장치들, 위성/디지박스(digibox) 튜너들, 텔레비전들, 텔리팩스(telefax) 장치들, 복사기들, 컴퓨터들, 벤딩 및 슬롯 머신들, 및 기타 유사 전자 장치들에도 역시 적용될 수 있다. 그러나, 본 발명에 따른 장치들은 대부분 음성 사용자 인터페이스 VUI, 보다 상세히 말하면 말 인식 기능 SR을 이용해 구현되는 음성 사용자 인터페이스를 포함한다는 공통된 특징을 가진다.
도 1에 도시된 모바일 스테이션(10)은, 주지되어 있다시피 송수신기 TR 등, 본 발명의 맥락과 무관한 구성요소들로 이뤄진 것으로서, 이와 관련해 부가적 설명이 필요로 되지 않을 것이다.
전자 장치 (10)의 동작은, 전자 장치 (10)의 디스플레이 요소 (19) 상에, 가령 그래픽 사용자 인터페이스 GUI 에 디스플레이되는 정보 등을 제어하는데 사용되는 프로세서 유닛 DSP/CPU(13)을 사용해 제어될 수 있다. 프로세서 유닛 (13)의 조작은 제어 장치들 (14)을 사용해 제어될 수 있고, 이 조작은 키패드 (15)나 다양한 스위치들로서 구현될 수 있다. 전자 장치 (10)의 기능은 가령, 전자 장치 (10)의 디스플레이 (19) 상에 디스플레이되는 그래픽 사용자 인터페이스 GUI를 이용하거나, 다른 한편으로 역시 음성 사용자 인터페이스 VUI를 이용하는 등, 사용자 인터페이스를 통해 제어될 수 있다. 사용자 인터페이스들 VUI/GUI은, 전자 장치 (10)의 제어를 가능하게 하는 것 외에도, 전자 장치 (10)의 현 상태에 대한 정보를 제공할 수 있다.
모바일 스테이션 (10)은, 사용자 인터페이스들로서 음성 사용자 인터페이스 VUI와 그래픽 사용자 인터페이스 GUI, 일반적으로 하나나 여러 개의 사용자 인터페이스들 UI을 포함할 수 있다. 이들은 전자 장치 (10) 기능들을 제어함에 있어 병행하여 사용되거나, 하나로만 사용될 수 있다.
음성 사용자 인터페이스 VUI를 구현하기 위해, 전자 장치 (10)는 마이크 MIC와 확성기 장치들 SPKR을 포함할 수 있는 말 인식 장치들 SR과 오디오 입/출력 인터페이스 (12)를 포함할 수 있다. 주지된 방식으로 구현될 수 있는 말 인식 SR은 동작되기 위해 언어-설정 데이터 LP1-LP9을 필요로 한다. 언어 설정 데이터는 정해진 방식으로 전자 장치 (10)의 메모리 장치들 MEM에 구성된다.
도 2는 언어 패키지 분리의 개략적인 한 예를 도시한 것이다. 여러 언어 패키지들인 LP1-LP9이 언어 설정 데이터로부터 전자 장치 (10)의 메모리 MEM 안에 형성될 수 있다. 사용자 인터페이스 VUI/GUI에서 사용되기 위해 선택될 수 있는 언어들 L1 - L34 가운데 한 개나 몇몇, 가령 4 - 10의 언어들이 선택된 방법을 통해 언어 패키지들 LP1 - LP9로 그룹화된다. 사용 가능한 언어들 L1 - L34 각각은 이 언어 패키지들 LP1 - LP9 중 적어도 하나에 속하게 된다. 도 3a는 해당 실시예의 경우에 있어, 언어 패키지 LP1 - LP9 단 하나 안에 있는 언어들의 리스트의 예를 보인 것이다. 또, 적어도 일부 언어들 L6, L7, L11, L13, L16, L29는, 언어 패키지들 LP1 - LP9 중 여러 패키지들, 가령 적어도 두 패키지들에 포함될 수 있다. 도 3b는 해당 실시예의 경우에 있어 언어 패키지들 LP1 - LP 9 중 여러 패키지들에 속하는 그러한 언어들의 리스트의 예를 보인다.
도 2, 3d 및 3e를 참조할 때, 언어 패키지들 LP1 - LP9의 언어 분할을 결정하는 한 기준은 각각의 지리적 영역이나 나라들의 언어 특성이고, 그에 따라 언어 패키지들 LP1 - LP9 역시 분할될 수 있다. 언어들 L1 - L34 중 일부는 그들의 전세계적 지위로 인해, 여러 언어 패키지들 LP1 - LP9에 들어 있을 수 있다. 그런 언어들의 예들이 이 실시예에서는 UK_English=L6 (영국 영어), German=L7 (독어), Russian=L11 (러시아어), French=L13 (불어), Italian=L16 (이태리어), 및 US_English=L29 (미국 영어)이다. 언어 패키지들 LP1 - LP9 중 적어도 하나가 전자 장치 (10)의 사용자 인터페이스 VUI/GUI, 특히 음성 사용자 인터페이스 VUI를 구현하는 말 인식 SR에 사용되기 위해 선택될 수 있다.
각 언어 L1 - L34의 경우, 언어 패키지들 LP1 - LP9에 속하는 언어 고유의 데이터에는, 전자 장치 (10)의 기능을 제어하기 위해 가령, 해당 언어들 L1 - L34로 된 가능한 명령들이 포함될 수 있다. 한편, 가령 국제 언어들 L6, L7, L11, L13, L16, L29의 경우, 언어 데이터는 말 인식 엔진 SR을 위해 각 지역 (방언 고유 특성)의 해당 언어들 L6, L7, L11, L13, L16, L19 중 말의 스타일/액센트에 관한 중요 정보, 혹은 심지어 전자 장치 (10)에 대해 해당 방언으로 하는 명령들을 포함할 수도 있다. 이것의 한 에가 패키지 중앙 유럽 LP4로서, 여기에서는 독일 원어 대신 오스트리아/스위스 독어에 적합한 언어 설정을 사용하는 것이 가능한다. 그러나, 일반적으로 언어 데이터는 언어들 L1 - L34을 지원하는 말 모델들을 포함한다고 이해될 수 있다. 또, 다중 언어 시스템 역시 텍스트 기반 언어 인식을 위해 모델 데이터를 포함할 수 있다.
예를 들어, 소프트웨어에 의해 구현되는 등록 기능(17)이 도 1에 도시된, 본 발명에 따른 전자 장치 (10)에 구성될 수 있고, 이것은, 일실시예에 따라, 전자 장치 (10)에 사용되고 특히 사용자 인터페이스 언어 VUIL/GUIL을 선택하기 위해 바람직한 언어 패키지 LP1 - LP에 대한 언어 정보를 사용자에게 요청할 수 있다. 언어 정보는 적어도 한 사용자 인터페이스에 대해 적어도 한 언어에 관한 정보를 포함할 수 있다. 이렇게 등록된 언어 정보에 기초하여, 전자 장치 (10)는 가장 간단하게 사용할 언어 패키지를 선택할 수 있다.
만일 전자 장치 (10)가 최초의 언어 정보에 기초해 선택을 분명하게 수행할 수 없으면, 전자 장치 (10)는 사용자에게 추가로 제2사용자 인터페이스를 위한 제2언어를 요청하는 등에 의해 등재될 수 있다. 두 질문을 요청하는 이러한 상황은, 이를테면, t사용자에 의해 선택된 최초의(제1) 언어 L6가 가령 적어도 두 개의 언어 패키지들 LP1 - LP7인 여러 개의 패키지들에 속하는 경우에 생겨날 수 있다. 이렇게 등재된 제1 및 제2언어 L6, L11에 기초해, 전자 장치 (10)는 각각의 언어 선택 사항에 링크되고 전자 장치 (10)와 관련해 구성된 언어 패키지에 따라, 분명하게 언어 패키지 선택을 수행할 수 있다. 일 실시예에 따르면, 제1언어는 음성 사용자 인터페이스 언어 VUIL, 즉, 말 언어이고, 제2언어는 그래픽 사용자 인터페이스 언어 GUIL일 수 있다. 반대의 선택 시퀀스 역시 있을 수 있다.
선택 기능(17)의 소프트웨어 구현이, 전자 장치 (10)의 프로세서(13)가 소정 시퀀스로 소정 명령들의 그룹을 수행하는데 사용됨으로써 이뤄질 수 있다. 이 기능(17)은 전자 장치 (10)의 메모리 MEM 내에, 가령 운영 시스템 레벨 갱신 가능 컴퓨터 프로그램으로서 저장될 수 있다.
도 2는 전자 장치 (10)의 메모리 MEM에 구성된 언어 패키지들 LP1 - LP9의 일 실시예를 보인 것이다. 이 안에서, 각 언어 패키지 LP1 - LP9는 언어 L1 - L34가 속하는 것으로 그룹화되었다. 이 경우, 한 선택 방식에 따른 언어로 조직화된 여러 언어 패키지들 LP1 - LP9이 전자 장치 (10)의 메모리 MEM에 저장되고, 그 패키지들 LP1 - LP9로부터 전자 장치 (10)는, 일 실시예에 따라, 사용자로부터 구한 언어 정보에 기초해 가장 적합한 것을 자동으로 선택할 수 있다. 실제로, 단 한 개의 언어 패키지 LP1만이 어느 한 시점에 사용될 수 있는데, 그것은 이를테면 전자 장치 (10) 및 말 인식 SR의 제한된 프로세싱 및 워킹 메모리 WMEM 용량들 때문이다.
상술한 것 외에, 각각 음성 사용자 인터페이스 VUI에서 사용됨이 요망되고, 계속해서 말 인식 SR에도 사용될 것이 요망되는 언어 L6가 가령 소위 '국제 언어' L6, L7, L11, L13, L16, L29 중 하나로서 여러 언어 패키지들 LP1 - LP9에 속하는 경우, 전자 장치 (10)에 사용될 언어 패키지 LP1의 선택은 복잡하게 될 것이고, 특히 그 선택이 사용자에 의해 이뤄질 때 더 복잡하게 될 것이다. 그 경우, 사용자는 고의가 아니게 이들이 말하는 언어 모델에 부합하지 않는 언어 모델을 갖는 언어 패키지에서 음성 언어 인터페이스 VUI에 사용하고자 하는 음성 언어 VUIL을 선택할 수가 있다.
문제가 되는 상황의 두 번째 예는, 사용자가 한 언어 패키지 LP2로부터 음성 사용자 인터페이스 VUI에 사용하고 싶어하는 음성 언어 VUIL을 선택하고, 다른 언어 패키지 LP1으로부터 그래픽 사용자 인터페이스 GUI에 사용하고 싶어하는 UI 언어를 선택하는 상황이 될 수 있다. 위에서 언급한 이유 탓에, 그러한 선택은 실제로는 구현될 수 없을 것인 바, 상기 상황은 사용자에게 혼란을 야기할 수도 있다는 것은 말할 것도 없이 전자 장치 (10)가 처리하기도 어렵다.
도 3d 및 3e는 전자 장치 (10)의 메모리 MEM에 구성된 언어 패키지들 LP1 - LP9의 룩업 테이블(18)에서 언어 패키지 LPx를 선택하기 위한 한 실시예를 부분적으로 도시한 것이다. 사용자에 의해 전자 장치 (10)로 주어지는 언어 정보 (VUIL, GUIL)에 기초하여 룩업 테이블(18)로부터 사용에 적절한 언어 패키지 LPx가 선택될 수 있다.
일반적으로 각 언어 패키지 LP1 - LP9에 속하는 언어들 L1 - L34에 대한 정보가 룩업 테이블(18) 안에 나열된다. 특히, 룩업 테이블(18)은 가능한 음성-언어/UI-언어 VUIL/GUIL 조합들 (a - g)과 가능한 (모호하지 않은) 특별한 경우들 (도 3e), 및 각 조합 (a - g, 특별한 경우들)의 경우들에서 선택되도록 정해진 언어 패키지 LP1 - LP9의 전부나 적어도 거의 대부분으로부터 바람직한 방식을 통해 그룹화될 것이다. 도 3d는 룩업 테이블 전체를 도시한 것이 아니며, 가능한 언어 서택 조합들의 적어도 전부가 포함되도록 g 섹션부터 테이블이 계속된다는 것을 알아야 한다.
각각의 언어 L1 - L34에 있어서, 선택된 사용자 인터페이스 언어들 VUIL/GUIL이 아무 의미가 없거나, 사용자로부터 수신된 "괴상한" 언어 조합들의 경우 전자 장치 (10)가 적합한 언어 패키지를 선택하는 것이 전혀 불가능한 경우, 전자 장치 (10)가 디폴트 값으로서 선택할 소위 원주민 언어 패키지를 설정하는 것 역시 가능하다. 원주민 언어 패키지는 여러 개의 언어 패키지들 LP1 - LP9에 나타나는 언어들 L6, L7, L11, L13, L13, L16, L29에 대해서도 선택되도록 설정될 수 있으며, 이 원주민 언어 패키지는 이 언어들 L6, L7, L11, L13, L13, L16, L29의 본 고장/나라들 등으로부터 규정될 수 있다. 도 3c는 이러한 '국제 언어들'에 대해 설정된 원주민 디폴트 언어 패키지들의 리스트에 대한 예를 보인 것이다.
도 3e는 음성 사용자 인터페이스 언어 VUIL 및 그래픽 사용자 인터페이스 언어 GUIL 둘 모두가 여러 언어 패키지들 LP1 - LP9에 속하고, 그 중 적어도 일부 패키지들이 두 언어들에 대해 공통이 되는 경우 적용되는 룩업 테이블(18)의 일부에 대한 예를 도시한 것이다. 그러한 상황을 다루기 위해, 각 언어 쌍으로 선택되도록 정해진 언어 패키지가 어떤 선택된 방식에 따라 설정될 수 있다. 특별한 경우들에 대한 선택 방식은 중요하지도 않고, 심지어는 어떤 특정 기준에 대해 반드시 링크되지 않을 수도 있으며, 대신 어플리케이션 개발자의 결정 등에 따라 정해질 수 있다.
일 실시예에 따르면, 가장 가능한 선택 선택 사항이 테이블(18)의 최상단에 오고가장 희박한 가능서을 가진 것이 최하단에 오도록, 다른 언어 쌍들의 시퀀스가 만들어질 수 있다. 일 실시예에 따르면, 그러나 룩업 테이블(18)은 언어 선택 쌍들 VUIL/GUIL의 전부나 적어도 대부분으로부터 구성되어, 각 언어 선택의 경우마다 사용자에게 가장 적절한 언어 패키지가 선택될 수 있게 할 수 있다.
도 4는 전자 장치 (10)의, 본 발명에 따른 언어 패키지 선택 방법의 일 실시예를 보인다. 전자 장치 (10) 자체, 혹은 그와 달리 사용자가 언어 패키지 선택 절차(17) 동작을 시작할 수 있다(400 단계). 동작 시작은, 이를테면 전자 장치 (10)가 처음으로 사용될 때 자동으로 일어날 수 있다. 사용자들이 어떤 이유로 그들이 사용하는 말 언어 VUIL를 바꾸고 싶어할 때, 사용자가 언어 패키지를 바꿔야 한다는 필요성을 표현할 수 있다. 이 경우, 새로운 말 언어 VUIL가 현재 전자 장치 (10)에서 동작중인 언어 패키지 LP1으로부터 발견될 수 있으면, 언어 패키지 선택 절차를 수행할 필요가 없게 될 것이다. 한편, 만약 새로운 말 언어 VUIL가 현재의 언어 패키지 LP1에서 발견되지 않으면, 적어도 음성 인식 등을 위해 새로운 언어 패키지 LPx (x=1 - 9)와 그로부터 새로운 언어 Lx (x=1 - 34)를 선택하기 위한, 언어 패키지 선택 기능이 작동되어야 한다.
상술한 실시예에서, 일단 선택 절차(17)가 개시되었으면, 전자 장치 (10)는, 자신의 디스플레이 요소(19) 상에, 선택될 수 있는 모든 언어 선택사항들 L1 - L34의 리스트를 보인다(401 단계). 선택 절차는 자신들의 음성 사용자 인터페이스 VUI를 위한 언어 (VUIL), 혹은, 한편으로 그래픽 사용자 인터페이스 GUI를 위한 언어 (GUIL), Lx를 선택하는 것에서 시작할 수 있다. 일반적으로 말하면, 전자 장치 (10)는 사용자에게 적어도 한 사용자 인터페이스 VUI, UI에 대한 제1언어 L1/L6를 요청하는 등을 통해 등록할 수 있다.
이 실시예에서, 사용자는 전자 장치 (10)에 원하는 제1언어, 즉, 여기서 음성 사용자 인터페이스 언어, 즉 말 언어 VUIL에 대한 정보를 제공한다. 전자 장치 (10)는 사용자의 언어 선택내용을 등록하고(402 단계) 소프트웨어 기능(17)이 사용자에 의해 선택된 VUI 언어 VUIL이 둘 이상의 언어 패키지 LP1 - LP 9에서 발견될 수 있는지의 여부를 조사한다(403 단계). 언어 패키지들 LP1 - LP9은 장치의 메모리 MEM 내에 파일의 형태로 구성되어 있을 수 있고, 그 파일들 각각은 그 자신의 ID 식별자를 갖는다. 언어 패키지들은 또, 패키지 LP1 - LP9가 나타내도록 정해진 지역/나라에 대한 정보도 포함할 수 있다. 전자 장치 (10)는 자체 메모리 MEM에 구성된 룩업 테이블(18)로부터, 혹은 도 3a, 3b에 따른 표들로부터 검색(search) 동작을 수행한다. 검색 동작을 수행하기 위해, 각 언어 L1 - L34가 속하게 되는 한 개 혹은 여러 개의 언어 패키지들 LP1 - LP9에 대한 데이터를 포함하는 언어-언어 패키지 정보가 상술한 방식으로 전자 장치 (10) 내에 나열된다.
사용자에 의해 선택되거나 입력된 VULL 언어가 둘 이상의 언어 패키지로부터 발견될 수 없으면, 사용자에 의해 이뤄진 언어 선택은 애매해지게 된다. 그러한 상황은, 언어가 소위 잘 사용되지 않는 언어인 경우에 일어날 수 있다. 이에 기초해, 전자 장치 (10)는 사용자가 선택한 VUI 언어 VUIL에 부합하는 언어 패키지 LP1을 선택하고 그것을 전자 장치 (10)의 워킹 메모리 WMEM 안에 로드한 후 그것이 말 인식 SR에 사용되도록 작동시킨다 (404.1 및 405.1 단계). 동시에, 해당 언어 패키지 LP1는 전자 장치 (10)의 영구 설정으로 정해질 수 있고, 이 경우, 언어 패키지 LP1의 선택은 전자 장치 (10)가 다음에 시동 될 때마다 항상 다시 수행될 필요가 없게 된다. 말 인식 기능 SR은, 장치가 스위치 온 되고 음성 사용자 인터페이스 VUI가 작동될 때마다 사용하고자 하는 언어 패키지 LP1에 대한 정보, 더 상세히 말해 언어 L1에 대한 정보를 로드한다.
한편, 만일 403 단계에서 전자 장치 (10)에 의해 수행된 룩업 테이블/리스트 분석이, 사용자가 명시한 VUI 언어 VUIL이 여러 언어 패키지들 LP1 - LP9에서 발견될 수 있다는 것을 보이면, 언어 패키지 LP1 - LP9의 선택은 더 이상 모호하지 않게 된다. 그러한 상황은 앞에서 설명한 것처럼 여러 언어 패키지들 안에 구성되는 널리 사용되는 언어들 L6, L7, L11, L13, L16, L29의 경우들에서 일어나게 된다. 위에서 언급한 언어들 L6, L7, L11, L13, L16, L29 이외에, 다양한 방언들을 가진 스페인어와 포르투갈어 등 역시 있을 수 있으나, 여기에 반드시 한정되는 것은 아니다. 전자 장치 (10)는 이때 언어 패키지 선택을 결정하기 위해 UI 언어 정보를 필요로 한다.
이 경우, 403 단계에 이어, 제2사용자 인터페이스 GUI를 위해 사용자에게 보일 제2언어 선택 사항들의 제2리스트가 뒤따른다 (404.2 단계). 이 제2리스트는, 가령, 제한적일 수도 있지만 완전한 것일 수도 있다. 제한적 리스트에서는, 제1선 택 언어 L6와 같은 언어 패키지 LP1에 함께 나타나는, 제2언어 선택 사항들만이 보여질 것이다. 이 리스트가 완전한 형태로 보여질 때, 숙련된 사용자가 아니라 부적절한 언어 선택까지도 있을 수 있는 경우, 룩업 테이블(18)(도 3c)의 원주민 언어 패키지 정보 (도 3c) 및 특별한 상황 구획들이 적용된다.
전자 장치 (10)는 사용자에 의해 리스트로부터 수행된 언어 선택 L1을 등록한다 (405.2 단계). 다음으로, 전자 장치 (10)는 제1 및 제2언어 선택, 즉, 여기서 사용자에 의해 이뤄진 VUI 및 UI 언어 선택 L6, L1에 기초하여, 장치 내 메모리 MEM에 구성된 룩업 테이블(18)(도 3)로부터, 전자 장치 (10) 안에서, 특히 음성 사용자 인터페이스 VUI의 말 인식 SR에 사용할 언어 패키지 LP1을 선택한다.
선택된 언어들 VUIL 및 GUIL이 하나의 공통된 언어 패키지를 가지지 않으면, 그 선택은 선택된 음성 언어 VUIL에 링크된 원주민 언어 패키지에 따라 수행될 수 있다. 만일 제2언어 선택, 즉, 이 경우 사용자에 의해 이뤄진 언어 선택 L1 뒤에 한 선택이 한 언어 패키지 LP1에만 나타나면, 사용할 언어 패키지의 선택은 명료하게 된다. 그러면 전자 장치 (10)는 제2언어 L1이 나타나는 사용할 언어 패키지 LP1을 선택한다. VUIL 언어 및 GUIL 언어가 동일하고 하나의 공통 언어 패키지에 나타나면, 원주민 언어 패키지 링크에 따라 그 언어 패키지가 선택된다. 그러나, 두 언어 선택 L6, L7이 여러 개, 즉, 여기서 적어도 두 개의 동일한 언어 패키지들 LP1 - LP9 안에서 나타나는 경우, 전자 장치 (10)는 룩업 테이블(18)에 규정된 특별 상황 (도 3e)에 따라 언어 패키지 LP1을 선택한다. 이 경우, 룩업 테이블(18)에 의하면, 언어 패키지 LP3 (북부 유럽)가 선택되어야 한다. 또, 제1언어 VUIL에 따른 제거가 수행되지 않고 모든 언어들이 제공되고 (404.2 단계), 제2언어 GUIL가 제1언어 VUIL과 공통되는 한 언어 패키지를 가지지 못하면, 말 언어 VUIL에 따라 언어 패키지가 선택된다. 따라서 그러한 경우에도 역시 언어 선택에 따른 가장 적합한 언어 패키지가 제공된다.
406.2 단계로부터, 절차는 VUI 언어의 작동 개시로 이동하며 (405.1 단계), 그것은 상술한 방식으로 동작될 수 있다.
405.1 및 406.2 단계들 모두, 상술한 언어 패키지 선택 단계들에 기초해 수행되는 UI 언어의 잠정적 작동 개시가 뒤따를 수 있고 (407.2 단계), 그런 다음 선택 절차가 종료될 수 있다 (500 단계).
위에서는 음성 사용자 인터페이스 언어 VUIL이 먼저 등록된 후 다음에 그래픽 사용자 인터페이스 언어 GUIL가 등록되는 상황에서의 언어 패키지 LP1 - LP9 선택에 대해 기술하였다. 그 경우, UI 언어 UIL가 단 한 개의 언어 패키지로부터만 발견될 때 (403 단계), 404.1 단계가 수행되고, 그 다음으로, UI 언어 UIL에 의해 규정된 명확한 언어 패키지로부터 VUIL 언어를 선택하기 위해, 여기서는 설명되지 않는 서브 단계가 수행된다.
마찬가지로, UI 언어가 다수의 언어 패키지들로부터 발견되는 경우 (403 단계), VUI 언어 VUIL를 선택하기 위해 상응하는 시퀀스로서 404.2 - 406.2 단계들이 수행된다. 그에 따라, 언어들 GUIL, VUIL의 해당 시퀀스 변화는 선택 절차의 복잡도를 증가시키는 데 실질적으로 아무 영향도 미치지 않는다.
사용자에 의해 제공된 사용자 인터페이스 언어 정보에 선택의 근거를 두는 것은, 가장 적절한 언어 패키지 LP1가 사용된다는 것뿐 아니라 말 인식 SR 동작에 추가적 확실성이 주어진다는 이점 역시 얻게 한다. 이것은, 해당하는 지리적이거나 심지어 국가적 영역에서 나타나는, 언어에 대한 통상적 방언이 고려되기 때문이다. 사용자 인터페이스를 위한 가장 자연스러운 조작을 이루고자 노력할 때, 가령, 서로 다른 설정 선택을 수행하는 경우, 사용자와 전자 장치 (10) 간 상호동작은 최소한으로 됨이 요망되며, 이러한 특징 역시 본 발명의 이용을 통해 얻어지게 된다.
위에서, 본 발명은 개별적 실시예로서 개시되었다. 이 기술 분야에 정통한 자라면 상술한 소프트웨어 절차를 변경할 수도 있고, 어쩌면 그것을 상술한 구성과는 다른 방식으로 수행할 수 있다는 것을 알아야 한다. 또, 다양한 부가 단계들을 추가하고, 기능 및 에러 상태 처리 등을 지원할 수도 있다.
위의 상세 설명과 관련 도면들은 다만 본 발명을 예시하기 위한 것일 뿐임을 알아야 한다. 따라서 본 발명은 청구범위에 개시되거나 명시된 실시예들에 국한되지 않으며, 아래의 청구범위에서 규정된 발명의 개념에 대한 범위 안에서 다양한 변형 및 조정이 가능하다는 것을 이 분야에 정통한 자들이라면 자명하게 알 수 있을 것이다.

Claims (18)

  1. 전자 장치 (10)에 있어서,
    - 전자 장치 (10)의 기능들을 제어하기 위한 사용자 인터페이스 (UI),
    - 음성 사용자 인터페이스 (VUI)를 구현하기 위한 말 인식 장치들 (SR),
    - 여러 언어들 (L1 - L34)이 그룹화되어 있는 여러 개의 언어 패키지들 (LP1 - LP9)을 포함하고, 이 언어들 (L1 - L34) 가운데 적어도 일부는 여러 개의 언어 패키지들 (LP1 - LP9)에 속할 수 있고, 이 언어 패키지들 (LP1 - LP9) 중 적어도 하나 (LP1)가 사용자 인터페이스 (VUI, GUI)에서 사용되도록 선택되는, 사용자 인터페이스 (VUI, GUI)를 위해 언어 설정 데이터가 구성되어 있는 메모리 (MEM), 및
    - 프로세서 유닛 (13)을 포함하고,
    상기 전자 장치 (10)의 상기 프로세서 유닛 (13)은,
    적어도 하나의 사용자 인터페이스 (VUI, GUI)를 위한 제1언어 (L1/L6)를 등록하는 단계, 및
    상기 등록된 제1언어 정보(L1/L6)에 기초하여, 언어 패키지 (LP1/LP2)를 선택하는 단계를 포함하는 방법을 수행하되,
    상기 선택 단계를 수행하기 위해, 상기 전자 장치(10)는 각 언어 패키지 (LP1 - LP9)에 속하는 언어들 (L1 - L34)에 대한 정보를 포함하고, 상기 사용자 인터페이스는 음성 사용자 인터페이스 (VUI) 또는 그래픽 사용자 인터페이스 (GUI)인 것을 특징으로 하는 전자 장치 (10).
  2. 제1항에 있어서, 상기 제1언어 (L6)가 적어도 두 패키지들 (LP1 - LP7)에 속하면, 전자 장치 (10)는 부가적으로 제2사용자 인터페이스 (GUI/VUI)에 대한 제2언어(L11)를 등록하도록 구성되고, 그러한 제1 및 제2언어 정보 (L6, L11)에 기초하여 장치가 언어 패키지 (LP2)를 선택하도록 정해짐을 특징으로 하는 전자 장치 (10).
  3. 제1항 또는 제2항에 있어서, 각 언어 (L1 - L34)에 대해 원주민(native) 언어 패키지가 정해짐을 특징으로 하는 전자 장치 (10).
  4. 제1항 또는 제2항에 있어서, 상기 제1언어 (L1/L6)는 음성 사용자 인터페이스 언어 (VUIL)임을 특징으로 하는 전자 장치 (10).
  5. 제1항 또는 제2항에 있어서, 상기 제2언어 (L11)는 그래픽 사용자 인터페이스 언어 (GUIL)임을 특징으로 하는 전자 장치 (10).
  6. 제1항 또는 제2항에 있어서, 전자 장치 (10)의 메모리 (MEM)에 정해진, 언어 패키지 (LP1 - LP9)에 속하는 언어들 (L1 - L34)에 대한 정보는, 룩업 테이블(18)을 형성하도록 구성되고, 그러한 룩업 테이블(18)로부터 언어 패키지 (LP3) 선택이 수행되도록 구성됨을 특징으로 하는 전자 장치 (10)
  7. 제6항에 있어서, 음성 사용자 인터페이스 언어/그래픽 사용자 인터페이스 언어 조합 (VUIL-GUIL)이 룩업 테이블 (18) 안에 정해지고, 그 각 조합 (VUIL-GUIL)으로 선택에 적합한 언어 패키지 (LP1 - LP9)가 링크됨을 특징으로 하는 전자 장치 (10).
  8. 제1항 또는 제2항에 있어서, 모바일 스테이션임을 특징으로 하는 전자 장치 (10).
  9. 음성 사용자 인터페이스 (VUI)인 사용자 인터페이스가 있고, 음성 사용자 인터페이스 (VUI)를 구현하는데 사용되는 음성 인식 (SR)이 사용되는 전자 장치 (10)에서, 음성 인식 (SR)은 전자 장치 (10)내에서 여러 개의 언어 패키지들 가운데 한 언어 패키지(LP3)를 활용하고, 상기 언어 패키지들 (LP1 - LP9) 각각은 다수의 언어들 (L1 - L34)을 포함하며, 이 언어들 (L1 - L34) 중 일부는 여러 언어 패키지들 (LP1 - LP9)에 속하고, 상기 언어 패키지들 (LP1 - LP9)로부터 한 언어 패키지가 상기 사용자 인터페이스 (VUI)에 사용되기 위해 선택될 때, 전자 장치 (10) 내에서 사용자 인터페이스 언어 설정 (VUIL/GUIL)을 수행하기 위한 방법에 있어서,
    - 제1 및 제2 언어에 대한 언어 정보 (L1/L6/L11)가 전자 장치 (10)에 등록되는 단계 (401 - 402단계, 404.2 - 405.2 단계), 및
    - 전자 장치 (10)가 제1 및 제2 언어에 대한 상기 언어 정보 (L1/L6/L11)에 기초하여, 사용할 언어 패키지(LP1/LP2)가 작동 개시하도록 선택하는 단계 (403, 404.1, 406.2 단계)를 포함함을 특징으로 하는 방법.
  10. 제9항에 있어서,
    - 한 사용자 인터페이스 (VUI, GUI)를 위해 적어도 제1언어 (L1/L6)가 언어 정보로서 전자 장치 (10)에 등록되는 단계 (401 - 402 단계), 및
    - 상기 제1언어 (L1)가 하나의 언어 패키지(LP1)에 속하는 경우, 전자 장치 (10)가 제1언어 (L1)에 기초해 언어 패키지 (LP1)를 선택하는 단계 (403, 404.1 단계)를 포함함을 특징으로 하는 방법.
  11. 제10항에 있어서, 상기 제1언어 (L6)가 여러 언어 패키지들 (LP1 - LP7)에 속하는 경우,
    - 제2사용자 인터페이스 (GUI, VUI)를 위한 제2언어 (L11)가 전자 장치 (10)에 등록되는 단계 (404.2, 405.2 단계), 및
    - 전자 장치 (10)는 제1 및 제2언어들 (L6, L11)에 기반해 언어 패키지(LP2)를 선택하는 단계(406.2 단계)를 더 포함함을 특징으로 하는 방법.
  12. 제9항 내지 제11항 중 어느 한 항에 있어서, 각각의 언어 (L1 - L34)마다 원주민 언어 패키지가 정해짐을 특징으로 하는 방법.
  13. 제9항 또는 제10항에 있어서, 언어-언어 패키지 정보가 전자 장치 (10) 내에 구성되어 룩업 테이블 (18)을 형성하고, 이 룩업 테이블로부터 언어 패키지 (LP1 - LP3) 선택이 수행됨을 특징으로 하는 방법.
  14. 제9항 또는 제10항에 있어서, 상기 제1언어 (L1/L6)는 음성 사용자 인터페이스 언어 (VUIL)임을 특징으로 하는 방법.
  15. 제9항에 있어서, 상기 제2언어 (L11)는 그래픽 사용자 인터페이스 언어 (GUIL)임을 특징으로 하는 방법.
  16. 제9항 또는 제10항에 따라, 전자 장치 (10)에서 사용자 인터페이스 언어 설정 (LP1, LP2)을 수행하기 위한 컴퓨터 프로그램 (17)을 저장한 컴퓨터로 독출가능한 기록매체에 있어서,
    - 전자 장치 (10) 내에 사용될 목적의 언어들 (VUIL) 가운데 적어도 하나의 언어에 대한 제1언어 정보를 등록하고 (402),
    - 상기 등록된 언어 정보 (L1)에 기반하여, 전자 장치 (10)에 구성된 언어 패키지 정보 (18)로부터, 전자 장치 (10)에서 사용될 언어 패키지 (LP1)를 선택하도록 (404.1) 정해짐을 특징으로 하는 컴퓨터 프로그램 (17)을 저장한 컴퓨터로 독출가능한 기록매체.
  17. 제16항에 있어서,
    - 제1언어 정보 (L6)에 링크된 언어 패키지들 (LP1 - LP9)의 수를 조사하고, 그에 기초해 제2언어 (GUIL)에 대한 정보 (L11)를 추가 등록하고 (403, 405.2),
    - 상기 제1 및 제2언어 정보 (L6, L11)에 기초하여, 전자 장치 (10)에 구성된 언어-언어 패키지 정보 (18)로부터, 전자 장치 (10)에 사용될 언어 패키지 (LP2)를 선택하도록 정해짐을 특징으로 하는 컴퓨터 프로그램 (17)을 저장한 컴퓨터로 독출가능한 기록매체.
  18. 제16항에 있어서, 상기 언어-언어 패키지 정보는 전자 장치 (10) 안에서 룩업 테이블 (18)로서 구성되고, 그 룩업 테이블로부터 언어 패키지 (LP1, LP3)에 대한 선택이 컴퓨터 프로그램 (17)을 통해 실행되도록 정해짐을 특징으로 하는 컴퓨터 프로그램 (17)을 저장한 컴퓨터로 독출가능한 기록매체.
KR1020067012066A 2003-12-19 2004-12-09 음성 사용자 인터페이스를 구비한 전자 장치 및 사용자인터페이스를 위한 언어 설정을 수행하는 전자 장치의 방법 KR100851629B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FI20035243 2003-12-19
FI20035243A FI115274B (fi) 2003-12-19 2003-12-19 Puhekäyttöliittymällä varustettu elektroninen laite ja menetelmä elektronisessa laitteessa käyttöliittymäkieliasetuksien suorittamiseksi

Publications (2)

Publication Number Publication Date
KR20060100470A KR20060100470A (ko) 2006-09-20
KR100851629B1 true KR100851629B1 (ko) 2008-08-13

Family

ID=29763643

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020067012066A KR100851629B1 (ko) 2003-12-19 2004-12-09 음성 사용자 인터페이스를 구비한 전자 장치 및 사용자인터페이스를 위한 언어 설정을 수행하는 전자 장치의 방법

Country Status (8)

Country Link
US (1) US8069030B2 (ko)
EP (1) EP1695237B1 (ko)
KR (1) KR100851629B1 (ko)
CN (1) CN1894687B (ko)
AT (1) ATE527606T1 (ko)
BR (1) BRPI0418204A (ko)
FI (1) FI115274B (ko)
WO (1) WO2005059770A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019143010A1 (ko) * 2018-01-22 2019-07-25 엘지전자 주식회사 이동 로봇의 동작 방법

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7669124B2 (en) * 2005-04-22 2010-02-23 Microsoft Corporation System and method for managing resource loading in a multilingual user interface operating system
KR101192037B1 (ko) * 2005-10-12 2012-10-17 엘지전자 주식회사 오디오 정보 표시 언어 설정 장치 및 방법
US8566078B2 (en) * 2010-01-29 2013-10-22 International Business Machines Corporation Game based method for translation data acquisition and evaluation
US8942974B1 (en) * 2011-03-04 2015-01-27 Amazon Technologies, Inc. Method and system for determining device settings at device initialization
US9262398B2 (en) * 2011-05-31 2016-02-16 Google Inc. Language set disambiguator
CA3199033A1 (en) * 2013-04-10 2014-10-16 Ruslan Albertovich SHIGABUTDINOV Systems and methods for processing input streams of calendar applications
US9953630B1 (en) * 2013-05-31 2018-04-24 Amazon Technologies, Inc. Language recognition for device settings
CN104699003A (zh) * 2013-12-05 2015-06-10 上海能感物联网有限公司 汉语语音遥控的机器人系统
CN104698988A (zh) * 2013-12-05 2015-06-10 上海能感物联网有限公司 非特定人外语语音遥控机器人的控制器装置
CN104698998A (zh) * 2013-12-05 2015-06-10 上海能感物联网有限公司 汉语语音现场控制的机器人系统
CN104698995A (zh) * 2013-12-05 2015-06-10 上海能感物联网有限公司 外语自然语文本现场控制的机器人系统
CN104698991A (zh) * 2013-12-05 2015-06-10 上海能感物联网有限公司 汉语语音现场控制机器人的控制器装置
CN104698994A (zh) * 2013-12-05 2015-06-10 上海能感物联网有限公司 外语自然语文本遥控的机器人系统
CN104698992A (zh) * 2013-12-05 2015-06-10 上海能感物联网有限公司 外语自然语文本遥控机器人的控制器装置
US9672208B2 (en) * 2014-02-28 2017-06-06 Bose Corporation Automatic selection of language for voice interface
CN104932873B (zh) * 2014-03-19 2018-05-25 联发科技(新加坡)私人有限公司 档案处理方法以及电子装置
US9536521B2 (en) 2014-06-30 2017-01-03 Xerox Corporation Voice recognition
JP6259804B2 (ja) 2014-11-26 2018-01-10 ネイバー コーポレーションNAVER Corporation コンテンツ参加翻訳装置、及びそれを利用したコンテンツ参加翻訳方法
US9953631B1 (en) 2015-05-07 2018-04-24 Google Llc Automatic speech recognition techniques for multiple languages
US10546497B2 (en) 2017-08-01 2020-01-28 Duncan Parking Technologies, Inc. Advanced parking management system
US10553203B2 (en) 2017-11-09 2020-02-04 International Business Machines Corporation Training data optimization for voice enablement of applications
US10565982B2 (en) 2017-11-09 2020-02-18 International Business Machines Corporation Training data optimization in a service computing system for voice enablement of applications
TWM563000U (zh) * 2018-02-14 2018-07-01 光陽工業股份有限公司 車輛之儀表語系切換系統
CN110414014B (zh) * 2019-08-05 2020-12-04 珠海格力电器股份有限公司 一种语音设备控制方法、装置、存储介质及语音设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1061459A2 (en) 1999-06-15 2000-12-20 Lucent Technologies Inc. System and method for automatically generating dynamic interfaces
EP1209660A2 (en) 2000-11-23 2002-05-29 International Business Machines Corporation Voice navigation in web applications
US20020177993A1 (en) 1993-04-21 2002-11-28 Borland Software Corporation System and method for national language support
US20030023440A1 (en) 2001-03-09 2003-01-30 Chu Wesley A. System, Method and computer program product for presenting large lists over a voice user interface utilizing dynamic segmentation and drill down selection
US20040193426A1 (en) 2002-10-31 2004-09-30 Maddux Scott Lynn Speech controlled access to content on a presentation medium

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5440615A (en) * 1992-03-31 1995-08-08 At&T Corp. Language selection for voice messaging system
US5406626A (en) * 1993-03-15 1995-04-11 Macrovision Corporation Radio receiver for information dissemenation using subcarrier
JP3356536B2 (ja) * 1994-04-13 2002-12-16 松下電器産業株式会社 機械翻訳装置
US5978678A (en) * 1996-06-07 1999-11-02 Telefonaktiebolaget L M Ericsson (Publ) Cellular telephone network routing method and apparatus for internationally roaming mobile stations
US5917484A (en) 1997-02-24 1999-06-29 Hewlett-Packard Company Multilingual system locale configuration
US6069939A (en) * 1997-11-10 2000-05-30 At&T Corp Country-based language selection
US6061646A (en) * 1997-12-18 2000-05-09 International Business Machines Corp. Kiosk for multiple spoken languages
DE69932803T2 (de) 1998-02-02 2007-03-15 Pulsepoint Communications, Carpenteria Dynamisch ladbare satzbuchbibliotheken für gesprochene sprachgrammatik in einem interaktiven system
US6941273B1 (en) * 1998-10-07 2005-09-06 Masoud Loghmani Telephony-data application interface apparatus and method for multi-modal access to data applications
US6292772B1 (en) * 1998-12-01 2001-09-18 Justsystem Corporation Method for identifying the language of individual words
US6385586B1 (en) * 1999-01-28 2002-05-07 International Business Machines Corporation Speech recognition text-based language conversion and text-to-speech in a client-server configuration to enable language translation devices
JP3665020B2 (ja) 1999-07-24 2005-06-29 ラティス インテレクチュアル プロパティー リミテッド 分岐用継手をパイプラインに連結する方法
US7403888B1 (en) * 1999-11-05 2008-07-22 Microsoft Corporation Language input user interface
US6532446B1 (en) * 1999-11-24 2003-03-11 Openwave Systems Inc. Server based speech recognition user interface for wireless devices
GB9929284D0 (en) * 1999-12-11 2000-02-02 Ibm Voice processing apparatus
US20010029455A1 (en) * 2000-03-31 2001-10-11 Chin Jeffrey J. Method and apparatus for providing multilingual translation over a network
US7231421B2 (en) * 2000-10-13 2007-06-12 Kabushiki Kaisha Toshiba Data relay system, data relay method, data relay program, information processing method, and information processing program
JP4135307B2 (ja) * 2000-10-17 2008-08-20 株式会社日立製作所 音声通訳サービス方法および音声通訳サーバ
WO2002050817A1 (en) * 2000-12-20 2002-06-27 Koninklijke Philips Electronics N.V. Speechdriven setting of a language of interaction
US20040030554A1 (en) * 2002-01-09 2004-02-12 Samya Boxberger-Oberoi System and method for providing locale-specific interpretation of text data
US20060167677A1 (en) 2002-07-30 2006-07-27 Albert Bitzer Mobile communication terminal
US7028027B1 (en) * 2002-09-17 2006-04-11 Yahoo! Inc. Associating documents with classifications and ranking documents based on classification weights
US7574217B1 (en) * 2003-09-02 2009-08-11 Cisco Technology, Inc. Method for dynamic configuration of a mobile access point
US20050114114A1 (en) * 2003-11-26 2005-05-26 Ariel Rudolph System and method for providing a translational dictionary
US20050125218A1 (en) * 2003-12-04 2005-06-09 Nitendra Rajput Language modelling for mixed language expressions

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020177993A1 (en) 1993-04-21 2002-11-28 Borland Software Corporation System and method for national language support
EP1061459A2 (en) 1999-06-15 2000-12-20 Lucent Technologies Inc. System and method for automatically generating dynamic interfaces
EP1209660A2 (en) 2000-11-23 2002-05-29 International Business Machines Corporation Voice navigation in web applications
US20030023440A1 (en) 2001-03-09 2003-01-30 Chu Wesley A. System, Method and computer program product for presenting large lists over a voice user interface utilizing dynamic segmentation and drill down selection
US20040193426A1 (en) 2002-10-31 2004-09-30 Maddux Scott Lynn Speech controlled access to content on a presentation medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019143010A1 (ko) * 2018-01-22 2019-07-25 엘지전자 주식회사 이동 로봇의 동작 방법

Also Published As

Publication number Publication date
KR20060100470A (ko) 2006-09-20
CN1894687B (zh) 2011-04-20
US8069030B2 (en) 2011-11-29
ATE527606T1 (de) 2011-10-15
EP1695237A1 (en) 2006-08-30
BRPI0418204A (pt) 2007-04-17
WO2005059770A1 (en) 2005-06-30
EP1695237B1 (en) 2011-10-05
CN1894687A (zh) 2007-01-10
US20070073530A1 (en) 2007-03-29
FI115274B (fi) 2005-03-31
FI20035243A0 (fi) 2003-12-19

Similar Documents

Publication Publication Date Title
KR100851629B1 (ko) 음성 사용자 인터페이스를 구비한 전자 장치 및 사용자인터페이스를 위한 언어 설정을 수행하는 전자 장치의 방법
US11990135B2 (en) Methods and apparatus for hybrid speech recognition processing
KR100891695B1 (ko) 확장가능한 음성 명령
JP6570651B2 (ja) 音声対話装置および音声対話方法
KR101418163B1 (ko) 컨텍스트 정보를 이용한 음성 인식 복구
US8224656B2 (en) Speech recognition disambiguation on mobile devices
US8099290B2 (en) Voice recognition device
US20120209608A1 (en) Mobile communication terminal apparatus and method for executing application through voice recognition
US20180211668A1 (en) Reduced latency speech recognition system using multiple recognizers
US7552221B2 (en) System for communicating with a server through a mobile communication device
US20150039307A1 (en) Interfacing device and method for supporting speech dialogue service
JPWO2016103358A1 (ja) 音声認識装置及び音声認識方法
JP2009211629A (ja) 対話装置、重み情報学習装置、対話方法、重み情報学習方法、およびプログラム
JP2008015209A (ja) 音声認識装置およびその認識辞書更新方法、プログラムならびに記憶媒体
TW201419825A (zh) 行動資訊裝置上的語音控制
JP2003162293A (ja) 音声認識装置及び方法
WO2007105841A1 (en) Method for translation service using the cellular phone
US9678942B2 (en) Methods for generating phrases in foreign languages, computer readable storage media, apparatuses, and systems utilizing same
WO2016136208A1 (ja) 音声対話装置、音声対話システム、および、音声対話装置の制御方法
EP1524870A1 (en) Method for communicating information in a preferred language from a server via a mobile communication device
JP2008243048A (ja) 対話装置、対話方法及びプログラム
JP2003202890A (ja) 音声認識装置及びその方法、プログラム
JP2004134942A (ja) 携帯電話装置
EP3035207A1 (en) Speech translation device
WO2017179164A1 (ja) 読み上げルール修正装置、読み上げルール修正方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
E902 Notification of reason for refusal
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130103

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20130724

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20140724

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee