KR20020030694A - 통역 서비스 방법 및 통역 서비스 장치 - Google Patents

통역 서비스 방법 및 통역 서비스 장치 Download PDF

Info

Publication number
KR20020030694A
KR20020030694A KR1020010010092A KR20010010092A KR20020030694A KR 20020030694 A KR20020030694 A KR 20020030694A KR 1020010010092 A KR1020010010092 A KR 1020010010092A KR 20010010092 A KR20010010092 A KR 20010010092A KR 20020030694 A KR20020030694 A KR 20020030694A
Authority
KR
South Korea
Prior art keywords
sentence
user
sentences
database
book
Prior art date
Application number
KR1020010010092A
Other languages
English (en)
Other versions
KR100378100B1 (ko
Inventor
오부찌야스나리
고이즈미아쯔꼬
기따하라요시노리
미즈따니세이끼
Original Assignee
가나이 쓰토무
가부시키가이샤 히타치세이사쿠쇼
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가나이 쓰토무, 가부시키가이샤 히타치세이사쿠쇼 filed Critical 가나이 쓰토무
Publication of KR20020030694A publication Critical patent/KR20020030694A/ko
Application granted granted Critical
Publication of KR100378100B1 publication Critical patent/KR100378100B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/40Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/20Aspects of automatic or semi-automatic exchanges related to features of supplementary services
    • H04M2203/2061Language aspects
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99931Database or file accessing
    • Y10S707/99933Query processing, i.e. searching
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99941Database schema or data structure
    • Y10S707/99944Object-oriented database structure
    • Y10S707/99945Object-oriented database structure processing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99941Database schema or data structure
    • Y10S707/99948Application of database or data structure, e.g. distributed, multimedia, or image

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Machine Translation (AREA)
  • Telephonic Communication Services (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

임의 문장을 수신하는 음성 통역 서비스에서는, 음성 인식 시스템 및 기계 번역 시스템의 성능이 한정되어 있으므로, 오인식이나 오역이 발생할 가능성이 있다. 정형 문장을 대상으로 한 음성 서비스에서는 오인식이나 오역의 문제는 거의 없지만, 그 대신에 유저가 말한 문장이 서버에 등록되어 있지 않고, 그 문장을 통역할 수 없다라는 현상이 발생한다.
음성 통역 서비스 사용 시보다 이전에, 사용자가 자신이 사용하고 싶은 문장을 등록할 수 있는 시스템을 제공함으로써, 상기한 과제를 해결한다. 문장의 등록은, 사무실에서 뿐만 아니라, 여행지 등에서도 가능하도록, WWW 외에, 전자 메일이나 전화 음성 통화 등을 사용하여 문장 등록을 할 수 있도록 한다.

Description

통역 서비스 방법 및 통역 서비스 장치{TRANSLATION SERVICE METHOD AND APPARATUS}
본 발명은, 전화를 통해 사용자가 음성을 입력하고, 그 내용을 외국어로 변환하여 출력하는 것을 목적으로 하는 통역 서비스 방법 및 장치에 관한 것이다.
예를 들면, 특개평9-65424에는, 음성 인식 서버와 무선 휴대 단말기를 이용한 음성 번역 시스템이 개시되어 있다. 이 음성 번역 시스템은, 전화를 통한 음성 입력을 인식하고, 외국어로 변환하여 출력하는 것으로, 말의 내용을 제한하지 않은 임의 문장 음성 인식 기술을 이용하고 있다.
여행 등에서 음성 통역 서비스를 사용하고 싶은 경우에, 대화 상대와 마주 한 상황에서는, 입력에 대한 즉각적인 반응을 원한다. 그러나, 임의 문장 음성 인식을 사용한 통역 시스템에서는, 말의 내용에 제한이 없기 때문에, 인식 오류가 아주 많이 일어나고, 즉각적으로 반응을 얻기가 어렵다는 문제가 있었다. 또한, 입력된 언어를 외국어로 변환하는 때에도, 번역 오류가 빈번히 발생한다고 하는 문제가 있었다. 한편, 통역 이외의 목적의 음성 입력 시스템에서는, 필요한 발성 내용을 미리 알고 있고, 그 내용에만 제한된 정형 문장 음성 인식 기술도 있다. 이와같이, 미리 말의 내용을 제한하는 정형 문장 음성 인식을 통역 서비스에 사용하면 이 문제는 해결되지만, 그 대신에, 사용자가 통역하고자 하는 문장이 등록되어 있지 않은 경우, 그 문장을 입력할 수 없다고 하는 문제가 생긴다.
그래서, 본 발명에서는, 상기한 정형 문장 음성 인식을 사용하고, 또한 통역 서비스를 사용하기 전에, 전화나 인터넷 등의 다양한 수단으로 서버에 액세스하여, 사용자가 스스로 문장집(文例集)을 편집하는 것을 가능하게 하는 수단을 제공한다. 이에 의해, 사용자는 자신이 원하는 문장에 대한 통역 서비스를 이용할 수 있는 것과 동시에, 정밀도가 높은 정형 문장 음성 인식에 의해 정확하고 신속한 응답을 얻을 수 있다. 특히, 여행 등에서 사용하고 싶은 문장의 대부분은, 사전에 대체로 예상이 되는 일이 많기 때문에, 본 발명을 이용함으로써, 여행 개시 전이나 여행 중의 호텔 체재시 등에 원하는 문장을 미리 등록해두고, 실제의 대화에서는 곧바로 번역문을 출력시킬 수 있다. 또한, 대화의 현장에서 새롭게 통역을 원하는 문장이 생각난 경우에도, 상대에게 말을 걸기 전이라면, 휴대 전화 등을 사용하여 문장 등록을 끝내고 나서 말을 건냄으로써, 마찬가지의 효과를 얻을 수 있다. 이들 사용 방법을 통하여, 번역문 및 출력 음성의 품질이 보증되어 있기 때문에, 시스템의 오인식·오역 등에 의해 의도하지 않은 내용이 전해지는 것을 막을 수 있다.
도 1은 본 발명을 이용한 시스템의 구성의 개요도.
도 2는 본 발명에 이용한 서비스를 사용하는 경우의 처리의 예시도.
도 3은 본 발명에 이용하는 개인용 문장집의 예시도.
도 4는 본 발명을 이용한 시스템내의 개인 인증 서버의 구성도.
도 5는 본 발명을 이용한 시스템에 있어서의 문장 등록의 제1 예시도.
도 6은 본 발명을 이용한 시스템에 있어서의 문장 등록의 제2 예시도.
도 7은 본 발명을 이용한 시스템에 있어서의 문장 등록의 제3 예시도.
도 8은 본 발명을 이용한 시스템에 있어서의 문장 등록의 제4 예시도.
도 9는 본 발명을 이용한 시스템에 있어서의 문장 등록의 제5 예시도.
도 10은 본 발명을 이용한 시스템에서의 번역문 작성 방식을 나타낸 도면.
도 11은 본 발명을 이용한 시스템에서의 출력 음성 작성 방식을 나타낸 도면.
<도면의 주요 부분에 대한 부호의 설명>
108: 통역 서비스 서버
110: 음성 인식 서버
112: 개인 인증 서버
114: 개인 정보 관리 서버
122: 기계 번역 서버
이하, 도면을 이용하여 본 발명의 실시예를 설명한다. 또한, 본 실시예에서는, 일본어 입력을 영어 출력으로 통역하는 경우의 예를 도시하고 있지만, 입력 언어 및 출력 언어를 다른 언어로 바꾼 경우에도, 본 발명을 동일하게 실시하는 것이가능하다.
도 1은 본 발명을 이용한 전화에 의한 통역 서비스 방법 및 통역 서비스 장치의 일 실시예에 있어서의 처리의 개요를 나타내고 있다. 좌측에 나타낸 통역 서비스 사용시에는, 사용자는 자신의 전화기(102)로부터 통역 서비스 서버(108)에 전화를 건다. 통역 서비스 서버는, 개인 인증 서버(1l2)을 이용하여 사용자를 특정하고, 그 사용자에 대응하는 문장집을 개인용 문장집(118)의 데이터 베이스로부터 추출한다. 그 후, 사용자의 음성에 의한 입력을 음성 인식 서버(l10)로 인식하고, 그 내용에 따른 외국어로 변환, 출력한다. 또한, 사용자는 자신의 전용 문장집을 사용하지 않도록 지정할 수도 있다. 이러한 사용자의 지정을 받은 경우, 또는 개인 인증 서버가 비등록 사용자라고 하는 인증 결과를 보내온 경우에는, 개인용 문장집 대신에 일반용 문장집(116)을 이용한다.
도 1의 우측에는, 문장 등록시에 이용되는 시스템의 구성을 나타내고 있다. 문장 등록시에는, 전화기(104) 외에, 퍼스널 컴퓨터 등의 일반적인 단말 장치(106)를 이용할 수도 있다. 사용자는, 이들 장치로부터, 음성, 전자 메일, WWW 등의 수단을 이용하여 개인 정보 관리 서버(114)에 액세스한다.
개인 정보 관리 서버는, 개인 인증 서버(112)를 사용하여 사용자를 식별하고, 개인용 문장집(118)의 데이터 베이스로부터 그 사용자에 대응하는 문장집을 추출한다. 이렇게 해서 추출된 개인용 문장집에 대하여, 개인 정보 관리 서버는 문장의 추가, 변경, 삭제 등의 처리를 행한다. 문장의 추가를 행할 때는, 자유 입력에 의한 추가 외에, 미리 준비된 추가 등록용 문장집(120)에서 문장을 선택하여 추가할 수도 있다. 이렇게 해서 추가된 문장에 대하여는, 외국어의 번역을 부여할 필요가 있지만, 추가 등록용 문장집에 미리 대응하는 외국어가 준비되어 있는 경우에는, 이것을 그대로 이용한다. 그렇지 않은 경우에는, 해당 문장을 기계 번역 서버(122)에 전송하여, 외국어로 번역을 행한다. 또한, 기계 번역 서버에서의 번역이 곤란한 경우에는, 또한 오퍼레이터(124)에 전송하여, 인간에 의한 번역을 행한다. 이들의 작업에 대응하여, 사용자가 전화기를 사용하여 문장 등록을 행할 때, 음성 인식 서버(110)를 사용하여 음성으로 조작하는 것도 가능하다.
도 2는, 본 특허를 사용한 통역 서비스를 받는 경우의 일련의 흐름의 일례를 나타내고 있다. 우선 사용자가 통역 서비스의 번호로 전화를 건다. 서버는, 발신자 번호 통지 기능을 이용하여, 사용자가 누구인지를 검출한다. 혹은, PB(푸시 버튼)음을 사용하여 사용자의 ID와 패스워드를 보내는 등, 다른 수단으로 개인 인증을 행할 수도 있다. 사용자가 특정되면, 서버는「통역 서비스입니다. 일본어를 말씀하세요」라고 응답을 한 후, 사용자의 개인용 문장집으로부터 기본 문장을 로드하고, 이들 문장에 대한 음성 인식을 개시한다.
여기서, 예를 들면 사용자가「내 이름은 스즈끼이찌로입니다」라고 발성하면, 서버는 이것을 음성 인식하여, 그 결과를 반복한다. 사용자는 그 반복 음성을 듣고, 이것이 옳은 경우에는, 예를 들면 버튼 1을 눌러 번역문의 재생을 지시한다. 서버는, PB 음을 인식하여 사용자의 지시를 검지하고, 방금 전 인식한 문장의 영어 번역을 재생한다. 사용자가 몇번이나 재생음을 듣고 싶을 때에는, 반복 버튼 l을 눌러 재생을 지시하면 된다. 사용자가 이 교환에 만족하여, 다음의 문장을 입력하고 싶은 경우에는, 예를 들면 버튼 2을 눌러 다음 문장의 음성 인식 개시를 지시한다. 서버는 이 PB 음을 인식하여 음성 인식을 개시한다.
여기서, 사용자가 기본 문장이 아니고 병원의 문장을 입력하고 싶은 경우에는, 「병원의 회화」라고 말하여, 장면의 변경을 지시하는 커맨드어를 발성한다. 또, 커맨드에 대해서는, 발성이 아니고 PB 음을 이용하는 시스템 구성도 가능하다. 서버는 이 커맨드 발성을 서버가 음성 인식하고, 그 결과에 기초하여, 「병원에서 사용하는 문장을 말씀하세요」라고 응답함과 동시에, 사용자의 개인용 문장집으로부터 병원의 회화를 로드하고, 이들 문장에 대한 음성 인식을 개시한다. 이후는, 기본 문장의 경우와 마찬가지로, 「저는 고혈압증입니다」라는 음성 입력을 인식하여 반복하고, 버튼 입력에 따라서 영어 음성을 출력한다. 게다가, 같은 동작이 계속되고, 장면을 변경하는 커맨드가 입력된 경우에는 그에 따른 문장을 로드하고, 이하, 서비스 종료의 커맨드가 입력되던가, 또는 전화가 단절될 때까지 이 동작이 계속된다.
도 3은, 개인용 문장집의 내용의 일례를 나타내고 있다. 개인용 문장집에는, 사용자를 식별하기 위한 개인 정보로서, ID, 이름, 전화번호, 패스워드 등이 포함되어 있다. 이들 개인 정보는, 보다 고도한 사용을 위해, 다른 서버로 관리할 수도 있다. 그 후에 사용자가 등록한 문장이 열거되어 있다. 상기 도 2의 설명에도 있는 바와 같이, 음성 통역 서비스 사용시의 편의를 위해, 문장집은 사용 장면마다 분류되어 있는 것이 바람직하다. 이 예에서는, 기본 문장 외에, 병원의 회화, 쇼핑의 회화의 장면이 사용되고 있다. 이들 장면별로, 「안녕하십니까」라고누구나 사용하는 문장 외에, 「내 이름은 스즈키이치로입니다」라는 것과 같이 개인에게 특정화된 문장을 등록해 둘 수 있다. 장면은 미리 시스템에 의해서 설정되어 있는 것이 보통이지만, 사용자가 개인적으로 새로운 장면을 추가하거나, 불필요한 장면을 삭제할 수도 있다.
도 4는, 개인 인증 서버의 구성의 일례를 나타내고 있다. 개인 인증의 기초가 되는 데이터로서는, 전화 번호(4l6), ID, 이름, 패스워드(418), 음성 특징(420)등이 고려된다. 이들은, 현재의 전화기에서도 비교적 용이하게 사용할 수 있는 개인 특징이지만, 장래의 전화기에 고도한 정보 처리 기구가 부가된 때는, 지문이나 홍채 등의 생체 인증용 데이터 등을 이용하는 것도 고려된다. 전화번호를 이용하는 경우에는, 전화기(402)로부터 보내지는 발신자 번호 정보를 발신자 번호 검지부(406)에서 검지하고, 데이터 베이스와 대조하여 사용자를 특정한다. ID나 이름, 패스워드를 이용하는 경우에는, 전화기의 버튼 조작으로 발생하는 PB 음 인식부(408)로 PB 음을 인식하여, 해당하는 데이터와 대조한다. 또한, 음성으로 이름이나 패스워드를 입력하여, 음성 인식부(410)로 인식한 결과를 데이터와 대조할 수도 있다. 성문(聲紋) 등의 음성 특징(420)을 이용하는 경우에는, 화자 인식부(412)로 인식을 행한다.
도 5는, 문장 등록의 일례로서, 전자 메일을 사용하는 경우의 내용례를 나타낸 것이다. 전자 메일을 사용하여 문장 등록하는 경우에는, 수신처 어드레스 외에, 포맷에 관한 룰을 미리 정해 놓고, 그 룰에 따른 메일을 지정된 어드레스에 보냄으로써 등록이 행해진다. 이 때, 타인에 의한 변경을 막기 위해서, 패스워드의기입을 필요로 하는 것도 가능하다.
추가의 예(502)에서는,“APPEND“라고 하는 제목으로 추가인 것을 나타내고, 본문에 그 내용과 해당하는 장면(scene)을 기입하고 있다. 장면(scene)의 기입이 없는 경우에는, 기본 문장에 넣는 등의 조치를 취하면 된다. 패스워드의 기입이 필요한지 여부는, 서버의 설정에 의한다. 삭제의 예(504)에서는, 삭제하여야 할 문장의 내용과 해당하는 장면(scene)을 기입하고 있다. 장면(scene)의 기입이 없는 경우에는, 일치하는 문장을 모두 삭제하면 된다. 변경의 예(506)에서는, 문장의 내용 뒤에, 어떤 장면(scene)에서 어떤 장면으로 변경할 것인가를 기입하고 있다. 또한, 장면의 전환이나 서비스 종료를 지시하기 위한 커맨드 문장의 변경을 하고 싶은 경우에는, 장면 선택의 선택지의 속에「 커맨드」라는 분류를 준비해 둬, 이 속에 기술된 커맨드 문장을 변경·삭제·추가 등을 하도록 해두면 된다.
도 6은, 문장 등록의 일례로서, WWW를 사용하는 경우의 표시예를 나타낸 것이다. 사용자가 자신의 계정에 로그인하면, 동 도면과 같은 화면이 표시된다. 개인 정보 표시부(602)에는, ID, 이름 등이 표시된다. 장면 선택·표시부(604)에는, 편집 대상으로 되어 있는 장면의 이름이 표시되고, 예를 들면 이것이 풀다운 메뉴 등으로 되어 있어 장면의 선택도 행할 수 있게 되어 있다. 그 가로에는, 신규 장면 등록 버튼(606), 장면 삭제 버튼(608) 등이 있어, 장면의 등록이나 삭제를 행할 수 있게 되어 있다. 그 아래의 문장 표시부(610)에는, 선택한 장면에 포함되는 문장이 표시되어 있다. 문장의 변경이나 삭제를 행하고 싶은 경우에는, 마우스 등을 사용하여 문장을 선택한 후에, 문장 변경 버튼(612)이나 문장 삭제 버튼(614)을 누르는 것으로 변경이나 삭제를 실행한다. 또한, 장면 변경 버튼(616)을 사용하여, 장면의 변경을 행할 수도 있다. 게다가, 신규의 문장을 추가 등록하고 싶은 경우에는, 신규 문장 입력부(618)에 문장을 입력하고, 신규 등록 버튼(620)을 누름으로써 등록을 실행한다.
도 7은, 문장 등록의 일례로서, WWW를 사용하는 경우의 도 6과는 다른 또 하나의 방식의 표시예를 나타낸 것이다. 사용자는, 자신이 문장을 입력하는 대신에, 키워드 입력부(704)에 키워드를 입력한다. 검색 버튼(704)을 누르면, 미리 서버에 축적되어 있는 문장 데이터 베이스로부터 입력된 키워드에 관련되어 있는 것이 문장 표시부(708)에 표시된다. 여기서, 서버에 축적되어 있는 문장 데이터 베이스란, 음성 통역 서비스용으로 준비되어 있는 문장집과는 다른 것으로, 음성 통역 서비스용의 문장집보다도 훨씬 대규모의 것이다. 음성 통역 서비스에서 이용하는 경우에는, 음성 인식율을 높게 유지할 필요가 있기 때문에, 너무 많은 문장을 대상으로 할 수는 없지만, 여기서는 문자열을 사용한 검색에 이용할 뿐이기 때문에, 수천부터 수만, 수십만 단위의 데이터 베이스를 준비해 두는 것이 바람직하다. 또한, 이 데이터 베이스에는, 일본어 문장과 그것에 대응하는 영어 문장(외국어)을 모두 준비해 둠으로써, 신속하고 또한 정확한 번역문 생성을 실현할 수가 있다. 이렇게 해서 표시된 문장 중에서, 사용자는 필요한 문장을 선택하여, 등록 버튼(712)을 누르는 것으로 자신의 개인용 문장집에 등록할 수가 있다. 이 때, 이 문장에 대응하는 장면을, 장면 선택·표시부(710)를 사용하여 설정할 수가 있지만, 장면은 미리 예상이 되는 것이 많기 때문에, 가장 가능성이 높을 것 같은 장면을 디폴트로서 표시해 두는 것이 바람직하다.
도 8은, 문장 등록의 일례로서, 전화에 의한 음성 통화를 사용하는 경우의 처리의 흐름의 예를 나타낸 것이다. 사용자로부터 전화가 걸려오면, 서버는 도 4에서 설명했던 방식을 이용하여 개인 인증(802)을 행한다. 개인 인증이 성공하면, 다음에 문장 등록의 방식 지정(804)을 행한다. 여기서는 예로서, 자유 입력 방식과 키워드 검색 방식을 생각하고, 본 도면에서 자유 입력 방식을, 다음 도면에서 키워드 검색 방식을 설명한다. 방식 지정은 음성 또는 PB 음의 어느 쪽을 사용하더라도 상관없다.
자유 입력 방식에서는, 다음에 등록하고 싶은 문장을 발성한다(806). 서버는 이 음성을 인식하여, 결과를 반복한다(808). 여기서 이용하는 음성 인식은, 음성 통역 서비스에서 이용하는 정형 문장 인식과는 달리, 모든 단어의 자유로운 관계를 수용하는 임의 문장 인식이다. 임의 문장 인식의 인식율은 낮고, 한번에 완전히 옳은 인식 결과가 얻어지는 일은 적지만, 이하에 진술하는 수정을 이용하여 옳은 문장을 입력한다. 사용자는, 음성 인식 결과의 반복을 듣고, 그것이 옳은지 여부를 판정한다(8l0). 옳지 않은 경우에는, 수정 커맨드·수정 내용을 발성한다(812). 이 수정 커맨드와 수정 내용의 발성의 방법에는 여러가지 패턴이 고려되지만, 예를 들면, 틀린 부분만을 또 한번 발성하든가, 틀린 부분을 반복한 후에 옳은 내용을 발성하는 등의 방식이 고려된다. 수정을 행할 때 서버는 인식 결과를 반복하고, 최종적으로 옳은 인식 결과가 얻어질 때까지 이 사이클을 반복한다. 이와 같이 하여 문장이 확정하면, 다음에 장면을 발성하고(814), 이 인식 결과를 반복하여(8l6), 이것이 옳은 지 여부를 판정하고(8l8), 옳지 않은 경우에는 재발성에 의해 수정하고(820), 옳은 장면이 얻어질 때까지 반복한다. 이와 같이 하여 옳은 문장과 옳은 장면이 얻어지면, 이 문장은 개인용 문장집에 등록된다.
도 9는, 문장 등록의 일례로서, 전화에 의한 음성 통화를 사용하는 경우의 도 8과는 다른 또 하나의 처리의 흐름의 예를 나타낸 것이다. 방식 지정(904)에서 키워드 검색 방식을 선택한 경우, 사용자는 키워드를 발성한다(906). 서버는 이 음성을 인식하여, 결과를 반복한다(908). 여기서 이용하는 음성 인식은, 문장이 아니고 단어를 대상으로 한 고립 단어 인식이고, 음성 통역 서비스에서 이용하는 것과는 다르다. 사용자는 음성 인식 결과의 반복을 듣고, 그것이 옳은지 여부를 판정한다(9l0). 옳지 않은 경우에는, 키워드를 재차 발성하고(912), 옳은 인식 결과가 얻어질 때까지 동일 동작을 반복한다. 혹은, 버튼 조작 등에 의해, 음성 인식 결과의 제2 후보, 제3 후보 등을 순차 재생시켜, 입력한 단어가 재생된 것에서 이것을 선택한다고 하는 방식을 이용할 수도 있다. 이렇게 해서 옳은 키워드가 얻어지면, 서버는 이 키워드와 관련된 문장을 순차 재생한다(914). 여기서 이용하는 키워드 및 문장의 데이터 베이스는, 도 7에서 설명한 방식의 경우와 동일한 방식을 이용할 수 있다. 사용자는, 순차 재생되는 문장 중에서, 버튼 조작 등에 의해 원하는 문장을 선택하고(916), 그 후는, 도 8의 예와 동일하게, 장면의 입력을 행한다.
도 10은, 등록하고 싶은 문장에 대하여 번역문을 작성하는 방식의 개략을 나타낸 것이다. 도 5로부터 도 9까지와 같은 수단으로 사용자가 일본어 문장을 입력하면(1002), 그 문장이 서버가 미리 가지고 있는 대응 번역 데이터 베이스에 포함되어 있는지 또는 유사 문장이 있는지 여부를 조사한다(l004). 일반적으로는, 도 7 내지 도 9의 문장 등록 방식에서 이용하는 문장 데이터 베이스와, 본 도면에서 다루는 대응 번역 데이터 베이스는 함께 관리하는 것이 기대되기 때문에, 이 데이터 베이스에 포함되는 문장 전부에 대응 번역을 붙여 보존해 두면, 도 7 내지 도 9의 방식으로 등록한 문장에 대해서는 항상 대응 번역이 발견된다. 또한, 데이터 베이스중의 문장의 일부의 단어를 단순하게 다른 단어로 치환했을 뿐인 것에 대해서는, 대응 번역도 동일하게 단어의 치환으로 용이하게 작성할 수 있기 때문에, 데이터 베이스에 포함되는 경우와 같이 취급한다. 이들의 경우에는, 해당하는 데이터를 대응 번역으로서 추출·출력하면 된다(1006). 한편, 대응 번역 데이터 베이스에 동일 문장도 유사 문장도 발견되지 않은 경우에는, 기계 번역 시스템을 이용하여 대응 번역을 작성한다(1008). 이렇게 해서 작성된 번역문을 개인용 문장집에 등록할 때는, 시스템으로부터 사용자로, 「이 번역문은 기계 번역으로 작성된 것이고, 오역이 포함될 가능성이 있다」는 취지를 통지한다(1010). 사용자는, 오역의 우려를 이해하고 이 문장의 등록을 인정할지 또는 더욱 정밀도가 높은 번역을 요구할지 중 어느 것을 선택한다(1012). 일반적으로는, 더욱 정밀도가 높은 번역에 대하여는 상응의 비용을 지불하게 된다. 사용자가「정밀도가 높은 번역은 필요없다」라고 대답한 경우에는, 기계 번역으로 작성된 번역문을 확정하여(1014), 문장집에 등록한다. 「정밀도가 높은 번역이 필요하다」라고 대답한 경우에는, 인간의 통역 오퍼레이터에게 데이터를 송부하여, 사람의 손으로 번역문을 작성, 나중에 등록한다(1016).
도 11은, 등록하고 싶은 문장에 대하여 출력 음성을 작성하는 방식의 개략을 나타낸 것이다. 출력 음성의 작성은, 도 10에서 설명한 번역문의 작성과 거의 동일한 체제로 행한다. 즉, 영어 문장의 입력(1102)에 대하여, 음성 데이터 베이스에 동일 문장 또는 유사 문장이 있는지 어떤지를 검색하여(1104), 발견되면 그것을 그대로 출력하고(1106), 발견되지 않은 경우에는 음성 합성을 이용하여 작성한다(ll08). 이 경우도 번역문 작성의 경우와 동일하게, 단순한 단어의 치환에 대해서는, 운률 정보는 그대로 하고, 단어의 파형 정보만을 치환하는 것으로 자연스러운 출력 음성을 작성할 수 있기 때문에, 유사 문장에 관해서도 해당하는 데이터를 사용할 수가 있다. 데이터 베이스에서 동일 문장 또는 유사 문장이 발견되지 않은 경우에는, 발음·운율 등에 오류나 부자연함이 생길 우려가 있기 때문에, 그 취지를 사용자에 통지하여(1110), 이것을 그대로 받아 들일지, 더욱 정밀도가 높은 것을 희망하는지 의 선택을 구한다(1112). 받아 들이는 경우에는 그대로 출력 음성으로서 확정하고(1114), 그렇지 않은 경우에는 오퍼레이터의 작업에 의해서 더욱 고품질의 출력 음성을 작성·등록한다(lll6).
본 발명에 따르면, 음성 인식 정밀도를 향상시킴과 함께, 사용자가 자신이 사용하고자 하는 문장을 자유롭게 통역시킬 수 있다. 또한, 대화의 현장에서 새롭게 통역하고 싶은 문장을 생각해 낸 경우에도, 상대에게 이야기를 걸기 전이면, 휴대 전화 등을 사용하여 문장 등록을 끝내고 나서 이야기를 거는 것에 의해, 마찬가지의 효과를 얻을 수 있다. 이것들의 사용 방법을 통하여, 번역문 및 출력 음성의 품질이 보증되어 있기 때문에, 시스템의 오인식·오역 등에 의해 의도하지 않은 내용이 전해지는 것을 막을 수도 있다.

Claims (13)

  1. 통역 서비스 방법에 있어서,
    사용자로부터의 전화를 받는 단계와,
    상기 사용자가 미리 등록한 문장집을 데이터 베이스로부터 추출하는 단계와,
    상기 사용자의 말을 전화망을 통하여 수취하고 이것을 음성 인식하는 단계와,
    인식한 말에 대응하는 문장을 상기 문장집에서 검색하는 단계와,
    검색한 문장의 번역문을 전화망을 통하여 음성으로 출력하는 단계
    를 포함하는 것을 특징으로 하는 통역 서비스 방법.
  2. 제1항에 있어서,
    사용자로부터의 전화를 받을 때에 사용자의 전화기의 전화번호를 검지하고, 검지한 전화번호에 기초하여 상기 데이터 베이스로부터 상기 사용자가 미리 등록한 문장집을 추출하는 것을 특징으로 하는 통역 서비스 방법.
  3. 제1항에 있어서,
    사용자로부터의 전화를 받을 때에 사용자로부터 개인 정보의 입력을 받고, 상기 개인 정보에 기초하여 데이터 베이스로부터 상기 사용자가 미리 등록한 문장집을 추출하는 것을 특징으로 하는 통역 서비스 방법.
  4. 통역 서비스 방법에 있어서,
    사용자로부터의 액세스를 개인 정보 관리 서버에서 수취하는 단계와,
    상기 개인 정보 관리 서버내에 설치된 개인 인증 서버를 이용하여 상기 사용자를 특정하는 단계와,
    개인용 문장집의 데이터 베이스로부터 특정 사용자에 대응하는 문장집을 추출하는 단계와,
    추출한 문장집에 대한 사용자의 편집 정보를 수취하는 단계와,
    상기 편집 정보에 기초하여 상기 문장집에 문장을 추가, 변경, 삭제를 행한 뒤, 상기 문장집을 상기 데이터 베이스에 등록하는 단계
    를 포함하는 것을 특징으로 하는 통역 서비스 방법.
  5. 제4항에 있어서,
    사용자로부터의 액세스는, 인터넷 등의 양방향 정보 통신 프로토콜, 혹은, 전자 메일 등의 한쪽 방향 정보 통신 프로토콜을 통하여 행해지는 것을 특징으로 하는 통역 서비스 방법.
  6. 제4항에 있어서,
    사용자로부터의 액세스는 전화망을 통하여 행해지고, 상기 사용자의 전화기의 전화 번호를 검지하여 상기 사용자를 특정하여, 상기 사용자로부터의 음성에 의한 지시에 의해서 상기 편집 정보를 수취하는 것을 특징으로 하는 통역 서비스 방법.
  7. 제4항에 있어서,
    상기 사용자에게 미리 준비한 추가 등록 요구 문장집을 제시하여,
    상기 문장집으로부터 상기 사용자가 선택한 문장을 수취하고,
    선택된 문장과 이것의 외국어의 번역문을 상기 사용자의 데이터 베이스에 등록하는 것을 특징으로 하는 통역 서비스 방법.
  8. 제4항에 있어서,
    추가, 변경된 문장의 외국어의 번역문을 자동 번역에 의해 작성함과 함께, 작성된 번역문의 신뢰도를 사용자에게 전달하고,
    또한, 사용자로부터 정밀도가 높은 번역문의 요구를 받은 경우에는, 번역자에게 추가, 변경된 문장을 송부하여 정밀도가 높은 번역문을 작성하는 것을 가능하게 하는 것을 특징으로 하는 통역 서비스 방법.
  9. 제8항에 있어서,
    추가, 변경된 문장과 동일 또는 유사한 문장이 데이터 베이스에 포함되어 있는지 여부를 검지하고,
    동일 또는 유사한 문장이 포함되어 있는 경우에는, 번역문의 신뢰도가 충분히 높다고 판정하는 것을 특징으로 하는 통역 서비스 방법.
  10. 제4항에 있어서,
    추가, 변경된 문장의 번역문이 작성되었을 때에, 그 번역문에 대응하는 출력 음성을 자동 작성하고,
    상기 자동 작성된 출력 음성의 품질을 추정하여 사용자에게 전달하고,
    품질이 높은 출력 음성의 요구를 받은 경우, 오퍼레이터에게 데이터를 송부하여, 품질이 높은 출력 음성을 작성하는 것을 가능하게 하는 것을 특징으로 하는 통역 서비스 방법.
  11. 제10항에 있어서,
    추가, 변경된 문장과 동일 또는 유사한 문장이 데이터 베이스에 포함되어 있는지 여부를 검지하고,
    동일 또는 유사한 문장이 포함되어 있는 경우에는, 번역문에 대한 출력 음성의 품질이 충분히 높다고 판정하는 것을 특징으로 하는 통역 서비스 방법.
  12. 통역 서비스 장치에 있어서,
    사용자로부터의 전화를 받는 수단과,
    상기 사용자가 미리 등록한 문장집을 데이터 베이스로부터 추출하는 수단과,
    상기 사용자의 말을 전화망을 통하여 수취하여 이것을 음성 인식하는 수단과,
    인식한 말에 대응하는 문장을 상기 문장집으로부터 검색하는 수단과,
    검색한 문장의 번역문을 전화망을 통하여 음성으로 출력하는 수단
    을 포함하는 것을 특징으로 하는 통역 서비스 장치.
  13. 통역 서비스 장치에 있어서,
    사용자로부터의 액세스를 수취하는 개인 정보 관리 서버와,
    상기 개인 정보 관리 서버내에 설치되고, 상기 사용자를 특정하는 개인 인증 서버와,
    개인용 문장집의 데이터 베이스와,
    특정한 사용자에 대응하는 문장집을 상기 개인용 문장집의 데이터 베이스로부터 추출하는 수단과,
    추출한 문장집에 대한 사용자의 편집 정보를 수취하는 수단과,
    상기 편집 정보에 기초하여 상기 문장집에 문장을 추가, 변경, 삭제를 행한 뒤, 상기 문장집을 상기 데이터 베이스에 등록하는 수단
    을 포함하는 것을 특징으로 하는 통역 서비스 장치.
KR10-2001-0010092A 2000-10-17 2001-02-27 통역 서비스 방법 및 통역 서비스 장치 KR100378100B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000-321920 2000-10-17
JP2000321920A JP4089148B2 (ja) 2000-10-17 2000-10-17 通訳サービス方法および通訳サービス装置

Publications (2)

Publication Number Publication Date
KR20020030694A true KR20020030694A (ko) 2002-04-25
KR100378100B1 KR100378100B1 (ko) 2003-03-29

Family

ID=18799890

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2001-0010092A KR100378100B1 (ko) 2000-10-17 2001-02-27 통역 서비스 방법 및 통역 서비스 장치

Country Status (3)

Country Link
US (2) US6789093B2 (ko)
JP (1) JP4089148B2 (ko)
KR (1) KR100378100B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101233655B1 (ko) * 2009-12-11 2013-02-15 한국전자통신연구원 음성인식 기반 국제회의 통역 장치 및 방법
KR20140001536A (ko) * 2012-06-27 2014-01-07 한국전자통신연구원 위치정보 및 프로파일링 정보를 이용한 통번역 장치 및 방법

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4089148B2 (ja) * 2000-10-17 2008-05-28 株式会社日立製作所 通訳サービス方法および通訳サービス装置
US20030013438A1 (en) * 2001-07-12 2003-01-16 Darby George Eugene Pocket concierge system and method
FI112279B (fi) * 2001-11-21 2003-11-14 Mapvision Oy Ltd Menetelmä vastinpisteiden määrittämiseksi
US8249880B2 (en) * 2002-02-14 2012-08-21 Intellisist, Inc. Real-time display of system instructions
US7376415B2 (en) * 2002-07-12 2008-05-20 Language Line Services, Inc. System and method for offering portable language interpretation services
US20040243391A1 (en) * 2003-05-28 2004-12-02 Nelson David D. Apparatus, system, and method for multilingual regulation management
US20100070265A1 (en) * 2003-05-28 2010-03-18 Nelson David D Apparatus, system, and method for multilingual regulation management
US20050079859A1 (en) * 2003-10-14 2005-04-14 Eakin William Joseph System and method for remotely accessing a private database
US7130401B2 (en) 2004-03-09 2006-10-31 Discernix, Incorporated Speech to text conversion system
KR20060110787A (ko) * 2005-04-20 2006-10-25 가부시키가이샤 소니 컴퓨터 엔터테인먼트 회화 지원 장치
US20060293890A1 (en) * 2005-06-28 2006-12-28 Avaya Technology Corp. Speech recognition assisted autocompletion of composite characters
US20070016421A1 (en) * 2005-07-12 2007-01-18 Nokia Corporation Correcting a pronunciation of a synthetically generated speech object
US8249873B2 (en) * 2005-08-12 2012-08-21 Avaya Inc. Tonal correction of speech
US7792276B2 (en) * 2005-09-13 2010-09-07 Language Line Services, Inc. Language interpretation call transferring in a telecommunications network
US8023626B2 (en) * 2005-09-13 2011-09-20 Language Line Services, Inc. System and method for providing language interpretation
US7894596B2 (en) 2005-09-13 2011-02-22 Language Line Services, Inc. Systems and methods for providing language interpretation
JP4559946B2 (ja) 2005-09-29 2010-10-13 株式会社東芝 入力装置、入力方法および入力プログラム
US8265924B1 (en) 2005-10-06 2012-09-11 Teradata Us, Inc. Multiple language data structure translation and management of a plurality of languages
US20070239625A1 (en) * 2006-04-05 2007-10-11 Language Line Services, Inc. System and method for providing access to language interpretation
US7593523B2 (en) * 2006-04-24 2009-09-22 Language Line Services, Inc. System and method for providing incoming call distribution
US7773738B2 (en) * 2006-09-22 2010-08-10 Language Line Services, Inc. Systems and methods for providing relayed language interpretation
US7752043B2 (en) * 2006-09-29 2010-07-06 Verint Americas Inc. Multi-pass speech analytics
KR100834549B1 (ko) * 2006-10-19 2008-06-02 한국전자통신연구원 번역 시스템 및 번역 서비스 제공방법
US8768689B2 (en) * 2007-02-14 2014-07-01 Nuance Communications, Inc. Method and system for translation management of source language text phrases
KR100905744B1 (ko) * 2007-12-04 2009-07-01 엔에이치엔(주) 사용자 제작 문답 데이터에 기반한 회화 사전 서비스 제공방법 및 시스템
US20090307870A1 (en) * 2008-06-16 2009-12-17 Steven Randolph Smith Advertising housing for mass transit
US8989704B2 (en) * 2008-12-10 2015-03-24 Symbol Technologies, Inc. Invisible mode for mobile phones to facilitate privacy without breaching trust
US20100198582A1 (en) * 2009-02-02 2010-08-05 Gregory Walker Johnson Verbal command laptop computer and software
US20100205074A1 (en) * 2009-02-06 2010-08-12 Inventec Corporation Network leasing system and method thereof
SG175265A1 (en) * 2009-05-08 2011-11-28 Werner Jungblut Interpersonal communications device and method
KR101377459B1 (ko) * 2009-12-21 2014-03-26 한국전자통신연구원 자동 통역 장치 및 그 방법
JP5243646B2 (ja) 2011-05-24 2013-07-24 株式会社エヌ・ティ・ティ・ドコモ サービスサーバ装置、サービス提供方法、サービス提供プログラム
WO2013150883A1 (ja) * 2012-04-06 2013-10-10 八楽株式会社 Webページ翻訳システム
US9098494B2 (en) * 2012-05-10 2015-08-04 Microsoft Technology Licensing, Llc Building multi-language processes from existing single-language processes
RU2546064C1 (ru) * 2013-11-12 2015-04-10 Общество с ограниченной ответственностью "Технологии управления переводом" Распределенная система и способ языкового перевода
JP2019003433A (ja) * 2017-06-15 2019-01-10 株式会社リクルートライフスタイル プログラム、表示方法及び情報処理装置
CN117524193B (zh) * 2024-01-08 2024-03-29 浙江同花顺智能科技有限公司 中英混合语音识别系统训练方法、装置、设备及介质

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5384701A (en) * 1986-10-03 1995-01-24 British Telecommunications Public Limited Company Language translation system
US4984177A (en) * 1988-02-05 1991-01-08 Advanced Products And Technologies, Inc. Voice language translator
JPH03268062A (ja) * 1990-03-19 1991-11-28 Fujitsu Ltd 機械翻訳電子メール装置における私用単語の登録装置
JP3315221B2 (ja) 1993-11-19 2002-08-19 シャープ株式会社 会話文翻訳装置
JPH07222248A (ja) 1994-02-08 1995-08-18 Hitachi Ltd 携帯型情報端末における音声情報の利用方式
US6134549A (en) * 1995-03-31 2000-10-17 Showcase Corporation Client/server computer system having personalizable and securable views of database data
JP3741156B2 (ja) * 1995-04-07 2006-02-01 ソニー株式会社 音声認識装置および音声認識方法並びに音声翻訳装置
JP3385146B2 (ja) * 1995-06-13 2003-03-10 シャープ株式会社 会話文翻訳装置
JP3473204B2 (ja) 1995-08-21 2003-12-02 株式会社日立製作所 翻訳装置及び携帯端末装置
JPH09231224A (ja) * 1996-02-26 1997-09-05 Fuji Xerox Co Ltd 言語情報処理装置
US5732216A (en) * 1996-10-02 1998-03-24 Internet Angles, Inc. Audio message exchange system
US6085162A (en) * 1996-10-18 2000-07-04 Gedanken Corporation Translation system and method in which words are translated by a specialized dictionary and then a general dictionary
US6161082A (en) * 1997-11-18 2000-12-12 At&T Corp Network based language translation system
US6336114B1 (en) * 1998-09-03 2002-01-01 Westcorp Software Systems, Inc. System and method for restricting access to a data table within a database
JP2000194700A (ja) 1998-12-25 2000-07-14 Sony Corp 情報処理装置および方法、並びに提供媒体
US6356865B1 (en) * 1999-01-29 2002-03-12 Sony Corporation Method and apparatus for performing spoken language translation
US6266642B1 (en) * 1999-01-29 2001-07-24 Sony Corporation Method and portable apparatus for performing spoken language translation
US6243669B1 (en) * 1999-01-29 2001-06-05 Sony Corporation Method and apparatus for providing syntactic analysis and data structure for translation knowledge in example-based language translation
US6374224B1 (en) * 1999-03-10 2002-04-16 Sony Corporation Method and apparatus for style control in natural language generation
US6792086B1 (en) * 1999-08-24 2004-09-14 Microstrategy, Inc. Voice network access provider system and method
US6263051B1 (en) * 1999-09-13 2001-07-17 Microstrategy, Inc. System and method for voice service bureau
US6330530B1 (en) * 1999-10-18 2001-12-11 Sony Corporation Method and system for transforming a source language linguistic structure into a target language linguistic structure based on example linguistic feature structures
US6438524B1 (en) * 1999-11-23 2002-08-20 Qualcomm, Incorporated Method and apparatus for a voice controlled foreign language translation device
AUPQ539700A0 (en) * 2000-02-02 2000-02-24 Worldlingo.Com Pty Ltd Translation ordering system
KR100387918B1 (ko) * 2000-07-11 2003-06-18 이수성 통역기
JP4089148B2 (ja) * 2000-10-17 2008-05-28 株式会社日立製作所 通訳サービス方法および通訳サービス装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101233655B1 (ko) * 2009-12-11 2013-02-15 한국전자통신연구원 음성인식 기반 국제회의 통역 장치 및 방법
KR20140001536A (ko) * 2012-06-27 2014-01-07 한국전자통신연구원 위치정보 및 프로파일링 정보를 이용한 통번역 장치 및 방법

Also Published As

Publication number Publication date
KR100378100B1 (ko) 2003-03-29
US6789093B2 (en) 2004-09-07
JP4089148B2 (ja) 2008-05-28
US7467085B2 (en) 2008-12-16
US20020046206A1 (en) 2002-04-18
JP2002125047A (ja) 2002-04-26
US20040267538A1 (en) 2004-12-30

Similar Documents

Publication Publication Date Title
KR100378100B1 (ko) 통역 서비스 방법 및 통역 서비스 장치
US6996531B2 (en) Automated database assistance using a telephone for a speech based or text based multimedia communication mode
US7739118B2 (en) Information transmission system and information transmission method
US6895257B2 (en) Personalized agent for portable devices and cellular phone
US8185539B1 (en) Web site or directory search using speech recognition of letters
US20050053201A1 (en) System and methodology for voice activated access to multiple data sources and voice repositories in a single session
US8328089B2 (en) Hands free contact database information entry at a communication device
EP1240642B1 (en) Learning of dialogue states and language model of spoken information system
US5917890A (en) Disambiguation of alphabetic characters in an automated call processing environment
CN101552821B (zh) 产生和使用呼叫方的姓名的音标字母表达的方法和设备
US20080071544A1 (en) Integrating Voice-Enabled Local Search and Contact Lists
JP2002125047A5 (ko)
WO2002049253A2 (en) Method and interface for intelligent user-machine interaction
CN111325039A (zh) 基于实时通话的语言翻译方法、系统、程序和手持终端
JPH11184670A (ja) ネットワークアクセスシステム、方法及び記録媒体
CN106603792B (zh) 一种号码查找设备
US20030007608A1 (en) System and method for making calls to vanity numbers using voice dialing
KR20010020871A (ko) 개선된 어구 저장, 사용, 변환, 전달 및 인식을 갖춘 음성제어된 디바이스를 위한 방법 및 장치
KR100399574B1 (ko) 외국인을 위한 전화안내 자동 통역시스템 및 방법
US20030091176A1 (en) Communication system and method for establishing an internet connection by means of a telephone
CN111274828B (zh) 基于留言的语言翻译方法、系统、计算机程序和手持终端
KR20220162477A (ko) 언어감지 기반의 전화 통번역 방법
KR101090554B1 (ko) 대화형 인터페이스 기반 무선 인터넷 접속 시스템 및 방법
KR100432373B1 (ko) 독립적 음성처리를 위한 음성인식 시스템
JP2001223816A (ja) 電話機によるテキストメッセージの作成方法および装置

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130227

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20140220

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20150224

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20160219

Year of fee payment: 14

FPAY Annual fee payment

Payment date: 20170221

Year of fee payment: 15

FPAY Annual fee payment

Payment date: 20180220

Year of fee payment: 16

LAPS Lapse due to unpaid annual fee