KR100699050B1 - 문자정보를 음성정보로 출력하는 이동통신 단말기 및 그방법 - Google Patents

문자정보를 음성정보로 출력하는 이동통신 단말기 및 그방법 Download PDF

Info

Publication number
KR100699050B1
KR100699050B1 KR1020060060232A KR20060060232A KR100699050B1 KR 100699050 B1 KR100699050 B1 KR 100699050B1 KR 1020060060232 A KR1020060060232 A KR 1020060060232A KR 20060060232 A KR20060060232 A KR 20060060232A KR 100699050 B1 KR100699050 B1 KR 100699050B1
Authority
KR
South Korea
Prior art keywords
information
voice information
voice
depth
displayed
Prior art date
Application number
KR1020060060232A
Other languages
English (en)
Inventor
이용석
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020060060232A priority Critical patent/KR100699050B1/ko
Priority to DE602006009385T priority patent/DE602006009385D1/de
Priority to EP06023610A priority patent/EP1873752B1/en
Priority to US11/603,607 priority patent/US8326343B2/en
Priority to CN2006101627970A priority patent/CN101098528B/zh
Application granted granted Critical
Publication of KR100699050B1 publication Critical patent/KR100699050B1/ko
Priority to US13/666,416 priority patent/US8560005B2/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/18Information format or content conversion, e.g. adaptation by the network of the transmitted or received information for the purpose of wireless delivery to users or terminals

Abstract

본 발명은 문자정보를 음성정보로 변환하여 출력하는 이동통신 단말기에 관한 것으로써, 다양한 음성정보로 다양한 상황을 표시하기 위해, 화면에 활성화되어 표시된 객체의 깊이를 검출하고, 검출된 객체의 깊이와 매핑된 음성정보를 검색하는 제어부, 상기 객체에 표시된 내용을 상기 검색된 음성정보로 변경하는 음성 합성부, 및 상기 음성정보를 출력하는 오디오 처리부로 구성된다.
이에 의해, 객체별로 다른 음성정보로 출력함으로써, 객체간의 구별이 가능하다.
이동통신 단말기, 음성정보, TTS

Description

문자정보를 음성정보로 출력하는 이동통신 단말기 및 그 방법{Terminal and Method for converting Text to Speech}
도 1은 본 발명의 바람직한 실시 예에 따른 이동통신 단말기,
도 2는 본 발명의 바람직한 실시 예에 따른 객체별 다른 음성정보를 출력하는 과정을 나타낸 흐름도,
도 3은 도 2의 객체의 깊이를 검출하는 과정을 상세히 나타낸 흐름도,
도 4a 내지 도4c 는 음성정보 매핑 데이터베이스 구조의 예를 나타낸 도면, 그리고
도 5a 내지 도 5c는 본 발명의 음성정보 출력과정의 예를 나타낸 도면이다.
<도면의 주요부분에 대한 부호 설명>
100 : 이동통신 단말기 110 : 통신부
120 : 저장부 130 : 입력부
140 : 피치 변형부 150 : 음성 합성부
160 : 제어부 170 : 표시부
180 : 오디오 처리부
본 발명은 문자 정보를 음성 정보로 출력하는 이동통신 단말기에 관한 것으로서, 특히 객체별로 다른 음성정보를 출력하기 위한 이동통신 단말기 및 그 방법에 관한 것이다.
본 발명에서 휴대용 단말기란 이동통신 단말기, 개인 휴대통신 단말기(PCS), 개인용 디지털 단말기(PDA), 스마트 폰, 차세대이동통신 단말기(IMT_2000) 등과 같이 개인이 휴대하면서 무선통신이 가능한 단말기를 말한다. 이하의 일 예에서는 이동통신 단말기를 예로 들어 설명하기로 한다.
근래의 이동통신 단말기들은 통신기술이 발달함에 따라 사용자가 장소의 제한 없이 이동하면서 통신 할 수 있도록 발전된 형태로 보급되고 있다.
그리고 상기 이동통신 단말기들은 기존의 단순한 전화 통화 기능 외에도 다양한 부가 기능(예컨대, 문자 메시지, 스케줄 관리)들을 추가로 사용자에게 제공하고 있다.
종래의 이동통신 단말기들을 이용한 인터넷 정보검색으로 사용자가 원하는 정보 표시 시, 이동통신 단말기의 화면에 문자정보를 디스플레이한 후 이동통신 단말기 사용자의 육안에 의한 해독을 함으로써 정보 내용을 다 해독할 때까지 시선을 뗄 수가 없어서 행동의 제약이 따르는 문제점이 있었고, 또한 이동통신 단말기에 의해 검색된 문자정보를 해독하는 것은 작은 화면 때문에 더욱 불편하였다.
상기와 같은 불편한 점을 개선하고자 이동통신 단말기 문자정보를 음성정보로 전환하는(Text To Speech; 이하 TTS)기능이 개발되었다. 이는 문자 메시지뿐만 아니라 특정 키 입력 시 TTS 기능을 수행하여 현재 시간을 음성신호로 출력 할 수도 있고, 모든 문자 또는 기호를 TTS 기능을 수행하여 음성신호로 출력할 수도 있다.
하지만 TTS 기능은 표시된 문자를 항상 같은 음성으로 출력한다. 이로 인해 시각 장애인들이나 문자식별이 어려운 노년층은 자신의 이동통신 단말기의 표시 상태를 육안으로 보는 것처럼 알기 어렵다.
상기와 같은 문제점을 해결하기 위한 본 발명의 목적은 다양한 음성정보로 다양한 상황을 표시하는 이동통신 단말기 및 그 방법을 제공하는데 있다.
또한 상기와 같은 문제점을 해결하기 위한 본 발명의 목적은 객체의 깊이별로 음성정보를 다르게 출력하여 화면을 보는 것과 동일한 환경을 제공하는 이동통신 단말기 및 그 방법을 제공하는데 있다.
상기와 같은 목적을 달성하기 위해 본 발명의 실시 예에 따른 문자정보를 음성정보로 출력하는 이동통신 단말기는 상기 화면에 활성화되어 표시된 객체의 깊이 를 검출하고, 검출된 객체의 깊이와 매핑된 음성정보를 검색하는 제어부, 상기 객체에 표시된 내용을 상기 검색된 음성정보로 변경하는 음성 합성부, 및 상기 음성정보를 출력하는 오디오 처리부로 구성된다.
상기와 같은 목적을 달성하기 위해 본 발명의 실시 예에 따른 이동통신 단말기의 문자정보를 음성정보로 출력하는 방법은 상기 화면에 활성화되어 표시된 객체의 깊이를 검출하는 객체 검출 과정, 및 상기 검출된 객체의 깊이와 매핑된 음성정보를 검색하여 상기 객체에 표시된 내용을 상기 검색된 음성정보로 출력하는 음성 출력 과정을 포함한다.
본 발명에 따르면, 객체의 깊이별로 다른 음성정보로 출력함으로써, 화면응ㄹ을 보는 것과 동일한 효과를 얻을 수 있다. 예를 들어, 팝업 창이 다중으로 표시되어 있을 경우, 첫 번째 표시된 팝업 창과 두 번째 표시된 팝업 창의 음성정보가 다르게 설정되어 있어, 팝업 창 간의 구별이 가능하다.
이하, 본 발명의 바람직한 실시 예들을 첨부한 도면을 참조하여 상세히 설명한다. 도면들 중 동일한 구성요소들은 가능한 한 어느 곳에서든지 동일한 부호들로 나타내고 있음에 유의해야 한다. 또한 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다.
본 발명에서 객체는 사용자의 입력에 의해 화면에 표시되는 창(예컨대, 메뉴 팝업, 알림 팝업, 문자메시지 편집창, 등)임이 바람직하다.
본 발명에서 깊이(depth)는 화면에 하나 이상의 객체가 중첩되어 표시될 경우, 중첩되는 객체를 구분하기 위한 것이다. 예를 들어, 전체화면에 표시되는 객체 를 '1깊이'라고하고, '1 깊이' 위에 중첩되어 표시되는 객체는 '2 깊이'라 한다.
도 1은 본 발명의 바람직한 실시 예에 따른 이동통신 단말기이다.
본 발명에 따른 이동통신 단말기(100)는 통신부(110), 저장부(120), 입력부(130), 피치 변형부(140), 음성합성부(150), 제어부(160), 표시부(170), 및 오디오처리부(180)로 구성된다.
통신부(110)는 이동통신 단말기(100)의 송수신단으로부터 각종 메시지(SMS/MMS/LMS)데이터와 음성 데이터 및 화상데이터 등이 포함된 라디오 주파수(Radio Frequency; 이하 RF)신호를 무선신호로 변환하여 안테나를 통해 기지국으로 송신하는 한편 기지국으로부터 각종 메시지(SMS/MMS/LMS) 데이터와 음성데이터 및 화상 데이터 등이 포함된 RF 신호를 수신받아 중각 주파수(IF)신호로 변환하여 제어부(150)로 출력한다.
저장부(120)는 이동통신 단말기(100)의 동작 및 상태 또는 제어부(160)의 제어 시 필요한 프로그램과 데이터를 저장하고 있으며 EPROM(Erasable Programable read Only Memory),SRAM(Static Random Access Memory),플래시 메모리 등 다양한 소자가 사용 될 수 있다. 특히 저장부(120)는 적어도 하나의 음성정보를 저장하는 음성정보 저장영역(121)과 음성정보와 각 객체의 깊이가 일대일로 매핑된 매핑정보를 저장하는 매핑정보 저장영역(123)을 포함한다. 덧붙여 음성정보 저장영역(121)에 저장된 음성 정보는 이동통신 단말기(100)출하 시 다양한 음성정보를 포함 할 수도 있고, 사용자 기호와 유행에 적합한 새로운 음성을 특정 웹 서버를 통해 다운로드 받을 수도 있다.
시스템 성능에 영향이 없는 한에서 피치 변조는 피치 변형부(140)에서 음성 사용 순간에 이루어지며 저장부(120)에는 기본음성 또는 다수의 음성정보(예컨대, '여성음성', '남성음성', '아기음성'등)를 저장한 경우 각각 음성의 기본음성만이 저장되어 있으면 된다.
다만 시스템이 즉시 피치 변조가 불가한 경우만 다음과 같이 저장부(120)에 저장된 음성을 사용한다.
예를 들어, 저장부(120)는 피치 변형부(140)의 제어 하에 저장된 음성정보를 피치 변조하여 생성된 다양한 음성정보를 저장한다. 덧붙여 저장부(120)는 피치 변형부(140)의 제어 하에 생성된 다수의 음성정보(예컨대, '기본음성변경_1', '기본음성변경_2' 등)와 각 객체의 깊이가 일대일로 매핑된 정보를 저장한다. 이때 사용자의 선택정보에 의거하여 일대일로 매핑되는 것이 바람직하다.
또한 저장부(120)는 저장된 음성정보가 다수인 경우, 저장된 다수의 음성정보(예컨대, '여성음성', '남성음성', '아기음성'등)와 각 객체의 깊이가 일대일로 매핑된 정보를 저장한다. 이때 사용자의 선택정보에 의거하여 일대일로 매핑되는 것이 바람직하다.
입력부(130)는 키패드, 터치 스크린 등의 다양한 소자가 사용될 수 있으며 사용자가 원하는 기능을 선택하거나 정보를 입력할 때 사용된다. 특히 입력부(130)는 사용자로부터 객체 추가/삭제 신호를 입력 받는다. 예를 들어, 표시부(170)를 통해 문자 메시지 표시 후, 입력부(130)는 사용자의 선택정보에 의해 객체 추가신호(예컨대, 메뉴선택 신호)가 입력되면, 표시부(170)는 메뉴리스트를 미리 표시된 문자 메시지에 순차적으로 중첩하여 표시한다.
피치 변형부(140)는 저장부(120)에 저장된 음성정보를 피치 변조하여 다른 피치를 가진 하나 이상의 음성정보를 생성한다. 덧붙여 피치 변형부(140)는 저장부(120)에 저장된 통화 중 입력된 상대방의 음성정보를 피치 변조하여 다른 피치를 가진 음성정보로 생성하는 것이 가능함은 물론이다. 상기 생성된 음성정보나 생성 가능하여 사용할 피치별 음성정보는 음성정보 저장영역(121)에 저장되는 것이 바람직하다.
음성합성부(150)는 이동통신 단말기(100)에 저장된 각종 문자 정보를 음성정보로 합성하여 변환시켜주는 기능을 수행한다. 상기 음성합성부(150)의 문자 정보를 음성정보로 합성하는 방법은 본원의 요지를 벗어나므로 음성합성부(150)의 음성 합성 방법에 대한 구체적인 설명은 생략한다.
제어부(160)는 이동통신 단말기(100)의 전반적인 상태 및 동작을 제어하며, 마이크로프로세서나 DSP(Digital Signal Processor)등으로 이루어질 수 있다. 특히 제어부(160)는 표시부(170)를 제어하여 표시부(170)를 통해 표시된 하나 이상의 객체 중 활성화되어 표시된 객체의 깊이를 검출하고, 검출된 객체의 깊이에 해당하는 음성정보를 매핑정보 저장영역(123)을 통해 검색한다.
또한 제어부(160)는 입력부(130)로부터 객체 추가/삭제 신호가 입력되면, 객체 추가/삭제 신호에 응답하여 표시부(170)에 활성화되어 표시된 객체를 변경하고, 변경된 객체의 깊이와 매핑된 음성정보를 재 검색한다.
덧붙여 제어부(160)는 표시부(170)에 활성화되어 표시된 객체의 내용을 분석 하여 파일이 첨부되었다고 판단되면, 삽입된 파일을 별도의 객체로 판단한다. 이때 제어부(160)는 상기 파일을 분석하여 파일의 정보(예컨대, 파일의 이름)를 획득한다. 덧붙여 제어부(160)는 표시된 객체 및 첨부된 파일의 깊이를 검출하고 각 깊이에 매핑된 음성정보를 검색한다.
제어부(160)는 상기 활성화되어 표시된 객체의 내용을 음성 합성부(150)를 통하여 검색된 음성정보로 변경하고, 파일 첨부를 나타내는 메시지 검출 시, 첨부된 파일 정보를 음성합성부(150)를 통하여 검색된 음성정보로 변경하여 오디오처리부(170)를 통해 출력한다.
또한 제어부(160)는 입력부(130)의 상태정보 요청신호가 입력되면, 상태정보 요청신호의 입력에 응답하여 이동통신 단말기(100)의 상태정보를 미리 설정된 음성정보로 출력하도록 오디오처리부(180)를 제어한다. 여기서 미리 설정된 음성정보는 낮은 음성정보임이 바람직하다. 덧붙여 사용자의 선택정보에 의거하여 변경 가능함은 물론이다. 이때 상태정보는 현재 시각, 수신감도, 배터리 잔량, 및 메시지 수신 상태 중 적어도 하나임이 바람직하다.
덧붙여 제어부(160)는 미리 설정된 상태정보 출력 주기가 되었는지 판단하여 주기가 되었으면, 이동통신 단말기(100)의 상태정보를 미리 설정된 음성정보로 출력하도록 오디오처리부(180)를 제어한다. 이때 미리 설정된 상태정보 출력 주기는 5분 내지 10분이 바람직하다. 덧붙여 상태정보 출력 주기는 사용자의 선택정보에 의거하여 변경 가능함은 물론이다.
표시부(170)는 이동통신 단말기(100)의 상태 및 동작 과정을 표시한다. 특히 표시부(170)는 하나의 화면에 하나 이상의 객체를 중첩하여 표시한다. 예를 들어, 표시부(170)는 문자메시지 표시 후, 입력부(130)에 의거하여 메뉴가 선택되면, 메뉴 리스트를 미리 표시된 문자 메시지에 순차적으로 중첩하여 표시한다.
오디오처리부(180)는 음성합성부(150)에 의거하여 문자정보를 각각 오디오 웨이브 데이터로 변환하여 변환된 오디오 웨이브 데이터를 아날로그 음성 신호로 변환하여 스피커(SPK)를 통해 출력한다. 특히 오디오처리부(180)는 저장부(120)에 저장된 매핑 정보에 의거하여 음성합성부(150)에서 음성정보로 변경된 문자정보를 스피커를 통해 출력하는 것이 바람직하다.
도 2는 본 발명의 바람직한 실시 예에 따른 음성정보 출력 방법에 대한 흐름도이다.
도 1 및 도 2를 참조하면, 제어부(160)는 사용자의 선택정보에 따라 각 객체의 깊이와 음성정보 저장영역(121)에 저장된 음성정보가 일대일로 매핑된 정보를 매핑정보 저장영역(123)에 저장한다(S200). 이때 매핑정보 저장영역(123)은 적어도 하나의 음성정보를 저장하는 것이 바람직하다. 덧붙여 음성정보 저장영역(121)은 피치 변형부(140)에 의거하여 피치 변조되어 생성된 하나 이상의 음성정보를 저장한다.
제어부(160)는 화면에 활성화되어 표시된 객체의 깊이를 검출한다(S210). 상기 S210 과정에 대한 상세한 설명은 도 3a 및 도 3b에서 후술할 것이다.
제어부(160)는 S210 과정에서 검출된 객체의 깊이와 매핑정보 저장영역(123)에 저장된 음성정보와 객체의 깊이가 매핑된 정보를 검색한다(S220). 제어부(160) 는 상기 S220 과정에서 검색된 음성정보로 객체에 표시된 내용을 음성합성부(150)를 통해 해당 음성정보로 변환 후, 오디오처리부(180)를 제어하여 출력한다. 이때 제어부(160)는 입력부(130)로부터 객체 추가/삭제를 위한 신호의 입력이 있는지 판단한다(S240). 상기 S240과정의 판단 결과 객체 추가/삭제를 위한 신호의 입력이 있으면, 제어부(160)는 변경된 객체의 깊이와 매핑된 음성정보를 재검색한다. 예를 들어, 도 5a에 도시된 바와 같이 제어부(160)는 활성화되어 표시된 문자 메시지의 깊이에 매핑된 음성정보를 검색하여 해당 문자메시지(131)를 음성합성부(150)를 통해 해당 음성정보로 변환 후, 오디오처리부(180)를 통해 출력 한다. 그 후, 제어부(160)는 사용자의 객체 추가를 위한 신호의 입력을 판단하여, 객체 추가를 위한 신호의 입력이 있으면 메뉴 리스트(133)를 표시한다. 이때 메뉴 리스트(133)에 표시된 하나 이상의 항목(예컨대, 답장, 전달, 삭제, 저장)을 메뉴 리스트(133)의 깊이에 매핑된 음성정보로 출력한다. 특히 제어부(160)는 메뉴리스트와 문자 메시지는 다른 객체이므로 메뉴리스트(133)에 표시된 내용과 문자메시지(133)에 표시된 내용은 다른 음성정보로 출력하는 것이 바람직하다.
한편 상기 S240 과정의 판단 결과 객체 추가/삭제를 위한 신호의 입력이 없으면, 상태정보 요청신호의 입력이 있는지 판단한다(S250). 상기 판단 결과 상태정보 요청신호의 입력이 있으면, 제어부(160)는 상태정보 요청신호에 응답하여, 이동통신 단말기(100)의 상태정보를 음성합성부(150)를 통해 미리 설정된 음성정보로 변환 후, 오디오처리부(180)를 통해 출력한다(S260). 이때 상태정보는 현재 시각, 수신감도, 배터리 잔량, 및 메시지 수신 상태 중 적어도 하나임이 바람직하다. 덧 붙여 제어부(160)는 사용자가 미리 설정한 상태 알림 주기가 되었는지 판단하여, 상태 알림 주기가 되었으면, 이동통신 단말기(100)의 상태정보를 음성합성부(150)를 통해 미리 설정된 음성정보로 변환 후, 오디오처리부(180)를 통해 출력하는 것이 가능함은 물론이다. 이때 상태 알림 주기는 5분 내지 10분임이 바람직하다. 예를 들어, 도 5c에 도시되어 있는 것처럼 대기 상태에서 사용자에 의거하여 상태정보 요청신호가 입력된 경우, 제어부(160)는 이동통신 단말기(100)의 상태정보를 오디오처리부(180)를 통해 출력한다. 덧붙여 이동통신 단말기의 상태는 임의의 상태인 경우에도 상태정보 알림 요청신호가 입력되면, 제어부(160)는 상태정보를 음성합성부(150)를 통해 미리 설정된 음성정보로 변환 후, 오디오처리부(180)를 통해 출력하는 것이 바람직하다.
도 3은 도 2의 객체의 깊이를 검출하는 과정을 상세히 나타낸 흐름이다.
도 1 및 도 3을 참조하면, 제어부(160)는 활성화되어 표시된 객체의 내용을 분석하여(S211) 파일이 첨부되었는지 판단한다(S212). 파일이 첨부되었다고 판단되면, 제어부(160)는 파일을 별도의 객체로 판단하고(S213), 파일을 분석하여 파일정보를 획득하여 저장부(120)에 저장한다(S214). 제어부(160)는 표시된 객체 및 첨부된 파일의 깊이를 검출한다(S215). 예를 들어, 도 5b에 도시되어 있는 것처럼 사용자의 선택정보에 의거하여 수신된 메시지 표시 시, 제어부(160)는 메시지의 내용을 분석하여, 메시지에 파일(137)이 첨부된 것을 확인한다. 확인 후, 제어부(160)는 첨부된 파일(137)을 화면에 표시된 메시지(135)와 다른 객체로 판단하고, 파일을 분석하여 파일 정보(예컨대, 파일 이름)를 획득한다. 이때 제어부(160) 활성화되어 표시된 메시지(135)에 해당하는 깊이와 메시지에 첨부된 파일(137)의 깊이를 검출한다. 검출 후, 제어부(160)는 음성합성부(150)를 제어하여 화면에 표시된 메시지(135)의 내용을 매핑된 음성정보로 변경하고 파일 첨부를 알리는 메시지 검출 시 첨부된 파일정보를 첨부된 파일(137)의 깊이에 매핑된 음성정보로 변경하여 오디오처리부(180)를 제어하여 순차적으로 출력한다. 이때 오디오처리부(180)를 통해 출력되는 음성정보 중 첨부된 파일의 정보 '곰돌이.jpg'와 표시된 메시지의 내용 '양.jpg'이 다른 음성으로 출력되어, 사용자는 첨부된 파일('곰돌이.jpg')과 문자정보('양.jpg')의 구분이 가능하다.
도 4a 및 도4c 는 음성정보 매핑 데이터베이스 구조의 예를 나타낸 도면이다.
도 4a를 참조하면, 매핑정보 저장영역(123)에 저장되어 있는 음성정보 매핑 데이터베이스(20)는 깊이(21)필드, 및 음성정보(23)필드로 구성된다. 특히 음성정보 매핑 데이터베이스(20)는 사용자의 선택정보에 의거하여 깊이(21)필드와 음성정보(23)필드를 일대일로 매핑하여 저장하는 것이 바람직하다. 여기서 음성정보(23)필드 값들은 음성정보 저장영역(121)에 저장된 다양한 음성 정보임이 바람직하다. 특히 상기 음성 정보들은 피치 변형부(140)에 의거하여 생성된 것임이 바람직하다. 예를 들어, 음성정보 저장영역(121)에 '기본 음성정보'가 저장된 경우, 음성 변경부(120)에 의거하여 상기 '기본 음성정보'의 피치를 변경하여 하나 이상의 음성정보를 생성한다. 예를 들어, 생성된 음성정보는 '기본음성변경_1', '기본음성변경_2', '기본음성변경_3', '기본음성변경_4 ', 및 '기본음성변경_5'이다.
상기와 같이 생성된 하나 이상의 음성정보 중 사용자의 선택정보에 의거하여 깊이(21)필드 1깊이'와 음성정보(23)필드'기본음성변경_1'를 매핑하여 하나의 레코드(35)로 음성정보 매핑 데이터베이스(20)에 저장한다.
도 4b를 참조하면, 매핑정보 저장영역(123)에 저장되어 있는 음성정보 매핑 데이터베이스(30)는 깊이(31)필드, 및 음성정보(33)필드로 구성된다. 특히 음성정보 매핑 데이터베이스(30)는 사용자의 선택정보에 의거하여 깊이(31)필드와 음성정보(33)필드를 일대일로 매핑하여 저장하는 것이 바람직하다. 여기서 음성정보(33)필드 값들은 음성정보 저장영역(121)에 저장된 다양한 음성정보임이 바람직하다. 예를 들어, 음성정보 저장영역(121)에는 음성의 종류, 여성, 남성, 10대, 40대, 사투리별 등등이 저장되어 있다. 또한 음성정보 저장영역(121)에 저장된 음성 정보는 이동통신 단말기(100)출하 시 다양한 음성정보를 포함 할 수도 있고, 사용자 기호와 유행에 적합한 새로운 음성을 특정 웹 서버를 통해 다운로드 받을 수도 있다.
상기 저장된 음성정보 중 사용자의 선택정보에 의거하여 깊이(31)필드 '1 깊이'와 음성정보(33)필드'여성음성'를 매핑하여 하나의 레코드(35)로 음성정보 매핑 데이터베이스(30)에 저장한다.
도 4c를 참조하면, 매핑정보 저장영역(123)에 저장되어 있는 음성정보 매핑 데이터베이스(40)는 깊이(41)필드, 및 음성정보(43)필드로 구성된다. 특히 음성정보 매핑 데이터베이스(40)는 사용자의 선택정보에 의거하여 깊이(41)필드와 음성정보(43)필드를 일대일로 매핑하여 저장하는 것이 바람직하다. 여기서 음성정보(43)필드 값들은 음성정보 저장영역(121)에 저장된 다양한 음성정보임이 바람직하다. 특히, 음성정보는 음성 정보 저장영역(111)에 저장되어 있는 한명 이상의 통화 상대방의 음성정보임이 바람직하다. 예를 들어 음성정보 저장영역(121)은 '철수음성', 영희음성', 순희음성', 엄마음성' 등등의 음성을 저장한다.
상기 저장된 음성정보 중 사용자의 선택정보에 의거하여 깊이(41)필드 '1 깊이'와 음성정보(43)필드'철수음성'를 매핑하여 하나의 레코드(45)로 음성정보 매핑 데이터베이스(40)에 저장한다.
이상에서는 본 발명에서 특정의 바람직한 실시 예에 대하여 도시하고 또한 설명하였다. 그러나, 본 발명은 상술한 실시 예에 한정되지 아니하며, 특허 청구의 범위에서 첨부하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능할 것이다.
본 발명에 따르면, 객체별로 다른 음성정보로 출력함으로써, 객체간의 구별이 가능하다. 예를 들어, 문자메시지를 TTS 기능으로 출력 중 사용자의 선택에 의해 메뉴가 선택되어 메뉴의 메뉴리스트(예컨대, 답장, 재전송, 삭제, 전달)가 표시되면, 문자 메시지의 음성 출력 중 TTS 기능에 의해 메뉴리스트의 항목을 순차적으로 출력한다. 이때 문자 메시지의 음성출력 할 때와 다른 음성정보로 출력함으로써 현재 활성화 되어 있는 객체가 문자 메시지가 아니라 메뉴 리스트임을 알게 된다.

Claims (19)

  1. 문자정보를 음성정보로 출력하는 이동통신 단말기에 있어서,
    하나의 화면에 하나 이상의 객체를 표시하는 표시부;
    상기 화면에 활성화되어 표시된 객체의 깊이를 검출하고, 검출된 객체의 깊이와 매핑된 음성정보를 검색하는 제어부;
    상기 객체에 표시된 내용을 상기 검색된 음성정보로 변경하는 음성 합성부; 및
    상기 음성정보를 출력하는 오디오 처리부를 포함하는 것을 특징으로 이동통신 단말기.
  2. 제 1항에 있어서,
    사용자의 선택정보에 따른 객체 변경 신호를 입력받는 입력부를 더 포함하고,
    상기 제어부는
    상기 입력부로부터 객체 추가/삭제 신호가 입력되면, 상기 객체 추가/삭제 신호의 입력에 응답하여 상기 화면에 활성화되어 표시된 객체를 변경하고, 상기 변경된 객체의 깊이와 매핑된 음성정보를 재 검색하는 것을 특징으로 하는 이동통신 단말기.
  3. 제 1항에 있어서,
    상기 객체의 깊이별로 음성정보를 매핑하여 저장하는 저장부를 더 포함하는 것을 특징으로 하는 이동통신 단말기.
  4. 제 3항에 있어서,
    상기 저장된 음성정보를 피치 변조하여 다수의 음성정보를 생성하는 피치 변형부를 더 포함하고,
    상기 저장부는
    상기 피치 변형부에 의거하여 생성된 다수의 음성정보와 각 객체의 깊이가 사용자의 선택정보에 의거하여 일대일로 매핑된 정보를 저장하는 것을 특징으로 하는 이동통신 단말기.
  5. 제 3항에 있어서, 상기 저장부는
    상기 저장된 음성정보가 다수인 경우, 상기 저장된 다수의 음성정보와 각 객체의 깊이가 사용자의 선택정보에 의거하여 일대일로 매핑된 정보를 저장하는 것임을 특징으로 하는 이동통신 단말기.
  6. 제 1항에 있어서,
    상기 제어부는
    상기 화면에 활성화되어 표시된 객체를 분석하여 임의의 객체가 첨부된 경우, 첨부된 객체를 별도의 객체로 판단하고, 상기 첨부된 객체를 분석하여 객체의 정보를 획득하며, 상기 표시된 객체 및 삽입된 객체의 깊이를 검출하는 것을 특징으로 하는 이동통신 단말기.
  7. 제 6항에 있어서, 상기 제어부는
    각 객체의 깊이와 매핑된 음성정보를 검색하여 상기 객체에 표시된 내용 및 첨부된 객체의 정보를 상기 검색된 음성정보로 출력하도록 제어하는 것을 특징으로 하는 이동통신 단말기.
  8. 제 1항에 있어서, 상기 제어부는
    상기 입력부에 상태정보 요청신호가 입력되면, 상기 상태정보 요청신호에 응답하여 이동통신 단말기의 상태정보를 미리 설정된 음성정보로 출력하도록 제어하는 것을 특징으로 하는 이동통신 단말기.
  9. 제 8항에 있어서, 상기 상태정보는
    현재 시각, 수신감도, 배터리 잔량, 및 메시지 수신 상태 중 적어도 하나임을 특징으로 하는 음성정보 출력 방법.
  10. 제 8항에 있어서, 상기 제어부는
    미리 설정된 상태출력 주기가 되었는지 판단하여 주기가 되었으면, 이동통신 단말기의 상태정보를 미리 설정된 음성정보로 출력하도록 제어하는 것을 특징으로 하는 이동통신 단말기.
  11. 하나의 화면에 하나 이상의 객체를 중첩 표시하는 이동통신 단말기의 문자정보를 음성정보로 출력 방법에 있어서,
    상기 화면에 활성화되어 표시된 객체의 깊이를 검출하는 객체 검출 과정; 및
    상기 검출된 객체의 깊이와 매핑된 음성정보를 검색하여 상기 객체에 표시된 내용을 상기 검색된 음성정보로 출력하는 음성 출력 과정을 포함하는 것을 특징으로 하는 음성정보 출력 방법.
  12. 제 11항에 있어서,
    상기 객체 추가/삭제를 위한 신호의 입력에 응답하여 상기 화면에 활성화되어 표시된 객체가 변경되면, 상기 변경된 객체의 깊이와 매핑된 음성정보를 재검색하는 음성정보 재검색 과정을 더 포함하는 것을 특징으로 하는 음성정보 출력 방법.
  13. 제 11항에 있어서,
    상기 객체의 깊이별로 음성 정보를 매핑하여 저장하는 음성정보 저장 과정을 더 포함하는 것을 특징으로 하는 음성정보 출력 방법.
  14. 제 13항에 있어서,
    상기 저장된 음성정보를 피치 변조하여 하나 이상의 음성정보를 생성하는 음성정보 생성과정을 더 포함하고,
    상기 음성정보 저장 과정은
    상기 생성된 음성정보와 각 객체의 깊이가 일대일로 매핑된 정보를 저장하는 것임을 특징으로 하는 음성정보 출력 방법.
  15. 제 13항에 있어서, 상기 음성정보 저장 과정은
    상기 저장된 음성정보가 다수인 경우, 상기 저장된 다수의 음성정보와 각 객체의 깊이가 일대일로 매핑된 정보를 저장하는 것임을 특징으로 하는 음성정보 출력 방법.
  16. 제 11항에 있어서,
    상기 객체 검출 과정은
    상기 화면에 활성화되어 표시된 객체를 분석하여 임의의 객체가 첨부된 경우, 첨부된 객체를 별도의 객체로 판단하는 과정;
    상기 첨부된 객체를 분석하여 객체의 정보를 획득하는 과정; 및
    상기 표시된 객체 및 첨부된 객체의 깊이를 검출하는 과정을 포함하고,
    상기 음성 출력 과정은
    상기 각 객체의 깊이와 매핑된 음성정보를 검색하여 상기 객체에 표시된 내용 및 객체의 정보를 상기 검색된 음성정보로 출력하는 것을 특징으로 하는 음성정보 출력 방법.
  17. 제 11항에 있어서,
    상태정보 알림 요청신호의 입력에 응답하여 이동통신 단말기의 상태정보를 미리 설정된 음성정보로 출력하는 상태출력과정을 더 포함하는 것을 특징으로 하는 음성정보 출력 방법.
  18. 제 17항에 있어서, 상기 상태정보는
    현재 시각, 수신감도, 배터리 잔량, 및 메시지 수신 상태 중 적어도 하나임을 특징으로 하는 음성정보 출력 방법.
  19. 제 17항에 있어서, 상기 상태출력과정은
    미리 설정된 상태출력 주기가 되었는지 판단하여 주기가 되었으면, 이동통신 단말기의 상태정보를 미리 설정된 음성정보로 출력하는 것을 특징으로 하는 음성정보 출력 방법.
KR1020060060232A 2006-06-30 2006-06-30 문자정보를 음성정보로 출력하는 이동통신 단말기 및 그방법 KR100699050B1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020060060232A KR100699050B1 (ko) 2006-06-30 2006-06-30 문자정보를 음성정보로 출력하는 이동통신 단말기 및 그방법
DE602006009385T DE602006009385D1 (de) 2006-06-30 2006-11-14 Sprachsyntheseverfahren integriert in einem mobilen Endgerät
EP06023610A EP1873752B1 (en) 2006-06-30 2006-11-14 Mobile communication terminal and text-to-speech method
US11/603,607 US8326343B2 (en) 2006-06-30 2006-11-22 Mobile communication terminal and text-to-speech method
CN2006101627970A CN101098528B (zh) 2006-06-30 2006-11-23 移动通信终端和文本到语音转换方法
US13/666,416 US8560005B2 (en) 2006-06-30 2012-11-01 Mobile communication terminal and text-to-speech method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060060232A KR100699050B1 (ko) 2006-06-30 2006-06-30 문자정보를 음성정보로 출력하는 이동통신 단말기 및 그방법

Publications (1)

Publication Number Publication Date
KR100699050B1 true KR100699050B1 (ko) 2007-03-28

Family

ID=37865872

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060060232A KR100699050B1 (ko) 2006-06-30 2006-06-30 문자정보를 음성정보로 출력하는 이동통신 단말기 및 그방법

Country Status (5)

Country Link
US (2) US8326343B2 (ko)
EP (1) EP1873752B1 (ko)
KR (1) KR100699050B1 (ko)
CN (1) CN101098528B (ko)
DE (1) DE602006009385D1 (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100699050B1 (ko) * 2006-06-30 2007-03-28 삼성전자주식회사 문자정보를 음성정보로 출력하는 이동통신 단말기 및 그방법
JP2009265279A (ja) 2008-04-23 2009-11-12 Sony Ericsson Mobilecommunications Japan Inc 音声合成装置、音声合成方法、音声合成プログラム、携帯情報端末、および音声合成システム
KR20140008835A (ko) * 2012-07-12 2014-01-22 삼성전자주식회사 음성 인식 오류 수정 방법 및 이를 적용한 방송 수신 장치
KR102043151B1 (ko) 2013-06-05 2019-11-11 엘지전자 주식회사 이동 단말기 및 이의 제어방법
CN104104793A (zh) * 2014-06-30 2014-10-15 百度在线网络技术(北京)有限公司 一种音频处理方法及装置
WO2016009834A1 (ja) 2014-07-14 2016-01-21 ソニー株式会社 送信装置、送信方法、受信装置、及び、受信方法
JP2016191791A (ja) * 2015-03-31 2016-11-10 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN106302083B (zh) * 2015-05-14 2020-11-03 钉钉控股(开曼)有限公司 即时通讯方法和服务器
CN106816150A (zh) * 2015-11-27 2017-06-09 富泰华工业(深圳)有限公司 一种基于环境的婴语解读方法与系统
CN106293604A (zh) * 2016-08-11 2017-01-04 乐视控股(北京)有限公司 一种数据处理方法和终端

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970064027A (ko) * 1996-02-26 1997-09-12 이데이 노브유끼 휴대용 통신장치

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3704345A (en) * 1971-03-19 1972-11-28 Bell Telephone Labor Inc Conversion of printed text into synthetic speech
BG24190A1 (en) * 1976-09-08 1978-01-10 Antonov Method of synthesis of speech and device for effecting same
US4406626A (en) * 1979-07-31 1983-09-27 Anderson Weston A Electronic teaching aid
US5241656A (en) * 1989-02-06 1993-08-31 International Business Machines Corporation Depth buffer clipping for window management
JPH09231225A (ja) * 1996-02-26 1997-09-05 Fuji Xerox Co Ltd 言語情報処理装置
US6453281B1 (en) * 1996-07-30 2002-09-17 Vxi Corporation Portable audio database device with icon-based graphical user-interface
US5892511A (en) * 1996-09-30 1999-04-06 Intel Corporation Method for assisting window selection in a graphical user interface
US5899975A (en) * 1997-04-03 1999-05-04 Sun Microsystems, Inc. Style sheets for speech-based presentation of web pages
EP1044432A4 (en) * 1997-12-05 2007-02-21 Dynamic Digital Depth Res Pty IMPROVED IMAGE TRANSFORMATION AND CODING TECHNIQUES
US6075531A (en) * 1997-12-15 2000-06-13 International Business Machines Corporation Computer system and method of manipulating multiple graphical user interface components on a computer display with a proximity pointer
US6931255B2 (en) * 1998-04-29 2005-08-16 Telefonaktiebolaget L M Ericsson (Publ) Mobile terminal with a text-to-speech converter
US6728675B1 (en) * 1999-06-03 2004-04-27 International Business Machines Corporatiion Data processor controlled display system with audio identifiers for overlapping windows in an interactive graphical user interface
US6812941B1 (en) * 1999-12-09 2004-11-02 International Business Machines Corp. User interface management through view depth
GB2357943B (en) * 1999-12-30 2004-12-08 Nokia Mobile Phones Ltd User interface for text to speech conversion
US6801793B1 (en) * 2000-06-02 2004-10-05 Nokia Corporation Systems and methods for presenting and/or converting messages
JP3705735B2 (ja) * 2000-08-29 2005-10-12 シャープ株式会社 オンデマンド・インタフェース装置とそのウィンドウ表示装置
US6701162B1 (en) * 2000-08-31 2004-03-02 Motorola, Inc. Portable electronic telecommunication device having capabilities for the hearing-impaired
AUPR181800A0 (en) * 2000-11-30 2001-01-04 Mee, Anthony John A display device
US6934907B2 (en) * 2001-03-22 2005-08-23 International Business Machines Corporation Method for providing a description of a user's current position in a web page
JP2002334086A (ja) * 2001-05-10 2002-11-22 Sony Corp 情報処理装置および情報処理方法、記録媒体、並びにプログラム
GB0113571D0 (en) * 2001-06-04 2001-07-25 Hewlett Packard Co Audio-form presentation of text messages
US20030028377A1 (en) * 2001-07-31 2003-02-06 Noyes Albert W. Method and device for synthesizing and distributing voice types for voice-enabled devices
US7272377B2 (en) * 2002-02-07 2007-09-18 At&T Corp. System and method of ubiquitous language translation for wireless devices
GB2388286A (en) * 2002-05-01 2003-11-05 Seiko Epson Corp Enhanced speech data for use in a text to speech system
GB0213021D0 (en) * 2002-06-07 2002-07-17 Hewlett Packard Co Telephone communication with silent response feature
US7013154B2 (en) * 2002-06-27 2006-03-14 Motorola, Inc. Mapping text and audio information in text messaging devices and methods therefor
EP1431958B1 (en) * 2002-12-16 2018-07-18 Sony Mobile Communications Inc. Apparatus connectable to or incorporating a device for generating speech, and computer program product therefor
US7171363B2 (en) * 2002-12-23 2007-01-30 System Application Engineering, Inc. Pick-by-line system and method
JP2005004396A (ja) * 2003-06-11 2005-01-06 Sony Corp 情報表示方法及び情報表示装置、並びにコンピュータ・プログラム
US7505171B2 (en) * 2003-08-27 2009-03-17 Xerox Corporation Full user-intent color data stream imaging methods and systems
US20050096909A1 (en) * 2003-10-29 2005-05-05 Raimo Bakis Systems and methods for expressive text-to-speech
US7450960B2 (en) * 2004-10-07 2008-11-11 Chen Alexander C System, method and mobile unit to sense objects or text and retrieve related information
JP5259050B2 (ja) * 2005-03-30 2013-08-07 京セラ株式会社 音声合成機能付き文字情報表示装置、およびその音声合成方法、並びに音声合成プログラム
US7657837B2 (en) * 2005-04-06 2010-02-02 Ericom Software Ltd. Seamless windows functionality to remote desktop sessions regarding z-order
US7747944B2 (en) * 2005-06-30 2010-06-29 Microsoft Corporation Semantically applying style transformation to objects in a graphic
US20090048821A1 (en) * 2005-07-27 2009-02-19 Yahoo! Inc. Mobile language interpreter with text to speech
JP5119587B2 (ja) * 2005-10-31 2013-01-16 株式会社デンソー 車両用表示装置
US7877486B2 (en) * 2005-12-08 2011-01-25 International Business Machines Corporation Auto-establishment of a voice channel of access to a session for a composite service from a visual channel of access to the session for the composite service
KR100699050B1 (ko) * 2006-06-30 2007-03-28 삼성전자주식회사 문자정보를 음성정보로 출력하는 이동통신 단말기 및 그방법
US20080022208A1 (en) * 2006-07-18 2008-01-24 Creative Technology Ltd System and method for personalizing the user interface of audio rendering devices
US8020089B1 (en) * 2006-10-23 2011-09-13 Adobe Systems Incorporated Rendering hypertext markup language content
US8131549B2 (en) * 2007-05-24 2012-03-06 Microsoft Corporation Personality-based device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970064027A (ko) * 1996-02-26 1997-09-12 이데이 노브유끼 휴대용 통신장치

Also Published As

Publication number Publication date
DE602006009385D1 (de) 2009-11-05
EP1873752B1 (en) 2009-09-23
EP1873752A1 (en) 2008-01-02
US8560005B2 (en) 2013-10-15
US20080045199A1 (en) 2008-02-21
CN101098528B (zh) 2012-06-27
US20130059628A1 (en) 2013-03-07
US8326343B2 (en) 2012-12-04
CN101098528A (zh) 2008-01-02

Similar Documents

Publication Publication Date Title
KR100699050B1 (ko) 문자정보를 음성정보로 출력하는 이동통신 단말기 및 그방법
US7466987B2 (en) User interface for a radiotelephone
CN106652996B (zh) 一种提示音生成方法和装置、移动终端
US20050116956A1 (en) Message display
CN108496150A (zh) 一种屏幕截图和读取的方法及终端
US20120157134A1 (en) Method and apparatus for displaying message in mobile communication terminal
JP2007510981A (ja) 入力を予測する方法
CN102904990A (zh) 基于环境条件的可调整移动电话设置
JP5633086B2 (ja) 迅速に受信者を追加する方法及び装置、並びにそれを用いた携帯端末
AU2010258675A1 (en) Touch anywhere to speak
KR20070088029A (ko) 이동 단말기에서 사용자 인터페이스 제공 장치 및 방법
CN109726367A (zh) 一种批注展示的方法及相关装置
CN108701127A (zh) 电子设备及其操作方法
EP2139210A2 (en) Portable electronic apparatus and operating method thereof
EP2206246A2 (en) Method for storing telephone number by automatically analyzing message and mobile terminal executing the method
CN108197264B (zh) 网页加速显示方法、装置、移动终端以及存储介质
KR20110009955A (ko) 날씨데이터에 따라 사용자 환경이 변하는 모바일 단말 및 그의 동작방법, 사용자 환경 변경 시스템 및 방법
KR101038087B1 (ko) 이동통신 단말기에서의 하이퍼텍스트 제공 방법
CN104426747B (zh) 即时通信方法、终端和系统
US7813768B2 (en) Dialing screen method and layer structure for a mobile terminal
CN108803972B (zh) 信息显示方法、装置、移动终端以及存储介质
KR100920442B1 (ko) 휴대 단말기에서 정보 검색 방법
US20120064863A1 (en) Method of an Electronic Device for Providing Contact or Group Information for a Contact or Group of Contacts
CN111034152B (zh) 信息处理方法、装置、移动终端和计算机可读存储介质
CN110785987B (zh) 信息处理方法、装置、移动终端和计算机可读存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130227

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140227

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150226

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee