KR20140146785A - 오디오 및 텍스트 간의 변환을 위한 방법 및 전자 장치 - Google Patents

오디오 및 텍스트 간의 변환을 위한 방법 및 전자 장치 Download PDF

Info

Publication number
KR20140146785A
KR20140146785A KR1020130069505A KR20130069505A KR20140146785A KR 20140146785 A KR20140146785 A KR 20140146785A KR 1020130069505 A KR1020130069505 A KR 1020130069505A KR 20130069505 A KR20130069505 A KR 20130069505A KR 20140146785 A KR20140146785 A KR 20140146785A
Authority
KR
South Korea
Prior art keywords
text
storage unit
pronunciation
pronunciation data
audio
Prior art date
Application number
KR1020130069505A
Other languages
English (en)
Inventor
고아라
김상진
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130069505A priority Critical patent/KR20140146785A/ko
Priority to US14/308,516 priority patent/US20140372123A1/en
Priority to JP2014125070A priority patent/JP2015004977A/ja
Publication of KR20140146785A publication Critical patent/KR20140146785A/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • G10L13/047Architecture of speech synthesisers

Abstract

본 발명의 일 측면에 따른 텍스트를 오디오로 변환하는 방법은, 텍스트를 오디오로 출력하는 요청을 감지하는 과정과; 상기 텍스트를 사용자 입력 저장부에서 확인하는 과정과; 확인된 상기 텍스트에 대응되는 발음 데이터를 상기 사용자 입력 저장부에서 확인하는 과정과; 상기 확인된 발음 데이터에 해당하는 오디오 신호로 출력하는 과정을 포함한다.

Description

오디오 및 텍스트 간의 변환을 위한 방법 및 전자 장치{ELECTRONIC DEVICE AND METHOD FOR CONVERTING BETWEEN AUDIO AND TEXT}
본 발명은 TTS(text to speech)에 관한 것으로서, 특히 오디오 및 텍스트 간의 변환을 위한 방법 및 전자 장치에 관한 것이다.
최근 다국어 단말의 TTS 기술이 많이 적용되고 있다. TTS란 “text to speech”로 텍스트를 오디오로 변환해주는 것을 말하는 데, 일본어의 경우 히라가나와 카타카나의 경우에 어렵지 않게 발음을 할 수 있으나, 한자의 경우에는 한자 사전에서 발음을 찾아서 해당 한자에 맞는 발음을 해야 한다. 한자의 경우에 문맥에 따라 그 발음이 다르게 되는데, 사람의 이름이나 상호명 등과 같은 고유명사의 경우에 그 발음은 일반적인 문맥상 의미의 한자 발음과 다르다.
종래의 TTS는, 일본어 한자를 일본어 한자 사전에서 검색하여 발음한다. 한자의 경우 문맥에 따라 한자 사전에 저장된 적절한 값을 매칭하여 발음을 하게 되나, 사람의 이름이나 상호명과 같은 일반적인 뜻의 한자가 아닌 경우 종래 기술의 경우에는 사용자의 의도와는 다른 발음을 출력하게 된다.
예를 들어, 일본어 한자 중 "光" 의 경우 이름에 사용되었을 경우 "ひかり(hikari)" 혹은 "ひかる(hikaru)" 등 다양한 읽기 방법이 존재한다. 이것은 그 이름을 사용하는 사람만이 알 수 있는 부분으로 사용자가 연락처(또는 주소록)에 저장시 ひかり, hikari 등의 발음 입력을 통해 "光" 이라는 한자를 저장하지만, 일본어 TTS에서는 그 입력된 "光" 이라는 이름이  "ひかり(hikari)"로 발음되어야 하는지, "ひかる(hikaru)"로 발음되어야 하는지 알 수 없다.
그래서, 이러한 경우 "光"을 한자 사전의 대표 발음인 "ひかる(hikaru)"로 발음하게 되어 오류가 발생할 수 있다.
본 발명의 특정 실시 예들의 목적은 종래기술과 관련된 문제점들 및/또는 단점들 중의 적어도 하나를 적어도 부분적으로 해결, 경감 또는 제거하는 것이다.
본 발명의 일 목적은, 텍스트를 오디오로 변환하거나 오디오를 텍스트로 변환하는 경우에 있어서, 복수의 발음을 가질 수 있는 텍스트를 사용자의 의도에 따라 정확하게 발음하거나, 사용자의 의도에 따른 발음에 근거하여 해당 텍스트를 정확하게 검색할 수 있는 방법을 제공함에 있다.
본 발명의 다른 목적은, 일본어 한자, 특히 고유 명사에 관련된 한자를 정확하게 발음하거나 인식할 수 있는 방법을 제공함에 있다.
본 발명의 일 측면에 따른 텍스트를 오디오로 변환하는 방법은, 텍스트를 오디오로 출력하는 요청을 감지하는 과정과; 상기 텍스트를 사용자 입력 저장부에서 확인하는 과정과; 확인된 상기 텍스트에 대응되는 발음 데이터를 상기 사용자 입력 저장부에서 확인하는 과정과; 상기 확인된 발음 데이터에 해당하는 오디오 신호를 출력하는 과정을 포함한다.
본 발명의 다른 측면에 따른 텍스트를 오디오로 출력하는 전자 장치는, 사용자 입력 저장부를 갖는 저장부와; 텍스트의 오디오 출력을 필요로 하는 이벤트를 확인하고, 상기 텍스트의 발음 데이터를 상기 사용자 입력 저장부에서 확인하고, 상기 텍스트의 발음 데이터가 상기 사용자 입력 저장부에 존재하는 경우에, 상기 사용자 입력 저장부에서 확인된 발음 데이터를 오디오로 출력하는 제어부를 포함한다.
본 발명의 또 다른 측면에 따른 오디오를 텍스트로 출력하는 전자 장치는, 사용자 입력 저장부를 갖는 저장부와; 오디오를 발음 데이터로 변환하고, 상기 발음 데이터에 맵핑된 텍스트를 상기 사용자 입력 저장부에서 확인하고, 상기 텍스트가 상기 사용자 입력 저장부에 존재하는 경우에, 상기 사용자 입력 저장부에서 확인된 텍스트를 출력하는 제어부를 포함한다.
본 발명에 따라, 텍스트를 오디오로 변환하거나 오디오를 텍스트로 변환하는 경우에 있어서, 복수의 발음을 가질 수 있는 텍스트를 사용자의 의도에 따라 정확하게 발음하거나, 사용자의 의도에 따른 발음에 근거하여 해당 텍스트를 정확하게 검색할 수 있는 방법이 제공된다.
또한 본 발명에 따라, 일본어 한자, 특히 고유 명사에 관련된 한자를 정확하게 발음하거나 인식할 수 있는 방법이 제공된다.
또한 본 발명에 따라, 사용자에게 추가 요청없이 한자 입력 시에 사용되는 히라가나, 로마자 등의 발음 데이터를 그대로 이용함으로써, 전자 장치에서 사용자가 알고 있는 대로의 한자 발음을 정확히 예측할 수 있게 된다.
도 1은 본 발명의 바람직한 실시 예에 따른 전자 장치를 나타내는 개략적인 블록도,
도 2는 본 발명의 실시 예에 따른 전자 장치의 전면 사시도를 나타낸 도면,
도 3은 본 발명의 실시 예에 따른 전자 장치의 후면 사시도를 나타낸 도면,
도 4는 본 발명의 바람직한 실시 예에 따른 발음 정보 저장저장부 방법을 수행하기 위한 전자 장치의 주요 구성을 나타내는 도면,
도 5는 본 발명의 바람직한 실시 예에 따른 발음 정보 저장저장부 방법을 나타내는 흐름도,
도 6 내지 도 9는 본 발명의 바람직한 실시 예에 따른 발음 정보 저장 방법을 설명하기 위한 도면들,
도 10은 본 발명의 바람직한 제1 실시 예에 따른 발음 인식 방법을 나타내는 흐름도,
도 11은 본 발명의 바람직한 제1 실시 예에 따른 발음 인식 방법을 설명하기 위한 도면,
도 12는 본 발명의 바람직한 제2 실시 예에 따른 발음 인식 방법을 나타내는 흐름도,
도 13은 본 발명의 바람직한 제2 실시 예에 따른 발음 인식 방법을 설명하기 위한 도면,
도 14는 전화 발신 화면을 나타내는 도면.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하여 상세하게 설명한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 발명에서 전자 장치는 임의의 장치일 수 있으며, 전자 장치는 휴대 단말, 이동 단말, 통신 단말, 휴대용 통신 단말, 휴대용 이동 단말 등으로 칭할 수 있다.
예를 들어, 전자 장치는 스마트폰, 휴대폰, 게임기, TV, 디스플레이 장치, 차량용 헤드 유닛, 노트북 컴퓨터, 랩탑 컴퓨터, 태블릿(Tablet) 컴퓨터, PMP(Personal Media Player), PDA(Personal Digital Assistants) 등일 수 있다. 전자 장치는 무선 통신 기능을 갖는 포켓 사이즈의 휴대용 통신 단말로서 구현될 수 있다. 또한, 전자 장치는 플렉서블 장치 또는 플렉서블 디스플레이 장치일 수 있다.
이러한 전자 장치의 대표적인 구성은 휴대폰에 대한 것이며, 이러한 전자 장치의 대표적인 구성에서 일부 구성 소자는 필요에 따라 생략되거나 변경될 수 있다.
도 1은 본 발명의 바람직한 실시 예에 따른 전자 장치를 나타내는 개략적인 블록도이다.
도 1을 참조하면, 전자 장치(100)는 통신 모듈(120), 커넥터(165), 및 이어폰 연결잭(167) 중 적어도 하나를 이용하여 외부 장치(도시되지 아니함)와 연결될 수 있다. 이러한, 외부 장치는 상기 전자 장치(100)에 탈착되어 유선으로 연결 가능한 이어폰(Earphone), 외부 스피커(External speaker), USB(Universal Serial Bus) 메모리, 충전기, 크래들/도크(Cradle/Dock), DMB 안테나, 모바일 결제 관련 장치, 건강 관리 장치(혈당계 등), 게임기, 자동차 네비게이션 장치 등 다양한 장치들 중의 하나를 포함할 수 있다. 또한, 전자 장치는 무선으로 연결 가능한 블루투스 통신 장치, NFC(Near Field Communication) 장치, 와이파이 다이렉트(WiFi Direct) 통신 장치, 무선 액세스 포인트(AP, Access Point)를 포함할 수 있다. 그리고, 전자 장치(100)는 유선 또는 무선을 이용하여 다른 휴대 단말 또는 전자 장치, 예를 들어, 휴대폰, 스마트폰, 태블릿 PC, 데스크탑 PC 및 서버 중의 하나와 연결될 수 있다.
도 1을 참조하면, 전자 장치(100)는 적어도 하나의 터치 스크린(190) 및 적어도 하나의 터치 스크린 컨트롤러(195)를 포함한다. 또한, 전자 장치(100)는 제어부(110), 통신 모듈(120), 멀티미디어 모듈(140), 카메라 모듈(150), 입/출력 모듈(160), 센서 모듈(170), 저장부(175) 및 전원 공급부(180)를 포함한다.
통신 모듈(120)은 이동통신 모듈(121), 서브 통신 모듈(130) 및 방송통신 모듈(141)을 포함한다.
서브 통신 모듈(130)은 무선랜 모듈(131) 및 근거리 통신 모듈(132) 중 적어도 하나를 포함하고, 멀티미디어 모듈(140)은 오디오 재생 모듈(142) 및 동영상재생 모듈(143) 중 적어도 하나를 포함한다. 카메라 모듈(150)은 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함한다. 또한, 본 발명의 전자 장치(100)의 카메라 모듈(150)은 전자 장치(100)의 주 용도에 따라 제1 및/또는 제2 카메라(151, 152)의 줌 인/줌 아웃을 위한 경통부(155), 상기 경통부(155)의 줌 인/줌 아웃을 위해 경통부(155)의 움직임을 제어하는 모터부(154), 촬영을 위해 광원을 제공하는 플래시(153) 중 적어도 하나를 포함할 수 있다. 그리고, 입/출력 모듈(160)은 버튼(161), 마이크(162), 스피커(163), 진동 소자(164), 커넥터(165) 및 키패드(166) 중 적어도 하나를 포함한다.
제어부(110)는 CPU(111), 전자 장치(100)의 제어를 위한 제어 프로그램이 저장된 롬(ROM, 112) 및 전자 장치(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 전자 장치(100)에서 수행되는 작업을 위한 기억 영역으로 사용되는 램(RAM, 113)을 포함할 수 있다. CPU(111)는 싱글 코어, 듀얼 코어, 트리플 코어 또는 쿼드 코어를 포함할 수 있다. CPU(111), 롬(112) 및 램(113)은 내부 버스(bus)를 통해 상호 연결될 수 있다.
또한, 제어부(110)는 통신 모듈(120), 멀티미디어 모듈(140), 카메라 모듈(150), 입/출력 모듈(160), 센서 모듈(170), 저장부(175), 전원 공급부(180), 터치 스크린(190) 및 터치 스크린 컨트롤러(195)를 제어할 수 있다.
제어부(110)는 터치 스크린(190) 상에 복수의 객체 또는 아이템이 표시된 상태에서 입력 유닛(168), 사용자의 손가락 등의 터치 가능한 사용자 입력 수단이 어느 하나의 객체를 터치하거나, 그에 접근하거나, 그에 근접하게 위치함에 따른 사용자 입력을 감지하고, 사용자 입력이 발생한 터치 스크린(190) 상의 위치에 대응하는 객체를 식별한다. 터치 스크린(190)을 통한 사용자 입력은 객체를 직접 터치하는 직접 터치 입력과, 미리 설정된 인식 거리 이내로 객체에 접근하지만 객체를 직접 터치하지 않는 간접 터치 입력인 호버링 입력 중의 하나를 포함한다. 예를 들어, 입력 유닛(168)을 터치 스크린(190)에 가까이 위치시키면, 입력 유닛(168)의 연직 하방에 위치하는 객체가 선택될 수 있다. 본 발명에서 사용자 입력은, 터치 스크린(190)을 통한 사용자 입력 외에, 카메라 모듈(150)을 통한 제스처 입력, 버튼(161) 또는 키패드(166)를 통한 스위치/버튼 입력, 마이크(162)를 통한 음성 입력 등을 포함한다.
객체 또는 아이템(또는 기능 아이템)은 전자 장치(100)의 터치 스크린(190) 상에 표시되거나, 표시될 수 있는 것으로서, 예를 들어, 애플리케이션, 메뉴, 문서, 위젯, 사진, 동영상, 이메일, SMS 메시지 및 MMS 메시지 중 적어도 하나를 나타내며, 사용자 입력 수단에 의해 선택, 실행, 삭제, 취소, 저장 및 변경될 수 있다. 이러한 아이템은 버튼, 아이콘(또는 단축 아이콘), 썸네일 이미지 또는 전자 장치에서 적어도 하나의 객체를 저장하고 있는 폴더를 포괄하는 의미로도 사용될 수 있다. 또한, 이러한 아이템은 이미지, 텍스트 등의 형태로 표시될 수 있다.
단축 아이콘은 각각의 애플리케이션 또는 전자 장치(100)에서 기본적으로 제공되는 통화, 연락처, 메뉴 등의 빠른 실행을 위해 전자 장치(100)의 터치 스크린(190) 상에 표시되는 이미지로서, 이를 실행하기 위한 명령 또는 선택이 입력되면 해당 애플리케이션을 실행한다.
또한, 제어부(110)는 입력 유닛(168)이 터치 스크린(190)에 접근하거나, 그에 근접하게 위치함에 따른 호버링(Hovering) 이벤트와 같은 사용자 입력 이벤트를 감지할 수 있다.
제어부(110)는 미리 설정된 아이템에 대해, 또는 미리 설정된 방식에 따라 사용자 입력 이벤트가 발생되면, 사용자 입력 이벤트에 대응하는 미리 설정된 프로그램 동작을 수행한다.
제어부(110)는 제어 신호를 입력 유닛(168) 또는 진동 소자(164)로 출력할 수 있다. 이러한 제어 신호는 진동 패턴에 대한 정보를 포함할 수 있으며, 입력 유닛(168) 또는 진동 소자(164)는 이러한 진동 패턴에 따른 진동을 생성한다. 이러한 진동 패턴에 대한 정보는 진동 패턴 자체, 진동 패턴의 식별자 등을 나타낼 수 있다. 또는, 이러한 제어 신호는 단순히 진동 생성의 요청만을 포함할 수도 있다.
전자 장치(100)은 성능에 따라 이동 통신 모듈(121), 무선랜 모듈(131), 및 근거리 통신 모듈(132) 중 적어도 하나를 포함할 수 있다.
이동 통신 모듈(121)은 제어부(110)의 제어에 따라 적어도 하나-하나 또는 복수-의 안테나(도시되지 아니함)를 이용하여 이동 통신을 통해 전자 장치(100)가 외부 전자 장치와 연결되도록 할 수 있다. 이동 통신 모듈(121)은 전자 장치(100)에 입력되는 전화번호를 가지는 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 태블릿 PC 또는 다른 전자 장치(도시되지 아니함)와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS)를 위한 무선 신호를 송/수신한다.
서브 통신 모듈(130)은 무선랜 모듈(131)과 근거리 통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 무선랜 모듈(131)만 포함하거나, 근거리 통신 모듈(132)만 포함하거나 또는 무선랜 모듈(131)과 근거리 통신 모듈(132)을 모두 포함할 수 있다.
무선랜 모듈(131)은 제어부(110)의 제어에 따라 무선 액세스 포인트(AP, access point)(도시되지 아니함)가 설치된 장소에서 인터넷에 연결될 수 있다. 무선랜 모듈(131)은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다. 근거리 통신 모듈(132)은 제어부(110)의 제어에 따라 전자 장치(100)와 외부 전자 장치 사이에 무선으로 근거리 통신을 할 수 있다. 근거리 통신 방식은 블루투스(bluetooth), 적외선 통신(IrDA, infrared data association), 와이파이 다이렉트(WiFi-Direct) 통신, NFC(Near Field Communication) 등이 포함될 수 있다.
이러한, 서브 통신 모듈(130)을 통해서 제어부(110)는 햅틱 패턴에 따른 제어 신호를 입력 유닛(168)으로 전송할 수 있다.
방송 통신 모듈(141)은 제어부(110)의 제어에 따라 방송통신 안테나(도시되지 아니함)를 통해 방송국에서부터 송출되는 방송 신호(예, TV방송 신호, 라디오방송 신호 또는 데이터방송 신호) 및 방송부가 정보(예, EPS(Electric Program Guide) 또는 ESG(Electric Service Guide))를 수신할 수 있다.
멀티미디어 모듈(140)은 오디오 재생 모듈(142) 또는 동영상 재생 모듈(143)을 포함할 수 있다. 오디오 재생 모듈(142)은 제어부(110)의 제어에 따라 저장부(175)에 저장되거나 또는 수신되는 디지털 오디오 파일(예, 파일 확장자가 mp3, wma, ogg 또는 wav인 파일)을 재생할 수 있다. 동영상 재생 모듈(143)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 동영상 파일(예, 파일 확장자가 mpeg, mpg, mp4, avi, mov, 또는 mkv인 파일)을 재생할 수 있다.
멀티미디어 모듈(140)은 제어부(110)에 통합될 수 있다.
카메라 모듈(150)은 제어부(110)의 제어에 따라 정지 이미지 또는 동영상을 촬영하는 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함할 수 있다. 또한, 카메라 모듈(150)은 피사체를 촬영하기 위해 줌 인/줌 아웃을 수행하는 경통부(155), 상기 경통부(155)의 움직임을 제어하는 모터부(154), 피사체를 촬영하기 위해 필요한 보조 광원을 제공하는 플래시(153) 중 적어도 하나를 포함할 수 있다. 제1 카메라(151)는 상기 전자 장치(100)의 전면에 배치되고, 제2 카메라(152)는 상기 전자 장치(100)의 후면에 배치될 수 있다.
제1 및 제2 카메라(151, 152)는 각각 렌즈계, 이미지 센서 등을 포함할 수 있다. 제1 및 제2 카메라(151, 152)는 각각 렌즈계를 통해 입력되는(또는 촬영되는) 광신호를 전기적인 이미지 신호(또는 디지털 이미지)로 변환하여 제어부(110)로 출력하고, 사용자는 이러한 제1 및 제2 카메라(151, 152)를 통해 동영상 또는 정지 이미지를 촬영할 수 있다.
입/출력 모듈(160)은 적어도 하나의 버튼(161), 적어도 하나의 마이크(162), 적어도 하나의 스피커(163), 적어도 하나의 진동 소자(164), 커넥터(165), 키패드(166), 이어폰 연결잭(167) 및 입력 유닛(168) 중 적어도 하나를 포함할 수 있다. 그리고, 이러한 입/출력 모듈(160)은 이에 국한되지 않으며, 마우스, 트랙볼, 조이스틱 또는 커서 방향 키들과 같은 커서 컨트롤(cursor control)이 터치 스크린(190) 상의 커서의 움직임을 제어하기 위해 제공될 수 있다.
버튼(161)은 상기 전자 장치(100)의 하우징(또는 케이스)의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼, 볼륨 버튼, 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button) 및 검색 버튼 중 적어도 하나를 포함할 수 있다.
마이크(162)는 제어부(110)의 제어에 따라 음성(voice) 또는 소리를 입력 받아 전기적인 신호를 생성한다.
스피커(163)는 제어부(110)의 제어에 따라 다양한 신호 또는 데이터(예를 들어, 무선 데이터, 방송 데이터, 디지털 오디오 데이터, 디지털 동영상 데이터 등)에 대응되는 소리를 전자 장치(100)의 외부로 출력할 수 있다. 스피커(163)는 전자 장치(100)가 수행하는 기능에 대응되는 소리(예를 들어, 전화 통화에 대응되는 버튼 조작음, 통화 연결음, 상대방 사용자의 음성 등)를 출력할 수 있다. 스피커(163)는 상기 전자 장치(100)의 하우징의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다.
진동 소자(164)는 제어부(110)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드에 있는 전자 장치(100)는 다른 장치(도시되지 아니함)로부터 음성 또는 화상 통화가 수신되는 경우, 진동 소자(164)가 동작한다. 진동 소자(164)는 상기 전자 장치(100)의 하우징 내에 하나 또는 복수로 형성될 수 있다. 진동 소자(164)는 터치 스크린(190)을 통한 사용자 입력에 대응하여 동작할 수 있다.
커넥터(165)는 상기 전자 장치(100)와 외부 전자 장치 또는 전원 소스(도시되지 아니함)를 연결하기 위한 인터페이스로 이용될 수 있다. 제어부(110)는 커넥터(165)에 연결된 유선 케이블을 통해 전자 장치(100)의 저장부(175)에 저장된 데이터를 외부 전자 장치로 전송하거나 외부 전자 장치로부터 데이터를 수신할 수 있다. 전자 장치(100)는 커넥터(165)에 연결된 유선 케이블을 통해 전원 소스로부터 전력을 수신하거나, 전원 소스를 이용하여 배터리(도시되지 아니함)를 충전할 수 있다.
키패드(166)는 전자 장치(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드(166)는 전자 장치(100)에 형성되는 물리적인 키패드(도시되지 아니함) 또는 터치 스크린(190)에 표시되는 가상의 키패드(도시되지 아니함)를 포함한다. 전자 장치(100)에 형성되는 물리적인 키패드는 전자 장치(100)의 성능 또는 구조에 따라 제외될 수 있다.
이어폰(도시되지 아니함)은 이어폰 연결잭(Earphone Connecting Jack, 167)에 삽입되어 상기 전자 장치(100)에 연결될 수 있다.
입력 유닛(168)은 전자 장치(100)의 내부에 삽입되어 보관될 수 있으며, 사용시에는 상기 전자 장치(100)로부터 인출 또는 분리될 수 있다. 이러한, 입력 유닛(168)이 삽입되는 전자 장치(100) 내부의 일 영역에는 상기 입력 유닛(168)의 장착 및 탈착에 대응하여 동작하는 탈/부착 인식 스위치(169)가 구비되어 있고, 탈/부착 인식 스위치(169)는 상기 입력 유닛(168)의 장착 및 분리에 대응하는 신호를 제어부(110)로 출력할 수 있다. 탈/부착 인식 스위치(169)는 상기 입력 유닛(168)의 장착시 직·간접적으로 접촉되도록 구성될 수 있다. 이에 따라, 탈/부착 인식 스위치(169)는 상기 입력 유닛(168)과의 접촉 여부에 기초하여, 상기 입력 유닛(168)의 장착 또는 분리에 대응하는 신호(즉, 입력 유닛(168)의 장착 또는 분리를 통지하는 신호)를 생성하여 제어부(110)로 출력한다.
센서 모듈(170)은 전자 장치(100)의 상태를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 센서 모듈(170)은 사용자의 전자 장치(100)에 대한 접근 여부를 검출하는 근접 센서, 전자 장치(100) 주변의 빛의 양을 검출하는 조도 센서(도시되지 아니함), 또는 전자 장치(100)의 동작(예를 들어, 전자 장치(100)의 회전, 전자 장치(100)의 가속 또는 진동)을 검출하는 모션 센서(도시되지 아니함), 전자 장치(100)의 회전 운동을 검출하는 자이로스코프, 전자 장치(100)의 가속 운동을 검출하는 가속도계, 지구 자기장을 이용해 전자 장치(100)의 방위(point of the compass)를 검출하는 지자기 센서(Geo-magnetic Sensor), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor), 대기의 압력을 측정하여 고도를 검출하는 고도계(Altimeter), GPS 모듈(157) 등의 적어도 하나의 센서를 포함할 수 있다.
GPS 모듈(157)은 지구 궤도상에 있는 복수의 GPS 위성(도시되지 아니함)으로부터 전파를 수신하고, GPS 위성으로부터 전자 장치(100)까지의 전파 도달 시간(Time of Arrival)을 이용하여 전자 장치(100)의 위치를 산출할 수 있다.
저장부(175)는 제어부(110)의 제어에 따라 통신 모듈(120), 멀티미디어 모듈(140), 카메라 모듈(150), 입/출력 모듈(160), 센서 모듈(170) 또는 터치 스크린(190)의 동작에 따라 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(175)는 전자 장치(100) 또는 제어부(110)의 제어를 위한 제어 프로그램 및 애플리케이션들을 저장할 수 있다.
“저장부”라는 용어는 저장부(175), 제어부(110) 내 롬(112), 램(113) 또는 전자 장치(100)에 장착되는 메모리 카드(예를 들어, SD 카드, 메모리 스틱) 등의 임의의 데이터 저장 장치를 지칭하는 용어로 사용된다. 저장부(175)는 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수도 있다.
또한, 저장부(175)는 네비게이션, 화상 통화, 게임, 시간을 기반으로 하는 알람 애플리케이션 등과 같은 다양한 기능들의 애플리케이션들과 이와 관련된 그래픽 사용자 인터페이스(graphical user interface: GUI)를 제공하기 위한 이미지들, 사용자 정보, 문서, 터치 입력을 처리하는 방법과 관련된 데이터베이스들 또는 데이터, 전자 장치(100)을 구동하는데 필요한 배경 이미지들(메뉴 화면, 대기 화면 등) 또는 운영 프로그램들, 카메라 모듈(150)에 의해 촬영된 이미지들 등을 저장할 수 있다.
또한, 저장부(175)는 본 발명에 따른 오디오 및 텍스트 간의 변환을 위한 방법을 실행하기 위한 프로그램 및 관련 데이터를 저장할 수 있다.
저장부(175)는 기계(예를 들어, 컴퓨터)로 읽을 수 있는 매체이며, 기계로 읽을 수 있는 매체라는 용어는 기계가 특정 기능을 수행할 수 있도록 상기 기계로 데이터를 제공하는 매체로 정의될 수 있다. 저장부(175)는 비휘발성 매체(non-volatile media) 및 휘발성 매체를 포함할 수 있다. 이러한 모든 매체는 상기 매체에 의해 전달되는 명령들이 상기 명령들을 상기 기계로 읽어 들이는 물리적 기구에 의해 검출될 수 있도록 유형의 것이어야 한다.
상기 기계로 읽을 수 있는 매체는, 이에 한정되지 않지만, 플로피 디스크(floppy disk), 플렉서블 디스크(flexible disk), 하드 디스크, 자기 테이프, 시디롬(compact disc read-only memory: CD-ROM), 광학 디스크, 펀치 카드(punch card), 페이퍼 테이프(paper tape), 램, 피롬(Programmable Read-Only Memory: PROM), 이피롬(Erasable PROM: EPROM) 및 플래시-이피롬(FLASH-EPROM) 중의 적어도 하나를 포함한다.
전원 공급부(180)는 제어부(110)의 제어에 따라 전자 장치(100)의 하우징에 배치되는 하나 또는 복수의 배터리에 전력을 공급할 수 있다. 하나 또는 복수의 배터리는 전자 장치(100)에 전력을 공급한다. 또한, 전원 공급부(180)는 커넥터(165)와 연결된 유선 케이블을 통해 외부의 전원 소스로부터 입력되는 전원을 전자 장치(100)로 공급할 수 있다. 또한, 전원 공급부(180)는 무선 충전 기술을 통해 외부의 전원 소스로부터 무선으로 입력되는 전원을 전자 장치(100)로 공급할 수도 있다.
그리고, 전자 장치(100)는 사용자에게 다양한 서비스(예, 통화, 데이터 전송, 방송, 사진촬영)에 대응되는 사용자 그래픽 인터페이스를 제공하는 적어도 하나의 터치 스크린(190)을 포함할 수 있다.
터치 스크린(190)은 사용자 그래픽 인터페이스에 입력되는 적어도 하나의 사용자 입력에 대응되는 아날로그 신호를 터치 스크린 컨트롤러(195)로 출력할 수 있다.
터치 스크린(190)은 사용자의 신체(예를 들어, 엄지를 포함하는 손가락) 또는 입력 유닛(168)(예를 들어, 스타일러스 펜, 전자 펜)을 통해 적어도 하나의 사용자 입력을 수신할 수 있다.
터치 스크린(190)은 하나의 터치의 연속적인 움직임(즉, 드래그 입력)을 수신할 수도 있다. 터치 스크린(190)은 입력되는 터치의 연속적인 움직임에 대응되는 아날로그 신호를 터치 스크린 컨트롤러(195)로 출력할 수 있다.
본 발명에서 터치는 터치 스크린(190)과 손가락 또는 입력 유닛(168)과의 접촉에 한정되지 않고, 비접촉(예를 들어, 터치 스크린(190)과의 직접 접촉 없이 사용자 입력 수단을 검출할 수 있는 인식 거리(예를 들어, 1cm) 이내에 사용자 입력 수단이 위치하는 경우)을 포함할 수 있다. 터치 스크린(190)에서 사용자 입력 수단을 인식할 수 있는 거리 또는 간격은 전자 장치(100)의 성능 또는 구조에 따라 변경될 수 있으며, 특히 터치 스크린(190)은 사용자 입력 수단과의 접촉에 의한 직접 터치 이벤트와, 간접 터치 이벤트(즉, 호버링 이벤트)를 구분하여 검출 가능하도록, 상기 직접 터치 이벤트와 호버링 이벤트에 의해 검출되는 값(예컨대, 아날로그 값으로 전압 값 또는 전류 값을 포함)이 다르게 출력될 수 있도록 구성될 수 있다.
이러한, 터치 스크린(190)은 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식, 초음파(acoustic wave) 방식, 또는 이들의 조합으로 구현될 수 있다.
또한, 터치 스크린(190)은 제1 사용자 입력 수단(손가락 등의 신체 일부 등)에 의한 입력(즉, 핑거 입력)과 제2 사용자 입력 수단인 입력 유닛(168)에 의한 입력(즉, 펜 입력)을 구분하여 검출할 수 있도록, 핑거 입력과 펜 입력을 각각 감지할 수 있는 적어도 두 개의 터치 스크린 패널을 포함할 수도 있다. 사용자 입력 수단에 있어서, 수동형과 능동형의 구분은 전자파, 전자기파 등의 에너지를 생성 또는 유도하여 출력할 수 있는지의 여부에 따라 구분된다. 상기 적어도 두 개의 터치 스크린 패널은 서로 다른 출력 값을 터치 스크린 컨트롤러(195)에 제공하고, 터치 스크린 컨트롤러(195)는 상기 적어도 두 개의 터치 스크린 패널에서 입력되는 값들을 서로 다르게 인식하여, 터치 스크린(190)으로부터의 입력이 손가락에 의한 입력인지, 입력 유닛(168)에 의한 입력인지를 구분할 수도 있다. 예를 들어, 터치 스크린(190)은 정전용량(capacitive) 방식의 터치 스크린 패널과 EMR(Electromagnetic resonance) 방식의 터치 스크린 패널이 조합된 구조를 가질 수 있다. 또한, 전술한 바와 같이, 상기 터치 스크린(190)은 메뉴 버튼(161b), 뒤로 가기 버튼(161c) 등과 같은 터치 키들을 포함하도록 구성될 수 있으므로, 본 발명에서 말하는 핑거 입력 또는 터치 스크린(190) 상에서의 핑거 입력은 이러한 터치 키 상에서의 터치 입력을 포함한다.
터치 스크린 컨트롤러(195)는 터치 스크린(190)으로부터 입력된 아날로그 신호를 디지털 신호로 변환하여 제어부(110)로 전송한다. 제어부(110)는 터치 스크린 컨트롤러(195)로부터 수신한 디지털 신호를 이용하여 터치 스크린(190)을 제어할 수 있다. 예를 들어, 제어부(110)는 직접 터치 이벤트 또는 호버링 이벤트에 응답하여 터치 스크린(190)에 표시된 단축 아이콘(도시되지 아니함) 또는 객체가 선택 또는 실행되도록 할 수 있다. 또한, 터치 스크린 컨트롤러(195)는 제어부(110)에 통합될 수도 있다.
터치 스크린 컨트롤러(195)는 터치 스크린(190)을 통해 출력되는 값(예컨대, 전류값 등)을 검출하여 사용자 입력 위치뿐만 아니라 호버링 간격 또는 거리를 확인할 수 있고, 확인된 거리 값을 디지털 신호(예컨대, Z좌표)로 변환하여 제어부(110)로 제공할 수도 있다. 또한, 터치 스크린 컨트롤러(195)는 터치 스크린(190)을 통해 출력되는 값(예컨대, 전류값 등)을 검출하여 사용자 입력 수단이 터치 스크린(190)을 누르는 압력을 검출할 수 있고, 확인된 압력 값을 디지털 신호로 변환하여 제어부(110)로 제공할 수도 있다.
도 2는 본 발명의 실시 예에 따른 전자 장치의 전면 사시도를 나타낸 도면이고, 도 3은 본 발명의 실시 예에 따른 전자 장치의 후면 사시도를 나타낸 도면이다.
도 2 및 도 3을 참조하면, 전자 장치(100)의 전면(101) 중앙에는 터치 스크린(190)이 배치된다. 터치 스크린(190)은 전자 장치(100)의 전면(101)의 대부분을 차지하도록 크게 형성될 수 있다. 도 2에서는, 상기 터치 스크린(190)에 메인 홈 화면이 표시된 예를 나타낸다. 메인 홈 화면은 전자 장치(100)의 전원을 켰을 때 터치 스크린(190) 상에 표시되는 첫 화면이다. 또한, 전자 장치(100)가 여러 페이지의 서로 다른 홈 화면들을 가질 경우, 메인 홈 화면은 상기 여러 페이지의 홈 화면들 중 첫 번째 홈 화면일 수 있다. 홈 화면에는 자주 사용되는 애플리케이션들을 실행하기 위한 단축 아이콘들(191-1, 191-2, 191-3), 메인 메뉴 전환키(191-4), 시간, 날씨 등이 표시될 수 있다. 사용자가 메인 메뉴 전환키(191-4)를 선택하면, 상기 터치 스크린(190)에 메뉴 화면이 표시된다. 또한, 상기 터치 스크린(190)의 상단에는 배터리 충전 상태, 수신 신호의 세기, 현재 시각과 같은 전자 장치(100)의 상태를 표시하는 상태 바(Status Bar, 192)가 형성될 수도 있다.
상기 터치 스크린(190)의 아래에는 홈 버튼(161a), 메뉴 버튼(161b), 뒤로 가기 버튼(161c) 등과 같은 터치 키들, 기계식 버튼들 또는 이들의 조합이 형성될 수 있다. 또한, 이러한 터치 키들은 상기 터치 스크린(190)의 일부로 구성될 수 있다.
홈 버튼(161a)은 터치 스크린(190)에 메인 홈 화면(main Home screen)을 표시한다. 예를 들어, 터치 스크린(190)에 상기 메인 홈 화면과 다른 홈 화면(any Home screen) 또는 메뉴 화면이 표시된 상태에서, 상기 홈 버튼(161a)이 선택되면, 터치 스크린(190)에 메인 홈 화면이 표시될 수 있다. 또한, 터치 스크린(190) 상에서 애플리케이션들이 실행되는 도중 홈 버튼(161a)이 선택되면, 상기 터치 스크린(190) 상에는 도 2에 도시된 메인 홈 화면이 디스플레이될 수 있다. 또한 홈 버튼(161a)은 상기 터치 스크린(190) 상에 최근에(recently) 사용된 애플리케이션들을 표시하도록 하거나, 태스크 매니저(Task Manager)를 표시하기 위하여 사용될 수도 있다.
메뉴 버튼(161b)은 터치 스크린(190) 상에 표시될 수 있는 연결 메뉴를 제공한다. 상기 연결 메뉴에는 위젯 추가 메뉴, 배경화면 변경 메뉴, 검색 메뉴, 편집 메뉴, 환경 설정 메뉴 등이 포함될 수 있다.
뒤로 가기 버튼(161c)은 현재 실행되고 있는 화면의 바로 이전에 실행되었던 화면을 표시하거나, 가장 최근에 사용된 애플리케이션을 종료시키는 경우에 사용될 수 있다.
전자 장치(100)의 전면(101)의 상측에는 제1 카메라(151), 조도 센서(170a), 근접 센서(170b) 및 제1 거리/생체 센서가 배치될 수 있다. 전자 장치(100)의 후면(103)에는 제2 카메라(152), 플래시(flash, 153), 스피커(163) 및 제2 거리/생체 센서가 배치될 수 있다.
전자 장치(100)의 측면(102)에는 예를 들어 전원/잠금 버튼(161d), 볼륨 증가 버튼(161f) 및 볼륨 감소 버튼(161g)을 갖는 볼륨 버튼(161e), 방송 수신을 위한 지상파 DMB 안테나(141a), 하나 또는 복수의 마이크들(162) 등이 배치될 수 있다. 상기 DMB 안테나(141a)는 전자 장치(100)에 고정되거나, 착탈 가능하게 형성될 수도 있다.
또한, 전자 장치(100)의 하단 측면에는 커넥터(165)가 형성된다. 커넥터(165)에는 다수의 전극들이 형성되어 있으며 외부 장치와 유선으로 연결될 수 있다. 전자 장치(100)의 상단 측면에는 이어폰 연결잭(167)이 형성될 수 있다. 이어폰 연결잭(167)에는 이어폰이 삽입될 수 있다.
또한, 전자 장치(100)의 하단 측면에는 입력 유닛(168)이 장착될 수 있다. 입력 유닛(168)은 전자 장치(100) 내부에 삽입되어 보관될 수 있으며, 사용시에는 상기 전자 장치(100)로부터 인출 및 분리될 수 있다.
제어부(110)는 전자 장치(100)의 전반적인 동작을 제어하며, 제어부(110)는 전자 장치(100) 내 다른 구성 소자들을 제어하여 오디오 및 텍스트 간의 변환을 위한 방법을 수행한다.
도 4는 본 발명의 바람직한 실시 예에 따른 발음 정보 저장 방법을 수행하기 위한 전자 장치의 주요 구성을 나타내는 도면이다.
전자 장치(100)의 주요 구성은 터치 스크린(190), 입/출력 모듈(160), 저장부(175) 및 제어부(110)를 포함한다.
저장부(175)는 한자 사전 저장부(210), 발음 데이터 저장부(220) 및 연락처 저장부(230)를 포함하고, 발음 데이터 저장부(220) 및 연락처 저장부(230)는 사용자가 입력한 정보를 저장하는 저장부(즉, 사용자 입력 저장부)이고, 한자 사전 저장부(210)는 사용자 입력 저장부가 아닌 미리 정보가 입력된 저장부이다.
제어부(110)는 터치 스크린(190)의 화면에 발음 데이터를 입력할 수 있는 창을 표시한다. 사용자는 입/출력 모듈(160) 또는 터치 스크린(190)을 통해 발음 데이터(즉, 음성 기호)를 입력한다. 이때 발음 데이터는 로마자, 외국어(히라가나, 카타카나와 같은 일본어 등), 한글, 발음 표기어 등으로 표시될 수 있다.
제어부(110)는 저장부(170)의 한자 사전 저장부(210)를 검색하여 발음 데이터에 매칭되는 텍스트, 즉 한자를 확인한다. 제어부는 확인된 한자를 터치 스크린(190)의 화면에 표시하고, 사용자가 표시된 한자를 선택하면, 발음 데이터를 선택된 한자로 대체하여 입력 창에 표시한다. 또한, 제어부(110)는 발음 데이터 및 선택된 한자를 발음 데이터 저장부(220)에 서로 맵핑하여 저장한다.
도 5는 본 발명의 바람직한 실시 예에 따른 발음 정보 저장 방법을 나타내는 흐름도이고, 도 6 내지 도 9는 본 발명의 바람직한 실시 예에 따른 발음 정보 저장 방법을 설명하기 위한 도면들이다.
발음 정보 저장 방법은 S110~S140 단계를 포함한다.
S110 단계는 애플리케이션 실행 단계로서, 예를 들어, 사용자는 터치 스크린(190)의 화면에 표시된 다양한 아이콘들 중에서 자신이 원하는 아이콘을 터치함으로써, 상기 아이콘에 맵핑된 애플리케이션을 실행할 수 있다.
제어부(110)는 입/출력 모듈(160), 터치 스크린(190), 카메라 모듈(150) 또는 통신 모듈(120)을 통해 사용자 입력을 수신한다. 사용자는 입/출력 모듈(160) 또는 터치 스크린(190)을 통해 버튼(161), 아이콘 또는 메뉴 항목을 선택하거나, 마이크(162)를 통해 음성 명령을 입력하거나, 카메라 모듈(150)을 통해 제스쳐 또는 모션 입력을 수행하거나, 통신 모듈(120)을 통해 무선으로 특정 명령을 입력할 수 있다. 이러한 명령은 애플리케이션 실행 명령일 수 있으며, 이러한 애플리케이션은 임의의 애플리케이션일 수 있으며, 예를 들어, 연락처 애플리케이션, 음성 인식 애플리케이션, 스케줄 관리 애플리케이션, 문서 작성 애플리케이션, 뮤직 애플리케이션, 인터넷 애플리케이션, 지도 애플리케이션, 카메라 애플리케이션, 이메일 애플리케이션, 사진 애플리케이션, 이미지 편집 애플리케이션, 검색 애플리케이션, 파일 탐색 애플리케이션, 비디오 애플리케이션, 게임 애플리케이션, SNS 애플리케이션, 전화 애플리케이션, 메시지 애플리케이션 등일 수 있다. 제스쳐 또는 모션 입력은, 예를 들어, 사용자가 손 또는 손가락으로 카메라 모듈(150)을 향해 원형, 삼각형, 사각형 등의 미리 설정된 패턴의 궤적을 그리는 경우를 말한다. 본 예에서는, 사용자 입력에 따라 애플리케이션을 실행하는 것으로 예시하고 있으나, 이러한 애플리케이션은 메시지 수신, 콜 수신, 알람 이벤트 발생 등과 같은 이벤트의 발생에 따라 자동으로 실행될 수도 있다.
도 6의 (a)는, 연락처 애플리케이션(311)이 실행된 터치 스크린 화면(310)을 예시한다. 사용자가 새 연락처 추가 버튼(312)을 선택하면, 도 6의 (b)에 도시된 바와 같이, 새 연락처 추가 화면(320)이 표시된다.
S120 단계는 발음 수신 단계로서, 제어부(110) 사용자로부터 발음 데이터를 수신한다. 도 6의 (b)를 참고하면, 사용자는 새 연락처 추가 화면(320)의 이름 입력 창(321)에 이름을 입력할 수 있다.
S130 단계는 텍스트 변환 및 발음 데이터 저장 단계로서, 제어부(110)는 저장부(175)의 한자 사전 저장부(210)를 검색하여 발음 데이터에 매칭되는 텍스트, 즉 한자를 확인한다. 제어부(110)는 확인된 한자에 근거하여 적어도 하나의 후보 텍스트를 표시한다.
도 7의 (a)를 참조하면, 사용자는 이름 입력 창(321)에 “ninomiya” (322)를 입력하고, 제어부(110)는 한자 사전 저장부(210)를 검색하여 “nomi”에 해당하는 "飮"이라는 한자와, “ninomiya”에 해당하는 “二宮”라는 한자와, “ni” 및 “miya”에 해당하는 “二” 및 “宮”라는 한자를 확인한다. 제어부(110)는 “にのみや“(331), “に飮みや”(332), “二の宮”(333) 및 “二宮”(334)라는 후보 텍스트들을 표시한다.
도 7의 (b)를 참조하면, 사용자가 “二宮”(334)라는 후보 텍스트를 선택하면, 제어부는 “ninomiya”라는 입력 발음을 “二宮”(323)라는 한자로 대체하여 이름 입력 창(321)에 표시한다. 또한, 제어부(110)는 “ninomiya”라는 입력 발음 및 “二宮”(323)라는 한자를 발음 저장부(220)에 서로 맵핑하여 저장한다.
도 8의 (a)를 참조하면, 사용자는 “ninomiya”라는 성에 이어 이름을 입력하기 위해 이름 입력 창(321)에 “二宮”에 이어서 “kazunari”(324)를 입력한다.
도 8의 (b)를 참조하면, “ninomiya”와 관련하여 전술한 방식과 마찬가지로, 제어부(110)는 사용자의 선택에 따라 “kazunari”라는 입력 발음을 “和也”(325)라는 한자로 대체하여 이름 입력 창(321)에 표시한다. 또한, 제어부(110)는 “kazunari”라는 입력 발음 및 “和也”라는 한자를 발음 저장부(220)에 서로 맵핑하여 저장한다.
S140 단계는 변환된 텍스트를 저장하는 단계로서, 사용자는 전화번호 입력 창(340)에 “二宮和也”의 전화번호인 “01012345678“(341)를 입력하고, 저장 버튼(350)을 눌러서 “二宮和也”의 연락처를 저장부(175)에 저장한다. 저장부(175)는 연락처 저장부(230)를 포함하고, “二宮和也”의 연락처는 연락처 저장부(230)에 저장될 수 있다.
본 예에서는, 텍스트가 한자이고, 발음 데이터가 로마자인 것을 예시하고 있으나, 본 발명은 표기 문자와 발음 문자가 다른 임의의 상황에 적용될 수 있다. 예를 들어, 텍스트는 중국어, 러시아어 등일 수 있고, 발음 데이터는 로마자(즉, 알파벳), 히라가나, 카타카나, 한글 등일 수 있다.
본 예에서는, 한자 변환시마다 발음 데이터 및 한자를 발음 데이터 저장부(220)에 저장하는 것으로 예시하고 있으나, 전체 이름의 한자 변환이 완료된 후 발음 데이터 및 한자를 발음 데이터 저장부(220)에 저장할 수도 있다. 예를 들어, 한자 변환의 완료는 사용자가 다른 입력 창을 선택한 경우, 또는 저장 버튼(350)을 선택한 경우로 판단할 수도 있다.
본 예에서는, 제어부(110)는 “ninomiya kazunari”라는 전체 발음에 대하여, “ninomiya”라는 입력 발음 및 “二宮”라는 한자를 발음 데이터 저장부(220)에 서로 맵핑하여 저장한 후, “kazunari”라는 입력 발음 및 “和也”라는 한자를 발음 데이터 저장부(220)에 서로 맵핑하여 저장하고 있다.
하기 표 1의 제1 예에 따라, 발음 데이터 저장부(220)는 복수의 발음 정보를 복수의 레코드 형태로 저장할 수 있다.
레코드번호 한자 발음
A1 二宮 ninomiya
A2 和也 kazunari
An Bn Cn
각 레코드 Ai(1≤i≤n, n은 1 이상의 정수)는 한자 필드 Bi, 발음 필드 Ci 등의 정보를 포함할 수 있다.
이와 다르게, 제어부(110)는 “ninomiya”라는 발음 데이터 및 “二宮”라는 한자를 발음 데이터 저장부(220)에 서로 맵핑하여 저장한 후, “kazunari”라는 발음 데이터를 “ninomiya”라는 발음 데이터에 추가하고, “和也”라는 한자를 “二宮”라는 한자에 추가하여 저장할 수도 있다.
이와 다르게, 제어부(110)는 “ninomiya kazunari”라는 발음 데이터 및 “二宮 和也”라는 한자를 발음 데이터 저장부(220)에 서로 맵핑하여 저장할 수도 있다.
아래의 표 2는 발음 데이터 저장부(220)의 제2 예를 나타낸다.
레코드번호 한자 발음
A1 二宮和也 ninomiya kazunari
A2 B2 C2
An Bn Cn
또는, 발음 데이터 저장부(220)는 제1 예의 레코드들 A1 및 A2와, 제2 예의 레코드 A1을 모두 포함할 수도 있다.
아래의 표 3과 같이, 한자 사전 저장부(210)도 복수의 한자 정보를 복수의 레코드 형태로 저장할 수 있다.
레코드번호 한자 발음1 발음2
A1 和也 kazuya kazunari
A2 hikaru hikari
An Bn Cn Dn
각 레코드 Ai는 한자 필드 Bi, 제1 발음 필드 Ci, 제2 발음 필드 Ci 등의 정보를 포함할 수 있다.
아래의 표 4와 같이, 연락처 저장부(230)도 복수의 연락처 정보를 복수의 레코드 형태로 저장할 수 있다.
레코드 번호 이름 전화번호
A1 二宮和也 01012345678
A2 B2 C2
An Bn Cn
각 레코드 Ai는 이름 필드 Bi, 전화번호 필드 Ci 등의 정보를 포함할 수 있다.
전술한 예와 다르게, 아래의 표 5와 같이, 발음 데이터 저장부(220)는 연락처 저장부(230)에 통합될 수도 있다.
레코드 번호 이름 전화번호 발음
A1 二宮和也 01012345678 ninomiya kazunari
A2 B2 C2 D2
An Bn Cn Dn
예를 들어, 한자 변환이 완료된 후 사용자가 이름 입력 창(321) 이외의 다른 입력 창을 선택하거나 저장 버튼(350)을 선택하면, 제어부(110)는 발음 데이터를 자동으로 연락처 저장부(230)에 저장할 수도 있다.
다시 도 7의 (a)를 참조하면, 사용자가 후보 텍스트들(331~334)이 아니라 직접 입력 아이템(335)을 선택하면, 사용자는 직접 “ninomiya”(322)라는 발음 데이터를 “二宮”(323)라는 한자로 대체하여 입력할 수 있다. 이러한 경우에도, 제어부(110)는 “ninomiya”라는 입력 발음 및 “二宮”라는 한자를 발음 데이터 저장부(220)에 서로 맵핑하여 저장한다. 예를 들어, 사용자는 인터넷 애플리케이션, 사전 애플리케이션 등의 한자 검색이 가능한 애플리케이션을 이용하여 “ninomiya”라는 입력 발음에 대응하는 한자를 검색할 수 있고, 검색된 한자를 복사하여 이름 입력창(321)에 붙여 넣을 수 있다. 사용자가 직접 입력 아이템(335)을 선택하면, 인터넷 애플리케이션, 사전 애플리케이션 등의 한자 검색이 가능한 애플리케이션으로 자동 연결될 수도 있다.
도 9의 (a)를 참조하면, 사용자는 인터넷 애플리케이션 화면(360)의 검색 창(362)에 “ninomiya”(322)를 입력하고, 검색 버튼(364)을 선택함으로써 “ninomiya”라는 발음 데이터에 대응하는 한자를 검색할 수 있다. 또한, 사용자는 검색된 “二宮”라는 한자를 복사할 수 있다.
도 9의 (b)를 참조하면, 사용자는 이름 입력 창의 “ninomiya”(322a)를 선택하고, 붙여넣기 아이템(371) 또는 클립보드 아이템(372)을 이용하여 검색된 한자인 “二宮”로 선택된 “ninomiya”(322a)를 대체할 수 있다. “ninomiya”가 “二宮”로 대체 표시된 화면은 도 7의 (b)와 같다. 제어부(110)는 “ninomiya”라는 발음 데이터 및 “二宮”라는 한자를 발음 데이터 저장부(220)에 서로 맵핑하여 저장한다.
도 10은 본 발명의 바람직한 제1 실시 예에 따른 발음 인식 방법을 나타내는 흐름도이다.
S210 단계는 이벤트 검출 또는 확인 단계로서, 제어부(110)는 문자 메시지 수신, 콜 수신, 문서/문자열 리딩 명령 등과 같은 텍스트를 오디오로 출력할 것을 요청하는 이벤트(또는 이러한 요청)를 검출 또는 확인한다. 이러한 이벤트는 텍스트의 오디오 변환이 설정된 임의의 이벤트를 나타낸다.
S220 단계는 사용자 입력 저장부 검색 단계로서, 확인된 이벤트가 문자 메시지 수신 또는 콜 메시지 수신(또는 콜 수신)인 경우에, 제어부(110)는 문자 메시지 또는 콜 메시지에서 전화번호를 추출하고, 추출된 전화번호를 연락처 저장부(230)에서 확인한다. 또한, 연락처 저장부(230)에서 확인된 전화번호에 맵핑된 이름이 한자를 포함하는 경우에, 제어부(110)는 한자를 발음 데이터 저장부(220)에서 확인한다.
검출된 이벤트가 문서/문자열 리딩 명령인 경우에, 제어부(110)는 문서 또는 문자열에 포함된 한자를 발음 데이터 저장부(220)에서 검색한다.
S230 단계는 검색 확인 단계로서, 제어부(110)는, 발음 저장부(220)에서 한자의 발음 데이터가 확인된 경우 S240 단계를 수행하고, 발음 저장부(220)에서 한자의 발음 데이터가 확인되지 않은 경우 S250 단계를 수행한다.
S240 단계는 발음 저장부에서 확인된 발음 데이터를 출력하는 단계로서, 제어부(110)는 발음 데이터 저장부(220)에서 확인된 발음 데이터를 오디오로 출력한다.
S250 단계는 한자 사전 저장부에서 확인된 발음 데이터를 출력하는 단계로서, 제어부(110)는 한자를 한자 사전 저장부(210)에서 확인하고, 한자 사전 저장부(210)에서 확인된 발음을 출력한다. 한자 사전 저장부(210)에서 한자에 맵핑된 복수의 발음이 확인된 경우에, 제어부(110)는 복수의 발음 중 문맥에 맞는 발음을 출력하거나, 복수의 발음 중 대표 발음을 출력한다.
도 11은 본 발명의 바람직한 제1 실시 예에 따른 발음 인식 방법을 설명하기 위한 도면이다. 도 11은 전화 착신 화면(410)을 나타내고, 제어부(110)는 전화 착신 화면(410)에 콜 메시지로부터 추출된 상대방의 전화번호(420)와, 연락처 저장부(220)에서 확인된 이름(425)을 표시한다. 제어부(110)는 미리 설정된 안내 멘트(430)(즉, “…로부터 전화가 왔습니다”)에 발음 저장부(220)에서 확인된 “Ninomiya kazunari”(435)라는 발음 데이터를 합성하여 오디오로 출력한다.
도 12는 본 발명의 바람직한 제2 실시 예에 따른 발음 인식 방법을 나타내는 흐름도이고, 도 13은 본 발명의 바람직한 제2 실시 예에 따른 발음 인식 방법을 설명하기 위한 도면이다.
S310 단계는 음성 인식 애플리케이션을 실행하는 단계이며, 사용자는 터치스크린(190), 입/출력 모듈(160) 또는 카메라 모듈(150)을 통하여 버튼, 아이콘 또는 메뉴 항목의 선택, 음성 명령, 제스쳐 또는 모션 입력, 터치 패턴의 입력 등을 수행함으로써, 음성 인식 애플리케이션을 실행한다.
예를 들어, 사용자는 홈 버튼(161a)을 더블 클릭함으로써 음성 인식 애플리케이션을 실행할 수 있다.
도 13의 (a)는 음성 인식 애플리케이션의 화면(510)을 나타내는 도면이다.
음성 인식 애플리케이션은 초기 구동되면, “어떤 작업을 실행할까요?”, 또는 “What would you like to do?”라는 사용 안내 문구(551)를 애플리케이션 화면(510)에 표시한다.
애플리케이션 화면(510)의 하부에는, 클릭한 경우에 사용 방법을 음성으로 안내하는 음성 안내 버튼(520)과, 클릭한 경우에 음성 인식 모드를 실행하는 음성 인식 버튼(530)과, 클릭한 경우에 사용 방법의 예들을 표시하는 도움말 버튼(540)이 제공된다.
S320 단계는 음성을 텍스트로 변환하는 단계이며, 제어부(110)는 사용자의 음성을 텍스트로 변환한다.
예를 들어, 사용자는 “통화 Ninomiya kazunari”라는 음성 명령을 입력할 수 있고, 제어부(110)는 사용자의 음성을 텍스트로 변환한다.
S330 단계는 발음 데이터 저장부 검색 단계로서, 제어부(110)는 변환된 텍스트에서 “Ninomiya kazunari”라는 발음 데이터를 추출하고, 제어부(110)는 발음 데이터를 발음 데이터 저장부(220)에서 검색한다.
S340 단계는 검색 확인 단계로서, 제어부는, 발음 데이터 저장부(220)에서 발음 데이터가 확인된 경우 S360 단계를 수행하고, 발음 데이터 저장부(220)에서 발음 데이터가 확인되지 않은 경우 S350 단계를 수행한다.
S350 단계는 한자 사전 저장부 검색 단계로서, 제어부(110)는 발음 데이터를 한자 사전 저장부(210)에서 검색한다.
S360 단계는 연락처 저장부 검색 단계로서, 제어부(110)는 발음 저장부(220) 에서 확인된 발음 데이터에 맵핑된 텍스트(즉, “二宮和也”) 또는 한자 사전 저장부(210)에서 확인된 발음 데이터에 맵핑된 텍스트를 연락처 저장부(230)에서 확인한다. 제어부는, 연락처 저장부(230)에서 발음 데이터에 맵핑된 텍스트가 확인된 경우 S370 단계를 수행하고, 연락처 저장부(230)에서 발음 데이터에 맵핑된 텍스트가 확인되지 않은 경우 본 방법을 종료한다.
S370 단계는 명령 실행 단계로서, 제어부(110)는 “二宮和也”라는 텍스트에 맵핑된 전화번호를 이용하여 “二宮和也”에게 전화를 거는 동작을 수행한다.
도 13의 (b)를 참조하면, 제어부(110)는 “통화 Ninomiya kazunari”라는 사용자의 음성 명령을 텍스트로 변환한 결과(552)와, 실행할 동작을 나타내는 텍스트(553)(즉, “二宮和也님에게 전화를 겁니다”)를 애플리케이션 화면(510)에 표시한다. 상기 변환된 텍스트(552)는 “Ninomiya kazunari”(554)라는 발음 데이터를 포함하고, 상기 실행할 동작을 나타내는 텍스트(553)는 발음 데이터에 맵핑된 “二宮和也”라는 텍스트(620)를 포함한다.
도 14는 전화 발신 화면(610)을 나타내고, 제어부(110)는 전화 발신 화면(610)에 발음 데이터 저장부(220)에서 확인된 전화번호(630) 및 이름(620)을 표시한다.
본 예와 다르게, 제어부는, 연락처 저장부(230)에서 발음 데이터에 맵핑된 텍스트가 확인되지 않은 경우에도, 명령 실행을 할 수 없음을 나타내는 텍스트(예를 들어, “二宮和也님의 연락처를 찾을 수 없습니다”)를 애플리케이션 화면(510)에 표시할 수도 있다.
전술한 예들에서, 화면을 표시하는 디스플레이 유닛의 대표적인 예로 터치 스크린을 예시하고 있으나, 터치 스크린 대신에 터치 감지 기능이 없는 액정표시장치(Liquid Crystal Display: LCD), 유기발광다이오드(Organic Light Emitting Diodes: OLED), LED 등과 같은 통상의 디스플레이 유닛을 사용할 수도 있다.
본 발명의 실시 예들은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 전자 장치 내에 포함될 수 있는 저장부는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서, 본 발명은 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.
또한, 상기 전자 장치는 유선 또는 무선으로 연결되는 프로그램 제공 장치로부터 상기 프로그램을 수신하여 저장할 수 있다. 상기 프로그램 제공 장치는 상기 전자 장치가 기설정된 오디오 및 텍스트 간의 변환을 위한 방법을 수행하도록 하는 지시들을 포함하는 프로그램, 오디오 및 텍스트 간의 변환을 위한 방법에 필요한 정보 등을 저장하기 위한 메모리와, 상기 전자 장치와의 유선 또는 무선 통신을 수행하기 위한 통신부와, 상기 전자 장치의 요청 또는 자동으로 해당 프로그램을 상기 전자 장치로 전송하는 제어부를 포함할 수 있다.
상술한 본 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시할 수 있다. 따라서 본 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위와 특허청구범위의 균등한 것에 의해 정해져야 한다.
100: 전자 장치, 110: 제어부, 120: 통신 모듈, 130: 서브 통신 모듈, 140: 멀티미디어 모듈, 150: 카메라 모듈, 157: GPS 모듈, 160: 입/출력 모듈, 168: 입력 유닛, 170; 센서 모듈, 175: 저장부, 180: 전원 공급부, 190: 터치스크린, 195: 터치스크린 컨트롤러, 210: 한자 사전 저장부, 220: 발음 데이터 저장부, 230: 연락처 저장부

Claims (20)

  1. 텍스트를 오디오로 출력하는 방법에 있어서,
    텍스트를 오디오로 출력하는 요청을 감지하는 과정과;
    상기 텍스트를 사용자 입력 저장부에서 확인하는 과정과;
    확인된 상기 텍스트에 대응되는 발음 데이터를 상기 사용자 입력 저장부에서 확인하는 과정과;
    상기 확인된 발음 데이터에 해당하는 오디오 신호를 출력하는 과정을 포함함을 특징으로 하는 텍스트를 오디오로 출력하는 방법.
  2. 제1항에 있어서,
    상기 텍스트의 발음 데이터가 상기 사용자 입력 저장부에 존재하지 않는 경우에, 상기 텍스트의 발음 데이터를 미리 설정된 사전 저장부에서 검색하는 과정과;
    상기 사전 저장부에서 확인된 발음 데이터를 오디오로 출력하는 과정을 포함함을 특징으로 하는 텍스트를 오디오로 출력하는 방법.
  3. 제1항에 있어서,
    상기 텍스트는 한자열인 것을 특징으로 하는 텍스트를 오디오로 출력하는 방법.
  4. 제1항에 있어서,
    상기 텍스트를 오디오로 출력하는 요청은 메시지의 수신에 따라 발생하고, 상기 사용자 입력 저장부는 연락처 저장부 및 발음 저장부 중의 적어도 하나를 포함함을 특징으로 하는 텍스트를 오디오로 출력하는 방법.
  5. 제4항에 있어서, 상기 텍스트의 발음 데이터를 상기 사용자 입력 저장부에서 확인하는 과정은,
    상기 메시지에서 전화번호를 추출하는 과정과;
    상기 추출된 전화번호에 맵핑된 상기 텍스트의 발음 데이터를 상기 사용자 입력 저장부에서 검색하는 과정을 포함함을 특징으로 하는 텍스트를 오디오로 출력하는 방법.
  6. 제4항에 있어서, 상기 텍스트의 발음 데이터를 상기 사용자 입력 저장부에서 확인하는 과정은,
    상기 메시지에서 전화번호를 추출하는 과정과;
    상기 추출된 전화번호에 맵핑된 상기 텍스트를 상기 연락처 저장부에서 검색하는 과정과;
    상기 연락처 저장부에서 확인된 상기 텍스트의 발음 데이터를 상기 발음 저장부에서 검색하는 과정을 포함함을 특징으로 하는 텍스트를 오디오로 출력하는 방법.
  7. 제1항에 있어서, 상기 텍스트를 오디오로 출력하는 요청을 감지하는 과정 이전에,
    사용자로부터 상기 발음 데이터를 수신하는 과정과;
    상기 발음 데이터를 상기 텍스트로 변환하는 과정과;
    자동으로 상기 발음 데이터 및 상기 텍스트를 상기 사용자 입력 저장부에 저장하는 과정을 더 포함함을 특징으로 하는 텍스트를 오디오로 출력하는 방법.
  8. 제7항에 있어서, 상기 사용자로부터 상기 발음 데이터를 수신하는 과정 이전에, 디스플레이 유닛의 화면에 상기 발음 데이터를 입력할 수 있는 창을 표시하는 과정을 더 포함함을 특징으로 하는 텍스트를 오디오로 출력하는 방법.
  9. 제8항에 있어서,
    상기 발음 데이터에 매칭되는 적어도 하나의 텍스트를 상기 디스플레이 유닛의 화면에 표시하는 과정을 더 포함하고,
    상기 발음 데이터를 상기 적어도 하나의 텍스트 중에서 상기 사용자가 선택한 텍스트로 변환함을 특징으로 하는 텍스트를 오디오로 출력하는 방법.
  10. 제8항에 있어서,
    상기 발음 데이터를 입력할 수 있는 창은 연락처 애플리케이션을 통해 제공됨을 특징으로 하는 텍스트를 오디오로 출력하는 방법.
  11. 제10항에 있어서,
    상기 발음 데이터 및 상기 텍스트는 발음 데이터 저장부에 서로 맵핑되어 저장되고, 상기 텍스트는 연락처와 함께 연락처 저장부에 저장됨을 특징으로 하는 텍스트를 오디오로 출력하는 방법.
  12. 제1항에 있어서,
    상기 발음 데이터에 대한 복수의 후보 텍스트를 사용자에게 표시하는 과정과;
    상기 복수의 후보 텍스트 중에서 상기 사용자가 선택한 후보 텍스트로 상기 발음 데이터를 대체하고, 대체된 상기 후보 텍스트를 상기 사용자에게 표시하는 과정을 더 포함함을 특징으로 하는 텍스트를 오디오로 출력하는 방법.
  13. 제1항 내지 제12항 중 어느 한 항에 따른 텍스트를 오디오로 출력하는 방법을 실행하기 위한 프로그램을 기록한 기계로 읽을 수 있는 저장 매체.
  14. 제13항의 기계로 읽을 수 있는 저장 매체를 포함하는 전자 장치.
  15. 텍스트를 오디오로 출력하는 전자 장치에 있어서,
    사용자 입력 저장부를 갖는 저장부와;
    텍스트의 오디오 출력을 필요로 하는 이벤트를 확인하고, 상기 텍스트의 발음 데이터를 상기 사용자 입력 저장부에서 확인하고, 상기 텍스트의 발음 데이터가 상기 사용자 입력 저장부에 존재하는 경우에, 상기 사용자 입력 저장부에서 확인된 발음 데이터를 오디오로 출력하는 제어부를 포함함을 특징으로 하는 텍스트를 오디오로 출력하는 전자 장치.
  16. 제15항에 있어서, 상기 제어부는,
    상기 텍스트의 발음 데이터가 상기 사용자 입력 저장부에 존재하지 않는 경우에, 상기 텍스트의 발음 데이터를 미리 설정된 사전 저장부에서 검색하고, 상기 사전 저장부에서 확인된 발음 데이터를 오디오로 출력함을 특징으로 하는 텍스트를 오디오로 출력하는 전자 장치.
  17. 제15항에 있어서,
    상기 텍스트는 한자열인 것을 특징으로 하는 텍스트를 오디오로 출력하는 전자 장치.
  18. 오디오를 텍스트로 변환하는 전자 장치에 있어서,
    사용자 입력 저장부를 갖는 저장부와;
    오디오를 발음 데이터로 변환하고, 상기 발음 데이터에 맵핑된 텍스트를 상기 사용자 입력 저장부에서 확인하고, 상기 텍스트가 상기 사용자 입력 저장부에 존재하는 경우에, 상기 사용자 입력 저장부에서 확인된 텍스트를 출력하는 제어부를 포함함을 특징으로 하는 오디오를 텍스트로 출력하는 전자 장치.
  19. 제18항에 있어서,
    상기 제어부는 상기 오디오가 나타내는 사용자의 명령을 실행함을 특징으로 하는 오디오를 텍스트로 출력하는 전자 장치.
  20. 제19항에 있어서,
    상기 사용자 명령은 콜 메시지 또는 문자 메시지의 전송 명령이고, 상기 사용자 입력 저장부는 연락처 저장부 및 발음 저장부 중의 적어도 하나를 포함함을 특징으로 하는 오디오를 텍스트로 출력하는 전자 장치.
KR1020130069505A 2013-06-18 2013-06-18 오디오 및 텍스트 간의 변환을 위한 방법 및 전자 장치 KR20140146785A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020130069505A KR20140146785A (ko) 2013-06-18 2013-06-18 오디오 및 텍스트 간의 변환을 위한 방법 및 전자 장치
US14/308,516 US20140372123A1 (en) 2013-06-18 2014-06-18 Electronic device and method for conversion between audio and text
JP2014125070A JP2015004977A (ja) 2013-06-18 2014-06-18 オーディオ及びテキスト間の変換のための方法及び電子装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130069505A KR20140146785A (ko) 2013-06-18 2013-06-18 오디오 및 텍스트 간의 변환을 위한 방법 및 전자 장치

Publications (1)

Publication Number Publication Date
KR20140146785A true KR20140146785A (ko) 2014-12-29

Family

ID=52019977

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130069505A KR20140146785A (ko) 2013-06-18 2013-06-18 오디오 및 텍스트 간의 변환을 위한 방법 및 전자 장치

Country Status (3)

Country Link
US (1) US20140372123A1 (ko)
JP (1) JP2015004977A (ko)
KR (1) KR20140146785A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220036529A (ko) 2020-09-16 2022-03-23 주식회사 투아트 뉴스 기사를 오디오로 출력하는 방법 및 장치

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI619115B (zh) * 2014-12-30 2018-03-21 鴻海精密工業股份有限公司 會議記錄裝置及其自動生成會議記錄的方法
US20170109332A1 (en) * 2015-10-16 2017-04-20 Successfactors, Inc. Matching user input provided to an input method editor with text
KR20170052190A (ko) * 2015-11-04 2017-05-12 엘지전자 주식회사 단말 장치 및 그 제어 방법
US10616199B2 (en) * 2015-12-01 2020-04-07 Integem, Inc. Methods and systems for personalized, interactive and intelligent searches
GB2549117B (en) * 2016-04-05 2021-01-06 Intelligent Voice Ltd A searchable media player
KR20180001032U (ko) * 2016-10-06 2018-04-16 이한결 다용도 원목 좌탁

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7050834B2 (en) * 2003-12-30 2006-05-23 Lear Corporation Vehicular, hands-free telephone system
TWI305345B (en) * 2006-04-13 2009-01-11 Delta Electronics Inc System and method of the user interface for text-to-phone conversion
US8972268B2 (en) * 2008-04-15 2015-03-03 Facebook, Inc. Enhanced speech-to-speech translation system and methods for adding a new word
US8719027B2 (en) * 2007-02-28 2014-05-06 Microsoft Corporation Name synthesis
CN104268131B (zh) * 2007-11-27 2017-11-17 诺基亚技术有限公司 用于加速中文输入中的候选选择的方法
CN102117614B (zh) * 2010-01-05 2013-01-02 索尼爱立信移动通讯有限公司 个性化文本语音合成和个性化语音特征提取
BR112012025683A2 (pt) * 2010-04-07 2016-07-05 Max Value Solutions Intl Llc método e sistema para serviços de guia de pronúncia de nomes
US10134385B2 (en) * 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220036529A (ko) 2020-09-16 2022-03-23 주식회사 투아트 뉴스 기사를 오디오로 출력하는 방법 및 장치

Also Published As

Publication number Publication date
JP2015004977A (ja) 2015-01-08
US20140372123A1 (en) 2014-12-18

Similar Documents

Publication Publication Date Title
US20230040146A1 (en) User device and method for creating handwriting content
KR102036337B1 (ko) 발신자 전화번호를 이용한 부가 정보 제공 장치 및 방법
KR102129374B1 (ko) 사용자 인터페이스 제공 방법 및 기계로 읽을 수 있는 저장 매체 및 휴대 단말
US11669240B2 (en) Mobile apparatus displaying end effect and control method thereof
CN105144037B (zh) 用于输入字符的设备、方法和图形用户界面
US8943092B2 (en) Digital ink based contextual search
KR20140146785A (ko) 오디오 및 텍스트 간의 변환을 위한 방법 및 전자 장치
US20150199320A1 (en) Creating, displaying and interacting with comments on computing devices
KR20180004552A (ko) 필기 입력에 따른 사용자 인터페이스 제어 방법 및 이를 구현한 전자 장치
KR20140143555A (ko) 휴대 장치의 잠금 화면 상에서 빠른 어플리케이션 실행 방법 및 이를 위한 휴대 장치
CN103841656A (zh) 移动终端及其数据提供方法
KR102022042B1 (ko) 데이터 전송 방법 및 시스템
US20090225034A1 (en) Japanese-Language Virtual Keyboard
KR20140143526A (ko) 카메라에 기반한 전자 장치의 제어 방법, 저장 매체 및 전자 장치
KR20140134018A (ko) 화면상에서 사용자 입력과 관련된 기능을 실행하기 위한 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
US10409478B2 (en) Method, apparatus, and recording medium for scrapping content
US20140288916A1 (en) Method and apparatus for function control based on speech recognition
KR20140027838A (ko) 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 및 제어 방법
US11474683B2 (en) Portable device and screen control method of portable device
KR20150007577A (ko) 데이터 병합을 제어하는 휴대 단말 및 방법
KR20150007723A (ko) 복수의 오브젝트들 사이에 공통된 오브젝트 속성에 대응하는 작업을 수행하는 전자 장치 제어 방법
EP3660635A1 (en) Integration of smart tags into handwriting input
KR101830787B1 (ko) 수기로 작성된 메모 데이터 검색 방법 및 장치
EP2806364B1 (en) Method and apparatus for managing audio data in electronic device
KR102184797B1 (ko) 리스트 스크롤 바 제어 방법 및 모바일 장치

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid