KR102057284B1 - 전자 기기 및 전자 기기의 제어 방법 - Google Patents

전자 기기 및 전자 기기의 제어 방법 Download PDF

Info

Publication number
KR102057284B1
KR102057284B1 KR1020130007461A KR20130007461A KR102057284B1 KR 102057284 B1 KR102057284 B1 KR 102057284B1 KR 1020130007461 A KR1020130007461 A KR 1020130007461A KR 20130007461 A KR20130007461 A KR 20130007461A KR 102057284 B1 KR102057284 B1 KR 102057284B1
Authority
KR
South Korea
Prior art keywords
text
input
voice
word
touch screen
Prior art date
Application number
KR1020130007461A
Other languages
English (en)
Other versions
KR20140094871A (ko
Inventor
나성채
이지은
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020130007461A priority Critical patent/KR102057284B1/ko
Priority to US14/100,581 priority patent/US9304737B2/en
Priority to EP14151835.7A priority patent/EP2760017B1/en
Priority to JP2014008530A priority patent/JP5837627B2/ja
Priority to CN201410030729.3A priority patent/CN103941959B/zh
Publication of KR20140094871A publication Critical patent/KR20140094871A/ko
Application granted granted Critical
Publication of KR102057284B1 publication Critical patent/KR102057284B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02GINSTALLATION OF ELECTRIC CABLES OR LINES, OR OF COMBINED OPTICAL AND ELECTRIC CABLES OR LINES
    • H02G3/00Installations of electric cables or lines or protective tubing therefor in or on buildings, equivalent structures or vehicles
    • H02G3/02Details
    • H02G3/08Distribution boxes; Connection or junction boxes
    • H02G3/086Assembled boxes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02GINSTALLATION OF ELECTRIC CABLES OR LINES, OR OF COMBINED OPTICAL AND ELECTRIC CABLES OR LINES
    • H02G3/00Installations of electric cables or lines or protective tubing therefor in or on buildings, equivalent structures or vehicles
    • H02G3/02Details
    • H02G3/08Distribution boxes; Connection or junction boxes
    • H02G3/081Bases, casings or covers
    • H02G3/083Inlets
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02GINSTALLATION OF ELECTRIC CABLES OR LINES, OR OF COMBINED OPTICAL AND ELECTRIC CABLES OR LINES
    • H02G3/00Installations of electric cables or lines or protective tubing therefor in or on buildings, equivalent structures or vehicles
    • H02G3/02Details
    • H02G3/08Distribution boxes; Connection or junction boxes
    • H02G3/16Distribution boxes; Connection or junction boxes structurally associated with support for line-connecting terminals within the box
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02GINSTALLATION OF ELECTRIC CABLES OR LINES, OR OF COMBINED OPTICAL AND ELECTRIC CABLES OR LINES
    • H02G3/00Installations of electric cables or lines or protective tubing therefor in or on buildings, equivalent structures or vehicles
    • H02G3/02Details
    • H02G3/08Distribution boxes; Connection or junction boxes
    • H02G3/18Distribution boxes; Connection or junction boxes providing line outlets

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Structural Engineering (AREA)
  • Civil Engineering (AREA)
  • Architecture (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)
  • Document Processing Apparatus (AREA)
  • Telephone Function (AREA)

Abstract

전자 기기 및 전자 기기의 제어 방법이 개시된다. 본 발명의 일 실시예에 따른 전자 기기는, 사용자의 음성 입력을 텍스트로 변환하고, 변환된 텍스트가 소정의 조건을 만족하는 경우, 변환된 텍스트를 실시간으로 편집할 수 있는 사용자 인터페이스를 제공할 수 있다.

Description

전자 기기 및 전자 기기의 제어 방법{Electronic Device And Method Of Controlling The Same}
본 발명은 일반적으로 음성 인식 기능을 구비하는 전자 기기에 관한 것이며, 보다 상세하게는, 상기 전자 기기상에서 음성 인식 결과의 편집을 수행하는 것에 관한 것이다.
이동 단말기를 포함한 각종 전자 기기와 관련된 하드웨어 기술 및 소프트웨어 기술이 비약적으로 발전함에 따라, 전자 기기는 다양한 정보를 빠르게 사용자에게 제공할 수 있게 되었다.
특히, 전자 기기를 통해 다양한 기능들이 수행 가능하도록 하기 위하여, 종래에는 복잡한 키 시퀀스(key sequence) 및 메뉴 계층 구조를 기억하고, 키 입력을 통해 다양한 기능들을 수행하였다. 그러나, 복수의 키 시퀀스 및 메뉴 계층 구조를 기억하기 위해 불필요한 시간이 소비되며, 소정의 키를 눌러서 해당 기능을 활성화시키는데 어려움이 있었다.
이에 따라, 종래의 전자 기기들은 텍스트 및 그래픽을 편집하는 간단하고 직관적인 방식을 제공하지 않았다. 특히, 음성 인식 기능을 구비하는 전자 기기는 사용자의 보이스를 인식하고, 인식된 사용자의 음성을 다양한 방법으로 편집하고, 이를 응용할 수 있는 사용자 인터페이스의 개발이 요구되고 있는 실정이다.
본 발명의 과제는, 터치 스크린을 구비하는 전자 기기에 대한 사용자 인터페이스와 연관하여 전술한 문제점을 감소하거나 제거할 수 있도록 하는 전자 기기를 제공하는 것이다.
본 발명의 또 다른 과제는, 음성 인식 결과를 보다 편리한 방법으로 편집하고 이를 응용할 수 있는 전자 기기 및 전자 기기의 제어 방법을 제공하는 것이다.
본 발명의 일 면에 따른 전자 기기는, 터치 스크린; 음성 인식 모듈; 및 상기 음성 인식 모듈이 활성화된 상태에서 상기 음성 입력 모듈을 통해 음성 입력을 수신하고, 상기 음성 입력을 텍스트로 변환하고, 변환된 텍스트를 상기 터치 스크린에 표시하는 중 미리 정해진 단어를 인지하는 경우, 상기 미리 정해진 단어의 편집을 가이드하기 위한 객체(object)를 상기 미리 정해진 단어가 인지된 지점에 표시하는 제어부;를 포함할 수 있다.
상기 미리 정해진 단어는, 상기 음성 입력 중 장음, 무성음, 음성 입력을 통해 표현하기 어려운 오디오(예를 들어, 특정 동작이 수행되도록 하는 사용자로부터 입력되는 음향 신호 등) 명사 및 동사 중 적어도 하나에 대응하는 단어를 포함할 수 있다.
상기 제어부는, 미리 정해진 시간 동안 상기 객체를 상기 터치 스크린에 표시할 수 있다.
상기 제어부는, 상기 객체를 선택하는 입력을 수신하는 경우, 상기 미리 정해진 단어가 인지된 지점에 삽입 가능한 문자, 특수 기호 및 그래픽 객체 중 적어도 하나를 포함하는 창(window)을 상기 터치 스크린에 표시할 수 있다.
상기 객체를 선택하는 입력은, 상기 객체에 대한 멀티 터치에 의한 줌 아웃 입력을 포함하고, 상기 제어부는, 상기 변환된 텍스트 중 제1 단어와 제2 단어 사이의 일 지점에 대하여 줌 아웃 입력을 수신하는 경우, 상기 제1 단어와 제2 단어 사이의 간격을 확장시키고, 상기 확장된 공간에 상기 문자, 특수 기호 및 그래픽 객체 중 적어도 하나를 삽입할 수 있다.
상기 제어부는, 상기 문자, 특수 기호 및 그래픽 객체 중 적어도 하나를 소정의 우선순위(priority)에 기초하여 상기 창(window)에 배열하여 표시할 수 있다.
상기 문자, 특수 기호 및 그래픽 객체 각각은 대응하는 인덱스가 함께 표시되고, 상기 제어부는, 상기 인덱스를 지칭하는 음성 입력을 수신하는 경우, 상기 인덱스에 대응하는 텍스트 편집을 수행할 수 있다.
상기 제어부는, 상기 객체에 대하여 미리 정해진 터치 입력을 수신하는 경우, 상기 객체가 표시된 지점에 삽입 가능한 문자가 자동 완성될 수 있다.
상기 제어부는, 상기 자동 완성에 의해 삽입 가능한 문자가 복수인 경우, 복수의 후보 문자를 상기 터치 스크린에 표시할 수 있다.
상기 제어부는, 상기 음성 입력을 텍스트로 전환하기 위한 모드에 진입하고, 상기 모드에서 상기 음성 인식 모듈을 활성화하고, 상기 변환된 텍스트 중 적어도 일부를 선택하는 터치 입력을 수신하는 경우, 상기 음성 인식 모듈을 비활성화하고, 상기 선택된 적어도 일부의 텍스트를 편집하기 위한 모드에 진입할 수 있다.
상기 제어부는, 상기 수신된 음성 입력의 패턴에 따라 상기 객체의 속성을 변경하여 표시할 수 있다.
본 발명의 다른 면에 따른 전자 기기의 제어 방법은, 음성 인식 모듈을 활성화하는 단계; 상기 음성 인식 모듈을 통해 음성 입력을 수신하는 단계; 상기 음성 입력을 텍스트로 변환하는 단계; 및 변환된 텍스트를 터치 스크린에 표시하는 중 미리 정해진 단어를 인지하는 경우, 상기 미리 정해진 단어를 편집하기 위한 객체를 상기 미리 정해진 단어가 인지된 지점에 표시하는 단계;를 포함할 수 있다.
본 발명에 의하면, 음성 인식 모듈을 통해 입력되는 실시간 음성을 텍스트로 변환하는 중, 변환된 텍스트의 편집을 실시간으로 가이드할 수 있는 소정의 마커(marker)를 통해 변환된 텍스트의 편집을 용이하게 수행할 수 있다.
또한, 본 발명에 의하면, 음성 인식 결과를 편집하는 보다 빠르고 효율적인 방법 및 인터페이스를 제공할 수 있다. 이에 따라 전자 기기의 유효성, 효율 및 사용자의 만족도를 향상시킬 수 있다.
도 1은 본 발명의 일 실시예와 관련된 전자 기기의 블록 구성도(block diagram)이다.
도 2는 근접 센서의 근접 깊이를 설명하기 위한 개념도이다.
도 3은 본 발명의 본 발명의 일 실시예에 따른 전자 기기의 제어 방법의 흐름도이다.
도 4 내지 도 5는 미리 정해진 단어가 인지되는 경우, 텍스트의 편집을 가이드하기 위한 객체를 표시하는 예를 설명하기 위한 도면들이다.
도 6 내지 도 7은 도 5에 도시된 객체를 이용하여 텍스트를 편집하는 예를 설명하기 위한 도면들이다.
도 8 내지 도 11은 변환된 텍스트의 속성을 고려하여 텍스트를 편집하는 예를 설명하기 위한 도면들이다.
도 12는 텍스트 편집을 가이드하기 위한 객체가 디스플레이되는 예를 설명하기 위한 도면이다.
도 13은 변환된 텍스트 중 편집할 텍스트 블록을 선택하는 예를 설명하기 위한 도면이다.
도 14 내지 도 17c는 변환된 텍스트 중 단어와 단어 사이에 다른 텍스트를 삽입하기 위한 예를 설명하기 위한 도면들이다.
본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통하여 보다 분명해질 것이다. 이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예들을 상세히 설명한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다. 또한, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.
이하, 본 발명과 관련된 전자 기기에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
본 명세서에서 설명되는 전자 기기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등이 포함될 수 있다.
본 발명은 전자 기기에 관한 것으로서, 터치스크린에 표시되는 아이템의 선택, 실행 및 제어를 위한 새로운 사용자인터페이스를 제공하는 전자 기기 및 전자 기기의 제어 방법에 관한 것이다.
본 발명은, 후술하는 바와 같이, 터치스크린을 구비한 전자 기기에서 구현될 수 있다.
본 발명에 의하면, 상기 전자 기기의 터치스크린에 복수의 아이템들이 표시된 상태에서, 사용자가 양손으로 또는 두 개의 손가락으로 상기 터치스크린의 임의의 영역을 터치하는 경우, 본 발명의 기술적 사상에 의한 사용자인터페이스가 상기 터치스크린에 제공된다.
상기 사용자인터페이스는, 상기 터치스크린에 표시된 상기 복수의 아이템들이 각각 대응되는 복수의 컬러가 대응된 제1 제어 영역을 포함할 수 있다. 여기서, 상기 사용자인터페이스가 제공됨에 따라, 사용자에게 상기 복수의 아이템과 상기 복수의 컬러의 대응관계를 알리기 위해, 상기 복수의 아이템들 각각에 대해 대응되는 컬러가 표시될 수 있다.
사용자는 상기 복수의 컬러가 대응된 상기 제1 제어 영역을 통해 상기 복수의 아이템들 각각을 선택하거나, 실행하거나, 제어할 수 있다.
예를 들어, 사용자가 상기 복수의 컬러가 대응된 상기 제1 제어 영역을 손가락으로 문지르듯이 드래그하면, 손가락이 지나가는 위치에 표시된 컬러에 대응되는 아이템이 선택될 수 있다.
또한 상기 사용자인터페이스는, 상기 제1 제어 영역과는 다른 위치에 제공되는, 후술하는 제2 제어 영역을 포함할 수 있다. 상기 제2 제어 영역은, 상기 제1 제어 영역과 동일한 방식으로 상기 터치스크린에 표시된 복수의 아이템을 내비게이팅하기 위한 기능이 할당되거나, 상기 제1 제어 영역을 통해 선택된 특정 아이템을 실행하기 위한 기능이 할당될 수 있다.
상기 제1 제어 영역과 상기 제2 제어 영역은 상호 보완적인 관계를 통해 상기 터치스크린에 표시된 복수의 아이템을 선택하거나 실행하거나 제어하기 위해 이용될 수 있다.
이하, 상기 제1 제어 영역 및 상기 제2 제어 영역을 포함하는 상기 사용자인터페이스가 구현되는 다양한 실시예들을 필요한 도면들을 참조하여 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예와 관련된 전자 기기의 블록 구성도(block diagram)이다.
상기 전자 기기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리부(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 전자 기기를 구현될 수도 있다.
이하, 상기 구성요소들에 대해 차례로 살펴본다.
무선 통신부(110)는 전자 기기(100)와 무선 통신 시스템 사이 또는 전자 기기(100)와 전자 기기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.
방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다.
상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다.
상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.
상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.
상기 방송 수신 모듈(111)은, 각종 방송 시스템을 이용하여 방송 신호를 수신하는데, 특히, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 다른 방송 시스템에 적합하도록 구성될 수도 있다.
방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리부(160)에 저장될 수 있다.
이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈(113)은 전자 기기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다.
근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.
위치정보 모듈(115)은 전자 기기의 위치를 확인하거나 얻기 위한 모듈이다. 상기 위치정보 모듈의 대표적인 예로는 GPS(Global Position System) 모듈이 있다. 현재 기술에 의하면, 상기 GPS모듈(115)은, 일 지점(개체)이 3개 이상의 위성으로부터 떨어진 거리에 관한 정보와, 상기 거리 정보가 측정된 시간에 관한 정보를 산출한 다음 상기 산출된 거리 정보에 삼각법을 적용함으로써, 일 시간에 일 지점(개체)에 대한 위도, 경도, 및 고도에 따른 3차원의 위치 정보를 산출할 수 있다. 나아가, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또 다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법 또한 사용되고 있다. GPS 모듈(115)은 현 위치를 실시간으로 계속 산출하고 그를 이용하여 속도 정보를 산출하기도 한다.
도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.
카메라(121)에서 처리된 화상 프레임은 메모리부(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.
마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다.
센싱부(140)는 전자 기기(100)의 개폐 상태, 전자 기기(100)의 위치, 사용자 접촉 유무, 전자 기기의 방위, 전자 기기의 가속/감속 등과 같이 전자 기기(100)의 현 상태를 감지하여 전자 기기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 전자 기기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등과 관련된 센싱 기능을 담당할 수도 있다. 한편, 상기 센싱부(140)는 근접 센서(141)를 포함할 수 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153) 및 햅틱 모듈(154) 등이 포함될 수 있다.
디스플레이부(151)는 전자 기기(100)에서 처리되는 정보를 표시 출력한다. 예를 들어, 전자 기기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 전자 기기(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다.
디스플레이부(151)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다.
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 투명 LCD 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(151)가 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.
전자 기기(100)의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 전자 기기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.
디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 약칭함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.
터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다.
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.
도 1을 참조하면, 상기 터치스크린에 의해 감싸지는 전자 기기의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(141)가 배치될 수 있다. 상기 근접 센서(141)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.
상기 근접 센서(141)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다.
상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.
이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.
상기 근접 센서(141)는, 근접 터치 및 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다.
음향 출력 모듈(152)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리부(160)에 저장된 오디오 데이터를 출력할 수도 있다. 음향 출력 모듈(152)은 전자 기기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다. 또한 상기 음향 출력 모듈(152)은, 이어폰잭(116)을 통해 음향을 출력할 수 있다. 사용자는 상기 이어폰잭(116)에 이어폰을 연결하여 출력되는 음향을 들을 수 있다.
알람부(153)는 전자 기기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 전자 기기에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 비디오 신호나 오디오 신호는 디스플레이부(151)이나 음향 출력 모듈(152)을 통해서도 출력될 수 있다.
햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.
햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열에 의한 자극에 의한 효과, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력을 통한 자극에 의한 효과, 피부 표면을 스치는 자극에 의한 효과, 전극(eletrode)의 접촉을 통한 자극에 의한 효과, 정전기력을 이용한 자극에 의한 효과, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.
햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자의 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 전자 기기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.
메모리부(160)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리부(160)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.
메모리부(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 전자 기기(100)는 인터넷(internet)상에서 상기 메모리부(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
인터페이스부(170)는 전자 기기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 전자 기기(100) 내부의 각 구성 요소에 전달하거나 전자 기기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다.
식별 모듈은 전자 기기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 전자 기기(100)와 연결될 수 있다.
상기 인터페이스부는 전자 기기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 전자 기기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 전자 기기(100)로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 전자 기기(100)가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.
제어부(180)는 통상적으로 전자 기기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.
상기 제어부(180)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다.
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.
여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시예들이 제어부(180)에 의해 구현될 수 있다.
소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한, 소프트웨어 코드는 메모리부(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.
전술한 근접 센서(141)에 대하여, 도 2를 참조하면서 보다 구체적으로 살펴본다.
도 2는 근접 센서(141)의 근접 깊이를 설명하기 위한 개념도이다.
도 2에 도시한 바와 같이 사용자의 손가락 등과 같은 포인터가 상기 터치스크린에 근접하는 경우, 상기 터치스크린 내부 또는 근방에 배치된 상기 근접센서(141)가 이를 감지하여 근접신호를 출력한다.
상기 근접 센서(141)는 상기 근접 터치되는 포인터와 상기 터치스크린 간의 거리(이하 "근접 깊이"라고 함)에 따라 서로 다른 근접 신호를 출력하도록 구성될 수 있다.
상기 터치스크린에 포인터가 접근할 때 근접신호가 출력되는 거리를 검출거리라고 하는데, 간단하게는 상기 검출거리가 서로 다른 근접센서를 복수로 사용함으로써 각 근접센서에서 출력되는 근접신호를 비교하면 상기 근접 깊이를 알 수 있다.
도 2에서는 예컨대 3개의 근접 깊이를 감지할 수 있는 근접 센서(141)가 배치된 터치스크린의 단면이 예시되고 있다. 3개 미만 또는 4개 이상의 근접 깊이를 감지하는 근접 센서도 가능함은 물론이다.
구체적으로 살펴보면, 상기 포인터가 상기 터치스크린 상에 완전히 접촉되는 경우(d0)에는 접촉 터치로 인식된다. 상기 포인터가 상기 터치스크린 상에서 d1 거리 미만으로 이격되어 위치하는 경우에는 제 1 근접 깊이의 근접 터치로 인식된다. 상기 포인터가 상기 터치스크린 상에서 d1 거리 이상 d2 거리 미만으로 이격되어 위치하는 경우에는 제 2 근접 깊이의 근접 터치로 인식된다. 상기 포인터가 상기 터치스크린 상에서 d2 거리 이상 d3 거리 미만으로 이격되어 위치하는 경우에는 제 3 근접 깊이의 근접 터치로 인식된다. 그리고, 상기 포인터가 상기 터치스크린 상에서 d3 거리 이상으로 이격되어 위치하는 경우에는 근접 터치가 해제된 것으로 인식된다.
따라서, 상기 제어부(180)는 상기 포인터의 터치스크린에 대한 근접거리 및 근접 위치 등에 따라 상기 근접 터치를 다양한 입력 신호로 인식할 수 있고, 상기 다양한 입력 신호에 따른 다양한 동작 제어를 수행할 수 있다.
이하 본 발명의 실시예들을 설명하기로 한다.
본 발명에서는 설명의 편의를 위해 상기 디스플레이부(151)를 터치스크린(151)으로 가정한다. 전술한 바와 같이, 상기 터치스크린(151)은, 정보 표시 기능과 정보 입력 기능을 모두 수행할 수 있다. 그러나, 본 발명이 이에 한정되는 것은 아님을 분명히 밝혀둔다. 또한 본 문서에서 언급되는 터치는, 접촉 터치와 근접 터치를 모두 포함할 수 있다. 전술한 외부 기기(200)의 디스플레이 모듈(230) 또한 터치 스크린으로 가정하여 설명될 수 있음을 밝혀둔다.
도 3은 본 발명의 본 발명의 일 실시예에 따른 전자 기기의 제어 방법의 흐름도이다. 본 발명의 일 실시에에 따른 전자 기기의 제어 방법은 도 1 및 도 2를 참조하여 설명한 전자 기기(100)에서 구현될 수 있다. 이하 필요한 도면들을 참조하여, 본 발명의 일 실시예에 따른 전자 기기의 제어 방법과, 이를 구현하기 위한 상기 전자 기기(100)의 동작을 상세히 설명하기로 한다.
전자 기기(100)의 제어부(180)는, 음성 인식 모듈을 활성화한다(S110). 그리고, 상기 음성 인식 모듈이 활성화된 상태에서 사용자가 발화하는 음성 입력을 수신할 수 있다(S120).
상기 음성 인식 모듈은 도 1에 도시되지는 않았으나, 도 1에 도시된 마이크(122)와 연계되어 마이크(122)를 입력되는 보이스(음성)을 인식한다.
상기 음성 인식 모듈을 자연 언어를 인식할 수 있는 애플리케이션을 실행함으로써, 활성화될 수 있다. 상기 애플리케이션을 실행하는 경우, 마이크(122)가 자동으로 온(on)될 수 있다.
상기 음성 인식 모듈은 사용자가 발화하는 음성 내용을 인식하기 위하여 자연어 데이터 베이스와 연계될 수 있다. 예를 들어, 상기 자연어 데이터베이스는, 사용자로부터 입력되는 음성 중 상기 자연어데이터베이스에 저장된 텍스트와 일치하는 음성이 있는지 여부를 판단한다. 일치하는 음성이 검색되는 경우, 상기 사용자의 발화 내용을 상기 자연어데이터베이스에 저장되어 있는 텍스트의 내용으로 인식한다.
한편, 상기 음성 인식 모듈이 활성화된 이후에 수신되는 음성 입력은 사용자가 발화하는 보이스 뿐 아니라, 전자 기기(100)의 내부에 저장된 오디오 파일을 포함할 수 있다.
그런 후, 제어부(180)는 상기 음성 인식 모듈이 활성화된 상태에서 실시간으로 인식되는 음성 입력을 텍스트롤 변환하고, 변환된 텍스트를 터치 스크린(151)에 표시할 수 있다.
제어부(180)는, 상기 변환된 텍스트가 미리 정해진 단어인지를 판단한다(S140). 그런 후, 제어부(180)는 상기 터치 스크린(151)에 표시되는 변환된 텍스트 중 상기 미리 정해진 단어가 존재하는 경우(S140:예), 상기 미리 정해진 단어의 편집을 가이드하기 위한 객체(object)를 상기 미리 정해진 단어가 인지된 지점에 표시할 수 있다(S150).
여기서, 상기 미리 정해진 단어는, 사용자에 의해 미리 설정된 단어일 수 있다. 예를 들어, 상기 미리 정해진 단어는 실시간으로 입력되는 사용자의 음성 입력이 장음인 경우, 상기 장음을 인식하고, 상기 장음을 편집할 수 있도록 한다. 또한, 상기 미리 정해진 단어가 특정 품사에 해당하는 경우, 상기 특정 품사와 관련된 편집을 수행할 수 있도록 한다.
상기 미리 정해진 단어는 전술한 장음, 또는 특정 품사에 한정되지 않는다. 예를 들어, 제어부(180)는, 사용자에 의해 미리 설정된 특정 문자, 기호, 특수 문자 등이 인식되는 경우, 본 발명의 일 실시예에 따른 편집을 수행할 수 있도록 제어한다. 또한, 제어부(180)는, 음성 인식 모듈을 통해 특정 단어로 변환하기 어려운 무성음이나 박수 소리 등을 인식하는 경우, 현재 변환 중인 텍스트를 편집하기 위한 모드에 진입할 수 있다. 한편, 제어부(180)는, 상기 무성음이나 박수 소리의 경우, 상기 무성음 또는 박수 소리를 텍스트로 변환하지 못하기 때문에, 상기 무성음 또는 박수 소리를 대체하는 기호(symbol)로 치환하여 표시할 수 있다.
제어부(180)는, 변환된 텍스트의 편집을 가이드(guide)하기 위한 객체(object)에 대한 조작을 통해 상기 변환된 텍스트를 편집할 수 있다. 상기 객체는 터치 스크린(151) 상에서 편집 대상의 텍스트의 위치를 지칭하기 위한 커서(cursor) 형태로 표시될 수 있다. 또한, 상기 객체는, 그래픽 객체의 형태로 표시될 수 있다. 상기 객체는 사용자의 터치 입력을 통해 외형이 변형될 수 있다. 예를 들어, 미리 정해진 넓이를 가지는 개체가 표시된 이후, 사용자의 줌 아웃 입력에 의해 상기 객체의 넓이가 넓어질 수 있다. 상기 객체는 미리 정해진 시간 동안 터치 스크린(151)상에 표시되고, 상기 미리 정해진 시간이 지나면 상기 객체가 상기 터치 스크린(151) 상에서 자동으로 사라질 수 있다. 즉, 상기 객체가 터치 스크린(151) 상에 표시되는 동안 텍스트를 편집할 수 있는 모드로 인식할 수 있다. 이에 따라 상기 객체가 상기 터치 스크린(151)에서 사라지면 제어부(180)는 텍스트 편집 모드에서 다시 음성 입력 모드로 전환될 수 있다.
전술한 실시예에 의하면, 전자 기기(100)는, 사용자가 발화하는 음성 입력을 실시간으로 텍스트로 변환하면서, 변환된 텍스트를 사용자의 터치 입력을 통해 실시간으로 편집할 수 있게 된다. 한편, 전자 기기(100)는, 종래에 문자 입력 방식에서 벗어나서, 음성 입력을 통해 문자를 입력하고, 입력된 문자를 다양하게 변형하여 문자 메시지를 전송할 수 있다.
한편, 사용자의 음성 입력을 텍스트로 변환하는 경우, 변환된 텍스트는 상기 사용자의 발화패턴, 사용자의 감정, 억양, 발화 시간, 사용자의 위치 등이 반영될 필요가 있는 상황이 있을 수 있다.
본 발명의 일 실시예에 의하면, 사용자가 발화하는 보이스를 실시간으로 텍스트로 변환하면서, 사용자의 자동 또는 수동으로 상기 전술한 컨텍스트(context)를 상기 변환된 텍스트에 반영할 수 있다.
본 발명의 일 실시예에서는 상기 전술한 컨텍스트를 반영하는 일 예로 텍스트 편집을 기술하였으나, 본 발명은 이에 한정되지 않고 다양하게 변형되어 실시될 수 있다.
도 4 내지 도 5는 미리 정해진 단어가 인지되는 경우, 텍스트의 편집을 가이드하기 위한 객체를 표시하는 예를 설명하기 위한 도면들이다.
도 4를 참조하면, 제어부(180)는, 음성 인식 모듈이 활성화되면 사용자가 발화하는 음성이 입력되고 있음을 식별하기 위한 사용자 인터페이스 예를 들어, 마이크 모양의 그래픽 객체(10)와, 음성이 입력되고 있음을 나타내는 객체(11)를 터치 스크린(151)의 일 영역에 표시할 수 있다.
제어부(180)는 사용자가 발화하는 보이스를 수신하고 이를 텍스트로 변환하고 변환된 텍스트(ST)를 터치 스크린(151)에 표시한다.
제어부(180)는 상기 보이스에 포함된 장음(T1)을 인식하는 경우, 도 5에 도시된 바와 같이, 상기 장음(예를 들어, 도 4의 "이이이이")을 자동 또는 수동으로 편집하기 위한 객체(OB)를 상기 인식된 장음 뒤에 표시한다.
특히, 사용자의 보이스로 입력할 수 없는 특수 기호의 경우, 미리 정해진 장음을 발화함으로써, 상기 장음을 다른 기호로 수정할 수 있도록 하는 객체(OB)를 상기 장음의 근방에 표시한다. 그리고, 상기 객체(OB)를 조작함으로써, 원하는 기호 또는 문자 등을 삽입하거나, 변경할 수 있다.
도 6 내지 도 7은 도 5에 도시된 객체를 이용하여 텍스트를 편집하는 예를 설명하기 위한 도면들이다.
도 6을 참조하면, 제어부(180)는, 사용자의 음성을 통해 장음이 입력되는 경우, 사용자의 보이스가 변환된 텍스트(ST) 옆에 객체(OB)를 표시한다. 그리고, 제어부(180)는, 상기 객체(OB)를 선택하는 입력을 수신하는 경우, 상기 자음을 대체하거나 상기 자음 옆에 삽입하기 위한 후보 기호 또는 후보 문자를 포함하는 리스트(L)를 터치 스크린(151)에 표시할 수 있다.
제어부(180)는, 사용자가 자주 사용하는 특수 기호, 문자 입력 패턴 등을 모니터링하고, 사용자의 문자 입력 패턴을 누적하여 데이터화할 수 있다. 제어부(180)는 상기 사용자의 문자 입력 패턴을 참조하여 상기 객체(OB)에 삽입되도록 추천할 수 있다.
상기 리스트(L)는 전술한 바와 같이, 사용자의 음성 입력을 통해 입력하기 어려운, 특수기호, 심볼, 소정의 그래픽 객체 등을 포함할 수 있다.
한편, 상기 리스트(L)에 포함되어 있는 기호 및 문자는 아라비아 숫자로 인덱싱되어 표시될 수 있다. 예를 들어, 물결표시 "~"는 아라비아 숫자 "1"로 인덱싱되고, 첨자표 "*"는 아라비아 숫자 "2"로 인덱싱되고, 별표는 아라비아 숫자 "3"으로 인덱싱될 수 있다. 나머지 기호 및 문자들도 마찬가지로 소정의 아라비아 숫자(4,5,6,7,8)에 각각 인덱싱되어 표시될 수 있다.
도 6을 참조하면, 상기 리스트(L)가 터치 스크린(151)에 표시된 상태에서, 제어부(180)는, 상기 인덱싱된 아라비아 숫자를 포함하는 음성 입력을 수신하는 경우, 상기 아라비아 숫자에 대응하는 기호 또는 문자를 상기 객체(OB) 대신에 삽입할 수 있다.
한편, 상기 리스트(L)에 포함되어 있는 기호 또는 문자를 선택하기 위한 방법은 전술한 사용자의 음성 입력 외에 다양한 방법으로 구현될 수 있다. 예를 들어, 전자 기기(100)의 하드 키 또는 터치 스크린(151)에 표시되는 소프트 키 버튼을 선택하는 입력을 통해 구현될 수 있다.
도 7을 참조하면, 도 6에서, 사용자가 "1"을 발화하는 경우, 상기 "1"에 대응하는 물결표시"~"(T2)가 상기 객체(OB) 대신에 삽입된다.
즉, 본 발명의 실시예에 의하면, 사용자의 음성을 통해 수신하기 어려운 특수 기호 또는 문자 등에 대해서도 보다 간편한 방법으로 텍스트로 입력할 수 있다.
한편, 본 발명의 실시예에 의하면, 사용자의 발화 내용이 "주현이물결표시"인 경우, 제어부(180)는 상기 발화 내용 중 "주현이"에 해당하는 부분은 텍스트로 전환하고, 나머지 "물결표시"에 해당하는 부분은, 자동으로 물결표시에 해당하는 기호 "~"로 전환하여 표시할 수도 있다.
도 8 내지 도 11은 변환된 텍스트의 속성을 고려하여 텍스트를 편집하는 예를 설명하기 위한 도면들이다.
본 발명의 일 실시예에 의하면, 사용자의 문자 입력 패턴을 고려하여, 사용자의 보이스를 텍스트로 변환할 때, 상기 변환된 텍스트가 사용자가 자주 사용하던 패턴의 문자와 동일한 경우, 제어부(180)는, 전술한 텍스트 편집을 가이드하는 객체(OB)를 제어함으로써, 상기 텍스트를 편집할 수 있다. 상기 사용자가 자주 사용하는 패턴의 문자는, 기 설정된 프로그램을 이용하여 사용자의 문자 입력 패턴을 지속적으로 모니터링하고, 모니터링된 결과를 데이터베이스로 저장할 수 있다.
상기 프로그램을 통해 모니터링하는 문자 입력의 패턴은 특정 단어가 입력된 후에 입력되는 특수 문자, 기호 등을 포함할 수 있다. 한편, 상기 모니터링되는 사항은 특정 단어가 입력되는 빈도 등을 포함할 수 있다.
예를 들어, 도 8을 참조하면, 제어부(180)는, 특정 단어를 사용자의 발화를 통해 수신하고, 상기 사용자의 발화를 텍스트로 변환하여 터치 스크린(151)에 실시간으로 표시하는 중, 제어부(180)는 상기 특정 단어(예를 들어, "영수")를 인식하는 즉시, 상기 특정 단어 옆에 텍스트 편집을 가이드 하기 위한 객체(OB)를 표시한다.
한편, 상기 텍스트 편집을 가이드 하기 위한 객체(OB)는 복수일 수 있다. 즉, 도 9를 참조하면, "영수" 및 "착하다"라는 단어가 미리 설정된 단어인 경우, 제어부(180)는, 해당 단어에 각각 상기 텍스트 편집을 가이드 하기 위한 객체(OB)를 매칭하여 표시할 수 있다. 즉, 제1 객체(OB1)를 "영수"를 편집하기 위하여 표시하고, 제2 객체(OB2)를 "착하다"를 편집하기 위하여 표시할 수 있다.
상기 복수의 제1 객체(OB1) 및 제2 객체(OB2)는 순차적으로 표시될 수 있다. 또한, 상기 제1 객체(OB1) 및 제2 객체(OB2)는 각각은 터치 스크린(151)에 표시된 후 미리 정해진 시간이 지난 후에 자동적으로 사라지도록 할 수 있다. 한편, 제어부(180)는, 상기 객체가 표시된 후, 상기 객체에 대한 터치 입력이 입력되지 않는 상태에서 미리 정해진 시간이 경과하는 경우, 상기 객체를 자동으로 터치 스크린(151)에서 사라지도록 할 수 있다.
도 10을 참조하면, 변환된 텍스트(ST)에 포함된 미리 정해진 단어 중 특정 단어 근방에 표시된 객체(OB)를 선택하는 터치 입력을 수신하는 경우, 상기 객체(OB) 대신 삽입될 후보 아이템을 포함하는 리스트(L)를 터치 스크린(151)에 표시할 수 있다. 상기 리스트(L)는, 사용자의 사용 빈도를 고려하여 소정의 우선 순위(P1,P2,P3)에 따라 배열되어 표시될 수 있다.
한편, 상기 리스트(L)에 표시된 적어도 하나의 아이템 중 어느 하나가 선택되면, 제어부(180)는 상기 선택된 아이템(C1)을 상기 객체(OB) 대신 삽입한다.
도 12는 텍스트 편집을 가이드하기 위한 객체가 디스플레이되는 예를 설명하기 위한 도면이다. 도 12를 참조하면, 제어부(180)는 사용자의 보이스가 실시간으로 텍스트로 변환되어 터치 스크린(151)에 표시된 상태에서, 상기 텍스트에 대하여 미리 정해진 이벤트가 발생하는 경우, 상기 변환된 텍스트의 편집을 가이드 하기 위한 객체(OB)를 터치 스크린(151)에 표시할 수 있다.
상기 미리 정해진 이벤트는 전술한 미리 정해진 단어가 인지되는 경우, 또는 사용자의 보이스가 입력되어 텍스트로 변환된 이후 미리 정해진 입력을 수신함으로써 STT(Speech to Text) 모드에 진입한 경우, 또는 음성 인식 모듈을 통해 인식된 사용자의 보이스가 실시간으로 텍스트로 변환되어 터치 스크린에 표시되는 중, 마지막 텍스트가 표시된 이후, 일정 시간 동안 사용자의 추가적인 보이스 입력이 존재하지 않는 경우 등을 포함할 수 있다.
사용자의 보이스가 입력된 후, 변환된 텍스트를 편집하기 위한 객체를 표시하기 위한 상기 미리 정해진 이벤트는 전술한 예에 한정되지 않는다.
제어부(180)는 텍스트 편집을 가이드 하기 위한 객체(OB)를 변환된 텍스트 근방에 표시한 후, 미리 정해진 시간이 경과되면, 자동으로 상기 객체(OB)를 삭제할 수 있다.
한편, 제어부(180)는, 상기 객체(OB)가 터치 스크린(151)에 표시되면, 음성 인식 모드를 일시적으로 비활성화시킬 수 있다. 즉, 상기 객체(OB)에 대한 조작을 통해 상기 음성 인식 모드가 비활성화된 상태에서 상기 변환된 텍스트에 대한 편집을 수행할 수 있다. 한편, 상기 객체(OB)가 상기 터치 스크린(151)에서 사라지는 경우, 제어부(180)는 자동으로 음성 인식 모드에 진입하여 사용자의 보이스 입력을 수신하고 이를 인식할 수 있다.
도 13은 변환된 텍스트 중 편집할 텍스트 블록을 선택하는 예를 설명하기 위한 도면이다.
도 13을 참조하면, 제어부(180)는 사용자의 보이스가 변환된 텍스트(ST)의 적어도 일부의 단어에 대한 터치 입력을 수신할 수 있다. 제어부(180)는 상기 터치 입력이 수신된 지점에 대응하는 단어를 포함하는 텍스트 블럭을 형성할 수 있다.
예를 들어, 도 13에서 사용자의 터치 입력이 수신된 지점은 "계"이고, 제어부(180)는 상기 "계"를 포함하는 "단계의"를 하나의 텍스트 블럭으로 인식하고, 상기 텍스트 블럭별로 편집을 수행할 수 있다.
즉, 제어부(180)는 상기 형성된 텍스트 블럭에 대하여 전술한 실시예들을 적용함으로써, 사용자의 보이스를 실시간으로 편집하면서 텍스트로 변경할 수 있다.
도 14 내지 도 17c는 변환된 텍스트 중 단어와 단어 사이에 다른 텍스트를 삽입하기 위한 예를 설명하기 위한 도면들이다.
본 발명의 일 실시예에 따라, 사용자의 보이스 입력이 변환된 텍스트에 대하여 멀티 터치 입력을 통해 편집을 수행할 수 있다. 상기 멀티 터치 입력은 줌 아웃 입력 또는 줌 인 입력일 수 있다. 상기 머리 터치 입력은, 상기 변환된 텍스트에 포함된 특정 단어와 다른 특정 단어 사이에 입력될 수 있다. 그리고, 상기 특정 단어와 상기 다른 특정 단어 사이에 삽입하기 위한 사용자 인터페이스 및 사용자의 특정 조작을 통해 사용자의 보이스 입력을 적절하게 편집할 수 있다.
도 14를 참조하면, 제어부(180)는 변환된 텍스트(ST) 중 제1 단어("단")와 제2 단어("계") 사이의 지점의 공간(space)을 확장하는 줌 아웃 입력(zoomout input)을 수신할 수 있다.
제어부(180)는 상기 변환된 텍스트(ST)의 일부에 대하여 상기 멀티 티치 입력을 수신하는 경우, 상기 음성 인식 모드를 종료하고, 텍스트 편집 모드에 진입한다.
도 15a를 참조하면, 상기 줌 아웃 입력에 응답하여 제어부(180)는, 상기 제1 단어와 제2 단어 사이의 공간에 텍스트 편집을 가이드하기 위한 객체(OB)를 삽입할 수 있다.
또한, 제어부(180)는 상기 제1 단어와 제2 단어 사이에 삽입될 텍스트를 입력하기 위한 사용자 인터페이스(31)를 상기 터치 스크린(151)에 표시할 수 있다.
제어부(180)는 상기 사용자 인터페이스(31)에 대한 터치 입력을 수신하는 경우, 상기 음성 인식 모드를 재개할 수 있다. 또한, 상기 음성 인식 모드의 재개를 식별하기 위한 식별 표시(12)를 터치 스크린(151)상에 표시할 수 있다. 여기서, 제어부(180)는 상기 사용자 인터페이스(31)(예를 들어, 특정 텍스트가 삽입될 공간을 지시하는 지시 블럭)에 대한 터치 입력이 유지되는 동안, 상기 음성 인식 모드를 재개할 수 있다.
이에 따라, 상기 사용자 인터페이스(31)에 대한 터치 입력이 유지되는 동안 사용자의 보이스 입력("ABCD")을 수신하는 경우, 제어부(180)는 도 15c에 도시된 바와 같이 상기 입력되는 보이스를 텍스트로 변환하여 상기 사용자 인터페이스(31)에 표시할 수 있다.
한편, 도 15c를 참조하면, 상기 사용자 인터페이스(31)에 대한 터치 입력이 해제되는 경우, 제어부(180)는 음성 인식 모드를 종료하고, 상기 음성 인식 모드의 종료를 알리는 심볼(11)을 표시할 수 있다.
그런 후, 상기 음성 인식 모드가 종료되면, 제어부(180)는 사익 사용자 인터페이스(31)를 통해 삽입되는 텍스트(23)를 상기 줌 아웃 입력을 수신한 지점에 삽입할 수 있다.
도 15b를 참조하면, 제어부(180)는 상기 변환된 텍스트(ST)에 포함된 특정 단어를 선택하는 입력을 수신하는 경우, 확대 보기 창(51)을 상기 터치 스크린(151)에 표시할 수 있다. 제어부(180)는 상기 확대 보기 창(51)에 대한 사용자의 터치 조작을 통해 텍스트를 편집할 수 있다.
이상에서는 사용자의 음성 입력이 텍스트로 변환된 후, 상기 변환된 텍스트중 편집하고자 하는 텍스트를 대한 줌 아웃 입력을 통해 사용자가 용이하게 텍스트를 편집할 수 있는 실시예들을 살펴보았다.
도 16a 내지 도 17c는, 이상에서 설명한 실시예의 다른 국면을 설명하기 위한 도면들이다.
도 16a를 참조하면, 제어부(180)는 사용자의 보이스를 입력받은 후, 상기 보이스를 텍스트로 변환한다. 제어부(180)는, 변환된 텍스트가 터치 스크린(151)에 표시된 상태에서, 편집하고자 하는 특정 단어 블럭(40)을 선택하는 입력을 수신할 수 있다. 또한, 제어부(180)는, 상기 특정 단어 블럭(40) 내의 제1 단어와 제2 단어 사이의 공간에 소정의 문자 또는 기호를 삽입하기 위한 바(41)를 위치시키고, 상기 바(41)를 좌우 방향으로 움직이면서, 특정 위치를 선택할 수 있다.
한편, 제어부(180)는 상기 특정 위치가 선택되면 상기 특정 위치에 삽입할 적어도 하나의 기호 및 문자를 포함하는 리스트(L)를 터치 스크린(151)에 표시할 수 있다. 도 16b에 도시된 바와 같이, 상기 리스트(L)에 포함된 적어도 하나의 기호 및 문자는 각각 아라비아 숫자로 인덱싱되어 있다. 상기 인덱싱되어 있는 아라비아 숫자 중 어느 하나를 발화하는 음성 입력을 수신하는 경우, 제어부(180)는 상기 입력된 아라비아 숫자에 대응하는 기호를 상기 특정 위치에 삽입한다(도 16c 참조).
한편 도 17a 내지 도 17c를 참조하면, 상기 리스트(L)는 삽입 가능한 복수의 단어를 포함할 수 있다. 이에 따라, 본 발명의 일 실시예에 의하면, 사용자의 보이스 입력이 텍스트로 변환된 이후에, 상기 텍스트 내의 특정 위치를 선택하는 경우, 상기 특정 위치에 삽입 가능한 복수의 후보 단어를 추천할 수 있다. 상기 추천된 후보 단어 중 어느 하나를 선택하는 입력(예를 들어, 음성 입력 "1")을 수신하는 경우, 제어부(180)는 도 17c에 도시된 바와 같이, 복수의 후보 단어 중 특정 단어를 상기 특정 위치에 삽입하여 표시할 수 있다.
한편, 본 발명의 일 실시예에 의하면, 사용자의 보이스 입력이 텍스트로 변환된 이후, 사용자의 편집 의도가 존재하는 것으로 인식할 수 있는 소정의 입력(예를 들어, 상기 변환된 텍스트에 대한 터치 입력)을 수신하는 경우, 제어부(180)는 텍스트의 문맥(context)을 분석하여, 적절한 단어를 자동 완성 기능을 통해 삽입할 수 있다.
본 발명의 일 실시예에 의하면, 상기 자동 완성이 가능한 후보들을 터치 스크린(151)에 표시하고, 사용자에 의해 선택되는 항목을 자동 완성으로 삽입할 수 있다.
상기에서 설명한 본 발명에 의한 전자 기기의 제어 방법은, 컴퓨터에서 실행시키기 위한 프로그램으로 컴퓨터로 읽을 수 있는 기록매체에 기록하여 제공될 수 있다.
본 발명에 의한 전자 기기의 제어 방법은 소프트웨어를 통해 실행될 수 있다. 소프트웨어로 실행될 때, 본 발명의 구성 수단들은 필요한 작업을 실행하는 코드 세그먼트들이다. 프로그램 또는 코드 세그먼트들은 프로세서 판독 가능 매체에 저장되거나 전송 매체 또는 통신망에서 반송파와 결합된 컴퓨터 데이터 신호에 의하여 전송될 수 있다.
컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 장치의 예로는, ROM, RAM, CD-ROM, DVD±ROM, DVD-RAM, 자기 테이프, 플로피 디스크, 하드 디스크(hard disk), 광데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 장치에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 또한 본 문서에서 설명된 실시예들은 한정되게 적용될 수 있는 것이 아니라, 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
100: 전자 기기 151: 디스플레이부(터치스크린)

Claims (13)

  1. 터치 스크린;
    음성 인식 모듈; 및
    상기 음성 인식 모듈이 활성화된 상태에서 상기 음성 인식 모듈을 통해 음성 입력을 수신하고, 상기 음성 입력을 텍스트로 변환하고, 변환된 텍스트를 상기 터치 스크린에 표시하는 중 미리 정해진 단어를 인지하는 경우, 상기 미리 정해진 단어의 편집을 가이드하기 위한 객체(object)를 상기 미리 정해진 단어가 인지된 지점에 표시하는 제어부;를 포함하되,
    상기 미리 정해진 단어는 장음을 포함하고,
    상기 객체는 상기 미리 정해진 단어의 편집을 가이드하기 위한 그래픽 객체이고, 상기 그래픽 객체는 상기 미리 정해진 단어가 인지된 위치에 표시되며,
    상기 제어부는,
    상기 객체를 선택하는 입력을 수신하는 경우, 상기 미리 정해진 단어가 인지된 지점에 삽입 가능한 문자, 특수 기호 및 그래픽 객체 중 적어도 하나를 포함하는 창(window)을 상기 터치 스크린에 표시하고,
    상기 창에 포함된 적어도 하나의 기호 중 특정 기호가 선택된 경우, 상기 장음을 선택된 기호로 대체하여 표시하는 것을 특징으로 하는 전자 기기.
  2. 제 1 항에 있어서,
    상기 미리 정해진 단어는,
    상기 음성 입력 중 음성 입력의 패턴, 음성 입력되는 단어의 품사를 고려하여 미리 정해진 명사 또는 동사, 텍스트로 변환하기 어려운 사용자의 음성 중 적어도 하나를 포함하는 것을 특징으로 하는 전자 기기.
  3. 제 1 항에 있어서,
    상기 제어부는,
    미리 정해진 시간 동안 상기 객체를 상기 터치 스크린에 표시하는 것을 특징으로 하는 전자 기기.
  4. 제 3 항에 있어서,
    상기 제어부는,
    상기 미리 정해진 시간이 경과되는 경우, 상기 객체를 상기 터치 스크린에서 제거하는 것을 특징으로 하는 전자 기기.
  5. 삭제
  6. 제 1 항에 있어서,
    상기 객체를 선택하는 입력은, 상기 객체에 대한 멀티 터치에 의한 줌 아웃 입력을 포함하고,
    상기 제어부는,
    상기 변환된 텍스트 중 제1 단어와 제2 단어 사이의 일 지점에 대하여 줌 아웃 입력을 수신하는 경우, 상기 제1 단어와 제2 단어 사이의 간격을 확장시키고, 상기 확장된 공간에 상기 문자, 특수 기호 및 그래픽 객체 중 적어도 하나를 삽입하는 것을 특징으로 하는 전자 기기.
  7. 제 1 항에 있어서,
    상기 제어부는,
    상기 문자, 특수 기호 및 그래픽 객체 중 적어도 하나를 소정의 우선순위(priority)에 기초하여 상기 창(window)에 배열하여 표시하는 것을 특징으로 하는 전자 기기.
  8. 제 1 항에 있어서,
    상기 문자, 특수 기호 및 그래픽 객체 각각은 대응하는 인덱스가 함께 표시되고,
    상기 제어부는, 상기 인덱스를 지칭하는 음성 입력을 수신하는 경우, 상기 인덱스에 대응하는 텍스트 편집을 수행하는 것을 특징으로 하는 전자 기기.
  9. 제 1 항에 있어서,
    상기 제어부는,
    상기 객체에 대하여 미리 정해진 터치 입력을 수신하는 경우, 상기 객체가 표시된 지점에 삽입 가능한 문자를 자동 완성하여 삽입하는 것을 특징으로 하는 전자 기기.
  10. 제 9 항에 있어서,
    상기 제어부는, 상기 자동 완성에 의해 삽입 가능한 문자가 복수인 경우, 복수의 후보 문자를 상기 터치 스크린에 표시하는 것을 특징으로 하는 전자 기기.
  11. 제 1 항에 있어서,
    상기 제어부는,
    상기 음성 입력을 텍스트로 전환하기 위한 모드에 진입하고, 상기 모드에서 상기 음성 인식 모듈을 활성화하고, 상기 변환된 텍스트 중 적어도 일부를 선택하는 터치 입력을 수신하는 경우, 상기 음성 인식 모듈을 비활성화하고, 상기 선택된 적어도 일부의 텍스트를 편집하기 위한 모드에 진입하는 것을 특징으로 하는 전자 기기.
  12. 제 1 항에 있어서,
    상기 제어부는,
    상기 수신된 음성 입력의 패턴에 따라 상기 객체의 속성을 변경하여 표시하는 것을 특징으로 하는 전자 기기.
  13. 삭제
KR1020130007461A 2013-01-23 2013-01-23 전자 기기 및 전자 기기의 제어 방법 KR102057284B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020130007461A KR102057284B1 (ko) 2013-01-23 2013-01-23 전자 기기 및 전자 기기의 제어 방법
US14/100,581 US9304737B2 (en) 2013-01-23 2013-12-09 Electronic device and method of controlling the same
EP14151835.7A EP2760017B1 (en) 2013-01-23 2014-01-20 Electronic device and method of controlling the same
JP2014008530A JP5837627B2 (ja) 2013-01-23 2014-01-21 電子機器及び電子機器の制御方法
CN201410030729.3A CN103941959B (zh) 2013-01-23 2014-01-22 电子设备以及其控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130007461A KR102057284B1 (ko) 2013-01-23 2013-01-23 전자 기기 및 전자 기기의 제어 방법

Publications (2)

Publication Number Publication Date
KR20140094871A KR20140094871A (ko) 2014-07-31
KR102057284B1 true KR102057284B1 (ko) 2020-01-22

Family

ID=50101683

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130007461A KR102057284B1 (ko) 2013-01-23 2013-01-23 전자 기기 및 전자 기기의 제어 방법

Country Status (5)

Country Link
US (1) US9304737B2 (ko)
EP (1) EP2760017B1 (ko)
JP (1) JP5837627B2 (ko)
KR (1) KR102057284B1 (ko)
CN (1) CN103941959B (ko)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130293483A1 (en) * 2012-05-04 2013-11-07 Roberto Speranza Selectable object display method and apparatus
KR101992191B1 (ko) * 2012-11-01 2019-06-24 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR20150053339A (ko) * 2013-11-08 2015-05-18 삼성전자주식회사 전자 디바이스의 입력 처리 방법 및 장치
CN105810197B (zh) * 2014-12-30 2019-07-26 联想(北京)有限公司 语音处理方法、语音处理装置和电子设备
KR102254894B1 (ko) * 2015-01-05 2021-05-24 엘지전자 주식회사 음성 인식 검색 결과를 이용하여 카테고리를 배열하는 디스플레이 디바이스 및 그 제어 방법
US10248640B2 (en) * 2015-02-05 2019-04-02 Microsoft Technology Licensing, Llc Input-mode-based text deletion
US10726197B2 (en) * 2015-03-26 2020-07-28 Lenovo (Singapore) Pte. Ltd. Text correction using a second input
JP6367748B2 (ja) * 2015-04-10 2018-08-01 日本電信電話株式会社 認識装置、映像コンテンツ提示システム
US9978370B2 (en) * 2015-07-31 2018-05-22 Lenovo (Singapore) Pte. Ltd. Insertion of characters in speech recognition
CN105759984B (zh) * 2016-02-06 2019-07-02 上海触乐信息科技有限公司 二次输入文本的方法和装置
KR102384641B1 (ko) * 2017-02-20 2022-04-08 엘지전자 주식회사 다국어 처리를 수행하는 인공 지능 시스템의 제어 방법
KR20180098079A (ko) * 2017-02-24 2018-09-03 삼성전자주식회사 비전 기반의 사물 인식 장치 및 그 제어 방법
CN107832036B (zh) * 2017-11-22 2022-01-18 北京小米移动软件有限公司 语音控制方法、装置及计算机可读存储介质
JP2019135609A (ja) * 2018-02-05 2019-08-15 東京瓦斯株式会社 文字入力支援システム、文字入力支援制御装置、文字入力支援プログラム
KR102036279B1 (ko) * 2018-02-09 2019-10-24 충북대학교 산학협력단 사용자의 발표 패턴을 이용한 프리젠테이션 제어 시스템 및 방법
CN109739425B (zh) * 2018-04-19 2020-02-18 北京字节跳动网络技术有限公司 一种虚拟键盘、语音输入方法、装置及电子设备
JP7176272B2 (ja) * 2018-07-26 2022-11-22 富士フイルムビジネスイノベーション株式会社 情報処理装置およびプログラム
CN110794282B (zh) * 2018-08-02 2021-11-02 大陆汽车投资(上海)有限公司 基于dSPACE-HIL系统的用于与电子设备通信的方法和装置
CN109917982B (zh) * 2019-03-21 2021-04-02 科大讯飞股份有限公司 一种语音输入方法、装置、设备及可读存储介质
JP2019159333A (ja) * 2019-05-14 2019-09-19 東京瓦斯株式会社 文字入力支援システム、文字入力支援プログラム
JP7109498B2 (ja) * 2020-04-09 2022-07-29 励至 鈴木 音声入力装置
TWI740496B (zh) * 2020-05-12 2021-09-21 宏碁股份有限公司 調整墨水物件間距的觸控系統及方法以及電腦可讀取媒體
KR102559006B1 (ko) * 2020-11-06 2023-07-25 윤경 태몽과 관련된 이미지를 획득하는 방법 및 디바이스
US20220382964A1 (en) * 2021-05-26 2022-12-01 Mitomo MAEDA Display apparatus, display system, and display method
CN116992829A (zh) * 2022-04-26 2023-11-03 华为技术有限公司 一种文本编辑方法及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007003669A (ja) * 2005-06-22 2007-01-11 Murata Mach Ltd 文書作成装置
US20080316212A1 (en) * 2005-09-20 2008-12-25 Cliff Kushler System and method for a user interface for text editing and menu selection
JP2012008375A (ja) * 2010-06-25 2012-01-12 Nec Corp 音声記録装置、そのデータ処理方法、およびプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5909667A (en) * 1997-03-05 1999-06-01 International Business Machines Corporation Method and apparatus for fast voice selection of error words in dictated text
US7679534B2 (en) * 1998-12-04 2010-03-16 Tegic Communications, Inc. Contextual prediction of user words and user actions
US7149970B1 (en) 2000-06-23 2006-12-12 Microsoft Corporation Method and system for filtering and selecting from a candidate list generated by a stochastic input method
KR100668297B1 (ko) 2002-12-31 2007-01-12 삼성전자주식회사 음성인식방법 및 장치
US8095364B2 (en) * 2004-06-02 2012-01-10 Tegic Communications, Inc. Multimodal disambiguation of speech recognition
US20080005269A1 (en) * 2006-06-29 2008-01-03 Knighton Mark S Method and apparatus to share high quality images in a teleconference
WO2008099505A1 (ja) * 2007-02-16 2008-08-21 Pioneer Corporation テキスト表示制御装置及びコンピュータプログラム
US20090210229A1 (en) 2008-02-18 2009-08-20 At&T Knowledge Ventures, L.P. Processing Received Voice Messages
KR101503835B1 (ko) * 2008-10-13 2015-03-18 삼성전자주식회사 멀티터치를 이용한 오브젝트 관리 방법 및 장치
US20120016671A1 (en) 2010-07-15 2012-01-19 Pawan Jaggi Tool and method for enhanced human machine collaboration for rapid and accurate transcriptions
JP2012181358A (ja) 2011-03-01 2012-09-20 Nec Corp テキスト表示時間決定装置、テキスト表示システム、方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007003669A (ja) * 2005-06-22 2007-01-11 Murata Mach Ltd 文書作成装置
US20080316212A1 (en) * 2005-09-20 2008-12-25 Cliff Kushler System and method for a user interface for text editing and menu selection
JP2012008375A (ja) * 2010-06-25 2012-01-12 Nec Corp 音声記録装置、そのデータ処理方法、およびプログラム

Also Published As

Publication number Publication date
JP2014142934A (ja) 2014-08-07
EP2760017A1 (en) 2014-07-30
US9304737B2 (en) 2016-04-05
EP2760017B1 (en) 2018-08-22
JP5837627B2 (ja) 2015-12-24
CN103941959A (zh) 2014-07-23
US20140208209A1 (en) 2014-07-24
KR20140094871A (ko) 2014-07-31
CN103941959B (zh) 2019-02-05

Similar Documents

Publication Publication Date Title
KR102057284B1 (ko) 전자 기기 및 전자 기기의 제어 방법
KR102063766B1 (ko) 이동 단말기 및 그것의 제어방법
KR101961139B1 (ko) 이동 단말기 및 그것의 음성 인식 방법
KR101513615B1 (ko) 이동 단말기 및 그 음성 인식 방법
KR100988397B1 (ko) 이동 단말기 및 그의 텍스트 수정방법
KR102196671B1 (ko) 전자 기기 및 전자 기기의 제어 방법
KR101911251B1 (ko) 휴대 단말기 및 그 제어 방법
US9129011B2 (en) Mobile terminal and control method thereof
KR102217560B1 (ko) 이동 단말기 및 그것의 제어방법
KR101502004B1 (ko) 이동 단말기 및 그의 음성 명령 인식 방법
KR101537693B1 (ko) 단말기 및 그 제어 방법
KR102053196B1 (ko) 전자장치 및 전자 장치의 일정 자동 생성 방법
KR101629711B1 (ko) 이동 단말기
KR101677636B1 (ko) 이동단말기 및 그의 텍스트 편집 방법
KR101504212B1 (ko) 단말기 및 그 제어 방법
KR101809952B1 (ko) 이동 단말기 및 그 제어방법
KR101513635B1 (ko) 단말기 및 그 제어 방법
KR101495183B1 (ko) 단말기 및 그 제어 방법
KR101631939B1 (ko) 이동 단말기 및 그 제어 방법
KR20140095227A (ko) 이동 단말기 및 그 제어방법
KR101513629B1 (ko) 단말기 및 그 제어 방법
KR101862216B1 (ko) 이동 단말기 및 그 제어방법
KR101521923B1 (ko) 단말기 및 그 제어 방법
KR101899976B1 (ko) 이동 단말기
KR102209427B1 (ko) 이동 단말기 및 이동 단말기의 제어 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant