KR20140055302A - Mobile terminal and method for controlling the same - Google Patents

Mobile terminal and method for controlling the same Download PDF

Info

Publication number
KR20140055302A
KR20140055302A KR1020120121932A KR20120121932A KR20140055302A KR 20140055302 A KR20140055302 A KR 20140055302A KR 1020120121932 A KR1020120121932 A KR 1020120121932A KR 20120121932 A KR20120121932 A KR 20120121932A KR 20140055302 A KR20140055302 A KR 20140055302A
Authority
KR
South Korea
Prior art keywords
mobile terminal
keyword
call
voice
user
Prior art date
Application number
KR1020120121932A
Other languages
Korean (ko)
Inventor
이상규
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020120121932A priority Critical patent/KR20140055302A/en
Publication of KR20140055302A publication Critical patent/KR20140055302A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72457User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to geographic location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/40Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/50Telephonic communication in combination with video communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/68Details of telephonic subscriber devices with means for recording information, e.g. telephone number during a conversation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/74Details of telephonic subscriber devices with voice recognition means

Landscapes

  • Engineering & Computer Science (AREA)
  • Environmental & Geological Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)

Abstract

A mobile terminal according to the present invention includes: a display unit; and a control unit which recognizes a voice on a call, extracts a preset word among the words of the recognized voice, automatically searches information corresponding to the keyword on the call or after the call is finished, and displays the searched information on the display unit.

Description

이동 단말기 및 그 제어 방법{MOBILE TERMINAL AND METHOD FOR CONTROLLING THE SAME}[0001] MOBILE TERMINAL AND METHOD FOR CONTROLLING THE SAME [0002]

본 발명은 잠금 해제 시 사용자가 사전 설정한 애플리케이션이 바로 실행될 수 있도록 하는 이동 단말기 및 그 제어 방법에 관한 것이다.The present invention relates to a mobile terminal and a control method thereof for allowing an application preset by a user at the time of unlocking to be executed immediately.

단말기는 이동 가능 여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)으로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mount terminal)로 나뉠 수 있다. A terminal can be divided into a mobile terminal (mobile / portable terminal) and a stationary terminal according to whether the terminal can be moved. The mobile terminal can be divided into a handheld terminal and a vehicle mount terminal according to whether the user can directly carry the mobile terminal.

이와 같은 단말기(terminal)는 기능이 다양화됨에 따라 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다. Such a terminal has various functions, for example, in the form of a multimedia device having multiple functions such as photographing and photographing of a moving picture, reproduction of a music or video file, reception of a game and broadcasting, etc. .

이러한 단말기의 기능 지지 및 증대를 위해, 단말기의 구조적인 부분 및/또는 소프트웨어적인 부분을 개량하는 것이 고려될 수 있다.In order to support and enhance the functionality of such terminals, it may be considered to improve the structural and / or software parts of the terminal.

이동 단말기로 통화 중 통화 내용에 대한 정보가 필요하여 검색이 필요한 경우, 사용자는 통화 종료 후에 통화 내용을 기억하고 정보가 필요한 단어에 대하여 따로 검색을 하여야 한다. 이를 위해서 사용자는 통화 내용에 대하여 별도로 기억을 하고 있어야 하고, 또 검색을 위해 이동 단말기의 무선 인터넷을 별도로 실행시키거나 다른 단말기를 이용하여 특정 단어를 입력해야 한다.When the mobile terminal requires information on the contents of the conversation during the conversation and needs to search for the conversation, the user must memorize the contents of the conversation after the conversation is terminated and search for the words requiring the information separately. In order to do this, the user must separately memorize the contents of the conversation, or execute a wireless Internet of the mobile terminal separately or input specific words using another terminal.

본 발명은 전술한 필요성을 충족하기 위해 제안되는 것으로서, 통화 중 음성 인식하고 키워드를 추출하여 추출된 키워드에 대하여 자동으로 검색을 할 수 있도록 하는 것을 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been proposed in order to satisfy the above-mentioned need, and it is an object of the present invention to enable speech recognition during a call and automatic extraction of extracted keywords.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not restrictive of the invention, unless further departing from the spirit and scope of the invention as defined by the appended claims. It will be possible.

상기 목적을 달성하기 위해 본 발명에 따른 이동 단말기는, 디스플레이부; 및 통화 중 음성을 인식하고, 상기 인식된 음성의 단어들 중에서 소정 단어를 키워드로서 추출하고, 통화 중 또는 통화 종료 후 상기 키워드에 해당하는 정보를 자동으로 검색하고, 상기 검색된 정보를 상기 디스플레이부에 디스플레이하도록 제어하는 제어부;를 포함하여 이루어진다.According to an aspect of the present invention, there is provided a mobile terminal including: a display; And extracting a predetermined word from the recognized vocabulary words as a keyword, automatically searching for information corresponding to the keyword during or after a call is terminated, and transmitting the retrieved information to the display unit And a control unit for controlling the display unit.

또한, 상기 본 발명에 따른 이동 단말기 제어 방법은 통화 중 음성을 인식하는 단계; 상기 인식된 음성의 단어들 중에서 소정 단어를 키워드로서 추출하는 단계; 통화 중 또는 통화 종료 후 상기 키워드에 해당하는 정보를 자동으로 검색하는 단계; 및 상기 검색된 정보를 디스플레이하는 단계;를 포함하여 이루어진다.In addition, the mobile terminal control method according to the present invention includes: recognizing a voice during a call; Extracting a predetermined word from among the words of the recognized voice as a keyword; Automatically searching for information corresponding to the keyword during or after a call; And displaying the searched information.

본 발명에 따른 이동 단말기 및 그 제어 방법은, 사용자가 통화 내용을 별도로 기억할 필요 없이 통화 내용 중 키워드가 자동으로 추출되고, 추출된 키워드에 대하여 검색이 진행될 수 있다.In the mobile terminal and the control method thereof according to the present invention, keywords are automatically extracted from the conversation contents without requiring the user to separately memorize the contents of the conversation, and the retrieval can be performed on the extracted keywords.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The effects obtained by the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those skilled in the art from the following description will be.

도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram)이다.
도 2는 본 발명의 일 실시예에 관련된 이동 단말기의 전면 사시도이다.
도 3은 본 발명의 일 실시예에 관련된 이동 단말기의 후면 사시도이다.
도 4a는 본 발명의 일실시예와 관련된 이동 단말기의 제어 방법에 대한 흐름도이다.
도 4b 내지 도 4d는 본 발명의 일실시예와 관련된 이동 단말기의 디스플레이부를 도시한 도면이다.
도 5 내지 도 9는 일실시예에 따른 이동 단말기에서 통화 중 인식된 음성의 단어들 중에서 소정의 단어를 키워드로 추출하는 방법에 대한 흐름도이다.
도 10은 이동 단말기에서 통화 중 인식된 음성의 단어들 중에서 추출된 키워드에 대하여 검색을 진행하는 방법에 대한 흐름도이다.
도 11은 일실시예에 따라 이동 단말기에서 이동 단말기의 위치를 산출하고, 통화 중 인식된 음성의 단어들 중에서 추출된 키워드에 대하여 검색을 진행하는 방법에 대한 흐름도이다.
도 12는 이동 단말기의 위치에 따른 키워드 검색 결과를 예시한 도면이다.
도 13a 및 도 13b는 일실시예에 따른 이동 단말기에서 화상 통화 중 추출된 키워드에 대한 검색 결과를 출력하는 것을 도시한 도면이다.
1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
2 is a front perspective view of a mobile terminal according to an embodiment of the present invention.
3 is a rear perspective view of a mobile terminal according to an embodiment of the present invention.
4A is a flowchart illustrating a method of controlling a mobile terminal according to an embodiment of the present invention.
4B to 4D are views showing a display unit of a mobile terminal according to an embodiment of the present invention.
FIGS. 5 to 9 are flowcharts illustrating a method of extracting a predetermined word among keywords of voice recognized during a call in a mobile terminal according to an exemplary embodiment.
10 is a flowchart illustrating a method of searching for extracted keywords among words of voice recognized during a call in a mobile terminal.
FIG. 11 is a flowchart illustrating a method of calculating a location of a mobile terminal in a mobile terminal according to an exemplary embodiment of the present invention, and searching for extracted keywords among words of voice recognized during a call.
12 is a diagram illustrating a keyword search result according to a location of a mobile terminal.
13A and 13B illustrate outputting search results for keywords extracted during a video call in a mobile terminal according to an exemplary embodiment of the present invention.

이하, 본 발명과 관련된 이동 단말기에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. Hereinafter, a mobile terminal related to the present invention will be described in detail with reference to the drawings. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.

본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등이 포함될 수 있다. 그러나, 본 명세서에 기재된 실시예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.The mobile terminal described in this specification may include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), and navigation. However, it will be understood by those skilled in the art that the configuration according to the embodiments described herein may be applied to a fixed terminal such as a digital TV, a desktop computer, and the like, unless the configuration is applicable only to a mobile terminal.

도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram)이다.1 is a block diagram of a mobile terminal according to an embodiment of the present invention.

상기 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기가 구현될 수도 있다.The mobile terminal 100 includes a wireless communication unit 110, an audio / video input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, a memory 160, A controller 170, a controller 180, a power supply 190, and the like. The components shown in FIG. 1 are not essential, and a mobile terminal having more or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

무선 통신부(110)는 이동 단말기(100)와 무선 통신 시스템 사이 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.The wireless communication unit 110 may include one or more modules for enabling wireless communication between the mobile terminal 100 and the wireless communication system or between the mobile terminal 100 and the network in which the mobile terminal 100 is located. For example, the wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short range communication module 114, and a location information module 115 .

방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 적어도 두 개의 방송 채널들에 대한 동시 방송 수신 또는 방송 채널 스위칭을 위해 둘 이상의 상기 방송 수신 모듈이 상기 이동단말기(100)에 제공될 수 있다.The broadcast receiving module 111 receives broadcast signals and / or broadcast-related information from an external broadcast management server through a broadcast channel. The broadcast channel may include a satellite channel and a terrestrial channel. Two or more broadcast receiving modules may be provided to the mobile terminal 100 for simultaneous broadcast reception or broadcast channel switching for at least two broadcast channels.

상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast management server may refer to a server for generating and transmitting broadcast signals and / or broadcast related information, or a server for receiving broadcast signals and / or broadcast related information generated by the broadcast management server and transmitting the generated broadcast signals and / or broadcast related information. The broadcast signal may include a TV broadcast signal, a radio broadcast signal, a data broadcast signal, and a broadcast signal in which a data broadcast signal is combined with a TV broadcast signal or a radio broadcast signal.

상기 방송 관련 정보는 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미한다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.The broadcast-related information means information related to a broadcast channel, a broadcast program, or a broadcast service provider. The broadcast-related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 112.

상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast-related information may exist in various forms. For example, an EPG (Electronic Program Guide) of DMB (Digital Multimedia Broadcasting) or an ESG (Electronic Service Guide) of Digital Video Broadcast-Handheld (DVB-H).

상기 방송 수신 모듈(111)은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), DVB-CBMS (Convergence of Broadcasting and Mobile Service), OMA-BCAST (Open Mobile Alliance-BroadCAST), CMMB (China Multimedia Mobile Broadcasting), MBBMS (Mobile Broadcasting Business Management System), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.For example, the broadcast receiving module 111 may be a Digital Multimedia Broadcasting-Terrestrial (DMB-T), a Digital Multimedia Broadcasting-Satellite (DMB-S), a Media Forward Link Only (Mobile Broadcasting Business Management System), ISDB-T (Integrated Services Digital Broadcasting (ISDB-T)), Digital Multimedia Broadcasting (MBMS) Digital Broadcast-Terrestrial) or the like. Of course, the broadcast receiving module 111 may be adapted to other broadcasting systems as well as the digital broadcasting system described above.

방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the memory 160.

이동통신 모듈(112)은, GSM(Gobal System for Mobile communications), CDMA(Code Division Multiple Access), WCDMA(Wideband CDMA)(이에 한정되지 않음)와 같은 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module 112 may be coupled to a base station, an external terminal, or a server on a mobile communication network, such as, but not limited to, Gobal System for Mobile communications (GSM), Code Division Multiple Access (CDMA), Wideband CDMA Transmits and receives wireless signals with one. The wireless signal may include various types of data depending on a voice call signal, a video call signal or a text / multimedia message transmission / reception.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), GSM, CDMA, WCDMA, LTE(Long Term Evolution)(이에 한정되지 않음) 등이 이용될 수 있다. The wireless Internet module 113 is a module for wireless Internet access, and may be built in or externally attached to the mobile terminal 100. Wireless Internet technologies include WLAN (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), GSM, CDMA, WCDMA, LTE Evolution (but not limited to) may be used.

Wibro, HSDPA, GSM, CDMA, WCDMA, LTE 등에 의한 무선인터넷 접속은 이동통신망을 통해 이루어진다는 관점에서 본다면, 상기 이동통신망을 통해 무선인터넷 접속을 수행하는 상기 무선 인터넷 모듈(113)은 상기 이동통신 모듈(112)의 일종으로으로 이해될 수도 있다. The wireless Internet module 113, which performs wireless Internet access through the mobile communication network, is connected to the mobile communication module 110 through the mobile communication network, for example, from the viewpoint that the wireless Internet access by Wibro, HSDPA, GSM, CDMA, WCDMA, LTE, (112). ≪ / RTI >

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-range communication module 114 refers to a module for short-range communication. Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra Wideband (UWB), ZigBee, and the like can be used as a short range communication technology.

위치정보 모듈(115)은 이동 단말기의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다. 현재 기술에 의하면, 상기 GPS모듈(115)은 3개 이상의 위성으로부터 떨어진 거리 정보와 정확한 시간 정보를 산출한 다음 상기 산출된 정보에 삼각법을 적용함으로써, 위도, 경도, 및 고도에 따른 3차원의 현 위치 정보를 정확히 산출할 수 있다. 현재, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법이 널리 사용되고 있다. 또한, GPS 모듈(115)은 현 위치를 실시간으로 계속 산출함으로써 속도 정보를 산출할 수 있다. The position information module 115 is a module for obtaining the position of the mobile terminal, and a representative example thereof is a Global Position System (GPS) module. According to the current technology, the GPS module 115 calculates distance information and accurate time information from three or more satellites, and then applies trigonometry to the calculated information to obtain a three-dimensional string of latitude, longitude, The location information can be accurately calculated. At present, a method of calculating position and time information using three satellites and correcting an error of the calculated position and time information using another satellite is widely used. In addition, the GPS module 115 can calculate speed information by continuously calculating the current position in real time.

도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Referring to FIG. 1, an A / V (Audio / Video) input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122. The camera 121 processes image frames such as still images or moving images obtained by the image sensor in the video communication mode or the photographing mode. The processed image frame can be displayed on the display unit 151. [

카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 121 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. [ Two or more cameras 121 may be provided depending on the use environment.

마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 receives an external sound signal through a microphone in a communication mode, a recording mode, a voice recognition mode, or the like, and processes it as electrical voice data. The processed voice data can be converted into a form that can be transmitted to the mobile communication base station through the mobile communication module 112 when the voice data is in the call mode, and output. Various noise reduction algorithms may be implemented in the microphone 122 to remove noise generated in receiving an external sound signal.

사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는, 이동단말기(100)의 전·후면 또는 측면에 위치하는 버튼(136), 터치 센서(정압/정전)(137)로 구성될 수 있고, 도시되지는 않았지만 키패드(key pad), 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등을 더욱 포함하여 구성될 수 있다. The user input unit 130 generates input data for a user to control the operation of the terminal. The user input unit 130 may include a button 136 located on the front, rear, or side of the mobile terminal 100, and a touch sensor (static / static) 137. Although not shown, ), A dome switch, a jog wheel, a jog switch, and the like.

센싱부(140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다. 한편, 상기 센싱부(140)는 근접 센서(141)를 포함할 수 있다. (근접 센서에 관해서는 후술하도록 한다). The sensing unit 140 senses the current state of the mobile terminal 100 such as the open / close state of the mobile terminal 100, the position of the mobile terminal 100, the presence or absence of user contact, the orientation of the mobile terminal, And generates a sensing signal for controlling the operation of the mobile terminal 100. For example, when the mobile terminal 100 is in the form of a slide phone, it is possible to sense whether the slide phone is opened or closed. It is also possible to sense whether the power supply unit 190 is powered on, whether the interface unit 170 is connected to an external device, and the like. Meanwhile, the sensing unit 140 may include a proximity sensor 141. (The proximity sensor will be described later).

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153), 및 햅틱 모듈(154) 등이 포함될 수 있다.The output unit 150 is for generating output related to the visual, auditory or tactile sense and includes a display unit 151, an audio output module 152, an alarm unit 153, and a haptic module 154 .

디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The display unit 151 displays (outputs) information processed by the mobile terminal 100. For example, when the mobile terminal is in the call mode, a UI (User Interface) or a GUI (Graphic User Interface) associated with a call is displayed. When the mobile terminal 100 is in the video communication mode or the photographing mode, the photographed and / or received video or UI and GUI are displayed.

디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display unit 151 may be a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display display, and a 3D display.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(151)가 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light transmissive so that they can be seen through. This can be referred to as a transparent display, and a typical example of the transparent display is TOLED (Transparent OLED) and the like. The rear structure of the display unit 151 may also be of a light transmission type. With this structure, the user can see an object located behind the terminal body through the area occupied by the display unit 151 of the terminal body.

이동 단말기(100)의 구현 형태에 따라 디스플레이부(151)가 2개 이상 존재할 수 있다. 예를 들어, 이동 단말기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. There may be two or more display units 151 according to the embodiment of the mobile terminal 100. For example, in the mobile terminal 100, a plurality of display portions may be spaced apart from one another, or may be disposed integrally with one another, and may be disposed on different surfaces, respectively.

디스플레이부(151)와 상기 터치 센서(137)가 상호 레이어 구조를 이루거나 일체형으로 형성되는 경우(이하, '터치스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가지는 경우 디스플레이부(151)에 적층되어 레이어 구조를 형성할 수도 있고, 상기 디스플레이부(151)의 구성에 포함시켜 일체형으로 이루어질 수 있다.In the case where the display unit 151 and the touch sensor 137 have a mutual layer structure or are integrally formed (hereinafter referred to as a 'touch screen'), the display unit 151 may be used as an input device . The touch sensor may be stacked on the display unit 151 to form a layer structure when the touch sensor has a form of a touch film, a touch sheet, a touch pad, or the like. ≪ / RTI >

터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in a pressure applied to a specific portion of the display unit 151 or a capacitance generated in a specific portion of the display unit 151 into an electrical input signal. The touch sensor can be configured to detect not only the position and area to be touched but also the pressure at the time of touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기(미도시)로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller (not shown). The touch controller processes the signal (s) and transmits the corresponding data to the controller 180. Thus, the control unit 180 can know which area of the display unit 151 is touched or the like.

상기 근접 센서(141)는 상기 터치스크린에 의해 감싸지는 이동 단말기(100)의 내부 영역 또는 상기 터치스크린의 근처에 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. The proximity sensor 141 may be disposed in the inner area of the mobile terminal 100 or in the vicinity of the touch screen, which is enclosed by the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or a nearby object without mechanical contact using the force of an electromagnetic field or infrared rays. The proximity sensor has a longer life span than the contact sensor and its utilization is also high.

상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. And to detect the proximity of the pointer by the change of the electric field along the proximity of the pointer when the touch screen is electrostatic. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 호칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 호칭할 수 있다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미할 수 있다.Hereinafter, for convenience of explanation, the act of recognizing that the pointer is positioned on the touch screen while the pointer is not in contact with the touch screen is referred to as "proximity touch" The act of actually contacting the pointer on the touch screen may be referred to as "contact touch. &Quot; The location where the pointer is proximately touched on the touch screen may refer to a position where the pointer corresponds vertically to the touch screen when the pointer is touched.

상기 근접센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor detects a proximity touch and a proximity touch pattern (e.g., a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, a proximity touch movement state, and the like). Information corresponding to the detected proximity touch operation and the proximity touch pattern may be output on the touch screen.

음향 출력 모듈(152)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(152)은 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The audio output module 152 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception mode, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, The sound output module 152 also outputs sound signals related to functions (e.g., call signal reception sound, message reception sound, etc.) performed in the mobile terminal 100. [ The audio output module 152 may include a receiver, a speaker, a buzzer, and the like.

알람부(153)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있으므로, 이 경우 상기 디스플레이부(151) 및 음성 출력 모듈(152)은 알람부(153)의 일종으로 분류될 수도 있다.The alarm unit 153 outputs a signal for notifying the occurrence of an event of the mobile terminal 100. Examples of events that occur in the mobile terminal include call signal reception, message reception, key signal input, touch input, and the like. The alarm unit 153 may output a signal for notifying the occurrence of an event in a form other than the video signal or the audio signal, for example, vibration. In this case, the display unit 151 and the audio output module 152 may be a type of the alarm unit 153. The display unit 151 and the audio output module 152 may be connected to the display unit 151 or the audio output module 152, .

햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. The haptic module 154 generates various tactile effects that the user can feel. A typical example of the haptic effect generated by the haptic module 154 is vibration. The intensity and pattern of the vibration generated by the hit module 154 can be controlled. For example, different vibrations may be synthesized and output or sequentially output.

햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. In addition to the vibration, the haptic module 154 may include a pin arrangement vertically moving with respect to the contact skin surface, a spraying force or suction force of the air through the injection port or the suction port, a touch on the skin surface, contact with an electrode, And various tactile effects such as an effect of reproducing a cold sensation using an endothermic or exothermic element can be generated.

햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 이동 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다. The haptic module 154 can be implemented not only to transmit the tactile effect through the direct contact but also to allow the user to feel the tactile effect through the muscular sensation of the finger or arm. At least two haptic modules 154 may be provided according to the configuration of the mobile terminal 100.

메모리부(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 전화번호부, 메시지, 오디오, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 메모리부(160)에는 상기 데이터들 각각에 대한 사용 빈도(예를 들면, 각 전화번호, 각 메시지, 각 멀티미디어에 대한 사용빈도)가 저장될 수 있다. The memory unit 160 may store a program for processing and controlling the control unit 180 and temporarily store the input / output data (e.g., telephone directory, message, audio, For example. The memory unit 160 may store the frequency of use of each of the data (for example, each telephone number, each message, and frequency of use for each multimedia).

또한, 상기 메모리부(160)에는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.In addition, the memory unit 160 may store data on vibration and sound of various patterns output when the touch is input on the touch screen.

메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), a RAM (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM A disk, and / or an optical disk. The mobile terminal 100 may operate in association with a web storage that performs a storage function of the memory 160 on the Internet.

인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 이동 단말기(100) 내부의 각 구성 요소에 전달하거나, 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The interface unit 170 serves as a path for communication with all external devices connected to the mobile terminal 100. The interface unit 170 receives data from an external device or supplies power to each component in the mobile terminal 100 or transmits data to the external device. For example, a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device having an identification module, an audio I / O port, A video input / output (I / O) port, an earphone port, and the like may be included in the interface unit 170.

식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 단말기(100)와 연결될 수 있다. The identification module is a chip for storing various information for authenticating the use right of the mobile terminal 100 and includes a user identification module (UIM), a subscriber identity module (SIM), a general user authentication module A Universal Subscriber Identity Module (USIM), and the like. Devices with identification modules (hereinafter referred to as "identification devices") can be manufactured in a smart card format. Accordingly, the identification device can be connected to the terminal 100 through the port.

상기 인터페이스부는 이동단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동단말기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.When the mobile terminal 100 is connected to an external cradle, the interface unit may be a path through which power from the cradle is supplied to the mobile terminal 100, or various command signals input by the user to the cradle may be transmitted It can be a passage to be transmitted to the terminal. The various command signals or the power source input from the cradle may be operated as a signal for recognizing that the mobile terminal is correctly mounted on the cradle.

제어부(controller)(180)는 통상적으로 이동 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The controller 180 typically controls the overall operation of the mobile terminal. For example, voice communication, data communication, video communication, and the like. The control unit 180 may include a multimedia module 181 for multimedia playback. The multimedia module 181 may be implemented in the control unit 180 or may be implemented separately from the control unit 180. [

상기 제어부(180)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. The controller 180 may perform a pattern recognition process for recognizing handwriting input or drawing input performed on the touch screen as characters and images, respectively.

음성 인식부(182)는 음성 인식 알고리즘이 적용된 음성 인식 엔진을 구동하여 마이크(122)로 입력된 사용자의 음성 또는 무선 통신부(110)를 통해 수신되는 상대방의 음성을 인식한다. The voice recognition unit 182 drives the voice recognition engine to which the voice recognition algorithm is applied to recognize the voice of the user input through the microphone 122 or the voice of the other party received through the wireless communication unit 110. [

즉, 음성 인식부(182)는 마이크(122)를 통해 입력되는 사용자의 음성 또는 무선 통신부(110)를 통해 수신되는 상대방의 음성을 디지털 데이터로 변환하고, 상기 디지털 데이터를 증폭(Pre-emphasis)한 후, 상기 디지털 변환된 음성의 시작 지점과 끝 지점을 검출한다.That is, the voice recognition unit 182 converts the voice of the user input through the microphone 122 or the voice of the other party received through the wireless communication unit 110 into digital data, pre-emphasizes the digital data, A start point and an end point of the digitally converted voice are detected.

이어서, 음성 인식부(182)는 상기 검출한 시작 지점과 끝 지점 사이의 음성에 대한 음성 특징값들을 추출하고, 메모리(160)에 구비된 음성 인식용 데이터 베이스에서 상기 추출된 음성 특징값과 매칭되는 단어를 제어부(180)에게 알려줄 수 있다. 이때, 상기 음성 특징값들은, 상기 입력된 음성의 파형, 음성의 포맷(format) 및 음성의 피치(pitch) 중 적어도 하나를 포함할 수 있다.Then, the voice recognition unit 182 extracts voice feature values for the voice between the detected start point and end point, and matches the extracted voice feature values in the voice recognition database provided in the memory 160 To the control unit 180. [0051] At this time, the voice feature values may include at least one of a waveform of the input voice, a format of voice, and a pitch of voice.

상기와 같은, 음성 인식부(182)는 하나의 "모듈" 또는 "유닛" 형태로 이동 단말기(100)에 구비될 수 있거나, 또는 메모리(160)에 소프트웨어 형태로 구비될 수 있다. 또한, 음성 인식부(182)는 제어부(180) 내에 포함되어 구성될 수 있고, 이 경우 제어부(180)는 음성 인식부(182)의 동작을 동일하게 수행할 수 있다. The voice recognition unit 182 may be provided in the mobile terminal 100 in the form of one "module" or "unit", or may be provided in the memory 160 in the form of software. The speech recognition unit 182 may be included in the control unit 180 and the control unit 180 may perform the operation of the speech recognition unit 182 in the same manner.

변환부(183)는 상기 음성 인식부(182)에서 인식된 사용자의 음성을 문자로 변환하여 출력할 수 있다.The converting unit 183 can convert the voice of the user recognized by the voice recognizing unit 182 into a character and output it.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다. 전원공급부(190)는 예를 들어 배터리, 연결포트, 전원공급제어부 및 충전모니터링부를 포함할 수 있다.The power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power necessary for operation of the respective components. The power supply unit 190 may include, for example, a battery, a connection port, a power supply control unit, and a charge monitoring unit.

배터리는 충전 가능하도록 이루어지는 내장형 배터리가 될 수 있으며, 충전 등을 위하여 단말기 바디에 착탈 가능하게 결합될 수 있다. 연결포트는 배터리의 충전을 위하여 전원을 공급하는 외부 충전기가 전기적으로 연결되는 인터페이스(170)의 일 예로서 구성될 수 있다.The battery may be an internal battery configured to be chargeable, and may be detachably coupled to the terminal body for charging or the like. The connection port may be configured as an example of an interface 170 through which an external charger for supplying power for charging the battery is electrically connected.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(180) 자체로 구현될 수 있다.According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays , Microprocessors, microprocessors, microprocessors, and other electronic units for carrying out other functions. In some cases, the embodiments described herein may be implemented by the controller 180 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.According to a software implementation, embodiments such as the procedures and functions described herein may be implemented with separate software modules. Each of the software modules may perform one or more of the functions and operations described herein. Software code can be implemented in a software application written in a suitable programming language. The software code is stored in the memory 160 and can be executed by the control unit 180. [

도 2는 본 발명과 관련된 이동 단말기 또는 휴대 단말기의 일 예를 전면에서 바라본 사시도이다.FIG. 2 is a perspective view of a mobile terminal or a portable terminal according to the present invention, as viewed from the front.

개시된 이동 단말기(100)는 바 형태의 단말기 바디를 구비하고 있다. 다만, 본 발명은 여기에 한정되지 않고, 2 이상의 바디들이 상대 이동 가능하게 결합되는 슬라이드 타입, 폴더 타입, 스윙 타입, 스위블 타입 등 다양한 구조에 적용이 가능하다. The disclosed mobile terminal 100 includes a bar-shaped terminal body. However, the present invention is not limited thereto, and can be applied to various structures such as a slide type, a folder type, a swing type, and a swivel type in which two or more bodies are relatively movably coupled.

상기 이동단말기(100)의 바디는 외관을 이루는 케이스(101, 102, 103)를 포함한다. 본 실시예에서, 케이스는 프론트 케이스(101)와 리어 케이스(102)로 구분될 수 있다. 프론트 케이스(101)와 리어 케이스(102)의 사이에 형성된 공간에는 각종 전자부품들이 내장된다.The body of the mobile terminal 100 includes a casing 101, 102, In this embodiment, the case may be divided into a front case 101 and a rear case 102. [ A variety of electronic components are embedded in the space formed between the front case 101 and the rear case 102.

USIM카드 및 메모리카드등 보조 저장매체(165)와 같이 탈착이 필요한 부품은 외측으로부터 케이스 내부로 삽입가능하도록 케이스에는 개구부를 포함할 수 있다. 상기 보조 저장매체(165)가 이동 단말기(100)의 측면에서 삽입되어 실장되도록 케이스 측면에 슬롯이 형성될 수도 있고, 리어 케이스(102)의 표면에 실장되도록 카드 슬롯(166, 167)이 형성될 수도 있다. A part such as a USIM card and a memory card, which is required to be detached, such as an auxiliary storage medium 165, may include an opening in the case so that the part can be inserted into the case from the outside. Slots may be formed on the side of the case so that the auxiliary storage medium 165 may be inserted from the side of the mobile terminal 100 and card slots 166 and 167 may be formed on the surface of the rear case 102 It is possible.

케이스(101, 102, 103)는 합성수지를 사출하여 형성되거나 금속 재질, 예를 들어 스테인레스 스틸(STS) 또는 티타늄(Ti) 등과 같은 금속 재질을 갖도록 형성될 수도 있다.The cases 101, 102, and 103 may be formed by injection molding synthetic resin or may be formed of a metal material such as stainless steel (STS) or titanium (Ti).

단말기 케이스(101, 102)에는 디스플레이부(151), 음향출력부(152), 카메라(121), 사용자 입력부(130/131,132), 마이크(122), 인터페이스(170) 등이 배치될 수 있다.The display unit 151, the sound output unit 152, the camera 121, the user input units 130/131 and 132, the microphone 122, and the interface 170 may be disposed in the terminal cases 101 and 102.

디스플레이부(151)는 프론트 케이스(101)의 주면의 대부분을 차지한다. 디스플레이부(151)의 양단부 중 일 단부에 인접한 영역에는 음향출력부(152)와 카메라(121)가 배치되고, 다른 단부에 인접한 영역에는 사용자 입력부(131)와 마이크(122)가 배치된다. 사용자 입력부(132)와 인터페이스(170) 등은 프론트 케이스(101) 및 리어 케이스(102)의 측면들에 배치될 수 있다.The display unit 151 occupies most of the main surface of the front case 101. A sound output unit 152 and a camera 121 are disposed in an area adjacent to one end of both ends of the display unit 151 and a user input unit 131 and a microphone 122 are disposed in an area adjacent to the other end. The user input unit 132 and the interface 170 may be disposed on the side surfaces of the front case 101 and the rear case 102. [

사용자 입력부(130)는 이동 단말기(100)의 동작을 제어하기 위한 명령을 입력받기 위해 조작되는 것으로서, 복수의 조작 유닛들(131, 132, 133)을 포함할 수 있다. 조작 유닛들(131, 132, 133)은 조작부(manipulating portion)로도 통칭 될 수 있다.The user input unit 130 is operated to receive a command for controlling the operation of the mobile terminal 100 and may include a plurality of operation units 131, 132, and 133. The operation units 131, 132, and 133 may be collectively referred to as a manipulating portion.

제1 또는 제2조작 유닛들(131, 132)에 의하여 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 제1 조작 유닛(131)은 시작, 종료, 스크롤 등과 같은 명령을 입력받고, 제2 조작 유닛(132)은 음향출력부(152)에서 출력되는 음향의 크기 조절과 같은 명령을 입력받고, 제3 조작유닛(133)은 디스플레이부(151)의 터치 인식 모드 활성화/비활성화 등과 같은 명령을 입력받을 수 있다.The contents inputted by the first or second operation unit 131 or 132 may be variously set. For example, the first operation unit 131 receives a command such as start, end, scroll, and the like, and the second operation unit 132 inputs a command such as adjustment of the sound output from the sound output unit 152 And the third operation unit 133 can receive commands such as activation / deactivation of the touch recognition mode of the display unit 151 and the like.

상기 조작 유닛들(131, 132, 133)는 사용자가 압력을 가하면 인식하는 버튼방식이 있을 수 있고, 상기 디스플레이부(151) 외에 조작 유닛(131, 132, 133)에도 터치센서를 구비하여 사용자의 터치만으로 사용자의 명령을 입력받을 수도 있다. In addition to the display unit 151, the operation units 131, 132, and 133 may be provided with touch sensors, It is also possible to receive a command of the user by touch alone.

도 3는 도 2에 도시된 이동 단말기의 후면 사시도이다. 3 is a rear perspective view of the mobile terminal shown in FIG.

도 3를 참조하면, 단말기 바디의 후면, 다시 말해서 리어 케이스(102)에는 카메라(121')가 추가로 장착될 수 있다. 카메라(121')는 카메라(121, 도 2 참조)와 실질적으로 반대되는 촬영 방향을 가지며, 카메라(121)와 같거나 서로 다른 화소를 가지는 카메라일 수 있다. Referring to FIG. 3, a camera 121 'may be further mounted on the rear surface of the terminal body, that is, the rear case 102. The camera 121 'may have a photographing direction substantially opposite to the camera 121 (see FIG. 2), and may be a camera having the same or different pixels as the camera 121.

예를 들어, 카메라(121)는 화상 통화 등의 경우에 사용자의 얼굴을 촬영하여 상대방에 전송함에 무리가 없도록 저 화소를 가지며, 카메라(121')는 일반적인 피사체를 촬영하고 바로 전송하지는 않는 경우가 많기에 고 화소를 가지는 것이 바람직하다. 카메라(121, 121')는 회전 또는 팝업(pop-up) 가능하게 단말기 바디에 설치될 수도 있다.For example, the camera 121 may have a low pixel so that the face of the user can be photographed and transmitted to the other party in case of a video call or the like, and the camera 121 ' It is preferable to have a large number of pixels. The cameras 121 and 121 'may be installed in the terminal body such that they can be rotated or pop-up.

카메라(121')에 인접하게는 플래쉬(123)와 거울(124)이 추가로 배치될 수 있다. 플래쉬(123)는 카메라(121')로 피사체를 촬영하는 경우에 피사체를 향해 빛을 비추게 된다. 거울(124)은 사용자가 카메라(121')를 이용하여 자신을 촬영(셀프 촬영)하고자 하는 경우에, 사용자 자신의 얼굴 등을 비춰볼 수 있게 한다.A flash 123 and a mirror 124 may be additionally disposed adjacent to the camera 121 '. The flash 123 illuminates the subject when the subject is photographed by the camera 121 '. The mirror 124 allows the user to illuminate the user's own face or the like when the user intends to shoot himself / herself (self-photographing) using the camera 121 '.

단말기 바디의 후면에는 음향 출력부(152')가 추가로 배치될 수도 있다. 바디 후면의 음향 출력부(152')는 바디 전면의 음향 출력부(152, 도 2 참조)와 함께 스테레오 기능을 구현할 수 있으며, 통화시 스피커폰 모드의 구현을 위하여 사용될 수도 있다.An acoustic output 152 'may be additionally disposed on the rear surface of the terminal body. The sound output 152 'on the rear side of the body may implement the stereo function together with the sound output 152 (see FIG. 2) of the front side of the body, and may be used for the implementation of the speakerphone mode during a call.

단말기 바디의 측면에는 통화 등을 위한 안테나 외에 방송신호 수신용 안테나(116)가 추가적으로 배치될 수 있다. 방송수신모듈(111, 도 1 참조)의 일부를 이루는 안테나(116)는 단말기 바디에서 인출 가능하게 설치될 수 있다.In addition to the antenna for talking and the like, a broadcast signal reception antenna 116 may be additionally disposed on the side of the terminal body. The antenna 116, which forms part of the broadcast receiving module 111 (see FIG. 1), can be installed to be able to be drawn out from the terminal body.

설명의 편의를 위하여, 이하에서 언급되는 이동 단말기(100)는 도 1에 도시된 구성요소들 중 적어도 하나를 포함할 수 있다고 가정한다. For convenience of explanation, it is assumed that the mobile terminal 100 mentioned below may include at least one of the components shown in FIG.

이하, 도 4a 내지 도 13을 참조하여, 본 발명에 따라, 이동 단말기에서 통화 중 음성 인식하여, 인식된 음성의 단어 중 소정의 키워드를 추출하고 추출된 키워드에 대한 검색을 진행하는 것에 대하여 설명하도록 한다.Hereinafter, with reference to FIG. 4A to FIG. 13, a description will be given of a method for extracting a predetermined keyword among recognized words of a voice, do.

도 4a는 본 발명의 일실시예와 관련된 이동 단말기의 제어 방법에 대한 흐름도이고, 도 4b 내지 도 4d는 본 발명의 일실시예와 관련된 이동 단말기의 디스플레이부를 도시한 도면이다. 4A is a flowchart illustrating a method of controlling a mobile terminal according to an exemplary embodiment of the present invention, and FIGS. 4B through 4D illustrate a display unit of a mobile terminal according to an exemplary embodiment of the present invention.

도 4a를 참고하면, 본 발명의 일실시예와 관련된 이동 단말기(100)는 상대방 단말기와 통화 연결될 수 있다(S400). 예를 들면, 상기 이동 단말기(100)가 상대방 단말기로부터 호 발생 신호를 수신할 때, 상기 제어부(180)는 사용자 명령에 반응하여 상기 상대방 단말기와 통화를 연결하도록 제어할 수 있다. 또는 상기 제어부(180)가 사용자 명령에 반응하여 상기 상대방 단말기로 호 발생 신호를 송신함으로써 상기 상대방 단말기와 통화가 연결되도록 제어할 수도 있다.Referring to FIG. 4A, the mobile terminal 100 related to an embodiment of the present invention may be connected to the counterpart terminal (S400). For example, when the mobile terminal 100 receives the call origination signal from the counterpart terminal, the controller 180 may control the call connection with the counterpart terminal in response to a user command. Alternatively, the control unit 180 may control the call connection with the counterpart terminal by transmitting a call origination signal to the counterpart terminal in response to a user command.

상기 제어부(180)는, 음성 인식부(182)를 제어하여 임의의 음성 인식 알고리즘을 통해 상기 통화 중 마이크(122)를 통해 입력되는 사용자의 음성 또는 무선 통신부(110)를 통해 수신되는 상대방의 음성을 인식할 수 있다(S410). The control unit 180 controls the voice recognition unit 182 to control the voice recognition unit 182 so that the voice of the user input through the microphone 122 during the call or the voice of the other party received through the wireless communication unit 110 (S410).

실시예에 따라, 상기 제어부(180)는 사용자의 음성 인식 개시 명령을 입력받아 음성 인식을 시작할 수 있다. 상기 음성 인식 개시 명령은 이동 단말기(100)에 구비된 특정 하드웨어 버튼, 또는 디스플레이부(151)에 디스플레이되는 소프트웨어 버튼, 터치 입력 또는 디스플레이부(151)에 표시된 특정 메뉴의 조작에 의해 이루어질 수 있다. 상기 음성 인식을 종료하고자 하는 경우에는 음성 인식 종료 명령이 입력될 수 있다. 예를 들면 상기 음성 인식이 진행되는 도중에 이동 단말기(100)에 구비된 특정 하드웨어 버튼, 소프트웨어 버튼, 특정 메뉴의 조작에 의해 상기 음성 인식 종료 명령이 입력될 수 있다.According to the embodiment, the control unit 180 may start voice recognition by receiving a voice recognition start command of the user. The voice recognition start command may be generated by operating a specific hardware button provided on the mobile terminal 100 or a software button displayed on the display unit 151, a touch input, or a specific menu displayed on the display unit 151. [ When terminating the speech recognition, a speech recognition termination command may be input. For example, the voice recognition end command may be input by operating a specific hardware button, a software button, or a specific menu provided in the mobile terminal 100 during the voice recognition.

상기 음성 인식부(182)는 마이크(122)를 통해 음성을 입력 받아 음성 인식을 수행한다. 또한 상기 음성 인식부(182)는 상기 무선 통신부(110)를 통해 타 이동 단말기(200)와 통화가 수행되는 경우, 통화 중 수신되는 음성을 입력 받아 그에 따른 음성 인식을 수행할 수 있다.The voice recognition unit 182 receives voice through the microphone 122 and performs voice recognition. The voice recognition unit 182 may receive voice received during a call and perform voice recognition according to the voice when the call is performed with the other mobile terminal 200 through the wireless communication unit 110. [

이때, 상기 음성 인식부(182)는 음성 인식 알고리즘이 구비되어, 입력되는 음성의 특징을 추출하고 분석하여 음성을 인식한다. 본 실시예에서 음성을 인식하는 음성 인식 알고리즘 자체는 본 발명의 요지를 벗어나므로 그에 대한 구체적인 설명은 생략한다.At this time, the speech recognition unit 182 is equipped with a speech recognition algorithm, and extracts characteristics of the input speech and analyzes the speech to recognize the speech. Since the speech recognition algorithm itself recognizing speech in the present embodiment is outside the scope of the present invention, a detailed description thereof will be omitted.

실시예에 따라, 상기 음성 인식부(182)는 인식된 음성을 문자 데이터로 변환할 수 있다. According to the embodiment, the voice recognition unit 182 can convert the recognized voice into character data.

상기 제어부(180)는 상기 인식된 음성의 단어 중에서 소정의 단어를 키워드로 추출할 수 있다(S420). 상기 인식된 음성에는 다수의 단어가 포함되어 있고, 이 중에는 사용자가 음성 검색을 진행하고자 하는 단어뿐 아니라 그 이외의 단어까지 함께 포함되어 있을 수 있다. 때문에, 상기 제어부(180)는 상기 인식된 단어 중에서 음성 검색을 진행하고자 하는 소정의 단어를 사전 설정된 방식에 따라 키워드로 추출할 수 있다. The control unit 180 may extract a predetermined word from among the words of the recognized voice (S420). The recognized voice includes a plurality of words, and may include not only words for which the user wishes to perform a voice search but also other words. Therefore, the control unit 180 can extract, from the recognized words, a predetermined word to be used for voice search in accordance with a predetermined method.

그 후 제어부(180)는 상기 추출된 키워드에 해당하는 정보를 검색할 수 있다(S430). 상기 검색은 통화 중에 진행할 수도 있고, 통화 종료 후에 진행할 수도 있다. 상기 정보는 키워드에 해당하는 상품에 대한 광고 등일 수 있으며, 키워드에 해당하는 지역에 대한 위치 정보가 될 수도 있다. Thereafter, the controller 180 may retrieve information corresponding to the extracted keyword (S430). The search may proceed during a call or after a call is terminated. The information may be an advertisement for a product corresponding to a keyword, or may be location information for an area corresponding to a keyword.

다음으로, 제어부(180)는 상기 검색된 정보를 디스플레이부(151)에 디스플레이하도록 제어할 수 있다(S440). 도 4b 내지 도 4d를 참고하면, 도 4b에 도시된 바와 같이 상대방 단말기와 통화 진행 중 인식된 음성에서 키워드가 추출되면, 도 4c에 도시된 바와 같이 통화 중 사용자의 이동 단말기(100)의 디스플레이부(151)에 상기 키워드에 해당하는 검색된 정보가 디스플레이될 수 있다. 이때, 상기 검색된 정보는 도시된 바와 같이 별도의 팝업창(152) 형태로 디스플레이될 수 있다. 실시예에 따라, 도 4d에 도시된 바와 같이 통화 종료 후 사용자의 이동 단말기(100)의 디스플레이부(151)에 상기 검색된 정보가 디스플레이될 수 있다. 도시된 예에서는 통화 중 "피자"가 키워드로 추출되어 검색이 진행되고 "피자"에 대한 검색 결과가 디스플레이부(151)에 디스플레이된다. 즉, "피자"에 대한 광고, 판매 음식점의 위치, 전화번호 등에 대한 정보가 이동 단말기(100)의 사용자에게 통화 중 또는 통화 종료 후 제공될 수 있다. Next, the control unit 180 may control to display the searched information on the display unit 151 (S440). 4B to 4D, if a keyword is extracted from the voice recognized during the call progress with the partner terminal as shown in FIG. 4B, as shown in FIG. 4C, The retrieved information corresponding to the keyword may be displayed on the display 151. At this time, the retrieved information may be displayed in the form of a separate pop-up window 152 as shown in FIG. 4D, the retrieved information may be displayed on the display unit 151 of the user's mobile terminal 100 after the call is terminated. In the illustrated example, a "pizza" during a call is extracted as a keyword and the search is progressed and a search result for "pizza" That is, information on an advertisement for a "pizza", a location of a selling restaurant, a telephone number, and the like may be provided to the user of the mobile terminal 100 during a call or after a call is terminated.

이하에서는 통화 중 인식된 음성의 단어들 중에서 소정의 단어를 키워드로 추출하는 방법에 대해서 구체적으로 살펴보기로 한다.Hereinafter, a method of extracting a predetermined word among words of voice recognized during a call will be described in detail.

도 5 내지 도 9는 일실시예에 따른 이동 단말기에서 통화 중 인식된 음성의 단어들 중에서 소정의 단어를 키워드로 추출하는 방법에 대한 흐름도이다. 도 5 내지 도 9에 예시된 키워드 추출하는 방법은 이들 각각에 대하여 한정되는 것이 아니며, 이들의 조합에 의해서도 키워드 추출이 이루어질 수도 있다. FIGS. 5 to 9 are flowcharts illustrating a method of extracting a predetermined word among keywords of voice recognized during a call in a mobile terminal according to an exemplary embodiment. The method of extracting the keywords illustrated in FIGS. 5 to 9 is not limited to each of them, and keyword extraction may be performed by a combination of these methods.

도 5을 참고하면, 일실시예에 따른 이동 단말기(100)의 제어부(180)는 통화 중 음성 인식부(182)를 제어하여 음성을 인식할 수 있다(S510). 그 후 제어부(180)는 인식된 음성의 단어들 중에서 소정의 단어를 키워드로서 추출할 수 있다. 이때, 상기 키워드의 추출은 사전 설정된 사용자의 명령에 따라 이루어질 수 있다. 즉, 통화를 수행하는 중에 사용자에 의해 사전 설정된 키워드 추출 명령이 입력되는 경우(S520), 제어부(180)는 그 직후에 상기 마이크(122)를 통해 입력되는 사용자의 음성 또는 무선 통신부(110)를 통해 수신되는 상대방의 음성의 단어를 키워드로 추출할 수 있다(S530). Referring to FIG. 5, the control unit 180 of the mobile terminal 100 according to an embodiment can recognize the voice by controlling the voice recognition unit 182 in operation S510. Thereafter, the control unit 180 can extract a predetermined word from the recognized voice words as a keyword. At this time, the extraction of the keyword may be performed according to a command of a predetermined user. That is, when a keyword extraction command preset by the user is input during the telephone conversation (S520), the control unit 180 determines whether the voice of the user input through the microphone 122 or the wireless communication unit 110 A word of the voice of the other party that is received through the keyword may be extracted as a keyword (S530).

예를 들면, 상기 사전 설정된 사용자의 키워드 추출 명령은 통화를 수행하는 중에 이동 단말기(100)에 구비된 특정 하드웨어 버튼, 또는 디스플레이부(151)에 디스플레이되는 소프트웨어 버튼, 터치 입력 등에 의해 이루어질 수 있다. For example, the predetermined user's keyword extraction command may be performed by a specific hardware button provided on the mobile terminal 100 during a call, a software button displayed on the display unit 151, a touch input, or the like.

또는 상기 사전 설정된 사용자의 키워드 추출 명령은 특정 사운드나 음향일 수 있다. 특정 사운드나 음향은 박수 소리와 같은 특정 레벨 이상을 갖는 일종의 충격음을 포함할 수 있다. 상기 특정 레벨 이상의 사운드나 음향은 간단한 음향 레벨 검출 알고리즘을 이용해 검출할 수 있다. 또는 상기 사전 설정된 사용자의 키워드 추출 명령은 사용자가 사전 설정한 음성 명령일 수 있다. 예를 들면, 사용자가 사전에 "키워드 입력"이라는 음성의 입력을 음성 검색을 위한 키워드 추출 명령으로 메모리(160)에 저장하여 놓을 수 있다. 상기 음향 레벨 검출 알고리즘을 통해 특정 레벨 이상의 음향을 검출하는 방법 및 음성 명령을 메모리에 저장하는 방법은 본 발명의 요지를 벗어나므로 그에 대한 구체적인 설명은 생략한다. Or the predetermined user's keyword extraction command may be a specific sound or sound. Certain sounds or sounds may include a kind of impact sound with a certain level or more, such as applause. Sounds or sounds above the specified level can be detected using a simple sound level detection algorithm. Alternatively, the predetermined user's keyword extraction command may be a voice command preset by the user. For example, the user can previously store an input of a voice of "keyword input" in the memory 160 as a keyword extraction command for voice search. A method of detecting a sound of a specific level or higher through the sound level detection algorithm and a method of storing a voice command in a memory are out of the scope of the present invention and a detailed description thereof will be omitted.

이상에서는 사용자의 명령에 의해 키워드를 추출하는 방법에 대하여 설명하였다. 그러나, 본 실시예는 이에 한정되지 않으며, 사용자의 명령이 없더라도 소정의 키워드 추출 조건에 따라 키워드를 추출할 수 있다. In the above description, a method of extracting keywords by a user's command has been described. However, the present embodiment is not limited to this, and a keyword can be extracted according to a predetermined keyword extraction condition even if there is no command from the user.

이하에서는 소정의 키워드 추출 조건에 따라 키워드를 추출하는 방법에 대하여 설명하도록 한다. Hereinafter, a method of extracting keywords in accordance with a predetermined keyword extraction condition will be described.

도 6을 참고하면, 다른 실시예에 따른 이동 단말기(100)의 제어부(180)는 통화 중 음성 인식부(182)를 제어하여 음성을 인식할 수 있다(S610). 그 후 제어부(180)는 상기 음성 인식부(182)를 통해 인식된 음성의 단어들에 대해 통화 중 몇 번 인식되는지 단어 별로 카운팅을 할 수 있다(S620). 그 후 제어부(180)는 상기 카운팅된 단어들 중에서 어느 단어가 가장 많이 통화 중 언급되었는지에 대하여 판단하여, 가장 많이 언급된 단어를 상기 인식된 음성의 키워드로 추출할 수 있다(S630).Referring to FIG. 6, the control unit 180 of the mobile terminal 100 according to another embodiment can recognize the voice by controlling the voice recognition unit 182 during communication (S610). Thereafter, the control unit 180 may count the words of the voice recognized through the voice recognition unit 182 by the word how many times they are recognized during the call (S620). Thereafter, the controller 180 determines which word among the counted words is most frequently referred to during conversation, and extracts the most-referred word as the keyword of the recognized voice (S630).

실시예에 따라, 상기 인식되는 음성의 단어들은 메모리(160)에 저장되고, 제어부(180)는 상기 메모리(160)에 저장된 단어들을 단어 별로 개수를 카운팅하여 가장 많이 언급되는 단어를 키워드로 추출할 수 있다.According to an embodiment of the present invention, the recognized speech words are stored in the memory 160, and the controller 180 counts the words stored in the memory 160 by words to extract the words most frequently referred to as keywords .

이때, 상기 제어부(180)는 가장 높은 빈도로 언급되어 키워드로 추출된 단어가 사용자가 원하는 키워드에 해당하는지 여부를 확인하기 위한 팝업창을 디스플레이하도록 제어할 수 있다. 사용자는 상기 팝업창에 디스플레이된 단어가 검색하고자 하는 단어에 해당한다면 확인 버튼을 눌러 그 이후의 단계를 진행할 수 있다. 그러나, 상기 팝업창에 디스플레이된 단어가 사용자가 검색하고자 하는 단어가 아닌 경우에는, 사용자는 취소 버튼을 누를 수 있다. 그 경우에는 상기 제어부(180)는 상기 팝업창에 디스플레이되었던 단어 다음으로 많이 언급된 단어를 키워드로 추출할 수 있다. 그 후 팝업창에 상기 추출된 키워드를 디스플레이하여 사용자의 확인을 기다릴 수 있다. At this time, the control unit 180 may control to display a pop-up window for checking whether a word extracted as a keyword corresponds to a keyword desired by the user, referring to the highest frequency. If the user corresponds to a word to be displayed in the pop-up window, the user can press the OK button to proceed to the next step. However, if the word displayed in the popup window is not a word to be searched by the user, the user can press the cancel button. In this case, the control unit 180 may extract a word most frequently referred to next to the word displayed in the pop-up window. Then, the extracted keyword is displayed on the pop-up window and the user can wait for confirmation.

이상에서는 인식된 음성의 단어 별로 개수를 카운팅하여 가장 많이 언급되는 단어를 키워드로 추출하는 방법에 대해 살펴보았다.In the above, the method of counting the number of recognized voices and extracting the most frequently used words as keywords is described.

이하에서는 인식된 음성의 단어와 데이터베이스에 등록된 단어의 비교를 통해 키워드를 추출하는 방법에 대하여 살펴보도록 한다.Hereinafter, a method of extracting keywords by comparing the words of the recognized speech and the words registered in the database will be described.

도 7을 참고하면, 또 다른 실시예에 따른 이동 단말기(100)는 키워드가 사전 등록된 데이터베이스를 저장하는 메모리(160)를 포함할 수 있다. 즉, 사용자는 통화 중 음성 인식하여 검색 대상이 될 수 있는 키워드들에 대해 데이터베이스에 사전 등록할 수 있다(S710). Referring to FIG. 7, the mobile terminal 100 according to another embodiment may include a memory 160 storing a database in which keywords are pre-registered. That is, the user can pre-register the keywords that can be searched by speech recognition during the call in the database (S710).

예를 들면, 사용자는 자신이 관심 대상이 되는 상품이나 장소 등에 대한 단어들을 키워드로 하여 데이터베이스에 사전 등록시킬 수 있고, 상기 데이터베이스는 이동단말기(100)의 메모리부(160)에 저장되어 있을 수 있다. 즉, 사용자가 자주 가는 장소, 자주 먹는 음식, 자신의 취미 생활에 관련된 단어, 관심 상품 등을 키워드로 하여 데이터베이스에 등록시켜 놓을 수 있다.For example, the user may pre-register the words of the product or the place of interest of interest to the database as keywords, and the database may be stored in the memory unit 160 of the mobile terminal 100 . That is, the user can register his / her favorite places, frequent foods, words related to his / her hobbies, items of interest, etc. as keywords in the database.

그 후 상대방과 통화를 진행하는 중에 제어부(180)는 음성을 인식하여(S720), 인식된 음성의 단어들 중에서 상기 데이터베이스에 사전 등록된 키워드에 매칭되는 단어가 존재하는지 여부를 검색할 수 있다(S730). 상기 검색 결과 데이터베이스에 사전 등록된 키워드와 매칭되는 단어가 존재하는 경우, 제어부(180)는 그 단어를 키워드로서 추출할 수 있다(S740). Thereafter, the control unit 180 recognizes the voice during the conversation with the other party (S720), and searches whether there is a word matching the keyword registered in the database among the recognized voice words S730). If there is a word matching the pre-registered keyword in the search result database, the control unit 180 can extract the word as a keyword (S740).

이때, 상기 제어부(180)는 상기 데이터베이스를 검색하여 추출된 단어가 사용자가 원하는 키워드에 해당하는지 여부를 확인하기 위한 팝업창을 디스플레이하도록 제어할 수 있다.At this time, the control unit 180 may search the database and display a pop-up window for confirming whether the extracted word corresponds to a keyword desired by the user.

이상에서는 음성 인식된 단어와 데이터베이스에 등록된 단어의 비교를 통해 키워드를 추출하는 방법에 대하여 살펴보았다. 그러나, 실시예에 따라, 상기 음성 인식된 단어들 중에는 상기 데이터베이스에 키워드로 사전 등록된 단어와 매칭되는 단어가 두 개 이상 있을 수 있다. 이하에서는 상기 음성 인식된 단어들 중에 상기 데이터베이스에 키워드로 사전 등록된 단어와 매칭되는 단어가 두 개 이상 있는 경우에 키워드를 추출하는 방법에 대하여 살펴보도록 하겠다. In the above, a method of extracting keywords by comparing words recognized in speech with words registered in a database has been described. However, according to the embodiment, the speech recognition words may include two or more words matched with words pre-registered as keywords in the database. Hereinafter, a method of extracting keywords when there are two or more words matched with words pre-registered as keywords in the database is described.

도 8를 참고하면, 도 7에 도시된 실시예와 유사하게, 이동 단말기(100)는 키워드가 사전 등록된 데이터베이스를 저장하는 메모리(160)를 포함할 수 있다. 즉, 사용자는 통화 중 음성 인식하여 검색 대상이 될 수 있는 키워드들에 대해 데이터베이스에 사전 등록할 수 있다(S810). 상대방과 통화를 진행하는 중에 제어부(180)는 음성을 인식하여(S820), 인식된 음성의 단어들 중에서 상기 데이터베이스에 사전 등록된 키워드에 매칭되는 단어가 존재하는지 여부를 검색할 수 있다(S830). Referring to FIG. 8, similar to the embodiment shown in FIG. 7, the mobile terminal 100 may include a memory 160 in which a keyword stores a pre-registered database. That is, the user can pre-register the keywords that can be searched by speech recognition during the call in the database (S810). The control unit 180 recognizes the voice (S820) and searches whether there is a word matched to the keyword pre-registered in the database among the recognized voice words (S830) .

그 후 제어부(180)는 상기 음성 인식부(182)를 통해 음성 인식된 단어 중 상기 데이터베이스에 사전 등록된 키워드에 매칭되는 단어에 대하여, 통화 중 몇 번 인식되는지에 대하여 단어별로 카운팅을 할 수 있다(S840). Thereafter, the control unit 180 may count the number of times the speech is recognized during the conversation, for each word, which is matched to the keyword pre-registered in the database among the words recognized through the speech recognition unit 182 (S840).

그 후, 제어부(180)는 상기 데어터베이스에 저장된 키워드와 일치하는 단어들 중에서 가장 높은 빈도로 언급된 단어가 무엇인지 검색하여 키워드로서 추출할 수 있다(S850). 이때, 상기 제어부(180)는 가장 높은 빈도로 언급되어 키워드로 추출된 단어가 사용자가 원하는 키워드에 해당하는지 여부를 확인하기 위한 팝업창을 디스플레이하도록 제어할 수 있다.Thereafter, the control unit 180 may search for the word having the highest frequency among the words matching the keyword stored in the data base, and extract the word as a keyword (S850). At this time, the control unit 180 may control to display a pop-up window for checking whether a word extracted as a keyword corresponds to a keyword desired by the user, referring to the highest frequency.

실시예에 따라, 상기 제어부(180)는 통화 중 단어 별로 몇 번 언급하는지 여부를 먼저 카운팅한 후에, 가장 많이 언급된 단어 순서대로 데이터베이스에 키워드로 등록된 단어와 일치하는 단어가 있는지를 검색하여 키워드를 추출할 수도 있다. According to the embodiment, the control unit 180 first counts how many times to mention the words in a call, then searches the database for words that match the words registered as keywords in the order of the most frequently mentioned words, May be extracted.

도시되지 않았지만, 실시예에 따라 상기 데이터베이스에는 키워드가 우선 순위가 정해져서 등록되어 있을 수 있다. 즉, 사용자가 데이터베이스에 키워드를 등록하면서, 자주 검색하는 단어에 대해서는 우선 순위를 높게 설정하여 데이터베이스에 사전 등록할 수 있다. 이 경우에, 통화 중 인식되는 음성의 단어 중에서 데이터베이스에 키워드로 등록된 단어와 일치하는 단어가 수 개 존재하는 경우에, 제어부(180)는 상기 데이터베이스에 우선 순위가 높게 설정된 단어를 키워드로 추출할 수 있다. Although not shown, the database may be registered with priorities in the database according to an embodiment. That is, while the user registers the keyword in the database, it is possible to pre-register the word frequently searched by setting the priority to a high level in the database. In this case, when there are a plurality of words matching the words registered as keywords in the database among the words of the voice recognized during the conversation, the control unit 180 extracts words having a high priority in the database as keywords .

이때, 상기 제어부(180)는 가장 우선 순위가 높게 설정되어 키워드로 추출된 단어가 사용자가 원하는 키워드에 해당하는지 여부를 확인하기 위한 팝업창을 디스플레이하도록 제어할 수 있다. 사용자는 상기 팝업창에 디스플레이된 단어가 검색하고자 하는 키워드에 해당한다면 확인 버튼을 눌러 그 이후의 단계를 진행할 수 있다. 그러나, 상기 팝업창에 디스플레이된 단어가 사용자가 검색하고자 하는 키워드가 아닌 경우에는, 사용자는 취소 버튼을 누를 수 있다. 그 경우에는 상기 제어부(180)는 상기 음성 인식된 단어 중에서 상기 팝업창에 디스플레이되었던 단어 다음의 우선 순위를 갖는 단어를 키워드로 추출할 수 있다. 그 후 팝업창에 상기 추출된 키워드를 디스플레이하여 사용자의 확인을 기다릴 수 있다. At this time, the controller 180 may control to display a pop-up window for confirming whether a word extracted as a keyword corresponds to a keyword desired by the user with the highest priority set. If the user corresponds to the keyword to be searched for in the pop-up window, the user can press the OK button to proceed to the next step. However, if the word displayed in the pop-up window is not a keyword to be searched by the user, the user can press the cancel button. In this case, the control unit 180 may extract a word having a priority level next to the word displayed in the pop-up window from among the words recognized as a keyword. Then, the extracted keyword is displayed on the pop-up window and the user can wait for confirmation.

상기 데이터베이스에 등록된 키워드의 우선 순위는 음성 인식을 통해 검색을 진행하면서 계속해서 변경되어 저장될 수 있다. 즉, 검색을 진행한 단어가 있으면 그 단어에 대해서는 우선 순위가 상승할 수 있다. 이 우선 순위의 변경은 사용자의 명령에 따라 이루어질 수도 있다. The priority of the keyword registered in the database can be continuously changed and stored while searching through speech recognition. That is, if there is a word that has been searched for, the priority of the word may increase. The change of the priority may be made according to a command of the user.

이상에서는 음성 인식된 단어들 중에 데이터베이스에 키워드로 사전 등록된 단어와 매칭되는 단어가 두 개 이상 있는 경우에 키워드를 추출하는 방법에 대하여 살펴보았다.In the above, a method of extracting keywords when there are two or more words that match the words pre-registered as keywords among the words recognized in the database is described.

그러나, 실시예에 따라 음성 인식된 단어들 중 어느 하나도 상기 데이터베이스에 키워드로 등록된 단어와 매칭되지 않을 수 있다. 이하에서는 음성 인식된 단어들 중 어느 하나도 데이터베이스에 키워드로 등록된 단어와 매칭되지 않는 경우에 키워드를 추출하는 방법에 대하여 살펴보도록 한다. However, according to the embodiment, any one of the words recognized as speech may not be matched with a keyword registered as a keyword in the database. Hereinafter, a method of extracting keywords when any one of the recognized words does not match a word registered as a keyword in the database will be described.

도 9를 참고하면, 음성 인식된 단어들 중 어느 하나도 상기 데이터베이스에 키워드로 등록된 단어와 매칭되지 않는 경우에는, 상기 제어부(180)는 상술한 바와 같이, 음성 인식된 단어들 중에서 가장 많이 언급된 단어를 키워드로 추출할 수 있다. 즉, 사용자는 통화 중 음성 인식하여 검색 대상이 될 수 있는 키워드들에 대해 데이터베이스에 사전 등록하여 메모리(160)에 저장할 수 있다(S910). 상대방과 통화를 진행하는 중에 제어부(180)는 음성을 인식하여(S920), 인식된 음성의 단어들 중에서 상기 데이터베이스에 사전 등록된 키워드에 매칭되는 단어가 존재하는지 여부를 검색할 수 있다(S930). 음성 인식된 단어들 중 데이터베이스에 사전 등록된 키워드와 일치하는 단어가 존재하는 경우에는 제어부(180)는 상기 일치하는 단어를 키워드로 추출할 수 있다(S940, S950). Referring to FIG. 9, when any one of the recognized words does not match a word registered as a keyword in the database, the controller 180 determines whether the word most recognized Words can be extracted as keywords. That is, the user may pre-register the keywords that are to be searched by speech recognition during the call and store them in the memory 160 (S910). The control unit 180 recognizes the voice (S920) and searches whether there is a word matching the keyword registered in the database among the recognized voice words (S930) . If there is a word that matches the keyword pre-registered in the database among the speech-recognized words, the control unit 180 can extract the matching word as a keyword (S940, S950).

그러나, 상기 음성 인식된 단어들 중 데이터베이스에 사전 등록된 키워드와 일치하는 단어가 없는 경우에는, 제어부(180)는 상기 음성 인식부(182)를 통해 인식된 음성의 단어들에 대해 통화 중 몇 번 인식되는지 단어 별로 카운팅을 할 수 있다(S960). 그 후 제어부(180)는 상기 카운팅된 단어들 중에서 어느 단어가 가장 많이 통화 중 언급되었는지에 대하여 판단하여, 가장 많이 언급된 단어를 상기 인식된 음성의 키워드로 추출할 수 있다(S970).However, if there is no word that matches the keyword pre-registered in the database among the voice-recognized words, the control unit 180 notifies the voice recognition unit 182 of the voice words recognized several times It is possible to count by word or word (S960). Thereafter, the control unit 180 determines which word among the counted words is most frequently referred to during conversation, and extracts the most-mentioned word as a keyword of the recognized voice (S970).

도시되지 않았지만, 이 경우 사용자의 명령에 따라 상기 키워드로 추출된 단어를 데이터베이스에 키워드로 등록하여 메모리에 저장할 수 있다. 데이터베이스를 업데이트 함으로써, 이후에 사용자가 통화를 진행하는 경우에 데이터베이스를 검색하여 추출될 수 있는 키워드가 많아짐으로써 더욱 빠르고 편리하게 음성 검색을 진행할 수 있다.Although not shown, in this case, a word extracted by the keyword according to a command of the user can be registered as a keyword in a database and stored in a memory. By updating the database, when a user proceeds to a call in the future, the number of keywords that can be extracted by searching the database is increased, so that the voice search can be performed more quickly and conveniently.

이상에서는 인식된 음성의 단어들 중에서 키워드를 추출하는 방법에 대해서 살펴보았다.In the above, a method of extracting keywords from recognized speech words was discussed.

이하에서는 인식된 음성의 단어들 중에서 추출된 키워드에 대한 검색을 진행하는 방법에 대해서 구체적으로 살펴보도록 한다.Hereinafter, a method of searching for extracted keywords among recognized words of speech will be described in detail.

도 10은 이동 단말기에서 통화 중 인식된 음성의 단어들 중에서 추출된 키워드에 대하여 검색을 진행하는 방법에 대한 흐름도이다.10 is a flowchart illustrating a method of searching for extracted keywords among words of voice recognized during a call in a mobile terminal.

실시예에 따른 이동 단말기(100)는 통화 중 음성을 인식하고, 인식된 음성의 단어들 중에서 상술한 바와 같이 소정의 단어를 키워드로 추출한다(S1010). 그 후 제어부(180)는 추출된 키워드에 해당하는 정보를 통화 중 또는 통화 종료 후에 자동으로 검색할 수 있다. The mobile terminal 100 according to the embodiment recognizes a voice during a call and extracts a predetermined word from the recognized voice words as a keyword as described above (S1010). Thereafter, the control unit 180 can automatically search for the information corresponding to the extracted keyword, either during a call or after the end of a call.

실시예에 따라 이동 단말기(100)는 메모리(160)에 사용자에 의해 사전 등록된 키워드가 저장된 데이터베이스를 포함할 수 있다. 이 경우, 상기 메모리(160)의 데이터베이스에는 해당 키워드와 함께 링크된 정보가 함께 등록되어 저장되어 있을 수 있다(S1020). 즉, 데이터베이스에는 사용자에 의해 키워드가 사전 등록되어 있고, 사용자가 키워드를 등록하면서 그 키워드에 해당하는 필요한 정보를 함께 데이터베이스에 등록하여 메모리(160)에 저장하여 놓을 수 있다. 예를 들면, 특정 장소가 키워드로 등록된 경우라면 그 장소에 갈 수 있는 대중교통편, 그 장소에 있는 맛집, 관광지, 유적지 등에 대한 정보를 사용자가 해당 키워드에 링크시켜 데이터베이스에 사전 등록시킬 수 있다. 그 후, 제어부(180)는 인식된 음성에서 추출된 키워드에 해당하는 정보를 얻기 위해 통화 중 또는 통화 종료 후 상기 데이터베이스를 검색할 수 있다(S1030). According to an embodiment, the mobile terminal 100 may include a database in which a keyword pre-registered by a user is stored in the memory 160. [ In this case, the linked information may be registered together with the keyword in the database of the memory 160 (S1020). That is, the keyword is pre-registered by the user in the database, and when the user registers the keyword, necessary information corresponding to the keyword may be registered together in the database and stored in the memory 160. For example, if a specific place is registered as a keyword, the user can link information on public transportation, a restaurant, a tourist spot, a historical place, and the like, which can go to the place, in advance in the database. Then, the control unit 180 may search the database during or after the call to obtain information corresponding to the keyword extracted from the recognized voice (S1030).

상기 데이터베이스를 검색한 결과 추출된 키워드에 해당하는 정보가 검색된 경우에는(S1040), 제어부(180)는 검색된 결과를 상기 이동 단말기(100)에 출력할 수 있다(S1060). If the information corresponding to the extracted keyword is searched as a result of searching the database (S 1040), the controller 180 may output the searched result to the mobile terminal 100 (S 1060).

실시예에 따라, 상기 데이터베이스는 해당 키워드에 해당하는 정보를 저장하고 있지 않을 수 있다. 이 경우, 제어부(180)는 이동 단말기를 무선 인터넷에 연결시켜 키워드에 해당하는 정보를 검색할 수 있다(S1050). According to an embodiment, the database may not store information corresponding to the keyword. In this case, the controller 180 may search the information corresponding to the keyword by connecting the mobile terminal to the wireless Internet (S1050).

구체적으로, 제어부(180)는 무선 인터넷 모듈(113)을 이용하여 특정 웹사이트에 접속한다. 그리고, 접속된 웹사이트를 통해 상기 추출된 키워드를 검색어로 인터넷 검색을 실행한다. 상기 특정 웹사이트는 사용자에 의해 사전 설정되어 있을 수 있고, 또는 검색을 진행하기 전에 사용자에게 어떤 웹사이트에 접속할 것인지를 묻는 창이 추가로 디스플레이될 수도 있다. 이동 단말기(100)는 무선 인터넷 모듈(113)을 통해 인터넷 서버에 접속하고, 상기 추출된 키워드를 검색어로 하여 무선 전송한다. 사용자의 이동 단말기(100)로부터 전송된 키워드는 인터넷 서버에 전달되고, 인터넷 서버는 키워드를 검색어로 하여 소정의 정보 검색 과정을 수행한다. 인터넷 서버는 상기 정보 검색 결과를 사용자의 이동 단말기(100)로 전송한다. 인터넷 서버로부터 전송된 검색 결과는 이동 단말기(100)의 디스플레이부(151)를 통해 출력될 수 있다(S1060).Specifically, the control unit 180 accesses a specific web site by using the wireless Internet module 113. Then, the retrieved keyword is retrieved from the retrieved web site through the connected web site. The particular web site may be preset by the user or may be further displayed with a window asking the user what web site to access before proceeding with the search. The mobile terminal 100 connects to the Internet server through the wireless Internet module 113 and wirelessly transmits the extracted keyword as a search word. The keyword transmitted from the user's mobile terminal 100 is transmitted to the Internet server, and the Internet server performs a predetermined information search process using the keyword as a search word. The Internet server transmits the information search result to the user's mobile terminal (100). The search result transmitted from the Internet server may be output through the display unit 151 of the mobile terminal 100 (S1060).

실시예에 따라 추출된 키워드에 대하여 인터넷 검색이 실행 중이면, 제어부(180)는 인터넷 검색이 실행중임을 알리는 인디케이터를 디스플레이부(151)의 일 영역에 표시할 수 있다. 그리고, 인터넷 검색이 완료되면, 제어부(180)는 인터넷 검색이 완료되었음을 알리는 인디케이터를 디스플레이부(151)의 일 영역에 표시할 수 있다. 사용자는 인디케에터를 보고 현재 인터넷 검색이 진행중인 것임을 알 수 있어, 인터넷 검색을 원치 않으면 검색을 중지할 수 있다. If the Internet search is being executed for the extracted keyword according to the embodiment, the controller 180 may display an indicator indicating that the Internet search is being executed in one area of the display unit 151. [ When the Internet search is completed, the control unit 180 may display an indicator indicating that the Internet search is completed in one area of the display unit 151. The user can view the indicator and know that the Internet search is currently in progress, and if he does not want to search the internet, he can stop the search.

이상에서는 인식된 음성의 단어들 중에서 추출된 키워드에 대한 검색을 진행하는 방법에 대해서 살펴보았다. In the above, a method of searching for extracted keywords among recognized words of speech has been described.

이하에서는 이동 단말기의 위치 정보를 활용하여 인식된 음성의 단어들 중에서 추출된 키워드에 대한 검색을 진행하는 방법에 대해서 살펴보도록 한다.Hereinafter, a method of searching for extracted keywords from recognized voice words using position information of the mobile terminal will be described.

도 11은 일실시예에 따라 이동 단말기에서 이동 단말기의 위치를 산출하고, 통화 중 인식된 음성의 단어들 중에서 추출된 키워드에 대하여 검색을 진행하는 방법에 대한 흐름도이고, 도 12는 이동 단말기의 위치에 따른 키워드 검색 결과를 예시한 도면이다.FIG. 11 is a flowchart illustrating a method of calculating a location of a mobile terminal in a mobile terminal according to an exemplary embodiment of the present invention, and searching for extracted keywords among words of voice recognized during a call. FIG. And FIG.

실시예에 따라, 이동 단말기(100)는 위치정보 모듈(115)을 더 포함할 수 있다. 이때, 제어부(180)는 상기 위치정보 모듈(115)로부터 통화 중 이동 단말기(100)의 위치를 산출하고, 추출된 키워드와 상기 산출된 위치에 공히 해당하는 정보를 검색할 수 있다. According to an embodiment, the mobile terminal 100 may further include a location information module 115. At this time, the controller 180 may calculate the location of the mobile terminal 100 during the call from the location information module 115, and may search for information corresponding to the extracted keyword and the calculated location.

도 11을 참조하면, 실시예에 따른 이동 단말기(100)는 통화 중 음성을 인식하고, 인식된 음성의 단어들 중에서 상술한 바와 같이 소정의 단어를 키워드로 추출한다(S1110). 또한 제어부(180)는 상기 위치 정보 모듈(115)을 통해 통화 중 이동 단말기(100)의 위치를 산출하고(S1120), 산출된 위치를 이동 단말기(100)의 메모리(160)에 저장할 수도 있다.Referring to FIG. 11, the mobile terminal 100 according to the embodiment recognizes a voice during a call and extracts a predetermined word from the recognized voice words as described above (S1110). The control unit 180 may calculate the position of the mobile terminal 100 during the call through the position information module 115 and store the calculated position in the memory 160 of the mobile terminal 100. [

이때, 상기 제어부(180)는 상기 위치정보 모듈(115)로부터 산출된 이동 단말기(100)의 위치를 상기 추출된 키워드와 함께 정보 검색에 활용할 수 있다(S1130).At this time, the control unit 180 may utilize the position of the mobile terminal 100 calculated from the position information module 115 together with the extracted keyword for information search (S1130).

즉, 상기 제어부(180)는 추출된 키워드와 산출된 위치를 함께 검색어로 무선 인터넷 검색을 진행할 수 있다. 예를 들면, 특정 상품이 키워드로 추출되어 상기 추출된 키워드인 상품 명칭으로 검색하는 경우, 제어부(180)는 현재 이동 단말기(100)의 산출된 위치도 함께 검색어로 검색을 진행할 수 있다. 이 경우, 현재 사용자가 위치하는 지역의 근처에 상기 상품을 판매하는 장소가 어디인지에 대한 정보가 검색되어 사용자에게 제공될 수 있다. That is, the controller 180 can search for the extracted keyword and the calculated location together with a search word. For example, when a specific product is extracted as a keyword and a search is performed using a product name that is the extracted keyword, the control unit 180 can search for the calculated position of the current mobile terminal 100 together with a search term. In this case, information on where the merchandise is to be sold may be searched and provided to the user in the vicinity of the area where the current user is located.

도 12를 참고하면, 이동 단말기(100)가 A지역에 위치하는 경우에, 제어부(180)는 이동 단말기(100)의 위치정보 모듈(115)로부터 이동 단말기(100)의 위치를 산출한다. 통화를 진행하는 중 인식된 음성의 단어들 중에서 "피자"가 키워드로 추출된 경우에, 제어부(180)는 상기 산출된 이동 단말기(100)의 위치인 A지역에 대한 정보와 "피자"를 검색어로 하여 검색을 진행할 수 있다. 그 후 제어부(180)는 검색 결과를 도시된 바와 같이 디스플레이부(151)에 디스플레이할 수 있다. 도면에서는 A지역에 위치하는 피자 판매점에 대한 정보가 디스플레이되는 것이 예시되어 있다. 또한, 이동 단말기(100)가 B지역에 위치하는 경우에는 제어부(180)는 이동 단말기(100)의 위치를 산출하고, 추출된 키워드인 "피자"와 B지역에 대한 정보를 함께 검색하여 그 결과를 디스플레이부(151)에 디스플레이할 수 있다. 도면에서는 B지역에 위치하는 피자 판매점에 대한 정보가 디스플레이되는 것이 예시되어 있다.12, when the mobile terminal 100 is located in area A, the controller 180 calculates the location of the mobile terminal 100 from the location information module 115 of the mobile terminal 100. In the case where the word "pizza" is extracted from the words of the recognized voice in the course of the call, the control unit 180 transmits information about the area A, which is the calculated position of the mobile terminal 100, And the search can proceed. Thereafter, the control unit 180 may display the search result on the display unit 151 as shown in FIG. In the figure, it is illustrated that information on a pizza outlet located in area A is displayed. When the mobile terminal 100 is located in area B, the controller 180 calculates the location of the mobile terminal 100, searches for information about the extracted keywords "pizza" and area B, On the display unit 151. [0064] FIG. In the figure, it is illustrated that information about a pizza outlet located in the area B is displayed.

이렇게 함으로써, 이동 단말기(100)의 사용자는 자신이 위치하는 주변에서 추출된 키워드에 해당하는 정보를 얻을 수 있어 검색된 정보를 더욱 유용하게 활용할 수 있다.By doing so, the user of the mobile terminal 100 can obtain the information corresponding to the extracted keyword in the vicinity of the user of the mobile terminal 100, thus making it possible to utilize the searched information more effectively.

이상에서는 인식된 음성의 단어들 중에서 추출된 키워드에 대한 검색을 진행하는 방법에 대해서 살펴보았다.In the above, a method of searching for extracted keywords among recognized words of speech has been described.

이하에서는 추출된 키워드에 대한 검색 결과를 출력하는 방법에 대해 살펴보도록 한다.Hereinafter, a method of outputting search results for extracted keywords will be described.

실시예에 따른 이동 단말기(100)의 제어부(180)는, 통화 중 음성 인식된 단어에서 추출된 소정의 키워드에 대하여 통화 중 또는 통화 종료 후 자동으로 해당하는 정보를 검색한다. 이후 제어부(180)는 이렇게 검색된 키워드에 해당하는 정보를 이동 단말기(100)의 디스플레이부(151)에 디스플레이하도록 제어할 수 있다. 예를 들면 도 4c 또는 도 4d에 도시된 바와 같이 키워드에 대한 검색 결과가 통화 중 디스플레이부(151)에 디스플레이되거나, 통화 종료 후 디스플레이부(151)에 디스플레이되어 사용자에게 키워드에 대한 정보를 제공할 수 있다.The control unit 180 of the mobile terminal 100 according to the embodiment automatically searches for a predetermined keyword extracted from a word recognized in speech during a call or after the call ends. The control unit 180 may then control the display unit 151 of the mobile terminal 100 to display information corresponding to the searched keywords. For example, as shown in FIG. 4C or FIG. 4D, a search result for a keyword may be displayed on the display 151 during a call or displayed on the display 151 after a call is terminated, .

또는, 제어부(180)는 상기 검색된 정보를 메모리(160)에 저장하도록 제어할 수 있다. 이 경우 사용자는 언제라도 필요한 정보를 언제라도 메모리(160)를 검색하여 찾아 볼 수 있다. Alternatively, the control unit 180 may control the retrieved information to be stored in the memory 160. In this case, the user can search for and search the memory 160 at any time for necessary information at any time.

또한 상기 검색된 정보는 사용자의 명령에 따라 메모리(160)의 데이터베이스에 등록될 수 있다. 예를 들면 도 11에서 무선 인터넷 검색을 통해 키워드에 대한 검색이 이루어진 경우에, 검색 결과를 메모리(160)의 데이터베이스에 해당 키워드와 함께 링크시켜 저장할 수 있다. 이 경우, 사용자가 다른 통화를 진행하는 중 동일한 키워드가 추출된 경우 무선 인터넷 검색을 거치지 않고 메모리(160)를 검색하는 것만으로 빠르게 원하는 정보를 얻을 수 있다.The retrieved information may be registered in the database of the memory 160 according to a user's command. For example, when a search for a keyword is performed through a wireless Internet search in FIG. 11, the search result may be linked to the database of the memory 160 together with the keyword and stored. In this case, if the same keyword is extracted while the user proceeds another call, desired information can be quickly obtained by searching the memory 160 without going through the wireless Internet search.

실시예에 따라 상기 검색된 정보는 통화의 상대방의 이동 단말기로 무선 통신부(110)를 통해 전송될 수 있다. 이렇게 함으로써 통화 중 추출된 키워드에 대한 정보를 사용자와 상대방이 함께 공유할 수 있다. The retrieved information may be transmitted through the wireless communication unit 110 to the mobile terminal of the other party according to the embodiment. By doing so, the user and the other party can share information about the keywords extracted during the call.

실시예에 따라, 이동 단말기(100)의 사용자가 상대방과 화상 통화를 진행하는 경우에 상기 검색 결과에 대하여 상대방과 함께 통화 중 정보를 공유할 수 있다. According to the embodiment, when the user of the mobile terminal 100 proceeds with the video call with the other party, the user can share the busy information with the other party with respect to the search result.

도 13a 및 도 13b는 일실시예에 따른 이동 단말기에서 화상 통화 중 추출된 키워드에 대한 검색 결과를 출력하는 것을 예시한 도면이다.13A and 13B illustrate outputting search results for keywords extracted during a video call in a mobile terminal according to an exemplary embodiment of the present invention.

도 13a에 도시된 바와 같이 사용자가 상대방과 화상 통화를 진행하는 경우에는, 제어부(180)는 화상 통화 중 마이크(122) 또는 무선 통신부(110)를 통해 입력되는 사용자 또는 상대방의 음성을 인식하여, 인식된 음성의 단어들 중 소정의 단어를 키워드로 추출할 수 있다. 그 후, 제어부(180)는 화상 통화를 진행하는 중에 상기 추출된 키워드에 해당하는 정보를 검색할 수 있다. 13A, when the user proceeds with the video communication with the other party, the control unit 180 recognizes the voice of the user or the other party input through the microphone 122 or the wireless communication unit 110 during the video call, A predetermined word among the words of the recognized voice can be extracted as a keyword. Thereafter, the control unit 180 can search for information corresponding to the extracted keyword while proceeding with the video call.

그 후 도 13b에 도시된 바와 같이, 이동 단말기(100)의 제어부(180)는 상기 검색된 정보를 화상 통화의 상대방에게 사용자의 영상 대신 전송할 수 있다. 상대방의 이동단말기(200)는 사용자 영상 대신 상기 검색된 정보를 수신하여 디스플레이부에 상기 정보를 디스플레이할 수 있다. 도면에서는 키워드로 "피자"가 추출되고 "피자"에 대한 정보를 검색하여, 검색 결과를 사용자 영상 대신 상대방 이동 단말기(200)로 전송하는 것이 도시되어 있다. 13B, the control unit 180 of the mobile terminal 100 may transmit the searched information to the other party of the video call instead of the user's video. The mobile terminal 200 of the other party can receive the retrieved information instead of the user image and display the information on the display unit. In the figure, it is shown that "pizza" is extracted as a keyword, information about "pizza" is searched, and the search result is transmitted to the counterpart mobile terminal 200 instead of the user image.

이렇게 함으로써 영상 통화를 진행하면서 상대방과 상기 검색된 정보를 공유하여 추가 통화 등 없이도 사용자와 상대방이 원하는 대화를 계속 진행해 나갈 수 있다.By doing so, the user can share the retrieved information with the other party while continuing the video call so that the user can continue the conversation desired by the user without further communication.

또한, 본 발명의 일실시예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함된다. 또한, 상기 컴퓨터는, 단말기의 제어부(180)를 포함할 수도 있다. Further, according to an embodiment of the present invention, the above-described method can be implemented as computer-readable code on a medium on which a program is recorded. The computer readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of the computer-readable medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and may be implemented in the form of a carrier wave (for example, transmission over the Internet) . In addition, the computer may include a control unit 180 of the terminal.

본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다.It will be apparent to those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof.

따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.Accordingly, the above description should not be construed in a limiting sense in all respects and should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention.

100: 이동단말기 110: 무선통신부
120: A/V 입출력부 130: 사용자 입력부
140: 센싱부 150: 출력부
160: 메모리 170: 인터페이스부
180: 제어부 190: 전원공급부
100: mobile terminal 110: wireless communication unit
120: A / V input / output unit 130: user input unit
140: sensing unit 150: output unit
160: memory 170: interface section
180: control unit 190: power supply unit

Claims (6)

디스플레이부; 및
통화 중 음성을 인식하고, 상기 인식된 음성의 단어들 중에서 소정 단어를 키워드로서 추출하고, 통화 중 또는 통화 종료 후 상기 키워드에 해당하는 정보를 자동으로 검색하고, 상기 검색된 정보를 상기 디스플레이부에 디스플레이하도록 제어하는 제어부;를 포함하는 이동 단말기.
A display unit; And
The method comprising the steps of: recognizing a voice in a call; extracting a predetermined word from the recognized voice words as a keyword; automatically searching for information corresponding to the keyword during or after a call is terminated; And a control unit for controlling the mobile terminal.
제1 항에 있어서, 키워드가 사전 등록된 데이터베이스를 저장하는 메모리부를 더 포함하고, 상기 제어부는 상기 데이터베이스를 검색하여 상기 단어들 중에서 상기 사전 등록된 키워드에 매칭되는 단어를 상기 키워드로서 추출하는 것을 특징으로 하는 이동 단말기.The information processing apparatus according to claim 1, further comprising a memory unit for storing a database in which keywords are pre-registered, wherein the control unit searches the database and extracts a word matched to the pre-registered keyword among the words as the keyword . 제1 항에 있어서, 상기 제어부는 상기 단어들 중에서 빈도수가 가장 높은 단어를 키워드로서 추출하는 것을 특징으로 하는 이동 단말기.The mobile terminal of claim 1, wherein the controller extracts a word having the highest frequency among the words as a keyword. 제1 항에 있어서, 위치정보 모듈을 더 포함하고, 상기 제어부는 상기 위치정보 모듈로부터 이동 단말기의 위치를 산출하고, 상기 키워드와 상기 산출된 위치에 공히 해당하는 정보를 검색하는 것을 특징으로 하는 이동 단말기.The mobile terminal according to claim 1, further comprising a location information module, wherein the controller calculates a location of the mobile terminal from the location information module, and searches the information corresponding to the keyword and the calculated location terminal. 제1 항에 있어서, 상기 통화는 화상 통화이고, 통화 중 상기 정보가 검색되는 경우, 상기 제어부는 화상 통화의 상대방에게 사용자 영상 대신 상기 검색된 정보를 전송하는 것을 특징으로 하는 이동 단말기.The mobile terminal of claim 1, wherein the call is a video call, and when the information is searched during the call, the control unit transmits the searched information instead of the user image to the other party of the video call. 통화 중 음성을 인식하는 단계;
상기 인식된 음성의 단어들 중에서 소정 단어를 키워드로서 추출하는 단계;
통화 중 또는 통화 종료 후 상기 키워드에 해당하는 정보를 자동으로 검색하는 단계; 및
상기 검색된 정보를 디스플레이하는 단계;를 포함하는 이동 단말기 제어 방법.
Recognizing a voice in a call;
Extracting a predetermined word from among the words of the recognized voice as a keyword;
Automatically searching for information corresponding to the keyword during or after a call; And
And displaying the searched information.
KR1020120121932A 2012-10-31 2012-10-31 Mobile terminal and method for controlling the same KR20140055302A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120121932A KR20140055302A (en) 2012-10-31 2012-10-31 Mobile terminal and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120121932A KR20140055302A (en) 2012-10-31 2012-10-31 Mobile terminal and method for controlling the same

Publications (1)

Publication Number Publication Date
KR20140055302A true KR20140055302A (en) 2014-05-09

Family

ID=50886985

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120121932A KR20140055302A (en) 2012-10-31 2012-10-31 Mobile terminal and method for controlling the same

Country Status (1)

Country Link
KR (1) KR20140055302A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107450744A (en) * 2017-07-13 2017-12-08 维沃移动通信有限公司 A kind of personal data inputting method and mobile terminal
KR20190009201A (en) * 2017-07-18 2019-01-28 엘지전자 주식회사 Mobile terminal and method for controlling the same
JPWO2018073907A1 (en) * 2016-10-19 2019-03-28 三菱電機株式会社 Speech recognition apparatus and speech recognition method
EP3522509A4 (en) * 2016-11-17 2020-05-20 LG Electronics Inc. Display device and operational method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100007625A (en) * 2008-07-14 2010-01-22 엘지전자 주식회사 Mobile terminal and method for displaying menu thereof
KR20120110833A (en) * 2011-03-30 2012-10-10 엘지전자 주식회사 Mobiel terminal and mehtod for controlling the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100007625A (en) * 2008-07-14 2010-01-22 엘지전자 주식회사 Mobile terminal and method for displaying menu thereof
KR20120110833A (en) * 2011-03-30 2012-10-10 엘지전자 주식회사 Mobiel terminal and mehtod for controlling the same

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018073907A1 (en) * 2016-10-19 2019-03-28 三菱電機株式会社 Speech recognition apparatus and speech recognition method
EP3522509A4 (en) * 2016-11-17 2020-05-20 LG Electronics Inc. Display device and operational method thereof
EP3799405A1 (en) * 2016-11-17 2021-03-31 LG Electronics Inc. Display device and operational method thereof
US11089149B2 (en) 2016-11-17 2021-08-10 Lg Electronics Inc. Display device and operating method thereof
CN107450744A (en) * 2017-07-13 2017-12-08 维沃移动通信有限公司 A kind of personal data inputting method and mobile terminal
CN107450744B (en) * 2017-07-13 2024-03-01 维沃移动通信有限公司 Personal information input method and mobile terminal
KR20190009201A (en) * 2017-07-18 2019-01-28 엘지전자 주식회사 Mobile terminal and method for controlling the same

Similar Documents

Publication Publication Date Title
KR101961139B1 (en) Mobile terminal and method for recognizing voice thereof
KR101952179B1 (en) Mobile terminal and control method for the mobile terminal
US9639251B2 (en) Mobile terminal and method of controlling the mobile terminal for moving image playback
KR101755376B1 (en) Method for controlling using voice action and the mobile terminal
KR101997449B1 (en) Mobile terminal and controlling method thereof
CN103941959A (en) Electronic device and method of controlling the same
KR20090107365A (en) Mobile terminal and its menu control method
CN103491225A (en) Mobile terminal and controlling method thereof
KR20090107364A (en) Mobile terminal and its menu control method
KR20150086030A (en) Mobile terminal and controlling method thereof
CN103811005A (en) Mobile terminal and control method thereof
CN105306815A (en) Shooting mode switching device, method and mobile terminal
KR101992194B1 (en) Mobile terminal and controlling method thereof
KR101798968B1 (en) Mobiel Terminal And Mehtod For Controlling The Same
CN106024013B (en) Voice data searching method and system
KR20140055302A (en) Mobile terminal and method for controlling the same
KR20150085749A (en) Mobile terminal and controlling method thereof
KR20140007512A (en) Terminal and method for controlling the same
KR101971967B1 (en) Mobile terminal and controlling method thereof
KR20140002170A (en) Mobile terminal
KR101997448B1 (en) Mobile terminal and method for controlling mobile terminal
KR101691234B1 (en) Method for outputting a stereophonic sound in mobile terminal and mobile terminal using the same
KR20150092624A (en) Electronic device and control method thereof
KR20140049256A (en) Mobile terminal and method for controlling the same
KR101997444B1 (en) Mobile terminal and method for controlling mobile terminal

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application