KR102643172B1 - Display apparatus, voice acquiring apparatus and voice recognition method thereof - Google Patents

Display apparatus, voice acquiring apparatus and voice recognition method thereof Download PDF

Info

Publication number
KR102643172B1
KR102643172B1 KR1020230016144A KR20230016144A KR102643172B1 KR 102643172 B1 KR102643172 B1 KR 102643172B1 KR 1020230016144 A KR1020230016144 A KR 1020230016144A KR 20230016144 A KR20230016144 A KR 20230016144A KR 102643172 B1 KR102643172 B1 KR 102643172B1
Authority
KR
South Korea
Prior art keywords
voice
voice recognition
external
receiver
recognition function
Prior art date
Application number
KR1020230016144A
Other languages
Korean (ko)
Other versions
KR20230022930A (en
Inventor
최찬희
장종혁
류희섭
박경미
박승권
배재현
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020200094662A external-priority patent/KR102262050B1/en
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020230016144A priority Critical patent/KR102643172B1/en
Publication of KR20230022930A publication Critical patent/KR20230022930A/en
Priority to KR1020240027667A priority patent/KR20240031995A/en
Application granted granted Critical
Publication of KR102643172B1 publication Critical patent/KR102643172B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/22Interactive procedures; Man-machine interfaces
    • G10L17/24Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network
    • H04N21/43637Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network involving a wireless protocol, e.g. Bluetooth, RF or wireless LAN [IEEE 802.11]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4852End-user interface for client configuration for modifying audio parameters, e.g. switching between mono and stereo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results

Abstract

본 발명은 디스플레이장치, 음성취득장치 및 그 음성인식방법에 관한 것으로서, 디스플레이장치는, 영상을 표시하는 디스플레이부와; 복수의 외부기기와 통신을 수행하는 통신부와; 사용자가 발화한 음성을 인식하는 음성인식엔진을 포함하며, 음성취득부로부터 음성신호를 수신하고, 상기 수신된 음성신호를 인식하기 위한 후보 명령어를 상기 복수의 외부기기 중 적어도 하나로부터 수신하도록 상기 통신부를 제어하는 제어부를 포함한다. 이에 의하여, 다양한 음성취득장비의 활용도를 높이고 이를 이용한 연계 서비스가 가능하며, 음성인식을 위한 후보 명령어들을 동적으로 등록/삭제 가능하도록 함으로써, 처리속도 지연이나 인식률 저하 등의 문제에 유연하게 대처하여 전체 음성인식시스템의 효율을 높일 수 있다. The present invention relates to a display device, a voice acquisition device, and a voice recognition method thereof, wherein the display device includes a display unit that displays an image; a communication unit that communicates with a plurality of external devices; It includes a voice recognition engine that recognizes a voice uttered by a user, and the communication unit receives a voice signal from a voice acquisition unit and receives a candidate command for recognizing the received voice signal from at least one of the plurality of external devices. It includes a control unit that controls. As a result, it is possible to increase the utilization of various voice acquisition equipment and provide linked services using them, and by allowing candidate commands for voice recognition to be dynamically registered/deleted, flexibly coping with problems such as processing delay or low recognition rate The efficiency of the voice recognition system can be improved.

Description

디스플레이장치, 음성취득장치 및 그 음성인식방법{DISPLAY APPARATUS, VOICE ACQUIRING APPARATUS AND VOICE RECOGNITION METHOD THEREOF}Display device, voice acquisition device, and voice recognition method {DISPLAY APPARATUS, VOICE ACQUIRING APPARATUS AND VOICE RECOGNITION METHOD THEREOF}

본 발명은 디스플레이장치, 음성취득장치 및 그 음성인식방법에 관한 것으로서, 보다 상세하게는 사용자가 발화한 음성을 인식하는 디스플레이장치, 음성취득장치 및 그 음성인식방법에 관한 것이다.The present invention relates to a display device, a voice acquisition device, and a voice recognition method thereof, and more specifically, to a display device that recognizes a voice uttered by a user, a voice acquisition device, and a voice recognition method thereof.

사용자가 발화한 음성을 인식하는 음성인식기능을 갖는 전자기기의 사용이 점차 늘어나고 있다. 음성인식은 PC, 이동통신기기뿐만 아니라 디지털 TV, 에어컨, 홈시어터 등과 같은 다양한 전자기기에서도 적극적으로 사용되는 추세이다.The use of electronic devices with a voice recognition function that recognizes the voice uttered by the user is gradually increasing. Voice recognition is being actively used not only in PCs and mobile communication devices, but also in various electronic devices such as digital TVs, air conditioners, and home theaters.

이러한 음성인식기능을 수행하기 위해서는, TV와 같은 메인기기에 사용자가 발화한 음성을 입력받는 마이크와 입력된 음성을 인식하는 음성인식엔진을 마련하고, 음성인식엔진은 마이크로 입력된 음성을 미리 저장된 후보 명령어와 비교하여, 그 결과에 따라 발화된 음성을 인식할 수 있다.In order to perform this voice recognition function, a microphone that receives the voice spoken by the user is installed in the main device, such as a TV, and a voice recognition engine that recognizes the input voice. The voice recognition engine converts the voice input into the microphone into pre-stored candidates. By comparing it with the command, the voice uttered can be recognized according to the result.

그런데, 종래의 음성인식기능을 가지는 전자기기의 경우, 사용자가 발화한 음성을 입력받는 수단이 고정되어 있으므로, 휴대폰과 같은 음성입력이 가능한 다양한 입력 수단을 활용하기가 어렵다. 또한, 후보 명령어가 다양할수록 인식률이 높아지기는 하지만, 후보 명령어의 개수가 증가될수록 비교 대상이 많아져 음성인식 처리속도가 느려지고, 메인기기의 저장용량이 제한적일 수 밖에 없으므로, 후보 명령어가 지속적으로 추가되기가 어려운 단점이 있다.However, in the case of electronic devices with a conventional voice recognition function, the means for receiving voice input from the user is fixed, so it is difficult to utilize various input means capable of voice input, such as a mobile phone. In addition, the more diverse the candidate commands, the higher the recognition rate, but as the number of candidate commands increases, the number of comparison targets increases, slowing down the voice recognition processing speed, and the storage capacity of the main device is inevitably limited, so candidate commands are continuously added. It has the disadvantage of being difficult.

본 발명 실시예에 따른 디스플레이장치는, 영상을 표시하는 디스플레이부와; 복수의 외부기기와 통신을 수행하는 통신부와; 사용자가 발화한 음성을 인식하는 음성인식엔진을 포함하며, 음성취득부로부터 음성신호를 수신하고, 상기 수신된 음성신호를 인식하기 위한 후보 명령어를 상기 복수의 외부기기 중 적어도 하나로부터 수신하도록 상기 통신부를 제어하는 제어부를 포함한다.A display device according to an embodiment of the present invention includes a display unit that displays an image; a communication unit that communicates with a plurality of external devices; It includes a voice recognition engine that recognizes a voice uttered by a user, and the communication unit receives a voice signal from a voice acquisition unit and receives a candidate command for recognizing the received voice signal from at least one of the plurality of external devices. It includes a control unit that controls.

상기 음성취득부는 복수로 마련되며, 상기 제어부는 복수의 음성취득부 중 적어도 하나로부터 음성 입력이 감지되면, 상기 음성 입력이 감지된 음성취득부로부터 음성신호를 수신할 수 있다. A plurality of voice acquisition units are provided, and when a voice input is detected from at least one of the plurality of voice acquisition units, the control unit can receive a voice signal from the voice acquisition unit that senses the voice input.

상기 음성취득부는 상기 디스플레이장치에 마련된 내장 마이크와, 상기 복수의 외부기기 중 적어도 하나에 마련된 제1 외부 마이크와, 상기 디스플레이장치 및 상기 복수의 외부기기와 분리된 제2 외부 마이크 중 적어도 하나를 포함할 수 있다.The voice acquisition unit includes at least one of a built-in microphone provided in the display device, a first external microphone provided in at least one of the plurality of external devices, and a second external microphone separated from the display device and the plurality of external devices. can do.

상기 외부기기는 적어도 하나의 어플리케이션을 포함하며, 상기 후보 명령어는 상기 어플리케이션에 의해 관리될 수 있다.The external device includes at least one application, and the candidate command may be managed by the application.

상기 후보 명령어를 관리하며, 상기 디스플레이장치에 마련되는 내장 어플리케이션을 더 포함할 수 있다.It manages the candidate commands and may further include a built-in application provided in the display device.

상기 수신된 후보 명령어를 저장하는 저장부를 더 포함하고, 상기 음성인식엔진은 상기 수신된 후보 명령어를 이용하여 음성을 인식할 수 있다.It further includes a storage unit for storing the received candidate commands, and the speech recognition engine can recognize speech using the received candidate commands.

상기 제어부는, 상기 복수의 음성취득부 중 어느 하나에 대한 웨이크업 키워드가 발화되는 것이 감지되면, 상기 감지된 웨이크업 키워드에 대응하는 음성취득부를 활성화하고, 상기 활성화된 음성취득부로부터 음성신호를 수신할 수 있다.When the control unit detects that a wake-up keyword for one of the plurality of voice acquisition units is uttered, it activates a voice acquisition unit corresponding to the detected wake-up keyword and receives a voice signal from the activated voice acquisition unit. You can receive it.

상기 제어부는, 상기 복수의 음성취득부 중 어느 하나에 마련된 소정 버튼의 조작에 따른 트리거 신호가 입력되면, 상기 입력된 트리거 신호에 대응하는 음성취득부를 활성화하고, 상기 활성화된 음성취득부로부터 음성신호를 수신할 수 있다.The control unit, when a trigger signal according to the operation of a predetermined button provided on any one of the plurality of voice acquisition units is input, activates a voice acquisition unit corresponding to the input trigger signal, and outputs a voice signal from the activated voice acquisition unit. can receive.

상기 제어부는 상기 음성신호에 대한 음성인식 결과 및 상기 음성인식 결과에 따른 후보 명령어를 표시하도록 상기 디스플레이부를 제어할 수 있다.The control unit may control the display unit to display a voice recognition result for the voice signal and a candidate command according to the voice recognition result.

상기 디스플레이부는 상기 후보 명령어를 관리하는 어플리케이션 정보를 더 표시할 수 있다.The display unit may further display application information that manages the candidate command.

상기 음성인식엔진은 상기 수신된 후보 명령어 중 상기 수신된 음성신호와 일치 또는 유사한 명령어를 결정하여 상기 음성을 인식할 수 있다.The voice recognition engine may recognize the voice by determining a command that matches or is similar to the received voice signal among the received candidate commands.

한편, 본 발명 실시예에 따른 음성취득장치는, 음성인식기능을 갖는 디스플레이장치와 통신을 수행하는 통신부와; 사용자가 발화한 음성을 입력받는 음성취득부와; 상기 입력된 음성을 전기적인 음성신호로 변환하는 음성변환부와; 상기 변환된 음성신호 및 상기 음성신호를 인식하기 위한 후보 명령어를 상기 디스플레이장치로 송신하도록 상기 통신부를 제어하는 제어부를 포함한다.Meanwhile, a voice acquisition device according to an embodiment of the present invention includes a communication unit that communicates with a display device having a voice recognition function; a voice acquisition unit that receives the voice uttered by the user; a voice conversion unit that converts the input voice into an electrical voice signal; and a control unit that controls the communication unit to transmit the converted voice signal and a candidate command for recognizing the voice signal to the display device.

적어도 하나의 어플리케이션을 더 포함하며, 상기 후보 명령어는 상기 어플리케이션에 의해 관리될 수 있다.It further includes at least one application, and the candidate command can be managed by the application.

한편, 본 발명 실시예에 따른 디스플레이장치의 음성인식방법은, 음성취득부로부터 음성신호를 수신하는 단계와; 상기 수신된 음성신호를 인식하기 위한 후보 명령어를 복수의 외부기기 중 적어도 하나로부터 수신하는 단계와; 상기 수신된 음성신호 및 후보 명령어에 따라 사용자가 발화한 음성을 인식하는 단계를 포함한다.Meanwhile, a voice recognition method of a display device according to an embodiment of the present invention includes receiving a voice signal from a voice acquisition unit; receiving a candidate command for recognizing the received voice signal from at least one of a plurality of external devices; and recognizing a voice uttered by the user according to the received voice signal and candidate command.

복수의 음성취득부 중 적어도 하나로부터 음성 입력을 감지하는 단계를 더 포함하며, 상기 음성신호를 수신하는 단계는 상기 음성 입력이 감지된 음성취득부로부터 음성신호를 수신할 수 있다. It may further include detecting a voice input from at least one of the plurality of voice acquisition units, and the step of receiving the voice signal may include receiving a voice signal from the voice acquisition unit that detects the voice input.

상기 음성취득부는 상기 디스플레이장치에 마련된 내장 마이크와, 상기 복수의 외부기기 중 적어도 하나에 마련된 제1 외부 마이크와, 상기 디스플레이장치 및 상기 복수의 외부기기와 분리된 제2 외부 마이크 중 적어도 하나를 포함할 수 있다.The voice acquisition unit includes at least one of a built-in microphone provided in the display device, a first external microphone provided in at least one of the plurality of external devices, and a second external microphone separated from the display device and the plurality of external devices. can do.

상기 외부기기는 적어도 하나의 어플리케이션을 포함하며, 상기 후보 명령어는 상기 어플리케이션에 의해 관리될 수 있다.The external device includes at least one application, and the candidate command may be managed by the application.

상기 후보 명령어를 관리하며, 상기 디스플레이장치에 마련되는 내장 어플리케이션을 더 포함할 수 있다.It manages the candidate commands and may further include a built-in application provided in the display device.

상기 수신된 후보 명령어를 저장하는 단계를 더 포함하고, 상기 음성을 인식하는 단계는 상기 수신된 후보 명령어를 이용하여 음성을 인식할 수 있다.It may further include the step of storing the received candidate command, and the step of recognizing the voice may recognize the voice using the received candidate command.

상기 음성 입력을 감지하는 단계는, 상기 복수의 음성취득부 중 어느 하나에 대한 웨이크업 키워드가 발화되는 것을 감지하는 단계와; 상기 감지된 웨이크업 키워드에 대응하는 음성취득부를 활성화하는 단계를 포함할 수 있다.The step of detecting the voice input includes detecting that a wake-up keyword for one of the plurality of voice acquisition units is uttered; It may include activating a voice acquisition unit corresponding to the detected wake-up keyword.

상기 음성 입력을 감지하는 단계는, 상기 복수의 음성취득부 중 어느 하나에 마련된 소정 버튼의 조작에 따른 트리거 신호가 입력되는 것을 감지하는 단계와; 상기 입력된 트리거 신호에 대응하는 음성취득부를 활성화는 단계를 포함할 수 있다.The step of detecting the voice input includes detecting that a trigger signal is input according to the operation of a predetermined button provided on one of the plurality of voice acquisition units; It may include activating a voice acquisition unit corresponding to the input trigger signal.

상기 음성신호에 대한 음성인식 결과 및 상기 음성인식 결과에 따른 후보 명령어를 표시하는 단계를 더 포함할 수 있다.The method may further include displaying a voice recognition result for the voice signal and a candidate command according to the voice recognition result.

상기 표시하는 단계는, 상기 후보 명령어를 관리하는 어플리케이션 정보를 더 표시할 수 있다.The displaying step may further display application information that manages the candidate command.

상기 음성을 인식하는 단계는, 상기 수신된 후보 명령어 중 상기 수신된 음성신호와 일치 또는 유사한 명령어를 결정하여 상기 음성을 인식할 수 있다. In the step of recognizing the voice, the voice may be recognized by determining a command that matches or is similar to the received voice signal among the received candidate commands.

도 1은 본 발명의 실시예에 의한 음성인식시스템의 예시도이며,
도 2는 본 발명의 일실시예에 의한 음성인식시스템의 구성을 도시한 블록도이며,
도 3은 본 발명 일실시예에 따라 음성인식을 수행하는 예를 설명하는 도면이며,
도 4는 도 3의 음성인식 결과 표시되는 화면의 예를 도시한 도면이며,
도 5는 본 발명 다른 실시예에 따라 음성인식을 수행하는 예를 설명하는 도면이며,
도 6은 본 발명 실시예에 의한 음성인식시스템의 음성인식방법을 도시한 흐름도이며,
도 7은 도 6의 음성입력을 감지하는 과정을 보다 상세하게 도시한 흐름도이며,
도 8은 도 6의 음성인식을 수행하는 과정을 보다 상세하게 도시한 흐름도이다.
1 is an exemplary diagram of a voice recognition system according to an embodiment of the present invention;
Figure 2 is a block diagram showing the configuration of a voice recognition system according to an embodiment of the present invention;
Figure 3 is a diagram illustrating an example of performing voice recognition according to an embodiment of the present invention;
Figure 4 is a diagram showing an example of a screen displayed as a result of voice recognition in Figure 3;
Figure 5 is a diagram illustrating an example of performing voice recognition according to another embodiment of the present invention;
Figure 6 is a flowchart showing the voice recognition method of the voice recognition system according to an embodiment of the present invention;
Figure 7 is a flowchart showing in more detail the process of detecting the voice input of Figure 6;
FIG. 8 is a flowchart showing the process of performing voice recognition in FIG. 6 in more detail.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 관하여 상세히 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.

도 1은 본 발명의 실시예에 의한 음성인식시스템의 예시도이다. 1 is an exemplary diagram of a voice recognition system according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명 실시예에 의한 음성인식시스템은 메인기기(100), 복수의 음성취득장치(201, ... , 202) 및 복수의 외부기기(301, 302, ... , 303)를 포함한다. 메인기기(100), 복수의 음성취득장치(201, 202) 및 복수의 외부기기(301, 302, 303)는 상호 통신 가능하도록 연결된다. As shown in Figure 1, the voice recognition system according to an embodiment of the present invention includes a main device 100, a plurality of voice acquisition devices 201, ... , 202, and a plurality of external devices 301, 302, .. , 303). The main device 100, a plurality of voice acquisition devices 201, 202, and a plurality of external devices 301, 302, 303 are connected to enable communication with each other.

메인기기(100)에는 사용자가 발화한 음성이 입력되는 마이크와 같은 음성취득부(140) 및 입력된 음성을 인식하는 음성인식엔진(181)이 마련되며, 통신부(160)를 통해 음성취득장치(201, 202) 및 외부기기(301, 302, 303)와 통신을 수행한다. 또한, 메인기기(100)에는 하나 이상의 내장 어플리케이션(171, 172)(Native Application)이 마련되어, 메인기기(100)가 다양한 기능(서비스)을 수행할 수 있도록 구동된다. 본 실시예의 내장 어플리케이션(171, 172)에는 수행하는 기능에 대응 즉, 수행 가능한 서비스 시나리오에 포함된 후보 명령어가 미리 저장되며, 내장 어플리케이션(171, 172)에 저장된 후보 명령어는 음성인식 시 음성인식엔진(181)으로 전달되어, 음성인식엔진(181)이 음성인식을 수행할 수 있도록 한다.The main device 100 is provided with a voice acquisition unit 140 such as a microphone into which the user's voice is input, and a voice recognition engine 181 that recognizes the input voice, and a voice acquisition device ( 201, 202) and external devices (301, 302, 303). In addition, the main device 100 is provided with one or more built-in applications 171 and 172 (Native Applications), which are operated so that the main device 100 can perform various functions (services). In the built-in applications 171 and 172 of this embodiment, candidate commands corresponding to the function to be performed, that is, included in a service scenario that can be performed, are stored in advance, and the candidate commands stored in the built-in applications 171 and 172 are used by the voice recognition engine during voice recognition. It is transmitted to (181), allowing the voice recognition engine (181) to perform voice recognition.

음성취득장치(201, 202)는 사용자가 발화한 음성을 입력받는 마이크와 같은 음성취득부를 포함하며, 입력된 음성에 대응하는 음성신호는 음성인식을 위해 메인기기(100)로 전달된다. The voice acquisition devices 201 and 202 include a voice acquisition unit such as a microphone that receives the voice uttered by the user, and a voice signal corresponding to the input voice is transmitted to the main device 100 for voice recognition.

음성취득장치(201, 202)는 사용자가 발화한 음성을 입력받고, 이를 전기적인 음성신호로 변환하여 메인기기(100)로 송신한다. 음성취득장치(201, 202)는 메인기기(100)와 무선통신이 가능한 외부장치이며, 무선통신은 무선랜(wireless LAN), RF(radio frequency) 통신, 블루투스(Bluetooth), 지그비(Zigbee), 적외선(IR: infrared) 통신 등을 포함한다.The voice acquisition devices 201 and 202 receive the voice uttered by the user, convert it into an electrical voice signal, and transmit it to the main device 100. The voice acquisition devices 201 and 202 are external devices capable of wireless communication with the main device 100, and wireless communication includes wireless LAN, RF (radio frequency) communication, Bluetooth, Zigbee, Includes infrared (IR) communication, etc.

외부기기(301, 302, 303)에는 하나 이상의 외부 어플리케이션(Dev. Application)이 마련되어, 각각의 외부기기(301, 302, 303)가 필요로 하는 기능(서비스)을 수행할 수 있다. 본 실시예의 외부 어플리케이션에는 대응하는 외부기기(301, 302, 303)가 수행하는 기능에 대응하는 후보 명령어가 미리 저장되며, 외부 어플리케이션에 저장된 후보 명령어는 음성인식 시 음성인식엔진(181)으로 전달되어, 음성인식엔진(181)이 음성인식을 수행할 수 있도록 한다. One or more external applications (Dev. Application) are provided on the external devices 301, 302, and 303, and can perform functions (services) required by each external device 301, 302, and 303. In the external application of this embodiment, candidate commands corresponding to the functions performed by the corresponding external devices 301, 302, and 303 are stored in advance, and the candidate commands stored in the external application are transmitted to the voice recognition engine 181 during voice recognition. , Enables the voice recognition engine 181 to perform voice recognition.

여기서, 내장 어플리케이션(171, 172) 및 외부 어플리케이션에 미리 등록되는 후보 명령어는 해당 어플리케이션의 기능/동작과 관련된 명령어일 수 있다. 예를 들어, 메인기기(100)가 TV 인 경우, TV의 채널이동, 볼륨조절 등과 관련된 후보 명령어가 내장 어플리케이션(171, 172) 중 어느 하나에 저장될 수 있으며, 외부기기(302)가 에어컨인 경우, 온도조절(올림/내림), 바람의 세기조절(강풍/약풍/미풍) 등과 관련된 후보 명령어가 외부기기(302)에 포함된 어플리케이션에 저장될 수 있다.Here, candidate commands pre-registered in the built-in applications 171 and 172 and external applications may be commands related to the function/operation of the corresponding application. For example, if the main device 100 is a TV, candidate commands related to channel movement, volume control, etc. of the TV may be stored in one of the built-in applications 171 and 172, and the external device 302 is an air conditioner. In this case, candidate commands related to temperature control (up/down), wind strength control (strong wind/weak wind/light wind), etc. may be stored in an application included in the external device 302.

본 발명은 도 1의 외부기기1(301)과 같이, 외부기기 또는 음성취득장치가 음성취득부와 외부 어플리케이션을 모두 포함하도록 구현될 수 있다. 이 경우, 외부기기1(301)에 마련된 음성취득부로부터 음성이 입력되면, 외부기기1(301)의 외부 어플리케이션에 미리 저장된 후보 명령어가 메인기기(100)의 음성인식엔진(181)으로 전달되어, 음성인식이 수행될 수 있다.The present invention can be implemented so that an external device or voice acquisition device includes both a voice acquisition unit and an external application, such as external device 1 (301) in FIG. 1. In this case, when a voice is input from the voice acquisition unit provided in external device 1 (301), the candidate command pre-stored in the external application of external device 1 (301) is transmitted to the voice recognition engine 181 of the main device 100. , voice recognition can be performed.

본 실시예의 음성인식시스템은 적어도 하나의 음성취득부를 포함하며, 음성취득부로부터 음성 입력이 감지되면, 음성 입력이 감지된 음성취득부를 활성화시켜 음성 스트림(stream)을 수신한다. 음성취득부가 복수로 마련된 경우, 복수의 음성취득부 중 음성 입력이 감지된 음성취득부를 활성화 시켜 음성 스트림을 수신할 수 있다. 여기서, 복수의 음성취득부는 메인기기(100)에 마련된 내장 마이크와, 복수의 외부기기(301, 302, 303) 중 적어도 하나에 마련된 제1 외부 마이크와, 메인기기(100) 및 복수의 외부기기(301, 302, 303)와 분리된 별도의 음성취득장치(201, 202)에 마련된 제2 외부 마이크를 포함할 수 있다. The voice recognition system of this embodiment includes at least one voice acquisition unit, and when a voice input is detected from the voice acquisition unit, the voice acquisition unit that senses the voice input is activated to receive a voice stream. When a plurality of voice acquisition units are provided, a voice stream can be received by activating a voice acquisition unit that detects a voice input among the plurality of voice acquisition units. Here, the plurality of voice acquisition units includes a built-in microphone provided in the main device 100, a first external microphone provided in at least one of the plurality of external devices 301, 302, and 303, the main device 100, and a plurality of external devices. It may include a second external microphone provided in a separate voice acquisition device (201, 202) (301, 302, 303).

메인기기(100)는 복수의 음성취득부 중 어느 하나에 대한 웨이크업 키워드(wakeup keyword)가 발화되는 것이 감지되면, 감지된 웨이크업 키워드에 대응하는 음성취득부를 활성화하고, 활성화된 음성취득부로부터 음성신호를 수신할 수 있다. 또한, 메인기기(100)는 복수의 음성취득부 중 어느 하나에 마련된 소정 버튼의 조작(이벤트 발생)에 따른 트리거 신호(trigger signal)가 입력되면, 입력된 트리거 신호에 대응하는 음성취득부를 활성화하고, 활성화된 음성취득부로부터 음성신호를 수신할 수 있다.When the main device 100 detects that a wakeup keyword for one of the plurality of voice acquisition units is uttered, it activates the voice acquisition unit corresponding to the detected wakeup keyword, and selects the voice acquisition unit from the activated voice acquisition unit. Voice signals can be received. In addition, when a trigger signal according to the operation (event generation) of a predetermined button provided on one of the plurality of voice acquisition units is input, the main device 100 activates the voice acquisition unit corresponding to the input trigger signal. , Voice signals can be received from the activated voice acquisition unit.

본 실시예의 메인기기(100)는 음성인식모드에서 동작하며 웨이크업 키워드나 트리거 신호에 의해 어느 하나의 음성취득부가 활성화되면, 다른 음성취득부는 비활성화시켜 음성인식에 있어 오류가 발생하는 것을 방지할 수 있다. 메인기기(100)는 이에 따른 원거리 또는 근거리 음성인식모드로 동작 가능하다. 또한, 후술하는 디스플레이부(130)에 연결된 음성취득부를 나타내는 UI를 표시하여 사용자의 편의를 도울 수 있게 한다.The main device 100 of this embodiment operates in voice recognition mode, and when one voice acquisition unit is activated by a wake-up keyword or trigger signal, the other voice acquisition unit is deactivated to prevent errors in voice recognition. there is. The main device 100 can operate in a long-distance or short-distance voice recognition mode. In addition, a UI indicating a voice acquisition unit connected to the display unit 130, which will be described later, is displayed to assist the user's convenience.

그리고, 메인기기(100)는 수신된 음성신호를 인식하기 위한 후보 명령어를 복수의 외부기기(301, 302, 303) 중 적어도 하나로부터 수신할 수 있다. 수신된 후보 명령어는 음성인식을 위해 음성인식엔진(181)으로 전달 가능하다.Additionally, the main device 100 may receive a candidate command for recognizing the received voice signal from at least one of the plurality of external devices 301, 302, and 303. The received candidate command can be transmitted to the voice recognition engine 181 for voice recognition.

복수의 외부기기(301, 302, 303)는 적어도 하나의 어플리케이션을 포함하며, 후보 명령어는 대응하는 각 어플리케이션에 의해 관리될 수 있다. 또한, 메인기기(100)는 내장 어플리케이션(171, 172)을 더 포함하며, 내장 어플리케이션(171, 172)은 대응하는 후보 명령어를 관리한다. 내장 어플리케이션(171, 172)에 의해 관리되는 후보 명령어는 음성인식을 위해 음성인식엔진(181)으로 전달 가능하다.The plurality of external devices 301, 302, and 303 include at least one application, and candidate commands may be managed by each corresponding application. In addition, the main device 100 further includes built-in applications 171 and 172, and the built-in applications 171 and 172 manage corresponding candidate commands. Candidate commands managed by the built-in applications 171 and 172 can be transmitted to the voice recognition engine 181 for voice recognition.

본 발명의 메인기기(100)는 도 2와 같이 TV와 같은 디스플레이장치로 구현될 수 있다.도 2는 본 발명의 일실시예에 의한 음성인식시스템의 구성을 도시한 블록도이다.The main device 100 of the present invention can be implemented as a display device such as a TV, as shown in FIG. 2. FIG. 2 is a block diagram showing the configuration of a voice recognition system according to an embodiment of the present invention.

디스플레이장치(100)는 외부의 영상공급원(미도시)으로부터 제공되는 영상신호를 영상으로 표시 가능하도록 기 설정된 영상처리 프로세스에 따라서 처리한다.The display device 100 processes an image signal provided from an external image source (not shown) according to a preset image processing process so that it can be displayed as an image.

본 실시예의 시스템에서 디스플레이장치(100)는 방송국의 송출장비로부터 수신되는 방송신호/방송정보/방송데이터에 기초한 방송 영상을 처리하는 TV 또는 셋탑 박스(set top box)로 구현되는 경우에 관해 설명한다. 그러나, 본 발명의 사상이 디스플레이장치(100)의 구현 예시에 한정되지 않는 바, 디스플레이장치(100)는 TV, 셋탑 박스 이외에도 영상을 처리 가능한 다양한 종류의 구현 예시가 적용될 수 있다.In the system of this embodiment, the case where the display device 100 is implemented as a TV or set top box that processes broadcast images based on broadcast signals/broadcast information/broadcast data received from the broadcasting station's transmission equipment will be described. . However, the spirit of the present invention is not limited to the implementation example of the display device 100, and the display device 100 may be applied to various types of implementation examples capable of processing images other than TV and set-top boxes.

또한, 디스플레이장치(100)는 표시 가능한 영상의 종류가 방송 영상에 한정되지 않는 바, 예를 들면 디스플레이장치(100)는 다양한 형식의 영상공급원(미도시)으로부터 수신되는 신호/데이터에 기초한 동영상, 정지영상, 어플리케이션(application), OSD(on-screen display), 다양한 동작 제어를 위한 GUI(graphic user interface) 등의 영상을 표시하도록 처리할 수 있다.In addition, the type of video that the display device 100 can display is not limited to broadcast video. For example, the display device 100 includes video based on signals/data received from various types of video sources (not shown), It can be processed to display images such as still images, applications, OSD (on-screen display), and GUI (graphic user interface) for controlling various operations.

본 발명의 실시예에 따르면, 디스플레이장치(100)는 스마트 TV로 구현될 수 있다. 스마트 TV는 실시간으로 방송신호를 수신하여 표시할 수 있고, 웹 브라우저 기능을 가지고 있어 실시간 방송신호의 표시와 동시에 인터넷을 통하여 다양한 컨텐츠 검색 및 소비가 가능하고 이를 위하여 편리한 사용자 환경을 제공할 수 있는 TV이다. 또한, 스마트 TV는 개방형 소프트웨어 플랫폼을 포함하고 있어 사용자에게 양방향 서비스를 제공할 수 있다. 따라서, 스마트TV는 개방형 소프트웨어 플랫폼을 통하여 다양한 컨텐츠, 예를 들어 소정의 서비스를 제공하는 어플리케이션을 사용자에게 제공할 수 있다. 이러한 어플리케이션은 다양한 종류의 서비스를 제공할 수 있는 응용 프로그램으로서, 예를 들어 SNS, 금융, 뉴스, 날씨, 지도, 음악, 영화, 게임, 전자 책 등의 서비스를 제공하는 어플리케이션을 포함한다.According to an embodiment of the present invention, the display device 100 may be implemented as a smart TV. Smart TV is a TV that can receive and display broadcasting signals in real time and has a web browser function so that it can display real-time broadcasting signals and simultaneously search for and consume various contents through the Internet and provide a convenient user environment for this purpose. am. Additionally, smart TVs include an open software platform and can provide interactive services to users. Accordingly, smart TVs can provide users with various contents, for example, applications that provide certain services, through an open software platform. These applications are applications that can provide various types of services, and include applications that provide services such as SNS, finance, news, weather, maps, music, movies, games, and e-books.

본 실시예의 디스플레이장치(100)에는 사용자 음성을 인식하는 음성인식엔진(181)이 마련된다. 인식된 음성에 대응하는 커맨드(Command) 즉, 제어명령은 대응하는 어플리케이션으로 송신되어 해당 기능에 따른 동작을 수행하게 된다. 여기서, 제어명령에 대응하는 어플리케이션이 내장 어플리케이션(171, 172) 중 어느 하나인 경우, 디스플레이장치(100)는 해당 어플리케이션에 의해 제어명령에 따른 동작을 수행한다. 또한, 제어명령에 대응하는 어플리케이션이 외부 어플리케이션인 경우, 해당 제어명령은 외부 어플리케이션이 포함된 외부기기(301, 302, 303)로 송신되어, 외부기기(301, 302, 303)가 해당 어플리케이션에 의해 제어명령에 따른 동작을 수행할 수 있다.The display device 100 of this embodiment is provided with a voice recognition engine 181 that recognizes the user's voice. The command corresponding to the recognized voice, that is, the control command, is transmitted to the corresponding application to perform an operation according to the corresponding function. Here, when the application corresponding to the control command is one of the built-in applications 171 and 172, the display device 100 performs an operation according to the control command by the corresponding application. In addition, if the application corresponding to the control command is an external application, the control command is transmitted to the external device (301, 302, 303) including the external application, and the external device (301, 302, 303) is controlled by the application. Operations can be performed according to control commands.

한편, 도 2에서는 메인기기가 TV와 같은 디스플레이장치로 구현된 경우를 도시하고 있지만, 본 발명은 이에 한정되지 않으며 메인기기는 다양한 전자장치 예를 들어, PC 등으로 구현될 수 있다.Meanwhile, Figure 2 shows a case where the main device is implemented as a display device such as a TV, but the present invention is not limited to this and the main device may be implemented as various electronic devices, such as a PC.

도 2에 도시된 실시예에서는 음성취득장치가 복수로 구비되며, 예를 들어 휴대폰(200)과, 리모컨(remote controller)(300)으로 구현된 것을 일례로 한다. 여기서, 리모컨(300)은 음성취득장치와 외부기기의 역할을 모두 수행하며, 휴대폰(200)은 음성취득 기능을 가지는 스마트폰일 수 있다. In the embodiment shown in FIG. 2, a plurality of voice acquisition devices are provided, for example, implemented with a mobile phone 200 and a remote controller 300. Here, the remote control 300 functions as both a voice acquisition device and an external device, and the mobile phone 200 may be a smartphone with a voice acquisition function.

리모컨(300)은 사용자의 조작에 의해 기 설정된 커맨드(제어명령)를 대응하는 장치에 전송한다. 본 실시예의 리모컨은 디스플레이장치(100) 또는 외부기기에 커맨드를 전송하도록 기 설정될 수 있으며, 경우에 따라 복수의 장치에 커맨드를 전송하는 통합 리모컨으로 구현될 수 있다. 또한, 리모컨(300)은 TV 리모컨 및/또는 에이컨 리모컨을 포함할 수도 있다. The remote control 300 transmits a command (control command) preset by the user's operation to the corresponding device. The remote control of this embodiment may be preset to transmit commands to the display device 100 or an external device, and in some cases, may be implemented as an integrated remote control that transmits commands to a plurality of devices. Additionally, the remote control 300 may include a TV remote control and/or an air conditioner remote control.

한편, 본 발명의 음성취득장치는 휴대폰(200)과 리모컨(300)뿐 아니라 휴대용 단말장치, 마이크 송신기 등 사용자가 발화한 음성을 입력받을 수 있는 다양한 장치로 구현될 수 있다.Meanwhile, the voice acquisition device of the present invention can be implemented with various devices that can receive voice uttered by the user, such as a mobile phone 200 and a remote control 300, as well as a portable terminal device and a microphone transmitter.

도 2에 도시된 실시예에서는 외부기기가 복수로 구비되며, 예를 들어 리모컨(300)과, 에어컨(air conditioner)(400)으로 구현된 것을 일례로 한다. 앞서 설명한 바와 같이, 리모컨(300)은 음성취득장치와 외부기기의 역할을 모두 수행한다.In the embodiment shown in FIG. 2, a plurality of external devices are provided, for example, implemented as a remote control 300 and an air conditioner 400. As described above, the remote control 300 functions as both a voice acquisition device and an external device.

도 2의 실시예에서는 외부기기가 리모컨(300)과 에어컨(400)으로 구현된 것을 그 일례로 하지만, 본 발명의 외부기기는 이에 한정되지 않으며, 무선통신이 가능한 다양한 전자기기 예를 들어, 홈시어터, 라디오, VCR, DVD, 세탁기, 냉장고, 로봇청소기 등으로 구현될 수 있다. 또한, 외부기기에 마이크와 같은 음성취득부가 마련되면, 음성취득장치의 역할을 함께 수행할 수 있다.In the embodiment of Figure 2, the external device is implemented as an example of a remote control 300 and an air conditioner 400, but the external device of the present invention is not limited to this, and various electronic devices capable of wireless communication, such as a home It can be implemented as a theater, radio, VCR, DVD, washing machine, refrigerator, robot vacuum cleaner, etc. Additionally, if a voice acquisition unit such as a microphone is provided in an external device, it can also serve as a voice acquisition device.

본 실시예의 외부기기에는 기능을 수행하기 위한 어플리케이션(372, 472)이 구비되며, 각 어플리케이션(372, 472)에는 후보 명령어가 미리 저장되어 관리되며, 후보 명령어는 음성인식을 위해 디스플레이장치(100)로 송부될 수 있다.The external device of this embodiment is equipped with applications 372 and 472 to perform functions. Candidate commands are stored and managed in advance in each application 372 and 472, and the candidate commands are sent to the display device 100 for voice recognition. It can be sent to .

외부기기 즉, 리모컨(300)과 에어컨(400)는 음성인식 결과에 따라 디스플레이장치(100)로부터 수신된 제어명령에 대응하는 동작을 수행한다. External devices, that is, the remote control 300 and the air conditioner 400, perform operations corresponding to the control command received from the display device 100 according to the voice recognition result.

이하, 도 2를 참조하여, 음성인식시스템의 각 구성을 보다 상세하게 설명한다.Hereinafter, with reference to FIG. 2, each configuration of the voice recognition system will be described in more detail.

도 2에 도시된 바와 같이, 디스플레이장치(100)는 영상신호를 수신하는 영상수신부(110), 영상수신부(110)에 수신되는 영상신호를 처리하는 영상처리부(120), 영상처리부(120)에 의해 처리되는 영상신호를 영상으로 표시하는 디스플레이부(130), 사용자가 발화한 음성을 입력받는 제1음성취득부(140), 입력된 음성을 전기적인 음성신호로 변환하는 제1음성변환부(150), 외부장치와 통신을 수행하는 제1통신부(160), 각종 데이터가 저장되는 제1저장부(170), 디스플레이장치(100)를 제어하는 제1제어부(180)를 포함한다. As shown in FIG. 2, the display device 100 includes an image receiver 110 that receives an image signal, an image processor 120 that processes the image signal received by the image receiver 110, and an image processor 120. A display unit 130 that displays the image signal processed by the image as an image, a first voice acquisition unit 140 that receives the voice uttered by the user, and a first voice conversion unit that converts the input voice into an electrical voice signal ( 150), a first communication unit 160 that communicates with an external device, a first storage unit 170 that stores various data, and a first control unit 180 that controls the display device 100.

영상수신부(110)는 영상신호를 수신하여 영상처리부(120)에 전달하며, 수신하는 영상신호의 규격 및 디스플레이장치(100)의 구현 형태에 대응하여 다양한 방식으로 구현될 수 있다. 예를 들면, 영상수신부(110)는 방송국(미도시)으로부터 송출되는 RF(radio frequency) 신호를 무선으로 수신하거나, 컴포지트(composite) 비디오, 컴포넌트(component) 비디오, 슈퍼 비디오(super video), SCART, HDMI(high definition multimedia interface) 규격 등에 의한 영상신호를 유선으로 수신할 수 있다. 영상신호가 방송신호인 경우, 영상수신부(110)는 이 방송신호를 채널 별로 튜닝하는 튜너(tuner)를 포함한다.The image receiving unit 110 receives an image signal and transmits it to the image processing unit 120, and may be implemented in various ways depending on the standard of the received image signal and the implementation type of the display device 100. For example, the video receiver 110 wirelessly receives a radio frequency (RF) signal transmitted from a broadcasting station (not shown), or transmits composite video, component video, super video, and SCART. , video signals according to the HDMI (high definition multimedia interface) standard can be received by wire. When the video signal is a broadcast signal, the video receiver 110 includes a tuner that tunes the broadcast signal for each channel.

또한, 영상신호는 외부기기로부터 입력될 수 있으며, 예컨대, 영상신호는 PC, AV기기, 스마트폰, 스마트패드 등과 같은 외부기기로부터 입력될 수 있다. 또한, 영상신호는 인터넷 등과 같은 네트워크를 통해 수신되는 데이터로부터 기인한 것일 수 있다. 이 경우, 디스플레이장치(100)는, 제1통신부(160)를 통해 네트워크 통신을 수행하거나, 별도의 네트워크 통신부를 더 포함할 수 있다. 또한, 영상신호는 플래시메모리, 하드디스크 등과 같은 비휘발성의 제1저장부(170)에 저장된 데이터로부터 기인한 것일 수 있다. 제1저장부(170)는 디스플레이장치(100)의 내부 또는 외부에 마련될 수 있으며, 외부에 마련되는 경우 제1저장부(170)가 연결되는 연결부(미도시)를 더 포함할 수 있다.Additionally, video signals can be input from external devices, for example, video signals can be input from external devices such as PCs, AV devices, smartphones, smart pads, etc. Additionally, the video signal may originate from data received through a network such as the Internet. In this case, the display device 100 may perform network communication through the first communication unit 160 or may further include a separate network communication unit. Additionally, the image signal may originate from data stored in the non-volatile first storage unit 170, such as a flash memory or hard disk. The first storage unit 170 may be provided inside or outside the display device 100, and when provided outside, it may further include a connection part (not shown) to which the first storage unit 170 is connected.

영상처리부(120)는 영상신호에 대해 기 설정된 다양한 영상처리 프로세스를 수행한다. 영상처리부(120)는 이러한 프로세스를 수행한 영상신호를 디스플레이부(130)에 출력함으로써, 디스플레이부(130)에 영상이 표시되게 한다.The image processing unit 120 performs various preset image processing processes on video signals. The image processing unit 120 outputs an image signal that has undergone this process to the display unit 130, thereby displaying an image on the display unit 130.

영상처리부(120)가 수행하는 영상처리 프로세스의 종류는 한정되지 않으며, 예를 들면 다양한 영상 포맷에 대응하는 디코딩(decoding), 디인터레이싱(de-interlacing), 프레임 리프레시 레이트(frame refresh rate) 변환, 스케일링(scaling), 영상 화질 개선을 위한 노이즈 감소(noise reduction), 디테일 강화(detail enhancement), 라인 스캐닝(line scanning) 등을 포함할 수 있다. 영상처리부(120)는 이러한 각 프로세스를 독자적으로 수행할 수 있는 개별적 구성의 그룹으로 구현되거나, 또는 여러 기능을 통합시킨 SoC(system-on-chip)로 구현될 수 있다.The type of image processing process performed by the image processing unit 120 is not limited, for example, decoding, de-interlacing, frame refresh rate conversion, and scaling corresponding to various image formats. It may include scaling, noise reduction, detail enhancement, line scanning, etc. to improve image quality. The image processing unit 120 may be implemented as a group of individual components that can independently perform each of these processes, or may be implemented as a system-on-chip (SoC) that integrates several functions.

디스플레이부(130)는 영상처리부(120)에 의해 처리되는 영상신호에 기초하여 영상을 표시한다. 디스플레이부(130)의 구현 방식은 한정되지 않으며, 예컨대 액정(liquid crystal), 플라즈마(plasma), 발광 다이오드(light-emitting diode), 유기발광 다이오드(organic light-emitting diode), 면전도 전자총(surface-conduction electron-emitter), 탄소 나노 튜브(carbon nano-tube), 나노 크리스탈(nano-crystal) 등의 다양한 디스플레이 방식으로 구현될 수 있다.The display unit 130 displays an image based on the image signal processed by the image processing unit 120. The implementation method of the display unit 130 is not limited, and includes, for example, liquid crystal, plasma, light-emitting diode, organic light-emitting diode, surface conduction electron gun, etc. It can be implemented in various display methods such as -conduction electron-emitter, carbon nano-tube, and nano-crystal.

디스플레이부(130)는 그 구현 방식에 따라서 부가적인 구성을 추가적으로 포함할 수 있다. 예를 들면, 디스플레이부(130)가 액정 방식인 경우, 디스플레이부(130)는 액정 디스플레이 패널(미도시)과, 이에 광을 공급하는 백라이트유닛(미도시)과, 패널(미도시)을 구동시키는 패널구동기판(미도시)을 포함한다.The display unit 130 may additionally include additional components depending on its implementation method. For example, when the display unit 130 is a liquid crystal display panel, the display unit 130 drives a liquid crystal display panel (not shown), a backlight unit (not shown) that supplies light to the panel, and a panel (not shown). It includes a panel drive board (not shown).

본 발명의 디스플레이부(130)는 인식된 음성에 대한 정보로서 음성인식결과를 표시할 수 있다. 여기서, 음성인식결과는 텍스트, 그래픽, 아이콘 등의 다양한 형태로 표시 가능하며, 텍스트는 문자와 숫자를 포함한다. 본 실시예의 디스플레이부(130)는 음성인식 결과에 따른 후보 명령어 및 어플리케이션 정보를 더 표시할 수 있다. 이와 관련하여서는 후술하는 도 4에서 보다 상세하게 설명하기로 한다.The display unit 130 of the present invention can display the voice recognition result as information about the recognized voice. Here, voice recognition results can be displayed in various forms such as text, graphics, and icons, and text includes letters and numbers. The display unit 130 of this embodiment can further display candidate commands and application information according to the voice recognition results. This will be explained in more detail in FIG. 4 described later.

사용자는 디스플레이부(130)에 표시된 음성인식결과에 의해 음성이 올바르게 인식되었는지를 확인할 수 있으며, 리모컨에 마련된 사용자입력부(390)를 조작하여 표시된 후보 명령어 중에서 사용자가 발화한 음성에 대응하는 명령어를 선택하거나, 음성인식 결과와 관련된 정보를 선택하여 확인할 수도 있다.The user can check whether the voice has been recognized correctly by the voice recognition result displayed on the display unit 130 and select a command corresponding to the voice uttered by the user from among the displayed candidate commands by manipulating the user input unit 390 provided on the remote control. Alternatively, you can select and check information related to the voice recognition result.

제1음성취득부(140)는 사용자가 발화한 음성을 입력받는 것으로서, 마이크(microphone)로 구현될 수 있다. The first voice acquisition unit 140 receives the voice uttered by the user and may be implemented as a microphone.

제1음성변환부(150)는 제1음성취득부(140)에서 입력된 음성을 전기적인 음성신호로 변환한다. 변환된 음성신호는 PCM(pulse code modulation) 상태 또는 압축된 형태의 오디오 파형의 형태를 가진다. 여기서, 제1음성변환부(150)는 사용자의 입력음성을 디지털로 변환하는 A/D 변환부로 구현될 수 있다.The first voice conversion unit 150 converts the voice input from the first voice acquisition unit 140 into an electrical voice signal. The converted voice signal has a PCM (pulse code modulation) state or a compressed audio waveform. Here, the first voice conversion unit 150 may be implemented as an A/D conversion unit that converts the user's input voice into digital.

한편, 제1음성취득부(140)가 디지털 마이크인 경우, 별도의 A/D 변환을 필요로 하지 않으므로, 제1음성취득부(140)가 제1음성변환부(150)를 포함할 수 있다.Meanwhile, when the first voice acquisition unit 140 is a digital microphone, separate A/D conversion is not required, so the first voice acquisition unit 140 may include the first voice conversion unit 150. .

제1통신부(160)는 음성취득장치 및 외부기기 즉, 도 2의 휴대폰(200), 리모컨(300) 및 에어컨(400)와 통신을 수행한다. 본 실시예의 제1통신부(160)는 무선통신을 수행할 수 있으며, 무선통신은 적외선 통신, RF, 지그비, 블루투스 중 적어도 하나를 포함한다. The first communication unit 160 communicates with the voice acquisition device and external devices, that is, the mobile phone 200, remote control 300, and air conditioner 400 of FIG. 2. The first communication unit 160 of this embodiment can perform wireless communication, and the wireless communication includes at least one of infrared communication, RF, ZigBee, and Bluetooth.

제1저장부(170)는 제1제어부(180)의 제어에 따라서 한정되지 않은 데이터가 저장된다. 제1저장부(170)는 플래시메모리(flash-memory), 하드디스크 드라이브(hard-disc drive)와 같은 비휘발성 저장매체로 구현된다. 제1저장부(170)는 제1제어부(180)에 의해 액세스되며, 제1제어부(180)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행된다.The first storage unit 170 stores unlimited data under the control of the first control unit 180. The first storage unit 170 is implemented as a non-volatile storage medium such as flash memory or hard disk drive. The first storage unit 170 is accessed by the first control unit 180, and data reading/recording/editing/deleting/updating, etc. is performed by the first control unit 180.

제1저장부(170)에 저장되는 데이터는, 예를 들면 디스플레이장치(100)의 구동을 위한 운영체제를 비롯하여, 이 운영체제 상에서 실행 가능한 다양한 어플리케이션, 영상데이터, 부가데이터 등을 포함한다.Data stored in the first storage unit 170 includes, for example, an operating system for driving the display device 100, various applications executable on this operating system, image data, additional data, etc.

본 실시예의 제1저장부(170)에는 사용자가 발화한 음성을 인식하기 위한 각종 데이터가 저장될 수 있다. 예를 들어, 제1저장부(170)는 수신된 음성신호에 대응하는 음성인식대상정보로서, 후보 명령어(이하 명령어 후보군 이라고도 한다)가 포함된 명령어 테이블(171)을 저장할 수 있다. 명령어 테이블(171)에서는 각 어플리케이션 별로 후보 명령어가 관리될 수 있다.The first storage unit 170 of this embodiment may store various data for recognizing a voice uttered by a user. For example, the first storage unit 170 may store a command table 171 containing candidate commands (hereinafter also referred to as a command candidate group) as speech recognition target information corresponding to a received speech signal. In the command table 171, candidate commands can be managed for each application.

본 실시예의 제1저장부(170)에는 디스플레이장치(100)의 기능 수행을 위한 하나 이상의 어플리케이션 예를 들어, 어플리케이션 1 및 2(172, 173)가 더 저장된다. 어플리케이션 1 및 2(172, 173)는 후술하는 제1제어부(180)의 제어에 따라 구동되어, 디스플레이장치(100)의 각종 기능을 수행한다. 도 2에서는 디스플레이장치(100)에 2개의 어플리케이션(172, 173)이 내장된 경우를 예로 들어 도시하였지만, 디스플레이장치(100)가 수행하는 기능이 다양한 바, 본 발명의 디스플레이장치(100)에는 3개 이상의 어플리케이션이 내장될 수 있다.The first storage unit 170 of this embodiment further stores one or more applications, for example, applications 1 and 2 (172, 173), for performing the functions of the display device 100. Applications 1 and 2 (172, 173) are driven under the control of the first control unit 180, which will be described later, and perform various functions of the display device 100. 2 illustrates an example in which two applications 172 and 173 are built into the display device 100. However, since the functions performed by the display device 100 are diverse, the display device 100 of the present invention includes three applications. More than one application may be built-in.

어플리케이션 1 및 2(172, 173)는 수행하는 기능에 대응하는 후보 명령어를 각각 관리한다. 어플리케이션 1 및 2(172, 173)에서 관리되는 후보 명령어들은 필요에 따라 명령어 테이블(171)에 등록/삭제될 수 있다.Applications 1 and 2 (172, 173) each manage candidate instructions corresponding to the functions they perform. Candidate instructions managed in applications 1 and 2 (172, 173) may be registered/deleted in the instruction table 171 as needed.

제1 및/또는 제2 어플리케이션(172, 173)의 후보 명령어가 명령어 테이블(171)에 등록되면, 음성인식엔진(181)은 명령어 테이블(171)에 등록된 후보 명령어를 이용하여 음성인식을 수행하게 된다.When the candidate commands of the first and/or second applications 172 and 173 are registered in the command table 171, the voice recognition engine 181 performs voice recognition using the candidate commands registered in the command table 171. I do it.

본 실시예의 명령어 테이블(171)에 등록/삭제 가능한 후보 명령어는 후술하는 리모컨(300)의 어플리케이션 3(372)에서 관리되는 후보 명령어 및 에어컨(400)의 어플리케이션 4(472)에서 관리되는 어플리케이션을 더 포함할 수 있다.Candidate commands that can be registered/deleted in the command table 171 of this embodiment include candidate commands managed by application 3 (372) of the remote control 300, which will be described later, and applications managed by application 4 (472) of the air conditioner 400. It can be included.

제1제어부(180)는 디스플레이장치(100)의 다양한 구성에 대한 제어동작을 수행한다. 예를 들면, 제1제어부(180)는 영상처리부(120)가 처리하는 영상처리 프로세스의 진행, 리모컨(300)으로부터의 커맨드에 대한 대응 제어동작을 수행함으로써, 디스플레이장치(100)의 전체 동작을 제어한다.The first control unit 180 performs control operations for various components of the display device 100. For example, the first control unit 180 controls the overall operation of the display device 100 by progressing the image processing process processed by the image processing unit 120 and performing control operations corresponding to commands from the remote control 300. Control.

제1제어부(180)는 예를 들어 CPU에 소프트웨어가 결합된 형태로 구현될 수 있다.The first control unit 180 may be implemented, for example, in a form in which software is combined with a CPU.

제1제어부(180)는 사용자가 발화한 음성을 인식하는 음성인식엔진(181)을 포함한다. 음성인식엔진(181)의 음성인식기능은 기 알려진 음성인식알고리즘을 이용하여 수행될 수 있다. 예를 들어, 음성인식엔진(181)은 음성신호의 음성특징 벡터를 추출하고, 추출된 음성특징 벡터를 제1저장부(170)의 명령어 테이블(171)에 저장된 후보 명령어들과 비교하여 음성을 인식할 수 있다. 또한, 명령어 테이블(171)에 저장된 후보 명령어 중 추출된 음성특징 벡터와 일치하는 명령어가 없는 경우, 유사도가 높은 명령어로 음성인식 결과를 보정하여 음성을 인식할 수 있다. 여기서, 유사도가 높은 후보 명령어가 복수인 경우, 제1제어부(180)는 디스플레이부(130)에 복수의 후보 명령어를 표시하고, 사용자에 의해 어느 하나를 선택받을 수 있다.The first control unit 180 includes a voice recognition engine 181 that recognizes the voice uttered by the user. The voice recognition function of the voice recognition engine 181 can be performed using a known voice recognition algorithm. For example, the voice recognition engine 181 extracts a voice feature vector from a voice signal, compares the extracted voice feature vector with candidate commands stored in the command table 171 of the first storage unit 170, and recognizes the voice. It can be recognized. In addition, if there is no command among the candidate commands stored in the command table 171 that matches the extracted speech feature vector, the speech can be recognized by correcting the speech recognition result with a command with high similarity. Here, when there are multiple candidate commands with high similarity, the first control unit 180 displays a plurality of candidate commands on the display unit 130, and the user can select one.

본 실시예의 음성인식엔진(181)은 CPU에 상주하는 임베디드 음성인식엔진(181)으로 구현된 것을 예로 들어 설명하지만, 본 발명은 이에 한정되지 않는다. 예를 들어, 음성인식엔진(181)은 CPU와 별개인 디스플레이장치(100) 내에 내장된 장치 즉, 마이컴(Micro Computer)과 같은 별도의 칩으로 구현될 수 있다.The voice recognition engine 181 of this embodiment is explained by taking as an example that it is implemented as an embedded voice recognition engine 181 residing in the CPU, but the present invention is not limited to this. For example, the voice recognition engine 181 may be implemented as a device built into the display device 100 that is separate from the CPU, that is, a separate chip such as a microcomputer.

한편, 본 발명은 음성인식엔진(181)이 디스플레이장치(100)와 물리적으로 분리된 서버(이하, 클라우드 서버 라고도 한다(도시 안됨))에 마련된 경우를 포함한다. 클라우드 서버는 디스플레이장치(100)와 인터넷과 같은 네트워크를 통하여 통신을 수행한다. 여기서, 네트워크는 유선 또는 무선 네트워크일 수 있다. 이러한 경우, 음성인식엔진(181)은 클라우드 서버의 CPU에 상주하는 임베디드 음성인식엔진이나, CPU와 별개로 클라우드 서버 내에 내장된 장치 즉, 마이컴(Micro Computer)과 같은 별도의 칩으로 구현될 수 있다.Meanwhile, the present invention includes a case where the voice recognition engine 181 is provided on a server (hereinafter also referred to as a cloud server (not shown)) that is physically separate from the display device 100. The cloud server communicates with the display device 100 through a network such as the Internet. Here, the network may be a wired or wireless network. In this case, the voice recognition engine 181 may be implemented as an embedded voice recognition engine residing in the CPU of the cloud server, or as a separate chip such as a device embedded in the cloud server separately from the CPU, that is, a microcomputer. .

제1제어부(180)는 음성인식엔진(181)의 인식결과에 대응하는 동작을 수행할 수 있다. 예를 들어, 디스플레이장치(100)가 TV인 경우 영화나 뉴스를 사용자가 시청하고 있을 때, 음성인식엔진(181)이 볼륨 업, 볼륨 다운 또는 소리 크게, 소리 작게 등을 인식하면, 제1제어부(180)는 이에 대응하도록 영화나 뉴스의 소리 크기(볼륨)를 조절할 수 있다.The first control unit 180 may perform an operation corresponding to the recognition result of the voice recognition engine 181. For example, when the display device 100 is a TV and the user is watching a movie or news, when the voice recognition engine 181 recognizes volume up, volume down, volume up, volume down, etc., the first control unit (180) can adjust the sound level (volume) of movies or news to correspond to this.

제1제어부(180)는 음성인식엔진(181)의 인식결과, 인식된 음성이 리모컨(300), 에어컨(400)과 같은 외부기기를 제어하는 음성인 경우, 인식된 음성에 대응하는 제어명령을 해당 외부기기로 송신하도록 제1통신부(160)를 제어할 수 있다. 예를 들어, 음성인식엔진(181)이 온도 올려를 인식하면, 제1제어부(180)는 이를 에어컨에 대한 음성으로 인식하고, 에어컨의 온도를 상승시키도록 하는 커맨드를 에어컨(400)으로 송신하도록 제1통신부(160)를 제어할 수 있다. As a result of the recognition of the voice recognition engine 181, if the recognized voice is a voice that controls an external device such as the remote control 300 or the air conditioner 400, the first control unit 180 sends a control command corresponding to the recognized voice. The first communication unit 160 can be controlled to transmit to the corresponding external device. For example, when the voice recognition engine 181 recognizes raising the temperature, the first control unit 180 recognizes this as a voice for the air conditioner and transmits a command to raise the temperature of the air conditioner to the air conditioner 400. The first communication unit 160 can be controlled.

이하, 휴대폰(200)의 구체적인 구성에 관해 설명한다.Hereinafter, the specific configuration of the mobile phone 200 will be described.

도 2에 도시된 바와 같이, 휴대폰(200)은 음성취득장치로서 사용자가 발화한 음성을 입력받는 제2음성취득부(240), 입력된 음성을 전기적인 음성신호로 변환하는 제2음성변환부(250), 외부와 통신을 수행하는 제2통신부(260), 한정되지 않는 데이터가 저장되는 제2저장부(270) 및 휴대폰(200)을 제어하는 제2제어부(280)를 포함한다. As shown in FIG. 2, the mobile phone 200 is a voice acquisition device that includes a second voice acquisition unit 240 that receives the voice uttered by the user, and a second voice conversion unit that converts the input voice into an electrical voice signal. (250), a second communication unit 260 that communicates with the outside, a second storage unit 270 that stores unlimited data, and a second control unit 280 that controls the mobile phone 200.

제2음성취득부(240)는 사용자가 발화한 음성을 입력받는 것으로서, 마이크로 구현될 수 있다. 제2음성변환부(250)는 제2음성취득부(240)에서 입력된 음성을 전기적인 음성신호로 변환한다. 변환된 음성신호는 PCM(pulse code modulation) 상태 또는 압축된 형태의 오디오 파형의 형태를 가진다. 여기서, 제1음성변환부(250)는 사용자의 입력음성을 디지털로 변환하는 A/D 변환부로 구현될 수 있다.The second voice acquisition unit 240 receives the voice uttered by the user and can be implemented as a microphone. The second voice conversion unit 250 converts the voice input from the second voice acquisition unit 240 into an electrical voice signal. The converted voice signal has a PCM (pulse code modulation) state or a compressed audio waveform. Here, the first voice conversion unit 250 may be implemented as an A/D conversion unit that converts the user's input voice into digital.

한편, 제2음성취득부(240)가 디지털 마이크인 경우, 별도의 A/D 변환을 필요로 하지 않으므로, 제2음성취득부(240)가 제2음성변환부(240)를 포함할 수 있다.Meanwhile, when the second voice acquisition unit 240 is a digital microphone, separate A/D conversion is not required, so the second voice acquisition unit 240 may include a second voice conversion unit 240. .

제2통신부(260)는 디스플레이장치(100)와 통신을 수행한다. 본 실시예의 제2통신부(260)는 유선 또는 무선통신을 수행하며, 무선통신은 RF, 지그비, 블루투스 중 적어도 하나를 포함한다. The second communication unit 260 communicates with the display device 100. The second communication unit 260 of this embodiment performs wired or wireless communication, and the wireless communication includes at least one of RF, ZigBee, and Bluetooth.

본 실시예의 제2통신부(260)는 제2음성변환부(250)로부터 전달된 음성신호를 디스플레이장치(100)에 송신한다.The second communication unit 260 of this embodiment transmits the voice signal transmitted from the second voice conversion unit 250 to the display device 100.

제2저장부(270)는 제2제어부(280)의 제어에 따라서 한정되지 않은 데이터가 저장된다. 제2저장부(270)는 플래시메모리(flash-memory)와 같은 비휘발성 저장매체로 구현된다. 제2저장부(270)는 제2제어부(280)에 의해 액세스되며, 제2제어부(280)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행된다. The second storage unit 270 stores unlimited data under the control of the second control unit 280. The second storage unit 270 is implemented as a non-volatile storage medium such as flash memory. The second storage unit 270 is accessed by the second control unit 280, and reading/recording/editing/deleting/updating of data is performed by the second control unit 280.

제2저장부(270)에 저장되는 데이터는, 예를 들면 휴대폰(200)의 구동을 위한 운영체제를 비롯하여, 이 운영체제 상에서 실행 가능한 다양한 어플리케이션, 영상데이터, 부가데이터 등을 포함한다.Data stored in the second storage unit 270 includes, for example, an operating system for driving the mobile phone 200, various applications executable on this operating system, video data, additional data, etc.

제2제어부(280)는 휴대폰(200)의 다양한 구성에 대한 제어동작을 수행한다. 예를 들면, 제2제어부(280)는 사용자의 조작에 대응하는 커맨드를 생성하고, 생성된 커맨드에 대응하는 동작을 수행하여 그 결과를 디스플레이부(도시안됨)에 표시할 수 있다.The second control unit 280 performs control operations for various components of the mobile phone 200. For example, the second control unit 280 may generate a command corresponding to the user's operation, perform an operation corresponding to the generated command, and display the result on a display unit (not shown).

제2제어부(280)는 예를 들어 MCU(Micro Controller Unit)에 소프트웨어가 결합된 형태로 구현될 수 있다.For example, the second control unit 280 may be implemented in a form that combines software with an MCU (Micro Controller Unit).

본 실시예의 제2제어부(280)는 제2음성취득부(240)를 통해 사용자가 발화한 음성이 입력되면, 이를 전기적인 음성신호로 변환하도록 제2음성변환부(250)를 제어하고, 변환된 음성신호를 디스플레이장치(100)로 송신하도록 제2통신부(260)를 제어한다.The second control unit 280 of this embodiment controls the second voice conversion unit 250 to convert the voice uttered by the user into an electrical voice signal when the voice uttered by the user is input through the second voice acquisition unit 240. The second communication unit 260 is controlled to transmit the voice signal to the display device 100.

이하, 리모컨(300)의 구체적인 구성에 관해 설명한다.Hereinafter, the specific configuration of the remote control 300 will be described.

도 2에 도시된 바와 같이, 리모컨(300)은 음성취득장치이며 동시에 외부기기로서, 사용자의 조작을 입력받는 사용자입력부(330), 사용자가 발화한 음성을 입력받는 제3음성취득부(340), 입력된 음성을 전기적인 음성신호로 변환하는 제3음성변환부(350), 외부와 통신을 수행하는 제3통신부(360), 한정되지 않은 데이터가 저장되는 제3저장부(370) 및 리모컨(300)을 제어하는 제3제어부(380)를 포함한다. As shown in FIG. 2, the remote control 300 is a voice acquisition device and an external device, and includes a user input unit 330 that receives the user's operation, and a third voice acquisition unit 340 that receives the voice uttered by the user. , a third voice conversion unit 350 that converts the input voice into an electrical voice signal, a third communication unit 360 that communicates with the outside, a third storage unit 370 that stores unlimited data, and a remote control. It includes a third control unit 380 that controls 300.

사용자입력부(330)는 사용자의 조작 및 입력에 의해, 기 설정된 다양한 제어 커맨드 또는 한정되지 않은 정보를 제3제어부(380)에 전달한다. 사용자입력부(330)는 리모컨(300)의 외측에 설치된 메뉴 키, 숫자 키 등을 포함하는 버튼으로 구현될 수 있다. 리모컨(300)이 TV 리모컨인 경우, 사용자입력부(330)는 사용자의 터치입력을 수신하는 터치감지부 및/또는 리모컨(300)의 모션을 감지하는 모션감지부를 더 포함할 수 있다.The user input unit 330 transmits various preset control commands or unlimited information to the third control unit 380 through the user's manipulation and input. The user input unit 330 may be implemented as a button installed on the outside of the remote control 300, including a menu key and number keys. When the remote control 300 is a TV remote control, the user input unit 330 may further include a touch detection unit that receives the user's touch input and/or a motion detection unit that detects motion of the remote control 300.

제3음성취득부(340)는 사용자가 발화한 음성을 입력받는 것으로서, 마이크로 구현될 수 있다. The third voice acquisition unit 340 receives the voice uttered by the user and can be implemented as a microphone.

제3음성변환부(350)는 제3음성취득부(340)에서 입력된 음성을 전기적인 음성신호로 변환한다. 변환된 음성신호는 PCM(pulse code modulation) 상태 또는 압축된 형태의 오디오 파형의 형태를 가진다. 여기서, 제3음성변환부(350)는 사용자의 입력음성을 디지털로 변환하는 A/D 변환부로 구현될 수 있다.The third voice conversion unit 350 converts the voice input from the third voice acquisition unit 340 into an electrical voice signal. The converted voice signal has a PCM (pulse code modulation) state or a compressed audio waveform. Here, the third voice conversion unit 350 may be implemented as an A/D conversion unit that converts the user's input voice into digital.

한편, 제3음성취득부(340)가 디지털 마이크인 경우, 별도의 A/D 변환을 필요로 하지 않으므로, 제3음성취득부(340)는 제3음성변환부(350)를 포함할 수 있다.Meanwhile, when the third voice acquisition unit 340 is a digital microphone, separate A/D conversion is not required, so the third voice acquisition unit 340 may include a third voice conversion unit 350. .

제3통신부(360)는 디스플레이장치(100)와 통신을 수행한다. 본 실시예의 제3통신부(360)는 무선통신을 수행하며, 무선통신은 적외선 통신, RF, 지그비, 블루투스 중 적어도 하나를 포함한다. The third communication unit 360 communicates with the display device 100. The third communication unit 360 of this embodiment performs wireless communication, and the wireless communication includes at least one of infrared communication, RF, ZigBee, and Bluetooth.

본 실시예의 제3통신부(360)는 제3음성변환부(350)로부터 전달된 음성신호를 디스플레이장치(100)에 송신하며, 후술하는 제3저장부(370) 내의 어플리케이션 3(372)에 의해 관리되는 후보 명령어를 디스플레이장치(100)에 송신한다.The third communication unit 360 of this embodiment transmits the voice signal transmitted from the third voice conversion unit 350 to the display device 100, and is transmitted by application 3 (372) in the third storage unit 370, which will be described later. The managed candidate command is transmitted to the display device 100.

제3저장부(370)는 제3제어부(380)의 제어에 따라서 한정되지 않은 데이터가 저장된다. 제3저장부(370)는 플래시메모리(flash-memory)와 같은 비휘발성 저장매체로 구현된다. 제3저장부(370)는 제3제어부(380)에 의해 액세스되며, 제3제어부(380)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행된다. The third storage unit 370 stores unlimited data under the control of the third control unit 380. The third storage unit 370 is implemented as a non-volatile storage medium such as flash memory. The third storage unit 370 is accessed by the third control unit 380, and data reading/recording/editing/deleting/updating, etc. is performed by the third control unit 380.

제3저장부(370)에 저장되는 데이터는, 예를 들면 리모컨(300)의 구동을 위한 운영체제를 비롯하여, 이 운영체제 상에서 실행 가능한 다양한 어플리케이션, 영상데이터, 부가데이터 등을 포함한다.Data stored in the third storage unit 370 includes, for example, an operating system for driving the remote control 300, various applications executable on this operating system, video data, additional data, etc.

본 실시예의 제3저장부(370)에는 리모컨(300)의 기능 수행을 위한 하나 이상의 어플리케이션 예를 들어, 어플리케이션 3(372)이 더 저장된다. 어플리케이션 3(372)는 후술하는 제3제어부(380)의 제어에 따라 구동되어, 리모컨(300)의 각종 기능을 수행한다. 본 발명에서는 어플리케이션 3(372)과 후술하는 어플리케이션 4(472)를 디스플레이장치(100) 내장 어플리케이션(172, 173)과의 구별을 위해 외부 어플리케이션이라 한다.In the third storage unit 370 of this embodiment, one or more applications, for example, application 3 372, for performing the functions of the remote control 300 are further stored. Application 3 372 is driven under the control of the third control unit 380, which will be described later, and performs various functions of the remote control 300. In the present invention, application 3 (372) and application 4 (472), which will be described later, are referred to as external applications to distinguish them from the applications (172 and 173) built into the display device (100).

도 2에서는 리모컨(300)에 1개의 어플리케이션(372)이 마련된 경우를 예로 들어 도시하였지만, 본 발명은 리모컨(300)에 2개 이상의 어플리케이션이 구비되는 경우도 포함한다.Although FIG. 2 shows an example in which one application 372 is provided in the remote control 300, the present invention also includes a case in which two or more applications are provided in the remote control 300.

어플리케이션 3(372)은 수행하는 기능에 대응하는 후보 명령어를 관리한다. 어플리케이션 3(372)에서 관리되는 후보 명령어들은 필요에 따라 디스플레이장치(100)의 명령어 테이블(171)에 등록/삭제될 수 있다.Application 3 372 manages candidate instructions corresponding to the function being performed. Candidate commands managed in application 3 372 may be registered/deleted in the command table 171 of the display device 100 as needed.

제3제어부(380)는 리모컨(300)의 다양한 구성에 대한 제어동작을 수행한다. 예를 들면, 제3제어부(260)는 사용자입력부(330)에 대한 사용자의 조작에 대응하는 커맨드를 생성하고, 생성된 커맨드를 디스플레이장치(100)로 송신하도록 제3통신부(360)를 제어할 수 있다.The third control unit 380 performs control operations for various components of the remote control 300. For example, the third control unit 260 generates a command corresponding to the user's operation on the user input unit 330 and controls the third communication unit 360 to transmit the generated command to the display device 100. You can.

제3제어부(380)는 예를 들어 MCU(Micro Controller Unit)에 소프트웨어가 결합된 형태로 구현될 수 있다.For example, the third control unit 380 may be implemented in the form of software combined with an MCU (Micro Controller Unit).

본 실시예의 제3제어부(380)는 제3음성취득부(340)를 통해 사용자가 발화한 음성이 입력되면, 이를 전기적인 음성신호로 변환하도록 제3음성변환부(350)를 제어하고, 변환된 음성신호를 디스플레이장치(100)로 송신하도록 제3통신부(360)를 제어한다. The third control unit 380 of this embodiment controls the third voice conversion unit 350 to convert the voice uttered by the user into an electrical voice signal when the voice uttered by the user is input through the third voice acquisition unit 340. The third communication unit 360 is controlled to transmit the audio signal to the display device 100.

제3제어부(380)는 디스플레이장치(100)와 통신을 수행하면서, 제3저장부(370)의 어플리케이션 3(372)에서 관리되는 후보 명령어를 디스플레이장치(100)로 송신할 수 있다. 송신된 후보 명령어는 디스플레이장치(100)의 명령어 테이블(171)에 등록되어, 음성인식엔진(181)의 음성인식 동작에 이용된다.The third control unit 380 may transmit a candidate command managed in application 3 372 of the third storage unit 370 to the display apparatus 100 while communicating with the display apparatus 100 . The transmitted candidate command is registered in the command table 171 of the display device 100 and used for the voice recognition operation of the voice recognition engine 181.

또한, 제3제어부(380)는 디스플레이장치(100)로부터 음성인식에 따른 제어명령이 수신되는 경우, 제3통신부(360)를 통해 이를 수신하고, 수신된 제어명령에 대응하는 동작을 수행할 수 있다.In addition, when a control command based on voice recognition is received from the display device 100, the third control unit 380 can receive it through the third communication unit 360 and perform an operation corresponding to the received control command. there is.

이하, 에어컨(400)의 구체적인 구성에 관해 설명한다.Hereinafter, the specific configuration of the air conditioner 400 will be described.

도 2에 도시된 바와 같이, 에어컨(400)은 외부기기로서, 외부와 통신을 수행하는 제4통신부(340), 한정되지 않은 데이터가 저장되는 제4 저장부(470) 및 에어컨(400)를 제어하는 제4제어부(480)를 포함한다. As shown in FIG. 2, the air conditioner 400 is an external device and includes a fourth communication unit 340 that communicates with the outside, a fourth storage unit 470 that stores unlimited data, and the air conditioner 400. It includes a fourth control unit 480 that controls.

제4통신부(460)는 디스플레이장치(100)와 통신을 수행한다. 본 실시예의 제4통신부(460)는 무선통신을 수행하며, 무선통신은 RF, 지그비, 블루투스 중 적어도 하나를 포함한다. The fourth communication unit 460 performs communication with the display device 100. The fourth communication unit 460 of this embodiment performs wireless communication, and the wireless communication includes at least one of RF, ZigBee, and Bluetooth.

본 실시예의 제4통신부(460)는 후술하는 제4저장부(370) 내의 어플리케이션 4(472)에 의해 관리되는 후보 명령어를 디스플레이장치(100)에 송신한다.The fourth communication unit 460 of this embodiment transmits a candidate command managed by application 4 472 in the fourth storage unit 370, which will be described later, to the display device 100.

제4저장부(470)는 제4제어부(480)의 제어에 따라서 한정되지 않은 데이터가 저장된다. 제4저장부(470)는 플래시메모리(flash-memory)와 같은 비휘발성 저장매체로 구현된다. 제4저장부(470)는 제4제어부(480)에 의해 액세스되며, 제4제어부(480)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행된다. The fourth storage unit 470 stores unlimited data under the control of the fourth control unit 480. The fourth storage unit 470 is implemented as a non-volatile storage medium such as flash memory. The fourth storage unit 470 is accessed by the fourth control unit 480, and data reading/writing/editing/deleting/updating, etc. is performed by the fourth control unit 480.

제4저장부(470)에 저장되는 데이터는, 예를 들면 휴대폰(200)의 구동을 위한 운영체제를 비롯하여, 이 운영체제 상에서 실행 가능한 다양한 어플리케이션, 부가데이터 등을 포함한다.Data stored in the fourth storage unit 470 includes, for example, an operating system for driving the mobile phone 200, various applications executable on this operating system, and additional data.

본 실시예의 제4저장부(470)에는 에어컨(300)의 기능 수행을 위한 하나 이상의 어플리케이션(외부 어플리케이션) 예를 들어, 어플리케이션 4(472)가 더 저장된다. 어플리케이션 4(472)는 후술하는 제4제어부(480)의 제어에 따라 구동되어, 에어컨(400)의 각종 기능을 수행한다. In the fourth storage unit 470 of this embodiment, one or more applications (external applications) for performing the functions of the air conditioner 300, for example, application 4 472, are further stored. Application 4 472 is driven under the control of the fourth control unit 480, which will be described later, and performs various functions of the air conditioner 400.

도 2에서는 에어컨(400)에 1개의 어플리케이션(472)이 마련된 경우를 예로 들어 도시하였지만, 본 발명은 에어컨(400)에 2개 이상의 어플리케이션이 구비되는 경우도 포함한다.Although FIG. 2 shows an example in which one application 472 is provided in the air conditioner 400, the present invention also includes a case in which two or more applications are provided in the air conditioner 400.

어플리케이션 4(472)는 수행하는 기능에 대응하는 후보 명령어를 관리한다. 어플리케이션 4(472)에서 관리되는 후보 명령어들은 필요에 따라 디스플레이장치(100)의 명령어 테이블(171)에 등록/삭제될 수 있다.Application 4 472 manages candidate instructions corresponding to the function being performed. Candidate commands managed in application 4 472 may be registered/deleted in the command table 171 of the display device 100 as needed.

제4제어부(460)는 에어컨(400)의 다양한 구성에 대한 제어동작을 수행한다. 예를 들면, 제4제어부(260)는 에어컨 리모컨에 대한 사용자의 조작에 대응하는 제어명령을 수신하고, 수신된 제어명령에 따른 제어동작 예를 들어, 온도 조절 등을 수행할 수 있다.The fourth control unit 460 performs control operations for various components of the air conditioner 400. For example, the fourth control unit 260 may receive a control command corresponding to the user's operation of the air conditioner remote control and perform control operations according to the received control command, such as temperature control.

제4제어부(460)는 예를 들어 MCU(Micro Controller Unit)에 소프트웨어가 결합된 형태로 구현될 수 있다.For example, the fourth control unit 460 may be implemented in a form in which software is combined with an MCU (Micro Controller Unit).

본 실시예의 제4제어부(460)는 디스플레이장치(100)와 통신을 수행하면서, 제4저장부(470)의 어플리케이션 4(472)에서 관리되는 후보 명령어를 디스플레이장치(100)로 송신할 수 있다. 송신된 후보 명령어는 디스플레이장치(100)의 명령어 테이블(171)에 등록되어, 음성인식엔진(181)의 음성인식 동작에 이용된다.The fourth control unit 460 of this embodiment may transmit a candidate command managed in application 4 472 of the fourth storage unit 470 to the display device 100 while communicating with the display device 100. . The transmitted candidate command is registered in the command table 171 of the display device 100 and used for the voice recognition operation of the voice recognition engine 181.

또한, 제4제어부(480)는 디스플레이장치(100)로부터 음성인식에 따른 제어명령이 수신되는 경우, 제4통신부(460)를 통해 이를 수신하고, 수신된 제어명령에 대응하는 동작을 수행할 수 있다.In addition, when a control command according to voice recognition is received from the display device 100, the fourth control unit 480 can receive it through the fourth communication unit 460 and perform an operation corresponding to the received control command. there is.

도 2의 실시예에 따르면, 본 발명 음성인식시스템의 메인기기로서 디스플레이장치(100)의 제1제어부(180)는 복수의 음성취득부(140, 240, 340) 중 적어도 어느 하나로부터 입력 음성이 감지되면, 음성 입력이 감지된 음성취득부로부터 음성신호를 수신하도록 제1통신부(140)를 제어한다. 또한, 제1제어부(180)는 수신된 음성신호를 인식하기 위한 후보 명령어를 제1통신부(140)를 통해 복수의 외부기기(300, 400)의 외부 어플리케이션(372, 472) 중 적어도 하나 또는 내장 어플리케이션(172, 173)로부터 전달받고, 전달받은 후보 명령어는 제1저장부(170)의 명령어 테이블(171)에 등록한다. 음성인식엔진(181)은 명령어 테이블(171)에 등록된 후보 명령어와 음성신호를 비교하여, 음성인식을 수행하게 된다.According to the embodiment of FIG. 2, the first control unit 180 of the display device 100 as the main device of the voice recognition system of the present invention receives input voice from at least one of the plurality of voice acquisition units 140, 240, and 340. When detected, the first communication unit 140 is controlled to receive a voice signal from the voice acquisition unit that detects the voice input. In addition, the first control unit 180 sends a candidate command for recognizing the received voice signal to at least one of the external applications 372 and 472 of the plurality of external devices 300 and 400 or the built-in command through the first communication unit 140. Candidate commands are received from the applications 172 and 173, and are registered in the command table 171 of the first storage unit 170. The voice recognition engine 181 compares the voice signal with the candidate command registered in the command table 171 and performs voice recognition.

이렇게 본 실시예에 따른 메인기기로서 디스플레이장치(100)는 사용자의 발화를 입력 받을 수 있는 다양한 장비에서 입력되는 음성을 감지하므로, 다양한 음성취득장비의 활용도를 높일 수 있다. 또한, 음성인식을 위한 후보 명령어를 구동중인 어플리케이션으로부터 전달받아 사용하므로, 음성인식을 위한 후보 명령어들을 동적으로 등록/삭제 가능하도록 함으로써, 메인기기가 구비하는 후보 명령어들이 불필요하게 무한 증가되는 것을 방지할 수 있다.In this way, the display device 100, as the main device according to this embodiment, detects voice input from various devices that can input the user's speech, thereby increasing the utilization of various voice acquisition devices. In addition, since the candidate commands for voice recognition are received and used from the running application, candidate commands for voice recognition can be dynamically registered/deleted, preventing the candidate commands provided by the main device from increasing unnecessarily infinitely. You can.

한편, 본 발명 실시예의 디스플레이장치(100)는 디스플레이장치(100)에 구비된 음성취득부(140)로부터 음성인식을 입력받고, 내부 어플리케이션(171, 172, 173)과 외부 어플리케이션(372, 472) 중 적어도 하나로부터 후보 명령어를 수신하여, 음성인식엔진(181)에서 음성인식을 수행하도록 구현될 수 있다.Meanwhile, the display device 100 according to an embodiment of the present invention receives voice recognition input from the voice acquisition unit 140 provided in the display device 100, and internal applications 171, 172, 173 and external applications 372, 472. It can be implemented to perform voice recognition in the voice recognition engine 181 by receiving a candidate command from at least one of the commands.

이하, 도 3 및 도 4를 참조하여, 본 발명의 음성인식시스템에서 음성인식을 수행하는 일실시예에 대하여 보다 상세하게 설명하기로 한다.Hereinafter, with reference to FIGS. 3 and 4, an embodiment of performing voice recognition in the voice recognition system of the present invention will be described in more detail.

도 3은 본 발명 일실시예에 따라 음성인식을 수행하는 예를 설명하는 도면이고, 도 4는 도 3의 음성인식 결과 표시되는 화면의 예를 도시한 도면이다.Figure 3 is a diagram illustrating an example of performing voice recognition according to an embodiment of the present invention, and Figure 4 is a diagram illustrating an example of a screen displayed as a result of voice recognition in Figure 3.

도 3에 도시된 바와 같이, 디스플레이장치(100)는 하나 이상의 어플리케이션(내장 어플리케이션 및 외부 어플리케이션 포함)으로부터 명령어 테이블(171)에 저장되는 후보 명령어를 등록 받을 수 있다. As shown in FIG. 3, the display device 100 can register candidate commands stored in the command table 171 from one or more applications (including built-in applications and external applications).

구체적으로, 도 3을 참조하면, 어플리케이션 1(172)(내장 어플리케이션)로부터 명령어 테이블(171)로 명령어 A, B가 전달되고(501), 전달된 명령어 A, B는 명령어 테이블(171)에 저장된다(502). 음성인식엔진(181)은 명령어 테이블(171)에 저장된 명령어 A, B를 후보 명령어로 등록한다(504). Specifically, referring to FIG. 3, commands A and B are transferred from application 1 (172) (built-in application) to the command table 171 (501), and the delivered commands A and B are stored in the command table 171. becomes (502). The voice recognition engine 181 registers commands A and B stored in the command table 171 as candidate commands (504).

또한, 어플리케이션 3(372)(외부 어플리케이션)으로부터 명령어 테이블(171)로 명령어 C, D가 전달되고(505), 전달된 명령어 C, D는 명령어 테이블(171)에 등록된다(507). 음성인식엔진(181)은 명령어 테이블(171)에 저장된 명령어 C, D를 후보 명령어로 등록한다(508). Additionally, commands C and D are transferred from application 3 372 (external application) to the command table 171 (505), and the delivered commands C and D are registered in the command table 171 (507). The voice recognition engine 181 registers commands C and D stored in the command table 171 as candidate commands (508).

따라서, 음성인식엔진(181)에는 어플리케이션 1(172) 및 어플리케이션 3(372)로부터 전달된 A, B, C, D가 후보 명령어로 등록된다. Accordingly, A, B, C, and D delivered from Application 1 (172) and Application 3 (372) are registered as candidate commands in the voice recognition engine 181.

이렇게 A, B, C, D가 후보 명령어로 등록된 상태에서, 디스플레이장치(100)와 분리된 제2음성취득부(240)에서 A 가 음성 입력되는 것을 감지할 수 있다. 감지된 음성 A는 제2음성변환부(250)에서 음성신호로 변환되어, 제2 및 제1 통신부(260, 160)를 통해 음성인식엔진(181)으로 전달된다(509). With A, B, C, and D registered as candidate commands, the second voice acquisition unit 240, which is separate from the display device 100, can detect A as a voice input. The detected voice A is converted into a voice signal in the second voice conversion unit 250 and transmitted to the voice recognition engine 181 through the second and first communication units 260 and 160 (509).

음성인식엔진(181)은 A 음성에 대한 음성신호를 등록된 후보 명령어 A, B, C, D와 비교하고 일치 또는 유사한 명령어를 결정하여, A 음성을 인식한다(510).The voice recognition engine 181 compares the voice signal for voice A with the registered candidate commands A, B, C, and D and determines a matching or similar command to recognize voice A (510).

제1제어부(180)는 인식결과를 디스플레이부(130)로 전달하고(511), 디스플레이부(130)에는 도 4와 같은 음성인식 결과화면이 표시될 수 있다.The first control unit 180 transmits the recognition result to the display unit 130 (511), and the display unit 130 may display a voice recognition result screen as shown in FIG. 4.

도 4에 도시된 바와 같이, 디스플레이부(130)에는 음성인식 결과 A(60)와, 음성인식 결과에 따른 후보 명령어 A, B, C, D(61, 62, 63, 64)를 나타내는 UI가 표시될 수 있다. 또한, 디스플레이부(130)에는 음성인식 결과에 따른 명령어 A를 관리하는 어플리케이션 정보(어플리케이션 1)(65)를 나타내는 UI가 더 표시될 수 있다.As shown in FIG. 4, the display unit 130 has a UI showing voice recognition result A (60) and candidate commands A, B, C, and D (61, 62, 63, 64) according to the voice recognition result. can be displayed. In addition, the display unit 130 may further display a UI indicating application information (application 1) 65 that manages command A according to the voice recognition result.

사용자는 도 4와 같이 화면에 표시되는 UI를 통해, 음성인식 결과뿐 아니라 후보 명령어까지 확인할 수 있고, 음성인식 결과가 발화 의도와 맞지 않은 경우, 후보 명령어 중 어느 하나를 선택할 수 있다. 또한, 어플리케이션 정보를 통해 음성인식결과와 관련된 장치의 정보까지도 획득 가능하다.The user can check not only the voice recognition results but also the candidate commands through the UI displayed on the screen as shown in Figure 4, and if the voice recognition results do not match the utterance intention, the user can select one of the candidate commands. In addition, it is possible to obtain device information related to voice recognition results through application information.

제1제어부(180)는 도 4와 같은 음성인식 결과에 따른 제어명령을 어플리케이션 1(172)로 전달한다(512). 어플리케이션 1(172)는 제1제어부(180)의 제어에 따라 인식된 음성 A에 따른 제어동작을 수행하게 된다. 예를 들어, 음성 A가 볼륨 내려인 경우, 디스플레이장치(100)의 볼륨이 작게 조절된다.The first control unit 180 transmits a control command according to the voice recognition result as shown in FIG. 4 to application 1 (172) (512). Application 1 (172) performs a control operation according to the recognized voice A under the control of the first control unit (180). For example, when voice A says volume down, the volume of the display device 100 is adjusted to be low.

도 3 및 도 4에서 설명한 바와 같이, 본 발명의 디스플레이장치(100)는 기설정된 조건에 따라 일부 어플리케이션의 명령어(예를 들어, A, B, C, D)를 후보어로 미리 등록하고, 사용자의 음성 발화가 감지되면 미리 등록된 후보 명령어를 이용하여 음성을 인식하고, 그 결과를 표시, 대응하는 제어동작을 실행할 수 있다.As described in FIGS. 3 and 4, the display device 100 of the present invention pre-registers commands (e.g., A, B, C, D) of some applications as candidate words according to preset conditions, and registers the commands of some applications as candidate words according to preset conditions. When a voice utterance is detected, the voice can be recognized using a pre-registered candidate command, the result can be displayed, and the corresponding control action can be executed.

도 3 및 도 4의 실시예에서는 어플리케이션 1(172)과 어플리케이션 3(372)의 명령어가 후보 명령어로 등록되고, 제2음성취득부(240)를 통해 사용자 음성을 입력받는 경우를 예로 들어 설명하였지만, 본 발명은 다양한 내장 및 외부 어플리케이션으로부터 명령어를 전달받아 후보 명령어를 동적으로 등록/삭제할 수 있으며, 다양한 음성취득부로부터 음성을 입력받는 경우를 모두 포함함은 물론이다. 3 and 4, the commands of application 1 (172) and application 3 (372) are registered as candidate commands and the user's voice is input through the second voice acquisition unit 240. , the present invention can dynamically register/delete candidate commands by receiving commands from various built-in and external applications, and of course includes all cases of receiving voice input from various voice acquisition units.

이하, 도 5를 참조하여, 본 발명의 음성인식시스템에서 음성인식을 수행하는 다른 실시예에 대하여 보다 상세하게 설명하기로 한다.Hereinafter, with reference to FIG. 5, another embodiment of performing voice recognition in the voice recognition system of the present invention will be described in more detail.

도 5는 본 발명 다른 실시예에 따라 음성인식을 수행하는 예를 설명하는 도면이다.Figure 5 is a diagram illustrating an example of performing voice recognition according to another embodiment of the present invention.

도 5에 도시된 바와 같이, 디스플레이장치(100)와 분리된 제3음성취득부(340)에서 E 가 음성 입력되는 것을 감지할 수 있다. 감지된 음성 E는 제3음성변환부(350)에서 음성신호로 변환되어, 제3 및 제1 통신부(360, 160)를 통해 음성인식엔진(181)으로 전달된다(701). As shown in FIG. 5, the third voice acquisition unit 340, which is separate from the display device 100, can detect that E is being voice input. The detected voice E is converted into a voice signal in the third voice conversion unit 350 and transmitted to the voice recognition engine 181 through the third and first communication units 360 and 160 (701).

디스플레이장치(100)는 음성입력이 감지된 기기에 대응하는 어플리케이션 3(372)로부터 명령어 테이블(171)에 저장되는 후보 명령어를 등록 받을 수 있다. 구체적으로, 도 5를 참조하면, 어플리케이션 3(372)로부터 명령어 테이블(171)로 명령어 E, F가 전달되고(702), 전달된 명령어 E, F는 명령어 테이블(171)에 저장된다(703). 음성인식엔진(181)은 명령어 테이블(171)에 저장된 명령어 E, F를 후보 명령어로 등록한다(705). The display device 100 may register a candidate command stored in the command table 171 from application 3 372 corresponding to the device for which voice input was detected. Specifically, referring to FIG. 5, commands E and F are transferred from application 3 372 to the command table 171 (702), and the delivered commands E and F are stored in the command table 171 (703). . The voice recognition engine 181 registers the commands E and F stored in the command table 171 as candidate commands (705).

따라서, 음성인식엔진(181)에는 어플리케이션 3(372)로부터 전달된 E, F 가 후보 명령어로 등록된다. Accordingly, E and F delivered from application 3 372 are registered as candidate commands in the voice recognition engine 181.

이렇게 E, F 가 후보 명령어로 등록된 상태에서, 음성인식엔진(181)은 E 음성에 대한 음성신호를 등록된 후보 명령어 E, F 와 비교하고 일치 또는 유사한 명령어를 결정하여, E 음성을 인식한다(706).With E and F registered as candidate commands, the voice recognition engine 181 compares the voice signal for voice E with the registered candidate commands E and F, determines a matching or similar command, and recognizes voice E. (706).

제1제어부(180)는 인식결과를 디스플레이부(130)로 전달하고(707), 디스플레이부(130)에는 음성인식 결과화면이 표시될 수 있다.The first control unit 180 transmits the recognition result to the display unit 130 (707), and a voice recognition result screen can be displayed on the display unit 130.

제1제어부(180)는 음성인식 결과에 따른 제어명령을 어플리케이션 3(372)로 전달한다(708). 어플리케이션 3(372)는 제3제어부(380)의 제어에 따라 인식된 음성 E에 따른 제어동작을 수행하게 된다. 여기서, 음성인식 결과에 따른 제어명령이 디스플레이장치(100)를 제어하는 명령인 경우, 제어명령은 어플리케이션 1(172) 또는 어플리케이션 2(173)로 전달될 수 있다.The first control unit 180 transmits a control command according to the voice recognition result to application 3 (372) (708). Application 3 (372) performs a control operation according to the recognized voice E under the control of the third control unit (380). Here, when the control command according to the voice recognition result is a command to control the display device 100, the control command may be transmitted to Application 1 (172) or Application 2 (173).

도 5에서 설명한 바와 같이, 본 발명의 디스플레이장치(100)는 사용자의 음성 발화가 감지되면, 음성이 입력된 기기에 대응하는 어플리케이션의 명령어(예를 들어, E, F)를 후보 명령어로 등록하고, 당해 등록된 후보 명령어를 이용하여 음성을 인식하고, 그 결과를 표시, 대응하는 제어동작을 실행할 수 있다. 후보 명령어는 동적으로 등록/삭제가 가능하다.As described in FIG. 5, when the user's voice utterance is detected, the display device 100 of the present invention registers the command (for example, E, F) of the application corresponding to the device through which the voice was input as a candidate command, and , the voice can be recognized using the registered candidate command, the result can be displayed, and the corresponding control operation can be executed. Candidate instructions can be dynamically registered/deleted.

도 5의 실시예에서는 제3음성취득부(340)를 통해 사용자 음성을 입력받고, 어플리케이션 3(372)의 명령어가 후보 명령어로 등록되는 경우를 예로 들어 설명하였지만, 본 발명은 다양한 음성취득부로부터 음성을 입력받을 수 있으며, 다양한 내장 및 외부 어플리케이션으로부터 명령어를 전달받아 후보 명령어를 동적으로 등록/삭제하는 경우를 모두 포함함은 물론이다. In the embodiment of FIG. 5, the case where the user's voice is input through the third voice acquisition unit 340 and the command of application 3 (372) is registered as a candidate command has been described as an example, but the present invention is provided by various voice acquisition units. Voice input can be received, and of course, all cases of receiving commands from various built-in and external applications and dynamically registering/deleting candidate commands are included.

이하, 본 실시예에 따른 음성인식시스템의 음성인식방법에 관해 도면을 참조하여 설명한다.Hereinafter, the voice recognition method of the voice recognition system according to this embodiment will be described with reference to the drawings.

도 6은 본 발명 실시예에 의한 음성인식시스템의 음성인식방법을 도시한 흐름도이다.Figure 6 is a flowchart showing a voice recognition method of a voice recognition system according to an embodiment of the present invention.

도 6에 도시된 바와 같이, 본 발명의 음성인식시스템은 복수의 음성취득부(140, 240, 340) 중 어느 적어도 하나로부터 음성입력을 감지할 수 있다(S810). 여기서, 감지된 사용자 음성은 대응하는 음성변환부(150, 250, 350)에서 전기적인 음성신호로 변환된다As shown in FIG. 6, the voice recognition system of the present invention can detect voice input from at least one of the plurality of voice acquisition units 140, 240, and 340 (S810). Here, the detected user voice is converted into an electrical voice signal in the corresponding voice conversion unit (150, 250, 350).

제1제어부(180)는 단계 S810에서 감지 및 변환된 음성신호를 수신한다(S820). 여기서, 외부의 음성취득부(240, 340)에서 음성입력이 감지된 경우, 제1통신부(160)를 통해 음성신호가 수신될 수 있다.The first control unit 180 receives the voice signal detected and converted in step S810 (S820). Here, when a voice input is detected by the external voice acquisition units 240 and 340, a voice signal can be received through the first communication unit 160.

음성인식엔진(181)에는 단계 S820에서 수신된 음성신호의 음성인식을 위한 후보 명령어가 등록된다(S830). 여기서, 등록되는 후보 명령어는 명령어 테이블(171)에 미리 저장된 것이거나, 내장 또는 외부 어플리케이션(172, 173, 372, 472)로부터 수신되어 명령어 테이블(171)에 동적으로 저장된 것일 수 있다.A candidate command for voice recognition of the voice signal received in step S820 is registered in the voice recognition engine 181 (S830). Here, the registered candidate command may be pre-stored in the command table 171, or may be received from a built-in or external application (172, 173, 372, 472) and dynamically stored in the command table 171.

음성인식엔진(181)은 단계 S830에서 등록된 후보 명령어를 이용하여 단계 S810에서 사용자가 발화한 음성을 인식한다(S840).The voice recognition engine 181 recognizes the voice uttered by the user in step S810 using the candidate command registered in step S830 (S840).

제1제어부(180)는 단계 S840의 음성인식 결과를 디스플레이부(130)에 표시한다. 여기서, 디스플레이부(130)에는 음성신호에 대한 음성인식 결과, 음성인식 결과에 따른 후보 명령어, 어플리케이션 정보 등이 표시될 수 있다.The first control unit 180 displays the voice recognition result of step S840 on the display unit 130. Here, the display unit 130 may display voice recognition results for voice signals, candidate commands according to the voice recognition results, application information, etc.

제1제어부(180)는 단계 S840의 음성인식 결과에 따른 제어명령을 생성하여 이를 수행할 수 있는 어플리케이션으로 전달한다(S860). 이에 따라, 생성된 제어명령에 따른 동작이 수행될 수 있다. The first control unit 180 generates a control command according to the voice recognition result of step S840 and transmits it to an application that can execute it (S860). Accordingly, an operation according to the generated control command can be performed.

도 7은 도 6의 음성입력을 감지하는 과정을 보다 상세하게 도시한 흐름도이다.Figure 7 is a flowchart showing the process of detecting the voice input of Figure 6 in more detail.

도 7에 도시된 바와 같이, 메인기기인 디스플레이장치(100)는 음성에 의한 사용자 입력이 가능한 음성 입력모드로 동작할 수 있다(S811). 본 발명에서의 음성 입력모드는 다양한 음성취득부(140, 240, 340)로부터 음성입력이 가능하도록 동작된다.As shown in FIG. 7, the display device 100, which is the main device, can operate in a voice input mode that allows user input by voice (S811). The voice input mode in the present invention operates to enable voice input from various voice acquisition units (140, 240, 340).

음성입력을 감지하는 방법 중 하나로서, 제1제어부(180)는 복수의 음성취득부(140, 240, 340) 중 어느 하나에서 웨이크업 키워드의 발화를 감지할 수 있다(S812). 여기서, 웨이크업 키워드는 특정 음성취득부를 통한 음성입력을 활성화시키는 것으로서, 미리 설정될 수 있다. 예를 들어, 디스플레이장치(100)의 제1음성취득부(140)는 채널, 볼륨 등의 TV 제어와 관련된 음성을 웨이크업 키워드로 설정할 수 있으며, 휴대폰(200)의 제2음성취득부(240)는 통화, 연락처 등과 관련된 음성을 웨이크업 키워드로 설정할 수 있다. As one of the methods for detecting voice input, the first control unit 180 can detect the utterance of a wake-up keyword in any one of the plurality of voice acquisition units 140, 240, and 340 (S812). Here, the wake-up keyword activates voice input through a specific voice acquisition unit and can be set in advance. For example, the first voice acquisition unit 140 of the display device 100 may set a voice related to TV control such as channel and volume as a wake-up keyword, and the second voice acquisition unit 240 of the mobile phone 200 may set the voice related to TV control, such as channel and volume, as a wake-up keyword. ) can set voices related to calls, contacts, etc. as wake-up keywords.

한편, 음성입력을 감지하는 다른 방법으로서, 제1제어부(180)는 복수의 음성취득부(140, 240, 340) 중 어느 하나로부터 소정 버튼(음성입력 버튼)의 조작에 따른 트리거 신호가 입력되면, 해당 음성취득부로부터 음성입력을 감지할 수 있다(S813). 예를 들어, 사용자가 특정 음성취득장치에 마련된 음성입력 버튼을 조작하면, 해당 장치에 구비된 음성입력부로부터 음성이 입력되는 것이 감지된다.Meanwhile, as another method of detecting voice input, the first control unit 180 receives a trigger signal according to the operation of a predetermined button (voice input button) from any one of the plurality of voice acquisition units 140, 240, and 340. , Voice input can be detected from the corresponding voice acquisition unit (S813). For example, when a user operates a voice input button provided on a specific voice acquisition device, voice input is detected from a voice input unit provided on the device.

제1제어부(180)는 단계 S812 및 S813의 감지 결과에 따라, 복수의 음성취득부(140, 240, 340) 중 음성입력에 해당하는 어느 하나를 활성화한다(S812). 이렇게 어느 하나의 음성취득부를 활성화 함으로써 불필요한 음성이 감지되어 혼란을 야기하는 것을 방지할 수 있다.The first control unit 180 activates one of the plurality of voice acquisition units 140, 240, and 340 corresponding to voice input according to the detection results of steps S812 and S813 (S812). By activating any one voice acquisition unit in this way, it is possible to prevent unnecessary voices from being detected and causing confusion.

그리고, 단계 S820에서 활성화된 음성취득부로부터 음성인식엔진(181)으로 음성신호가 수신되어, 음성인식을 수행할 수 있게 된다.Then, a voice signal is received from the voice acquisition unit activated in step S820 to the voice recognition engine 181, allowing voice recognition to be performed.

도 8은 도 6의 음성인식을 수행하는 과정을 보다 상세하게 도시한 흐름도이다.FIG. 8 is a flowchart showing the process of performing voice recognition in FIG. 6 in more detail.

도 8에 도시된 바와 같이, 도 6의 단계 S830과 같이 음성인식엔진(181)은 복수의 어플리케이션(172, 372, 472) 중 하나 이상의 소정 어플리케이션으로부터 후보 명령어를 수신 및 등록할 수 있다.As shown in FIG. 8, in step S830 of FIG. 6, the voice recognition engine 181 may receive and register a candidate command from one or more applications among the plurality of applications 172, 372, and 472.

음성인식엔진(181)은 단계 S830에서 등록된 후보 명령어와 도 6의 단계 S820에서 수신된 음성신호와 일치/유사 여부를 판단할 수 있다(S841).The voice recognition engine 181 may determine whether the candidate command registered in step S830 matches/is similar to the voice signal received in step S820 of FIG. 6 (S841).

단계 S840의 판단 결과, 일치/유사한 후보 명령어가 존재하면, 음성인식엔진(181)은 일치/유사한 명령어를 결정하여 음성인식을 수행하고, 제1제어부(180)는 그 결과를 디스플레이부(130)에 표시하게 된다. As a result of the determination in step S840, if there is a matching/similar candidate command, the voice recognition engine 181 determines the matching/similar command and performs voice recognition, and the first control unit 180 displays the result to the display unit 130. It will be displayed in .

단계 S840의 판단 결과, 일치/유사한 후보 명령어가 존재하지 않으면, 음성인식엔진(181)가 단계 S830에서의 어플리케이션과 다른 어플리케이션의 후보 명령어를 수신 및 등록 여부를 결정할 수 있다(S842). 여기서, 제1제어부(180)는 사용자의 선택 또는 기입력된 설정에 따라 다른 어플리케이션의 후보 명령어를 수신 및 등록할 수 있으며, 기설정된 순서에 따라 복수의 어플리케이션의 후보 명령어가 순차적으로 수신 및 등록 가능하다. 또한, 디스플레이장치(100)의 제1저장부(170)의 용량을 고려하여, 이전에 등록되었던 후보 명령어는 선택적으로 삭제될 수 있다.As a result of the determination in step S840, if there is no matching/similar candidate command, the voice recognition engine 181 may determine whether to receive and register a candidate command of an application different from the application in step S830 (S842). Here, the first control unit 180 can receive and register candidate commands of other applications according to the user's selection or pre-entered settings, and can sequentially receive and register candidate commands of a plurality of applications according to a preset order. do. Additionally, considering the capacity of the first storage unit 170 of the display device 100, previously registered candidate instructions may be selectively deleted.

단계 S842에서 등록된 후보 명령어 중에도 일치/유사한 후보 명령어가 존재하지 않는 경우, 단계 S842 및 단계 841이 순차적으로 반복되어, 음성인식을 수행할 수 있다.If there is no matching/similar candidate command among the candidate commands registered in step S842, steps S842 and 841 are sequentially repeated to perform voice recognition.

한편, 단계 S842에서 다른 어플리케이션의 후보 명령어를 수신 및 등록하지 않도록 결정하면, 음성인식엔진(181)은 음성인식을 중단하고, 제1제어부(180)는 음성인식 실패를 그 결과로서 디스플레이부(130)에 표시할 수 있다.Meanwhile, if it is determined in step S842 not to receive and register the candidate command of another application, the voice recognition engine 181 stops voice recognition, and the first control unit 180 causes voice recognition failure as a result of the display unit 130 ) can be displayed.

이와 같이, 본 발명의 실시예에 의하면 메인기기가 사용자의 발화를 입력 받을 수 있는 다양한 장비에서 입력되는 음성을 감지하므로, 다양한 음성취득장비의 활용도를 높이고 이를 이용한 연계 서비스가 가능하다. In this way, according to the embodiment of the present invention, the main device detects voice input from various devices that can input the user's speech, thereby increasing the utilization of various voice acquisition devices and enabling linked services using them.

또한, 음성인식을 위한 후보 명령어를 복수의 어플리케이션으로부터 전달받아 사용하므로, 음성인식을 위한 후보 명령어들을 동적으로 등록/삭제 가능하도록 함으로써, 메인기기가 구비하는 후보 명령어들이 불필요하게 증가되는 것을 방지하여, 처리속도 지연이나 인식률 저하 등의 문제에 유연하게 대처 가능하며 전체 음성인식시스템의 효율을 높일 수 있다. In addition, since candidate commands for voice recognition are received and used from multiple applications, candidate commands for voice recognition can be dynamically registered/deleted, thereby preventing the candidate commands provided in the main device from increasing unnecessarily. It can flexibly deal with problems such as processing speed delays or low recognition rates, and can increase the efficiency of the entire voice recognition system.

또한, 음성인식 결과, 후보명령어, 어플리케이션 정보뿐 아니라, 음성인식에 활용되는 다양한 음성취득장비 및 후보 명령어 제공장비의 정보까지도 사용자가 쉽게 인지하도록 하여, 사용자 편의성을 보다 높일 수 있게 된다. In addition, users can easily recognize not only voice recognition results, candidate commands, and application information, but also information on various voice acquisition equipment and candidate command provision equipment used for voice recognition, thereby improving user convenience.

이상, 바람직한 실시예를 통하여 본 발명에 관하여 상세히 설명하였으나, 본 발명은 이에 한정되는 것은 아니며 특허청구범위 내에서 다양하게 실시될 수 있다.Above, the present invention has been described in detail through preferred embodiments, but the present invention is not limited thereto and may be implemented in various ways within the scope of the patent claims.

100 : 메인기기, 디스플레이장치 110 : 영상수신부
120 : 영상처리부 130 : 디스플레이부
140 : 제1음성취득부 150 : 제1음성변환부
160 : 제1통신부 170 : 제1저장부
171 : 명령어 테이블 172, 173 : 어플리케이션
180 : 제1제어부 161 : 음성인식엔진
201, 202 : 음성취득장치 200 : 휴대폰
240: 제2음성취득부 250 : 제2음성변환부
260 : 제2통신부 270 : 제2저장부
280 : 제2제어부 301, 302, 303 : 외부기기
300 : 리모컨 330 : 사용자입력부
340 : 제3음성취득부 350 : 제2음성변환부
360 : 제3통신부 370 : 제3저장부
371 : 어플리케이션 380 : 제3제어부
400 : 에어컨 460 : 제4통신부
470 : 제4저장부 472 : 어플리케이션
180 : 제4제어부
100: main device, display device 110: video receiver
120: image processing unit 130: display unit
140: first voice acquisition unit 150: first voice conversion unit
160: first communication unit 170: first storage unit
171: Command table 172, 173: Application
180: first control unit 161: voice recognition engine
201, 202: Voice acquisition device 200: Cell phone
240: Second voice acquisition unit 250: Second voice conversion unit
260: second communication unit 270: second storage unit
280: second control unit 301, 302, 303: external device
300: remote control 330: user input unit
340: Third voice acquisition unit 350: Second voice conversion unit
360: Third communication unit 370: Third storage unit
371: Application 380: Third control unit
400: Air conditioner 460: 4th Communications Department
470: Fourth storage unit 472: Application
180: 4th control unit

Claims (20)

디스플레이장치에 있어서,
디스플레이부;
음성수신부;
제1외부음성수신부를 포함하는 제1외부장치와 통신하는 제1통신부; 및
상기 음성수신부 및 상기 제1외부음성수신부를 포함하는 복수의 음성수신부의 음성입력 감지 상태에서, 상기 제1외부장치로부터 상기 제1외부음성수신부를 통해 트리거신호가 수신되면, 상기 제1외부음성수신부를 이용하는 제1음성인식기능을 활성화하고,
상기 복수의 음성수신부의 음성입력 감지 상태에서, 상기 음성수신부를 통해 웨이크업 키워드가 수신되면, 상기 음성수신부를 이용하는 내부음성인식기능을 활성화하고,
상기 활성화된 음성인식기능과 다른 음성인식기능은 비활성화하는 프로세서를 포함하는, 디스플레이장치.
In the display device,
display unit;
Voice receiver;
a first communication unit that communicates with a first external device including a first external voice receiver; and
In the voice input detection state of the plurality of voice receivers including the voice receiver and the first external voice receiver, when a trigger signal is received from the first external device through the first external voice receiver, the first external voice receiver Activate the first voice recognition function using
In a voice input detection state of the plurality of voice receivers, when a wake-up keyword is received through the voice receiver, activating an internal voice recognition function using the voice receiver,
A display device comprising a processor that deactivates a voice recognition function different from the activated voice recognition function.
제1항에 있어서,
상기 제1외부음성수신부를 이용하는 상기 제1음성인식기능이 활성화되면, 상기 음성수신부를 이용하는 상기 내부음성인식기능은 비활성화하는, 디스플레이장치.
According to paragraph 1,
When the first voice recognition function using the first external voice receiver is activated, the internal voice recognition function using the voice receiver is deactivated.
제1항에 있어서,
상기 음성수신부를 이용하는 상기 내부음성인식기능이 활성화되면, 상기 제1외부음성수신부를 이용하는 상기 제1음성인식기능은 비활성화하는, 디스플레이장치.
According to paragraph 1,
When the internal voice recognition function using the voice receiver is activated, the first voice recognition function using the first external voice receiver is deactivated.
제1항에 있어서,
제2외부음성수신부를 포함하는 제2외부장치와 통신하는 제2통신부를 더 포함하며,
상기 프로세서는,
상기 제1외부장치로부터 상기 제1외부음성수신부를 통해 트리거신호가 수신되면, 상기 제2외부장치에 대응하는 상기 제2외부음성수신부를 이용하는 제2음성인식기능을 비활성화하는, 디스플레이장치.
According to paragraph 1,
It further includes a second communication unit that communicates with a second external device including a second external voice receiver,
The processor,
A display device that deactivates a second voice recognition function using the second external voice receiver corresponding to the second external device when a trigger signal is received from the first external device through the first external voice receiver.
제4항에 있어서,
상기 제1통신부는 블루투스 모듈을 포함하고, 상기 제2통신부는 무선랜 모듈을 포함하는, 디스플레이장치.
According to paragraph 4,
A display device wherein the first communication unit includes a Bluetooth module, and the second communication unit includes a wireless LAN module.
제1항에 있어서,
상기 복수의 음성수신부의 음성입력 감지 상태는,
상기 트리거신호 및 상기 웨이크업 키워드를 모두 수신 대기하는 상태인, 디스플레이장치.
According to paragraph 1,
The voice input detection state of the plurality of voice receivers is:
A display device in a state of waiting to receive both the trigger signal and the wake-up keyword.
제6항에 있어서,
상기 트리거신호 및 상기 웨이크업 키워드를 모두 수신 대기하는 상태에서
상기 트리거신호 및 상기 웨이크업 키워드 중 적어도 하나를 수신하면,
수신되지 않은 트리거 신호 및 웨이크업 키워드 중 적어도 하나에 대응하는 음성수신부를 이용하는 음성인식기능을 비활성화하는, 디스플레이장치.
According to clause 6,
While waiting to receive both the trigger signal and the wake-up keyword,
Upon receiving at least one of the trigger signal and the wakeup keyword,
A display device that disables a voice recognition function using a voice receiver corresponding to at least one of an unreceived trigger signal and a wake-up keyword.
제1항에 있어서,
제2외부장치와 통신하는 제2통신부를 더 포함하며,
상기 프로세서는,
상기 제1음성인식기능 및 상기 내부음성인식기능 중 적어도 하나로부터 상기 제2외부장치의 동작 기능에 대응하는 결과를 획득하고,
상기 제2외부장치의 동작 기능에 대응하는 제어신호를 상기 제2통신부를 통해 상기 제2외부장치로 전송하여, 상기 제2외부장치가 상기 동작 기능을 수행하도록 하는, 디스플레이장치.
According to paragraph 1,
It further includes a second communication unit that communicates with a second external device,
The processor,
Obtaining a result corresponding to an operation function of the second external device from at least one of the first voice recognition function and the internal voice recognition function,
A display device that transmits a control signal corresponding to an operation function of the second external device to the second external device through the second communication unit, so that the second external device performs the operation function.
제1항에 있어서,
상기 프로세서는,
상기 활성화된 제1음성인식기능에 대응하는 UI를 표시하도록 상기 디스플레이부를 제어하는, 디스플레이장치.
According to paragraph 1,
The processor,
A display device that controls the display unit to display a UI corresponding to the activated first voice recognition function.
제1항에 있어서,
신호수신부를 더 포함하며,
상기 프로세서는,
상기 신호수신부를 통해 영상신호를 수신하고,
상기 수신된 영상신호를 처리하고,
상기 처리된 영상신호에 대응하는 영상을 표시하도록 상기 디스플레이부를 제어하는, 디스플레이장치.
According to paragraph 1,
It further includes a signal receiver,
The processor,
Receiving a video signal through the signal receiver,
Processing the received video signal,
A display device that controls the display unit to display an image corresponding to the processed image signal.
음성수신부 및 제1외부음성수신부를 포함하는 제1외부장치와 통신하는 제1통신부를 포함하는 디스플레이장치를 제어하는 방법에 있어서,
상기 음성수신부 및 상기 제1외부음성수신부를 포함하는 복수의 음성수신부의 음성입력 감지 상태에서, 상기 제1외부장치로부터 상기 제1외부음성수신부를 통해 트리거신호가 수신되면, 상기 제1외부음성수신부를 이용하는 제1음성인식기능을 활성화하는 동작;
상기 복수의 음성수신부의 음성입력 감지 상태에서, 상기 음성수신부를 통해 웨이크업 키워드가 수신되면, 상기 음성수신부를 이용하는 내부음성인식기능을 활성화하는 동작; 및
상기 활성화된 음성인식기능과 다른 음성인식기능은 비활성화하는 동작을 포함하는, 방법.
In a method of controlling a display device including a first communication unit that communicates with a first external device including a voice receiver and a first external voice receiver,
In the voice input detection state of the plurality of voice receivers including the voice receiver and the first external voice receiver, when a trigger signal is received from the first external device through the first external voice receiver, the first external voice receiver An operation of activating a first voice recognition function using;
In a voice input detection state of the plurality of voice receivers, when a wake-up keyword is received through the voice receiver, activating an internal voice recognition function using the voice receiver; and
A method comprising deactivating a voice recognition function different from the activated voice recognition function.
제11항에 있어서,
상기 제1외부음성수신부를 이용하는 상기 제1음성인식기능이 활성화되면, 상기 음성수신부를 이용하는 상기 내부음성인식기능은 비활성화하는 동작을 더 포함하는, 방법.
According to clause 11,
When the first voice recognition function using the first external voice receiver is activated, the method further includes deactivating the internal voice recognition function using the voice receiver.
제11항에 있어서,
상기 음성수신부를 이용하는 상기 내부음성인식기능이 활성화되면, 상기 제1외부음성수신부를 이용하는 상기 제1음성인식기능은 비활성화하는 동작을 더 포함하는, 방법.
According to clause 11,
The method further includes deactivating the first voice recognition function using the first external voice receiver when the internal voice recognition function using the voice receiver is activated.
제11항에 있어서,
상기 제1외부장치로부터 상기 제1외부음성수신부를 통해 트리거신호가 수신되면, 제2외부음성수신부를 포함하는 제2외부장치에 대응하는 상기 제2외부음성수신부를 이용하는 제2음성인식기능을 비활성화하는 동작을 더 포함하는, 방법.
According to clause 11,
When a trigger signal is received from the first external device through the first external voice receiver, the second voice recognition function using the second external voice receiver corresponding to the second external device including the second external voice receiver is deactivated. A method that further includes an operation.
제14항에 있어서,
상기 디스플레이장치는 상기 제2외부장치와 통신하는 제2통신부를 더 포함하고,
상기 제1통신부는 블루투스 모듈을 포함하고, 상기 제2통신부는 무선랜 모듈을 포함하는, 방법.
According to clause 14,
The display device further includes a second communication unit that communicates with the second external device,
The method wherein the first communication unit includes a Bluetooth module, and the second communication unit includes a wireless LAN module.
제11항에 있어서,
상기 복수의 음성수신부의 음성입력 감지 상태는,
상기 트리거신호 및 상기 웨이크업 키워드를 모두 수신 대기하는 상태인, 방법.
According to clause 11,
The voice input detection state of the plurality of voice receivers is:
The method is in a state of waiting to receive both the trigger signal and the wakeup keyword.
제16항에 있어서,
상기 트리거신호 및 상기 웨이크업 키워드를 모두 수신 대기하는 상태에서
상기 트리거신호 및 상기 웨이크업 키워드 중 적어도 하나를 수신하면, 수신되지 않은 트리거 신호 및 웨이크업 키워드 중 적어도 하나에 대응하는 음성수신부를 이용하는 음성인식기능을 비활성화하는 동작을 더 포함하는, 방법.
According to clause 16,
While waiting to receive both the trigger signal and the wake-up keyword,
When receiving at least one of the trigger signal and the wake-up keyword, the method further includes deactivating a voice recognition function using a voice receiver corresponding to at least one of the trigger signal and the wake-up keyword that has not been received.
제11항에 있어서,
상기 제1음성인식기능 및 상기 내부음성인식기능 중 적어도 하나로부터 제2외부장치의 동작 기능에 대응하는 결과를 획득하는 동작; 및
상기 제2외부장치의 동작 기능에 대응하는 제어신호를 제2통신부를 통해 상기 제2외부장치로 전송하여, 상기 제2외부장치가 상기 동작 기능을 수행하도록 하는 동작을 더 포함하는, 방법.
According to clause 11,
Obtaining a result corresponding to an operation function of a second external device from at least one of the first voice recognition function and the internal voice recognition function; and
The method further includes transmitting a control signal corresponding to an operation function of the second external device to the second external device through a second communication unit, so that the second external device performs the operation function.
제11항에 있어서,
상기 활성화된 제1음성인식기능에 대응하는 UI를 표시하도록 디스플레이부를 제어하는 동작을 더 포함하는, 방법.
According to clause 11,
The method further includes controlling the display unit to display a UI corresponding to the activated first voice recognition function.
제11항에 있어서,
신호수신부를 통해 영상신호를 수신하는 동작;
상기 수신된 영상신호를 처리하는 동작; 및
상기 처리된 영상신호에 대응하는 영상을 표시하도록 디스플레이부를 제어하는 동작을 더 포함하는, 방법.
According to clause 11,
An operation of receiving a video signal through a signal receiver;
Processing the received video signal; and
The method further includes controlling the display unit to display an image corresponding to the processed image signal.
KR1020230016144A 2020-07-29 2023-02-07 Display apparatus, voice acquiring apparatus and voice recognition method thereof KR102643172B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020230016144A KR102643172B1 (en) 2020-07-29 2023-02-07 Display apparatus, voice acquiring apparatus and voice recognition method thereof
KR1020240027667A KR20240031995A (en) 2020-07-29 2024-02-27 Display apparatus, voice acquiring apparatus and voice recognition method thereof

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020200094662A KR102262050B1 (en) 2012-11-09 2020-07-29 Display apparatus, voice acquiring apparatus and voice recognition method thereof
KR1020220064348A KR102501655B1 (en) 2020-07-29 2022-05-25 Display apparatus, voice acquiring apparatus and voice recognition method thereof
KR1020230016144A KR102643172B1 (en) 2020-07-29 2023-02-07 Display apparatus, voice acquiring apparatus and voice recognition method thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020220064348A Division KR102501655B1 (en) 2020-07-29 2022-05-25 Display apparatus, voice acquiring apparatus and voice recognition method thereof

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020240027667A Division KR20240031995A (en) 2020-07-29 2024-02-27 Display apparatus, voice acquiring apparatus and voice recognition method thereof

Publications (2)

Publication Number Publication Date
KR20230022930A KR20230022930A (en) 2023-02-16
KR102643172B1 true KR102643172B1 (en) 2024-03-04

Family

ID=76415202

Family Applications (4)

Application Number Title Priority Date Filing Date
KR1020210070587A KR102403803B1 (en) 2020-07-29 2021-06-01 Display apparatus, voice acquiring apparatus and voice recognition method thereof
KR1020220064348A KR102501655B1 (en) 2020-07-29 2022-05-25 Display apparatus, voice acquiring apparatus and voice recognition method thereof
KR1020230016144A KR102643172B1 (en) 2020-07-29 2023-02-07 Display apparatus, voice acquiring apparatus and voice recognition method thereof
KR1020240027667A KR20240031995A (en) 2020-07-29 2024-02-27 Display apparatus, voice acquiring apparatus and voice recognition method thereof

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020210070587A KR102403803B1 (en) 2020-07-29 2021-06-01 Display apparatus, voice acquiring apparatus and voice recognition method thereof
KR1020220064348A KR102501655B1 (en) 2020-07-29 2022-05-25 Display apparatus, voice acquiring apparatus and voice recognition method thereof

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020240027667A KR20240031995A (en) 2020-07-29 2024-02-27 Display apparatus, voice acquiring apparatus and voice recognition method thereof

Country Status (1)

Country Link
KR (4) KR102403803B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023074956A1 (en) * 2021-10-29 2023-05-04 엘지전자 주식회사 System comprising tv and remote control, and control method therefor
WO2023219191A1 (en) * 2022-05-13 2023-11-16 엘지전자 주식회사 Multimedia device and control method thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020072912A1 (en) 2000-07-28 2002-06-13 Chih-Chuan Yen System for controlling an apparatus with speech commands

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001197379A (en) * 2000-01-05 2001-07-19 Matsushita Electric Ind Co Ltd Unit setting device, unit setting system, and recording medium having unit setting processing program recorded thereon
JP2001296881A (en) * 2000-04-14 2001-10-26 Sony Corp Device and method for information processing and recording medium
KR100560750B1 (en) * 2003-12-04 2006-03-13 삼성전자주식회사 speech recognition system of home network
KR20110028103A (en) * 2009-09-11 2011-03-17 주식회사 카서 Multipurpose local wireless communication apparatus and system
EP2518722A3 (en) * 2011-04-28 2013-08-28 Samsung Electronics Co., Ltd. Method for providing link list and display apparatus applying the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020072912A1 (en) 2000-07-28 2002-06-13 Chih-Chuan Yen System for controlling an apparatus with speech commands

Also Published As

Publication number Publication date
KR20240031995A (en) 2024-03-08
KR102403803B1 (en) 2022-05-30
KR20230022930A (en) 2023-02-16
KR20210068353A (en) 2021-06-09
KR20220073723A (en) 2022-06-03
KR102501655B1 (en) 2023-02-21

Similar Documents

Publication Publication Date Title
US11727951B2 (en) Display apparatus, voice acquiring apparatus and voice recognition method thereof
US20170223301A1 (en) Image processing apparatus, voice acquiring apparatus, voice recognition method thereof and voice recognition system
JP6824316B2 (en) Video processing equipment, its control method, and video processing system
KR102643172B1 (en) Display apparatus, voice acquiring apparatus and voice recognition method thereof
KR20150054490A (en) Voice recognition system, voice recognition server and control method of display apparatus
US11907616B2 (en) Electronic apparatus, display apparatus and method of controlling the same
KR102262050B1 (en) Display apparatus, voice acquiring apparatus and voice recognition method thereof
KR102460927B1 (en) Voice recognition system, voice recognition server and control method of display apparatus
US20210241764A1 (en) Electronic apparatus and method of controlling the same
KR102175135B1 (en) Server and control method thereof, and image processing apparatus and control method thereof
US20200413150A1 (en) Display apparatus and the controlling method thereof
KR20200126357A (en) Server and control method thereof, and image processing apparatus and control method thereof

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant