KR102587112B1 - Display apparatus for performing a voice control and method thereof - Google Patents

Display apparatus for performing a voice control and method thereof Download PDF

Info

Publication number
KR102587112B1
KR102587112B1 KR1020220183535A KR20220183535A KR102587112B1 KR 102587112 B1 KR102587112 B1 KR 102587112B1 KR 1020220183535 A KR1020220183535 A KR 1020220183535A KR 20220183535 A KR20220183535 A KR 20220183535A KR 102587112 B1 KR102587112 B1 KR 102587112B1
Authority
KR
South Korea
Prior art keywords
voice input
voice
user
received
display device
Prior art date
Application number
KR1020220183535A
Other languages
Korean (ko)
Other versions
KR20230007994A (en
Inventor
최성욱
류희섭
이희란
황성필
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020210043182A external-priority patent/KR102420155B1/en
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020220183535A priority Critical patent/KR102587112B1/en
Publication of KR20230007994A publication Critical patent/KR20230007994A/en
Priority to KR1020230131957A priority patent/KR20230146497A/en
Application granted granted Critical
Publication of KR102587112B1 publication Critical patent/KR102587112B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results

Abstract

음성 제어 방법이 개시된다. 본 방법은, 음성 입력 모드가 개시되면 사용자 음성의 입력을 대기하는 단계, 사용자 음성을 텍스트로 변환하는 단계, 텍스트에 대응되는 제어 동작을 수행하는 제어 단계, 제어 동작의 수행 결과에 기초하여 사용자 발화 완결 여부를 판단하는 판단 단계, 사용자 발화가 미완결인 것으로 판단되면 기 설정된 대기 시간 동안 후속 사용자 음성의 입력을 대기하고, 사용자 발화가 완결된 것으로 판단되면 음성 입력 모드를 해제하는 단계를 포함한다. 이에 따라, 효율적인 음성 제어를 수행할 수 있다. A voice control method is disclosed. The method includes the steps of waiting for input of the user's voice when the voice input mode is started, converting the user's voice into text, performing a control operation corresponding to the text, and uttering the user's speech based on the results of the control operation. It includes a determination step of determining whether the user's utterance is complete, waiting for the input of a subsequent user's voice for a preset waiting time if it is determined that the user's utterance is incomplete, and releasing the voice input mode if it is determined that the user's utterance is complete. Accordingly, efficient voice control can be performed.

Description

음성 제어를 수행하는 디스플레이 장치 및 그 음성 제어 방법 { DISPLAY APPARATUS FOR PERFORMING A VOICE CONTROL AND METHOD THEREOF }Display device performing voice control and voice control method thereof { DISPLAY APPARATUS FOR PERFORMING A VOICE CONTROL AND METHOD THEREOF }

본 발명은 디스플레이 장치 및 그 음성 제어 방법에 대한 것으로, 보다 상세하게는 사용자의 발화 완료 시점을 감지하여 음성 제어 모드를 해제하는 디스플레이 장치 및 그 음성 제어 방법에 대한 것이다. The present invention relates to a display device and a voice control method thereof, and more specifically, to a display device and a voice control method that detects when a user's speech is completed and releases the voice control mode.

전자 기술의 발달에 힘입어 다양한 형태의 전자 장치가 개발 및 보급되고 있다. 또한, 전자 장치에서 제공하는 기능 또한 점차 다양해지고 있다.Thanks to the development of electronic technology, various types of electronic devices are being developed and distributed. Additionally, the functions provided by electronic devices are also becoming increasingly diverse.

이에 따라, 사용자가 전자 장치를 좀 더 편리하게 이용할 수 있는 인터렉션 기술에 대한 개발 노력도 꾸준하게 이어져 오고 있다. 그 중 하나로 사용자의 음성을 이용하여 제어하는 음성 제어 기술이 있을 수 있다.Accordingly, efforts to develop interaction technology that allows users to use electronic devices more conveniently have continued. One of them may be voice control technology that uses the user's voice to control the device.

최근에는 TV나 휴대폰, 네비게이션 장치 등과 같은 다양한 전자 장치들에서, 사용자의 음성을 인식하여 그 음성에 대응되는 제어 동작을 수행하도록 구현되고 있다. Recently, various electronic devices such as TVs, mobile phones, navigation devices, etc. have been implemented to recognize the user's voice and perform control operations corresponding to the voice.

하지만, 음성 제어 기술을 제품에 적용하여 실생활에서 사용하기에는 몇 가지 어려움이 있었다. 가령, 사용자가 음성을 입력하는 동안 주위 소음이 입력되거나, 일상 생활 대화 내용이 입력되어, 그로 인해 오작동을 수행할 가능성이 있다.However, there were some difficulties in applying voice control technology to products and using it in real life. For example, while the user is inputting a voice, ambient noise is input or the content of daily conversation is input, which may cause a malfunction.

이에 따라, 음성 입력을 통해 제어하는 기술을 좀 더 효율적이고 정확하게 수행할 수 있는 기술에 대한 필요성이 대두되었다. Accordingly, the need for technology that can more efficiently and accurately perform control through voice input has emerged.

본 발명은 이러한 필요성에 따른 것으로, 본 발명의 목적은 사용자의 발화 완결 여부를 판단하여 그 판단 결과에 따라 음성 입력 모드를 해제하는 디스플레이 장치 및 그 음성 제어 방법을 제공함에 있다.The present invention responds to this need, and the purpose of the present invention is to provide a display device that determines whether the user's speech has been completed and releases the voice input mode according to the judgment result, and a voice control method thereof.

이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따르면, 음성 제어 방법은, 음성 입력 모드가 개시되면 사용자 음성의 입력을 대기하는 단계, 상기 사용자 음성이 입력되면, 상기 사용자 음성을 텍스트로 변환하는 단계, 상기 텍스트에 대응되는 제어 동작을 수행하는 제어 단계, 상기 제어 동작의 수행 결과에 기초하여 사용자 발화 완결 여부를 판단하는 판단 단계, 상기 사용자 발화가 미완결인 것으로 판단되면 기 설정된 대기 시간 동안 후속 사용자 음성의 입력을 대기하고, 상기 사용자 발화가 완결된 것으로 판단되면 상기 음성 입력 모드를 해제하는 단계를 포함한다.According to an embodiment of the present invention for achieving the above object, a voice control method includes the steps of waiting for input of a user's voice when a voice input mode is started, and when the user's voice is input, converting the user's voice into text. A converting step, a control step of performing a control operation corresponding to the text, a determination step of determining whether the user utterance is complete based on the result of performing the control operation, and if the user utterance is determined to be incomplete, for a preset waiting time Waiting for the input of a subsequent user's voice, and releasing the voice input mode when it is determined that the user's speech is complete.

여기서, 상기 판단 단계는, 상기 제어 동작이, 상기 사용자 음성 또는 상기 후속 사용자 음성에 의해 수행된 적어도 1회 이상의 검색 과정에서 선택된 정보가 디스플레이되는 동작이면, 상기 사용자 발화가 완결된 것으로 판단할 수 있다.Here, in the determination step, if the control operation is an operation that displays information selected in at least one search process performed by the user voice or the subsequent user voice, it may be determined that the user utterance is complete. .

또는, 상기 판단 단계는, 상기 제어 동작이 멀티미디어 컨텐츠 재생 동작이면, 상기 사용자 발화가 완결된 것으로 판단할 수 있다.Alternatively, in the determination step, if the control operation is a multimedia content playback operation, it may be determined that the user's speech is complete.

또한, 음성 제어 방법은, 상기 음성 입력 모드가 개시되어 유지되는 동안, 상기 음성 입력 모드에 대응되는 그래픽 오브젝트를 디스플레이하는 단계를 더 포함할 수도 있다.Additionally, the voice control method may further include displaying a graphic object corresponding to the voice input mode while the voice input mode is initiated and maintained.

한편, 본 발명의 일 실시 예에 따른 디스플레이 장치는, 음성 입력 모드가 개시되면 사용자 음성을 입력받는 입력부, 상기 입력부를 통해 입력되는 상기 사용자 음성에 대응되는 제어 동작을 수행하는 제어부를 포함한다. Meanwhile, a display device according to an embodiment of the present invention includes an input unit that receives a user's voice when a voice input mode is started, and a control unit that performs a control operation corresponding to the user's voice input through the input unit.

여기서, 상기 제어부는, 상기 제어 동작의 수행 결과에 기초하여 사용자 발화 완결 여부를 판단하여, 상기 사용자 발화가 미완결인 것으로 판단되면 기 설정된 대기 시간 동안 후속 사용자 음성의 입력을 대기하고, 상기 사용자 발화가 완결된 것으로 판단되면 상기 음성 입력 모드를 해제할 수 있다.Here, the control unit determines whether the user speech is complete based on the result of performing the control operation, and if it is determined that the user speech is incomplete, it waits for the input of a subsequent user voice for a preset waiting time, and the user speech is completed. Once it is determined to be complete, the voice input mode can be released.

또한, 상기 음성 입력 모드가 개시되어 유지되는 동안, 상기 음성 입력 모드에 대응되는 그래픽 오브젝트를 디스플레이하는 디스플레이부를 더 포함할 수도 있다.In addition, while the voice input mode is initiated and maintained, the display unit may further include a display unit that displays a graphic object corresponding to the voice input mode.

한편, 상기 제어부는, 상기 사용자 음성이 입력되면, 상기 사용자 음성에 대응되는 텍스트를 상기 그래픽 오브젝트의 일 측에 디스플레이할 수 있다.Meanwhile, when the user's voice is input, the control unit may display text corresponding to the user's voice on one side of the graphic object.

또한, 상기 제어부는, 상기 음성 입력 모드가 해제되면, 상기 그래픽 오브젝트의 형태를 상기 음성 입력 모드의 해제 상태를 의미하는 형태로 변형할 수 있다.Additionally, when the voice input mode is released, the control unit may change the shape of the graphic object into a shape that indicates the voice input mode is released.

또한, 상기 제어부는, 상기 사용자 음성 또는 상기 후속 사용자 음성에 따라 적어도 1회 이상 검색을 수행하여 검색 결과를 상기 디스플레이부에 디스플레이하며, 상기 검색 결과 중에서 하나가 선택되어 선택된 검색 결과에 따른 정보가 디스플레이되면, 상기 사용자 발화가 완결된 것으로 판단할 수 있다. In addition, the control unit performs a search at least once according to the user voice or the subsequent user voice and displays the search results on the display unit, and one of the search results is selected to display information according to the selected search result. When this happens, it can be determined that the user's utterance is complete.

또는, 상기 제어부는, 상기 제어 동작이 멀티미디어 컨텐츠 재생 동작이면, 상기 사용자 발화가 완결된 것으로 판단할 수 있다.Alternatively, the control unit may determine that the user's speech is complete if the control operation is a multimedia content playback operation.

한편, 디스플레이 장치는, 상기 사용자 음성을 텍스트로 변환하기 위한 음성 인식 장치와 통신을 수행하는 통신부를 더 포함할 수 있다. 이 경우, 상기 제어부는, 상기 사용자 음성을 상기 통신부를 통해 상기 음성 인식 장치로 전송하여, 상기 음성 인식 장치에서 상기 사용자 음성을 상기 텍스트로 변환하면 상기 텍스트를 수신하여 상기 텍스트에 대응되는 상기 제어 동작을 수행할 수 있다.Meanwhile, the display device may further include a communication unit that performs communication with a voice recognition device for converting the user's voice into text. In this case, the control unit transmits the user's voice to the voice recognition device through the communication unit, and when the voice recognition device converts the user's voice into the text, the control unit receives the text and performs the control operation corresponding to the text. can be performed.

또는, 디스플레이 장치는, 상기 텍스트에 따라 검색을 수행하기 위한 서버 장치와 통신을 수행하는 통신부를 더 포함할 수도 있다. 이 경우, 상기 제어부는, 상기 텍스트를 상기 서버 장치로 전송하여 상기 서버 장치로부터 상기 사용자 음성에 따른 검색 결과를 수신하여 상기 디스플레이부에 디스플레이하며, 상기 서버 장치로부터 발화 완결 신호가 수신되면 상기 사용자 발화가 완결된 것으로 판단하여 상기 음성 입력 모드를 해제할 수 있다.Alternatively, the display device may further include a communication unit that communicates with a server device for performing a search according to the text. In this case, the control unit transmits the text to the server device, receives a search result according to the user's voice from the server device, and displays it on the display unit. When a speech completion signal is received from the server device, the user utterance It is determined that is completed, and the voice input mode can be released.

또는, 디스플레이 장치는, 상기 사용자 음성을 상기 텍스트로 변환하기 위한 음성 인식 장치 및 상기 텍스트에 따라 검색을 수행하기 위한 서버 장치와 각각 통신을 수행하는 통신부를 더 포함할 수도 있다.Alternatively, the display device may further include a communication unit that communicates with a voice recognition device for converting the user's voice into text and a server device for performing a search based on the text.

이 경우, 상기 제어부는, 상기 사용자 음성을 상기 음성 인식 장치로 전송하여, 상기 음성 인식 장치로부터 상기 텍스트를 수신하며, 상기 텍스트를 상기 통신부를 통해 서버 장치로 전송하여 상기 서버 장치로부터 상기 검색 결과를 수신하여 상기 디스플레이부에 디스플레이하며, 상기 서버 장치로부터 발화 완결 신호가 수신되면 상기 사용자 발화가 완결된 것으로 판단하여 상기 음성 입력 모드를 해제할 수 있다.In this case, the control unit transmits the user's voice to the voice recognition device, receives the text from the voice recognition device, and transmits the text to the server device through the communication unit to receive the search results from the server device. It is received and displayed on the display unit, and when a speech completion signal is received from the server device, it is determined that the user's speech is complete and the voice input mode can be released.

한편, 본 발명의 또 다른 실시 예에 따르면, 서버 장치는, 음성 입력 모드로 동작하는 디스플레이 장치로부터 사용자 음성에 대응되는 텍스트를 수신하는 서버 통신부, 컨텐츠 정보가 저장되는 데이터베이스, 상기 데이터베이스에서 상기 텍스트에 대한 검색을 수행하여, 검색된 컨텐츠 정보를 상기 디스플레이 장치로 제공하며, 상기 검색 결과에 기초하여 사용자의 발화가 완결된 것으로 판단되면, 발화 완결 신호를 상기 디스플레이 장치로 전송하는 서버 제어부를 포함한다. Meanwhile, according to another embodiment of the present invention, the server device includes a server communication unit that receives text corresponding to the user's voice from a display device operating in a voice input mode, a database in which content information is stored, and an input to the text in the database. It includes a server control unit that performs a search, provides searched content information to the display device, and transmits a speech completion signal to the display device when it is determined that the user's speech is complete based on the search results.

이상과 같은 본 발명의 다양한 실시 예들에 따르면, 음성 제어 시스템에서는 사용자의 발화가 완료되었는지 여부를 판단하여 그에 따라 자동으로 음성 입력 모드를 해제할 수 있다. 이에 따라, 음성 입력 모드 선택 및 해제 버튼을 반복적으로 번거롭게 누를 필요가 없으며, 주변 소음이나 생활 대화 등으로 인해 오작동을 할 위험성도 크게 줄일 수 있다. According to various embodiments of the present invention as described above, the voice control system can determine whether the user's speech has been completed and automatically release the voice input mode accordingly. Accordingly, there is no need to repeatedly press the voice input mode selection and release buttons, and the risk of malfunction due to surrounding noise or daily conversation can be greatly reduced.

도 1은 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 나타내는 블럭도,
도 2는 본 발명의 일 실시 예에 따른 음성 제어 방법을 설명하기 위한 흐름도,
도 3은 디스플레이 장치의 음성 제어 과정을 설명하기 위한 도면,
도 4 및 도 5는 사용자의 발화 완결 여부를 판단하는 방법을 설명하기 위한 도면,
도 6은 본 발명의 일 실시 예에 따른 음성 제어 시스템의 구성을 나타내는 도면,
도 7은 본 발명의 다른 실시 예에 따른 디스플레이 장치의 구성을 나타내는 블럭도,
도 8은 본 발명의 일 실시 예에 따른 서버 장치의 구성을 나타내는 블럭도,
도 9는 본 발명의 일 실시 예에 따른 서버 장치의 음성 제어 지원 방법을 설명하기 위한 흐름도이다.
1 is a block diagram showing the configuration of a display device according to an embodiment of the present invention;
2 is a flowchart illustrating a voice control method according to an embodiment of the present invention;
Figure 3 is a diagram for explaining the voice control process of the display device;
Figures 4 and 5 are diagrams for explaining a method of determining whether a user's speech is complete;
6 is a diagram showing the configuration of a voice control system according to an embodiment of the present invention;
7 is a block diagram showing the configuration of a display device according to another embodiment of the present invention;
8 is a block diagram showing the configuration of a server device according to an embodiment of the present invention;
Figure 9 is a flowchart illustrating a method for supporting voice control of a server device according to an embodiment of the present invention.

이하에서, 첨부된 도면을 이용하여 본 발명에 대하여 구체적으로 설명한다. Hereinafter, the present invention will be described in detail using the attached drawings.

도 1은 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 나타내는 블럭도이다. 도 1에 따르면, 디스플레이 장치(100)는 입력부(110), 제어부(120)를 포함한다. Figure 1 is a block diagram showing the configuration of a display device according to an embodiment of the present invention. According to FIG. 1, the display device 100 includes an input unit 110 and a control unit 120.

입력부(110)는 사용자 음성을 입력받기 위한 구성요소이다. 입력부(110)는 자체적으로 마이크를 포함하여 사용자 음성을 직접 입력받을 수도 있고, 리모콘 등에 설치된 마이크에서 입력되는 사용자 음성을 리모콘으로부터 간접적으로 입력받을 수도 있다.The input unit 110 is a component for receiving user voice input. The input unit 110 may include its own microphone and directly receive the user's voice, or it may indirectly receive the user's voice input from a microphone installed on the remote control, etc. from the remote control.

제어부(120)는 입력부(110)를 통해 입력되는 사용자 음성에 대응되는 제어 동작을 수행한다. 구체적으로는, 제어부(120)는 입력부(110)를 통해 입력되는 사용자 음성이 기 정의된 음성 코맨드인 경우에는, 그 음성 코맨드에 대응되는 동작을 수행할 수 있다. 가령, 디스플레이 장치(100)가 TV인 경우, 턴-온, 턴-오프, 볼륨 업, 볼륨 다운, 채널 업, 채널 다운 등과 같은 다양한 동작들 각각에 대해 음성 코맨드가 지정되어 저장될 수 있다. 제어부(120)는 이러한 음성 코맨드가 입력되면, 해당 음성 코맨드에 매칭되는 동작을 수행한다.The control unit 120 performs control operations corresponding to the user's voice input through the input unit 110. Specifically, when the user's voice input through the input unit 110 is a predefined voice command, the control unit 120 may perform an operation corresponding to the voice command. For example, when the display device 100 is a TV, voice commands may be designated and stored for each of various operations such as turn-on, turn-off, volume up, volume down, channel up, channel down, etc. When such a voice command is input, the control unit 120 performs an operation matching the voice command.

한편, 제어부(120)는 사용자 음성이 정의되지 않은 임의의 텍스트를 발음한 것이라면, 그 텍스트에 대응되는 동작을 수행한다. 즉, 디스플레이 장치(100)는 사용자 음성을 분석하여, 그 사용자 음성에 응답하는 대화형 서비스를 제공할 수 있다. 가령, 사용자가 "영화배우 ABCD"라고 발음한 경우, 디스플레이 장치(100)는 "영화배우 ABCD" 라는 텍스트를 포함하는 다양한 정보들을 검색하여 그 검색 결과를 디스플레이하여 줄 수도 있다. Meanwhile, if the user's voice pronounces an undefined arbitrary text, the control unit 120 performs an operation corresponding to the text. That is, the display device 100 can analyze the user's voice and provide an interactive service that responds to the user's voice. For example, if the user pronounces “movie star ABCD,” the display device 100 may search for various pieces of information including the text “movie star ABCD” and display the search results.

사용자 음성의 분석 및 텍스트 변환 작업은 제어부(120)가 직접 처리할 수도 있지만, 실시 예에 따라서, 다르게는, 외부의 서버 장치(미도시)로 사용자 음성을 전달하여, 서버 장치가 해당 사용자 음성을 텍스트로 변환하면 그 변환된 텍스트를 제공받을 수도 있다. 음성을 텍스트로 변환하는 서버 장치는 설명의 편의상 음성 인식 장치로 명명할 수 있다. 음성 인식 장치와 연동하여 음성을 텍스트로 변환하는 실시 예에 대해서는 후술하는 부분에서 구체적으로 설명한다. The control unit 120 may directly process the analysis and text conversion of the user's voice, but depending on the embodiment, the user's voice may be transmitted to an external server device (not shown), and the server device may process the user's voice. If you convert it to text, you can also receive the converted text. A server device that converts voice into text can be called a voice recognition device for convenience of explanation. An embodiment of converting voice into text in conjunction with a voice recognition device will be described in detail later.

제어부(120)는 사용자의 선택에 따라 음성 입력 모드를 개시할 수 있다. 음성 입력 모드가 개시되면, 제어부(120)는 사용자 음성을 입력받도록 입력부(110)를 활성화시킬 수 있다. 이러한 상태에서 사용자 음성이 입력되어 제어 동작을 수행하고 나면, 제어부(120)는 그 수행 결과에 따라 사용자 발화 완결 여부를 판단한다. 사용자의 발화 완결이란, 사용자가 더 이상 음성 제어를 이용하지 않을 것으로 예측되는 상태를 의미한다. The control unit 120 may initiate a voice input mode according to the user's selection. When the voice input mode is started, the control unit 120 may activate the input unit 110 to receive the user's voice. In this state, after the user's voice is input and the control operation is performed, the control unit 120 determines whether the user's speech is complete according to the performance result. The completion of the user's speech refers to a state in which the user is expected to no longer use voice control.

즉, 제어부(120)는 사용자 음성에 따라 수행되는 제어 동작의 특성에 따라 발화 완결 여부를 판단할 수 있다. 가령, 통상적으로 사용자는 어떠한 정보를 검색하기 위하여 음성을 발화하거나, 어떠한 기능을 실행시키기 위하여 음성을 발화하는 것이 대부분이다. 따라서, 사용자가 자신이 원하는 정보를 최종적으로 찾아서 확인하게 되거나, 자신이 원하는 기능을 실행시키고 나면 일정 시간 동안은 음성 발화를 하지 않게 된다. 이러한 점을 고려하여, 제어부(120)는 사용자가 정보 검색 과정에서 하나의 정보를 선택하여, 그 정보가 디스플레이되는 경우에는, 사용자 발화가 완결된 것으로 판단할 수 있다. 또는, 제어부(120)는 특정 어플리케이션이나 멀티미디어 컨텐츠 등이 실행되어 그 실행 화면이 디스플레이되는 경우에도, 사용자 발화가 완결된 것으로 판단할 수 있다. That is, the control unit 120 can determine whether the speech is complete according to the characteristics of the control operation performed according to the user's voice. For example, most users usually utter a voice to search for certain information or execute a certain function. Therefore, after the user finally finds and confirms the information he wants or executes the function he wants, he does not make a voice utterance for a certain period of time. Considering this, the control unit 120 may determine that the user's utterance is complete when the user selects one piece of information during the information search process and the information is displayed. Alternatively, the control unit 120 may determine that the user's speech is complete even when a specific application or multimedia content is executed and its execution screen is displayed.

이러한 판단 결과, 제어부(120)는 사용자 발화가 완결된 것으로 판단되면, 대기 시간 동안 기다리지 않고, 바로 음성 입력 모드를 해제한다. 이에 따라, 불필요한 대기 시간 동안 주위에서 발생되는 각종 소음들로 인하여, 오작동이 발생할 가능성을 미리 차단할 수 있다.As a result of this determination, if the control unit 120 determines that the user's speech is complete, it immediately releases the voice input mode without waiting for the waiting time. Accordingly, the possibility of malfunction occurring due to various noises generated around the device during unnecessary waiting time can be prevented in advance.

반면, 사용자 발화가 미완결인 것으로 판단되면, 제어부(120)는 기 설정된 대기 시간 동안 후속 사용자 음성의 입력을 대기한다. 대기 시간 내에 다시 후속 사용자 음성의 입력이 이루어지면, 제어부(120)는 그 후속 사용자 음성에 따른 제어 동작을 다시 수행하고, 그 후속 사용자 음성으로 인해 사용자 발화가 완결되었는지 다시 한번 더 판단한다. 후속 사용자 음성에 대해서도 미완결 상태로 판단되면, 제어부(120)는 대기 시간을 다시 초기화하고, 대기 시간 동안 또 다른 후속 사용자 음성의 입력을 대기한다. 즉, 제어부(120)는 최초에 음성 입력 모드를 한번만 선택하고 나면, 사용자가 발화를 완결할 때까지 다시 음성 입력 모드를 선택하지 않더라도 지속적으로 음성 입력 모드를 유지할 수 있다. 이에 따라, 사용자가 음성 제어를 위하여 매번 음성 입력 모드를 선택하여야 하는 번거로움을 해결할 수 있다. On the other hand, if it is determined that the user's speech is incomplete, the control unit 120 waits for the input of a subsequent user's voice for a preset waiting time. If a subsequent user's voice is input again within the waiting time, the control unit 120 re-performs the control operation according to the subsequent user's voice and determines once again whether the user's speech is complete due to the subsequent user's voice. If it is determined that the subsequent user's voice is in an incomplete state, the control unit 120 reinitializes the waiting time and waits for the input of another subsequent user's voice during the waiting time. That is, after initially selecting the voice input mode once, the control unit 120 can continuously maintain the voice input mode even if the voice input mode is not selected again until the user completes the speech. Accordingly, the inconvenience of the user having to select a voice input mode every time for voice control can be solved.

도 1에서는 디스플레이 장치가 단독으로 음성 제어를 수행하는 것으로 설명하였으나, 외부의 서버 장치와 연동하여 음성 제어를 수행할 수도 있다. In FIG. 1, it is explained that the display device independently performs voice control, but it may also perform voice control in conjunction with an external server device.

도 2는 본 발명의 일 실시 예에 따른 음성 제어 방법을 설명하기 위한 흐름도이다. 도 2에 따르면, 디스플레이 장치(100)는 음성 입력 모드가 개시되면(S210), 사용자 음성 입력을 대기한다(S220). 상술한 바와 같이, 사용자 음성은 디스플레이 장치(100)의 본체에 마련된 마이크를 통해 입력될 수도 있고, 리모콘이나 기타 외부 장치에 마련된 마이크를 통해 입력되어 디스플레이 장치(100)로 전송될 수도 있다.Figure 2 is a flowchart for explaining a voice control method according to an embodiment of the present invention. According to FIG. 2, when the voice input mode is started (S210), the display device 100 waits for the user's voice input (S220). As described above, the user's voice may be input through a microphone provided in the main body of the display device 100, or may be input through a microphone provided in a remote control or other external device and transmitted to the display device 100.

디스플레이 장치(100)는 사용자 음성이 입력되면(S230). 그 사용자 음성을 텍스트로 변환한다(S240). 텍스트 변환은 디스플레이 장치(100)가 자체적으로 수행할 수도 있으나, 또 다른 실시 예에 따르면 디스플레이 장치(100)가 외부의 서버 장치, 즉, 음성 인식 장치로 사용자 음성을 전송하여, 음성 인식 장치가 그 사용자 음성을 텍스트로 변환하면, 텍스트를 수신할 수 있다. When a user's voice is input to the display device 100 (S230). The user's voice is converted into text (S240). The display device 100 may perform text conversion on its own, but according to another embodiment, the display device 100 transmits the user's voice to an external server device, that is, a voice recognition device, and the voice recognition device By converting the user's voice into text, the text can be received.

디스플레이 장치(100)는 변환된 텍스트에 대응되는 제어 동작을 수행한다(S250). 가령, 사용자가 임의의 키워드를 발화한 경우라면, 디스플레이 장치(100)는 해당 키워드를 포함하는 각종 정보를 검색하여 검색 결과를 디스플레이할 수 있다. 또는, 사용자가 키워드와 명령어를 함께 발화한 경우라면, 명령어에 대응되는 어플리케이션을 실행시키고, 키워드를 해당 어플리케이션의 입력으로 제공할 수 있다. 가령, 특정 컨텐츠 이름과 함께 해당 컨텐츠를 재생할 것을 명령하는 명령어(예를 들어, 틀어 줘, 재생 등)를 발화한 경우라면, 컨텐츠 재생 어플리케이션을 실행시키고, 해당 컨텐츠 이름을 컨텐츠 재생 어플리케이션의 입력으로 제공한다. 이에 따라, 그 컨텐츠 이름에 대응되는 컨텐츠를 재생한다.The display device 100 performs a control operation corresponding to the converted text (S250). For example, if the user utters an arbitrary keyword, the display device 100 may search various information including the keyword and display the search results. Alternatively, if the user utters a keyword and a command together, the application corresponding to the command can be executed and the keyword can be provided as an input to the application. For example, if a command to play the content (e.g., play, play, etc.) is issued along with a specific content name, the content playback application is executed and the content name is provided as input to the content playback application. do. Accordingly, the content corresponding to the content name is played.

디스플레이 장치(100)는 제어 동작을 수행하고 나면, 그 제어 동작의 내용에 기초하여 사용자가 발화를 완결하였는지 여부를 판단할 수 있다(S260). 이러한 판단은 디스플레이 장치(100)가 자체적으로 수행할 수도 있고, 외부의 서버 장치에서 판단하여 디스플레이 장치(100)로 통지하여 줄 수도 있다. After performing the control operation, the display device 100 can determine whether the user has completed the speech based on the contents of the control operation (S260). The display device 100 may make this decision on its own, or an external server device may make the decision and notify the display device 100 of the decision.

사용자 발화가 완결되었는지 여부를 판단하는 방법은 다양하게 구현될 수 있다. 일 예로, 판단 단계에서는, 제어 동작이 사용자 음성 또는 후속 사용자 음성에 의해 수행되는 적어도 1회 이상의 검색 과정에서 선택된 정보를 디스플레이하는 동작인 경우, 사용자 발화가 완결된 것으로 판단할 수 있다.Methods for determining whether a user's utterance is complete can be implemented in various ways. For example, in the determination step, if the control operation is an operation to display information selected in at least one search process performed by the user's voice or a subsequent user's voice, it may be determined that the user's speech is complete.

또는, 판단 단계에서는, 사용자 음성 또는 후속 사용자 음성에 의해 수행되는 제어 동작이 멀티미디어 컨텐츠 재생 동작인 경우에, 사용자 발화가 완결된 것으로 판단할 수 있다. Alternatively, in the determination step, if the control operation performed by the user voice or a subsequent user voice is a multimedia content playback operation, it may be determined that the user speech is complete.

구체적인 판단 방법의 예에 대해서는 후술하는 부분에서 도면과 함께 설명한다.Examples of specific judgment methods will be explained with drawings in the following section.

디스플레이 장치(100)는 발화가 완결되었다고 판단하면, 음성 입력 모드를 해제한다(S290). 음성 입력 모드가 해제된 상태에서는 사용자가 다시 음성 입력 모드를 선택하지 않는 이상, 사용자 음성으로 인한 제어가 수행되지 않게 된다. When the display device 100 determines that the speech is complete, it releases the voice input mode (S290). When the voice input mode is released, control by the user's voice is not performed unless the user selects the voice input mode again.

반면, 사용자 발화가 미완결인 것으로 판단되면, 디스플레이 장치(100)는 대기 시간을 리셋하고(S280), 대기 시간 동안 음성 입력 모드를 유지하여, 사용자 음성 입력을 대기한다(S220). 대기 시간은 디스플레이 장치(100)의 제조 업체 또는 사용자에 의해 임의로 설정될 수 있다. 예를 들어, 30초 정도로 설정될 수 있다. On the other hand, if it is determined that the user's speech is incomplete, the display device 100 resets the waiting time (S280), maintains the voice input mode during the waiting time, and waits for the user's voice input (S220). The standby time may be arbitrarily set by the manufacturer or user of the display device 100. For example, it may be set to about 30 seconds.

사용자 음성이 입력되지 않은 상태로 대기 시간이 종료되었을 때에도(S270), 디스플레이 장치(100)는 음성 입력 모드를 해제할 수 있다. Even when the waiting time ends without the user's voice being input (S270), the display device 100 can release the voice input mode.

한편, 도 2에서는 도시하지 않았으나, 음성 입력 모드가 개시되어 유지되는 동안, 음성 입력 모드에 대응되는 그래픽 오브젝트를 디스플레이하는 단계가 더 포함될 수도 있다. 그래픽 오브젝트의 형태나 그 역할에 대해서는 후술하는 부분에서 구체적으로 설명한다. Meanwhile, although not shown in FIG. 2, a step of displaying a graphic object corresponding to the voice input mode while the voice input mode is initiated and maintained may be further included. The form of the graphic object and its role will be explained in detail later.

도 3은 사용자 음성을 이용하여 제어하는 디스플레이 장치의 동작을 설명하기 위한 도면이다. 도 3에 따르면, 디스플레이 장치(100)는 디스플레이부(130)를 더 포함할 수 있다. Figure 3 is a diagram for explaining the operation of a display device controlled using a user's voice. According to FIG. 3, the display device 100 may further include a display unit 130.

디스플레이부(130)에는 사용자가 선택한 각종 컨텐츠가 디스플레이될 수 있다. 또한, 음성 입력 모드가 개시되면, 디스플레이부(130)에는 음성 입력 모드에 대응되는 그래픽 오브젝트(320)가 디스플레이된다. 그래픽 오브젝트(320)는 음성 입력 모드가 유지되는 동안 지속적으로 디스플레이될 수 있다. 도 3에서는, 마이크 형상의 그래픽 오브젝트(320)가 화면 모서리 부분에 표시된 상태를 도시하였으나, 그래픽 오브젝트(320)의 형태 및 위치는 이에 한정되는 것은 아니다. Various contents selected by the user may be displayed on the display unit 130. Additionally, when the voice input mode is started, a graphic object 320 corresponding to the voice input mode is displayed on the display unit 130. The graphic object 320 may be continuously displayed while the voice input mode is maintained. In FIG. 3, a microphone-shaped graphic object 320 is displayed at the corner of the screen, but the shape and location of the graphic object 320 are not limited thereto.

제어부(120)는 사용자 음성이 입력되면, 그 사용자 음성에 대응되는 텍스트를 디스플레이부(130)에 표시한다. 도 3에 따르면, 그래픽 오브젝트(320)의 일 측에 텍스트 표시 영역(310)이 마련될 수 있다.When a user's voice is input, the control unit 120 displays text corresponding to the user's voice on the display unit 130. According to FIG. 3, a text display area 310 may be provided on one side of the graphic object 320.

이에 따라, 사용자 음성에 대응되는 텍스트가 텍스트 표시 영역(310) 내에 표시될 수 있다. 사용자는 텍스트 표시 영역(310) 내에 표시된 텍스트를 확인하여, 자신이 발화한 음성이 정상적으로 인식되었는지 여부를 확인할 수 있다.Accordingly, text corresponding to the user's voice may be displayed in the text display area 310. The user can check the text displayed in the text display area 310 to check whether the voice he or she uttered was recognized properly.

텍스트 표시 영역(310)의 하측에는 사용자 음성에 대응되는 제어 동작의 결과를 표시하기 위한 결과 표시 영역(330)이 마련된다. 제어부(120)는 사용자 음성에 대응되는 제어 동작의 결과를 결과 표시 영역(330) 내에 디스플레이한다. A result display area 330 is provided below the text display area 310 to display the results of the control operation corresponding to the user's voice. The control unit 120 displays the results of the control operation corresponding to the user's voice in the result display area 330.

도 3에서는 사용자(10)가 "AAA 몇 시야"라고 발화한 예를 나타낸다. 이 경우, 제어부(120)는 "AAA", "몇 시"라는 키워드를 이용하여 검색을 수행한 상태를 나타낸다. 제어부(120)는 검색 결과(330)를 결과 표시 영역(330) 내에 디스플레이한다.Figure 3 shows an example in which the user 10 utters “AAA what time”. In this case, the control unit 120 indicates that a search has been performed using keywords such as “AAA” and “what time.” The control unit 120 displays the search result 330 within the result display area 330.

제어부(120)는 검색 결과(330)에 기초하여 사용자의 발화 완결 여부를 판단한다. 발화 완결이라고 판단되면, 제어부(120)는 음성 입력 모드를 해제한다.The control unit 120 determines whether the user's utterance is complete based on the search result 330. When it is determined that the speech is complete, the control unit 120 releases the voice input mode.

도 4 및 도 5는 사용자의 발화 완결 여부를 판단하는 다양한 방법을 설명하기 위한 도면이다. 도 4에서는 사용자가 "AAA"라는 키워드를 발화한 상태를 나타낸다. 제어부(120)는 "AAA"에 대한 검색을 수행하여, 검색 결과를 결과 표시 영역(330)에 표시할 수 있다. 도 4에서는 다수의 검색 결과가 표시된 상태를 나타낸다. 제어부(120)는 다수의 검색 결과가 검색되어, 리스트 형태로 표시되었으므로, 사용자 발화가 미완결이라고 판단하고, 대기 시간을 다시 초기 값으로 리셋할 수 있다.Figures 4 and 5 are diagrams for explaining various methods of determining whether a user's speech is complete. Figure 4 shows a state in which the user utters the keyword “AAA”. The control unit 120 may perform a search for “AAA” and display the search results in the result display area 330. Figure 4 shows a state in which multiple search results are displayed. Since a plurality of search results have been retrieved and displayed in the form of a list, the control unit 120 may determine that the user's utterance is incomplete and reset the waiting time to the initial value.

이러한 상태에서, 사용자는 후속 사용자 음성을 입력하여 검색 결과 중 하나를 선택할 수 있다. 도 4에서 사용자는 검색 결과를 정렬한 인덱스(즉, 1번, 2번, 3번 등)를 직접 발화하거나, 검색 결과의 명칭을 발화할 수 있다. 제어부(120)는 "1번" 또는 "AAA 뉴스 다시 보기" 와 같은 사용자 음성이 입력되면, 입력된 사용자 음성에 기초하여 추가 검색을 수행한다. 이에 따라, 제어부(120)는 "AAA 뉴스 다시 보기"를 텍스트 표시 영역(310)에 표시하고, "AAA 뉴스 다시 보기"에 대한 검색 결과를 결과 표시 영역(330)에 표시한다. 이 경우에도, 제어부(120)는 다수의 검색 결과가 검색되어 리스트 형태로 표시되었으므로 사용자 발화가 미완결이라고 판단할 수 있다. 제어부(120)는 다시 대기 시간을 초기 값으로 리셋하고, 후속 사용자 음성을 대기한다.In this state, the user can select one of the search results by inputting a subsequent user voice. In Figure 4, the user can directly utter the index by which the search results are sorted (i.e., number 1, number 2, number 3, etc.) or the name of the search result. When a user voice such as “No. 1” or “Rewatch AAA News” is input, the control unit 120 performs an additional search based on the input user voice. Accordingly, the control unit 120 displays “AAA news replay” in the text display area 310 and the search result for “AAA news replay” in the result display area 330. In this case as well, the control unit 120 may determine that the user's utterance is incomplete because a plurality of search results have been searched and displayed in a list form. The control unit 120 resets the waiting time to the initial value and waits for the next user voice.

도 4에 도시된 바와 같이, 사용자가 다시 "3번" 또는 "AAA 뉴스 9/3일자"를 발화하면, 제어부(120)는 그 사용자 음성에 의해 선택된 아이템에 해당하는 멀티미디어 컨텐츠를 재생한다. 도 4에서는 9월 3일 자 AAA 뉴스라는 멀티미디어 컨텐츠를 재생하여 그 재생 화면(410)을 디스플레이한 상태를 나타낸다. 이와 같이, 제어부(120)는 사용자 음성 또는 후속 사용자 음성에 의해 실행되는 제어 동작이 멀티미디어 컨텐츠 재생 동작인 경우에는, 사용자의 발화가 완결된 것으로 판단한다.As shown in Figure 4, when the user utters "No. 3" or "AAA News Date 9/3" again, the control unit 120 plays multimedia content corresponding to the item selected by the user's voice. Figure 4 shows a state in which multimedia content called AAA News dated September 3 is played and the playback screen 410 is displayed. In this way, when the control operation performed by the user's voice or a subsequent user's voice is a multimedia content playback operation, the control unit 120 determines that the user's speech is complete.

이에 따라, 제어부(120)는 음성 입력 모드를 해제하고, 그래픽 오브젝트의 형태를 음성 입력 모드의 해제 상태를 의미하는 형태(S340)로 변형한다. 그래픽 오브젝트는 음성 입력 모드가 해제되고 나면 일정 시간 이후에 삭제될 수 있다.Accordingly, the control unit 120 releases the voice input mode and changes the shape of the graphic object to a shape (S340) indicating the voice input mode is released. Graphic objects may be deleted after a certain period of time after the voice input mode is released.

이와 같이, 사용자가 원하는 컨텐츠가 출력되면, 음성 입력 모드를 바로 해제하여, 음성 입력 모드를 위한 UI를 삭제하게 된다. 이에 따라, 종래에 컨텐츠가 선택되어 출력되더라도 대기 시간 동안 UI로 인해 컨텐츠가 가려져, 시청에 방해를 받게 되는 불편함을 해소할 수 있게 된다. In this way, when the content desired by the user is output, the voice input mode is immediately canceled and the UI for the voice input mode is deleted. Accordingly, it is possible to eliminate the inconvenience of conventionally, even if content is selected and output, the content is obscured by the UI during the waiting time, thereby interfering with viewing.

도 5는 발화 완결 여부를 판단하는 또 다른 방법을 설명하기 위한 도면이다. 도 5에서는, 사용자가 "AAA 몇 시야"라고 발화한 경우를 예로 들어 설명한다. Figure 5 is a diagram for explaining another method of determining whether utterance is complete. In Figure 5, the case where the user utters “AAA what time” is explained as an example.

제어부(120)는 사용자 음성에 기초하여 검색을 수행하여, 그 검색 결과를 리스트 형태로 결과 표시 영역(330) 내에 표시한다. 사용자는 후속 사용자 음성을 입력하여 검색 결과를 선택하여, 검색 결과 내에서 추가 검색을 수행할 수 있다. 도 5에서는 1번 아이템, 2번 아이템이 순차적으로 선택된 상태를 나타낸다.The control unit 120 performs a search based on the user's voice and displays the search results in the result display area 330 in the form of a list. The user may perform additional searches within the search results by selecting search results by inputting a subsequent user voice. Figure 5 shows a state in which item 1 and item 2 are selected sequentially.

제어부(120)는 정보 트리 상에서 최하위 레벨의 정보가 선택되면, 해당 정보를 디스플레이할 수 있다. 도 5에서는 "AAA 10시 뉴스 정보"라는 아이템이 최하위 레벨의 정보인 경우를 나타낸다. 제어부(120)는 후속 사용자 음성에 의해 "AAA 10시 뉴스 정보"가 선택되면, 그 선택된 아이템에 해당하는 세부 정보 화면(510)을 디스플레이한다. When the lowest level information is selected on the information tree, the control unit 120 may display the corresponding information. Figure 5 shows a case where the item “AAA 10 o’clock news information” is the lowest level information. When “AAA 10 o’clock news information” is selected by a subsequent user voice, the control unit 120 displays a detailed information screen 510 corresponding to the selected item.

제어부(120)는 최하위 레벨의 정보가 선택되었다면 사용자 발화가 완결된 것으로 판단한다. 즉, 제어부(120)는 사용자 음성 또는 후속 사용자 음성에 따라 적어도 1회 이상의 검색을 수행하다가, 검색 결과 중 하나가 선택되어 선택된 검색 결과에 따른 정보가 디스플레이되면, 사용자 발화가 완결된 것으로 판단할 수 있다. 이에 따라, 제어부(120)는 음성 입력 모드를 해제한다. The control unit 120 determines that the user's speech is complete if the lowest level information is selected. That is, the control unit 120 may perform at least one search based on the user's voice or a subsequent user's voice, and when one of the search results is selected and information according to the selected search result is displayed, the control unit 120 may determine that the user's utterance is complete. there is. Accordingly, the control unit 120 releases the voice input mode.

제어부(120)는 음성 입력 모드가 해제되면, 그래픽 오브젝트(320)를 음성 입력 모드 해제 상태를 의미하는 형태(340)로 변형한다. When the voice input mode is released, the control unit 120 transforms the graphic object 320 into a shape 340 indicating the voice input mode release state.

또 다른 예로, 제어부(120)는 어플리케이션이 선택되어 그 어플리케이션 화면이 디스플레이되고, 어플리케이션 화면 내에서 최하위 기능이 선택되어 실행된 경우에도 사용자 발화가 완결된 것으로 판단할 수도 있다. As another example, the control unit 120 may determine that the user's speech is complete even when an application is selected, the application screen is displayed, and the lowest function within the application screen is selected and executed.

도 4 및 도 5에서는 검색 결과가 세로 방향으로 정렬된 리스트 형태로 표시되는 것으로 도시하였으나, 검색 결과는 디스플레이부(130)의 형태 및 크기에 따라 다양한 방식으로 제공될 수 있다. 가령, 가로 방향으로 정렬될 수도 있다. 또한, 검색 결과는 텍스트 형태가 아니라 캡쳐 이미지나 썸네일 이미지, 아이콘 등과 같은 다양한 형태로 표시될 수도 있다. 4 and 5 show that the search results are displayed in the form of a list arranged vertically, but the search results may be provided in various ways depending on the shape and size of the display unit 130. For example, they may be aligned horizontally. Additionally, search results may be displayed in various forms such as captured images, thumbnail images, icons, etc., rather than in text form.

이상과 같이, 제어부(120)는 사용자 음성에 따른 제어 동작을 수행하면서, 사용자 음성의 내용 및 제어 동작의 내용에 기초하여, 사용자가 더 이상 발화를 계속하지 않을 것인지 아니면 후속 발화가 기대되는지 여부를 자동으로 판단할 수 있다. 제어부(120)는 판단 결과에 따라 자동으로 음성 입력 모드를 해제하여, 오작 동 위험을 방지할 수 있다. 또한, 상술한 바와 같이, 음성 입력 모드의 UI로 인해 화면이 가려지는 불편함도 방지할 수 있고, 불필요한 리소스 낭비를 줄일 수도 있다.As described above, while performing a control operation according to the user's voice, the control unit 120 determines whether the user will no longer continue speaking or whether a follow-up speech is expected based on the contents of the user's voice and the contents of the control operation. It can be judged automatically. The control unit 120 can automatically disable the voice input mode according to the judgment result, thereby preventing the risk of malfunction. Additionally, as described above, the inconvenience of the screen being obscured by the UI in voice input mode can be prevented and unnecessary waste of resources can be reduced.

한편, 상술한 실시 예들에서는 디스플레이 장치가 사용자 음성을 텍스트로 변환하고, 텍스트에 따른 검색을 수행하며, 사용자 의도 파악까지 전부 수행하는 것으로 설명하였으나, 이러한 동작들 중에서 일부 동작은 외부의 서버 장치에서 수행할 수 있다. 즉, 본 발명의 또 다른 실시 예에 따르면, 적어도 하나의 서버 장치와 디스플레이 장치를 포함하는 음성 제어 시스템에서, 상술한 바와 같은 음성 제어 방법을 구현할 수도 있다.Meanwhile, in the above-described embodiments, the display device is described as converting the user's voice into text, performing a search based on text, and even understanding the user's intention. However, some of these operations are performed by an external server device. can do. That is, according to another embodiment of the present invention, the voice control method described above may be implemented in a voice control system including at least one server device and a display device.

도 6은 본 발명의 일 실시 예에 따른 음성 제어 시스템의 구성의 일 예를 나타낸다. 도 6에 따르면, 음성 제어 시스템(1000)은 음성 인식 장치(700), 서버 장치(800), 디스플레이 장치(100)를 포함한다.Figure 6 shows an example of the configuration of a voice control system according to an embodiment of the present invention. According to FIG. 6, the voice control system 1000 includes a voice recognition device 700, a server device 800, and a display device 100.

디스플레이 장치(100)는 음성 인식 장치(700) 및 서버 장치(800) 등과 연동할 수 있는 대화 클라이언트 모듈(미도시)을 포함할 수 있다. 제어부(120)는 음성 입력 모드가 개시되면, 대화 클라이언트 모듈을 실행시켜, 음성 입력에 대응되는 제어 동작을 수행할 수 있다. 구체적으로, 제어부(120)는 사용자 음성이 입력되면 음성 인식 장치(700)로 전송할 수 있다. The display device 100 may include a conversation client module (not shown) that can interact with the voice recognition device 700 and the server device 800. When the voice input mode is initiated, the control unit 120 may execute a conversation client module and perform control operations corresponding to the voice input. Specifically, the control unit 120 may transmit a user's voice input to the voice recognition device 700.

음성 인식 장치(700)는 디스플레이 장치(100)를 통해 전송되는 사용자 음성을 텍스트로 변환하여 제공하는 일종의 서버 장치를 의미한다. The voice recognition device 700 refers to a type of server device that converts the user's voice transmitted through the display device 100 into text and provides it.

음성 인식 장치(700)는 동적정합법(Dynamic time warping method), 은닉 마코프모델(Hidden Markov Model), 신경망(Neural Network) 등과 같은 다양한 인식 알고리즘 중 적어도 하나를 이용하여 음성을 인식하고, 인식된 음성을 텍스트로 변환할 수 있다. 일 예로, 은닉 마코프 모델을 사용하는 경우, 음성 인식 장치(700)는 사용자 음성의 시간적 변화 및 스펙트럼 변화를 각각 모델링하여, 기 저장된 언어 데이터베이스에서 유사한 어휘를 검출한다. 이에 따라, 검출된 어휘를 텍스트로 출력할 수 있다. The speech recognition device 700 recognizes speech using at least one of various recognition algorithms such as dynamic time warping method, Hidden Markov Model, and neural network, and recognizes the recognized speech. can be converted to text. For example, when using a hidden Markov model, the voice recognition device 700 models temporal changes and spectral changes in the user's voice, respectively, and detects similar vocabulary in a previously stored language database. Accordingly, the detected vocabulary can be output as text.

디스플레이 장치(100)는 음성 인식 장치(700)로부터 텍스트가 입력되면, 입력된 텍스트에 대응되는 제어 동작을 수행한다. 디스플레이 장치(100)는 기 설정된 음성 명령어 중에서 텍스트와 일치하는 음성 명령어가 있으면, 그 음성 명령어에 대응되는 동작을 수행한다. 반면, 음성 명령어와 텍스트가 일치하지 않으면, 텍스트를 서버 장치(800)로 제공한다. When text is input from the voice recognition device 700, the display device 100 performs a control operation corresponding to the input text. If there is a voice command that matches the text among the preset voice commands, the display device 100 performs an operation corresponding to the voice command. On the other hand, if the voice command and the text do not match, the text is provided to the server device 800.

서버 장치(800)는 제공된 텍스트에 대응되는 정보를 자체 데이터베이스 또는 기타 서버 장치들로부터 검색한다. 서버 장치(800)는 검색 결과를 디스플레이 장치(100)로 다시 피드백한다.The server device 800 searches for information corresponding to the provided text from its own database or other server devices. The server device 800 feeds back the search results to the display device 100.

디스플레이 장치(100)는 검색 결과를 디스플레이한다. 상술한 바와 같이, 디스플레이 장치(100)는 검색 결과에 기초하여 사용자의 발화 의도를 파악할 수 있다. 이에 따라, 발화가 완결되었다면 음성 입력 모드를 자동으로 해제할 수 있다.The display device 100 displays search results. As described above, the display device 100 can determine the user's speech intention based on the search results. Accordingly, when the speech is completed, the voice input mode can be automatically released.

한편, 본 발명의 또 다른 실시 예에 따르면, 사용자의 발화 완결 여부는 서버 장치(800)에서 판단하여 줄 수도 있다. 즉, 서버 장치(800)는 사용자의 음성 또는 후속 음성에 따라 검색하여 검색 결과를 제공해주다가, 사용자가 하위 레벨의 정보를 선택하여 그 정보에 따른 화면을 확인하거나, 컨텐츠를 선택하여 컨텐츠가 재생되었다면, 사용자의 발화가 완결된 상태로 판단할 수 있다. 이에 따라, 서버 장치(800)는 발화 완결 신호를 디스플레이 장치(100)로 전송하여 줄 수 있다.Meanwhile, according to another embodiment of the present invention, the server device 800 may determine whether the user's speech is complete. In other words, the server device 800 searches according to the user's voice or subsequent voice and provides search results, and if the user selects low-level information and checks the screen according to the information, or selects content and the content is played, , the user's utterance can be judged to be complete. Accordingly, the server device 800 can transmit an utterance completion signal to the display device 100.

디스플레이 장치(100)는 서버 장치(800)로부터 발화 완결 신호가 수신되면, 음성 입력 모드를 해제할 수 있다. When a speech completion signal is received from the server device 800, the display device 100 may release the voice input mode.

도 7은 도 6과 같은 음성 입력 시스템에 사용되는 디스플레이 장치의 세부 구성의 일 예를 나타내는 블럭도이다. 도 7에 따르면, 디스플레이 장치(100)는 입력부(110), 제어부(120), 디스플레이부(130), 방송 수신부(140), 컨텐츠 처리부(150), 통신부(160), 저장부(170)를 포함한다.FIG. 7 is a block diagram showing an example of the detailed configuration of a display device used in a voice input system such as FIG. 6. According to FIG. 7, the display device 100 includes an input unit 110, a control unit 120, a display unit 130, a broadcast reception unit 140, a content processing unit 150, a communication unit 160, and a storage unit 170. Includes.

입력부(110)는 상술한 바와 같이 사용자 음성을 입력받기 위한 구성요소이다. 제어부(120)는 입력부(110)를 통해 입력되는 사용자 음성에 대응되는 제어 동작을 수행한다. 입력부(110) 및 제어부(120)의 동작에 대해서는 상술한 부분에서 구체적으로 기재한 바 있으므로, 중복되는 부분에 대한 설명은 생략한다. As described above, the input unit 110 is a component for receiving user voice input. The control unit 120 performs control operations corresponding to the user's voice input through the input unit 110. Since the operations of the input unit 110 and the control unit 120 have been described in detail in the above section, description of overlapping parts will be omitted.

방송 수신부(140)는 방송 채널을 선국하여 그 방송 채널을 통해 컨텐츠를 수신하기 위한 구성요소이다. 사용자가 TV 채널을 선택하면, 제어부(120)는 선택된 TV 채널을 선국하도록 방송 수신부(140)를 제어한다. 방송 수신부(140)에서 선국된 TV 채널을 통해 방송 신호가 수신되면, 컨텐츠 처리부(150)는 수신된 방송 신호를 처리하여 디스플레이부(130) 및 스피커(미도시)를 통해 출력한다. 일 예로, ATSC 규격이 채용된 경우라면, 방송 수신부(140)는 안테나, RF 다운 컨버터, 복조부, 등화부 등을 포함할 수 있다. The broadcast receiver 140 is a component that selects a broadcast channel and receives content through the broadcast channel. When a user selects a TV channel, the control unit 120 controls the broadcast receiver 140 to select the selected TV channel. When a broadcast signal is received through a TV channel selected by the broadcast receiver 140, the content processor 150 processes the received broadcast signal and outputs it through the display unit 130 and a speaker (not shown). For example, if the ATSC standard is adopted, the broadcast receiver 140 may include an antenna, an RF down converter, a demodulator, an equalizer, etc.

컨텐츠 처리부(150)는 방송 수신부(140)를 통해 수신되는 방송 신호 뿐만 아니라, 통신부(160)를 통해 수신되는 각종 컨텐츠를 처리하기 위한 구성요소이다. 컨텐츠 처리부(150)는 디멀티플렉서, 비디오 디코더, 오디오 디코더, 스케일러 등과 같은 다양한 신호 처리 유닛을 포함할 수 있다. The content processing unit 150 is a component that processes not only broadcast signals received through the broadcast receiving unit 140 but also various contents received through the communication unit 160. The content processing unit 150 may include various signal processing units such as a demultiplexer, video decoder, audio decoder, scaler, etc.

통신부(160)는 다양한 외부 장치와 통신을 수행하기 위한 구성요소이다. 구체적으로는, 통신부(160)는 LAN, 와이파이, 3G, 4G, 블루투스, 지그비, NFC 등과 같은 다양한 통신 방식에 따라 외부 장치와 통신을 수행할 수 있다. The communication unit 160 is a component for communicating with various external devices. Specifically, the communication unit 160 can communicate with external devices according to various communication methods such as LAN, Wi-Fi, 3G, 4G, Bluetooth, Zigbee, NFC, etc.

구체적으로는, 통신부(160)는 사용자 음성을 텍스트로 변환해주는 음성 인식 장치(미도시), 사용자 음성에 대응되는 텍스트에 기초하여 검색을 수행하는 서버 장치, 사용자의 대화 완결 여부를 판단해주는 서버 장치(미도시) 등과 통신을 수행할 수 있다.Specifically, the communication unit 160 includes a voice recognition device (not shown) that converts the user's voice into text, a server device that performs a search based on the text corresponding to the user's voice, and a server device that determines whether the user's conversation is complete. (not shown), etc. can communicate.

저장부(170)는 디스플레이 장치(100)의 동작에 사용되는 각종 프로그램이나 데이터가 저장되는 구성요소이다. 상술한 바와 같이, 외부의 서버 장치들과 연동하기 위해서는 대화 클라이언트 모듈이 저장부(170)에 저장될 수도 있다. 또는, 디스플레이 장치(100)가 자체적으로 텍스트 변환 작업이나 검색 작업, 발화 완결 여부 판단 작업 등을 수행하는 경우에는 음성 인식 모듈이나, 검색 모듈, 발화 완결 판단 모듈 등과 같은 다양한 프로그램이 저장부(170)에 저장될 수도 있다.The storage unit 170 is a component that stores various programs or data used in the operation of the display device 100. As described above, a conversation client module may be stored in the storage unit 170 in order to interface with external server devices. Alternatively, when the display device 100 independently performs a text conversion task, a search task, or a task for determining whether an utterance is complete, various programs such as a voice recognition module, a search module, or an utterance complete determination module are stored in the storage unit 170. It may also be saved in .

제어부(120)는 저장부(170)에 저장된 프로그램을 이용하여 상술한 다양한 실시 예에 따른 음성 제어 방법을 수행할 수 있다. The control unit 120 may use a program stored in the storage unit 170 to perform the voice control method according to the various embodiments described above.

즉, 제어부(120)는 디스플레이 장치(100)의 본체에 구비된 버튼이나, 리모콘에 구비된 버튼을 통해 음성 입력 모드가 선택되거나, 기 정의된 트리거 모션 또는 기 정의된 트리거 음성 등이 입력되면, 대화 클라이언트 모듈을 실행시켜 음성 입력 모드로 전환할 수 있다. 이에 따라, 상술한 바와 같이 사용자 음성에 따라 제어동작을 수행할 수 있다. That is, when the voice input mode is selected through a button provided on the main body of the display device 100 or a button provided on the remote control, or a predefined trigger motion or predefined trigger voice is input, the control unit 120 You can switch to voice input mode by executing the conversation client module. Accordingly, as described above, control operations can be performed according to the user's voice.

제어부(120)는 음성 입력 모드가 개시되면 상술한 바와 같이 그래픽 오브젝트를 구성하여 디스플레이부(130)에 디스플레이할 수 있다. 구체적으로는, 제어부(120)는 GPU(Graphic Processing Unit)을 이용하여, 디스플레이부(110)의 화면 내에서 그래픽 오브젝트가 생성될 위치를 연산할 수 있다. GPU는 기 설정된 디폴트 값에 그래픽 오브젝트가 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산한다. GPU는 연산된 속성값에 기초하여 디스플레이부(150)의 화면 내에 그래픽 오브젝트를 렌더링한다. 제어부(120)는 음성 입력 모드가 해제되면, 상술한 바와 같이 그래픽 오브젝트의 형상을 변형시키거나, 그래픽 오브젝트를 삭제할 수 있다. When the voice input mode is initiated, the control unit 120 can configure a graphic object as described above and display it on the display unit 130. Specifically, the control unit 120 may use a GPU (Graphic Processing Unit) to calculate the location where a graphic object will be created within the screen of the display unit 110. The GPU calculates attribute values such as coordinates, shape, size, color, etc. at which the graphic object will be displayed based on preset default values. The GPU renders graphic objects on the screen of the display unit 150 based on the calculated attribute values. When the voice input mode is released, the control unit 120 can change the shape of the graphic object or delete the graphic object as described above.

또한, 제어부(120)는 사용자 음성이 입력되면, 통신부(160)를 이용하여 사용자 음성을 음성 인식 장치(700)로 전송하고, 그 사용자 음성에 대응되는 텍스트를 수신한다. Additionally, when a user's voice is input, the control unit 120 transmits the user's voice to the voice recognition device 700 using the communication unit 160 and receives text corresponding to the user's voice.

제어부(120)는 수신된 텍스트를 서버 장치(800)로 제공한다. 이에 따라, 서버 장치(800)에서 텍스트에 기초한 검색 결과를 전송하면, 제어부(120)는 검색 결과를 디스플레이부(130)에 표시한다. The control unit 120 provides the received text to the server device 800. Accordingly, when the server device 800 transmits a text-based search result, the control unit 120 displays the search result on the display unit 130.

이러한 상태에서 서버 장치(800)로부터 발화 완결 신호가 수신되면, 제어부(120)는 사용자 발화가 완결된 것으로 판단하여 음성 입력 모드를 해제할 수 있다. In this state, when a speech completion signal is received from the server device 800, the control unit 120 may determine that the user's speech is complete and release the voice input mode.

한편, 도 6에서는 음성 인식 장치(700) 및 서버 장치(800) 모두를 포함하는 것으로 도시 및 설명하였으나, 실시 예에 따라서는 일부 장치는 생략될 수도 있다.Meanwhile, in FIG. 6, it is shown and explained as including both the voice recognition device 700 and the server device 800, but some devices may be omitted depending on the embodiment.

가령, 음성 인식 장치(700)가 생략되는 실시 예에 따르면, 제어부(120)는 저장부(170)에 저장된 텍스트 변환 모듈을 이용하여 텍스트 변환을 수행할 수 있다. 즉, 제어부(120)는 사용자 음성이 입력되면, 음성 인식 장치(700)로 사용자 음성을 전송하지 않고, 텍스트 변환 모듈을 실행시켜, 사용자 음성을 자체적으로 텍스트로 변환한다. 이에 따라, 변환된 텍스트를 서버 장치(800)로 전송하여, 검색 결과를 수신하여 디스플레이한다. For example, according to an embodiment in which the voice recognition device 700 is omitted, the control unit 120 may perform text conversion using a text conversion module stored in the storage unit 170. That is, when the user's voice is input, the control unit 120 does not transmit the user's voice to the voice recognition device 700, but executes a text conversion module and converts the user's voice into text on its own. Accordingly, the converted text is transmitted to the server device 800, and the search results are received and displayed.

또는, 서버 장치(800)가 생략되는 실시 예에 따르면, 제어부(120)는 음성 인식 장치(700)에서 변환된 텍스트를 이용하여 직접 검색을 수행할 수 있다. 즉, 제어부(120)는 저장부(170)에 저장된 검색 모듈을 실행시키고, 그 검색 모듈에 텍스트를 입력하여 검색을 수행한다. 제어부(120)는 검색 결과를 디스플레이한다. 또한, 제어부(120)는 발화 완결 판단 모듈을 실행시켜, 매 검색을 수행한 이후에 사용자가 발화를 완결하였는지 여부를 판단할 수 있다. 이에 따라, 발화 완결로 판단된 경우에는, 제어부(120)는 음성 입력 모드를 해제할 수 있다. Alternatively, according to an embodiment in which the server device 800 is omitted, the control unit 120 may directly perform a search using text converted by the voice recognition device 700. That is, the control unit 120 executes the search module stored in the storage unit 170 and performs a search by inputting text into the search module. The control unit 120 displays search results. Additionally, the control unit 120 may execute an utterance completion determination module to determine whether the user has completed the utterance after performing each search. Accordingly, when it is determined that the speech is complete, the control unit 120 can release the voice input mode.

이상과 같이, 음성 제어 시스템은 다양한 형태로 구현될 수 있으며, 디스플레이 장치(100)의 구성 및 동작은 음성 제어 시스템의 형태에 따라 다양하게 변형될 수 있다.As described above, the voice control system can be implemented in various forms, and the configuration and operation of the display device 100 can be variously modified depending on the form of the voice control system.

도 8은 본 발명의 일 실시 예에 따른 서버 장치의 구성을 나타내는 블럭도이다. 도 8에 따르면, 서버 장치(800)는 서버 통신부(810), 서버 제어부(820), 데이터베이스(830)를 포함한다. Figure 8 is a block diagram showing the configuration of a server device according to an embodiment of the present invention. According to FIG. 8, the server device 800 includes a server communication unit 810, a server control unit 820, and a database 830.

서버 통신부(810)는 디스플레이 장치(100)와 통신을 수행하기 위한 구성요소이다. 서버 통신부(810)는 음성 입력 모드로 동작하는 디스플레이 장치로부터 사용자 음성에 대응되는 텍스트를 수신할 수 있다.The server communication unit 810 is a component for communicating with the display device 100. The server communication unit 810 may receive text corresponding to the user's voice from a display device operating in voice input mode.

데이터베이스(830)는 각종 컨텐츠 정보가 저장될 수 있다. 구체적으로는, EPG 정보나 최신 영화 정보, 케이블 방송 편성표, 웹 사이트 정보 등과 같은 다양한 정보들이 저장될 수 있다. The database 830 may store various content information. Specifically, various information such as EPG information, latest movie information, cable broadcast schedule, website information, etc. can be stored.

서버 제어부(820)는 서버 통신부(810)를 통해 전송되는 텍스트를 포함하는 정보를 데이터베이스로부터 검색한다. 이에 따라 검색된 컨텐츠 정보를 디스플레이 장치(100)로 제공한다. 서버 제어부(820)는 후속 사용자 음성에 따라 후속 텍스트가 전송되면, 후속 텍스트에 기초한 검색을 다시 수행하여 검색 결과를 추가로 전송할 수 있다.The server control unit 820 searches the database for information including text transmitted through the server communication unit 810. Accordingly, the searched content information is provided to the display device 100. When a follow-up text is transmitted according to the follow-up user voice, the server control unit 820 may re-perform a search based on the follow-up text and additionally transmit search results.

서버 제어부(820)는 디스플레이 장치(100)에서 컨텐츠 정보가 선택되어 확인이 이루어지면, 추가 검색이 없을 것으로 판단하고 발화 완결 신호를 디스플레이 장치(100)로 전송할 수 있다. 또는, 서버 제어부(820)는 후속 검색에 의해 최하위 레벨의 정보나 컨텐츠에 대한 정보가 디스플레이 장치(100)로 제공되었다고 판단되면, 발화 완결 신호를 디스플레이 장치(100)로 전송하여 줄 수도 있다.When content information is selected and confirmed on the display device 100, the server control unit 820 may determine that there will be no additional search and transmit an utterance completion signal to the display device 100. Alternatively, if the server control unit 820 determines that information about the lowest level information or content has been provided to the display device 100 through a subsequent search, it may transmit an utterance completion signal to the display device 100.

이와 같이, 서버 장치(800)는 디스플레이 장치(100)와 연동하여, 사용자 발화에 따른 검색 및 사용자 발화 완결 의도를 분석하는 작업을 수행할 수 있다. 결과적으로, 디스플레이 장치(100)가 과도한 연산 부담을 가지지 않고도, 상술한 바와 같은 음성 제어 방법을 수행할 수 있게 된다. In this way, the server device 800 can perform a search according to the user's utterance and analyze the user's intention to complete the utterance in conjunction with the display device 100. As a result, the display device 100 can perform the voice control method described above without excessive computational burden.

도 9는 본 발명의 일 실시 예에 따른 서버 장치의 음성 제어 지원 방법을 설명하기 위한 흐름도이다. 도 9에 따르면, 서버 장치(800)는 디스플레이 장치(100)로부터 텍스트가 수신되면(S910), 그 텍스트에 기초한 검색을 수행한다(S920).Figure 9 is a flowchart illustrating a method for supporting voice control of a server device according to an embodiment of the present invention. According to FIG. 9, when text is received from the display device 100 (S910), the server device 800 performs a search based on the text (S920).

서버 장치(800)는 검색 결과를 디스플레이 장치(100)로 전송한다(S930). 서버 장치(800)는 텍스트가 수신될 때마다 상술한 단계를 반복적으로 수행할 수 있다.The server device 800 transmits the search results to the display device 100 (S930). The server device 800 may repeatedly perform the above-described steps each time a text is received.

이러한 상태에서 서버 장치(800)는 사용자의 발화가 완결되었다고 판단되면(S940), 발화 완결 신호를 디스플레이 장치(100)로 전송한다(S950). 이에 따라, 디스플레이 장치(100)가 자동으로 음성 입력 모드를 해제하도록 할 수 있다.In this state, when the server device 800 determines that the user's speech is complete (S940), it transmits a speech completion signal to the display device 100 (S950). Accordingly, the display device 100 can automatically release the voice input mode.

반면, 발화가 미완결 상태라고 판단되면, 후속 사용자 음성에 따른 텍스트 전송을 대기한다(S960). 즉, 디스플레이 장치(100)에서는 음성 입력 모드가 유지될 수 있다. On the other hand, if the utterance is determined to be incomplete, text transmission according to the subsequent user's voice is waited for (S960). That is, the voice input mode can be maintained in the display device 100.

이상과 같은 다양한 실시 예들에 따르면, 사용자가 음성 입력 모드를 이용하는 중에 사용자가 더 이상의 발화 의도가 없을 것으로 예측되면 자동으로 음성 입력 모드를 해제할 수 있다. 이에 따라, 불필요한 화면 가림으로 인한 시청 방해를 방지하고, 음성 오인식으로 인한 오작동 위험을 줄일 수 있으며, 불필요한 시스템 리소스의 낭비를 줄일 수 있다.According to the various embodiments described above, if it is predicted that the user has no further intention to speak while using the voice input mode, the voice input mode may be automatically released. Accordingly, viewing disruption due to unnecessary screen blocking can be prevented, the risk of malfunction due to voice misrecognition can be reduced, and unnecessary waste of system resources can be reduced.

이상과 같은 다양한 음성 제어 방법 또는 음성 제어 지원 방법은, 프로그램 코드로 구현되어, 비일시적 판독 가능 매체(non-transitory readable medium)에 저장된 상태로 제공될 수 있다. 이러한 비일시적 판독 가능 매체가 탑재되는 서버 장치 또는 디스플레이 장치에서는 그 프로그램 코드를 실행시켜, 상술한 다양한 실시 예에 따른 방법을 실행할 수 있다. The various voice control methods or voice control support methods described above may be implemented as program codes and may be provided stored in a non-transitory readable medium. A server device or a display device on which such a non-transitory readable medium is mounted can execute the program code and execute the methods according to the various embodiments described above.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 될 수 있다.A non-transitory readable medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short period of time, such as registers, caches, and memories. Specifically, it can be a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, etc.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the invention pertains without departing from the gist of the present invention as claimed in the claims. Of course, various modifications can be made by those of ordinary skill in the art, and these modifications should not be understood individually from the technical idea or perspective of the present invention.

100 : 디스플레이 장치 110 : 입력부
120 : 제어부 130 : 디스플레이부
100: display device 110: input unit
120: control unit 130: display unit

Claims (20)

디스플레이 장치에 있어서,
통신부;
디스플레이부;
음성 입력 수신부; 및
상기 음성 입력 수신부를 통해 음성인식 기능 수행을 위한 트리거 워드에 대응하는 제1 음성 입력이 수신되면, 상기 제1 음성 입력에 대응하는 음성인식 기능을 수행하고,
상기 제1 음성 입력에 대응하는 음성인식 기능 수행 중 상기 음성 입력 수신부를 통해 제2 음성 입력을 수신하고,
상기 수신된 제2 음성 입력이 상기 디스플레이 장치의 기능 제어와 관련된 명령어에 대응하면, 상기 제2 음성 입력에 대응하는 상기 디스플레이 장치의 기능을 제어하고,
상기 수신된 제2 음성 입력이 상기 기능 제어와 관련된 명령어가 아닌 텍스트에 대응하면, 상기 제2 음성 입력에 대응하는 음성인식 기능을 수행하여 상기 통신부를 통해 서버로부터 수신한 상기 텍스트에 대응하는 검색 결과를 출력하도록 상기 디스플레이부를 제어하고,
상기 제2 음성 입력에 대응하는 음성인식 기능 수행 중 기설정된 시간 내 상기 음성 입력 수신부를 통해 제3 음성 입력이 수신되면, 상기 제2 음성 입력에 대응하는 음성인식 기능을 종료하고 상기 수신된 제3 음성 입력에 대응하는 기능을 수행하는 제어부;를 포함하는 디스플레이 장치.
In the display device,
Ministry of Communications;
display unit;
Voice input receiver; and
When a first voice input corresponding to a trigger word for performing a voice recognition function is received through the voice input receiver, a voice recognition function corresponding to the first voice input is performed,
Receiving a second voice input through the voice input receiver while performing a voice recognition function corresponding to the first voice input,
If the received second voice input corresponds to a command related to controlling a function of the display device, controlling the function of the display device corresponding to the second voice input,
If the received second voice input corresponds to a text rather than a command related to the function control, a voice recognition function corresponding to the second voice input is performed to produce a search result corresponding to the text received from the server through the communication unit. Control the display unit to output,
If a third voice input is received through the voice input receiver within a preset time while performing the voice recognition function corresponding to the second voice input, the voice recognition function corresponding to the second voice input is terminated and the received third voice input is performed. A display device including a control unit that performs a function corresponding to voice input.
제1항에 있어서,
상기 제어부는,
상기 기설정된 시간 내 제3 음성 입력이 수신되지 않으면, 상기 수신된 제3 음성 입력에 대응하는 기능의 수행 없이 상기 제1 음성 입력에 대응하는 음성인식 기능을 종료하는 디스플레이 장치.
According to paragraph 1,
The control unit,
If the third voice input is not received within the preset time, the display device terminates the voice recognition function corresponding to the first voice input without performing the function corresponding to the received third voice input.
삭제delete 제1항에 있어서,
상기 기설정된 시간은, 상기 제3 음성 입력의 수신을 대기하는 시간에 대응하고,
상기 음성 입력 수신부를 통한 제3 음성 입력의 수신 없이 상기 기설정된 시간이 경과되면, 상기 제1 음성 입력에 대응하는 음성인식 기능이 종료되는 디스플레이 장치.
According to paragraph 1,
The preset time corresponds to the waiting time for reception of the third voice input,
A display device in which the voice recognition function corresponding to the first voice input is terminated when the preset time elapses without receiving the third voice input through the voice input receiver.
삭제delete 제1항에 있어서,
상기 디스플레이부에 출력된 검색 결과 화면은, 복수의 검색 결과가 포함된 리스트를 포함하는 디스플레이 장치.
According to paragraph 1,
The search result screen output on the display unit includes a list including a plurality of search results.
제6항에 있어서,
상기 제어부는,
상기 수신된 제3 음성 입력이 컨텐츠 재생을 위해 상기 복수의 검색 결과 중 하나를 선택하는 음성 입력에 대응하면, 상기 제3 음성 입력에 대응하는 컨텐츠의 재생 화면을 출력하도록 상기 디스플레이부를 제어하는 디스플레이 장치.
According to clause 6,
The control unit,
If the received third voice input corresponds to a voice input for selecting one of the plurality of search results for content playback, a display device that controls the display unit to output a playback screen of the content corresponding to the third voice input. .
제7항에 있어서,
상기 수신된 제3 음성 입력은, 인덱스 및 명칭에 대응하는 텍스트 중 적어도 하나에 대응하는 디스플레이 장치.
In clause 7,
The received third voice input is a display device corresponding to at least one of text corresponding to an index and a name.
삭제delete 제6항에 있어서,
상기 제어부는,
상기 제3 음성 입력에 대응하는 추가 검색 결과를 출력하도록 상기 디스플레이부를 제어하는 디스플레이 장치.
According to clause 6,
The control unit,
A display device that controls the display unit to output additional search results corresponding to the third voice input.
음성 입력 수신부를 포함하는 디스플레이 장치의 제어 방법에 있어서,
상기 음성 입력 수신부를 통해 음성인식 기능 수행을 위한 트리거 워드에 대응하는 제1 음성 입력이 수신되면, 상기 제1 음성 입력에 대응하는 음성인식 기능을 수행하는 단계;
상기 제1 음성 입력에 대응하는 음성인식 기능 수행 중 상기 음성 입력 수신부를 통해 제2 음성 입력을 수신하는 단계;
상기 수신된 제2 음성 입력이 상기 디스플레이 장치의 기능 제어와 관련된 명령어에 대응하면, 상기 제2 음성 입력에 대응하는 상기 디스플레이 장치의 기능을 제어하는 단계;
상기 수신된 제2 음성 입력이 상기 기능 제어와 관련된 명령어가 아닌 텍스트에 대응하면, 상기 제2 음성 입력에 대응하는 음성인식 기능을 수행하여 서버로부터 수신한 상기 텍스트에 대응하는 검색 결과를 출력하는 단계; 및
상기 제2 음성 입력에 대응하는 음성인식 기능 수행 중 기설정된 시간 내 상기 음성 입력 수신부를 통해 제3 음성 입력이 수신되면, 상기 제2 음성 입력에 대응하는 음성인식 기능을 종료하고 상기 수신된 제3 음성 입력에 대응하는 기능을 수행하는 단계;를 포함하는 제어 방법.
In a method of controlling a display device including a voice input receiver,
When a first voice input corresponding to a trigger word for performing a voice recognition function is received through the voice input receiver, performing a voice recognition function corresponding to the first voice input;
Receiving a second voice input through the voice input receiver while performing a voice recognition function corresponding to the first voice input;
If the received second voice input corresponds to a command related to controlling a function of the display device, controlling a function of the display device corresponding to the second voice input;
If the received second voice input corresponds to a text rather than a command related to controlling the function, performing a voice recognition function corresponding to the second voice input and outputting a search result corresponding to the text received from the server ; and
If a third voice input is received through the voice input receiver within a preset time while performing the voice recognition function corresponding to the second voice input, the voice recognition function corresponding to the second voice input is terminated and the received third voice input is performed. A control method comprising: performing a function corresponding to a voice input.
제11항에 있어서,
상기 기설정된 시간 내 제3 음성 입력이 수신되지 않으면, 상기 수신된 제3 음성 입력에 대응하는 기능의 수행 없이 상기 제1 음성 입력에 대응하는 음성인식 기능을 종료하는 단계;를 더 포함하는 제어 방법.
According to clause 11,
If the third voice input is not received within the preset time, terminating the voice recognition function corresponding to the first voice input without performing the function corresponding to the received third voice input; a control method further comprising: .
삭제delete 제11항에 있어서,
상기 기설정된 시간은, 상기 제3 음성 입력의 수신을 대기하는 시간에 대응하고,
상기 음성 입력 수신부를 통한 제3 음성 입력의 수신 없이 상기 기설정된 시간이 경과되면, 상기 제1 음성 입력에 대응하는 음성인식 기능이 종료되는 제어 방법.
According to clause 11,
The preset time corresponds to the waiting time for reception of the third voice input,
A control method in which the voice recognition function corresponding to the first voice input is terminated when the preset time elapses without receiving the third voice input through the voice input receiver.
삭제delete 제11항에 있어서,
상기 출력된 검색 결과 화면은, 복수의 검색 결과가 포함된 리스트를 포함하는 제어 방법.
According to clause 11,
The output search result screen includes a list including a plurality of search results.
제16항에 있어서,
상기 수신된 제3 음성 입력에 대응하는 기능을 수행하는 단계는,
상기 수신된 제3 음성 입력이 컨텐츠 재생을 위해 상기 복수의 검색 결과 중 하나를 선택하는 음성 입력에 대응하면, 상기 제3 음성 입력에 대응하는 컨텐츠의 재생 화면을 출력하는 제어 방법.
According to clause 16,
The step of performing a function corresponding to the received third voice input includes:
When the received third voice input corresponds to a voice input for selecting one of the plurality of search results for content playback, a control method for outputting a playback screen of content corresponding to the third voice input.
제17항에 있어서,
상기 수신된 제3 음성 입력은, 인덱스 및 명칭에 대응하는 텍스트 중 적어도 하나에 대응하는 제어 방법.
According to clause 17,
The received third voice input corresponds to at least one of text corresponding to an index and a name.
삭제delete 제16항에 있어서,
상기 수신된 제3 음성 입력에 대응하는 기능을 수행하는 단계는,
상기 제3 음성 입력에 대응하는 추가 검색 결과를 출력하는 제어 방법.
According to clause 16,
The step of performing a function corresponding to the received third voice input includes:
A control method for outputting additional search results corresponding to the third voice input.
KR1020220183535A 2021-04-02 2022-12-23 Display apparatus for performing a voice control and method thereof KR102587112B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220183535A KR102587112B1 (en) 2021-04-02 2022-12-23 Display apparatus for performing a voice control and method thereof
KR1020230131957A KR20230146497A (en) 2021-04-02 2023-10-04 Display apparatus for performing a voice control and method thereof

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020210043182A KR102420155B1 (en) 2020-09-15 2021-04-02 Display apparatus for performing a voice control and method thereof
KR1020220084014A KR102482457B1 (en) 2021-04-02 2022-07-07 Display apparatus for performing a voice control and method thereof
KR1020220183535A KR102587112B1 (en) 2021-04-02 2022-12-23 Display apparatus for performing a voice control and method thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020220084014A Division KR102482457B1 (en) 2021-04-02 2022-07-07 Display apparatus for performing a voice control and method thereof

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020230131957A Division KR20230146497A (en) 2021-04-02 2023-10-04 Display apparatus for performing a voice control and method thereof

Publications (2)

Publication Number Publication Date
KR20230007994A KR20230007994A (en) 2023-01-13
KR102587112B1 true KR102587112B1 (en) 2023-10-10

Family

ID=82607121

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020220084014A KR102482457B1 (en) 2021-04-02 2022-07-07 Display apparatus for performing a voice control and method thereof
KR1020220183535A KR102587112B1 (en) 2021-04-02 2022-12-23 Display apparatus for performing a voice control and method thereof
KR1020230131957A KR20230146497A (en) 2021-04-02 2023-10-04 Display apparatus for performing a voice control and method thereof

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020220084014A KR102482457B1 (en) 2021-04-02 2022-07-07 Display apparatus for performing a voice control and method thereof

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020230131957A KR20230146497A (en) 2021-04-02 2023-10-04 Display apparatus for performing a voice control and method thereof

Country Status (1)

Country Link
KR (3) KR102482457B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101309794B1 (en) 2012-06-27 2013-09-23 삼성전자주식회사 Display apparatus, method for controlling the display apparatus and interactive system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6212408B1 (en) * 1999-05-03 2001-04-03 Innovative Global Solution, Inc. Voice command system and method
US10540976B2 (en) 2009-06-05 2020-01-21 Apple Inc. Contextual voice commands
JP2011118822A (en) 2009-12-07 2011-06-16 Nec Casio Mobile Communications Ltd Electronic apparatus, speech detecting device, voice recognition operation system, and voice recognition operation method and program
JP2014126600A (en) 2012-12-25 2014-07-07 Panasonic Corp Voice recognition device, voice recognition method and television

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101309794B1 (en) 2012-06-27 2013-09-23 삼성전자주식회사 Display apparatus, method for controlling the display apparatus and interactive system

Also Published As

Publication number Publication date
KR20230007994A (en) 2023-01-13
KR20230146497A (en) 2023-10-19
KR20220101591A (en) 2022-07-19
KR102482457B1 (en) 2022-12-28

Similar Documents

Publication Publication Date Title
US11823682B2 (en) Display apparatus capable of releasing a voice input mode by sensing a speech finish and voice control method thereof
JP6824316B2 (en) Video processing equipment, its control method, and video processing system
KR102304052B1 (en) Display device and operating method thereof
KR102246900B1 (en) Electronic device for speech recognition and method thereof
KR102209519B1 (en) Display apparatus for performing a voice control and method therefor
KR102210433B1 (en) Electronic device for speech recognition and method thereof
KR101284594B1 (en) Image processing apparatus and control method thereof, image processing system
JP6244560B2 (en) Speech recognition processing device, speech recognition processing method, and display device
US11651769B2 (en) Electronic device and operating method thereof
US9620109B2 (en) Apparatus and method for generating a guide sentence
KR20190051379A (en) Electronic apparatus and method for therof
KR102587112B1 (en) Display apparatus for performing a voice control and method thereof
KR102420155B1 (en) Display apparatus for performing a voice control and method thereof
KR102237832B1 (en) Display apparatus for performing a voice control and method thereof
KR102160756B1 (en) Display apparatus and method for controlling the display apparatus
KR102656611B1 (en) Contents reproducing apparatus and method thereof using voice assistant service
KR20140053760A (en) Image processing apparatus and control method thereof, image processing system
KR102594683B1 (en) Electronic device for speech recognition and method thereof
EP3842924A1 (en) Electronic apparatus and control method thereof
Fernandes et al. A Review of Voice User Interfaces for Interactive Television

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant