KR20200074635A - Electronic device and control method thereof - Google Patents

Electronic device and control method thereof Download PDF

Info

Publication number
KR20200074635A
KR20200074635A KR1020180163251A KR20180163251A KR20200074635A KR 20200074635 A KR20200074635 A KR 20200074635A KR 1020180163251 A KR1020180163251 A KR 1020180163251A KR 20180163251 A KR20180163251 A KR 20180163251A KR 20200074635 A KR20200074635 A KR 20200074635A
Authority
KR
South Korea
Prior art keywords
voice command
guide information
display device
display
keyword
Prior art date
Application number
KR1020180163251A
Other languages
Korean (ko)
Inventor
윤영수
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020180163251A priority Critical patent/KR20200074635A/en
Priority to PCT/KR2019/015175 priority patent/WO2020130350A1/en
Publication of KR20200074635A publication Critical patent/KR20200074635A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/453Help systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4828End-user interface for program selection for searching program descriptors
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Abstract

The present invention relates to a display device capable of controlling a display to display an image of content, acquiring a keyword of the content of which the image is displayed, transmitting the acquired keyword to an external device through a communication part, receiving information of a voice command related to the keyword and performing a corresponding operation among voice commands uttered by a plurality of users from an external device, controlling the display to display guide information of the voice command based on the received information, and performing the operation according to the received voice command in respond to the voice command of a user that is received through a receiving part according to the display of guide information.

Description

디스플레이장치 및 그 제어방법 {ELECTRONIC DEVICE AND CONTROL METHOD THEREOF}Display device and its control method {ELECTRONIC DEVICE AND CONTROL METHOD THEREOF}

본 발명은 디스플레이장치 및 그 제어방법에 관한 발명으로서, 상세하게는, 컨텐트의 영상에 대한 음성명령을 추천하는 디스플레이장치 및 그 제어방법에 관한 발명이다.The present invention relates to a display device and a control method thereof, and more particularly, to a display device and a control method for recommending a voice command for a video of content.

근래의 디스플레이장치는 사용자의 음성명령에 따라 다양한 동작을 수행하는 음성인식 기능을 갖는다. 일 예로, TV는 전원 온/오프, 채널 업/다운, 볼륨 업/다운 등에 대한 음성명령을 인식하고, 인식한 대로 전원 온/오프, 채널 업/다운, 볼륨 업/다운 등의 기본적인 동작을 수행하는 음성인식 기능을 수행할 수 있다. Recent display devices have a voice recognition function that performs various operations according to a user's voice command. For example, the TV recognizes voice commands for power on/off, channel up/down, and volume up/down, and performs basic operations such as power on/off, channel up/down, and volume up/down as recognized. The voice recognition function can be performed.

디스플레이장치는 음성인식 기능에 대한 사용자의 편의성 및 접근성을 더욱 향상시키기 위해서 음성명령을 추천할 수 있다. 즉, 디스플레이장치는 수행 가능한 동작에 대한 음성명령을 추천하거나 예시하고, 사용자가 추천되거나 예시된 음성명령을 발화하도록 유도할 수 있다. 일 예로, TV는 A배우가 출연하는 B드라마의 영상을 표시하는 동안, "A배우가 출연한 영화 찾아줘", "B드라마 줄거리 알려줘" 등과 같이 TV가 인식하여 수행 가능한 동작에 대한 음성명령을 추천할 수 있다. 사용자는 추천된 음성명령을 통해 TV가 어떤 음성명령을 인식하고, 어떤 동작을 수행할 수 있는지 용이하게 알 수 있으므로, 쉽고 편리하게 TV의 음성인식 기능을 사용할 수 있다.The display device may recommend a voice command to further improve user convenience and accessibility to the voice recognition function. That is, the display device may recommend or exemplify a voice command for an action that can be performed, and induce a user to utter a voice command that is recommended or exemplified. For example, while the TV displays the video of the B drama starring A, while the TV recognizes and performs voice commands for actions that the TV can recognize and perform, such as "Please find the movie where A star appeared" Can recommend The user can easily know which voice command the TV recognizes and what action the TV can perform through the recommended voice command, so that the voice recognition function of the TV can be easily and conveniently used.

그러나, 종래의 디스플레이장치는 사용자의 의도에 기초하여 사용자가 발화할 만한 음성명령을 추천하지 못하였기 때문에, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 오히려 저하시키는 문제점을 초래하였다. 일 예로, TV는 A배우가 출연하는 B드라마의 영상을 표시하는 동안, "A배우가 출연한 영화 찾아줘", "B드라마 줄거리 알려줘" 등의 음성명령을 추천할 수 있는데, 이러한 음성명령의 추천은 B드라마를 녹화하기 위한 음성명령을 발화하고자 하는 사용자에게는 불필요하거나 무용한 추천이 될 수 있다.However, since the conventional display device does not recommend a voice command that can be spoken by the user based on the user's intention, the user's convenience and accessibility to the voice recognition function are reduced. As an example, the TV may recommend voice commands such as "Please find the movie where A star appeared," "tell me the story of B drama," while displaying the video of B drama where A star appears. The recommendation may be unnecessary or useless for a user who wants to utter a voice command for recording a B drama.

따라서, 사용자가 발화할 만한 음성명령을 추천함으로써, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 향상시킬 방안이 요청되고 있다.Accordingly, there is a demand for a method for improving user convenience and accessibility to a voice recognition function by recommending a voice command that can be spoken by the user.

본 발명의 목적은, 사용자가 발화할 만한 음성명령을 추천함으로써, 사용자에 최적화된 음성명령 추천기능을 제공하고, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 향상시킬 수 있는 디스플레이장치 및 그 제어방법을 제공하는 것이다.An object of the present invention is to provide a voice command recommendation function optimized for a user by recommending a voice command that can be spoken by the user, and a display device and a control method for improving the user's convenience and accessibility to the voice recognition function Is to provide

상기한 본 발명의 목적은, 디스플레이, 통신부, 수신부, 및 컨텐트의 영상이 표시되도록 상기 디스플레이를 제어하고, 상기 영상이 표시되는 컨텐트의 키워드를 획득하고, 상기 획득된 키워드를 상기 통신부를 통하여 외부장치로 전송하고, 상기 외부장치로부터 복수의 사용자가 발화한 음성명령들 중에서 상기 키워드와 관련되고, 대응하는 동작이 수행된 음성명령의 정보를 수신하고, 상기 수신된 정보에 기초하여 상기 음성명령의 가이드정보가 표시되도록 상기 디스플레이를 제어하고, 상기 가이드정보의 표시에 따라 상기 수신부를 통해 수신되는 사용자의 음성명령에 대응하여, 상기 수신된 음성명령에 따른 동작을 수행하는 프로세서를 포함하는 디스플레이장치에 의해 달성될 수 있다. The above object of the present invention, the display, the communication unit, the receiving unit, and controls the display to display the image of the content, obtains the keyword of the content on which the image is displayed, and obtains the obtained keyword through the communication unit external device The voice command is associated with the keyword among the voice commands spoken by a plurality of users from the external device and receives information of a voice command on which a corresponding operation has been performed, and guides the voice command based on the received information. By a display device including a processor for controlling the display to display information, and in response to the user's voice command received through the receiving unit according to the display of the guide information, performs an operation according to the received voice command Can be achieved.

여기서, 상기 프로세서는, 복수의 상기 음성명령의 우선순위가 나타나도록 상기 가이드정보를 표시할 수 있다. Here, the processor may display the guide information such that a plurality of voice commands have priority.

여기서, 상기 프로세서는, 상기 우선순위에 따라 상기 각 음성명령의 가이드정보의 컬러를 구별하여 표시할 수 있다. Here, the processor may distinguish and display the color of the guide information of each voice command according to the priority.

여기서, 상기 음성명령은, 2이상의 단어를 포함하고, 상기 프로세서는, 상기 2이상의 단어 중 다른 단어로 대체하여 발화할 수 있는 단어가 구별되도록 상기 가이드정보를 표시할 수 있다.Here, the voice command includes two or more words, and the processor may display the guide information to distinguish words that can be spoken by substituting other words among the two or more words.

여기서, 상기 프로세서는, 상기 가이드정보를 요청하는 사용자입력에 기초하여 상기 음성명령의 가이드정보가 표시되도록 상기 디스플레이를 제어할 수 있다.Here, the processor may control the display to display guide information of the voice command based on a user input requesting the guide information.

여기서, 상기 프로세서는, 상기 통신부를 통하여 외부 디스플레이장치로 상기 가이드정보의 신호를 전송하여, 상기 외부 디스플레이장치가 상기 가이드정보를 표시하도록 할 수 있다. Here, the processor may transmit the signal of the guide information to an external display device through the communication unit, so that the external display device displays the guide information.

여기서, 상기 프로세서는, 상기 컨텐트의 영상, 사운드, EPG 또는 캡션정보 중 적어도 하나에 기초하여 상기 키워드를 획득할 수 있다. Here, the processor may acquire the keyword based on at least one of video, sound, EPG, or caption information of the content.

또한, 상기한 본 발명의 목적은, 통신부, 및 상기 통신부를 통하여 수신되는 복수의 제1외부장치의 요청에 대응하여: 상기 복수의 제1외부장치의 복수의 사용자가 발화한 음성명령의 인식을 수행하고, 상기 인식된 음성명령 및 상기 인식된 음성명령에 대응하는 동작의 정보를 상기 복수의 제1외부장치로 전송하고, 상기 통신부를 통하여 제2외부장치로부터 수신되는 키워드에 대응하여, 상기 복수의 사용자가 발화한 음성명령들 중에서 상기 키워드와 관련되고, 대응하는 동작이 수행된 음성명령의 정보를 상기 제2외부장치로 송신하는 프로세서를 포함하는 전자장치에 의해서도 달성될 수 있다.In addition, the above object of the present invention, in response to the request of the communication unit and a plurality of first external devices received through the communication unit: Recognition of voice commands uttered by a plurality of users of the plurality of first external devices Performing, and transmitting information of the recognized voice command and operation corresponding to the recognized voice command to the plurality of first external devices, and corresponding to keywords received from the second external device through the communication unit, the plurality of Among the voice commands spoken by the user of, it may be achieved by an electronic device including a processor that transmits information of a voice command related to the keyword and the corresponding operation is performed to the second external device.

또한, 상기한 본 발명의 목적은 컨텐트의 영상을 표시하는 단계; 상기 영상이 표시되는 컨텐트의 키워드를 획득하는 단계; 상기 획득된 키워드를 외부장치로 전송하는 단계; 상기 외부장치로부터 복수의 사용자가 발화한 음성명령들 중에서 상기 키워드와 관련되고, 대응하는 동작이 수행된 음성명령의 정보를 수신하는 단계; 상기 수신된 정보에 기초하여 상기 음성명령의 가이드정보를 표시하는 단계; 및 상기 가이드정보의 표시에 따라 수신되는 사용자의 음성명령에 대응하여, 상기 수신된 음성명령에 따른 동작을 수행하는 단계를 포함하는 디스플레이장치의 제어방법에 의해서도 달성될 수 있다.In addition, the object of the present invention described above is the step of displaying an image of the content; Obtaining a keyword of the content on which the image is displayed; Transmitting the obtained keyword to an external device; Receiving information of a voice command related to the keyword from among voice commands uttered by a plurality of users from the external device and corresponding operations; Displaying guide information of the voice command based on the received information; And in response to a user's voice command received according to the display of the guide information, performing an operation according to the received voice command.

여기서, 상기 가이드정보를 표시하는 단계는, 복수의 상기 음성명령의 우선순위가 나타나도록 상기 가이드정보를 표시하는 단계를 포함할 수 있다. Here, the displaying of the guide information may include displaying the guide information so that the priority of the plurality of voice commands appears.

여기서, 상기 가이드정보를 표시하는 단계는, 상기 우선순위에 따라 상기 각 음성명령의 가이드정보의 컬러를 구별하여 표시하는 단계를 포함할 수 있다. Here, the displaying of the guide information may include distinguishing and displaying the color of the guide information of each voice command according to the priority.

여기서, 상기 음성명령은, 2이상의 단어를 포함하고, 상기 가이드정보를 표시하는 단계는, 상기 2이상의 단어 중 다른 단어로 대체하여 발화할 수 있는 단어가 구별되도록 상기 가이드정보를 표시하는 단계를 포함할 수 있다. Here, the voice command includes two or more words, and the step of displaying the guide information includes displaying the guide information to distinguish words that can be spoken by substituting other words among the two or more words. can do.

여기서, 상기 가이드정보를 표시하는 단계는, 상기 가이드정보를 요청하는 사용자입력에 기초하여 상기 음성명령의 가이드정보를 표시하는 단계를 포함할 수 있다. Here, the displaying of the guide information may include displaying guide information of the voice command based on a user input requesting the guide information.

여기서, 상기 가이드정보를 표시하는 단계는, 외부 디스플레이장치로 상기 가이드정보의 신호를 전송하여, 상기 외부 디스플레이장치가 상기 가이드정보를 표시하도록 하는 단계를 포함할 수 있다. Here, the displaying of the guide information may include transmitting a signal of the guide information to an external display device, so that the external display device displays the guide information.

여기서, 상기 획득하는 단계는, 상기 컨텐트의 영상, 사운드, EPG 또는 캡션정보 중 적어도 하나에 기초하여 상기 키워드를 획득하는 단계를 포함할 수 있다. Here, the acquiring step may include acquiring the keyword based on at least one of video, sound, EPG, or caption information of the content.

또한, 상기한 본 발명의 목적은, 복수의 제1외부장치로부터 수신되는 요청에 대응하여: 상기 복수의 제1외부장치의 복수의 사용자가 발화한 음성명령의 인식을 수행하는 단계; 및, 상기 인식된 음성명령 및 상기 인식된 음성명령에 대응하는 동작의 정보를 상기 복수의 제1외부장치로 전송하는 단계; 제2외부장치로부터 수신되는 키워드에 대응하여, 상기 복수의 사용자가 발화한 음성명령들 중에서 상기 키워드와 관련되고, 대응하는 동작이 수행된 음성명령의 정보를 상기 제2외부장치로 송신하는 단계를 포함하는 전자장치의 제어방법에 의해서도 달성될 수 있다. In addition, the above object of the present invention, in response to a request received from a plurality of first external devices: performing a recognition of a voice command spoken by a plurality of users of the plurality of first external devices; And, Transmitting information of the recognized voice command and operations corresponding to the recognized voice command to the plurality of first external devices; In response to a keyword received from a second external device, transmitting the information of the voice command associated with the keyword among the voice commands spoken by the plurality of users and the corresponding operation is performed to the second external device. It can also be achieved by the control method of the electronic device.

또한, 상기한 본 발명의 목적은, 컴퓨터가 읽을 수 있는 코드로서 전자장치의 제어방법을 수행하는 코드를 포함하는 컴퓨터 프로그램이 저장된 기록매체에 있어서, 컨텐트의 영상을 표시하는 단계; 상기 영상이 표시되는 컨텐트의 키워드를 획득하는 단계; 상기 획득된 키워드를 외부장치로 전송하는 단계; 상기 외부장치로부터 복수의 사용자가 발화한 음성명령들 중에서 상기 키워드와 관련되고, 대응하는 동작이 수행된 음성명령의 정보를 수신하는 단계; 상기 수신된 정보에 기초하여 상기 음성명령의 가이드정보를 표시하는 단계; 및 상기 가이드정보의 표시에 따라 수신되는 사용자의 음성명령에 대응하여, 상기 수신된 음성명령에 따른 동작을 수행하는 단계를 포함하는 디스플레이장치의 제어방법을 포함하는 컴퓨터가 읽을 수 있는 프로그램이 기록된 기록매체에 의해서도 달성될 수 있다.In addition, the object of the present invention described above is a computer-readable code in a recording medium on which a computer program including code for performing a control method of an electronic device is stored, displaying an image of content; Obtaining a keyword of the content on which the image is displayed; Transmitting the obtained keyword to an external device; Receiving information of a voice command related to the keyword from among voice commands uttered by a plurality of users from the external device and corresponding operations; Displaying guide information of the voice command based on the received information; And a control method of a display device including a step of performing an operation according to the received voice command in response to a user's voice command received according to the display of the guide information. It can also be achieved by means of a record carrier.

본 발명에 의하면, 사용자에 최적화된 음성명령 추천기능을 제공하고, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 향상시킬 수 있는 디스플레이장치 및 그 제어방법을 제공할 수 있다.According to the present invention, it is possible to provide a display device and a control method for providing a voice command recommendation function optimized for a user and improving user convenience and accessibility to a voice recognition function.

도 1은 본 발명의 일 실시예에 따른 디스플레이장치의 일 예를 도시한다.
도 2는 도 1의 디스플레이장치가 가이드정보를 표시하는 일 예를 도시한다.
도 3은 도 1의 디스플레이장치 및 제1전자장치의 구성을 도시한다.
도 4는 도 3의 디스플레이장치의 제어방법을 도시한다.
도 5는 도 3의 제1전자장치의 제어방법을 도시한다.
도 6은 도 4의 동작 S15와 관련하여, 음성명령의 우선순위가 나타나도록 가이드정보를 표시하는 일 예를 도시한다.
도 7은 도 4의 동작 S15와 관련하여, 대체하여 발화 가능한 단어가 구별되도록 가이드정보를 표시하는 일 예를 도시한다.
도 8은 도 4의 동작 S12와 관련하여, 사용자입력에 기초하여 키워드를 획득하는 제어방법에 관한 일 예를 도시한다.
도 9는 도 4의 동작 S15와 관련하여, 제2전자장치에서 음성명령의 가이드정보를 표시하는 일 예를 도시한다.
도 10은 도 4의 S12 및 S15와 관련하여 키워드의 획득 범위 및 가이드정보의 표시 범위를 설정하는 일 예를 도시한다.
도 11은 도 4의 S12 및 S15와 관련하여 가이드정보의 표시 범위를 설정하는 다른 예를 도시한다.
1 shows an example of a display device according to an embodiment of the present invention.
FIG. 2 illustrates an example in which the display device of FIG. 1 displays guide information.
FIG. 3 shows the configuration of the display device and the first electronic device of FIG. 1.
FIG. 4 shows a control method of the display device of FIG. 3.
FIG. 5 shows a control method of the first electronic device of FIG. 3.
FIG. 6 illustrates an example of displaying guide information so that the priority of the voice command is displayed in relation to operation S15 of FIG. 4.
FIG. 7 is a diagram illustrating an example of displaying guide information so that words that can be uttered are distinguished in relation to operation S15 of FIG. 4.
8 illustrates an example of a control method for obtaining a keyword based on a user input in relation to operation S12 of FIG. 4.
9 illustrates an example of displaying guide information of a voice command in the second electronic device in relation to operation S15 of FIG. 4.
FIG. 10 illustrates an example of setting a keyword acquisition range and a guide information display range in relation to S12 and S15 of FIG. 4.
11 shows another example of setting a display range of guide information in relation to S12 and S15 of FIG. 4.

이하에서는 첨부도면을 참조하여 본 발명에 따른 실시예들에 관해 상세히 설명한다. 이하 실시예들의 설명에서는 첨부된 도면들에 기재된 사항들을 참조하는 바, 각 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 동작을 수행하는 구성요소를 나타낸다. 본 명세서에서의 복수의 구성 중 적어도 하나(at least one)는, 복수의 구성 전부뿐만 아니라, 복수의 구성 중 나머지를 배제한 각 하나 혹은 이들의 조합 모두를 지칭한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the embodiments, reference is made to the items described in the accompanying drawings, and the same reference numbers or signs in each drawings denote components that perform substantially the same operation. At least one of the plurality of configurations in the present specification refers to not only all of the plurality of configurations, but each one or a combination of all of them excluding the rest of the plurality of configurations.

도 1은 본 발명의 일 실시예에 따른 디스플레이장치(1)의 일 예를 도시한다. 도 1에 도시된 바와 같이, 본 실시예에 따른 디스플레이장치(1)는 컨텐트의 영상(16)을 표시할 수 있다. 도 1은 디스플레이장치(1)을 TV로 도시하지만, 이에 한정되는 것은 아니므로, 디스플레이장치(1)는 영상을 표시할 수 있는 스마트폰, 태블릿, 퍼스널 컴퓨터, 스마트 워치와 같은 웨어러블 디바이스, 멀티미디어 재생기, 전자액자, 냉장고와 같은 가전 기기 등으로 구현될 수 있다. 다만, 이하에서는 설명의 편의를 위해 디스플레이장치(1)는 TV로 구현된 경우를 가정하여 설명한다.1 shows an example of a display device 1 according to an embodiment of the present invention. As shown in FIG. 1, the display device 1 according to the present embodiment may display an image 16 of content. 1 shows the display device 1 as a TV, but is not limited thereto, so the display device 1 is a smart phone, a tablet, a personal computer capable of displaying an image, a wearable device such as a smart watch, and a multimedia player. , It can be implemented as an electronic frame, household appliances such as a refrigerator. However, hereinafter, for convenience of description, it is assumed that the display device 1 is implemented as a TV.

디스플레이장치(1)는 제1전자장치(4)를 통해 음성인식 기능을 제공할 수 있다. 여기서, 제1전자장치(4)는 디스플레이장치(1)와 제2전자장치(5)에 서비스를 제공하는 서버를 포함할 수 있으며, 제2전자장치(5)는 디스플레이장치(1)의 제1사용자(30)와 다른 제2사용자(50)가 사용하는 장치로서, TV와 같은 디스플레이장치, 스마트폰, 태블릿, 스마트 워치와 같은 웨어러블 디바이스, 멀티미디어 재생기, 전자액자, 냉장고와 같은 가전 기기 등을 포함할 수 있다. The display device 1 may provide a voice recognition function through the first electronic device 4. Here, the first electronic device 4 may include a display device 1 and a server that provides services to the second electronic device 5, and the second electronic device 5 is a first device of the display device 1. As a device used by the first user 30 and the second second user 50, a display device such as a TV, a wearable device such as a smart phone, a tablet or a smart watch, a multimedia player, an electronic picture frame, a household appliance such as a refrigerator, and the like are used. It can contain.

이하에서는, 도 1을 참조하여 제1전자장치(4)를 통한 디스플레이장치(1)의 음성인식 기능에 대해 구체적으로 설명한다. 디스플레이장치(1)는 제1사용자(30)가 발화한 음성명령을 수신하고, 수신한 음성명령을 제1전자장치(4)로 전송할 수 있다. 마찬가지로, 제2전자장치(5)는 제2사용자(50)가 발화한 음성명령을 수신하여 제1전자장치(4)로 전송할 수 있다. 제1사용자(30)와 제2사용자(50)가 발화한 음성명령은, 디스플레이장치(1)와 제2전자장치(5)가 소정 동작의 수행하도록 지시하는 음성명령이 될 수 있으며, 일 예로, 전원 온/오프, 채널 업/다운, 볼륨 업/다운 등과 같은 TV의 기본적인 동작에 대한 음성명령뿐만 아니라, 컨텐트 선택/실행/종료, 인터넷 검색, 홈쇼핑, 전화, 화상통화, SNS(Social Network Service), 노래방 등과 같은 동작에 대한 음성명령을 포함할 수 있다. Hereinafter, a voice recognition function of the display device 1 through the first electronic device 4 will be described in detail with reference to FIG. 1. The display device 1 may receive a voice command spoken by the first user 30 and transmit the received voice command to the first electronic device 4. Similarly, the second electronic device 5 may receive a voice command uttered by the second user 50 and transmit it to the first electronic device 4. The voice commands spoken by the first user 30 and the second user 50 may be voice commands instructing the display device 1 and the second electronic device 5 to perform a predetermined operation, for example. In addition to voice commands for basic operations of TV, such as power on/off, channel up/down, volume up/down, etc., content selection/execution/end, internet search, home shopping, telephone, video call, social network service ), voice commands for operations such as karaoke.

제1전자장치(4)는 디스플레이장치(1)와 제2전자장치(5)로부터 수신한 음성명령에 대해 음성인식을 수행하고, 인식 결과를 디스플레이장치(1)와 제2전자장치(5)로 전송할 수 있다. 인식 결과는 음성인식에 의해 인식된 음성명령 및 인식된 음성명령에 대응하는 동작의 정보 중 적어도 하나를 포함할 수 있다. 인식된 음성명령에 대응하는 동작의 정보는 디스플레이장치(1)와 제2전자장치(5)가 인식된 음성명령에 대응하는 동작을 수행할 수 있도록 하는 제어 코드를 포함할 수 있다. 따라서, 디스플레이장치(1)와 제2전자장치(5)는 제1전자장치(4)로부터 수신한 인식 결과에 따라 동작함으로써, 제1사용자(30)와 제2사용자(50)가 발화한 음성명령에 따른 음성인식 기능을 수행할 수 있다. The first electronic device 4 performs voice recognition on the voice commands received from the display device 1 and the second electronic device 5, and displays the recognition result on the display device 1 and the second electronic device 5 Can be transferred to. The recognition result may include at least one of a voice command recognized by voice recognition and operation information corresponding to the recognized voice command. The information of the operation corresponding to the recognized voice command may include a control code that allows the display device 1 and the second electronic device 5 to perform an operation corresponding to the recognized voice command. Accordingly, the display device 1 and the second electronic device 5 operate according to the recognition result received from the first electronic device 4, so that the voices uttered by the first user 30 and the second user 50 A voice recognition function according to a command can be performed.

특히, 제1전자장치(4)는 디스플레이장치(1)가 음성명령 추천기능을 수행할 수 있도록 추천 음성명령에 관한 정보를 제공할 수 있다. 이를 위해, 제1전자장치(4)는 제1사용자(30)와 제2사용자(50)가 발화한 복수의 음성명령을 수집하고, 복수의 발화한 음성명령 중 인식에 성공한 음성명령을 분류할 수 있다. 여기서, 인식에 성공한 경우는, 제1사용자(30)와 제2사용자(50)가 발화한 음성명령에 대해 인식에 성공한 경우뿐만 아니라, 인식 결과에 따라 디스플레이장치(1)와 제2전자장치(5)가 대응하는 동작을 수행한 경우를 포함할 수 있다. In particular, the first electronic device 4 may provide information on the recommended voice command so that the display device 1 can perform the voice command recommendation function. To this end, the first electronic device 4 collects a plurality of voice commands spoken by the first user 30 and the second user 50 and classifies voice commands that have successfully recognized among the plurality of spoken voice commands. Can. Here, when the recognition is successful, the display device 1 and the second electronic device (not only when the first user 30 and the second user 50 have successfully recognized the voice command spoken, but also according to the recognition result) 5) may include a case where the corresponding operation is performed.

그리고, 제1전자장치(4)는 디스플레이장치(1)로부터 컨텐트의 키워드를 수신하면, 수신된 키워드와 관련된 음성명령으로서, 인식에 성공한 음성명령에 관한 정보를 디스플레이장치(1)에 전송할 수 있다. 여기서, 디스플레이장치(1)로부터 수신되는 키워드는, 디스플레이장치(1)가 표시하는 영상(16)의 컨텐트에 대한 키워드로서, 컨텐트의 EPG(Electronic Program Guide), 영상(16), 사운드, 또는 캡션 중 적어도 하나로부터 획득한 키워드를 포함할 수 있다. Then, when the first electronic device 4 receives the keyword of the content from the display device 1, the first electronic device 4 may transmit information regarding the successful voice command to the display device 1 as a voice command related to the received keyword. . Here, the keyword received from the display device 1 is a keyword for the content of the image 16 displayed by the display device 1, and is an electronic program guide (EPG), image 16, sound, or caption of the content. It may include keywords obtained from at least one of.

디스플레이장치(1)는 제1전자장치(4)로부터 수신한 정보에 기초하여 컨텐트에 대한 추천 음성명령을 갖는 가이드정보(2)을 표시함으로써, 제1사용자(30)가 가이드정보(2)에 따라 추천 음성명령을 발화하도록 유도할 수 있다. 이에 대해서는, 도 2를 참조하여 자세히 설명하기로 한다.The display device 1 displays guide information 2 having a recommended voice command for the content based on the information received from the first electronic device 4, so that the first user 30 displays the guide information 2 Accordingly, it is possible to induce to utter a recommended voice command. This will be described in detail with reference to FIG. 2.

이와 같이, 본 실시예에 따른 디스플레이장치(1)는 복수의 사용자가 발화한 음성명령들 중에서 키워드와 관련되고, 발화한 음성명령에 대응하는 동작이 수행된 음성명령의 가이드정보(2)를 표시할 수 있다. 따라서, 제1사용자(30)가 발화할 만한 음성명령을 추천함으로써, 사용자에 최적화된 음성명령 추천기능을 제공하고, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 향상시킬 수 있다.As described above, the display device 1 according to the present embodiment displays guide information 2 of a voice command related to a keyword among voice commands spoken by a plurality of users and an operation corresponding to the spoken voice command is performed. can do. Therefore, by recommending a voice command that can be spoken by the first user 30, it is possible to provide a voice command recommendation function optimized for the user and improve the user's convenience and accessibility to the voice recognition function.

도 2는 도 1의 디스플레이장치(1)가 가이드정보(2)를 표시하는 일 예를 도시한다. 도 2에 도시된 바와 같이, 디스플레이장치(1)는 소정 컨텐트의 영상(16)을 표시하고, 영상(16)의 컨텐트로부터 키워드를 획득하고, 획득된 키워드를 제1전자장치(4)로 전송할 수 있다. 일 예로, 디스플레이장치(1)는 작품명이 B인 드라마 컨텐트의 영상(16)을 표시하고, 영상(16)에는 이름이 A인 배우(17)가 출연하는 것으로 가정한다. 디스플레이장치(1)는 영상(16)에 대한 영상인식을 통해 A배우(17)의 이름 및 B드라마의 작품명을 키워드로 획득하고, 획득한 키워드인 A배우(17)의 이름 및 B드라마의 작품명을 제1전자장치(4)로 전송할 수 있다. 다만, 키워드는 영상(16)으부터 획득되는 것에 한정되지 않으므로, 컨텐트의 EPG, 사운드, 캡션 등으로부터 획득될 수 있다. 또한, 키워드가 A배우(17)의 이름 및 B드라마의 작품명으로 한정되는 것은 아니므로, 컨텐트의 EPG, 사운드, 캡션 등으로부터 다양한 키워드가 획득될 수 있다. FIG. 2 shows an example in which the display device 1 of FIG. 1 displays guide information 2. As shown in FIG. 2, the display device 1 displays an image 16 of a predetermined content, obtains a keyword from the content of the image 16, and transmits the obtained keyword to the first electronic device 4 Can. For example, it is assumed that the display device 1 displays the video 16 of the drama content with the work name B, and the actor 17 with the name A appears on the video 16. The display device 1 obtains the name of the actor 17 and the work of the B drama as keywords through image recognition of the image 16, and obtains the name of the actor 17 and the B drama of the acquired keywords. The name of the work can be transmitted to the first electronic device 4. However, since the keyword is not limited to being obtained from the image 16, it can be obtained from EPG, sound, and caption of the content. In addition, since the keyword is not limited to the name of the actor 17 and the work name of the B drama, various keywords can be obtained from the EPG, sound, and caption of the content.

제1전자장치(4)는 디스플레이장치(1)로부터 수신한 키워드에 기초하여, 복수의 발화한 음성명령 중 키워드에 관련되고, 발화한 음성명령에 대응하는 동작이 수행된 음성명령, 즉, 인식에 성공한 음성명령을 식별하고, 식별된 음성명령에 관한 정보를 디스플레이장치(1)에 전송할 수 있다. 일 예로, 제1전자장치(4)는 디스플레이장치(1)로부터 수신한 키워드인 A배우(17)의 이름 및 B드라마의 작품명과 관련되는 음성명령으로서, "A배우가 출연한 영화 찾아줘"(21), "B드라마 줄거리 알려줘"(22), "B드라마 녹화 예약해줘"(23), "B드라마 24화 검색해줘"(24), 및 "B드라마 제작사 알려줘"를 식별할 수 있다. 이 중에서 "A배우가 출연한 영화 찾아줘"(21), "B드라마 줄거리 알려줘"(22), "B드라마 녹화 예약해줘"(23), 및 "B드라마 24화 검색해줘"(24)에 대한 동작이 수행된 반면에, "B드라마 제작사 알려줘"에 대한 동작이 수행되지 않은 경우, 제1전자장치(4)는 대응하는 동작이 수행된 바 있는 음성명령인 "A배우가 출연한 영화 찾아줘"(21), "B드라마 줄거리 알려줘"(22), "B드라마 녹화 예약해줘"(23), 및 "B드라마 24화 검색해줘"(24)를 식별할 수 있고, 식별된 음성명령에 관한 정보를 디스플레이장치(1)로 전송할 수 있다. Based on the keyword received from the display device 1, the first electronic device 4 is associated with a keyword among a plurality of spoken voice commands, and a voice command that performs an operation corresponding to the spoken voice command, that is, recognition It is possible to identify a successful voice command, and transmit information on the identified voice command to the display device 1. As an example, the first electronic device 4 is a voice command related to the name of the actor 17, which is a keyword received from the display device 1, and the work name of the B drama, "Please find the movie where the actor appeared" (21), "tell me the story of the B drama" (22), "reserve the B drama recording" (23), "search for the B drama 24 episodes" (24), and "tell me the B drama producer" can be identified. Among them, "Find a movie starring A actor" (21), "Tell me the story of B drama" (22), "Schedule a B drama recording" (23), and "Search for episode 24 of B drama" (24) On the other hand, if the operation for "tell me the drama producer B" has not been performed, the first electronic device 4 finds a movie in which the actor appeared in the voice command "A Actor" in which the corresponding operation was performed. You can identify (21), "tell me the story of B drama" (22), "schedule B drama recording" (23), and "search B drama 24" (24). Information about it can be transmitted to the display device 1.

디스플레이장치(1)는 제1전자장치(4)로부터 수신한 정보에 기초하여 추천 음성명령을 포함하는 가이드정보(2)를 표시할 수 있다. 일 예로, 디스플레이장치(1)는 제1전자장치(4)로부터 수신한 정보에 기초하여 "A배우가 출연한 영화 찾아줘"(21), "B드라마 줄거리 알려줘"(22), "B드라마 녹화 예약해줘"(23), 및 "B드라마 24화 검색해줘"(24)를 포함하는 가이드정보(2)를 표시할 수 있다. The display device 1 may display guide information 2 including recommended voice commands based on the information received from the first electronic device 4. As an example, the display device 1 is based on the information received from the first electronic device 4, "Find a movie starring A actor" (21), "Tell me the story of B drama" (22), "B drama It is possible to display guide information 2 including a reservation for recording" 23 and a search for episode 24 of B drama 24.

디스플레이장치(1)는 가이드정보(2)에 기초하여 제1사용자(30)가 하나의 음성명령, 예를 들면, "A배우가 출연한 영화 찾아줘"(21)를 따라서 발화하면, 수신부(13)를 통하여 발화한 음성명령(31)을 수신하고, 인식된 음성명령(31)에 대응하는 동작인 A배우가 출연한 영화에 대한 정보를 제공할 수 있다. When the first user 30 speaks according to one voice command, for example, "Find a movie starring A actor" 21 based on the guide information 2, the display device 1 receives the receiver ( Through 13), a voice command 31 spoken may be received, and information on a movie starred by an Actor, which is an operation corresponding to the recognized voice command 31, may be provided.

이와 같이, 본 실시예에 따른 디스플레이장치(1)는 복수의 사용자가 발화한 음성명령들 중에서 키워드와 관련되고, 발화한 음성명령에 대응하는 동작이 수행된 음성명령의 가이드정보(2)를 표시할 수 있다. 따라서, 제1사용자(30)가 발화할 만한 음성명령을 추천함으로써, 사용자에 최적화된 음성명령 추천기능을 제공하고, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 향상시킬 수 있다.As described above, the display device 1 according to the present embodiment displays guide information 2 of a voice command related to a keyword among voice commands spoken by a plurality of users and an operation corresponding to the spoken voice command is performed. can do. Therefore, by recommending a voice command that can be spoken by the first user 30, it is possible to provide a voice command recommendation function optimized for the user and improve the user's convenience and accessibility to the voice recognition function.

도 3은 도 1의 디스플레이장치(1) 및 제1전자장치(4)의 구성을 도시한다. 먼저, 도 3을 참조하여, 도 1의 디스플레이장치(1)의 구성에 대해 설명한다. 디스플레이장치(1)는 디스플레이(11), 통신부(12), 수신부(13), 및 프로세서(14)를 포함할 수 있다.3 shows the configuration of the display device 1 and the first electronic device 4 of FIG. 1. First, the configuration of the display device 1 of FIG. 1 will be described with reference to FIG. 3. The display device 1 may include a display 11, a communication unit 12, a reception unit 13, and a processor 14.

디스플레이(11)는 처리된 영상의 신호/데이터에 기초하여 영상을 표시할 수 있다. 일 예로, 디스플레이(11)는 튜닝된 방송신호에 기초하여 방송영상을 표시할 수 있다. 디스플레이(11)는 액정(Liquid Crystal), 플라즈마(Plasma), 발광 다이오드(Lightemitting Diode), 유기발광 다이오드(Organic Light-emitting Diode), 탄소 나노 튜브(Carbon Nano-Tube), 나노 크리스탈(Nano-Crystal) 등의 다양한 디스플레이 방식으로 구현될 수 있으며, 이에 한정되는 것은 아니다.The display 11 may display an image based on the signal/data of the processed image. For example, the display 11 may display a broadcast image based on the tuned broadcast signal. The display 11 includes liquid crystal, plasma, light emitting diode, organic light-emitting diode, carbon nano-tube, and nano-crystal ), and the like, but is not limited thereto.

통신부(12)는 제1전자장치(4) 또는 제2전자장치(5) 중 적어도 하나와 와 유선 또는 무선 통신을 통하여 신호/데이터를 송수신할 수 있다. 여기서, 각 전자장치는 디스플레이장치(1)에 대하여 외부장치가 될 수 있다. 통신부(13)는 제1전자장치(4) 또는 제2전자장치(5) 중 적어도 하나와 유선 또는 무선으로 통신하기 위해 유무선 랜(LAN, Local Area Network), WiHD(Wireless HD), WiGig(Wireless Gigabit Alliance), 4G (4th-Generation) 통신, 5G (5th-Generation) 통신, BT(Bluetooth), BLE(Bluetooth Low Energy), 적외선 통신(IrDA, infrared Data Association), 와이파이(Wi-Fi), 지그비, WFD((Wi-Fi Direct), UWB(Ultra-Wideband), NFC(Near Field Communication) 등 중 적어도 하나를 포함할 수 있다. 통신부(12)는 유선 또는 무선 통신을 수행하기 위해 2이상의 유무선 통신 모듈 또는 하나의 통합 모듈로 구현될 수 있다.The communication unit 12 may transmit/receive signals/data through wired or wireless communication with at least one of the first electronic device 4 or the second electronic device 5. Here, each electronic device may be an external device to the display device 1. The communication unit 13 is a wired or wireless LAN (Local Area Network), WiHD (Wireless HD), WiGig (Wireless) to communicate with at least one of the first electronic device 4 or the second electronic device 5 by wire or wirelessly. Gigabit Alliance), 4G (4th-Generation) Communication, 5G (5th-Generation) Communication, BT (Bluetooth), BLE (Bluetooth Low Energy), Infrared Communication (IrDA, infrared Data Association), Wi-Fi (Wi-Fi), Zigbee , WFD ((Wi-Fi Direct), UWB (Ultra-Wideband), NFC (Near Field Communication), etc. It may include at least one of the communication unit 12 to perform two or more wired or wireless communication to perform wired or wireless communication It can be implemented as a module or an integrated module.

수신부(13)는 제1사용자(30)로부터 음성명령을 수신할 수 있다. 일 예로, 수신부(13)는 디스플레이장치(1)에 마련되어 제1사용자(30)의 음성명령을 수신할 수 있다. 이 경우, 수신부(13)는 음성명령을 수신하기 위한 적어도 하나의 마이크(Microphone)으로 구현될 수 있다. 다른 예로, 제1사용자(30)의 음성명령이 제2전자장치(5)로 수신되는 경우, 수신부(13)는 제1사용자(30)의 음성명령에 관한 신호를 제2전자장치(5)로부터 수신할 수 있다. 일 예로, 제2전자장치(5)가 리모컨을 포함하는 경우, 수신부(13)는 리모컨으로부터 제1사용자(30)의 음성명령의 신호를 수신하기 위한 리모컨신호 수신부를 더 포함할 수 있다. The receiver 13 may receive a voice command from the first user 30. For example, the receiving unit 13 may be provided on the display device 1 to receive a voice command from the first user 30. In this case, the receiver 13 may be implemented with at least one microphone for receiving a voice command. As another example, when the voice command of the first user 30 is received by the second electronic device 5, the receiving unit 13 transmits a signal related to the voice command of the first user 30 to the second electronic device 5 You can receive from For example, when the second electronic device 5 includes a remote control, the reception unit 13 may further include a remote control signal reception unit for receiving a signal of the voice command of the first user 30 from the remote control.

프로세서(14)는 디스플레이장치(1)의 구성 전반을 제어할 수 있다. 일 예로, 프로세서(14)는 음성인식 기능을 수행할 수 있다. 구체적으로, 프로세서(14)는 수신부(13)를 통하여 수신된 제1사용자(30)의 음성명령을 제1전자장치(4)로 전송하고, 통신부(12)를 통해 제1전자장치(4)로부터 인식 결과를 수신할 수 있다. 프로세서(14)는 수신한 인식 결과에 기초하여 제1사용자(30)의 음성명령에 대응하는 동작을 수행할 수 잇다.The processor 14 may control the overall configuration of the display device 1. For example, the processor 14 may perform a voice recognition function. Specifically, the processor 14 transmits the voice command of the first user 30 received through the receiving unit 13 to the first electronic device 4, and through the communication unit 12, the first electronic device 4 The recognition result can be received from. The processor 14 may perform an operation corresponding to the voice command of the first user 30 based on the received recognition result.

다른 예로, 프로세서(14)는 음성명령 추천기능을 수행할 수 있다. 구체적으로, 프로세서(14)는 컨텐트의 영상(16)이 표시되도록 디스플레이(11)를 제어하고, 영상(16)이 표시되는 컨텐트의 키워드를 획득하여, 통신부(12)를 통하여 제1전자장치(4)로 전송할 수 있다. 이 경우, 프로세서(14)는 획득된 키워드들 간의 동일성, 유사성, 연관성 등에 기초하여 식별된 키워드를 제1전자장치(4)로 전송할 수 있다. 일 예로, 프로세서(14)는 영상(16)에 대한 영상인식을 통해 획득한 키워드가 EPG의 키워드와 동일하거나 유사한 것으로 식별된 경우, 획득된 키워드를 제1전자장치(4)로 전송할 수 있다. 그리고, 프로세서(14)는 제1전자장치(4)로부터 복수의 사용자가 발화한 음성명령들 중에서 키워드와 관련되고, 대응하는 동작이 수행된 음성명령의 정보를 수신하고, 수신된 정보에 기초하여 음성명령의 가이드정보(2)가 표시되도록 디스플레이(11)를 제어할 수 있다. 프로세서(14)는 가이드정보(2)의 표시에 따라 수신부(13)를 통해 수신되는 사용자의 음성명령(31)에 대응하여, 수신된 음성명령(31)에 따른 동작을 수행할 수 있다. As another example, the processor 14 may perform a voice command recommendation function. Specifically, the processor 14 controls the display 11 so that the image 16 of the content is displayed, acquires keywords of the content on which the image 16 is displayed, and receives the first electronic device through the communication unit 12 ( 4). In this case, the processor 14 may transmit the identified keyword to the first electronic device 4 based on the sameness, similarity, and relevance between the obtained keywords. For example, the processor 14 may transmit the obtained keyword to the first electronic device 4 when the keyword obtained through image recognition for the image 16 is identified as the same or similar to the keyword of the EPG. Then, the processor 14 receives information of a voice command associated with a keyword from among voice commands uttered by a plurality of users from the first electronic device 4, and a corresponding operation is performed, based on the received information. The display 11 can be controlled so that the guide information 2 of the voice command is displayed. The processor 14 may perform an operation according to the received voice command 31 in response to the user's voice command 31 received through the receiver 13 according to the indication of the guide information 2.

프로세서(14)는 디스플레이장치(1)의 구성 전반에 대한 제어를 수행할 수 있도록 하는 제어프로그램(혹은 인스트럭션)과, 제어프로그램이 설치되는 비휘발성의 메모리, 설치된 제어프로그램의 적어도 일부가 로드되는 휘발성의 메모리 및 로드된 제어프로그램을 실행하는 적어도 하나의 프로세서 혹은 CPU(Central Processing Unit)를 포함할 수 있다. 또한, 이와 같은 제어프로그램은, 디스플레이장치(1) 이외의 제2전자장치(5)에도 저장될 수 있다.The processor 14 is a control program (or instruction) that enables control of the overall configuration of the display device 1, a nonvolatile memory in which the control program is installed, and at least a portion of the installed control program is loaded volatile It may include at least one processor or CPU (Central Processing Unit) for executing the memory and the loaded control program. In addition, such a control program can be stored in the second electronic device 5 other than the display device 1.

제어프로그램은 BIOS, 디바이스 드라이버, 운영체계, 펌웨어, 플랫폼 및 응용프로그램(어플리케이션) 중 적어도 하나의 형태로 구현되는 프로그램(들)을 포함할 수 있다. 일 실시예로서, 응용프로그램은, 디스플레이장치(1)의 제조 시에 미리 설치 또는 저장되거나, 혹은 추후 사용 시에 외부로부터 응용프로그램의 데이터를 수신하여 수신된 데이터에 기초하여 설치될 수 있다. 응용프로그램의 데이터는, 예컨대, 어플리케이션 마켓과 같은 서버로부터 다운로드될 수도 있다. 이와 같은 서버는, 컴퓨터프로그램제품의 일 예이나, 이에 한정되는 것은 아니다.The control program may include program(s) implemented in at least one form of a BIOS, device driver, operating system, firmware, platform, and application program (application). As an embodiment, the application program may be installed or stored in advance at the time of manufacture of the display device 1, or may be installed based on the received data by receiving data of the application program from the outside during future use. The data of the application program may be downloaded from a server, for example, an application market. Such a server is an example of a computer program product, but is not limited thereto.

한편, 디스플레이장치(1)의 구성은 도 3에 한정되지 않으므로, 디스플레이장치(1)는 도 3에 도시된 구성 중 일부 구성을 배제하거나 도 3에 도시되지 않는 구성을 포함할 수 있다. 일 예로, 디스플레이장치(1)는 영상신호 수신부, 영상신호 처리부, 사용자입력부, 전원부, 또는 저장부 중 적어도 하나를 더 포함할 수 있다. Meanwhile, since the configuration of the display device 1 is not limited to FIG. 3, the display device 1 may exclude some of the configurations shown in FIG. 3 or include a configuration not shown in FIG. 3. As an example, the display device 1 may further include at least one of an image signal receiving unit, an image signal processing unit, a user input unit, a power unit, or a storage unit.

영상신호 수신부는 외부로부터 영상신호를 수신할 수 있다. 영상신호 수신부가 수신한 영상신호의 종류는 제한이 없으므로, 방송 영상신호, 케이블 영상신호, 또는 위성 영상신호 등을 수신할 수 있다. 영상신호 처리부는 영상신호 수신부가 수신한 영상신호를 디스플레이(11)에 표시 가능하도록 처리할 수 있다.The video signal receiving unit may receive a video signal from the outside. Since the type of the video signal received by the video signal receiving unit is not limited, a broadcast video signal, a cable video signal, or a satellite video signal can be received. The video signal processor may process the video signal received by the video signal receiver to be displayed on the display 11.

사용자입력부는 사용자입력을 수신하도록 마련될 수 있다. 사용자입력부는 사용자의 터치입력을 수신하기 위한 터치 패널, 디스플레이장치(1)의 전면에 마련된 메뉴버튼, 리모컨으로부터 리모컨신호를 수신하는 리모컨신호 수신부 중 적어도 하나를 포함할 수 있다. The user input unit may be provided to receive a user input. The user input unit may include at least one of a touch panel for receiving a user's touch input, a menu button provided on the front of the display device 1, and a remote control signal receiving unit for receiving a remote control signal from the remote control.

전원부는 프로세서(14)의 제어에 따라 외부로부터 전원을 공급받아 디스플레이장치(1)의 각 구성들에 필요한 공급하거나, 공급받은 전원을 저장할 수 있다. 저장부는 디스플레이장치(1)를 제어하기 위한 명령어, 프로그램, 어플리케이션, 또는 다양한 컨텐트에 관한 사운드신호 등을 저장할 수 있다. 일 예로, 저장부는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The power supply unit may receive power supplied from the outside under the control of the processor 14 to supply necessary power for each of the components of the display device 1 or may store the supplied power. The storage unit may store a command, a program, an application for controlling the display device 1, or sound signals for various contents. For example, the storage unit is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory, etc.), RAM. , A storage medium of at least one type of ROM.

이하에서는, 도 3을 참조하여, 제1전자장치(4)의 구성에 대해 설명한다. 제1전자장치(4)는 네트워크를 통해 디스플레이장치(1) 또는 제2전자장치(5) 중 적어도 하나와 통신할 수 있으며, 서버로 구현될 수 있다. 제1전자장치(4)는 통신부(42), 저장부(43), 및 프로세서(44)를 포함할 수 있다. Hereinafter, the configuration of the first electronic device 4 will be described with reference to FIG. 3. The first electronic device 4 may communicate with at least one of the display device 1 or the second electronic device 5 through a network, and may be implemented as a server. The first electronic device 4 may include a communication unit 42, a storage unit 43, and a processor 44.

제1전자장치(4)의 통신부(42)는 디스플레이장치(1) 및 제2전자장치(5)와 유선 또는 무선으로 신호/데이터를 송수신할 수 있다. 여기서, 디스플레이장치(1)와 제2전자장치(5)는 제1전자장치(4)에 대하여 외부장치가 될 수 있다. 통신부(42)는 디스플레이장치(1) 및 제2전자장치(5)와 유선 또는 무선으로 통신하기 위해 유무선 랜, WiHD, WiGig, 4G 통신, 5G 통신, BT, BLE, 적외선 통신, 와이파이, 지그비, WFD, UWB, NFC 등 중 적어도 하나를 포함할 수 있다. 통신부(42)는 유선 또는 무선 통신을 수행하기 위해 2이상의 유무선 통신 모듈 또는 하나의 통합 모듈로 구현될 수 있다The communication unit 42 of the first electronic device 4 may transmit/receive signals/data by wire or wirelessly with the display device 1 and the second electronic device 5. Here, the display device 1 and the second electronic device 5 may be external devices to the first electronic device 4. The communication unit 42 is a wired or wireless LAN, WiHD, WiGig, 4G communication, 5G communication, BT, BLE, infrared communication, Wi-Fi, Zigbee to communicate wired or wirelessly with the display device 1 and the second electronic device 5 WFD, UWB, NFC, and the like. The communication unit 42 may be implemented as two or more wired/wireless communication modules or one integrated module to perform wired or wireless communication.

저장부(43)는 제1전자장치(4)를 제어하기 위한 명령어, 프로그램, 어플리케이션, 또는 다양한 컨텐트에 관한 사운드신호 등을 저장할 수 있다. 일 예로, 저장부(43)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. The storage unit 43 may store a command, a program, an application for controlling the first electronic device 4, or sound signals related to various contents. For example, the storage unit 43 may include a flash memory type, a hard disk type, a multimedia card micro type, and a card type memory (for example, SD or XD memory). Etc.), a storage medium of at least one of RAM and ROM.

프로세서(44)는 제1전자장치(4)의 구성 전반을 제어할 수 있다. 일 예로, 프로세서(44)는 디스플레이장치(1)와 제2전자장치(5)로부터 제1사용자(30)와 제2사용자(50)가 발화한 음성명령을 수신하고, 수신한 음성명령에 대한 음성인식을 수행하여, 인식 결과를 디스플레이장치(1)와 제2전자장치(5)로 전송할 수 있다. The processor 44 can control the overall configuration of the first electronic device 4. For example, the processor 44 receives the voice commands spoken by the first user 30 and the second user 50 from the display device 1 and the second electronic device 5, and the The voice recognition may be performed to transmit the recognition result to the display device 1 and the second electronic device 5.

프로세서(44)는 음성명령을 수집할 수 있다. 프로세서(44)가 수집하는 복수의 음성명령은, 제조 시에 미리 정해지거나 저장부(43)에 저장된 음성명령, 규칙 기반 또는 인공지능 알고리즘으로서 기계학습, 신경망, 딥러닝 알고리즘 중 적어도 하나를 이용하여 학습한 음성명령 등을 포함할 수 있다. The processor 44 may collect voice commands. The plurality of voice commands collected by the processor 44 is determined in advance at the time of manufacture, or stored in the storage unit 43 using voice commands, rule-based or artificial intelligence algorithms using at least one of machine learning, neural networks, and deep learning algorithms. It may include learned voice commands.

특히, 프로세서(44)는 제1사용자(30)와 제2사용자(50)가 발화한 음성명령을 수집하고, 대응하는 동작이 수행된 바 있는, 즉 인식에 성공한 음성명령을 분류할 수 있다. 일 예로, 디스플레이장치(1)와 제2전자장치(5)로부터 수신한 제1사용자(30)와 제2사용자(50)의 음성명령이 "A배우가 출연한 영화 찾아줘"(21), "B드라마 줄거리 알려줘"(22), "B드라마 녹화 예약해줘"(23), "B드라마 24화 검색해줘"(24), 및 "B드라마 제작사 알려줘"인 경우를 가정한다. 만일, 프로세서(44)가 "A배우가 출연한 영화 찾아줘"(21), "B드라마 줄거리 알려줘"(22), "B드라마 녹화 예약해줘"(23), 및 "B드라마 24화 검색해줘"(24)에 대해서는 인식에 성공하거나, 인식의 성공에 따라 디스플레이장치(1)와 제2전자장치(5)가 대응하는 동작을 수행한 반면에, "B드라마 제작사 알려줘"에 대해서는 인식에 실패하거나, 인식의 실패에 따라 디스플레이장치(1)와 제2전자장치(5)가 대응하는 동작을 수행하지 않은 경우, 프로세서(44)는 "A배우가 출연한 영화 찾아줘"(21), "B드라마 줄거리 알려줘"(22), "B드라마 녹화 예약해줘"(23), 및 "B드라마 24화 검색해줘"(24)를 인식에 성공한 음성명령으로 분류할 수 있다. In particular, the processor 44 may collect the voice commands uttered by the first user 30 and the second user 50 and classify the voice commands that have been successfully recognized, that is, recognized successfully. For example, the voice commands of the first user 30 and the second user 50 received from the display device 1 and the second electronic device 5 are "Find a movie starring an Actor" (21), It is assumed that "tell me the story of B drama" (22), "schedule B drama recording" (23), "search B drama 24" (24), and "tell me about B drama producer". If the processor 44 finds, "Find a movie starring A actor" (21), "Tell me the story of the B drama" (22), "Schedule a B drama recording" (23), and "Search for episode 24 of B drama Regarding "24, the recognition succeeds, or the display device 1 and the second electronic device 5 perform a corresponding operation according to the recognition success, while the recognition of the "tell me about the B drama maker" fails. Or, if the display device 1 and the second electronic device 5 do not perform a corresponding operation due to a failure in recognition, the processor 44 may display "Find a movie starring an Actor" (21), " The "tell me the story of the B drama" (22), the "reservation of the B drama recording" (23), and the "search for the B drama 24 episodes" (24) can be classified as a successful voice command.

프로세서(44)는 디스플레이장치(1)로부터 키워드를 수신하는 경우, 복수의 발화한 음성명령 중 키워드와 관련되고, 인식에 성공한 음성명령을 식별하여, 식별된 음성명령에 관한 정보를 디스플레이장치(1)로 전송함으로써, 디스플레이장치(1)가 음성명령 추천기능을 수행할 수 있도록 한다. 일 예로, 디스플레이장치(1)로부터 수신한 키워드가 A배우(17)의 이름 및 B드라마의 작품명인 것으로 가정한다. 프로세서(44)는 인식에 성공한 음성명령 중 A배우(17)의 이름 및 B드라마의 작품명을 포함하는 "A배우가 출연한 영화 찾아줘"(21), "B드라마 줄거리 알려줘"(22), "B드라마 녹화 예약해줘"(23), 및 "B드라마 24화 검색해줘"(24)를 식별하고, 식별된 음성명령에 관한 정보를 디스플레이장치(1)로 전송할 수 있다. 디스플레이장치(1)는 제1전자장치(4)로부터 수신한 정보에 기초하여, "A배우가 출연한 영화 찾아줘"(21), "B드라마 줄거리 알려줘"(22), "B드라마 녹화 예약해줘"(23), 및 "B드라마 24화 검색해줘"(24)를 포함하는 가이드정보(2)를 표시할 수 있다.When a keyword is received from the display device 1, the processor 44 is associated with a keyword among a plurality of spoken voice commands, identifies a voice command that has been successfully recognized, and displays information on the identified voice command (1). ) To enable the display device 1 to perform a voice command recommendation function. As an example, it is assumed that the keywords received from the display device 1 are the names of the actor 17 and the works of the B drama. The processor 44 includes the names of the actor 17 and the work of the B drama among the successful voice commands, "Please find the movie where the Actor appeared" (21), "Tell me the story of the B drama" (22) , "Schedule B drama recording" (23), and "Search for B drama 24 episodes" (24) may be identified, and information regarding the identified voice command may be transmitted to the display device (1). The display device 1 is based on the information received from the first electronic device 4, "Find a movie starring A actor" (21), "Tell me the story of the B drama" (22), "Reservation of B drama recording Guide information (2), including "Please do (23)," and "Search for B drama episode 24" (24) can be displayed.

다만, 프로세서(44)가 분류하는 음성명령은 인식 성공에 한정되는 것은 아니므로, 발화 빈도, 연속 발화, 현재 추천 등과 같은 팩터(factor)에 기초하여 음성명령을 분류할 수 있다. 일 예로, 프로세서(44)는 복수의 발화된 음성명령을 제1사용자(30) 및 제2사용자(50)에 의해 발화된 빈도가 높은 음성명령, 제1사용자(30) 및 제2사용자(50)에 의해 연속적으로 발화된 횟수가 많은 음성명령, 또는 현재 제2전자장치(5)에 추천되거나 웹 혹은 SNS 상의 검색 순위가 높은 음성명령 등으로 분류할 수도 있다. 그리고, 프로세서(44)는 디스플레이장치(1)로부터의 키워드와 관련되는 음성명령으로서, 인식에 성공하거나, 발화 빈도가 높거나, 연속적으로 발화된 횟수가 많거나, 또는 현재 제2전자장치(5)에 추천되거나 웹 혹은 SNS 상의 검색 순위가 높은 음성명령을 식별하고, 식별된 음성명령에 관한 정보를 디스플레이장치(1)에 전송할 수 있다. However, since the voice commands classified by the processor 44 are not limited to recognition success, voice commands may be classified based on factors such as utterance frequency, continuous utterance, and current recommendation. For example, the processor 44 may have a plurality of voice commands that are spoken by the first user 30 and the second user 50, and the first user 30 and the second user 50, respectively. ) May be classified as a voice command having a large number of consecutive utterances, or a voice command that is currently recommended for the second electronic device 5 or has a high search ranking on the web or SNS. In addition, the processor 44 is a voice command related to a keyword from the display device 1, the recognition is successful, the utterance frequency is high, the number of consecutive utterances is high, or the current second electronic device 5 ), or identify a voice command having a high search rank on the web or SNS, and transmit information regarding the identified voice command to the display device 1.

또한, 프로세서(44)는 키워드와 관련된 음성명령으로서, 상기한 적어도 하나의 팩터에 해당하는 음성명령에 점수를 부여하고, 총점이 높은 적어도 하나의 음성명령을 식별하여, 식별된 음성명령에 관한 정보를 디스플레이장치(1)에 전송할 수 있다. 프로세서(44)는 점수를 부여함에 있어서, 팩터에 우선순위 또는 가중치를 설정할 수 있으며, 우선순위 또는 가중치에 따른 총점이 높은 적어도 하나의 음성명령에 관한 정보를 디스플레이장치(1)에 전송할 수 있다.In addition, the processor 44 is a voice command related to a keyword, assigns a score to the voice command corresponding to the at least one factor described above, identifies at least one voice command having a high total score, and information about the identified voice command Can be transmitted to the display device 1. In assigning a score, the processor 44 may set a priority or weight for a factor, and transmit information on at least one voice command having a high total score according to the priority or weight to the display device 1.

다만, 복수의 발화한 음성명령에 대한 팩터, 팩터의 우선순위 또는 가중치는 미리 설정되거나, 제1사용자(30)의 선택에 따를 수 있다. 제1사용자(30)의 선택에 의한 팩터, 팩터의 우선순위 또는 가중치에 의해 음성명령을 식별하는 실시예에 대해서는 도 10 및 11을 참조하여 자세히 설명한다.However, the factor, the priority or weight of the factors for a plurality of spoken voice commands may be set in advance or may be selected by the first user 30. An embodiment of identifying a voice command by a factor, a priority or a weight of a factor by selection of the first user 30 will be described in detail with reference to FIGS. 10 and 11.

또한, 프로세서(44)는 제1전자장치(4)의 구성 전반에 대한 제어를 수행할 수 있도록 하는 제어프로그램(혹은 인스트럭션)과, 제어프로그램이 설치되는 비휘발성의 메모리, 설치된 제어프로그램의 적어도 일부가 로드되는 휘발성의 메모리 및 로드된 제어프로그램을 실행하는 적어도 하나의 프로세서 혹은 CPU(Central Processing Unit)를 포함할 수 있다. 또한, 이와 같은 제어프로그램은, 제1전자장치(4) 이외의 디스플레이장치(1)와 제2전자장치(5)에도 저장될 수 있다.In addition, the processor 44 is a control program (or instruction) that allows control over the entire configuration of the first electronic device 4, a non-volatile memory in which the control program is installed, and at least a part of the installed control program It may include a volatile memory to be loaded and at least one processor or a central processing unit (CPU) that executes the loaded control program. In addition, such a control program can be stored in the display device 1 and the second electronic device 5 other than the first electronic device 4.

제어프로그램은 BIOS, 디바이스 드라이버, 운영체계, 펌웨어, 플랫폼 및 응용프로그램(어플리케이션) 중 적어도 하나의 형태로 구현되는 프로그램(들)을 포함할 수 있다. 일 실시예로서, 응용프로그램은, 제1전자장치(4)의 제조 시에 미리 설치 또는 저장되거나, 혹은 추후 사용 시에 외부로부터 응용프로그램의 데이터를 수신하여 수신된 데이터에 기초하여 설치될 수 있다. 응용프로그램의 데이터는, 예컨대, 어플리케이션 마켓과 같은 서버로부터 다운로드될 수도 있다. 이와 같은 서버는, 컴퓨터프로그램제품의 일 예이나, 이에 한정되는 것은 아니다.The control program may include program(s) implemented in at least one form of a BIOS, device driver, operating system, firmware, platform, and application program (application). As an embodiment, the application program may be installed or stored in advance at the time of manufacture of the first electronic device 4, or may be installed based on the received data by receiving data of the application program from the outside in the future use. . The data of the application program may be downloaded from a server, for example, an application market. Such a server is an example of a computer program product, but is not limited thereto.

다만, 제1전자장치(4)의 구성은 도 3에 한정되지 않으므로, 제1전자장치(4)는 도 3에 도시된 구성 중 일부 구성을 배제하거나 도 3에 도시되지 않는 구성을 포함할 수 있다.However, since the configuration of the first electronic device 4 is not limited to FIG. 3, the first electronic device 4 may exclude some of the components illustrated in FIG. 3 or include components not illustrated in FIG. 3. have.

도 4는 도 3의 디스플레이장치(1)의 제어방법을 도시한다. 본 실시예에 의한 제어방법은 디스플레이장치(1)의 프로세서(14)가 앞서 설명한 제어프로그램을 실행함으로써 수행될 수 있다. 이하, 설명의 편의상, 프로세서(14)가 제어프로그램을 실행하여 수행하는 동작을, 간략하게, 프로세서(14)의 동작인 것으로 설명할 수 있다. 4 shows a control method of the display device 1 of FIG. 3. The control method according to this embodiment may be performed by the processor 14 of the display device 1 executing the control program described above. Hereinafter, for convenience of description, an operation performed by the processor 14 by executing a control program may be briefly described as an operation of the processor 14.

도 4를 참조하면, 프로세서(14)는 컨텐트의 영상(16)을 표시하고(S11), 영상(16)이 표시되는 컨텐트의 키워드를 획득할 수 있다(S12). 일 예로, 컨텐트의 키워드는 컨텐트의 EPG, 영상(16), 사운드, 또는 캡션 중 적어도 하나에 기초하여 획득할 수 있다. Referring to FIG. 4, the processor 14 may display an image 16 of the content (S11) and obtain keywords of the content on which the image 16 is displayed (S12). As an example, the keyword of the content may be obtained based on at least one of EPG, video 16, sound, or caption of the content.

프로세서(14)는 키워드를 제1전자장치(4)로 전송하고(S13), 제1전자장치(4)로부터 복수의 사용자가 발화한 음성명령들 중에서 키워드와 관련되고, 대응하는 동작이 수행된 음성명령의 정보를 수신하고(S14), 수신된 정보에 기초하여 음성명령의 가이드정보를 표시할 수 있다(S15). The processor 14 transmits a keyword to the first electronic device 4 (S13), and among the voice commands spoken by a plurality of users from the first electronic device 4, the keyword is associated with and a corresponding operation is performed Information of the voice command may be received (S14), and guide information of the voice command may be displayed based on the received information (S15).

프로세서(14)는 가이드정보(2)의 표시에 따라 수신되는 사용자의 음성명령(31)에 대응하여, 수신된 음성명령(31)에 따른 동작을 수행할 수 있다(S16). The processor 14 may perform an operation according to the received voice command 31 in response to the user's voice command 31 received according to the display of the guide information 2 (S16 ).

이와 같이, 본 실시예에 따른 디스플레이장치(1)는 복수의 사용자가 발화한 음성명령들 중에서 키워드와 관련되고, 발화한 음성명령에 대응하는 기능이 수행된 가이드정보(2)를 표시할 수 있다. 따라서, 제1사용자(30)가 발화할 만한 음성명령을 추천함으로써, 사용자에 최적화된 음성명령 추천기능을 제공하고, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 향상시킬 수 있다.As described above, the display device 1 according to the present embodiment may display guide information 2 associated with a keyword among voice commands spoken by a plurality of users and performed with a function corresponding to the spoken voice command. . Therefore, by recommending a voice command that can be spoken by the first user 30, it is possible to provide a voice command recommendation function optimized for the user and improve the user's convenience and accessibility to the voice recognition function.

도 5는 도 3의 제1전자장치(4)의 제어방법을 도시한다. 본 실시예에 의한 제어방법은 제1전자장치(4)의 프로세서(44)가 앞서 설명한 제어프로그램을 실행함으로써 수행될 수 있다. 이하, 설명의 편의상, 프로세서(44)가 제어프로그램을 실행하여 수행하는 동작을, 간략하게, 프로세서(44)의 동작인 것으로 설명할 수 있다. 5 shows a control method of the first electronic device 4 of FIG. 3. The control method according to this embodiment may be performed by the processor 44 of the first electronic device 4 executing the control program described above. Hereinafter, for convenience of description, an operation performed by the processor 44 by executing a control program may be briefly described as an operation of the processor 44.

도 5를 참조하면, 프로세서(44)는 디스플레이장치(1) 또는 제2전자장치(5)로부터 수신되는 요청에 대응하여, 디스플레이장치(1) 또는 제2전자장치(5)의 복수의 사용자(30, 50)가 발화한 음성명령의 인식을 수행하고, 인식된 음성명령 및 인식된 음성명령에 대응하는 동작의 정보를 디스플레이장치(1) 또는 제2전자장치(5)로 전송할 수 있다(S21). 디스플레이장치(1) 및 제2전자장치(5)는 제1전자장치(4)에 대하여 외부장치가 될 수 있으며, 복수의 사용자(30, 50)는 디스플레이장치(1)의 제1사용자(30)와 제2전자장치(5)의 제2사용자(50)를 포함할 수 있다.Referring to FIG. 5, the processor 44 responds to a request received from the display device 1 or the second electronic device 5, and the plurality of users of the display device 1 or the second electronic device 5 30, 50) recognizes the spoken voice command, and transmits information on the recognized voice command and the operation corresponding to the recognized voice command to the display device 1 or the second electronic device 5 (S21). ). The display device 1 and the second electronic device 5 can be external devices to the first electronic device 4, and a plurality of users 30 and 50 are first users 30 of the display device 1 ) And the second user 50 of the second electronic device 5.

제1전자장치(4)는 디스플레이장치(1)로부터 수신되는 키워드에 대응하여, 복수의 사용자(30, 50)가 발화한 음성명령들 중에서 키워드와 관련되고, 대응하는 동작이 수행된 음성명령의 정보를 디스플레이장치(1)로 송신할 수 있다(S21).The first electronic device 4 is associated with a keyword among voice commands uttered by a plurality of users 30 and 50 in response to a keyword received from the display device 1, and Information can be transmitted to the display device 1 (S21).

이와 같이, 본 실시예에 따른 제1전자장치(4)는 복수의 사용자가 발화한 음성명령들 중에서 키워드와 관련되고, 발화한 음성명령에 관한 정보를 디스플레이장치(1)로 제공할 수 있다. 따라서, 디스플레이장치(1)는 제1사용자(30)가 발화할 만한 음성명령을 추천함으로써, 사용자에 최적화된 음성명령 추천기능을 제공하고, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 향상시킬 수 있다.As described above, the first electronic device 4 according to the present embodiment may provide information regarding the spoken voice command to the display device 1, which is associated with a keyword among voice commands spoken by a plurality of users. Accordingly, the display device 1 can provide a voice command recommendation function optimized for the user by recommending a voice command that the first user 30 can utter, and improve user convenience and accessibility to the voice recognition function. have.

도 6은 도 4의 동작 S15와 관련하여, 음성명령의 우선순위가 나타나도록 가이드정보(2)를 표시하는 일 예를 도시한다. 본 실시예에 따른 디스플레이장치(1)의 프로세서(14)는 제1전자장치(4)로부터 음성명령에 관한 정보 및 음성명령에 대한 우선순위에 관한 정보를 수신할 수 있다. FIG. 6 shows an example of displaying the guide information 2 so that the priority of the voice command is displayed in relation to operation S15 of FIG. 4. The processor 14 of the display device 1 according to the present exemplary embodiment may receive information regarding a voice command and information regarding a priority for the voice command from the first electronic device 4.

우선순위에 관한 정보는 제1전자장치(4)가 인식 성공률, 발화 빈도, 연속 발화, 또는 현재 추천 등과 같은 팩터에 기초하여 음성명령에 부여한 식별자에 관한 정보를 포함할 수 있다. 일 예로, 프로세서(14)는 제1전자장치(4)로부터 발화 빈도 순으로 식별자가 부여된 음성명령 "A배우가 출연한 영화 찾아줘"(21), "B드라마 줄거리 알려줘"(22), "B드라마 녹화 예약해줘"(23), 및 "B드라마 24화 검색해줘"(24)에 관한 정보를 수신하는 경우, 발화 빈도 순으로 부여된 식별자에 기초하여 "A배우가 출연한 영화 찾아줘"(21), "B드라마 줄거리 알려줘"(22), "B드라마 녹화 예약해줘"(23), 및 "B드라마 24화 검색해줘"(24)의 순서로 가이드정보(2)를 표시할 수 있다. The priority information may include information about the identifier given to the voice command based on factors such as the recognition success rate, the utterance frequency, the continuous utterance, or the current recommendation. As an example, the processor 14 is a voice command from the first electronic device 4, in which the identifiers are assigned in the order of utterance frequency, "Find a movie starring an Actor" (21), "Tell me the story of the B drama" (22), When receiving information about "Please reserve B drama recording" (23) and "Search for B drama 24" (24), based on the identifier given in order of utterance frequency, "Find the movie starring Actor" Guide information (2) can be displayed in the order of "(21), "Tell me about B drama story" (22), "Schedule B drama recording" (23), and "Search for B drama 24 episodes" (24). have.

또한, 프로세서(14)는 우선순위가 높은 음성명령이 구별되도록 가이드정보(2)를 표시할 수 있다. 일 예로, 우선순위에 따라 음성명령의 컬러를 나머지 음성명령과 다르게 표시할 수 있다. 우선순위에 따라 구별되도록 표시하는 방법은 컬러를 다르게 표시하는 것에 한정되는 것은 아니므로, 우선순위에 따라 컬러, 명도, 채도 등에 그라데이션을 적용하거나 음성명령의 폰트, 크기, 기울기, 밑줄, 첨자 등 중 적어도 하나를 우선순위에 따라 다르게 표시할 수 있다.In addition, the processor 14 may display the guide information 2 so that voice commands having a high priority are distinguished. For example, the color of the voice command may be displayed differently from the rest of the voice commands according to priority. The method of displaying to be distinguished according to priority is not limited to displaying colors differently, so applying gradation to color, brightness, saturation, etc., or font, size, slope, underline, subscript, etc. At least one may be displayed differently according to priority.

이와 같이, 본 실시예에 따른 디스플레이장치(1)는 가이드정보(2)의 음성명령에 우선순위가 나타나도록 표시할 수 있다. 따라서, 제1사용자(30)가 발화할 만한 음성명령을 직관적으로 인식하도록 함으로써, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 향상시킬 수 있다.In this way, the display device 1 according to the present embodiment can display the priority in the voice command of the guide information 2. Accordingly, by allowing the first user 30 to intuitively recognize a spoken voice command, the user's convenience and accessibility to the voice recognition function can be improved.

도 7은 도 4의 동작 S15와 관련하여, 대체하여 발화 가능한 단어가 구별되도록 가이드정보(2)를 표시하는 일 예를 도시한다. 본 실시예에 따른 디스플레이장치(1)의 프로세서(14)는 제1전자장치(4)로부터 복수의 단어로 이루어지는 음성명령에 관한 정보를 수신할 수 있다. 복수의 단어 각각은 서로 다른 종류의 특성을 가질 수 있다. 일 예로, 음성명령의 각 단어는, 컨텐트의 장르, 회차, 종류 등에 관한 단어, 또는 디스플레이장치(1)가 소정 동작을 수행하도록 지시하는 단어를 포함할 수 있다. 다만, 단어의 특성은 이에 한정되는 것은 아니므로, 각 단어는 다양한 의미를 갖는 다양한 표현으로 구성될 수 있다. FIG. 7 shows an example of displaying guide information 2 so that words that can be uttered are distinguished in relation to operation S15 of FIG. 4. The processor 14 of the display device 1 according to the present embodiment may receive information regarding a voice command including a plurality of words from the first electronic device 4. Each of the plurality of words may have different kinds of characteristics. For example, each word of the voice command may include a word related to the genre, content, type, etc. of content, or a word instructing the display device 1 to perform a predetermined operation. However, the characteristics of words are not limited thereto, and each word may be composed of various expressions having various meanings.

제1전자장치(4)는 제1사용자(30)가 단어군에 포함된 다른 단어로 대체하여 발화할 수 있는 복수의 단어를 하나의 단어군으로 분류할 수 있다. 단어군에 포함된 단어들은 상호 연관성, 관련성 등을 가질 수 있다. 제1전자장치(4)는 음성명령의 어느 하나의 단어가 단어군에 포함되는 다른 단어로 대체 가능함을 식별하고, 다른 단어로 대체 가능한 해당 단어에 식별자를 부여할 수 있다. 일 예로, 제1전자장치(4)는 "B드라마 24화를 재생해줘"(24)라는 음성명령에 대해서, B드라마가 A드라마 및 C드라마와 함께 하나의 단어군을 이루는 경우, B드라마(51)에 대해 대체 가능한 단어군을 갖는 식별자를 부여할 수 있다. 또는, B드라마가 다수의 회차로 이루진 경우, 24화(52)에 대해 대체 가능한 다수의 회차의 단어군을 갖는 식별자를 부여할 수 있다. The first electronic device 4 may classify a plurality of words that the first user 30 can speak by substituting other words included in the word group into one word group. Words included in the word group may have correlation, relevance, and the like. The first electronic device 4 may identify that any one word of the voice command is replaceable with another word included in the word group, and assign an identifier to the corresponding word replaceable with another word. For example, the first electronic device 4, for the voice command "Play B episode 24" (24), when the B drama forms one word group with the A drama and the C drama, the B drama ( 51) can be assigned an identifier with a replaceable word family. Alternatively, if the B drama consists of multiple rounds, an identifier having a group of words of multiple rounds that can be substituted for episode 24 (52) may be assigned.

제1전자장치(4)는 식별자에 관한 정보를 디스플레이장치(1)로 전송할 수 있으며, 디스플레이장치(1)의 프로세서(14)는 제1전자장치(4)가 부여한 식별자에 기초하여, 음성명령의 복수의 단어 중 제1사용자(30)에 의해 대체되어 발화 가능한 단어가 식별되도록 가이드정보(2)를 표시할 수 있다. 일 예로, 프로세서(14)는 "B드라마 24화 검색해줘"(24)를 포함하는 가이드정보(2)를 표시하는 경우, 제1전자장치(4)로부터 수신한 식별자 정보에 기초하여 "B드라마 24화 검색해줘"(24)에 포함된 단어 중 B드라마(51) 및 24화(52)가 대체하여 발화할 수 있는 단어임을 표시할 수 있다. 경우에 따라서, 프로세서(14)는 B드라마(51) 및 24화(52)의 폰트, 크기, 기울기, 밑줄, 첨자 등 중 적어도 하나를 나머지 단어와 다르게 표시함으로써, B드라마(51) 및 24화(52)가 대체하여 발화 가능한 단어임을 표시할 수 있다. The first electronic device 4 may transmit information regarding the identifier to the display device 1, and the processor 14 of the display device 1 may use a voice command based on the identifier given by the first electronic device 4. Guide information 2 may be displayed to identify words that can be spoken by being replaced by the first user 30 among the plurality of words. For example, when the processor 14 displays the guide information 2 including the “Search for 24 episodes of B drama” 24, based on the identifier information received from the first electronic device 4, the processor 14 displays the “B drama D” Among the words included in "Search for 24 episodes" (24), it may indicate that the B dramas 51 and 24 (52) are words that can be spoken by replacing. In some cases, the processor 14 displays at least one of fonts, sizes, slopes, underscores, subscripts, etc. of the B dramas 51 and 24 episodes 52 differently from the rest of the words, thereby causing the B dramas 51 and 24 It is possible to indicate that (52) is a word that can be replaced.

제1사용자(30)는 B드라마(51) 및 24화(52)가 대체하여 발화할 수 있는 단어가 구별되도록 표시되어 있는 가이드정보(2)에 따라 B드라마(51) 및 24화(52)를 다른 단어로 대체한 음성명령(31)을 발화할 수 있다. 일 예로, 제1사용자(30)는 "B드라마 24화 검색해줘"(24)뿐만 아니라, "B드라마 23화 검색해줘", "A드라마 1화 검색해줘", "A드라마 2화 검색해줘" 등과 같이 B드라마(51) 및 24화(52)를 대체한 음성명령(31)을 발화할 수 있다.The first user 30 uses the B dramas 51 and 24 episodes 52 according to the guide information 2 displayed so that the words that can be spoken by the B dramas 51 and 24 52 are replaced. It is possible to utter the voice command 31 replacing the word with another word. For example, the first user 30 not only "Search for episode 24 of B drama" (24), but also "Search for episode 23 of B drama", "Search for episode 1 of A drama", "Search for episode 2 of A drama" As described above, voice commands 31 that replace B dramas 51 and 24 episodes 52 can be uttered.

한편, 디스플레이장치(1)의 프로세서(14)는 식별자 정보에 기초하여, 음성명령의 복수의 단어 중 대체 가능한 것으로 식별된 단어 대신에 단어군의 다른 단어가 표시되도록 가이드정보(2)를 표시할 수 있다. 일 예로, 프로세서(14)는 제1전자장치(4)로부터 수신한 정보에 기초하여 "B드라마 24화 검색해줘"(24)의 "B드라마" 및 "24화"가 대체 가능한 단어임을 식별하고, "B드라마 23화 검색해줘", "A드라마 1화 검색해줘", "A드라마 2화 검색해줘" 등과 같이 B드라마(51) 및 24화(52)를 대체한 음성명령(31)의 가이드정보(2)를 표시할 수 있다. 이 경우, "B드라마" 및 "24화"와 대체되는 단어인 "A드라마", "23화", "1화", 및 "2화"에 대한 정보는 제1전자장치(4)로부터 수신하거나, 프로세서(14)가 영상(16)의 컨텐트의 EPG 등으로부터 획득한 정보를 포함할 수 있다. On the other hand, the processor 14 of the display device 1 displays guide information 2 so that other words in the word group are displayed instead of words identified as replaceable among a plurality of words of the voice command based on the identifier information. Can. As an example, the processor 14 identifies that “B drama” and “24 episode” of “Please search for episode 24 of “D drama 24” 24” are replaceable words based on information received from the first electronic device 4. A guide to voice commands 31 replacing B dramas 51 and 24 (52), such as "Search for episode 23 of B drama", "Search for episode 1 of A drama", and "Search for episode 2 of A drama", etc. Information 2 can be displayed. In this case, information about the words "A drama", "23 episodes", "1 episode", and "2 episodes" which are replaced with "B drama" and "24 episodes" is received from the first electronic device 4 Alternatively, the processor 14 may include information obtained from EPG or the like of the content of the image 16.

이와 같이, 본 실시예에 따른 디스플레이장치(1)는 제1사용자(30)가 대체하여 발화 가능한 단어가 구별되도록 가이드정보(2)를 표시할 수 있으므로, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 더욱 향상시킬 수 있다.As described above, since the display device 1 according to the present embodiment can display the guide information 2 so that the first user 30 can substitute and distinguish the utterable words, the user's convenience and accessibility to the voice recognition function Can be further improved.

도 8은 도 4의 동작 S12와 관련하여, 사용자입력에 기초하여 키워드를 획득하는 제어방법에 관한 일 예를 도시한다. 이하에서는, 도 4와 중복되는 동작에 관한 설명은 생략하고, 상이한 동작 위주로 설명한다. 8 illustrates an example of a control method for obtaining a keyword based on a user input in relation to operation S12 of FIG. 4. Hereinafter, descriptions of operations overlapping with those of FIG. 4 will be omitted, and descriptions will mainly focus on different operations.

도 8을 참조하면, 디스플레이장치(1)의 프로세서(14)는 컨텐트의 영상(16)을 표시하고(S61), 가이드정보(2)를 요청하는 사용자입력을 수신할 수 있다(S62). 일 예로, 가이드정보(2)를 요청하는 사용자입력은 리모컨, 터치 패널, 또는 메뉴버튼 중 적어도 하나를 통하여 수신할 수 있다. 리모컨을 통하여 가이드정보(2)를 요청하는 경우, 제1사용자(30)가 소정 리모컨 버튼을 1회 또는 수 회 클릭하면, 가이드정보(2)를 요청하는 리모컨신호를 디스플레이장치(1)로 전송하도록 설정할 수 있다.Referring to FIG. 8, the processor 14 of the display device 1 may display a video 16 of the content (S61) and receive a user input requesting guide information (S62). For example, a user input requesting the guide information 2 may be received through at least one of a remote control, a touch panel, or a menu button. When the guide information 2 is requested through the remote control, when the first user 30 clicks the predetermined remote control button once or several times, the remote control signal requesting the guide information 2 is transmitted to the display device 1 Can be set to

프로세서(14)는 수신된 사용자입력에 기초하여 영상(16)이 표시되는 컨텐트의 키워드를 획득할 수 있다(S63). 일 예로, 프로세서(14)는 사용자입력이 수신되는 때에 컨텐트의 키워드를 획득할 수 있다. 즉, 프로세서(14)는 사용자입력에 대응하여 실시간으로 컨텐트의 키워드를 획득할 수 있다. 다른 예로, 제1사용자(30)가 가이드정보(2)를 요청하는 시점 및 컨텐트의 키워드를 획득하는 시점 간에서 시간적 차이를 고려하여, 사용자입력이 수신된 시점으로부터 소정 시간 이전에 표시된 영상(16)의 컨텐트로부터 키워드를 획득할 수 있다. 여기서, 소정 시간은 설계 방법에 따라 다양하게 미리 정해질 수 있다. 다만, 시간에만 한정되는 것은 아니므로, 프로세서(14)는 소정 프레임 또는 씬(Scene)에 기초하여 컨텐트의 키워드를 획득할 수 있다.The processor 14 may obtain a keyword of the content on which the image 16 is displayed based on the received user input (S63). For example, the processor 14 may acquire keywords of content when a user input is received. That is, the processor 14 may acquire keywords of the content in real time in response to user input. As another example, considering the temporal difference between the time when the first user 30 requests the guide information 2 and the time when the keyword of the content is acquired, the image 16 displayed before a predetermined time from the time when the user input is received ) To obtain keywords from the content. Here, the predetermined time may be variously determined in advance according to a design method. However, since it is not limited to time, the processor 14 may acquire keywords of content based on a predetermined frame or scene.

이와 같이, 본 실시예에 따른 디스플레이장치(1)는 가이드정보(2)를 요청하는 사용자입력에 기초하여 가이드정보(2)를 표시할 수 있다. 따라서, 제1사용자(30)가 발화할 만한 음성명령을 추천함으로써, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 향상시킬 수 있다. In this way, the display device 1 according to the present embodiment can display the guide information 2 based on the user input requesting the guide information 2. Therefore, by recommending a voice command that can be spoken by the first user 30, the user's convenience and accessibility to the voice recognition function can be improved.

도 9는 도 4의 동작 S15와 관련하여, 제2전자장치(5)에서 음성명령의 가이드정보(2)를 표시하는 일 예를 도시한다. 도 9에 도시된 바와 같이, 프로세서(14)는 음성명령에 관한 정보를 제2전자장치(5)로 전송하여 제2전자장치(5)가 가이드정보(2)를 표시하도록 할 수 있다. 일 예로, 제2전자장치(5)는 디스플레이장치(1)로부터 키워드인 A배우(17)의 이름 및 B드라마의 작품명과 관련되고, 대응하는 동작이 수행된 음성명령에 관한 정보를 수신한 경우, "A배우가 출연한 영화 찾아줘"(21), "B드라마 줄거리 알려줘"(22), "B드라마 녹화 예약해줘"(23), 및 "B드라마 24화 검색해줘"(24)를 포함하는 가이드정보(2)를 표시할 수 있다.9 shows an example of displaying guide information 2 of a voice command in the second electronic device 5 in relation to operation S15 of FIG. 4. As illustrated in FIG. 9, the processor 14 may transmit information regarding a voice command to the second electronic device 5 so that the second electronic device 5 displays guide information 2. For example, when the second electronic device 5 receives information related to the name of the actor 17 as keywords and the work name of the B drama from the display device 1, and information about the voice command in which the corresponding operation is performed Includes, "Find a movie starring A actor" (21), "Tell me the story of B drama" (22), "Schedule B drama recording" (23), and "Search for episode 24 of B drama" (24) The guide information 2 to be displayed can be displayed.

다른 예로, 프로세서(14)는 가이드정보(2)를 표시할 제2전자장치(5)를 미리 정할 수 있다. 일 예로, 제1사용자(30)에 의해 제2전자장치(5)가 정해진 경우, 프로세서(14)는 미리 정한 제2전자장치(5)에 관한 정보를 제1전자장치(4)에 전송할 수 있다. 이 경우, 제1전자장치(4)는 복수의 사용자가 발화한 음성명령 중에서 키워드와 관련되고, 대응하는 동작이 수행된 음성명령에 관한 정보를 제2전자장치(5)로 전송하여, 제2전자장치(5)가 수신한 정보에 기초하여 음성명령의 가이드정보(2)를 표시하도록 할 수 있다. As another example, the processor 14 may predetermine the second electronic device 5 to display the guide information 2. For example, when the second electronic device 5 is determined by the first user 30, the processor 14 may transmit information regarding the predetermined second electronic device 5 to the first electronic device 4. have. In this case, the first electronic device 4 transmits to the second electronic device 5 information on a voice command related to a keyword among the voice commands uttered by a plurality of users and the corresponding operation is performed, and the second electronic device 4. It is possible to display the guide information 2 of the voice command based on the information received by the electronic device 5.

다른 예로, 프로세서(14)는 특정 상황에 따라 어느 장치에 가이드정보(2)를 표시할 것인지 선택할 수 있다. 프로세서(14)는 음성명령에 관한 가이드정보(2)를 표시하는 상황에서 기설정된 조건에 해당하는지 여부를 판단하여 가이드정보(2)를 표시할 장치를 디스플레이장치(1) 또는 외부장치 중에 선택할 수 있다. 디스플레이장치(1)가 아닌 외부장치, 예컨대 제2전자장치(5)에 가이드정보(2)를 표시하는 경우, 프로세서(14)는 디스플레이장치(1)와 연결된 외부장치의 존재를 확인하고, 통신부(12)를 제어하여 해당 외부장치에 가이드정보(2)를 전송할 수 있다. 가이드정보(2)를 외부장치에 전송하거나, 외부장치가 표시하는 경우에도, 프로세서(14)는 디스플레이장치(1)와 연결된 외부장치가 존재하지 않는 경우 가이드정보(2)를 디스플레이(11)에 표시할 수 있다.As another example, the processor 14 may select which device to display the guide information 2 according to a specific situation. The processor 14 determines whether a device to display the guide information 2 is selected from the display device 1 or an external device by determining whether it corresponds to a preset condition in a situation in which the guide information 2 regarding the voice command is displayed. have. When the guide information 2 is displayed on an external device other than the display device 1, for example, the second electronic device 5, the processor 14 confirms the existence of an external device connected to the display device 1, and communicates with the communication unit. By controlling (12), the guide information 2 can be transmitted to the corresponding external device. Even when the guide information 2 is transmitted to the external device or displayed by the external device, the processor 14 sends the guide information 2 to the display 11 when there is no external device connected to the display device 1. Can be displayed.

이와 같이, 본 실시예에 따른 디스플레이장치(1)는 제2전자장치(5)가 가이드정보(2)를 표시하도록 할 수 있으므로, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 향상시킬 수 있다. In this way, the display device 1 according to the present embodiment can improve the user's convenience and accessibility to the voice recognition function because the second electronic device 5 can display the guide information 2.

도 10은 도 4의 S12 및 S15와 관련하여 키워드의 획득 범위 및 가이드정보(2)의 표시 범위를 설정하는 일 예를 도시한다. 도 10에 도시된 바와 같이, 디스플레이장치(1)는 키워드의 획득 범위 및 가이드정보(2)의 표시 범위를 설정하기 위한 사용자 인터페이스(User Interface, 이하, '설정UI'라 지칭)를 표시할 수 있다. 설정UI(90)는 리모컨, 터치 패널, 또는 메뉴 버튼 중 적어도 하나를 통한 사용자입력에 따라 표시될 수 있다. FIG. 10 shows an example of setting a keyword acquisition range and a display range of guide information 2 in relation to S12 and S15 of FIG. 4. As shown in FIG. 10, the display device 1 may display a user interface (hereinafter referred to as a'setting UI') for setting a keyword acquisition range and a guide information 2 display range. have. The setting UI 90 may be displayed according to a user input through at least one of a remote control, a touch panel, or a menu button.

설정UI(90)는 가이드정보 표시(91), 키워드 설정(92), 또는 가이드정보 표시 설정(93)을 위한 메뉴항목을 포함할 수 있다. 가이드정보 표시(91)를 위한 메뉴항목이 활성화된 경우, 가이드정보(2)를 요청하는 사용자입력에 대하여 디스플레이장치(1)는 가이드정보(2)를 표시할 수 있다.The setting UI 90 may include a menu item for the guide information display 91, keyword setting 92, or guide information display setting 93. When the menu item for displaying guide information 91 is activated, the display device 1 may display guide information 2 for a user input requesting guide information 2.

키워드 설정(92)은 EPG로부터 키워드를 획득할 수 있도록 하는 EPG 키워드 획득, 인식된 영상에 기초하여 키워드를 획득할 수 있도록 하는 영상인식 키워드 획득, 인식된 음성에 기초하여 키워드를 획득할 수 있도록 하는 음성인식 키워드 획득, 또는 영상의 자막에 기초하여 키워드를 획득할 수 있도록 하는 캡션 키워드 획득의 메뉴항목을 포함할 수 있다. 일 예로, 디스플레이장치(1)는 영상인식 키워드 획득의 메뉴항목이 활성화된 경우 영상(16)에 대한 영상인식을 수행하고, 인식된 영상에 기초하여 키워드를 획득할 수 있지만, 비활성화된 경우 영상(16)에 대한 영상인식을 수행하지 않거나, 인식된 영상으로부터 키워드의 획득을 수행하지 않을 수 있다. The keyword setting 92 is an EPG keyword acquiring keyword from EPG, an image recognition keyword acquiring keyword based on the recognized image, and a keyword acquiring based on the recognized voice. It may include a menu item for acquiring a voice recognition keyword or acquiring a caption keyword to obtain a keyword based on a subtitle of an image. For example, the display device 1 may perform image recognition on the image 16 when the menu item of image recognition keyword acquisition is activated, and acquire keywords based on the recognized image, but when deactivated, the image ( 16) may not be performed, or the keyword may not be acquired from the recognized image.

가이드정보 표시 설정(93)은 인식 성공, 발화 빈도, 연속 발화, 현재 추천, 관련 키워드 등과 같은 팩터의 메뉴항목을 포함할 수 있다. 인식 성공의 메뉴항목은, 음성명령에 대한 인식에 성공하거나, 음성명령에 대응하는 동작이 수행되었는지 여부에 따라 음성명령을 표시하도록 할 수 있다. 일 예로, 인식 성공의 메뉴항목이 활성화된 경우 디스플레이장치(1)는 키워드와 관련된 음성명령으로서, 인식에 성공하거나 대응하는 동작이 수행된 음성명령이 포함된 가이드정보(2)를 표시하지만, 비활성화된 경우 대응하는 동작이 수행되지 않은 음성명령도 포함하도록 가이드정보(2)를 표시할 수 있다. The guide information display setting 93 may include factor menu items such as recognition success, utterance frequency, continuous utterance, current recommendation, and related keywords. The menu item of recognition success may display the voice command according to whether the recognition of the voice command is successful or an operation corresponding to the voice command has been performed. For example, when the menu item of recognition success is activated, the display device 1 is a voice command related to a keyword, and displays guide information 2 including a voice command that succeeds in recognition or performs a corresponding action, but is deactivated. If it is, the guide information 2 may be displayed to include a voice command in which the corresponding operation is not performed.

한편, 제1전자장치(4)는 설정UI(90)를 통해 선택된 바에 따라 키워드와 관련된 음성명령을 식별할 수 있다. 일 예로, 제1전자장치(4)는 인식 성공의 메뉴항목이 활성화된 경우, 인식에 성공하거나 대응하는 동작이 수행된 음성명령을 식별하고, 식별된 음성명령에 관한 정보를 디스플레이장치(1)에 전송할 수 있다. 마찬가지로, 발화 빈도, 연속 발화, 현재 추천, 또는 관련 키워드의 메뉴항목 활성화된 경우, 제1전자장치(4)는 발화 빈도가 높거나, 연속 발화의 횟수가 많거나, 제2전자장치(5)에서 현재 추천되거나, 디스플레이장치(1)로부터 수신한 키워드와 관련된 키워드를 포함하는 음성명령의 정보를 디스플레이장치(1)에 전송할 수 있다.Meanwhile, the first electronic device 4 may identify a voice command related to a keyword as selected through the setting UI 90. For example, when the menu item of recognition success is activated, the first electronic device 4 identifies a voice command that succeeds in recognition or performs a corresponding operation, and displays information about the identified voice command in the display device 1 Can be transferred to. Similarly, when the menu item of the utterance frequency, continuous utterance, current recommendation, or related keyword is activated, the first electronic device 4 has a high utterance frequency, the number of consecutive utterances is high, or the second electronic device 5 The information of the voice command including the keyword currently associated with the keyword currently recommended or received from the display device 1 may be transmitted to the display device 1.

마찬가지로, 가이드정보 표시 설정(93)에서 발화 빈도의 메뉴항목이 활성화된 경우, 디스플레이장치(1)는 키워드와 관련된 음성명령으로서, 발화 빈도가 높은 음성명령의 가이드정보(2)를 표시할 수 있으며, 연속 발화의 메뉴항목이 활성화된 경우, 연속적으로 발화한 횟수가 높은 음성명령의 가이드정보(2)를 표시할 수 있다. 또한, 현재 추천의 메뉴항목이 활성화된 경우, 디스플레이장치(1)는 키워드와 관련된 음성명령으로서, 제2전자장치(5)에서 음성명령의 추천 동작에 의해 추천되거나, 웹이나 SNS 상의 검색 순위가 높은 음성명령의 가이드정보(2)를 표시할 수 있으며, 관련 키워드의 메뉴항목이 활성화된 경우, 획득된 키워드와 관련된 키워드를 포함하는 음성명령의 가이드정보(2)를 표시할 수 있다. Similarly, when the menu item of the utterance frequency is activated in the guide information display setting 93, the display device 1 is a voice command related to a keyword, and can display guide information 2 of a voice command having a high utterance frequency. , When the menu item of continuous speech is activated, it is possible to display guide information 2 of a voice command having a high number of consecutive speeches. In addition, when the menu item of the current recommendation is activated, the display device 1 is a voice command related to a keyword, and is recommended by the recommendation operation of the voice command in the second electronic device 5, or the search ranking on the web or SNS is It is possible to display the guide information 2 of the high voice command, and when the menu item of the related keyword is activated, the guide information 2 of the voice command including the keyword related to the obtained keyword can be displayed.

이와 같이, 본 실시예에 따른 디스플레이장치(1)는 키워드의 획득 범위 및 가이드정보의 표시 범위를 설정하기 위한 설정UI(90)를 표시하고, 설정UI(90)를 통한 사용자입력에 따라 키워드를 획득하고, 획득된 키워드에 기초한 음성명령의 가이드정보(2)를 표시할 수 있다. 따라서, 사용자에 최적화된 음성명령 추천기능을 제공함으로써, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 향상시킬 수 있다.As described above, the display device 1 according to the present embodiment displays the setting UI 90 for setting the acquisition range of the keyword and the display range of the guide information, and displays the keyword according to the user input through the setting UI 90. Acquisition, and guide information 2 of the voice command based on the acquired keyword can be displayed. Therefore, by providing an optimized voice command recommendation function to the user, the user's convenience and accessibility to the voice recognition function can be improved.

도 11은 도 4의 S12 및 S15와 관련하여 가이드정보의 표시 범위를 설정하는 다른 예를 도시한다. 제1전자장치(4)는 복수의 발화한 음성명령에 대한 팩터에 우선순위 또는 가중치에 기초하여 음성명령을 식별할 수 있다. 일 예로, 인식 성공, 발화 빈도, 연속 발화, 현재 추천, 관련 키워드 등의 팩터 중 인식 성공, 발화 빈도 등의 순으로 우선순위가 설정된 경우, 제1전자장치(4)는 각 팩터에 해당하는 음성명령에 차등적으로 점수를 부여하고, 총점이 높은 적어도 하나의 음성명령을 식별할 수 있다. 그리고, 제1전자장치(4)는 총점에 따라 적어도 하나의 음성명령을 재구성하여 재구성된 음성명령에 관한 정보를 디스플레이장치(1)로 전송하여, 디스플레이장치(1)가 인식 성공, 발화 빈도 등의 순서를 갖는 음성명령의 가이드정보(2)를 표시할 수 있도록 한다.11 shows another example of setting a display range of guide information in relation to S12 and S15 of FIG. 4. The first electronic device 4 may identify a voice command based on a priority or weight in a factor for a plurality of spoken voice commands. For example, when priority is set in the order of recognition success, utterance frequency, successive utterance, current recommendation, related keyword, etc., in the order of recognition success, utterance frequency, etc., the first electronic device 4 has a voice corresponding to each factor. A score can be differentially assigned to a command, and at least one voice command with a high total score can be identified. Then, the first electronic device 4 reconstructs at least one voice command according to the total score, and transmits information on the reconstructed voice command to the display device 1, so that the display device 1 recognizes successfully, the frequency of speech, and the like. It is possible to display the guide information 2 of the voice command having the order of.

특히, 본 실시예에 따른 디스플레이장치(1)는 인식 성공, 발화 빈도, 연속 발화, 현재 추천, 관련 키워드 등의 팩터에 우선순위 또는 가중치를 설정하기 위한 우선순위 설정(94)을 포함하는 설정UI(90)를 표시할 수 있다. 즉, 우선순위 설정(94)은 사용자입력에 따라 인식 성공, 발화 빈도, 연속 발화, 현재 추천, 관련 키워드 등과 같은 가이드정보 표시 설정(93)의 팩터에 대한 우선순위를 설정하도록 한다. 도 11을 참조하여 예를 들면, 우선순위 설정(94)을 통해 인식 성공, 발화 빈도 등이 1순위, 2순위 등으로 설정된 경우를 가정한다. 디스플레이장치(1)는 가이드정보(2)를 표시함에 있어서, 키워드와 관련된 복수의 음성명령 중 인식에 성공하거나 대응하는 동작이 수행된 음성명령을 우선적으로 표시하고, 발화 빈도가 높은 음성명령을 차순위로 표시할 수 있다.In particular, the display device 1 according to the present embodiment is a setting UI including a priority setting 94 for setting priority or weight in factors such as recognition success, utterance frequency, continuous utterance, current recommendation, and related keywords. (90) can be displayed. That is, the priority setting 94 sets the priority for the factor of the guide information display setting 93 such as recognition success, utterance frequency, continuous utterance, current recommendation, and related keywords according to user input. Referring to FIG. 11, it is assumed, for example, that the recognition success, the utterance frequency, etc. are set to the 1st, 2nd, etc. through the priority setting 94. In displaying the guide information 2, the display device 1 preferentially displays a voice command that succeeds in recognition or performs a corresponding operation among a plurality of voice commands related to keywords, and ranks voice commands having a high utterance frequency. Can be displayed as

또한, 설정UI(90)는 가이드정보 표시 설정(93)의 각 팩터에 대한 가중치를 부여할 수 있는 가중치 설정(95)을 더 포함할 수 있다. 일 예로, 가중치 설정(95)을 통해 인식 성공에 10의 가중치가 부여되고, 발화 빈도에 3의 가중치가 부여된 경우, 제1전자장치(4)는 인식 성공에 해당하는 음성명령에 10점을 부여하고, 발화 빈도가 높은 음성명령에 3점을 부여할 수 있다. 이 경우, 디스플레이장치(1)는 가중치 설정(95)을 통해 설정한 가중치에 따라 재구성된 음성명령의 가이드정보(2)를 표시할 수 있다.In addition, the setting UI 90 may further include a weight setting 95 for assigning a weight for each factor of the guide information display setting 93. For example, when a weight of 10 is assigned to the recognition success through the weight setting 95 and a weight of 3 is assigned to the utterance frequency, the first electronic device 4 gives 10 points to the voice command corresponding to the recognition success. And three points can be assigned to a voice command having a high frequency of speech. In this case, the display device 1 may display guide information 2 of the reconstructed voice command according to the weight set through the weight setting 95.

이와 같이, 본 실시예에 따른 디스플레이장치(1)는 우선순위 설정(94) 또는 가중치 설정(95)를 통한 사용자입력에 따라 우선순위를 갖는 음성명령의 가이드정보(2)를 표시할 수 있다. 따라서, 사용자에 최적화된 음성명령 추천기능을 제공함으로써, 음성인식 기능에 대한 사용자의 편의성 및 접근성을 향상시킬 수 있다.As such, the display device 1 according to the present embodiment may display guide information 2 of the voice command having a priority according to a user input through the priority setting 94 or the weight setting 95. Therefore, by providing an optimized voice command recommendation function to the user, the user's convenience and accessibility to the voice recognition function can be improved.

이상, 바람직한 실시예를 통하여 본 발명에 관하여 상세히 설명하였으나, 본 발명은 이에 한정되는 것은 아니며 특허청구범위 내에서 다양하게 실시될 수 있다.As described above, the present invention has been described in detail through preferred embodiments, but the present invention is not limited thereto and may be variously implemented within the scope of the claims.

1: 디스플레이장치
11: 디스플레이
12: 통신부
13: 수신부
14: 프로세서
1: Display device
11: display
12: Communication Department
13: receiver
14: processor

Claims (17)

디스플레이장치에 있어서,
디스플레이;
통신부;
수신부; 및
컨텐트의 영상이 표시되도록 상기 디스플레이를 제어하고,
상기 영상이 표시되는 컨텐트의 키워드를 획득하고,
상기 획득된 키워드를 상기 통신부를 통하여 외부장치로 전송하고,
상기 외부장치로부터 복수의 사용자가 발화한 음성명령들 중에서 상기 키워드와 관련되고, 대응하는 동작이 수행된 음성명령의 정보를 수신하고,
상기 수신된 정보에 기초하여 상기 음성명령의 가이드정보가 표시되도록 상기 디스플레이를 제어하고,
상기 가이드정보의 표시에 따라 상기 수신부를 통해 수신되는 사용자의 음성명령에 대응하여, 상기 수신된 음성명령에 따른 동작을 수행하는
프로세서를 포함하는 디스플레이장치.
In the display device,
display;
Communication department;
Receiver; And
Control the display to display an image of the content,
Acquiring keywords of the content in which the video is displayed,
The acquired keyword is transmitted to an external device through the communication unit,
Among the voice commands spoken by a plurality of users from the external device, information related to the keyword, and the voice command for which a corresponding operation has been performed is received,
The display is controlled to display guide information of the voice command based on the received information,
In response to the user's voice command received through the receiving unit according to the display of the guide information, performing an operation according to the received voice command
Display device including a processor.
제1항에 있어서,
상기 프로세서는, 복수의 상기 음성명령의 우선순위가 나타나도록 상기 가이드정보를 표시하는 디스플레이장치.
According to claim 1,
The processor, the display device for displaying the guide information so that the priority of the plurality of voice commands appear.
제2항에 있어서,
상기 프로세서는, 상기 우선순위에 따라 상기 각 음성명령의 가이드정보의 컬러를 구별하여 표시하는 디스플레이장치.
According to claim 2,
The processor is a display device for distinguishing and displaying the color of the guide information of each voice command according to the priority.
제1항에 있어서,
상기 음성명령은, 2이상의 단어를 포함하고,
상기 프로세서는, 상기 2이상의 단어 중 다른 단어로 대체하여 발화할 수 있는 단어가 구별되도록 상기 가이드정보를 표시하는 디스플레이장치.
According to claim 1,
The voice command includes two or more words,
The processor is a display device that displays the guide information so that words that can be spoken by being replaced with other words among the two or more words are distinguished.
제1항에 있어서,
상기 프로세서는, 상기 가이드정보를 요청하는 사용자입력에 기초하여 상기 음성명령의 가이드정보가 표시되도록 상기 디스플레이를 제어하는 디스플레이장치.
According to claim 1,
The processor is a display device that controls the display so that the guide information of the voice command is displayed based on a user input requesting the guide information.
제1항에 있어서,
상기 프로세서는, 상기 통신부를 통하여 외부 디스플레이장치로 상기 가이드정보의 신호를 전송하여, 상기 외부 디스플레이장치가 상기 가이드정보를 표시하도록 하는 디스플레이장치.
According to claim 1,
The processor transmits a signal of the guide information to an external display device through the communication unit, so that the external display device displays the guide information.
제1항에 있어서,
상기 프로세서는, 상기 컨텐트의 영상, 사운드, EPG 또는 캡션정보 중 적어도 하나에 기초하여 상기 키워드를 획득하는 디스플레이장치.
According to claim 1,
The processor is a display device that acquires the keyword based on at least one of video, sound, EPG or caption information of the content.
전자장치에 있어서,
통신부; 및
상기 통신부를 통하여 수신되는 복수의 제1외부장치의 요청에 대응하여:
상기 복수의 제1외부장치의 복수의 사용자가 발화한 음성명령의 인식을 수행하고,
상기 인식된 음성명령 및 상기 인식된 음성명령에 대응하는 동작의 정보를 상기 복수의 제1외부장치로 전송하고,
상기 통신부를 통하여 제2외부장치로부터 수신되는 키워드에 대응하여, 상기 복수의 사용자가 발화한 음성명령들 중에서 상기 키워드와 관련되고, 대응하는 동작이 수행된 음성명령의 정보를 상기 제2외부장치로 송신하는 프로세서
를 포함하는 전자장치.
In the electronic device,
Communication department; And
In response to a request of a plurality of first external devices received through the communication unit:
Recognize the voice command uttered by a plurality of users of the plurality of first external devices,
Transmitting information of the recognized voice command and operations corresponding to the recognized voice command to the plurality of first external devices,
Corresponding to a keyword received from a second external device through the communication unit, among the voice commands spoken by the plurality of users, information regarding a voice command associated with the keyword and performing a corresponding operation is transmitted to the second external device. Sending processor
Electronic device comprising a.
디스플레이장치의 제어방법에 있어서,
컨텐트의 영상을 표시하는 단계;
상기 영상이 표시되는 컨텐트의 키워드를 획득하는 단계;
상기 획득된 키워드를 외부장치로 전송하는 단계;
상기 외부장치로부터 복수의 사용자가 발화한 음성명령들 중에서 상기 키워드와 관련되고, 대응하는 동작이 수행된 음성명령의 정보를 수신하는 단계;
상기 수신된 정보에 기초하여 상기 음성명령의 가이드정보를 표시하는 단계; 및
상기 가이드정보의 표시에 따라 수신되는 사용자의 음성명령에 대응하여, 상기 수신된 음성명령에 따른 동작을 수행하는 단계를 포함하는 디스플레이장치의 제어방법.
In the control method of the display device,
Displaying an image of the content;
Obtaining a keyword of the content on which the image is displayed;
Transmitting the obtained keyword to an external device;
Receiving information of a voice command associated with the keyword from among voice commands uttered by a plurality of users from the external device, and a corresponding operation is performed;
Displaying guide information of the voice command based on the received information; And
And in response to a user's voice command received according to the display of the guide information, performing an operation according to the received voice command.
제9항에 있어서,
상기 가이드정보를 표시하는 단계는, 복수의 상기 음성명령의 우선순위가 나타나도록 상기 가이드정보를 표시하는 단계를 포함하는 디스플레이장치의 제어방법.
The method of claim 9,
The displaying of the guide information may include displaying the guide information so that a plurality of priorities of the voice commands appear.
제10항에 있어서,
상기 가이드정보를 표시하는 단계는, 상기 우선순위에 따라 상기 각 음성명령의 가이드정보의 컬러를 구별하여 표시하는 단계를 포함하는 디스플레이장치의 제어방법.
The method of claim 10,
The displaying of the guide information may include distinguishing and displaying color of guide information of each voice command according to the priority.
제9항에 있어서,
상기 음성명령은, 2이상의 단어를 포함하고,
상기 가이드정보를 표시하는 단계는, 상기 2이상의 단어 중 다른 단어로 대체하여 발화할 수 있는 단어가 구별되도록 상기 가이드정보를 표시하는 단계를 포함하는 디스플레이장치의 제어방법.
The method of claim 9,
The voice command includes two or more words,
The displaying of the guide information may include displaying the guide information so that words that can be spoken are distinguished by substituting other words among the two or more words.
제9항에 있어서,
상기 가이드정보를 표시하는 단계는, 상기 가이드정보를 요청하는 사용자입력에 기초하여 상기 음성명령의 가이드정보를 표시하는 단계를 포함하는 디스플레이장치의 제어방법.
The method of claim 9,
The displaying of the guide information may include displaying guide information of the voice command based on a user input requesting the guide information.
제9항에 있어서,
상기 가이드정보를 표시하는 단계는, 외부 디스플레이장치로 상기 가이드정보의 신호를 전송하여, 상기 외부 디스플레이장치가 상기 가이드정보를 표시하도록 하는 단계를 포함하는 디스플레이장치의 제어방법.
The method of claim 9,
The displaying of the guide information may include transmitting a signal of the guide information to an external display device to cause the external display device to display the guide information.
제9항에 있어서,
상기 획득하는 단계는, 상기 컨텐트의 영상, 사운드, EPG 또는 캡션정보 중 적어도 하나에 기초하여 상기 키워드를 획득하는 단계를 포함하는 디스플레이장치의 제어방법.
The method of claim 9,
The acquiring may include acquiring the keyword based on at least one of video, sound, EPG, or caption information of the content.
전자장치의 제어방법에 있어서,
복수의 제1외부장치로부터 수신되는 요청에 대응하여:
상기 복수의 제1외부장치의 복수의 사용자가 발화한 음성명령의 인식을 수행하는 단계; 및,
상기 인식된 음성명령 및 상기 인식된 음성명령에 대응하는 동작의 정보를 상기 복수의 제1외부장치로 전송하는 단계; 및
제2외부장치로부터 수신되는 키워드에 대응하여, 상기 복수의 사용자가 발화한 음성명령들 중에서 상기 키워드와 관련되고, 대응하는 동작이 수행된 음성명령의 정보를 상기 제2외부장치로 송신하는 단계를 포함하는 전자장치의 제어방법.
In the control method of the electronic device,
In response to a request received from a plurality of first external devices:
Recognizing a voice command spoken by a plurality of users of the plurality of first external devices; And,
Transmitting information of the recognized voice command and operations corresponding to the recognized voice command to the plurality of first external devices; And
In response to a keyword received from a second external device, transmitting the information of the voice command associated with the keyword among the voice commands spoken by the plurality of users and the corresponding operation is performed to the second external device. Control method of an electronic device including.
컴퓨터가 읽을 수 있는 코드로서 전자장치의 제어방법을 수행하는 코드를 포함하는 컴퓨터 프로그램이 저장된 기록매체에 있어서, 상기 전자장치의 제어방법은,
컨텐트의 영상을 표시하는 단계;
상기 영상이 표시되는 컨텐트의 키워드를 획득하는 단계;
상기 획득된 키워드를 외부장치로 전송하는 단계;
상기 외부장치로부터 복수의 사용자가 발화한 음성명령들 중에서 상기 키워드와 관련되고, 대응하는 동작이 수행된 음성명령의 정보를 수신하는 단계;
상기 수신된 정보에 기초하여 상기 음성명령의 가이드정보를 표시하는 단계; 및
상기 가이드정보의 표시에 따라 수신되는 사용자의 음성명령에 대응하여, 상기 수신된 음성명령에 따른 동작을 수행하는 단계를 포함하는 디스플레이장치의 제어방법을 포함하는 컴퓨터가 읽을 수 있는 프로그램이 기록된 기록매체.
A computer-readable code in a recording medium in which a computer program including code for performing a control method of an electronic device is stored, the control method of the electronic device is
Displaying an image of the content;
Obtaining a keyword of the content on which the image is displayed;
Transmitting the obtained keyword to an external device;
Receiving information of a voice command associated with the keyword from among voice commands uttered by a plurality of users from the external device, and a corresponding operation is performed;
Displaying guide information of the voice command based on the received information; And
In response to a user's voice command received according to the display of the guide information, a computer-readable program including a control method of a display device including the step of performing an operation according to the received voice command is recorded. media.
KR1020180163251A 2018-12-17 2018-12-17 Electronic device and control method thereof KR20200074635A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180163251A KR20200074635A (en) 2018-12-17 2018-12-17 Electronic device and control method thereof
PCT/KR2019/015175 WO2020130350A1 (en) 2018-12-17 2019-11-08 Display apparatus and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180163251A KR20200074635A (en) 2018-12-17 2018-12-17 Electronic device and control method thereof

Publications (1)

Publication Number Publication Date
KR20200074635A true KR20200074635A (en) 2020-06-25

Family

ID=71102898

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180163251A KR20200074635A (en) 2018-12-17 2018-12-17 Electronic device and control method thereof

Country Status (2)

Country Link
KR (1) KR20200074635A (en)
WO (1) WO2020130350A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023219191A1 (en) * 2022-05-13 2023-11-16 엘지전자 주식회사 Multimedia device and control method thereof

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112511882B (en) * 2020-11-13 2022-08-30 海信视像科技股份有限公司 Display device and voice call-out method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5424383B2 (en) * 2008-12-25 2014-02-26 三星電子株式会社 Broadcast receiving apparatus, keyword search method, and program
KR101997448B1 (en) * 2013-01-09 2019-07-08 엘지전자 주식회사 Mobile terminal and method for controlling mobile terminal
KR20160039830A (en) * 2014-10-02 2016-04-12 엘지전자 주식회사 multimedia apparatus and method for providing voice guide thereof
CN105204743A (en) * 2015-09-28 2015-12-30 百度在线网络技术(北京)有限公司 Interaction control method and device for speech and video communication
KR102208822B1 (en) * 2016-12-13 2021-01-27 주식회사 케이티 Apparatus, method for recognizing voice and method of displaying user interface therefor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023219191A1 (en) * 2022-05-13 2023-11-16 엘지전자 주식회사 Multimedia device and control method thereof

Also Published As

Publication number Publication date
WO2020130350A1 (en) 2020-06-25

Similar Documents

Publication Publication Date Title
US10708645B2 (en) Method and system for controlling a user receiving device using voice commands
CN111433845A (en) Method and system for recommending content in the context of a conversation
US11822606B2 (en) Systems and methods for updating search results based on a conversation
JP2019525272A (en) Approximate template matching for natural language queries
US20150194167A1 (en) Display apparatus which operates in response to voice commands and control method thereof
US11966442B2 (en) Recommending language models for search queries based on user profile
US8838456B2 (en) Image processing apparatus and control method thereof and image processing system
JP2014132465A (en) Display device and control method of the same
US20160063894A1 (en) Electronic apparatus having a voice guidance function, a system having the same, and a corresponding voice guidance method
WO2014130901A1 (en) Method and system for improving responsiveness of a voice regognition system
US11620340B2 (en) Recommending results in multiple languages for search queries based on user profile
KR102227599B1 (en) Voice recognition system, voice recognition server and control method of display apparatus
US20230142720A1 (en) Smart interactive media content guide
KR102210933B1 (en) Display device, server device, voice input system comprising them and methods thereof
US20230401030A1 (en) Selecting options by uttered speech
KR20200074635A (en) Electronic device and control method thereof
KR102460927B1 (en) Voice recognition system, voice recognition server and control method of display apparatus
CN110786019B (en) Server and control method thereof
KR20200092464A (en) Electronic device and method for providing assistant service using the electronic device
CN112567757A (en) Electronic device with notification function and control method of electronic device
JP2014149548A (en) Video picture process device and control method of video picture device, and video picture process system
EP4227940A1 (en) Electronic device and method for controlling same
EP3625794B1 (en) Recommending results in multiple languages for search queries based on user profile
KR20230069475A (en) Electronic apparatus and control method thereof
CN115862615A (en) Display device, voice search method and storage medium