KR102524675B1 - Display apparatus and controlling method thereof - Google Patents
Display apparatus and controlling method thereof Download PDFInfo
- Publication number
- KR102524675B1 KR102524675B1 KR1020170091494A KR20170091494A KR102524675B1 KR 102524675 B1 KR102524675 B1 KR 102524675B1 KR 1020170091494 A KR1020170091494 A KR 1020170091494A KR 20170091494 A KR20170091494 A KR 20170091494A KR 102524675 B1 KR102524675 B1 KR 102524675B1
- Authority
- KR
- South Korea
- Prior art keywords
- text
- language
- display
- voice
- display device
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 42
- 238000004891 communication Methods 0.000 claims description 35
- 230000006870 function Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- APTZNLHMIGJTEW-UHFFFAOYSA-N pyraflufen-ethyl Chemical compound C1=C(Cl)C(OCC(=O)OCC)=CC(C=2C(=C(OC(F)F)N(C)N=2)Cl)=C1F APTZNLHMIGJTEW-UHFFFAOYSA-N 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0483—Interaction with page-structured environments, e.g. book metaphor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/02—Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
디스플레이 장치가 개시된다. 본 디스플레이 장치는, 디스플레이 및 복수의 텍스트 객체를 포함하는 UI 스크린을 표시하도록 디스플레이를 제어하고, 복수의 텍스트 객체 중 기결정된 언어와 상이한 텍스트 객체에 대해서는 기설정된 숫자가 함께 표시되도록 디스플레이를 제어하고, 사용자가 발화한 음성의 인식 결과가 표시된 숫자를 포함하면 표시된 숫자에 대응되는 텍스트 객체와 관련된 동작을 수행하는 프로세서를 포함한다.A display device is disclosed. The present display device controls the display to display a UI screen including a display and a plurality of text objects, and controls the display so that a preset number is displayed together for a text object different from a predetermined language among the plurality of text objects, and a processor for performing an operation related to a text object corresponding to the displayed number when the result of recognizing the voice spoken by the user includes the displayed number.
Description
본 개시는 디스플레이장치 및 이의 제어방법에 관한 것으로, 더욱 상세하게는 다양한 언어로 구성된 컨텐츠에 대한 음성인식 제어를 제공하는 디스플레이장치 및 이의 제어방법에 관한 것이다.The present disclosure relates to a display device and a control method thereof, and more particularly, to a display device providing voice recognition control for contents composed of various languages and a control method thereof.
전자 기술의 발달에 힘입어 다양한 유형의 디스플레이장치가 개발 및 보급되고 있었다. 특히, TV, 휴대폰, PC, 노트북 PC, PDA 등과 같은 각종 전자 장치들은 대부분의 일반 가정에서도 많이 사용되고 있었다.Thanks to the development of electronic technology, various types of display devices have been developed and supplied. In particular, various electronic devices such as TVs, mobile phones, PCs, notebook PCs, and PDAs have been widely used in most households.
한편, 최근에는 디스플레이장치를 조금 더 편리하고 직관적으로 제어하기 위하여 음성 인식을 이용한 기술이 개발되고 있었다.Meanwhile, in recent years, a technology using voice recognition has been developed in order to more conveniently and intuitively control a display device.
종래 사용자의 음성에 따라 제어되는 디스플레이장치들은 음성인식엔진을 이용하여 음성 인식을 수행하게 되는데, 언어마다 다른 음성인식엔진이 존재하므로, 어떤 음성인식엔진을 이용해서 음성 인식을 수행할지 미리 결정할 필요가 있었다. 따라서, 보통은 디스플레이장치의 시스템 언어를 음성 인식에 사용할 언어로 결정하였다.Conventional display devices controlled according to the user's voice perform voice recognition using a voice recognition engine. Since there are different voice recognition engines for each language, it is necessary to determine in advance which voice recognition engine to use for voice recognition. there was. Therefore, in general, the system language of the display device is determined as a language to be used for voice recognition.
그러나 예컨대 디스플레이장치에 표시된 하이퍼링크텍스트에서 사용된 언어가 영어이고, 디스플레이장치의 시스템 언어는 한국어인 경우, 사용자가 그 하이퍼링크텍스트에 해당하는 음성을 발화하더라도 그 음성은 한국어 음성인식엔진을 거쳐 한국어 텍스트로 변환되기 때문에, 결국 해당 하이퍼링크텍스트를 선택할 수 없다는 문제가 있었다.However, for example, when the language used in the hyperlink text displayed on the display device is English and the system language of the display device is Korean, even if the user utters a voice corresponding to the hyperlink text, the voice is passed through the Korean voice recognition engine to Korean language. Since it is converted into text, there was a problem that the corresponding hyperlink text could not be selected after all.
이와 같이 종래엔, 시스템 언어와 디스플레이장치에 실제 표시된 언어가 서로 다른 경우에 음성으로 디스플레이장치를 제어하는데 제한이 있었다.As such, conventionally, when the system language and the language actually displayed on the display device are different from each other, there is a limitation in controlling the display device with voice.
본 개시는 상술한 필요성에 따른 것으로, 본 개시의 목적은 다양한 언어로 구성된 컨텐츠에 대한 음성인식 제어를 제공하는 디스플레이장치 및 이의 제어방법을 제공함에 있다.The present disclosure has been made in accordance with the above-described needs, and an object of the present disclosure is to provide a display device and a control method for providing voice recognition control for contents composed of various languages.
이상과 같은 목적을 달성하기 위한 본 개시의 일 실시 예에 따른 디스플레이 장치는, 디스플레이 및 복수의 텍스트 객체를 포함하는 UI 스크린을 표시하도록 상기 디스플레이를 제어하고, 상기 복수의 텍스트 객체 중 기결정된 언어와 상이한 텍스트 객체에 대해서는 기설정된 숫자가 함께 표시되도록 상기 디스플레이를 제어하고, 사용자가 발화한 음성의 인식 결과가 상기 표시된 숫자를 포함하면 상기 표시된 숫자에 대응되는 텍스트 객체와 관련된 동작을 수행하는 프로세서를 포함한다.A display device according to an embodiment of the present disclosure for achieving the above object controls the display to display a UI screen including a display and a plurality of text objects, and selects a predetermined language among the plurality of text objects. A processor for controlling the display so that preset numbers are displayed together for different text objects, and performing an operation related to a text object corresponding to the displayed numbers when a recognition result of a voice spoken by a user includes the displayed numbers do.
이 경우, 상기 프로세서는, 상기 디스플레이 장치의 설정 메뉴에서 설정된 사용 언어를 상기 기결정된 언어로 설정할 수 있다. 또는 상기 복수의 텍스트 객체에 가장 많이 사용된 언어를 상기 기결정된 언어로 설정할 수 있다.In this case, the processor may set the language set in the setting menu of the display device to the predetermined language. Alternatively, the most frequently used language of the plurality of text objects may be set as the predetermined language.
한편, 상기 UI 스크린은 웹 페이지이며, 상기 프로세서는, 상기 웹 페이지의 언어 정보에 대응되는 언어를 상기 기결정된 언어로 설정할 수 있다.Meanwhile, the UI screen is a web page, and the processor may set a language corresponding to language information of the web page to the predetermined language.
한편, 상기 프로세서는, 상기 복수의 텍스트 객체 중 2 이상의 언어로 구성된 텍스트 객체에 대해선, 상기 기결정된 언어의 포함 비율이 기설정된 비율 미만인 경우 상기 기결정된 언어와 상이한 텍스트 객체인 것으로 판단할 수 있다.On the other hand, the processor may determine that a text object composed of two or more languages among the plurality of text objects is a text object different from the predetermined language when the content ratio of the predetermined language is less than the predetermined ratio.
한편, 상기 프로세서는, 상기 기 설정된 숫자를 상기 기 설정된 숫자에 대응되는 텍스트 객체에 인접하여 표시하도록 상기 디스플레이를 제어할 수 있다.Meanwhile, the processor may control the display to display the preset number adjacent to a text object corresponding to the preset number.
한편, 본 개시에 따른 디스플레이 장치는 외부 장치와 통신을 수행하는 통신부를 더 포함하고, 상기 프로세서는, 상기 외부 장치의 특정 버튼의 선택에 대응하는 신호가 수신되는 동안 상기 기설정된 숫자를 표시하도록 상기 디스플레이를 제어할 수 있다.Meanwhile, the display device according to the present disclosure further includes a communication unit that communicates with an external device, and the processor displays the predetermined number while receiving a signal corresponding to selection of a specific button of the external device. You can control the display.
이 경우, 상기 외부 장치는 마이크를 포함하며, 상기 통신부는, 상기 외부 장치의 마이크를 통해 입력된 음성에 대응하는 음성신호를 수신하고, 상기 프로세서는, 상기 수신된 음성신호에 대한 인식 결과가 상기 표시된 숫자를 포함하면 상기 표시된 숫자에 대응되는 텍스트 객체와 관련된 동작을 수행할 수 있다.In this case, the external device includes a microphone, the communication unit receives a voice signal corresponding to a voice input through the microphone of the external device, and the processor determines that the recognition result of the received voice signal is If the displayed number is included, an operation related to the text object corresponding to the displayed number can be performed.
이 경우, 상기 프로세서는, 상기 수신된 음성신호에 대한 인식 결과가 상기 복수의 텍스트 객체 중 어느 하나에 대응하는 텍스트를 포함하면 해당 텍스트 객체와 관련된 동작을 수행할 수 있다.In this case, if the recognition result of the received voice signal includes text corresponding to any one of the plurality of text objects, the processor may perform an operation related to the corresponding text object.
한편, 상기 텍스트 객체와 관련된 동작은, 상기 텍스트 객체에 대응하는 URL 주소의 웹 페이지의 표시 동작 또는 상기 텍스트 객체에 대응하는 애플리케이션 프로그램 실행 동작일 수 있다.Meanwhile, an operation related to the text object may be a display operation of a web page having a URL address corresponding to the text object or an application program execution operation corresponding to the text object.
한편, 상기 복수의 텍스트 객체는 제1 애플리케이션의 실행 화면에 포함된 것이며, 상기 프로세서는, 상기 제1 애플리케이션의 실행 화면이 표시된 동안 사용자가 발화한 음성의 인식 결과에 대응하는 객체가 상기 제1 애플리케이션의 실행 화면에 없는 것으로 판단되면, 상기 제1 애플리케이션과는 다른 제2 애플리케이션을 실행하여 상기 음성의 인식 결과에 대응하는 동작을 수행할 수 있다.Meanwhile, the plurality of text objects are included in the execution screen of the first application, and the processor determines that the object corresponding to the recognition result of the voice spoken by the user while the execution screen of the first application is displayed is the first application. If it is determined that there is no execution screen of , a second application different from the first application may be executed to perform an operation corresponding to the result of recognizing the voice.
이 경우, 상기 제2 애플리케이션은 검색어에 대한 검색 결과를 제공하는 애플리케이션이고, 상기 프로세서는, 상기 제1 애플리케이션의 실행 화면이 표시된 동안 사용자가 발화한 음성의 인식 결과에 대응하는 객체가 상기 제1 애플리케이션의 실행 화면에 없는 것으로 판단되면, 상기 제2 애플리케이션을 실행하여 상기 음성의 인식 결과에 대응하는 텍스트를 검색어로 한 검색 결과를 제공할 수 있다.In this case, the second application is an application that provides a search result for a search word, and the processor determines that an object corresponding to a result of recognizing a voice spoken by a user while an execution screen of the first application is displayed is displayed. If it is determined that there is no on the execution screen of , the second application may be executed to provide a search result using text corresponding to the voice recognition result as a search term.
한편, 본 개시에 따른 디스플레이 장치는 복수의 서로 다른 언어에 대한 음성 인식을 수행하는 서버와 통신하는 통신부를 더 포함하고, 상기 프로세서는, 상기 사용자가 발화한 음성에 대응하는 음성 신호와 상기 기 결정된 언어에 대한 정보를 상기 서버에 제공하도록 상기 통신부를 제어하고, 상기 서버로부터 수신된 음성 인식 결과가 상기 표시된 숫자를 포함하면 상기 표시된 숫자에 대응되는 텍스트 객체와 관련된 동작을 수행할 수 있다.Meanwhile, the display device according to the present disclosure further includes a communication unit communicating with a server that performs voice recognition for a plurality of different languages, and the processor includes a voice signal corresponding to the voice spoken by the user and the predetermined The communication unit may be controlled to provide language information to the server, and if a voice recognition result received from the server includes the displayed number, an operation related to a text object corresponding to the displayed number may be performed.
이 경우, 상기 프로세서는, 상기 서버로부터 수신된 음성 인식 결과가 상기 복수의 텍스트 객체 중 어느 하나에 대응하는 텍스트를 포함하면 해당 텍스트 객체와 관련된 동작을 수행할 수 있다.In this case, if the voice recognition result received from the server includes text corresponding to any one of the plurality of text objects, the processor may perform an operation related to the corresponding text object.
한편, 본 개시의 일 실시 예에 따른 디스플레이 장치의 제어방법은, 복수의 텍스트 객체를 표시하는 단계, 상기 복수의 텍스트 객체 중 기결정된 언어와 상이한 텍스트 객체에 대해서는 기설정된 숫자를 함께 표시하는 단계 및 사용자가 발화한 음성의 인식 결과가 상기 표시된 숫자를 포함하면 상기 표시된 숫자에 대응되는 텍스트 객체와 관련된 동작을 수행하는 단계를 포함한다.Meanwhile, a control method of a display device according to an embodiment of the present disclosure includes displaying a plurality of text objects, displaying a preset number for text objects different from a predetermined language among the plurality of text objects, and and performing an operation related to a text object corresponding to the displayed number if the result of recognizing the voice spoken by the user includes the displayed number.
이 경우, 본 개시에 따른 디스플레이 장치의 제어방법은 상기 복수의 텍스트 객체에 가장 많이 사용된 언어를 상기 기결정된 언어로 설정하는 단계를 더 포함할 수 있다.In this case, the control method of the display device according to the present disclosure may further include setting a language most frequently used for the plurality of text objects as the predetermined language.
한편, 상기 복수의 텍스트 객체는 웹 페이지에 포함된 것이며, 본 개시에 따른 디스플레이 장치의 제어방법은 상기 웹 페이지의 언어 정보에 대응되는 언어를 상기 기결정된 언어로 설정하는 단계를 더 포함할 수 있다.Meanwhile, the plurality of text objects are included in the web page, and the control method of the display device according to the present disclosure may further include setting a language corresponding to language information of the web page to the predetermined language. .
한편, 본 개시에 따른 디스플레이 장치의 제어방법은 상기 복수의 텍스트 객체 중 2 이상의 언어로 구성된 텍스트 객체에 대해선, 상기 기결정된 언어의 포함 비율이 기설정된 비율 미만인 경우 상기 기결정된 언어와 상이한 텍스트 객체인 것으로 판단하는 단계를 더 포함할 수 있다.On the other hand, in the control method of the display device according to the present disclosure, for a text object composed of two or more languages among the plurality of text objects, when the ratio of the predetermined language is less than the predetermined ratio, the text object is different from the predetermined language. It may further include the step of determining that it is.
한편, 상기 기설정된 숫자를 함께 표시하는 단계는, 상기 기 설정된 숫자를 상기 기 설정된 숫자에 대응되는 텍스트 객체에 인접하여 표시할 수 있다.Meanwhile, in the step of displaying the preset number together, the preset number may be displayed adjacent to a text object corresponding to the preset number.
한편, 상기 기설정된 숫자를 함께 표시하는 단계는, 외부 장치로부터 상기 외부 장치의 특정 버튼의 선택에 대응하는 신호가 수신되는 동안 상기 기설정된 숫자를 표시할 수 있다.Meanwhile, in the step of displaying the preset number together, the preset number may be displayed while a signal corresponding to selection of a specific button of the external device is received from the external device.
한편, 상기 텍스트 객체와 관련된 동작을 수행하는 단계는, 상기 텍스트 객체에 대응하는 URL 주소의 웹 페이지를 표시하거나, 상기 텍스트 객체에 대응하는 애플리케이션 프로그램을 실행할 수 있다.Meanwhile, in the step of performing an operation related to the text object, a web page having a URL address corresponding to the text object may be displayed or an application program corresponding to the text object may be executed.
한편, 상기 복수의 텍스트 객체는 제1 애플리케이션의 실행 화면에 포함된 것이며, 본 개시에 따른 디스플레이 장치의 제어방법은 상기 제1 애플리케이션의 실행 화면이 표시된 동안 사용자가 발화한 음성의 인식 결과에 대응하는 객체가 상기 제1 애플리케이션의 실행 화면에 없는 것으로 판단되면, 상기 제1 애플리케이션과는 다른 제2 애플리케이션을 실행하여 상기 음성의 인식 결과에 대응하는 동작을 수행하는 단계를 더 포함할 수 있다.Meanwhile, the plurality of text objects are included in the execution screen of the first application, and the control method of the display device according to the present disclosure corresponds to the recognition result of the user's voice while the execution screen of the first application is displayed. The method may further include performing an operation corresponding to a result of recognizing the voice by executing a second application different from the first application when it is determined that the object is not present on the execution screen of the first application.
한편, 본 개시에 따른 디스플레이 장치의 제어방법은 복수의 서로 다른 언어에 대한 음성 인식을 수행하는 서버에 상기 사용자가 발화한 음성에 대응하는 음성 신호와 상기 기 결정된 언어에 대한 정보를 제공하는 단계를 더 포함하며, 상기 텍스트 객체와 관련된 동작을 수행하는 단계는 상기 서버로부터 수신된 음성 인식 결과가 상기 표시된 숫자를 포함하면 상기 표시된 숫자에 대응되는 텍스트 객체와 관련된 동작을 수행할 수 있다.Meanwhile, a method for controlling a display device according to the present disclosure includes providing a voice signal corresponding to a voice spoken by the user and information on the predetermined language to a server performing voice recognition for a plurality of different languages. In the step of performing an operation related to the text object, if the voice recognition result received from the server includes the displayed number, an operation related to the text object corresponding to the displayed number may be performed.
한편, 본 개시의 일 실시 예에 따른 디스플레이 장치의 제어방법을 실행하기 위한 프로그램이 저장된 컴퓨터 판독 가능 기록매체에 있어서, 상기 디스플레이 장치의 제어방법은, 복수의 텍스트 객체를 표시하도록 상기 디스플레이 장치를 제어하는 단계, 상기 복수의 텍스트 객체 중 기결정된 언어와 상이한 텍스트 객체에 대해서는 기설정된 숫자를 함께 표시하도록 상기 디스플레이 장치를 제어하는 단계, 및 사용자가 발화한 음성의 인식 결과가 상기 표시된 숫자를 포함하면 상기 표시된 숫자에 대응되는 텍스트 객체와 관련된 동작을 수행하는 단계를 포함한다.Meanwhile, in a computer readable recording medium storing a program for executing a method for controlling a display device according to an embodiment of the present disclosure, the method for controlling the display device controls the display device to display a plurality of text objects. controlling the display device to display a predetermined number for text objects different from a predetermined language among the plurality of text objects, and if the result of recognizing the voice spoken by the user includes the displayed number, and performing an operation related to the text object corresponding to the displayed number.
도 1 내지 도 2는 본 개시의 다양한 실시 예에 따른 디스플레이장치에서의 음성 명령 입력 방법을 설명하기 위한 도면,
도 3은 본 개시의 일 실시 예에 따른 음성인식시스템을 설명하기 위한 도면,
도 4는 본 개시의 일 실시 예에 따른 디스플레이장치의 구성을 설명하기 위한 블럭도,
도 5 내지 도 7은 본 개시의 다양한 실시 예에 따른 객체 선택을 위한 숫자 표시 방식을 설명하기 위한 도면,
도 8 내지 도 9는 본 개시의 다양한 실시 예에 따른 음성 검색 방법을 설명하기 위한 도면,
도 10은 본 개시의 또 다른 실시 예에 따른 디스플레이장치의 구성을 설명하기 위한 블럭도, 그리고
도 11은 본 개시의 일 실시 예에 따른 디스플레이장치의 제어방법을 설명하기 위한 흐름도이다.1 and 2 are views for explaining a method for inputting a voice command in a display device according to various embodiments of the present disclosure;
3 is a diagram for explaining a voice recognition system according to an embodiment of the present disclosure;
4 is a block diagram for explaining the configuration of a display device according to an embodiment of the present disclosure;
5 to 7 are views for explaining a number display method for object selection according to various embodiments of the present disclosure;
8 to 9 are views for explaining a voice search method according to various embodiments of the present disclosure;
10 is a block diagram for explaining the configuration of a display device according to another embodiment of the present disclosure, and
11 is a flowchart for explaining a control method of a display device according to an embodiment of the present disclosure.
본 개시에 대하여 구체적으로 설명하기에 앞서, 본 명세서 및 도면의 기재 방법에 대하여 설명한다. Prior to a detailed description of the present disclosure, the method of describing the present specification and drawings will be described.
먼저, 본 명세서 및 청구범위에서 사용되는 용어는 본 개시의 다양한 실시 예들에서의 기능을 고려하여 일반적인 용어들을 선택하였다 하지만, 이러한 용어들은 당해 기술 분야에 종사하는 기술자의 의도나 법률적 또는 기술적 해석 및 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 일부 용어는 출원인이 임의로 선정한 용어도 있다. 이러한 용어에 대해서는 본 명세서에서 정의된 의미로 해석될 수 있으며, 구체적인 용어 정의가 없으면 본 명세서의 전반적인 내용 및 당해 기술 분야의 통상적인 기술 상식을 토대로 해석될 수도 있다. First, the terms used in the present specification and claims are general terms selected in consideration of functions in various embodiments of the present disclosure. It may change depending on the emergence of new technologies, etc. In addition, some terms are arbitrarily selected by the applicant. These terms may be interpreted as the meanings defined in this specification, and if there is no specific term definition, they may be interpreted based on the overall content of this specification and common technical knowledge in the art.
또한, 본 명세서에 첨부된 각 도면에 기재된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다. 설명 및 이해의 편의를 위해서 서로 다른 실시 예들에서도 동일한 참조번호 또는 부호를 사용하여 설명한다. 즉, 복수의 도면에서 동일한 참조 번호를 가지는 구성요소를 모두 도시되어 있다고 하더라도, 복수의 도면들이 하나의 실시 예를 의미하는 것은 아니다. In addition, the same reference numerals or numerals in each drawing attached to this specification indicate parts or components that perform substantially the same function. For convenience of description and understanding, the same reference numerals or symbols are used in different embodiments. That is, even if all components having the same reference numerals are shown in a plurality of drawings, the plurality of drawings do not mean one embodiment.
또한, 본 명세서 및 청구범위에서는 구성요소들 간의 구별을 위하여 "제1", "제2" 등과 같이 서수를 포함하는 용어가 사용될 수 있다. 이러한 서수는 동일 또는 유사한 구성요소들을 서로 구별하기 위하여 사용하는 것이며 이러한 서수 사용으로 인하여 용어의 의미가 한정 해석되어서는 안 된다. 일 예로, 이러한 서수와 결합된 구성요소는 그 숫자에 의해 사용 순서나 배치 순서 등이 제한되어서는 안 된다. 필요에 따라서는, 각 서수들은 서로 교체되어 사용될 수도 있다. Also, in the present specification and claims, terms including ordinal numbers such as “first” and “second” may be used to distinguish between elements. These ordinal numbers are used to distinguish the same or similar components from each other, and the meaning of the term should not be construed as being limited due to the use of these ordinal numbers. For example, the order of use or arrangement of elements associated with such ordinal numbers should not be limited by the number. If necessary, each ordinal number may be used interchangeably.
본 명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this specification, singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "comprise" or "consist of" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other It should be understood that the presence or addition of features, numbers, steps, operations, components, parts, or combinations thereof is not precluded.
본 개시의 실시 예에서 "모듈", "유닛", "부(part)" 등과 같은 용어는 적어도 하나의 기능이나 동작을 수행하는 구성요소를 지칭하기 위한 용어이며, 이러한 구성요소는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈", "유닛", "부(part)" 등은 각각이 개별적인 특정한 하드웨어로 구현될 필요가 있는 경우를 제외하고는, 적어도 하나의 모듈이나 칩으로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.In the embodiments of the present disclosure, terms such as “module,” “unit,” and “part” are terms used to refer to components that perform at least one function or operation, and these components are hardware or software. It may be implemented or implemented as a combination of hardware and software. In addition, a plurality of "modules", "units", "parts", etc. are integrated into at least one module or chip, except for cases where each of them needs to be implemented with separate specific hardware, so that at least one processor can be implemented as
또한, 본 개시의 실시 예에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적인 연결뿐 아니라, 다른 매체를 통한 간접적인 연결의 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 포함한다는 의미는, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Also, in an embodiment of the present disclosure, when a part is said to be connected to another part, this includes not only a direct connection but also an indirect connection through another medium. In addition, the meaning that a certain part includes a certain component means that it may further include other components without excluding other components unless otherwise stated.
이하, 첨부된 도면을 이용하여 본 개시에 대하여 구체적으로 설명한다. Hereinafter, the present disclosure will be described in detail using the accompanying drawings.
도 1은 음성 인식에 따라 제어되는 본 개시의 일 실시 예에 따른 디스플레이장치를 설명하기 위한 도면이다.1 is a diagram for explaining a display apparatus controlled according to voice recognition according to an embodiment of the present disclosure.
도 1을 참고하면, 디스플레이장치(100)는 도 1에 도시된 바와 같이 TV 일 수 있으나, 이는 일 예에 불과할 뿐, 스마트폰, 데스크탑 PC, 노트북, 스마트 워치, 네비게이션, 냉장고 등 디스플레이 기능을 갖는 어떠한 장치로도 구현될 수 있다.Referring to FIG. 1, the
디스플레이장치(100)는 사용자가 발화한 음성의 인식 결과에 기초하여 동작을 수행할 수 있다. 예컨대, 사용자가 "7번 채널로 변경"이라고 말하면 7번 채널의 프로그램을 표시할 수 있고, 사용자가 "전원 꺼"라고 말하면 전원을 오프할 수 있다. 또한, 디스플레이장치(100)는 사용자와 대화하듯이 동작할 수도 있다. 예컨대, 사용자가 "현재 방송 중인 프로그램의 명칭이 뭐야?"라는 음성에 대한 답변으로 "문의하신 프로그램 제목은 ○○○ 입니다"라는 메시지를 음성 또는 텍스트로 출력할 수 있고, 사용자가 "오늘 날씨 어때"라고 말하면 "원하시는 지역을 말씀해 주세요"라는 메시지를 음성 또는 텍스트로 출력할 수 있고, 이에 대해 사용자가 "서울"이라고 말하면 "서울의 기온은 ○○ 입니다"라는 메시지를 음성 또는 텍스트로 출력할 수 있다.The
도 1에 도시된 바와 같이 디스플레이장치(100)는 디스플레이장치(100)에 연결되거나 디스플레이장치(100)에 포함된 마이크를 통해 사용자 음성을 수신할 수 있다. 또는, 디스플레이장치(100)는 외부 장치의 마이크를 통해 입력된 음성에 대응하는 음성 신호를 상기 외부 장치로부터 수신할 수도 있다. 이에 대해선 도 2를 참고하여 설명하도록 한다.As shown in FIG. 1 , the
도 2는 본 개시의 일 실시 에에 따른 디스플레이시스템을 설명하기 위한 도면이다.2 is a diagram for explaining a display system according to an embodiment of the present disclosure.
도 2를 참고하면, 디스플레이시스템은 디스플레이장치(100)와 외부장치(200)를 포함한다.Referring to FIG. 2 , the display system includes a
디스플레이장치(100)는 도 1에서 설명한 것처럼 음성 인식 결과에 따라 동작하는 장치이다. The
도 2에선 외부장치(200)가 리모컨으로 구현된 예를 도시하였으나, 스마트폰, 테블릿 PC, 스마트 워치 등의 전자 장치로 구현되는 것도 가능하다.Although FIG. 2 shows an example in which the
외부장치(200)는 마이크를 포함한 장치로서, 마이크를 통해 입력된 음성에 대응하는 음성 신호를 디스플레이장치(100)로 전송할 수 있다. 예컨대, 외부장치(200)는 적외선(IR), RF, 블루투스, 와이파이 등의 무선 통신 방식을 이용하여 음성 신호를 디스플레이장치(100)로 전송할 수 있다.The
외부장치(200)의 마이크는 전력 절감을 위해 기 설정된 이벤트가 있는 경우에만 활성화될 수 있다. 예컨대, 외부장치(200)의 마이크 버튼(210)을 누르고 있는 동안 마이크가 활성화되고, 마이크 버튼(210)이 릴리즈되면 마이크가 비활성화된다. 즉, 마이크 버튼(210)이 눌려진 동안에만 음성을 입력받을 수 있다.The microphone of the
디스플레이장치(100)의 마이크 또는 외부장치(200)의 마이크를 통해 입력된 음성에 대한 음성 인식은 외부 서버를 통해 수행될 수 있다. 도 3은 이와 관련한 실시 예를 설명하기 위한 도면이다.Voice recognition for a voice input through the microphone of the
도 3을 참고하면, 음성 인식 시스템(2000)은 디스플레이장치(100) 및 서버(300)를 포함한다. Referring to FIG. 3 , the voice recognition system 2000 includes a
디스플레이장치(100)는 도 1에서 설명한 것처럼 음성 인식 결과에 따라 동작하는 장치이다. 디스플레이장치(100)는 앞서 설명한 것과 같이 디스플레이장치(100)의 마이크 또는 외부장치(200)의 마이크를 통해 입력된 음성에 대응하는 음성 신호를 서버(300)로 전송할 수 있다. The
디스플레이장치(100)는 음성 신호와 함께, 상기 음성 신호를 어떤 언어를 기반으로 인식해야 하는지를 나타내는 정보(이하 '언어 정보')를 서버(300)로 전송할 수 있다. 동일한 음성 신호라도, 어떤 언어의 음성 인식 엔진을 이용하느냐에 따라 다른 음성 인식 결과가 나올 수 있다. The
서버(300)는 복수의 서로 다른 언어에 대한 음성 인식을 수행할 수 있다. 서버(300)는 여러 언어 각각에 대응하는 여러 음성 인식 엔진을 포함할 수 있다. 예를 들어 서버(300)는 한국어 음성 인식 엔진, 영어 음성 인식 엔진, 일본어 음성 인식 엔진 등을 포함할 수 있다. 서버(300)는 디스플레이장치(100)로부터 음성 신호와 언어 정보가 수신되면, 음성 신호에 대해 언어 정보에 대응하는 음성 인식 엔진을 이용해서 음성 인식을 수행할 수 있다.The
그리고 서버(300)는 음성 인식의 결과를 디스플레이장치(100)로 전송하고, 디스플레이장치(100)는 서버(300)로부터 수신된 음성 인식 결과에 대응하는 동작을 수행할 수 있다.The
예를 들어, 디스플레이장치(100)는 서버(300)로부터 수신된 음성 인식 결과에 포함된 텍스트가 디스플레이장치(100)에 표시된 텍스트 객체와 일치되면, 해당 텍스트 객체와 관련한 동작을 수행할 수 있다. 예를 들어, 디스플레이장치(100)는 웹 페이지 내에서 음성인식결과에 포함된 텍스트와 일치되는 텍스트 객체가 있으면, 해당 텍스트 객체에 대응되는 URL 주소의 웹 페이지를 표시할 수 있다. 다만, 이는 일 예에 불과할 뿐, 디스플레이장치(100)의 다양한 애플리케이션이 제공하는 UI 객체가 음성인식에 의해 선택되어 해당 동작이 수행될 수 있다.For example, if the text included in the voice recognition result received from the
한편, 도 3에선 서버(300)가 하나인 것으로 도시하였으나, 복수의 언어에 각각에 대응되는 복수의 서버가 존재할 수 있다. 예컨대, 한국어 음성 인식을 담당하는 서버와 영어 음성 인식을 담당하는 서버가 별도로 존재할 수 있다. Meanwhile, although FIG. 3 shows one
한편, 상술한 예에선 음성 인식이 디스플레이장치(100)와는 별도의 장치인 서버(300)에서 이루어지는 것으로 설명하였으나, 또 다른 예에 따르면, 디스플레이장치(100)가 서버(300)의 기능을 수행하는 것도 가능하다. 즉, 상술한 디스플레이장치(100)와 서버(300)가 하나의 제품으로 구현되는 것도 가능하다.Meanwhile, in the above example, it has been described that voice recognition is performed in the
도 4는 본 개시의 일 실시 예에 따른 디스플레이장치(100)의 구성을 설명하기 위한 블럭도이다.4 is a block diagram for explaining the configuration of a
디스플레이장치(100)는 디스플레이(110)와 프로세서(120)를 포함한다.The
디스플레이(110)는 예컨대, LCD(Liquid Crystal Display)로 구현될 수 있으며, 경우에 따라 CRT(cathode-ray tube), PDP(plasma display panel), OLED(organic light emitting diodes), TOLED(transparent OLED) 등으로 구현될 수 있다. 또한, 디스플레이(110)는 사용자의 터치 조작을 감지할 수 있는 터치스크린 형태로 구현될 수도 있다.The
프로세서(120)는 디스플레이장치(100)의 전반적인 동작을 제어하기 위한 구성이다. The
예를 들어, 프로세서(120)는 CPU, 램(RAM), 롬(ROM), 시스템 버스를 포함할 수 있다. 여기서, 롬은 시스템 부팅을 위한 명령어 세트가 저장되는 구성이고, CPU는 롬에 저장된 명령어에 따라 디스플레이장치(100)의 저장부에 저장된 운영체제를 램에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, CPU는 저장부에 저장된 각종 애플리케이션을 램에 복사하고, 실행시켜 각종 동작을 수행할 수 있다. 이상에서는 프로세서(120)가 하나의 CPU만을 포함하는 것으로 설명하였지만, 구현시에는 복수의 CPU(또는 DSP, SoC 등)으로 구현될 수 있다.For example, the
프로세서(120)는 디스플레이(110)에 표시된 객체를 선택하기 위한 사용자 명령이 입력되면, 사용자 명령에 의해 선택된 객체와 연관된 동작을 수행할 수 있다. 여기서 객체는 선택이 가능한 어떠한 객체라도 될 수 있으며, 예를 들어, 하이퍼링크 또는 아이콘 등일 수 있다. 선택된 객체와 연관된 동작이란 예컨대 하이퍼링크에 연결된 페이지, 문서, 영상 등을 표시하는 동작, 아이콘에 대응하는 프로그램을 실행하는 동작 등일 수 있다.When a user command for selecting an object displayed on the
객체를 선택하기 위한 사용자 명령은 예컨대, 디스플레이장치(100)와 연결된 다양한 입력 장치(ex. 마우스, 키보드, 터치패드 등)를 통해 입력되는 명령이거나, 사용자가 발화한 음성에 대응하는 음성 명령일 수 있다. A user command for selecting an object may be, for example, a command input through various input devices (ex. mouse, keyboard, touch pad, etc.) connected to the
도 4에 도시하진 않았지만 디스플레이장치(100)는 음성을 입력받기 위한 음성 수신부를 더 포함할 수 있다. 음성 수신부는 마이크를 포함하여 사용자가 발화한 음성을 직접 입력받아 음성 신호를 생성할 수 있고, 또는 외부 장치(200)로부터 전기적인 음성 신호를 수신할 수 있다. 후자의 경우 음성 수신부는 외부 장치(200)와 유선 또는 무선 통신을 수행하기 위한 통신부로 구현될 수 있다. 이와 같은 음성 수신부는 경우에 따라 디스플레이장치(100)에 포함되지 않을 수 있다. 예를 들어, 외부 장치(200)의 마이크를 통해 입력된 음성에 대응하는 음성 신호가 디스플레이장치(100)가 아닌 다른 장치를 거쳐 서버(300)로 전달되거나 혹은 외부 장치(200)로부터 직접적으로 서버(300)로 전달될 수 있고, 디스플레이장치(100)는 서버(300)로부터 음성 인식 결과만을 수신하는 형태로 구현될 수 있다.Although not shown in FIG. 4 , the
프로세서(120)는 디스플레이(110)에 표시된 텍스트 객체들 중, 기결정된 언어와 상이한 텍스트 객체에 대해선 숫자를 함께 표시하도록 디스플레이(110)를 제어할 수 있다. Among the text objects displayed on the
여기서 기결정된 언어란, 음성 인식의 기초가 되는 언어(음성인식에 이용할 음성인식엔진의 언어)를 의미하는 것으로서, 사용자가 수동으로 설정할 수 있고, 자동으로 설정되는 것도 가능하다. 수동으로 언어를 설정하는 경우에 대해 설명하자면, 예컨대, 디스플레이장치(100)가 제공하는 설정메뉴에서 사용언어(또는 시스템 언어)로서 설정된 언어를 음성 인식의 기초가 되는 언어로 설정할 수 있다. Here, the predetermined language means a language that is a basis for voice recognition (a language of a voice recognition engine to be used for voice recognition), and can be manually set by a user or can be set automatically. To describe the case of manually setting a language, for example, a language set as a language to be used (or a system language) in a setting menu provided by the
자동으로 음성 인식의 기초가 되는 언어를 설정하는 일 실시 예에 따르면, 프로세서(120)는 디스플레이(110)에 현재 표시된 텍스트 객체에 가장 많이 사용된 언어를 식별하여 해당 언어를 음성 인식의 기초가 되는 언어로 자동 설정할 수 있다.According to an embodiment of automatically setting a language as a basis for voice recognition, the
구체적으로, 프로세서(120)는 현재 디스플레이(110)에 표시된 복수의 텍스트 객체 각각에 포함된 문자의 종류(예컨대, 한글 또는 알파벳)를 분석해서 복수의 텍스트 객체에 전반적으로 가장 많이 사용된 문자의 종류에 해당하는 언어를 음성 인식의 기초가 되는 언어로 설정할 수 있다.Specifically, the
또 다른 실시 예에 따르면, 프로세서(120)는 디스플레이(110)에 현재 표시된 객체들이 웹 페이지의 객체들이면, 해당 웹 페이지의 언어 정보에 대응되는 언어를 음성 인식의 기초가 되는 언어로서 설정할 수 있다. 웹 페이지의 언어 정보는 예컨대, HTML의 lang 속성에서 확인할 수 있다(예컨대, <html lang="en">).According to another embodiment, if objects currently displayed on the
음성 인식의 기초가 되는 언어가 설정되었으면, 프로세서(120)는 음성 인식의 기초가 되는 언어와 상이한 텍스트 객체에 대해서는 임의의 숫자가 함께 표시되도록 디스플레이(110)를 제어할 수 있다. 사용자는 디스플레이(110)에 표시된 임의의 숫자를 말함으로써 텍스트 객체를 선택할 수 있다. 또한, 이미지 객체 또한 음성으로 선택할 수 없기 때문에, 프로세서(120)는 이미지 객체에 대해서도 임의의 숫자가 함께 표시되도록 디스플레이(110)를 제어할 수 있다.When a language based on voice recognition is set, the
프로세서(120)는 음성 인식의 기초가 되는 언어가 아닌 다른 언어로만 구성된 텍스트 객체에 대해선 음성 인식에 사용될 언어와 상이한 텍스트 객체라고 판단할 수 있다. 또한, 프로세서(120)는 2 이상의 언어로 구성된 텍스트 객체에 대해선, 음성 인식의 기초가 되는 언어의 포함 비율이 기설정된 비율 미만인 경우에 음성인식에 사용될 언어와 상이한 텍스트 객체라고 판단할 수 있다. 이에 대해서 도 5를 참고하여 좀 더 구체적으로 설명하도록 한다.The
도 5는 디스플레이(110)에 특정 화면이 표시된 것을 도시한 것이다.5 illustrates that a specific screen is displayed on the
도 5를 참고하면, 복수의 텍스트 객체(51 ~ 59)를 포함하는 UI 스크린이 디스플레이(110)에 표시되어 있다. 음성 인식의 기초가 되는 언어가 영어로 설정되었다고 가정하도록 한다. 프로세서(120)는 영어가 아닌 다른 언어로 구성된 텍스트 객체들(51 ~ 56)에 대해선 임의의 숫자(①~⑥)가 함께 표시되도록 디스플레이(110)를 제어할 수 있다. 숫자들(①~⑥)은 대응하는 텍스트 객체들(51 ~ 56)에 인접한 위치에 표시될 수 있다. 그리고 영어로 구성된 텍스트 객체들(51, 58)에 대해선, 주변에 특정 아이콘(57a, 58a)이 함께 표시됨으로써, 텍스트 객체들(51, 58)에 포함된 텍스트를 발화함으로써 텍스트 객체들(51, 58)을 선택할 수 있음을 사용자에게 알릴 수 있다. 아이콘(57a, 58a)은 도 5에 도시한 것과 같이 "T"로 표현될 수 있으나, 이에 한정되는 것은 아니고, 예컨대 "Text" 등과 같이 다양한 형태로 표현될 수 있다.Referring to FIG. 5 , a UI screen including a plurality of text objects 51 to 59 is displayed on the
2 이상의 언어로 구성된 텍스트 객체(59)에 대해선, 프로세서(120)는 영어의 포함 비율이 기설정된 비율(예컨대 50%) 미만인지 확인하여, 미만인 경우에 숫자를 함께 표시하도록 디스플레이(110)를 제어할 수 있다. 도 5에 도시한 텍스트 객체(59)는 한국어와 영어로 구성되어 있는데, 영어의 포함 비율이 기설정된 비율(예컨대 50%)을 넘으므로 숫자가 함께 표시되지 않는다. 대신 텍스트 객체에 포함된 텍스트를 발화함으로써 텍스트 객체가 선택이 가능함을 알리는 아이콘(59a)이 텍스트 객체(59)에 인접하여 표시될 수 있다.For the text object 59 composed of two or more languages, the
한편, 도 5에선 숫자가 "①"와 같은 형상인 것으로 도시되었으나, 숫자의 형상엔 제한이 없다. 예컨대 원형이 아닌 사각형 안에 "1"이 포함된 형태일 수도 있고, 단순히 "1"이라고만 표시될 수도 있다. 본 개시의 또 다른 실시 예에 따르면, 음성 인식의 기초가 되는 언어의 단어로 표시될 수 있는데, 음성 인식의 기초가 되는 언어가 영어라면 "one"이라고 표시될 수 있고, 음성 인식의 기초가 되는 언어가 스페인어라면 "uno"라고 표시될 수 있다. Meanwhile, in FIG. 5, the numbers are shown to have a shape such as “①”, but there is no limit to the shape of the numbers. For example, “1” may be included in a rectangle instead of a circle, or only “1” may be displayed. According to another embodiment of the present disclosure, it may be displayed as a word of a language that is the basis of voice recognition. If the language that is the basis of voice recognition is English, it may be displayed as "one", and the basis of voice recognition If the language is Spanish, it may be displayed as "uno".
한편, 도 5에선 도시하지 않았으나, 숫자의 표시와 함께 "말하신 숫자에 대응하는 객체를 선택하실 수 있습니다"와 같이 숫자를 말할 것을 유도하는 문구가 추가적으로 디스플레이(110)에 표시될 수도 있다.Meanwhile, although not shown in FIG. 5 , a phrase encouraging the user to say a number, such as “You can select an object corresponding to the number you have spoken,” may be additionally displayed on the
본 개시의 또 다른 실시 예에 따르면 프로세서(120)는 2 이상의 언어로 구성된 텍스트 객체에 대해선, 맨 앞의 단어의 언어가 음성인식에 사용될 언어와 다르면, 음성 인식의 기초가 되는 언어와 상이한 텍스트 객체라고 판단할 수 있다. 본 실시 예에 관해선 도 6을 참고하여 설명하도록 한다.According to another embodiment of the present disclosure, for a text object composed of two or more languages, if the language of the first word is different from the language to be used for voice recognition, the
도 6은 디스플레이(110)에 특정 화면이 표시된 것을 도시한 것이다.6 illustrates that a specific screen is displayed on the
도 6을 참고하면, 복수의 텍스트 객체(61 ~ 63)를 포함하는 UI 스크린이 디스플레이(110)에 표시되어 있다. 음성인식에 사용될 언어가 한국어로 설정되었다고 가정하도록 한다. 프로세서(120)는 2 이상의 언어로 구성된 텍스트 객체(61)에 대해선, 맨 앞의 단어 "AAA"의 언어가 음성 인식의 기초가 되는 언어인 한국어가 아닌 영어이므로 음성 인식의 기초가 되는 언어와 상이한 텍스트 객체라고 판단할 수 있다. 따라서, 프로세서(120)는 숫자(①)가 텍스트 객체(61)와 함께 표시되도록 디스플레이(110)를 제어할 수 있다.Referring to FIG. 6 , a UI screen including a plurality of text objects 61 to 63 is displayed on the
도 6을 참고하여 설명한 실시 예에 따르면, 2 이상의 언어로 구성된 텍스트 객체에 음성 인식의 기초가 되는 언어가 기 설정된 비율 이상으로 포함되어 있더라도 맨 앞 단어가 음성 인식의 기초가 되는 언어와 다르면 숫자를 표시한다. 반대로, 2 이상의 언어로 구성된 텍스트 객체에 음성 인식의 기초가 되는 언어가 기 설정된 비율 미만으로 포함되어 있더라도 맨 앞 단어가 음성 인식의 기초가 되는 언어와 같으면 숫자를 표시하지 않는다. 이는, 사용자가 텍스트 객체를 선택하기 위해 텍스트 객체의 가장 맨앞에 존재하는 단어를 말할 가능성이 높기 때문이다.According to the embodiment described with reference to FIG. 6 , even if a text object composed of two or more languages includes a language based on voice recognition in a predetermined ratio or more, if the first word is different from the language based on voice recognition, a number is entered. display Conversely, even if the text object composed of two or more languages contains less than a preset ratio of the language underlying voice recognition, if the first word is the same as the language underlying voice recognition, a number is not displayed. This is because there is a high possibility that the user will say the first word of the text object to select the text object.
한편, 본 개시의 또 다른 실시 예에 따르면, 이미지 객체 또한 음성으로 선택할 수 없기 때문에, 이미지 객체에도 숫자가 표시될 수 있다. 본 실시 예에 대해선 이하 도 7을 참고하여 설명한다.Meanwhile, according to another embodiment of the present disclosure, since an image object cannot be selected by voice, a number may be displayed on the image object. This embodiment will be described with reference to FIG. 7 below.
도 7은 디스플레이(110)에 특정 화면이 표시된 것을 도시한 것이다.7 illustrates that a specific screen is displayed on the
도 7을 참고하면, 제1 이미지 객체(71), 제2 이미지 객체(72), 제3 이미지 객체(74), 제1 텍스트 객체(73) 및 제2 텍스트 객체(75)가 디스플레이(110)에 표시되어 있다. 프로세서(120)는 제1 이미지 객체(71)와 함께 숫자(①)를 표시하도록 디스플레이(110)를 제어할 수 있다.Referring to FIG. 7 , a
한편, 본 개시의 또 다른 실시 예에 따르면, 디스플레이(110)에 표시된 복수의 객체가 URL 링크를 가지는 객체인 경우, 프로세서(120)는 상기 복수의 객체의 URL 링크를 비교한 결과, 동일한 URL 링크를 가지는 객체들이 있는 경우에 있어서, 해당 객체들이 모두 음성 인식으로 선택이 가능하지 않은 객체라면 어느 하나의 객체에만 숫자를 표시하도록 디스플레이(110)를 제어할 수 있고, 이 객체들 중 어느 하나라도 음성 인식으로 선택이 가능한 객체이면 숫자를 표시하지 않도록 디스플레이(110)를 제어할 수 있다.Meanwhile, according to another embodiment of the present disclosure, when a plurality of objects displayed on the
좀 더 구체적으로 설명하자면, 디스플레이(110)에 음성 인식으로 선택이 가능하지 않은 객체(즉, 음성 인식의 기초가 되는 언어와 상이한 텍스트 객체, 또는 이미지 객체)가 복수 개 표시되어 있고, 이들이 동일한 URL 주소의 링크를 가질 경우엔, 어느 하나의 객체에만 숫자가 표시될 수 있다. 도 7을 참고하여 설명하자면, 제2 이미지 객체(72)는 음성으로 선택될 수 없는 객체이고, 텍스트 객체(73)는 음성 인식의 기초가 되는 언어인 한국어와는 다른 언어인 영어로 구성되어 있기 때문에 제2 이미지 객체(72)와 제1 텍스트 객체(73)는 모두 음성으로 선택될 수 없지만, 제2 이미지 객체(72)와 제1 텍스트 객체(73)는 선택되었을 때 동일한 URL 주소로 연결되기 때문에, 제2 이미지 객체(72)와 제1 텍스트 객체(73) 중 어느 하나인 제2 이미지 객체(72)에만 숫자(②)가 표시될 수 있다. 또는, 제2 이미지 객체(72) 대신에 텍스트 객체(73)에 숫자가 표시되는 것도 가능하다. 이는, 디스플레이(110)에 표시되는 숫자의 개수를 최소화하기 위함이다.More specifically, a plurality of objects that cannot be selected by voice recognition (ie, text objects or image objects different from the language used for voice recognition) are displayed on the
디스플레이(110)에 표시되는 숫자의 개수를 최소화하기 위해, 본 개시의 또 다른 실시 예에 따르면, 디스플레이(110)에 동일한 URL 주소를 갖는 복수의 객체가 디스플레이(110)에 표시되어 있고, 이들 중 어느 하나라도 음성 인식의 기초가 되는 언어와 동일한 텍스트 객체이면 이들 모두에 대해 숫자를 표시하지 않는다. 도 7을 참고하여 설명하자면, 프로세서(120)는 제3 이미지 객체(74)의 URL 주소와 제2 텍스트 객체(75)의 ULR 주소를 비교하여 서로가 같은 것으로 판단되고, 제2 텍스트 객체(75)가 음성 인식의 기초가 되는 언어인 한국어와 동일한 텍스트 객체라고 판단되면, 제3 이미지 객체(74)에는 숫자를 표시하지 않도록 디스플레이(110)를 제어한다.In order to minimize the number of numbers displayed on the
사용자가 발화한 음성의 인식 결과가 디스플레이(110)에 표시된 특정 텍스트를 포함하면, 프로세서(120)는 해당 텍스트에 대응하는 텍스트 객체와 관련한 동작을 수행할 수 있다. 도 5를 참고하여 설명하자면, 사용자가 "Voice recognition"이라고 말하면, 프로세서(120)는 텍스트 객체(59)에 대응하는 URL 주소의 페이지를 표시하도록 디스플레이(110)를 제어할 수 있다.When the recognition result of the voice spoken by the user includes specific text displayed on the
한편, 본 개시의 일 실시 예에 따르면, 사용자가 발화한 음성의 인식 결과가 디스플레이(110)에 표시된 텍스트 객체들 중 2 이상의 텍스트 객체에 공통으로 포함된 텍스트를 포함한 경우, 프로세서(120)는 해당 텍스트 객체들에 각각 숫자를 표시하고, 사용자가 표시된 숫자를 발화하면 숫자에 대응하는 텍스트 객체에 관련한 동작을 수행할 수 있다. 도 5를 참고하여 설명하자면, 사용자가 발화한 음성 인식의 결과에 "Speech recognition"이 포함된 경우, 프로세서(120)는 화면에 표시된 텍스트 객체들 중 "Speech recognition"이 포함되어 있는 텍스트 객체를 검색한다. 복수의 텍스트 객체(57, 58)가 검색된 경우, 프로세서(120)는 텍스트 객체들(57, 58) 옆에 임의의 숫자를 표시하도록 디스플레이(110)를 제어할 수 있다. 예컨대, 텍스트 객체(57) 옆에 숫자 ⑦이 표시되고, 텍스트 객체(58) 옆에 숫자 ⑧이 표시될 수 있고, 사용자는 숫자 "7"을 말함으로써 텍스트 객체(57)를 선택할 수 있게 된다. 사용자가 발화한 음성의 인식 결과가 디스플레이(110)에 표시된 숫자를 포함하면, 프로세서(120)는 포함된 숫자에 대응되는 텍스트 객체 또는 이미지 객체와 관련된 동작을 수행할 수 있다. 도 6을 참고하여 설명하자면, 사용자가 "일"이라고 말하면 프로세서(120)는 텍스트 객체(61)에 대응하는 URL 주소의 페이지를 표시하도록 디스플레이(110)를 제어할 수 있다. Meanwhile, according to an embodiment of the present disclosure, when the recognition result of a voice spoken by a user includes text commonly included in two or more text objects among text objects displayed on the
사용자가 발화한 음성은 디스플레이장치(100)의 마이크를 통해 입력되거나 외부장치(200)이 마이크를 통해 입력될 수 있다. 후자의 경우, 디스플레이장치(100)는 마이크를 포함한 외부장치(200)와 통신하기 위한 통신부를 포함할 수 있고, 통신부는 외부장치(200)의 마이크를 통해 입력된 음성에 대응하는 음성신호를 수신할 수 있다. 프로세서(120)는 통신부를 통해 외부장치(200)로부터 수신된 음성신호에 대한 인식 결과가 디스플레이(110)에 표시된 숫자를 포함하면, 해당 숫자에 대응하는 텍스트 객체와 관련된 동작을 수행할 수 있다. 도 6을 참고하여 설명하자면, 사용자가 외부장치(200)의 마이크에 "일"이라고 말하면 외부장치(200)는 음성신호를 디스플레이장치(200)로 전송하고, 프로세서(120)는 수신한 음성신호에 대한 음성 인식 결과를 바탕으로 텍스트 객체(61)에 대응하는 URL 주소의 페이지를 표시하도록 디스플레이(110)를 제어할 수 있다.The voice uttered by the user may be input through the microphone of the
한편, 텍스트 또는 이미지 객체에 대응하여 표시된 숫자는 일정 기간 동안만 표시될 수 있다. 일 실시 예에 따르면, 프로세서(120)는 외부장치(200)에서 특정 버튼의 선택에 대응하는 신호가 수신되는 동안 숫자들을 표시하도록 디스플레이(110)를 제어할 수 있다. 즉, 외부장치(200)의 특정버튼을 사용자가 누르고 있는 동안에만 숫자가 표시될 수 있다. 여기서 특정 버튼은 예컨대, 도 2에서 설명한 외부장치(200)의 마이크 버튼(210)일 수 있다.Meanwhile, numbers displayed corresponding to text or image objects may be displayed only for a certain period of time. According to an embodiment, the
또 다른 실시 예에 따르면, 프로세서(120)는 디스플레이장치(100)의 마이크를 통해 입력된 음성이 기 설정된 키워드(예컨대, "Hi TV")를 포함하면 숫자들을 표시하고, 디스플레이장치(100)의 마이크를 통해 음성이 미입력되는 상태로 기 설정된 시간이 경과하면 표시된 숫자들을 제거할 수 있다.According to another embodiment, the
한편, 상술한 실시 예들에선 숫자가 표시되는 것으로 설명하였으나, 반드시 숫자가 표시될 필요는 없고, 사용자가 보고 읽을 수 있는 단어(의미를 가진 단어 또는 의미가 없는 단어)라면 어떠한 것이든 가능하다. 예컨대, 1, 2, 3.. 대신에 a, b, c...가 표시되는 것도 가능하다. 본 개시의 또 다른 실시 예에 따르면, 디스플레이(110)에 표시된 웹 페이지에 검색창이 있는 경우, 사용자는 검색하고자 하는 단어와, 검색 기능을 실행시키는 특정 키워드를 발화함으로써 손쉽게 검색을 수행할 수 있다. 예컨대, 디스플레이(110)에 표시된 웹 페이지에 검색창이 있는 경우, "○○○ 검색" 또는 "검색 ○○○" 등과 같이 말하기만 하면 "○○○"에 대한 검색결과가 디스플레이(110)에 표시될 수 있다.On the other hand, in the above embodiments, it has been described that numbers are displayed, but numbers are not necessarily displayed, and any words (words with meaning or words without meaning) that the user can see and read can be used. For example, it is also possible to display a, b, c... instead of 1, 2, 3... According to another embodiment of the present disclosure, when there is a search window in the web page displayed on the
이를 위해, 프로세서(120)는 디스플레이(110)에 표시된 웹 페이지에서 검색어 입력창을 검출할 수 있다. 구체적으로, 프로세서(120)는 디스플레이(110)에 표시된 웹 페이지의 구성 객체들 중에서 입력이 가능한 객체를 검색할 수 있다. HTML 상의 입력 태그(Input tag)가 입력이 가능한 객체이다. 입력 태그(Input tag)는 다양한 속성들(attributes)을 가지는데, 그 중 타입 속성(type attributes)은 입력 성격을 명확히 규정한다. 타입이 "search"인 경우엔 그 객체는 명확히 검색어 입력창에 해당된다. To this end, the
다만, 타입이 "text"인 객체의 경우엔 검색어 입력창인지 여부를 바로 판단할 수 없다. 일반적인 입력 객체들도 텍스트 타입(text type)을 가지고 있기 때문에 해당 객체가 검색어 입력창인지 일반 입력 창인지 구분할 수 없기 때문이다. 따라서, 이 경우엔 검색어 입력창인지 여부를 판단하는 별도의 과정이 필요하다.However, in the case of an object whose type is "text", it cannot be immediately determined whether or not it is a search word input window. This is because general input objects also have a text type, so it cannot be distinguished whether the corresponding object is a search word input window or a general input window. Therefore, in this case, a separate process of determining whether the search word input window is required is required.
타입이 "text"인 객체의 경우, 검색어 입력창인지 여부를 판단하기 위해, 해당 객체의 추가적인 속성(attributes)에 대한 정보를 참고하게 된다. title이나 aria-label 에 "검색" 키워드가 있는 경우 해당 객체를 검색어 입력창이라고 판단할 수 있다.In the case of an object whose type is "text", information on additional attributes of the corresponding object is referred to in order to determine whether it is a search word input window. If there is a "search" keyword in title or aria-label, it can be determined that the object is a search word input window.
그리고 프로세서(120)는 사용자가 발화한 음성의 인식 결과에 특정 키워드가 포함되어 있는지 판단한다. 여기서 특정 키워드는 "검색", "찾아" 등일 수 있다. 특정 키워드가 포함되어 있는 것으로 판단되면, 프로세서(120)는 사용자의 의도를 보다 정확히 판단하기 위해 상기 특정 키워드의 위치를 확인하다. 상기 특정 키워드의 앞 또는 뒤에 적어도 하나의 단어가 존재하는 경우라면 사용자의 의도가 그 적어도 하나의 단어를 검색하고자 하는 의도일 가능성이 높다. 만약 음성 인식 결과에 오직 "검색" 또는 "찾아"와 같은 특정 키워드만 포함된 경우라면 사용자가 검색하고자 하는 의도가 아닐 확률이 높다.Further, the
이와 같은 사용자의 의도 판단 과정은 디스플레이장치(100)에서 수행될 수 있고, 서버(300)에서 수행되어 그 결과를 디스플레이장치(100)에 제공하는 것도 가능하다.This process of determining the user's intention may be performed in the
사용자의 검색 의도가 판단된 경우, 프로세서(120)는 상기 특정 키워드를 제외한 나머지 단어를 검색어로 선정하고, 선정된 검색어를 상술한 방식에 따라 검출된 검색어 입력창에 입력하여 검색을 수행한다. 예컨대, 도 8에 도시한 바와 같이 검색어 입력창(810)을 포함하는 웹 페이지가 디스플레이(110)에 표시되면, 프로세서(120)는 검색어 입력창(810)을 검출하고, 사용자가 "강아지 검색"이라고 음성을 발화하면, 프로세서(120)는 발화된 음성에 대한 음성 인식 결과에서 "강아지"를 검색어로 선정하여 상기 검출된 검색어 입력창(810)에 입력하여 검색을 수행한다.When the user's search intention is determined, the
한편, 디스플레이(110)에 표시된 웹 페이지에서 검색어 입력창을 검출하는 동작은 음성 인식 결과에 특정 키워드가 포함되어 있음이 판단된 이후에 수행될 수 있고, 또는 그 이전에 미리 수행되는 것도 가능하다.Meanwhile, the operation of detecting a search word input box in the web page displayed on the
도 9는 검색어 입력 방식의 또 다른 예를 설명하기 위한 도면이다. 도 9는 한 웹 페이지 내에 검색어 입력창이 복수 개인 경우에 검색 수행방법을 설명하기 위한 것이다.9 is a diagram for explaining another example of a search word input method. 9 is for explaining a method of performing a search when there are a plurality of search word input windows in one web page.
도 9를 참고하면, 한 웹 페이지 안에 검색창이 2개인 경우를 도시한 것이다. 제1 검색어 입력창(910)은 뉴스 검색을 위한 것이고, 제2 검색어 입력창(920)은 주식 검색을 위한 것이다. 프로세서(120)는 객체의 배치 위치에 관한 정보 및 현재 화면의 레이아웃에 관한 정보에 기초하여, 사용자가 검색어를 포함한 음성을 발화한 시점에 표시된 검색어 입력창으로 검색을 수행한다. 예컨대, 제1 검색어 입력창(910)이 디스플레이(110)에 표시된 상황에서 사용자가 검색어 및 특정 키워드를 포함한 음성을 발화하면 프로세서(120)는 제1 검색어 입력창(910)에 검색어를 입력하고, 아래 방향으로 스크롤이 수행되어서 제2 검색어 입력창(920)이 디스플레이(110)에 표시된 상황에서 사용자가 검색어 및 특정 키워드를 포함한 음성을 발화하면 프로세서(120)는 제2 검색어 입력창(920)에 검색어를 입력할 수 있다. 즉, 한 웹 페이지 안에 다수의 검색어 입력창이 있는 경우, 현재 화면에서 보여지는 검색어 입력창으로 검색이 수행될 수 있다.Referring to FIG. 9 , a case in which there are two search windows in one web page is shown. The first search
디스플레이(110)에 보여지는 화면에 기초하여 음성 제어가 이루어진다 즉, 기본적으로 디스플레이(110)에 표시 중인 화면에 해당하는 애플리케이션을 이용하여 음성 명령에 따른 기능이 수행된다. 그러나 입력된 음성 명령이 현재 표시된 화면에 포함된 객체와 매칭되지 않거나, 현재 화면을 표시하고 있는 애플리케이션이 갖는 기능과 다른 것일 경우, 다른 애플리케이션이 실행되어 해당 음성 명령에 따른 기능을 수행할 수 있다.Voice control is performed based on the screen displayed on the
예를 들어, 현재 실행 중인 애플리케이션이 웹 브라우징 애플리케이션이고, 사용자가 발화한 음성이 웹 브라우징 애플리케이션이 표시하고 있는 웹 페이지 내 객체와 매칭되지 않는 경우, 프로세서(120)는 기 설정된 다른 애플리케이션을 실행시켜 사용자가 발화한 음성에 대응하는 검색 기능을 수행할 수 있다. 여기서 기 설정된 다른 애플리케이션은 검색 기능을 제공하는 애플리케이션으로서 예컨대, 구글™의 검색엔진을 이용하여 음성에 대응하는 텍스트에 대한 검색결과를 제공하는 애플리케이션, 음성에 대응하는 텍스트에 대응하는 VOD 컨텐츠의 검색 결과를 제공하는 애플리케이션 등일 수 있다. 한편, 이와 같은 다른 애플리케이션이 실행되기 전에, 프로세서(120)는 "현재 화면에서 ○○○와 일치되는 결과가 없습니다. 인터넷에서 ○○○를 검색하시겠습니까?"와 같은 사용자의 동의를 받기 위한 UI를 표시할 수 있고, UI에서 사용자 동의가 입력되고 나서 인터넷 검색 애플리케이션 등을 실행하여 검색 결과를 제공할 수 있다.For example, if the currently running application is a web browsing application and a voice uttered by the user does not match an object in a web page displayed by the web browsing application, the
디스플레이장치(100)는 서버(300)로부터 수신된 음성 인식 결과를 처리하는 음성처리부와 디스플레이장치(100)에 설치된 애플리케이션을 실행하는 애플리케이션부를 포함할 수 있다. 음성처리부는 서버(300)로부터 수신된 음성 인식 결과를 애플리케이션부에 제공한다. 애플리케이션부의 제1 애플리케이션이 실행되어 제1 애플리케이션의 화면이 디스플레이(110)에 표시되어 있는 동안 상기 인식 결과를 제공받은 경우, 제1 애플리케이션은 음성처리부로부터 제공받은 음성 인식 결과를 기초로 앞서 설명한 동작을 수행할 수 있다. 예컨대, 음성 인식 결과에 포함된 숫자에 해당하는 텍스트 또는 이미지 객체 탐색, 음성 인식 결과에 포함된 단어에 해당하는 텍스트 객체 탐색, 음성 인식 결과에 "검색"이 포함된 경우 검색창에 키워드 입력 후 검색을 실행하는 등과 같은 동작을 수행할 수 있다. 만약 제1 애플리케이션이 음성처리부로부터 제공받은 음성 인식 결과를 이용하여 수행할 동작이 없는 경우, 즉 예컨대 음성 인식 결과에 해당하는 텍스트 또는 이미지 객체가 없거나, 검색창이 없는 경우, 제1 애플리케이션은 음성처리부에 이를 통지하고, 음성처리부는 음성 인식 결과와 관련한 동작을 수행할 수 있는 제2 애플리케이션을 실행하도록 애플리케이션부를 제어할 수 있다. 예컨대, 제2 애플리케이션은 특정 검색어에 대한 검색 결과를 제공하는 애플리케이션이다. 애플리케이션부는 제2 애플리케이션을 실행하여 음성인식결과에 포함된 텍스트를 검색어로 이용한 검색 결과를 제공할 수 있다.The
도 10은 디스플레이장치(100)가 TV로 구현된 경우의 구성을 도시한 블럭도이다. 도 10을 설명함에 있어서 도 4에서 설명한 구성과 중복되는 구성에 대한 설명은 생략한다.FIG. 10 is a block diagram showing the configuration of a
도 10을 참고하면, 디스플레이장치(100)는 예를 들어 아날로그 TV, 디지털 TV, 3D-TV, 스마트 TV, LED TV, OLED TV, 플라즈마 TV, 모니터, 고정 곡률(curvature)인 화면을 가지는 커브드(curved) TV, 고정 곡률인 화면을 가지는 플렉시블(flexible) TV, 고정 곡률인 화면을 가지는 벤디드(bended) TV, 및/또는 수신되는 사용자 입력에 의해 현재 화면의 곡률을 변경 가능한 곡률 가변형 TV 등으로 구현될 수 있으나, 이에 한정되지 않는다. Referring to FIG. 10 , the
디스플레이 장치(100)는 디스플레이(110), 프로세서(120), 튜너(130), 통신부(140), 마이크(150), 입/출력부(160), 오디오 출력부(170), 저장부(180)를 포함한다. The
튜너(130)는 유선 또는 무선으로 수신되는 방송 신호를 증폭(amplification), 혼합(mixing), 공진(resonance) 등을 통하여 많은 전파 성분 중에서 디스플레이 장치(100)에서 수신하고자 하는 채널의 주파수만을 튜닝(tuning)시켜 선택할 수 있다. 방송 신호는 비디오(video), 오디오(audio) 및 부가 데이터(예를 들어, EPG(Electronic Program Guide)를 포함할 수 있다.The
튜너(130)는 사용자 입력에 대응되는 채널 번호에 대응되는 주파수 대역에서 비디오, 오디오 및 데이터를 수신할 수 있다. The
튜너(130)는 지상파 방송, 케이블 방송, 또는, 위성 방송 등과 같이 다양한 소스에서부터 방송 신호를 수신할 수 있다. 튜너(130)는 다양한 소스에서부터 아날로그 방송 또는 디지털 방송 등과 같은 소스로부터 방송 신호를 수신할 수도 있다. The
튜너(130)는 디스플레이 장치(100)와 일체형(all-in-one)으로 구현되거나 또는 디스플레이 장치(100)와 전기적으로 연결되는 튜너 유닛을 가지는 별개의 장치(예를 들어, 셋톱박스(set-top box), 입/출력부(160)에 연결되는 튜너)로 구현될 수 있다.The
통신부(140)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부 기기와 통신을 수행하는 구성이다. 통신부(140)는 근거리 통신망(LAN: Local Area Network) 또는 인터넷망을 통해 외부 기기에 접속될 수 있고, 무선 통신(예를 들어, Z-wave, 4LoWPAN, RFID, LTE D2D, BLE, GPRS, Weightless, Edge Zigbee, ANT+, NFC, IrDA, DECT, WLAN, 블루투스, 와이파이, Wi-Fi Direct, GSM, UMTS, LTE, WiBRO 등의 무선 통신) 방식에 의해서 외부 기기에 접속될 수 있다. 통신부(140)는 와이파이칩(141), 블루투스 칩(142), NFC칩(143), 무선 통신 칩(144) 등과 같은 다양한 통신 칩을 포함한다. 와이파이 칩(141), 블루투스 칩(142), NFC 칩(143)은 각각 WiFi 방식, 블루투스 방식, NFC 방식으로 통신을 수행한다. 무선 통신 칩(174)은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다. 또한 통신부(140)는 외부장치(200)로부터 제어신호(예를 들어 IR 펄스)를 수신할 수 있는 광 수신부(145)를 포함한다. The
프로세서(120)는 통신부(140)를 통해 서버(300)로 음성신호와 언어정보(음성 인식의 기초가 되는 언어에 대한 정보)를 전송할 수 있고, 서버(300)가 상기 언어 정보에 대응하는 언어의 음성인식엔진을 이용하여 상기 음성신호에 대하여 수행한 음성 인식의 결과를 전송하면, 상기 음성 인식의 결과를 통신부(140)를 통해 수신할 수 있다.The
마이크(150)는 사용자가 발화한 음성을 수신할 수 있고, 수신된 음성에 대응하는 음성 신호를 생성할 수 있다. 마이크(150)는 디스플레이 장치(100)와 일체형으로 구현되거나 또는 분리될 수 있다. 분리된 마이크(150)는 디스플레이 장치(100)와 전기적으로 연결될 수 있다.The
디스플레이장치(100)에 마이크가 없는 경우, 디스플레이장치(100)는 외부장치(200)의 마이크를 통해 입력된 음성에 대응하는 음성신호를 통신부(140)를 통해 외부장치(200)로부터 수신할 수 있다. 통신부(140)는 와이파이, 블루투스 등의 통신 방식으로 외부장치(200)로부터 음성신호를 수신할 수 있다.When the
입/출력부(160)는 외부 장치와 연결되기 위한 구성이다. 입/출력부(160)는 HDMI 입력 포트(High-Definition Multimedia Interface port, 161), 컴포넌트 입력 잭(162), 및 USB 포트(163) 중 적어도 하나를 포함할 수 있다. 도시한 것 이외에도 입/출력부(180)는 RGB, DVI, HDMI, DP, 썬드볼트 등의 포트 중 적어도 하나를 포함할 수 있다.The input/
오디오 출력부(170)는 오디오를 출력하기 위한 구성으로서, 예컨대, 튜너(130)를 통해 수신된 방송 신호에 포함된 오디오, 또는 통신부(140), 입/출력부(160) 등을 통해 입력되는 오디오, 또는 저장부(180)에 저장된 오디오 파일에 포함된 오디오를 출력할 수 있다. 오디오 출력부(170)는 스피커(171) 및 헤드폰 출력 단자(172)를 포함할 수 있다. The
저장부(180)는 프로세서(120)의 제어에 의해 디스플레이 장치(100)를 구동하고 제어하기 위한 각종 애플리케이션 프로그램, 데이터, 소프트웨어 모듈을 포함할 수 있다. 예컨대, 저장부(180)는 인터넷망을 통해 수신된 웹 컨텐츠 데이터를 파싱하는 웹 파싱 모듈, JavaScript 모듈, 그래픽처리 모듈, 음성인식결과 처리모듈, 입력 처리 모듈을 포함할 수 있다. The
외부의 서버(300)가 아닌 디스플레이장치(100) 자체적으로 음성 인식을 수행하는 경우, 저장부(180)에는 다양한 언어에 맞는 다양한 음성인식엔진을 포함하는 음성인식모듈이 저장되어 있을 수 있다.When voice recognition is performed by the
저장부(180)는 디스플레이(110)에서 제공되는 다양한 UI 화면을 구성하기 위한 데이터를 저장할 수 있다. 또한, 저장부(180)는 다양한 사용자 인터렉션에 대응되는 제어 신호를 생성하기 위한 데이터를 저장할 수 있다.The
저장부(180)는 비휘발성 메모리, 휘발성 메모리, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다. 한편, 저장부(180)는 디스플레이 장치(100) 내의 저장 매체뿐만 아니라, 외부 저장 매체, 예를 들어, micro SD 카드, USB 메모리 또는 네트워크를 통한 웹 서버(Web server) 등으로 구현될 수 있다.The
프로세서(120)는 디스플레이 장치(100)의 전반적인 동작 및 디스플레이 장치(100)의 내부 구성요소들 사이의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다. The
프로세서(120)는 RAM(121), ROM(122), CPU(123) 및 버스(124)를 포함한다. RAM(121), ROM(122), CPU(123) 등은 버스(124)를 통해 서로 연결될 수 있다. 프로세서(120)는 SoC(System On Chip)로 구현될 수 있다.
CPU(123)는 저장부(180)에 액세스하여, 저장부(180)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고 저장부(180)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.The
ROM(122)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴 온 명령이 입력되어 전원이 공급되면, CPU(123)는 ROM(122)에 저장된 명령어에 따라 저장부(180)에 저장된 O/S를 RAM(121)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, CPU(123)는 저장부(180)에 저장된 각종 애플리케이션 프로그램을을 RAM(121)에 복사하고, RAM(121)에 복사된 애플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.The
프로세서(120)는 저장부(180)에 저장된 모듈을 이용하여 다양한 동작을 수행할 수 있다. 예를 들어, 프로세서(120)는 인터넷망을 통해 수신한 웹 컨텐츠 데이터를 파싱하고 처리하여 해당 컨텐츠의 전체적인 레이아웃(layout)과 각 객체를 디스플레이(110)에 표시할 수 있다.The
프로세서(120)는 음성 인식 기능이 활성화 되면, 웹 컨텐츠의 객체들을 분석하여 음성으로 컨트롤 될 수 있는 객체를 찾아서 객체의 위치, 객체에 관련된 동작, 객체 내 텍스트 포함 여부 등의 정보에 대한 전 처리를 수행하여 전처리 수행 결과를 저장부(180)에 저장할 수 있다.When the voice recognition function is activated, the
그리고 프로세서(120)는 전 처리된 객체 정보에 기초하여, 음성으로 컨트롤 가능한(선택 가능한) 객체들이 식별되게 표시되도록 디스플레이(110)를 제어할 수 있다. 예를 들어, 프로세서(120)는 음성으로 컨트롤이 가능한 객체들의 색상을 다른 객체들과 다르게 표시하도록 디스플레이(110)를 제어할 수 있다. Further, the
그리고 프로세서(120)는 마이크(150)로 입력된 음성을 음성인식엔진을 이용해서 텍스트로 인식할 수 있다. 이 경우, 프로세서(120)는 기결정된 언어(음성 인식의 기초가될 언어로서 설정된 언어)의 음성인식엔진을 이용한다. 또는, 프로세서(120)는 음성 신호와 음성 인식의 기초가 되는 언어에 대한 정보를 서버(300)로 보내어 서버(300)로부터 음성인식결과로서 텍스트를 수신하는 것도 가능하다.The
그리고 프로세서(120)는 전 처리된 객체들 중에서 음성 인식 결과에 대응하는 객체를 검색하고, 검색된 객체의 위치에 객체가 선택되었음을 표시할 수 있다. 예를 들어, 프로세서(120)는 음성에 의해 선택된 객체를 하이라이트하도록 디스플레이(110)를 제어할 수 있다. 그리고 프로세서(120)는 전 처리된 객체 정보를 기초로, 음성 인식 결과에 대응하는 객체에 관련된 동작을 수행하여 그 결과를 디스플레이(110) 또는 오디오 출력부(170)를 통해 출력할 수 있다.Also, the
도 11은 본 개시의 일 실시 예에 따른 디스플레이장치(100)의 제어방법을 설명하기 위한 흐름도이다. 도 11에 도시된 흐름도는 본 명세서에서 설명되는 디스플레이장치(100)에서 처리되는 동작들로 구성될 수 있다. 따라서, 이하에서 생략된 내용이라 하더라도 디스플레이장치(100)에 관하여 기술된 내용은 도 11에 도시된 흐름도에도 적용될 수 있다.11 is a flowchart for explaining a control method of the
도 11을 참고하면, 먼저 디스플레이장치(100)에서 복수의 텍스트 객체를 포함하는 UI 스크린을 표시한다(S1110).Referring to FIG. 11 , the
그리고 디스플레이장치에 표시된 복수의 텍스트 객체 중 기결정된 언어와 상이한 텍스트 객체에 대해서는 기설정된 숫자를 함께 표시한다(S1120). 여기서 기결정된 언어란, 음성인식의 기초가 되는 언어로서 미리 결정된 것을 의미한다. 음성인식의 기초가 될 언어는 디폴트 언어로 설정된 언어이거나, 사용자의 수동 설정에 의해 설정되거나, 디스플레이장치(100)에 표시된 객체들을 구성하는 언어에 기초하여 자동 설정될 수 있다. 자동 설정의 경우, 예컨대 디스플레이장치(100)에 표시된 객체들에 OCR(Optical character recognition)을 적용하여 객체를 구성하는 언어를 확인할 수 있다.Then, among the plurality of text objects displayed on the display device, text objects different from the predetermined language are displayed together with preset numbers (S1120). Here, the predetermined language means a predetermined language as a basis for voice recognition. The language to be the basis of voice recognition may be set as a default language, set manually by a user, or set automatically based on a language constituting objects displayed on the
그리고 사용자가 발화한 음성의 인식 결과가 표시된 숫자를 포함하면 표시된 숫자에 대응되는 텍스트 객체와 관련된 동작을 수행한다(S1130). Then, if the recognition result of the voice spoken by the user includes the displayed number, an operation related to the text object corresponding to the displayed number is performed (S1130).
사용자가 발화한 음성의 인식 결과는 디스플레이장치의 자체적인 음성 인식에 의해 얻을 수 있거나, 복수의 서로 다른 언어에 대한 음성 인식을 수행하는 외부 서버에 음성 인식을 요청해서 수신받을 수 있다. 후자의 경우, 디스플레이장치(100)는 사용자가 발화한 음성에 대응하는 음성 신호와 음성 인식의 기초가되는 언어로 설정된 언어에 대한 정보를 외부 서버에 제공하고, 외부 서버로부터 수신된 음성 인식 결과가 표시된 숫자를 포함하면, 표시된 숫자에 대응되는 텍스트 객체와 관련된 동작을 수행할 수 있다.The result of recognizing the voice spoken by the user can be obtained by the display device's own voice recognition, or can be received by requesting voice recognition from an external server that performs voice recognition for a plurality of different languages. In the latter case, the
예컨대, 텍스트 객체가 웹 페이지 내의 하이퍼링크텍스트인 경우, 텍스트 객체에 대응하는 URL 주소의 웹 페이지의 표시 동작을 수행할 수 있고, 텍스트 객체가 애플리케이션 실행을 위한 아이콘인 경우, 해당 애플리케이션을 실행할 수 있다.For example, if the text object is hyperlinked text in a web page, a web page displaying operation of a URL address corresponding to the text object may be performed, and if the text object is an icon for running an application, the corresponding application may be executed. .
한편, 상기 복수의 텍스트 객체를 포함하는 UI 스크린은 제1 애플리케이션의 실행 화면일 수 있다. 제1 애플리케이션의 실행 화면이란 제1 애플리케이션이 제공하는 어떠한 화면이라도 될 수 있다. 제1 애플리케이션의 실행 화면이 표시된 동안 사용자가 발화한 음성의 인식 결과에 대응하는 객체가 상기 제1 애플리케이션의 실행 화면에 없는 것으로 판단되면, 디스플레이장치는 상기 제1 애플리케이션과는 다른 제2 애플리케이션을 실행하여 상기 음성의 인식 결과에 대응하는 동작을 수행할 수 있다. 여기서 제1 애플리케이션은 웹브라우징 애플리케이션일 수 있고, 제2 애플리케이션은 다양한 소스, 예컨대 인터넷, 디스플레이장치 내 저장된 데이터, VOD 컨텐츠, 채널 정보(ex. EPG) 등에서 검색을 수행하는 애플리케이션일 수 있다. 예컨대, 현재 표시된 웹 페이지에서 음성 인식에 대응하는 객체가 없는 경우, 디스플레이장치는 다른 애플리케이션을 실행해서 음성 인식에 대응하는 검색 결과(예컨대, 구글 검색 결과, VOD 검색 결과, 채널 검색 결과 등)를 제공할 수 있다. Meanwhile, the UI screen including the plurality of text objects may be an execution screen of the first application. The execution screen of the first application may be any screen provided by the first application. If it is determined that the object corresponding to the recognition result of the voice spoken by the user while the running screen of the first application is displayed is not on the running screen of the first application, the display device executes a second application different from the first application. Thus, an operation corresponding to the result of recognizing the voice may be performed. Here, the first application may be a web browsing application, and the second application may be an application that searches various sources, such as the Internet, data stored in a display device, VOD content, channel information (eg EPG), and the like. For example, if there is no object corresponding to voice recognition in the currently displayed web page, the display device executes another application to provide search results (eg, Google search results, VOD search results, channel search results, etc.) corresponding to voice recognition. can do.
상술한 다양한 실시 예들에 따르면, 다양한 언어로 구성된 객체들에 대한 음성 컨트롤이 가능하며, 또한, 음성 검색을 보다 용이하게 할 수 있다.According to various embodiments described above, voice control for objects configured in various languages is possible, and voice search can be more easily performed.
한편, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합된 것을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 하드웨어적인 구현에 의하면, 본 개시에서 설명되는 실시 예들은 ASICs(Application Specific Integrated Circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛(unit) 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시 예들이 프로세서(120) 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다.Meanwhile, various embodiments described above may be implemented in a recording medium readable by a computer or a similar device using software, hardware, or a combination thereof. According to the hardware implementation, the embodiments described in this disclosure are application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), and field programmable gate arrays (FPGAs). ), processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions. In some cases, the embodiments described herein may be implemented by the
한편, 상술한 본 개시의 다양한 실시 예들에 따른 디스플레이장치(100)에서의 처리동작을 수행하기 위한 컴퓨터 명령어(computer instructions)는 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium) 에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어는 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 디스플레이장치(100)에서의 처리 동작을 상기 특정 기기가 수행하도록 한다. Meanwhile, computer instructions for performing processing operations in the
비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.A non-transitory computer readable medium is a medium that stores data semi-permanently and is readable by a device, not a medium that stores data for a short moment, such as a register, cache, or memory. Specific examples of the non-transitory computer readable media may include CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.Although the preferred embodiments of the present disclosure have been shown and described above, the present disclosure is not limited to the specific embodiments described above, and is common in the technical field belonging to the present disclosure without departing from the gist of the present disclosure claimed in the claims. Of course, various modifications and implementations are possible by those with knowledge of, and these modifications should not be individually understood from the technical spirit or perspective of the present disclosure.
100: 디스플레이장치
110: 디스플레이
120: 프로세서100: display device
110: display
120: processor
Claims (21)
디스플레이; 및
복수의 텍스트 객체를 포함하는 UI 스크린을 표시하도록 상기 디스플레이를 제어하고,
상기 복수의 텍스트 객체 중에서 음성 인식의 기초가 되는 제1 언어의 텍스트를 포함하는 제1 텍스트 객체 및 상기 제1 언어와 상이한 제2 언어의 텍스트를 포함하는 제2 텍스트 객체를 식별하고,
상기 복수의 텍스트 객체 중 상기 제2 텍스트 객체에 대해서는 상기 제2 텍스트 객체에 인접하게 기 설정된 숫자를 표시하도록 상기 디스플레이를 제어하고,
사용자가 발화한 음성에 대한 상기 음성 인식의 결과가 상기 기 설정된 숫자를 포함하면 상기 제2 텍스트 객체와 관련된 동작을 수행하는 프로세서;를 포함하는 디스플레이 장치. In the display device,
display; and
Control the display to display a UI screen including a plurality of text objects;
Identifying a first text object including text in a first language, which is a basis for voice recognition, and a second text object including text in a second language different from the first language, among the plurality of text objects;
For the second text object among the plurality of text objects, control the display to display a preset number adjacent to the second text object;
and a processor configured to perform an operation related to the second text object when a result of the voice recognition for the voice spoken by the user includes the preset number.
상기 UI 스크린은 웹 페이지이며,
상기 프로세서는,
상기 웹 페이지의 언어 정보에 대응되는 언어를 상기 제1 언어로 설정하는 디스플레이 장치. According to claim 1,
The UI screen is a web page,
the processor,
A display device configured to set a language corresponding to the language information of the web page as the first language.
상기 프로세서는,
상기 복수의 텍스트 객체 중 2 이상의 언어로 구성된 텍스트 객체에 대해선, 상기 제1 언어의 포함 비율이 기설정된 비율 미만인 경우 상기 제2 텍스트 객체인 것으로 판단하는 디스플레이 장치.According to claim 1,
the processor,
A display device that determines that a text object composed of two or more languages among the plurality of text objects is the second text object when the content ratio of the first language is less than a preset ratio.
외부 장치와 통신을 수행하는 통신부;를 더 포함하고,
상기 프로세서는,
상기 외부 장치의 특정 버튼의 선택에 대응하는 신호가 수신되는 동안 상기 기 설정된 숫자를 표시하도록 상기 디스플레이를 제어하는 디스플레이 장치.According to claim 1,
It further includes; a communication unit that performs communication with an external device;
the processor,
A display device that controls the display to display the preset number while receiving a signal corresponding to selection of a specific button of the external device.
상기 외부 장치는 마이크를 포함하며,
상기 통신부는,
상기 외부 장치의 마이크를 통해 입력된 음성에 대응하는 음성 신호를 수신하고,
상기 프로세서는,
상기 수신된 음성 신호에 대한 상기 음성 인식의 결과가 상기 기 설정된 숫자를 포함하면 상기 제2 텍스트 객체와 관련된 동작을 수행하는 디스플레이 장치.According to claim 6,
The external device includes a microphone,
The communication department,
Receiving a voice signal corresponding to a voice input through a microphone of the external device;
the processor,
and performing an operation related to the second text object when a result of the voice recognition for the received voice signal includes the preset number.
상기 프로세서는,
상기 수신된 음성 신호에 대한 상기 음성 인식의 결과가 상기 제1 텍스트 객체에 대응되면, 상기 제1 텍스트 객체와 관련된 동작을 수행하는 디스플레이 장치.According to claim 7,
the processor,
and performing an operation related to the first text object when a result of the voice recognition for the received voice signal corresponds to the first text object.
상기 제2 텍스트 객체와 관련된 동작은,
상기 제2 텍스트 객체에 대응하는 URL 주소의 웹 페이지의 표시 동작 또는 상기 제2 텍스트 객체에 대응하는 애플리케이션 프로그램 실행 동작인 디스플레이 장치.According to claim 1,
The operation related to the second text object,
Displaying a web page of a URL address corresponding to the second text object or executing an application program corresponding to the second text object.
상기 복수의 텍스트 객체는 제1 애플리케이션의 실행 화면에 포함된 것이며,
상기 프로세서는,
상기 제1 애플리케이션의 실행 화면이 표시된 동안 사용자가 발화한 음성에 대한 상기 음성 인식의 결과에 대응하는 객체가 상기 제1 애플리케이션의 실행 화면에 없는 것으로 판단되면, 상기 제1 애플리케이션과는 다른 제2 애플리케이션을 실행하여 상기 음성 인식의 결과에 대응하는 동작을 수행하는 디스플레이 장치.According to claim 1,
The plurality of text objects are included in the execution screen of the first application,
the processor,
If it is determined that the object corresponding to the result of the voice recognition for the voice uttered by the user while the running screen of the first application is displayed is not on the running screen of the first application, a second application different from the first application A display device that executes an operation corresponding to a result of the voice recognition.
상기 제2 애플리케이션은 검색어에 대한 검색 결과를 제공하는 애플리케이션이고,
상기 프로세서는,
상기 제1 애플리케이션의 실행 화면이 표시된 동안 사용자가 발화한 음성에 대한 상기 음성 인식의 결과에 대응하는 객체가 상기 제1 애플리케이션의 실행 화면에 없는 것으로 판단되면, 상기 제2 애플리케이션을 실행하여 상기 음성 인식의 결과에 대응하는 텍스트를 검색어로 한 검색 결과를 제공하는 디스플레이 장치.According to claim 10,
The second application is an application that provides search results for a search term,
the processor,
When it is determined that the object corresponding to the result of the voice recognition for the voice uttered by the user while the running screen of the first application is displayed is not on the running screen of the first application, the second application is executed to recognize the voice. A display device that provides a search result using text corresponding to the result as a search term.
복수의 서로 다른 언어에 대한 음성 인식을 수행하는 서버와 통신하는 통신부;를 더 포함하고,
상기 프로세서는,
상기 사용자가 발화한 음성에 대응하는 음성 신호와 상기 제1 언어에 대한 정보를 상기 서버에 제공하도록 상기 통신부를 제어하고, 상기 서버로부터 수신된 음성 인식의 결과가 상기 기 설정된 숫자를 포함하면 상기 기 설정된 숫자에 대응되는 상기 제2 텍스트 객체와 관련된 동작을 수행하는 디스플레이 장치.According to claim 1,
A communication unit configured to communicate with a server that performs voice recognition for a plurality of different languages; further comprising;
the processor,
Controls the communication unit to provide a voice signal corresponding to a voice spoken by the user and information on the first language to the server, and when a result of voice recognition received from the server includes the preset number, the device A display device that performs an operation related to the second text object corresponding to the set number.
상기 프로세서는,
상기 서버로부터 수신된 음성 인식의 결과가 상기 제1 텍스트 객체에 대응되면, 상기 제1 텍스트 객체와 관련된 동작을 수행하는, 디스플레이 장치.According to claim 12,
the processor,
When a result of voice recognition received from the server corresponds to the first text object, performing an operation related to the first text object.
복수의 텍스트 객체를 포함하는 UI 스크린을 표시하는 단계;
상기 복수의 텍스트 객체 중에서 음성 인식의 기초가 되는 제1 언어의 텍스트를 포함하는 제1 텍스트 객체 및 상기 제1 언어와 상이한 제2 언어의 텍스트를 포함하는 제2 텍스트 객체를 식별하는 단계;
상기 복수의 텍스트 객체 중 상기 제2 텍스트 객체에 대해서는 상기 제2 텍스트 객체에 인접하게 기 설정된 숫자를 표시하는 단계; 및
사용자가 발화한 음성에 대한 상기 음성 인식의 결과가 상기 기 설정된 숫자를 포함하면 상기 제2 텍스트 객체와 관련된 동작을 수행하는 단계;를 포함하는 디스플레이 장치의 제어방법.In the control method of the display device,
displaying a UI screen including a plurality of text objects;
identifying a first text object including text in a first language, which is a basis for voice recognition, and a second text object including text in a second language different from the first language, among the plurality of text objects;
displaying a predetermined number adjacent to the second text object among the plurality of text objects; and
and performing an operation related to the second text object when a result of the voice recognition for the voice spoken by the user includes the preset number.
상기 UI 스크린은 웹 페이지이며,
상기 디스플레이 장치의 제어방법은,
상기 웹 페이지의 언어 정보에 대응되는 언어를 상기 제1 언어로 설정하는 단계;를 더 포함하는 디스플레이 장치의 제어방법.According to claim 14,
The UI screen is a web page,
The control method of the display device,
The method of controlling a display device further comprising setting a language corresponding to the language information of the web page as the first language.
상기 복수의 텍스트 객체 중 2 이상의 언어로 구성된 텍스트 객체에 대해선, 상기 제1 언어의 포함 비율이 기설정된 비율 미만인 경우 상기 제2 텍스트 객체인 것으로 판단하는 단계;를 더 포함하는 디스플레이 장치의 제어방법.According to claim 14,
For a text object composed of two or more languages among the plurality of text objects, determining that the second text object is the second text object when the content rate of the first language is less than a preset rate; Control method of a display device further comprising.
상기 기설정된 숫자를 표시하는 단계는,
외부 장치로부터 상기 외부 장치의 특정 버튼의 선택에 대응하는 신호가 수신되는 동안 상기 기 설정된 숫자를 표시하는 디스플레이 장치의 제어방법.According to claim 14,
In the step of displaying the preset number,
A control method of a display device displaying the preset number while receiving a signal corresponding to selection of a specific button of the external device from an external device.
상기 디스플레이 장치의 제어방법은,
복수의 텍스트 객체를 표시도록 상기 디스플레이 장치를 제어하는 단계;
상기 복수의 텍스트 객체 중에서 음성 인식의 기초가 되는 제1 언어의 텍스트를 포함하는 제1 텍스트 객체 및 상기 제1 언어와 상이한 제2 언어의 텍스트를 포함하는 제2 텍스트 객체를 식별하는 단계;
상기 복수의 텍스트 객체 중 상기 제2 텍스트 객체에 대해서는 상기 제2 텍스트 객체에 인접하게 기 설정된 숫자를 표시하도록 상기 디스플레이 장치를 제어하는 단계; 및
사용자가 발화한 음성에 대한 상기 음성 인식의 결과가 상기 기 설정된 숫자를 포함하면 상기 제2 텍스트 객체와 관련된 동작을 수행하는 단계;를 포함하는 기록매체.A computer-readable recording medium storing a program for executing a control method of a display device,
The control method of the display device,
controlling the display device to display a plurality of text objects;
identifying a first text object including text in a first language, which is a basis for voice recognition, and a second text object including text in a second language different from the first language, among the plurality of text objects;
controlling the display device to display a predetermined number adjacent to the second text object among the plurality of text objects; and
and performing an operation related to the second text object when a result of the voice recognition for the voice uttered by the user includes the preset number.
상기 프로세서는,
상기 복수의 텍스트 객체 중 상기 제1 텍스트 객체에 대해서는 상기 제1 텍스트 객체가 음성 인식이 가능함을 알리는 아이콘이 함께 표시되도록 상기 디스플레이를 제어하는 디스플레이 장치.According to claim 1,
the processor,
A display device for controlling the display so that an icon indicating that the first text object is capable of voice recognition is displayed together with respect to the first text object among the plurality of text objects.
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18169943.0A EP3401797A1 (en) | 2017-05-12 | 2018-04-27 | Speech navigation for multilingual web pages |
US15/974,133 US10802851B2 (en) | 2017-05-12 | 2018-05-08 | Display apparatus and controlling method thereof |
CN202310065267.8A CN116072115A (en) | 2017-05-12 | 2018-05-11 | Display apparatus and control method thereof |
CN201810467513.1A CN108899019B (en) | 2017-05-12 | 2018-05-11 | Display apparatus and control method thereof |
US17/010,614 US11726806B2 (en) | 2017-05-12 | 2020-09-02 | Display apparatus and controlling method thereof |
KR1020230051018A KR20230058034A (en) | 2017-05-12 | 2023-04-18 | Display apparatus and controlling method thereof |
US18/347,391 US20230350707A1 (en) | 2017-05-12 | 2023-07-05 | Display apparatus and controlling method thereof |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762505363P | 2017-05-12 | 2017-05-12 | |
US62/505,363 | 2017-05-12 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230051018A Division KR20230058034A (en) | 2017-05-12 | 2023-04-18 | Display apparatus and controlling method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180124682A KR20180124682A (en) | 2018-11-21 |
KR102524675B1 true KR102524675B1 (en) | 2023-04-21 |
Family
ID=64602383
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170091494A KR102524675B1 (en) | 2017-05-12 | 2017-07-19 | Display apparatus and controlling method thereof |
KR1020230113974A KR20230130589A (en) | 2017-05-12 | 2023-08-29 | Display apparatus and controlling method thereof |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230113974A KR20230130589A (en) | 2017-05-12 | 2023-08-29 | Display apparatus and controlling method thereof |
Country Status (1)
Country | Link |
---|---|
KR (2) | KR102524675B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112019007646T5 (en) * | 2019-09-19 | 2022-07-14 | Lg Electronics Inc. | ARTIFICIAL INTELLIGENCE DISPLAY AND SERVER |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101262700B1 (en) * | 2011-08-05 | 2013-05-08 | 삼성전자주식회사 | Method for Controlling Electronic Apparatus based on Voice Recognition and Motion Recognition, and Electric Apparatus thereof |
US9002699B2 (en) * | 2011-11-14 | 2015-04-07 | Microsoft Technology Licensing, Llc | Adaptive input language switching |
KR20140100315A (en) * | 2013-02-06 | 2014-08-14 | 엘지전자 주식회사 | Mobile terminal and control method thereof |
-
2017
- 2017-07-19 KR KR1020170091494A patent/KR102524675B1/en active IP Right Grant
-
2023
- 2023-08-29 KR KR1020230113974A patent/KR20230130589A/en not_active Application Discontinuation
Also Published As
Publication number | Publication date |
---|---|
KR20230130589A (en) | 2023-09-12 |
KR20180124682A (en) | 2018-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11082737B2 (en) | Display device, display system and method for controlling display device | |
US11032601B2 (en) | Electronic apparatus and controlling method thereof | |
US11100919B2 (en) | Information processing device, information processing method, and program | |
US11726806B2 (en) | Display apparatus and controlling method thereof | |
CN110402583B (en) | Image display apparatus and method of operating the same | |
US11961506B2 (en) | Electronic apparatus and controlling method thereof | |
EP2835730A1 (en) | Display apparatus and the method thereof | |
US20160119685A1 (en) | Display method and display device | |
KR20230130589A (en) | Display apparatus and controlling method thereof | |
US11462214B2 (en) | Electronic apparatus and control method thereof | |
KR20140141026A (en) | display apparatus and search result displaying method thereof | |
KR20230058034A (en) | Display apparatus and controlling method thereof | |
US20200252499A1 (en) | Electronic apparatus and control method thereof | |
KR102452644B1 (en) | Electronic apparatus, voice recognition method and storage medium | |
KR20230018704A (en) | Electronic apparatus and method of controlling the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |