KR20230024712A - Display apparatus and method for searching in consideration of utterance intent - Google Patents

Display apparatus and method for searching in consideration of utterance intent Download PDF

Info

Publication number
KR20230024712A
KR20230024712A KR1020210106799A KR20210106799A KR20230024712A KR 20230024712 A KR20230024712 A KR 20230024712A KR 1020210106799 A KR1020210106799 A KR 1020210106799A KR 20210106799 A KR20210106799 A KR 20210106799A KR 20230024712 A KR20230024712 A KR 20230024712A
Authority
KR
South Korea
Prior art keywords
content
information
app
extracted
searching
Prior art date
Application number
KR1020210106799A
Other languages
Korean (ko)
Inventor
서승기
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020210106799A priority Critical patent/KR20230024712A/en
Publication of KR20230024712A publication Critical patent/KR20230024712A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9038Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/448Execution paradigms, e.g. implementations of programming paradigms
    • G06F9/4482Procedural
    • G06F9/4484Executing subprograms
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/54Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval

Abstract

Disclosed are a display device and method for performing a search in consideration of utterance intention. The disclosed display device searches content in consideration of the utterance intention of a user with information extracted from content information being executed and a voice command, or searches content in consideration of the utterance intention of the user with information extracted from broadcast information and the voice command of broadcasts currently being output.

Description

발화 의도를 고려하여 검색하는 디스플레이 장치 및 방법{DISPLAY APPARATUS AND METHOD FOR SEARCHING IN CONSIDERATION OF UTTERANCE INTENT}Display device and method for searching in consideration of utterance intention

발화 의도를 고려하여 컨텐츠를 검색하는 디스플레이 장치 및 방법에 관한 것이다.It relates to a display device and method for searching for content in consideration of speech intention.

검색이라는 기능은 방대한 양의 데이터를 탐색하기 위해서는 반드시 제공되어야 하는 기능이며, 사용자 역시 컨텐츠를 제공하는 서비스에서 반드시 있을 것이라 생각하고 사용하는 핵심 기능이다.The search function is a function that must be provided in order to search for a vast amount of data, and is a key function that users also use thinking that it must exist in a service that provides content.

검색에 대한 기술은 콘텐츠에 대한 색인, 프로그레시브(Progressive) 검색 기능, 유사도, 관련도 등등 다양한 방법을 활용하며 발전해 왔다. 음성 검색 또한 딥 러닝(Deep Learning) 기법 중 LSTM(Long Short-Term Memory) 등의 기법이 활용되어 더욱 정확한 STT(Speech-To-Text) 기법이 도입되면서 많은 발전이 있어 왔다.Search technology has been developed by utilizing various methods such as content index, progressive search function, similarity, and relevance. Speech search has also made great progress with the introduction of a more accurate speech-to-text (STT) technique by utilizing techniques such as LSTM (Long Short-Term Memory) among deep learning techniques.

음성을 통해 검색을 하는 경우 키보드 검색과는 다른 검색 임에도 불구하고, 그동안은 분석된 키워드를 단순히 전달하여 검색하곤 했다. 즉, 사용자의 발화 의도를 고려하지 않고, 단순히 사용자가 발화한 음성 명령에 포함된 단어들을 검색하는 형태여서 발전의 여지가 있다.In the case of searching through voice, although it is a different search than keyboard search, it has been searched by simply passing the analyzed keywords. That is, since it is a form of simply searching for words included in a voice command uttered by a user without considering the user's utterance intention, there is room for development.

본 문서에 개시되는 다양한 실시예에 따르면, 실행되고 있는 컨텐츠 정보와 음성 명령에서 추출한 정보로 사용자의 발화의도를 고려해서 컨텐츠를 검색할 수 있다.According to various embodiments disclosed in this document, content may be searched in consideration of a user's utterance intention using content information being executed and information extracted from a voice command.

또한, 다양한 실시예에 따르면, 출력 중인 방송의 방송 정보와 음성 명령에서 추출한 정보로 사용자의 발화의도를 고려해서 컨텐츠를 검색할 수 있다.Further, according to various embodiments, content may be searched in consideration of a user's speech intention using information extracted from broadcast information of a broadcast currently being output and a voice command.

일 실시예에 따른 발화 의도를 고려한 검색 방법은, 음성 명령을 수신하는 동작; 컨텐츠 앱 리스트에 포함된 컨텐츠 앱이 실행 상태인지 확인하는 동작; 상기 음성 명령에서 실행할 컨텐츠 앱, 타이틀, 기간, 컨텐츠 유형 및 액션에 관한 정보 중에서 적어도 하나를 추출하는 동작; 상기 컨텐츠 앱 리스트에 포함된 컨텐츠 앱이 실행 상태이면, 실행 중인 컨텐츠 앱에 관한 정보를 확인하는 동작; 및 실행 중인 컨텐츠 앱에 관한 정보와 상기 음성 명령에서 추출된 정보를 조합해서 컨텐츠를 검색하는 동작을 포함한다.A search method considering an utterance intention according to an embodiment includes receiving a voice command; checking whether a content app included in the content app list is in an running state; extracting at least one of information about a content app, title, period, content type, and action to be executed in the voice command; if the content app included in the content app list is in an running state, checking information about the running content app; and an operation of searching for content by combining information about the running content app and information extracted from the voice command.

일 실시예에 따른 발화 의도를 고려하여 검색하는 디스플레이 장치는, 음성 명령을 수신하는 마이크; 및 컨텐츠 앱 리스트에 포함된 컨텐츠 앱이 실행 상태인지 확인하고, 상기 음성 명령에서 실행할 컨텐츠 앱, 타이틀, 기간, 컨텐츠 유형 및 액션에 관한 정보 중에서 적어도 하나를 추출하고, 상기 컨텐츠 앱 리스트에 포함된 컨텐츠 앱이 실행 상태이면, 실행 중인 컨텐츠 앱에 관한 정보를 확인하고, 실행 중인 컨텐츠 앱에 관한 정보와 상기 음성 명령에서 추출된 정보를 조합해서 컨텐츠를 검색하는 프로세서를 포함한다.According to an exemplary embodiment, a display apparatus performing a search in consideration of an utterance intention includes a microphone for receiving a voice command; and checking whether a content app included in the content app list is in an running state, extracting at least one of information about a content app to be executed by the voice command, a title, a period, a content type, and an action, and extracting at least one of information about the content app included in the content app list. and a processor that checks information about the running content app when the app is running, and searches for content by combining information about the running content app with information extracted from the voice command.

일 실시예에 따른 발화 의도를 고려하여 검색하는 시스템은, 음성에서 실행할 컨텐츠 앱, 타이틀, 기간, 컨텐츠 유형 및 액션에 관한 정보 중에서 적어도 하나를 추출하는 음성 검색 서버; 컨텐츠 앱에 대응하는 컨텐츠 제공 서버 각각에서 제공하는 컨텐츠 정보를 수집하여 컨텐츠 데이터베이스로 저장하여 관리하는 컨텐츠 검색 서버; 및 음성 명령을 수신하면 상기 음성 명령을 상기 음성 검색 서버로 송신하여 추출된 정보를 수신하고, 컨텐츠 앱 리스트에 포함된 컨텐츠 앱이 실행 상태인지 확인하고, 상기 컨텐츠 앱 리스트에 포함된 컨텐츠 앱이 실행 상태이면, 실행 중인 컨텐츠 앱에 관한 정보를 확인하고, 실행 중인 컨텐츠 앱에 관한 정보와 상기 음성 명령에서 추출된 정보를 조합해서 상기 컨텐츠 검색 서버를 통해서 컨텐츠를 검색하는 디스플레이 장치를 포함한다.According to an embodiment, a search system in consideration of speech intention includes a voice search server that extracts at least one of information about a content app to be executed from voice, a title, a period, a content type, and an action; A content search server that collects content information provided by each content providing server corresponding to the content app, stores it in a content database, and manages the content information; and when receiving a voice command, transmits the voice command to the voice search server to receive extracted information, checks whether a content app included in the content app list is running, and executes the content app included in the content app list. state, a display device that checks information about the running content app and searches content through the content search server by combining the information about the running content app and the information extracted from the voice command.

다양한 실시예에 따르면, 실행되고 있는 컨텐츠 정보와 음성 명령에서 추출한 정보를 조합해서 컨텐츠를 검색하거나 또는 출력 중인 방송의 방송 정보와 음성 명령에서 추출한 정보를 조합해서 컨텐츠를 검색함으로써, 사용자의 발화 의도를 고려한 검색을 제공할 수 있다.According to various embodiments, the user's utterance intention can be detected by searching for content by combining information extracted from content information being executed and information extracted from a voice command, or by searching content by combining broadcast information of a broadcast being output and information extracted from a voice command. We can provide you with a search that takes into consideration.

도 1은 일 실시예에 따라서 발화 의도를 고려하여 검색하는 디스플레이 시스템의 개략적인 구성을 도시한다.
도 2는 일 실시예에 따른 디스플레이 장치에서 발화 의도를 고려해서 컨텐츠를 검색하는 과정을 도시한다.
도 3은 일 실시예에 따른 디스플레이 장치에서 실행 중인 컨텐츠 앱에 관한 정보와 음성 명령에서 추출된 정보를 조합해서 컨텐츠를 검색하는 과정을 도시한다.
도 4는 일 실시예에 따른 디스플레이 장치에서 방송 정보와 음성 명령에서 추출된 정보를 조합해서 컨텐츠를 검색하는 과정을 도시한다.
도 5는 일 실시예에 따른 디스플레이 장치에서 음성 명령에서 추출된 정보를 이용해서 컨텐츠를 검색하는 과정을 도시한다.
도 6은 일 실시 예에 따른 디스플레이 장치의 블록 구성도이다.
도 7은 일 실시 예에 따른 디스플레이 장치의 상세 블록 구성도이다.
1 illustrates a schematic configuration of a display system for searching in consideration of an utterance intention according to an exemplary embodiment.
2 illustrates a process of searching for content in consideration of an utterance intention in a display device according to an exemplary embodiment.
3 illustrates a process of searching for content by combining information about a content app running on a display device and information extracted from a voice command according to an embodiment.
4 illustrates a process of searching for content by combining broadcasting information and information extracted from a voice command in a display device according to an exemplary embodiment.
5 illustrates a process of searching for content using information extracted from a voice command in a display device according to an exemplary embodiment.
6 is a block configuration diagram of a display device according to an exemplary embodiment.
7 is a detailed block configuration diagram of a display device according to an exemplary embodiment.

이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. In the description with reference to the accompanying drawings, the same reference numerals are given to the same components regardless of reference numerals, and overlapping descriptions thereof will be omitted.

이하에서는, 본 문서의 일 실시 예에 따른 발화 의도를 고려하여 검색하는 디스플레이 장치 및 방법을 첨부된 도 1 내지 도 7을 참조하여 상세히 설명한다.Hereinafter, according to an embodiment of this document A display apparatus and method for searching in consideration of utterance intention will be described in detail with reference to FIGS. 1 to 7 attached.

도 1은 일 실시예에 따라서 발화 의도를 고려하여 검색하는 디스플레이 시스템의 개략적인 구성을 도시한다.1 illustrates a schematic configuration of a display system for searching in consideration of an utterance intention according to an exemplary embodiment.

도 1을 참조하면, 디스플레이 시스템은 디스플레이 장치(110), 음성 검색 서버(120) 및 컨텐츠 검색 서버(130)를 포함하여 구성될 수 있다.Referring to FIG. 1 , a display system may include a display device 110 , a voice search server 120 and a content search server 130 .

음성 검색 서버(120)는 디스플레이 장치(110)로부터 수신한 음성에서 실행할 컨텐츠 앱, 타이틀, 기간, 컨텐츠 유형 및 액션에 관한 정보 중에서 적어도 하나를 추출할 수 있다.The voice search server 120 may extract at least one of information about a content app to be executed, a title, a period, a content type, and an action from the voice received from the display device 110 .

컨텐츠 검색 서버(130)는 컨텐츠 앱에 대응하는 컨텐츠 제공 서버(131, 132, 139) 각각에서 제공하는 컨텐츠 정보를 수집하여 컨텐츠 데이터베이스로 저장하여 관리할 수 있다. 수집하는 컨텐츠 정보는 제공되는 컨텐츠 앱 정보, 타이틀, 최초 개시일, 컨텐츠 유형, 등장인물, 제작사, 감독자 등의 컨텐츠를 분류할 수 있는 정보가 포함될 수 있다.The content search server 130 may collect content information provided from each of the content providing servers 131 , 132 , and 139 corresponding to the content app, and store and manage the content information as a content database. Collected content information may include information capable of classifying content, such as provided content app information, title, initial start date, content type, character, production company, and supervisor.

디스플레이 장치(110)는 음성 명령을 수신하면 음성 명령을 음성 검색 서버(120)로 송신하여 추출된 정보를 수신하고, 컨텐츠 앱 리스트에 포함된 컨텐츠 앱이 실행 상태인지 확인하고, 컨텐츠 앱 리스트에 포함된 컨텐츠 앱이 실행 상태이면, 실행 중인 컨텐츠 앱에 관한 정보를 확인하고, 실행 중인 컨텐츠 앱에 관한 정보와 음성 명령에서 추출된 정보를 조합해서 컨텐츠 검색 서버(130)를 통해서 컨텐츠를 검색할 수 있다.When receiving a voice command, the display device 110 transmits the voice command to the voice search server 120 to receive extracted information, checks whether a content app included in the content app list is running, and includes it in the content app list. When the currently running content app is in an running state, information on the running content app may be checked, and content may be searched through the content search server 130 by combining information on the running content app with information extracted from a voice command. .

디스플레이 장치(110)는 실행 중인 컨텐츠 앱에 관한 정보와 음성 명령에서 추출된 정보를 조합해서 검색할 때, 실행 중인 컨텐츠 앱에 관한 정보와 음성 명령에서 추출된 정보 양쪽에 중복된 유형의 정보가 존재하면, 음성 명령에서 추출된 정보에 더 높은 가중치를 주어서 검색할 수 있다.When the display device 110 searches by combining the information about the running content app and the information extracted from the voice command, duplicate types of information exist in both the information about the running content app and the information extracted from the voice command. Then, it is possible to search by giving a higher weight to the information extracted from the voice command.

예를 들어, 디스플레이 장치(110)는 음성 명령에서 추출된 정보에 실행할 컨텐츠 앱에 관한 정보가 존재하면 실행할 컨텐츠 앱에서 가장 우선적으로 컨텐츠를 검색하고, 다음 우선 순위로 실행 중인 컨텐츠 앱에서 컨텐츠를 검색하고, 마지막으로 컨텐츠 앱 리스트에 포함된 다른 컨텐츠 앱에서 컨텐츠를 검색할 수 있다. 이때, 디스플레이 장치(110)는 컨텐츠 앱 리스트에 포함된 컨텐츠 앱에서 컨텐츠를 검색할 때에는 컨텐츠 앱 리스트에 포함된 컨텐츠 앱에 대한 실행 빈도 또는 사용자의 선호도를 고려하여 컨텐츠 앱의 우선순위를 결정하고, 결정된 우선순위에 따라서, 검색결과를 정렬하여 제공할 수도 있다.For example, if information about a content app to be executed exists in the information extracted from the voice command, the display device 110 searches for content in the content app to be executed with the highest priority, and then searches for content in the running content app with the next priority. And finally, content can be searched from other content apps included in the list of content apps. At this time, when the display device 110 searches for content in the content apps included in the content app list, it determines the priority of the content apps by considering the execution frequency of the content apps included in the content app list or the user's preference; According to the determined priority, search results may be sorted and provided.

또한, 디스플레이 장치(110)는 컨텐츠 앱 리스트에 포함된 컨텐츠 앱이 실행 중이지 않고 방송 출력 상태이면 현재 출력되는 방송 정보를 획득하고, 방송에 관한 정보와 음성 명령에서 추출된 정보를 조합해서 컨텐츠 검색 서버(130)를 통해서 컨텐츠를 검색할 수 있다.In addition, when the content app included in the content app list is not running and is in a broadcast output state, the display device 110 obtains currently output broadcast information, and searches for content by combining broadcast information and information extracted from a voice command. Content may be searched through the server 130 .

이때, 방송에 관한 정보는 현재 출력되는 방송의 유형(예를 들어, 드라마, 예능, 영화, 다큐멘터리), 등장인물, 제작사, 방송 시간 정보 등이 될 수 있다.In this case, the information about the broadcast may be the type of currently output broadcast (eg, drama, entertainment, movie, documentary), character, production company, broadcasting time information, and the like.

디스플레이 장치(110)는 방송에 관한 정보와 음성 명령에서 추출된 정보를 조합해서 검색할 때, 방송에 관한 정보와 음성 명령에서 추출된 정보 양쪽 모두에 중복된 유형의 정보가 존재하거나 다른 한쪽과 관련된 정보(상위 또는 하위 카테고리 정보)가 존재하면, 음성 명령에서 추출된 정보에 더 높은 가중치를 주어서 검색할 수 있다.When the display device 110 searches by combining the information about the broadcast and the information extracted from the voice command, duplicate types of information exist in both the information about the broadcast and the information extracted from the voice command, or are related to the other one. If information (higher or lower category information) exists, a search may be performed by giving a higher weight to information extracted from a voice command.

예를 들어, 컨텐츠 유형이 “드라마”인 방송을 출력하고 있는 상황에서, “작년에 방영된 TV 프로그램을 찾아줘”라는 음성명령이 수신되면, 디스플레이 장치(110)는 음성 명령에서 추출된 정보에 포함된 “TV 프로그램”의 하위 카테고리인 방송 정보에 포함된 “드라마”라는 컨텐츠 유형에 상대적으로 낮은 가중치를 주어서, 검색된 작년에 방영된 TV 프로그램에 대해서 컨텐츠 앱 리스트에 포함된 컨텐츠 앱을 통해서 검색하고, 검색 결과를 출력할 때, 드라마의 TV 프로그램이 선행하도록 정렬하여 출력할 수 있다.For example, when a voice command “Find a TV program aired last year” is received in a situation where a broadcast whose content type is “drama” is being output, the display device 110 displays information extracted from the voice command. By giving a relatively low weight to the content type “drama” included in the broadcast information, which is a subcategory of the included “TV program”, search for TV programs aired last year through the content app included in the content app list, and , When outputting search results, the TV programs of the drama may be sorted and outputted so that they precede.

도 1에서 음성 검색 서버(120)와 컨텐츠 검색 서버(130)가 외부에 위치하고 있으나, 디스플레이 장치(110)의 내부에 포함되도록 구성될 수도 있다.Although the voice search server 120 and content search server 130 are located outside in FIG. 1 , they may be included inside the display device 110 .

본 문서에서 음성 명령에서 추출된 정보를 사용자 문맥이라 정의하면, 실행 중이던 컨텐츠 앱 정보 또는 방송 정보를 배경 문맥이라 정의할 수 있다.In this document, if information extracted from a voice command is defined as a user context, information on a currently running content app or broadcasting information may be defined as a background context.

디스플레이 장치(110)는 사용자 문맥과 배경 문맥을 조합해서 컨텐츠를 검색하며 사용자 문맥에 포함된 정보를 배경 문맥에 포함된 정보 보다 더 높은 우선순위를 가지도록 설정할 수 있다. 디스플레이 장치(110)는 설정된 우선순위에 고려해서 검색하거나 또는 설정된 우선순위를 고려해서 출력 결과를 정렬할 수 있다.The display device 110 searches for content by combining the user context and the background context, and may set information included in the user context to have a higher priority than information included in the background context. The display device 110 may perform a search in consideration of set priorities or arrange output results in consideration of set priorities.

디스플레이 장치(110)에서 사용자의 발화 의도를 고려해서 컨텐츠를 검색하는 방법은 이후 도 2에서 도 5를 통해서 보다 상세히 후술한다.A method of searching for content in consideration of the user's utterance intention in the display device 110 will be described later in detail with reference to FIGS. 2 through 5 .

이하, 상기와 같이 구성된 본 문서에 따른 방법을 아래에서 도면을 참조하여 설명한다.Hereinafter, the method according to the present document configured as described above will be described with reference to the drawings below.

도 2는 일 실시예에 따른 디스플레이 장치에서 발화 의도를 고려해서 컨텐츠를 검색하는 과정을 도시한다.2 illustrates a process of searching for content in consideration of an utterance intention in a display device according to an exemplary embodiment.

도 2를 참조하면, 디스플레이 장치(110)는 음성 명령을 수신하면(210), 컨텐츠 앱이 실행된 상태인 여부를 확인할 수 있다(212).Referring to FIG. 2 , when receiving a voice command (210), the display device 110 may check whether a content app is running (212).

그리고, 디스플레이 장치(110)는 음성 명령에서 정보 추출한다(214). 이때, 추출된 정보는 실행할 컨텐츠 앱, 타이틀, 기간, 컨텐츠 유형 및 액션에 관한 정보 중에서 적어도 하나일 수 있다. 이때, 디스플레이 장치(110)는 214동작에서 수신한 음성 명령을 음성 검색 서버(120)로 송신하고 추출된 정보를 음성 검색 서버(120)로부터 수신할 수 있다.Then, the display device 110 extracts information from the voice command (214). In this case, the extracted information may be at least one of information about a content app to be executed, a title, a period, a content type, and an action. At this time, the display device 110 may transmit the voice command received in operation 214 to the voice search server 120 and receive the extracted information from the voice search server 120 .

한편, 212동작과 214동작은 순서를 바꾸어 수행하거나 동시에 수행할 수도 있다.Meanwhile, operations 212 and 214 may be performed in reverse order or simultaneously.

그리고, 디스플레이 장치(110)는 컨텐츠 앱이 실행된 상태이면(216), 실행 중인 컨텐츠 앱에 관한 정보를 확인하고(218), 실행 중인 컨텐츠 앱에 관한 정보와 추출된 정보를 조합해서 컨텐츠를 검색하고(220), 컨텐츠를 검색한 결과를 출력한다(230). 220동작은 이후 도 3을 통해 보다 상세히 후술한다.Then, when the content app is running (216), the display device 110 checks information on the running content app (218), and searches for content by combining the information on the running content app with the extracted information. (220), and the result of searching for the content is output (230). Operation 220 will be described later in detail with reference to FIG. 3 .

216동작의 확인결과 컨텐츠 앱이 실행된 상태가 아니면, 디스플레이 장치(110)는 방송 출력 상태인지 여부를 확인한다(222).As a result of checking operation 216, if the content app is not running, the display device 110 checks whether it is in a broadcast output state (222).

222동작의 확인결과 방송 출력 상태이면, 디스플레이 장치(110)는 현재 출력되는 방송 정보를 획득하고(224), 방송에 관한 정보와 추출된 정보를 조합해서 컨텐츠를 검색하고(226), 컨텐츠를 검색한 결과를 출력한다(230). 226동작은 이후 도 4를 통해 보다 상세히 후술한다.As a result of checking in operation 222, if the broadcast is output, the display device 110 obtains currently output broadcast information (224), searches for content by combining the broadcast information and the extracted information (226), and retrieves the content. One result is output (230). Operation 226 will be described later in detail with reference to FIG. 4 .

222동작의 확인결과 방송 출력 상태가 아니면, 디스플레이 장치(110)는 추출된 정보를 이용해서 컨텐츠를 검색하고(228), 컨텐츠를 검색한 결과를 출력한다(230). 228동작은 이후 도 5를 통해 보다 상세히 후술한다.As a result of checking in operation 222, if the broadcast is not output, the display device 110 searches for content using the extracted information (228) and outputs the content search result (230). Operation 228 will be described later in detail with reference to FIG. 5 .

디스플레이 장치(110)는 230 동작에서 컨텐츠를 검색한 결과를 출력할 때, 컨텐츠 앱의 우선순위를 확인하고, 확인된 우선순위에 따라서 검색된 결과를 정렬하여 출력할 수 있다. 이때, 컨텐츠 앱의 우선순위는 컨텐츠 앱 리스트에 포함된 컨텐츠 앱에 대한 실행 빈도 또는 사용자의 선호도를 고려하여 컨텐츠 앱의 우선순위를 결정될 수 있다.When displaying the result of searching for content in operation 230 , the display device 110 may check the priority of the content app and sort and output the searched result according to the checked priority. In this case, the priority of the content apps may be determined by considering the execution frequency of the content apps included in the content app list or the user's preference.

한편, 디스플레이 장치(110)는 230 동작에서 음성 명령에서 추출된 액션에 관한 정보가 실행이고, 검색된 결과가 하나이면 검색된 컨텐츠를 실행할 수 있다.Meanwhile, in operation 230, the display device 110 may execute the searched content if the information about the action extracted from the voice command is execution and the searched result is one.

한편, 디스플레이 장치(110)는 230 동작에서 음성 명령에서 추출된 액션에 관한 정보가 실행이더라도 검색된 결과가 복수개이면 검색된 결과인 컨텐츠 리스트를 출력할 수 있다.Meanwhile, in operation 230, the display device 110 may output a content list that is the search result if there are a plurality of search results even if the action information extracted from the voice command is execution.

도 3은 일 실시예에 따른 디스플레이 장치에서 실행 중인 컨텐츠 앱에 관한 정보와 음성 명령에서 추출된 정보를 조합해서 컨텐츠를 검색하는 과정을 도시한다.3 illustrates a process of searching for content by combining information about a content app running on a display device and information extracted from a voice command according to an embodiment.

도 3을 참조하면, 디스플레이 장치(110)는 추출된 정보에 실행할 컨텐츠 앱에 관한 정보 포함되어 있는지 여부를 확인한다(310).Referring to FIG. 3 , the display device 110 checks whether the extracted information includes information about a content app to be executed (310).

310동작의 확인결과 추출된 정보에 실행할 컨텐츠 앱에 관한 정보 포함되어 있으면, 디스플레이 장치(110)는 추출된 정보를 이용해서 실행할 컨텐츠 앱을 통해서 제공되는 컨텐츠를 검색한다(312).As a result of checking operation 310, if the extracted information includes information about a content app to be executed, the display device 110 searches for content provided through the content app to be executed using the extracted information (312).

312동작에서 컨텐츠를 검색한 결과 검색된 컨텐츠 존재하지 않으면(314), 디스플레이 장치(110)는 추출된 정보에서 실행할 컨텐츠 앱을 제외한 나머지 정보를 이용해서 실행 중인 컨텐츠 앱을 통해 제공되는 컨텐츠를 검색한다(316).As a result of searching for content in operation 312, if the searched content does not exist (314), the display device 110 searches for content provided through the running content app using the remaining information except for the content app to be executed from the extracted information ( 316).

한편, 310동작의 확인결과 추출된 정보에 실행할 컨텐츠 앱에 관한 정보 포함되어 있으면, 디스플레이 장치(110)는 316동작을 수행한다.Meanwhile, as a result of checking operation 310, if the information about the content app to be executed is included in the extracted information, the display device 110 performs operation 316.

316동작에서 컨텐츠를 검색한 결과 검색된 컨텐츠 존재하지 않으면(318), 디스플레이 장치(110)는 추출된 정보에서 실행할 컨텐츠 앱을 제외한 나머지 정보를 이용해서 컨텐츠 앱 리스트에 포함된 다른 컨텐츠 앱을 통해 제공되는 컨텐츠를 검색한다(320).As a result of searching for content in operation 316, if the searched content does not exist (318), the display device 110 uses the remaining information except for the content app to be executed from the extracted information to provide through other content apps included in the content app list. Content is retrieved (320).

도 3을 참조하면, 디스플레이 장치(110)는 제1 컨텐츠 앱을 실행하고 있는 상황에서, 제2 컨텐츠 앱을 통해서 "A" 명칭의 컨텐츠를 찾으라는 음성명령이 수신된 경우, 요청 받은 제2 컨텐츠 앱에서 "A" 명칭의 컨텐츠를 찾아보고, 제2 컨텐츠 앱에 "A" 명칭의 컨텐츠가 없으면, 실행 중이던 제1 컨텐츠 앱에서 "A" 명칭의 컨텐츠를 찾아보고, 제1 컨텐츠 앱에도 "A" 명칭의 컨텐츠가 없으면, 컨텐츠 앱 리스트에 포함된 다른 컨텐츠 앱을 통해서 "A" 명칭의 컨텐츠를 검색할 수 있다.Referring to FIG. 3 , the display device 110 receives a voice command to search for content named “A” through the second content app in a situation where the first content app is running, and the second content requested is requested. If the content named “A” is found in the app and there is no content named “A” in the second content app, the content named “A” is searched in the first content app that is being executed, and the content named “A” is also found in the first content app. If there is no content named "A", the content named "A" may be searched through another content app included in the content app list.

또한, 디스플레이 장치(110)는 제1 컨텐츠 앱을 실행하고 있는 상황에서, "B" 명칭의 컨텐츠를 찾으라는 음성명령이 수신된 경우, 실행 중이던 제1 컨텐츠 앱에서 "B" 명칭의 컨텐츠를 찾아보고, 제1 컨텐츠 앱에도 "B" 명칭의 컨텐츠가 없으면, 컨텐츠 앱 리스트에 포함된 다른 컨텐츠 앱을 통해서 "B" 명칭의 컨텐츠를 검색할 수 있다.In addition, when a voice command to search for content named "B" is received in a situation where the first content app is running, the display device 110 searches for content named "B" in the first content app that is being executed. In addition, if there is no content named “B” in the first content app, the content named “B” may be searched through another content app included in the content app list.

한편, 디스플레이 장치(110)는 312 동작, 316 동작 및 320 동작에서 컨텐츠를 검색할 때, 컨텐츠 앱에 대응하는 컨텐츠 제공 서버 각각에서 제공하는 컨텐츠 정보를 수집하여 컨텐츠 데이터베이스로 저장하여 관리하는 컨텐츠 검색 서버 (130)를 통해서 컨텐츠를 검색할 수 있다.Meanwhile, when the display device 110 searches for content in operations 312, 316, and 320, the content search server collects content information provided by each content providing server corresponding to the content app, stores it in a content database, and manages the content information. Contents can be searched through (130).

도 4는 일 실시예에 따른 디스플레이 장치에서 방송 정보와 음성 명령에서 추출된 정보를 조합해서 컨텐츠를 검색하는 과정을 도시한다.4 illustrates a process of searching for content by combining broadcasting information and information extracted from a voice command in a display device according to an exemplary embodiment.

도 4를 참조하면, 디스플레이 장치(110)는 추출된 정보에 실행할 컨텐츠 앱에 관한 정보 포함되어 있는지 여부를 확인한다(410).Referring to FIG. 4 , the display device 110 checks whether the extracted information includes information about a content app to be executed (410).

410동작의 확인결과 추출된 정보에 실행할 컨텐츠 앱에 관한 정보 포함되어 있으면, 디스플레이 장치(110)는 추출된 정보와 방송에 관한 정보를 이용해서 실행할 컨텐츠 앱을 통해서 제공되는 컨텐츠를 검색한다(412).As a result of checking operation 410, if the extracted information includes information about a content app to be executed, the display device 110 searches for content provided through the content app to be executed using the extracted information and information about broadcasting (412). .

412동작에서 컨텐츠를 검색한 결과 검색된 컨텐츠 존재하지 않으면(414), 디스플레이 장치(110)는 추출된 정보와 방송에 관한 정보를 이용해서 컨텐츠 앱 리스트에 포함된 컨텐츠 앱을 통해 제공되는 컨텐츠를 검색한다(416).As a result of searching for content in operation 412, if the searched content does not exist (414), the display device 110 searches for content provided through a content app included in the content app list using the extracted information and information about broadcasting. (416).

도 4을 참조하면, 디스플레이 장치(110)는 컨텐츠 유형이 "드라마"인 방송을 출력하고 있는 상황에서, 제2 컨텐츠 앱을 통해서 작년에 방영된 TV 프로그램을 찾으라는 음성명령이 수신된 경우, 요청 받은 제2 컨텐츠 앱에서 기간이 "작년"이고 컨텐츠 유형이 "TV 프로그램"인 컨텐츠를 검색하고, 제2 컨텐츠 앱에 검색결과가 없으면, 컨텐츠 앱 리스트에 포함된 다른 컨텐츠 앱을 통해서 기간이 "작년"이고 컨텐츠 유형이 "TV 프로그램"인 컨텐츠를 검색할 수 있다. 이후, 디스플레이 장치(110)는 검색 결과를 제공함에 있어서, 검색 결과의 TV 프로그램 중에서 방송 정보에 해당하는 "드라마"에 해당하는 TV 프로그램을 상단에 출력되도록 정렬하여 사용자에게 제공하도록 할 수 있다.Referring to FIG. 4 , in a situation where the display device 110 is outputting a broadcast whose content type is “drama,” when a voice command to search for a TV program aired last year is received through the second content app, a request is made. Search for content with a period of "last year" and a content type of "TV program" in the received second content app, and if there is no search result in the second content app, the period is "last year" through another content app included in the list of content apps. " and the content type is "TV program". Thereafter, when providing search results, the display device 110 may arrange TV programs corresponding to "drama" corresponding to broadcasting information among TV programs in the search results to be displayed at the top and provided to the user.

한편, 디스플레이 장치(110)는 412 동작 및 416 동작에서 컨텐츠를 검색할 때, 컨텐츠 앱에 대응하는 컨텐츠 제공 서버 각각에서 제공하는 컨텐츠 정보를 수집하여 컨텐츠 데이터베이스로 저장하여 관리하는 컨텐츠 검색 서버 (130)를 통해서 컨텐츠를 검색할 수 있다.On the other hand, when the display device 110 searches for content in operations 412 and 416, the content search server 130 collects content information provided from each content providing server corresponding to the content app, stores it in a content database, and manages the content information. Content can be searched through.

도 5는 일 실시예에 따른 디스플레이 장치에서 음성 명령에서 추출된 정보를 이용해서 컨텐츠를 검색하는 과정을 도시한다.5 illustrates a process of searching for content using information extracted from a voice command in a display device according to an exemplary embodiment.

도 5를 참조하면, 디스플레이 장치(110)는 추출된 정보에 실행할 컨텐츠 앱에 관한 정보 포함되어 있는지 여부를 확인한다(510).Referring to FIG. 5 , the display device 110 checks whether the extracted information includes information about a content app to be executed (510).

510동작의 확인결과 추출된 정보에 실행할 컨텐츠 앱에 관한 정보 포함되어 있으면, 디스플레이 장치(110)는 추출된 정보를 이용해서 실행할 컨텐츠 앱을 통해서 제공되는 컨텐츠를 검색한다(512).As a result of checking operation 510, if the extracted information includes information about a content app to be executed, the display device 110 searches for content provided through the content app to be executed using the extracted information (512).

512동작에서 컨텐츠를 검색한 결과 검색된 컨텐츠 존재하지 않으면(514), 디스플레이 장치(110)는 추출된 정보를 이용해서 컨텐츠 앱 리스트에 포함된 컨텐츠 앱을 통해 제공되는 컨텐츠를 검색한다(516).As a result of searching for content in operation 512, if the searched content does not exist (514), the display device 110 searches for content provided through a content app included in the content app list using the extracted information (516).

한편, 디스플레이 장치(110)는 512 동작 및 516 동작에서 컨텐츠를 검색할 때, 컨텐츠 앱에 대응하는 컨텐츠 제공 서버 각각에서 제공하는 컨텐츠 정보를 수집하여 컨텐츠 데이터베이스로 저장하여 관리하는 컨텐츠 검색 서버 (130)를 통해서 컨텐츠를 검색할 수 있다.On the other hand, when the display device 110 searches for content in operations 512 and 516, the content search server 130 collects content information provided from each content providing server corresponding to the content app, stores it in a content database, and manages the content information. Content can be searched through.

발화 의도를 고려하여 검색하는 디스플레이 장치는 아래 도 6 또는 도 7과 같이 구성될 수 있다.A display device for searching in consideration of utterance intention may be configured as shown in FIG. 6 or 7 below.

도 6은 일 실시 예에 따른 디스플레이 장치의 블록 구성도이다.6 is a block configuration diagram of a display device according to an exemplary embodiment.

도 7은 일 실시 예에 따른 디스플레이 장치의 상세 블록 구성도이다.7 is a detailed block configuration diagram of a display device according to an exemplary embodiment.

도 6에 도시된 바와 같이, 일 실시 예에 따른 디스플레이 장치(110)는, 메모리(620), 프로세서(630), 통신부(650) 및 센싱부(691)를 포함할 수 있다. 그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 디스플레이 장치(110)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 디스플레이 장치(110)는 구현될 수 있다.As shown in FIG. 6 , the display device 110 according to an embodiment may include a memory 620, a processor 630, a communication unit 650, and a sensing unit 691. However, not all illustrated components are essential components. The display device 110 may be implemented with more components than those illustrated, or the display device 110 may be implemented with fewer components.

예를 들어, 도 7에 도시된 바와 같이, 일 실시 예에 따른 디스플레이 장치(110)는, 메모리(620), 프로세서(630), 통신부(650), 센싱부(691) 외에, 디스플레이(610), 튜너부(640), 감지부(660), 입/출력부(670), 비디오 처리부(680), 오디오 처리부(615), 오디오 출력부(626), 전원부(690)를 더 포함할 수도 있다. For example, as shown in FIG. 7 , the display device 110 according to an embodiment includes a memory 620, a processor 630, a communication unit 650, a sensing unit 691, and a display 610. , a tuner unit 640, a sensing unit 660, an input/output unit 670, a video processing unit 680, an audio processing unit 615, an audio output unit 626, and a power supply unit 690 may be further included. .

이하 상기 구성요소들에 대해 살펴본다.Hereinafter, we look at the above components.

프로세서(630)는, 디스플레이 장치(110)의 전반적인 동작 및 디스플레이 장치(110)의 내부 구성 요소들 사이의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다. 프로세서(630)는 사용자의 입력이 있거나 기 설정되어 저장된 조건을 만족하는 경우, 메모리(620)에 저장된 OS(Operation System) 및 다양한 애플리케이션을 실행할 수 있다. The processor 630 controls overall operation of the display device 110 and signal flow between internal components of the display device 110 and processes data. The processor 630 may execute an operation system (OS) and various applications stored in the memory 620 when there is a user's input or when a pre-set and stored condition is satisfied.

프로세서(630)는 디스플레이 장치(110)의 외부로부터 입력되는 신호 또는 데이터를 저장하거나, 디스플레이 장치(110)에서 수행되는 다양한 작업에 대응되는 저장 영역으로 사용되는 램, 디스플레이 장치(110)의 제어를 위한 제어 프로그램이 저장된 롬 및 프로세서를 포함할 수 있다.The processor 630 stores signals or data input from the outside of the display device 110 or controls the RAM used as a storage area corresponding to various tasks performed in the display device 110 and the display device 110. It may include a ROM and a processor in which a control program for the control program is stored.

프로세서(630)는 비디오에 대응되는 그래픽 처리를 위한 그래픽 프로세서(Graphic Processing Unit, 도시되지 아니함)를 포함할 수 있다. 프로세서(630)는 코어(core, 도시되지 아니함)와 GPU(도시되지 아니함)를 통합한 SoC(System On Chip)로 구현될 수 있다. 프로세서(630)는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다.The processor 630 may include a graphic processing unit (not shown) for graphic processing corresponding to video. The processor 630 may be implemented as a system on chip (SoC) in which a core (not shown) and a GPU (not shown) are integrated. The processor 630 may include a single core, a dual core, a triple core, a quad core, and multiple cores thereof.

또한, 프로세서(630)는 마이크(661)를 통해 음성 명령을 수신하면 음성 명령을 음성 검색 서버(120)로 송신하여 추출된 정보를 수신하고, 컨텐츠 앱 리스트에 포함된 컨텐츠 앱이 실행 상태인지 확인하고, 컨텐츠 앱 리스트에 포함된 컨텐츠 앱이 실행 상태이면, 실행 중인 컨텐츠 앱에 관한 정보를 확인하고, 실행 중인 컨텐츠 앱에 관한 정보와 음성 명령에서 추출된 정보를 조합해서 컨텐츠 검색 서버(130)를 통해서 컨텐츠를 검색하도록 할 수 있다.In addition, when receiving a voice command through the microphone 661, the processor 630 transmits the voice command to the voice search server 120 to receive extracted information, and checks whether a content app included in the content app list is running. and if the content app included in the list of content apps is in an running state, information on the running content app is checked, and the content search server 130 is configured by combining the information on the running content app with the information extracted from the voice command. You can search through the content.

또한, 프로세서(630)는 컨텐츠 앱 리스트에 포함된 컨텐츠 앱이 실행 중이지 않고 방송 출력 상태이면 현재 출력되는 방송 정보를 획득하고, 방송에 관한 정보와 음성 명령에서 추출된 정보를 조합해서 컨텐츠 검색 서버(130)를 통해서 컨텐츠를 검색하도록 할 수 있다.In addition, the processor 630 obtains currently outputted broadcasting information when a content app included in the content app list is not running and is in a broadcasting output state, and combines broadcasting information with information extracted from a voice command to a content search server. Contents can be searched through (130).

또한, 프로세서(630)는 복수의 프로세서를 포함할 수 있다. 예를 들어, 프로세서는 메인 프로세서(main processor, 도시되지 아니함) 및 슬립 모드(sleep mode)에서 동작하는 서브 프로세서(sub processor, 도시되지 아니함)로 구현될 수 있다.Also, the processor 630 may include a plurality of processors. For example, the processor may be implemented as a main processor (not shown) and a sub processor (not shown) operating in a sleep mode.

일 실시 예에 따라, 프로세서(630)는, 메모리(620)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 적어도 하나의 센서를 포함하는 센싱부(691)를 통해, 적어도 하나의 센서에 대응하는 적어도 하나의 센싱값을 검출할 수 있다.According to an embodiment, the processor 630 executes one or more instructions stored in the memory 620, and through the sensing unit 691 including the at least one sensor, at least one sensor corresponding to the at least one sensor. A sensing value can be detected.

또한, 일 실시 예에 따라, 프로세서(630)는, 메모리(620)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 검출된 적어도 하나의 센싱값이 미리 설정된 임계값 이상인 것으로 판단됨에 따라, 모바일 장치(200)가 디스플레이 장치(110)에 터치된 것으로 결정할 수 있다. In addition, according to an embodiment, the processor 630 executes one or more instructions stored in the memory 620, and when it is determined that at least one detected sensing value is equal to or greater than a preset threshold value, the mobile device 200 It may be determined that is touched on the display device 110 .

또한, 일 실시 예에 따라, 프로세서(630)는, 메모리(620)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 검출된 적어도 하나의 센싱값과 모바일 장치(200)로부터 수신한 모바일 장치의 센싱값을 비교함으로써, 모바일 장치(200)가 디스플레이 장치(110)에 터치된 것으로 결정할 수 있다.Also, according to an embodiment, the processor 630 compares at least one detected sensing value with a sensing value of the mobile device received from the mobile device 200 by executing one or more instructions stored in the memory 620. By doing so, it can be determined that the mobile device 200 has touched the display device 110 .

또한, 일 실시 예에 따라, 프로세서(630)는, 메모리(620)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 모바일 장치(200)의 식별 정보를 요청하고, 모바일 장치(200)의 식별 정보를 수신할 수 있다. 또한, 프로세서(630)는 모바일 장치(200)의 식별 정보에 기초하여, 모바일 장치(200)가 디스플레이 장치(110)에 기 등록된 장치임을 확인할 수 있다. Also, according to an embodiment, the processor 630 requests identification information of the mobile device 200 and receives the identification information of the mobile device 200 by executing one or more instructions stored in the memory 620. can Also, the processor 630 may confirm that the mobile device 200 is a device pre-registered in the display device 110 based on the identification information of the mobile device 200 .

또한, 일 실시 예에 따라, 프로세서(630)는, 메모리(620)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 적어도 하나의 센싱값에 기초하여, 모바일 장치(200)가 디스플레이 장치(110) 상에 터치된 터치 영역을 결정할 수 있다.Also, according to an embodiment, the processor 630 executes one or more instructions stored in the memory 620 so that the mobile device 200 touches the display device 110 based on at least one sensed value. A touch area can be determined.

또한, 일 실시 예에 따라, 프로세서(630)는, 메모리(620)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 적어도 하나의 센서에 대응하여 검출된 적어도 하나의 센싱값을 비교하고, 비교 결과에 기초하여, 모바일 장치(200)가 디스플레이 장치(110) 상에 터치된 지점에 근접하게 배치된 것으로 판단되는 하나 이상의 센서를 결정할 수 있다. 또한, 프로세서(630)는, 결정된 하나 이상의 센서에 기초하여, 터치 영역을 결정할 수 있다. Also, according to an embodiment, the processor 630 compares at least one sensing value detected corresponding to at least one sensor by executing one or more instructions stored in the memory 620, and based on the comparison result , One or more sensors determined to be disposed close to a point where the mobile device 200 is touched on the display device 110 may be determined. Also, the processor 630 may determine the touch area based on the determined one or more sensors.

또한, 일 실시 예에 따라, 프로세서(630)는, 통신부(650)를 통해, 모바일 장치로(200)부터 모바일 장치(200)에서 실행 중인 동작에 관한 상태 정보를 수신할 수 있다.Also, according to an embodiment, the processor 630 may receive state information about an operation being executed in the mobile device 200 from the mobile device 200 through the communication unit 650 .

또한, 일 실시 예에 따라, 프로세서(630)는, 메모리(620)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 수신한 모바일 장치로(200)의 상태 정보에 기초하여, 결정된 터치 영역에 대응하는 기 설정된 기능을 수행할 수 있다.In addition, according to an embodiment, the processor 630 executes one or more instructions stored in the memory 620, based on the received state information of the mobile device 200, to set a preset corresponding to the determined touch area. function can be performed.

또한, 일 실시 예에 따라, 프로세서(630)는, 메모리(620)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 적어도 하나의 센싱값에 기초하여, 모바일 장치(200)가 디스플레이 장치(110) 상에 터치된 터치 횟수를 결정할 수 있다.Also, according to an embodiment, the processor 630 executes one or more instructions stored in the memory 620 so that the mobile device 200 touches the display device 110 based on at least one sensed value. The number of touches can be determined.

또한, 일 실시 예에 따라, 프로세서(630)는, 메모리(620)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 터치 횟수에 대응하는 기 설정된 기능을 수행할 수 있다. Also, according to an embodiment, the processor 630 may perform a preset function corresponding to the number of touches by executing one or more instructions stored in the memory 620 .

또한, 일 실시 예에 따라, 프로세서(630)는, 메모리(620)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 사용자 입력에 기초하여, 디스플레이 장치(110) 상의 적어도 일 터치 영역에 대응하는 기능을 미리 설정할 수 있다. Also, according to an embodiment, the processor 630 may preset a function corresponding to at least one touch area on the display device 110 based on a user input by executing one or more instructions stored in the memory 620. can

또한, 프로세서(630)는, 메모리(620)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 사용자 입력에 기초하여, 디스플레이 장치(110) 상의 적어도 일 터치 영역에 터치된 터치 횟수에 대응하는 기능을 미리 설정할 수 있다.In addition, the processor 630 may preset a function corresponding to the number of touches performed on at least one touch area on the display device 110 based on a user input by executing one or more instructions stored in the memory 620. there is.

메모리(620)는, 프로세서(630)의 제어에 의해 디스플레이 장치(110)를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 메모리(620)는 비디오 처리부(680), 디스플레이(610), 오디오 처리부(615), 오디오 출력부(626), 전원부(630), 튜너부(640), 통신부(650), 감지부(660), 입/출력부(670)의 구동에 대응되는 입력/출력되는 신호 또는 데이터를 저장할 수 있다. The memory 620 may store various data, programs, or applications for driving and controlling the display device 110 under the control of the processor 630 . The memory 620 includes a video processing unit 680, a display 610, an audio processing unit 615, an audio output unit 626, a power supply unit 630, a tuner unit 640, a communication unit 650, and a sensing unit 660. , input/output signals or data corresponding to driving of the input/output unit 670 may be stored.

메모리(620)는 디스플레이 장치(110) 및 프로세서(630)의 제어를 위한 오퍼레이팅 시스템(621), 제조사에서 최초 제공되거나 외부에서부터 다운로드 받은 어플리케이션(622), 어플리케이션과 관련된 GUI(graphical user interface), GUI를 제공하기 위한 오브젝트(예를 들어, 이미지 텍스트, 아이콘, 버튼 등), 사용자 정보, 문서, 데이터베이스들 또는 관련 데이터들을 저장할 수 있다.The memory 620 includes an operating system 621 for controlling the display device 110 and the processor 630, an application 622 initially provided by a manufacturer or downloaded from the outside, a graphical user interface (GUI) related to the application, and a GUI. Objects (eg, image text, icons, buttons, etc.), user information, documents, databases, or related data may be stored to provide.

또한, 메모리(620)는 원격 제어 장치(미도시)로부터의 입력 신호를 수신하고 이에 따라 입력 신호에 대응하는 채널 제어를 수행하거나 또는, 입력 신호가 미리 지정된 입력에 대응하는 경우 채널 스크롤 유저 인터페이스 모드로 진입하기 위한 하나 이상의 인스트럭션을 포함하는 TV 뷰어 모듈(623), 외부 장치(미도시)로부터 수신된 컨텐츠로부터 정보를 인식하기 위한 하나 이상의 인스트럭션을 포함하는 문자 인식 모듈(624), 외부 장치(미도시)로부터의 채널 제어를 위한 하나 이상의 인스트럭션을 포함하는 MBR 모듈(625)를 포함할 수 있다. In addition, the memory 620 receives an input signal from a remote control device (not shown) and controls a channel corresponding to the input signal accordingly, or a channel scroll user interface mode when the input signal corresponds to a predetermined input. A TV viewer module 623 including one or more instructions for entering , a character recognition module 624 including one or more instructions for recognizing information from content received from an external device (not shown), an external device (not shown) MBR module 625 containing one or more instructions for channel control from

메모리(620)는, 롬, 램 또는 디스플레이 장치(110)에 장착되는 메모리 카드(예를 들어, micro SD 카드, USB 메모리, 도시되지 아니함)를 포함한다. 또한, 메모리(620)는 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.The memory 620 includes ROM, RAM, or a memory card (eg, micro SD card, USB memory, not shown) mounted on the display device 110 . Also, the memory 620 may include a non-volatile memory, a volatile memory, a hard disk drive (HDD), or a solid state drive (SSD).

일 실시 예에 따라, 메모리(620)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory), SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. According to an embodiment, the memory 620 may be a flash memory type, a hard disk type, a multimedia card micro type, or a card type memory (eg SD or XD memory, etc.), RAM (RAM, Random Access Memory), SRAM (Static Random Access Memory), ROM (ROM, Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory) ), a magnetic memory, a magnetic disk, and an optical disk may include at least one type of storage medium.

디스플레이(610)는 프로세서(630)의 제어에 의해 튜너부(640)를 통해 수신된 방송 신호에 포함된 비디오를 화면에 표시한다. 또한, 디스플레이(610)는 통신부(650) 또는 입/출력부(670)를 통해 입력되는 컨텐츠(예를 들어, 동영상)를 표시할 수 있다. 디스플레이(610)는 프로세서(630)의 제어에 의해 메모리(620)에 저장된 영상을 출력할 수 있다. The display 610 displays a video included in a broadcast signal received through the tuner unit 640 on the screen under the control of the processor 630 . Also, the display 610 may display content (eg, video) input through the communication unit 650 or the input/output unit 670 . The display 610 may output an image stored in the memory 620 under the control of the processor 630 .

디스플레이(610)는, 프로세서(630)에서 처리된 영상 신호, 데이터 신호, OSD 신호, 제어 신호 등을 변환하여 구동 신호를 생성한다. 디스플레이(610)는 PDP(Plasma Display Panel), LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diode), CRT(Cathode Ray Tube), 플렉시블 디스플레이(flexible display)등으로 구현될 수 있으며, 또한, 3차원 디스플레이(3D display)로 구현될 수 있다. 또한, 디스플레이(610)는, 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다.The display 610 generates driving signals by converting video signals, data signals, OSD signals, control signals, and the like processed by the processor 630 . The display 610 may be implemented with a plasma display panel (PDP), a liquid crystal display (LCD), an organic light emitting diode (OLED), a cathode ray tube (CRT), a flexible display, and the like, and also 3 It can be implemented as a 3D display. Also, the display 610 may be configured as a touch screen and used as an input device in addition to an output device.

튜너부(640)는, 유선 또는 무선으로 수신되는 방송 신호를 증폭(amplification), 혼합(mixing), 공진(resonance)등을 통하여 많은 전파 성분 중에서 디스플레이 장치(110)에서 수신하고자 하는 채널의 주파수만을 튜닝(tuning)시켜 선택할 수 있다. 방송 신호는 오디오(audio), 비디오(video) 및 부가 정보(예를 들어, EPG(Electronic Program Guide))를 포함한다.The tuner unit 640 selects only the frequency of a channel desired to be received by the display device 110 from many radio wave components through amplification, mixing, resonance, etc. of broadcast signals received by wire or wirelessly. It can be selected by tuning. The broadcast signal includes audio, video, and additional information (eg, Electronic Program Guide (EPG)).

튜너부(640)는 사용자 입력(예를 들어, 원격 제어 장치(미도시)로부터 수신되는 제어 신호, 예컨대, 채널 번호 입력, 채널의 업다운(up-down) 입력 및 EPG 화면에서 채널 입력)에 따라 채널 번호에 대응되는 주파수 대역에서 방송 신호를 수신할 수 있다.The tuner unit 640 performs a control signal received from a remote control device (not shown) (eg, a channel number input, a channel up-down input, and a channel input on an EPG screen) according to a user input. A broadcast signal can be received in a frequency band corresponding to the channel number.

튜너부(640)는 지상파 방송, 케이블 방송, 위성 방송, 인터넷 방송 등과 같이 다양한 소스로부터 방송 신호를 수신할 수 있다. 튜너부(640)는 아날로그 방송 또는 디지털 방송 등과 같은 소스로부터 방송 신호를 수신할 수도 있다. 튜너부(640)를 통해 수신된 방송 신호는 디코딩(decoding, 예를 들어, 오디오 디코딩, 비디오 디코딩 또는 부가 정보 디코딩)되어 오디오, 비디오 및/또는 부가 정보로 분리된다. 분리된 오디오, 비디오 및/또는 부가 정보는 프로세서(630)의 제어에 의해 메모리(620)에 저장될 수 있다.The tuner unit 640 may receive broadcast signals from various sources such as terrestrial broadcasting, cable broadcasting, satellite broadcasting, Internet broadcasting, and the like. The tuner unit 640 may receive a broadcasting signal from a source such as analog broadcasting or digital broadcasting. The broadcast signal received through the tuner unit 640 is decoded (eg, audio decoding, video decoding, or additional information decoding) and separated into audio, video, and/or additional information. Separated audio, video and/or additional information may be stored in the memory 620 under the control of the processor 630 .

디스플레이 장치(110)의 튜너부(640)는 하나이거나 복수일 수 있다. 튜너부(640)는 디스플레이 장치(110)와 일체형(all-in-one)으로 구현되거나, 또는 디스플레이 장치(110)와 전기적으로 연결되는 튜너부를 가지는 별개의 장치(예를 들어, 셋톱박스(set-top box, 도시되지 아니함), 입/출력부(670)에 연결되는 튜너부(도시되지 아니함))로 구현될 수 있다.The tuner unit 640 of the display device 110 may be one or plural. The tuner unit 640 may be implemented as an all-in-one with the display device 110 or a separate device having a tuner unit electrically connected to the display device 110 (eg, a set-top box). -top box, not shown), and a tuner unit (not shown) connected to the input/output unit 670).

통신부(650)는, 프로세서(630)의 제어에 의해 디스플레이 장치(110)를 외부 장치(예를 들어, 오디오 장치 등)(미도시)와 연결할 수 있다. 프로세서(630)는 통신부(650)를 통해 연결된 외부 장치(미도시)로 컨텐츠를 송/수신, 외부 장치(미도시)에서부터 어플리케이션(application)을 다운로드 하거나 또는 웹 브라우징을 할 수 있다. 통신부(650)는 디스플레이 장치(110)의 성능 및 구조에 대응하여 무선 랜(651), 블루투스(652), 및 유선 이더넷(Ethernet, 153) 중 하나를 포함할 수 있다. 또한, 통신부(650)는 무선랜(651), 블루투스(652), 및 유선 이더넷(Ethernet, 153)의 조합을 포함할 수 있다. The communication unit 650 may connect the display device 110 with an external device (eg, an audio device) (not shown) under the control of the processor 630 . The processor 630 may transmit/receive content to/from an external device (not shown) connected through the communication unit 650, download an application from the external device (not shown), or perform web browsing. The communication unit 650 may include one of wireless LAN 651 , Bluetooth 652 , and wired Ethernet 153 corresponding to the performance and structure of the display device 110 . Also, the communication unit 650 may include a combination of wireless LAN 651, Bluetooth 652, and wired Ethernet 153.

또한, 통신부(650)는 프로세서(630)의 제어에 의해 음성 검색 서버(120) 또는 컨텐츠 검색 서버(130)와 통신할 수 있다.Also, the communication unit 650 may communicate with the voice search server 120 or the content search server 130 under the control of the processor 630 .

또한, 통신부(650)는 프로세서(630)의 제어에 의해 원격 제어 장치(미도시)의 제어 신호를 수신할 수 있다. 제어 신호는 블루투스 타입, RF 신호 타입 또는 와이파이 타입으로 구현될 수 있다.Also, the communication unit 650 may receive a control signal from a remote control device (not shown) under control of the processor 630 . The control signal may be implemented as a Bluetooth type, an RF signal type, or a Wi-Fi type.

또한, 통신부(650)는 블루투스 외에 다른 근거리 통신(예를 들어, NFC(near field communication, 도시되지 아니함), BLE(bluetooth low energy, 도시되지 아니함)를 더 포함할 수 있다.In addition, the communication unit 650 may further include other short-range communication (eg, near field communication (NFC), not shown) and bluetooth low energy (BLE, not shown) other than Bluetooth.

감지부(660)는, 사용자의 음성, 사용자의 영상 또는 사용자의 인터랙션을 감지하며, 마이크(661), 카메라부(662) 및 광 수신부(663)를 포함할 수 있다.The sensing unit 660 detects a user's voice, a user's video, or a user's interaction, and may include a microphone 661, a camera unit 662, and a light receiving unit 663.

마이크(661)는 사용자의 발화(utterance)된 음성을 수신한다. 마이크(661)는 수신된 음성을 전기 신호로 변환하여 프로세서(630)로 출력할 수 있다. 사용자 음성은 예를 들어, 디스플레이 장치(110)의 메뉴 또는 기능에 대응되는 음성을 포함할 수 있다. The microphone 661 receives the user's utterance. The microphone 661 may convert the received voice into an electrical signal and output it to the processor 630 . The user's voice may include, for example, a voice corresponding to a menu or function of the display device 110 .

카메라부(662)는 정지영상 또는 동영상 등의 화상 베젤을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 프로세서(630) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. The camera unit 662 may obtain an image bezel such as a still image or a moving image. Images captured through the image sensor may be processed through the processor 630 or a separate image processing unit (not shown).

카메라부(662)에서 처리된 화상 베젤은 메모리(620)에 저장되거나 통신부(650)를 통하여 외부로 전송될 수 있다. 카메라부(662)는 디스플레이 장치(110)의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image bezel processed by the camera unit 662 may be stored in the memory 620 or transmitted to the outside through the communication unit 650 . Two or more camera units 662 may be provided according to the configuration of the display device 110 .

광 수신부(663)는 외부의 원격 제어 장치(미도시)로부터 수신되는 광 신호(제어 신호를 포함)를 수신한다. 광 수신부(663)는 원격 제어 장치(미도시)로부터 사용자 입력(예를 들어, 터치, 눌림, 터치 제스처, 음성, 또는 모션)에 대응되는 광 신호를 수신할 수 있다. 수신된 광 신호로부터 프로세서(630)의 제어에 의해 제어 신호가 추출될 수 있다. 예를 들어, 광 수신부(663)는 원격 제어 장치(미도시)로부터 채널 전환을 위한 채널 업/다운 버튼에 대응하는 제어 신호를 수신할 수 있다. The light receiving unit 663 receives an optical signal (including a control signal) received from an external remote control device (not shown). The light receiving unit 663 may receive an optical signal corresponding to a user input (eg, touch, pressure, touch gesture, voice, or motion) from a remote control device (not shown). A control signal may be extracted from the received optical signal under the control of the processor 630 . For example, the light receiving unit 663 may receive a control signal corresponding to a channel up/down button for channel switching from a remote control device (not shown).

입/출력부(670)는, 프로세서(630)의 제어에 의해 디스플레이 장치(110)의 외부로부터 비디오(예를 들어, 동영상 등), 오디오(예를 들어, 음성, 음악 등) 및 부가 정보(예를 들어, EPG 등) 등을 수신한다. 입/출력부(670)는, HDMI 포트(High-Definition Multimedia Interface port)(671), 컴포넌트 잭(component jack)(672), PC 포트(673), 및 USB 포트(674) 중 적어도 하나를 포함할 수 있다. 입/출력부(670)는 HDMI 포트(671), 컴포넌트 잭(672), PC 포트(673), 및 USB 포트(674) 중 적어도 하나의 조합을 포함할 수 있다. 외부 영상 제공 장치(미도시)는 HDMI 포트(671)을 통해 연결될 수 있다. The input/output unit 670 includes video (eg, motion picture, etc.), audio (eg, voice, music, etc.) and additional information (eg, video, etc.) from the outside of the display device 110 under the control of the processor 630. For example, EPG, etc.) and the like are received. The input/output unit 670 includes at least one of a High-Definition Multimedia Interface port (HDMI) port 671, a component jack 672, a PC port 673, and a USB port 674. can do. The input/output unit 670 may include a combination of at least one of an HDMI port 671 , a component jack 672 , a PC port 673 , and a USB port 674 . An external video providing device (not shown) may be connected through the HDMI port 671 .

비디오 처리부(680)는, 디스플레이 장치(110)가 수신한 비디오 데이터에 대한 처리를 수행한다. 비디오 처리부(680)에서는 비디오 데이터에 대한 디코딩, 스케일링, 노이즈 필터링, 베젤 레이트 변환, 해상도 변환 등과 같은 다양한 이미지 처리를 수행할 수 있다.The video processor 680 processes video data received by the display device 110 . The video processing unit 680 may perform various image processing such as decoding, scaling, noise filtering, bezel rate conversion, and resolution conversion on video data.

그래픽 처리부(681)는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 연산부(미도시)는 감지부(660)를 통해 감지된 사용자 입력을 이용하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산한다. 렌더링부(미도시)는 연산부(미도시)에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성한다. 렌더링부(미도시)에서 생성된 화면은 디스플레이(610)의 디스플레이 영역 내에 표시된다. The graphic processing unit 681 uses a calculation unit (not shown) and a rendering unit (not shown) to create a screen including various objects such as icons, images, and text. The calculation unit (not shown) calculates attribute values such as coordinate values, shape, size, color, and the like of each object to be displayed according to the layout of the screen using the user input sensed through the sensor 660 . The rendering unit (not shown) creates screens of various layouts including objects based on the attribute values calculated by the calculation unit (not shown). The screen created by the rendering unit (not shown) is displayed within the display area of the display 610 .

오디오 처리부(615)는, 오디오 데이터에 대한 처리를 수행한다. 오디오 처리부(615)에서는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다. 한편, 오디오 처리부(615)는 복수의 컨텐츠에 대응되는 오디오를 처리하기 위해 복수의 오디오 처리 모듈을 구비할 수 있다.The audio processing unit 615 processes audio data. The audio processor 615 may perform various processes such as decoding or amplifying audio data and filtering noise. Meanwhile, the audio processing unit 615 may include a plurality of audio processing modules to process audio corresponding to a plurality of contents.

오디오 출력부(626)는, 프로세서(630)의 제어에 의해 튜너부(640)를 통해 수신된 방송 신호에 포함된 오디오를 출력한다. 오디오 출력부(626)는 통신부(650) 또는 입/출력부(670)를 통해 입력되는 오디오(예를 들어, 음성, 사운드)를 출력할 수 있다. 또한, 오디오 출력부(626)는 프로세서(630)의 제어에 의해 메모리(620)에 저장된 오디오를 출력할 수 있다. 오디오 출력부(626)는 스피커(627), 헤드폰 출력 단자(628) 또는 S/PDIF(Sony/Philips Digital Interface) 출력 단자(629) 중 적어도 하나를 포함할 수 있다. 오디오 출력부(626)는 스피커(627), 헤드폰 출력 단자(628) 및 S/PDIF 출력 단자(629)의 적어도 하나의 조합을 포함할 수 있다.The audio output unit 626 outputs audio included in the broadcast signal received through the tuner unit 640 under the control of the processor 630 . The audio output unit 626 may output audio (eg, voice, sound) input through the communication unit 650 or the input/output unit 670 . Also, the audio output unit 626 may output audio stored in the memory 620 under the control of the processor 630 . The audio output unit 626 may include at least one of a speaker 627, a headphone output terminal 628, or a Sony/Philips Digital Interface (S/PDIF) output terminal 629. The audio output unit 626 may include a combination of at least one of a speaker 627, a headphone output terminal 628, and a S/PDIF output terminal 629.

전원부(690)는, 프로세서(630)의 제어에 의해 디스플레이 장치(110) 내부의 구성 요소들로 외부의 전원 소스에서부터 입력되는 전원을 공급한다. 또한, 전원부(690)는 프로세서(630)의 제어에 의해 디스플레이 장치(110) 내부에 위치하는 하나 또는 둘 이상의 배터리(도시되지 아니함)로부터 출력되는 전원을 내부의 구성 요소들에게 공급할 수 있다.The power supply unit 690 supplies power input from an external power source to components inside the display device 110 under the control of the processor 630 . In addition, the power supply unit 690 may supply power output from one or more batteries (not shown) located inside the display device 110 to internal components under the control of the processor 630 .

센싱부(691)는, 디스플레이 장치(110)의 상태 또는 디스플레이 장치(110) 주변의 상태를 감지하고, 감지된 정보를 프로세서(630)로 전달할 수 있다. The sensing unit 691 may detect a state of the display device 110 or a state around the display device 110 and transmit the sensed information to the processor 630 .

센싱부(691)는, 지자기 센서(Magnetic sensor)(692), 가속도 센서(Acceleration sensor)(693), 온/습도 센서(694), 적외선 센서(695), 자이로스코프 센서(696), 위치 센서(예컨대, GPS)(697), 기압 센서(698), 근접 센서(699), 및 RGB 센서(illuminance sensor)(201) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다. The sensing unit 691 includes a magnetic sensor 692, an acceleration sensor 693, a temperature/humidity sensor 694, an infrared sensor 695, a gyroscope sensor 696, and a position sensor. (eg, a GPS) 697, an air pressure sensor 698, a proximity sensor 699, and an RGB sensor (illuminance sensor) 201, but may include at least one, but is not limited thereto. Since a person skilled in the art can intuitively infer the function of each sensor from its name, a detailed description thereof will be omitted.

일 실시 예에 따른 센싱부(691)는 디스플레이 장치(110)에 가해지는 외부 충격을 감지할 수 있다. 예를 들어, 모바일 장치(200)가 디스플레이 장치(110)에 터치됨에 따라, 디스플레이 장치(110)의 센싱부(691)는 센싱값을 출력할 수 있다. The sensing unit 691 according to an embodiment may detect an external impact applied to the display device 110 . For example, when the mobile device 200 touches the display device 110, the sensing unit 691 of the display device 110 may output a sensed value.

또한, 디스플레이(610)를 포함하는 디스플레이 장치(110)는 튜너부(640)를 포함하는 별도의 외부 장치(예를 들어, 셋톱 박스, 도시되지 아니함)와 전기적으로 연결될 수 있다.Also, the display device 110 including the display 610 may be electrically connected to a separate external device (eg, a set-top box, not shown) including the tuner unit 640 .

또한, 디스플레이 장치(110)는 아날로그 TV, 디지털 TV, 3D-TV, 스마트 TV, LED TV, OLED TV, 플라즈마 TV, 모니터 등으로 구현될 수 있으나, 이에 한정되지 않는다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다.In addition, the display device 110 may be implemented as an analog TV, digital TV, 3D-TV, smart TV, LED TV, OLED TV, plasma TV, monitor, etc., but is not limited thereto. It will be easily understood by those who have.

한편, 도시된 디스플레이 장치(110)의 블록도는 일 실시 예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 디스플레이 장치(110)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 실시 예들을 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.Meanwhile, the block diagram of the illustrated display device 110 is a block diagram for one embodiment. Each component of the block diagram may be integrated, added, or omitted according to specifications of the display device 110 that is actually implemented. That is, if necessary, two or more components may be combined into one component, or one component may be subdivided into two or more components. In addition, the functions performed in each block are for explaining the embodiments, and the specific operation or device does not limit the scope of the present invention.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on the above. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

Claims (20)

음성 명령을 수신하는 동작;
컨텐츠 앱 리스트에 포함된 컨텐츠 앱이 실행 상태인지 확인하는 동작;
상기 음성 명령에서 실행할 컨텐츠 앱, 타이틀, 기간, 컨텐츠 유형 및 액션에 관한 정보 중에서 적어도 하나를 추출하는 동작;
상기 컨텐츠 앱 리스트에 포함된 컨텐츠 앱이 실행 상태이면, 실행 중인 컨텐츠 앱에 관한 정보를 확인하는 동작; 및
실행 중인 컨텐츠 앱에 관한 정보와 상기 음성 명령에서 추출된 정보를 조합해서 컨텐츠를 검색하는 동작
을 포함하는 발화 의도를 고려한 검색 방법.
receiving a voice command;
checking whether a content app included in the content app list is in an running state;
extracting at least one of information about a content app, title, period, content type, and action to be executed in the voice command;
if the content app included in the content app list is in an running state, checking information about the running content app; and
Searching for content by combining information about the running content app and information extracted from the voice command
A search method considering an utterance intent that includes.
제1항에 있어서,
상기 실행 중인 컨텐츠 앱에 관한 정보와 상기 음성 명령에서 상기 추출된 정보를 조합해서 컨텐츠를 검색하는 동작은,
상기 추출된 정보에 상기 실행할 컨텐츠 앱에 관한 정보가 포함되어 있지 않으면, 상기 추출된 정보를 이용해서 상기 실행 중인 컨텐츠 앱을 통해서 제공되는 컨텐츠를 검색하는 동작
을 포함하는 발화 의도를 고려한 검색 방법.
According to claim 1,
The operation of searching for content by combining the information about the running content app and the information extracted from the voice command,
If the extracted information does not include information about the content app to be executed, searching for content provided through the currently running content app using the extracted information.
A search method considering an utterance intent that includes.
제2항에 있어서,
상기 실행 중인 컨텐츠 앱을 통해서 제공되는 컨텐츠를 검색한 결과 검색된 컨텐츠가 존재하지 않으면, 상기 추출된 정보를 이용해서 상기 컨텐츠 앱 리스트에 포함된 다른 컨텐츠 앱을 통해서 제공되는 컨텐츠를 검색하는 동작
을 더 포함하는 발화 의도를 고려한 검색 방법.
According to claim 2,
Searching for content provided through other content apps included in the list of content apps using the extracted information, if the searched content does not exist as a result of searching for content provided through the running content app.
A search method considering an utterance intent that further includes.
제1항에 있어서,
상기 실행 중인 컨텐츠 앱에 관한 정보와 상기 음성 명령에서 상기 추출된 정보를 조합해서 컨텐츠를 검색하는 동작은,
상기 추출된 정보에 상기 실행할 컨텐츠 앱에 관한 정보가 포함되어 있으면, 상기 추출된 정보에서 상기 실행할 컨텐츠 앱에 관한 정보를 제외한 나머지 정보를 이용해서 상기 실행할 컨텐츠 앱을 통해서 제공되는 컨텐츠를 검색하는 동작
을 포함하는 발화 의도를 고려한 검색 방법.
According to claim 1,
The operation of searching for content by combining the information about the running content app and the information extracted from the voice command,
If the extracted information includes information about the content app to be executed, searching for content provided through the content app to be executed using remaining information excluding information about the content app to be executed from the extracted information.
A search method considering an utterance intent that includes.
제4항에 있어서,
상기 실행 중인 컨텐츠 앱 정보와 상기 음성 명령에서 상기 추출된 정보를 조합해서 컨텐츠를 검색하는 동작은,
상기 실행할 컨텐츠 앱을 통해서 제공되는 컨텐츠를 검색한 결과 검색된 컨텐츠가 존재하지 않으면, 상기 추출된 정보에서 상기 실행할 컨텐츠 앱에 관한 정보를 제외한 나머지 정보를 이용해서 상기 실행 중인 컨텐츠 앱을 통해 제공되는 컨텐츠를 검색하는 동작
을 포함하는 발화 의도를 고려한 검색 방법.
According to claim 4,
The operation of searching for content by combining information about the running content app and the information extracted from the voice command,
As a result of searching for content provided through the content app to be executed, if the searched content does not exist, the content provided through the content app being executed is retrieved using the remaining information excluding the information on the content app to be executed from the extracted information. action to search
A search method considering an utterance intent that includes.
제5항에 있어서,
상기 실행 중인 컨텐츠 앱 정보와 상기 음성 명령에서 상기 추출된 정보를 조합해서 컨텐츠를 검색하는 동작은,
상기 실행할 컨텐츠 앱과 상기 실행 중인 컨텐츠 앱을 통해서 제공되는 컨텐츠를 검색한 결과 컨텐츠가 검색되지 않으면, 상기 추출된 정보에서 상기 실행할 컨텐츠 앱에 관한 정보를 제외한 나머지 정보를 이용해서 상기 컨텐츠 앱 리스트에 포함된 다른 컨텐츠 앱을 통해 제공되는 컨텐츠를 검색하는 동작
을 포함하는 발화 의도를 고려한 검색 방법.
According to claim 5,
The operation of searching for content by combining information about the running content app and the information extracted from the voice command,
If content is not found as a result of searching for content provided through the content app to be executed and the content app being executed, the extracted information is included in the content app list using the remaining information excluding information on the content app to be executed. Searching for content provided through other content apps
A search method considering an utterance intent that includes.
제1항에 있어서,
상기 컨텐츠 앱 리스트에 포함된 컨텐츠 앱이 실행 중이지 않고, 방송 출력 상태이면, 현재 출력되는 방송 정보를 획득하는 동작; 및
상기 방송에 관한 정보와 상기 음성 명령에서 추출된 정보를 조합해서 컨텐츠를 검색하는 동작
을 더 포함하는 발화 의도를 고려한 검색 방법.
According to claim 1,
obtaining broadcast information currently being output if the content app included in the content app list is not running and is in a broadcasting output state; and
Searching for content by combining information about the broadcast and information extracted from the voice command
A search method considering an utterance intent that further includes.
제7항에 있어서,
상기 방송에 관한 정보와 상기 음성 명령에서 추출된 정보를 조합해서 컨텐츠를 검색하는 동작은,
상기 추출된 정보에 상기 실행할 컨텐츠 앱에 관한 정보가 포함되어 있지 않으면, 상기 추출된 정보와 상기 방송에 관한 정보를 이용해서 상기 컨텐츠 앱 리스트에 포함된 모든 컨텐츠 앱을 통해서 제공되는 컨텐츠를 검색하는 동작
을 포함하는 발화 의도를 고려한 검색 방법.
According to claim 7,
The operation of searching for content by combining the information about the broadcast and the information extracted from the voice command,
If the extracted information does not include information about the content app to be executed, searching for content provided through all content apps included in the list of content apps using the extracted information and information about the broadcasting.
A search method considering an utterance intent that includes.
제7항에 있어서,
상기 방송에 관한 정보와 상기 음성 명령에서 추출된 정보를 조합해서 컨텐츠를 검색하는 동작은,
상기 추출된 정보에 상기 실행할 컨텐츠 앱에 관한 정보가 포함되어 있으면, 상기 추출된 정보에서 상기 실행할 컨텐츠 앱에 관한 정보를 제외한 나머지 정보와 상기 방송에 관한 정보를 이용해서 상기 실행할 컨텐츠 앱을 통해서 제공되는 컨텐츠를 검색하는 동작
을 포함하는 발화 의도를 고려한 검색 방법.
According to claim 7,
The operation of searching for content by combining the information about the broadcast and the information extracted from the voice command,
If the extracted information includes information about the content app to be executed, information about the content app to be executed is provided through the content app to be executed by using the information about the broadcast and the remaining information except for the information about the content app to be executed in the extracted information. The act of retrieving content
A search method considering an utterance intent that includes.
제9항에 있어서,
상기 방송에 관한 정보와 상기 음성 명령에서 추출된 정보를 조합해서 컨텐츠를 검색하는 동작은,
상기 실행할 컨텐츠 앱을 통해서 제공되는 컨텐츠를 검색한 결과 검색된 컨텐츠가 존재하지 않으면, 상기 추출된 정보에서 상기 실행할 컨텐츠 앱에 관한 정보를 제외한 나머지 정보와 상기 방송에 관한 정보를 이용해서 상기 컨텐츠 앱 리스트에 포함된 다른 컨텐츠 앱을 통해서 제공되는 컨텐츠를 검색하는 동작
를 포함하는 발화 의도를 고려한 검색 방법.
According to claim 9,
The operation of searching for content by combining the information about the broadcast and the information extracted from the voice command,
As a result of searching for content provided through the content app to be executed, if the searched content does not exist, the list of content apps is created using the remaining information excluding the information on the content app to be executed from the extracted information and the information on the broadcast. Searching for content provided through other included content apps
A search method considering an utterance intent that includes.
제1항에 있어서,
상기 음성 명령에서 추출된 상기 액션에 관한 정보가 검색이면, 검색결과를 출력하는 동작
를 더 포함하는 발화 의도를 고려한 검색 방법.
According to claim 1,
If the information about the action extracted from the voice command is a search, outputting a search result
A search method considering an utterance intent that further includes.
제1항에 있어서,
상기 음성 명령에서 추출된 상기 액션에 관한 정보가 실행이고, 검색된 결과가 하나이면 검색된 컨텐츠를 실행하는 동작
을 더 포함하는 발화 의도를 고려한 검색 방법.
According to claim 1,
If the information about the action extracted from the voice command is execution and the search result is one, executing the searched content.
A search method considering an utterance intent that further includes.
제1항에 있어서,
상기 음성 명령에서 추출된 상기 액션에 관한 정보가 실행이고, 검색된 결과가 복수개이면, 상기 검색된 결과를 출력하는 동작
을 더 포함하는 발화 의도를 고려한 검색 방법.
According to claim 1,
If the information about the action extracted from the voice command is execution and there are a plurality of search results, outputting the search results.
A search method considering an utterance intent that further includes.
제1항에 있어서,
상기 음성 명령에서 실행할 컨텐츠 앱, 타이틀, 기간, 컨텐츠 유형 및 액션에 관한 정보 중에서 적어도 하나를 추출하는 동작은,
상기 음성 명령을 음성 검색 서버로 송신하고, 상기 음성 검색 서버로부터 상기 추출된 정보를 수신하는
발화 의도를 고려한 검색 방법.
According to claim 1,
The operation of extracting at least one of information about the content app, title, period, content type, and action to be executed in the voice command,
Transmitting the voice command to a voice search server, and receiving the extracted information from the voice search server
Search method considering utterance intent.
제1항에 있어서,
상기 컨텐츠 앱 리스트에 포함된 컨텐츠 앱에 대응하는 컨텐츠 제공 서버로부터 제공하는 컨텐츠 정보를 수집하여 컨텐츠 데이터베이스로 저장하여 관리하는 동작
을 더 포함하고,
상기 실행 중인 컨텐츠 앱에 관한 정보와 상기 음성 명령에서 추출된 정보를 조합해서 컨텐츠를 검색하는 동작은,
상기 컨텐츠 데이터베이스에서 컨텐츠를 검색하는
발화 의도를 고려한 검색 방법.
According to claim 1,
An operation of collecting content information provided from a content providing server corresponding to a content app included in the content app list, storing it in a content database, and managing the content information.
Including more,
The operation of searching for content by combining the information about the running content app and the information extracted from the voice command,
Retrieving content from the content database
Search method considering utterance intent.
제1항에 있어서,
상기 컨텐츠 앱 리스트에 포함된 컨텐츠 앱에 대한 실행 빈도 또는 사용자의 선호도를 고려하여 컨텐츠 앱의 우선순위를 결정하는 동작
을 더 포함하고,
상기 실행 중인 컨텐츠 앱에 관한 정보와 상기 음성 명령에서 추출된 정보를 조합해서 컨텐츠를 검색하는 동작은,
복수의 컨텐츠 앱에서 컨텐츠가 검색되면, 검색된 결과를 상기 컨텐츠 앱의 우선순위에 따라 정렬하여 출력하는 동작
을 포함하는 발화 의도를 고려한 검색 방법.
According to claim 1,
An operation of determining a priority of a content app by considering an execution frequency of the content app included in the content app list or a user's preference.
Including more,
The operation of searching for content by combining the information about the running content app and the information extracted from the voice command,
When content is searched from a plurality of content apps, sorting and outputting the searched results according to the priority of the content apps
A search method considering an utterance intent that includes.
음성 명령을 수신하는 마이크; 및
컨텐츠 앱 리스트에 포함된 컨텐츠 앱이 실행 상태인지 확인하고, 상기 음성 명령에서 실행할 컨텐츠 앱, 타이틀, 기간, 컨텐츠 유형 및 액션에 관한 정보 중에서 적어도 하나를 추출하고, 상기 컨텐츠 앱 리스트에 포함된 컨텐츠 앱이 실행 상태이면, 실행 중인 컨텐츠 앱에 관한 정보를 확인하고, 실행 중인 컨텐츠 앱에 관한 정보와 상기 음성 명령에서 추출된 정보를 조합해서 컨텐츠를 검색하는 프로세서
를 포함하는 발화 의도를 고려하여 검색하는 디스플레이 장치.
a microphone to receive voice commands; and
It is checked whether a content app included in the content app list is in an running state, at least one of content apps to be executed by the voice command, title, duration, content type, and action information is extracted, and content apps included in the content app list are included in the content app list. In this running state, a processor that checks information about the running content app and searches for content by combining the information about the running content app and the information extracted from the voice command.
A display device for searching in consideration of an utterance intention comprising a.
제17항에 있어서,
상기 프로세서는,
상기 추출된 정보에 상기 실행할 컨텐츠 앱에 관한 정보가 포함되어 있지 않으면, 상기 추출된 정보를 이용해서 상기 실행 중인 컨텐츠 앱을 통해서 제공되는 컨텐츠를 검색하는
발화 의도를 고려하여 검색하는 디스플레이 장치.
According to claim 17,
the processor,
If the extracted information does not include information about the content app to be executed, content provided through the running content app is searched using the extracted information.
A display device that searches in consideration of utterance intention.
제17항에 있어서,
상기 프로세서는,
상기 컨텐츠 앱 리스트에 포함된 컨텐츠 앱이 실행 중이지 않고 방송 출력 상태이면 현재 출력되는 방송 정보를 획득하고, 상기 방송에 관한 정보와 상기 음성 명령에서 추출된 정보를 조합해서 컨텐츠를 검색하는
발화 의도를 고려하여 검색하는 디스플레이 장치.
According to claim 17,
the processor,
If the content app included in the content app list is not running and is in a broadcast output state, obtaining broadcast information currently output and searching for content by combining information about the broadcast with information extracted from the voice command
A display device that searches in consideration of utterance intention.
음성에서 실행할 컨텐츠 앱, 타이틀, 기간, 컨텐츠 유형 및 액션에 관한 정보 중에서 적어도 하나를 추출하는 음성 검색 서버;
컨텐츠 앱에 대응하는 컨텐츠 제공 서버 각각에서 제공하는 컨텐츠 정보를 수집하여 컨텐츠 데이터베이스로 저장하여 관리하는 컨텐츠 검색 서버; 및
음성 명령을 수신하면 상기 음성 명령을 상기 음성 검색 서버로 송신하여 추출된 정보를 수신하고, 컨텐츠 앱 리스트에 포함된 컨텐츠 앱이 실행 상태인지 확인하고, 상기 컨텐츠 앱 리스트에 포함된 컨텐츠 앱이 실행 상태이면, 실행 중인 컨텐츠 앱에 관한 정보를 확인하고, 실행 중인 컨텐츠 앱에 관한 정보와 상기 음성 명령에서 추출된 정보를 조합해서 상기 컨텐츠 검색 서버를 통해서 컨텐츠를 검색하는 디스플레이 장치
를 포함하는 발화 의도를 고려하여 검색하는 시스템.
a voice search server that extracts at least one of information about a content app to be executed from voice, a title, a period, a content type, and an action;
A content search server that collects content information provided by each content providing server corresponding to the content app, stores it in a content database, and manages the content information; and
When a voice command is received, the voice command is transmitted to the voice search server to receive extracted information, it is checked whether a content app included in the content app list is running, and the content app included in the content app list is running. , a display device that checks information about the running content app and searches for content through the content search server by combining the information about the running content app and the information extracted from the voice command.
A system for searching in consideration of an utterance intent that includes.
KR1020210106799A 2021-08-12 2021-08-12 Display apparatus and method for searching in consideration of utterance intent KR20230024712A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210106799A KR20230024712A (en) 2021-08-12 2021-08-12 Display apparatus and method for searching in consideration of utterance intent

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210106799A KR20230024712A (en) 2021-08-12 2021-08-12 Display apparatus and method for searching in consideration of utterance intent

Publications (1)

Publication Number Publication Date
KR20230024712A true KR20230024712A (en) 2023-02-21

Family

ID=85328193

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210106799A KR20230024712A (en) 2021-08-12 2021-08-12 Display apparatus and method for searching in consideration of utterance intent

Country Status (1)

Country Link
KR (1) KR20230024712A (en)

Similar Documents

Publication Publication Date Title
US11330320B2 (en) Display device and method for controlling display device
US10334321B2 (en) Display apparatus and method for acquiring channel information of a display apparatus
CN110737840A (en) Voice control method and display device
US9973824B2 (en) Electronic device and method of scanning channels in electronic device
CN107636749B (en) Image display apparatus and method of operating the same
US10110843B2 (en) Image display device and operating method of the same
US20170011009A1 (en) Electronic device and method for providing information associated with news content
US20170026707A1 (en) Electronic device for providing information associated with broadcast content and method thereof
CN111787376B (en) Display device, server and video recommendation method
US20160119685A1 (en) Display method and display device
KR20140022320A (en) Method for operating an image display apparatus and a server
US11089355B2 (en) Image display device and method of providing broadcast program information
KR20180103504A (en) Image display device and operating method for the same
EP3038374A1 (en) Display device and display method
US20170251243A1 (en) Server, image display apparatus, and method of operating the image display apparatus
US20120146777A1 (en) Electronic equipment providing electronic manual and control method thereof
US10310709B2 (en) Image display apparatus and method of displaying image for determining a candidate item to select
KR20230024712A (en) Display apparatus and method for searching in consideration of utterance intent
KR102325340B1 (en) Method and Electronic Apparatus for Executing an Application
US11404042B2 (en) Electronic device and operation method thereof
KR20130080380A (en) Electronic apparatus and method for controlling electronic apparatus thereof
US11323763B2 (en) Display apparatus and method of operating the same
KR101982153B1 (en) Image display apparatus and operating method for the same
KR102496618B1 (en) Method and apparatus for identifying content
US11622157B2 (en) Display apparatus and operating method of the same