KR20200088019A - Method and apparatus for searching broadcasting image - Google Patents

Method and apparatus for searching broadcasting image Download PDF

Info

Publication number
KR20200088019A
KR20200088019A KR1020190004494A KR20190004494A KR20200088019A KR 20200088019 A KR20200088019 A KR 20200088019A KR 1020190004494 A KR1020190004494 A KR 1020190004494A KR 20190004494 A KR20190004494 A KR 20190004494A KR 20200088019 A KR20200088019 A KR 20200088019A
Authority
KR
South Korea
Prior art keywords
image
server
recognition
search
recognition server
Prior art date
Application number
KR1020190004494A
Other languages
Korean (ko)
Other versions
KR102217490B1 (en
Inventor
박세호
한정안
이정우
Original Assignee
주식회사 엘지유플러스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘지유플러스 filed Critical 주식회사 엘지유플러스
Priority to KR1020190004494A priority Critical patent/KR102217490B1/en
Publication of KR20200088019A publication Critical patent/KR20200088019A/en
Application granted granted Critical
Publication of KR102217490B1 publication Critical patent/KR102217490B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2668Creating a channel for a dedicated end-user group, e.g. insertion of targeted commercials based on end-user profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

The following embodiments relate to a method for searching an image and to an apparatus thereof. According to one embodiment, the method for searching an image comprises the steps of: receiving a captured broadcasting image; inputting the captured broadcast image to a plurality of image analysis servers, and receiving an image analysis result corresponding to the captured broadcasting image from each of the plurality of image analysis servers; scoring the image analysis result to determine the priority of the image analysis result; determining any one of the image analysis results as a search target based on the priority; inputting a search target into the service server to obtain service content corresponding to the search target; and processing the service content to be displayed on the screen.

Description

방송 영상 검색 방법 및 장치{METHOD AND APPARATUS FOR SEARCHING BROADCASTING IMAGE}Broadcasting video search method and device {METHOD AND APPARATUS FOR SEARCHING BROADCASTING IMAGE}

아래의 실시예들은 이미지 검색 방법 및 장치에 관한 것이다.The embodiments below relate to an image search method and apparatus.

정보통신 기술의 지속적인 발전으로 IP(Internet Protocol) 통신망을 방송 송출매체로 사용하여 실시간 방송 컨텐츠, 또는 주문형 방송 컨텐츠를 방송하는 IPTV 방송 시스템이 상용화되고 있다. 나아가, 최근에는 기존의 전통적인 TV에 사용자와의 쌍방향 통신 기능 및 인터넷을 이용한 각종 부가 기능들이 추가되어 스마트폰과의 연동까지 지원하는 스마트 TV가 등장하였다.With the continuous development of information and communication technology, an IPTV broadcasting system that broadcasts real-time broadcast content or on-demand broadcast content using an IP (Internet Protocol) communication network as a broadcast transmission medium has been commercialized. Furthermore, recently, a smart TV has appeared that supports interworking with a smartphone by adding interactive functions with users and various additional functions using the Internet to the existing traditional TV.

종래 상용화되어 있던 아날로그 방송을 비롯하여 최근 상용화된 위성 디지털 방송, 지상파 디지털 방송, 케이블 방송의 추세를 보면, 방송과 동시에 해당 방송과 관련된 검색어가 온라인 포털 등의 검색어 순위의 상위에 랭킹되는 현상을 종종 목격하게 된다.Looking at the trend of recently commercialized analog broadcasts, satellite digital broadcasts, terrestrial digital broadcasts, and cable broadcasts, it is often observed that the search terms related to the broadcast are ranked at the top of the search terms of online portals at the same time as the broadcast. Is done.

이것은 방송과 온라인 검색이 방송 시청자에 의해 이미 융합되어 있음을 의미하며, 동일한 방송 컨텐츠를 시청하는 시청자는 방송 시점과 무관하게 해당 방송 컨텐츠에 대한 궁금증을 온라인 검색을 통해 해소하고자 하는 특징을 있음을 의미하고 있는 것이다. This means that broadcast and online search have already been fused by broadcast viewers, and viewers who watch the same broadcast content have the feature of solving the curiosity about the broadcast content through online search regardless of the broadcast time. Is doing.

실시예들은 고객이 보는 TV 화면을 자동 인식하여 맞춤 서비스를 제공하고자 한다.The embodiments are intended to provide a customized service by automatically recognizing a TV screen viewed by a customer.

실시예들은 별도 메타 없이 이미지 분석만으로 VOD, 쇼핑, 지식검색 등의 서비스를 제공하고자 한다.The embodiments are intended to provide a service such as VOD, shopping, knowledge search, etc. by simply analyzing images without additional meta.

실시예들은 시청중인 장면과 상황을 분석하여 유사한 서비스를 자동으로 제공하고자 한다.The embodiments attempt to automatically provide a similar service by analyzing the scene and situation being watched.

실시예들은 인물검색을 통해 컨텐츠 검색을 도와주고, 쇼핑 검색을 통해 고객이 원하는 물건의 구매를 돕고자 한다.The embodiments are intended to assist in content search through person search and to help customers purchase desired products through shopping search.

실시예들은 인물정보 검색 및 인물 사진 제공 등의 서비스 제공을 통해 VOD 추천 및 시청유도를 통해 수익 창출하고자 한다.The embodiments are intended to generate revenue through recommendation of VOD and induction of viewing through provision of services such as searching for personal information and providing portraits.

일 실시예에 따른 이미지 검색 방법은 캡처된 방송 영상을 수신하는 단계; 상기 캡처된 방송 영상을 복수개의 영상 분석 서버에 입력하여, 상기 복수개의 영상 분석 서버 각각으로부터 상기 캡처된 방송 영상에 대응하는 영상 분석 결과를 수신하는 단계; 상기 영상 분석 결과를 스코어링하여 상기 영상 분석 결과의 우선 순위를 결정하는 단계; 상기 우선 순위에 기초하여 상기 영상 분석 결과 중 어느 하나를 검색 대상으로 결정하는 단계; 상기 검색 대상을 서비스 서버에 입력하여 상기 검색 대상에 대응하는 서비스 콘텐츠를 획득하는 단계; 및 상기 서비스 콘텐츠를 화면상에 표시하도록 처리하는 단계를 포함한다.An image search method according to an embodiment may include receiving a captured broadcast image; Inputting the captured broadcast images into a plurality of image analysis servers, and receiving image analysis results corresponding to the captured broadcast images from each of the plurality of image analysis servers; Scoring the image analysis results to determine a priority of the image analysis results; Determining any one of the image analysis results as a search target based on the priority; Inputting the search target into a service server to obtain service content corresponding to the search target; And processing to display the service content on the screen.

상기 영상 분석 서버는 인물 인식 서버, 상품 인식 서버, 지식 인식 서버 및 복합 인식 서버 중 적어도 하나를 포함할 수 있다. The image analysis server may include at least one of a person recognition server, a product recognition server, a knowledge recognition server, and a complex recognition server.

상기 영상 분석 결과는 상기 캡처된 방송 영상에 포함된 인식의 대상이 되는 영역, 상기 인식의 대상이 되는 영역에 대한 인식 결과 및 상기 인식 결과의 정확도 점수를 포함할 수 있다.The image analysis result may include an area targeted for recognition included in the captured broadcast image, a recognition result for the area targeted for recognition, and an accuracy score of the recognition result.

상기 우선 순위를 결정하는 단계는 상기 영상 분석 결과에 포함된 인식 결과의 정확도 점수에 기초하여, 상기 우선 순위를 결정하는 단계를 포함할 수 있다.The determining of the priority may include determining the priority based on the accuracy score of the recognition result included in the image analysis result.

상기 서비스 콘텐츠를 화면상에 표시하도록 처리하는 단계는 상기 서비스 콘텐츠를 인식의 대상이 되는 영역과 함께 상기 화면상에 표시하도록 처리하는 단계를 포함할 수 있다.The processing of displaying the service content on the screen may include processing the service content to be displayed on the screen together with an area to be recognized.

상기 서비스 콘텐츠를 획득하는 단계는 상기 검색 대상의 종류에 따라 미리 결정된 상기 서비스 서버를 결정하는 단계; 및 상기 검색 대상을 상기 결정된 서비스 서버에 입력하여 상기 서비스 콘텐츠를 획득하는 단계를 포함할 수 있다.The obtaining of the service content may include determining the service server predetermined according to the type of the search target; And obtaining the service content by inputting the search target into the determined service server.

상기 캡처된 방송 영상을 수신하는 단계는 방송 중인 영상에 대한 검색 요청을 수신하는 단계; 상기 검색 요청에 따라 상기 검색 요청 시점의 방송 영상을 캡처하는 단계; 및 상기 캡처된 방송 영상을 수신하는 단계를 포함할 수 있다.The receiving of the captured broadcast image may include receiving a search request for the broadcast image; Capturing a broadcast image at the time of the search request according to the search request; And receiving the captured broadcast image.

상기 영상 분석 결과를 수신하는 단계는 상기 캡처된 방송 영상을 인물 인식 서버에 입력하여 상기 캡처된 방송 영상 내에 인물 이미지가 포함되어 있는 경우, 상기 인물 이미지에 대응하는 키워드 및 상기 인물 이미지의 정확도 점수를 수신하는 단계를 포함할 수 있다.In the receiving of the video analysis result, when the captured broadcast video is input to the person recognition server, when the captured broadcast video includes a person image, a keyword corresponding to the person image and an accuracy score of the person image are obtained. And receiving.

상기 영상 분석 결과를 수신하는 단계는 상기 캡처된 방송 영상을 상품 인식 서버에 입력하여 상기 캡처된 방송 영상 내에 상품 이미지가 포함되어 있는 경우, 상기 상품에 대응하는 판매 정보 및 상기 상품 이미지의 정확도 점수를 수신하는 단계를 포함할 수 있다.In the receiving of the video analysis result, when the captured broadcast image is input to the product recognition server, and the product image is included in the captured broadcast image, the sales information corresponding to the product and the accuracy score of the product image are obtained. And receiving.

상기 검색 대상이 인물 인식 서버로부터 수신한 영상 분석 결과인 경우, 상기 검색 대상에 대응하는 서비스 콘텐츠를 획득하는 단계는 상기 검색 대상을 인물 검색 서버, 미디어 검색 서버 및 사진 검색 서버 중 적어도 하나에 입력하여 상기 검색 대상에 대응하는 서비스 콘텐츠를 획득하는 단계를 포함할 수 있다.When the search target is an image analysis result received from the person recognition server, the step of obtaining service content corresponding to the search target may include inputting the search target into at least one of a person search server, a media search server, and a photo search server. And obtaining service content corresponding to the search target.

상기 영상 분석 서버는 인물 인식 서버, 상품 인식 서버, 지식 인식 서버 및 복합 인식 서버 중 적어도 하나를 포함하고, 상기 우선 순위를 결정하는 단계는 상기 인물 인식 서버, 상기 상품 인식 서버, 상기 지식 인식 서버 및 상기 복합 인식 서버로부터 수신한 영상 분석 결과에 포함된 인식 결과의 정확도 점수를 비교하는 단계; 및 상기 인식 결과의 정확도 점수에 기초하여 상기 우선 순위를 결정하는 단계를 포함할 수 있다.The image analysis server includes at least one of a person recognition server, a product recognition server, a knowledge recognition server, and a compound recognition server, and determining the priority includes the person recognition server, the product recognition server, the knowledge recognition server, and Comparing an accuracy score of the recognition result included in the image analysis result received from the composite recognition server; And determining the priority based on the accuracy score of the recognition result.

상기 서비스 콘텐츠를 화면상에 표시하도록 처리하는 단계는 상기 서비스 콘텐츠가 복수개인 경우, 미리 정해진 기준에 따라 상기 서비스 콘텐츠의 목록을 제공하는 단계를 포함할 수 있다.The processing of displaying the service content on the screen may include providing a list of the service content according to a predetermined criterion when the service content is plural.

일 실시예에 따른 이미지 검색 장치는 캡처된 방송 영상을 수신하는 방송 신호 수신부; 및 상기 캡처된 방송 영상을 복수개의 영상 분석 서버에 입력하여, 상기 복수개의 영상 분석 서버 각각으로부터 상기 캡처된 방송 영상에 대응하는 영상 분석 결과를 수신하고, 상기 영상 분석 결과를 스코어링 하여 상기 영상 분석 결과의 우선 순위를 결정하고, 상기 우선 순위에 기초하여 상기 영상 분석 결과 중 어느 하나를 검색 대상으로 결정하고, 상기 검색 대상을 서비스 서버에 입력하여 상기 검색 대상에 대응하는 서비스 콘텐츠를 획득하며, 상기 서비스 콘텐츠를 화면상에 표시하도록 처리하는 프로세서를 포함한다.An image search apparatus according to an embodiment may include a broadcast signal receiver configured to receive a captured broadcast image; And inputting the captured broadcast images to a plurality of image analysis servers, receiving image analysis results corresponding to the captured broadcast images from each of the plurality of image analysis servers, and scoring the image analysis results to score the image analysis results. Determines the priority of, and determines any one of the video analysis results based on the priority as a search target, inputs the search target to a service server to obtain service content corresponding to the search target, and the service And a processor that processes content to be displayed on the screen.

상기 영상 분석 서버는 인물 인식 서버, 상품 인식 서버, 지식 인식 서버 및 복합 인식 서버 중 적어도 하나를 포함할 수 있다.The image analysis server may include at least one of a person recognition server, a product recognition server, a knowledge recognition server, and a complex recognition server.

상기 영상 분석 결과는 상기 캡처된 방송 영상에 포함된 인식의 대상이 되는 영역, 상기 인식의 대상이 되는 영역에 대한 인식 결과 및 상기 인식 결과의 정확도 점수를 포함할 수 있다.The image analysis result may include an area targeted for recognition included in the captured broadcast image, a recognition result for the area targeted for recognition, and an accuracy score of the recognition result.

상기 프로세서는 상기 영상 분석 결과에 포함된 인식 결과의 정확도 점수에 기초하여, 상기 우선 순위를 결정할 수 있다.The processor may determine the priority based on the accuracy score of the recognition result included in the image analysis result.

상기 프로세서는 상기 서비스 콘텐츠를 인식의 대상이 되는 영역과 함께 상기 화면상에 표기하도록 처리할 수 있다.The processor may process the service content to be displayed on the screen together with an area to be recognized.

상기 프로세서는 상기 검색 대상의 종류에 따라 미리 결정된 상기 서비스 서버를 결정하고, 상기 검색 대상을 상기 결정된 서비스 서버에 입력하여 상기 서비스 콘텐츠를 획득할 수 있다.The processor may determine the predetermined service server according to the type of the search target, and obtain the service content by inputting the search target to the determined service server.

상기 영상 분석 서버는 인물 인식 서버, 상품 인식 서버, 지식 인식 서버 및 복합 인식 서버 중 적어도 하나를 포함하고, 상기 프로세서는 상기 인물 인식 서버, 상기 상품 인식 서버, 상기 지식 인식 서버 및 상기 복합 인식 서버로부터 수신한 영상 분석 결과에 포함된 인식 결과의 정확도 점수를 비교하고, 상기 인식 결과의 정확도 점수에 기초하여 상기 우선 순위를 결정할 수 있다.The image analysis server includes at least one of a person recognition server, a product recognition server, a knowledge recognition server, and a compound recognition server, and the processor is configured from the person recognition server, the product recognition server, the knowledge recognition server, and the compound recognition server. The accuracy score of the recognition result included in the received image analysis result may be compared, and the priority may be determined based on the accuracy score of the recognition result.

실시예들은 고객이 보는 TV 화면을 자동 인식하여 맞춤 서비스를 제공할 수 있다.Embodiments may provide a customized service by automatically recognizing the TV screen viewed by the customer.

실시예들은 별도 메타 없이 이미지 분석만으로 VOD, 쇼핑, 지식검색 등의 서비스를 제공할 수 있다.Embodiments can provide services such as VOD, shopping, knowledge search, etc. by simply analyzing images without additional meta.

실시예들은 시청중인 장면과 상황을 분석하여 유사한 서비스를 자동으로 제공할 수 있다.Embodiments can automatically provide similar services by analyzing the scene and situation being viewed.

실시예들은 인물검색을 통해 컨텐츠 검색을 도와주고, 쇼핑 검색을 통해 고객이 원하는 물건의 구매를 도울 수 있다.Embodiments may help to search for content through person search, and to help purchase a product desired by a customer through shopping search.

실시예들은 인물정보 검색 및 인물 사진 제공 등의 서비스 제공을 통해 VOD 추천 및 시청유도를 통해 수익 창출할 수 있다.Embodiments may generate revenue through VOD recommendation and induction of viewing through provision of services such as searching for personal information and providing portraits.

도 1은 일 실시예에 따른 이미지 검색 장치를 포함하는 전체 시스템을 나타내는 도면이다.
도 2는 일 실시예에 따른 이미지 검색 장치의 세부 구성을 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 프로세서의 세부 구성을 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 영상 분석 결과의 우선 순위를 결정하는 방법을 설명하기 위한 순서도이다.
도 5는 일 실시예에 따른 인물 인식 결과가 검색 대상이 되는 실시예를 도시한 도면이다.
도 6은 일 실시예에 따른 상품 인식 결과가 검색 대상이 되는 실시예를 도시한 도면이다.
1 is a diagram illustrating an entire system including an image search apparatus according to an embodiment.
2 is a diagram for describing a detailed configuration of an image search apparatus according to an embodiment.
3 is a diagram for describing a detailed configuration of a processor according to an embodiment.
4 is a flowchart illustrating a method of determining a priority of an image analysis result according to an embodiment.
5 is a diagram illustrating an embodiment in which a person recognition result according to an embodiment is a search target.
6 is a diagram illustrating an embodiment in which a product recognition result according to an embodiment is a search target.

본 명세서에서 개시되어 있는 특정한 구조적 또는 기능적 설명들은 단지 기술적 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 실시예들은 다양한 다른 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.The specific structural or functional descriptions disclosed in this specification are only for the purpose of describing the embodiments according to the technical concept, and the embodiments may be implemented in various other forms and are limited to the embodiments described herein. Does not work.

제1 또는 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 이해되어야 한다. 예를 들어 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but these terms should be understood only for the purpose of distinguishing one component from other components. For example, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 "~간의에"와 "바로~간의에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When an element is said to be "connected" or "connected" to another component, it is understood that other components may be directly connected to or connected to the other component, but there may be other components in between. It should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that no other component exists in the middle. Expressions describing the relationship between the components, for example, "between" and "immediately between" or "adjacent to" and "directly adjacent to" should be interpreted similarly.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, the terms "include" or "have" are intended to designate the presence of a feature, number, step, action, component, part, or combination thereof as described, one or more other features or numbers, It should be understood that the presence or addition possibilities of steps, actions, components, parts or combinations thereof are not excluded in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person skilled in the art. Terms such as those defined in a commonly used dictionary should be interpreted as having meanings consistent with meanings in the context of related technologies, and should not be interpreted as ideal or excessively formal meanings unless explicitly defined herein. Does not.

실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다. 예를 들어, 실시예들은 스마트 폰, 모바일 기기, 스마트 홈 시스템 등에서 사용자를 인증하는데 적용될 수 있다. 이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Embodiments may be implemented in various types of products, such as personal computers, laptop computers, tablet computers, smart phones, televisions, smart home appliances, intelligent cars, kiosks, and wearable devices. For example, embodiments may be applied to authenticate a user in a smart phone, mobile device, smart home system, or the like. Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The same reference numerals in each drawing denote the same members.

도 1은 일 실시예에 따른 이미지 검색 장치를 포함하는 전체 시스템을 나타내는 도면이다. 1 is a diagram illustrating an entire system including an image search apparatus according to an embodiment.

도 1을 참조하면, 일 실시예에 따른 시스템은 TV(100), 셋톱박스(Set-top box; STB)(110), 통신 네트워크(120), 방송 서버(130), 서비스 서버(140), 및 영상 분석 서버(150) 등을 포함하여 구성될 수 있다.1, the system according to an embodiment includes a TV 100, a set-top box (STB) 110, a communication network 120, a broadcast server 130, a service server 140, And an image analysis server 150.

일 실시예에 따르면, 방송 컨텐츠를 시청하는 시청자가 방송 컨텐츠에 대한 궁금증이 생길 경우, 시청자의 입력에 따라 TV에서 출력되고 있는 방송 영상을 캡처하고, 캡처한 영상을 이미지 인식 기반으로 유의미한 정보를 자동 추출하여 시청자에게 부가적인 서비스 콘텐츠를 제공할 수 있다. 검색 대상은 인물 정보, 상품 정보 및 지식 정보를 포함할 수 있으며, 캡처 화면에 관한 분석에 기초하여 각 검색 대상의 적합도에 관한 스코어가 산출될 수 있고, 산출된 스코어를 기초로 가장 적합한 검색 대상이 결정될 수 있다.According to an embodiment, when a viewer watching a broadcast content has a question about the broadcast content, the broadcast video being output from the TV is captured according to the viewer's input, and the captured video is automatically based on image recognition. It can be extracted to provide additional service content to viewers. The search target may include person information, product information, and knowledge information, and a score regarding the suitability of each search target may be calculated based on the analysis on the capture screen, and the most suitable search target based on the calculated score Can be determined.

TV(100)는 셋톱박스(110)를 통해 통신 네트워크(120)와 연결이 가능할 수 있다. TV(100)는 통신 네트워크(120)를 통해 방송 서버(130)로부터 방송 정보를 수신하여 방송 화면을 디스플레이할 수 있다. 방송 서버(130)는 지상파 방송 서버 및 케이블 방송 서버를 포함할 수 있다.The TV 100 may be connected to the communication network 120 through the set-top box 110. The TV 100 may receive broadcast information from the broadcast server 130 through the communication network 120 and display a broadcast screen. The broadcast server 130 may include a terrestrial broadcast server and a cable broadcast server.

TV(100)는 어떠한 종류의 형태와 기능을 갖는 TV도 본 발명에 적용이 가능할 수 있다. 이하 설명에서는 일반 TV에 소정의 애플리케이션이 설치된 셋톱박스가 연결된 형태의 시스템을 예를 들어 설명하기로 한다. 다만, 소정의 애플리케이션이 설치되고 인터넷과의 통신 기능이 구비된 스마트 TV에도 본 발명의 적용이 가능하다. 본 발명에 따라 셋톱박스 내에서 구현되는 기능의 전부 또는 일부가 스마트 TV 내에서 기능하도록 구현될 수 있다. 또한, 본 발명이 스마트 TV에 한정되는 것은 아니며, 소정의 어플리케이션이 설치 가능한 어떠한 방식의 TV에도 적용이 가능하다.The TV 100 may be applied to a TV having any form and function of the present invention. In the following description, a system in which a set-top box in which a predetermined application is installed in a general TV is connected is described as an example. However, the present invention can be applied to a smart TV with a predetermined application installed and a communication function with the Internet. According to the present invention, all or part of the functions implemented in the set-top box may be implemented to function in the smart TV. In addition, the present invention is not limited to a smart TV, and can be applied to any type of TV in which a predetermined application can be installed.

셋톱박스(110)는 TV(100)에 연결되어, 외부에서 들어오는 신호를 받아 적절히 변환하여 TV로 그 내용을 표시해 줄 수 있다. 셋톱박스(110)는 일반적으로 주문형 비디오(Video on demand; VOD), 홈 쇼핑, 네트워크 게임 등 차세대 쌍방향 멀티미디어 통신 서비스를 이용하는 데 필요한 가정용 통신 단말기로서 ‘가입자 신호 변환 장치’라고도 한다. 셋톱박스(110)는 방송 서버(130)로부터 방송 신호를 수신하여 TV(100)로 제공하는 기능을 수행할 수 있다. 또한, 셋톱박스(110)는 인터넷 연결 기능을 포함하여 통신 네트워크(120)와 연결함으로써 서비스 서버(140), 이미지 검색 서버(150)와의 통신을 수행할 수 있다. 아울러, 셋톱박스(110)에는 별도의 전용 애플리케이션의 설치를 통해 본 발명의 기능을 제공할 수 있게 된다.The set-top box 110 may be connected to the TV 100, receive signals from the outside, convert appropriately, and display the contents on the TV. The set-top box 110 is a home communication terminal required to use next-generation interactive multimedia communication services such as video on demand (VOD), home shopping, and network games, and is also referred to as a'subscriber signal conversion device'. The set-top box 110 may perform a function of receiving a broadcast signal from the broadcast server 130 and providing it to the TV 100. In addition, the set-top box 110 may perform communication with the service server 140 and the image search server 150 by connecting to the communication network 120 including an Internet connection function. In addition, the set-top box 110 can provide the functions of the present invention through the installation of a separate dedicated application.

본 발명의 명세서에서, 용어 '애플리케이션(application)' 또는 '앱(App)'은 스마트폰 또는 스마트 TV에 설치되는 응용 프로그램을 의미하며, 애플리케이션을 셋톱박스(110)에 설치하고 실행함으로써 본 발명의 실시예에 따른 각 기능들이 수행된다. 한편, 본 발명은 본 발명의 실시예에 따른 각종 기능들을 제공하기 위해 전용으로 제작된 애플리케이션을 사용할 수도 있으며, 다른 특정 애플리케이션에 본 발명에 따른 기능을 포함하여 구현할 수도 있다. 또한, 본 발명이 적용되는 애플리케이션은 스마트 TV 구동을 위한 애플리케이션이 될 수도 있으며, 상기 애플리케이션 실행 시 사용자 정보(예컨대, 아이디(ID))와 인증 정보(예컨대, 패스워드)를 입력함으로써 로그인한 후 서비스를 제공할 수도 있다.In the specification of the present invention, the term'application (application)' or'app (App)' refers to an application program installed on a smartphone or a smart TV, by installing and running the application on the set-top box 110 of the present invention Each function according to the embodiment is performed. On the other hand, the present invention may use an application made exclusively to provide various functions according to an embodiment of the present invention, or may be implemented by including the function according to the present invention in other specific applications. In addition, the application to which the present invention is applied may be an application for driving a smart TV, and when the application is executed, log in by entering user information (eg, ID) and authentication information (eg, password), and then providing services. It can also be provided.

통신 네트워크(120)는 유선 및 무선 등과 같은 그 통신 양태를 가리지 않고 구성될 수 있으며, 단거리 통신망(PAN; Personal Area Network), 근거리 통신망(LAN; Local Area Network), 도시권 통신망(MAN; Metropolitan Area Network), 광역 통신망(WAN; Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 또한, 통신 네트워크(120)는 공지의 월드와이드웹(WWW; World Wide Web)일 수 있으며, 적외선(Infrared Data Association; IrDA) 또는 블루투스(Bluetooth)와 같이 단거리 통신에 이용되는 무선전송기술을 이용할 수도 있다. 또한, 통신 네트워크(120)는 TV(100)에서 방송 신호를 수신하기 위한 케이블 방송 통신망, 지상파 방송 통신망, 위성 방송 통신망 등을 포함할 수 있다.The communication network 120 may be configured regardless of its communication mode, such as wired and wireless, and a short-range communication network (PAN), a local area network (LAN), and a metropolitan area network (MAN). ), Wide Area Network (WAN), and various other communication networks. In addition, the communication network 120 may be a known World Wide Web (WWW), or may use a wireless transmission technology used for short-range communication such as Infrared Data Association (IrDA) or Bluetooth (Bluetooth). have. In addition, the communication network 120 may include a cable broadcast communication network, a terrestrial broadcast communication network, a satellite broadcast communication network, and the like for receiving broadcast signals from the TV 100.

영상 분석 서버(150)는 캡처된 방송 영상을 수신하여, 캡처된 방송 영상에 대응하는 영상 분석 결과를 전송하는 기능을 수행할 수 있다. 시청자에 의해 방송 중인 영상이 캡처 되면, 캡처된 방송 영상은 복수개의 영상 분석 서버(150)에 입력되고, 복수개의 영상 분석 서버(150) 각각은 캡처된 방송 영상에 대응하는 영상 분석 결과를 출력할 수 있다. 영상 분석 결과는 캡처된 방송 영상에 포함된 인식의 대상이 되는 영역, 인식의 대상이 되는 영역에 대한 인식 결과 및 인식 결과의 정확도 점수를 포함할 수 있다. 인식 결과는 영상 분석 서버(150)의 종류에 따라 다른 형태를 가질 수 있다. 정확도 점수는 복수개의 영상 분석 서버(150) 각각에서 분석한 인식 결과 중, 유사도가 가장 높은 인식 결과의 유사정도에 따른 값일 수 있다. 정확도 점수를 계산하기 위해서 다차원 벡터 비교 분석 연산을 수행할 수 있다. 예를 들어, 벡터 공간 모델, 주제 모델링(topic modeling), 코사인 유사도, 연관 규칙(association rule) 등 다양한 기법을 통해 정확도 점수를 계산할 수 있다. 인식 결과의 정확도 점수를 표현하는 방법은 다양할 수 있다. 예를 들어, 인식 결과의 정확도 점수는 %단위로 표현될 수 있다. 복수개의 영상 분석 서버(150)는 동일한 점수 체계를 가지고 인식 결과의 정확도 점수를 출력할 수 있다. 영상 분석 결과에 대한 구체적인 예시는 아래에서 도 5 내지 도 6을 참조하여 상세히 설명된다.The image analysis server 150 may perform a function of receiving the captured broadcast image and transmitting an image analysis result corresponding to the captured broadcast image. When an image being broadcast by a viewer is captured, the captured broadcast image is input to a plurality of image analysis servers 150, and each of the plurality of image analysis servers 150 outputs an image analysis result corresponding to the captured broadcast image. Can. The image analysis result may include an area to be recognized in the captured broadcast image, a recognition result for the area to be recognized, and an accuracy score of the recognition result. The recognition result may have a different form according to the type of the image analysis server 150. The accuracy score may be a value according to the similarity degree of the recognition result having the highest similarity among the recognition results analyzed by each of the plurality of image analysis servers 150. To calculate the accuracy score, a multidimensional vector comparison analysis operation can be performed. For example, accuracy scores can be calculated through various techniques such as vector spatial modeling, topic modeling, cosine similarity, and association rules. The method of expressing the accuracy score of the recognition result may vary. For example, the accuracy score of the recognition result may be expressed in %. The plurality of image analysis servers 150 may output the accuracy score of the recognition result with the same scoring system. Specific examples of the image analysis results will be described in detail with reference to FIGS. 5 to 6 below.

복수개의 영상 분석 서버(150) 각각은 캡처된 방송 영상에 대응하는 영상 분석 결과를 출력할 수 있다. 영상 분석 서버(150) 각각은 하나 이상의 영상 분석 결과를 출력할 수 있고, 복수개의 영상 분석 서버(150) 각각의 영상 분석 결과를 스코어링 하여 영상 분석 결과의 우선 순위를 결정할 수 있다. 우선 순위에 기초하여 영상 분석 결과 중 어느 하나를 검색 대상으로 결정할 수 있다. 우선 순위 및 검색 대상을 결정하는 방법은 아래에서 도 3을 참조하여 상세히 설명된다.Each of the plurality of image analysis servers 150 may output an image analysis result corresponding to the captured broadcast image. Each of the image analysis servers 150 may output one or more image analysis results, and score the image analysis results of each of the plurality of image analysis servers 150 to determine the priority of the image analysis results. Any of the image analysis results may be determined as a search target based on the priority. The method of determining the priority and search target will be described in detail with reference to FIG. 3 below.

서비스 서버(140)는 검색 대상을 수신하여, 검색 대상에 대응하는 서비스 콘텐츠를 출력하는 기능을 수행할 수 있다. 이하, 상술한 셋톱박스(110)에 설치되는 애플리케이션의 각 구성 요소들에 대해 상세히 설명하기로 한다.The service server 140 may receive a search target and output a service content corresponding to the search target. Hereinafter, each component of the application installed in the set-top box 110 will be described in detail.

도 2는 일 실시예에 따른 이미지 검색 장치의 세부 구성을 설명하기 위한 도면이다.2 is a diagram for describing a detailed configuration of an image search apparatus according to an embodiment.

도 2를 참조하면, 일 실시예에 따른 이미지 검색 장치(200)는 방송 신호 수신부(210), 주 제어부(220), 버퍼부(230), 방송 데이터 저장부(240), 프로세서(250), 데이터 통신 I/F부(260), 외부 서버(270), TV 영상 구성부(280), 방송 데이터 저장부(290), 및 디스플레이 패널(291)을 포함하여 구성될 수 있다.2, the image search apparatus 200 according to an embodiment includes a broadcast signal receiving unit 210, a main control unit 220, a buffer unit 230, a broadcast data storage unit 240, a processor 250, It may be configured to include a data communication I/F unit 260, an external server 270, a TV image configuration unit 280, a broadcast data storage unit 290, and a display panel 291.

방송 신호 수신부(210)는 외부로부터 전송된 각종 방송 데이터를 수신하며, 예컨대, 지상파 방송 신호 수신, 케이블 방송 신호 수신, IPTV 방송 신호 수신, 위성 방송 신호 수신 등의 기능을 수행할 수 있다. 방송 신호 수신부(210)는 케이블 TV 수신부, IPTV 수신부, 위성 방송 수신부 등을 포함할 수 있다. The broadcast signal receiving unit 210 receives various types of broadcast data transmitted from the outside, and may perform functions such as terrestrial broadcast signal reception, cable broadcast signal reception, IPTV broadcast signal reception, and satellite broadcast signal reception. The broadcast signal receiving unit 210 may include a cable TV receiving unit, an IPTV receiving unit, a satellite broadcasting receiving unit, and the like.

예를 들어, 방송 신호 수신부(210)에서 케이블 TV 수신부는 케이블 TV 신호에 대한 복조(demodulation)를 수행한다. 이때, 복조된 후의 데이터는 압축된 영상, 음성 및 부가 정보로 구성된다. 압축된 영상은 MPEGx/H.264 표준에 따른 복원(decompression)을 수행하여 비디오 원본 데이터(video raw data)를 생성할 수 있다. 또한, 압축된 음성은 MPEGx/AC3/AAC 표준에 따른 복원(decompression)을 수행하여 오디오 원본 데이터(audio raw data)를 생성할 수 있다. 아울러, 부가 정보는 주 제어부(220)로 전송될 수 있다. 수신된 방송 신호는 버퍼부(230)를 거쳐 TV 영상 구성부(280)를 통해 디스플레이 패널(291)로 전송될 수 있다.For example, in the broadcast signal receiving unit 210, the cable TV receiving unit demodulates the cable TV signal. At this time, the demodulated data is composed of compressed video, audio, and additional information. The compressed image may generate video raw data by performing decompression according to the MPEGx/H.264 standard. In addition, the compressed voice may perform decompression according to the MPEGx/AC3/AAC standard to generate audio raw data. In addition, additional information may be transmitted to the main control unit 220. The received broadcast signal may be transmitted to the display panel 291 through the TV image configuration unit 280 through the buffer unit 230.

방송 신호 수신부(210)에서 IPTV 수신부는, 인터넷(internet)을 통해 수신된 IPTV 데이터로서 압축된 영상, 음성 및 부가 정보로 구성될 수 있다. 이때, 상기 압축된 영상은 케이블 TV 수신부에서와 마찬가지로 MPEGx/H.264 표준에 따른 복원(decompression)을 수행하여 비디오 원본 데이터(video raw data)를 생성할 수 있다. 또한, 압축된 음성은 MPEGx/AC3/AAC 표준에 따른 복원(decompression)을 수행하여 오디오 원본 데이터(audio raw data)를 생성할 수 있다. 아울러, 부가 정보는 상기 주 제어부(220)로 전송될 수 있다.The IPTV receiver in the broadcast signal receiver 210 may be composed of compressed video, audio, and additional information as IPTV data received through the Internet. At this time, the compressed image may generate video raw data by performing decompression according to the MPEGx/H.264 standard as in the cable TV receiver. In addition, the compressed voice may perform decompression according to the MPEGx/AC3/AAC standard to generate audio raw data. In addition, additional information may be transmitted to the main control unit 220.

데이터 통신 I/F부(260)는 방송 신호 수신부(210)에서 수신되는 TV 방송 콘텐츠 수신과는 별도의 데이터 통신을 수행하는 데이터 통신 채널로서, 본 발명의 실시예에 따라 통신 네트워크(120)를 통해 서비스 서버(140) 및 영상 분석 서버(150)를 포함하는 외부 서버(270)와의 데이터 통신을 수행할 수 있다.The data communication I/F unit 260 is a data communication channel that performs data communication separate from TV broadcast content reception received from the broadcast signal receiving unit 210, and the communication network 120 is connected according to an embodiment of the present invention. Through this, data communication with the external server 270 including the service server 140 and the image analysis server 150 may be performed.

주 제어부(220)는 방송 중인 영상에 대한 검색 요청 신호가 시청자로부터 입력되면(예컨대, 리모콘 등을 통해), 현재 방송 중인 영상을 캡처하여 프로세서(250)로 제공함으로써 방송 영상에 대한 검색을 수행하도록 제어할 수 있다. 또한, 주 제어부(220)는 본 발명의 다른 실시예에 따라 방송 신호 수신부(210)를 통해 수신되는 방송 영상을 캡처하여 캡처된 방송 영상을 분석하고, 분석된 검색어를 서비스 서버(140) 및 영상 분석 서버(150)를 포함하는 외부 서버(270)로 전송하여 서비스 콘텐츠 제공을 수행하기 위한 TV(100)의 주 제어 기능을 수행할 수 있다. 주 제어부(220)는 TV 채널 변경, 음성 조절 등과 같은 TV 설정 변경을 제어하며, 인터넷 접속을 제어하고, TV(100)에 설치된 각종 애플리케이션(응용 프로그램)에 대한 제어를 수행할 수 있다.When the search request signal for the broadcast image is input from a viewer (eg, through a remote controller, etc.), the main control unit 220 captures the current broadcast image and provides it to the processor 250 to perform a search for the broadcast image Can be controlled. In addition, the main control unit 220 analyzes the captured broadcast image by capturing the broadcast image received through the broadcast signal receiving unit 210 according to another embodiment of the present invention, and analyzes the analyzed search term by the service server 140 and the image The main control function of the TV 100 for performing service content provision may be performed by transmitting to the external server 270 including the analysis server 150. The main control unit 220 may control TV setting changes, such as TV channel change and voice control, control Internet access, and control various applications (application programs) installed in the TV 100.

데이터 통신 I/F부(260)를 통해 영상 분석 서버(150)와 정보 교환함으로써 영상 분석 결과를 수신하여, 우선 순위를 결정하고, 우선 순위에 기초하여 결정된 검색 대상을 서비스 서버(140)에 입력하여, 검색 대상에 대응하는 서비스 콘텐츠를 TV(100)를 통해 제공하도록 제어할 수 있다.By exchanging information with the video analysis server 150 through the data communication I/F unit 260, the video analysis result is received, the priority is determined, and the search target determined based on the priority is input to the service server 140 Thus, it is possible to control the service content corresponding to the search target to be provided through the TV 100.

버퍼부(230)는 방송 신호 수신부(210)를 통해 수신되는 방송 영상의 데이터를 임시 저장한 후, TV 영상 구성부(280)로 제공하는 역할을 수행할 수 있다. TV 영상 구성부(280)는 방송 영상 데이터를 포함하여 TV 화면에 표시될 영상을 구성한 후, 디스플레이 패널(291)로 제공할 수 있다.The buffer unit 230 may temporarily store data of a broadcast image received through the broadcast signal receiving unit 210 and then provide the TV image configuration unit 280. The TV image configuration unit 280 may configure an image to be displayed on a TV screen, including broadcast image data, and provide it to the display panel 291.

현재 수신되는 방송 영상에 대한 검색을 위해 방송 영상을 캡처하고자 할 경우, 수신된 영상 중 검색 요청한 시점의 방송 영상을 캡처하여 버퍼부(230)에 임시 저장한 후, 임시 저장된 방송 영상의 데이터를 주 제어부(220)를 통해 프로세서(250)로 제공할 수 있다.When capturing a broadcast video to search for a currently received broadcast video, capture the broadcast video at the time of the search request from the received video and temporarily store it in the buffer unit 230, and then supply the data of the temporarily stored broadcast video. It can be provided to the processor 250 through the control unit 220.

버퍼부(230)에 임시 저장되는 방송 영상 데이터는 사용자의 기능 설정 또는 디폴트된 기능으로서 일정 시간 동안의 방송 영상 데이터를 방송 데이터 저장부(240)에 저장할 수도 있다. 프로세서(250)에서 애플리케이션의 실행 후 영상 검색 실행에 따른 명령을 입력 받으면, 버퍼부(230)를 통해 임시 저장된 방송 캡처 영상 데이터를 분석하여 영상과 관련된 정보를 검색하게 된다.The broadcast image data temporarily stored in the buffer unit 230 may be stored in the broadcast data storage unit 240 for a predetermined period of time as a user function setting or default function. When the processor 250 receives an instruction according to an image search execution after the application is executed, the buffer unit 230 analyzes the temporarily stored broadcast captured image data to search for information related to the image.

프로세서(250)는 상술한 바와 같이 본 발명의 실시예에 따라 설치된 애플리케이션의 실행에 따른 각종 기능들을 처리할 수 있다. 프로세서(250)는 캡처된 방송 영상을 복수개의 영상 분석 서버(150)에 입력하여, 복수개의 영상 분석 서버(150) 각각으로부터 캡처된 방송 영상에 대응하는 영상 분석 결과를 수신하고, 영상 분석 결과를 스코어링 하여 영상 분석 결과의 우선 순위를 결정하고, 우선 순위에 기초하여 영상 분석 결과 중 어느 하나를 검색 대상으로 결정하고, 검색 대상을 서비스 서버(140)에 입력하여 검색 대상에 대응하는 서비스 콘텐츠를 획득하며, 서비스 콘텐츠를 화면상에 표시하도록 처리한다.As described above, the processor 250 may process various functions according to execution of an installed application according to an embodiment of the present invention. The processor 250 inputs the captured broadcast image to the plurality of image analysis servers 150, receives image analysis results corresponding to the captured broadcast images from each of the plurality of image analysis servers 150, and receives the image analysis results. Scoring determines the priority of the video analysis results, determines any one of the video analysis results based on the priority, and inputs the search target to the service server 140 to obtain service content corresponding to the search target The service content is displayed on the screen.

TV 영상 구성부(280)는 상술한 방송 신호 수신부(210), 프로세서(250)를 통해 제공되는 각 디스플레이 영역을 사용자가 설정한 형태로 결합하여 TV 디스플레이 영역을 생성할 수 있다. TV 디스플레이 영역은 예컨대 TV 디스플레이 영역, 인터넷 디스플레이 영역, 서비스 콘텐츠 디스플레이 영역 등으로 구분되어 제공되거나, 각 영역들이 일부 오버랩되어 생성될 수도 있다. 이때, 각 디스플레이 영역이 결합되는 형태로는 독립적으로 각 디스플레이 영역을 사용자의 선호에 따라 크기(scale)를 달리하여 TV 출력을 위한 디스플레이 화면을 생성하거나, 특정한 디스플레이 영역을 투명 또는 반투명하게 처리하여 TV 디스플레이 화면을 생성하게 될 수 있다. 또한, 서비스 콘텐츠를 인식의 대상이 되는 영역과 함께 상기 화면상에 표시될 수도 있다. 이하, 도 3을 참조하여 프로세서(250)의 세부 구조를 설명하기로 한다. The TV image configuration unit 280 may combine each display area provided through the above-described broadcast signal receiving unit 210 and the processor 250 in a form set by a user to generate a TV display area. The TV display area may be divided into, for example, a TV display area, an Internet display area, a service content display area, or the like, or may be generated by overlapping each area. At this time, in a form in which each display area is combined, each display area is independently scaled according to a user's preference to generate a display screen for TV output, or a specific display area is transparent or translucent to process the TV. A display screen may be generated. In addition, the service content may be displayed on the screen together with an area to be recognized. Hereinafter, a detailed structure of the processor 250 will be described with reference to FIG. 3.

도 3은 일 실시예에 따른 프로세서의 세부 구성을 설명하기 위한 도면이다.3 is a diagram for describing a detailed configuration of a processor according to an embodiment.

도 3을 참조하면, 일 실시예에 따른 프로세서(250)는 영상 캡처 요청부(310), 캡처 정보 수신부(320), 영상 인식부(330), 분석 결과 표시부(340), 분석 결과 및 타겟 서비스 표시부(360)를 포함하여 구성될 수 있다. 도 3의 실시 예에서 프로세서(250)의 각각의 구성요소들은 기능 및 논리적으로 분리될 수 있음을 나타나기 위해 별도로 도면에 표시한 것이며, 물리적으로 반드시 별도의 구성요소이거나 별도의 코드로 구현되는 것을 의미하는 것은 아니다.Referring to FIG. 3, the processor 250 according to an embodiment includes an image capture request unit 310, a capture information receiving unit 320, an image recognition unit 330, an analysis result display unit 340, an analysis result, and a target service It may be configured to include a display unit 360. In the embodiment of FIG. 3, each component of the processor 250 is separately illustrated in the drawings to indicate that it can be separated functionally and logically, and it is physically necessarily a separate component or is implemented as a separate code It is not done.

영상 캡처 요청부(310)는 TV를 통한 방송 시청 중 현재 방송 중인 화면에 관련된 정보를 얻고자 방송 검색 요청을 실행하면, 애플리케이션의 실행에 따라 현재 방송 중인 영상의 화면 캡처를 요청할 수 있다.When a broadcast search request is performed to obtain information related to a screen currently being broadcast while watching a broadcast through a TV, the video capture request unit 310 may request a screen capture of the video currently being broadcast according to the execution of an application.

상술한 바와 같이 주 제어부(220)를 통해 현재 방송 중인 영상이 캡처되고, 캡처 정보 수신부(320)에서는 캡처된 방송 영상(예컨대, 이미지 파일)을 수신할 수 있다.As described above, an image currently being broadcast is captured through the main control unit 220, and the captured information receiving unit 320 may receive the captured broadcast image (eg, an image file).

영상 인식부(330)는 캡처된 방송 영상을 복수개의 영상 분석 서버(150)에 입력하고, 복수개의 영상 분석 서버 각각으로부터 캡처된 방송 영상에 대응하는 영상 분석 결과를 수신할 수 있다. 또한, 복수개의 영상 분석 서버(150) 각각으로부터 수신한 영상 분석 결과를 스코어링하여 영상 분석 결과의 우선 순위를 결정할 수 있고, 우선 순위에 기초하여 영상 분석 결과 중 어느 하나를 검색 대상으로 결정할 수 있다. 영상 인식부(330)는 인물 검색부(331), 쇼핑 검색부(332), 지식 검색부(333)를 포함할 수 있고, 각 부를 통해 인물 인식 서버(334), 상품 인식 서버(335), 지식 인식 서버(336)에 캡처된 방송 영상을 입력할 수 있다.The image recognition unit 330 may input captured broadcast images to the plurality of image analysis servers 150 and receive image analysis results corresponding to the captured broadcast images from each of the plurality of image analysis servers. In addition, the video analysis results received from each of the plurality of video analysis servers 150 may be scored to determine the priority of the video analysis results, and any one of the video analysis results may be determined as a search target based on the priority. The image recognition unit 330 may include a person search unit 331, a shopping search unit 332, and a knowledge search unit 333, and through each unit, a person recognition server 334, a product recognition server 335, The captured broadcast image may be input to the knowledge recognition server 336.

영상 분석 서버(150)는 인물 인식 서버(334), 상품 인식 서버(335), 지식 인식 서버(336) 및 복합 인식 서버(미도시) 중 적어도 하나를 포함할 수 있다. 인물 인식 서버(334)는 캡처된 방송 영상 내에 인물 이미지가 포함되어 있는 경우, 인물 이미지에 대응하는 키워드 및 인물 이미지의 정확도 점수를 출력할 수 있다. 키워드는 예를 들어 인물의 이름일 수 있다. 이름은 인물의 본명 뿐만 아니라 활동명을 포함할 수 있다. 상품 인식 서버(335)는 캡처된 방송 영상 내에 상품 이미지가 포함되어 있는 경우, 상품에 대응하는 판매 정보 및 상품 이미지의 정확도 점수를 출력할 수 있다.The image analysis server 150 may include at least one of a person recognition server 334, a product recognition server 335, a knowledge recognition server 336, and a compound recognition server (not shown). When a person image is included in the captured broadcast image, the person recognition server 334 may output a keyword corresponding to the person image and an accuracy score of the person image. The keyword may be, for example, a person's name. The name may include the person's real name as well as the name of the activity. When a product image is included in the captured broadcast image, the product recognition server 335 may output sales information corresponding to the product and an accuracy score of the product image.

영상 분석 서버(150)는 외부 영상 분석 서버를 포함할 수 있다. 예를 들어, 영상 분석 서버(150)는 얼굴인식 API, 쇼핑검색 API, 지식검색 API, 복합검색 API를 포함할 수 있다. 외부 영상 분석 서버를 사용하는 경우, 이미지 검색 장치는 외부 영상 분석 서버로부터 수신한 영상 분석 결과를 활용할 뿐 이미지 검색 장치가 자체적으로 영상 분석을 하지 않기 때문에 처리 속도가 향상될 수 있다.The image analysis server 150 may include an external image analysis server. For example, the image analysis server 150 may include a face recognition API, a shopping search API, a knowledge search API, and a complex search API. In the case of using an external image analysis server, the image retrieval device can utilize the image analysis results received from the external image analysis server, but the image retrieval device does not perform image analysis on its own, which can speed up processing.

영상 분석 결과에 포함된 인식 결과의 정확도 점수에 기초하여, 영상 분석 결과의 우선 순위를 결정할 수 있다. 영상 분석 서버(150) 각각이 하나 이상의 영상 분석 결과를 출력하는 경우에는, 정확도 점수가 가장 높은 결과를 기준으로 우선 순위를 결정할 수 있다. 예를 들어, 인물 인식 서버에서 키워드 'a', 'b' 및 'c'를 출력하는 경우, 키워드 'a', 'b' 및 'c' 중 정확도 점수가 가장 높은 결과를 다른 영상 분석 서버(150)의 영상 분석 결과와 비교하여 우선 순위를 결정할 수 있다. 우선 순위를 결정하는 방법은 다양한 방식으로 정의될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.Based on the accuracy score of the recognition result included in the image analysis result, the priority of the image analysis result may be determined. When each of the image analysis servers 150 outputs one or more image analysis results, priority may be determined based on the result with the highest accuracy score. For example, when the characters'a','b', and'c' are output from the person recognition server, another image analysis server may display the results with the highest accuracy scores among the keywords'a','b', and'c' ( Priority can be determined by comparing with the results of the video analysis of 150). The method of determining the priority may be defined in various ways and is not limited to the embodiments described herein.

영상 인식부(330)는 우선 순위가 미리 정해진 순위 이상인 영상 분석 결과를 검색 대상으로 결정할 수 있다. 예를 들어, 영상 인식부(330)는 우선 순위가 가장 높은 영상 분석 결과를 검색 대상으로 결정할 수 있고, 우선 순위가 두 번째에 해당하는 영상 분석 결과들을 검색 대상으로 결정할 수도 있다. 검색 대상을 결정하는 방법은 다양한 방식으로 정의될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.The image recognition unit 330 may determine an image analysis result whose priority is equal to or higher than a predetermined priority as a search target. For example, the image recognition unit 330 may determine the image analysis result having the highest priority as a search target, and may also determine the image analysis results corresponding to the second priority as the search target. The method for determining the search target may be defined in various ways and is not limited to the embodiments described herein.

영상 인식부(330)에서 검색 대상을 결정이 완료되면, 검색 대상을 분석 결과 표시부(340)에 제공함으로써 분석 결과 표시부(340)에서 검색 대상의 종류에 따른 서비스 서버를 결정하고, 검색 대상을 결정된 서비스 서버에 입력하여 서비스 콘텐츠를 획득할 수 있다.When the image recognition unit 330 determines the search target, the analysis result display unit 340 determines the service server according to the type of search target by providing the search target to the analysis result display unit 340, and determines the search target. The service content can be obtained by inputting it to a service server.

검색 대상의 종류에 따라 각 검색 대상에 적합한 서비스 서버(140)가 미리 결정될 수 있다. 예를 들어, 검색 대상이 인물 인식 서버의 영상 분석 결과일 경우에는 서비스 서버(140)는 인물 검색 서버, 미디어 검색 서버 및 사진 검색 서버 중 적어도 하나를 포함할 수 있고, 인물 검색 서버, 미디어 검색 서버 및 사진 검색 서버 중 적어도 하나에 인물 인식 서버의 영상 분석 결과를 입력하여 이에 대응하는 서비스 콘텐츠를 출력할 수 있다. 또는, 검색 대상이 상품 인식 서버의 영상 분석 결과일 경우에는, 서비스 서버(140)는 다양한 종류의 쇼핑 검색 서버를 포함할 수 있다.A service server 140 suitable for each search target may be determined in advance according to the type of search target. For example, when the search target is a video analysis result of the person recognition server, the service server 140 may include at least one of a person search server, a media search server, and a photo search server, and a person search server and a media search server. And inputting a video analysis result of the person recognition server to at least one of the photo search servers to output service content corresponding thereto. Alternatively, when the search target is an image analysis result of the product recognition server, the service server 140 may include various types of shopping search servers.

분석 결과 및 타겟 서비스 표시부(360)는 서비스 콘텐츠 정보를 디스플레이 패널(391)로 제공하여 서비스 콘텐츠를 도 5, 도 6에 도시된 바와 같이 화면상의 특정 영역에 디스플레이하게 된다. 분석 결과 및 타겟 서비스 표시부(360)는 서비스 콘텐츠가 복수개인 경우, 미리 정해진 기준에 따라 서비스 콘텐츠의 목록을 제공할 수도 있다. 또한, 분석 결과 및 타겟 서비스 표시부(360)는 서비스 콘텐츠를 인식의 대상이 되는 영역과 함께 화면상에 표시할 수 있다.The analysis result and the target service display unit 360 provide service content information to the display panel 391 to display the service content in a specific area on the screen as shown in FIGS. 5 and 6. The analysis result and the target service display unit 360 may provide a list of service contents according to a predetermined criterion when there are multiple service contents. In addition, the analysis result and the target service display unit 360 may display the service content on the screen together with an area to be recognized.

본 명세서에서 각 기능부라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예컨대, 상기 각 기능부는 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아님은 본 발명의 기술분야의 평균적 전문가에게는 용이하게 추론될 수 있다.In the present specification, each functional unit may mean a functional and structural combination of hardware for performing the technical idea of the present invention and software for driving the hardware. For example, each functional unit may mean a logical unit of a predetermined code and a hardware resource for performing the predetermined code, and does not necessarily mean a physically connected code or a type of hardware. It can be easily deduced from the average expert in the technical field of the invention.

도 4는 일 실시예에 따른 영상 분석 결과의 우선 순위를 결정하는 방법을 설명하기 위한 순서도이다.4 is a flowchart illustrating a method of determining a priority of an image analysis result according to an embodiment.

도 4를 참조하면, 단계(410 내지 470)은 도 2를 참조하여 전술된 이미지 검색 장치(200)에 의해 수행될 수 있다. 이미지 검색 장치(200)는 하나 또는 그 이상의 하드웨어 모듈, 하나 또는 그 이상의 소프트웨어 모듈, 또는 이들의 다양한 조합에 의하여 구현될 수 있다. 도 1 내지 3의 설명은 도 4에도 적용 가능하므로, 중복되는 내용의 설명은 생략한다.Referring to FIG. 4, steps 410 to 470 may be performed by the image search apparatus 200 described above with reference to FIG. 2. The image retrieval apparatus 200 may be implemented by one or more hardware modules, one or more software modules, or various combinations thereof. Since the description of FIGS. 1 to 3 is also applicable to FIG. 4, description of overlapping contents is omitted.

단계(410)에서, 셋톱박스에서 애플리케이션을 실행할 수 있다.In step 410, the application may be executed in the set-top box.

단계(415)에서, 이미지 검색 장치(200)는 방송 화면 분석을 할 수 있다.In step 415, the image search apparatus 200 may analyze a broadcast screen.

단계(420)에서, 이미지 검색 장치(200)는 방송 화면을 캡처할 수 있다.In step 420, the image retrieval apparatus 200 may capture a broadcast screen.

단계(425)에서, 이미지 검색 장치(200)는 영상 인식 서버(150)를 이용하여 캡처 이미지(영상)에 대응하는 영상 분석 결과를 수신할 수 있다. In step 425, the image search apparatus 200 may receive an image analysis result corresponding to the captured image (image) using the image recognition server 150.

예를 들어, 단계(430)에서 이미지 검색 장치(200)는 인물 인식 서버로부터 인물 인식 결과의 정확도 점수를 획득할 수 있다. 이미지 검색 장치(200)는 단계(435)에서 상품 인식 서버로부터 상품 인식 결과의 정확도 점수를 획득할 수 있다. 이미지 검색 장치(200)는 단계(440)에서 지식 인식 서버로부터 지식 인식 결과의 정확도 점수를 획득할 수 있다.For example, in step 430, the image retrieval apparatus 200 may obtain an accuracy score of the person recognition result from the person recognition server. In step 435, the image search apparatus 200 may obtain an accuracy score of the product recognition result from the product recognition server. In step 440, the image search apparatus 200 may obtain an accuracy score of the knowledge recognition result from the knowledge recognition server.

이미지 검색 장치(200)는 영상 분석 결과를 스코어링하여 영상 분석 결과의 우선 순위를 결정할 수 있다. 이미지 검색 장치(200)는 인물 인식 서버, 상품 인식 서버, 지식 인식 서버 및 복합 인식 서버로부터 수신한 영상 분석 결과에 포함된 인식 결과의 정확도 점수를 비교하고, 인식 결과의 정확도 점수에 기초하여 우선 순위를 결정할 수 있다.The image search apparatus 200 may determine the priority of the image analysis result by scoring the image analysis result. The image search apparatus 200 compares the accuracy scores of the recognition results included in the image analysis results received from the person recognition server, the product recognition server, the knowledge recognition server, and the composite recognition server, and prioritizes them based on the accuracy scores of the recognition results Can decide.

예를 들어 단계(445)에서, 이미지 검색 장치(200)는 인물 인식 결과의 정확도 점수와 상품 인식 결과의 정확도 점수를 비교할 수 있고, 인물 인식 결과의 정확도 점수가 더 높은 경우, 인물 인식 결과의 정확도 점수와 지식 인식 결과의 정확도 점수를 비교하여, 인물 인식 결과의 정확도 점수가 높은 경우 인물 인식 결과를 검색 대상으로 결정하여, 단계(455)에서 서비스 서버(140)에 인물 인식 결과를 입력하여 인물 정보 제공 및 인물과 관련된 콘텐츠를 추천할 수 있다.For example, in step 445, the image search apparatus 200 may compare the accuracy score of the person recognition result with the accuracy score of the product recognition result, and when the accuracy score of the person recognition result is higher, the accuracy of the person recognition result By comparing the score and the accuracy score of the knowledge recognition result, if the accuracy score of the person recognition result is high, the person recognition result is determined as a search target, and in step 455, the person recognition result is input to the service server 140 to input the person information. You can recommend content related to offers and people.

마찬가지로, 지식 인식 결과의 정확도가 가장 높은 경우에는 단계(465)에서 지식 서비스를 제공할 수 있고, 상품 인식 결과의 정확도가 가장 높은 경우에는 단계(470)에서 상품과 관련된 쇼핑 정보 및 서비스를 제공할 수 있다.Similarly, when the accuracy of the knowledge recognition result is the highest, the knowledge service may be provided in step 465, and when the accuracy of the product recognition result is highest, the shopping information and service related to the product may be provided in step 470. Can.

도 5는 일 실시예에 따른 인물 인식 결과가 검색 대상이 되는 실시예를 도시한 도면이다.5 is a diagram illustrating an embodiment in which a person recognition result according to an embodiment is a search target.

도 5를 참조하면, 일 실시예에 따른 이미지 검색 장치는 캡처된 방송 영상(510)을 수신할 수 있다. 캡처된 방송 영상을 복수개의 영상 분석 서버에 입력할 수 있고, 영상 분석 서버 각각으로부터 캡처된 방송 영상에 대응하는 영상 분석 결과를 수신할 수 있다. 인물 인식 결과의 정확도 점수가 가장 높기 때문에, 인물 인식 결과를 검색 대상으로 결정할 수 있다.Referring to FIG. 5, the image search apparatus according to an embodiment may receive the captured broadcast image 510. The captured broadcast image may be input to a plurality of image analysis servers, and image analysis results corresponding to the captured broadcast image may be received from each of the image analysis servers. Since the accuracy score of the person recognition result is the highest, the person recognition result can be determined as a search target.

인물 인식 결과를 서비스 서버에 입력하여 검색 대상에 대응하는 서비스 콘텐츠를 획득할 수 있다. 검색 대상이 인물 인식 결과이기 때문에, 서비스 서버는 인물 검색 서버, 미디어 검색 서버 및 사진 검색 서버를 포함할 수 있다. 인물 인식 결과를 인물 검색 서버에 입력하여 서비스 콘텐츠(520)를 획득할 수 있고, 인물 인식 결과를 미디어 검색 서버에 입력하여 서비스 콘텐츠(530)를 획득할 수 있고, 인물 인식 결과를 사진 검색 서버에 입력하여 서비스 콘텐츠(540)를 획득할 수 있다.A person recognition result may be input to a service server to obtain service content corresponding to a search target. Since the search target is a person recognition result, the service server may include a person search server, a media search server, and a photo search server. The person recognition results can be input to the person search server to obtain the service content 520, the person recognition results can be entered to the media search server to obtain the service content 530, and the person recognition results to the photo search server. The service content 540 may be obtained by inputting it.

도 6은 일 실시예에 따른 상품 인식 결과가 검색 대상이 되는 실시예를 도시한 도면이다.6 is a diagram illustrating an embodiment in which a product recognition result according to an embodiment is a search target.

도 6를 참조하면, 일 실시예에 따른 이미지 검색 장치는 캡처된 방송 영상(610)을 수신할 수 있다. 캡처된 방송 영상을 복수개의 영상 분석 서버에 입력할 수 있고, 영상 분석 서버 각각으로부터 캡처된 방송 영상에 대응하는 영상 분석 결과를 수신할 수 있다. 상품 인식 결과의 정확도 점수가 가장 높기 때문에, 상품 인식 결과를 검색 대상으로 결정할 수 있다.Referring to FIG. 6, the image retrieval apparatus according to an embodiment may receive the captured broadcast image 610. The captured broadcast image may be input to a plurality of image analysis servers, and image analysis results corresponding to the captured broadcast image may be received from each of the image analysis servers. Since the accuracy score of the product recognition result is the highest, the product recognition result can be determined as a search target.

상품 인식 결과를 서비스 서버에 입력하여 검색 대상에 대응하는 서비스 콘텐츠를 획득할 수 있다. 검색 대상이 상품 인식 결과이기 때문에, 서비스 서버는 쇼핑 검색 서버를 포함할 수 있다. 상품 인식 결과를 쇼핑 검색 서버에 입력하여 서비스 콘텐츠(620)를 획득할 수 있다.The service content corresponding to the search target may be obtained by inputting the product recognition result to the service server. Since the search target is a product recognition result, the service server may include a shopping search server. A service content 620 may be obtained by inputting a product recognition result to a shopping search server.

이미지 검색 장치는 사용자가 설정한 형태로 캡처된 방송 영상과 서비스 콘텐츠를 결합하여 TV 디스플레이 영역을 생성할 수 있다. TV 디스플레이 영역은 예컨대 TV 디스플레이 영역, 인터넷 디스플레이 영역, 서비스 콘텐츠 디스플레이 영역 등으로 구분되어 제공되거나, 각 영역들이 일부 오버랩되어 생성될 수도 있다. 이때, 각 디스플레이 영역이 결합되는 형태로는 독립적으로 각 디스플레이 영역을 사용자의 선호에 따라 크기(scale)를 달리하여 TV 출력을 위한 디스플레이 화면을 생성하거나, 특정한 디스플레이 영역을 투명 또는 반투명하게 처리하여 TV 디스플레이 화면을 생성하게 될 수 있다. 또한, 서비스 콘텐츠를 인식의 대상이 되는 영역과 함께 상기 화면상에 표시될 수도 있다.The image retrieval device may generate a TV display area by combining broadcast video captured in a form set by a user and service content. The TV display area may be divided into, for example, a TV display area, an Internet display area, a service content display area, or the like, or may be generated by overlapping each area. At this time, in a form in which each display area is combined, each display area is independently scaled according to a user's preference to generate a display screen for TV output, or a specific display area is transparent or translucent to process the TV. A display screen may be generated. In addition, the service content may be displayed on the screen together with an area to be recognized.

일 실시예에 따른 이미지 검색 방법은 캡처된 방송 영상을 수신하는 단계, 캡처된 방송 영상을 복수개의 영상 분석 서버에 입력하여, 복수개의 영상 분석 서버 각각으로부터 캡처된 방송 영상에 대응하는 영상 분석 결과를 수신하는 단계, 영상 분석 결과를 스코어링하여 영상 분석 결과의 우선 순위를 결정하는 단계, 우선 순위에 기초하여 영상 분석 결과 중 어느 하나를 검색 대상으로 결정하는 단계, 검색 대상을 서비스 서버에 입력하여 검색 대상에 대응하는 서비스 콘텐츠를 획득하는 단계 및 서비스 콘텐츠를 화면상에 표시하도록 처리하는 단계를 포함한다.An image search method according to an embodiment may include receiving a captured broadcast image, inputting the captured broadcast image into a plurality of image analysis servers, and analyzing image analysis results corresponding to the captured broadcast image from each of the plurality of image analysis servers. Receiving, scoring video analysis results to determine the priority of the video analysis results, determining any one of the video analysis results based on the priority, and entering a search target into a service server to search targets And obtaining service content corresponding to and processing to display the service content on the screen.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented with hardware components, software components, and/or combinations of hardware components and software components. For example, the devices, methods, and components described in the embodiments include, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors (micro signal processors), microcomputers, and field programmable gates (FPGAs). It can be implemented using one or more general purpose computers or special purpose computers, such as arrays, programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions. The processing device may run an operating system (OS) and one or more software applications running on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of understanding, a processing device may be described as one being used, but a person having ordinary skill in the art, the processing device may include a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include. For example, the processing device may include a plurality of processors or a processor and a controller. In addition, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instruction, or a combination of one or more of these, and configure the processing device to operate as desired, or process independently or collectively You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodied in the transmitted signal wave. The software may be distributed on networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded on the medium may be specially designed and constructed for the embodiments or may be known and usable by those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic media such as floptical disks. -Hardware devices specifically configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language code that can be executed by a computer using an interpreter, etc., as well as machine language codes produced by a compiler.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited drawings, those skilled in the art can apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order than the described method, and/or the components of the described system, structure, device, circuit, etc. are combined or combined in a different form from the described method, or other components Alternatively, even if replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (20)

캡처된 방송 영상을 수신하는 단계;
상기 캡처된 방송 영상을 복수개의 영상 분석 서버에 입력하여, 상기 복수개의 영상 분석 서버 각각으로부터 상기 캡처된 방송 영상에 대응하는 영상 분석 결과를 수신하는 단계;
상기 영상 분석 결과를 스코어링하여 상기 영상 분석 결과의 우선 순위를 결정하는 단계;
상기 우선 순위에 기초하여 상기 영상 분석 결과 중 어느 하나를 검색 대상으로 결정하는 단계;
상기 검색 대상을 서비스 서버에 입력하여 상기 검색 대상에 대응하는 서비스 콘텐츠를 획득하는 단계; 및
상기 서비스 콘텐츠를 화면상에 표시하도록 처리하는 단계
를 포함하는, 이미지 검색 방법.
Receiving the captured broadcast image;
Inputting the captured broadcast images into a plurality of image analysis servers, and receiving image analysis results corresponding to the captured broadcast images from each of the plurality of image analysis servers;
Scoring the image analysis results to determine a priority of the image analysis results;
Determining any one of the image analysis results as a search target based on the priority;
Inputting the search target into a service server to obtain service content corresponding to the search target; And
Processing the service content to be displayed on a screen
Including, image search method.
제1항에 있어서,
상기 영상 분석 서버는
인물 인식 서버, 상품 인식 서버, 지식 인식 서버 및 복합 인식 서버 중 적어도 하나를 포함하는, 이미지 검색 방법.
According to claim 1,
The video analysis server
An image retrieval method comprising at least one of a person recognition server, a product recognition server, a knowledge recognition server, and a compound recognition server.
제1항에 있어서,
상기 영상 분석 결과는
상기 캡처된 방송 영상에 포함된 인식의 대상이 되는 영역, 상기 인식의 대상이 되는 영역에 대한 인식 결과 및 상기 인식 결과의 정확도 점수를 포함하는, 이미지 검색 방법.
According to claim 1,
The video analysis results
An image retrieval method comprising an area targeted for recognition included in the captured broadcast image, a recognition result for the area targeted for recognition, and an accuracy score of the recognition result.
제1항에 있어서,
상기 우선 순위를 결정하는 단계는
상기 영상 분석 결과에 포함된 인식 결과의 정확도 점수에 기초하여, 상기 우선 순위를 결정하는 단계
를 포함하는, 이미지 검색 방법.
According to claim 1,
Determining the priority is
Determining the priority based on an accuracy score of a recognition result included in the image analysis result
Including, image search method.
제1항에 있어서,
상기 서비스 콘텐츠를 화면상에 표시하도록 처리하는 단계는
상기 서비스 콘텐츠를 인식의 대상이 되는 영역과 함께 상기 화면상에 표시하도록 처리하는 단계
를 포함하는, 이미지 검색 방법.
According to claim 1,
The step of processing to display the service content on the screen is
Processing the service content to be displayed on the screen together with an area to be recognized.
Including, image search method.
제1항에 있어서,
상기 서비스 콘텐츠를 획득하는 단계는
상기 검색 대상의 종류에 따라 미리 결정된 상기 서비스 서버를 결정하는 단계; 및
상기 검색 대상을 상기 결정된 서비스 서버에 입력하여 상기 서비스 콘텐츠를 획득하는 단계
를 포함하는, 이미지 검색 방법.
According to claim 1,
The step of obtaining the service content is
Determining the predetermined service server according to the type of the search target; And
Obtaining the service content by inputting the search target into the determined service server
Including, image search method.
제1항에 있어서,
상기 캡처된 방송 영상을 수신하는 단계는
방송 중인 영상에 대한 검색 요청을 수신하는 단계;
상기 검색 요청에 따라 상기 검색 요청 시점의 방송 영상을 캡처하는 단계; 및
상기 캡처된 방송 영상을 수신하는 단계
를 포함하는, 이미지 검색 방법
According to claim 1,
The step of receiving the captured broadcast image is
Receiving a search request for a video being broadcast;
Capturing a broadcast image at the time of the search request according to the search request; And
Receiving the captured broadcast image
Including, image search method
제1항에 있어서,
상기 영상 분석 결과를 수신하는 단계는
상기 캡처된 방송 영상을 인물 인식 서버에 입력하여 상기 캡처된 방송 영상 내에 인물 이미지가 포함되어 있는 경우, 상기 인물 이미지에 대응하는 키워드 및 상기 인물 이미지의 정확도 점수를 수신하는 단계
를 포함하는, 이미지 검색 방법.
According to claim 1,
The step of receiving the image analysis result
Inputting the captured broadcast image into a person recognition server, and when the captured broadcast image includes a person image, receiving a keyword corresponding to the person image and an accuracy score of the person image;
Including, image search method.
제1항에 있어서,
상기 영상 분석 결과를 수신하는 단계는
상기 캡처된 방송 영상을 상품 인식 서버에 입력하여 상기 캡처된 방송 영상 내에 상품 이미지가 포함되어 있는 경우, 상기 상품에 대응하는 판매 정보 및 상기 상품 이미지의 정확도 점수를 수신하는 단계
를 포함하는, 이미지 검색 방법.
According to claim 1,
The step of receiving the image analysis result
Inputting the captured broadcast image into a product recognition server, and if a product image is included in the captured broadcast image, receiving sales information corresponding to the product and an accuracy score of the product image
Including, image search method.
제1항에 있어서,
상기 검색 대상이 인물 인식 서버로부터 수신한 영상 분석 결과인 경우,
상기 검색 대상에 대응하는 서비스 콘텐츠를 획득하는 단계는
상기 검색 대상을 인물 검색 서버, 미디어 검색 서버 및 사진 검색 서버 중 적어도 하나에 입력하여 상기 검색 대상에 대응하는 서비스 콘텐츠를 획득하는 단계
를 포함하는, 이미지 검색 방법.
According to claim 1,
When the search target is an image analysis result received from the person recognition server,
The step of obtaining the service content corresponding to the search target is
Inputting the search target into at least one of a person search server, a media search server, and a photo search server to obtain service content corresponding to the search target
Including, image search method.
제1항에 있어서,
상기 영상 분석 서버는
인물 인식 서버, 상품 인식 서버, 지식 인식 서버 및 복합 인식 서버 중 적어도 하나를 포함하고,
상기 우선 순위를 결정하는 단계는
상기 인물 인식 서버, 상기 상품 인식 서버, 상기 지식 인식 서버 및 상기 복합 인식 서버로부터 수신한 영상 분석 결과에 포함된 인식 결과의 정확도 점수를 비교하는 단계; 및
상기 인식 결과의 정확도 점수에 기초하여 상기 우선 순위를 결정하는 단계
를 포함하는, 이미지 검색 방법.
According to claim 1,
The video analysis server
At least one of a person recognition server, a product recognition server, a knowledge recognition server, and a complex recognition server,
Determining the priority is
Comparing the accuracy scores of the recognition results included in the image analysis results received from the person recognition server, the product recognition server, the knowledge recognition server, and the composite recognition server; And
Determining the priority based on the accuracy score of the recognition result
Including, image search method.
제1항에 있어서,
상기 서비스 콘텐츠를 화면상에 표시하도록 처리하는 단계는
상기 서비스 콘텐츠가 복수개인 경우,
미리 정해진 기준에 따라 상기 서비스 콘텐츠의 목록을 제공하는 단계
를 포함하는, 이미지 검색 방법.
According to claim 1,
The step of processing to display the service content on the screen is
When the service content is plural,
Providing a list of the service content according to a predetermined criterion
Including, image search method.
하드웨어와 결합되어 제1항 내지 제12항 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.
A computer program stored in a medium to execute the method of any one of claims 1 to 12 in combination with hardware.
캡처된 방송 영상을 수신하는 방송 신호 수신부; 및
상기 캡처된 방송 영상을 복수개의 영상 분석 서버에 입력하여, 상기 복수개의 영상 분석 서버 각각으로부터 상기 캡처된 방송 영상에 대응하는 영상 분석 결과를 수신하고,
상기 영상 분석 결과를 스코어링 하여 상기 영상 분석 결과의 우선 순위를 결정하고,
상기 우선 순위에 기초하여 상기 영상 분석 결과 중 어느 하나를 검색 대상으로 결정하고,
상기 검색 대상을 서비스 서버에 입력하여 상기 검색 대상에 대응하는 서비스 콘텐츠를 획득하며,
상기 서비스 콘텐츠를 화면상에 표시하도록 처리하는 프로세서
를 포함하는, 이미지 검색 장치.
A broadcast signal receiver for receiving the captured broadcast image; And
Input the captured broadcast image into a plurality of image analysis servers, and receive image analysis results corresponding to the captured broadcast image from each of the plurality of image analysis servers,
Scoring the video analysis results to determine the priority of the video analysis results,
Based on the priority, any one of the video analysis results is determined as a search target,
Input the search target to the service server to obtain service content corresponding to the search target,
Processor for processing to display the service content on the screen
Including, image search device.
제14항에 있어서,
상기 영상 분석 서버는
인물 인식 서버, 상품 인식 서버, 지식 인식 서버 및 복합 인식 서버 중 적어도 하나를 포함하는, 이미지 검색 장치.
The method of claim 14,
The video analysis server
An image retrieval device comprising at least one of a person recognition server, a product recognition server, a knowledge recognition server, and a compound recognition server.
제14항에 있어서,
상기 영상 분석 결과는
상기 캡처된 방송 영상에 포함된 인식의 대상이 되는 영역, 상기 인식의 대상이 되는 영역에 대한 인식 결과 및 상기 인식 결과의 정확도 점수를 포함하는, 이미지 검색 장치.
The method of claim 14,
The video analysis results
An image retrieval apparatus including an area targeted for recognition included in the captured broadcast image, a recognition result for the area targeted for recognition, and an accuracy score of the recognition result.
제14항에 있어서,
상기 프로세서는
상기 영상 분석 결과에 포함된 인식 결과의 정확도 점수에 기초하여, 상기 우선 순위를 결정하는, 이미지 검색 장치.
The method of claim 14,
The processor
The image retrieval apparatus determines the priority based on the accuracy score of the recognition result included in the image analysis result.
제14항에 있어서,
상기 프로세서는
상기 서비스 콘텐츠를 인식의 대상이 되는 영역과 함께 상기 화면상에 표기하도록 처리하는, 이미지 검색 장치.
The method of claim 14,
The processor
An image retrieval apparatus that processes the service content to be displayed on the screen together with an area to be recognized.
제14항에 있어서,
상기 프로세서는
상기 검색 대상의 종류에 따라 미리 결정된 상기 서비스 서버를 결정하고,
상기 검색 대상을 상기 결정된 서비스 서버에 입력하여 상기 서비스 콘텐츠를 획득하는, 이미지 검색 장치.
The method of claim 14,
The processor
The predetermined service server is determined according to the type of the search target,
An image search apparatus for acquiring the service content by inputting the search target into the determined service server.
제14항에 있어서,
상기 영상 분석 서버는
인물 인식 서버, 상품 인식 서버, 지식 인식 서버 및 복합 인식 서버 중 적어도 하나를 포함하고,
상기 프로세서는
상기 인물 인식 서버, 상기 상품 인식 서버, 상기 지식 인식 서버 및 상기 복합 인식 서버로부터 수신한 영상 분석 결과에 포함된 인식 결과의 정확도 점수를 비교하고,
상기 인식 결과의 정확도 점수에 기초하여 상기 우선 순위를 결정하는, 이미지 검색 장치.

The method of claim 14,
The video analysis server
At least one of a person recognition server, a product recognition server, a knowledge recognition server, and a complex recognition server,
The processor
Comparing the accuracy scores of the recognition results included in the image analysis results received from the person recognition server, the product recognition server, the knowledge recognition server, and the composite recognition server,
And determining the priority based on the accuracy score of the recognition result.

KR1020190004494A 2019-01-14 2019-01-14 Method and apparatus for searching broadcasting image KR102217490B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190004494A KR102217490B1 (en) 2019-01-14 2019-01-14 Method and apparatus for searching broadcasting image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190004494A KR102217490B1 (en) 2019-01-14 2019-01-14 Method and apparatus for searching broadcasting image

Publications (2)

Publication Number Publication Date
KR20200088019A true KR20200088019A (en) 2020-07-22
KR102217490B1 KR102217490B1 (en) 2021-02-18

Family

ID=71893094

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190004494A KR102217490B1 (en) 2019-01-14 2019-01-14 Method and apparatus for searching broadcasting image

Country Status (1)

Country Link
KR (1) KR102217490B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113392235A (en) * 2021-06-11 2021-09-14 北京猿力未来科技有限公司 Method and related equipment for pointing and reading picture book

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110114843A (en) * 2010-04-14 2011-10-20 주식회사 엘지유플러스 System and method for providing information according to image data
KR101486545B1 (en) * 2013-01-15 2015-01-26 네이버 주식회사 Apparatus, method and computer readable recording medium for providing a search about a broadcasting image using the application of a television

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110114843A (en) * 2010-04-14 2011-10-20 주식회사 엘지유플러스 System and method for providing information according to image data
KR101486545B1 (en) * 2013-01-15 2015-01-26 네이버 주식회사 Apparatus, method and computer readable recording medium for providing a search about a broadcasting image using the application of a television

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113392235A (en) * 2021-06-11 2021-09-14 北京猿力未来科技有限公司 Method and related equipment for pointing and reading picture book

Also Published As

Publication number Publication date
KR102217490B1 (en) 2021-02-18

Similar Documents

Publication Publication Date Title
US11902626B2 (en) Control method of playing content and content playing apparatus performing the same
US11200243B2 (en) Approximate template matching for natural language queries
US10735790B2 (en) Systems and methods for recommending content
US10333767B2 (en) Methods, systems, and media for media transmission and management
US9015139B2 (en) Systems and methods for performing a search based on a media content snapshot image
EP2453386A1 (en) Multimedia device, multiple image sensors having different types and method for controlling the same
GB2550197A (en) Methods and systems for updating database tags for media content
US20140282061A1 (en) Methods and systems for customizing user input interfaces
US11755936B2 (en) Systems and methods for determining that a media item is being presented
WO2016150121A1 (en) Display method, apparatus and related display panel
US20130091524A1 (en) Method and apparatus for providing integrated electronic program guide (epg) of multi- input sources
US20140114919A1 (en) Systems and methods for providing synchronized media content
US20140304753A1 (en) Contextual queries for augmenting video display
US20150012946A1 (en) Methods and systems for presenting tag lines associated with media assets
KR102036384B1 (en) Method and apparatus for providing related service
KR102217490B1 (en) Method and apparatus for searching broadcasting image
KR102129160B1 (en) Operating Method Of Terminal And Server To Recommend Contents
US10592950B2 (en) Systems and methods for on-line purchase of items displayed within video content
KR20210093743A (en) Method and apparatus for providing media enrichment
CN117812311A (en) Display device, display control method, device and storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant