KR101720685B1 - Apparatus and Method for Web Data based Identification System for Object Identification Performance Enhancement - Google Patents

Apparatus and Method for Web Data based Identification System for Object Identification Performance Enhancement Download PDF

Info

Publication number
KR101720685B1
KR101720685B1 KR1020150117556A KR20150117556A KR101720685B1 KR 101720685 B1 KR101720685 B1 KR 101720685B1 KR 1020150117556 A KR1020150117556 A KR 1020150117556A KR 20150117556 A KR20150117556 A KR 20150117556A KR 101720685 B1 KR101720685 B1 KR 101720685B1
Authority
KR
South Korea
Prior art keywords
broadcast content
web data
tagging
knowledge network
content
Prior art date
Application number
KR1020150117556A
Other languages
Korean (ko)
Other versions
KR20160052316A (en
Inventor
손정우
김선중
김화숙
박소영
이경하
장원일
조기성
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US14/932,426 priority Critical patent/US9762934B2/en
Publication of KR20160052316A publication Critical patent/KR20160052316A/en
Application granted granted Critical
Publication of KR101720685B1 publication Critical patent/KR101720685B1/en

Links

Images

Classifications

    • G06F17/30038
    • G06F17/30312
    • G06F17/3079
    • G06F17/30864

Abstract

본 발명은 웹 데이터 기반 방송 콘텐츠 객체 식별 검증 장치 및 방법으로, 방송 콘텐츠와 연관된 웹 데이터를 수집 및 가공하여 상기 방송 콘텐츠에 태깅한 형태의 콘텐츠 지식 정보를 생성하는 웹데이터 처리부와, 상기 콘텐츠 지식 정보를 저장하는 콘텐츠지식정보저장부와, 상기 방송 콘텐츠에 포함된 객체에 대한 식별 결과를 상기 콘텐츠 지식 정보를 이용하여 검증하는 객체 식별 결과 검증부를 포함한다.
An apparatus and method for verifying a broadcast content object based on web data, the apparatus comprising: a web data processing unit for collecting and processing web data associated with broadcast content to generate content knowledge information in the form of tagging the broadcast content; And an object identification result verifying unit for verifying an identification result of the object included in the broadcast content using the content knowledge information.

Figure R1020150117556
Figure R1020150117556

Description

웹 데이터 기반 방송 콘텐츠 객체 식별 검증 장치 및 방법{Apparatus and Method for Web Data based Identification System for Object Identification Performance Enhancement}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus and method for identifying a broadcast content object based on web data,

본 발명은 방송 통신 기술에 관한 것으로, 특히 방송 콘텐츠 내에 존재하는 객체를 식별하기 위한 기술에 관한 것이다.
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a broadcast communication technology, and more particularly, to a technique for identifying an object existing in broadcast content.

일반적으로 방송 콘텐츠에서의 객체 식별을 위해 적용되는 기술은 영상 처리 기술로 방송 콘텐츠의 특정 장면(프레임)으로부터 특징을 추출하고, 해당 특징을 가장 잘 나타난 객체를 식별 대상 객체군으로부터 선택한다. 방송 콘텐츠에서의 객체 식별을 위해 적용되는 기술이 특허 "Object Identification in Images Sequences"(미국 특허 출원 번호 2013-792483)에 기재되어 있습니다.In general, a technique applied to object identification in broadcast content is to extract a feature from a specific scene (frame) of broadcast content using an image processing technique, and to select an object that best represents the feature from the identified object group. A technique applied for object identification in broadcast content is described in the patent "Object Identification in Images Sequences " (U.S. Patent Application No. 2013-792483).

하지만, 영상 처리 기술의 현재 수준은 AP(Average Precision) 0.45 정도이며, 이마저도 식별 대상 객체군의 크기가 늘수록 기하급수적으로 떨어진다. 방송 콘텐츠에 등장 인물, 차량, 장소, 휴대 물품 등 다양한 종류의 객체들이 등장하는 상황에서 영상 처리 기술만을 상용화를 고려한 객체 식별에 적용하기에는 미흡하다.
However, the current level of image processing technology is AP (Average Precision) of about 0.45, and it drops exponentially as the size of object group increases. In a situation where various kinds of objects such as characters, vehicles, places, and carry items appear in broadcast contents, it is not enough to apply only image processing technology to object identification considering commercialization.

본 발명에서는 영상 처리 기술로부터 얻어진 객체 식별 결과에 대해 방송 콘텐츠 외부에서 얻어진 정보를 활용하여 검증을 수행함으로써 그 성능을 높이는 객체 식별 검증 장치 및 방법을 제공한다.
The present invention provides an apparatus and method for verifying and verifying an object that improves the performance of an object identification result obtained from an image processing technique by performing verification using information obtained from outside the broadcast content.

본 발명은 웹 데이터 기반 방송 콘텐츠 객체 식별 검증 장치 및 방법으로, 방송 콘텐츠와 연관된 웹 데이터를 수집 및 가공하여 상기 방송 콘텐츠에 태깅한 형태의 콘텐츠 지식 정보를 생성하는 웹데이터 처리부와, 상기 콘텐츠 지식 정보를 저장하는 콘텐츠지식정보저장부와, 상기 방송 콘텐츠에 포함된 객체에 대한 식별 결과를 상기 콘텐츠 지식 정보를 이용하여 검증하는 객체 식별 결과 검증부를 포함한다.An apparatus and method for verifying a broadcast content object based on web data, the apparatus comprising: a web data processing unit for collecting and processing web data associated with broadcast content to generate content knowledge information in the form of tagging the broadcast content; And an object identification result verifying unit for verifying an identification result of the object included in the broadcast content using the content knowledge information.

본 발명은 웹 데이터 기반 방송 콘텐츠 객체 식별 검증 방법으로, 방송 콘텐츠와 연관된 웹 데이터를 수집 및 가공하여 상기 방송 콘텐츠에 태깅한 형태의 콘텐츠 지식 정보를 생성하는 단계와, 상기 방송 콘텐츠에 포함된 객체에 대한 식별 결과를 상기 콘텐츠 지식 정보를 이용하여 검증하는 단계를 포함한다.The present invention relates to a Web data-based broadcast content object identification and validation method, comprising the steps of: collecting and processing web data associated with broadcast content to generate content knowledge information in the form of tagging the broadcast content; And verifying the identification result using the content knowledge information.

방송 콘텐츠에 대한 객체 식별 성능을 향상시킴으로써 객체 단위 검색이나 추천, 매시업 등에 활용 가능하다.
By improving object identification performance for broadcast contents, it can be used for object unit search, recommendation, mashup, and the like.

도 1은 본 발명의 일 실시 예에 따른 웹 데이터 기반 방송 콘텐츠 객체 식별 검증 장치의 구성도이다.
도 2는 본 발명의 일 실시 예에 따른 웹 데이터 처리부의 블록 구성도이다.
도 3은 본 발명에 따른 지식망이 방송 콘텐츠에 태깅되는 예시도이다.
도 4는 본 발명의 일 실시 예에 따른 객체 식별 결과 검증부의 블록 구성도이다.
도 5는 본 발명의 일 실시 예에 따른 웹 데이터 기반 방송 콘텐츠 객체 식별 검증 방법을 설명하기 위한 순서도이다.
도 6은 본 발명의 일 실시 예에 따른 웹 데이터를 이용하여 콘텐츠 지식 정보를 생성하는 단계를 설명하기 위한 순서도이다.
도 7은 본 발명의 일 실시 예에 따른 객체 식별 결과 검증 단계를 설명하기 위한 순서도이다.
FIG. 1 is a block diagram of a web data based broadcast content object identification and verification apparatus according to an embodiment of the present invention. Referring to FIG.
2 is a block diagram of a web data processing unit according to an embodiment of the present invention.
FIG. 3 is a diagram illustrating an example in which a knowledge network according to the present invention is tagged to broadcast contents.
4 is a block diagram of an object identification result verifying unit according to an embodiment of the present invention.
FIG. 5 is a flow chart for explaining a web data based broadcast content object identification verification method according to an embodiment of the present invention.
6 is a flowchart illustrating a process of generating content knowledge information using web data according to an embodiment of the present invention.
7 is a flowchart illustrating an object identification result verification step according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 기술되는 바람직한 실시 예를 통하여 본 발명을 당업자가 용이하게 이해하고 재현할 수 있도록 상세히 기술하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout.

본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명 실시 예들의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

본 발명을 설명하기에 앞서, 명세서 전반에 걸쳐 사용되는 용어들은 사용자 또는 운용자의 의도, 관례 등에 따라 충분히 변형될 수 있는 사항이므로, 이 용어들의 정의는 본 발명의 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
Before describing the present invention, it is to be understood that the terms used throughout the specification are subject to change in accordance with the intentions and customs of the user or operator, and therefore the definitions of these terms should be based on the contents of the specification of the present invention will be.

본 발명은 영상 처리 기술로부터 얻어진 객체 식별 결과에 대해 방송 콘텐츠 외부에서 얻어진 정보를 활용하여 검증을 수행하는 기술을 제안한다. 여기서, 방송 콘텐츠는 일반적인 영상에 비하여 다수의 사용자에게 신속히 전달될 뿐만 아니라, 사용자에 의한 콘텐츠 재생산도 빈번하게 일어난다. 예컨대, '별에서 온 그대'라는 드라마 콘텐츠의 경우, 방영 기간인 약 3개월 동안 만에도 관련되어 생산된 블로그 포스팅 건수가 4만 건을 넘어선 바 있다. The present invention proposes a technique for performing verification using information obtained from outside of broadcast contents on object identification results obtained from an image processing technique. Here, the broadcast content is not only rapidly transmitted to a large number of users as compared with a general image, but also reproduces contents frequently by a user. For example, in the case of the drama content "You are from the Star", the number of blog postings related to the broadcast period of about 3 months has exceeded 40,000.

따라서, 이와 같이 방송 콘텐츠와 연관된 웹 데이터가 방송 콘텐츠 전반에 걸친 정보를 담고 있을 뿐만 아니라 그 데이터 또한 방대하다는 점에 착안하여, 본 발명에서는 객체 식별 검증을 위해 웹 데이터로부터 추출된 정보를 활용한다. Accordingly, noting that the web data associated with the broadcast content includes not only the information over the broadcast content but also the data thereof, the present invention utilizes the information extracted from the web data for object identification verification.

도 1은 본 발명의 일 실시 예에 따른 웹 데이터 기반 방송 콘텐츠 객체 식별 검증 장치를 도시한 도면이다. 1 is a block diagram illustrating a web data based broadcast content object identification and verification apparatus according to an embodiment of the present invention.

도 1을 참조하면, 웹 데이터 기반 객체 식별 검증 장치(100)는 크게 방송 콘텐츠와 연관된 웹 데이터를 수집 및 가공하여 방송 콘텐츠에 태깅한 형태의 콘텐츠 지식 정보를 생성하는 웹 데이터 처리부(110)와, 콘텐츠 지식 정보를 저장하는 콘텐츠지식정보저장부(120)와, 방송 콘텐츠에 포함된 객체에 대한 식별 결과를 콘텐츠 지식 정보를 이용하여 검증하는 객체 식별 결과 검증부(130)를 포함한다. Referring to FIG. 1, the web data-based object identification and verification apparatus 100 includes a web data processing unit 110 for collecting and processing web data associated with broadcast contents to generate content knowledge information in the form of tagging broadcast contents, A content knowledge information storing unit 120 for storing content knowledge information, and an object identification result verifying unit 130 for verifying an identification result of an object included in the broadcast content using content knowledge information.

방송 콘텐츠 DB(10)는 방송 콘텐츠에 포함된 용어들이 저장되어 있는 방송 콘텐츠 요청집(11) 및 방송 콘텐츠 영상(12)으로 구성된다. 이러한 방송 콘텐츠 DB(10)는 방송사 서버에 저장되어 있을 수도 있고, 다양한 형태로 제공될 수 있다. 방송 콘텐츠 DB(10)는 웹 데이터 처리부(110)에 방송 콘텐츠에 관련된 정보를 제공하여, 웹 데이터 처리부(110)가 객체 식별기(20)에 의한 객체 식별 결과를 검증할 수 있는 데이터를 생성하도록 한다. The broadcast content DB 10 includes a broadcast content request book 11 and a broadcast content image 12 in which terms included in broadcast content are stored. The broadcast content DB 10 may be stored in a broadcaster server or may be provided in various forms. The broadcast content DB 10 provides information related to the broadcast content to the web data processing unit 110 so that the web data processing unit 110 generates data that can verify the object identification result by the object identifier 20 .

객체 식별기(20)는 영상 인식 기술을 이용하여 방송 콘텐츠 영상에서 객체를 식별하는데, 이러한 객체 식별 결과는 객체 식별 결과 검증부(130)에 의해 검증된다. The object identifier 20 identifies an object in the broadcast content image by using an image recognition technology, and the object identification result is verified by the object identification result verification unit 130.

도 2는 본 발명의 일 실시 예에 따른 웹 데이터 처리부의 블록 구성도이다. 2 is a block diagram of a web data processing unit according to an embodiment of the present invention.

도 2를 참조하면, 웹 데이터 처리부(110)는 상세하게는 웹 데이터 수집부(111), 지식망 구축부(112) 및 지식망 태깅부(113)를 포함한다. Referring to FIG. 2, the web data processing unit 110 includes a web data collection unit 111, a knowledge network construction unit 112, and a knowledge network tagging unit 113.

웹데이터 수집부(111)는 방송 콘텐츠에 대한 객체 연관 키워드들을 이용하여 웹 데이터를 수집한다. 이를 위해 웹데이터 수집부(111)는 외부의 방송 콘텐츠 DB에 존재하는 방송 콘텐츠 연관 용어집(11)을 검색하여, 웹데이터 수집에 필요한 키워드들을 획득하고, 획득된 키워드들을 조합하여 쿼리(query)를 생성하고, 웹포털(30)에 접속하여 생성된 쿼리를 이용하여 검색되는 웹데이터(Web data)를 수집한다. 여기서, 객체 연관 키워드들은 예컨대, 콘텐츠 명, 주인공 이름, PPL(Product Placement)로 등장한 자동차, 장소 등의 단어가 포함될 수 있다. The web data collection unit 111 collects web data using object-related keywords for broadcast contents. To this end, the web data collection unit 111 searches for a broadcast content-related glossary 11 existing in an external broadcast content DB, acquires keywords necessary for web data collection, combines the acquired keywords, And accesses the web portal 30 to collect Web data to be searched using the generated query. Here, the object related keywords may include words such as a content name, a main character name, a car, a place appearing in a product placement (PPL), and the like.

지식망 구축부(112)는 수집된 웹 데이터에서 추출된 용어들 및 이미지들 중 적어도 하나 이상으로 구성되는 지식망을 구축하는데, 상세하게는 정보/이미지 추출부(112a) 및 지식망 생성부(112b)를 포함한다. 정보/이미지 추출부(112a)는 웹 데이터, 즉 웹 페이지(web page)에 포함되어 있는 용어들 및 이미지들을 추출한다. 지식망 생성부(112b)는 정보/이미지 추출부(112a)에 의해 추출된 용어들 및 이미지들을 노드로 하는 지식망을 구성한다. 지식망에 대해서는 도 3을 참조하여 하기에서 좀 더 상세히 살펴보기로 한다. The knowledge network construction unit 112 constructs a knowledge network composed of at least one of terms and images extracted from the collected web data. Specifically, the knowledge network construction unit 112 includes an information / image extraction unit 112a and a knowledge network generation unit 112b. The information / image extracting unit 112a extracts web data, that is, terms and images included in a web page. The knowledge network generating unit 112b constitutes a knowledge network having nodes and images extracted by the information / image extracting unit 112a as nodes. The knowledge network will be described in more detail below with reference to FIG.

지식망 태깅부(113)는 방송 콘텐츠 영상에 지식망에 포함된 이미지와 매칭되는 영상을 포함하는 프레임을 검색하여, 검색된 프레임에 지식망을 태깅하는데, 상세하게는 매칭 모델 학습부(113a), 매칭 모델 생성부(113b) 및 이미지 매칭부(113c) 및 태깅부(113d)를 포함한다. The knowledge network tagging unit 113 searches a frame including an image matching an image included in the knowledge network with the broadcast content image and tags the knowledge network on the retrieved frame. Specifically, the knowledge network tagging unit 113 includes a matching model learning unit 113a, A matching model generation unit 113b, an image matching unit 113c, and a tagging unit 113d.

매칭 모델 학습부(113a)는 방송 콘텐츠 DB에 포함된 방송 콘텐츠 영상(12)을 구성하는 프레임들을 기반으로 매칭 모델을 학습하고, 매칭 모델 생성부(113b)는 학습된 매칭 모델을 생성한다. The matching model learning unit 113a learns a matching model based on the frames constituting the broadcast content image 12 included in the broadcast content DB, and the matching model generation unit 113b generates the learned matching model.

이미지 매칭부(113c)는 매칭 모델에서는 방송콘텐츠 프레임이나, 웹 이미지들로부터 추출된 특징벡터 XX'로 변환하고, 변환된 벡터 간의 유사도 측정을 수행한다. 여기서, 특징 벡터의 변환은 방송 콘텐츠 프레임들 간의 유사도가 하기의 <수학식 1>을 최대한 만족하도록 수행된다.In the matching model, the image matching unit 113c converts the feature vector X extracted from the broadcast content frame or the web images into X ' , and performs similarity measurement between the converted vectors. Here, the feature vector conversion is performed such that the degree of similarity between broadcast content frames satisfies Equation (1) as below.

<수학식 1>&Quot; (1) &quot;

Figure 112015080961105-pat00001
Figure 112015080961105-pat00001

상기 <수학식 1>에서 sim()은 유사도 계산 함수를 의미하며, #x는 x의 프레임 넘버를 의미한다. 즉, 상기 <수학식 1>을 만족하는 매칭 모델은 프레임 위치가 가까울수록 유사도를 높이도록 학습된다. In Equation (1), sim () denotes a similarity calculation function, and #x denotes a frame number of x. That is, the matching model satisfying Equation (1) is learned so that the closer the frame position is, the higher the degree of similarity.

일 실시 예에 따라, 이미지 매칭부(113c)는 특징벡터 X를 구축하는데 사용한 특징 추출 기법과 상이한 특성을 가지는 특징 추출 기법을 사용하여 한번 더 매칭 순위를 계산하게 된다. 즉, X를 추출하는데, 색상 정보를 사용했다면, 후처리에서는 이미지의 텍스쳐, 경계선 등의 정보를 사용하여 특징 벡터 Y 구축하고 유사도를 계산함으로써 매칭 모델을 통해 얻은 n개의 후보에 대해 한 번 더 순위를 조정하게 된다. 매칭 모델의 구축에는 SVMRank, manifold learning 등 다양한 선형, 비선형 모델 학습 기법이 적용될 수 있으며, 후처리를 위한 특징 추출에도 다양한 특징 추출 기술들이 사용될 수 있다. According to one embodiment, the image matching unit 113c calculates the matching ranking once more by using a feature extraction technique used to construct the feature vector X and a feature extraction technique having different characteristics. That is, if color information is used to extract X , post-processing uses the information of the texture and boundary of the image to extract the feature vector Y By constructing and calculating the similarity, one more rank is adjusted for the n candidates obtained through the matching model. Various linear and nonlinear model learning techniques such as SVMRank and manifold learning can be applied to construct the matching model, and various feature extraction techniques can be used for feature extraction for post-processing.

이미지 매칭부(113c)는 웹 이미지 하나에 대해 n개의 프레임을 매칭한다. The image matching unit 113c matches n frames with respect to one web image.

태깅부(113d)는 매칭 결과에 의한 최종 태깅은 n개 프레임 넘버들 중, 가장 높은 점수의 1개 최종 프레임을 선택하고, 최종 프레임 전후 m개의 프레임에 대해 지식망을 태깅하게 되며, m개의 프레임은 최종 결정된 프레임과의 거리에 기반하여 가중치를 부여할 수 있다.The tagging unit 113d selects the last frame of the highest score among the n frame numbers and tags the knowledge network for m frames before and after the last frame, Can be weighted based on the distance from the last determined frame.

이와 같이 매칭 결과와 지식망구축부(120)을 통해 구축된 지식망은 결합되어 콘텐츠지식정보저장부(140)에 저장된다. 즉, 콘텐츠 지식 정보는 지식망의 집합 G=g1, g2, g3, ..., gm와 태깅 결과 얻어진 프레임 넘버에 대한 분포의 집합 T=t1, t2, t3, ..., tm를 결합한 C=(g1,t1), (g2,t2), (g3,t3), ..., (gm,tm)가 될 수 있다. The matching result and the knowledge network constructed through the knowledge network construction unit 120 are combined and stored in the content knowledge information storage unit 140. That is, the content information is set knowledge of the knowledge network G = g 1, g 2, g 3, ..., a set of distribution for the g m and tagging results obtained frame number T = t 1, t 2, t 3,. .., it can be C = (g 1, t 1 ) combining the t m, (g 2, t 2), (g 3, t 3), ..., (g m, t m).

도 3은 본 발명에 따른 지식망이 방송 콘텐츠에 태깅되는 예시도이다.FIG. 3 is a diagram illustrating an example in which a knowledge network according to the present invention is tagged to broadcast contents.

도 3을 참조하면, 지식망(G)(310)은 다수의 노드(N)들(311a, 311b)과 노드들(311a, 311b)을 연결하는 엣지(E)들(312)로 이루어진다. 여기서, 노드(N)는 수집된 웹 데이터에서 추출되는 단어들(311a) 및 이미지들(311b)의 집합이다. 엣지(E)는 노드(N)에 해당되는 정보들이 해당 웹 페이지에서의 중요도와 정보들 간 연관성 정보를 기반으로 구성된다. 이러한 지식망(310)에 포함된 이미지(311b)는 방송 콘텐츠(320) 영상을 구성하는 프레임들(321)과 매칭된다. 3, the knowledge network G 310 is composed of a plurality of nodes N 311 a and 311 b and edges E 312 connecting the nodes 311 a and 311 b. Here, the node N is a set of words 311a and 311b extracted from the collected web data. The edge (E) is constructed based on the importance information of the node (N) in the web page and the association information between the information. The image 311b included in the knowledge network 310 is matched with the frames 321 constituting the broadcast content 320 image.

도 4는 본 발명의 일 실시 예에 따른 객체 식별 결과 검증부의 블록 구성도이다. 4 is a block diagram of an object identification result verifying unit according to an embodiment of the present invention.

도 4를 참조하면, 객체 식별 결과 검증부(130)는 상세하게는 지식망 추출부(131), 그래프 탐색 기반 확률 계산부(132), 확률 통합부(133), 식별 점수 재조정부(134) 및 최종 식별 결과 출력부(135)를 포함한다.4, the object identification result verification unit 130 includes a knowledge network extraction unit 131, a graph search based probability calculation unit 132, a probability integration unit 133, an identification score reconstruction unit 134, And a final identification result output section 135.

지식망 추출부(131)는 객체 식별 결과를 전달받으면, 콘텐츠 지식 정보 저장부(120)에 요청하여, 식별이 수행된 해당 프레임과 연관된 지식망 집합 C'

Figure 112015080961105-pat00002
C를 전달받는다. When receiving the object identification result, the knowledge network extracting unit 131 requests the content knowledge information storage unit 120 to store the knowledge network set C '
Figure 112015080961105-pat00002
C is received.

그래프 탐색 기반 확률 계산부(132)는 객체 식별 후보군 O와 C'를 기반으로 객체에 대한 출연 확률을 계산한다. 즉, 식별 대상 객체 o

Figure 112015080961105-pat00003
O에 대해 다음의 <수학식 2>를 이용하여 출연 확률을 계산한다.The graph search based probability calculation unit 132 calculates probabilities of appearance of objects based on the object identification candidates O and C '. That is, the identification object o
Figure 112015080961105-pat00003
O is calculated using Equation (2) below.

<수학식 2>&Quot; (2) &quot;

Figure 112015080961105-pat00004
Figure 112015080961105-pat00004

<수학식 2>에서 #f는 식별이 일어난 해당 프레임 넘버이다. 즉, C'에 속한 지식망 gc에서 객체 o가 나타날 확률, 각 지식망의 프레임 #f에 대한 가중치를 곱하고, 이를 모든 c

Figure 112015080961105-pat00005
C'에 대해 계산한다. In Equation (2), # f is the corresponding frame number at which the identification occurred. That is, the probability that the object o appears in the knowledge network g c belonging to C 'is multiplied by the weight for the frame # f of each knowledge network,
Figure 112015080961105-pat00005
C '.

확률 통합부(133)는 그래프 탐색 기반 확률 계산부(132)에 의해 계산된 출연 확률을 합산하여 객체 o의 확률을 구한다.The probability integrating unit 133 obtains the probability of the object o by summing the appearance probabilities calculated by the graph search based probability calculating unit 132. [

식별 점수 재조정부(134)는 구해낸 확률값을 이용하여 객체식별기(20)의 식별 결과를 재조정함으로써 식별 결과에 대한 검증을 수행한다.The identification-point re-configuration unit 134 performs verification of the identification result by readjusting the identification result of the object identifier 20 using the obtained probability value.

도 5는 본 발명의 일 실시 예에 따른 웹 데이터 기반 방송 콘텐츠 객체 식별 검증 방법을 설명하기 위한 순서도이다. FIG. 5 is a flow chart for explaining a web data based broadcast content object identification verification method according to an embodiment of the present invention.

도 5를 참조하면, 웹 데이터 기반 객체 식별 검증 장치(100)는 크게 방송 콘텐츠와 연관된 웹 데이터를 수집 및 가공하여 방송 콘텐츠에 태깅한 형태의 콘텐츠 지식 정보를 생성하는 단계(S510)와, 방송 콘텐츠에 포함된 객체에 대한 식별 결과를 콘텐츠 지식 정보를 이용하여 검증하는 단계(S520)를 포함한다. Referring to FIG. 5, the web data-based object identification and verification apparatus 100 collects and processes web data related to broadcast contents to generate content knowledge information in the form of tagging the broadcast content (S510) (S520) of verifying the identification result of the object included in the content knowledge information using the content knowledge information.

도 6은 본 발명의 일 실시 예에 따른 웹 데이터를 이용하여 콘텐츠 지식 정보를 생성하는 단계를 설명하기 위한 순서도이다. 6 is a flowchart illustrating a process of generating content knowledge information using web data according to an embodiment of the present invention.

도 6을 참조하면, 웹 데이터 처리부(110)는 웹 데이터를 수집하는 단계(S610), 지식망 구축하는 단계(S620) 및 지식망 태깅하는 단계(S630)를 포함한다. Referring to FIG. 6, the web data processing unit 110 includes a step S610 of collecting web data, a step S620 of building a knowledge network, and a step S630 of tagging a knowledge network.

웹데이터 수집하는 단계(S610)에서는 방송 콘텐츠에 대한 객체 연관 키워드들을 이용하여 웹 데이터를 수집한다. 이를 위해 웹데이터 수집부(111)는 외부의 방송 콘텐츠 DB에 존재하는 방송 콘텐츠 연관 용어집(11)을 검색하여, 웹데이터 수집에 필요한 키워드들을 획득하고, 획득된 키워드들을 조합하여 쿼리(query)를 생성하고, 웹포털(30)에 접속하여 생성된 쿼리를 이용하여 검색되는 웹데이터(Web data)를 수집한다. 여기서, 객체 연관 키워드들은 예컨대, 콘텐츠 명, 주인공 이름, PPL(Product Placement)로 등장한 자동차, 장소 등의 단어가 포함될 수 있다. In the step of collecting web data (S610), web data is collected using object-related keywords for broadcast contents. To this end, the web data collection unit 111 searches for a broadcast content-related glossary 11 existing in an external broadcast content DB, acquires keywords necessary for web data collection, combines the acquired keywords, And accesses the web portal 30 to collect Web data to be searched using the generated query. Here, the object related keywords may include words such as a content name, a main character name, a car, a place appearing in a product placement (PPL), and the like.

지식망을 구축하는 단계(S620)는 수집된 웹 데이터에서 추출된 용어들 및 이미지들 중 적어도 하나 이상으로 구성되는 지식망을 구축하는데, 상세하게는 정보/이미지 추출하는 단계(S621) 및 지식망을 생성하는 단계(S622)를 포함한다. 정보/이미지 추출하는 단계(S621)에서는 웹 데이터, 즉 웹 페이지(web page)에 포함되어 있는 용어들 및 이미지들이 추출된다. 지식망을 생성하는 단계(S622)에서는 추출된 용어들 및 이미지들을 노드로 하는 지식망을 구성된다. In step S620, the knowledge network is constructed by constructing a knowledge network composed of at least one of terms and images extracted from the collected web data. More specifically, step S621 of extracting information / image, (S622). &Lt; / RTI &gt; In step S621 of extracting information / image, terms and images included in web data, that is, a web page are extracted. In the step S622 of generating the knowledge network, a knowledge network is formed by using extracted terms and images as nodes.

지식망 태깅하는 단계(S630)는 방송 콘텐츠 영상에 지식망에 포함된 이미지와 매칭되는 영상을 포함하는 프레임을 검색하여, 검색된 프레임에 지식망을 태깅하는데, 상세하게는 매칭 모델 학습 단계(S631), 매칭 모델 생성 단계(S632) 및 이미지 매칭 단계(S633) 및 프레임에 지식망을 태깅하는 단계(S633)를 포함한다. In the knowledge network tagging step S630, a frame including an image matching an image included in the knowledge network is searched in the broadcast content image, and the knowledge network is tagged in the searched frame. More specifically, in the matching model learning step S631, A matching model generation step S632, an image matching step S633, and a step S633 of tagging the knowledge network in the frame.

매칭 모델 학습부(113a)는 방송 콘텐츠 DB에 포함된 방송 콘텐츠 영상(12)을 구성하는 프레임들을 기반으로 매칭 모델을 학습(S631)하고, 매칭 모델 생성부(113b)는 학습된 매칭 모델을 생성한다(S632). The matching model learning unit 113a learns a matching model based on the frames constituting the broadcast content image 12 included in the broadcast content DB in step S631 and the matching model generation unit 113b generates the learned matching model (S632).

이미지 매칭부(113c)는 매칭 모델에서는 방송콘텐츠 프레임이나, 웹 이미지들로부터 추출된 특징벡터 XX'로 변환하고, 변환된 벡터 간의 유사도 측정을 수행한다. 여기서, 특징 벡터의 변환은 방송 콘텐츠 프레임들 간의 유사도가 하기의 <수학식 3>을 최대한 만족하도록 수행된다.In the matching model, the image matching unit 113c converts the feature vector X extracted from the broadcast content frame or the web images into X ' , and performs similarity measurement between the converted vectors. Here, the conversion of the feature vector is performed such that the degree of similarity between broadcast content frames satisfies Equation (3) as below.

<수학식 3>&Quot; (3) &quot;

for x,y,z in X', sim(x', y')

Figure 112015080961105-pat00006
sim(x', z'),if |(#x -#y)|
Figure 112015080961105-pat00007
|(#x -#z)|for x, y, z in X ' , sim (x', y ')
Figure 112015080961105-pat00006
sim (x ', z'), if | (#x - #y) |
Figure 112015080961105-pat00007
| (#x - #z) |

상기 <수학식 3>에서 sim()은 유사도 계산 함수를 의미하며, #x는 x의 프레임 넘버를 의미한다. 즉, 상기 <수학식 3>을 만족하는 매칭 모델은 프레임 위치가 가까울수록 유사도를 높이도록 학습된다. In Equation (3), sim () denotes a similarity calculation function, and #x denotes a frame number of x. That is, the matching model satisfying Equation (3) is learned so that the similarity increases as the frame position becomes closer.

일 실시 예에 따라, 이미지 매칭부(113c)는 특징벡터 X를 구축하는데 사용한 특징 추출 기법과 상이한 특성을 가지는 특징 추출 기법을 사용하여 한번 더 매칭 순위를 계산하게 된다. 즉, X를 추출하는데, 색상 정보를 사용했다면, 후처리에서는 이미지의 텍스쳐, 경계선 등의 정보를 사용하여 특징 벡터 Y 구축하고 유사도를 계산함으로써 매칭 모델을 통해 얻은 n개의 후보에 대해 한 번 더 순위를 조정하게 된다. 매칭 모델의 구축에는 SVMRank, manifold learning 등 다양한 선형, 비선형 모델 학습 기법이 적용될 수 있으며, 후처리를 위한 특징 추출에도 다양한 특징 추출 기술들이 사용될 수 있다. 이미지 매칭부(113c)는 웹 이미지 하나에 대해 n개의 프레임을 매칭한다(S633) According to one embodiment, the image matching unit 113c calculates the matching ranking once more by using a feature extraction technique used to construct the feature vector X and a feature extraction technique having different characteristics. That is, if color information is used to extract X , post-processing uses the information of the texture and boundary of the image to extract the feature vector Y By constructing and calculating the similarity, one more rank is adjusted for the n candidates obtained through the matching model. Various linear and nonlinear model learning techniques such as SVMRank and manifold learning can be applied to construct the matching model, and various feature extraction techniques can be used for feature extraction for post-processing. The image matching unit 113c matches n frames with respect to one web image (S633)

태깅부(113d)는 매칭 결과에 의한 최종 태깅은 n개 프레임 넘버들 중, 가장 높은 점수의 1개 최종 프레임을 선택하고, 최종 프레임 전후 m개의 프레임에 대해 지식망을 태깅하게 되며, m개의 프레임은 최종 결정된 프레임과의 거리에 기반하여 가중치를 부여할 수 있다(S634).The tagging unit 113d selects the last frame of the highest score among the n frame numbers and tags the knowledge network for m frames before and after the last frame, (S634) based on the distance from the finally determined frame.

도 7은 본 발명의 일 실시 예에 따른 객체 식별 결과 검증 단계를 설명하기 위한 순서도이다. 7 is a flowchart illustrating an object identification result verification step according to an embodiment of the present invention.

도 7을 참조하면, 객체 식별 결과 검증하는 단계는 상세하게는 지식망 추출하는 단계(S710), 그래프 탐색 기반 확률 계산 단계(S720), 확률 통합 단계(S730), 식별 점수 재조정 단계(S740) 및 최종 식별 결과 출력 단계(S750)를 포함한다.Referring to FIG. 7, the step of verifying the object identification result includes steps S710 to S710, S720 to S720, S730 to S730, S740 to S740, And a final identification result output step S750.

지식망 추출부(131)는 객체 식별 결과를 전달받으면, 콘텐츠 지식 정보 저장부(120)에 요청하여, 식별이 수행된 해당 프레임과 연관된 지식망 집합 C'

Figure 112015080961105-pat00008
C를 전달받는다(S710). When receiving the object identification result, the knowledge network extracting unit 131 requests the content knowledge information storage unit 120 to store the knowledge network set C '
Figure 112015080961105-pat00008
C (S710).

그래프 탐색 기반 확률 계산부(132)는 객체 식별 후보군 O와 C'를 기반으로 객체에 대한 출연 확률을 계산한다. 즉, 식별 대상 객체 o

Figure 112015080961105-pat00009
O에 대해 다음의 <수학식 4>를 이용하여 출연 확률을 계산한다(S720).The graph search based probability calculation unit 132 calculates probabilities of appearance of objects based on the object identification candidates O and C '. That is, the identification object o
Figure 112015080961105-pat00009
O is calculated using the following Equation (4) (S720).

<수학식 4>&Quot; (4) &quot;

Figure 112015080961105-pat00010
Figure 112015080961105-pat00010

<수학식 4>에서 #f는 식별이 일어난 해당 프레임 넘버이다. 즉, C'에 속한 지식망 gc에서 객체 o가 나타날 확률, 각 지식망의 프레임 #f에 대한 가중치를 곱하고, 이를 모든 c

Figure 112015080961105-pat00011
C'에 대해 계산한다. In Equation (4), # f is the corresponding frame number at which the identification occurred. That is, the probability that the object o appears in the knowledge network g c belonging to C 'is multiplied by the weight for the frame # f of each knowledge network,
Figure 112015080961105-pat00011
C '.

확률 통합부(133)는 그래프 탐색 기반 확률 계산부(132)에 의해 계산된 출연 확률을 합산하여 객체 o의 확률을 구한다(S730).The probability integration unit 133 obtains the probability of the object o by summing the appearance probabilities calculated by the graph search based probability calculation unit 132 (S730).

식별 점수 재조정부(134)는 구해낸 확률값을 이용하여 객체식별기(20)의 식별 결과를 재조정함으로써 식별 결과에 대한 검증을 수행하고(S740), 재조정된 최종 식별 결과를 출력한다(S750).The identification point re-configuration unit 134 performs verification of the identification result by rearranging the identification result of the object identifier 20 using the obtained probability value (S740), and outputs the rearranged final identification result (S750).

Claims (16)

방송 콘텐츠와 연관된 웹 데이터를 수집 및 가공하여 상기 방송 콘텐츠에 태깅한 형태의 콘텐츠 지식 정보를 생성하는 웹데이터 처리부와,
상기 콘텐츠 지식 정보를 저장하는 콘텐츠지식정보저장부와,
상기 방송 콘텐츠에 포함된 객체에 대한 식별 결과를 상기 콘텐츠 지식 정보를 이용하여 검증하는 객체 식별 결과 검증부를 포함하되,
상기 객체 식별 검증부는
객체 식별 후보군과 상기 식별된 객체가 포함되는 프레임과 연관된 지식망 집합을 기반으로 객체에 대한 출연 확률을 계산하여 상기 식별 결과를 재조정함을 특징으로 하는 웹 데이터 기반 방송 콘텐츠 객체 식별 검증 장치.
A web data processing unit for collecting and processing web data associated with broadcast content to generate content knowledge information in the form of tagging the broadcast content;
A content knowledge information storage unit for storing the content knowledge information;
And an object identification result verifying unit for verifying an identification result of an object included in the broadcast content using the content knowledge information,
The object identification verifying unit
Wherein the identification result is readjusted by calculating an appearance probability for the object based on the object identification candidate group and the knowledge network set associated with the frame including the identified object.
제 1항에 있어서, 상기 웹데이터 처리부는
방송 콘텐츠에 대한 객체 연관 키워드들을 이용하여 쿼리(query)를 생성하고, 생성된 쿼리를 기반으로 웹포털에 검색을 요청하여 웹데이터를 수집하는 웹데이터 수집부와,
상기 수집된 웹 데이터에서 추출된 단어들 및 이미지들 중 적어도 하나 이상으로 구성되는 지식망을 구축하는 지식망 구축부와,
상기 지식망을 연관된 방송 콘텐츠의 소정 프레임 구간에 태깅하는 지식망 태깅부를 포함함을 특징으로 하는 웹 데이터 기반 방송 콘텐츠 객체 식별 검증 장치.
The apparatus of claim 1, wherein the web data processing unit
A web data collection unit for generating a query using object-related keywords for broadcast contents, requesting a search for a web portal based on the generated query, and collecting web data;
A knowledge network construction unit for building a knowledge network composed of at least one of words and images extracted from the collected web data;
And a knowledge network tagging unit for tagging the knowledge network in a predetermined frame period of the associated broadcast content.
제 2항에 있어서, 상기 지식망은
상기 웹데이터로부터 추출된 이미지들 및 단어들 중 적어도 하나 이상을 포함하는 노드들과, 상기 노드들에 해당하는 정보들의 중요도 및 연관성을 기반으로 노드들간에 연결 에지로 구성됨을 특징으로 하는 웹 데이터 기반 방송 콘텐츠 객체 식별 검증 장치.
3. The system of claim 2,
Wherein each of the nodes comprises at least one of images and words extracted from the web data, and a connection edge between the nodes based on the importance and association of the information corresponding to the nodes. A broadcast content object identification verification device.
제 2항에 있어서, 상기 지식망 태깅부는
상기 웹데이터로부터 추출된 이미지를 상기 객체 식별 검증 대상 방송 콘텐츠의 프레임에 태깅함을 특징으로 하는 웹 데이터 기반 방송 콘텐츠 객체 식별 검증 장치.
3. The system according to claim 2, wherein the knowledge network tagging unit
And tagging the image extracted from the web data to a frame of the object identification verification target broadcast content.
제 4항에 있어서, 상기 지식망 태깅부는
방송콘텐츠 프레임들을 기반으로 매칭 모델을 학습하고, 학습된 매칭 모델에서 방송콘텐츠 프레임 또는 웹 이미지들로부터 추출된 특징 벡터간의 유사도 측정을 통해 이미지 매칭 순위를 계산함을 특징으로 하는 웹 데이터 기반 방송 콘텐츠 객체 식별 검증 장치.
5. The system according to claim 4, wherein the knowledge network tagging unit
Wherein a matching model is learned based on broadcast content frames and an image matching ranking is calculated by measuring similarity between feature vectors extracted from broadcast content frames or web images in the learned matching model. Identification verification device.
제 5항에 있어서,
상기 유사도 측정을 위해 사용된 특징과는 상이한 특징을 이용한 특징 추출 기법을 사용하여 한번 더 매칭 순위를 계산함을 특징으로 하는 웹 데이터 기반 방송 콘텐츠 객체 식별 검증 장치.
6. The method of claim 5,
Wherein the matching ranking is calculated once more by using a feature extraction technique using features different from the features used for the similarity measurement.
제 5항에 있어서, 상기 지식망 태깅부는
가장 높은 점수를 가지는 최종 프레임을 선택하고, 선택된 최종 프레임 전후 소정 갯수의 프레임들에 대해 지식망을 태깅하게 되며, 상기 소정 갯수의 프레임들은 최종 프레임과의 거리에 기반하여 가중치를 가짐을 특징으로 하는 웹 데이터 기반 방송 콘텐츠 객체 식별 검증 장치.
6. The system according to claim 5, wherein the knowledge network tagging unit
Selecting a last frame having the highest score and tagging the knowledge network with respect to a predetermined number of frames before and after the selected last frame, and the predetermined number of frames have a weight based on the distance from the last frame A Web data based broadcast content object identification and verification device.
제 1항에 있어서, 상기 콘텐츠 지식 정보 저장부는
지식망 및 지식망에 태깅된 방송 콘텐츠의 프레임 넘버를 원소로 하는 집합을 콘텐츠 지식 정보로 저장함을 특징으로 하는 웹 데이터 기반 방송 콘텐츠 객체 식별 검증 장치.
2. The apparatus of claim 1, wherein the content knowledge information storage unit
Wherein the set of content knowledge information is stored as a set of content elements having the frame number of the broadcast content tagged in the knowledge network and the knowledge network as elements.
삭제delete 웹 데이터 기반 방송 콘텐츠 객체 식별 검증 장치에 의해 수행되는 웹 데이터 기반 방송 콘텐츠 객체 식별 검증 방법에 있어서,
방송 콘텐츠와 연관된 웹 데이터를 수집 및 가공하여 상기 방송 콘텐츠에 태깅한 형태의 콘텐츠 지식 정보를 생성하는 단계와,
상기 방송 콘텐츠에 포함된 객체에 대한 식별 결과를 상기 콘텐츠 지식 정보를 이용하여 검증하는 단계를 포함하되,
상기 검증하는 단계는
객체 식별 후보군과 상기 식별된 객체가 포함되는 프레임과 연관된 지식망 집합을 기반으로 객체에 대한 출연 확률을 계산하여 상기 식별 결과를 재조정함을 특징으로 하는 웹 데이터 기반 방송 콘텐츠 객체 식별 검증 방법.
A web data based broadcast content object identification verification method performed by a web data based broadcast content object identification verification device,
Collecting and processing web data associated with broadcast content to generate content knowledge information in the form of tagging the broadcast content;
And verifying an identification result of an object included in the broadcast content using the content knowledge information,
The verifying step
Wherein the identification result is readjusted by calculating an appearance probability for the object based on the object identification candidate group and the knowledge network set associated with the frame including the identified object.
제 10항에 있어서, 상기 생성하는 단계는
방송 콘텐츠에 대한 객체 연관 키워드들을 이용하여 쿼리(query)를 생성하고, 생성된 쿼리를 기반으로 웹포털에 검색을 요청하여 웹데이터를 수집하는 단계와,
상기 수집된 웹 데이터에서 추출된 단어들 및 이미지들 중 적어도 하나 이상으로 구성되는 지식망을 구축하는 단계와,
상기 지식망을 연관된 방송 콘텐츠의 소정 프레임 구간에 태깅하는 단계를 포함함을 특징으로 하는 웹 데이터 기반 방송 콘텐츠 객체 식별 검증 방법.
11. The method of claim 10, wherein the generating comprises:
Generating a query using object-related keywords for the broadcast content, requesting the web portal for search based on the generated query, and collecting web data;
Constructing a knowledge network comprising at least one of words and images extracted from the collected web data;
And tagging the knowledge network on a predetermined frame interval of the associated broadcast content.
제 11항에 있어서, 상기 지식망은
상기 웹데이터로부터 추출된 이미지들 및 단어들 중 적어도 하나 이상을 포함하는 노드들과, 상기 노드들에 해당하는 정보들의 중요도 및 연관성을 기반으로 노드들간에 연결 에지로 구성됨을 특징으로 하는 웹 데이터 기반 방송 콘텐츠 객체 식별 검증 방법.
12. The system of claim 11, wherein the knowledge network
Wherein each of the nodes comprises at least one of images and words extracted from the web data, and a connection edge between the nodes based on the importance and association of the information corresponding to the nodes. A method of verifying broadcast content objects.
제 11항에 있어서, 상기 태깅하는 단계는
방송콘텐츠 프레임들을 기반으로 매칭 모델을 학습하는 단계와,
학습된 매칭 모델을 생성하는 단계와,
방송콘텐츠 프레임 또는 이미지들로부터 추출된 특징 벡터간의 유사도 측정을 통해 이미지 매칭 순위를 계산하는 단계와,
상기 이미지 매칭 순위에 따라, 상기 이미지를 포함하는 지식망을 해당 프레임에 태깅하는 단계를 포함함을 특징으로 하는 웹 데이터 기반 방송 콘텐츠 객체 식별 검증 방법.
12. The method of claim 11, wherein the step of tagging
Learning a matching model based on broadcast content frames;
Generating a learned matching model;
Calculating an image matching ranking by measuring similarity between feature vectors extracted from broadcast content frames or images;
And tagging the knowledge network including the image to the corresponding frame according to the image matching order.
제 13항에 있어서, 상기 이미지 매칭 순위를 계산하는 단계는
상기 유사도 측정을 위해 사용된 특징과는 상이한 특징을 이용한 특징 추출 기법을 사용하여 한번 더 매칭 순위를 계산함을 특징으로 하는 웹 데이터 기반 방송 콘텐츠 객체 식별 검증 방법.
14. The method of claim 13, wherein calculating the image matching ranking comprises:
Wherein the matching ranking is calculated once more by using a feature extraction technique using features different from the features used for the similarity measurement.
제 13항에 있어서, 상기 태깅하는 단계는
가장 높은 점수를 가지는 최종 프레임을 선택하고, 선택된 최종 프레임 전후 소정 갯수의 프레임들에 대해 지식망을 태깅하게 되며, 상기 소정 갯수의 프레임들은 최종 프레임과의 거리에 기반하여 가중치를 가짐을 특징으로 하는 웹 데이터 기반 방송 콘텐츠 객체 식별 검증 방법.
14. The method of claim 13, wherein the step of tagging
Selecting a last frame having the highest score and tagging the knowledge network with respect to a predetermined number of frames before and after the selected last frame, and the predetermined number of frames have a weight based on the distance from the last frame A method for verifying identification of broadcast content objects based on Web data.
삭제delete
KR1020150117556A 2014-11-04 2015-08-20 Apparatus and Method for Web Data based Identification System for Object Identification Performance Enhancement KR101720685B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/932,426 US9762934B2 (en) 2014-11-04 2015-11-04 Apparatus and method for verifying broadcast content object identification based on web data

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140152315 2014-11-04
KR20140152315 2014-11-04

Publications (2)

Publication Number Publication Date
KR20160052316A KR20160052316A (en) 2016-05-12
KR101720685B1 true KR101720685B1 (en) 2017-04-10

Family

ID=56024813

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150117556A KR101720685B1 (en) 2014-11-04 2015-08-20 Apparatus and Method for Web Data based Identification System for Object Identification Performance Enhancement

Country Status (1)

Country Link
KR (1) KR101720685B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11076199B2 (en) * 2016-09-29 2021-07-27 Reliance Jio Infocomm Limited Systems and methods for providing targeted content in an EMBMS stream to a user device
KR102551550B1 (en) * 2018-04-20 2023-07-06 삼성전자주식회사 Electronic device and method for controlling the electronic device thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120072420A1 (en) * 2010-09-16 2012-03-22 Madhav Moganti Content capture device and methods for automatically tagging content
US20130243307A1 (en) 2012-03-16 2013-09-19 Thomson Licensing Object identification in images or image sequences

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140095956A (en) * 2013-01-25 2014-08-04 한국전자통신연구원 Method and system for generating image-knowledge contents based on crowdsourcing

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120072420A1 (en) * 2010-09-16 2012-03-22 Madhav Moganti Content capture device and methods for automatically tagging content
US20130243307A1 (en) 2012-03-16 2013-09-19 Thomson Licensing Object identification in images or image sequences

Also Published As

Publication number Publication date
KR20160052316A (en) 2016-05-12

Similar Documents

Publication Publication Date Title
CN108304435B (en) Information recommendation method and device, computer equipment and storage medium
US9323785B2 (en) Method and system for mobile visual search using metadata and segmentation
US8831352B2 (en) Event determination from photos
JP5857073B2 (en) System and method for relevance of image texting and text imaging
CN114342353B (en) Method and system for video segmentation
US20140193077A1 (en) Image retrieval apparatus, image retrieval method, query image providing apparatus, query image providing method, and program
US20080052312A1 (en) Image-Based Face Search
US20130148898A1 (en) Clustering objects detected in video
CN110348362B (en) Label generation method, video processing method, device, electronic equipment and storage medium
JP2015219904A (en) Method, computer system, and program for estimating user&#39;s demographic characteristics
EP2639745A1 (en) Object identification in images or image sequences
US8990134B1 (en) Learning to geolocate videos
US11347739B2 (en) Performing a chained search function
US9762934B2 (en) Apparatus and method for verifying broadcast content object identification based on web data
KR101720685B1 (en) Apparatus and Method for Web Data based Identification System for Object Identification Performance Enhancement
Chen et al. Name-face association with web facial image supervision
KR101743169B1 (en) System and Method for Searching Missing Family Using Facial Information and Storage Medium of Executing The Program
JP2015166978A (en) Image search device and image search program
JP2019083532A (en) Image processing system, image processing method, and image processing program
CN113282781B (en) Image retrieval method and device
CN112333182B (en) File processing method, device, server and storage medium
CN112101154B (en) Video classification method, apparatus, computer device and storage medium
KR101910825B1 (en) Method, apparatus, system and computer program for providing aimage retrieval model
US20160055180A1 (en) Non-transitory recording medium, information processing device, and method
EP2665018A1 (en) Object identification in images or image sequences

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20200224

Year of fee payment: 4