KR101189609B1 - 이미지에 기반한 동영상 관련 서비스 제공 시스템 및 방법 - Google Patents

이미지에 기반한 동영상 관련 서비스 제공 시스템 및 방법 Download PDF

Info

Publication number
KR101189609B1
KR101189609B1 KR1020110018803A KR20110018803A KR101189609B1 KR 101189609 B1 KR101189609 B1 KR 101189609B1 KR 1020110018803 A KR1020110018803 A KR 1020110018803A KR 20110018803 A KR20110018803 A KR 20110018803A KR 101189609 B1 KR101189609 B1 KR 101189609B1
Authority
KR
South Korea
Prior art keywords
image
video
feature data
feature
frame
Prior art date
Application number
KR1020110018803A
Other languages
English (en)
Other versions
KR20120100124A (ko
Inventor
김길연
이재형
홍용주
조민형
윤현
양석렬
Original Assignee
(주)엔써즈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)엔써즈 filed Critical (주)엔써즈
Priority to KR1020110018803A priority Critical patent/KR101189609B1/ko
Priority to PCT/KR2011/008614 priority patent/WO2012118259A1/ko
Publication of KR20120100124A publication Critical patent/KR20120100124A/ko
Application granted granted Critical
Publication of KR101189609B1 publication Critical patent/KR101189609B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Abstract

본 발명은 이미지에 기반하여 동영상 관련 서비스를 제공하는 시스템 및 방법에 관한 것으로서, 이미지에 기반하여 동영상 관련 서비스를 제공하는 시스템에 있어서, 이미지의 이미지 관련 데이터를 획득하고, 이미지에 대한 사용자 이벤트를 수신하는 이미지 연동부; 상기 이미지 연동부에서 획득된 이미지 관련 데이터에 기초하여 이미지에 대한 이미지 특징 데이터를 생성하는 이미지 특징 데이터 생성부; 동영상에 대한 동영상 특징 데이터를 생성하는 동영상 특징 데이터 생성부; 상기 이미지 특징 데이터 생성부에서 생성된 이미지 특징 데이터와 상기 동영상 특징 데이터 생성부에서 생성된 동영상 특징 데이터에 기초하여 이미지에 대응되는 적어도 하나 이상의 동영상 또는 프레임을 결정하는 이미지/동영상 매칭부; 및 상기 이미지 연동부에서 수신되는 이미지에 대한 사용자 이벤트에 따라 해당 이미지에 대응되는 것으로 결정된 동영상 또는 프레임과 관련된 동영상 관련 서비스를 수행하는 서비스 수행부를 포함하는 이미지 기반 동영상 관련 서비스 제공 시스템 및 이를 이용한 방법을 제공한다.

Description

이미지에 기반한 동영상 관련 서비스 제공 시스템 및 방법{SYSTEM AND METHOD FOR PROVIDING VIDEO RELATED SERVICE BASED ON IMAGE}
본 발명은 이미지에 기반한 동영상 관련 서비스 제공 시스템 및 방법에 관한 것으로서, 보다 상세하게는 인터넷 등과 같은 네트워크 상에 존재하는 이미지에 기반하여 다양한 형태의 동영상 관련 서비스를 제공하는 시스템 및 방법에 관한 것이다.
최근, 인터넷 기술의 발전과 서비스가 다양해짐에 따라 TV 방송물이나 영화 등 동영상의 인터넷을 통한 시청이 급속히 활성화되고 있다. 더구나, 최근 스마트폰의 급속한 보급에 더불어 이동 통신 단말기를 통해 동영상을 인터넷 및 이동통신망을 통해 제공받는 경우도 크게 증가하고 있다. 이에 따라 동영상을 캡처한 이미지의 유통과 소비도 늘어나고 있다. 특히, 인기리에 방영되는 드라마나 쇼 프로그램 등은 화제가 되는 장면을 캡춰한 이미지가 프로그램 방영 직후 수많은 뉴스 사이트와 블로그, 카페 등의 인터넷 게시판을 통해 순식간에 유포되고 있는 실정이다. 이와 같이 드라마나 쇼 프로그램 등의 동영상 자체를 제공하는 경우 뿐 아니라, 프로그램의 특정 장면을 캡춰한 이미지가 인터넷 매체를 통해 널리 소비되고 유통되고 있으며 사용자들간의 자발적인 공유와 게시를 통해 확산되는 속도는 더욱더 빨라지고 있다. 하지만 이처럼 동영상을 캡처한 이미지의 막대한 소비에도 불구하고 그 이미지에 대한 저작권을 보유하고 있는 기업이나 개인에게 돌아가는 수익은 없는 상황이다. 이는 캡처된 이미지에 대해서 이의 원본 동영상이 어떤 컨텐츠인지를 자동으로 판별하고 이에 대한 광고나 정보를 제공할 수 있는 방안이 없었기 때문이다. 즉, 이미지에 대한 소비는 지속적으로 늘어나고 이를 활용한 다양한 이미지 서비스는 나오고 있지만 이를 활용한 수익 모델에 대해서는 명확한 사업모델이 나오지 않은 상황이다.
이러한 점에서, 인터넷이나 이동 통신망과 같은 네트워크 통해 유포되는 이미지가 어떠한 동영상에 속하는 것인지를 손쉽게 판별하고, 또한 네트워크 상에 존재하는 이미지에 대응하여 동영상과 관련된 다양한 동영상 관련 서비스를 실시간으로 간편하게 제공할 수 있는 방안이 요망되고 있다.
본 발명은 상기한 바와 같은 문제점을 감안하여 안출된 것으로서, 인터넷이나 이동 통신망과 같은 네트워크를 통해 이미지에 대응되는 동영상 또는 프레임이 어떤 것인가를 파악할 수 있도록 하는 시스템 및 방법을 제공하는 것을 목적으로 한다.
또한, 본 발명은 이미지에 대응되는 동영상 또는 프레임을 결정하고 해당 이미지에 대한 사용자 이벤트가 발생하는 경우 직접 또는 네트워크를 통해 해당 이미지에 대응하는 프레임부터 동영상을 재생할 수 있도록 하거나 해당 이미지 또는 동영상과 관련된 다양한 정보를 제공할 수 있도록 하는 시스템 및 방법을 제공하는 것을 또 다른 목적으로 한다.
또한, 본 발명은 이미지에 대응되는 동영상 또는 프레임을 결정하고 해당 동영상과 관련된 각종 관련 서비스를 제공하는 동시에, 해당 이미지, 동영상 또는 프레임과 관련된 각종 통계 정보를 실시간으로 취득할 수 있도록 함으로써 이미지나 동영상과 관련된 각종 정보를 획득하여 이를 광고나 저작권 관리 등에 활용할 수 있도록 하는 시스템 및 방법을 제공하는 것을 또 다른 목적으로 한다.
상기한 바와 같은 과제를 해결하기 위하여 본 발명은, 이미지에 기반하여 동영상 관련 서비스를 제공하는 시스템에 있어서, 이미지의 이미지 관련 데이터를 획득하고, 이미지에 대한 사용자 이벤트를 수신하는 이미지 연동부; 상기 이미지 연동부에서 획득된 이미지 관련 데이터에 기초하여 이미지에 대한 이미지 특징 데이터를 생성하는 이미지 특징 데이터 생성부; 동영상에 대한 동영상 특징 데이터를 생성하는 동영상 특징 데이터 생성부; 상기 이미지 특징 데이터 생성부에서 생성된 이미지 특징 데이터와 상기 동영상 특징 데이터 생성부에서 생성된 동영상 특징 데이터에 기초하여 이미지에 대응되는 적어도 하나 이상의 동영상 또는 프레임을 결정하는 이미지/동영상 매칭부; 및 상기 이미지 연동부에서 수신되는 이미지에 대한 사용자 이벤트에 따라 해당 이미지에 대응되는 것으로 결정된 동영상 또는 프레임과 관련된 동영상 관련 서비스를 수행하는 서비스 수행부를 포함하는 이미지 기반 동영상 관련 서비스 제공 시스템을 제공한다.
여기에서, 상기 이미지 연동부는, 이미지를 포함하는 전자 문서에 포함되어 있는 스크립트에 의하여 이미지 관련 데이터를 획득하고 사용자 이벤트를 수신하도록 구성할 수 있다.
또한, 상기 동영상 특징 데이터 생성부에서 생성되는 동영상 특징 데이터는 동영상을 구성하는 프레임들 중 적어도 어느 하나 이상에 대한 프레임별 이미지 특징 데이터와, 프레임 식별자 및 동영상 식별자를 포함할 수 있다.
또한, 상기 이미지/동영상 매칭부는, 상기 이미지 특징 데이터 생성부에서 생성된 이미지 특징 데이터와 동영상 특징 데이터 생성부에서 생성되는 동영상 각각에 대한 프레임별 이미지 특징 데이터로 구성되는 동영상 특징 데이터를 비교하여 이미지에 대응되는 동영상 또는 프레임을 결정하도록 구성할 수도 있다.
또한, 상기 이미지/동영상 매칭부에 의해 결정된 동영상 또는 프레임에 대한 정보를 이미지에 대응하여 저장하도록 구성할 수도 있다.
또한, 상기 서비스 수행부에서 제공되는 동영상 관련 서비스는, 해당 이미지에 대응되는 것으로 결정된 동영상의 해당 프레임부터 동영상이 재생되는 프레임 재생 서비스를 포함할 수 있다.
또한, 상기 서비스 수행부에서 제공되는 동영상 관련 서비스는, 해당 이미지에 대응되는 것으로 결정된 동영상 또는 프레임과 관련된 정보를 제공하는 동영상 정보 제공 서비스를 포함할 수 있다.
또한, 상기 사용자 이벤트는 이미지가 포함된 전자 문서상에서 제공되는 선택 인터페이스에 대해서 이루어진 경우 상기 이미지 연동부를 통해 수신되도록 구성할 수도 있다.
또한, 상기 서비스 수행부는, 사용자 이벤트가 발생한 경우 제공되는 동영상 관련 서비스를 사용자가 선택할 수 있도록 하는 사용자 인터페이스를 제공하고, 상기 사용자 인터페이스를 통한 사용자 요청 신호에 따라 해당하는 동영상 관련 서비스를 제공하도록 구성할 수도 있다.
또한, 상기 이미지 특징 데이터 생성부는, 이미지로부터 특징점을 결정하고 결정된 특징점의 특징점 정보를 추출하는 이미지 특징점 결정부; 상기 특징점 결정부에서 결정된 특징점들 각각에 대한 방향 정보를 추정하는 이미지 특징점 방향 추정부; 및 상기 이미지 특징점 결정부에서 결정된 특징점 각각에 대하여, 상기 특징점 정보와 상기 방향 정보에 기초하여 이진 특징 벡터를 생성하고, 상기 생성된 이진 특징 벡터를 포함하는 이미지의 특징 데이터를 구성하는 이미지 특징 데이터 구성부를 포함하고, 상기 동영상 특징 데이터 생성부는, 동영상 각각에 대하여, 동영상을 구성하는 프레임들을 일정 시간 간격으로 추출하고 추출된 프레임을 적어도 하나 이상의 이전 추출 프레임들과 차이를 계산하고, 차이가 임계치 이상인 경우에 선택된 해당 프레임을 선택하는 프레임 선택부; 상기 프레임 선택부에서 선택된 프레임에 대한 특징점을 결정하고 결정된 특징점의 특징점 정보를 추출하는 프레임별 특징점 결정부; 상기 프레임별 특징점 결정부에서 결정된 특징점들 각각에 대한 방향 정보를 추정하는 프레임별 특징점 방향 추정부; 및 상기 프레임별 특징점 결정부에서 결정된 특징점 각각에 대하여, 상기 특징점 정보와 상기 방향 정보에 기초하여 이진 특징 벡터를 생성하고, 상기 생성된 이진 특징 벡터를 포함하는 프레임별 특징 데이터를 구성하는 프레임별 특징 데이터 구성부를 포함하도록 구성할 수도 있다.
또한, 상기 이미지 특징 데이터 구성부와 프레임별 특징 데이터 구성부는, 상기 이미지 특징점 결정부와 프레임별 특징점 결정부에서 결정된 특징점 각각에 대하여 특징점을 포함하는 주변 이미지 영역을 생성하고 상기 방향 정보에 기초하여 생성된 영역들을 동일 방향으로 정렬한 후, 정렬된 주변 이미지 영역들을 각각 부영역들로 분할하고, 분할된 부영역들의 밝기값의 평균값에 기초하여 이진 특징 벡터를 생성하도록 구성할 수 있다.
또한, 상기 이진 특징 벡터는, 상기 부영역들의 밝기값의 평균값의 차분 벡터와 차차분 벡터 중에서 선택된 적어도 어느 하나에 의해 생성될 수 있다.
또한, 상기 부영역들의 밝기값의 평균값의 차분 벡터와 차차분 벡터 중에서 적어도 어느 하나를 선택하는 것은 이진 특징 벡터의 각 비트에 대응하여 선택되도록 구성할 수도 있다.
또한, 상기 각 비트에 대응하여 선택된 차분 벡터와 차차분 벡터들에 대해 선형 조합 또는 비선형 조합을 계산하고 그 결과값을 임계치와 비교함으로써 이진 특징 벡터의 해당 비트의 값을 결정하도록 구성할 수도 있다.
또한, 상기 이진 특징 벡터의 각 비트값에 대해 미리 설정해둔 기준에 따라 정렬을 수행하도록 구성할 수도 있다.
또한, 상기 동영상 특징 데이터 생성부는, 각각의 동영상에 대한 동영상의 식별자, 동영상의 프레임별 식별자, 프레임별 특징점 좌표, 특징점 방향 정보 및 이진 특징 벡터를 포함하는 동영상 특징 데이터를 생성하도록 구성할 수도 있다.
또한, 상기 이미지/동영상 매칭부는, 상기 이미지 특징 데이터와 동영상 특징 데이터의 프레임별 이미지 특징 데이터를 비교하여 매칭되는 동영상을 결정하고 상기 결정된 동영상을 구성하는 프레임중 적어도 하나 이상의 프레임을 결정하거나, 상기 이미지 특징 데이터와 동영상 특징 데이터의 프레임별 이미지 특징 데이터를 비교하여 매칭되는 적어도 하나 이상의 프레임을 결정하는 후보 선정부; 이미지의 이미지 특징 데이터와 상기 후보 선정부에서 결정된 적어도 하나 이상의 프레임의 이미지 특징 데이터에 기초하여 이미지와 상기 결정된 프레임 사이에서 대응하는 특징점의 쌍을 결정하는 대응 특징점 결정부; 및 상기 대응 특징점 결정부에서 결정된 특징점의 쌍들에 포함된 특징점의 특징점 방향 정보에 기초하여 이미지와 동영상 사이의 관계 분석 신뢰도를 추정하는 신뢰도 추정부를 포함하도록 구성할 수도 있다.
또한, 상기 신뢰도 추정부는, 상기 각각의 특징점의 쌍에 포함된 특징점들의 방향 차이값의 추정치에 대한 확률 밀도 함수에 기초하여 이미지와 동영상 사이의 관계 분석 신뢰도를 추정하도록 구성할 수도 있다.
또한, 상기 확률 밀도 함수에 의해 상기 추정치의 평균값과 분산값을 계산하고, 상기 평균값과 분산값에 따른 표준 정규 분포 함수에 의해 특징점의 쌍을 관측할 확률(p)을 계산하고, 상기 계산된 확률(p) 또는 계산된 확률(p)에 기초한 함수와 임계치를 비교함으로써 이미지와 동영상 사이의 관계 분석 신뢰도를 추정하도록 구성할 수도 있다.
또한, 상기 특징점의 쌍을 관측할 확률(p)은,
Figure 112011015284118-pat00001
(여기서, n은 대응되는 특징점의 쌍의 갯수, G는 평균이 0이고 표준 편차가 1인 표준 정규 분포의 확률 함수,
Figure 112011015284118-pat00002
는 모든 특징점의 쌍의 방향 차이값의 평균값(
Figure 112011015284118-pat00003
),
Figure 112011015284118-pat00004
는 모든 특징점의 쌍의 방향 차이값의 확률 밀도 함수에 의한 추정치)에 의해 계산되도록 구성할 수도 있다.
또한, 상기 동영상 특징 데이터 생성부에 의해 생성되는 동영상 특징 데이터들에 대해 각 프레임별 특징 데이터에 포함된 이진 특징 벡터의 적어도 하나 이상의 비트를 해쉬 테이블의 인덱스로 사용하여 해쉬 테이블을 생성하는 해쉬 생성부를 더 포함하고, 상기 관계 분석부는, 이미지 특징 데이터에 포함된 이진 특징 벡터의 적어도 하나 이상의 비트를 인덱스로 하여 상기 해쉬 생성부에 의해 생성된 해쉬 테이블을 검색하여 해당 인덱스에 속한 동영상 특징 데이터를 획득하는 해쉬 검색부를 더 포함하고, 상기 후보 선정부는, 상기 이미지 특징 데이터와 상기 해쉬 검색부에 의해 획득된 동영상 특징 데이터들을 비교하여 가장 많이 매칭되는 동영상 특징 데이터에 해당하는 동영상을 결정하고 상기 결정된 동영상을 구성하는 프레임 중에서 상기 이미지 특징 데이터와 가장 많이 매칭되는 프레임 특징 데이터에 해당하는 프레임을 결정하거나, 상기 이미지 특징 데이터와 상기 해쉬 검색부에 의해 획득된 동영상 특징 데이터들을 비교하여 상기 이미지 특징 데이터와 가장 많이 매칭되는 프레임 특징 데이터에 해당하는 프레임을 결정하도록 구성할 수도 있다.
또한, 사용자로부터 사용자 이벤트가 발생한 이미지와 상기 이미지에 대응되는 것으로 결정된 동영상 또는 프레임과 관련된 정보를 저장하고 통계 자료를 산출하는 정보/통계 관리부를 더 포함할 수 있다.
또한, 상기 정보/통계 관리부는, 동영상 재생 서비스와 관련된 정보를 더 저장하도록 구성할 수도 있다.
본 발명의 다른 측면에 의하면, 이미지에 기반하여 동영상 관련 서비스를 제공하는 방법에 있어서, 이미지의 이미지 관련 데이터를 획득하는 제1 단계; 상기 획득된 이미지 관련 데이터에 기초하여 이미지에 대한 이미지 특징 데이터를 생성하는 제2 단계; 동영상에 대한 동영상 특징 데이터를 생성하는 제3 단계; 상기 제2 단계에서 생성된 이미지 특징 데이터와 상기 제3 단계에서 생성된 동영상 특징 데이터에 기초하여 이미지에 대응되는 적어도 하나 이상의 동영상 또는 프레임을 결정하는 제4 단계; 이미지에 대한 사용자 이벤트를 수신하는 제5 단계; 및 상기 수신되는 이미지에 대한 사용자 이벤트에 따라 상기 제4 단계에서 해당 이미지에 대응되는 것으로 결정된 동영상 또는 프레임과 관련된 동영상 관련 서비스를 수행하는 제6 단계를 포함하는 이미지 기반 동영상 관련 서비스 제공 방법을 제공한다.
여기에서, 상기 제3 단계에서 생성되는 동영상 특징 데이터는 동영상을 구성하는 프레임들 중 적어도 어느 하나 이상에 대한 프레임별 이미지 특징 데이터와, 프레임 식별자 및 동영상 식별자를 포함하도록 구성할 수 있다.
또한, 상기 제4 단계는, 상기 이미지 특징 데이터와 동영상 각각에 대한 프레임별 이미지 특징 데이터로 구성되는 동영상 특징 데이터를 비교하여 이미지에 대응되는 동영상 또는 프레임을 결정할 수 있다.
또한, 상기 제4 단계에서 결정된 동영상 또는 프레임에 대한 정보를 이미지에 대응하여 저장하도록 구성할 수도 있다.
또한, 상기 제6 단계에서 제공되는 동영상 관련 서비스는, 해당 이미지에 대응되는 것으로 결정된 동영상의 해당 프레임부터 동영상이 재생되는 프레임 재생 서비스를 포함하도록 구성할 수도 있다.
또한, 상기 제6 단계에서 제공되는 동영상 관련 서비스는, 해당 이미지에 대응되는 것으로 결정된 동영상 또는 프레임과 관련된 정보를 제공하는 동영상 정보 제공 서비스를 포함하도록 구성할 수도 있다.
또한, 상기 사용자 이벤트는 해당 이미지가 포함된 전자 문서상에서 제공되는 선택 인터페이스에 대해서 이루어진 경우에 수신되도록 구성할 수도 있다.
또한, 상기 제6 단계는, 사용자 이벤트가 발생한 경우 제공되는 동영상 관련 서비스를 사용자가 선택할 수 있도록 하는 사용자 인터페이스를 제공하고, 상기 사용자 인터페이스를 통한 사용자 요청 신호에 따라 해당하는 동영상 관련 서비스를 제공하도록 구성할 수도 있다.
본 발명에 의하면, 인터넷이나 이동 통신망과 같은 네트워크를 통해 이미지에 대응되는 동영상 또는 프레임이 어떤 것인가를 파악할 수 있도록 하는 시스템 및 방법을 제공할 수 있다.
또한, 본 발명에 의하면, 이미지에 대응되는 동영상 또는 프레임을 결정하고 해당 이미지에 대한 사용자 이벤트가 발생하는 경우 직접 또는 네트워크를 통해 해당 이미지에 대응하는 프레임부터 동영상을 재생할 수 있도록 하거나 해당 이미지 또는 동영상과 관련된 다양한 정보를 제공할 수 있도록 하는 시스템 및 방법을 제공할 수 있다.
또한, 본 발명에 의하면, 이미지에 대응되는 동영상 또는 프레임을 결정하고 해당 동영상과 관련된 각종 관련 서비스를 제공하는 동시에, 해당 이미지, 동영상 또는 프레임과 관련된 각종 통계 정보를 실시간으로 취득할 수 있도록 함으로써 이미지나 동영상과 관련된 각종 정보를 획득하여 이를 광고나 저작권 관리 등에 활용할 수 있도록 하는 시스템 및 방법을 제공할 수 있는 효과가 있다.
도 1은 본 발명의 일실시예에 의한 이미지에 기반하여 동영상 관련 서비스를 제공하는 시스템의 구성 및 연결 상태를 나타낸 도면이다.
도 2 및 도 3은 도 1에서 설명한 실시예에 의해 동영상 관련 서비스가 이루어지는 과정의 일예를 나타낸 것이다.
도 4는 이미지 특징 데이터 생성부(20)의 구성의 일예를 나타낸 도면이다.
도 5는 이진 특징 벡터의 생성 과정의 실제 예를 나타낸 화면이다.
도 6은 이진 특징 벡터의 생성 과정을 나타낸 흐름도이다.
도 7은 차분 벡터와 차차분 벡터에 기초하여 이진 특징 벡터를 생성하는 구체적인 과정의 일예를 나타낸 도면이다.
도 8은 동영상 특징 데이터 생성부(30)의 구성의 일예를 나타낸 도면이다.
도 9는 중복되는 특징점을 제거하는 실제 예를 나타낸 것이다.
도 10은 이미지/동영상 매칭부(40)의 구성의 일예를 나타낸 도면이다.
도 11은 해쉬 생성부에 의해 생성되는 해쉬 테이블의 생성 과정의 일예를 나타낸 것이다.
도 12는 도 1 내지 도 11에서 설명한 동영상 관련 서비스 제공 시스템(100)에 의해 이루어지는 동영상 관련 서비스 제공 방법의 일실시예를 나타낸 흐름도이다.
이하, 첨부 도면을 참조하여 본 발명에 의한 실시예들을 상세하게 설명하기로 한다.
도 1은 본 발명의 일실시예에 의한 이미지에 기반하여 동영상 관련 서비스를 제공하는 시스템(100, 이하, "동영상 관련 서비스 제공 시스템"이라 한다)의 구성 및 연결 상태를 나타낸 도면이다.
도 1을 참조하면, 본 실시예에 의한 동영상 관련 서비스 제공 시스템(100)은 이미지 연동부(10), 이미지 특징 데이터 생성부(20), 동영상 특징 데이터 생성부(30), 이미지/동영상 매칭부(40) 및 서비스 수행부(50)를 포함하며, 네트워크 상에 존재하는 이미지(200)들과 연동되어 해당 이미지들에 대한 이미지 특징 데이터를 생성하고 이에 대응되는 동영상 또는 프레임을 결정하고 사용자 이벤트의 발생에 따라 해당 동영상 또는 프레임과 관련된 동영상 관련 서비스를 수행하게 된다.
동영상 관련 서비스 제공 시스템(100)은 네트워크를 통해 이미지(200)들과 결합된다. 여기서, 네트워크라 함은, 예컨대 인터넷, 공중 통신망(PSTN), 이동 통신망 또는 이들의 결합을 의미하며, 본 발명에서의 이미지는 이러한 네트워크 상에 존재하는 이미지를 의미한다. 예컨대, 이미지는 네트워크 상에 존재하는 웹 서버(web server)에서 제공되는 웹 페이지(web page) 상에 존재할 수 있다. 여기에서, 웹 페이지(web page)라 함은, 알려진 바와 같이, 인터넷 등과 같은 네트워크를 통해 월드와이드웹(world wide web, www) 상에 존재하는 개개의 전자 문서를 의미하는 것으로서, 웹 서버(web server) 등을 통해 HTML 등과 같은 언어에 기초하여 작성되는 종래 기술에 의해 알려진 일반적인 웹 페이지를 의미한다. 일반적으로 이러한 웹 페이지는 인터넷망에 연결된 웹 서버를 통해 컴퓨터에 의하여 제공받게 된다. 이러한 웹 페이지는 텍스트, 이미지, 동영상을 포함할 수 있다.
또한, 이미지(200)들은 이동 통신망과의 결합에 의해 이동 통신망을 통해 이동 통신 단말기에도 제공될 수 있으며, 이러한 경우 이미지(200)는 사용자 입장에서는 이동 통신 단말기를 통해 제공받게 된다. 물론, 최근 무선 랜 기능이 구비된 이동 통신 단말기의 경우에는 무선 랜 및 인터넷 망을 통하여 웹 페이지를 제공받게 됨은 물론이다. 또한, 이동 통신망에서 제공되는 무선 인터넷 환경의 네트워크인 경우에는 왑 서버(wap server)에 의해 제공되는 모바일 웹 페이지상에 이미지가 존재할 수도 있다.
또한, 최근 널리 사용되고 있는 스마트폰의 어플리케이션(application)을 이용하는 환경인 경우에는 어플리케이션의 실행에 의해 특정한 서비스를 제공하는 서비스 서버에 의하여 인터넷이나 이동 통신망과 같은 네트워크를 통해 이미지가 제공될 수 있으며, 해당 서비스 서버는 동영상 관련 서비스 제공 시스템(100)과 연결되거나 통합되어 구성될 수도 있다.
한편, 도 1에서 이미지(200)는 설명의 편의를 의해 네트워크를 통해 동영상 관련 서비스 제공 시스템(100)과 물리적으로 분리된 상태로 제공되는 것으로 나타내었으나, 이미지(200)는 동영상 관련 서비스 제공 시스템(100) 내부를 통하여 제공될 수도 있다. 이 경우, 동영상 관련 서비스 제공 시스템(100)은 해당 이미지지(200)를 자체적으로 제공할 수 있는 웹 서버 또는 서비스 서버로서의 기능도 포함하게 되며, 이미지(200) 자체는 물리적으로는 네트워크 상에 존재하는 것은 아니며 네트워크를 통해서 동영상 관련 서비스 제공 시스템(100)에 의해 사용자측 예컨대, 컴퓨터나 이동 통신 단말기, 스마트폰과 같은 클라이언트 단말기로 제공되게 된다.
이미지 연동부(10)는 이미지(200)에 대한 이미지 관련 데이터를 획득하고, 이미지(200)에 대한 사용자 이벤트를 수신하는 기능을 수행한다. 여기에서, 이미지(image)라 함은, 예컨대 jpg, gif, tif, bmp 등과 같은 파일 포맷에 의해 나타나는 정지 영상을 의미한다. 또한, 이미지 관련 데이터라 함은, 예컨대 이미지를 표현할 수 있도록 특정 파일 포맷에 따라 형성된 이미지 자체에 대한 데이터, 이미지와 관련된 정보(제목(파일이름), 생성일자, 크기 정보 등), 이미지가 웹 페이지를 통해 제공되는 경우 이미지포함된 웹 페이지상의 텍스트 설명 문구와 같은 이미지 메타 정보, 해당 이미지가 포함되어 있는 웹 페이지의 URL 주소 정보 등과 같은 것을 포함할 수 있다. 전술한 바와 같이, 이미지(200)는 동영상 관련 서비스 제공 시스템(100) 내부에 직접 포함된 것일 수도 있고 네트워크를 통해 클라이언트 단말기측으로 제공되는 것일 수도 있다.
이미지 연동부(10)가 이미지의 이미지 관련 데이터를 획득하는 방법으로서는, 예컨대 종래 기술에 의해 알려진 크롤링(crawling) 기법을 이용한 웹 크롤러(web crawler)를 이용할 수 있다. 다른 방법으로서는, 이미지(200)가 업로드(upload)되는 경우 이를 감지하여 해당 이미지가 포함된 웹 페이지 등과 같은 전자 문서에 해당 이미지에 대한 이미지 관련 데이터를 동영상 관련 서비스 제공 시스템(100)으로 자동적으로 전송하도록 하는 스크립트(script)나 위젯(wideget) 등을 포함시켜서 이들의 실행에 의하여 해당 이미지(200)에 대한 이미지 관련 데이터를 동영상 관련 서비스 제공 시스템(100)으로 자동적으로 전송하도록 할 수도 있다.
예컨대 이미지(200)가 웹 페이지상에 존재하는 경우, 해당 웹 페이지에 이미지가 등록(업로드)되는 경우 이를 감지하여 자동적으로 이미지 연동부(10)로 해당 웹 페이지의 URL 정보를 전송하도록 동작하는 스크립트를 포함시키면 이러한 스크립트의 동작에 의해 이미지 연동부(10)는 해당 URL 정보를 기초로 해당 웹 페이지에 접속하여 해당 이미지를 다운로드받고 기타 이미지 관련 데이터를 획득하게 된다. 이 때, 이미지 연동부(10)는 예컨대 해당 웹 페이지에 포함된 텍스트 등과 같은 설명 문구 등과 같은 기타 필요한 이미지 메타 정보를 해당 웹 페이지로부터 추출하여 이미지 관련 데이터에 포함시킬 수도 있다. 이와 같이 이미지 연동부(10)는 이미지(200)와 연동하여 이미지 관련 데이터를 획득하고 이를 이미지 데이터베이스(미도시)에 일시 저장해 둔다.
또한, 이미지 연동부(10)는 이미지에 대한 사용자 이벤트를 수신하는데, 여기서 사용자 이벤트(event)라 함은, 해당 이미지와 관련된 사용자의 특정한 동작을 의미한다. 이러한 동작으로서는, 예컨대 해당 이미지를 마우스 등과 같은 입력 장치로 클릭하는 동작, 마우스를 해당 이미지위에 위치(롤 오버(roll over))시키는 동작, 터치 스크린에 제공되는 이미지를 손가락으로 선택하는 동작 등과 같은 것일 수 있다. 이를 위해서, 이미지가 포함되는 웹 페이지 등과 같은 전자 문서에는 이러한 사용자 이벤트를 감지할 수 있는 스크립트가 포함되는 것이 바람직하며, 해당 스크립트는 해당 이미지와 관련된 사용자 이벤트가 감지되는 경우 이를 이미지 연동부(10)로 전송하고 이미지 연동부(10)는 이를 수신함으로써 어떠한 전자 문서에서 어떤 사용자 이벤트가 발생하였는지를 확인할 수 있다.
한편, 해당 웹 페이지 등과 같은 전자 문서에 미리 소정의 아이콘(icon) 등과 같이 사용자가 선택할 수 있는 인터페이스를 제공하고 사용자가 해당 선택 인터페이스를 클릭하거나 마우스를 올린 경우에만 사용자 이벤트가 발생하도록 할 수도 있다. 이러한 경우, 후술하는 서비스 수행부(50)는 해당 선택 인터페이스에 대해서 사용자 이벤트가 발생한 경우에만 해당 프레임부터 재생하도록 하거나 동영상 또는 프레임의 관련 정보를 제공하도록 할 수도 있다.
또한, 사용자 이벤트가 발생하는 경우, 후술하는 서비스 제공부(50)에 의해 제공되는 동영상 관련 서비스를 사용자가 선택할 수 있도록 하는 사용자 인터페이스를 이미지 연동부(10)를 통해 사용자측의 클라이언트 단말기로 제공할 수도 있다. 즉, 사용자 이벤트가 발생하는 경우 후술하는 서비스 제공부(50)는 제공될 수 있는 동영상 관련 서비스의 메뉴 정보를 사용자가 선택할 수 있도록 하는 사용자 인터페이스를 해당 이미지가 포함된 웹 페이지와 같은 전자 문서 또는 별도의 웹 페이지 또는 윈도우를 통해 사용자 측으로 제공하고, 해당 사용자 인터페이스를 통해 사용자가 선택한 사용자 요청 신호에 따라 해당 서비스를 제공하도록 구성할 수도 있다. 이와 같은 방법에 의해 사용자 이벤트가 수신되면, 후술하는 서비스 수행부(50)에서 해당 이벤트에 따라 동영상 관련 서비스를 수행하게 되는데 이에 대해서는 후술한다.
한편, 이미지 특징 데이터 생성부(20)는 이미지 연동부(10)에서 획득된 이미지 관련 데이터에 기초하여 해당 이미지에 대한 이미지 특징 데이터를 생성한다. 또한, 동영상 특징 데이터 생성부(30)는 동영상에 대한 동영상 특징 데이터를 생성한다.
여기에서, 이미지 특징 데이터라 함은, 일반적으로 주어진 이미지에 대하여 이미지의 특징을 잘 표현해 주는 것으로 추출/결정된 특징점(feature point, interest point)과 관련된 정보를 기술하는 데이터(descriptor)를 의미하며, 이는 예컨대 객체 추적, 이미지 매칭 등과 같은 컴퓨터 비전(computer vision) 분야에서 널리 사용된다. 일반적으로 이미지에서 특징점을 추출하고, 특징점과 관련된 데이터를 특징 데이터로 생성하고 이러한 특징 데이터를 이용하여 이미지를 비교하는 등의 작업을 수행하게 된다. 한편, 특징점(interest point, feature point)이라 함은, 이미지의 특징을 나타낼 수 있는 점으로서, 이미지의 스케일, 회전, 왜곡 등의 변화 등에 관계 없이 이미지의 특징을 잘 설명할 수 있는 점 또는 점들의 집합을 의미한다. 이러한 특징점은 주어진 이미지의 크기 및 내용 또한 특징점 추출/결정 방법의 종류에 따라 다르지만 예컨대 사진 한장당 수천개~수만개의 특징점이 추출될 수 있다.
예컨대, 이미지의 특징점을 추출하고 추출된 특징점의 특징 데이터를 형성하는 방법으로서는 미국 특허 제6,711,293호(David G. Lowe)에 개시된 바와 같은 SIFT(Scale-Invariant Feature Transform) 알고리듬이나 SURF(Speed Up Robust Features) 알고리듬(H. Bay, T. Tuytelaars and L. van Gool (2006). "SURF: Speeded Up Robust Features". Proceedings of the 9th European Conference on Computer Vision, Springer LNCS volume 3951, part 1. pp. 404~417) 등과 같은 방법이 제안되어 있다.
이미지 특징 데이터 생성부(20)는 이러한 종래 기술에 의해 알려진 방법을 사용하여 이미지의 특징 데이터를 생성할 수 있으며, 이미지 특징 데이터를 생성하는 방법 자체에는 특별히 종속되지 않으므로, 이에 대한 상세 설명은 생략한다. 다만, 본 출원인에 의해 발명된 특징 데이터 생성 방법을 이용할 수도 있는데, 이에 대해서는 별도 실시예로서 후술한다.
한편, 동영상 특징 데이터 생성부(30)는 동영상에 대한 특징 데이터를 생성하는데, 이는 동영상을 구성하는 복수개의 프레임 들 중 적어도 하나 이상의 프레임을 선택하고 선택된 프레임별로 전술한 바와 같은 이미지 특징 데이터를 생성함으로써 이루어질 수 있다. 동영상은 복수개의 정지 영상으로 표현되는 프레임으로 이루어진 프레임별 이미지의 집합으로 볼 수 있고 따라서 동영상 특징 데이터는 프레임별 이미지 특징 데이터의 집합으로 볼 수 있기 때문이다. 각각의 프레임별 이미지 특징 데이터를 생성하는 방법은 전술한 이미지 특징 데이터 생성부(20)에서 설명한 바와 동일하다. 이와 같이 동영상 특징 데이터 생성부(30)에서 동영상 특징 데이터, 즉, 프레임별 이미지 특징 데이터의 집합이 생성되는 경우, 각 프레임별 이미지 특징 데이터는 (동영상 식별자, 프레임 식별자, 프레임별 이미지 특징 데이터)로 구성될 수 있으며, 프레임별 이미지 특징 데이터와 이미지 특징 데이터는 동일한 형식을 갖게 되고 이들에 기초하여 비교를 수행함으로써 매칭되는 동영상 또는 프레임을 결정할 수 있다.
본 실시예는 이미지에 대한 사용자 이벤트에 따라 해당 이미지에 대응되는 동영상 또는 프레임을 결정하고 그와 관련된 동영상 관련 서비스를 수행하므로, 동영상 특징 데이터 생성부(30)는 다수의 원본 동영상에 대한 동영상 특징 데이터를 생성해두고 이를 동영상 데이터베이스(미도시)에 저장해 둔다.
이미지/동영상 매칭부(40)는 전술한 바와 같이 이미지 특징 데이터 생성부(20)에서 생성된 이미지 특징 데이터와 동영상 특징 데이터 생성부(30)에서 생성된 동영상 특징 데이터에 기초하여 이미지에 대응되는 적어도 하나 이상의 동영상 또는 프레임을 결정하는 기능을 수행한다. 전술한 바와 같이, 동영상 특징 데이터 생성부(30)에서 생성되는 동영상 특징 데이터는 프레임별 이미지 특징 데이터의 집합이므로, 각각의 동영상 및 동영상을 구성하는 프레임들에 대해 주어진 이미지의 이미지 특징 데이터를 비교함으로써 이미지에 대응되는 동영상 또는 프레임을 결정할 수 있다. 이 때, 동영상 또는 프레임은 각각 적어도 하나 이상의 복수개를 결정할 수 있다. 또한, 복수개가 결정된 경우, 이들 중에서 적절한 알고리듬을 통해 가장 많이 매칭되는 동영상 또는 프레임을 하나만 결정할 수도 있다. 동영상 또는 프레임이 결정되면 해당 정보를 이미지에 대응하여 이미지 데이터베이스(미도시)에 저장해 두고, 추후 사용자 이벤트가 발생하면 저장해 둔 정보를 이용하여 관련된 동영상 관련 서비스를 수행한다.
이미지/동영상 매칭부(40)에서 특징점 데이터를 이용하여 이미지에 대응되는 동영상 또는 프레임을 결정하는 방법 또한 특별히 한정되지 않으며, 종래 기술에 의해 알려진 바를 사용할 수 있다. 즉, 이미지/동영상 매칭부(40)는 적절한 방법을 이용하여 이미지 특징 데이터와 동영상 특징 데이터 즉, 프레임별 이미지 특징 데이터를 비교함으로써 매칭 여부를 결정할 수 있다. 예컨대, 특징 데이터간의 거리(distance)를 계산하여 대응되는 특징점의 쌍을 결정하고 결정된 특징점 쌍간의 신뢰도를 분석함으로써 이루어질 수 있다. 특징 데이터 간의 거리를 계산하는 방법으로는, 공지 기술에서 알려진 바와 같이 예컨대 즉, 비교되는 양 이미지의 각각의 특징점의 특징 데이터에 해밍 거리(Hamming distance), 유클리디안 거리(Euclidean distance) 등과 같은 함수를 적용하여 거리의 차이를 계산하여 거리의 차이가 소정 임계치 이하인 경우에 해당하는 특징점들을 서로 대응하는 특징점의 쌍인 것으로 결정할 수 있다. 여기에서, 공지 기술로서 널리 알려져 있는 RANSAC(RANdom Sample Consensus) 알고리듬을 이용할 수도 있다. 한편, 이미지/동영상 매칭부(40)는 본 출원인에 의해 발명된 방법을 사용할 수도 있는데 이에 대해서는 후술한다.
서비스 수행부(50)는 이미지 연동부(10)에서 수신되는 이미지에 대한 사용자 이벤트에 따라 해당 이미지에 대응되는 것으로 결정된 동영상 또는 프레임과 관련된 동영상 관련 서비스를 수행하도록 동작한다. 전술한 바와 같이, 이미지 연동부(10)는 예컨대 이미지가 웹 페이지에 포함되어 제공되는 경우 해당 웹 페이지 상에 포함되어 있는 스크립트에 의해 사용자 이벤트를 수신할 수 있는데, 사용자 이벤트는 전술한 바와 같이 예컨대 해당 웹 페이지의 이미지를 마우스 등에 의해 클릭하거나 이미지 위에 마우스를 올리는 등과 같은 것일 수 있다. 이러한 사용자 이벤트가 해당 웹 페이지에 포함된 스크립트에 의해 감지되고 이미지 연동부(10)로 전송되면 이미지 연동부(10)는 이를 서비스 수행부(50)로 통지하고 서비스 수행부(50)는 해당 이미지에 대응되는 것으로 결정된 동영상 또는 프레임과 관련된 동영상 관련 서비스를 수행한다. 여기에서 동영상 관련 서비스는 해당 이미지에 대응되는 것으로 결정된 동영상의 해당 프레임부터 동영상이 재생되는 프레임 재생 서비스일 수 있다. 전술한 바와 같이, 이미지/동영상 매칭부(40)에 의해 해당 이미지에 대응되는 동영상 또는 프레임이 결정되어 이미지 데이터베이스(미도시)에 저장되어 있으므로, 사용자 이벤트가 발생하면 서비스 제공부(50)는 이미지 데이터베이스를 참조하여 대응되는 프레임을 검색하고, 검색된 프레임을 시작점으로 하여 해당 동영상이 재생되도록 할 수 있다. 동영상의 재생은 웹 페이지에 포함되어 재생되거나 웹 페이지와는 별도의 윈도우나 페이지를 생성하여 제공될 수도 있다.
한편, 상기 서비스 수행부(50)에서 제공되는 동영상 관련 서비스는, 해당 이미지에 대응되는 것으로 결정된 동영상 또는 프레임과 관련된 정보를 제공하는 동영상 정보 제공 서비스일 수도 있다. 동영상 또는 프레임과 관련된 정보는 동영상 데이터베이스(미도시)를 참조하여 해당 동영상 또는 프레임과 관련되어 미리 수집되어 있는 각종 메타 정보(동영상 제목, 출연 배우, 생성 일시, 횟수 정보 등)를 해당 웹 페이지 또는 별도의 페이지를 통해 제공할 수 있다. 이를 위해서 앞에서는 명시적으로 설명하지는 않았으나 동영상 특징 데이터 생성부(30)는 동영상의 특징 데이터를 생성하면서 함께 해당하는 동영상의 각종 메타 정보를 동영상 데이터베이스(미도시)에 저장해 두는 것이 필요하다.
한편, 전술한 바와 같이, 해당 웹 페이지 등과 같은 전자 문서에 미리 소정의 아이콘(icon) 등과 같이 사용자가 선택할 수 있는 인터페이스를 제공하고 사용자가 해당 선택 인터페이스를 클릭하거나 마우스를 올린 경우에만 사용자 이벤트가 발생하도록 할 수도 있다. 이러한 경우, 서비스 수행부(50)는 해당 선택 인터페이스에 대해서 사용자 이벤트가 발생한 경우에만 전술한 바와 같이 해당 프레임부터 재생하도록 하거나 동영상 또는 프레임의 관련 정보를 제공하도록 할 수도 있다.
또한, 서비스 제공부(50)는 제공되는 동영상 관련 서비스를 사용자가 선택할 수 있도록 하는 사용자 인터페이스를 이미지 연동부(10)를 통해 사용자측의 클라이언트 단말기로 제공할 수 있다. 이는 사용자 이벤트가 발생하는 경우 서비스 제공부(50)는 제공될 수 있는 동영상 관련 서비스의 메뉴 정보를 사용자가 선택할 수 있도록 하는 사용자 인터페이스를 해당 이미지가 포함된 웹 페이지와 같은 전자 문서 또는 별도의 웹 페이지 또는 윈도우를 통해 사용자 측으로 제공하고, 해당 사용자 인터페이스를 통해 사용자가 선택한 사용자 요청 신호에 따라 해당 서비스를 제공하도록 구성할 수도 있다. 이 경우에서도 제공되는 동영상 관련 서비스는 전술한 바와 같은 프레임 재생 서비스 또는 동영상 또는 프레임 정보 제공 서비스일 수 있다.
도 2 및 도 3은 도 1에서 설명한 실시예에 의해 동영상 관련 서비스가 이루어지는 과정의 일예를 나타낸 것이다. 도 2는 웹 페이지를 통해 이미지가 제공되고 있는 상태를 나타낸 것이며, 이미지의 우측 하단에 재생할 수 있음을 알리는 선택 인터페이스가 제공되어 있음을 알 수 있다. 이러한 상태에서 사용자가 해당 선택 인터페이스를 클릭하게 되면 도 3과 같은 상태로 별도의 윈도우를 통해 해당 이미지에 대응되는 프레임부터 동영상 재생 서비스가 이루어지고 있음을 알 수 있다.
한편, 전술한 바와 같이, 도 1의 실시예에서, 이미지 특징 데이터 생성부(20) 및 동영상 특징 데이터 생성부(30)는 특정한 생성 방법에 종속되지는 않는다. 즉, 도 1의 실시예에서 이미지 특징 데이터 생성부(20) 및 동영상 특징 데이터 생성부(30)에서 어떠한 방법을 이용하여 특징 데이터를 생성하는가와 관계없이, 어떠한 방법을 사용하더라도 이미지 특징 데이터와 동영상 특징 데이터가 생성되기만 하면 이들을 비교하여 이미지에 대응되는 동영상 또는 프레임을 결정하고 사용자 이벤트가 수신되는 경우 그에 따라 해당하는 동영상 관련 서비스를 수행할 수 있다. 또한, 이미지/동영상 매칭부(40) 또한 특정한 방법에 종속되지는 않음 또한 전술한 바와 같다. 한편, 이미지 특징 데이터 생성부(20)와 동영상 특징 데이터 생성부(30)에서 특징 데이터를 생성하는 방밥과 이미지/동영상 매칭부(40)에서 이미지에 대응되는 동영상 또는 프레임을 결정하는 방법은 본 출원인에 의해 출원된 특허출원 제10-2011-0012741호(이미지 특징 데이터 생성 장치 및 방법)와 특허출원 제10-2011-0015049호(이미지와 이미지 또는 이미지와 동영상 사이의 상호 관계 분석 장치 및 방법)에 기재된 방법을 사용할 수 있는데, 도 4 이하를 참조하여 이에 대하여 설명한다.
도 4는 이미지 특징 데이터 생성부(20)의 구성의 일예를 나타낸 도면이다. 도 4를 참조하면, 이미지 특징 데이터 생성부(20)는, 특징점 결정부(21), 특징점 방향 추정부(22) 및 특징 데이터 구성부(23)를 구비한다.
특징점 결정부(11)는 이미지로부터 특징점을 결정하고 결정된 특징점의 특징점 정보를 추출하는 기능을 수행한다. 전술한 바와 같이, 이미지(image)라 함은, 정지 영상 데이터를 의미하며, 예컨대 jpg, bmp, tif 등과 같은 파일 포맷에 의해 표현되는 디지털 데이터를 의미한다. 또한, 이미지의 특징점(interest point, feature point)라 함은, 해당 이미지에서 다른 점들에 비해 이미지의 특징을 잘 표현할 수 있는 점들을 의미하는데, 일반적으로 스케일링(scaling), 회전, 관찰각 등의 변화 에 관계없이 이미지 상에서 항상 동일하게 검출할 수 있는 점들을 특징점으로 결정하는 것이 일반적이다.
특징점 결정부(21)는 종래 기술에 의해 알려져 있는 특징점 추출/결정 방법을 그대로 사용할 수 있는데, 예컨대 LoG(Laplacian of Gaussian) 필터나 DoG(Difference of Gaussians) 필터의 스케일 공간상의 극대/극소값을 이용하는 방법, 헤시안 매트릭스(Hessian Matrix)의 디터미넌트(determinant)를 이용하는 종래의 기술에서 알려진 방법 등을 사용하여 주어진 이미지에서 특징점이 될 수 있는 점들을 결정할 수 있다. 한편, 미국 특허 제6,711,293호(David G. Lowe)에 개시된 바와 같은 SIFT(Scale-Invariant Feature Transform) 알고리듬이나 SURF(Speed Up Robust Features) 알고리듬(H. Bay, T. Tuytelaars and L. van Gool (2006). "SURF: Speeded Up Robust Features". Proceedings of the 9th European Conference on Computer Vision, Springer LNCS volume 3951, part 1. pp. 404~417) 등은 이미지의 특징점 추출/결정을 포함하여 특징 벡터를 생성하는 전체 과정이 나타나 있는데, 여기에 개시되어 있는 이미지의 특징점 추출/결정 방법 또한 사용할 수도 있다. 즉, 특징점 결정부(21)는 이러한 종래 기술에 알려져 있는 모든 종류의 특징점 추출/결정 방법을 사용할 수 있으며, 이는 본 발명의 핵심적인 사항은 아니므로 상세 설명은 생략한다.
한편, 특징점 결정부(21)는 전술한 바와 같이 이미지의 특징점들을 찾아내는 동시에 찾아낸 특징점과 관계된 특징점의 강도나 특징점의 크기 등과 같은 기타 특징점 정보도 함께 추출한다. 이러한 특징점 정보의 종류, 구체적인 내용은 사용되는 특징점 추출/결정 방법에 따라 다를 수 있으므로, 이미지 매칭, 객체 추적, 이미지 비교 등과 같은 후처리 과정에서 사용되는 데이터에 따라 선택적으로 추출한다. 이러한 특징점 정보를 추출하는 방법 또한 종래 기술에 의하여 알려진 방법을 사용할 수 있다.
특징점의 강도는 사용된 특징점 추출/결정 방법에 따라 달라질 수 있는데, 예컨대 LoG(Laplacian of Gaussian) 필터를 사용하는 경우에는, 라플라스 연산자(Laplacian operator)를 특징점의 강도로서 사용할 수 있다. 주어진 이미지 f(x,y)가 소정 스케일 t에 대해서 가우스 커널(Gaussian Kernel)
Figure 112011015284118-pat00005
에 의해 컨볼루션되는 경우, LoG 스케일 평면(scale-space)은
Figure 112011015284118-pat00006
로 나타낼 수 있고, 이 때 라플라스 연산자(Laplacian operator)
Figure 112011015284118-pat00007
가 계산될 수 있는데, 이 라플라스 연산자에 의한 결과값은 이미지의 점의 어두운 점(blob)과 밝은 점(blob)에서 큰 값을 각각 가지게 되므로 해당 이미지가 특징점으로 사용될 수 있는지를 기본적으로 판단할 수 있는 자료가 될 수 있으며 그 값의 크기에 따라 특징점으로서의 강도를 나타내는 지표로서 사용할 수 있다.
한편, DoG(Difference of Gaussian) 필터를 사용하는 경우에도 마찬가지로 라플라스 연산자의 결과값을 특징점 강도로서 사용할 수 있다. 또한, 헤시안 매트릭스(Hessian matrix)를 사용하는 경우에는 헤시안 매트릭스의 디터미넌트(determinant) 값을 특징점 강도로서 사용할 수 있다. 이와 같이, 특징점의 강도는, 종래 기술에 의하여 이미지의 특징점을 추출/결정하는데 사용되는 판별식에 기초한 정보를 사용할 수 있다.
한편, 이미지의 특징점의 크기란, 해당 특징점이 이미지에서 차지하는 영역의 정보를 나타내는 것으로서, 예컨대 사각형인 경우 각 변의 길이, 원인 경우에는 반지름의 길이 등과 같이 표현될 수 있다. 이러한 특징점의 크기 또한 종래 기술에서 사용되는 방법을 사용할 수 있는데, 예컨대 전술한 바와 같은 LoG(Laplacian of Gaussian) 필터를 사용하는 경우에는 특징점의 최대 강도를 나타내는 스케일 t(또는
Figure 112011015284118-pat00008
)값의 k배(여기서, k는 4,6 등과 같은 임의의 상수)와 같은 값을 사용할 수 있다.
다시 도 4를 참조하면, 특징점 방향 추정부(22)는 특징점 결정부(21)에서 결정된 특징점들 각각에 대한 방향 정보를 추정하는 기능을 수행한다. 이는 종래의 기술에서 알려진 그래디언트(gradient) 기반의 다양한 방법들을 사용할 수 있다. 예컨대, 특징점 주변 일정 영역의 모든 점들에 대해서 각 점 주변의 그래디언트를 계산하고 그 방향을 평균냄으로써 특징점의 방향 정보를 추정해 낼 수 있다. 이러한 방법에 의하면, 특징점이 임의의 회전 변환을 거친 경우에도 원래의 방향을 추정할 수 있게 된다. 특징점 방향 추정부(22)에서 특징점의 방향을 추정하는 방법 또한 종래 기술에 의해 알려진 것을 이용할 수 있으며 본 실시예의 직접적인 구성은 아니므로 상세 설명은 생략한다.
특징 데이터 구성부(23)는 특징점 결정부(21)에서 결정된 특징점 각각에 대하여, 특징점 정보와 특징점 방향 추정부(22)에서 추정된 방향 정보에 기초하여 이진 특징 벡터를 생성하고, 생성된 이진 특징 벡터를 포함하여 이미지의 특징 데이터를 구성하는 기능을 수행한다. 여기에서, 특징 데이터라 함은, 전술한 바와 같이, 일반적으로 주어진 이미지에 대해서 추출/결정된 특징점과 관련된 정보를 기술하는 데이터(descriptor)를 의미하는데, 특징 데이터 구성부(23)는 이러한 특징 데이터를 이진 특징 벡터의 형태로 생성한다. 여기에서, 특징점 정보는 특징점 결정부(21)에서 추출 및 획득되고 방향 정보는 전술한 특징점 방향 추정부(22)에 의해 획득된다.
특징 데이터 구성부(23)는 이미지/동영상 매칭부(40)에서 특징 데이터를 이용하여 신속한 처리가 이루어질 수 있도록 하는 동시에 해당 특징점의 특징을 잘 나타내면서도 비교적 적은 용량의 데이터로써 특징 데이터를 생성할 수 있도록 이진 특징 벡터를 생성하고 이를 포함하여 특징 데이터를 구성하게 된다. 이러한 이진 특징 벡터는 특징점들 각각에 대하여 강인성을 가지면서 특징점에 고유한 특징을 변질시키지 않아야 한다.
특징 데이터 구성부(23)에서 이진 특징 벡터를 생성하는 과정을 도 5 및 도 6을 참조하여 설명한다. 도 5는 이진 특징 벡터의 생성 과정의 실제 예를 나타낸 화면이고 도 6은 이진 특징 벡터의 생성 과정을 나타낸 흐름도이다.
도 5 및 도 6을 참조하면, 우선 전술한 바와 같은 과정을 통해 결정된 특징점들 각각에 대하여, 특징점의 크기 및 방향 정보를 이용하여, 특징점을 포함하는 주변 이미지 영역을 예컨대 사각형 형태로 생성하고, 이들을 같은 방향으로 정렬한다(S500, S510)). 여기에서, 특징점을 포함하는 주변 이미지 영역을 사각형 형태로 생성하는 것은 특징점 결정부(21)에서 추출한 특징점 정보에 포함된 크기 정보를 이용할 수 있다. 예컨대, 크기 정보로서 한변의 길이(정사각형인 경우), 가로 및 세로변의 길이(직사각형인 경우), 반지름(원인 경우) 등과 같은 정보를 이용하여 사각형 형태의 주변 이미지 영역을 생성할 수 있다. 예컨대, 한변의 길이가 주어진 경우 해당 변의 길이에 따른 정사각형을 생성하고 가로 및 세로변의 길이가 주어진 경우 둘 중 최대값 또는 최소값을 변의 길이로 하는 정사각형을 생성할 수 있다. 또한, 반지름값이 주어진 경우 반지름을 변의 길이로 하는 정사각형을 생성할 수 있다. 또한, 생성된 주변 이미지 영역을 같은 방향으로 정렬하는 것은, 대상 이미지가 다른 이미지의 회전한 형태인 경우에도 같은 특징 벡터를 얻기 위함이다. 한편, 특징점을 포함하는 주변 이미지 영역을 생성할 때 특징점의 크기 정보에 기초하지 않고 미리 설정된 크기 예컨대 특징점 주변 ±10 이내의 좌표를 기준으로 사각형 형태로 생성하는 방법도 가능하다.
다음으로 생성 및 정렬된 이미지 영역들 각각을 도 5의 우측에 나타낸 바와 같이 N×N의 부 영역으로 나눈다(S520). 이들 부 영역들의 이미지 밝기를 평균내어 얻은 N×N개의 값을 I(i), i= 1,2,....,N2라 하고, 아래의 수식에 따라 밝기 차분 벡터와 차차분 벡터를 정의한다(S530).
차분 벡터 : D(i,j)=I(i)-I(j), i,j = 1,2,...,N2
차차분 벡터 : E(i,j,k,l) = D(i,j)-D(k,l) i,j,k,l = 1,2,...,N2
다음으로, 특징 데이터 구성부(23)는 상기 수식에 의해 정의된 차분 벡터 D(i,j)와 차차분 벡터 E(i,j,k,l) 중 적어도 어느 하나 이상을 선택하고 이에 기초하여 이진 특징 벡터를 생성한다(S540).
차분 벡터와 차차분 벡터에 기초하여 이진 특징 벡터를 생성하는 구체적인 과정의 일예를 도 7에 나타내었다.
도 7의 예는 이진 특징 벡터를 M비트로 구성하는 경우에 대한 것으로서, 도 7의 각 과정을 M회 반복하게 된다. 이를 위하여, 우선 최초로 i=1로 설정하고, 주어진 특징점에 대해 정의된 차분 벡터와 차차분 벡터 중에서 적어도 어느 하나 이상을 선택하고 상기 정의된 수식에 의해 차분 벡터와 차차분 벡터를 생성한다(S541). 정의된 차분 벡터와 차차분 벡터 중에서 어떤 것을 선택할 것인지는 미리 설정해 둘 수 있는데, 예컨대 미리 다수의 샘플 이미지를 통해 이진 특징 벡터를 생성해 두고 이들의 통계치에 근거하여 어떠한 차분 벡터와 차차분 벡터를 선택하는 것이 이미지의 변화에 관계없이 강인한 특성을 나타내는가를 결정한 후 그러한 기준에 따라 해당하는 벡터를 선택할 수 있다. 또한, 차분 벡터 중에서만 선택할 수도 있고 차차분 벡터에서만 선택할 수도 있다. 또한, 차분 벡터에서 몇개를 선택할지 차차분 벡터에서 몇개를 선택할지의 여부도 경우에 따라 달라질 수 있다. 예컨대, 차분 벡터 중에서 3개를 선택하고 차차분 벡터에서 2개를 선택하거나 차분 벡터에서 2개를 선택하고 차차분 벡터에서 3개를 선택하는 것도 가능하다.
또한, 차분 벡터와 차차분 벡터 중 적어도 어느 하나를 선택하고 생성하는 것은 이진 특징 벡터의 비트수인 M회에 걸쳐 이루어져야 하는데 선택되는 차분 벡터와 차차분 벡터들의 집합은 서로 달라야 하므로, 각 회수에 대응하여 서로 다른 차분 벡터와 차차분 벡터의 집합이 선택되도록 미리 설정해 두는 것이 바람직하다.
다음으로, 선택 및 생성된 차분 벡터와 차차분 벡터들에 대해 선형 조합(linear combination) 계산을 수행한다(S542). 예컨대, 선택 및 생성된 차분 벡터가 D(1,2), D(3,4), E(1,2,4,5), E(3,5,6,7)의 4개인 경우 이들 각각의 값(이들은 전술한 바와 같이 각각 밝기의 평균값의 차분값과 차차분값을 가지게 된다)에 대해 선형 조합을 계산한다. 즉, 선형 조합인 경우, aD(1,2) + bD(3,4) + cE(1,2,4,5) + dE(3,5,6,7)와 같은 표현되는 선형 조합을 계산할 수 있다(여기서, a,b,c,d는 임의의 계수). 예컨대 차분 벡터가 5개, 차차분 벡터가 5개 존재하는 경우, 이들의 선형 조합의 공간은 실제 무한할 수 있는데, 이들로부터 해당 특징점을 다른 특징점들과 쉽게 구분지을 수 있도록 하는 특정 조합들이 존재한다. 이러한 특정 조합을 미리 다수의 샘플 이미지를 통해 테스트해서 결정해 두고 이러한 테스트 결과값의 통계적 추론에 기초하여 어떠한 선형 조합을 수행할 것인지를 결정해 놓을 수 있다. 한편, 상기 단계(S542)에서 선형 조합 이외에 곱셈 등과 같은 비선형 연산을 포함하는 비선형 조합(nonlinear combination)을 수행할 수도 있음은 물론이며, 경우에 따라서는 선형 조합과 비선형 조합을 혼합하여 사용하는 것도 가능할 수 있다.
이와 같은 과정을 거치게 되면, 그 결과값을 얻게 되는데 그 결과값이 소정의 임계치 예컨대 0보다 큰지 여부를 판단하고(S543), 0보다 큰 경우에는 해당 비트 즉, i번째 비트에 1을 할당하고(S544), 0보다 작은 경우에는 해당 비트 즉, i번째 비트에 0을 할당한다(S545). 이와 같이 하면, 이진 특징 벡터 중에서 i번째 비트의 값이 결정되게 된다.
다음으로, i=M인지(즉, 마지막 비트인지)를 판단하고(S546), 마지막 비트가 아닌 경우 i를 증가시켜서(S547) 상기 단계(S541) 내지 단계(S547)을 반복 수행한다. 마지막 비트인 경우에는 종료하게 된다(S548).
도 7과 같은 과정을 모두 완료하게 되면, 주어진 특징점에 대해 각각의 값이 0 또는 1로 표현되는 M비트로 구성되는 이진 특징 벡터가 생성되게 된다. 도 5의 우측에 나타낸 이진 특징 벡터는 이와 같은 과정을 거쳐서 생성된 것으로서 총 6비트로 구성되며 각각의 비트에는 0 또는 1이 할당되어 있음을 알 수 있다.
한편, 이진 특징 벡터를 생성한 이후, 각각의 비트에 대해 중요도를 기준으로 정렬 과정을 더 수행할 수 있다. 차분 벡터와 차차분 벡터의 선형 또는 비선형 조합 중에서 다른 조합들보다 스케일링, 크기, 각도 등의 변환 등에 보다 강인한 조합이 존재할 수 있는데 이러한 강인성을 갖는 조합을 미리 다수의 샘플 이미지를 통해 테스트하여 결정해 두고 이를 이용하여 그 순서 즉 강인한 순서에 따라 이진 특징 벡터들을 정렬하는 과정을 수행할 수도 있다. 즉, 도 7과 같은 과정을 수행하게 되면, M비트의 값이 "001010"으로 표현되는 경우, 이를 중요도에 따라 "011001"과 같이 정렬할 수 있으며, 도 5의 우측에 이러한 이진 특징 벡터를 나타내었다. 이와 같이 이진 특징 벡터를 중요도 순에 따라 정렬하게 되면 후처리 과정에서 중요도 순서에 따라 데이터의 비교 및 검색이 중요도를 기준으로 신속하게 처리될 수 있는 장점이 있다.
이러한 과정을 통해, 이진 특징 벡터가 각각의 특징점에 대하여 생성되면, 특징 데이터 구성부(23)는 이들 이진 특징 벡터를 포함하여 특징점의 다른 특징점 정보를 포함하여 최종적으로 이미지의 특징 데이터를 생성하게 된다. 특징 데이터에 포함되는 다른 특징점 정보는 예컨대 특징점의 x 좌표값, y 좌표값, 크기 정보 및 방향 정보 중에서 적어도 어느 하나 이상을 포함할 수 있다. 이들 정보를 모두 포함할 수도 있고 이들 중 일부만을 선택하여 구성할 수도 있으며, 이는 후술하는 이미지/동영상 매칭부(40)에서의 처리 과정에서의 조건에 따라 다르게 설정할 수 있다. 예컨대, 상기와 같은 다른 특징점 정보를 모두 포함하여 구성되는 경우 최종적으로 생성되는 특징 데이터는 특징점 각각에 대한 (x 좌표, y 좌표, 크기, 방향, 이진 특징 벡터)로 구성되는 특징점들의 집합일 수 있다. 도 5의 우측에 나타낸 이진수는 해당 특징점의 이진 특징 벡터를 의미하며, 이진수 위쪽의 (x,y,s,θ)는 각각 (x 좌표, y 좌표, 크기, 방향)을 의미한다. 물론, 후처리 과정에서 크기 정보가 필요없는 경우에는 이를 제외하고 나머지 정보만으로 특징 데이터를 구성하는 것도 가능하다.
한편, 도 5 내지 도 7의 실시예에서는 부영역들의 밝기값의 평균값의 차분 벡터와 차차분 벡터를 정의해두고(도 6의 단계(S530)), 이들 중에서 전술한 바와 같은 기준에 따라 어느 하나 이상을 선택하고 선택된 차분 벡터와 차차분 벡터들의 선형 또는 비선형 조합을 생성하여 이진 특징 벡터를 생성하는 경우에 대하여 설명하였으나, 부영역들의 밝기값의 평균값 전부에 대해서 미리 차분 벡터와 차차분 벡터를 생성해 두는 실시예도 가능하다. 이 경우에는 도 6의 단계(S530)에서 미리 차분 벡터와 차차분 벡터를 전체 부영역들의 밝기값의 평균값에 대해서 모두 생성해 둔 후, 도 7의 단계(S541)에서 생성되어 있는 차분 벡터와 차차분 벡터 중에서 전술한 바와 같은 기준으로 선택 과정만을 수행하게 된다. 즉, 단계(S541)에서 차분 벡터와 차차분 벡터를 계산하여 생성하는 과정을 생략할 수 있다.
도 5 내지 도 7에 나타낸 바와 같은 과정을 수행하게 되면, 이진 특징 벡터를 포함하는 이미지의 특징 데이터가 최종적으로 생성되게 된다.
다음으로, 동영상 특징 데이터 생성부(30)의 구성에 대하여 설명한다. 도 8은 동영상 특징 데이터 생성부(30)의 구성의 일예를 나타낸 도면이다. 도 8을 참조하면, 동영상 특징 데이터 생성부(30)는, 프레임 선택부(31), 프레임별 특징점 결정부(32), 프레임별 특징점 방향 추정부(33) 및 프레임별 특징 데이터 구성부(34)를 구비할 수 있다.
프레임 선택부(31)는 동영상 각각에 대하여 동영상을 구성하는 프레임들을 일정 시간 간격으로 추출하고 추출된 프레임을 적어도 하나 이상의 이전 추출 프레임들과 차이를 계산하고, 차이가 임계치 이상인 경우에 선택된 해당 프레임을 선택하는 기능을 수행한다. 즉, 프레임 선택부(31)는 동영상에서 일정 시간 간격으로 프레임을 추출하고, 추출된 해당 프레임과 이전에 추출되어 있는 프레임들 중 적어도 어느 하나 이상의 프레임과의 차이를 계산한다. 이 때, 이전 추출 프레임은 바로 이전 프레임만일 수도 있고, 소정 갯수 이전 예컨대 이전 5번째 프레임까지일 수도 있다. 추출된 해당 프레임과 이전 추출 프레임과의 차이는 단순히 프레임의 같은 위치의 픽셀값 간의 차이의 절대값의 합일 수 있다. 또한, 종래 기술에 의하여 알려져 있는 옵티컬 플로우(Optical flow)를 추정하여 이를 이용하여 보정된 이미지간의 픽셀값 사이의 차이의 절대값의 합일 수도 있다. 다음으로, 프레임 선택부(31)는 이전 추출 프레임과의 차이가 미리 설정해 둔 임계치 이상인지를 판단하고, 임계치 이상인 경우 해당 프레임을 선택한다. 여기서 선택되는 해당 프레임은 도 8의 후술하는 구성에 의해서 프레임별로 특징점을 결정하고 특징점의 방향을 추정하고 특징 데이터틀 구성하게 되며, 이와 같은 과정을 동영상에서 일정 시간 간격으로 추출한 모든 프레임에 대해서 반복 수행함으로써 동영상 전체에 대한 특징 데이터(즉, 프레임별 특징 데이터의 집합)를 생성하게 된다. 이 때, 이전 프레임 하나와만 비교하는 경우에는 전술한 바와 같은 차이를 한번만 계산하여 해당 프레임을 선택할지의 여부를 결정하고, 예컨대 이전 5번째 프레임까지와 비교하는 경우에는 각각의 프레임과의 차이 중에서 적어도 어느 하나가 임계치 보다 큰 경우에 해당 프레임을 선택하도록 구성할 수도 있다.
한편, 프레임 선택부(31)는 상기한 바와 같은 방법을 사용하지 않고, 전술한 바와 같은 이미지/동영상 매칭부(40)에서 사용하는 신뢰도 추정 방식을 이용하여 이전 추출 프레임들과를 비교함으로써 해당 프레임의 차이를 계산하고 그 결과에 따라 해당 프레임을 선택할 수 있다. 즉, 프레임 선택부(31)는 동영상 각각에 대하여, 동영상을 구성하는 프레임들을 일정 시간 간격으로 추출하고 추출된 프레임의 이미지 특징 데이터를 우선 생성하고, 이 이미지 특징 데이터와 이전 추출 프레임에 대해서 미리 생성되어 있는 이미지 특징 데이터를 비교하여 대응하는 특징점의 쌍을 결정하고, 결정된 특징점의 쌍들에 포함된 특징점의 특징점 방향 정보에 기초하여 이미지/동영상 매칭부(40)에서 사용하는 방법을 이용하여 추출된 프레임과 이전 추출 프레임 사이의 관계 분석 신뢰도를 추정하여 그 결과에 기초하여 해당 프레임을 선택할지 여부를 결정하는 방법을 사용할 수도 있다.
프레임별 특징점 결정부(32)는 상기 프레임 선택부(31)에서 선택된 프레임에 대한 특징점을 결정하고 결정된 특징점의 특징점 정보를 추출하는 기능을 수행하는데, 이는 도 4 내지 도 7에서 설명한 특징점 결정부(21)와 동일한 것이며, 다만, 프레임별로 이러한 기능을 수행한다는 점에서 프레임별 특징점 결정부(32)라는 명칭을 사용했음을 유의해야 한다. 동영상은 프레임의 집합으로 볼 수 있으며, 각각의 프레임은 도 4 내지 도 7의 실시예에서 설명한 이미지와 동일한 것이기 때문이다. 또한, 프레임별 특징점 방향 추정부(33)과 프레임별 특징 데이터 구성부(34) 또한 도 4 내지 도 7에서 설명한 특징점 방향 추정부(22) 및 특징 데이터 구성부(23)와 동일한 것이다. 즉, 프레임별 특징점 결정부(32), 프레임별 특징점 방향 추정부(33), 프레임별 특징 데이터 구성부(33)는 도 4 내지 도 7의 실시예에서 설명한 특징점 결정부(21), 특징점 방향 추정부(22), 특징 데이터 구성부(23)와 기능이 완전히 동일하되, 다만 동영상을 구성하는 프레임들 중에서 프레임 선택부(31)에서 선택된 프레임에 대해서 해당 기능을 수행한다는 점에서만 차이가 있다. 따라서, 이들에 대한 상세 설명은 생략한다.
한편, 도 8에서 프레임별 특징 데이터 구성부(34)에서 프레임별로 특징 데이터를 구성하는 경우, 이전 프레임과의 중복 특징점을 제거하고 비중복 특징점만에 대해서 특징 데이터를 생성할 수도 있다. 도 9는 중복되는 특징점을 제거하는 실제 예를 나타낸 것이다. 도 9에서 좌측 사진은 이전 프레임이고 우측 사진은 현재 프레임을 나타내는데, 현재 프레임인 우측 사진에서 붉은 색으로 표시된 특징점만이 비중복 특징점으로서 기록되고, 검은색으로 표시된 부분들은 이전 프레임(좌측 사진)과 중복되는 특징점으로서 제거된 것임을 나타낸다.
한편, 도 8에서는 동영상 특징 데이터 생성부(30)가 프레임 선택부(31), 프레임별 특징점 결정부(32), 프레임별 특징점 방향 추정부(33), 프레임별 특징 데이터 구성부(33)를 별도로 구비하는 경우를 나타내었으나, 전술한 바와 같이 프레임별 특징점 결정부(32), 프레임별 특징점 방향 추정부(33), 프레임별 특징 데이터 구성부(33)는 도 4 내지 도 7의 실시예에서 설명한 특징점 결정부(21), 특징점 방향 추정부(22), 특징 데이터 구성부(23)와 기능이 동일하므로 이들을 생략하고 이들이 수행할 기능은 이미지 특징 데이터 생성부(20)를 통해 수행하도록 구성할 수도 있다. 이러한 경우, 동영상 특징 데이터 생성부(30)는 프레임 선택부(31)를 구비하며, 이미지 특징 데이터 생성부(20)를 통해 각각의 선택된 프레임별로 해당 기능을 수행하여 프레임별 특징 데이터를 생성하게 된다.
이와 같은 과정을 거치면 동영상 특징 데이터 생성부(30)는 동영상을 구성하는 프레임들 중 선택된 프레임들에 대한 프레임별 이미지 특징 데이터의 집합을 얻게 되고 이에 의하여 동영상 특징 데이터를 생성하게 된다. 도 4 내지 도 7에서 설명한 바와 같이, 이미지의 특징 데이터는 예컨대 (x 좌표, y 좌표, 크기, 방향, 이진 특징 벡터)로 구성되는 특징점들의 집합인 특징 데이터로 나타낼 수 있는데, 동영상 특징 데이터 생성부(30)에 의해 생성되는 동영상 특징 데이터는 여기에 더하여 해당 동영상의 식별자(ID)로서 예컨대 해당 동영상의 번호 및 해당 프레임의 식별자(ID)로서 예컨대 해당 프레임의 번호를 포함하도록 구성할 수 있다. 이와 같이 구성되는 프레임의 이미지 특징 데이터는 다음과 같을 수 있다.
(vi, fj, xk, yk, sk, θk, 이진 특징 벡터)
여기에서, vi는 i번째 동영상을 의미하며, fj는 해당 동영상 즉, i번째 동영상의 j번째 프레임을 의미하고, xk, yk, sk, θk 는 각각 k번째 특징점의 x좌표, y좌표, 크기, 방향을 나타낸다. 이진 특징 벡터는 전술한 바와 같이 생성되며 예컨대 "011101"등과 같이 표현될 수 있다. 이러한 동영상 특징 데이터는 동영상 ID, 프레임 ID를 제외하고는 전술한 이미지 특징 데이터 생성부(20)에서 생성되는 이미지 특징 데이터와 형태가 동일하므로 후술하는 해쉬 생성부(30)를 참조하여 이미지/동영상 매칭부(40)에서 이미지와 동영상의 비교를 효율적으로 또한 신속하게 이루어질 수 있도록 한다.
다음으로, 이미지/동영상 매칭부(40)에 대하여 설명한다. 도 10은 이미지/동영상 매칭부(40)의 구성의 일예를 나타낸 도면으로서, 도 10을 참조하면, 이미지/동영상 매칭부(40)는 해쉬 검색부(41), 후보 선정부(42), 대응 특징점 결정부(43), 신뢰도 추정부(44)를 포함한다.
해쉬 검색부(41)는 이미지 특징 데이터에 포함된 이진 특징 벡터의 적어도 하나 이상의 비트를 인덱스로 하여 해쉬 테이블을 검색하여 해당 인덱스에 속한 동영상 특징 데이터를 획득하는 기능을 수행한다. 이를 위해서, 동영상 관련 서비스 제공 시스템(100)은 해쉬 생성부(미도시)를 더 포함할 수 있다. 해쉬 생성부는 동영상 특징 데이터 생성부(30)에서 생성된 동영상 특징 데이터들에 대해 프레임별 특징 데이터에 포함된 이진 특징 벡터의 적어도 하나 이상의 비트를 해쉬 테이블의 인덱스로 사용하여 해쉬 테이블을 생성하는 기능을 수행하며, 이는 해쉬 검색부(41)에 의해 보다 신속한 검색을 수행하기 위한 구성이다.
도 11은 해쉬 생성부에 의해 생성되는 해쉬 테이블의 생성 과정의 일예를 나타낸 것이다. 도 11을 참조하면, vi 는 동영상의 식별자(ID)로서 기능하는 동영상의 번호, fi 는 동영상 내 프레임의 식별자(ID)로서 기능하는 프레임의 번호, xi, yi 는 해당 프레임의 i번째 특징점의 x, y 좌표, si 는 해당 프레임의 i번째 특징점의 크기, θi 는 해당 프레임의 i번째 특징점의 방향을 나타낸다. 이어서, 전술한 바와 같은 방법에 의해 형성되는 이진 특징 벡터들이 포함된다. 여기에서, 이들 이진 특징 벡터의 앞부분 소정 k비트(도 11에서는 상위 3비트)만을 이용하여 해쉬 테이블의 버킷을 구성하고 각각의 버킷에 해당하는 특징점의 (vi, fi, xi, yi, si, θi) 를 삽입(도 11의 우측 참조)함으로써 해쉬 테이블을 생성할 수 있게 된다. 만약, 전술한 바와 같이 이진 특징 벡터들이 중요도 순으로 정렬되어 있는 경우에는 중요도 순으로 해쉬 테이블이 생성될 수 있으므로, 이진 특징 벡터의 세부적인 차이에 둔감한 해쉬 테이블을 생성할 수 있다. 한편, 검색의 정확도를 보다 높이기 위해 서로 다른 비트를 선택하여 다수의 해쉬 테이블을 구성할 수도 있다.
해쉬 검색부(41)는 이미지의 각각의 특징점에 대해 전술한 바와 같이 이미지 특징 데이터 생성부(20)에 의해 생성된 특징 데이터에 포함되어 있는 이진 특징 벡터에 기초하여, 전술한 바와 같이 해쉬 생성부에 의해 생성된 해쉬 테이블을 검색하여 해당 특징점의 이진 특징 벡터의 소정의 앞자리 k비트(도 11에서는 상위 3비트)에 매칭되는 버킷을 우선 검색하고, 검색된 해당 버킷 내에 포함되어 있는 모든 (vi, fi, xi, yi, si, θi)를 가져 오게 된다.
후보 선정부(42)는 상기 해쉬 검색부(41)에 의해 검색된 데이터와 이미지 특징 데이터를 비교하여 매칭되는 동영상을 결정하고, 상기 결정된 동영상을 구성하는 프레임중 적어도 하나 이상의 프레임을 결정하는 기능을 수행한다. 즉, 후보 선정부(42)는 이미지 특징 데이터와 상기 해쉬 검색부(41)에 의해 획득된 동영상 특징 데이터들을 비교하여 가장 많이 매칭되는 동영상 특징 데이터에 해당하는 동영상을 결정하고, 상기 결정된 동영상을 구성하는 프레임 중에서 상기 이미지 특징 데이터와 가장 많이 매칭되는 프레임 특징 데이터에 해당하는 프레임을 결정한다. 해쉬 검색부(41)에 의해 가져온 모든 (vi, fi, xi, yi, si, θi)들로부터 vi값에 기초하여 가장 많이 매칭된 동영상이 어떤 것인지를 결정할 수 있다. vi는 동영상의 식별자(ID)로서 기능하는 번호이므로, 가장 많이 나타나는 vi값을 찾아냄으로써 매칭되는 동영상을 결정할 수 있다. 동영상이 어떤 것인지 즉, 동영상의 식별자가 결정되면, fi에 기초하여 해당 동영상의 프레임 중에서 가장 많이 매칭되는 적어도 하나 이상인 C개의 프레임을 결정한다. 전술한 바와 같이, fi는 프레임의 식별자이므로, 해당 동영상에서 가장 많이 나타나는 fi값을 순서대로 찾고, 이중에서 일정 갯수(예컨대, 5개)의 프레임을 선택함으로써 프레임을 결정할 수 있게 된다.
한편, 후보 선정부(42)는 상기 해쉬 검색부(41)에 의해 검색된 데이터와 이미지 특징 데이터를 비교하여 매칭되는 동영상을 먼저 결정하지 않고, 각각의 동영상에 포함되어 있는 프레임들과 비교하여 매칭되는 적어도 하나 이상의 프레임을 결정하도록 구성할 수 있다. 즉, 후보 선정부(42)는 이미지 특징 데이터와 상기 해쉬 검색부(41)에 의해 획득된 동영상 특징 데이터들을 비교하여 각각의 동영상을 구성하는 프레임 중에서 상기 이미지 특징 데이터와 가장 많이 매칭되는 프레임 특징 데이터에 해당하는 프레임을 결정한다. 전술한 바와 같이, 해쉬 검색부(41)에 의해 가져온 모든 (vi, fi, xi, yi, si, θi)들로부터 vi값에 기초하여 가장 많이 매칭된 동영상이 어떤 것인지를 결정하는 과정을 생략하고, fi에 기초하여 특정 동영상의 프레임 중에서 가장 많이 매칭되는 적어도 하나 이상인 C개의 프레임을 결정한다. 이 경우, C개의 프레임들은 그 일부가 다른 동영상에 속하는 것일 수 있다.
대응 특징점 결정부(43)는 이미지의 이미지 특징 데이터와 상기 후보 선정부(41)에서 결정된 적어도 하나 이상의 프레임의 이미지 특징 데이터에 기초하여 이미지와 상기 결정된 프레임 사이에서 대응하는 특징점의 쌍을 결정하는 기능을 수행한다. 대응 특징점 결정부(43)는 이미지 특징 데이터와 각각의 프레임의 이미지 특징 데이터를 비교하여 대응되는 특징점의 쌍을 결정하는데, 이는 공지 기술에서 알려진 바와 같이 예컨대 특징 데이터간의 거리(distance)를 계산함으로써 결정될 수 있다. 즉, 비교되는 양 이미지와 프레임의 각각의 특징점의 특징 데이터에 해밍 거리(Hamming distance), 유클리디안 거리(Euclidean distance) 등과 같은 함수를 적용하여 거리의 차이를 계산하여 거리의 차이가 소정 임계치 이하인 경우에 해당하는 특징점들을 서로 대응하는 특징점의 쌍인 것으로 결정할 수 있다. 여기에서, 공지 기술로서 널리 알려져 있는 RANSAC(RANdom Sample Consensus) 알고리듬을 이용할 수도 있다. 한편, 이미지의 좌표 사이의 변환 행렬은 일반적인 호모그래피(Homography) 변환을 비롯하여 그 특수한 경우인 회전, 평행 이동, 스케일링 등의 조합이 될 수 있다. 이와 같이, 대응 특징점 결정부(43)는 비교되는 같은 종류의 특징 데이터(특징 데이터가 어떠한 것이건간에 상관없이)의 거리 함수 등과 같은 값을 계산하는 등과 같은 방식을 사용하여 대응되는 특징점의 쌍의 집합을 결정할 수 있다. 대응 특징점 결정부(43)는 이와 같이 종래 기술에서 알려진 방법을 그대로 사용할 수 있으며 이는 본 발명의 직접적인 구성은 아니므로 이에 대한 상세 설명은 생략하기로 한다.
신뢰도 추정부(44)는 대응 특징점 결정부(43)에서 결정된 특징점의 쌍들에 포함된 특징점의 특징점 방향 정보에 기초하여 이미지와 동영상 사이의 매칭의 신뢰도를 추정하는 기능을 수행한다. 신뢰도 추정부(44)는 대응 특징점 결정부(43)에서 결정된 특징점의 쌍들에 포함된 특징점의 특징점 방향 정보에 기초하여 이미지와 동영상 사이의 매칭 신뢰도를 추정하는데, 이는 다음과 같은 방법을 통해 이루어질 수 있다.
우선, 비교되는 두 이미지(즉, 이미지와 각각의 프레임) 사이에 서로 대응하는 특징점의 쌍들을 (p1, q1), ..., (pn, qn) 이라 하고, 각 특징점의 방향이 θ(p1), θ(q1),...과 같이 주어진다고 하자(여기서, 서로 대응하는 특징점의 쌍들의 집합은 전술한 대응 특징점 결정부(43)에서 결정된 것들이다).
만일 두 이미지가 같은 이미지이고 과도한 변환을 거치지 않았다면, 특징점의 방향 차이 추정치인
Figure 112011015284118-pat00009
는 모든 대응하는 특징점 쌍에 대해 일정한 값(두 이미지 사이의 회전 변환 각도)을 가져야 한다. 이 참값을 d 라 하고 각도를 추정하는 데 있어 랜덤한 에러가 발생할 수 있으므로 이를 확률 밀도 함수에 기초하여 모델링한 후, 그 평균값과 분산값을 이용하여 특징점의 쌍을 관측할 확률을 구할 수 있다. 확률 밀도 함수로서는 예컨대 평균이 0이고 표준 편차가 σ인 정규 분포를 사용할 수 있는데, 이 경우
Figure 112011015284118-pat00010
(평균이 d 이고 분산이 σ2인 정규 분포) 로 모델링될 수 있다.
실제로는 참값 d가 알려져 있지 않으므로 n개의 특징점 쌍을 이용하여 d를 추정하면
Figure 112011015284118-pat00011
와 같다. 이제 (p1, q1),...,(pn, qn) 의 특징점 쌍을 관측할 확률 p는
Figure 112011015284118-pat00012
와 같이 나타낼 수 있는데, 여기서 G 는 평균이 0이고 표준 편차가 1인 표준 정규 분포의 확률 함수를 나타낸다. 이와 같이 얻어진 p값 또는 p값의 함수 예컨대 log(p) 값 등을 검출 신뢰도로 사용하여 미리 설정해 놓은 임계치 Tm 과 비교하게 되면, 이미지 사이의 상호 관계의 분석 신뢰도를 추정할 수 있게 된다.
이와 같은 과정을 통해 신뢰도 추정부(44)는 대응 특징점 결정부(43)에서 결정되는 특징점의 쌍들간의 매칭의 신뢰도 즉, 상호 관계의 분석 신뢰도를 추정할 수 있게 되며, 임계치 이상인 경우에만 최종적으로 비교되는 두 이미지가 매칭되는 것 즉, 동일성이 있는 것으로 판단할 수 있게 된다. 또한, 상기 확률 p값 자체를 제공하면서 비교되는 이미지 사이의 동일성 여부를 확률적으로 제공하도록 할 수도 있음은 물론이다. 이와 같은 구성에 의하면, 대응되는 특징점의 쌍들을 특징점의 방향 정보에 기초하여 그 매칭의 신뢰도를 추정함으로써, 종래 기술에 비하여 특징점이 매우 적은 경우에도 안정적으로 신뢰도를 추정할 수 있으므로, 결과적으로 정확도를 손상시키지 않으면서도 신속하게 처리할 수 있게 된다. 신뢰도 추정부(44)는 복수개의 프레임에 대해서 신뢰도를 추정할 수 있으므로, 그 결과를 제공함에 있어서 각각의 프레임에 대해서 확률값에 기초한 유사도에 대한 정보를 제공할 수도 있고, 확률값이 가장 높은 프레임을 결과로서 제공할 수도 있을 것이다.
이와 같은 과정을 수행하게 되면, 이미지/동영상 매칭부(40)는 이미지가 어떠한 동영상에 속하는 것인지, 또한 동영상의 어떠한 프레임에 해당하는지, 동영상의 특정 프레임과 어느 정도의 확률로 매칭된다고 판단할 수 있는지 등과 같은 관계를 분석할 수 있게 된다.
한편, 동영상 관련 서비스 제공 시스템(100)은 사용자로부터 사용자 이벤트가 발생한 이미지와 상기 이미지에 대응되는 것으로 결정된 동영상 또는 프레임과 관련된 각종 정보를 저장하고 관련 통계 자료를 산출하는 정보/통계 관리부(미도시)를 더 포함할 수 있다. 이러한 구성에 의하면, 사용자가 어떠한 이미지를 클릭했는지(즉, 어떠한 이미지에 집중했는지), 또한 동영상 중 어떠한 프레임이 가장 많이 재생되었는지(즉, 사용자가 관심있는 부분이 어떤 부분인지) 등과 같은 정보를 획득하고 이를 데이터베이스화할 수 있으므로, 이를 이용하여 각종 통계 및 광고 정보에 이용할 수 있게 된다.
도 12는 도 1 내지 도 11에서 설명한 동영상 관련 서비스 제공 시스템(100)에 의해 이루어지는 동영상 관련 서비스 제공 방법의 일실시예를 나타낸 흐름도이다.
도 12를 참조하면, 우선, 동영상 관련 서비스 제공 시스템(100)은 이미지(200)의 이미지 관련 데이터를 획득한다(S1000). 이는 전술한 바와 같이, 웹 페이지 등과 같은 전자 문서에 미리 포함되어 있는 스크립트 또는 위젯 등에 의해 자동적으로 실행되어 동영상 관련 서비스 제공 시스템(100)의 이미지 연동부(10)로 전송될 수 있다.
이미지 관련 데이터가 획득되면, 동영상 관련 서비스 제공 시스템(100)은 획득된 이미지 관련 데이터에 기초하여 이미지(200)에 대한 이미지 특징 데이터를 생성한다(S1100). 이미지 특징 데이터를 생성하는 방법은 전술한 바와 같다. 한편, 동영상 관련 서비스 제공 시스템(100)은 동영상에 대한 동영상 특징 데이터 또한 전술한 바와 같은 방법에 의하여 생성해 둔다(S1200). 도 12에서는, 설명의 편의를 위하여 동영상 특징 데이터를 생성하는 단계(S1200)를 이미지 특징 데이터 생성 단계(S1100) 이후에 수행되는 것으로 설명하였으나, 실제로 동영상 특징 데이터를 생성하는 단계(S1200)는 상기 단계(S1000) 및 단계(S1100)과 병행하여 독립적으로 또는 미리 수행해 둘 수 있다. 특히, 본 발명은 다수의 동영상들에 대하여 미리 동영상 특징 데이터를 생성해 두고 이미지 관련 데이터가 획득될 때 해당 이미지에 대해 대응되는 동영상 또는 프레임을 결정하므로 다수의 동영상들에 대해 미리 상기 단계(S1200)를 수행해 두는 것이 바람직하다.
다음으로, 상기 단계(S1100)에서 생성된 이미지 특징 데이터와 상기 단계(S1200)에서 생성된 동영상 특징 데이터에 기초하여 이미지에 대응되는 적어도 하나 이상의 동영상 또는 프레임을 결정한다(S1300). 이미지에 대응되는 동영상 또는 프레임을 결정하는 방법 또한 전술한 바와 같으므로 상세 설명은 생략한다.
단계(S1300)까지를 수행하게 되면, 이미지들 각각에 대하여 대응되는 동영상 또는 프레임이 결정되고 해당 정보는 이미지들 각각에 대응하여 이미지 데이터베이스(미도시)에 저장된다.
이러한 상태에서, 이미지에 대한 사용자 이벤트를 수신하면(S1400), 동영상 관련 서비스 제공 시스템(100)은 수신되는 해당 이미지에 대한 사용자 이벤트에 따라 상기 단계(S1300)에서 해당 이미지에 대응되는 것으로 결정된 동영상 또는 프레임과 관련된 동영상 관련 서비스를 수행하게 된다(S1500). 여기에서, 전술한 바와 같이, 동영상 관련 서비스는, 해당 이미지에 대응되는 것으로 결정된 동영상의 해당 프레임부터 동영상이 재생되는 프레임 재생 서비스이거나, 해당 이미지에 대응되는 것으로 결정된 동영상 또는 프레임과 관련된 정보를 제공하는 동영상 정보 제공 서비스일 수 있다. 또한, 사용자 이벤트는 해당 이미지가 포함된 웹 페이지와 같은 전자 문서를 통해 제공되는 선택 인터페이스에 대해서 이루어진 경우에 수신되도록 구성할 수도 있다. 또한, 사용자 이벤트가 발생한 경우 제공되는 동영상 관련 서비스를 사용자가 선택할 수 있도록 하는 사용자 인터페이스를 사용자측에 제공하고, 이러한 사용자 인터페이스를 통한 사용자 요청 신호에 따라 해당하는 동영상 관련 서비스를 제공하도록 구성할 수도 있음은 전술한 바와 같다.
이상에서, 본 발명에 의한 바람직한 실시예를 참조하여 본 발명을 설명하였으나, 본 발명은 상기 실시예에 한정되는 것이 아니며, 본 발명의 범위 내에서 여러 형태의 변형 및 수정 실시가 가능함은 물론이다.
예컨대, 전술한 실시예에서, 해쉬 생성부와 해쉬 검색부(41)는 필수적인 구성 요소는 아니므로 생략할 수도 있는데, 이들은 해쉬 테이블을 이용하여 보다 신속한 검색이 이루어지도록 하는 구성이기 때문이다. 이들이 생략되는 경우 특징 데이터를 적절히 비교할 수 있는 종래의 기술을 사용하거나 기타 데이터 검색에 사용되는 다른 대안적인 방법을 사용할 수 있을 것이다.
또한, 전술한 실시예에서, 도 4 내지 도 11을 참조하여 본 출원인에 의해 발명된 이미지/동영상 특징 데이터 생성 방법 및 비교 매칭 방법을 설명하였으나, 이러한 방법 이외에 기타 적절한 다른 방법을 사용할 수도 있음은 물론이다.
또한, 본 발명에 의한 동영상 관련 서비스 제공 시스템은 복수개의 웹 서버와 네트워크를 통해 연결되어 웹 서버 각각을 통해 제공되는 웹 페이지와 연동하도록 구성할 수도 있으나, 전술한 바와 같이 웹 서버 자체가 본 발명에 의한 동영상 관련 서비스 제공 시스템을 포함하도록 구성할 수도 있음은 전술한 바와 같다.
또한, 상기 실시예에 있어서, 네트워크는 인터넷과 이동 통신망을 결합일 수 있으며, 본 발명은 이러한 네트워크의 구성이나 구체적인 관계에는 종속되지 않음을 유의해야 한다. 예컨대, 웹 서버를 통한 웹 페이지에 의해 컴퓨터 등과 같은 클라이언트 단말기를 이용하는 경우, 이미지들은 물리적으로는 각각의 웹 서버에 포함되어 클라이언트 단말기로 제공될 수 있다. 또한, 전술한 바와 같이, 클라이언트 단말기로서 스마트폰을 이용하여, 스마트폰에 설치된 어플리케이션을 이용하는 환경인 경우에는, 해당 어플리케이션을 실행시켜서 이미지들이 포함되어 있는 특정한 서비스 서버에 스마트폰이 접속하게 되고(이는 이동통신망이나 인터넷을 통해 공지의 방법에 의해 이루어지게 된다), 해당 서비스 서버는 어플리케이션을 통해 스마트폰으로 이미지가 포함된 화면을 제공하게 되고(이러한 화면을 전술한 바와 같은 전자 문서라 할 수 있다), 스마트폰 사용자는 해당 화면에 제공되는 이미지를 선택하는 등의 방식에 의하여 해당 이미지와 관련된 동영상 관련 서비스가 이루어지게 될 것이다. 이러한 환경인 경우에도 해당 서비스 서버는 물리적으로 동영상 관련 서비스 제공 시스템(100)에 통합되어 구성될 수도 있고 별도로 구성되어 해당 서비스 서버와 동영상 관련 서비스 제공 시스템(100)이 네트워크를 통해 결합되도록 구성될 수도 있음은 물론이다.
또한, 상기 실시예에서 동영상 관련 서비스 제공 시스템(100)은 이미지 연동부(10)를 통해 이미지 관련 데이터를 획득하는 경우 크롤러나 스크립트 방식을 이용하는 것을 예로 들어서 설명하였으나 본 발명은 이러한 방식에 한정되지 않는다. 예컨대, 이미지 연동부(10)는 별도의 웹 서버나 동영상 관련 서비스 제공 시스템(100) 내부에 존재하는 이미지들에 대한 정보를 일괄적으로 입력받을 수도 있다. 이는 특정 서버의 주소 정보를 이용하여 해당 서버에 접속하여 이미지가 포함된 전자 문서만을 검색하도록 하는 방식이거나 사용자에 의해 수동으로 입력되는 방식일 수도 있다.
100...동영상 관련 서비스 제공 시스템,
10...이미지 연동부,
20...이미지 특징 데이터 생성부,
30...동영상 특징 데이터 생성부,
40...이미지/동영상 매칭부,
50...서비스 수행부,
200...이미지.

Claims (31)

  1. 이미지에 기반하여 동영상 관련 서비스를 제공하는 시스템에 있어서,
    이미지의 이미지 관련 데이터를 획득하고, 이미지에 대한 사용자 이벤트를 수신하는 이미지 연동부;
    상기 이미지 연동부에서 획득된 이미지 관련 데이터에 기초하여 이미지에 대한 이미지 특징 데이터를 생성하는 이미지 특징 데이터 생성부;
    동영상에 대한 동영상 특징 데이터를 생성하는 동영상 특징 데이터 생성부;
    상기 이미지 특징 데이터 생성부에서 생성된 이미지 특징 데이터와 상기 동영상 특징 데이터 생성부에서 생성된 동영상 특징 데이터에 기초하여 이미지에 대응되는 적어도 하나 이상의 동영상 또는 프레임을 결정하는 이미지/동영상 매칭부; 및
    상기 이미지 연동부에서 수신되는 이미지에 대한 사용자 이벤트에 따라 해당 이미지에 대응되는 것으로 결정된 동영상 또는 프레임과 관련된 동영상 관련 서비스를 수행하는 서비스 수행부
    를 포함하고,
    상기 이미지 연동부는, 이미지를 포함하는 전자 문서에 포함되어 있는 스크립트에 의하여 이미지 관련 데이터를 획득하고 사용자 이벤트를 수신하는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 시스템.
  2. 삭제
  3. 제1항에 있어서,
    상기 동영상 특징 데이터 생성부에서 생성되는 동영상 특징 데이터는 동영상을 구성하는 프레임들 중 적어도 어느 하나 이상에 대한 프레임별 이미지 특징 데이터와, 프레임 식별자 및 동영상 식별자를 포함하는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 시스템.
  4. 제3항에 있어서,
    상기 이미지/동영상 매칭부는, 상기 이미지 특징 데이터 생성부에서 생성된 이미지 특징 데이터와 동영상 특징 데이터 생성부에서 생성되는 동영상 각각에 대한 프레임별 이미지 특징 데이터로 구성되는 동영상 특징 데이터를 비교하여 이미지에 대응되는 동영상 또는 프레임을 결정하는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 시스템.
  5. 제4항에 있어서,
    상기 이미지/동영상 매칭부에 의해 결정된 동영상 또는 프레임에 대한 정보를 이미지에 대응하여 저장하는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 시스템.
  6. 제1항에 있어서,
    상기 서비스 수행부에서 제공되는 동영상 관련 서비스는, 해당 이미지에 대응되는 것으로 결정된 동영상의 해당 프레임부터 동영상이 재생되는 프레임 재생 서비스를 포함하는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 시스템.
  7. 제1항에 있어서,
    상기 서비스 수행부에서 제공되는 동영상 관련 서비스는, 해당 이미지에 대응되는 것으로 결정된 동영상 또는 프레임과 관련된 정보를 제공하는 동영상 정보 제공 서비스를 포함하는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 시스템.
  8. 제6항 또는 제7항에 있어서,
    상기 사용자 이벤트는 이미지가 포함된 전자 문서상에서 제공되는 선택 인터페이스에 대해서 이루어진 경우 상기 이미지 연동부를 통해 수신되는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 시스템.
  9. 이미지에 기반하여 동영상 관련 서비스를 제공하는 시스템에 있어서,
    이미지의 이미지 관련 데이터를 획득하고, 이미지에 대한 사용자 이벤트를 수신하는 이미지 연동부;
    상기 이미지 연동부에서 획득된 이미지 관련 데이터에 기초하여 이미지에 대한 이미지 특징 데이터를 생성하는 이미지 특징 데이터 생성부;
    동영상에 대한 동영상 특징 데이터를 생성하는 동영상 특징 데이터 생성부;
    상기 이미지 특징 데이터 생성부에서 생성된 이미지 특징 데이터와 상기 동영상 특징 데이터 생성부에서 생성된 동영상 특징 데이터에 기초하여 이미지에 대응되는 적어도 하나 이상의 동영상 또는 프레임을 결정하는 이미지/동영상 매칭부; 및
    상기 이미지 연동부에서 수신되는 이미지에 대한 사용자 이벤트에 따라 해당 이미지에 대응되는 것으로 결정된 동영상 또는 프레임과 관련된 동영상 관련 서비스를 수행하는 서비스 수행부
    를 포함하고,
    상기 서비스 수행부는, 사용자 이벤트가 발생한 경우 제공되는 동영상 관련 서비스를 사용자가 선택할 수 있도록 하는 사용자 인터페이스를 제공하고, 상기 사용자 인터페이스를 통한 사용자 요청 신호에 따라 해당하는 동영상 관련 서비스를 제공하는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 시스템.
  10. 이미지에 기반하여 동영상 관련 서비스를 제공하는 시스템에 있어서,
    이미지의 이미지 관련 데이터를 획득하고, 이미지에 대한 사용자 이벤트를 수신하는 이미지 연동부;
    상기 이미지 연동부에서 획득된 이미지 관련 데이터에 기초하여 이미지에 대한 이미지 특징 데이터를 생성하는 이미지 특징 데이터 생성부;
    동영상에 대한 동영상 특징 데이터를 생성하는 동영상 특징 데이터 생성부;
    상기 이미지 특징 데이터 생성부에서 생성된 이미지 특징 데이터와 상기 동영상 특징 데이터 생성부에서 생성된 동영상 특징 데이터에 기초하여 이미지에 대응되는 적어도 하나 이상의 동영상 또는 프레임을 결정하는 이미지/동영상 매칭부; 및
    상기 이미지 연동부에서 수신되는 이미지에 대한 사용자 이벤트에 따라 해당 이미지에 대응되는 것으로 결정된 동영상 또는 프레임과 관련된 동영상 관련 서비스를 수행하는 서비스 수행부
    를 포함하고,
    상기 이미지 특징 데이터 생성부는,
    이미지로부터 특징점을 결정하고 결정된 특징점의 특징점 정보를 추출하는 이미지 특징점 결정부;
    상기 특징점 결정부에서 결정된 특징점들 각각에 대한 방향 정보를 추정하는 이미지 특징점 방향 추정부; 및
    상기 이미지 특징점 결정부에서 결정된 특징점 각각에 대하여, 상기 특징점 정보와 상기 방향 정보에 기초하여 이진 특징 벡터를 생성하고, 상기 생성된 이진 특징 벡터를 포함하는 이미지의 특징 데이터를 구성하는 이미지 특징 데이터 구성부
    를 포함하고,
    상기 동영상 특징 데이터 생성부는,
    동영상 각각에 대하여, 동영상을 구성하는 프레임들을 일정 시간 간격으로 추출하고 추출된 프레임을 적어도 하나 이상의 이전 추출 프레임들과 차이를 계산하고, 차이가 임계치 이상인 경우에 선택된 해당 프레임을 선택하는 프레임 선택부;
    상기 프레임 선택부에서 선택된 프레임에 대한 특징점을 결정하고 결정된 특징점의 특징점 정보를 추출하는 프레임별 특징점 결정부;
    상기 프레임별 특징점 결정부에서 결정된 특징점들 각각에 대한 방향 정보를 추정하는 프레임별 특징점 방향 추정부; 및
    상기 프레임별 특징점 결정부에서 결정된 특징점 각각에 대하여, 상기 특징점 정보와 상기 방향 정보에 기초하여 이진 특징 벡터를 생성하고, 상기 생성된 이진 특징 벡터를 포함하는 프레임별 특징 데이터를 구성하는 프레임별 특징 데이터 구성부
    를 포함하는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 시스템.
  11. 제10항에 있어서,
    상기 이미지 특징 데이터 구성부와 프레임별 특징 데이터 구성부는,
    상기 이미지 특징점 결정부와 프레임별 특징점 결정부에서 결정된 특징점 각각에 대하여 특징점을 포함하는 주변 이미지 영역을 생성하고 상기 방향 정보에 기초하여 생성된 영역들을 동일 방향으로 정렬한 후, 정렬된 주변 이미지 영역들을 각각 부영역들로 분할하고, 분할된 부영역들의 밝기값의 평균값에 기초하여 이진 특징 벡터를 생성하는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 시스템.
  12. 제11항에 있어서,
    상기 이진 특징 벡터는, 상기 부영역들의 밝기값의 평균값의 차분 벡터와 차차분 벡터 중에서 선택된 적어도 어느 하나에 의해 생성되는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 시스템.
  13. 제12항에 있어서,
    상기 부영역들의 밝기값의 평균값의 차분 벡터와 차차분 벡터 중에서 적어도 어느 하나를 선택하는 것은 이진 특징 벡터의 각 비트에 대응하여 선택되는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 시스템.
  14. 제13항에 있어서,
    상기 각 비트에 대응하여 선택된 차분 벡터와 차차분 벡터들에 대해 선형 조합 또는 비선형 조합을 계산하고 그 결과값을 임계치와 비교함으로써 이진 특징 벡터의 해당 비트의 값을 결정하는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 시스템.
  15. 제14항에 있어서,
    상기 이진 특징 벡터의 각 비트값에 대해 미리 설정해둔 기준에 따라 정렬을 수행하는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 시스템.
  16. 제10항에 있어서,
    상기 동영상 특징 데이터 생성부는, 각각의 동영상에 대한 동영상의 식별자, 동영상의 프레임별 식별자, 프레임별 특징점 좌표, 특징점 방향 정보 및 이진 특징 벡터를 포함하는 동영상 특징 데이터를 생성하는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 시스템.
  17. 이미지에 기반하여 동영상 관련 서비스를 제공하는 시스템에 있어서,
    이미지의 이미지 관련 데이터를 획득하고, 이미지에 대한 사용자 이벤트를 수신하는 이미지 연동부;
    상기 이미지 연동부에서 획득된 이미지 관련 데이터에 기초하여 이미지에 대한 이미지 특징 데이터를 생성하는 이미지 특징 데이터 생성부;
    동영상에 대한 동영상 특징 데이터를 생성하는 동영상 특징 데이터 생성부;
    상기 이미지 특징 데이터 생성부에서 생성된 이미지 특징 데이터와 상기 동영상 특징 데이터 생성부에서 생성된 동영상 특징 데이터에 기초하여 이미지에 대응되는 적어도 하나 이상의 동영상 또는 프레임을 결정하는 이미지/동영상 매칭부; 및
    상기 이미지 연동부에서 수신되는 이미지에 대한 사용자 이벤트에 따라 해당 이미지에 대응되는 것으로 결정된 동영상 또는 프레임과 관련된 동영상 관련 서비스를 수행하는 서비스 수행부
    를 포함하고,
    상기 이미지/동영상 매칭부는,
    상기 이미지 특징 데이터와 동영상 특징 데이터의 프레임별 이미지 특징 데이터를 비교하여 매칭되는 동영상을 결정하고 상기 결정된 동영상을 구성하는 프레임중 적어도 하나 이상의 프레임을 결정하거나, 상기 이미지 특징 데이터와 동영상 특징 데이터의 프레임별 이미지 특징 데이터를 비교하여 매칭되는 적어도 하나 이상의 프레임을 결정하는 후보 선정부;
    이미지의 이미지 특징 데이터와 상기 후보 선정부에서 결정된 적어도 하나 이상의 프레임의 이미지 특징 데이터에 기초하여 이미지와 상기 결정된 프레임 사이에서 대응하는 특징점의 쌍을 결정하는 대응 특징점 결정부; 및
    상기 대응 특징점 결정부에서 결정된 특징점의 쌍들에 포함된 특징점의 특징점 방향 정보에 기초하여 이미지와 동영상 사이의 관계 분석 신뢰도를 추정하는 신뢰도 추정부
    를 포함하는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 시스템.
  18. 제17항에 있어서,
    상기 신뢰도 추정부는, 상기 각각의 특징점의 쌍에 포함된 특징점들의 방향 차이값의 추정치에 대한 확률 밀도 함수에 기초하여 이미지와 동영상 사이의 관계 분석 신뢰도를 추정하는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 시스템.
  19. 제18항에 있어서,
    상기 확률 밀도 함수에 의해 상기 추정치의 평균값과 분산값을 계산하고, 상기 평균값과 분산값에 따른 표준 정규 분포 함수에 의해 특징점의 쌍을 관측할 확률(p)을 계산하고, 상기 계산된 확률(p) 또는 계산된 확률(p)에 기초한 함수와 임계치를 비교함으로써 이미지와 동영상 사이의 관계 분석 신뢰도를 추정하는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 시스템.
  20. 제19항에 있어서,
    상기 특징점의 쌍을 관측할 확률(p)은,
    Figure 112011015284118-pat00013
    (여기서, n은 대응되는 특징점의 쌍의 갯수, G는 평균이 0이고 표준 편차가 1인 표준 정규 분포의 확률 함수,
    Figure 112011015284118-pat00014
    는 모든 특징점의 쌍의 방향 차이값의 평균값(
    Figure 112011015284118-pat00015
    ),
    Figure 112011015284118-pat00016
    는 모든 특징점의 쌍의 방향 차이값의 확률 밀도 함수에 의한 추정치)에 의해 계산되는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 시스템.
  21. 제17항에 있어서,
    상기 동영상 특징 데이터 생성부에 의해 생성되는 동영상 특징 데이터들에 대해 각 프레임별 특징 데이터에 포함된 이진 특징 벡터의 적어도 하나 이상의 비트를 해쉬 테이블의 인덱스로 사용하여 해쉬 테이블을 생성하는 해쉬 생성부를 더 포함하고,
    상기 관계 분석부는, 이미지 특징 데이터에 포함된 이진 특징 벡터의 적어도 하나 이상의 비트를 인덱스로 하여 상기 해쉬 생성부에 의해 생성된 해쉬 테이블을 검색하여 해당 인덱스에 속한 동영상 특징 데이터를 획득하는 해쉬 검색부를 더 포함하고,
    상기 후보 선정부는, 상기 이미지 특징 데이터와 상기 해쉬 검색부에 의해 획득된 동영상 특징 데이터들을 비교하여 가장 많이 매칭되는 동영상 특징 데이터에 해당하는 동영상을 결정하고 상기 결정된 동영상을 구성하는 프레임 중에서 상기 이미지 특징 데이터와 가장 많이 매칭되는 프레임 특징 데이터에 해당하는 프레임을 결정하거나, 상기 이미지 특징 데이터와 상기 해쉬 검색부에 의해 획득된 동영상 특징 데이터들을 비교하여 상기 이미지 특징 데이터와 가장 많이 매칭되는 프레임 특징 데이터에 해당하는 프레임을 결정하는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 시스템.
  22. 이미지에 기반하여 동영상 관련 서비스를 제공하는 시스템에 있어서,
    이미지의 이미지 관련 데이터를 획득하고, 이미지에 대한 사용자 이벤트를 수신하는 이미지 연동부;
    상기 이미지 연동부에서 획득된 이미지 관련 데이터에 기초하여 이미지에 대한 이미지 특징 데이터를 생성하는 이미지 특징 데이터 생성부;
    동영상에 대한 동영상 특징 데이터를 생성하는 동영상 특징 데이터 생성부;
    상기 이미지 특징 데이터 생성부에서 생성된 이미지 특징 데이터와 상기 동영상 특징 데이터 생성부에서 생성된 동영상 특징 데이터에 기초하여 이미지에 대응되는 적어도 하나 이상의 동영상 또는 프레임을 결정하는 이미지/동영상 매칭부;
    상기 이미지 연동부에서 수신되는 이미지에 대한 사용자 이벤트에 따라 해당 이미지에 대응되는 것으로 결정된 동영상 또는 프레임과 관련된 동영상 관련 서비스를 수행하는 서비스 수행부; 및
    사용자로부터 사용자 이벤트가 발생한 이미지와 상기 이미지에 대응되는 것으로 결정된 동영상 또는 프레임과 관련된 정보를 저장하고 통계 자료를 산출하는 정보/통계 관리부
    를 포함하는 이미지 기반 동영상 관련 서비스 제공 시스템.
  23. 제22항에 있어서,
    상기 정보/통계 관리부는, 동영상 재생 서비스와 관련된 정보를 더 저장하는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 시스템.
  24. 이미지에 기반하여 동영상 관련 서비스를 제공하는 방법에 있어서,
    이미지의 이미지 관련 데이터를 획득하는 제1 단계;
    상기 획득된 이미지 관련 데이터에 기초하여 이미지에 대한 이미지 특징 데이터를 생성하는 제2 단계;
    동영상에 대한 동영상 특징 데이터를 생성하는 제3 단계;
    상기 제2 단계에서 생성된 이미지 특징 데이터와 상기 제3 단계에서 생성된 동영상 특징 데이터에 기초하여 이미지에 대응되는 적어도 하나 이상의 동영상 또는 프레임을 결정하는 제4 단계;
    이미지에 대한 사용자 이벤트를 수신하는 제5 단계; 및
    상기 수신되는 이미지에 대한 사용자 이벤트에 따라 상기 제4 단계에서 해당 이미지에 대응되는 것으로 결정된 동영상 또는 프레임과 관련된 동영상 관련 서비스를 수행하는 제6 단계
    를 포함하고,
    상기 제1 단계와 상기 제5 단계는 이미지를 포함하는 전자 문서에 포함되어 있는 스크립트에 의하여 이루어지는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 방법.
  25. 제24항에 있어서,
    상기 제3 단계에서 생성되는 동영상 특징 데이터는 동영상을 구성하는 프레임들 중 적어도 어느 하나 이상에 대한 프레임별 이미지 특징 데이터와, 프레임 식별자 및 동영상 식별자를 포함하는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 방법.
  26. 제25항에 있어서,
    상기 제4 단계는, 상기 이미지 특징 데이터와 동영상 각각에 대한 프레임별 이미지 특징 데이터로 구성되는 동영상 특징 데이터를 비교하여 이미지에 대응되는 동영상 또는 프레임을 결정하는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 방법.
  27. 제26항에 있어서,
    상기 제4 단계에서 결정된 동영상 또는 프레임에 대한 정보를 이미지에 대응하여 저장하는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 방법.
  28. 제24항에 있어서,
    상기 제6 단계에서 제공되는 동영상 관련 서비스는, 해당 이미지에 대응되는 것으로 결정된 동영상의 해당 프레임부터 동영상이 재생되는 프레임 재생 서비스를 포함하는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 방법.
  29. 제24항에 있어서,
    상기 제6 단계에서 제공되는 동영상 관련 서비스는, 해당 이미지에 대응되는 것으로 결정된 동영상 또는 프레임과 관련된 정보를 제공하는 동영상 정보 제공 서비스를 포함하는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 방법.
  30. 제28항 또는 제29항에 있어서,
    상기 사용자 이벤트는 해당 이미지가 포함된 전자 문서상에서 제공되는 선택 인터페이스에 대해서 이루어진 경우에 수신되는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 방법.
  31. 이미지에 기반하여 동영상 관련 서비스를 제공하는 방법에 있어서,
    이미지의 이미지 관련 데이터를 획득하는 제1 단계;
    상기 획득된 이미지 관련 데이터에 기초하여 이미지에 대한 이미지 특징 데이터를 생성하는 제2 단계;
    동영상에 대한 동영상 특징 데이터를 생성하는 제3 단계;
    상기 제2 단계에서 생성된 이미지 특징 데이터와 상기 제3 단계에서 생성된 동영상 특징 데이터에 기초하여 이미지에 대응되는 적어도 하나 이상의 동영상 또는 프레임을 결정하는 제4 단계;
    이미지에 대한 사용자 이벤트를 수신하는 제5 단계; 및
    상기 수신되는 이미지에 대한 사용자 이벤트에 따라 상기 제4 단계에서 해당 이미지에 대응되는 것으로 결정된 동영상 또는 프레임과 관련된 동영상 관련 서비스를 수행하는 제6 단계
    를 포함하고,
    상기 제6 단계는, 사용자 이벤트가 발생한 경우 제공되는 동영상 관련 서비스를 사용자가 선택할 수 있도록 하는 사용자 인터페이스를 제공하고, 상기 사용자 인터페이스를 통한 사용자 요청 신호에 따라 해당하는 동영상 관련 서비스를 제공하는 것을 특징으로 하는 이미지 기반 동영상 관련 서비스 제공 방법.
KR1020110018803A 2011-03-03 2011-03-03 이미지에 기반한 동영상 관련 서비스 제공 시스템 및 방법 KR101189609B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020110018803A KR101189609B1 (ko) 2011-03-03 2011-03-03 이미지에 기반한 동영상 관련 서비스 제공 시스템 및 방법
PCT/KR2011/008614 WO2012118259A1 (ko) 2011-03-03 2011-11-11 이미지에 기반한 동영상 관련 서비스 제공 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110018803A KR101189609B1 (ko) 2011-03-03 2011-03-03 이미지에 기반한 동영상 관련 서비스 제공 시스템 및 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020120041725A Division KR101264733B1 (ko) 2012-04-20 2012-04-20 이미지에 기반한 동영상 관련 서비스 제공 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20120100124A KR20120100124A (ko) 2012-09-12
KR101189609B1 true KR101189609B1 (ko) 2012-10-10

Family

ID=46758159

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110018803A KR101189609B1 (ko) 2011-03-03 2011-03-03 이미지에 기반한 동영상 관련 서비스 제공 시스템 및 방법

Country Status (2)

Country Link
KR (1) KR101189609B1 (ko)
WO (1) WO2012118259A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020111426A1 (en) * 2018-11-30 2020-06-04 Samsung Electronics Co., Ltd. Method and system of presenting moving images or videos corresponding to still images
KR102515263B1 (ko) 2022-12-20 2023-03-29 주식회사 아티젠스페이스 휴대 단말 및 시스템
US11630657B2 (en) 2020-05-14 2023-04-18 Hyundai Motor Company Software updating system and method of controlling the same
KR102580250B1 (ko) 2022-12-20 2023-09-19 주식회사 아티젠스페이스 휴대 단말 및 시스템

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102008503B1 (ko) * 2017-11-06 2019-10-21 전자부품연구원 지능형 협업 서버, 시스템 및 이의 협업 기반 분석 방법
CN111369599B (zh) * 2018-12-25 2024-04-16 阿里巴巴集团控股有限公司 一种图像匹配方法、设备、装置及存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100471927B1 (ko) * 2001-10-08 2005-03-08 학교법인 한국정보통신학원 웹 기반 영상 데이터 검색 시스템 및 그 방법
KR100681247B1 (ko) * 2005-05-27 2007-02-09 햄펙스 주식회사 이미지 기반의 컨텐츠 제공 시스템 및 그 방법
KR20090096158A (ko) * 2008-03-07 2009-09-10 주식회사 코난테크놀로지 동영상 스틸컷 기반의 크로스미디어 검색 시스템 및 방법

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020111426A1 (en) * 2018-11-30 2020-06-04 Samsung Electronics Co., Ltd. Method and system of presenting moving images or videos corresponding to still images
US11343591B2 (en) 2018-11-30 2022-05-24 Samsung Electronics Co., Ltd. Method and system of presenting moving images or videos corresponding to still images
US11630657B2 (en) 2020-05-14 2023-04-18 Hyundai Motor Company Software updating system and method of controlling the same
KR102515263B1 (ko) 2022-12-20 2023-03-29 주식회사 아티젠스페이스 휴대 단말 및 시스템
KR102580250B1 (ko) 2022-12-20 2023-09-19 주식회사 아티젠스페이스 휴대 단말 및 시스템

Also Published As

Publication number Publication date
KR20120100124A (ko) 2012-09-12
WO2012118259A1 (ko) 2012-09-07

Similar Documents

Publication Publication Date Title
KR101165359B1 (ko) 이미지와 이미지 또는 이미지와 동영상 사이의 상호 관계 분석 장치 및 방법
US10867183B2 (en) Selecting and presenting representative frames for video previews
US10395120B2 (en) Method, apparatus, and system for identifying objects in video images and displaying information of same
KR101826815B1 (ko) 이미지-특징-기반 인식을 위한 시스템들 및 방법들
CN107431828B (zh) 用于识别相关媒体内容的方法和系统
KR101189609B1 (ko) 이미지에 기반한 동영상 관련 서비스 제공 시스템 및 방법
US9373040B2 (en) Image matching using motion manifolds
Chen et al. Building book inventories using smartphones
CN108124184A (zh) 一种直播互动的方法及装置
CN106028134A (zh) 针对移动计算设备检测体育视频精彩部分
CN104991906B (zh) 信息获取方法、服务器、终端及数据库构建方法、装置
CN103942337A (zh) 一种基于图像识别与匹配的视频搜索系统
TW201222288A (en) Image retrieving system and method and computer program product thereof
Simon et al. Scene segmentation using the wisdom of crowds
US10785509B2 (en) Heat ranking of media objects
Jin et al. Network video summarization based on key frame extraction via superpixel segmentation
US20160323627A1 (en) Method for annotating an object in a multimedia asset
EP3396596A1 (en) Heat ranking of media objects
KR101264733B1 (ko) 이미지에 기반한 동영상 관련 서비스 제공 시스템 및 방법
Yakut et al. Ice-hockey puck detection and tracking for video highlighting
CN110414471B (zh) 基于双模型的视频识别方法及系统
Chen et al. Aesthetic quality inference for online fashion shopping
US20200074218A1 (en) Information processing system, information processing apparatus, and non-transitory computer readable medium
Apostolidis et al. Video fragmentation and reverse search on the web
Xie et al. Video co-saliency detection

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151005

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160927

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170926

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180921

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190924

Year of fee payment: 8