KR101929220B1 - 얼굴인식 정보 제공 방법, 이를 이용하는 얼굴인식 서버 및 얼굴인식 시스템 - Google Patents

얼굴인식 정보 제공 방법, 이를 이용하는 얼굴인식 서버 및 얼굴인식 시스템 Download PDF

Info

Publication number
KR101929220B1
KR101929220B1 KR1020170000622A KR20170000622A KR101929220B1 KR 101929220 B1 KR101929220 B1 KR 101929220B1 KR 1020170000622 A KR1020170000622 A KR 1020170000622A KR 20170000622 A KR20170000622 A KR 20170000622A KR 101929220 B1 KR101929220 B1 KR 101929220B1
Authority
KR
South Korea
Prior art keywords
face
information
face recognition
image
recognition information
Prior art date
Application number
KR1020170000622A
Other languages
English (en)
Other versions
KR20180079894A (ko
Inventor
임동혁
서용석
김정현
박지현
유원영
서영호
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020170000622A priority Critical patent/KR101929220B1/ko
Publication of KR20180079894A publication Critical patent/KR20180079894A/ko
Application granted granted Critical
Publication of KR101929220B1 publication Critical patent/KR101929220B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06K9/00228
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F17/30247
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • G06K9/00711
    • G06K9/6201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content

Abstract

동영상 재생장치로부터 입력되는 이미지로부터 얼굴 이미지를 식별하고 얼굴인식 정보를 생성하는 얼굴인식정보 생성부, 동영상에 포함된 얼굴과 관련된 인물 정보 및 해당 얼굴이 동영상에 등장하는 시간 구간에 대한 정보를 포함하는 적어도 하나의 얼굴인식 정보를 저장하는 얼굴정보 데이터베이스, 및 얼굴정보 검색이 요청된 동영상에 대한 정보와 매칭되는 얼굴인식 정보를 상기 얼굴정보 데이터베이스로부터 검색하는 얼굴인식정보 검색부를 포함하는 얼굴인식 서버가 개시된다. 본 얼굴인식 서버에 따르면, 사전 얼굴인식수행 결과를 저장함으로써 트래킹을 통하여 얼굴 검출이 실패하는 프레임에 대해서도 얼굴관련 정보를 제공할 수 있다.

Description

얼굴인식 정보 제공 방법, 이를 이용하는 얼굴인식 서버 및 얼굴인식 시스템{SYSTEM AND METHOD FOR PROVIDING FACE RECOGNITION INFORMATION AND SERVER USING THE METHOD}
본 발명은 얼굴인식 정보 제공 방법, 이를 이용하는 얼굴인식 서버 및 얼굴인식 시스템에 관한 것으로, 더욱 상세하게는 동영상에 등장하는 얼굴을 인식하고 해당 얼굴에 대한 정보를 제공하는 얼굴인식 정보 제공 방법, 이를 이용하는 얼굴인식 서버 및 얼굴인식 시스템에 관한 것이다.
현재 얼굴 인식 기술은 사진을 대상으로 많이 활용되고 있다. 구글, 페이스북, 애플 등은 자신의 사진 서비스에 얼굴 인식을 통한 그룹핑, 자동 태그 추가 등의 서비스를 제공하고 있다. 통신, 방송 및 매체의 증가로 사용자가 접할 수 있는 비디오 컨텐츠의 수가 급증함에 따라, 사람들은 수없이 많은 비디오 컨텐츠 중에 본인이 관심있는 분야나 정보를 신속하게 얻고 싶어 한다. 비디오 컨텐츠 내에서 사람들에게 가장 의미있고 인기있는 정보 중의 하나는 '인물'이며, 많은 사람들이 TV를 보면서 또는 동영상을 재생하면서 현재 화면에 나오고 있는 인물에 대한 정보를 알고자 한다.
이와 같이, 동영상에 대해서도 얼굴 인식 서비스에 대한 요구가 증가하고 있으며, 현재까지도 보다 빠르고 정확한 방법론에 대한 연구가 계속되고 있다. 하지만, 아직까지는 동영상에서의 얼굴인식 서비스가 활성화되지는 못하고 있으며 그에 따라 효율적인 얼굴인식 정보를 제공할 수 있는 방법에 대한 필요성이 증가하고 있다.
상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 동영상에 대한 얼굴인식 정보를 생성하고 얼굴인식 정보를 검색하는 얼굴인식 서버를 제공하는 데 있다.
상기와 같은 문제점을 해결하기 위한 본 발명의 다른 목적은, 얼굴인식 서버 및 동영상 재생장치를 포함하는 얼굴인식 시스템을 제공하는 데 있다.
상기와 같은 문제점을 해결하기 위한 본 발명의 또 다른 목적은, 상기 얼굴인식 서버에서 이용 가능한 얼굴인식 방법을 제공하는 데 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 얼굴인식 서버는, 동영상 재생장치로부터 입력되는 이미지로부터 얼굴 이미지를 식별하고 얼굴인식 정보를 생성하는 얼굴인식정보 생성부, 동영상에 포함된 얼굴과 관련된 인물 정보 및 해당 얼굴이 동영상에 등장하는 시간 구간에 대한 정보를 포함하는 적어도 하나의 얼굴인식 정보를 저장하는 얼굴정보 데이터베이스 및 얼굴정보 검색이 요청된 동영상에 대한 정보와 매칭되는 얼굴인식 정보를 상기 얼굴정보 데이터베이스로부터 검색하는 얼굴인식정보 검색부를 포함할 수 있다.
상기 얼굴인식정보 생성부는, 입력된 얼굴 이미지에 대해 특징점을 기반으로 한 변환을 통해 정렬된 얼굴 이미지를 생성하는 얼굴 정렬부 및 상기 얼굴 정렬부로부터 입력된 정렬된 얼굴 이미지로부터 얼굴을 식별하고 얼굴 식별 결과를 출력하는 얼굴 식별부를 포함할 수 있다.
상기 얼굴인식 서버는, 동영상 재생장치로부터 수신한 얼굴 이미지를 디코딩하여 상기 얼굴인식정보 생성부 및 얼굴인식정보 검색부로 제공하고, 얼굴인식 정보를 상기 동영상 재생장치로 전송하는, 서버 송수신부를 더 포함할 수 있다.
상기 얼굴인식정보 생성부는, 입력되는 동영상에서 얼굴을 인식하여 해당 얼굴의 얼굴인식 시작시간을 추출하며, 상기 추출된 얼굴인식 시작시간과 동영상 식별자를 상기 얼굴인식 정보에 추가하여 상기 얼굴정보 데이터베이스에 저장할 수 있다.
상기 얼굴인식정보 생성부는 또한, 입력되는 동영상 식별자(ID)에 대응하는 얼굴인식 정보를 검색하여 해당 얼굴을 트래킹하고 해당 얼굴의 얼굴인식 종료시간을 추출하며, 상기 추출된 얼굴인식 종료시간을 상기 얼굴인식 정보에 추가하여 상기 얼굴정보 데이터베이스에 저장할 수 있다.
상기 얼굴정보 검색이 요청된 동영상에 대한 정보는, 해당 동영상의 식별자(ID) 및 현재 프레임 번호를 포함할 수 있다.
상기 얼굴인식정보 검색부는, 현재 프레임 번호가 얼굴인식 동작 구간에 속하는지에 따라 동작이 구분되는 인트라 모드 또는 엑스트라 모드에 따라 얼굴인식정보 검색을 수행할 수 있다.
상기 얼굴인식정보 검색부는, 인트라 모드에서 동작하는 경우, 현재 프레임 번호가 얼굴인식 동작 구간 내에 위치할 때 얼굴인식 정보를 제공할 수 있다.
상기 얼굴인식정보 검색부는, 엑스트라 모드에서 동작하는 경우, 현재 프레임 번호가 얼굴인식 동작 구간 내에 위치할 때, 그리고 현재 프레임 번호가 얼굴인식 동작 구간을 벗어나더라도 현재 프레임 번호로부터 최근거리에 위치하는 얼굴인식 동작 구간까지의 거리가 기준치 이하일 때, 얼굴인식 정보를 제공할 수 있다.
상기 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 얼굴인식 시스템은, 입력된 동영상을 디코딩하여 획득한 프레임 이미지에서 얼굴 이미지를 검출하고, 얼굴 이미지를 인코딩하여 얼굴인식 서버로 전송하는 동영상 재생장치 및 상기 동영상 재생장치로부터 입력되는 이미지로부터 얼굴 이미지를 식별하고 얼굴인식 정보를 생성하고, 얼굴정보 검색이 요청된 동영상에 대한 정보와 매칭되는 얼굴인식 정보를 얼굴정보 데이터베이스로부터 검색하여 상기 동영상 재생장치로 제공하는 얼굴인식 서버를 포함할 수 있다.
상기 얼굴인식 정보는, 동영상에 포함된 얼굴과 관련된 인물 정보 및 해당 얼굴이 동영상에 등장하는 시간 구간에 대한 정보를 포함할 수 있다.
상기 얼굴인식 서버는, 동영상 재생장치로부터 입력되는 이미지로부터 얼굴 이미지를 식별하고 얼굴인식 정보를 생성하는 얼굴인식정보 생성부, 동영상에 포함된 얼굴과 관련된 인물 정보 및 해당 얼굴이 동영상에 등장하는 시간 구간에 대한 정보를 포함하는 적어도 하나의 얼굴인식 정보를 저장하는 얼굴정보 데이터베이스, 및 얼굴정보 검색이 요청된 동영상에 대한 정보와 매칭되는 얼굴인식 정보를 상기 얼굴정보 데이터베이스로부터 검색하는 얼굴인식정보 검색부를 포함할 수 있다.
상기 얼굴인식정보 검색부는, 현재 프레임 번호가 얼굴인식 동작 구간에 속하는지에 따라 동작이 구분되는 인트라 모드 또는 엑스트라 모드에 따라 얼굴인식정보 검색을 수행하며, 인트라 모드에서 동작하는 경우, 현재 프레임 번호가 얼굴인식 동작 구간 내에 위치할 때 얼굴인식 정보를 제공하고, 엑스트라 모드에서 동작하는 경우, 현재 프레임 번호가 얼굴인식 동작 구간 내에 위치할 때, 그리고 현재 프레임 번호가 얼굴인식 동작 구간을 벗어나더라도 현재 프레임 번호로부터 최근거리에 위치하는 얼굴인식 동작 구간까지의 거리가 기준치 이하일 때, 얼굴인식 정보를 제공할 수 있다.
상기 목적을 달성하기 위한 본 발명의 또 다른 실시예에 따른 얼굴인식 방법은 얼굴인식 서버에 의해 수행되는 얼굴인식 방법으로서, 동영상 재생장치로부터 입력되는 이미지로부터 얼굴 이미지를 식별하고 얼굴인식 정보를 생성하는 단계 및 얼굴정보 검색이 요청된 동영상에 대한 정보와 매칭되는 얼굴인식 정보를 얼굴정보 데이터베이스로부터 검색하는 단계를 포함하고, 상기 얼굴인식 정보는, 동영상에 포함된 얼굴과 관련된 인물 정보 및 해당 얼굴이 동영상에 등장하는 시간 구간에 대한 정보를 포함할 수 있다.
상기 얼굴인식 정보를 생성하는 단계는, 입력된 얼굴 이미지에 대해 특징점을 기반으로 한 변환을 통해 정렬된 얼굴 이미지를 생성하는 단계 및 상기 얼굴 정렬부로부터 입력된 정렬된 얼굴 이미지로부터 얼굴을 식별하고 얼굴 식별 결과를 출력하는 단계를 포함할 수 있다.
상기 얼굴인식 정보를 생성하는 단계는, 입력되는 동영상 식별자(ID)에 대응하는 얼굴인식 정보를 검색하여 해당 얼굴을 트래킹하는 단계, 해당 얼굴의 얼굴인식 종료시간을 추출하는 단계, 및 상기 추출된 얼굴인식 종료시간을 상기 얼굴인식 정보에 추가하여 상기 얼굴정보 데이터베이스에 저장하는 단계를 더 포함할 수 있다.
상기 얼굴정보 검색이 요청된 동영상에 대한 정보는, 해당 동영상의 식별자(ID) 및 현재 프레임 번호를 포함할 수 있다.
상기 얼굴인식 정보를 얼굴정보 데이터베이스로부터 검색하는 단계는, 현재 프레임 번호가 얼굴인식 동작 구간에 속하는지에 따라 동작이 구분되는 인트라 모드 또는 엑스트라 모드에 따라 얼굴인식정보 검색을 수행하는 단계를 포함할 수 있다.
여기서, 상기 얼굴인식 정보를 얼굴정보 데이터베이스로부터 검색하는 단계는, 인트라 모드에서 동작하는 경우, 현재 프레임 번호가 얼굴인식 동작 구간 내에 위치할 때 얼굴인식 정보를 제공하는 단계를 포함할 수 있다.
상기 얼굴인식 정보를 얼굴정보 데이터베이스로부터 검색하는 단계는 또한, 엑스트라 모드에서 동작하는 경우, 현재 프레임 번호가 얼굴인식 동작 구간 내에 위치할 때, 그리고 현재 프레임 번호가 얼굴인식 동작 구간을 벗어나더라도 현재 프레임 번호로부터 최근거리에 위치하는 얼굴인식 동작 구간까지의 거리가 기준치 이하일 때, 얼굴인식 정보를 제공하는 단계를 포함할 수 있다.
상기 얼굴인식 방법은, 상기 검색된 얼굴인식 정보를 동영상 재생장치로 전송하는 단계를 더 포함할 수 있다.
상기와 같은 본 발명의 실시예들에 따라 사전 얼굴 인식을 수행하고 그 결과를 이용하는 본 발명에 따른 방법을 활용하면, 서버의 부담을 줄일 수 있을 뿐 아니라 트래킹을 통하여 얼굴 검출이 실패하는 프레임에서도 얼굴에 대한 정보를 제공할 수 있는 가능성이 커진다.
또한, 본 발명에서 제공하는 엑스트라 모드에 따른 얼굴인식 정보 검색의 경우 검색이 실패할 확률을 줄일 수 있는 장점이 있다.
도 1은 본 발명의 일 실시예에 따른 얼굴 인식 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 동영상 재생 장치의 블록 구성도이다.
도 3은 본 발명의 일 실시예에 따른 얼굴인식정보 생성부의 세부블록 구성도이다.
도 4는 본 발명의 일 실시예에 따른 실시간 얼굴인식 방법의 동작 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 얼굴인식정보 생성 방법의 동작 순서도이다.
도 6은 본 발명의 다른 실시예에 따른 얼굴인식정보 생성 방법의 동작 순서도이다.
도 7은 본 발명의 일 실시예에 따른 얼굴인식정보 검색 방법의 동작 순서도이다.
도 8은 본 발명의 일 실시예에 따른 얼굴인식정보 검색 방법의 동작 메커니즘을 설명하는 도면이다.
도 9는 본 발명의 일 실시예에 따른 얼굴인식정보 검색 방법의 동작 순서도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는 데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. "및/또는"이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 얼굴 인식 시스템의 구성도이다.
도 1에 도시된 바와 같이 본 발명의 일 실시예에 따른 얼굴 인식 시스템은 크게 얼굴인식 서버(100) 및 동영상 재생장치(또는 동영상 플레이어)(200)를 포함할 수 있다.
얼굴인식 서버(100)는 동영상 재생장치(200)로부터 수신한 얼굴 이미지에 매칭되는 얼굴인식 정보를 검색하여 동영상 재생장치로 전송한다.
이를 위해 얼굴인식 서버(100)는, 동영상 재생장치로부터 입력되는 이미지로부터 얼굴 이미지를 식별하고 얼굴인식 정보를 생성하는 얼굴인식정보 생성부, 동영상에 포함된 얼굴과 관련된 인물 정보 및 해당 얼굴이 동영상에 등장하는 시간 구간에 대한 정보를 포함하는 적어도 하나의 얼굴인식 정보를 저장하는 얼굴정보 데이터베이스 및 얼굴정보 검색이 요청된 동영상 정보와 매칭되는 얼굴인식 정보를 상기 얼굴정보 데이터베이스로부터 검색하는 얼굴인식정보 검색부를 포함할 수 있다.
얼굴인식 서버(100)는 크게 동영상 재생장치와 통신하는 서버 송수신부(110), 입력된 이미지에 대해 실시간으로 얼굴을 인식하고 얼굴 인식수행 결과를 데이터베이스에 저장하는 얼굴인식정보 생성부(120), 사전에 수행된 얼굴인식 결과를 검색하는 얼굴인식정보 검색부(130), 및 얼굴인식 정보를 저장하는 얼굴정보 데이터베이스(140)를 포함하여 구성될 수 있다.
여기서, 얼굴인식 정보는 동영상에 등장하는 얼굴과 관련한 인물 정보 및 해당 인물이 해당 동영상에서 등장하는 시간 구간 등에 대한 정보를 포함할 수 있다.
한편, 도 1에서 얼굴인식정보 생성부(120) 및 얼굴인식정보 검색부(130)는 별도의 구성요소로 표현되어 있으나 두 구성요소의 기능을 통합하고 각 요소의 기능을 제어하는 통합된 구성요소의 형태, 예를 들어, 얼굴인식 프로세서(300)의 형태로 통합될 수도 있다.
서버 송수신부(110)는 동영상 재생장치로부터 수신한 얼굴 이미지를 디코딩하여 얼굴인식정보 생성부 및 얼굴인식정보 검색부로 제공하고, 검색된 얼굴인식 정보를 동영상 재생장치로 전송할 수 있다.
얼굴인식정보 생성부(120)는, 입력되는 동영상에서 얼굴을 인식하여 해당 얼굴의 얼굴인식 시작시간을 추출하며, 상기 추출된 얼굴인식 시작시간과 동영상 식별자를 상기 얼굴인식 정보에 추가하여 상기 얼굴정보 데이터베이스에 저장할 수 있다.
얼굴인식정보 생성부(120)는 또한, 입력되는 동영상 식별자(ID)에 대응하는 얼굴인식 정보를 검색하여 해당 얼굴을 트래킹하고 해당 얼굴의 얼굴인식 종료시간을 추출하며, 추출된 얼굴인식 종료시간을 상기 얼굴인식 정보에 추가하여 얼굴정보 데이터베이스에 저장한다.
또한, 얼굴인식정보 검색부(130)는, 현재 프레임 번호가 얼굴 트래킹 구간에 속하는지에 따라 동작이 구분되는 인트라 모드 또는 엑스트라 모드에 따라 얼굴인식정보 검색을 수행한다.
얼굴인식정보 검색부(130)가 인트라 모드에서 동작하는 경우에는, 현재 프레임 번호가 얼굴인식 동작 구간 내에 위치할 때 얼굴인식 정보를 제공한다. 반면, 엑스트라 모드에서 동작하는 경우에는, 현재 프레임 번호가 얼굴인식 동작 구간 내에 위치할 때, 그리고 현재 프레임 번호가 얼굴인식 동작 구간을 벗어나더라도 현재 프레임 번호로부터 최근거리에 위치하는 얼굴인식 동작 구간까지의 거리가 기준치 이하일 때, 얼굴인식 정보를 제공한다.
도 2는 본 발명의 일 실시예에 따른 동영상 재생 장치의 블록 구성도이다.
도 2에 도시된 바와 같이 본 발명의 다른 실시예에 따른 동영상 재생 장치는, 입력된 동영상을 디코딩하여 프레임을 출력하는 동영상 디코더(201), 프레임 이미지에서 얼굴을 검출하는 얼굴 검출부(203), 서버와 통신하는 단말 송수신부(204), 및 프레임 이미지를 화면에 출력하는 화면 출력부(202)를 포함할 수 있다.
또한, 단말 송수신부(204)는 얼굴 검출부(203)로부터 출력되는 얼굴 이미지를 베이스 64로 인코딩하고, 베이스 64로 인코딩된 얼굴 이미지를 얼굴인식 서버(100)로 전송한다.
여기서, 베이스 64(base64)는 2진 데이터를 아스키 텍스트로 변환하거나 그 반대로 변환하는 인코딩 방법으로, 전자우편에 관한 규격인 MIME(Multipurpose Internet Mail Extensions)에 의해 사용되는 방법으로, 4개의 7비트 아스키 문자로 표현되도록 데이터를 3바이트씩 4개의 6비트 단위로 나누어 표현한다. 메일에서 이미지, 오디오 파일을 보낼 때 이용하는 코딩으로 모든 플랫폼에서 안보이거나 깨지는 일이 생기지 않도록 공통으로 64개 아스키 코드를 이용하여 2진 데이터를 변환하기 위해 베이스 64를 이용한다. 따라서 베이스 64로 인코딩하면 크기가 33% 커진다.
본 발명의 일 실시예에 따른 동영상 재생 장치는 전체 프레임 이미지로부터 얼굴 이미지를 검출하고 베이스 64와 같은 인코딩 기법을 사용하여 얼굴 이미지를 인코딩하는 방식으로 전송되는 데이터의 양을 감소시켜 얼굴인식 서버(100)로 전송함으로써, 시스템 효율성을 증가시킨다.
도 3은 본 발명의 일 실시예에 따른 얼굴인식정보 생성부의 세부블록 구성도이다.
도 3에 도시된 블록들은 본 발명에 따른 얼굴인식정보 생성부(120)가 포함할 수 있는 세부블록들 중 실시간 얼굴인식 기능과 관련된 대표적인 2개의 블록들로, 얼굴인식정보 생성부(120)가 포함 가능한 세부블록들이 도 3에 도시된 블록들로 제한되는 것은 아니다.
먼저, 얼굴 정렬부(121)는 얼굴 이미지를 입력으로 받아들여 얼굴 이미지의 특징점을 기반으로 2차원 변환 또는 3차원 변환 과정을 거쳐 정렬된 얼굴 이미지를 생성한다. 얼굴 식별부(122)는 기계학습 기법을 이용하여 얼굴 식별 결과를 출력한다.
도 3에 도시된 얼굴인식정보 생성부에 따르면 얼굴을 식별하기 전에 얼굴 이미지의 정렬을 수행함으로써 실시간 얼굴 식별 성공률을 높일 수 있다.
도 4는 본 발명의 일 실시예에 따른 실시간 얼굴 인식 방법의 동작 흐름도이다.
도 4는 본 발명에 따른 얼굴인식 시스템에 의해 수행되는 전체적인 실시간 얼굴 인식 과정의 일 예를 나타낸 도면이다.
우선, 동영상 재생장치(동영상 플레이어)(200)에 동영상이 입력되면, 동영상 재생장치(200)는 입력된 동영상을 디코딩하여 프레임 이미지를 생성한다(S410). 프레임 이미지가 생성되면 동영상 재생장치(200)는 생성된 프레임 이미지에서 얼굴 부분 이미지를 검출한다(S420).
검출된 얼굴 이미지에 대해서는 인코딩이 수행되는데(S430), 여기서 수행되는 인코딩은 예를 들어, 베이스 64(base64)를 이용한 인코딩일 수 있다.
동영상 재생장치(200)는 베이스 64로 인코딩된 얼굴 이미지를 얼굴인식 서버(100)로 전송한다(S440).
도 4에 도시된 본 발명의 일 실시예와 같이, 프레임 이미지에서 얼굴 이미지만 검출하여 보내는 방식은 프레임 이미지 전체를 보내는 방식에 비해서 빠르게 동작하며 전송해야 할 데이터량이 적다는 장점이 있다.
얼굴 인식 서버(100)로 전송된 얼굴 이미지는 서버 송수신부(112)에서 base64 디코딩되고(S450), 디코딩된 얼굴 이미지로부터 정렬된 얼굴 이미지가 생성된다(S460). 이후 정렬된 얼굴 이미지로부터 얼굴을 식별하고(S470), 서버 송수신부를 통해 얼굴 식별 결과를 동영상 재생장치(200)로 전송한다(S480). 동영상 재생장치(200)는 단말 송수신부를 통해 얼굴 식별 결과를 수신한다.
도 5는 본 발명의 일 실시예에 따른 얼굴인식정보 생성 방법의 동작 순서도이다.
도 5에 도시된 얼굴인식정보 생성 방법은 도 1에 도시된 얼굴인식정보 생성부(120)에 의해 수행될 수 있으나, 동작 주체가 이에 한정되는 것은 아니다.
본 발명에 따른 얼굴인식정보 생성 방법은 우선, 동영상을 수신하여(S510), 수신한 동영상을 디코딩한다(S520). 디코딩된 동영상에서 얼굴 이미지를 검출하고(S530), 검출된 얼굴이미지를 정렬하여(S540) 얼굴 이미지의 식별을 좀더 용이하도록 한다. 정렬된 얼굴 이미지로부터 얼굴을 식별하며(S550), 얼굴인식 결과를 저장한다(S560).
동영상이 입력되면(S510), 동영상 디코딩 절차를 거쳐(S520) 프레임 이미지가 출력되고 출력된 이미지 내에서 얼굴 부분을 검출한다(S530). 이 때의 얼굴 검출 동작은 도 2에 도시된 단말의 얼굴 검출부(203)에 의해 이루어지는 동작과 동일 또는 유사한 검출 동작일 수 있다. 이후 검출된 얼굴 이미지를 정렬하고(S540), 얼굴 식별부(302)는 얼굴 인식 결과를 출력한다(S550). 출력된 얼굴 인식 결과는 얼굴정보 데이터베이스에 저장된다(S560).
도 5를 통해 살펴본 바와 같은 순서를 거쳐 얼굴 인식을 수행한 결과가 얼굴정보 데이터베이스에 저장된다.
도 6은 본 발명의 다른 실시예에 따른 얼굴인식정보 생성 방법의 동작 순서도이다.
도 6에 도시된 얼굴인식정보 생성 방법은 도 1에 도시된 얼굴인식정보 생성부 (120)에 의해 수행될 수 있으나, 그 동작 주체가 이에 한정되는 것은 아니다.
도 6에 도시된 얼굴인식정보 생성 방법의 동작 주체가 될 수 있는 얼굴인식정보 생성부(120)는 동영상에 대하여 사전 얼굴 인식 결과를 기반으로 얼굴 트래킹을 수행한다.
우선, 트래킹 정보를 추가할 동영상 ID가 입력되면(S610), 얼굴정보 데이터베이스로부터 해당 동영상 ID에 대한 얼굴인식정보를 검색한다(S620). 다시 말해 해당 동영상 ID에 매칭되는 얼굴인식정보를 얼굴정보 데이터베이스에서 검색하며, 이는 사전에 얼굴정보 데이터베이스에 얼굴인식정보가 저장되어 있음을 의미할 수 있다. 여기서, 얼굴인식정보는 인식된 얼굴이 동영상 내에서 등장하는 시작 시간과 프레임 내 좌표를 포함한다.
한편, 얼굴인식 시작시간은 입력되는 동영상으로부터 추출될 수도 있으며, 이 경우 얼굴인식정보 생성 방법은, 도 6에 도시하지는 않았으나, 입력되는 동영상에서 얼굴을 인식하여 해당 얼굴의 얼굴인식 시작시간을 추출하고, 추출된 얼굴인식 시작시간과 동영상 식별자를 얼굴인식 정보에 추가하여 얼굴정보 데이터베이스에 저장하는 단계를 포함할 수 있다.
동영상 ID에 대응하는 얼굴인식정보를 획득하면, 획득한 얼굴인식 정보를 이용하여 해당 얼굴에 대한 트래킹을 수행한다(S630). 이때 트래킹은, 해당 얼굴인식 정보(프레임 시간 정보와 얼굴 부분 좌표)를 시작 시점으로 하여 수행되고 해당 얼굴이 동영상 내에서 사라졌다고 판단되면 트래킹은 종료된다.
얼굴 트래킹이 종료되면 얼굴인식 종료시간을 추출하고(S640), 추출된 얼굴인식 종료시간에 대한 정보를 얼굴인식 데이터베이스에 추가하여 저장한다(S650).
도 7은 본 발명의 일 실시예에 따른 얼굴인식정보 검색 방법의 동작 순서도이다.
도 7에 도시된 얼굴인식정보 검색 방법은 도 1에 도시된 동영상 재생장치(200) 및 얼굴인식 서버(100) 각각, 그리고 이들 상호간에 이루어지는 동작에 의해 수행될 수 있다.
우선, 동영상 재생장치(200)에 동영상이 입력되면, 입력된 동영상을 디코딩하고(S710), 디코딩된 동영상 데이터로부터 얼굴인식정보인 동영상 ID와 시간 관련 정보(또는 현재 프레임 번호)를 추출한다(S720). 해당 얼굴인식정보는 동영상 재생장치의 단말 송수신부를 거쳐 얼굴인식 서버(100)로 전송된다(S720). 서버 송수신부를 통해 동영상 ID및 시간 관련 정보를 수신한 얼굴인식 서버(100)는 얼굴정보 데이터베이스를 검색하여 해당 동영상 ID및 시간 관련 정보에 매칭되는 인물정보가 데이터베이스에 존재하는지 확인한다(S740).
현재 프레임 번호 또는 시간 정보에 해당하는 출연자 정보가 있는지 확인되면, 인물(예를 들어, 출연자)에 대한 정보를 서버 송수신부를 통해 동영상 재생장치(200)로 전송하고(S750), 동영상 재생장치(200)는 단말 송수신부를 통해 얼굴인식 서버(100)로부터 식별 결과, 즉, 관련 얼굴정보를 수신한다.
도 8은 본 발명의 일 실시예에 따른 얼굴인식정보 검색 방법의 동작 메커니즘을 설명하는 도면이다.
도 8은 본 발명의 일 실시예에 따른 얼굴인식정보 검색 방법의 2가지 동작 메커니즘을 설명하기 위한 도면으로, 본 발명에 따른 얼굴인식정보 검색 방법은 인트라(intra) 모드와 엑스트라(Extra) 모드의 2가지 동작 모드에 따라 동작 가능하다.
도 8에서 수평축은 시간을 나타내며, 시간 축상에서 개시 시간(start_time)은 얼굴 인식 시작 시간, 종료 시간(end_time)은 얼굴 인식 종료 시간을 의미하며, 개시시간으로부터 종료 시간까지의 구간은 얼굴인식 동작 구간(또는 트래킹 구간)을 구성한다.
본 발명에 따른 얼굴인식정보 검색을 위한 2가지 동작 모드 중 인트라 모드에서는 동영상의 현재 재생 시간이 얼굴인식 동작 구간 내에 존재할 때에만 해당 얼굴인식 정보를 제공한다.
예를 들면, 도 8에 도시된 바와 같이 현재 프레임 번호가 current_time1에 해당한다면, current_time1이 start_timei 와 end_timei 사이에 위치하기 때문에 해당 프레임에 존재하는 얼굴 정보를 제공한다. 한편, 현재 프레임 번호가 current_time2에 해당한다면, current_time2가 얼굴인식 동작 구간을 벗어나 위치하므로, 사용자에게 아무런 정보도 제공하지 않는다.
한편, 엑스트라 모드에서는 동영상의 현재 재생 시간(또는 프레임)이 얼굴인식 시작시간과 얼굴인식 종료시간 사이에 있을 때에는 인트라 모드와 동일하게 동작한다. 하지만, 현재 재생 시간이 얼굴인식 동작 구간(즉, 얼굴인식 시작시간과 얼굴인식 종료시간 사이)에 속하지 않는 경우, 가장 가까운 얼굴인식 동작 구간을 찾고 해당 구간과의 거리가 사전에 정의한 값 이하이면 해당 위치에서의 얼굴인식 정보를 제공한다.
예를 들면, 엑스트라 모드에서 현재 프레임 번호가 current_time1에 해당하고 current_time1이 start_timei와 end_timei 사이에 위치한다면, 인트라 모드에서의 동작과 동일하게 해당 위치에서의 얼굴인식 정보를 제공한다.
반면, 현재 프레임 번호가 current_time2 에 해당한다면 current_time2 는 얼굴 트래킹 구간에 속하지 않으므로, 현재 프레임 번호에서 가장 가까운 이전 얼굴 트래킹 구간의 종료 프레임 번호까지의 거리(d1)와 현재 프레임 번호에서 가장 가까운 이후 얼굴 트래킹 구간의 시작 프레임 번호까지의 거리(d2) 중 더 가까운 얼굴 트래킹 구간에서의 얼굴인식 정보를 제공한다. 얼굴인식 정보 제공을 위한 추가 조건으로, 가장 가까운 거리 값이 사전에 정의한 값 이하인 경우에만 얼굴인식 정보를 제공한다. 여기서, 거리 값이 사전에 정의한 값을 초과하면 얼굴 정보를 제공하지 않는다.
도 8에 도시된 바와 같이 사전에 수행된 얼굴인식 결과를 이용하면 얼굴 검출이 실패하는 프레임에서도 트래킹을 통하여 얼굴에 대한 정보를 제공할 수 있는 가능성이 커진다. 특히, 엑스트라 모드의 경우 인트라 모드보다 검색이 실패하는 구간을 줄일 수 있는 장점이 있다.
도 9는 본 발명의 일 실시예에 따른 얼굴인식정보 검색 방법의 동작 순서도이다.
도 9 에 도시된 얼굴인식정보 검색 방법은 도 1에 도시된 얼굴인식정보 검색부(130)에 의해 수행될 수 있으나, 동작 주체가 이에 한정되는 것은 아니다.
본 발명의 일 실시예에 따른 얼굴인식정보 검색 방법에 따르면, 얼굴인식정보 검색 요청을 수신하는 경우 먼저 현재 프레임 번호가 얼굴 트래킹 구간 내인지 체크한다(S910). 여기서, 현재 프레임 번호는 동영상이 재생되고 있는 현재 시각과 연관된 값이다. 또한, 얼굴 트래킹 구간은 도 8을 통해 살펴본 바와 같이 해당 동영상에 인물이 등장하는 구간으로서 얼굴 트래킹이 필요한 구간, 즉, 얼굴인식 시작시간과 얼굴인식 종료시간 사이를 의미한다.
현재 프레임 번호가 얼굴 트래킹 구간 내라면, 얼굴정보 데이터베이스가 저장하는 관련 정보를 이용해 트래킹 구간 내에 등장하는 인물에 대한 얼굴인식 정보를 제공한다(S990).
만일 현재 프레임 번호가 얼굴 트래킹 구간 내에 존재하지 않는 경우에는 본 발명에서 제공하는 2가지 모드 중 어느 모드에서 동작하는지 체크한다(S920). 인트라 모드인 경우에는 트래킹 구간 내에서만 얼굴인식 정보를 제공하므로, 트래킹 구간 내가 아니라면 현재 재생 중인 동영상 부분과 관련한 얼굴인식 정보가 없음을 출력한다(S950).
반면, 엑스트라 모드인 경우에는 트래킹 구간 내가 아니라도 일정 조건을 만족하므로 추가 절차를 진행한다. 즉, 현재 프레임 번호에서 시간적으로 선/후에 위치하는 얼굴 트래킹 구간을 검색하고 검색된 얼굴 트래킹 구간까지의 거리를 계산한다(S930). 여기서, 트래킹 구간은 복수일 수 있으며, 따라서, 트래킹 구간까지의 거리 정보 또한 복수 개 존재할 수 있다. 여기서, 사용되는 용어 "거리"는 시간 상에서의 서로 떨어진 정도를 의미하는 것으로 "거리"라는 용어가 사용되기는 하였으니 거리 값은 시간 값으로 표현될 수 있다.
적어도 하나의 거리값들이 계산되면, 계산된 거리값 들 중 최소 거리를 선택하고, 최소 거리가 기 설정된 임계치 이하인지 체크한다(S940). 여기서, 임계치는 현재 시점에서는 동영상에 인물이 포함되어 있지 않지만 인물이 포함된 현재 시점과 가강 가까운 동영상 구간이 현재 시점과 멀지 않아 사용자가 해당 인물의 영상을 기억하고 요청하는 경우를 고려해 사전에 적절한 값으로 설정될 수 있다.
최소거리 값이 임계치 이하인 경우에는 검색된 얼굴인식 정보를 제공하고(S990), 최소거리 값이 임계치를 초과하는 경우에는 관련 얼굴인식 정보가 없음을 출력한다(S950).
이상 실시예들을 통해 살펴본 바와 같이 본 발명에 따르면, 동영상 플레이어가 재생하고 있는 동영상에 출연하고 있는 인물 또는 배우에 대한 정보를 신속하게 제공할 수 있다.
또한, 앞서 실시예들을 통해 본 발명에서는 실시간 얼굴 인식 방식과 사전에 얼굴 인식을 수행한 결과를 검색하는 방식 두 가지를 제공함을 살펴보았다. 실시간 얼굴 인식 방식은 어떠한 동영상이 들어와도 서비스를 제공할 수 있으며, 스트리밍 동영상에 대해서도 서비스가 가능하지만, 해당 프레임에서 얼굴의 앞모습이 아닌 경우 얼굴 검출이 실패하는 경우가 생길 수 있다.
본 발명의 실시예들에 따라 사전 얼굴 인식을 수행하고 그 결과를 이용하는 방법은 서버의 부담을 줄일 수 있고, 트래킹을 통하여 얼굴 검출이 실패하는 프레임에서도 얼굴에 대한 정보를 줄 수 있는 가능성이 커진다. 특히, 본 발명에 따른 엑스트라 모드의 경우 인트라 모드보다 검색이 실패하는 구간을 줄일 수 있는 장점이 있다.
본 발명의 실시예에 따른 얼굴인식정보 제공 방법의 동작은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 프로그램 또는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터로 읽을 수 있는 프로그램 또는 코드가 저장되고 실행될 수 있다.
또한, 컴퓨터가 읽을 수 있는 기록매체는 롬(rom), 램(ram), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 프로그램 명령은 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다.
본 발명의 일부 측면들은 장치의 문맥에서 설명되었으나, 그것은 상응하는 방법에 따른 설명 또한 나타낼 수 있고, 여기서 블록 또는 장치는 방법 단계 또는 방법 단계의 특징에 상응한다. 유사하게, 방법의 문맥에서 설명된 측면들은 또한 상응하는 블록 또는 아이템 또는 상응하는 장치의 특징으로 나타낼 수 있다. 방법 단계들의 몇몇 또는 전부는 예를 들어, 마이크로프로세서, 프로그램 가능한 컴퓨터 또는 전자 회로와 같은 하드웨어 장치에 의해(또는 이용하여) 수행될 수 있다. 몇몇의 실시예에서, 가장 중요한 방법 단계들의 하나 이상은 이와 같은 장치에 의해 수행될 수 있다.
실시예들에서, 프로그램 가능한 로직 장치(예를 들어, 필드 프로그머블 게이트 어레이)가 여기서 설명된 방법들의 기능의 일부 또는 전부를 수행하기 위해 사용될 수 있다. 실시예들에서, 필드 프로그머블 게이트 어레이는 여기서 설명된 방법들 중 하나를 수행하기 위한 마이크로프로세서와 함께 작동할 수 있다. 일반적으로, 방법들은 어떤 하드웨어 장치에 의해 수행되는 것이 바람직하다.
이상 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
100: 얼굴인식 서버 110: 서버 송수신부
120: 얼굴인식정보 생성부 121: 얼굴 정렬부
122: 얼굴 식별부 130: 얼굴인식정보 검색부
140: 얼굴정보 데이터베이스
200: 동영상 플레이어 201: 동영상 디코더
202: 화면 출력부 203: 얼굴 검출부
204: 단말 송수신부

Claims (20)

  1. 동영상 재생장치로부터 입력되는 이미지로부터 얼굴 이미지를 식별하고 얼굴인식 정보를 생성하는 얼굴인식정보 생성부;
    동영상에 포함된 얼굴과 관련된 인물 정보 및 해당 얼굴이 동영상에 등장하는 시간 구간에 대한 정보를 포함하는 적어도 하나의 얼굴인식 정보를 저장하는 얼굴정보 데이터베이스; 및
    얼굴정보 검색이 요청된 동영상에 대한 정보와 매칭되는 얼굴인식 정보를 상기 얼굴정보 데이터베이스로부터 검색하는 얼굴인식정보 검색부를 포함하고,
    상기 얼굴인식 정보는 얼굴인식 시작 시간 및 얼굴인식 종료 시간 중 적어도 하나에 의해 정의되는 적어도 하나의 얼굴인식 동작 구간에 대한 정보를 포함하며,
    상기 얼굴인식정보 검색부는,
    현재 프레임 번호가 상기 얼굴인식 동작 구간 내에 위치할 때, 그리고 현재 프레임 번호가 상기 얼굴인식 동작 구간을 벗어나더라도 현재 프레임 번호로부터 최근 거리에 위치하는 얼굴인식 동작 구간까지의 거리가 기준치 이하일 때, 관련 얼굴인식 정보를 제공하는, 얼굴인식 서버.
  2. 청구항 1에 있어서,
    상기 얼굴인식정보 생성부는,
    입력된 얼굴 이미지에 대해 특징점을 기반으로 한 변환을 통해 정렬된 얼굴 이미지를 생성하는 얼굴 정렬부; 및
    상기 얼굴 정렬부로부터 입력된 정렬된 얼굴 이미지로부터 얼굴을 식별하고 얼굴 식별 결과를 출력하는 얼굴 식별부를 포함하는, 얼굴인식 서버.
  3. 청구항 1에 있어서,
    동영상 재생장치로부터 수신한 얼굴 이미지를 디코딩하여 상기 얼굴인식정보 생성부 및 얼굴인식정보 검색부로 제공하고, 얼굴인식 정보를 상기 동영상 재생장치로 전송하는 서버 송수신부를 더 포함하는, 얼굴인식 서버.
  4. 청구항 1에 있어서,
    상기 얼굴인식정보 생성부는,
    입력되는 동영상에서 얼굴을 인식하여 해당 얼굴의 얼굴인식 시작시간을 추출하며, 상기 추출된 얼굴인식 시작시간과 동영상 식별자를 상기 얼굴인식 정보에 추가하여 상기 얼굴정보 데이터베이스에 저장하는, 얼굴인식 서버.
  5. 청구항 1에 있어서,
    상기 얼굴인식정보 생성부는,
    입력되는 동영상 식별자(ID)에 대응하는 얼굴인식 정보를 검색하여 해당 얼굴을 트래킹하고 해당 얼굴의 얼굴인식 종료시간을 추출하며, 상기 추출된 얼굴인식 종료시간을 상기 얼굴인식 정보에 추가하여 상기 얼굴정보 데이터베이스에 저장하는, 얼굴인식 서버.
  6. 청구항 1에 있어서,
    상기 얼굴정보 검색이 요청된 동영상에 대한 정보는, 해당 동영상의 식별자(ID) 및 현재 프레임 번호를 포함하는, 얼굴인식 서버.
  7. 삭제
  8. 삭제
  9. 삭제
  10. 입력된 동영상을 디코딩하여 획득한 프레임 이미지에서 얼굴 이미지를 검출하고, 얼굴 이미지를 인코딩하여 얼굴인식 서버로 전송하는 동영상 재생장치; 및
    상기 동영상 재생장치로부터 입력되는 이미지로부터 얼굴 이미지를 식별하여 얼굴인식 정보를 생성하고, 얼굴정보 검색이 요청된 동영상에 대한 정보와 매칭되는 얼굴인식 정보를 얼굴정보 데이터베이스로부터 검색하여 상기 동영상 재생장치로 제공하는 얼굴인식 서버를 포함하고,
    상기 얼굴인식 정보는, 동영상에 포함된 얼굴과 관련된 인물 정보 및 해당 얼굴이 동영상에 등장하는 시간 구간에 대한 정보를 포함하고,
    상기 해당 얼굴이 동영상에 등장하는 시간 구간에 대한 정보는, 얼굴인식 시작시간 및 얼굴인식 종료 시간 중 적어도 하나에 의해 정의되는 적어도 하나의 얼굴인식 동작 구간에 대한 정보를 포함하며,
    상기 얼굴인식 서버는, 얼굴정보 검색이 요청된 동영상에 대한 정보와 매칭되는 얼굴인식 정보를 얼굴정보 데이터베이스로부터 검색하여 제공하는 얼굴인식정보 검색부를 포함하고,
    상기 얼굴인식정보 검색부는,
    현재 프레임 번호가 상기 얼굴인식 동작 구간 내에 위치할 때, 그리고 현재 프레임 번호가 상기 얼굴인식 동작 구간을 벗어나더라도 현재 프레임 번호로부터 최근 거리에 위치하는 얼굴인식 동작 구간까지의 거리가 기준치 이하일 때, 관련 얼굴인식 정보를 제공하는, 얼굴인식 시스템.
  11. 청구항 10에 있어서,
    상기 얼굴인식 서버는,
    동영상 재생장치로부터 입력되는 이미지로부터 얼굴 이미지를 식별하고 얼굴인식 정보를 생성하는 얼굴인식정보 생성부; 및
    동영상에 포함된 얼굴과 관련된 인물 정보 및 해당 얼굴이 동영상에 등장하는 시간 구간에 대한 정보를 포함하는 적어도 하나의 얼굴인식 정보를 저장하는 얼굴정보 데이터베이스를 더 포함하는, 얼굴인식 시스템.
  12. 삭제
  13. 얼굴인식 서버에 의해 수행되는 얼굴인식 방법으로서,
    동영상 재생장치로부터 입력되는 이미지로부터 얼굴 이미지를 식별하고 얼굴인식 정보를 생성하는 단계; 및
    얼굴정보 검색이 요청된 동영상에 대한 정보와 매칭되는 얼굴인식 정보를 얼굴정보 데이터베이스로부터 검색하는 단계를 포함하고,
    상기 얼굴인식 정보는, 동영상에 포함된 얼굴과 관련된 인물 정보 및 해당 얼굴이 동영상에 등장하는 시간 구간에 대한 정보를 포함하고,
    상기 해당 얼굴이 동영상에 등장하는 시간 구간에 대한 정보는, 얼굴인식 시작 시간 및 얼굴인식 종료 시간 중 적어도 하나에 의해 정의되는 적어도 하나의 얼굴인식 동작 구간에 대한 정보를 포함하며,
    상기 얼굴정보 검색이 요청된 동영상에 대한 정보와 매칭되는 얼굴인식 정보를 얼굴정보 데이터베이스로부터 검색하는 단계는,
    현재 프레임 번호가 상기 얼굴인식 동작 구간 내에 위치할 때, 그리고 현재 프레임 번호가 상기 얼굴인식 동작 구간을 벗어나더라도 현재 프레임 번호로부터 최근 거리에 위치하는 얼굴인식 동작 구간까지의 거리가 기준치 이하일 때, 관련 얼굴인식 정보를 제공하는 단계를 포함하는, 얼굴인식 방법.
  14. 청구항 13에 있어서,
    상기 얼굴인식 정보를 생성하는 단계는,
    입력된 얼굴 이미지에 대해 특징점을 기반으로 한 변환을 통해 정렬된 얼굴 이미지를 생성하는 단계; 및
    상기 정렬된 얼굴 이미지로부터 얼굴을 식별하고 얼굴 식별 결과를 출력하는 단계를 포함하는, 얼굴인식 방법.
  15. 청구항 13에 있어서,
    상기 얼굴인식 정보를 생성하는 단계는,
    입력되는 동영상 식별자(ID)에 대응하는 얼굴인식 정보를 검색하여 해당 얼굴을 트래킹하는 단계;
    해당 얼굴의 얼굴인식 종료시간을 추출하는 단계; 및
    상기 추출된 얼굴인식 종료시간을 상기 얼굴인식 정보에 추가하여 상기 얼굴정보 데이터베이스에 저장하는 단계를 포함하는, 얼굴인식 방법.
  16. 청구항 13에 있어서,
    상기 얼굴정보 검색이 요청된 동영상에 대한 정보는, 해당 동영상의 식별자(ID) 및 현재 프레임 번호를 포함하는, 얼굴인식 방법.
  17. 삭제
  18. 삭제
  19. 삭제
  20. 청구항 13에 있어서,
    상기 얼굴인식 정보를 생성하는 단계는,
    입력되는 동영상에서 얼굴을 인식하여 해당 얼굴의 얼굴인식 시작시간을 추출하는 단계; 및
    추출된 얼굴인식 시작시간과 동영상 식별자를 상기 얼굴인식 정보에 추가하여 상기 얼굴정보 데이터베이스에 저장하는 단계를 포함하는, 얼굴인식 방법.
KR1020170000622A 2017-01-03 2017-01-03 얼굴인식 정보 제공 방법, 이를 이용하는 얼굴인식 서버 및 얼굴인식 시스템 KR101929220B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170000622A KR101929220B1 (ko) 2017-01-03 2017-01-03 얼굴인식 정보 제공 방법, 이를 이용하는 얼굴인식 서버 및 얼굴인식 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170000622A KR101929220B1 (ko) 2017-01-03 2017-01-03 얼굴인식 정보 제공 방법, 이를 이용하는 얼굴인식 서버 및 얼굴인식 시스템

Publications (2)

Publication Number Publication Date
KR20180079894A KR20180079894A (ko) 2018-07-11
KR101929220B1 true KR101929220B1 (ko) 2018-12-14

Family

ID=62917398

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170000622A KR101929220B1 (ko) 2017-01-03 2017-01-03 얼굴인식 정보 제공 방법, 이를 이용하는 얼굴인식 서버 및 얼굴인식 시스템

Country Status (1)

Country Link
KR (1) KR101929220B1 (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109165534A (zh) * 2018-08-31 2019-01-08 努比亚技术有限公司 终端控制方法、终端及计算机可读存储介质
CN111259194B (zh) * 2018-11-30 2023-06-23 百度在线网络技术(北京)有限公司 用于确定重复视频的方法和装置
KR102322115B1 (ko) 2019-01-09 2021-11-04 엔트롤 주식회사 야외 조도 변화에 따른 얼굴 인식 성능 개선 장치 및 방법
KR20200086489A (ko) 2019-01-09 2020-07-17 엔트롤 주식회사 야외 조도 변화에 따른 얼굴 인식 성능 개선 장치 및 방법
US11062127B2 (en) 2019-09-26 2021-07-13 Gracenote, Inc. Obtaining artist imagery from video content using facial recognition
EP4066087A1 (fr) 2019-11-03 2022-10-05 ST37 Sport et Technologie Procede et systeme de caracterisation d'un mouvement d'une entite en mouvement
KR102261221B1 (ko) * 2020-04-07 2021-06-07 (주)제타미디어 영상정보 획득 시스템 및 영상정보 표시 방법
CN113010731B (zh) * 2021-02-22 2022-05-20 杭州西湖数据智能研究院 多模态视频检索系统
US11915429B2 (en) 2021-08-31 2024-02-27 Gracenote, Inc. Methods and systems for automatically generating backdrop imagery for a graphical user interface
KR102404925B1 (ko) * 2021-12-14 2022-06-02 한예주 학습자의 온라인 교육 참여 확인을 위한 ai 멀티포커싱 시스템 및 이의 실행 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350925A (ja) * 2005-06-20 2006-12-28 Funai Electric Co Ltd 番組検索支援システム
JP2010161562A (ja) * 2009-01-07 2010-07-22 Canon Inc 画像処理装置、その制御方法、プログラム及び記録媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350925A (ja) * 2005-06-20 2006-12-28 Funai Electric Co Ltd 番組検索支援システム
JP2010161562A (ja) * 2009-01-07 2010-07-22 Canon Inc 画像処理装置、その制御方法、プログラム及び記録媒体

Also Published As

Publication number Publication date
KR20180079894A (ko) 2018-07-11

Similar Documents

Publication Publication Date Title
KR101929220B1 (ko) 얼굴인식 정보 제공 방법, 이를 이용하는 얼굴인식 서버 및 얼굴인식 시스템
US11197036B2 (en) Multimedia stream analysis and retrieval
CN108370447B (zh) 内容处理装置及其内容处理方法、服务器
CN101072340B (zh) 流媒体中加入广告信息的方法与系统
JP5216781B2 (ja) 付加情報サーバー、及び、放送コンテンツに含まれる特定放送プログラムに対して生成された付加情報を提供する方法
CA2924065C (en) Content based video content segmentation
US8869222B2 (en) Second screen content
CN110475154B (zh) 网络电视视频播放方法和装置、网络电视和计算机介质
US20090116695A1 (en) System and method for processing digital media
US20130133000A1 (en) Video Interaction System
US8000578B2 (en) Method, system, and medium for providing broadcasting service using home server and mobile phone
KR20140108180A (ko) 멀티미디어 컨텐츠에 접속하기 위한 시스템 및 방법
US11803589B2 (en) Systems, methods, and media for identifying content
US20110197226A1 (en) Linking Real Time Media Context to Related Applications and Services
US9514367B2 (en) Method and apparatus for playing contents
KR101832050B1 (ko) 음성 데이터 기반 멀티미디어 콘텐츠 태깅 방법 및 이를 이용한 시스템
US20120150990A1 (en) System and method for synchronizing with multimedia broadcast program and computer program product thereof
CN106937127B (zh) 一种智能搜索准备的显示方法及其系统
US20130132842A1 (en) Systems and methods for user interaction
KR101156036B1 (ko) 음성인식형 양방향 콘텐츠 제공방법 및 장치
CN113642536B (zh) 数据处理方法、计算机设备以及可读存储介质
US9323857B2 (en) System and method for providing content-related information based on digital watermark and fingerprint
CN112261436B (zh) 视频播放的方法、装置及系统
KR102302368B1 (ko) 연계 서비스 제공을 위한 서버, 사용자 장치의 동작 방법 및 그 사용자 장치
US20230177083A1 (en) Method and apparatus for simultaneous video retrieval and alignment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant