KR102465332B1 - 사용자 장치, 그의 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체 - Google Patents

사용자 장치, 그의 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체 Download PDF

Info

Publication number
KR102465332B1
KR102465332B1 KR1020150188042A KR20150188042A KR102465332B1 KR 102465332 B1 KR102465332 B1 KR 102465332B1 KR 1020150188042 A KR1020150188042 A KR 1020150188042A KR 20150188042 A KR20150188042 A KR 20150188042A KR 102465332 B1 KR102465332 B1 KR 102465332B1
Authority
KR
South Korea
Prior art keywords
images
viewpoint
image
reference image
feature information
Prior art date
Application number
KR1020150188042A
Other languages
English (en)
Other versions
KR20170077983A (ko
Inventor
이기동
Original Assignee
에스케이플래닛 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이플래닛 주식회사 filed Critical 에스케이플래닛 주식회사
Priority to KR1020150188042A priority Critical patent/KR102465332B1/ko
Priority to CN201610585673.7A priority patent/CN106933939B/zh
Priority to US15/222,521 priority patent/US10223383B2/en
Priority to EP16186452.5A priority patent/EP3188045A1/en
Publication of KR20170077983A publication Critical patent/KR20170077983A/ko
Application granted granted Critical
Publication of KR102465332B1 publication Critical patent/KR102465332B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/738Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/55Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/23Updating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/285Clustering or classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5846Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Computational Linguistics (AREA)

Abstract

본 발명은 사용자 장치, 그의 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체를 개시한다. 즉, 본 발명은 기준 이미지를 이용하여 해당 기준 이미지의 촬영 시점과 다른 임의의 시점에 촬영된 복수의 이미지 중에서 해당 기준 이미지에 포함된 인물을 식별 및 추적하여 특정 시점의 이미지를 검색하고, 검색 결과를 제공하거나 검색 결과에 따라 이미지들을 분류하여, 편리하게 기준 이미지를 통해 원하는 이미지 검색 결과를 얻을 수 있어 사용자의 편의성을 향상시킬 수 있다.

Description

사용자 장치, 그의 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체{User equipment, control method thereof and computer readable medium having computer program recorded thereon}
본 발명은 사용자 장치, 그의 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체에 관한 것으로, 특히 기준 이미지를 이용하여 해당 기준 이미지의 촬영 시점과 다른 임의의 시점에 촬영된 복수의 이미지 중에서 해당 기준 이미지에 포함된 인물을 식별 및 추적하여 특정 시점의 이미지를 검색하고, 검색 결과를 제공하거나 검색 결과에 따라 이미지들을 분류하는 사용자 장치, 그의 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체에 관한 것이다.
현재 이미지 자동 태깅 방법은 기준 이미지로부터 얻은 인물의 특징점을 기준으로 여러 사진에 동일 인물이 존재하는지 판단하여, 존재할 경우 기준 이미지에 해당하는 인물이 존재하는 사진으로 태깅하는 방식을 이용한다.
최근 멀티미디어 촬영이 일상화된 상황에서 방대하게 생성되는 영상은 클라우드 서버나 대용량 저장 매체 등에 저장되며, 이를 수동으로 분류하는 것은 쉽지 않다. 따라서 영상들을 자동으로 분류해주는 기술이 등장하여 아기, 어른, 동물, 풍경 등으로 분류하거나, 특정한 사진의 인물을 선택하여 태그를 설정하면 해당 인물과 유사한 특징을 가진 인물이 존재하는 사진을 자동 식별하여 태깅해 주기도 한다.
하지만, 단순한 기준에 의한 분류는 활용이 제한적이며, 인물을 태깅하는 방법 역시 선택된 기준 태그와 유사한 시점의 사진에 대해서는 검색이 가능하지만 시간의 흐름에 따라 변화되는 인물을 자동으로 추적하면서 찾아주지는 않는다.
간혹 미아찾기를 위해서 특정한 성별과 인종에 대한 평균적 얼굴 변화 데이터를 기준으로 어린 시절 사진에서 어른이된 경우의 예상 사진을 생성하는 경우는 있으나, 이는 평균적인 정보의 반영에 의해 시간이 흐를수록 특징이 사라지게 되어 식별성은 낮아지게 되므로 이러한 방식을 자동 영상 태깅에 적용하기는 어렵다.
한국공개특허 제10-2010-0129725호 [명칭: 검색 시스템 및 검색 서비스 방법]
본 발명의 목적은 기준 이미지를 이용하여 해당 기준 이미지의 촬영 시점과 다른 임의의 시점에 촬영된 복수의 이미지 중에서 해당 기준 이미지에 포함된 인물을 식별 및 추적하여 특정 시점의 이미지를 검색하고, 검색 결과를 제공하거나 검색 결과에 따라 이미지들을 분류하는 사용자 장치, 그의 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체를 제공하는 데 있다.
본 발명의 다른 목적은 시간의 흐름에 다라 변화가 존재하는 이미지들이 누적되어 있는 경우, 단일 시점 이미지만으로 변화되는 얼굴의 특징을 반영하면서 관련자를 추적하여 자동 태깅하는 사용자 장치, 그의 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체를 제공하는 데 있다.
본 발명의 또 다른 목적은 동일인의 이미지가 시간대별로 존재하지 않는 경우라도, 인터넷과 같은 방대한 이미지풀이 존재하는 경우, 해당 이미지들로부터 유사한 얼굴들을 찾고, 해당 유사한 얼굴들의 시간에 따른 변화를 반영하여, 실질적으로 원하는 시점의 사진들에서 기준 이미지와 같은 동일인을 찾는 사용자 장치, 그의 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체를 제공하는 데 있다.
본 발명의 실시예에 따른 사용자 장치는 복수의 이미지의 메타 데이터에 각각 포함된 촬영 일자나 복수의 이미지와 관련된 시점 정보를 기준으로 시점 구간별로 분류된 복수의 이미지를 저장하는 저장부; 및 기준 이미지에 나이와 식별자를 포함하는 태그를 설정하고, 기준 이미지 및 시간 구간별 복수의 이미지 중에서 기준 이미지와 동일 시간 구간인 제 1 시점 구간 내에 포함된 다수의 이미지 간의 제 1 이미지 태깅 기능을 수행하고, 제 1 이미지 태깅 기능 수행에 따른 유사도가 기준값 이상인 이미지들을 근거로 유사도가 기준값 이상인 이미지들에 각각 포함된 객체의 특징 정보를 추출하고, 추출된 유사도가 기준값 이상인 이미지들에 각각 포함된 객체의 특징 정보를 기준 이미지의 특징 정보에 반영하여 검색 대상인 기준 이미지의 특징 정보를 업데이트하는 제어부를 포함할 수 있다.
본 발명과 관련된 일 예로서 제어부는 기준 이미지에 설정된 태그를 근거로 기준 이미지 내에 포함된 객체인 얼굴과 제 1 시점 구간 내에 포함된 다수의 이미지 각각에 포함된 객체인 얼굴 간의 유사도를 각각 산출하고, 산출된 다수의 이미지별 유사도가 설정된 기준값 이상인 이미지를 확인할 수 있다.
본 발명과 관련된 일 예로서 제어부는, 특징 정보가 업데이트된 기준 이미지 및 제 1 시점 구간 내에 포함된 다수의 이미지 간의 제 2 이미지 태깅 기능을 수행하고, 특징 정보가 업데이트된 기준 이미지 및 시간 구간별 복수의 이미지 중에서 기준 이미지가 포함된 제 1 시점 구간과 연속되는 제 2 시점 구간 내에 포함된 다른 다수의 이미지 간의 제 3 이미지 태깅 기능을 수행하고, 제 2 이미지 태깅 기능 및 제 3 이미지 태깅 기능 수행에 따른 유사도가 기준값 이상인 하나 이상의 이미지를 근거로 유사도가 기준값 이상인 하나 이상의 이미지에 각각 포함된 객체의 특징 정보를 특징 정보가 업데이트된 기준 이미지의 특징 정보에 재반영하여 검색 대상인 특징 정보가 업데이트된 기준 이미지의 특징 정보를 재업데이트할 수 있다.
본 발명과 관련된 일 예로서 제어부는 시간 구간별로 분류된 복수의 이미지에 대해서 연속되는 2개의 시점 구간에 포함된 적어도 하나의 이미지와 특징 정보가 업데이트되는 기준 이미지 간의 유사도 산출 및 기준 이미지의 특징 정보를 업데이트하는 과정을 반복적으로 수행하여, 시간 구간별로 분류된 복수의 이미지들에 대해서, 시간 구간별로 유사도가 기준값 이상인 하나 이상의 이미지들을 각각 검색할 수 있다.
본 발명과 관련된 일 예로서 제어부는 시간 구간별로 검색된 하나 이상의 이미지들을 시점 구간별로 분류하고, 분류된 시간 구간별로 검색된 하나 이상의 이미지들 및 시간 구간별로 검색된 이미지 수를 표시부에 표시하도록 제어할 수 있다.
본 발명과 관련된 일 예로서 제어부는, 시간 구간별로 검색된 하나 이상의 이미지들을 시점 구간별로 분류할 때, 동일한 시간 구간에 대해서 연속된 검색을 통해 각각 검색된 제 1 하나 이상의 이미지 및 제 2 하나 이상의 이미지 모두를 동일한 시간 구간의 이미지로 분류할 수 있다.
본 발명과 관련된 일 예로서 제어부는, 시간 구간별로 검색된 하나 이상의 이미지들을 시점 구간별로 분류할 때, 동일한 시간 구간에 대해서 연속된 검색을 통해 각각 검색된 제 1 하나 이상의 이미지 및 제 2 하나 이상의 이미지 중에서 공통으로 포함된 적어도 하나의 이미지를 동일한 시간 구간의 이미지로 분류할 수 있다.
본 발명의 실시예에 따른 사용자 장치의 제어 방법은 저장부를 통해, 복수의 이미지의 메타 데이터에 각각 포함된 촬영 일자나 복수의 이미지와 관련된 시점 정보를 기준으로 시점 구간별로 분류된 복수의 이미지를 저장하는 단계; 제어부를 통해, 기준 이미지에 나이와 식별자를 포함하는 태그를 설정하는 단계; 제어부를 통해, 기준 이미지 및 시간 구간별 복수의 이미지 중에서 기준 이미지와 동일 시간 구간인 제 1 시점 구간 내에 포함된 다수의 이미지 간의 제 1 이미지 태깅 기능을 수행하는 단계; 제어부를 통해, 제 1 이미지 태깅 기능 수행에 따른 유사도가 기준값 이상인 이미지들을 근거로 유사도가 기준값 이상인 이미지들에 각각 포함된 객체의 특징 정보를 추출하는 단계; 및 제어부를 통해, 추출된 유사도가 기준값 이상인 이미지들에 각각 포함된 객체의 특징 정보를 기준 이미지의 특징 정보에 반영하여 검색 대상인 기준 이미지의 특징 정보를 업데이트하는 단계를 포함할 수 있다.
본 발명과 관련된 일 예로서 제 1 이미지 태깅 기능을 수행하는 단계는, 제어부를 통해, 기준 이미지에 설정된 태그를 근거로 기준 이미지 내에 포함된 객체인 얼굴과 제 1 시점 구간 내에 포함된 다수의 이미지 각각에 포함된 객체인 얼굴 간의 유사도를 각각 산출하는 과정; 및 제어부를 통해, 산출된 다수의 이미지별 유사도가 설정된 기준값 이상인 이미지를 확인하는 과정을 포함할 수 있다.
본 발명과 관련된 일 예로서 제어부를 통해, 특징 정보가 업데이트된 기준 이미지 및 제 1 시점 구간 내에 포함된 다수의 이미지 간의 제 2 이미지 태깅 기능을 수행하고, 특징 정보가 업데이트된 기준 이미지 및 시간 구간별 복수의 이미지 중에서 기준 이미지가 포함된 제 1 시점 구간과 연속되는 제 2 시점 구간 내에 포함된 다른 다수의 이미지 간의 제 3 이미지 태깅 기능을 수행하는 단계; 제어부를 통해, 제 2 이미지 태깅 기능 및 제 3 이미지 태깅 기능 수행에 따른 유사도가 기준값 이상인 하나 이상의 이미지를 근거로 유사도가 기준값 이상인 하나 이상의 이미지에 각각 포함된 객체의 특징 정보를 특징 정보가 업데이트된 기준 이미지의 특징 정보에 재반영하여 검색 대상인 특징 정보가 업데이트된 기준 이미지의 특징 정보를 재업데이트하는 단계; 제어부를 통해, 시간 구간별로 분류된 복수의 이미지에 대해서 연속되는 2개의 시점 구간에 포함된 적어도 하나의 이미지와 특징 정보가 업데이트되는 기준 이미지 간의 유사도 산출 및 기준 이미지의 특징 정보를 업데이트하는 과정을 반복적으로 수행하여, 시간 구간별로 분류된 복수의 이미지들에 대해서, 시간 구간별로 유사도가 기준값 이상인 하나 이상의 이미지들을 각각 검색하는 단계; 제어부를 통해, 시간 구간별로 검색된 하나 이상의 이미지들을 시점 구간별로 분류하는 단계; 및 표시부를 통해, 분류된 시간 구간별로 검색된 하나 이상의 이미지들 및 시간 구간별로 검색된 이미지 수를 표시하는 단계를 더 포함할 수 있다.
본 발명의 실시예에 따른 컴퓨터 프로그램이 기록된 기록매체에는 상술한 실시예에 따른 방법을 수행하는 컴퓨터 프로그램이 저장될 수 있다.
본 발명은 기준 이미지를 이용하여 해당 기준 이미지의 촬영 시점과 다른 임의의 시점에 촬영된 복수의 이미지 중에서 해당 기준 이미지에 포함된 인물을 식별 및 추적하여 특정 시점의 이미지를 검색하고, 검색 결과를 제공하거나 검색 결과에 따라 이미지들을 분류함으로써, 편리하게 기준 이미지를 통해 원하는 이미지 검색 결과를 얻을 수 있어 사용자의 편의성을 향상시킬 수 있는 효과가 있다.
또한, 본 발명은, 시간의 흐름에 다라 변화가 존재하는 이미지들이 누적되어 있는 경우, 단일 시점 이미지만으로 변화되는 얼굴의 특징을 반영하면서 관련자를 추적하여 자동 태깅함으로써, 클라우드 서버에 저장된 이미지들을 쉽게 분류하거나 검색할 수 있으며, 다양한 대용량 저장 매체에 저장된 이미지들을 쉽게 분류하거나 연관시킬 수 있는 효과가 있다.
또한, 본 발명은, 동일인의 이미지가 시간대별로 존재하지 않는 경우라도, 인터넷과 같은 방대한 이미지풀이 존재하는 경우, 해당 이미지들로부터 유사한 얼굴들을 찾고, 해당 유사한 얼굴들의 시간에 따른 변화를 반영하여, 실질적으로 원하는 시점의 사진들에서 기준 이미지와 같은 동일인을 찾음으로써, 이미지가 별로 없거나 미아를 찾을 경우 유용한 효과가 있다.
도 1은 본 발명의 실시예에 따른 사용자 장치의 구성을 나타낸 블록도이다.
도 2는 본 발명의 실시예에 따른 사용자 장치의 제어 방법을 나타낸 흐름도이다.
도 3 내지 도 5는 본 발명의 실시예에 따른 사용자 장치의 화면을 나타낸 도이다.
본 발명에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.
또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서 "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.
또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.
도 1은 본 발명의 실시예에 따른 사용자 장치(100)의 구성을 나타낸 블록도이다.
도 1에 도시된 바와 같이, 사용자 장치(100)는 통신부(110), 저장부(120), 표시부(130), 음성 출력부(140) 및 제어부(150)로 구성된다. 도 1에 도시된 사용자 장치(100)의 구성 요소 모두가 필수 구성 요소인 것은 아니며, 도 1에 도시된 구성 요소보다 많은 구성 요소에 의해 사용자 장치(100)가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 사용자 장치(100)가 구현될 수도 있다.
제어부(150)에서 저장부(120)에 저장된 복수의 시점 구간에 따라 각각 분류된 복수의 이미지 중에서 나이와 식별자를 포함하는 태그가 설정된 기준 이미지와 동일 시점 구간 내에 포함된 다수의 이미지 간의 이미지 태깅 기능을 수행한다. 이후, 제어부(150)는 이미지 태깅 기능 수행에 따른 해당 기준 이미지와 유사한 하나 이상의 이미지들로부터 얻어진 특징 정보를 기준 이미지의 특징 정보에 반영하여 검색 대상 이미지 특징 정보를 업데이트한다. 이후, 제어부(150)는 앞서 검색한 검색 구간인 해당 시점 구간과 인접한 다음 시점 구간 및 앞서 검색한 검색 구간인 해당 시점 구간에 대해서 특징 정보가 업데이트된 이미지 간의 이미지 태깅 기능을 수행한다. 이후, 제어부(150)는 이미지 태깅 기능 수행에 따른 해당 기준 이미지와 유사한 다른 하나 이상의 이미지들로부터 얻어진 특징 정보를 기준 이미지의 특징 정보에 반영하여 검색 대아 이미지 특징 정보를 업데이트한다. 또한, 제어부(150)는 복수의 시점 구간에 대해서 현재 시점 구간 및 다음 시점 구간에 대한 이미지 태깅 기능을 반복적으로 수행하여, 전체 복수의 시점 구간 내의 이미지와 기준 이미지 간의 유사도 산출에 따른 해당 기준 이미지와 유사한 이미지들을 시점 구간별로 각각 검색한다. 이후, 제어부(150)는 각각 시점 구간별로 검색된 이미지들에 대해서 분류 기능을 수행하고, 분류 기능 수행에 따른 시점 구간별로 분류된 이미지, 시건 구간별로 분류된 이미지 수 등을 표시부(130)에 표시한다.
사용자 장치(100)는 스마트 폰(Smart Phone), 휴대 단말기(Portable Terminal), 이동 단말기(Mobile Terminal), 개인 정보 단말기(Personal Digital Assistant: PDA), PMP(Portable Multimedia Player) 단말기, 텔레매틱스(Telematics) 단말기, 내비게이션(Navigation) 단말기, 개인용 컴퓨터(Personal Computer), 노트북 컴퓨터, 슬레이트 PC(Slate PC), 태블릿 PC(Tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(Wearable Device, 예를 들어, 워치형 단말기(Smartwatch), 글래스형 단말기(Smart Glass), HMD(Head Mounted Display) 등 포함), 와이브로(Wibro) 단말기, IPTV(Internet Protocol Television) 단말기, 스마트 TV, 디지털방송용 단말기, 텔레비전(Television), 3D 텔레비전, 홈 시어터(Home Theater) 시스템, AVN(Audio Video Navigation) 단말기, A/V(Audio/Video) 시스템, 플렉시블 단말기(Flexible Terminal) 등과 같은 다양한 단말기에 적용될 수 있다.
통신부(110)는 유/무선 통신망을 통해 내부의 임의의 구성 요소 또는 외부의 임의의 적어도 하나의 단말기와 통신 연결한다. 이때, 외부의 임의의 단말기는 서비스 제공 장치(미도시), 클라우드 서버(미도시), 대용량 저장 매체(미도시) 등을 포함할 수 있다. 여기서, 무선 인터넷 기술로는 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 등이 있으며, 통신부(110)는 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다. 또한, 근거리 통신 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct) 등이 포함될 수 있다. 또한, 유선 통신 기술로는 전력선 통신(Power Line Communication: PLC), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등이 포함될 수 있다.
또한, 통신부(110)는 유니버설 시리얼 버스(Universal Serial Bus: USB)를 통해 임의의 단말과 정보를 상호 전송할 수 있다.
또한, 통신부(110)는 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 서비스 제공 장치, 클라우드 서버, 대용량 저장 매체 등과 무선 신호를 송수신한다.
또한, 통신부(110)는 제어부(150)의 제어에 의해, 클라우드 서버, 대용량 저장 매체 등과 통신한다.
또한, 통신부(110)는 제어부(150)의 제어에 의해, 클라우드 서버, 대용량 저장 매체 등으로부터 제공되는 복수의 이미지를 저장한다.
저장부(120)는 다양한 사용자 인터페이스(User Interface: UI), 그래픽 사용자 인터페이스(Graphic User Interface: GUI) 등을 저장한다.
또한, 저장부(120)는 사용자 장치(100)가 동작하는데 필요한 데이터와 프로그램 등을 저장한다.
즉, 저장부(120)는 사용자 장치(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션), 사용자 장치(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는 무선 통신을 통해 외부 서비스 제공 장치로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는 사용자 장치(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 사용자 장치(100)상에 존재할 수 있다. 한편, 응용 프로그램은 저장부(120)에 저장되고, 사용자 장치(100)에 설치되어, 제어부(150)에 의하여 사용자 장치(100)의 동작(또는 기능)을 수행하도록 구동될 수 있다.
또한, 저장부(120)는 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다. 또한, 사용자 장치(100)는 인터넷(internet)상에서 저장부(120)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영하거나, 또는 웹 스토리지와 관련되어 동작할 수도 있다.
또한, 저장부(120)는 제어부(150)의 제어에 의해 통신부(110)를 통해 수신된 다양한 정보, 복수의 이미지 등을 저장한다.
표시부(130)는 제어부(150)의 제어에 의해 저장부(120)에 저장된 사용자 인터페이스 및/또는 그래픽 사용자 인터페이스를 이용하여 다양한 메뉴 화면 등과 같은 다양한 콘텐츠를 표시할 수 있다. 여기서, 표시부(130)에 표시되는 콘텐츠는 다양한 텍스트 또는 이미지 데이터(각종 정보 데이터 포함)와 아이콘, 리스트 메뉴, 콤보 박스 등의 데이터를 포함하는 메뉴 화면 등을 포함한다. 또한, 표시부(130)는 터치 스크린 일 수 있다.
또한, 표시부(130)는 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode: OLED), 플렉시블 디스플레이(Flexible Display), 3차원 디스플레이(3D Display), 전자잉크 디스플레이(e-ink display), LED(Light Emitting Diode) 중에서 적어도 하나를 포함할 수 있다.
또한, 표시부(130)는 입체영상을 표시하는 입체 디스플레이부로서 구성될 수 있다.
입체 디스플레이부에는 스테레오스코픽 방식(안경 방식), 오토 스테레오스코픽 방식(무안경 방식), 프로젝션 방식(홀로그래픽 방식) 등의 3차원 디스플레이 방식이 적용될 수 있다.
또한, 표시부(130)는 제어부(150)의 제어에 의해 통신부(110)를 통해 수신된 다양한 정보, 복수의 이미지 등을 표시한다.
음성 출력부(140)는 제어부(150)에 의해 소정 신호 처리된 신호에 포함된 음성 정보를 출력한다. 여기서, 음성 출력부(140)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.
또한, 음성 출력부(140)는 제어부(150)에 의해 생성된 안내 음성을 출력한다.
또한, 음성 출력부(140)는 제어부(150)의 제어에 의해 통신부(110)를 통해 수신된 다양한 정보에 대응하는 음성 정보를 출력한다.
제어부(150)는 사용자 장치(100)의 전반적인 제어 기능을 실행한다.
또한, 제어부(150)는 저장부(120)에 저장된 프로그램 및 데이터를 이용하여 사용자 장치(100)의 전반적인 제어 기능을 실행한다. 제어부(150)는 RAM, ROM, CPU, GPU, 버스를 포함할 수 있으며, RAM, ROM, CPU, GPU 등은 버스를 통해 서로 연결될 수 있다. CPU는 저장부(120)에 액세스하여, 저장부(120)에 저장된 O/S를 이용하여 부팅을 수행할 수 있으며, 저장부(120)에 저장된 각종 프로그램, 콘텐츠, 데이터 등을 이용하여 다양한 동작을 수행할 수 있다.
또한, 제어부(150)는 통신부(110)를 통해 서비스 제공 장치, 클라우드 서버, 대용량 저장 매체 등으로부터 제공되는 대용량의 이미지를 수신한다.
또한, 제어부(150)는 저장부(120)에 저장된 복수의 이미지 중에서 기준 이미지를 확인(또는 선정)한다.
또한, 제어부(150)는 기준 이미지에 나이와 식별자를 포함하는 태그를 설정한다.
또한, 제어부(150)는 저장부(120)에 저장된 복수의 이미지의 메타 데이터에 각각 포함된 촬영 일자나 해당 복수의 이미지와 관련된 시점 정보(예를 들어 웹 페이지, SNS 등에 등록 시점)를 기준으로 복수의 이미지를 시점 구간에 따라 분류한다.
이때, 제어부(150)는 나이에 따라 얼굴의 변화 정도가 심한 어린 시절의 경우 검색을 위한 시점 구간을 좁게할 수 있다. 이를 위해, 제어부(150)는 기준 이미지의 나이(또는 생년월일)를 정확하게 설정(또는 입력)하는 것이 바람직하다. 예를 들어, 제어부(150)는 아이인 경우, 검색 구간을 1개월로 하고, 점차 2~3개월로 증가시키며, 10세 이상의 경우 1년, 20세 이상의 경우 2년, 30세 이상의 경우 5년 등으로 가변적으로 정할 수 있다.
또한, 제어부(150)는 기준 이미지 및, 시점 구간별 복수의 이미지 중에서 해당 기준 이미지와 동일 시점 구간 내에 포함된 다수의 이미지 간의 이미지 태깅 기능을 수행한다.
즉, 제어부(150)는 기준 이미지에 설정된 태그를 근거로 복수의 시점 구간들 중에서 기준 이미지와 동일 시점 구간 내에 포함된 다수의 이미지에 대해서, 기준 이미지 내에 포함된 객체인 얼굴과 해당 기준 이미지와 동일 시점 구간 내에 포함된 다수의 이미지 각각에 포함된 객체인 얼굴 간의 유사도를 각각 산출하고, 산출된 다수의 이미지별 유사도가 미리 설정된 기준값 이상인 이미지를 확인한다.
또한, 제어부(150)는 확인된 유사도가 미리 설정된 기준값 이상인 이미지들을 근거로 유사도가 기준값 이상인 이미지들에 각각 포함된 객체의 특징 정보를 확인(또는 추출)한다.
또한, 제어부(150)는 확인된 유사도가 기준값 이상인 이미지들에 각각 포함된 객체의 특징 정보를 기준 이미지의 특징 정보에 반영하여 검색 대상인 기준 이미지의 특징 정보를 업데이트한다.
또한, 제어부(150)는 기준 이미지(또는 특징 정보가 업데이트된 기준 이미지) 및, 시점 구간별 복수의 이미지 중에서 기준 이미지와 동일 시점 구간 내에 포함된 다수의 이미지 및 해당 기준 이미지와 동일 시점 구간으로부터 검색 시점 방향의 인접 시점 구간에 포함된 다른 다수의 이미지 간의 이미지 태깅 기능을 수행한다.
즉, 제어부(150)는 기준 이미지에 설정된 태그를 근거로 복수의 시점 구간들 중에서 해당 기준 이미지와 동일 시점 구간 내에 포함된 다수의 이미지 및 해당 기준 이미지와 동일 시점 구간으로부터 검색 시점 방향의 인접 시점 구간에 포함된 다른 다수의 이미지에 대해서, 기준 이미지 내에 포함된 객체인 얼굴과 해당 기준 이미지와 동일 시점 구간 내에 포함된 다수의 이미지 및 해당 기준 이미지와 동일 시점 구간으로부터 검색 시점 방향의 인접 시점 구간에 포함된 다른 다수의 이미지 각각에 포함된 객체인 얼굴 간의 유사도를 각각 산출하고, 산출된 다수의 이미지별 유사도 및 산출된 다른 다수의 이미지별 유사도가 미리 설정된 기준값 이상인 이미지를 확인한다. 이때, 제어부(150)는 기준 이미지에 대해서 앞선 단계에서 업데이트된 기준 이미지의 특징 정보를 근거로 해당 기준 이미지와 동일 시점 구간 내에 포함된 다수의 이미지 및 검색 시점 방향의 인접 시점 구간에 포함된 다른 다수의 이미지 각각에 대한 유사도를 각각 산출할 수 있다.
또한, 제어부(150)는 확인된 유사도가 미리 설정된 기준값 이상인 이미지들을 근거로 유사도가 기준값 이상인 이미지들에 각각 포함된 객체의 특징 정보를 확인한다.
또한, 제어부(150)는 확인된 유사도가 기준값 이상인 이미지들에 각각 포함된 객체의 특징 정보를 기준 이미지의 특징 정보에 반영하여 검색 대상인 기준 이미지의 특징 정보를 다시 업데이트한다.
또한, 제어부(150)는 복수의 시점 구간들 중에서 직전 단계에서의 시점 구간 및 해당 직전 단계에서의 시점 구간에 인접한 또 다른 시점 구간에 각각 포함된 또 다른 다수의 이미지에 대해서, 특징 정보가 업데이트된 기준 이미지와의 유사도 산출 및 기준 이미지의 특징 정보를 업데이트하는 단계들을 반복적으로 수행하여, 복수의 시점 구간들에 포함된 복수의 이미지들에 대해서, 유사도가 기준값 이상인 하나 이상의 이미지들을 각각 검색한다.
즉, 제어부(150)는 복수의 시점 구간에 대해서 해당 기준 이미지에 대응하는 시점 구간을 기준으로 하나의 시점 구간씩 이동하면서, 특징 정보가 업데이트된 기준 이미지와 유사한 이미지들을 검색한다.
이와 같이, 이전 검색 구간의 특징 정보(또는 특징점)에 이후 검색 구간의 특징 정보를 반영하는 방법으로서, 제어부(150)는 검색 시 현재 구간과 다음 구간의 동일한 특징 정보를 기준으로 검색하여, 다음 구간에서 찾아진 이미지를 대상으로 특징 정보를 다시 추출하여, 다음 구간과 그 다음 구간에서 검색하는 방식을 반복할 수 있다.
이를 통해서, 수년간 쌓여있는 개인 이미지들에서 특정한 인물을 얼굴의 변화에도 불구하고, 한 번에 찾아볼 수 있거나(예를 들어 수 십년 누적된 가족 사진들 중에서 현재 가족의 이미지를 선택하는 것으로, 해당 가족의 어렸을 적 사진까지 일괄 태깅), 명시적 대상의 누적된 사진이 별로 없는 경우 인터넷 이미지나 별도의 이미지 풀에서 동일 시점의 동일인으로 식별되는 이미지를 태깅한 후, 특징을 갱신하는 방식을 반복하여 원하는 시점의 예상 동일인이 포함된 이미지를 찾을 수 있다.
또한, 제어부(150)는 개인적인 사진들 중에서, 촬영일에 대한 메타 데이터가 없는 경우, 유사한 얼굴이 존재하는 이미지를 찾아, 해당 이미지의 대략적인 촬영 시점을 제공할 수도 있고, 미아를 인터넷 이미지들 중에서 찾아주거나 성장 후 얼굴의 예측 이미지를 제공해 줄 수도 있다.
또한, 제어부(150)는 복수의 시점 구간별로 각각 검색된 하나 이상의 이미지들을 시점 구간별로 자동 분류하고, 자동 분류된 복수의 시점 구간별로 각각 검색된 하나 이상의 이미지들, 복수의 시점 구간별 검색된 이미지 수 등을 표시부(130)에 표시한다.
이때, 복수의 시점 구간별로 각각 검색된 하나 이상의 이미지들을 시점 구간별로 자동 분류 시, 제어부(150)는 연속된 단계를 통해 각각 검색된 이미지들에 대해서, 모든 이미지를 해당 시점 구간의 이미지로 분류한다.
또한, 복수의 시점 구간별로 각각 검색된 하나 이상의 이미지들을 시점 구간별로 자동 분류 시, 제어부(150)는 연속된 단계를 통해 각각 검색된 이미지들 중에서 단계 간에 공통으로 포함된 이미지를 해당 시점 구간의 이미지로 분류한다.
본 발명의 실시예에서는, 사용자 장치(100)에서 클라우드 서버, 대용량 저장 매체 등으로부터 제공되는 복수의 이미지(또는 시점 구간별로 분류된 복수의 이미지)를 대상으로 기준 이미지와 유사한 시간 구간별 이미지를 검색 및 분류하는 것을 설명하고 있으나, 이에 한정되는 것은 아니며, 사용자 장치(100)에서 기준 이미지를 클라우드 서버나 대용량 저장 매체 등에 전송하고, 해당 클라우드 서버나 대용량 저장 매체에서 기준 이미지와 유사한 시간 구간별 이미지를 검색 및 분류한 후, 검색 및 분류된 시간 구간별 이미지를 사용자 장치(100)에 제공할 수도 있다.
또한, 사용자 장치(100)는 해당 사용자 장치(100)에 연결되는 모든 외부기기와의 인터페이스 역할을 수행하는 인터페이스부(미도시)를 더 포함할 수도 있다. 예를 들면, 인터페이스부는 유/무선 헤드셋 포트(Headset Port), 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(Memory Card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등으로 구성될 수 있다. 여기서, 식별 모듈은 사용자 장치(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identity Module: UIM), 가입자 인증 모듈(Subscriber Identity Module: SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module: USIM) 등을 포함할 수 있다. 또한, 식별 모듈이 구비된 장치는 스마트 카드(Smart Card) 형식으로 제작될 수 있다. 따라서, 식별 모듈은 포트를 통하여 사용자 장치(100)와 연결될 수 있다. 이와 같은 인터페이스부는 외부 기기로부터 데이터를 수신하거나 전원을 수신하여 사용자 장치(100) 내부의 각 구성 요소에 전달하거나 사용자 장치(100) 내부의 데이터가 외부 기기로 전송되도록 한다.
또한, 인터페이스부는 사용자 장치(100)가 외부 크래들(Cradle)과 연결될 때 크래들로부터의 전원이 해당 사용자 장치(100)에 공급되는 통로가 되거나, 사용자에 의해 크래들에서 입력되는 각종 명령 신호가 해당 사용자 장치(100)로 전달되는 통로가 될 수 있다. 크래들로부터 입력되는 각종 명령 신호 또는 해당 전원은 사용자 장치(100)가 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.
또한, 사용자 장치(100)는 사용자에 의한 버튼 조작 또는 임의의 기능 선택에 따른 신호를 수신하거나, 디스플레이되는 화면을 터치/스크롤하는 등의 조작에 의해 생성된 명령 또는 제어 신호를 수신하기 위한 입력부(미도시)를 더 포함할 수도 있다.
입력부는 사용자의 명령, 선택, 데이터, 정보 중에서 적어도 하나를 입력 받기 위한 수단으로서, 숫자 또는 문자 정보를 입력 받고 다양한 기능을 설정하기 위한 다수의 입력키 및 기능키를 포함할 수 있다.
또한, 입력부는 키 패드(Key Pad), 돔 스위치 (Dome Switch), 터치 패드(정압/정전), 터치 스크린(Touch Screen), 조그 휠, 조그 스위치, 조그 셔틀(Jog Shuttle), 마우스(mouse), 스타일러스 펜(Stylus Pen), 터치 펜(Touch Pen) 등의 다양한 장치가 사용될 수 있다. 특히, 표시부(130)가 터치스크린 형태로 형성된 경우, 입력의 기능 중 일부 또는 전부는 표시부(130)를 통해 수행될 수 있다.
또한, 사용자 장치(100)의 각각의 구성부(또는 모듈)는 사용자 장치(100)의 메모리(또는 저장부(120)) 상에 저장되는 소프트웨어일 수 있다. 메모리는 사용자 장치(100)의 내부 메모리 일 수 있으며, 외장형 메모리 또는 다른 형태의 저장 장치일 수 있다. 또한, 메모리는 비휘발성 메모리일 수 있다. 메모리 상에 저장되는 소프트웨어는 실행 시 사용자 장치(100)로 하여금 특정 동작을 수행하도록 하는 명령어 세트를 포함할 수 있다.
또한, 본 발명에 따른 사용자 장치(100)에 탑재되는 프로세서는 본 발명에 따른 방법을 실행하기 위한 프로그램 명령을 처리할 수 있다. 일 구현 예에서, 이 프로세서는 싱글 쓰레드(Single-threaded) 프로세서일 수 있으며, 다른 구현 예에서 본 프로세서는 멀티 쓰레드(Multi-threaded) 프로세서일 수 있다. 나아가 본 프로세서는 메모리 혹은 저장 장치에 저장된 명령을 처리하는 것이 가능하다.
이와 같이, 기준 이미지를 이용하여 해당 기준 이미지의 촬영 시점과 다른 임의의 시점에 촬영된 복수의 이미지 중에서 해당 기준 이미지에 포함된 인물을 식별 및 추적하여 특정 시점의 이미지를 검색하고, 검색 결과를 제공하거나 검색 결과에 따라 이미지들을 분류할 수 있다.
또한, 이와 같이, 시간의 흐름에 다라 변화가 존재하는 이미지들이 누적되어 있는 경우, 단일 시점 이미지만으로 변화되는 얼굴의 특징을 반영하면서 관련자를 추적하여 자동 태깅할 수 있다.
또한, 이와 같이, 동일인의 이미지가 시간대별로 존재하지 않는 경우라도, 인터넷과 같은 방대한 이미지풀이 존재하는 경우, 해당 이미지들로부터 유사한 얼굴들을 찾고, 해당 유사한 얼굴들의 시간에 따른 변화를 반영하여, 실질적으로 원하는 시점의 사진들에서 기준 이미지와 같은 동일인을 찾을 수 있다.
이하에서는, 본 발명에 따른 사용자 장치의 제어 방법을 도 1 내지 도 5를 참조하여 상세히 설명한다.
도 2는 본 발명의 실시예에 따른 사용자 장치의 제어 방법을 나타낸 흐름도이다.
먼저, 제어부(150)는 기준 이미지에 나이와 식별자를 포함하는 태그를 설정한다.
일 예로, 제어부(150)는 제 1 사용자의 얼굴이 포함된 기준 이미지에 나이(예를 들어 17세)와 식별자를 포함하는 태그를 설정한다(S210).
이후, 제어부(150)는 저장부(120)에 저장된 복수의 이미지의 메타 데이터에 각각 포함된 촬영 일자나 해당 복수의 이미지와 관련된 시점 정보(예를 들어 웹 페이지, SNS 등에 등록 시점)를 기준으로 복수의 이미지를 시점 구간에 따라 분류한다.
이때, 제어부(150)는 나이에 따라 얼굴의 변화 정도가 심한 어린 시절의 경우 검색을 위한 시점 구간을 좁게할 수 있다. 이를 위해, 제어부(150)는 기준 이미지의 나이(또는 생년월일)를 정확하게 설정(또는 입력)하는 것이 바람직하다. 예를 들어, 제어부(150)는 아이인 경우, 검색 구간을 1개월로 하고, 점차 2~3개월로 증가시키며, 10세 이상의 경우 1년, 20세 이상의 경우 2년, 30세 이상의 경우 5년 등으로 가변적으로 정할 수 있다.
일 예로, 제어부(150)는 저장부(120)에 저장된 10만 장의 이미지의 메타 데이터에 각각 포함된 촬영 일자, 웹 페이지 등록 일자, SNS 등록 일자 등을 근거로 10만 장의 이미지를 미리 설정된 14개의 시점 구간(예를 들어 1개월, 2개월, 3개월, 4개월, 5개월, 6개월, 7개월 ~ 12개월, 13개월 ~ 24개월, 25개월 ~ 48개월, 5세 ~ 7세, 8세 ~ 15세, 16세 ~ 20세, 21세 ~ 30세, 31세 ~ 40세 등 포함)에 따라 분류한다(S220).
이후, 제어부(150)는 기준 이미지 및, 시점 구간별 복수의 이미지 중에서 해당 기준 이미지와 동일 시점 구간 내에 포함된 다수의 이미지 간의 이미지 태깅 기능을 수행한다.
즉, 제어부(150)는 기준 이미지에 설정된 태그를 근거로 복수의 시점 구간들 중에서 기준 이미지와 동일 시점 구간 내에 포함된 다수의 이미지에 대해서, 기준 이미지 내에 포함된 객체인 얼굴과 해당 기준 이미지와 동일 시점 구간 내에 포함된 다수의 이미지 각각에 포함된 객체인 얼굴 간의 유사도를 각각 산출하고, 산출된 다수의 이미지별 유사도가 미리 설정된 기준값 이상인 이미지를 확인한다.
일 예로, 도 3에 도시된 바와 같이, 1 단계에서, 제어부(150)는 복수의 시점 구간 중에서 기준 이미지의 나이(예를 들어 17세)에 대응하는 제 12 시점 구간(예를 들어 16세 ~ 20세) 내에 포함된 1만 개의 이미지에 대해서, 기준 이미지 내에 포함된 제 1 사용자의 얼굴의 특징 정보와 제 12 시점 구간(예를 들어 16세 ~ 20세) 내에 포함된 1만 개의 이미지에 각각 포함된 객체인 얼굴의 특징 정보를 근거로 기준 이미지 내에 포함된 제 1 사용자의 얼굴과 제 12 시점 구간(예를 들어 16세 ~ 20세) 내에 포함된 1만 개의 이미지에 각각 포함된 얼굴 간의 유사도를 각각 산출하고, 산출된 1만 개의 이미지별 유사도 중에서 미리 설정된 기준값(예를 들어 유사도 90%) 이상인 15개의 이미지를 확인한다(S230).
이후, 제어부(150)는 확인된 유사도가 미리 설정된 기준값 이상인 이미지들(또는 이미지 태깅 기능 수행에 따른 유사도가 기준값 이상인 이미지들)을 근거로 유사도가 기준값 이상인 이미지들에 각각 포함된 객체의 특징 정보를 확인(또는 추출)한다.
또한, 제어부(150)는 확인된 유사도가 기준값 이상인 이미지들에 각각 포함된 객체의 특징 정보를 기준 이미지의 특징 정보에 반영하여 검색 대상인 기준 이미지의 특징 정보를 업데이트한다.
일 예로, 제어부(150)는 1만 개의 이미지별 유사도 중에서 미리 설정된 기준값(예를 들어 유사도 90%) 이상인 15개의 이미지에 각각 포함된 객체의 특징 정보를 확인하고, 확인된 15개의 이미지에 각각 포함된 객체의 특징 정보를 근거로 기준 이미지의 특징 정보(또는 기준 이미지 내의 제 1 사용자의 얼굴의 특징 정보)를 업데이트한다(S240).
이후, 제어부(150)는 기준 이미지(또는 특징 정보가 업데이트된 기준 이미지) 및, 시점 구간별 복수의 이미지 중에서 기준 이미지와 동일 시점 구간 내에 포함된 다수의 이미지 및 해당 기준 이미지와 동일 시점 구간으로부터 검색 시점 방향의 인접 시점 구간에 포함된 다른 다수의 이미지 간의 이미지 태깅 기능을 수행한다.
즉, 제어부(150)는 기준 이미지에 설정된 태그를 근거로 복수의 시점 구간들 중에서 해당 기준 이미지와 동일 시점 구간 내에 포함된 다수의 이미지 및 해당 기준 이미지와 동일 시점 구간으로부터 검색 시점 방향의 인접 시점 구간에 포함된 다른 다수의 이미지에 대해서, 기준 이미지 내에 포함된 객체인 얼굴과 해당 기준 이미지와 동일 시점 구간 내에 포함된 다수의 이미지 및 해당 기준 이미지와 동일 시점 구간으로부터 검색 시점 방향의 인접 시점 구간에 포함된 다른 다수의 이미지 각각에 포함된 객체인 얼굴 간의 유사도를 각각 산출하고, 산출된 다수의 이미지별 유사도 및 산출된 다른 다수의 이미지별 유사도가 미리 설정된 기준값 이상인 이미지를 확인한다. 이때, 제어부(150)는 기준 이미지에 대해서 앞선 단계에서 업데이트된 기준 이미지의 특징 정보를 근거로 해당 기준 이미지와 동일 시점 구간 내에 포함된 다수의 이미지 및 검색 시점 방향의 인접 시점 구간에 포함된 다른 다수의 이미지 각각에 대한 유사도를 각각 산출할 수 있다.
일 예로, 도 3에 도시된 바와 같이, 2 단계에서, 제어부(150)는 복수의 시점 구간 중에서 기준 이미지의 나이(예를 들어 17세)에 대응하는 제 12 시점 구간(예를 들어 16세 ~ 20세) 내에 포함된 1만 개의 이미지에 대해서, 기준 이미지 내에 포함된 제 1 사용자의 얼굴에 대해 업데이트된 특징 정보(또는 업데이트된 기준 이미지 내에 포함된 제 1 사용자의 얼굴의 특징 정보)와 제 12 시점 구간(예를 들어 16세 ~ 20세) 내에 포함된 1만 개의 이미지에 각각 포함된 객체인 얼굴의 특징 정보를 근거로 기준 이미지 내에 포함된 제 1 사용자의 얼굴과 제 12 시점 구간(예를 들어 16세 ~ 20세) 내에 포함된 1만 개의 이미지에 각각 포함된 얼굴 간의 유사도를 각각 산출하고, 산출된 1만 개의 이미지별 유사도 중에서 미리 설정된 기준값(예를 들어 유사도 90%) 이상인 13개의 이미지를 확인한다. 또한, 도 3에 도시된 바와 같이, 2 단계에서, 제어부(150)는 복수의 시점 구간 중에서 기준 이미지의 나이(예를 들어 17세)에 대응하는 제 12 시점 구간(예를 들어 16세 ~ 20세)에 인접한 다른 시점 구간인 제 11 시점 구간(예를 들어 8세 ~ 15세) 내에 포함된 9천 개의 이미지에 대해서, 기준 이미지 내에 포함된 제 1 사용자의 얼굴에 대해 업데이트된 특징 정보(또는 업데이트된 기준 이미지 내에 포함된 제 1 사용자의 얼굴의 특징 정보)와 제 11 시점 구간(예를 들어 8세 ~ 15세) 내에 포함된 9천 개의 이미지에 각각 포함된 객체인 얼굴의 특징 정보를 근거로 기준 이미지 내에 포함된 제 1 사용자의 얼굴과 제 11 시점 구간(예를 들어 8세 ~ 15세) 내에 포함된 9천 개의 이미지에 각각 포함된 객체인 얼굴 간의 유사도를 각각 산출하고, 산출된 9천 개의 이미지별 유사도 중에서 기준값(예를 들어 유사도 90%) 이상인 10개의 이미지를 확인한다(S250).
이후, 제어부(150)는 확인된 유사도가 미리 설정된 기준값 이상인 이미지들을 근거로 유사도가 기준값 이상인 이미지들에 각각 포함된 객체의 특징 정보를 확인한다.
또한, 제어부(150)는 확인된 유사도가 기준값 이상인 이미지들에 각각 포함된 객체의 특징 정보를 기준 이미지의 특징 정보에 반영하여 검색 대상인 기준 이미지의 특징 정보를 다시 업데이트한다.
일 예로, 제어부(150)는 제 12 시점 구간(예를 들어 16세 ~ 20세) 내의 1만 개의 이미지별 유사도 중에서 기준값(예를 들어 유사도 90%) 이상인 13개의 이미지 및 제 11 시점 구간(예를 들어 8세 ~ 15세) 내의 9천 개의 이미지별 유사도 중에서 기준값(예를 들어 유사도 90%) 이상인 10개의 이미지에 각각 포함된 객체의 특징 정보를 확인하고, 확인된 총 23개의 이미지에 각각 포함된 객체의 특징 정보를 근거로 앞서 업데이트된 기준 이미지의 특징 정보(또는 기준 이미지 내의 제 1 사용자의 얼굴의 특징 정보)를 다시 업데이트한다(S260).
이후, 제어부(150)는 복수의 시점 구간들 중에서 직전 단계에서의 시점 구간 및 해당 직전 단계에서의 시점 구간에 인접한 또 다른 시점 구간에 각각 포함된 또 다른 다수의 이미지에 대해서, 특징 정보가 업데이트된 기준 이미지와의 유사도 산출 및 기준 이미지의 특징 정보를 업데이트하는 단계들(예를 들어 S250 단계 및 S260 단계)을 반복적으로 수행하여, 복수의 시점 구간들에 포함된 복수의 이미지들에 대해서, 시간 구간별로 유사도가 기준값 이상인 하나 이상의 이미지들을 각각 검색한다.
일 예로, 도 3에 도시된 바와 같이, 3 단계에서, 제어부(150)는 복수의 시점 구간 중에서 또 다른 시점 구간인 제 10 시점 구간(예를 들어 5세 ~ 7세) 내에 포함된 이미지 및 제 11 시점 구간(예를 들어 8세 ~ 15세) 내에 포함된 이미지에 대해서, 기준 이미지 내에 포함된 제 1 사용자의 얼굴에 대해 업데이트된 특징 정보(또는 업데이트된 기준 이미지 내에 포함된 제 1 사용자의 얼굴의 특징 정보)를 근거로 이미지별 유사도를 각각 산출하고, 산출된 이미지별 유사도 중에서 기준값 이상인 이미지를 각각 확인하고, 확인된 이미지의 객체의 특징 정보를 확인하고, 확인된 이미지에 각각 포함된 객체의 특징 정보를 근거로 앞서 업데이트된 기준 이미지의 특징 정보를 다시 업데이트한다. 또한, 제어부(150)는 4 단계 내지 12 단계를 반복적으로 수행하여 단계별로 각 시점 구간에서 업데이트된 기준 이미지의 특징 정보와 기준값 이상으로 유사한 이미지를 각각 검색(또는 확인)한다(S270).
이후, 제어부(150)는 복수의 시점 구간별로 각각 검색된 하나 이상의 이미지들을 시점 구간별로 자동 분류하고, 자동 분류된 복수의 시점 구간별로 각각 검색된 하나 이상의 이미지들, 복수의 시점 구간별 검색된 이미지 수 등을 표시부(130)에 표시한다.
이때, 복수의 시점 구간별로 각각 검색된 하나 이상의 이미지들을 시점 구간별로 자동 분류 시, 제어부(150)는 연속된 단계를 통해 각각 검색된 이미지들에 대해서, 모든 이미지를 해당 시점 구간의 이미지로 분류하거나 또는, 연속된 단계에서 각각 검색된 이미지들 중에서 단계 간에 공통으로 포함된 이미지를 해당 시점 구간의 이미지로 분류할 수 있다.
일 예로, 제어부(150)는 복수의 시점 구간별로 각각 검색된 하나 이상의 이미지들을 시점 구간별로 자동 분류하고, 도 4에 도시된 바와 같이, 자동 분류된 복수의 시점 구간별로 각각 검색된 하나 이상의 이미지들, 복수의 시점 구간별 검색된 이미지 수 등을 표시부(130)에 표시한다. 이때, 제어부(150)는 시점 구간별로 각각 검색된 하나 이상의 이미지들은 썸네일(Thumbnail) 형태로 표시하고, 섬네일 형태로 표시되는 특정 이미지가 선택될 때 해당 선택된 특정 이미지의 원본 이미지를 표시부(130)에 표시할 수도 있다.
이때, 복수의 시점 구간별로 각각 검색된 하나 이상의 이미지들을 시점 구간별로 자동 분류 시, 제어부(150)는 도 4에 도시된 16세 ~ 20세의 제 12 시점 구간에 대해서 1 단계에서 검색된 15개의 이미지(예를 들어 제 1 내지 제 15 이미지) 및 2 단계에서 검색된 13개의 이미지(예를 들어 제 1 내지 제 10 이미지 및 제 16 내지 제 18 이미지)에 대해서, 모든 이미지(예를 들어 제 1 내지 제 18 이미지를 포함하는 총 18 개의 이미지)를 해당 제 12 시점 구간(예를 들어 16세 ~ 20세)의 이미지로 분류한다.
또한, 복수의 시점 구간별로 각각 검색된 하나 이상의 이미지들을 시점 구간별로 자동 분류 시, 제어부(150)는 앞선 도 4에 도시된 16세 ~ 20세의 제 12 시점 구간에 대해서 1 단계에서 검색된 15개의 이미지(예를 들어 제 1 내지 제 15 이미지) 및 2 단계에서 검색된 13개의 이미지(예를 들어 제 1 내지 제 10 이미지 및 제 16 내지 제 18 이미지)에 대해서, 도 5에 도시된 바와 같이, 1 단계 및 2 단계에 공통으로 포함된 10개의 이미지(예를 들어 제 1 내지 제 10 이미지)를 해당 제 12 시점 구간(예를 들어 16세 ~ 20세)의 이미지로 분류한다(S280).
본 발명의 실시예에 따른 사용자 장치는 컴퓨터 프로그램으로 작성 가능하며, 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 해당 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 정보저장매체(computer readable media)에 저장되고, 컴퓨터나 본 발명의 실시예에 따른 사용자 장치 등에 의하여 읽혀지고 실행됨으로써 사용자 장치를 구현할 수 있다.
정보저장매체는 자기 기록매체, 광 기록매체 및 캐리어 웨이브 매체를 포함한다. 본 발명의 실시예에 따른 사용자 장치를 구현하는 컴퓨터 프로그램은 사용자 장치 등의 내장 메모리에 저장 및 설치될 수 있다. 또는, 본 발명의 실시예에 따른 사용자 장치를 구현하는 컴퓨터 프로그램을 저장 및 설치한 스마트 카드 등의 외장 메모리가 인터페이스를 통해 사용자 장치 등에 장착될 수도 있다.
본 발명의 실시예는 앞서 설명된 바와 같이, 기준 이미지를 이용하여 해당 기준 이미지의 촬영 시점과 다른 임의의 시점에 촬영된 복수의 이미지 중에서 해당 기준 이미지에 포함된 인물을 식별 및 추적하여 특정 시점의 이미지를 검색하고, 검색 결과를 제공하거나 검색 결과에 따라 이미지들을 분류하여, 편리하게 기준 이미지를 통해 원하는 이미지 검색 결과를 얻을 수 있어 사용자의 편의성을 향상시킬 수 있다.
또한, 본 발명의 실시예는 앞서 설명된 바와 같이, 시간의 흐름에 다라 변화가 존재하는 이미지들이 누적되어 있는 경우, 단일 시점 이미지만으로 변화되는 얼굴의 특징을 반영하면서 관련자를 추적하여 자동 태깅하여써, 클라우드 서버에 저장된 이미지들을 쉽게 분류하거나 검색할 수 있으며, 다양한 대용량 저장 매체에 저장된 이미지들을 쉽게 분류하거나 연관시킬 수 있다.
또한, 본 발명의 실시예는 앞서 설명된 바와 같이, 동일인의 이미지가 시간대별로 존재하지 않는 경우라도, 인터넷과 같은 방대한 이미지풀이 존재하는 경우, 해당 이미지들로부터 유사한 얼굴들을 찾고, 해당 유사한 얼굴들의 시간에 따른 변화를 반영하여, 실질적으로 원하는 시점의 사진들에서 기준 이미지와 같은 동일인을 찾아, 이미지가 별로 없거나 미아를 찾을 경우 유용할 수 있다.
전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
본 발명은 기준 이미지를 이용하여 해당 기준 이미지의 촬영 시점과 다른 임의의 시점에 촬영된 복수의 이미지 중에서 해당 기준 이미지에 포함된 인물을 식별 및 추적하여 특정 시점의 이미지를 검색하고, 검색 결과를 제공하거나 검색 결과에 따라 이미지들을 분류하여, 편리하게 기준 이미지를 통해 원하는 이미지 검색 결과를 얻을 수 있어 사용자의 편의성을 향상시킬 수 있는 것으로, 사용자 장치 분야, 이미지 검색 분야 등에서 광범위하게 이용될 수 있다.
10: 사용자 장치 110: 통신부
120: 저장부 130: 표시부
140: 음성 출력부 150: 제어부

Claims (11)

  1. 복수의 이미지의 메타 데이터에 각각 포함된 촬영 일자나 상기 복수의 이미지와 관련된 시점 정보를 기준으로 시점 구간별로 분류된 복수의 이미지를 저장하는 저장부; 및
    기준 이미지에 나이와 식별자를 포함하는 태그를 설정하고, 상기 시점 구간별 복수의 이미지 중에서 상기 기준 이미지와 동일 시점 구간인 제 1 시점 구간 내에 포함된 다수의 이미지 각각에 대해 상기 기준 이미지와의 유사도 산출에 대한 제 1 이미지 태깅 기능을 수행하고, 상기 제 1 이미지 태깅 기능 수행에 따른 유사도가 기준값 이상인 이미지들을 근거로 유사도가 기준값 이상인 이미지들에 각각 포함된 객체의 특징 정보를 추출하고, 상기 추출된 유사도가 기준값 이상인 이미지들에 각각 포함된 객체의 특징 정보를 상기 기준 이미지의 특징 정보에 반영하여 검색 대상인 상기 기준 이미지의 특징 정보를 업데이트하는 제어부를 포함하는 사용자 장치.
  2. ◈청구항 2은(는) 설정등록료 납부시 포기되었습니다.◈
    제 1 항에 있어서,
    상기 제어부는 상기 기준 이미지에 설정된 태그를 근거로 상기 기준 이미지 내에 포함된 객체인 얼굴과 상기 제 1 시점 구간 내에 포함된 다수의 이미지 각각에 포함된 객체인 얼굴 간의 유사도를 각각 산출하고, 상기 산출된 다수의 이미지별 유사도가 설정된 기준값 이상인 이미지를 확인하는 것을 특징으로 하는 사용자 장치.
  3. ◈청구항 3은(는) 설정등록료 납부시 포기되었습니다.◈
    제 1 항에 있어서,
    상기 제어부는, 상기 제 1 시점 구간 내에 포함된 다수의 이미지 각각에 대해 상기 특징 정보가 업데이트된 기준 이미지와의 유사도 산출에 대한 제 2 이미지 태깅 기능을 수행하고, 상기 시점 구간별 복수의 이미지 중에서 상기 기준 이미지가 포함된 제 1 시점 구간과 연속되는 제 2 시점 구간 내에 포함된 다른 다수의 이미지 각각에 대해 상기 특징 정보가 업데이트된 기준 이미지와의 유사도 산출에 대한 제 3 이미지 태깅 기능을 수행하고, 상기 제 2 이미지 태깅 기능 및 상기 제 3 이미지 태깅 기능 수행에 따른 유사도가 상기 기준값 이상인 하나 이상의 이미지를 근거로 유사도가 상기 기준값 이상인 하나 이상의 이미지에 각각 포함된 객체의 특징 정보를 상기 특징 정보가 업데이트된 기준 이미지의 특징 정보에 재반영하여 검색 대상인 상기 특징 정보가 업데이트된 기준 이미지의 특징 정보를 재업데이트하는 것을 특징으로 하는 사용자 장치.
  4. ◈청구항 4은(는) 설정등록료 납부시 포기되었습니다.◈
    제 3 항에 있어서,
    상기 제어부는 상기 시점 구간별로 분류된 복수의 이미지에 대해서 연속되는 2개의 시점 구간에 포함된 적어도 하나의 이미지와 상기 특징 정보가 업데이트되는 기준 이미지 간의 유사도 산출 및 상기 기준 이미지의 특징 정보를 업데이트하는 과정을 반복적으로 수행하여, 상기 시점 구간별로 분류된 복수의 이미지들에 대해서, 상기 시점 구간별로 유사도가 기준값 이상인 하나 이상의 이미지들을 각각 검색하는 것을 특징으로 하는 사용자 장치.
  5. ◈청구항 5은(는) 설정등록료 납부시 포기되었습니다.◈
    제 4 항에 있어서,
    상기 제어부는 상기 시점 구간별로 검색된 하나 이상의 이미지들을 시점 구간별로 분류하고, 상기 분류된 시점 구간별로 검색된 하나 이상의 이미지들 및 시점 구간별로 검색된 이미지 수를 표시부에 표시하도록 제어하는 것을 특징으로 하는 사용자 장치.
  6. ◈청구항 6은(는) 설정등록료 납부시 포기되었습니다.◈
    제 5 항에 있어서,
    상기 제어부는, 상기 시점 구간별로 검색된 하나 이상의 이미지들을 시점 구간별로 분류할 때, 동일한 시점 구간에 대해서 연속된 검색을 통해 각각 검색된 제 1 하나 이상의 이미지 및 제 2 하나 이상의 이미지 모두를 상기 동일한 시점 구간의 이미지로 분류하는 것을 특징으로 하는 사용자 장치.
  7. ◈청구항 7은(는) 설정등록료 납부시 포기되었습니다.◈
    제 5 항에 있어서,
    상기 제어부는, 상기 시점 구간별로 검색된 하나 이상의 이미지들을 시점 구간별로 분류할 때, 동일한 시점 구간에 대해서 연속된 검색을 통해 각각 검색된 제 1 하나 이상의 이미지 및 제 2 하나 이상의 이미지 중에서 공통으로 포함된 적어도 하나의 이미지를 상기 동일한 시점 구간의 이미지로 분류하는 것을 특징으로 하는 사용자 장치.
  8. 저장부를 통해, 복수의 이미지의 메타 데이터에 각각 포함된 촬영 일자나 상기 복수의 이미지와 관련된 시점 정보를 기준으로 시점 구간별로 분류된 복수의 이미지를 저장하는 단계;
    제어부를 통해, 기준 이미지에 나이와 식별자를 포함하는 태그를 설정하는 단계;
    상기 제어부를 통해, 상기 시점 구간별 복수의 이미지 중에서 상기 기준 이미지와 동일 시점 구간인 제 1 시점 구간 내에 포함된 다수의 이미지 각각에 대해 상기 기준 이미지와의 유사도 산출에 대한 제 1 이미지 태깅 기능을 수행하는 단계;
    상기 제어부를 통해, 상기 제 1 이미지 태깅 기능 수행에 따른 유사도가 기준값 이상인 이미지들을 근거로 유사도가 기준값 이상인 이미지들에 각각 포함된 객체의 특징 정보를 추출하는 단계; 및
    상기 제어부를 통해, 상기 추출된 유사도가 기준값 이상인 이미지들에 각각 포함된 객체의 특징 정보를 상기 기준 이미지의 특징 정보에 반영하여 검색 대상인 상기 기준 이미지의 특징 정보를 업데이트하는 단계를 포함하는 사용자 장치의 제어 방법.
  9. ◈청구항 9은(는) 설정등록료 납부시 포기되었습니다.◈
    제 8 항에 있어서,
    상기 제 1 이미지 태깅 기능을 수행하는 단계는,
    상기 제어부를 통해, 상기 기준 이미지에 설정된 태그를 근거로 상기 기준 이미지 내에 포함된 객체인 얼굴과 상기 제 1 시점 구간 내에 포함된 다수의 이미지 각각에 포함된 객체인 얼굴 간의 유사도를 각각 산출하는 과정; 및
    상기 제어부를 통해, 상기 산출된 다수의 이미지별 유사도가 설정된 기준값 이상인 이미지를 확인하는 과정을 포함하는 것을 특징으로 하는 사용자 장치의 제어 방법.
  10. ◈청구항 10은(는) 설정등록료 납부시 포기되었습니다.◈
    제 8 항에 있어서,
    상기 제어부를 통해, 상기 제 1 시점 구간 내에 포함된 다수의 이미지 각각에 대해 상기 특징 정보가 업데이트된 기준 이미지와의 유사도 산출에 대한 제 2 이미지 태깅 기능을 수행하고, 상기 시점 구간별 복수의 이미지 중에서 상기 기준 이미지가 포함된 제 1 시점 구간과 연속되는 제 2 시점 구간 내에 포함된 다른 다수의 이미지 각각에 대해 상기 특징 정보가 업데이트된 기준 이미지와의 유사도 산출에 대한 제 3 이미지 태깅 기능을 수행하는 단계;
    상기 제어부를 통해, 상기 제 2 이미지 태깅 기능 및 상기 제 3 이미지 태깅 기능 수행에 따른 유사도가 상기 기준값 이상인 하나 이상의 이미지를 근거로 유사도가 상기 기준값 이상인 하나 이상의 이미지에 각각 포함된 객체의 특징 정보를 상기 특징 정보가 업데이트된 기준 이미지의 특징 정보에 재반영하여 검색 대상인 상기 특징 정보가 업데이트된 기준 이미지의 특징 정보를 재업데이트하는 단계;
    상기 제어부를 통해, 상기 시점 구간별로 분류된 복수의 이미지에 대해서 연속되는 2개의 시점 구간에 포함된 적어도 하나의 이미지와 상기 특징 정보가 업데이트되는 기준 이미지 간의 유사도 산출 및 상기 기준 이미지의 특징 정보를 업데이트하는 과정을 반복적으로 수행하여, 상기 시점 구간별로 분류된 복수의 이미지들에 대해서, 상기 시점 구간별로 유사도가 기준값 이상인 하나 이상의 이미지들을 각각 검색하는 단계;
    상기 제어부를 통해, 상기 시점 구간별로 검색된 하나 이상의 이미지들을 시점 구간별로 분류하는 단계; 및
    표시부를 통해, 상기 분류된 시점 구간별로 검색된 하나 이상의 이미지들 및 시점 구간별로 검색된 이미지 수를 표시하는 단계를 더 포함하는 것을 특징으로 하는 사용자 장치의 제어 방법.
  11. 제 8 항 내지 제 10 항 중 어느 한 항에 따른 방법을 수행하는 컴퓨터 프로그램이 기록된 기록매체.
KR1020150188042A 2015-12-29 2015-12-29 사용자 장치, 그의 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체 KR102465332B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020150188042A KR102465332B1 (ko) 2015-12-29 2015-12-29 사용자 장치, 그의 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체
CN201610585673.7A CN106933939B (zh) 2015-12-29 2016-07-22 用户设备及其控制方法
US15/222,521 US10223383B2 (en) 2015-12-29 2016-07-28 User equipment, control method thereof and non-transitory computer readable storage medium having computer program recorded thereon
EP16186452.5A EP3188045A1 (en) 2015-12-29 2016-08-30 User equipment, control method thereof and non-transitory computer readable storage medium having computer program recorded thereon

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150188042A KR102465332B1 (ko) 2015-12-29 2015-12-29 사용자 장치, 그의 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체

Publications (2)

Publication Number Publication Date
KR20170077983A KR20170077983A (ko) 2017-07-07
KR102465332B1 true KR102465332B1 (ko) 2022-11-11

Family

ID=56893722

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150188042A KR102465332B1 (ko) 2015-12-29 2015-12-29 사용자 장치, 그의 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체

Country Status (4)

Country Link
US (1) US10223383B2 (ko)
EP (1) EP3188045A1 (ko)
KR (1) KR102465332B1 (ko)
CN (1) CN106933939B (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11436274B2 (en) 2016-01-19 2022-09-06 Regwez, Inc. Visual access code
WO2018236046A1 (ko) 2017-06-20 2018-12-27 주식회사 엘지화학 리튬-황 전지
KR102267487B1 (ko) * 2019-07-03 2021-06-22 아주대학교산학협력단 메타데이터를 이용한 독립 분류 모델의 동작 방법 및 그 장치

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7551755B1 (en) * 2004-01-22 2009-06-23 Fotonation Vision Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
US7809192B2 (en) * 2005-05-09 2010-10-05 Like.Com System and method for recognizing objects from images and identifying relevancy amongst images and information
JP2009219071A (ja) 2008-03-12 2009-09-24 Sony Corp コンテンツ送信装置、プログラム、送信制御方法、およびコンテンツ送信システム
US8676001B2 (en) * 2008-05-12 2014-03-18 Google Inc. Automatic discovery of popular landmarks
US8649602B2 (en) * 2009-08-18 2014-02-11 Cyberlink Corporation Systems and methods for tagging photos
US8503739B2 (en) * 2009-09-18 2013-08-06 Adobe Systems Incorporated System and method for using contextual features to improve face recognition in digital images
CN107092614B (zh) * 2010-08-09 2021-04-20 Sk 普兰尼特有限公司 集成图像搜索终端、设备及其服务方法
CN102663413B (zh) * 2012-03-09 2013-11-27 中盾信安科技(江苏)有限公司 一种面向多姿态和跨年龄的人脸图像认证方法
JP5868816B2 (ja) * 2012-09-26 2016-02-24 楽天株式会社 画像処理装置、画像処理方法、及びプログラム
US9396396B2 (en) * 2012-11-06 2016-07-19 Soinn Holdings Llc Feature value extraction apparatus and place estimation apparatus
JP2014182485A (ja) * 2013-03-18 2014-09-29 Canon Inc 画像処理装置および方法ならびにプログラム、および画像処理装置を備えた撮像装置
CN103984948B (zh) * 2014-06-03 2017-04-05 南京大学 一种基于人脸图像融合特征的软双层年龄估计方法

Also Published As

Publication number Publication date
CN106933939A (zh) 2017-07-07
KR20170077983A (ko) 2017-07-07
US20170185632A1 (en) 2017-06-29
US10223383B2 (en) 2019-03-05
EP3188045A1 (en) 2017-07-05
CN106933939B (zh) 2021-01-15

Similar Documents

Publication Publication Date Title
US10347296B2 (en) Method and apparatus for managing images using a voice tag
US10685059B2 (en) Portable electronic device and method for generating a summary of video data
US10219011B2 (en) Terminal device and information providing method thereof
KR102178892B1 (ko) 정보 제공 방법 및 그 전자 장치
US20180275840A1 (en) Method for executing program and electronic device thereof
US20160343060A1 (en) Information providing system and mobile electronic device
EP2892208A1 (en) Method and apparatus for operating electronic device
KR20160140700A (ko) 이미지의 자동화된 선택적 업로드 기법
KR20150138735A (ko) 전자 장치의 비콘 부가 서비스 방법 및 그 전자 장치
US9875255B2 (en) Terminal and method for sharing content thereof
KR102013329B1 (ko) 광학식 문자 판독기를 이용한 데이터 처리 방법 및 장치
US20150033126A1 (en) Video content providing scheme
EP3001300B1 (en) Method and apparatus for generating preview data
CN103823653A (zh) 内容显示方法及设备
KR102202896B1 (ko) 전자 장치의 웹 페이지 저장 및 표현 방법
KR102465332B1 (ko) 사용자 장치, 그의 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체
EP3143548B1 (en) Tagging visual media on a mobile device
KR102316846B1 (ko) 미디어 컨텐츠를 선별하는 방법 및 이를 구현하는 전자장치
US9396211B2 (en) Method and device for providing information using barcode
US10162898B2 (en) Method and apparatus for searching
KR102155138B1 (ko) 딥 러닝을 이용한 식물 분류 시스템 및 그 방법
US20160048498A1 (en) Method for providing alternative service and electronic device thereof
CN103686627A (zh) 一种获取天气信息的方法及系统
EP2933740A1 (en) Method and device for providing information
US20150120707A1 (en) Method and apparatus for performing image-based searches

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right