KR101649322B1 - Systems and methods for image-to-text and text-to-image association - Google Patents

Systems and methods for image-to-text and text-to-image association Download PDF

Info

Publication number
KR101649322B1
KR101649322B1 KR1020137023294A KR20137023294A KR101649322B1 KR 101649322 B1 KR101649322 B1 KR 101649322B1 KR 1020137023294 A KR1020137023294 A KR 1020137023294A KR 20137023294 A KR20137023294 A KR 20137023294A KR 101649322 B1 KR101649322 B1 KR 101649322B1
Authority
KR
South Korea
Prior art keywords
face
image
delete delete
computerized
facial
Prior art date
Application number
KR1020137023294A
Other languages
Korean (ko)
Other versions
KR20140058409A (en
Inventor
야니브 타이그먼
길 히어쉬
이든 쇼컷
Original Assignee
페이스북, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 페이스북, 인크. filed Critical 페이스북, 인크.
Publication of KR20140058409A publication Critical patent/KR20140058409A/en
Application granted granted Critical
Publication of KR101649322B1 publication Critical patent/KR101649322B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 얼굴 이미지를 표현하는 평가들을 얼굴 이미지의 복수의 개별 얼굴 속성들에 할당하는 컴퓨터화된 얼굴 이미지 속성 방식 평가장치; 및 복수의 개별 얼굴 속성들에 따라 얼굴 이미지를 분류하는 컴퓨터화된 분류장치를 포함하며, 상기 평가들은 형용사로 표현되는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 시스템에 관한 것이다. The present invention relates to a computerized facial image attribute evaluation system for assigning evaluations representing facial images to a plurality of individual facial attributes of a facial image; And a computerized classification device for classifying facial images according to a plurality of individual facial attributes, the evaluations being represented by adjectives.

Figure R1020137023294
Figure R1020137023294

Description

이미지에서 텍스트로 및 텍스트에서 이미지로 연관시키기 위한 시스템 및 방법{SYSTEMS AND METHODS FOR IMAGE-TO-TEXT AND TEXT-TO-IMAGE ASSOCIATION}TECHNICAL FIELD The present invention relates to a system and a method for associating an image with text and a text with an image,

본 발명은 2011년 2월 3일에 출원되고, 발명의 명칭이 "이미지-텍스트 및 텍스트-이미지를 연관시키기 위한 시스템 및 방법(SYSTEMS AND METHODS FOR IMAGE-TO-TEXT AND TEXT-TO-IMAGE ASSOCIATION)"이며, 참조로 본 명세서에 통합되고 37 CFR 1.78(a)(4) 및 (5)(i)에 따라 우선권 주장된 미국 가특허출원번호 61/439,021을 참조로 한다. The present invention relates to a system and method for associating image-text and text-images, filed on February 3, 2011, entitled "SYSTEMS AND METHODS FOR IMAGE-TO-TEXT AND TEXT- "Which is incorporated herein by reference and refers to United States Patent Application Serial No. 61 / 439,021, which claims priority under 37 CFR 1.78 (a) (4) and (5) (i).

또한, 본 발명은 참조로 본 명세서에 통합된 출원인 소유의 미국특허출원번호 12/922,984를 참조로 한다. The present invention also is related to the applicant's own U.S. Patent Application No. 12 / 922,984, incorporated herein by reference.

본 발명은 일반적으로 이미지에서 텍스트로 및 텍스트에서 이미지로 연관시키는 것에 관한 것이다. The present invention relates generally to associating images to text and from text to images.

현재의 기술 현황은 다음과 같은 미국특허 제4,926,491호; 제5,164,992호; 제5,963,670호; 제6,292,575호; 제6,301,370호; 제6,819,783호; 제6,944,319호; 제6,990,217호; 제7,274,822호 및 제7,295,687호; 및 미국특허출원 제2006/0253491호; 제2007/0237355호 및 제2009/0210491호에 나타나 있다. Current state of the art is described in U.S. Patent No. 4,926,491; 5,164,992; 5,963,670; 6,292,575; 6,301, 370; 6,819,783; 6,944, 319; 6,990,217; 7,274, 822 and 7,295, 687; And U. S. Patent Application No. 2006/0253491; 2007/0237355 and 2009/0210491.

본 발명은 이미지에서 텍스트 및 텍스트에서 이미지로의 연관을 위한 개선된 시스템 및 방법론을 제공하고자 한다.The present invention seeks to provide an improved system and methodology for associating text to images and text to images.

따라서, 본 발명의 바람직한 실시예에 따라 얼굴 이미지를 표현하는 평가들을 얼굴 이미지의 복수의 개별 얼굴 속성들에 할당하는 컴퓨터화된 얼굴 이미지 속성 방식 평가장치; 및 복수의 개별 얼굴 속성들에 따라 얼굴 이미지를 분류하는 컴퓨터화된 분류장치를 포함하며, 상기 평가들은 형용사로 표현되는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 시스템이 제공된다. Thus, according to a preferred embodiment of the present invention, a computerized facial image attribute evaluation system for assigning evaluations representing facial images to a plurality of individual facial attributes of a facial image; And a computerized classification device for classifying facial images according to a plurality of individual facial attributes, wherein the evaluations are represented by an adjective.

본 발명의 바람직한 실시예에 따르면, 컴퓨터화된 얼굴 이미지 속성 방식 평가장치는 복수의 얼굴 이미지들에 해당하는 다수의 저장된 평가들을 포함하는 데이터베이스를 포함하며, 얼굴 이미지들 각각은 복수의 개별 얼굴 속성들 중 적어도 일부를 가지며, 개별 얼굴 속성들 중 적어도 일부는 그와 연관된 형용사로 표현되는 평가들을 가진다. According to a preferred embodiment of the present invention, a computerized facial image attribute evaluation system comprises a database containing a plurality of stored evaluations corresponding to a plurality of facial images, each of the facial images comprising a plurality of individual facial attributes And at least some of the individual face attributes have evaluations expressed as adjectives associated therewith.

바람직하기로, 상기 시스템은 다수의 저장된 평가들로부터 도출된 통계 정보를 제공하는 얼굴 속성 통계 보고 기능부를 또한 포함한다. Preferably, the system also includes a face attribute statistical reporting function that provides statistical information derived from a plurality of stored ratings.

바람직하기로, 컴퓨터화된 얼굴 이미지 속성 방식 평가장치는 다수의 저장된 얼굴 이미지들 및 다수의 저장된 평가들을 포함하는 데이터베이스; 및 얼굴 이미지 속성 및 형용사 방식의 복수의 개별 얼굴 속성들을 다수의 저장된 얼굴 이미지들과 비교함으로써, 얼굴 이미지를 복수의 저장된 얼굴 이미지와 비교하는 형용사-기반 비교장치를 포함하며, 저장된 얼굴 이미지들 각각은 복수의 개별 얼굴 속성들 중 적어도 일부를 가지고, 개별 얼굴 속성들 중 적어도 일부는 그와 연관된 형용사로 표현되는 평가들을 가진다. 바람직하기로, 형용사-기반 비교장치는 형용사 방식으로 데이터베이스를 쿼리(query)한다. Preferably, the computerized facial image attribute rating system comprises: a database comprising a plurality of stored face images and a plurality of stored ratings; And an adjective-based comparison device that compares a face image with a plurality of stored face images by comparing a plurality of individual face attributes of the face image attribute and the adjective manner with a plurality of stored face images, Having at least some of the plurality of individual face attributes, at least some of the individual face attributes have evaluations expressed in an adjective associated therewith. Preferably, the adjective-based comparison device queries the database in an adjective manner.

바람직하기로, 상기 시스템은 컴퓨터화된 분류장치로부터의 출력에 응답하여, 출력에 해당하는 적어도 하나의 저장된 얼굴 이미지를 식별하도록 동작하는 컴퓨터화된 식별장치를 또한 포함한다. 바람직하기로, 컴퓨터화된 식별장치는 출력에 해당하는 저장된 얼굴 이미지들의 순위화된 리스트를 생성하도록 동작한다. Preferably, the system also includes a computerized identification device operative to identify at least one stored face image corresponding to the output in response to the output from the computerized classification device. Preferably, the computerized identification device operates to generate a ranked list of stored face images corresponding to the output.

바람직하기로, 상기 시스템은 소셜 네트워크에서 컴퓨터화된 얼굴 이미지 속성 방식 평가장치로 정보를 이용할 수 있도록 하는 소셜 네트워크 인터페이스를 또한 포함한다. 바람직하기로, 상기 시스템은 얼굴 이미지에 해당하는 얼굴 모델을 생성하도록 동작하는 얼굴 모델 생성 기능부(face model generation functionality)를 또한 포함한다. 바람직하기로, 컴퓨터화된 식별장치는 얼굴 모델을 이용한다.Preferably, the system also includes a social network interface that allows information to be made available to a computerized facial image attribute rating system in a social network. Preferably, the system also includes a face model generation functionality operative to generate a face model corresponding to the face image. Preferably, the computerized identification device uses a face model.

본 발명의 또 다른 바람직한 실시예에 따라 얼굴 이미지를 표현하는 평가들을 얼굴 이미지의 복수의 개별 얼굴 속성들에 할당하는 단계; 및 복수의 개별 얼굴 속성들에 따라 상기 얼굴 이미지를 분류하는 단계를 포함하며, 상기 평가들은 형용사로 표현되는 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 방법이 더 제공된다. Assigning evaluations representing face images to a plurality of individual face attributes of a face image according to another preferred embodiment of the present invention; And classifying the face image according to a plurality of individual face attributes, the evaluations being further provided with a computerized method for classifying a face image of a person represented by an adjective.

본 발명의 바람직한 실시예에 따르면, 얼굴 이미지들 각각은 복수의 개별 얼굴 속성들 중 적어도 일부를 가지며, 개별 얼굴 속성들 중 적어도 일부는 그와 연관된 형용사로 표현되는 상기 평가들을 가진다. 바람직하기로, 상기 방법은 다수의 저장된 평가들로부터 도출된 통계 정보를 제공하는 단계를 또한 포함한다.According to a preferred embodiment of the present invention, each of the face images has at least some of the plurality of individual face attributes, and at least some of the individual face attributes are represented by adjectives associated therewith. Preferably, the method also includes providing statistical information derived from a plurality of stored evaluations.

바람직하기로, 저장된 얼굴 이미지들 각각은 상기 복수의 개별 얼굴 속성들 중 적어도 일부를 가지고, 개별 얼굴 속성들 중 적어도 일부는 그와 연관된 형용사로 표현되는 평가들을 가지며, 상기 방법은 얼굴 이미지 속성 및 형용사 방식의 상기 복수의 개별 얼굴 속성들을 상기 다수의 저장된 얼굴 이미지들과 비교함으로써, 얼굴 이미지를 상기 복수의 저장된 얼굴 이미지와 비교하는 단계를 또한 포함한다. 바람직하기로, 상기 비교하는 단계는 형용사 방식으로 데이터베이스를 쿼리(query)한다. Preferably, each of the stored face images has at least some of the plurality of individual face attributes, and at least some of the individual face attributes have evaluations expressed by an adjective associated therewith, Comparing the plurality of individual face attributes of the plurality of stored face images to the plurality of stored face images. Preferably, the comparing step queries the database in an adjective manner.

바람직하기로, 상기 방법은 분류하는 단계의 출력에 해당하는 적어도 하나의 저장된 얼굴 이미지를 식별하는 단계를 또한 포함한다. 바람직하기로, 식별하는 단계는 출력에 해당하는 저장된 얼굴 이미지들의 순위화된 리스트를 생성하도록 동작한다. 바람직하기로, 상기 방법은 소셜 네트워크에서 컴퓨터화된 얼굴 이미지 속성 방식 평가장치로 정보를 이용할 수 있도록 하는 단계를 또한 포함한다. 바람직하기로, 상기 방법은 얼굴 이미지에 해당하는 얼굴 모델을 생성하도록 동작하는 얼굴 모델 생성하는 단계를 또한 포함한다. 바람직하기로, 식별하는 단계는 얼굴 모델을 이용한다.Preferably, the method further comprises identifying at least one stored face image corresponding to an output of the classifying step. Preferably, the identifying step operates to generate a ranked list of stored face images corresponding to the output. Preferably, the method also includes making the information available to a computerized facial image attribute method evaluation device in a social network. Preferably, the method also includes generating a face model that operates to generate a face model corresponding to the face image. Preferably, the identifying step uses a face model.

본 발명의 또 다른 바람직한 실시예에 따라 사람의 적어도 하나의 얼굴 이미지와 적어도 하나의 개인 식별 아이템을 획득하는 얼굴 이미지/개인 식별 획득 서브시스템; 적어도 하나의 얼굴 이미지에 해당하는 얼굴 모델을 생성하도록 동작하는 얼굴 모델 생성 기능부; 및 형용사로 표현된 평가들을 얼굴 이미지의 복수의 얼굴 속성들로 할당하도록 동작하는 이미지-속성 맵핑 기능부를 포함하는, 사람의 적어도 하나의 얼굴 이미지와 적어도 하나의 개인 식별 아이템을 수신하는 컴퓨터화된 서브시스템; 및 복수의 사람에 대한 얼굴 속성들의 평가들 및 정보를 저장하는 데이터베이스를 포함하는, 장소에 사람을 등록하기 위한 시스템이 더 제공된다.A face image / person identification acquisition subsystem for obtaining at least one face image and at least one person identification item of a person according to another preferred embodiment of the present invention; A face model generation function unit operable to generate a face model corresponding to at least one face image; And an image-attribute mapping function operable to assign ratings expressed as adjectives to a plurality of face attributes of a face image, wherein the image-attribute mapping function comprises computerized sub-functions for receiving at least one face image of a person and at least one person identification item system; And a database for storing estimates of face attributes and information for a plurality of persons.

바람직하기로, 상기 시스템은 컴퓨터화된 서브시스템은 얼굴 속성들의 평가들의 집합을 이용하여 해당 저장된 얼굴 이미지를 식별함으로써, 얼굴 모델을 이용하는 특정 개인을 식별하도록 동작하는 속성-이미지 맵핑 기능부를 또한 포함한다. 바람직하기로, 컴퓨터화된 서브시스템은 얼굴 모델 및 얼굴 속성들의 평가들의 집합을 해당 저장된 평가들의 집합과 매칭될 수 있는 평가들의 결합된 집합으로 결합함으로써, 특정 개인을 식별하도록 동작하는 평가 결합장치(value combiner)를 또한 포함한다. Preferably, the system also includes an attribute-image mapping function operative to identify a particular individual using the face model by identifying the stored face image using a set of evaluations of face attributes, the computerized subsystem . Preferably, the computerized subsystem comprises an evaluation combination device operable to identify a particular individual by combining the set of assessments of the face model and face attributes into a combined set of assessments that can be matched with a set of corresponding stored assessments combiner < / RTI >

바람직하기로, 상기 시스템은 적어도 하나의 얼굴 이미지를 획득하고 상기 컴퓨터화된 서브시스템으로 제공하는 연속 얼굴 이미지 획득 서브시스템을 또한 포함하며, 컴퓨터화된 서브시스템은 연속하는 상기 얼굴 이미지에 해당하는 얼굴 모델을 생성하고, 연속하는 상기 얼굴 이미지의 복수의 얼굴 속성들에 형용사로 표현된 평가들을 할당하며, 해당 저장된 얼굴 이미지를 식별함으로써 특정 개인으로서 연속하는 상기 얼굴 이미지를 식별하도록 동작하고, 적어도 하나의 개인 식별 아이템은 데이터베이스에 저장된 사람에 관한 것이다. Preferably, the system also includes a continuous face image acquisition subsystem for acquiring and providing at least one facial image to the computerized subsystem, wherein the computerized subsystem comprises a face corresponding to the successive facial images And to identify consecutive face images as a specific individual by identifying the stored face images, assigning estimates expressed in adjectives to a plurality of face attributes of the successive face images, and identifying at least one The person identification item relates to the person stored in the database.

바람직하기로, 평가 결합장치는 상기 얼굴 모델 및 연속하는 상기 얼굴 이미지에 해당하는 상기 평가들의 집합을 결합함으로써 상기 특정 개인을 식별하도록 이용된다. 바람직하기로, 사람의 적어도 하나의 개인 식별 아이템은 사전-등록 데이터로부터 얻어진다. Preferably, an evaluation combining device is used to identify the particular individual by combining the face model and a set of evaluations corresponding to successive face images. Preferably, at least one person identification item of the person is obtained from the pre-registration data.

바람직하기로, 상기 시스템은 소셜 네트워크에서 상기 컴퓨터화된 서브시스템으로 정보를 이용할 수 있도록 하는 소셜 네트워크 인터페이스를 또한 포함한다. 바람직하기로, 얼굴 이미지/개인 식별 획득 서브시스템은 상기 서브시스템과 상호작용하는 사람 이외의 사람의 적어도 하나의 얼굴 이미지 및 적어도 하나의 개인 식별 아이템을 획득하도록 동작한다. 추가로 또는 대안으로, 얼굴 이미지/개인 식별 획득 서브시스템은 상기 서브시스템과 상호작용하는 개인 이외의 다른 미식별된 개인(unidentified person)의 적어도 하나의 얼굴 이미지를 획득하도록 동작한다.Preferably, the system also includes a social network interface that enables information to be available from the social network to the computerized subsystem. Preferably, the face image / personally identifying acquisition subsystem operates to obtain at least one face image and at least one person identification item of a person other than the person interacting with the subsystem. Additionally or alternatively, the facial image / personally identifiable acquisition subsystem operates to obtain at least one facial image of an unidentified person other than the person interacting with the subsystem.

바람직하기로, 상기 시스템은 얼굴 이미지를 표현하는 평가들을 얼굴 이미지의 복수의 개별 얼굴 속성들에 할당하는 컴퓨터화된 얼굴 이미지 속성 방식 평가장치; 및 복수의 개별 얼굴 속성들에 따라 얼굴 이미지를 분류하는 컴퓨터화된 분류장치로 구현되며, 상기 평가들은 형용사로 표현된다. Preferably, the system includes a computerized facial image attribute evaluation system that assigns evaluations representing facial images to a plurality of individual facial attributes of the facial image; And a computerized classifier for classifying facial images according to a plurality of individual facial attributes, wherein the evaluations are represented by adjectives.

본 발명의 또 다른 바람직한 실시예에 따라 사람의 적어도 하나의 얼굴 이미지를 획득하는 얼굴 이미지/개인 식별 획득 서브시스템, 적어도 하나의 얼굴 이미지에 해당하는 얼굴 모델을 생성하도록 동작하는 얼굴 모델 생성 기능부 및 형용사로 표현된 평가들을 상기 얼굴 이미지의 복수의 얼굴 속성들로 할당하도록 동작하는 이미지-속성 맵핑 기능부를 포함하는, 상기 적어도 하나의 얼굴 이미지를 수신하는 컴퓨터화된 서브시스템 및 복수의 상기 사람에 대한 정보 및 얼굴 속성들의 상기 평가들을 저장하는 데이터베이스를 포함하는, 장소에 반복하여 존재하는 사람을 인식하는 시스템이 더 제공된다. A facial image generation / acquisition unit for acquiring at least one facial image of a person according to another preferred embodiment of the present invention, a facial model generation function for generating a facial model corresponding to at least one facial image, An image-attribute mapping function operable to assign evaluations expressed as adjectives to a plurality of face attributes of the face image, wherein the image-attribute mapping function comprises a computerized subsystem for receiving the at least one face image, There is further provided a system for recognizing a person who is present in a place repeatedly, comprising a database storing said evaluations of information and face attributes.

바람직하기로, 컴퓨터화된 서브시스템은 얼굴 속성들의 평가들의 집합을 이용하여, 상기 얼굴 모델을 이용하는 특정 개인과 관련된 해당 저장된 얼굴 이미지를 식별하도록 동작하는 속성-이미지 맵핑 기능부를 또한 포함한다. 바람직하기로, 컴퓨터화된 서브시스템은 얼굴 모델 및 얼굴 속성들의 평가들의 집합을 해당 저장된 평가들의 집합과 매칭될 수 있는 평가들의 결합된 집합으로 결합하도록 동작하는 평가 결합장치를 또한 포함한다. Preferably, the computerized subsystem also includes an attribute-image mapping function that is operative to identify a corresponding stored face image associated with a particular individual using the face model, using a collection of evaluations of face attributes. Preferably, the computerized subsystem also includes an evaluation combining device operative to combine the set of evaluations of the face model and face attributes into a combined set of evaluations that can be matched with a set of corresponding stored evaluations.

바람직하기로, 상기 시스템은 적어도 하나의 얼굴 이미지를 획득하고 상기 컴퓨터화된 서브시스템으로 제공하는 연속 얼굴 이미지 획득 서브시스템을 또한 포함하며, 컴퓨터화된 서브시스템은 바람직하기로 연속하는 상기 얼굴 이미지에 해당하는 얼굴 모델을 생성하고, 연속하는 상기 얼굴 이미지의 복수의 얼굴 속성들에 형용사로 표현된 평가들을 할당하며, 해당 저장된 얼굴 이미지를 식별함으로써, 반복하여 존재하는 특정 개인을 인식하기 위해, 특정 개인의 얼굴 이미지로서 연속하는 상기 얼굴 이미지를 식별하도록 동작한다. Preferably, the system also includes a continuous face image acquisition subsystem for acquiring and providing at least one facial image to the computerized subsystem, wherein the computerized subsystem preferably includes a processor To identify a specific person repeatedly by recognizing the stored face image by assigning evaluations represented by adjectives to a plurality of face attributes of the successive face images, As the face image of the user.

바람직하기로, 평가 결합장치는 얼굴 모델 및 연속하는 얼굴 이미지에 해당하는 평가들의 집합을 결합함으로써 반복하여 존재하는 사람을 인식하도록 이용된다. 바람직하기로, 상기 시스템은 장소에 반복하여 존재하는 사람에 관한 속성-방식 통계를 생성하기 위해 얼굴 모델 및 평가들의 집합들을 이용하는 반복 존재 통계 생성장치(repeat presence statistics generator)를 또한 포함한다. 바람직하기로, 상기 시스템은 소셜 네트워크에서 컴퓨터화된 서브시스템으로 정보를 이용할 수 있도록 하는 소셜 네트워크 인터페이스를 또한 포함한다. Preferably, the evaluating combination device is used to recognize a person who exists repeatedly by combining a set of evaluations corresponding to a face model and a successive facial image. Preferably, the system also includes a repeat presence statistics generator that uses sets of facial models and evaluations to generate attribute-based statistics for the repeatedly existing persons at the site. Preferably, the system also includes a social network interface that allows information to be available from the social network to the computerized subsystem.

바람직하기로, 얼굴 이미지/개인 식별 획득 서브시스템은 상기 서브시스템과 상호작용하는 사람 이외의 사람의 적어도 하나의 얼굴 이미지 및 적어도 하나의 개인 식별 아이템을 획득하도록 동작한다. 추가로 또는 대안으로, 얼굴 이미지/개인 식별 획득 서브시스템은 상기 서브시스템과 상호작용하는 개인 이외의 다른 미식별된 개인의 적어도 하나의 얼굴 이미지를 획득하도록 동작한다. Preferably, the face image / personally identifying acquisition subsystem operates to obtain at least one face image and at least one person identification item of a person other than the person interacting with the subsystem. Additionally or alternatively, the facial image / personally identification acquisition subsystem operates to acquire at least one face image of an unidentified person other than the person interacting with the subsystem.

바람직하기로, 상기 시스템은 얼굴 이미지를 표현하는 평가들을 얼굴 이미지의 복수의 개별 얼굴 속성들에 할당하는 컴퓨터화된 얼굴 이미지 속성 방식 평가장치; 및 복수의 개별 얼굴 속성들에 따라 얼굴 이미지를 분류하는 컴퓨터화된 분류장치로 구현되며, 상기 평가들은 형용사로 표현된다. Preferably, the system includes a computerized facial image attribute evaluation system that assigns evaluations representing facial images to a plurality of individual facial attributes of the facial image; And a computerized classifier for classifying facial images according to a plurality of individual facial attributes, wherein the evaluations are represented by adjectives.

본 발명의 또 다른 바람직한 실시예에 따라 형용사로 각각 표현된 평가들을 얼굴 이미지의 복수의 개별 얼굴 속성들에 할당할 수 있는 컴퓨터화된 얼굴 이미지 속성 방식 평가장치를 생성하는 방법으로서, 얼굴 이미지와 관련된 형용사로 나타내는 적어도 하나의 얼굴 이미지 속성을 각각 가지는 다수의 얼굴 이미지를 수집하는 단계 및 평가되는 얼굴 이미지를 수신하고, 평가되는 상기 얼굴 이미지의 복수의 개별 얼굴 속성들에 형용사로 표현되는 평가들을 할당하기 위해 상기 수집한 결과를 이용하도록 동작하는 기능부를 생성하는 단계를 포함하는, 컴퓨터화된 얼굴 이미지 속성 방식 평가장치를 생성하는 방법이 더 제공된다. According to another preferred embodiment of the present invention there is provided a method of generating a computerized facial image attribute system evaluation apparatus capable of assigning evaluations, each represented by an adjective, to a plurality of individual facial attributes of a facial image, Collecting a plurality of face images each having at least one face image attribute represented by an adjective, receiving the evaluated face image, and assigning evaluations represented by adjectives to a plurality of individual face attributes of the face image being evaluated And generating a function that is operative to use the collected results for the computerized facial image attribute evaluation method.

바람직하기로, 수집하는 단계는 공중 이용가능한 소스로부터 얼굴 이미지와 관련된 형용사로 나타내는 적어도 하나의 얼굴 이미지 속성을 각각 가지는 다수의 얼굴 이미지를 모으는 단계 및 크라우드소싱(crowdsourcing)을 이용하여 상기 다수의 얼굴 이미지에 나타나는 형용사들과 얼굴 속성들 사이의 일치성(correspondence)을 향상시키는 단계를 포함한다. 바람직하기로, 크라우드소싱은 다수의 얼굴 이미지 중 하나와 형용사들을 열람하고 다수의 얼굴 이미지 중 상기 하나에서 상기 형용사들과 상기 얼굴 속성들 사이의 일치도에 대한 사람의 열람을 표시하는 다수의 사람을 이용하는 단계를 포함한다. 바람직하기로, 상기 평가들은 수로 나타낸 값들(numerical values)이다. Preferably, the collecting comprises collecting a plurality of facial images each having at least one facial image attribute represented by an adjective associated with the facial image from a publicly available source, and using crowdsourcing to generate the plurality of facial images And improving the correspondence between the adjectives and facial attributes that appear in the face. Preferably, the crowd sourcing uses one or more of the plurality of face images and a plurality of people viewing the adjectives and displaying a human's view of the match between the adjectives and the face attributes in the one of the plurality of face images . Preferably, the evaluations are numerical values.

본 발명의 또 다른 바람직한 실시예에 따라 자극에 대해 사용자 반응하는 시점에 얻어진 얼굴 이미지를 표현하는 평가들을 얼굴 이미지의 복수의 개별 얼굴 속성들로 할당하는, 컴퓨터화된 얼굴 이미지 속성 방식 평가장치 및 복수의 개별 얼굴 속성들에 따라 얼굴 이미지를 분류하는 컴퓨터화된 분류장치를 포함하며, 상기 평가들은 형용사로 표현되는, 적어도 하나의 자극에 대한 사용자 반응을 인식하는 시스템이 또한 제공된다. According to another preferred embodiment of the present invention, a computerized facial image attribute evaluation method and apparatus for assigning evaluations expressing a facial image obtained at a point of user's reaction to a stimulus to a plurality of individual facial attributes of the facial image A system for recognizing a user response to at least one stimulus, wherein the evaluations are represented by an adjective, is also provided.

바람직하기로, 상기 시스템은 적어도 하나의 자극을 인가하기 전 및 인가한 후의 상기 복수의 개별 얼굴 속성들을 비교하는 컴퓨터화된 속성 비교장치를 또한 포함한다. Preferably, the system also includes a computerized attribute comparison device for comparing the plurality of individual face attributes before and after applying the at least one stimulus.

본 발명의 또 다른 바람직한 실시예에 따라 자극에 대해 사용자 반응하는 시점에 얻어진 얼굴 이미지를 표현하는 평가들을 얼굴 이미지의 복수의 개별 얼굴 속성들로 할당하는 단계 및 복수의 개별 얼굴 속성들에 따라 얼굴 이미지를 분류하는 단계를 포함하고, 상기 평가들은 형용사로 표현되는, 적어도 하나의 자극에 대한 사용자 반응을 인식하는 방법이 더 제공된다. According to still another preferred embodiment of the present invention, there is provided a method for evaluating a facial image, comprising: assigning evaluations representing a facial image obtained at a user's reaction to a stimulus to a plurality of individual facial attributes of the facial image; Wherein the evaluations are represented by an adjective, wherein the user responses to at least one stimulus are identified.

바람직하기로, 상기 방법은 적어도 하나의 자극을 인가하기 전 및 인가한 후의 복수의 개별 얼굴 속성들을 비교하는 단계를 또한 포함한다. Preferably, the method also includes comparing a plurality of individual face attributes before and after applying the at least one stimulus.

본 발명의 또 다른 바람직한 실시예에 따라 특정 시간에 사람이 특정 컨텍스트에 있을 확률을 나타내는 관계 계수(relationship coefficients)를 생성하는 관계 계수 생성장치 및 복수의 관계 계수들에 따라 상기 사람을 분류하는 컴퓨터화된 분류장치를 포함하는, 사람을 분류하는 컴퓨터화된 시스템이 더 제공된다. According to another preferred embodiment of the present invention, there are provided a relationship coefficient generating apparatus for generating relationship coefficients indicating a probability that a person is in a specific context at a specific time, and a computer- A computerized system for classifying persons is further provided, including a classifying device.

바람직하기로, 컨텍스트는 지리적 위치 및 이벤트 중 하나이다. 바람직하기로, 관계 계수는 평가 및 감쇠(decay) 함수를 포함한다. 바람직하기로, 감쇠 함수는 선형 함수이다. 대안으로, 감쇠 함수는 지수 함수이다. Preferably, the context is one of a geographic location and an event. Preferably, the relationship coefficient includes an evaluation and a decay function. Preferably, the damping function is a linear function. Alternatively, the damping function is an exponential function.

바람직하기로, 컨텍스트는 한 계층의 계층적 컨텍스트들 중 하나이다. 바람직하기로, 한 계층의 컨텍스트들 중 컨텍스트들의 관계 계수는 상호의존적이다. 바람직하기로, 관계 계수 생성장치는 다수의 사람이 적어도 제 1 컨텍스트에 함께 있었던 경우, 제 2 컨텍스트에서 다수의 사람 사이의 상호의존적 관계 계수를 생성하도록 동작한다. Preferably, the context is one of the hierarchical contexts of the hierarchy. Preferably, the relationship counts of the contexts of one layer are interdependent. Preferably, the relationship coefficient generation device is operative to generate an interdependent relationship coefficient between a plurality of persons in a second context, when a plurality of persons are at least in the first context.

바람직하기로, 상기 시스템은 복수의 개별 얼굴 속성들에 따라 얼굴 이미지를 분류하는 컴퓨터화된 분류장치를 또한 포함한다. Preferably, the system also includes a computerized classification apparatus for classifying facial images according to a plurality of individual facial attributes.

본 발명의 내용 중에 포함되어 있다. Are included in the scope of the present invention.

본 발명은 도면과 함께, 하기의 상세한 설명으로부터 더 충분히 이해되고 인식될 수 있다:
도 1a, 1b 및 1c는 본 발명의 바람직한 실시예에 따라 이미지-텍스트 및 텍스트-이미지의 연관을 이용하는 식별 시스템의 개략도이다.
도 2a 및 2b는 본 발명의 또 다른 바람직한 실시예에 따라 이미지-텍스트 및 텍스트-이미지의 연관을 이용하는 식별 시스템의 개략도이다.
도 3a 및 3b는 본 발명의 또 다른 바람직한 실시예에 따라 이미지-텍스트 및 텍스트-이미지의 연관을 이용하는 식별 시스템의 개략도이다.
도 4a, 4b 및 4c는 본 발명의 또 다른 바람직한 실시예에 따라 이미지-텍스트 및 텍스트-이미지의 연관을 이용하는 식별 시스템의 개략도이다.
도 5a 및 5b는 본 발명의 또 다른 바람직한 실시예에 따라 이미지-텍스트 및 텍스트-이미지의 연관을 이용하는 식별 시스템의 개략도이다.
도 6은 본 발명의 또 다른 바람직한 실시예에 따라 이미지-텍스트의 연관을 이용하는 사용자 만족 모니터링 시스템의 개략도이다.
도 7은 도 1a 내지 6의 시스템에서 이용되는 데이터베이스를 구축하는데 유용한 이미지/텍스트/이미지 데이터베이스 생성 방법론의 개략도이다.
도 8은 형용사와 이미지를 연관짓는 트레이닝 프로세스(training process)를 도시하는 개략적인 흐름도이다.
도 9는 시각적 분류장치를 트레이닝하는 프로세스를 도시하는 개략적인 흐름도이다.
도 10은 이미지와 연관된 형용사를 검색하는 프로세스를 도시하는 개략적인 흐름도이다.
도 11은 하나 이상의 형용사와 관련된 이미지를 검색하는 프로세스를 도시하는 개략적인 흐름도이다.
도 12는 제 1 이미지와 유사한 얼굴 이미지를 검색하는 프로세스를 도시하는 개략적인 흐름도이다.
BRIEF DESCRIPTION OF THE DRAWINGS The invention, together with the drawings, will be better understood and appreciated from the following detailed description:
Figures 1a, 1b and 1c are schematic diagrams of an identification system using an association of image-text and text-image in accordance with a preferred embodiment of the present invention.
Figures 2a and 2b are schematic diagrams of an identification system that utilizes an association of image-text and text-image in accordance with another preferred embodiment of the present invention.
Figures 3a and 3b are schematic diagrams of an identification system that utilizes an association of image-text and text-image in accordance with another preferred embodiment of the present invention.
4A, 4B, and 4C are schematic diagrams of an identification system that utilizes an association of image-text and text-image in accordance with another preferred embodiment of the present invention.
5A and 5B are schematic diagrams of an identification system that utilizes an association of image-text and text-image in accordance with another preferred embodiment of the present invention.
6 is a schematic diagram of a user satisfaction monitoring system that utilizes image-text association in accordance with another preferred embodiment of the present invention.
FIG. 7 is a schematic diagram of an image / text / image database generation methodology useful for building a database used in the system of FIGS. 1A-6.
Figure 8 is a schematic flow diagram illustrating a training process for associating an adjective with an image.
Figure 9 is a schematic flow diagram illustrating the process of training a visual classifier.
10 is a schematic flow diagram illustrating a process for retrieving an adjective associated with an image.
11 is a schematic flow diagram illustrating a process for retrieving images associated with one or more adjectives.
12 is a schematic flow diagram illustrating a process for retrieving a face image similar to the first image.

이제, 본 발명의 바람직한 실시예에 따라 이미지-텍스트 및 텍스트-이미지의 연관을 이용하는 식별 시스템의 개략도인 도 1a, 1b 및 1c를 참조로 한다. 바람직하기로, 도 1a 내지 1c의 시스템은 얼굴 이미지를 표현하는 평가들(values)을 얼굴 이미지의 복수의 개별 얼굴 속성들에 할당하는 컴퓨터화된 얼굴 이미지 속성 방식 평가장치 및 복수의 개별 얼굴 속성들에 따라 얼굴 이미지를 분류하는 컴퓨터화된 분류장치를 포함하며, 상기 평가들은 형용사(adjectives)로 표현된다. Reference is now made to Figs. 1A, 1B and 1C which are schematic diagrams of an identification system using an association of image-text and text-image in accordance with a preferred embodiment of the present invention. Preferably, the system of FIGS. 1A-1C includes a computerized facial image attribute system evaluation apparatus for assigning values representing facial images to a plurality of individual facial attributes of a facial image, and a plurality of individual facial attributes And a computerized classification apparatus for classifying facial images according to a plurality of images, wherein the evaluations are represented by adjectives.

도 1a에 도시된 바와 같이, 1월 1일에 AAA 백화점의 고객인 존스씨(Mr. Jones)는 백화점으로 입장하고, 등록처(registration stand)(100)에서 백화점의 평가 고객(valued customer)으로 등록한다. 바람직하기로, 등록처는 백화점 컴퓨터 네트워크로 연결된 컴퓨터(102) 및 컴퓨터(102)에 연결된 디지털 카메라(104)를 포함한다. 평가 고객 등록 프로세스는, 가령 고객의 성명과 같은, 고객의 개인 식별 사항(personal identification details)을 입력하는 단계 및 디지털 카메라(104)로 고객의 얼굴 이미지(108)를 캡쳐하는 단계를 포함한다. 대안으로, 고객의 개인 식별 사항은 예컨대 고객의 기존의 개인 소셜 네트워크 계정으로부터 검색될 수 있다. 대안으로, 고객은 원격 위치로부터 인터넷상의 평가 위치로서 등록할 수 있다.As shown in FIG. 1A, Mr. Jones, a customer of AAA department store on Jan. 1, enters the department store and registers as a valued customer of the department store at the registration stand 100 do. Preferably, the registry includes a computer 102 connected to a department store computer network and a digital camera 104 connected to the computer 102. The evaluation customer registration process includes inputting customer ' s personal identification details, such as the customer's name, and capturing the customer's face image 108 with the digital camera 104. [ Alternatively, the customer ' s personal identification may be retrieved, for example, from a customer ' s existing personal social network account. Alternatively, the customer may register as an evaluation location on the Internet from a remote location.

개인 식별 사항 및 얼굴 이미지(108)는 바람직하기로 얼굴 모델 생성 기능부(face model generation functionality)(112), 이미지-속성 맵핑 기능부(image-to-attributes mapping functionality)(114), 속성-이미지 맵핑 기능부(attributes-to-images mapping functionality)(116) 및 평가 결합장치(value combiner)(117)를 포함하는 컴퓨터화된 개인 식별 시스템(110)으로 전송된다. 바람직하기로, 컴퓨터화된 개인 식별 시스템(110)은 또한 등록 사항 및 모든 등록된 고객의 얼굴 속성들의 평가들을 저장하는 평가 고객 데이터베이스(118)를 포함한다. 데이터베이스(118)는 임의의 적합한 컴퓨터화된 정보 스토어일 수 있다고 인식된다.The personal identification and face image 108 preferably includes a face model generation functionality 112, an image-to-attributes mapping functionality 114, To a computerized personal identification system 110 that includes an attribute-to-images mapping functionality 116 and a value combiner 117. The computer- Preferably, the computerized person identification system 110 also includes an assessment customer database 118 that stores assessments of registration details and all registered customer face attributes. It is recognized that the database 118 may be any suitable computerized information store.

얼굴 모델 생성 기능부(112)는 얼굴 이미지(108)에 해당하는 얼굴 모델(120)을 생성하도록 동작한다. 얼굴 모델 생성 기능부(112)는 해당기술분야에서 공지된 임의의 적합한 얼굴 모델 생성 방법을 이용할 수 있다고 인식된다. 도 1a에 도시된 바와 같이, 얼굴 모델 생성 기능부(112)에 의해 생성되고 얼굴 이미지(108)에 해당하는 얼굴 모델(120)은 존스씨의 속성들 중 하나로서 데이터베이스(118)에 저장된다. The face model generation function unit 112 operates to generate a face model 120 corresponding to the face image 108. [ It is recognized that the facial model generation function 112 may use any suitable method of generating a facial model known in the art. 1A, the face model 120 generated by the face model generation function 112 and corresponding to the face image 108 is stored in the database 118 as one of the attributes of Jones.

본 발명의 바람직한 실시예에 따르면, 이미지-속성 맵핑 기능부(114)는 형용사들(122)로 표현된 평가들을 얼굴 이미지(108)의 복수의 얼굴 속성들에 할당하도록 동작한다. 예컨대, 얼굴 속성들을 나타내는 형용사들(122)은 머리색, 코 모양, 피부색, 얼굴형, 얼굴 수염의 타입 및 유무를 묘사하는 형용사들을 포함할 수 있다. 도 1a에 도시된 바와 같이, 얼굴 이미지(108)에 해당하는 속성 맵핑 기능부(114)에 의해 생성된 형용사들은 존스씨의 속성들의 평가들로서 데이터베이스(118)에 저장된다. According to a preferred embodiment of the present invention, the image-attribute mapping function 114 operates to assign the evaluations represented by the adjectives 122 to a plurality of face attributes of the face image 108. For example, adjectives 122 representing facial attributes may include adjectives describing hair color, nose shape, skin color, face type, face beard type and presence. As shown in FIG. 1A, the adjectives generated by the attribute mapping function 114 corresponding to the face image 108 are stored in the database 118 as estimates of Jones's attributes.

또한, 본 발명의 바람직한 실시예에 따르면, 속성-이미지 맵핑 기능부(116)는 얼굴 속성들의 평가들의 집합을 이용하여 해당하는 저장된 얼굴 이미지를 식별함으로써 특정 개인을 식별하도록 동작한다. Further, according to a preferred embodiment of the present invention, the attribute-image mapping function 116 operates to identify a particular individual by identifying a corresponding stored face image using a set of evaluations of face attributes.

또한, 본 발명의 바람직한 실시예에 따르면, 평가 결합장치(117)는 바람직하기로 얼굴 모델 및 얼굴 속성들의 평가들의 집합을 해당하는 저장된 평가들의 집합과 매칭될 수 있는 평가들의 결합된 집합(combined collection)으로 결합함으로써, 특정 개인을 식별하도록 동작한다. Also, in accordance with a preferred embodiment of the present invention, the evaluator combiner 117 preferably combines a set of evaluations of face models and facial attributes with a set of corresponding evaluations to be combined with a combined collection of evaluations, To identify a particular individual.

이제, 도 1b를 살펴보면, 가령 1월 17일과 같이, 차후 날짜에, 고객이 AAA 백화점으로 입장하고, 백화점의 입구에 설치된 디지털 카메라(150)가 고객의 얼굴 이미지(152)를 캡처한다. 얼굴 이미지(152)는 컴퓨터화된 개인 식별 시스템(110)으로 전송되는데, 여기서 바람직하게는 얼굴 이미지(152)에 해당하는 얼굴 모델(160)이 얼굴 모델 생성 기능부(112)에 의해 생성된다. 추가로, 형용사들로 표현되는 평가들(162)이 바람직하기로 이미지-속성 맵핑 기능부(114)에 의해 얼굴 이미지(152)의 복수의 얼굴 속성들에 할당된다. Now, referring to FIG. 1B, a customer enters the AAA department store on a later date, such as January 17, and the digital camera 150 installed at the entrance of the department store captures the customer's face image 152. The face image 152 is transmitted to the computerized personal identification system 110 where the face model 160 corresponding to the face image 152 is preferably generated by the face model generation function 112. In addition, evaluations 162, represented by adjectives, are preferably assigned to a plurality of face attributes of face image 152 by image-attribute mapping function 114.

도 1b에 도시된 바와 같이, 얼굴 모델(160) 및 형용사들(162)은 바람직하기로 평가 결합장치(117)에 의해 평가들의 결합된 집합으로 결합되는데, 이런 결합된 집합은 데이터베이스(118)에 저장된 평가들의 집합과 비교되며, 상기 얼굴 모델 및 형용사들이 존스씨의 얼굴 모델 및 형용사들과 매칭한다고 판명됨으로써, 카메라(150)에 의해 캡처된 얼굴 이미지(152)에 묘사된 사람을 존스씨인 것으로 식별한다. 평가 결합장치(117)에 의해 결합되고 데이터베이스(118)에 저장된 평가들의 집합들과 비교되는 평가들의 집합은 얼굴 모델(160)과 형용사들(162)의 임의의 서브세트일 수 있다고 인식된다. 1B, the face model 160 and the adjectives 162 are preferably combined into a combined set of ratings by the rating combination device 117, Is compared with the set of stored assessments and identified as matching Jones 'face model and adjectives to identify the person depicted in the face image 152 captured by the camera 150 as Jones' do. It is recognized that the set of evaluations that are combined by the evaluator combiner 117 and that are compared to the sets of evaluations stored in the database 118 can be any subset of the face model 160 and adjectives 162.

이제, 도 1c를 살펴보면, 예컨대 등록된 평가 고객인 존스씨로서 백화점에 입장했던 고객을 식별할 때, 매니저는 평가 고객이 백화점에 입장했다는 것을 시스템(110)에 의해 통지받으며, 따라서 매니저는 존스씨에 접근하여 그에게 새로운 상품을 할인하여 제공한다는 점을 보여준다. Referring now to FIG. 1C, when identifying a customer who entered the department store as a registered valuation customer, for example Jones, the manager is notified by the system 110 that the valuation customer has entered the department store, And gives him a discount on the new product.

이제, 본 발명의 또 다른 바람직한 실시예에 따라 이미지-텍스트 및 텍스트-이미지의 연관을 이용하는 식별 시스템의 개략도인 도 2a 및 2b를 참조로 한다. 도 2a에 도시된 바와 같이, 가령 1월 1일과 같은 특정한 날에, AAA 백화점의 고객이 백화점으로 입장하고, 백화점으로의 입구에 설치된 디지털 카메라(200)가 고객의 얼굴 이미지(202)를 캡처한다. 얼굴 이미지(202)는 바람직하게는 얼굴 모델 생성 기능부(212), 이미지-속성 맵핑 기능부(214), 속성-이미지 맵핑 기능부(216) 및 평가 결합장치(217)를 포함하는 컴퓨터화된 개인 식별 시스템(210)으로 전송된다. 바람직하기로, 컴퓨터화된 식별 시스템(210)은 또한 바람직하게는 백화점으로 입장한 적이 있는 모든 고객의 얼굴 속성들의 평가들을 저장하는 고객 데이터베이스(218) 및 바람직하게는 각각의 특정 고객이 백화점으로 왔던 누적 방문수를 추적하는 방문 카운터(219)를 포함한다. 데이터베이스(218)는 임의의 적합한 컴퓨터화된 정보 스토어일 수 있다고 인식된다. Reference is now made to Figs. 2A and 2B which are schematic diagrams of an identification system utilizing an association of image-text and text-image in accordance with another preferred embodiment of the present invention. 2A, a customer of the AAA department store enters a department store and a digital camera 200 installed at the entrance to the department store captures a customer's face image 202 on a particular day such as January 1, for example . The face image 202 is preferably a computerized image that includes a face model generation function 212, an image-attribute mapping function 214, an attribute-image mapping function 216, And transmitted to the personal identification system 210. Preferably, the computerized identification system 210 also includes a customer database 218 that stores evaluations of all customer face attributes that have preferably entered the department store and, preferably, And a visit counter 219 for tracking the accumulated number of visits. It is recognized that the database 218 may be any suitable computerized information store.

얼굴 모델 생성 기능부(212)는 얼굴 이미지(202)에 해당하는 얼굴 모델(220)을 생성하도록 동작한다. 얼굴 모델 생성 기능부(212)는 해당기술분야에서 공지된 임의의 적합한 얼굴 모델 생성 방법일 수 있다고 인식된다. 도 2a에 도시된 바와 같이, 얼굴 모델 생성 기능부(212)에 의해 생성되고 얼굴 이미지(202)에 해당하는 얼굴 모델(220)은 얼굴 이미지(202)의 고객의 속성들 중 하나로서 데이터베이스(218)에 저장된다. The face model generation function unit 212 operates to generate a face model 220 corresponding to the face image 202. It is recognized that the facial model generation function 212 may be any suitable method of facial model generation known in the art. 2A, the face model 220 generated by the face model generation function 212 and corresponding to the face image 202 is stored in the database 218 as one of the attributes of the customer of the face image 202 ).

본 발명의 바람직한 실시예에 따르면, 이미지-속성 맵핑 기능부(214)는 형용사들(222)로 표현된 평가들을 얼굴 이미지(202)의 복수의 얼굴 속성들로 할당하도록 동작한다. 예컨대, 얼굴 속성을 나타내는 형용사들(222)은 연령층, 성별, 인종, 얼굴형, 기분 및 전반적인 외모를 묘사하는 형용사들을 포함할 수 있다. According to a preferred embodiment of the present invention, the image-attribute mapping function 214 operates to assign the evaluations represented by the adjectives 222 to a plurality of face attributes of the face image 202. For example, adjectives 222 representing facial attributes may include adjectives describing the age group, sex, race, face type, mood, and overall appearance.

또한, 본 발명의 바람직한 실시예에 따르면, 속성-이미지 맵핑 기능부(216)는 얼굴 속성들의 평가들의 집합을 이용하여 해당하는 저장된 얼굴 이미지를 식별함으로써 특정 개인을 식별하도록 동작한다. 또한, 평가들의 집합은 얼굴 속성들의 현재 평가들이 이용가능하지 않는 경우, 단기간 내에 개인을 식별하는데 사용될 수 있는, 가령 의류 타입 및 색깔과 같은 고객의 외모의 비-신체적인 특징을 포함할 수 있다고 인식된다. Also, according to a preferred embodiment of the present invention, the attribute-image mapping function 216 operates to identify a particular individual by identifying a corresponding stored face image using a set of evaluations of face attributes. In addition, the set of evaluations may be used to identify non-physical features of the customer's appearance, such as clothing type and color, which may be used to identify an individual within a short period of time if current assessments of face attributes are not available do.

또한, 본 발명의 바람직한 실시예에 따르면, 평가 결합장치(217)는 바람직하기로 얼굴 모델 및 얼굴 속성들의 평가들의 집합을 해당하는 저장된 평가들의 집합과 매칭될 수 있는 평가들의 결합된 집합으로 결합함으로써, 특정 개인을 식별하도록 동작한다. Also, in accordance with a preferred embodiment of the present invention, the evaluator combiner 217 preferably combines the set of evaluations of facial models and facial attributes into a combined set of evaluations that can be matched with a corresponding set of stored evaluations, To identify a particular individual.

도 2a에 도시된 바와 같이, 얼굴 모델(220) 및 형용사들(222)은 바람직하기로 평가 결합장치(217)에 의해 평가들의 결합된 집합으로 결합되는데, 이런 결합된 집합은 데이터베이스(218)에 저장된 평가들의 집합들과 비교되며, 상기 얼굴 모델 및 형용사들이 재방문 고객(returning customer)에 해당하는 얼굴 모델 및 형용사들과 매칭한다고 판명된다. 따라서, 고객의 방문 카운터(219)는 증가한다. 평가 결합장치(217)에 의해 결합되고 데이터베이스(218)에 저장된 평가들의 집합들과 비교되는 평가들의 집합은 얼굴 모델(220)과 형용사들(222)의 임의의 서브세트일 수 있다고 인식된다. 2A, the face model 220 and the adjectives 222 are preferably combined into a combined set of evaluations by the evaluator combiner 217, which in turn is coupled to the database 218 Is compared with the sets of stored evaluations, and it is found that the face model and the adjectives match the face model and the adjectives corresponding to the returning customer. Thus, the customer's visit counter 219 increases. It is recognized that the set of evaluations that are combined by the evaluator combiner 217 and that are compared to the sets of evaluations stored in the database 218 can be any subset of the face model 220 and adjectives 222.

대안으로, 평가 결합장치(217)에 의해 생성된 평가들의 결합된 집합이 데이터베이스(218)에 저장된 평가들의 임의의 집합들과 매칭한다고 판명되지 않는다면, 평가 결합장치(217)에 의해 생성된 평가들의 결합된 집합 및 얼굴 이미지(202)는 바람직하기로 새로운 고객을 나타내는 것으로서 데이터베이스(218)에 저장되며, 새로운 고객의 카운터(219)는 1로 초기화된다. Alternatively, if it is not determined that the combined set of evaluations generated by the evaluator combiner 217 matches any of the sets of evaluations stored in the database 218, The combined set and face image 202 is preferably stored in database 218 as representing a new customer and the new customer's counter 219 is initialized to one.

이제, 도 2b를 살펴보면, 가령 1월 1일 오후 5:00와 같은 종료시간에, 백화점의 매니저는 바람직하기로 1월 1일 동안 백화점을 입장했던 고객들의 세그멘테이션(segmentation)을 포함하는 시스템(210)으로부터의 제 1 리포트(230)를 수신한다. 이런 세그멘테이션은 임의의 형용사들에 따라, 가령 성별, 연령층, 인종 및 기분과 같이 데이터베이스(218)에 저장될 수 있다. 또한, 리포트(230)는 바람직하기로 1월 1일의 고객들에 의해 백화점으로 행해진 이전의 방문수에 대한 정보를 포함한다. Now, referring to FIG. 2B, at the end time, such as 5:00 PM on January 1, the manager of the department store preferably includes a system 210 that includes segmentation of customers who entered the department store during January 1 The first report 230 is received. Such segmentation may be stored in the database 218, such as by gender, age group, race and mood, depending on the adjectives. In addition, the report 230 preferably includes information on previous visits made to the department store by customers on January 1.

추가로, 백화점의 매니저는 또한 1월 1일 동안 백화점을 입장했던 재방문 고객들의 세크멘테이션을 포함하는 시스템(210)으로부터의 제 2 리포트(234)를 수신할 수 있다. 이런 세그멘테이션은 임의의 형용사들에 따라, 가령 성별, 연령층, 인종 및 기분과 같이 데이터베이스(218)에 저장될 수 있다. 리포트(230 및 234)는 예컨대 타겟 마케팅 캠페인(targeted marketing campaigns)을 계획하거나 이전에 실행된 마케팅 캠페인의 성공을 평가하는데 유용할 수 있다고 인식된다. In addition, the manager of the department store may also receive a second report 234 from the system 210 that includes the reclassification of returning customers who entered the department store during January 1. Such segmentation may be stored in the database 218, such as by gender, age group, race and mood, depending on the adjectives. Reports 230 and 234 are perceived to be useful, for example, in planning targeted marketing campaigns or in evaluating the success of previously executed marketing campaigns.

이제, 본 발명의 또 다른 바람직한 실시예에 따라 이미지-텍스트 및 텍스트-이미지의 연관을 이용하는 식별 시스템의 개략도인 도 3a 및 3b를 참조로 한다. 도 3a에 도시된 바와 같이, 가령 1월 1일과 같은 특정한 날에, AAA 백화점의 고객이 백화점으로 입장하고, 백화점의 장난감 매장에서 상품을 구경한다. 장난감 매장에 설치된 디지털 카메라(250)는 고객의 얼굴 이미지(252)를 캡처한다. 도 3a에 도시된 바와 같이, 추가의 디지털 카메라가 바람직하기로 백화점의 다양한 매장 도처에 설치된다.  Reference is now made to Figs. 3A and 3B which are schematic diagrams of an identification system utilizing an association of image-text and text-image in accordance with another preferred embodiment of the present invention. As shown in FIG. 3A, on a particular day, such as January 1, a customer of the AAA department store enters the department store and watches the merchandise at the toy store of the department store. The digital camera 250 installed in the toy store captures the customer's face image 252. As shown in FIG. 3A, additional digital cameras are preferably installed throughout the various stores of the department store.

얼굴 이미지(252)는 얼굴 모델 생성 기능부(262), 이미지-속성 맵핑 기능부(264), 속성-이미지 맵핑 기능부(266) 및 평가 결합장치(267)를 포함하는 컴퓨터화된 개인 식별 시스템(260)으로 전송된다. 바람직하기로, 컴퓨터화된 식별 시스템(260)은 또한 바람직하게는 하루 동안 백화점으로 입장한 모든 고객의 얼굴 속성들의 평가들을 저장하는 고객 데이터베이스(268) 및 백화점의 매장들 중 어디에 각 고객이 방문했는지를 나타내는 정보를 포함한다. 데이터베이스(268)는 임의의 적합한 컴퓨터화된 정보 스토어일 수 있다고 인식된다. The face image 252 includes a computerized personal identification system 264 including a face model generation function 262, an image-attribute mapping function 264, an attribute-image mapping function 266, Lt; / RTI > Preferably, the computerized identification system 260 also includes a customer database 268 that stores assessments of all customer face attributes that have entered the department store for preferably one day, As shown in FIG. It is recognized that the database 268 may be any suitable computerized information store.

얼굴 모델 생성 기능부(262)는 얼굴 이미지(252)에 해당하는 얼굴 모델(270)을 생성하도록 동작한다. 얼굴 모델 생성 기능부(262)는 해당기술분야에서 공지된 임의의 적합한 얼굴 모델 생성 방법을 이용할 수 있다고 인식된다. 도 3a에 도시된 바와 같이, 얼굴 모델 생성 기능부(262)에 의해 생성되고 얼굴 이미지(252)에 해당하는 얼굴 모델(270)은 얼굴 이미지(252)의 고객의 속성들 중 하나로서 데이터베이스(268)에 저장된다. The face model generation function unit 262 operates to generate a face model 270 corresponding to the face image 252. [ It is recognized that the facial model generation function 262 can utilize any suitable method of generating face models known in the art. 3A, the face model 270 generated by the face model generation function section 262 and corresponding to the face image 252 is stored in the database 268 as one of the attributes of the customer of the face image 252 ).

본 발명의 바람직한 실시예에 따르면, 이미지-속성 맵핑 기능부(264)는 형용사들(272)로 표현된 평가들을 얼굴 이미지(252)의 복수의 얼굴 속성들로 할당하도록 동작한다. 예컨대, 얼굴 속성을 나타내는 형용사들(272)은 연령층, 성별, 인종, 얼굴형, 기분 및 전반적인 외모를 묘사하는 형용사들을 포함할 수 있다. 도 3a에 도시된 바와 같이, 얼굴 이미지(252)에 해당하는, 속성 맵핑 기능부(264)에 의해 생성된 형용사들은 얼굴 이미지(252)의 고객의 속성들의 평가로서 데이터베이스(268)에 저장된다. According to a preferred embodiment of the present invention, the image-attribute mapping function 264 operates to assign the evaluations represented by the adjectives 272 to a plurality of face attributes of the face image 252. [ For example, adjectives 272 representing facial attributes may include adjectives describing the age group, sex, race, face type, mood, and overall appearance. The adjectives generated by the attribute mapping function 264, corresponding to the face image 252, are stored in the database 268 as an evaluation of the attributes of the customer of the face image 252, as shown in FIG.

또한, 본 발명의 바람직한 실시예에 따르면, 속성-이미지 맵핑 기능부(266)는 얼굴 속성들의 평가들의 집합을 이용하여 해당하는 저장된 얼굴 이미지를 식별함으로써 특정 개인을 식별하도록 동작한다. 또한, 평가들의 집합은 얼굴 속성들의 현재 평가들이 이용가능하지 않는 경우, 단기간 내에 개인을 식별하는데 사용될 수 있는, 가령 의류 타입 및 색깔과 같은 고객의 외모의 비-신체적인 특징을 포함할 수 있다고 인식된다. Also, according to a preferred embodiment of the present invention, the attribute-image mapping function 266 operates to identify a particular individual by identifying a corresponding stored face image using a set of evaluations of face attributes. In addition, the set of evaluations may be used to identify non-physical features of the customer's appearance, such as clothing type and color, which may be used to identify an individual within a short period of time if current assessments of face attributes are not available do.

또한, 본 발명의 바람직한 실시예에 따르면, 평가 결합장치(267)는 바람직하기로 얼굴 모델 및 얼굴 속성들의 평가들의 집합을 해당하는 저장된 평가들의 집합과 매칭될 수 있는 평가들의 결합된 집합으로 결합함으로써, 특정 개인을 식별하도록 동작한다. Also, in accordance with a preferred embodiment of the present invention, the evaluator combiner 267 preferably combines the set of evaluations of the face model and face attributes into a combined set of evaluations that can be matched with a corresponding set of stored evaluations, To identify a particular individual.

추가로, 시스템(260)은 고객이 방문했던 매장을 데이터베이스(268)에 장난감 매장이라고 기록한다. In addition, the system 260 records the store the customer visited in the database 268 as a toy store.

이제, 도 3b를 살펴보면, 가령 1월 1일 오후 5:00와 같은 종료시간에, 백화점의 매니저는 바람직하기로 1월 1일 동안 백화점의 장난감 매장을 입장했던 고객들의 세그멘테이션을 포함하는 시스템(260)으로부터의 리포트(280)를 수신한다. 이런 세그멘테이션은 임의의 형용사들에 따라, 가령 성별, 연령층, 인종 및 기분과 같이 데이터베이스(268)에 저장될 수 있다. 예컨대, 리포트(280)는 타겟 마케팅 캠페인을 계획하거나 이전에 실행된 마케팅 캠페인의 성공을 평가하는데 유용할 수 있다고 인식된다. Now, referring to FIG. 3B, at the end time, such as 5:00 PM on January 1, the manager of the department store preferably has a system 260 including segmentation of customers who entered the toy store of the department store during Jan. 1 A report 280 is received. This segmentation may be stored in database 268, such as by gender, age group, race and mood, depending on the adjectives. For example, it is recognized that the report 280 may be useful in planning a targeted marketing campaign or in evaluating the success of a previously executed marketing campaign.

이제, 본 발명의 또 다른 바람직한 실시예에 따라 이미지-텍스트 및 텍스트-이미지의 연관을 이용하는 식별 시스템의 개략도인 도 4a, 4b 및 4c를 참조로 한다. 도 4a에 도시된 바와 같이, 1월 1일에, 잠재적인 참석자가 바람직하게는 컴퓨터(300)를 통해 플로리스트들(florists)의 연례 회의에 참석하기 위해 등록한다. 등록 프로세스의 일환으로, 잠재적인 참석자는 바람직하기로 가령 그의 성명과 같은 개인 식별 사항을 입력하고 그 자신의 적어도 하나의 얼굴 이미지(302)를 업로드하도록 요구된다. 대안으로, 잠재적인 참석자는 개인 식별 사항 및 예컨대 기존의 개인 소셜 네트워크 계정으로부터의 하나 이상의 얼굴 이미지를 불러오도록 선택할 수 있다. Reference is now made to Figs. 4A, 4B and 4C which are schematic diagrams of an identification system utilizing an association of image-text and text-image in accordance with another preferred embodiment of the present invention. As shown in FIG. 4A, on January 1, a potential participant registers preferably to attend the annual meeting of florists via computer 300. [ As part of the registration process, a potential participant is preferably required to enter a personal identification, such as his / her name, and upload his / her at least one face image 302. Alternatively, a potential participant may choose to retrieve personal identification and, for example, one or more face images from an existing personal social network account.

개인 식별 사항 및 얼굴 이미지(302)는 바람직하기로 얼굴 모델 생성 기능부(312), 이미지-속성 맵핑 기능부(314), 속성-이미지 맵핑 기능부(316) 및 평가 결합장치(317)를 포함하는 컴퓨터화된 회의 등록 시스템(310)으로 전송된다. 바람직하기로, 컴퓨터화된 회의 등록 시스템(310)은 또한 등록 사항 및 모든 등록된 참석자의 얼굴 속성들의 평가들을 저장하는 데이터베이스(318)를 포함한다. 데이터베이스(318)는 임의의 적합한 컴퓨터화된 정보 스토어일 수 있다고 인식된다. The personal identification and face image 302 preferably includes a face model generation function 312, an image-attribute mapping function 314, an attribute-image mapping function 316 and an evaluation combination device 317 Lt; RTI ID = 0.0 > 310 < / RTI > Preferably, the computerized conference registration system 310 also includes a database 318 that stores the registration details and evaluations of the face attributes of all registered attendees. It is recognized that the database 318 may be any suitable computerized information store.

얼굴 모델 생성 기능부(312)는 얼굴 이미지(302)에 해당하는 얼굴 모델(320)을 생성하도록 동작한다. 얼굴 모델 생성 기능부(312)는 해당기술분야에서 공지된 임의의 적합한 얼굴 모델 생성 방법을 이용할 수 있다고 인식된다. 도 4a에 도시된 바와 같이, 얼굴 모델 생성 기능부(312)에 의해 생성되고 얼굴 이미지(302)에 해당하는 얼굴 모델(320)은 잠재적인 참석자인 존스씨의 속성들 중 하나로서 데이터베이스(318)에 저장된다. The face model generation function unit 312 operates to generate a face model 320 corresponding to the face image 302. It is recognized that the face model generation function 312 can use any suitable method of generating a face model known in the art. 4A, the face model 320 generated by the face model generation function 312 and corresponding to the face image 302 is stored in the database 318 as one of the attributes of Jones, a potential participant, / RTI >

본 발명의 바람직한 실시예에 따르면, 이미지-속성 맵핑 기능부(314)는 형용사들(322)에 의해 표현된 평가들을 얼굴 이미지(308)의 복수의 얼굴 속성들에 할당하도록 동작한다. 예컨대, 얼굴 속성들을 나타내는 형용사들은 머리색, 코 모양, 피부색, 얼굴형, 얼굴 수염의 타입 및 유무를 묘사하는 형용사들을 포함할 수 있다. 도 4a에 도시된 바와 같이, 얼굴 이미지(302)에 해당하는, 속성 맵핑 기능부(314)에 의해 생성된 형용사들은 잠재적인 참석자인 존스씨의 속성들의 평가들로서 데이터베이스(318)에 저장된다. According to a preferred embodiment of the present invention, the image-attribute mapping function 314 operates to assign the evaluations represented by the adjectives 322 to a plurality of face attributes of the face image 308. For example, adjectives representing facial properties may include adjectives describing hair color, nose shape, skin color, face type, face beard type and presence or absence. 4A, the adjectives generated by the attribute mapping function 314, corresponding to the face image 302, are stored in the database 318 as evaluations of the attributes of Jones, a potential participant.

또한, 본 발명의 바람직한 실시예에 따르면, 속성-이미지 맵핑 기능부(316)는 얼굴 속성들의 평가들의 집합을 이용하여 해당하는 저장된 얼굴 이미지를 식별함으로써 특정 개인을 식별하도록 동작한다. Also, according to a preferred embodiment of the present invention, the attribute-image mapping function 316 operates to identify a particular individual by identifying a corresponding stored face image using a set of evaluations of face attributes.

또한, 본 발명의 바람직한 실시예에 따르면, 평가 결합장치(317)는 바람직하기로 얼굴 모델 및 얼굴 속성들의 평가들의 집합을 해당하는 저장된 평가들의 집합과 매칭될 수 있는 평가들의 결합된 집합으로 결합함으로써, 특정 개인을 식별하도록 동작한다. In addition, according to a preferred embodiment of the present invention, the evaluator combiner 317 preferably combines the set of evaluations of the face model and face attributes into a combined set of evaluations that can be matched with a corresponding set of stored evaluations, To identify a particular individual.

이제, 도 4b를 살펴보면, 가령 1월 17일과 같은 차후 날짜에, 참석자는 플로리스트들의 연례 회의에 입장하고, 회의장에서 등록 부스(330)로 다가가는 것이 도시된다. 등록 부스(330)는 참석자의 얼굴 이미지(334)를 캡처하는 디지털 카메라(332)를 포함한다. 얼굴 이미지(334)는 컴퓨터화된 회의 등록 시스템(310)으로 전송되는데, 여기서 얼굴 이미지(334)에 해당하는 얼굴 모델(340)은 바람직하기로 얼굴 모델 생성 기능부(312)에 의해 생성된다. 추가로, 형용사들로 표현된 평가들(342)은 바람직하기로 이미지-속성 맵핑 기능부(314)에 의해 얼굴 이미지(334)의 복수의 얼굴 속성들로 할당된다. Now, referring to FIG. 4B, it is shown that at a later date, such as January 17, the attendee enters the annual meeting of the florists and approaches the registration booth 330 at the conference hall. The registration booth 330 includes a digital camera 332 that captures the face image 334 of the attendee. The face image 334 is transmitted to the computerized conference registration system 310 where the face model 340 corresponding to the face image 334 is preferably generated by the face model generation function 312. In addition, evaluations 342, which are expressed as adjectives, are preferably assigned by the image-attribute mapping function 314 to a plurality of face attributes of the face image 334.

도 4b에 도시된 바와 같이, 얼굴 모델(340) 및 평가들(342)은 바람직하기로 평가 결합장치(317)에 의해 평가들의 결합된 집합으로 결합되는데, 이런 결합된 집합은 데이터베이스(318)에 저장된 평가들의 집합과 비교되며, 상기 얼굴 모델과 존스씨로 할당된 평가들이 매칭한다고 판명됨으로써, 카메라(332)에 의해 캡처된 얼굴 이미지(334)에 묘사된 사람을 존스씨인 것으로 식별한다. 평가 결합장치(317)에 의해 결합되고 데이터베이스(318)에 저장된 평가들의 집합들과 비교되는 평가들의 집합은 얼굴 모델(340)과 형용사들(342)의 임의의 서브세트일 수 있다고 인식된다. 존스씨인 것으로 식별될 때, 참석자의 등록이 완료되고, 회의 직원이 참석자를 맞이한다. 4B, the face model 340 and the evaluations 342 are preferably combined into a combined set of evaluations by the evaluator combiner 317, which is then stored in the database 318 And identifies the person depicted in the face image 334 captured by the camera 332 as being Jones by proving that the assessments assigned to the face model and Jones are matched. It is recognized that the set of evaluations that are combined by the evaluator combiner 317 and that are compared to the sets of evaluations stored in the database 318 can be any subset of the face model 340 and adjectives 342. When it is identified as Mr. Jones, the registration of the attendee is completed, and the meeting staff welcomes the attendee.

이제, 도 4c를 살펴보면, 회의에 참석하는 동안 다른 참석자에게 소개받기를 원하는 참석자는 다른 참석자들이 예컨대 모바일 통신 장치(352)에 내장된 디지털 카메라를 사용하여 그들의 얼굴 이미지(350)를 캡처할 수 있도록 한다는 것을 도시한다. 회의 참석자의 모바일 통신 장치(352)는 컴퓨터 네트워크를 통해 컴퓨터화된 회의 등록 시스템(310)으로의 접근이 허용된다. 컴퓨터 네트워크는 예컨대 로컬 컴퓨터 네트워크 또는 인터넷일 수 있다고 인식된다. 4C, an attendee who wishes to be introduced to another participant while attending a meeting may be able to capture their face image 350 using a digital camera embedded in the mobile communication device 352, for example, Lt; / RTI > The conference attendee's mobile communication device 352 is allowed access to a computerized conference registration system 310 via a computer network. It is recognized that the computer network may be, for example, a local computer network or the Internet.

추가로 또는 대안으로, 참석자는 새로운 참석자의 얼굴 이미지를 캡처하고, 바람직하게는 관련 개인 식별 정보와 함께 얼굴 이미지를 등록 시스템(310)으로 전송함으로써, 컴퓨터화된 회의 등록 시스템(310)에 접근하여 새로운, 현재 미등록된 참석자를 회의로 등록한다. Additionally or alternatively, the attendee may access the computerized conference registration system 310 by capturing a face image of the new attendee and preferably sending the face image with the associated person identification information to the registration system 310 Register new, currently unregistered attendees as meetings.

회의 참석자의 이미지(350)를 캡처할 때, 모바일 통신 장치(352)는 컴퓨터 네트워크를 통해 이미지(350)를 컴퓨터화된 회의 등록 시스템(310)으로 전송하는데, 여기서 얼굴 이미지(350)에 해당하는 얼굴 모델(360)은 바람직하기로 얼굴 모델 생성 기능부(312)에 의해 생성된다. 추가로, 형용사들로 표현된 평가들(362)은 바람직하기로 이미지-속성 맵핑 기능부(314)에 의해 얼굴 이미지(350)의 복수의 얼굴 속성들에 할당된다. The mobile communication device 352 sends the image 350 via the computer network to the computerized conference registration system 310 where the image corresponding to the face image 350 The face model 360 is preferably generated by the face model generation function 312. In addition, the evaluations 362 represented by the adjectives are preferably assigned to a plurality of face attributes of the face image 350 by the image-attribute mapping function 314.

도 4c에 도시된 바와 같이, 얼굴 모델(360) 및 평가들(362)은 바람직하기로 평가 결합장치(317)에 의해 평가들의 결합된 집합으로 결합되는데, 이런 결합된 집합은 데이터베이스(318)에 저장된 평가들의 집합과 비교되며, 얼굴 모델 및 평가들이 존스씨로 할당된 얼굴 모델 및 평가들과 매칭한다고 판명됨으로써, 모바일 통신 장치(352)에 의해 캡처된 얼굴 이미지(350)에 묘사된 사람을 존스씨인 것으로 식별한다. 평가 결합장치(317)에 의해 결합되고 데이터베이스(318)에 저장된 평가들의 집합들과 비교되는 평가들의 집합은 얼굴 모델(360)과 형용사들(362)의 임의의 서브세트일 수 있다고 인식된다. 이미지(350)에 묘사된 참석자를 존스씨로 식별한 알림이 컴퓨터화된 회의 등록 시스템(310)에 의해 모바일 통신 장치(352)로 재전송되며, 이런 알림은 모바일 통신 장치(352)의 조작자가 존스씨에게 다가가고 있음을 인지할 수 있도록 한다. 4C, the face model 360 and the evaluations 362 are preferably combined into a combined set of evaluations by the evaluator combiner 317, which in turn is coupled to the database 318 Is compared to the set of stored assessments and the person depicted in the face image 350 captured by the mobile communication device 352 is identified by Jones as being proved to match the face models and assessments assigned to Jones & . It is recognized that the set of evaluations that are combined by the rating combination device 317 and that are compared to the sets of ratings stored in the database 318 can be any subset of the face model 360 and adjectives 362. A notification identifying the attendee depicted in image 350 as Jones is retransmitted to the mobile communication device 352 by the computerized conference registration system 310 and the notification is sent by the operator of the mobile communication device 352 to Jones Let him know that he is approaching him.

이제, 본 발명의 또 다른 바람직한 실시예에 따라 이미지-텍스트 및 텍스트-이미지의 연관을 이용하는 식별 시스템의 개략도인 도 5a 및 5b를 참조로 한다. 도 5a 및 5b의 실시예에서는 사람과 컨텍스트 사이의 관계를 측정하는 관계 계수가 이용된다. 예컨대, 컨텍스트는 지리적 위치 또는 이벤트일 수 있고, 관계 계수는 평가 및 기정의된 감쇠 함수(decay function)를 포함한다. 한 사람이 다수의 컨텍스트와 동시에 관계 계수를 가질 수 있다. 예컨대, 관계 계수는 사람이 특정 시간에 소정의 위치에 있을 확률을 예상하는데 사용될 수 있다. Reference is now made to Figs. 5A and 5B which are schematic diagrams of an identification system utilizing an association of image-text and text-image in accordance with another preferred embodiment of the present invention. In the embodiment of Figures 5A and 5B, a relationship coefficient is used to measure the relationship between a person and a context. For example, the context may be a geographic location or an event, and the relational factor includes an evaluated and predetermined decay function. One person can have relationship counts at the same time as multiple contexts. For example, the relationship coefficient may be used to predict the probability that a person will be in a predetermined position at a particular time.

감쇠 함수는 임의의 수학적 함수일 수 있다. 예컨대, 지리적 위치에 대한 감쇠 함수는 사람이 시간에 따라 그 위치로부터 점차적으로 그리고 선형적으로 떨어져 있는 성향을 나타내는, 선형 함수일 수 있다. 예컨대, 1회성 이벤트(one-time event)에 대한 감쇠 함수는 지수형 감쇠 함수일 수 있다.The damping function may be any mathematical function. For example, the damping function for a geographic location may be a linear function, which indicates a tendency for a person to gradually and linearly separate from its location over time. For example, the damping function for a one-time event may be an exponential damping function.

사람이 특정 컨텍스트 내에 있는 동안, 사람과 컨텍스트 사이의 생성된 관계 계수의 현재 값이 높도록 설정된다. 그 사람이 그 컨텍스트 내에 반복하여 보일 때마다, 관계 계수의 값은 지수형 방식에서 잠재적으로 증가한다.While the person is in a particular context, the current value of the generated relationship coefficient between the person and the context is set to be high. Whenever the person appears repeatedly in its context, the value of the relationship coefficient potentially increases in an exponential manner.

컨텍스트는 계층적(hierarchical)일 수 있다고 인식된다. 예컨대, 지리적 위치는 가령 도시나 나라와 같은 더 큰 지리적 영역 내에 있을 수 있다. 따라서, 특정 지리적 위치와 관계 계수를 갖는 사람은 또한 그 특정 지리적 위치와 계층적인 모든 다른 지리적 위치와 낮은 관계 계수를 가질 수 있는데, 이런 관계 계수는 특정 지리적 위치 및 관계형의 계층적인 지리적 위치 사이의 거리의 함수로 감소한다. It is recognized that the context can be hierarchical. For example, a geographic location may be within a larger geographic area, such as a city or a country. Thus, a person having a particular geographic location and a relationship coefficient may also have a low relationship coefficient with that particular geographic location and all other geographic locations that are hierarchical, such that the distance coefficient between the particular geographic location and the hierarchical geographic location of the relational form .

또한, 다른 사람들의 관계 계수는 적어도 부분적으로 상호의존적일 수 있다고 인식된다. 예컨대, 다수의 시기에 다수의 위치에서 제 2 사람과 함께 발견되었던 제 1 사람은 제 2 사람이 발견되었던 새로운 위치에 대해 상대적으로 높은 관계 계수를 할당받을 수 있을 것이다. It is also recognized that the relationship coefficients of others can be at least partially interdependent. For example, a first person who has been found with a second person at multiple locations at multiple times may be assigned a relatively higher relationship count for a new location where the second person was found.

도 5a에 도시된 바와 같이, 가령 2011년 1월 1일과 같은 특정한 날에, 프랑스 파리의 에펠탑에서 근접한 카페 자크(Cafe Jaques)에서 저녁식사를 한다. 식사 손님의 친구가 휴대용 모바일 장치(402)의 일부인 디지털 카메라를 이용하여 식사 손님의 얼굴 이미지(400)를 캡처하고, 인터넷을 통해 관련 시간 및 위치와 함께 얼굴 이미지(400)를 컴퓨터화된 개인 식별 시스템(410)으로 전송함으로써, 식사 손님의 광경을 등록한다. 예컨대, 위치는 장치(402)에 구비된 GPS 모듈에 의해 제공될 수 있다. 대안으로, 위치는 예컨대 소셜 네트워크로부터 검색될 수 있다. 관련 시간 및 위치를 사용하여, 식사 손님과 위치를 관계짓는 관계 계수가 상술한 바와 같이 생성된다. As shown in FIG. 5A, on a particular day, such as January 1, 2011, dinner is served at the nearby Cafe Jaques in the Eiffel Tower, Paris, France. A friend of the meal guest captures a facial image 400 of a meal guest using a digital camera that is part of the portable mobile device 402 and sends the facial image 400 with computerized personal identification < RTI ID = 0.0 > System 410 to register the scene of a meal guest. For example, the location may be provided by a GPS module included in the device 402. Alternatively, the location may be retrieved, for example, from a social network. Using the associated time and location, a relationship coefficient that relates the location to the meal guest is generated as described above.

컴퓨터화된 개인 식별 시스템(410)은 얼굴 모델 생성 기능부(412), 이미지-속성 맵핑 기능부(414), 속성-이미지 맵핑 기능부(416) 및 평가 결합장치(417)를 포함한다. 바람직하기로, 컴퓨터화된 개인 식별 시스템(410)은 또한 관련 시간 및 위치와 함께, 바람직하기로 발견되고 등록된 모든 사람의 얼굴 속성들의 평가들을 저장하는 광경 데이터베이스(418)를 포함한다. 데이터베이스(418)는 임의의 적합한 컴퓨터화된 정보 스토어일 수 있다고 인식된다. The computerized personal identification system 410 includes a face model generation function 412, an image-attribute mapping function 414, an attribute-image mapping function 416, and an evaluation combination device 417. Preferably, the computerized personality identification system 410 also includes a sight database 418 that stores, together with the associated time and location, estimates of the face attributes of all persons preferably discovered and registered. It is recognized that the database 418 may be any suitable computerized information store.

얼굴 모델 생성 기능부(412)는 얼굴 이미지(400)에 해당하는 얼굴 모델(420)을 생성하도록 동작한다. 얼굴 모델 생성 기능부(422)는 해당기술분야에 공지된 임의의 적합한 얼굴 모델 생성 방법을 이용할 수 있다고 인식된다. 도 5a에 도시된 바와 같이, 얼굴 모델 생성 기능부(412)에 의해 생성되고 얼굴 이미지(400)에 해당하는 얼굴 모델(420)은 얼굴 이미지(400)의 개인의 속성들 중 하나로서 데이터베이스(418)에 저장된다. The face model generation function unit 412 operates to generate a face model 420 corresponding to the face image 400. [ It is recognized that the facial model generation function 422 can utilize any suitable method of face model generation known in the art. 5A, the face model 420 generated by the face model generation function 412 and corresponding to the face image 400 is stored in the database 418 as one of the personal attributes of the face image 400 ).

본 발명의 바람직한 실시예에 따르면, 이미지-속성 맵핑 기능부(414)는 형용사들(422)로 표현된 평가들을 얼굴 이미지(400)의 복수의 얼굴 속성들에 할당하도록 동작한다. 예컨대, 얼굴 속성들을 나타내는 형용사들(422)은 연령층, 성별, 인종, 얼굴형, 기분 및 전반적인 외모를 묘사하는 형용사들을 포함할 수 있다. 도 5a에 도시된 바와 같이, 얼굴 이미지(400)에 해당하는, 속성 맵핑 기능부(414)에 의해 생성된 형용사들은 얼굴 이미지(400)의 개인의 속성들의 평가들로서 데이터베이스(418)에 저장된다. 추가로, 얼굴 이미지(400)와 관련된 시간 및 위치는 또한 데이터베이스(418)에 저장된다. According to a preferred embodiment of the present invention, the image-attribute mapping function 414 is operative to assign the evaluations represented by the adjectives 422 to a plurality of face attributes of the face image 400. For example, adjectives 422 representing facial attributes may include adjectives describing age groups, gender, race, facial form, mood, and overall appearance. 5A, the adjectives generated by the attribute mapping function 414, corresponding to the face image 400, are stored in the database 418 as evaluations of the individual attributes of the face image 400. As shown in FIG. Additionally, the time and location associated with the face image 400 are also stored in the database 418. [

또한, 본 발명의 바람직한 실시예에 따르면, 속성-이미지 맵핑 기능부(416)는 얼굴 속성들의 평가들의 집합을 이용하여 해당하는 저장된 얼굴 이미지를 식별함으로써, 특정 개인을 식별하도록 동작한다. 또한, 평가들의 집합은 얼굴 속성들의 현재 평가들이 이용가능하지 않는 경우, 단기간 내에 개인을 식별하는데 사용될 수 있는, 가령 의류 타입 및 색깔과 같은 고객의 외모의 비-신체적인 특징을 포함할 수 있다고 인식된다. Also, according to a preferred embodiment of the present invention, the attribute-image mapping function 416 operates to identify a particular individual by identifying a corresponding stored face image using a set of evaluations of face attributes. In addition, the set of evaluations may be used to identify non-physical features of the customer's appearance, such as clothing type and color, which may be used to identify an individual within a short period of time if current assessments of face attributes are not available do.

또한, 본 발명의 바람직한 실시예에 따르면, 평가 결합장치(417)는 바람직하기로 얼굴 모델 및 얼굴 속성들의 평가들의 집합을 해당하는 저장된 평가들의 집합과 매칭될 수 있는 평가들의 결합된 집합으로 결합함으로써, 특정 개인을 식별하도록 동작한다. Furthermore, in accordance with a preferred embodiment of the present invention, the evaluation combining device 417 preferably combines the set of evaluations of face models and face attributes into a combined set of evaluations that can be matched with a corresponding set of stored evaluations, To identify a particular individual.

이제, 도 5b를 살펴보면, 가령 2011년 2월 1일과 같은 차후 날짜에, 프랑스 파리의 에펠탑에서 근접한 카페 자크에서 저녁식사를 한다. 행인이 휴대용 모바일 장치(452)의 일부인 디지털 카메라를 이용하여 식사 손님의 얼굴 이미지(450)를 캡처하고, 인터넷을 통해 관련 시간 및 위치와 함께 얼굴 이미지(450)를 컴퓨터화된 개인 식별 시스템(410)으로 전송함으로써 식사 손님의 광경을 등록하는데, 컴퓨터화된 개인 식별 시스템에서 얼굴 이미지(450)에 해당하는 얼굴 모델(460)이 바람직하기로 얼굴 모델 생성 기능부(412)에 의해 생성된다. 추가로, 형용사들로 표현된 평가들(462)은 바람직하기로 이미지-속성 맵핑 기능부(414)에 의해 얼굴 이미지(450)의 복수의 얼굴 속성들에 할당된다. Now, looking at FIG. 5B, we will have dinner at the nearby Café Jacques at the Eiffel Tower in Paris, France, for example on February 1, 2011. A passenger captures a facial image 450 of a meal guest using a digital camera that is part of the portable mobile device 452 and transmits the facial image 450 with relevant time and location over the Internet to a computerized personal identification system 410 The face model 460 corresponding to the face image 450 in the computerized personal identification system is preferably created by the face model generation function 412. [ In addition, the evaluations 462 represented by the adjectives are preferably assigned to a plurality of face attributes of the face image 450 by the image-attribute mapping function 414.

도 5b에 도시된 바와 같이, 얼굴 모델(460), 평가들(462) 및 얼굴 이미지(450)와 관련된 시간과 위치는 바람직하기로 평가 결합장치(417)에 의해 평가들의 결합된 집합으로 결합되는데, 이런 결합된 집합은 데이터베이스(418)에 저장된 평가들의 집합과 비교되며, 얼굴 모델, 평가들 및 얼굴 이미지와 관련된 시간과 위치들이 2011년 1월 1일에 에펠탑에서 가장 최근에 발견된 식사 손님에 할당되는 결합된 평가들과 매칭한다고 판명된다. 평가 결합장치(417)에 의해 결합되고 데이터베이스(418)에 저장된 평가들의 집합들과 비교되는 평가들의 집합은 얼굴 모델(460)과 형용사들(462)의 임의의 서브세트일 수 있다고 인식된다. 이미지(450)에 묘사된 식사 손님을 식별한 알림이 컴퓨터화된 개인 식별 시스템(410)에 의해 모바일 통신 장치(452)로 재전송된다. 5B, the time and position associated with the face model 460, the evaluations 462, and the face image 450 are preferably combined into a combined set of evaluations by the evaluation combination device 417 , This combined set is compared to the set of ratings stored in the database 418 and the time and locations associated with the face model, assessments, and facial images are compared to the most recently discovered meal guest at the Eiffel Tower on January 1, It is found to match the assigned combined evaluations. It is recognized that the set of evaluations that are combined by the rating combination device 417 and that are compared to the sets of ratings stored in the database 418 may be any subset of the face model 460 and adjectives 462. A notification identifying the meal guest depicted in the image 450 is retransmitted to the mobile communication device 452 by the computerized personal identification system 410. [

본 발명의 이런 실시예의 특정한 특징은 식사 손님과 위치를 관계짓는 관계 계수가 또한 식사 손님의 식별의 신뢰성을 증가시키는 속성값(attribute value)으로서 사용될 수 있다는 점이다. A particular feature of this embodiment of the invention is that the relationship coefficient relating the location to a meal guest can also be used as an attribute value to increase the reliability of the identification of a meal guest.

본 발명의 본 실시예의 특정한 특징은 가령 한 개인이 자주 다니는 특정 위치와 같은 추가 정보와 함께 얼굴 이미지와 연관된 얼굴 속성들의 평가들의 조합이 가령 특정 위치에 근접한 다른 위치들과 같은 특정 위치나 관련 위치에서 개인들을 더 효율적으로 식별하도록 동작한다는 점이다. A particular feature of this embodiment of the present invention is that a combination of evaluations of facial attributes associated with a facial image together with additional information, such as a particular location, for example an individual's frequent location, And operate to identify individuals more efficiently.

본 발명의 본 실시예의 또 다른 특정한 특징은 본 발명의 본 실시예에 따른 개인들의 식별이 가령 이름 및 성과 같은 개인 식별 정보를 기초로 특정 개인의 정확한 식별로 제한되는 것이 아니라, 개인들에 대한 얼굴 속성 및 종합적인 행동 정보에 따른 개인들의 식별도 포함한다는 점이다. Another specific feature of the present embodiment of the present invention is that the identification of individuals according to this embodiment of the present invention is not limited to accurate identification of a specific individual based on individual identification information such as name and performance, Attributes and identification of individuals according to comprehensive behavioral information.

이제, 본 발명의 또 다른 바람직한 실시예에 따라 이미지-텍스트 및 텍스트-이미지의 연관을 이용하는 사용자 만족 모니터링 시스템의 개략도인 도 6을 참조로 한다. 도 6에 도시된 바와 같이, 열람자는 멀티미디어 뷰잉 장치(multimedia viewing device)(480)를 사용하여 컴퓨터화된 컨텐츠(482)를 열람한다. 예컨대, 장치(480)는 텔레비전 장치 또는 컴퓨터일 수 있다고 인식된다. 예컨대, 컨텐츠(482)는 비디오 클립, 영화 또는 광고일 수 있다.Reference is now made to Fig. 6, which is a schematic diagram of a user satisfaction monitoring system that utilizes an association of image-text and text-image in accordance with another preferred embodiment of the present invention. As shown in FIG. 6, the reader browses the computerized content 482 using a multimedia viewing device 480. For example, it is recognized that the device 480 may be a television device or a computer. For example, the content 482 may be a video clip, a movie, or an advertisement.

바람직하기로, 멀티미디어 뷰잉 장치(480)에 연결된 디지털 카메라(484)는 예컨대 매번 수초씩과 같은 기정의된 간격으로 열람자의 얼굴 이미지(486)를 캡처하고, 인터넷을 통해 온라인 컴퓨터화된 컨텐츠 만족 모니터링 시스템(490)으로 이미지(486)를 전송한다. 대안으로, 이미지(486)는 장치(480)에 내장된 적합한 기능으로 모니터되고, 저장되며, 분석될 수 있다. Preferably, the digital camera 484 connected to the multimedia viewing device 480 captures the face image 486 of the viewer at regular intervals, such as every few seconds, and displays the online computerized content satisfaction monitoring And transmits the image 486 to the system 490. Alternatively, the image 486 may be monitored, stored, and analyzed with appropriate functionality embedded in the device 480. [

바람직하기로, 시스템(490)은 이미지-속성 맵핑 기능부(492) 및 열람자 표정 데이터베이스(494)를 포함한다. 데이터베이스(494)는 임의의 적합한 컴퓨터화된 정보 스토어일 수 있다고 인식된다. Preferably, the system 490 includes an image-attribute mapping function 492 and a viewer lookup database 494. It is recognized that the database 494 may be any suitable computerized information store.

본 발명의 바람직한 실시예에 따르면, 이미지-속성 맵핑 기능부(492)는 형용사(496)로 표현된 평가를 얼굴 이미지(486)에 캡처되는 열람자의 표정에 할당하고, 데이터베이스(494)에 형용사(496)를 저장하도록 동작한다. 예컨대, 형용사(496)는 "행복한", "슬픈", "화난", "만족한" 및 "무관심한"을 포함할 수 있다. 예컨대, 데이터베이스(494)에 저장된 형용사들(496)은 컨텐츠(482)의 효과성을 평가하는데 유용할 수 있다고 인식된다. According to a preferred embodiment of the present invention, the image-attribute mapping function 492 assigns the rating represented by the adjective 496 to the look of the viewer captured in the face image 486, 496 < / RTI > For example, the adjective 496 may include "happy", "sad", "angry", "satisfied", and "indifferent". For example, it is recognized that adjectives 496 stored in the database 494 may be useful in evaluating the effectiveness of the content 482.

이제, 도 1a 내지 6의 시스템에서 이용되는 데이터베이스를 구축하는데 유용한 이미지/텍스트/이미지 데이터베이스 생성 방법론의 개략도인 도 7을 참조로 한다. 도 7에 도시된 바와 같이, 복수의 이미지(500)는 컴퓨터화된 개인 식별 트레이닝 시스템(510)에 의해 인터넷상에서 공중이 이용가능한 이미지 저장소(502)로부터 수집된다. 예컨대, 이미지 저장소(502)는 텍스트를 이미지와 동일한 페이지에 또는 하나 이상의 근접 페이지에 나타난 이미지와 연관짓는 공중 이용가능한 소셜 네트워크 또는 문자 검색 엔진일 수 있다. 바람직하기로, 하나 이상의 연관된 특징이 각각의 이미지(500)를 갖는 이미지 저장소에 의해 제공된다. 예컨대, 특징은 이름, 나이 또는 연령대, 성별, 전반적인 외모 및 기분을 포함할 수 있고, 일반적으로 주관적이며, 이미지를 공표한 개인들 또는 공표된 이미지를 이런 특징을 포함할 수 있는 코멘트로 태그한 개인들에 의해 이미지와 연관된다. Reference is now made to Fig. 7, which is a schematic diagram of an image / text / image database creation methodology useful for building databases used in the systems of Figs. 1A-6. As shown in FIG. 7, a plurality of images 500 are collected from the publicly available image store 502 on the Internet by a computerized personal identification training system 510. For example, image store 502 may be a publicly available social network or text search engine that associates text with the image on the same page as the image or with the image displayed on one or more proximity pages. Preferably, one or more associated features are provided by the image repository having respective images 500. For example, a feature may include an individual who has published an image, may include a name, age or age range, gender, overall appearance and mood, is generally subjective, or an individual who has tagged the published image with comments that may include such features Lt; / RTI > associated with the image.

먼저, 컴퓨터화된 개인 식별 트레이닝 시스템(510)은 각각의 이미지(500)와 연관된 각각의 특징을 분석하고, 각각의 이런 적합한 특징을 속성값으로 변환한다. 이런 각각의 값에 대해, 시스템(510)은 이후 각각의 이미지(500)와 관련 속성값을 가령 아마존 메카니컬 터크(Amazon Mechanical Turk)와 같은 크라우드소싱 제공자에게 전송하는데, 여기서 복수의 개인들은 각 이미지와 관련 속성값의 일치도에 대한 그들의 의견을 나타낸다. 각 이미지-속성값 쌍에 대한 크라우드소싱 결과를 수신하면, 시스템(510)은 일반적으로 관련 이미지와의 높은 일치도를 수신한 속성값들을 데이터베이스(520)에 저장한다. First, the computerized personal identification training system 510 analyzes each feature associated with each image 500 and converts each such appropriate feature to an attribute value. For each of these values, the system 510 then sends each image 500 and associated property values to a crow sourcing provider, such as, for example, Amazon Mechanical Turk, And indicate their opinion on the degree of agreement of the relevant attribute values. Upon receipt of the crow sourcing results for each image-attribute value pair, the system 510 stores in the database 520 attribute values, which generally receive a high degree of match with the associated image.

이제, 형용사와 이미지를 연관짓는 트레이닝 프로세스를 도시하는 개략적인 흐름도인 도 8을 참조로 한다. 도 8에 도시된 바와 같이, 얼굴 속성을 정의하는 형용사는 트레이닝되는 형용사들의 리스트로부터 시스템에 의해 선택되며, 하나 이상의 공중 이용가능한 문자 검색 엔진은 바람직하기로 형용사와 연관된 이미지를 검색하도록 이용된다. 추가로, 하나 이상의 공중 이용가능한 문자 검색 엔진은 바람직하기로 다양한 언어로 된 형용사의 하나 이상의 번역과 연관된 이미지를 검색하도록 이용된다. 예컨대, 형용사들의 리스트는 사전에서 형용사들을 수집하여 편집될 수 있다. Reference is now made to Fig. 8, which is a schematic flow diagram illustrating the training process of associating an adjective with an image. As shown in FIG. 8, the adjectives defining the face attributes are selected by the system from the list of adjectives to be trained, and one or more of the publicly available character search engines are preferably used to retrieve the images associated with the adjectives. In addition, one or more publicly available character search engines are preferably used to retrieve images associated with one or more translations of adjectives in various languages. For example, a list of adjectives can be edited by collecting adjectives from the dictionary.

시각적 얼굴 감지장치(visual face detector)는 얼굴 이미지를 포함하는 검색된 이미지를 식별하는데 이용된다. 이후, 크라우드소싱은 바람직하기로 다수결에 의해 얼굴 이미지들 중 어느 것이 형용사에 해당하는지 확인하는데 이용된다. 이후, 형용사와 해당 얼굴 이미지는 도 9에 대해 하기에 기술되는 바와 같이 시각적 분류장치를 트레이닝하는데 사용된다. 이후, 시각적 분류장치는 형용사를 얼굴 이미지의 추가 세트와 연관짓는데 이용되며, 크라우드소싱은 형용사와 얼굴 이미지의 추가 세트 각각의 일치도를 확인하는데 더 이용되며, 그 결과는 시각적 분류장치를 트레이닝하는데 더 이용된다. 크라우드소싱의 추가 사이클 및 시각적 분류장치의 트레이닝은 원하는 정확도에 도달할 때까지 시각적 분류장치의 정확성을 더 개선하는데 이용될 수 있다고 인식된다. 시각적 분류장치의 트레이닝 후에, 분류장치는 얼굴 속성들을 정의하는 형용사들로 얼굴 이미지들을 분류하는데 시스템에 의해 추후 이용될 수 있는 속성 함수들의 뱅크에 추가된다. A visual face detector is used to identify the searched image including the face image. Thereafter, crowd sourcing is preferably used to determine which of the facial images corresponds to an adjective by majority vote. The adjective and corresponding face image are then used to train the visual classifier as described below with respect to FIG. The visual classifier is then used to associate an adjective with an additional set of facial images, and crowd sourcing is further used to confirm the match of each additional set of adjectives and facial images, and the result is further used to train visual classifiers do. It is recognized that the training of additional cycles and visual classifiers of crowd sourcing can be used to further improve the accuracy of the visual classifier until the desired accuracy is reached. After training of the visual classifier, the classifier is added to a bank of attribute functions that can be used later by the system to classify the face images into adjectives that define facial attributes.

이제, 시각적 분류장치를 트레이닝하는 프로세스를 도시하는 개략적인 흐름도인 도 9를 참조로 한다. 도 9에 도시된 바와 같이, 각 형용사에 대해, 도 8에 대해 상술한 크라우드소싱 프로세스의 결과는 이미지들의 2개의 집합들을 생성하는데 이용된다. 제 1 "긍정(positive)" 집합은 그 형용사에 해당하는 것으로 확인된 이미지를 포함하며, 제 2 "부정(negative)" 집합은 그 형용사에 해당하는 것으로 확인되지 못한 이미지를 포함한다. Reference is now made to Fig. 9, which is a schematic flow diagram illustrating the process of training a visual classifier. As shown in FIG. 9, for each adjective, the result of the crowd sourcing process described above with respect to FIG. 8 is used to generate two sets of images. The first "positive" collection includes images identified as corresponding to the adjectives, and the second "negative" collection includes images not identified as corresponding to the adjectives.

이후, 긍정 및 부정 집합 모두의 이미지들은 2차원과 3차원 정렬을 변화시키고 조도를 다르게 함으로써 각각의 이미지를 정규 이미지(canonical image)로 변환하도록 보상하여 정규화된다. 이후, 정규 이미지는 정규 수치 벡터(canonical numerical vectors)로 변환되며, 분류장치는 가령 슈퍼 벡터 머신(Support Vector Machine, SVM)과 같은 감독-분류장치(supervised-classifier)를 사용하여 긍정 및 부정 수치 벡터들의 쌍들을 포함하는 트레이닝 세트로부터 학습(learned)된다.The images of both positive and negative sets are then normalized by compensating for the conversion of each image into a canonical image by varying the two-dimensional and three-dimensional alignment and varying illumination. Then, the normal image is transformed into canonical numerical vectors, and the classifier uses a supervised-classifier such as a support vector machine (SVM) to generate positive and negative numerical vectors From a training set that includes pairs of < RTI ID = 0.0 >

이제, 이미지와 연관된 형용사들을 검색하기 위한 프로세스를 도시하는 개략적인 흐름도인 도 10을 참조로 한다. 도 10에 도시된 바와 같이, 이미지는 먼저 이미지의 일부인 얼굴 이미지를 감지하고 잘라내도록 분석된다. 이후, 얼굴 이미지는 2차원과 3차원 정렬을 변화시키고 조도를 다르게 보상하여 이미지를 정규화함으로써 정규 수치 벡터로 변환된다. 이후, 도 8에 대해 상술한 속성 함수들의 뱅크는 수치 벡터로 적용되며, 각 속성 함수로부터 리턴된 값은 얼굴 이미지와 연관된 형용사를 나타내는 수치 벡터로 기록된다. Reference is now made to FIG. 10, which is a schematic flow diagram illustrating a process for searching for adjectives associated with an image. As shown in FIG. 10, the image is first analyzed to detect and cut a face image that is part of the image. Then, the face image is transformed into a regular numerical vector by changing the two-dimensional and three-dimensional alignment and compensating the illuminance differently and normalizing the image. Thereafter, the bank of attribute functions described above with respect to FIG. 8 is applied as a numeric vector, and the value returned from each attribute function is recorded as a numeric vector representing the adjective associated with the face image.

이제, 하나 이상의 형용사들과 연관된 이미지들의 사전-색인된 데이터베이스로부터 이미지를 검색하기 위한 프로세스를 도시하는 개략적인 흐름도인 도 11을 참조로 한다. 도 11에 도시된 바와 같이, 이미지와 연관된 형용사를 갖는 이미지에 대한 문자 쿼리(textual query)가 먼저 구성된다. 자연어 처리(Natural Language Processing, NLP)를 사용하여, 형용사들이 문자 쿼리로부터 추출된다. 이후, 시스템은 바람직하기로 LDA(Latent Dirichlet Allocation)를 사용함으로써, 쿼리로부터 추출된 형용사와 가장 잘 매칭되는 얼굴 이미지의 미리 처리된 데이터베이스로부터 이미지를 검색한다. 검색된 얼굴 이미지는 관련 수치 벡터들과 쿼리로부터 추출된 형용사들의 상관도에 따라 순서화되며, 순서화된 얼굴 이미지들의 결과는 시스템의 결과로서 제공된다. Reference is now made to Fig. 11, which is a schematic flow diagram illustrating a process for retrieving an image from a pre-indexed database of images associated with one or more adjectives. As shown in FIG. 11, a textual query for an image having an adjective associated with the image is constructed first. Using Natural Language Processing (NLP), adjectives are extracted from character queries. The system then preferably retrieves the image from a preprocessed database of facial images that best matches the adjectives extracted from the query by using Latent Dirichlet Allocation (LDA). The retrieved facial image is ordered according to the correlation of the related numerical vectors and the adjectives extracted from the query, and the result of the ordered facial images is provided as a result of the system.

이제, 제 1 이미지와 유사한 얼굴 이미지를 검색하기 위한 프로세스를 도시하는 개략적인 흐름도인 도 12를 참조로 한다. 도 12에 도시된 바와 같이, 제 1 이미지는 먼저 이미지의 일부인 얼굴 이미지를 감지하고 잘라내도록 분석된다. 이후, 얼굴 이미지는 2차원과 3차원 포즈-정렬(pose-alignment)을 변화시키고 조도를 다르게 보상하여 이미지를 정규화함으로써 정규 수치 벡터로 변환된다. 이후, 도 8에 대해 상술한 속성 함수들의 뱅크는 수치 벡터로 적용되며, 각 속성 함수로부터 리턴된 값은 얼굴 이미지와 연관된 형용사를 나타내는 수치 벡터로 기록된다. Reference is now made to Fig. 12, which is a schematic flow diagram illustrating a process for searching a face image similar to a first image. As shown in Fig. 12, the first image is first analyzed to detect and cut a face image that is part of the image. The face image is then transformed into a normalized numeric vector by varying the two-dimensional and three-dimensional pose-alignment and normalizing the image by compensating the illumination differently. Thereafter, the bank of attribute functions described above with respect to FIG. 8 is applied as a numeric vector, and the value returned from each attribute function is recorded as a numeric vector representing the adjective associated with the face image.

가령 KD 트리와 같이, 이미지의 수치 벡터를 포함하는 미리 색인된 데이터베이스는 가령 유클리드 거리와 같은 유사도-함수(similarity-function)를 사용하여 제 1 이미지의 수치 벡터와 근접하게 매칭하는 이미지를 나타내는 수치 벡터들의 집합을 찾도록 검색된다. A pre-indexed database containing a numerical vector of images, such as a KD tree, may be a numerical vector representing an image closely matching a numerical vector of the first image, for example using a similarity-function, such as Euclidean distance Lt; / RTI >

본 발명은 상술한 본 명세서에서 특히 도시되거나 기술된 것에 의해 제한되지 않음이 당업자에 의해 인식될 것이다. 대신에, 본 발명의 범위는 상술한 다양한 특징들의 조합 및 서브-조합 모두를 포함할 뿐만 아니라 상술한 명세서를 숙지한 당업자가 행할 수 있으나 종래기술이 아닌 변경들을 포함한다. It will be appreciated by those skilled in the art that the present invention is not limited by what has been particularly shown or described hereinabove. Rather, the scope of the invention includes both combinations and sub-combinations of the various features described above, as well as variations that can be made by those skilled in the art without departing from the prior art.

Claims (57)

얼굴 이미지를 표현하는 평가들(values)을 상기 얼굴 이미지의 개별 얼굴 속성 중 복수에 할당하는 컴퓨터화된 얼굴 이미지 속성면의 평가장치; 및
상기 개별 얼굴 속성 중 상기 복수에 따라 상기 얼굴 이미지를 분류하는 컴퓨터화된 분류장치를 포함하며,
상기 평가들은 형용사로 표현되고,
상기 평가장치는:
상기 평가장치는 복수 종류의 저장 얼굴 이미지 및 복수 종류의 저장 평가를 포함하는 데이터베이스로서, 상기 저장 얼굴 이미지의 각각은 상기 복수의 개별 얼굴 속성 중 적어도 일부를 가지고, 상기 개별의 얼굴 속성 중 적어도 일부는 얼굴 속성과 연관되는 형용사로 표현되는 상기 평가를 가지는 상기 데이터베이스; 및
속성면 및 형용사면에 대하여, 상기 얼굴 이미지의 상기 복수의 개별 얼굴 속성과 상기 복수 종류의 저장 얼굴 이미지를 비교함으로써, 얼굴 이미지와 상기 복수 종류의 저장 얼굴 이미지를 비교하는 형용사 기반 비교장치를 포함하고,
상기 비교에 응답하여, 상기 복수 종류의 저장 얼굴 이미지와 일치하지 않은 얼굴 이미지는 상기 복수 종류의 저장 얼굴 이미지 중 하나로서 상기 데이터베이스에 저장되고,
상기 얼굴 이미지에 해당하는 얼굴 모델을 생성하도록 동작하는 얼굴 모델 생성 기능부(face model generation functionality)를 또한 포함하는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 시스템.
An evaluation unit for evaluating a computerized facial image attribute face that assigns values representing facial images to a plurality of individual facial attributes of the facial image; And
And a computerized classification apparatus for classifying the face images according to the plurality of individual face attributes,
The evaluations are expressed as adjectives,
The evaluation apparatus comprises:
Wherein the evaluation device is a database that includes a plurality of types of storage face images and a plurality of types of storage estimates, each of the storage face images having at least some of the plurality of individual face attributes, The database having the evaluation expressed as an adjective associated with a face attribute; And
And an adjective-based comparison device for comparing the face image and the plurality of types of stored face images by comparing the plurality of individual face attributes of the face image and the plurality of types of stored face images with respect to the attribute face and the adjective face, ,
In response to the comparison, a face image that does not match the plurality of types of stored face images is stored in the database as one of the plurality of types of stored face images,
Further comprising a face model generation functionality operative to generate a face model corresponding to the face image. ≪ Desc / Clms Page number 21 >
제 1 항에 있어서,
상기 복수 종류의 저장 평가로부터 도출된 통계 정보를 제공하는 얼굴 속성 통계 보고 기능부(facial attribute statistic reporting functionality)를 또한 포함하는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 시스템.
The method according to claim 1,
Further comprising facial attribute statistical reporting functionality for providing statistical information derived from the plurality of types of storage evaluations. ≪ RTI ID = 0.0 > 11. < / RTI >
제 1 항에 있어서,
상기 형용사 기반 비교장치는 형용사면에 대하여 상기 데이터베이스를 쿼리(query)하는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 시스템.
The method according to claim 1,
Wherein the adjective-based comparison device queries the database for an adjective face.
제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
상기 컴퓨터화된 분류장치로부터의 출력에 응답하여, 상기 출력에 해당하는 적어도 하나의 저장 얼굴 이미지를 식별하도록 동작하는 컴퓨터화된 식별장치를 또한 포함하는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 시스템.
4. The method according to any one of claims 1 to 3,
Further comprising a computerized identification device operable to identify at least one storage face image corresponding to the output in response to an output from the computerized classification device, system.
제 4 항에 있어서,
상기 컴퓨터화된 식별장치는 상기 출력에 해당하는 저장 얼굴 이미지의 순위화된 리스트를 생성하도록 동작하는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 시스템.
5. The method of claim 4,
Wherein the computerized identification device is operative to generate a ranked list of stored face images corresponding to the output.
제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
소셜 네트워크로부터의 정보를 상기 컴퓨터화된 얼굴 이미지 속성면의 평가장치에 대하여 이용할 수 있도록 하기 위한 소셜 네트워크 인터페이스를 또한 포함하는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 시스템.
4. The method according to any one of claims 1 to 3,
Further comprising a social network interface for making information from the social network available to the evaluation device of the computerized facial image attribute facet.
삭제delete 제 4 항에 있어서,
상기 컴퓨터화된 식별장치는 상기 얼굴 모델을 이용하는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 시스템.
5. The method of claim 4,
Wherein the computerized identification device uses the face model.
컴퓨터화된 얼굴 이미지 속성면의 평가장치가, 얼굴 이미지를 표현하는 평가들(values)을 상기 얼굴 이미지의 개별 얼굴 속성 중 복수에 할당하는 공정;
컴퓨터화된 분류장치가, 상기 개별 얼굴 속성 중 상기 복수에 따라 상기 얼굴 이미지를 분류하는 공정;
컴퓨터화된 비교장치가, 속성면 및 형용사면에 대하여, 상기 얼굴 이미지의 상기 복수의 개별 얼굴 속성과 저장 얼굴 이미지를 비교함으로써, 얼굴 이미지와 복수 종류의 저장 얼굴 이미지를 비교하는 공정; 및
상기 비교에 응답하여, 컴퓨터화된 얼굴 이미지 속성면의 평가장치가, 상기 복수 종류의 저장 얼굴 이미지와 일치하지 않은 얼굴 이미지를 상기 복수 종류의 저장 얼굴 이미지 중 하나로서 데이터베이스에 저장하는 공정을 포함하고,
상기 평가들은 형용사로 표현되고, 상기 평가장치는 복수 종류의 저장 얼굴 이미지 및 복수 종류의 저장 평가를 포함하는 데이터베이스로서, 상기 저장 얼굴 이미지의 각각은 상기 복수의 개별 얼굴 속성 중 적어도 일부를 가지고, 상기 개별의 얼굴 속성 중 적어도 일부는 얼굴 속성과 연관되는 형용사로 표현되는 상기 평가를 가지는 상기 데이터베이스를 가지고,
컴퓨터화된 얼굴 모델 생성장치가, 상기 얼굴 이미지에 해당하는 얼굴 모델을 생성하는 공정을 또한 포함하는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 방법.
A computerized facial image evaluation apparatus comprising: a step of assigning, to a plurality of individual facial attributes of a facial image, evaluations expressing a facial image;
Wherein the computerized classification apparatus classifies the face image according to the plurality of the individual face attributes;
Comparing the face image and the plurality of kinds of stored face images by comparing the plurality of individual face attributes of the face image and the stored face image with respect to the attribute face and the adjective face; And
And in response to the comparison, the computerized facial image attribute plane evaluation device includes a step of storing, in the database, one of the plurality of types of stored face images, the face image not matching the plurality of kinds of stored face images ,
Wherein the evaluations are represented by an adjective, wherein the evaluation device is a database comprising a plurality of types of stored face images and a plurality of types of storage evaluations, each of the stored face images having at least some of the plurality of individual face attributes, Wherein at least some of the individual face attributes have the database having the evaluation expressed as an adjective associated with the face attribute,
A computerized method for classifying a face image of a person, the computerized facial model generation apparatus further comprising a step of generating a face model corresponding to the face image.
제 9 항에 있어서,
컴퓨터화된 제공장치가, 복수 종류의 저장 평가로부터 도출된 통계 정보를 제공하는 공정을 또한 포함하는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 방법.
10. The method of claim 9,
A computerized method for classifying a face image of a person, the computerized providing device also including a process of providing statistical information derived from a plurality of kinds of storage evaluations.
제 9 항에 있어서,
상기 형용사 기반 비교장치는 형용사면에 대하여 상기 데이터베이스를 쿼리(query)하는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 방법.
10. The method of claim 9,
Wherein the adjective-based comparison device queries the database for an adjective face.
제 9 항 내지 제 11 항 중 어느 한 항에 있어서,
컴퓨터화된 식별장치가, 상기 분류하는 공정의 출력에 해당하는 적어도 하나의 저장 얼굴 이미지를 식별하는 공정을 또한 포함하는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 방법.
12. The method according to any one of claims 9 to 11,
A computerized method for classifying a face image of a person, the computerized identification device further comprising the step of identifying at least one storage face image corresponding to an output of the sorting process.
제 12 항에 있어서,
상기 식별하는 공정에서는, 상기 출력에 해당하는 저장 얼굴 이미지의 순위화된 리스트를 생성하도록 동작가능한, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 방법.
13. The method of claim 12,
Wherein the identifying step is operable to generate a ranked list of stored face images corresponding to the output.
제 9 항 내지 제 11 항 중 어느 한 항에 있어서,
소셜 네트워크 인터페이스가, 소셜 네트워크로부터의 정보를 상기 컴퓨터화된 얼굴 이미지 속성면의 평가장치에 대하여 이용할 수 있도록 하는 공정을 또한 포함하는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 방법.
12. The method according to any one of claims 9 to 11,
A computerized method for classifying a face image of a person, the method further comprising the step of allowing the social network interface to make information from the social network available for the evaluation device of the computerized facial image attribute facet.
삭제delete 제 12 항에 있어서,
상기 식별하는 공정에서는 상기 얼굴 모델을 이용하는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 방법.
13. The method of claim 12,
Wherein the identifying step uses the face model to classify a human face image.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020137023294A 2011-02-03 2011-03-31 Systems and methods for image-to-text and text-to-image association KR101649322B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161439021P 2011-02-03 2011-02-03
US61/439,021 2011-02-03
PCT/IL2011/000287 WO2012104830A1 (en) 2011-02-03 2011-03-31 Systems and methods for image-to-text and text-to-image association

Publications (2)

Publication Number Publication Date
KR20140058409A KR20140058409A (en) 2014-05-14
KR101649322B1 true KR101649322B1 (en) 2016-08-18

Family

ID=46602131

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137023294A KR101649322B1 (en) 2011-02-03 2011-03-31 Systems and methods for image-to-text and text-to-image association

Country Status (8)

Country Link
JP (1) JP5857073B2 (en)
KR (1) KR101649322B1 (en)
CN (1) CN103620590B (en)
AU (1) AU2011358100B2 (en)
BR (1) BR112013019907A2 (en)
CA (1) CA2826177C (en)
MX (1) MX345437B (en)
WO (1) WO2012104830A1 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9158970B2 (en) 2012-11-16 2015-10-13 Canon Kabushiki Kaisha Devices, systems, and methods for visual-attribute refinement
US9626597B2 (en) 2013-05-09 2017-04-18 Tencent Technology (Shenzhen) Company Limited Systems and methods for facial age identification
CN104143079B (en) 2013-05-10 2016-08-17 腾讯科技(深圳)有限公司 The method and system of face character identification
US20170177927A1 (en) * 2014-02-17 2017-06-22 Nec Solution Innovators, Ltd. Impression analysis device, game device, health management device, advertising support device, impression analysis system, impression analysis method, and program recording medium
US10635672B2 (en) * 2015-09-02 2020-04-28 Oath Inc. Method and system for merging data
US10909779B2 (en) 2016-08-11 2021-02-02 Tekion Corp 3D vehicle model data capturing and retrieving for vehicle inspection, service and maintenance
CN106951825B (en) * 2017-02-13 2021-06-29 苏州飞搜科技有限公司 Face image quality evaluation system and implementation method
CN108009280B (en) * 2017-12-21 2021-01-01 Oppo广东移动通信有限公司 Picture processing method, device, terminal and storage medium
US11941044B2 (en) 2018-01-26 2024-03-26 Walmart Apollo, Llc Automatic personalized image-based search
KR102585358B1 (en) * 2021-08-09 2023-10-05 양주섭 Method and apparatus for analyzing behavior pattern of customer in unmanned shop using ai-based image processing model
CN113641857A (en) * 2021-08-13 2021-11-12 三星电子(中国)研发中心 Visual media personalized search method and device
KR102477338B1 (en) * 2022-02-23 2022-12-14 주식회사 블랙탠저린 Method, apparatus and program for providing facial mood diagnosis platform using image
CN117095083B (en) * 2023-10-17 2024-03-15 华南理工大学 Text-image generation method, system, device and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006510109A (en) 2002-12-13 2006-03-23 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Facial expression invariant face recognition method and apparatus
US20070237355A1 (en) 2006-03-31 2007-10-11 Fuji Photo Film Co., Ltd. Method and apparatus for adaptive context-aided human classification
WO2011017653A1 (en) 2009-08-07 2011-02-10 Google Inc. Facial recognition with social network aiding

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7298931B2 (en) * 2002-10-14 2007-11-20 Samsung Electronics Co., Ltd. Image retrieval method and apparatus using iterative matching
US7680330B2 (en) * 2003-11-14 2010-03-16 Fujifilm Corporation Methods and apparatus for object recognition using textons
JP2006221355A (en) * 2005-02-09 2006-08-24 Hitachi Ltd Monitoring device and monitoring system
US7809192B2 (en) * 2005-05-09 2010-10-05 Like.Com System and method for recognizing objects from images and identifying relevancy amongst images and information
JP4668680B2 (en) * 2005-05-17 2011-04-13 ヤマハ発動機株式会社 Attribute identification system and attribute identification dictionary generator
US7684651B2 (en) * 2006-08-23 2010-03-23 Microsoft Corporation Image-based face search
JP2011013732A (en) * 2009-06-30 2011-01-20 Sony Corp Information processing apparatus, information processing method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006510109A (en) 2002-12-13 2006-03-23 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Facial expression invariant face recognition method and apparatus
US20070237355A1 (en) 2006-03-31 2007-10-11 Fuji Photo Film Co., Ltd. Method and apparatus for adaptive context-aided human classification
WO2011017653A1 (en) 2009-08-07 2011-02-10 Google Inc. Facial recognition with social network aiding

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
N. KUMAR et al., FaceTracer: A Search Engine for Large Collections of Images with Faces, Proc. Europican. Conference on Computer Vision (ECCV2008),pp.340-353, 2008.

Also Published As

Publication number Publication date
CA2826177A1 (en) 2012-08-09
BR112013019907A2 (en) 2016-10-11
MX345437B (en) 2017-01-31
AU2011358100B2 (en) 2016-07-07
JP5857073B2 (en) 2016-02-10
CA2826177C (en) 2017-08-08
CN103620590A (en) 2014-03-05
CN103620590B (en) 2018-10-09
JP2014511520A (en) 2014-05-15
MX2013008985A (en) 2014-02-27
KR20140058409A (en) 2014-05-14
WO2012104830A1 (en) 2012-08-09
AU2011358100A1 (en) 2013-09-05

Similar Documents

Publication Publication Date Title
KR101649322B1 (en) Systems and methods for image-to-text and text-to-image association
US7684651B2 (en) Image-based face search
US8873851B2 (en) System for presenting high-interest-level images
US8897485B2 (en) Determining an interest level for an image
US9014510B2 (en) Method for presenting high-interest-level images
JP5383705B2 (en) Determining social relationships from personal photo collections
US9014509B2 (en) Modifying digital images to increase interest level
JP5740210B2 (en) Face image search system and face image search method
US20160267321A1 (en) Method and Apparatus for Automated Analysis and Identification of a Person in Image and Video Content
US20140002644A1 (en) System for modifying images to increase interestingness
JP2004258764A (en) System and apparatus for personal information management
JP2014229129A (en) Combination presentation system and computer program
JP2020067720A (en) Personal attribute estimation system, and information processing apparatus and information processing method using the same
Vandecasteele et al. Spott: On-the-spot e-commerce for television using deep learning-based video analysis techniques
KR20170141912A (en) System and method for making advertisement text
KR20170141910A (en) System and method for making advertisement as automatically
KR20200084647A (en) A method of providing a fashion item recommendation service to a user using a date
CN109859011A (en) Based on the information push method in store, system and its storage medium in jewellery wire
US20150039607A1 (en) Providing a summary presentation
CN113902526A (en) Artificial intelligence based product recommendation method and device, computer equipment and medium
KR102271090B1 (en) A method of providing a fashion item recommendation service to a user using calendar data
KR20170141915A (en) System and method for making advertisement image
US20210183123A1 (en) Method and System for Providing Multi-Dimensional Information Using Card
Vinayagam et al. Experimental Evaluation of IoT based Human Gender Classification and Record Management using Intelligent Hybrid Learning Principles
KR20150072212A (en) Figure identification apparatus using Social network service and method therefor

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190813

Year of fee payment: 4