KR101649322B1 - Systems and methods for image-to-text and text-to-image association - Google Patents
Systems and methods for image-to-text and text-to-image association Download PDFInfo
- Publication number
- KR101649322B1 KR101649322B1 KR1020137023294A KR20137023294A KR101649322B1 KR 101649322 B1 KR101649322 B1 KR 101649322B1 KR 1020137023294 A KR1020137023294 A KR 1020137023294A KR 20137023294 A KR20137023294 A KR 20137023294A KR 101649322 B1 KR101649322 B1 KR 101649322B1
- Authority
- KR
- South Korea
- Prior art keywords
- face
- image
- delete delete
- computerized
- facial
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 52
- 238000011156 evaluation Methods 0.000 claims abstract description 127
- 230000001815 facial effect Effects 0.000 claims abstract description 111
- 230000006870 function Effects 0.000 description 75
- 238000013507 mapping Methods 0.000 description 36
- 238000010586 diagram Methods 0.000 description 24
- 239000013598 vector Substances 0.000 description 12
- 235000012054 meals Nutrition 0.000 description 9
- 238000012549 training Methods 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 9
- 238000010295 mobile communication Methods 0.000 description 7
- 230000036651 mood Effects 0.000 description 7
- 238000012358 sourcing Methods 0.000 description 7
- 238000013016 damping Methods 0.000 description 6
- 230000011218 segmentation Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000037308 hair color Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000007620 mathematical function Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000014616 translation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5854—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/22—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
본 발명은 얼굴 이미지를 표현하는 평가들을 얼굴 이미지의 복수의 개별 얼굴 속성들에 할당하는 컴퓨터화된 얼굴 이미지 속성 방식 평가장치; 및 복수의 개별 얼굴 속성들에 따라 얼굴 이미지를 분류하는 컴퓨터화된 분류장치를 포함하며, 상기 평가들은 형용사로 표현되는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 시스템에 관한 것이다. The present invention relates to a computerized facial image attribute evaluation system for assigning evaluations representing facial images to a plurality of individual facial attributes of a facial image; And a computerized classification device for classifying facial images according to a plurality of individual facial attributes, the evaluations being represented by adjectives.
Description
본 발명은 2011년 2월 3일에 출원되고, 발명의 명칭이 "이미지-텍스트 및 텍스트-이미지를 연관시키기 위한 시스템 및 방법(SYSTEMS AND METHODS FOR IMAGE-TO-TEXT AND TEXT-TO-IMAGE ASSOCIATION)"이며, 참조로 본 명세서에 통합되고 37 CFR 1.78(a)(4) 및 (5)(i)에 따라 우선권 주장된 미국 가특허출원번호 61/439,021을 참조로 한다. The present invention relates to a system and method for associating image-text and text-images, filed on February 3, 2011, entitled "SYSTEMS AND METHODS FOR IMAGE-TO-TEXT AND TEXT- "Which is incorporated herein by reference and refers to United States Patent Application Serial No. 61 / 439,021, which claims priority under 37 CFR 1.78 (a) (4) and (5) (i).
또한, 본 발명은 참조로 본 명세서에 통합된 출원인 소유의 미국특허출원번호 12/922,984를 참조로 한다. The present invention also is related to the applicant's own U.S. Patent Application No. 12 / 922,984, incorporated herein by reference.
본 발명은 일반적으로 이미지에서 텍스트로 및 텍스트에서 이미지로 연관시키는 것에 관한 것이다. The present invention relates generally to associating images to text and from text to images.
현재의 기술 현황은 다음과 같은 미국특허 제4,926,491호; 제5,164,992호; 제5,963,670호; 제6,292,575호; 제6,301,370호; 제6,819,783호; 제6,944,319호; 제6,990,217호; 제7,274,822호 및 제7,295,687호; 및 미국특허출원 제2006/0253491호; 제2007/0237355호 및 제2009/0210491호에 나타나 있다. Current state of the art is described in U.S. Patent No. 4,926,491; 5,164,992; 5,963,670; 6,292,575; 6,301, 370; 6,819,783; 6,944, 319; 6,990,217; 7,274, 822 and 7,295, 687; And U. S. Patent Application No. 2006/0253491; 2007/0237355 and 2009/0210491.
본 발명은 이미지에서 텍스트 및 텍스트에서 이미지로의 연관을 위한 개선된 시스템 및 방법론을 제공하고자 한다.The present invention seeks to provide an improved system and methodology for associating text to images and text to images.
따라서, 본 발명의 바람직한 실시예에 따라 얼굴 이미지를 표현하는 평가들을 얼굴 이미지의 복수의 개별 얼굴 속성들에 할당하는 컴퓨터화된 얼굴 이미지 속성 방식 평가장치; 및 복수의 개별 얼굴 속성들에 따라 얼굴 이미지를 분류하는 컴퓨터화된 분류장치를 포함하며, 상기 평가들은 형용사로 표현되는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 시스템이 제공된다. Thus, according to a preferred embodiment of the present invention, a computerized facial image attribute evaluation system for assigning evaluations representing facial images to a plurality of individual facial attributes of a facial image; And a computerized classification device for classifying facial images according to a plurality of individual facial attributes, wherein the evaluations are represented by an adjective.
본 발명의 바람직한 실시예에 따르면, 컴퓨터화된 얼굴 이미지 속성 방식 평가장치는 복수의 얼굴 이미지들에 해당하는 다수의 저장된 평가들을 포함하는 데이터베이스를 포함하며, 얼굴 이미지들 각각은 복수의 개별 얼굴 속성들 중 적어도 일부를 가지며, 개별 얼굴 속성들 중 적어도 일부는 그와 연관된 형용사로 표현되는 평가들을 가진다. According to a preferred embodiment of the present invention, a computerized facial image attribute evaluation system comprises a database containing a plurality of stored evaluations corresponding to a plurality of facial images, each of the facial images comprising a plurality of individual facial attributes And at least some of the individual face attributes have evaluations expressed as adjectives associated therewith.
바람직하기로, 상기 시스템은 다수의 저장된 평가들로부터 도출된 통계 정보를 제공하는 얼굴 속성 통계 보고 기능부를 또한 포함한다. Preferably, the system also includes a face attribute statistical reporting function that provides statistical information derived from a plurality of stored ratings.
바람직하기로, 컴퓨터화된 얼굴 이미지 속성 방식 평가장치는 다수의 저장된 얼굴 이미지들 및 다수의 저장된 평가들을 포함하는 데이터베이스; 및 얼굴 이미지 속성 및 형용사 방식의 복수의 개별 얼굴 속성들을 다수의 저장된 얼굴 이미지들과 비교함으로써, 얼굴 이미지를 복수의 저장된 얼굴 이미지와 비교하는 형용사-기반 비교장치를 포함하며, 저장된 얼굴 이미지들 각각은 복수의 개별 얼굴 속성들 중 적어도 일부를 가지고, 개별 얼굴 속성들 중 적어도 일부는 그와 연관된 형용사로 표현되는 평가들을 가진다. 바람직하기로, 형용사-기반 비교장치는 형용사 방식으로 데이터베이스를 쿼리(query)한다. Preferably, the computerized facial image attribute rating system comprises: a database comprising a plurality of stored face images and a plurality of stored ratings; And an adjective-based comparison device that compares a face image with a plurality of stored face images by comparing a plurality of individual face attributes of the face image attribute and the adjective manner with a plurality of stored face images, Having at least some of the plurality of individual face attributes, at least some of the individual face attributes have evaluations expressed in an adjective associated therewith. Preferably, the adjective-based comparison device queries the database in an adjective manner.
바람직하기로, 상기 시스템은 컴퓨터화된 분류장치로부터의 출력에 응답하여, 출력에 해당하는 적어도 하나의 저장된 얼굴 이미지를 식별하도록 동작하는 컴퓨터화된 식별장치를 또한 포함한다. 바람직하기로, 컴퓨터화된 식별장치는 출력에 해당하는 저장된 얼굴 이미지들의 순위화된 리스트를 생성하도록 동작한다. Preferably, the system also includes a computerized identification device operative to identify at least one stored face image corresponding to the output in response to the output from the computerized classification device. Preferably, the computerized identification device operates to generate a ranked list of stored face images corresponding to the output.
바람직하기로, 상기 시스템은 소셜 네트워크에서 컴퓨터화된 얼굴 이미지 속성 방식 평가장치로 정보를 이용할 수 있도록 하는 소셜 네트워크 인터페이스를 또한 포함한다. 바람직하기로, 상기 시스템은 얼굴 이미지에 해당하는 얼굴 모델을 생성하도록 동작하는 얼굴 모델 생성 기능부(face model generation functionality)를 또한 포함한다. 바람직하기로, 컴퓨터화된 식별장치는 얼굴 모델을 이용한다.Preferably, the system also includes a social network interface that allows information to be made available to a computerized facial image attribute rating system in a social network. Preferably, the system also includes a face model generation functionality operative to generate a face model corresponding to the face image. Preferably, the computerized identification device uses a face model.
본 발명의 또 다른 바람직한 실시예에 따라 얼굴 이미지를 표현하는 평가들을 얼굴 이미지의 복수의 개별 얼굴 속성들에 할당하는 단계; 및 복수의 개별 얼굴 속성들에 따라 상기 얼굴 이미지를 분류하는 단계를 포함하며, 상기 평가들은 형용사로 표현되는 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 방법이 더 제공된다. Assigning evaluations representing face images to a plurality of individual face attributes of a face image according to another preferred embodiment of the present invention; And classifying the face image according to a plurality of individual face attributes, the evaluations being further provided with a computerized method for classifying a face image of a person represented by an adjective.
본 발명의 바람직한 실시예에 따르면, 얼굴 이미지들 각각은 복수의 개별 얼굴 속성들 중 적어도 일부를 가지며, 개별 얼굴 속성들 중 적어도 일부는 그와 연관된 형용사로 표현되는 상기 평가들을 가진다. 바람직하기로, 상기 방법은 다수의 저장된 평가들로부터 도출된 통계 정보를 제공하는 단계를 또한 포함한다.According to a preferred embodiment of the present invention, each of the face images has at least some of the plurality of individual face attributes, and at least some of the individual face attributes are represented by adjectives associated therewith. Preferably, the method also includes providing statistical information derived from a plurality of stored evaluations.
바람직하기로, 저장된 얼굴 이미지들 각각은 상기 복수의 개별 얼굴 속성들 중 적어도 일부를 가지고, 개별 얼굴 속성들 중 적어도 일부는 그와 연관된 형용사로 표현되는 평가들을 가지며, 상기 방법은 얼굴 이미지 속성 및 형용사 방식의 상기 복수의 개별 얼굴 속성들을 상기 다수의 저장된 얼굴 이미지들과 비교함으로써, 얼굴 이미지를 상기 복수의 저장된 얼굴 이미지와 비교하는 단계를 또한 포함한다. 바람직하기로, 상기 비교하는 단계는 형용사 방식으로 데이터베이스를 쿼리(query)한다. Preferably, each of the stored face images has at least some of the plurality of individual face attributes, and at least some of the individual face attributes have evaluations expressed by an adjective associated therewith, Comparing the plurality of individual face attributes of the plurality of stored face images to the plurality of stored face images. Preferably, the comparing step queries the database in an adjective manner.
바람직하기로, 상기 방법은 분류하는 단계의 출력에 해당하는 적어도 하나의 저장된 얼굴 이미지를 식별하는 단계를 또한 포함한다. 바람직하기로, 식별하는 단계는 출력에 해당하는 저장된 얼굴 이미지들의 순위화된 리스트를 생성하도록 동작한다. 바람직하기로, 상기 방법은 소셜 네트워크에서 컴퓨터화된 얼굴 이미지 속성 방식 평가장치로 정보를 이용할 수 있도록 하는 단계를 또한 포함한다. 바람직하기로, 상기 방법은 얼굴 이미지에 해당하는 얼굴 모델을 생성하도록 동작하는 얼굴 모델 생성하는 단계를 또한 포함한다. 바람직하기로, 식별하는 단계는 얼굴 모델을 이용한다.Preferably, the method further comprises identifying at least one stored face image corresponding to an output of the classifying step. Preferably, the identifying step operates to generate a ranked list of stored face images corresponding to the output. Preferably, the method also includes making the information available to a computerized facial image attribute method evaluation device in a social network. Preferably, the method also includes generating a face model that operates to generate a face model corresponding to the face image. Preferably, the identifying step uses a face model.
본 발명의 또 다른 바람직한 실시예에 따라 사람의 적어도 하나의 얼굴 이미지와 적어도 하나의 개인 식별 아이템을 획득하는 얼굴 이미지/개인 식별 획득 서브시스템; 적어도 하나의 얼굴 이미지에 해당하는 얼굴 모델을 생성하도록 동작하는 얼굴 모델 생성 기능부; 및 형용사로 표현된 평가들을 얼굴 이미지의 복수의 얼굴 속성들로 할당하도록 동작하는 이미지-속성 맵핑 기능부를 포함하는, 사람의 적어도 하나의 얼굴 이미지와 적어도 하나의 개인 식별 아이템을 수신하는 컴퓨터화된 서브시스템; 및 복수의 사람에 대한 얼굴 속성들의 평가들 및 정보를 저장하는 데이터베이스를 포함하는, 장소에 사람을 등록하기 위한 시스템이 더 제공된다.A face image / person identification acquisition subsystem for obtaining at least one face image and at least one person identification item of a person according to another preferred embodiment of the present invention; A face model generation function unit operable to generate a face model corresponding to at least one face image; And an image-attribute mapping function operable to assign ratings expressed as adjectives to a plurality of face attributes of a face image, wherein the image-attribute mapping function comprises computerized sub-functions for receiving at least one face image of a person and at least one person identification item system; And a database for storing estimates of face attributes and information for a plurality of persons.
바람직하기로, 상기 시스템은 컴퓨터화된 서브시스템은 얼굴 속성들의 평가들의 집합을 이용하여 해당 저장된 얼굴 이미지를 식별함으로써, 얼굴 모델을 이용하는 특정 개인을 식별하도록 동작하는 속성-이미지 맵핑 기능부를 또한 포함한다. 바람직하기로, 컴퓨터화된 서브시스템은 얼굴 모델 및 얼굴 속성들의 평가들의 집합을 해당 저장된 평가들의 집합과 매칭될 수 있는 평가들의 결합된 집합으로 결합함으로써, 특정 개인을 식별하도록 동작하는 평가 결합장치(value combiner)를 또한 포함한다. Preferably, the system also includes an attribute-image mapping function operative to identify a particular individual using the face model by identifying the stored face image using a set of evaluations of face attributes, the computerized subsystem . Preferably, the computerized subsystem comprises an evaluation combination device operable to identify a particular individual by combining the set of assessments of the face model and face attributes into a combined set of assessments that can be matched with a set of corresponding stored assessments combiner < / RTI >
바람직하기로, 상기 시스템은 적어도 하나의 얼굴 이미지를 획득하고 상기 컴퓨터화된 서브시스템으로 제공하는 연속 얼굴 이미지 획득 서브시스템을 또한 포함하며, 컴퓨터화된 서브시스템은 연속하는 상기 얼굴 이미지에 해당하는 얼굴 모델을 생성하고, 연속하는 상기 얼굴 이미지의 복수의 얼굴 속성들에 형용사로 표현된 평가들을 할당하며, 해당 저장된 얼굴 이미지를 식별함으로써 특정 개인으로서 연속하는 상기 얼굴 이미지를 식별하도록 동작하고, 적어도 하나의 개인 식별 아이템은 데이터베이스에 저장된 사람에 관한 것이다. Preferably, the system also includes a continuous face image acquisition subsystem for acquiring and providing at least one facial image to the computerized subsystem, wherein the computerized subsystem comprises a face corresponding to the successive facial images And to identify consecutive face images as a specific individual by identifying the stored face images, assigning estimates expressed in adjectives to a plurality of face attributes of the successive face images, and identifying at least one The person identification item relates to the person stored in the database.
바람직하기로, 평가 결합장치는 상기 얼굴 모델 및 연속하는 상기 얼굴 이미지에 해당하는 상기 평가들의 집합을 결합함으로써 상기 특정 개인을 식별하도록 이용된다. 바람직하기로, 사람의 적어도 하나의 개인 식별 아이템은 사전-등록 데이터로부터 얻어진다. Preferably, an evaluation combining device is used to identify the particular individual by combining the face model and a set of evaluations corresponding to successive face images. Preferably, at least one person identification item of the person is obtained from the pre-registration data.
바람직하기로, 상기 시스템은 소셜 네트워크에서 상기 컴퓨터화된 서브시스템으로 정보를 이용할 수 있도록 하는 소셜 네트워크 인터페이스를 또한 포함한다. 바람직하기로, 얼굴 이미지/개인 식별 획득 서브시스템은 상기 서브시스템과 상호작용하는 사람 이외의 사람의 적어도 하나의 얼굴 이미지 및 적어도 하나의 개인 식별 아이템을 획득하도록 동작한다. 추가로 또는 대안으로, 얼굴 이미지/개인 식별 획득 서브시스템은 상기 서브시스템과 상호작용하는 개인 이외의 다른 미식별된 개인(unidentified person)의 적어도 하나의 얼굴 이미지를 획득하도록 동작한다.Preferably, the system also includes a social network interface that enables information to be available from the social network to the computerized subsystem. Preferably, the face image / personally identifying acquisition subsystem operates to obtain at least one face image and at least one person identification item of a person other than the person interacting with the subsystem. Additionally or alternatively, the facial image / personally identifiable acquisition subsystem operates to obtain at least one facial image of an unidentified person other than the person interacting with the subsystem.
바람직하기로, 상기 시스템은 얼굴 이미지를 표현하는 평가들을 얼굴 이미지의 복수의 개별 얼굴 속성들에 할당하는 컴퓨터화된 얼굴 이미지 속성 방식 평가장치; 및 복수의 개별 얼굴 속성들에 따라 얼굴 이미지를 분류하는 컴퓨터화된 분류장치로 구현되며, 상기 평가들은 형용사로 표현된다. Preferably, the system includes a computerized facial image attribute evaluation system that assigns evaluations representing facial images to a plurality of individual facial attributes of the facial image; And a computerized classifier for classifying facial images according to a plurality of individual facial attributes, wherein the evaluations are represented by adjectives.
본 발명의 또 다른 바람직한 실시예에 따라 사람의 적어도 하나의 얼굴 이미지를 획득하는 얼굴 이미지/개인 식별 획득 서브시스템, 적어도 하나의 얼굴 이미지에 해당하는 얼굴 모델을 생성하도록 동작하는 얼굴 모델 생성 기능부 및 형용사로 표현된 평가들을 상기 얼굴 이미지의 복수의 얼굴 속성들로 할당하도록 동작하는 이미지-속성 맵핑 기능부를 포함하는, 상기 적어도 하나의 얼굴 이미지를 수신하는 컴퓨터화된 서브시스템 및 복수의 상기 사람에 대한 정보 및 얼굴 속성들의 상기 평가들을 저장하는 데이터베이스를 포함하는, 장소에 반복하여 존재하는 사람을 인식하는 시스템이 더 제공된다. A facial image generation / acquisition unit for acquiring at least one facial image of a person according to another preferred embodiment of the present invention, a facial model generation function for generating a facial model corresponding to at least one facial image, An image-attribute mapping function operable to assign evaluations expressed as adjectives to a plurality of face attributes of the face image, wherein the image-attribute mapping function comprises a computerized subsystem for receiving the at least one face image, There is further provided a system for recognizing a person who is present in a place repeatedly, comprising a database storing said evaluations of information and face attributes.
바람직하기로, 컴퓨터화된 서브시스템은 얼굴 속성들의 평가들의 집합을 이용하여, 상기 얼굴 모델을 이용하는 특정 개인과 관련된 해당 저장된 얼굴 이미지를 식별하도록 동작하는 속성-이미지 맵핑 기능부를 또한 포함한다. 바람직하기로, 컴퓨터화된 서브시스템은 얼굴 모델 및 얼굴 속성들의 평가들의 집합을 해당 저장된 평가들의 집합과 매칭될 수 있는 평가들의 결합된 집합으로 결합하도록 동작하는 평가 결합장치를 또한 포함한다. Preferably, the computerized subsystem also includes an attribute-image mapping function that is operative to identify a corresponding stored face image associated with a particular individual using the face model, using a collection of evaluations of face attributes. Preferably, the computerized subsystem also includes an evaluation combining device operative to combine the set of evaluations of the face model and face attributes into a combined set of evaluations that can be matched with a set of corresponding stored evaluations.
바람직하기로, 상기 시스템은 적어도 하나의 얼굴 이미지를 획득하고 상기 컴퓨터화된 서브시스템으로 제공하는 연속 얼굴 이미지 획득 서브시스템을 또한 포함하며, 컴퓨터화된 서브시스템은 바람직하기로 연속하는 상기 얼굴 이미지에 해당하는 얼굴 모델을 생성하고, 연속하는 상기 얼굴 이미지의 복수의 얼굴 속성들에 형용사로 표현된 평가들을 할당하며, 해당 저장된 얼굴 이미지를 식별함으로써, 반복하여 존재하는 특정 개인을 인식하기 위해, 특정 개인의 얼굴 이미지로서 연속하는 상기 얼굴 이미지를 식별하도록 동작한다. Preferably, the system also includes a continuous face image acquisition subsystem for acquiring and providing at least one facial image to the computerized subsystem, wherein the computerized subsystem preferably includes a processor To identify a specific person repeatedly by recognizing the stored face image by assigning evaluations represented by adjectives to a plurality of face attributes of the successive face images, As the face image of the user.
바람직하기로, 평가 결합장치는 얼굴 모델 및 연속하는 얼굴 이미지에 해당하는 평가들의 집합을 결합함으로써 반복하여 존재하는 사람을 인식하도록 이용된다. 바람직하기로, 상기 시스템은 장소에 반복하여 존재하는 사람에 관한 속성-방식 통계를 생성하기 위해 얼굴 모델 및 평가들의 집합들을 이용하는 반복 존재 통계 생성장치(repeat presence statistics generator)를 또한 포함한다. 바람직하기로, 상기 시스템은 소셜 네트워크에서 컴퓨터화된 서브시스템으로 정보를 이용할 수 있도록 하는 소셜 네트워크 인터페이스를 또한 포함한다. Preferably, the evaluating combination device is used to recognize a person who exists repeatedly by combining a set of evaluations corresponding to a face model and a successive facial image. Preferably, the system also includes a repeat presence statistics generator that uses sets of facial models and evaluations to generate attribute-based statistics for the repeatedly existing persons at the site. Preferably, the system also includes a social network interface that allows information to be available from the social network to the computerized subsystem.
바람직하기로, 얼굴 이미지/개인 식별 획득 서브시스템은 상기 서브시스템과 상호작용하는 사람 이외의 사람의 적어도 하나의 얼굴 이미지 및 적어도 하나의 개인 식별 아이템을 획득하도록 동작한다. 추가로 또는 대안으로, 얼굴 이미지/개인 식별 획득 서브시스템은 상기 서브시스템과 상호작용하는 개인 이외의 다른 미식별된 개인의 적어도 하나의 얼굴 이미지를 획득하도록 동작한다. Preferably, the face image / personally identifying acquisition subsystem operates to obtain at least one face image and at least one person identification item of a person other than the person interacting with the subsystem. Additionally or alternatively, the facial image / personally identification acquisition subsystem operates to acquire at least one face image of an unidentified person other than the person interacting with the subsystem.
바람직하기로, 상기 시스템은 얼굴 이미지를 표현하는 평가들을 얼굴 이미지의 복수의 개별 얼굴 속성들에 할당하는 컴퓨터화된 얼굴 이미지 속성 방식 평가장치; 및 복수의 개별 얼굴 속성들에 따라 얼굴 이미지를 분류하는 컴퓨터화된 분류장치로 구현되며, 상기 평가들은 형용사로 표현된다. Preferably, the system includes a computerized facial image attribute evaluation system that assigns evaluations representing facial images to a plurality of individual facial attributes of the facial image; And a computerized classifier for classifying facial images according to a plurality of individual facial attributes, wherein the evaluations are represented by adjectives.
본 발명의 또 다른 바람직한 실시예에 따라 형용사로 각각 표현된 평가들을 얼굴 이미지의 복수의 개별 얼굴 속성들에 할당할 수 있는 컴퓨터화된 얼굴 이미지 속성 방식 평가장치를 생성하는 방법으로서, 얼굴 이미지와 관련된 형용사로 나타내는 적어도 하나의 얼굴 이미지 속성을 각각 가지는 다수의 얼굴 이미지를 수집하는 단계 및 평가되는 얼굴 이미지를 수신하고, 평가되는 상기 얼굴 이미지의 복수의 개별 얼굴 속성들에 형용사로 표현되는 평가들을 할당하기 위해 상기 수집한 결과를 이용하도록 동작하는 기능부를 생성하는 단계를 포함하는, 컴퓨터화된 얼굴 이미지 속성 방식 평가장치를 생성하는 방법이 더 제공된다. According to another preferred embodiment of the present invention there is provided a method of generating a computerized facial image attribute system evaluation apparatus capable of assigning evaluations, each represented by an adjective, to a plurality of individual facial attributes of a facial image, Collecting a plurality of face images each having at least one face image attribute represented by an adjective, receiving the evaluated face image, and assigning evaluations represented by adjectives to a plurality of individual face attributes of the face image being evaluated And generating a function that is operative to use the collected results for the computerized facial image attribute evaluation method.
바람직하기로, 수집하는 단계는 공중 이용가능한 소스로부터 얼굴 이미지와 관련된 형용사로 나타내는 적어도 하나의 얼굴 이미지 속성을 각각 가지는 다수의 얼굴 이미지를 모으는 단계 및 크라우드소싱(crowdsourcing)을 이용하여 상기 다수의 얼굴 이미지에 나타나는 형용사들과 얼굴 속성들 사이의 일치성(correspondence)을 향상시키는 단계를 포함한다. 바람직하기로, 크라우드소싱은 다수의 얼굴 이미지 중 하나와 형용사들을 열람하고 다수의 얼굴 이미지 중 상기 하나에서 상기 형용사들과 상기 얼굴 속성들 사이의 일치도에 대한 사람의 열람을 표시하는 다수의 사람을 이용하는 단계를 포함한다. 바람직하기로, 상기 평가들은 수로 나타낸 값들(numerical values)이다. Preferably, the collecting comprises collecting a plurality of facial images each having at least one facial image attribute represented by an adjective associated with the facial image from a publicly available source, and using crowdsourcing to generate the plurality of facial images And improving the correspondence between the adjectives and facial attributes that appear in the face. Preferably, the crowd sourcing uses one or more of the plurality of face images and a plurality of people viewing the adjectives and displaying a human's view of the match between the adjectives and the face attributes in the one of the plurality of face images . Preferably, the evaluations are numerical values.
본 발명의 또 다른 바람직한 실시예에 따라 자극에 대해 사용자 반응하는 시점에 얻어진 얼굴 이미지를 표현하는 평가들을 얼굴 이미지의 복수의 개별 얼굴 속성들로 할당하는, 컴퓨터화된 얼굴 이미지 속성 방식 평가장치 및 복수의 개별 얼굴 속성들에 따라 얼굴 이미지를 분류하는 컴퓨터화된 분류장치를 포함하며, 상기 평가들은 형용사로 표현되는, 적어도 하나의 자극에 대한 사용자 반응을 인식하는 시스템이 또한 제공된다. According to another preferred embodiment of the present invention, a computerized facial image attribute evaluation method and apparatus for assigning evaluations expressing a facial image obtained at a point of user's reaction to a stimulus to a plurality of individual facial attributes of the facial image A system for recognizing a user response to at least one stimulus, wherein the evaluations are represented by an adjective, is also provided.
바람직하기로, 상기 시스템은 적어도 하나의 자극을 인가하기 전 및 인가한 후의 상기 복수의 개별 얼굴 속성들을 비교하는 컴퓨터화된 속성 비교장치를 또한 포함한다. Preferably, the system also includes a computerized attribute comparison device for comparing the plurality of individual face attributes before and after applying the at least one stimulus.
본 발명의 또 다른 바람직한 실시예에 따라 자극에 대해 사용자 반응하는 시점에 얻어진 얼굴 이미지를 표현하는 평가들을 얼굴 이미지의 복수의 개별 얼굴 속성들로 할당하는 단계 및 복수의 개별 얼굴 속성들에 따라 얼굴 이미지를 분류하는 단계를 포함하고, 상기 평가들은 형용사로 표현되는, 적어도 하나의 자극에 대한 사용자 반응을 인식하는 방법이 더 제공된다. According to still another preferred embodiment of the present invention, there is provided a method for evaluating a facial image, comprising: assigning evaluations representing a facial image obtained at a user's reaction to a stimulus to a plurality of individual facial attributes of the facial image; Wherein the evaluations are represented by an adjective, wherein the user responses to at least one stimulus are identified.
바람직하기로, 상기 방법은 적어도 하나의 자극을 인가하기 전 및 인가한 후의 복수의 개별 얼굴 속성들을 비교하는 단계를 또한 포함한다. Preferably, the method also includes comparing a plurality of individual face attributes before and after applying the at least one stimulus.
본 발명의 또 다른 바람직한 실시예에 따라 특정 시간에 사람이 특정 컨텍스트에 있을 확률을 나타내는 관계 계수(relationship coefficients)를 생성하는 관계 계수 생성장치 및 복수의 관계 계수들에 따라 상기 사람을 분류하는 컴퓨터화된 분류장치를 포함하는, 사람을 분류하는 컴퓨터화된 시스템이 더 제공된다. According to another preferred embodiment of the present invention, there are provided a relationship coefficient generating apparatus for generating relationship coefficients indicating a probability that a person is in a specific context at a specific time, and a computer- A computerized system for classifying persons is further provided, including a classifying device.
바람직하기로, 컨텍스트는 지리적 위치 및 이벤트 중 하나이다. 바람직하기로, 관계 계수는 평가 및 감쇠(decay) 함수를 포함한다. 바람직하기로, 감쇠 함수는 선형 함수이다. 대안으로, 감쇠 함수는 지수 함수이다. Preferably, the context is one of a geographic location and an event. Preferably, the relationship coefficient includes an evaluation and a decay function. Preferably, the damping function is a linear function. Alternatively, the damping function is an exponential function.
바람직하기로, 컨텍스트는 한 계층의 계층적 컨텍스트들 중 하나이다. 바람직하기로, 한 계층의 컨텍스트들 중 컨텍스트들의 관계 계수는 상호의존적이다. 바람직하기로, 관계 계수 생성장치는 다수의 사람이 적어도 제 1 컨텍스트에 함께 있었던 경우, 제 2 컨텍스트에서 다수의 사람 사이의 상호의존적 관계 계수를 생성하도록 동작한다. Preferably, the context is one of the hierarchical contexts of the hierarchy. Preferably, the relationship counts of the contexts of one layer are interdependent. Preferably, the relationship coefficient generation device is operative to generate an interdependent relationship coefficient between a plurality of persons in a second context, when a plurality of persons are at least in the first context.
바람직하기로, 상기 시스템은 복수의 개별 얼굴 속성들에 따라 얼굴 이미지를 분류하는 컴퓨터화된 분류장치를 또한 포함한다. Preferably, the system also includes a computerized classification apparatus for classifying facial images according to a plurality of individual facial attributes.
본 발명의 내용 중에 포함되어 있다. Are included in the scope of the present invention.
본 발명은 도면과 함께, 하기의 상세한 설명으로부터 더 충분히 이해되고 인식될 수 있다:
도 1a, 1b 및 1c는 본 발명의 바람직한 실시예에 따라 이미지-텍스트 및 텍스트-이미지의 연관을 이용하는 식별 시스템의 개략도이다.
도 2a 및 2b는 본 발명의 또 다른 바람직한 실시예에 따라 이미지-텍스트 및 텍스트-이미지의 연관을 이용하는 식별 시스템의 개략도이다.
도 3a 및 3b는 본 발명의 또 다른 바람직한 실시예에 따라 이미지-텍스트 및 텍스트-이미지의 연관을 이용하는 식별 시스템의 개략도이다.
도 4a, 4b 및 4c는 본 발명의 또 다른 바람직한 실시예에 따라 이미지-텍스트 및 텍스트-이미지의 연관을 이용하는 식별 시스템의 개략도이다.
도 5a 및 5b는 본 발명의 또 다른 바람직한 실시예에 따라 이미지-텍스트 및 텍스트-이미지의 연관을 이용하는 식별 시스템의 개략도이다.
도 6은 본 발명의 또 다른 바람직한 실시예에 따라 이미지-텍스트의 연관을 이용하는 사용자 만족 모니터링 시스템의 개략도이다.
도 7은 도 1a 내지 6의 시스템에서 이용되는 데이터베이스를 구축하는데 유용한 이미지/텍스트/이미지 데이터베이스 생성 방법론의 개략도이다.
도 8은 형용사와 이미지를 연관짓는 트레이닝 프로세스(training process)를 도시하는 개략적인 흐름도이다.
도 9는 시각적 분류장치를 트레이닝하는 프로세스를 도시하는 개략적인 흐름도이다.
도 10은 이미지와 연관된 형용사를 검색하는 프로세스를 도시하는 개략적인 흐름도이다.
도 11은 하나 이상의 형용사와 관련된 이미지를 검색하는 프로세스를 도시하는 개략적인 흐름도이다.
도 12는 제 1 이미지와 유사한 얼굴 이미지를 검색하는 프로세스를 도시하는 개략적인 흐름도이다. BRIEF DESCRIPTION OF THE DRAWINGS The invention, together with the drawings, will be better understood and appreciated from the following detailed description:
Figures 1a, 1b and 1c are schematic diagrams of an identification system using an association of image-text and text-image in accordance with a preferred embodiment of the present invention.
Figures 2a and 2b are schematic diagrams of an identification system that utilizes an association of image-text and text-image in accordance with another preferred embodiment of the present invention.
Figures 3a and 3b are schematic diagrams of an identification system that utilizes an association of image-text and text-image in accordance with another preferred embodiment of the present invention.
4A, 4B, and 4C are schematic diagrams of an identification system that utilizes an association of image-text and text-image in accordance with another preferred embodiment of the present invention.
5A and 5B are schematic diagrams of an identification system that utilizes an association of image-text and text-image in accordance with another preferred embodiment of the present invention.
6 is a schematic diagram of a user satisfaction monitoring system that utilizes image-text association in accordance with another preferred embodiment of the present invention.
FIG. 7 is a schematic diagram of an image / text / image database generation methodology useful for building a database used in the system of FIGS. 1A-6.
Figure 8 is a schematic flow diagram illustrating a training process for associating an adjective with an image.
Figure 9 is a schematic flow diagram illustrating the process of training a visual classifier.
10 is a schematic flow diagram illustrating a process for retrieving an adjective associated with an image.
11 is a schematic flow diagram illustrating a process for retrieving images associated with one or more adjectives.
12 is a schematic flow diagram illustrating a process for retrieving a face image similar to the first image.
이제, 본 발명의 바람직한 실시예에 따라 이미지-텍스트 및 텍스트-이미지의 연관을 이용하는 식별 시스템의 개략도인 도 1a, 1b 및 1c를 참조로 한다. 바람직하기로, 도 1a 내지 1c의 시스템은 얼굴 이미지를 표현하는 평가들(values)을 얼굴 이미지의 복수의 개별 얼굴 속성들에 할당하는 컴퓨터화된 얼굴 이미지 속성 방식 평가장치 및 복수의 개별 얼굴 속성들에 따라 얼굴 이미지를 분류하는 컴퓨터화된 분류장치를 포함하며, 상기 평가들은 형용사(adjectives)로 표현된다. Reference is now made to Figs. 1A, 1B and 1C which are schematic diagrams of an identification system using an association of image-text and text-image in accordance with a preferred embodiment of the present invention. Preferably, the system of FIGS. 1A-1C includes a computerized facial image attribute system evaluation apparatus for assigning values representing facial images to a plurality of individual facial attributes of a facial image, and a plurality of individual facial attributes And a computerized classification apparatus for classifying facial images according to a plurality of images, wherein the evaluations are represented by adjectives.
도 1a에 도시된 바와 같이, 1월 1일에 AAA 백화점의 고객인 존스씨(Mr. Jones)는 백화점으로 입장하고, 등록처(registration stand)(100)에서 백화점의 평가 고객(valued customer)으로 등록한다. 바람직하기로, 등록처는 백화점 컴퓨터 네트워크로 연결된 컴퓨터(102) 및 컴퓨터(102)에 연결된 디지털 카메라(104)를 포함한다. 평가 고객 등록 프로세스는, 가령 고객의 성명과 같은, 고객의 개인 식별 사항(personal identification details)을 입력하는 단계 및 디지털 카메라(104)로 고객의 얼굴 이미지(108)를 캡쳐하는 단계를 포함한다. 대안으로, 고객의 개인 식별 사항은 예컨대 고객의 기존의 개인 소셜 네트워크 계정으로부터 검색될 수 있다. 대안으로, 고객은 원격 위치로부터 인터넷상의 평가 위치로서 등록할 수 있다.As shown in FIG. 1A, Mr. Jones, a customer of AAA department store on Jan. 1, enters the department store and registers as a valued customer of the department store at the
개인 식별 사항 및 얼굴 이미지(108)는 바람직하기로 얼굴 모델 생성 기능부(face model generation functionality)(112), 이미지-속성 맵핑 기능부(image-to-attributes mapping functionality)(114), 속성-이미지 맵핑 기능부(attributes-to-images mapping functionality)(116) 및 평가 결합장치(value combiner)(117)를 포함하는 컴퓨터화된 개인 식별 시스템(110)으로 전송된다. 바람직하기로, 컴퓨터화된 개인 식별 시스템(110)은 또한 등록 사항 및 모든 등록된 고객의 얼굴 속성들의 평가들을 저장하는 평가 고객 데이터베이스(118)를 포함한다. 데이터베이스(118)는 임의의 적합한 컴퓨터화된 정보 스토어일 수 있다고 인식된다.The personal identification and
얼굴 모델 생성 기능부(112)는 얼굴 이미지(108)에 해당하는 얼굴 모델(120)을 생성하도록 동작한다. 얼굴 모델 생성 기능부(112)는 해당기술분야에서 공지된 임의의 적합한 얼굴 모델 생성 방법을 이용할 수 있다고 인식된다. 도 1a에 도시된 바와 같이, 얼굴 모델 생성 기능부(112)에 의해 생성되고 얼굴 이미지(108)에 해당하는 얼굴 모델(120)은 존스씨의 속성들 중 하나로서 데이터베이스(118)에 저장된다. The face model
본 발명의 바람직한 실시예에 따르면, 이미지-속성 맵핑 기능부(114)는 형용사들(122)로 표현된 평가들을 얼굴 이미지(108)의 복수의 얼굴 속성들에 할당하도록 동작한다. 예컨대, 얼굴 속성들을 나타내는 형용사들(122)은 머리색, 코 모양, 피부색, 얼굴형, 얼굴 수염의 타입 및 유무를 묘사하는 형용사들을 포함할 수 있다. 도 1a에 도시된 바와 같이, 얼굴 이미지(108)에 해당하는 속성 맵핑 기능부(114)에 의해 생성된 형용사들은 존스씨의 속성들의 평가들로서 데이터베이스(118)에 저장된다. According to a preferred embodiment of the present invention, the image-
또한, 본 발명의 바람직한 실시예에 따르면, 속성-이미지 맵핑 기능부(116)는 얼굴 속성들의 평가들의 집합을 이용하여 해당하는 저장된 얼굴 이미지를 식별함으로써 특정 개인을 식별하도록 동작한다. Further, according to a preferred embodiment of the present invention, the attribute-
또한, 본 발명의 바람직한 실시예에 따르면, 평가 결합장치(117)는 바람직하기로 얼굴 모델 및 얼굴 속성들의 평가들의 집합을 해당하는 저장된 평가들의 집합과 매칭될 수 있는 평가들의 결합된 집합(combined collection)으로 결합함으로써, 특정 개인을 식별하도록 동작한다. Also, in accordance with a preferred embodiment of the present invention, the
이제, 도 1b를 살펴보면, 가령 1월 17일과 같이, 차후 날짜에, 고객이 AAA 백화점으로 입장하고, 백화점의 입구에 설치된 디지털 카메라(150)가 고객의 얼굴 이미지(152)를 캡처한다. 얼굴 이미지(152)는 컴퓨터화된 개인 식별 시스템(110)으로 전송되는데, 여기서 바람직하게는 얼굴 이미지(152)에 해당하는 얼굴 모델(160)이 얼굴 모델 생성 기능부(112)에 의해 생성된다. 추가로, 형용사들로 표현되는 평가들(162)이 바람직하기로 이미지-속성 맵핑 기능부(114)에 의해 얼굴 이미지(152)의 복수의 얼굴 속성들에 할당된다. Now, referring to FIG. 1B, a customer enters the AAA department store on a later date, such as January 17, and the
도 1b에 도시된 바와 같이, 얼굴 모델(160) 및 형용사들(162)은 바람직하기로 평가 결합장치(117)에 의해 평가들의 결합된 집합으로 결합되는데, 이런 결합된 집합은 데이터베이스(118)에 저장된 평가들의 집합과 비교되며, 상기 얼굴 모델 및 형용사들이 존스씨의 얼굴 모델 및 형용사들과 매칭한다고 판명됨으로써, 카메라(150)에 의해 캡처된 얼굴 이미지(152)에 묘사된 사람을 존스씨인 것으로 식별한다. 평가 결합장치(117)에 의해 결합되고 데이터베이스(118)에 저장된 평가들의 집합들과 비교되는 평가들의 집합은 얼굴 모델(160)과 형용사들(162)의 임의의 서브세트일 수 있다고 인식된다. 1B, the
이제, 도 1c를 살펴보면, 예컨대 등록된 평가 고객인 존스씨로서 백화점에 입장했던 고객을 식별할 때, 매니저는 평가 고객이 백화점에 입장했다는 것을 시스템(110)에 의해 통지받으며, 따라서 매니저는 존스씨에 접근하여 그에게 새로운 상품을 할인하여 제공한다는 점을 보여준다. Referring now to FIG. 1C, when identifying a customer who entered the department store as a registered valuation customer, for example Jones, the manager is notified by the
이제, 본 발명의 또 다른 바람직한 실시예에 따라 이미지-텍스트 및 텍스트-이미지의 연관을 이용하는 식별 시스템의 개략도인 도 2a 및 2b를 참조로 한다. 도 2a에 도시된 바와 같이, 가령 1월 1일과 같은 특정한 날에, AAA 백화점의 고객이 백화점으로 입장하고, 백화점으로의 입구에 설치된 디지털 카메라(200)가 고객의 얼굴 이미지(202)를 캡처한다. 얼굴 이미지(202)는 바람직하게는 얼굴 모델 생성 기능부(212), 이미지-속성 맵핑 기능부(214), 속성-이미지 맵핑 기능부(216) 및 평가 결합장치(217)를 포함하는 컴퓨터화된 개인 식별 시스템(210)으로 전송된다. 바람직하기로, 컴퓨터화된 식별 시스템(210)은 또한 바람직하게는 백화점으로 입장한 적이 있는 모든 고객의 얼굴 속성들의 평가들을 저장하는 고객 데이터베이스(218) 및 바람직하게는 각각의 특정 고객이 백화점으로 왔던 누적 방문수를 추적하는 방문 카운터(219)를 포함한다. 데이터베이스(218)는 임의의 적합한 컴퓨터화된 정보 스토어일 수 있다고 인식된다. Reference is now made to Figs. 2A and 2B which are schematic diagrams of an identification system utilizing an association of image-text and text-image in accordance with another preferred embodiment of the present invention. 2A, a customer of the AAA department store enters a department store and a
얼굴 모델 생성 기능부(212)는 얼굴 이미지(202)에 해당하는 얼굴 모델(220)을 생성하도록 동작한다. 얼굴 모델 생성 기능부(212)는 해당기술분야에서 공지된 임의의 적합한 얼굴 모델 생성 방법일 수 있다고 인식된다. 도 2a에 도시된 바와 같이, 얼굴 모델 생성 기능부(212)에 의해 생성되고 얼굴 이미지(202)에 해당하는 얼굴 모델(220)은 얼굴 이미지(202)의 고객의 속성들 중 하나로서 데이터베이스(218)에 저장된다. The face model
본 발명의 바람직한 실시예에 따르면, 이미지-속성 맵핑 기능부(214)는 형용사들(222)로 표현된 평가들을 얼굴 이미지(202)의 복수의 얼굴 속성들로 할당하도록 동작한다. 예컨대, 얼굴 속성을 나타내는 형용사들(222)은 연령층, 성별, 인종, 얼굴형, 기분 및 전반적인 외모를 묘사하는 형용사들을 포함할 수 있다. According to a preferred embodiment of the present invention, the image-
또한, 본 발명의 바람직한 실시예에 따르면, 속성-이미지 맵핑 기능부(216)는 얼굴 속성들의 평가들의 집합을 이용하여 해당하는 저장된 얼굴 이미지를 식별함으로써 특정 개인을 식별하도록 동작한다. 또한, 평가들의 집합은 얼굴 속성들의 현재 평가들이 이용가능하지 않는 경우, 단기간 내에 개인을 식별하는데 사용될 수 있는, 가령 의류 타입 및 색깔과 같은 고객의 외모의 비-신체적인 특징을 포함할 수 있다고 인식된다. Also, according to a preferred embodiment of the present invention, the attribute-
또한, 본 발명의 바람직한 실시예에 따르면, 평가 결합장치(217)는 바람직하기로 얼굴 모델 및 얼굴 속성들의 평가들의 집합을 해당하는 저장된 평가들의 집합과 매칭될 수 있는 평가들의 결합된 집합으로 결합함으로써, 특정 개인을 식별하도록 동작한다. Also, in accordance with a preferred embodiment of the present invention, the
도 2a에 도시된 바와 같이, 얼굴 모델(220) 및 형용사들(222)은 바람직하기로 평가 결합장치(217)에 의해 평가들의 결합된 집합으로 결합되는데, 이런 결합된 집합은 데이터베이스(218)에 저장된 평가들의 집합들과 비교되며, 상기 얼굴 모델 및 형용사들이 재방문 고객(returning customer)에 해당하는 얼굴 모델 및 형용사들과 매칭한다고 판명된다. 따라서, 고객의 방문 카운터(219)는 증가한다. 평가 결합장치(217)에 의해 결합되고 데이터베이스(218)에 저장된 평가들의 집합들과 비교되는 평가들의 집합은 얼굴 모델(220)과 형용사들(222)의 임의의 서브세트일 수 있다고 인식된다. 2A, the face model 220 and the
대안으로, 평가 결합장치(217)에 의해 생성된 평가들의 결합된 집합이 데이터베이스(218)에 저장된 평가들의 임의의 집합들과 매칭한다고 판명되지 않는다면, 평가 결합장치(217)에 의해 생성된 평가들의 결합된 집합 및 얼굴 이미지(202)는 바람직하기로 새로운 고객을 나타내는 것으로서 데이터베이스(218)에 저장되며, 새로운 고객의 카운터(219)는 1로 초기화된다. Alternatively, if it is not determined that the combined set of evaluations generated by the
이제, 도 2b를 살펴보면, 가령 1월 1일 오후 5:00와 같은 종료시간에, 백화점의 매니저는 바람직하기로 1월 1일 동안 백화점을 입장했던 고객들의 세그멘테이션(segmentation)을 포함하는 시스템(210)으로부터의 제 1 리포트(230)를 수신한다. 이런 세그멘테이션은 임의의 형용사들에 따라, 가령 성별, 연령층, 인종 및 기분과 같이 데이터베이스(218)에 저장될 수 있다. 또한, 리포트(230)는 바람직하기로 1월 1일의 고객들에 의해 백화점으로 행해진 이전의 방문수에 대한 정보를 포함한다. Now, referring to FIG. 2B, at the end time, such as 5:00 PM on January 1, the manager of the department store preferably includes a
추가로, 백화점의 매니저는 또한 1월 1일 동안 백화점을 입장했던 재방문 고객들의 세크멘테이션을 포함하는 시스템(210)으로부터의 제 2 리포트(234)를 수신할 수 있다. 이런 세그멘테이션은 임의의 형용사들에 따라, 가령 성별, 연령층, 인종 및 기분과 같이 데이터베이스(218)에 저장될 수 있다. 리포트(230 및 234)는 예컨대 타겟 마케팅 캠페인(targeted marketing campaigns)을 계획하거나 이전에 실행된 마케팅 캠페인의 성공을 평가하는데 유용할 수 있다고 인식된다. In addition, the manager of the department store may also receive a
이제, 본 발명의 또 다른 바람직한 실시예에 따라 이미지-텍스트 및 텍스트-이미지의 연관을 이용하는 식별 시스템의 개략도인 도 3a 및 3b를 참조로 한다. 도 3a에 도시된 바와 같이, 가령 1월 1일과 같은 특정한 날에, AAA 백화점의 고객이 백화점으로 입장하고, 백화점의 장난감 매장에서 상품을 구경한다. 장난감 매장에 설치된 디지털 카메라(250)는 고객의 얼굴 이미지(252)를 캡처한다. 도 3a에 도시된 바와 같이, 추가의 디지털 카메라가 바람직하기로 백화점의 다양한 매장 도처에 설치된다. Reference is now made to Figs. 3A and 3B which are schematic diagrams of an identification system utilizing an association of image-text and text-image in accordance with another preferred embodiment of the present invention. As shown in FIG. 3A, on a particular day, such as January 1, a customer of the AAA department store enters the department store and watches the merchandise at the toy store of the department store. The
얼굴 이미지(252)는 얼굴 모델 생성 기능부(262), 이미지-속성 맵핑 기능부(264), 속성-이미지 맵핑 기능부(266) 및 평가 결합장치(267)를 포함하는 컴퓨터화된 개인 식별 시스템(260)으로 전송된다. 바람직하기로, 컴퓨터화된 식별 시스템(260)은 또한 바람직하게는 하루 동안 백화점으로 입장한 모든 고객의 얼굴 속성들의 평가들을 저장하는 고객 데이터베이스(268) 및 백화점의 매장들 중 어디에 각 고객이 방문했는지를 나타내는 정보를 포함한다. 데이터베이스(268)는 임의의 적합한 컴퓨터화된 정보 스토어일 수 있다고 인식된다. The
얼굴 모델 생성 기능부(262)는 얼굴 이미지(252)에 해당하는 얼굴 모델(270)을 생성하도록 동작한다. 얼굴 모델 생성 기능부(262)는 해당기술분야에서 공지된 임의의 적합한 얼굴 모델 생성 방법을 이용할 수 있다고 인식된다. 도 3a에 도시된 바와 같이, 얼굴 모델 생성 기능부(262)에 의해 생성되고 얼굴 이미지(252)에 해당하는 얼굴 모델(270)은 얼굴 이미지(252)의 고객의 속성들 중 하나로서 데이터베이스(268)에 저장된다. The face model
본 발명의 바람직한 실시예에 따르면, 이미지-속성 맵핑 기능부(264)는 형용사들(272)로 표현된 평가들을 얼굴 이미지(252)의 복수의 얼굴 속성들로 할당하도록 동작한다. 예컨대, 얼굴 속성을 나타내는 형용사들(272)은 연령층, 성별, 인종, 얼굴형, 기분 및 전반적인 외모를 묘사하는 형용사들을 포함할 수 있다. 도 3a에 도시된 바와 같이, 얼굴 이미지(252)에 해당하는, 속성 맵핑 기능부(264)에 의해 생성된 형용사들은 얼굴 이미지(252)의 고객의 속성들의 평가로서 데이터베이스(268)에 저장된다. According to a preferred embodiment of the present invention, the image-
또한, 본 발명의 바람직한 실시예에 따르면, 속성-이미지 맵핑 기능부(266)는 얼굴 속성들의 평가들의 집합을 이용하여 해당하는 저장된 얼굴 이미지를 식별함으로써 특정 개인을 식별하도록 동작한다. 또한, 평가들의 집합은 얼굴 속성들의 현재 평가들이 이용가능하지 않는 경우, 단기간 내에 개인을 식별하는데 사용될 수 있는, 가령 의류 타입 및 색깔과 같은 고객의 외모의 비-신체적인 특징을 포함할 수 있다고 인식된다. Also, according to a preferred embodiment of the present invention, the attribute-
또한, 본 발명의 바람직한 실시예에 따르면, 평가 결합장치(267)는 바람직하기로 얼굴 모델 및 얼굴 속성들의 평가들의 집합을 해당하는 저장된 평가들의 집합과 매칭될 수 있는 평가들의 결합된 집합으로 결합함으로써, 특정 개인을 식별하도록 동작한다. Also, in accordance with a preferred embodiment of the present invention, the
추가로, 시스템(260)은 고객이 방문했던 매장을 데이터베이스(268)에 장난감 매장이라고 기록한다. In addition, the
이제, 도 3b를 살펴보면, 가령 1월 1일 오후 5:00와 같은 종료시간에, 백화점의 매니저는 바람직하기로 1월 1일 동안 백화점의 장난감 매장을 입장했던 고객들의 세그멘테이션을 포함하는 시스템(260)으로부터의 리포트(280)를 수신한다. 이런 세그멘테이션은 임의의 형용사들에 따라, 가령 성별, 연령층, 인종 및 기분과 같이 데이터베이스(268)에 저장될 수 있다. 예컨대, 리포트(280)는 타겟 마케팅 캠페인을 계획하거나 이전에 실행된 마케팅 캠페인의 성공을 평가하는데 유용할 수 있다고 인식된다. Now, referring to FIG. 3B, at the end time, such as 5:00 PM on January 1, the manager of the department store preferably has a
이제, 본 발명의 또 다른 바람직한 실시예에 따라 이미지-텍스트 및 텍스트-이미지의 연관을 이용하는 식별 시스템의 개략도인 도 4a, 4b 및 4c를 참조로 한다. 도 4a에 도시된 바와 같이, 1월 1일에, 잠재적인 참석자가 바람직하게는 컴퓨터(300)를 통해 플로리스트들(florists)의 연례 회의에 참석하기 위해 등록한다. 등록 프로세스의 일환으로, 잠재적인 참석자는 바람직하기로 가령 그의 성명과 같은 개인 식별 사항을 입력하고 그 자신의 적어도 하나의 얼굴 이미지(302)를 업로드하도록 요구된다. 대안으로, 잠재적인 참석자는 개인 식별 사항 및 예컨대 기존의 개인 소셜 네트워크 계정으로부터의 하나 이상의 얼굴 이미지를 불러오도록 선택할 수 있다. Reference is now made to Figs. 4A, 4B and 4C which are schematic diagrams of an identification system utilizing an association of image-text and text-image in accordance with another preferred embodiment of the present invention. As shown in FIG. 4A, on January 1, a potential participant registers preferably to attend the annual meeting of florists via
개인 식별 사항 및 얼굴 이미지(302)는 바람직하기로 얼굴 모델 생성 기능부(312), 이미지-속성 맵핑 기능부(314), 속성-이미지 맵핑 기능부(316) 및 평가 결합장치(317)를 포함하는 컴퓨터화된 회의 등록 시스템(310)으로 전송된다. 바람직하기로, 컴퓨터화된 회의 등록 시스템(310)은 또한 등록 사항 및 모든 등록된 참석자의 얼굴 속성들의 평가들을 저장하는 데이터베이스(318)를 포함한다. 데이터베이스(318)는 임의의 적합한 컴퓨터화된 정보 스토어일 수 있다고 인식된다. The personal identification and
얼굴 모델 생성 기능부(312)는 얼굴 이미지(302)에 해당하는 얼굴 모델(320)을 생성하도록 동작한다. 얼굴 모델 생성 기능부(312)는 해당기술분야에서 공지된 임의의 적합한 얼굴 모델 생성 방법을 이용할 수 있다고 인식된다. 도 4a에 도시된 바와 같이, 얼굴 모델 생성 기능부(312)에 의해 생성되고 얼굴 이미지(302)에 해당하는 얼굴 모델(320)은 잠재적인 참석자인 존스씨의 속성들 중 하나로서 데이터베이스(318)에 저장된다. The face model
본 발명의 바람직한 실시예에 따르면, 이미지-속성 맵핑 기능부(314)는 형용사들(322)에 의해 표현된 평가들을 얼굴 이미지(308)의 복수의 얼굴 속성들에 할당하도록 동작한다. 예컨대, 얼굴 속성들을 나타내는 형용사들은 머리색, 코 모양, 피부색, 얼굴형, 얼굴 수염의 타입 및 유무를 묘사하는 형용사들을 포함할 수 있다. 도 4a에 도시된 바와 같이, 얼굴 이미지(302)에 해당하는, 속성 맵핑 기능부(314)에 의해 생성된 형용사들은 잠재적인 참석자인 존스씨의 속성들의 평가들로서 데이터베이스(318)에 저장된다. According to a preferred embodiment of the present invention, the image-
또한, 본 발명의 바람직한 실시예에 따르면, 속성-이미지 맵핑 기능부(316)는 얼굴 속성들의 평가들의 집합을 이용하여 해당하는 저장된 얼굴 이미지를 식별함으로써 특정 개인을 식별하도록 동작한다. Also, according to a preferred embodiment of the present invention, the attribute-
또한, 본 발명의 바람직한 실시예에 따르면, 평가 결합장치(317)는 바람직하기로 얼굴 모델 및 얼굴 속성들의 평가들의 집합을 해당하는 저장된 평가들의 집합과 매칭될 수 있는 평가들의 결합된 집합으로 결합함으로써, 특정 개인을 식별하도록 동작한다. In addition, according to a preferred embodiment of the present invention, the
이제, 도 4b를 살펴보면, 가령 1월 17일과 같은 차후 날짜에, 참석자는 플로리스트들의 연례 회의에 입장하고, 회의장에서 등록 부스(330)로 다가가는 것이 도시된다. 등록 부스(330)는 참석자의 얼굴 이미지(334)를 캡처하는 디지털 카메라(332)를 포함한다. 얼굴 이미지(334)는 컴퓨터화된 회의 등록 시스템(310)으로 전송되는데, 여기서 얼굴 이미지(334)에 해당하는 얼굴 모델(340)은 바람직하기로 얼굴 모델 생성 기능부(312)에 의해 생성된다. 추가로, 형용사들로 표현된 평가들(342)은 바람직하기로 이미지-속성 맵핑 기능부(314)에 의해 얼굴 이미지(334)의 복수의 얼굴 속성들로 할당된다. Now, referring to FIG. 4B, it is shown that at a later date, such as January 17, the attendee enters the annual meeting of the florists and approaches the registration booth 330 at the conference hall. The registration booth 330 includes a digital camera 332 that captures the face image 334 of the attendee. The face image 334 is transmitted to the computerized
도 4b에 도시된 바와 같이, 얼굴 모델(340) 및 평가들(342)은 바람직하기로 평가 결합장치(317)에 의해 평가들의 결합된 집합으로 결합되는데, 이런 결합된 집합은 데이터베이스(318)에 저장된 평가들의 집합과 비교되며, 상기 얼굴 모델과 존스씨로 할당된 평가들이 매칭한다고 판명됨으로써, 카메라(332)에 의해 캡처된 얼굴 이미지(334)에 묘사된 사람을 존스씨인 것으로 식별한다. 평가 결합장치(317)에 의해 결합되고 데이터베이스(318)에 저장된 평가들의 집합들과 비교되는 평가들의 집합은 얼굴 모델(340)과 형용사들(342)의 임의의 서브세트일 수 있다고 인식된다. 존스씨인 것으로 식별될 때, 참석자의 등록이 완료되고, 회의 직원이 참석자를 맞이한다. 4B, the
이제, 도 4c를 살펴보면, 회의에 참석하는 동안 다른 참석자에게 소개받기를 원하는 참석자는 다른 참석자들이 예컨대 모바일 통신 장치(352)에 내장된 디지털 카메라를 사용하여 그들의 얼굴 이미지(350)를 캡처할 수 있도록 한다는 것을 도시한다. 회의 참석자의 모바일 통신 장치(352)는 컴퓨터 네트워크를 통해 컴퓨터화된 회의 등록 시스템(310)으로의 접근이 허용된다. 컴퓨터 네트워크는 예컨대 로컬 컴퓨터 네트워크 또는 인터넷일 수 있다고 인식된다. 4C, an attendee who wishes to be introduced to another participant while attending a meeting may be able to capture their
추가로 또는 대안으로, 참석자는 새로운 참석자의 얼굴 이미지를 캡처하고, 바람직하게는 관련 개인 식별 정보와 함께 얼굴 이미지를 등록 시스템(310)으로 전송함으로써, 컴퓨터화된 회의 등록 시스템(310)에 접근하여 새로운, 현재 미등록된 참석자를 회의로 등록한다. Additionally or alternatively, the attendee may access the computerized
회의 참석자의 이미지(350)를 캡처할 때, 모바일 통신 장치(352)는 컴퓨터 네트워크를 통해 이미지(350)를 컴퓨터화된 회의 등록 시스템(310)으로 전송하는데, 여기서 얼굴 이미지(350)에 해당하는 얼굴 모델(360)은 바람직하기로 얼굴 모델 생성 기능부(312)에 의해 생성된다. 추가로, 형용사들로 표현된 평가들(362)은 바람직하기로 이미지-속성 맵핑 기능부(314)에 의해 얼굴 이미지(350)의 복수의 얼굴 속성들에 할당된다. The
도 4c에 도시된 바와 같이, 얼굴 모델(360) 및 평가들(362)은 바람직하기로 평가 결합장치(317)에 의해 평가들의 결합된 집합으로 결합되는데, 이런 결합된 집합은 데이터베이스(318)에 저장된 평가들의 집합과 비교되며, 얼굴 모델 및 평가들이 존스씨로 할당된 얼굴 모델 및 평가들과 매칭한다고 판명됨으로써, 모바일 통신 장치(352)에 의해 캡처된 얼굴 이미지(350)에 묘사된 사람을 존스씨인 것으로 식별한다. 평가 결합장치(317)에 의해 결합되고 데이터베이스(318)에 저장된 평가들의 집합들과 비교되는 평가들의 집합은 얼굴 모델(360)과 형용사들(362)의 임의의 서브세트일 수 있다고 인식된다. 이미지(350)에 묘사된 참석자를 존스씨로 식별한 알림이 컴퓨터화된 회의 등록 시스템(310)에 의해 모바일 통신 장치(352)로 재전송되며, 이런 알림은 모바일 통신 장치(352)의 조작자가 존스씨에게 다가가고 있음을 인지할 수 있도록 한다. 4C, the
이제, 본 발명의 또 다른 바람직한 실시예에 따라 이미지-텍스트 및 텍스트-이미지의 연관을 이용하는 식별 시스템의 개략도인 도 5a 및 5b를 참조로 한다. 도 5a 및 5b의 실시예에서는 사람과 컨텍스트 사이의 관계를 측정하는 관계 계수가 이용된다. 예컨대, 컨텍스트는 지리적 위치 또는 이벤트일 수 있고, 관계 계수는 평가 및 기정의된 감쇠 함수(decay function)를 포함한다. 한 사람이 다수의 컨텍스트와 동시에 관계 계수를 가질 수 있다. 예컨대, 관계 계수는 사람이 특정 시간에 소정의 위치에 있을 확률을 예상하는데 사용될 수 있다. Reference is now made to Figs. 5A and 5B which are schematic diagrams of an identification system utilizing an association of image-text and text-image in accordance with another preferred embodiment of the present invention. In the embodiment of Figures 5A and 5B, a relationship coefficient is used to measure the relationship between a person and a context. For example, the context may be a geographic location or an event, and the relational factor includes an evaluated and predetermined decay function. One person can have relationship counts at the same time as multiple contexts. For example, the relationship coefficient may be used to predict the probability that a person will be in a predetermined position at a particular time.
감쇠 함수는 임의의 수학적 함수일 수 있다. 예컨대, 지리적 위치에 대한 감쇠 함수는 사람이 시간에 따라 그 위치로부터 점차적으로 그리고 선형적으로 떨어져 있는 성향을 나타내는, 선형 함수일 수 있다. 예컨대, 1회성 이벤트(one-time event)에 대한 감쇠 함수는 지수형 감쇠 함수일 수 있다.The damping function may be any mathematical function. For example, the damping function for a geographic location may be a linear function, which indicates a tendency for a person to gradually and linearly separate from its location over time. For example, the damping function for a one-time event may be an exponential damping function.
사람이 특정 컨텍스트 내에 있는 동안, 사람과 컨텍스트 사이의 생성된 관계 계수의 현재 값이 높도록 설정된다. 그 사람이 그 컨텍스트 내에 반복하여 보일 때마다, 관계 계수의 값은 지수형 방식에서 잠재적으로 증가한다.While the person is in a particular context, the current value of the generated relationship coefficient between the person and the context is set to be high. Whenever the person appears repeatedly in its context, the value of the relationship coefficient potentially increases in an exponential manner.
컨텍스트는 계층적(hierarchical)일 수 있다고 인식된다. 예컨대, 지리적 위치는 가령 도시나 나라와 같은 더 큰 지리적 영역 내에 있을 수 있다. 따라서, 특정 지리적 위치와 관계 계수를 갖는 사람은 또한 그 특정 지리적 위치와 계층적인 모든 다른 지리적 위치와 낮은 관계 계수를 가질 수 있는데, 이런 관계 계수는 특정 지리적 위치 및 관계형의 계층적인 지리적 위치 사이의 거리의 함수로 감소한다. It is recognized that the context can be hierarchical. For example, a geographic location may be within a larger geographic area, such as a city or a country. Thus, a person having a particular geographic location and a relationship coefficient may also have a low relationship coefficient with that particular geographic location and all other geographic locations that are hierarchical, such that the distance coefficient between the particular geographic location and the hierarchical geographic location of the relational form .
또한, 다른 사람들의 관계 계수는 적어도 부분적으로 상호의존적일 수 있다고 인식된다. 예컨대, 다수의 시기에 다수의 위치에서 제 2 사람과 함께 발견되었던 제 1 사람은 제 2 사람이 발견되었던 새로운 위치에 대해 상대적으로 높은 관계 계수를 할당받을 수 있을 것이다. It is also recognized that the relationship coefficients of others can be at least partially interdependent. For example, a first person who has been found with a second person at multiple locations at multiple times may be assigned a relatively higher relationship count for a new location where the second person was found.
도 5a에 도시된 바와 같이, 가령 2011년 1월 1일과 같은 특정한 날에, 프랑스 파리의 에펠탑에서 근접한 카페 자크(Cafe Jaques)에서 저녁식사를 한다. 식사 손님의 친구가 휴대용 모바일 장치(402)의 일부인 디지털 카메라를 이용하여 식사 손님의 얼굴 이미지(400)를 캡처하고, 인터넷을 통해 관련 시간 및 위치와 함께 얼굴 이미지(400)를 컴퓨터화된 개인 식별 시스템(410)으로 전송함으로써, 식사 손님의 광경을 등록한다. 예컨대, 위치는 장치(402)에 구비된 GPS 모듈에 의해 제공될 수 있다. 대안으로, 위치는 예컨대 소셜 네트워크로부터 검색될 수 있다. 관련 시간 및 위치를 사용하여, 식사 손님과 위치를 관계짓는 관계 계수가 상술한 바와 같이 생성된다. As shown in FIG. 5A, on a particular day, such as January 1, 2011, dinner is served at the nearby Cafe Jaques in the Eiffel Tower, Paris, France. A friend of the meal guest captures a
컴퓨터화된 개인 식별 시스템(410)은 얼굴 모델 생성 기능부(412), 이미지-속성 맵핑 기능부(414), 속성-이미지 맵핑 기능부(416) 및 평가 결합장치(417)를 포함한다. 바람직하기로, 컴퓨터화된 개인 식별 시스템(410)은 또한 관련 시간 및 위치와 함께, 바람직하기로 발견되고 등록된 모든 사람의 얼굴 속성들의 평가들을 저장하는 광경 데이터베이스(418)를 포함한다. 데이터베이스(418)는 임의의 적합한 컴퓨터화된 정보 스토어일 수 있다고 인식된다. The computerized
얼굴 모델 생성 기능부(412)는 얼굴 이미지(400)에 해당하는 얼굴 모델(420)을 생성하도록 동작한다. 얼굴 모델 생성 기능부(422)는 해당기술분야에 공지된 임의의 적합한 얼굴 모델 생성 방법을 이용할 수 있다고 인식된다. 도 5a에 도시된 바와 같이, 얼굴 모델 생성 기능부(412)에 의해 생성되고 얼굴 이미지(400)에 해당하는 얼굴 모델(420)은 얼굴 이미지(400)의 개인의 속성들 중 하나로서 데이터베이스(418)에 저장된다. The face model
본 발명의 바람직한 실시예에 따르면, 이미지-속성 맵핑 기능부(414)는 형용사들(422)로 표현된 평가들을 얼굴 이미지(400)의 복수의 얼굴 속성들에 할당하도록 동작한다. 예컨대, 얼굴 속성들을 나타내는 형용사들(422)은 연령층, 성별, 인종, 얼굴형, 기분 및 전반적인 외모를 묘사하는 형용사들을 포함할 수 있다. 도 5a에 도시된 바와 같이, 얼굴 이미지(400)에 해당하는, 속성 맵핑 기능부(414)에 의해 생성된 형용사들은 얼굴 이미지(400)의 개인의 속성들의 평가들로서 데이터베이스(418)에 저장된다. 추가로, 얼굴 이미지(400)와 관련된 시간 및 위치는 또한 데이터베이스(418)에 저장된다. According to a preferred embodiment of the present invention, the image-
또한, 본 발명의 바람직한 실시예에 따르면, 속성-이미지 맵핑 기능부(416)는 얼굴 속성들의 평가들의 집합을 이용하여 해당하는 저장된 얼굴 이미지를 식별함으로써, 특정 개인을 식별하도록 동작한다. 또한, 평가들의 집합은 얼굴 속성들의 현재 평가들이 이용가능하지 않는 경우, 단기간 내에 개인을 식별하는데 사용될 수 있는, 가령 의류 타입 및 색깔과 같은 고객의 외모의 비-신체적인 특징을 포함할 수 있다고 인식된다. Also, according to a preferred embodiment of the present invention, the attribute-
또한, 본 발명의 바람직한 실시예에 따르면, 평가 결합장치(417)는 바람직하기로 얼굴 모델 및 얼굴 속성들의 평가들의 집합을 해당하는 저장된 평가들의 집합과 매칭될 수 있는 평가들의 결합된 집합으로 결합함으로써, 특정 개인을 식별하도록 동작한다. Furthermore, in accordance with a preferred embodiment of the present invention, the
이제, 도 5b를 살펴보면, 가령 2011년 2월 1일과 같은 차후 날짜에, 프랑스 파리의 에펠탑에서 근접한 카페 자크에서 저녁식사를 한다. 행인이 휴대용 모바일 장치(452)의 일부인 디지털 카메라를 이용하여 식사 손님의 얼굴 이미지(450)를 캡처하고, 인터넷을 통해 관련 시간 및 위치와 함께 얼굴 이미지(450)를 컴퓨터화된 개인 식별 시스템(410)으로 전송함으로써 식사 손님의 광경을 등록하는데, 컴퓨터화된 개인 식별 시스템에서 얼굴 이미지(450)에 해당하는 얼굴 모델(460)이 바람직하기로 얼굴 모델 생성 기능부(412)에 의해 생성된다. 추가로, 형용사들로 표현된 평가들(462)은 바람직하기로 이미지-속성 맵핑 기능부(414)에 의해 얼굴 이미지(450)의 복수의 얼굴 속성들에 할당된다. Now, looking at FIG. 5B, we will have dinner at the nearby Café Jacques at the Eiffel Tower in Paris, France, for example on February 1, 2011. A passenger captures a
도 5b에 도시된 바와 같이, 얼굴 모델(460), 평가들(462) 및 얼굴 이미지(450)와 관련된 시간과 위치는 바람직하기로 평가 결합장치(417)에 의해 평가들의 결합된 집합으로 결합되는데, 이런 결합된 집합은 데이터베이스(418)에 저장된 평가들의 집합과 비교되며, 얼굴 모델, 평가들 및 얼굴 이미지와 관련된 시간과 위치들이 2011년 1월 1일에 에펠탑에서 가장 최근에 발견된 식사 손님에 할당되는 결합된 평가들과 매칭한다고 판명된다. 평가 결합장치(417)에 의해 결합되고 데이터베이스(418)에 저장된 평가들의 집합들과 비교되는 평가들의 집합은 얼굴 모델(460)과 형용사들(462)의 임의의 서브세트일 수 있다고 인식된다. 이미지(450)에 묘사된 식사 손님을 식별한 알림이 컴퓨터화된 개인 식별 시스템(410)에 의해 모바일 통신 장치(452)로 재전송된다. 5B, the time and position associated with the
본 발명의 이런 실시예의 특정한 특징은 식사 손님과 위치를 관계짓는 관계 계수가 또한 식사 손님의 식별의 신뢰성을 증가시키는 속성값(attribute value)으로서 사용될 수 있다는 점이다. A particular feature of this embodiment of the invention is that the relationship coefficient relating the location to a meal guest can also be used as an attribute value to increase the reliability of the identification of a meal guest.
본 발명의 본 실시예의 특정한 특징은 가령 한 개인이 자주 다니는 특정 위치와 같은 추가 정보와 함께 얼굴 이미지와 연관된 얼굴 속성들의 평가들의 조합이 가령 특정 위치에 근접한 다른 위치들과 같은 특정 위치나 관련 위치에서 개인들을 더 효율적으로 식별하도록 동작한다는 점이다. A particular feature of this embodiment of the present invention is that a combination of evaluations of facial attributes associated with a facial image together with additional information, such as a particular location, for example an individual's frequent location, And operate to identify individuals more efficiently.
본 발명의 본 실시예의 또 다른 특정한 특징은 본 발명의 본 실시예에 따른 개인들의 식별이 가령 이름 및 성과 같은 개인 식별 정보를 기초로 특정 개인의 정확한 식별로 제한되는 것이 아니라, 개인들에 대한 얼굴 속성 및 종합적인 행동 정보에 따른 개인들의 식별도 포함한다는 점이다. Another specific feature of the present embodiment of the present invention is that the identification of individuals according to this embodiment of the present invention is not limited to accurate identification of a specific individual based on individual identification information such as name and performance, Attributes and identification of individuals according to comprehensive behavioral information.
이제, 본 발명의 또 다른 바람직한 실시예에 따라 이미지-텍스트 및 텍스트-이미지의 연관을 이용하는 사용자 만족 모니터링 시스템의 개략도인 도 6을 참조로 한다. 도 6에 도시된 바와 같이, 열람자는 멀티미디어 뷰잉 장치(multimedia viewing device)(480)를 사용하여 컴퓨터화된 컨텐츠(482)를 열람한다. 예컨대, 장치(480)는 텔레비전 장치 또는 컴퓨터일 수 있다고 인식된다. 예컨대, 컨텐츠(482)는 비디오 클립, 영화 또는 광고일 수 있다.Reference is now made to Fig. 6, which is a schematic diagram of a user satisfaction monitoring system that utilizes an association of image-text and text-image in accordance with another preferred embodiment of the present invention. As shown in FIG. 6, the reader browses the computerized content 482 using a multimedia viewing device 480. For example, it is recognized that the device 480 may be a television device or a computer. For example, the content 482 may be a video clip, a movie, or an advertisement.
바람직하기로, 멀티미디어 뷰잉 장치(480)에 연결된 디지털 카메라(484)는 예컨대 매번 수초씩과 같은 기정의된 간격으로 열람자의 얼굴 이미지(486)를 캡처하고, 인터넷을 통해 온라인 컴퓨터화된 컨텐츠 만족 모니터링 시스템(490)으로 이미지(486)를 전송한다. 대안으로, 이미지(486)는 장치(480)에 내장된 적합한 기능으로 모니터되고, 저장되며, 분석될 수 있다. Preferably, the digital camera 484 connected to the multimedia viewing device 480 captures the
바람직하기로, 시스템(490)은 이미지-속성 맵핑 기능부(492) 및 열람자 표정 데이터베이스(494)를 포함한다. 데이터베이스(494)는 임의의 적합한 컴퓨터화된 정보 스토어일 수 있다고 인식된다. Preferably, the
본 발명의 바람직한 실시예에 따르면, 이미지-속성 맵핑 기능부(492)는 형용사(496)로 표현된 평가를 얼굴 이미지(486)에 캡처되는 열람자의 표정에 할당하고, 데이터베이스(494)에 형용사(496)를 저장하도록 동작한다. 예컨대, 형용사(496)는 "행복한", "슬픈", "화난", "만족한" 및 "무관심한"을 포함할 수 있다. 예컨대, 데이터베이스(494)에 저장된 형용사들(496)은 컨텐츠(482)의 효과성을 평가하는데 유용할 수 있다고 인식된다. According to a preferred embodiment of the present invention, the image-
이제, 도 1a 내지 6의 시스템에서 이용되는 데이터베이스를 구축하는데 유용한 이미지/텍스트/이미지 데이터베이스 생성 방법론의 개략도인 도 7을 참조로 한다. 도 7에 도시된 바와 같이, 복수의 이미지(500)는 컴퓨터화된 개인 식별 트레이닝 시스템(510)에 의해 인터넷상에서 공중이 이용가능한 이미지 저장소(502)로부터 수집된다. 예컨대, 이미지 저장소(502)는 텍스트를 이미지와 동일한 페이지에 또는 하나 이상의 근접 페이지에 나타난 이미지와 연관짓는 공중 이용가능한 소셜 네트워크 또는 문자 검색 엔진일 수 있다. 바람직하기로, 하나 이상의 연관된 특징이 각각의 이미지(500)를 갖는 이미지 저장소에 의해 제공된다. 예컨대, 특징은 이름, 나이 또는 연령대, 성별, 전반적인 외모 및 기분을 포함할 수 있고, 일반적으로 주관적이며, 이미지를 공표한 개인들 또는 공표된 이미지를 이런 특징을 포함할 수 있는 코멘트로 태그한 개인들에 의해 이미지와 연관된다. Reference is now made to Fig. 7, which is a schematic diagram of an image / text / image database creation methodology useful for building databases used in the systems of Figs. 1A-6. As shown in FIG. 7, a plurality of
먼저, 컴퓨터화된 개인 식별 트레이닝 시스템(510)은 각각의 이미지(500)와 연관된 각각의 특징을 분석하고, 각각의 이런 적합한 특징을 속성값으로 변환한다. 이런 각각의 값에 대해, 시스템(510)은 이후 각각의 이미지(500)와 관련 속성값을 가령 아마존 메카니컬 터크(Amazon Mechanical Turk)와 같은 크라우드소싱 제공자에게 전송하는데, 여기서 복수의 개인들은 각 이미지와 관련 속성값의 일치도에 대한 그들의 의견을 나타낸다. 각 이미지-속성값 쌍에 대한 크라우드소싱 결과를 수신하면, 시스템(510)은 일반적으로 관련 이미지와의 높은 일치도를 수신한 속성값들을 데이터베이스(520)에 저장한다. First, the computerized personal
이제, 형용사와 이미지를 연관짓는 트레이닝 프로세스를 도시하는 개략적인 흐름도인 도 8을 참조로 한다. 도 8에 도시된 바와 같이, 얼굴 속성을 정의하는 형용사는 트레이닝되는 형용사들의 리스트로부터 시스템에 의해 선택되며, 하나 이상의 공중 이용가능한 문자 검색 엔진은 바람직하기로 형용사와 연관된 이미지를 검색하도록 이용된다. 추가로, 하나 이상의 공중 이용가능한 문자 검색 엔진은 바람직하기로 다양한 언어로 된 형용사의 하나 이상의 번역과 연관된 이미지를 검색하도록 이용된다. 예컨대, 형용사들의 리스트는 사전에서 형용사들을 수집하여 편집될 수 있다. Reference is now made to Fig. 8, which is a schematic flow diagram illustrating the training process of associating an adjective with an image. As shown in FIG. 8, the adjectives defining the face attributes are selected by the system from the list of adjectives to be trained, and one or more of the publicly available character search engines are preferably used to retrieve the images associated with the adjectives. In addition, one or more publicly available character search engines are preferably used to retrieve images associated with one or more translations of adjectives in various languages. For example, a list of adjectives can be edited by collecting adjectives from the dictionary.
시각적 얼굴 감지장치(visual face detector)는 얼굴 이미지를 포함하는 검색된 이미지를 식별하는데 이용된다. 이후, 크라우드소싱은 바람직하기로 다수결에 의해 얼굴 이미지들 중 어느 것이 형용사에 해당하는지 확인하는데 이용된다. 이후, 형용사와 해당 얼굴 이미지는 도 9에 대해 하기에 기술되는 바와 같이 시각적 분류장치를 트레이닝하는데 사용된다. 이후, 시각적 분류장치는 형용사를 얼굴 이미지의 추가 세트와 연관짓는데 이용되며, 크라우드소싱은 형용사와 얼굴 이미지의 추가 세트 각각의 일치도를 확인하는데 더 이용되며, 그 결과는 시각적 분류장치를 트레이닝하는데 더 이용된다. 크라우드소싱의 추가 사이클 및 시각적 분류장치의 트레이닝은 원하는 정확도에 도달할 때까지 시각적 분류장치의 정확성을 더 개선하는데 이용될 수 있다고 인식된다. 시각적 분류장치의 트레이닝 후에, 분류장치는 얼굴 속성들을 정의하는 형용사들로 얼굴 이미지들을 분류하는데 시스템에 의해 추후 이용될 수 있는 속성 함수들의 뱅크에 추가된다. A visual face detector is used to identify the searched image including the face image. Thereafter, crowd sourcing is preferably used to determine which of the facial images corresponds to an adjective by majority vote. The adjective and corresponding face image are then used to train the visual classifier as described below with respect to FIG. The visual classifier is then used to associate an adjective with an additional set of facial images, and crowd sourcing is further used to confirm the match of each additional set of adjectives and facial images, and the result is further used to train visual classifiers do. It is recognized that the training of additional cycles and visual classifiers of crowd sourcing can be used to further improve the accuracy of the visual classifier until the desired accuracy is reached. After training of the visual classifier, the classifier is added to a bank of attribute functions that can be used later by the system to classify the face images into adjectives that define facial attributes.
이제, 시각적 분류장치를 트레이닝하는 프로세스를 도시하는 개략적인 흐름도인 도 9를 참조로 한다. 도 9에 도시된 바와 같이, 각 형용사에 대해, 도 8에 대해 상술한 크라우드소싱 프로세스의 결과는 이미지들의 2개의 집합들을 생성하는데 이용된다. 제 1 "긍정(positive)" 집합은 그 형용사에 해당하는 것으로 확인된 이미지를 포함하며, 제 2 "부정(negative)" 집합은 그 형용사에 해당하는 것으로 확인되지 못한 이미지를 포함한다. Reference is now made to Fig. 9, which is a schematic flow diagram illustrating the process of training a visual classifier. As shown in FIG. 9, for each adjective, the result of the crowd sourcing process described above with respect to FIG. 8 is used to generate two sets of images. The first "positive" collection includes images identified as corresponding to the adjectives, and the second "negative" collection includes images not identified as corresponding to the adjectives.
이후, 긍정 및 부정 집합 모두의 이미지들은 2차원과 3차원 정렬을 변화시키고 조도를 다르게 함으로써 각각의 이미지를 정규 이미지(canonical image)로 변환하도록 보상하여 정규화된다. 이후, 정규 이미지는 정규 수치 벡터(canonical numerical vectors)로 변환되며, 분류장치는 가령 슈퍼 벡터 머신(Support Vector Machine, SVM)과 같은 감독-분류장치(supervised-classifier)를 사용하여 긍정 및 부정 수치 벡터들의 쌍들을 포함하는 트레이닝 세트로부터 학습(learned)된다.The images of both positive and negative sets are then normalized by compensating for the conversion of each image into a canonical image by varying the two-dimensional and three-dimensional alignment and varying illumination. Then, the normal image is transformed into canonical numerical vectors, and the classifier uses a supervised-classifier such as a support vector machine (SVM) to generate positive and negative numerical vectors From a training set that includes pairs of < RTI ID = 0.0 >
이제, 이미지와 연관된 형용사들을 검색하기 위한 프로세스를 도시하는 개략적인 흐름도인 도 10을 참조로 한다. 도 10에 도시된 바와 같이, 이미지는 먼저 이미지의 일부인 얼굴 이미지를 감지하고 잘라내도록 분석된다. 이후, 얼굴 이미지는 2차원과 3차원 정렬을 변화시키고 조도를 다르게 보상하여 이미지를 정규화함으로써 정규 수치 벡터로 변환된다. 이후, 도 8에 대해 상술한 속성 함수들의 뱅크는 수치 벡터로 적용되며, 각 속성 함수로부터 리턴된 값은 얼굴 이미지와 연관된 형용사를 나타내는 수치 벡터로 기록된다. Reference is now made to FIG. 10, which is a schematic flow diagram illustrating a process for searching for adjectives associated with an image. As shown in FIG. 10, the image is first analyzed to detect and cut a face image that is part of the image. Then, the face image is transformed into a regular numerical vector by changing the two-dimensional and three-dimensional alignment and compensating the illuminance differently and normalizing the image. Thereafter, the bank of attribute functions described above with respect to FIG. 8 is applied as a numeric vector, and the value returned from each attribute function is recorded as a numeric vector representing the adjective associated with the face image.
이제, 하나 이상의 형용사들과 연관된 이미지들의 사전-색인된 데이터베이스로부터 이미지를 검색하기 위한 프로세스를 도시하는 개략적인 흐름도인 도 11을 참조로 한다. 도 11에 도시된 바와 같이, 이미지와 연관된 형용사를 갖는 이미지에 대한 문자 쿼리(textual query)가 먼저 구성된다. 자연어 처리(Natural Language Processing, NLP)를 사용하여, 형용사들이 문자 쿼리로부터 추출된다. 이후, 시스템은 바람직하기로 LDA(Latent Dirichlet Allocation)를 사용함으로써, 쿼리로부터 추출된 형용사와 가장 잘 매칭되는 얼굴 이미지의 미리 처리된 데이터베이스로부터 이미지를 검색한다. 검색된 얼굴 이미지는 관련 수치 벡터들과 쿼리로부터 추출된 형용사들의 상관도에 따라 순서화되며, 순서화된 얼굴 이미지들의 결과는 시스템의 결과로서 제공된다. Reference is now made to Fig. 11, which is a schematic flow diagram illustrating a process for retrieving an image from a pre-indexed database of images associated with one or more adjectives. As shown in FIG. 11, a textual query for an image having an adjective associated with the image is constructed first. Using Natural Language Processing (NLP), adjectives are extracted from character queries. The system then preferably retrieves the image from a preprocessed database of facial images that best matches the adjectives extracted from the query by using Latent Dirichlet Allocation (LDA). The retrieved facial image is ordered according to the correlation of the related numerical vectors and the adjectives extracted from the query, and the result of the ordered facial images is provided as a result of the system.
이제, 제 1 이미지와 유사한 얼굴 이미지를 검색하기 위한 프로세스를 도시하는 개략적인 흐름도인 도 12를 참조로 한다. 도 12에 도시된 바와 같이, 제 1 이미지는 먼저 이미지의 일부인 얼굴 이미지를 감지하고 잘라내도록 분석된다. 이후, 얼굴 이미지는 2차원과 3차원 포즈-정렬(pose-alignment)을 변화시키고 조도를 다르게 보상하여 이미지를 정규화함으로써 정규 수치 벡터로 변환된다. 이후, 도 8에 대해 상술한 속성 함수들의 뱅크는 수치 벡터로 적용되며, 각 속성 함수로부터 리턴된 값은 얼굴 이미지와 연관된 형용사를 나타내는 수치 벡터로 기록된다. Reference is now made to Fig. 12, which is a schematic flow diagram illustrating a process for searching a face image similar to a first image. As shown in Fig. 12, the first image is first analyzed to detect and cut a face image that is part of the image. The face image is then transformed into a normalized numeric vector by varying the two-dimensional and three-dimensional pose-alignment and normalizing the image by compensating the illumination differently. Thereafter, the bank of attribute functions described above with respect to FIG. 8 is applied as a numeric vector, and the value returned from each attribute function is recorded as a numeric vector representing the adjective associated with the face image.
가령 KD 트리와 같이, 이미지의 수치 벡터를 포함하는 미리 색인된 데이터베이스는 가령 유클리드 거리와 같은 유사도-함수(similarity-function)를 사용하여 제 1 이미지의 수치 벡터와 근접하게 매칭하는 이미지를 나타내는 수치 벡터들의 집합을 찾도록 검색된다. A pre-indexed database containing a numerical vector of images, such as a KD tree, may be a numerical vector representing an image closely matching a numerical vector of the first image, for example using a similarity-function, such as Euclidean distance Lt; / RTI >
본 발명은 상술한 본 명세서에서 특히 도시되거나 기술된 것에 의해 제한되지 않음이 당업자에 의해 인식될 것이다. 대신에, 본 발명의 범위는 상술한 다양한 특징들의 조합 및 서브-조합 모두를 포함할 뿐만 아니라 상술한 명세서를 숙지한 당업자가 행할 수 있으나 종래기술이 아닌 변경들을 포함한다. It will be appreciated by those skilled in the art that the present invention is not limited by what has been particularly shown or described hereinabove. Rather, the scope of the invention includes both combinations and sub-combinations of the various features described above, as well as variations that can be made by those skilled in the art without departing from the prior art.
Claims (57)
상기 개별 얼굴 속성 중 상기 복수에 따라 상기 얼굴 이미지를 분류하는 컴퓨터화된 분류장치를 포함하며,
상기 평가들은 형용사로 표현되고,
상기 평가장치는:
상기 평가장치는 복수 종류의 저장 얼굴 이미지 및 복수 종류의 저장 평가를 포함하는 데이터베이스로서, 상기 저장 얼굴 이미지의 각각은 상기 복수의 개별 얼굴 속성 중 적어도 일부를 가지고, 상기 개별의 얼굴 속성 중 적어도 일부는 얼굴 속성과 연관되는 형용사로 표현되는 상기 평가를 가지는 상기 데이터베이스; 및
속성면 및 형용사면에 대하여, 상기 얼굴 이미지의 상기 복수의 개별 얼굴 속성과 상기 복수 종류의 저장 얼굴 이미지를 비교함으로써, 얼굴 이미지와 상기 복수 종류의 저장 얼굴 이미지를 비교하는 형용사 기반 비교장치를 포함하고,
상기 비교에 응답하여, 상기 복수 종류의 저장 얼굴 이미지와 일치하지 않은 얼굴 이미지는 상기 복수 종류의 저장 얼굴 이미지 중 하나로서 상기 데이터베이스에 저장되고,
상기 얼굴 이미지에 해당하는 얼굴 모델을 생성하도록 동작하는 얼굴 모델 생성 기능부(face model generation functionality)를 또한 포함하는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 시스템.An evaluation unit for evaluating a computerized facial image attribute face that assigns values representing facial images to a plurality of individual facial attributes of the facial image; And
And a computerized classification apparatus for classifying the face images according to the plurality of individual face attributes,
The evaluations are expressed as adjectives,
The evaluation apparatus comprises:
Wherein the evaluation device is a database that includes a plurality of types of storage face images and a plurality of types of storage estimates, each of the storage face images having at least some of the plurality of individual face attributes, The database having the evaluation expressed as an adjective associated with a face attribute; And
And an adjective-based comparison device for comparing the face image and the plurality of types of stored face images by comparing the plurality of individual face attributes of the face image and the plurality of types of stored face images with respect to the attribute face and the adjective face, ,
In response to the comparison, a face image that does not match the plurality of types of stored face images is stored in the database as one of the plurality of types of stored face images,
Further comprising a face model generation functionality operative to generate a face model corresponding to the face image. ≪ Desc / Clms Page number 21 >
상기 복수 종류의 저장 평가로부터 도출된 통계 정보를 제공하는 얼굴 속성 통계 보고 기능부(facial attribute statistic reporting functionality)를 또한 포함하는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 시스템.The method according to claim 1,
Further comprising facial attribute statistical reporting functionality for providing statistical information derived from the plurality of types of storage evaluations. ≪ RTI ID = 0.0 > 11. < / RTI >
상기 형용사 기반 비교장치는 형용사면에 대하여 상기 데이터베이스를 쿼리(query)하는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 시스템.The method according to claim 1,
Wherein the adjective-based comparison device queries the database for an adjective face.
상기 컴퓨터화된 분류장치로부터의 출력에 응답하여, 상기 출력에 해당하는 적어도 하나의 저장 얼굴 이미지를 식별하도록 동작하는 컴퓨터화된 식별장치를 또한 포함하는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 시스템.4. The method according to any one of claims 1 to 3,
Further comprising a computerized identification device operable to identify at least one storage face image corresponding to the output in response to an output from the computerized classification device, system.
상기 컴퓨터화된 식별장치는 상기 출력에 해당하는 저장 얼굴 이미지의 순위화된 리스트를 생성하도록 동작하는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 시스템.5. The method of claim 4,
Wherein the computerized identification device is operative to generate a ranked list of stored face images corresponding to the output.
소셜 네트워크로부터의 정보를 상기 컴퓨터화된 얼굴 이미지 속성면의 평가장치에 대하여 이용할 수 있도록 하기 위한 소셜 네트워크 인터페이스를 또한 포함하는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 시스템. 4. The method according to any one of claims 1 to 3,
Further comprising a social network interface for making information from the social network available to the evaluation device of the computerized facial image attribute facet.
상기 컴퓨터화된 식별장치는 상기 얼굴 모델을 이용하는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 시스템.5. The method of claim 4,
Wherein the computerized identification device uses the face model.
컴퓨터화된 분류장치가, 상기 개별 얼굴 속성 중 상기 복수에 따라 상기 얼굴 이미지를 분류하는 공정;
컴퓨터화된 비교장치가, 속성면 및 형용사면에 대하여, 상기 얼굴 이미지의 상기 복수의 개별 얼굴 속성과 저장 얼굴 이미지를 비교함으로써, 얼굴 이미지와 복수 종류의 저장 얼굴 이미지를 비교하는 공정; 및
상기 비교에 응답하여, 컴퓨터화된 얼굴 이미지 속성면의 평가장치가, 상기 복수 종류의 저장 얼굴 이미지와 일치하지 않은 얼굴 이미지를 상기 복수 종류의 저장 얼굴 이미지 중 하나로서 데이터베이스에 저장하는 공정을 포함하고,
상기 평가들은 형용사로 표현되고, 상기 평가장치는 복수 종류의 저장 얼굴 이미지 및 복수 종류의 저장 평가를 포함하는 데이터베이스로서, 상기 저장 얼굴 이미지의 각각은 상기 복수의 개별 얼굴 속성 중 적어도 일부를 가지고, 상기 개별의 얼굴 속성 중 적어도 일부는 얼굴 속성과 연관되는 형용사로 표현되는 상기 평가를 가지는 상기 데이터베이스를 가지고,
컴퓨터화된 얼굴 모델 생성장치가, 상기 얼굴 이미지에 해당하는 얼굴 모델을 생성하는 공정을 또한 포함하는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 방법.A computerized facial image evaluation apparatus comprising: a step of assigning, to a plurality of individual facial attributes of a facial image, evaluations expressing a facial image;
Wherein the computerized classification apparatus classifies the face image according to the plurality of the individual face attributes;
Comparing the face image and the plurality of kinds of stored face images by comparing the plurality of individual face attributes of the face image and the stored face image with respect to the attribute face and the adjective face; And
And in response to the comparison, the computerized facial image attribute plane evaluation device includes a step of storing, in the database, one of the plurality of types of stored face images, the face image not matching the plurality of kinds of stored face images ,
Wherein the evaluations are represented by an adjective, wherein the evaluation device is a database comprising a plurality of types of stored face images and a plurality of types of storage evaluations, each of the stored face images having at least some of the plurality of individual face attributes, Wherein at least some of the individual face attributes have the database having the evaluation expressed as an adjective associated with the face attribute,
A computerized method for classifying a face image of a person, the computerized facial model generation apparatus further comprising a step of generating a face model corresponding to the face image.
컴퓨터화된 제공장치가, 복수 종류의 저장 평가로부터 도출된 통계 정보를 제공하는 공정을 또한 포함하는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 방법.10. The method of claim 9,
A computerized method for classifying a face image of a person, the computerized providing device also including a process of providing statistical information derived from a plurality of kinds of storage evaluations.
상기 형용사 기반 비교장치는 형용사면에 대하여 상기 데이터베이스를 쿼리(query)하는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 방법.10. The method of claim 9,
Wherein the adjective-based comparison device queries the database for an adjective face.
컴퓨터화된 식별장치가, 상기 분류하는 공정의 출력에 해당하는 적어도 하나의 저장 얼굴 이미지를 식별하는 공정을 또한 포함하는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 방법.12. The method according to any one of claims 9 to 11,
A computerized method for classifying a face image of a person, the computerized identification device further comprising the step of identifying at least one storage face image corresponding to an output of the sorting process.
상기 식별하는 공정에서는, 상기 출력에 해당하는 저장 얼굴 이미지의 순위화된 리스트를 생성하도록 동작가능한, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 방법.13. The method of claim 12,
Wherein the identifying step is operable to generate a ranked list of stored face images corresponding to the output.
소셜 네트워크 인터페이스가, 소셜 네트워크로부터의 정보를 상기 컴퓨터화된 얼굴 이미지 속성면의 평가장치에 대하여 이용할 수 있도록 하는 공정을 또한 포함하는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 방법. 12. The method according to any one of claims 9 to 11,
A computerized method for classifying a face image of a person, the method further comprising the step of allowing the social network interface to make information from the social network available for the evaluation device of the computerized facial image attribute facet.
상기 식별하는 공정에서는 상기 얼굴 모델을 이용하는, 사람의 얼굴 이미지를 분류하기 위한 컴퓨터화된 방법.13. The method of claim 12,
Wherein the identifying step uses the face model to classify a human face image.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161439021P | 2011-02-03 | 2011-02-03 | |
US61/439,021 | 2011-02-03 | ||
PCT/IL2011/000287 WO2012104830A1 (en) | 2011-02-03 | 2011-03-31 | Systems and methods for image-to-text and text-to-image association |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140058409A KR20140058409A (en) | 2014-05-14 |
KR101649322B1 true KR101649322B1 (en) | 2016-08-18 |
Family
ID=46602131
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020137023294A KR101649322B1 (en) | 2011-02-03 | 2011-03-31 | Systems and methods for image-to-text and text-to-image association |
Country Status (8)
Country | Link |
---|---|
JP (1) | JP5857073B2 (en) |
KR (1) | KR101649322B1 (en) |
CN (1) | CN103620590B (en) |
AU (1) | AU2011358100B2 (en) |
BR (1) | BR112013019907A2 (en) |
CA (1) | CA2826177C (en) |
MX (1) | MX345437B (en) |
WO (1) | WO2012104830A1 (en) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9158970B2 (en) | 2012-11-16 | 2015-10-13 | Canon Kabushiki Kaisha | Devices, systems, and methods for visual-attribute refinement |
US9626597B2 (en) | 2013-05-09 | 2017-04-18 | Tencent Technology (Shenzhen) Company Limited | Systems and methods for facial age identification |
CN104143079B (en) | 2013-05-10 | 2016-08-17 | 腾讯科技(深圳)有限公司 | The method and system of face character identification |
US20170177927A1 (en) * | 2014-02-17 | 2017-06-22 | Nec Solution Innovators, Ltd. | Impression analysis device, game device, health management device, advertising support device, impression analysis system, impression analysis method, and program recording medium |
US10635672B2 (en) * | 2015-09-02 | 2020-04-28 | Oath Inc. | Method and system for merging data |
US10909779B2 (en) | 2016-08-11 | 2021-02-02 | Tekion Corp | 3D vehicle model data capturing and retrieving for vehicle inspection, service and maintenance |
CN106951825B (en) * | 2017-02-13 | 2021-06-29 | 苏州飞搜科技有限公司 | Face image quality evaluation system and implementation method |
CN108009280B (en) * | 2017-12-21 | 2021-01-01 | Oppo广东移动通信有限公司 | Picture processing method, device, terminal and storage medium |
US11941044B2 (en) | 2018-01-26 | 2024-03-26 | Walmart Apollo, Llc | Automatic personalized image-based search |
KR102585358B1 (en) * | 2021-08-09 | 2023-10-05 | 양주섭 | Method and apparatus for analyzing behavior pattern of customer in unmanned shop using ai-based image processing model |
CN113641857A (en) * | 2021-08-13 | 2021-11-12 | 三星电子(中国)研发中心 | Visual media personalized search method and device |
KR102477338B1 (en) * | 2022-02-23 | 2022-12-14 | 주식회사 블랙탠저린 | Method, apparatus and program for providing facial mood diagnosis platform using image |
CN117095083B (en) * | 2023-10-17 | 2024-03-15 | 华南理工大学 | Text-image generation method, system, device and storage medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006510109A (en) | 2002-12-13 | 2006-03-23 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Facial expression invariant face recognition method and apparatus |
US20070237355A1 (en) | 2006-03-31 | 2007-10-11 | Fuji Photo Film Co., Ltd. | Method and apparatus for adaptive context-aided human classification |
WO2011017653A1 (en) | 2009-08-07 | 2011-02-10 | Google Inc. | Facial recognition with social network aiding |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7298931B2 (en) * | 2002-10-14 | 2007-11-20 | Samsung Electronics Co., Ltd. | Image retrieval method and apparatus using iterative matching |
US7680330B2 (en) * | 2003-11-14 | 2010-03-16 | Fujifilm Corporation | Methods and apparatus for object recognition using textons |
JP2006221355A (en) * | 2005-02-09 | 2006-08-24 | Hitachi Ltd | Monitoring device and monitoring system |
US7809192B2 (en) * | 2005-05-09 | 2010-10-05 | Like.Com | System and method for recognizing objects from images and identifying relevancy amongst images and information |
JP4668680B2 (en) * | 2005-05-17 | 2011-04-13 | ヤマハ発動機株式会社 | Attribute identification system and attribute identification dictionary generator |
US7684651B2 (en) * | 2006-08-23 | 2010-03-23 | Microsoft Corporation | Image-based face search |
JP2011013732A (en) * | 2009-06-30 | 2011-01-20 | Sony Corp | Information processing apparatus, information processing method, and program |
-
2011
- 2011-03-31 KR KR1020137023294A patent/KR101649322B1/en active IP Right Grant
- 2011-03-31 BR BR112013019907A patent/BR112013019907A2/en active Search and Examination
- 2011-03-31 AU AU2011358100A patent/AU2011358100B2/en not_active Ceased
- 2011-03-31 WO PCT/IL2011/000287 patent/WO2012104830A1/en active Application Filing
- 2011-03-31 CA CA2826177A patent/CA2826177C/en not_active Expired - Fee Related
- 2011-03-31 MX MX2013008985A patent/MX345437B/en active IP Right Grant
- 2011-03-31 CN CN201180069586.1A patent/CN103620590B/en active Active
- 2011-03-31 JP JP2013552321A patent/JP5857073B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006510109A (en) | 2002-12-13 | 2006-03-23 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Facial expression invariant face recognition method and apparatus |
US20070237355A1 (en) | 2006-03-31 | 2007-10-11 | Fuji Photo Film Co., Ltd. | Method and apparatus for adaptive context-aided human classification |
WO2011017653A1 (en) | 2009-08-07 | 2011-02-10 | Google Inc. | Facial recognition with social network aiding |
Non-Patent Citations (1)
Title |
---|
N. KUMAR et al., FaceTracer: A Search Engine for Large Collections of Images with Faces, Proc. Europican. Conference on Computer Vision (ECCV2008),pp.340-353, 2008. |
Also Published As
Publication number | Publication date |
---|---|
CA2826177A1 (en) | 2012-08-09 |
BR112013019907A2 (en) | 2016-10-11 |
MX345437B (en) | 2017-01-31 |
AU2011358100B2 (en) | 2016-07-07 |
JP5857073B2 (en) | 2016-02-10 |
CA2826177C (en) | 2017-08-08 |
CN103620590A (en) | 2014-03-05 |
CN103620590B (en) | 2018-10-09 |
JP2014511520A (en) | 2014-05-15 |
MX2013008985A (en) | 2014-02-27 |
KR20140058409A (en) | 2014-05-14 |
WO2012104830A1 (en) | 2012-08-09 |
AU2011358100A1 (en) | 2013-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101649322B1 (en) | Systems and methods for image-to-text and text-to-image association | |
US7684651B2 (en) | Image-based face search | |
US8873851B2 (en) | System for presenting high-interest-level images | |
US8897485B2 (en) | Determining an interest level for an image | |
US9014510B2 (en) | Method for presenting high-interest-level images | |
JP5383705B2 (en) | Determining social relationships from personal photo collections | |
US9014509B2 (en) | Modifying digital images to increase interest level | |
JP5740210B2 (en) | Face image search system and face image search method | |
US20160267321A1 (en) | Method and Apparatus for Automated Analysis and Identification of a Person in Image and Video Content | |
US20140002644A1 (en) | System for modifying images to increase interestingness | |
JP2004258764A (en) | System and apparatus for personal information management | |
JP2014229129A (en) | Combination presentation system and computer program | |
JP2020067720A (en) | Personal attribute estimation system, and information processing apparatus and information processing method using the same | |
Vandecasteele et al. | Spott: On-the-spot e-commerce for television using deep learning-based video analysis techniques | |
KR20170141912A (en) | System and method for making advertisement text | |
KR20170141910A (en) | System and method for making advertisement as automatically | |
KR20200084647A (en) | A method of providing a fashion item recommendation service to a user using a date | |
CN109859011A (en) | Based on the information push method in store, system and its storage medium in jewellery wire | |
US20150039607A1 (en) | Providing a summary presentation | |
CN113902526A (en) | Artificial intelligence based product recommendation method and device, computer equipment and medium | |
KR102271090B1 (en) | A method of providing a fashion item recommendation service to a user using calendar data | |
KR20170141915A (en) | System and method for making advertisement image | |
US20210183123A1 (en) | Method and System for Providing Multi-Dimensional Information Using Card | |
Vinayagam et al. | Experimental Evaluation of IoT based Human Gender Classification and Record Management using Intelligent Hybrid Learning Principles | |
KR20150072212A (en) | Figure identification apparatus using Social network service and method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20190813 Year of fee payment: 4 |