KR20040100876A - System for offering physiognomy information service - Google Patents
System for offering physiognomy information service Download PDFInfo
- Publication number
- KR20040100876A KR20040100876A KR1020040021271A KR20040021271A KR20040100876A KR 20040100876 A KR20040100876 A KR 20040100876A KR 1020040021271 A KR1020040021271 A KR 1020040021271A KR 20040021271 A KR20040021271 A KR 20040021271A KR 20040100876 A KR20040100876 A KR 20040100876A
- Authority
- KR
- South Korea
- Prior art keywords
- coronary
- information
- service
- face
- coronal
- Prior art date
Links
- 239000000284 extract Substances 0.000 claims abstract description 18
- 238000000034 method Methods 0.000 claims description 23
- 238000000605 extraction Methods 0.000 claims description 14
- 238000005286 illumination Methods 0.000 claims description 7
- 238000010295 mobile communication Methods 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 abstract description 19
- 210000001508 eye Anatomy 0.000 description 28
- 210000000214 mouth Anatomy 0.000 description 27
- 230000001815 facial effect Effects 0.000 description 20
- 210000001331 nose Anatomy 0.000 description 14
- 210000004709 eyebrow Anatomy 0.000 description 11
- 238000010586 diagram Methods 0.000 description 4
- 230000008921 facial expression Effects 0.000 description 4
- 210000001061 forehead Anatomy 0.000 description 4
- 241000209094 Oryza Species 0.000 description 3
- 235000007164 Oryza sativa Nutrition 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 235000009566 rice Nutrition 0.000 description 3
- 230000037303 wrinkles Effects 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 241000282320 Panthera leo Species 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 238000005554 pickling Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- FBOUIAKEJMZPQG-AWNIVKPZSA-N (1E)-1-(2,4-dichlorophenyl)-4,4-dimethyl-2-(1,2,4-triazol-1-yl)pent-1-en-3-ol Chemical compound C1=NC=NN1/C(C(O)C(C)(C)C)=C/C1=CC=C(Cl)C=C1Cl FBOUIAKEJMZPQG-AWNIVKPZSA-N 0.000 description 1
- 241000251468 Actinopterygii Species 0.000 description 1
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 241000167854 Bourreria succulenta Species 0.000 description 1
- 241001672694 Citrus reticulata Species 0.000 description 1
- 206010011732 Cyst Diseases 0.000 description 1
- 241000692870 Inachis io Species 0.000 description 1
- 241001282135 Poromitra oscitans Species 0.000 description 1
- 240000004808 Saccharomyces cerevisiae Species 0.000 description 1
- 206010048232 Yawning Diseases 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 235000019693 cherries Nutrition 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011840 criminal investigation Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 208000031513 cyst Diseases 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 210000001097 facial muscle Anatomy 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 235000021110 pickles Nutrition 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 235000020083 shōchū Nutrition 0.000 description 1
- 239000011122 softwood Substances 0.000 description 1
- 210000005070 sphincter Anatomy 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000017260 vegetative to reproductive phase transition of meristem Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/02—Digital computers in general; Data processing equipment in general manually operated with input through keyboard and computation using a built-in program, e.g. pocket calculators
- G06F15/025—Digital computers in general; Data processing equipment in general manually operated with input through keyboard and computation using a built-in program, e.g. pocket calculators adapted to a specific application
- G06F15/0283—Digital computers in general; Data processing equipment in general manually operated with input through keyboard and computation using a built-in program, e.g. pocket calculators adapted to a specific application for data storage and retrieval
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
- G10L15/25—Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- General Health & Medical Sciences (AREA)
- Tourism & Hospitality (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Economics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Acoustics & Sound (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 관상 정보 서비스 시스템에 관한 것으로, 특히, 얼굴인식 기술과 관상학을 연계하여 사용자에게 온라인 관상 정보를 제공할 수 있도록 한 관상 정보 서비스 시스템에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a coronal information service system, and more particularly, to a coronary information service system that provides online coronary information to a user by linking facial recognition technology with coronary science.
컴퓨터 비전(Computer Vision) 기술의 발달로 어떻게 하면 인간이 얼굴을 인식하는 정도의 능력을 컴퓨터로 가능하게 할 것인가에 대한 다양한 기술들이 수 십년전부터 연구되어 왔다. 그렇지만 컴퓨터로 얼굴을 인식하는 것은 그렇게 쉽지 않다. 대부분의 얼굴을 인식하고 이해하는 기술은 얼굴과 얼굴의 구성 요소를 찾는 부분, 얼굴과 얼굴의 구성요소를 인식하는 부분, 얼굴과 얼굴의 구성요소를 추적하는 부분, 시간적 해석 부분, 그리고 표정 인식 부분 등 세부적인 기술들로 나눌 수 있으며, 이들 각각에 대한 많은 연구가 진행중이다.Various technologies have been studied for decades on how computer vision enables humans to recognize the ability of humans to recognize faces. But face recognition with a computer is not so easy. Most face recognition and understanding techniques are finding the face and its components, recognizing the face and its components, tracking the face and its components, temporal interpretation, and facial expression recognition. It can be divided into detailed technologies, and a lot of research is in progress for each of them.
주로 정적인 얼굴 이미지에 대해서는 입력 이미지를 데이타베이스에 저장된 이미지들과 형판 매칭(Template matching)을 통해서 인식하는 연구가 있었으며, 동적으로 변화하는 얼굴에 대해서는 특별한 기계 장치를 이용해 추적(Tracking)하는 기법과 이러한 기계 장치를 사용하지 않고 얼굴 근육 움직임의 광학적 플로우(Optical flow)를 이용해서 인식하는 연구가 최근 주류를 이루고 있다.In the case of the static face image, there have been studies to recognize the input image through the template matching with the images stored in the database, and to track the dynamically changing face using a special mechanism. Research using optical flow of facial muscle movement without using such a mechanism has recently been mainstream.
얼굴의 해부학적 구조에 대한 지식을 바탕으로 컴퓨터를 이용한 효과적인 얼굴 및 표정 생성에 대해서는 다양한 방법론들이 20여년 전부터 컴퓨터 그래픽스(Computer Graphics) 분야를 중심으로 연구되어져 오고 있다. 컴퓨터 그래픽스 분야에서의 표정 생성 기술은 초창기의 단순, 유치함을 벗어나 근래에는 상당한 수준으로 발전되어 영화, 게임 등 다양한 분야에서 폭 넓게 활용되고 있다.Based on the knowledge of the anatomy of the face, various methodologies have been studied in the field of computer graphics for more than 20 years. In the field of computer graphics, facial expression generation technology has been developed to a considerable level in recent years, and has been widely used in various fields such as movies and games.
얼굴 인식에 있어서 초창기에는 이론적인 모델 제작과 실제적인 응용에의 적용 때문에 얼굴에 대한 계산학적 모델(Computational Model)을 만드는 것이 이슈였다. 컴퓨터를 이용해 얼굴을 인식하는 기술은 범죄 수사, 보안 시스템, 이미지 처리, 그리고 HCI(Human-Computer Interaction) 등의 다양한 분야에 적용될 수 있다.In the early days of face recognition, creating a computational model of the face was an issue because of theoretical modeling and its application to practical applications. Computer-assisted facial recognition technology can be applied to a variety of areas, including criminal investigations, security systems, image processing, and human-computer interaction (HCI).
도 5 에 이러한 종래의 얼굴 인식 기술의 일예를 도시하였다.5 shows an example of such a conventional face recognition technique.
도면에 도시한 바와같이, 먼저 카메라 등에 의해 촬영된 대상 영상에 포함된 이미지 왜곡을 소정의 이미지 보상 알고리즘을 이용해 보정(S310)한다.As shown in the figure, first, image distortion included in a target image photographed by a camera or the like is corrected using a predetermined image compensation algorithm (S310).
그 후, 대상 이미지로부터 얼굴 영역을 추출(S320)하고, 얼굴 인식을 위한 얼굴 특징을 추출(S330)한다.Thereafter, a face region is extracted from the target image (S320), and a facial feature for face recognition is extracted (S330).
그 다음, 개인들의 얼굴 영상들 또는 얼굴 영상의 특징 파라미터(Parameter)들이 저장된 개인별 얼굴 특징 데이타베이스(DB)를 참조하여 추출된 얼굴 특징과 유사한 얼굴을 검색한다. 이 때, 설정된 유사도의 문턱값을 판단기준으로 하여 문턱값 이상인가 미만인가에 따라 같은 얼굴로 판단하여 인증 확인하거나, 다른 얼굴로 판단하여 인증 실패(S340)한다.Next, a face similar to the extracted face feature is searched for by referring to the face images of individuals or the personal face feature database DB in which feature parameters of the face images are stored. At this time, based on the threshold value of the set similarity as a criterion, the same face is determined according to whether the threshold value is equal to or greater than or less than the threshold value, or the authentication is confirmed as another face (S340).
마지막으로, 인증 확인 또는 인증 실패에 대한 인증 결과를 출력(S350)한다.Finally, the authentication result for the authentication check or the authentication failure is output (S350).
본 발명자는 상기한 얼굴 인식 기술과 관상학을 연계하여 얼굴 인식 기술을 이용해 추출된 얼굴의 관상학적 요소들에 대한 특징에 대응하는 관상 정보를 기구축된 관상학 정보 데이타베이스로부터 검색하고, 이를 관상 서비스 정보로 가공하여 제공하는 관상 정보 서비스 시스템에 관한 연구를 하게 되었다.The present inventor searches for coronary information corresponding to the features of the coronary elements of the face extracted by using the face recognition technology in association with the above-described face recognition technology and coronary science from the instrumental coronary information database, and then decorates the coronary service information. The research on the coronary information service system which is processed and provided by the company.
본 발명은 상기한 취지하에 발명된 것으로, 얼굴 인식 기술과 관상학을 연계하여 추출된 얼굴의 관상학적 요소들의 특징에 대응하는 관상 정보를 제공할 수 있도록 한 관상 정보 서비스 시스템을 제공함을 그 목적으로 한다.The present invention has been invented under the above-mentioned object, and an object thereof is to provide a coronary information service system capable of providing coronary information corresponding to characteristics of the coronary elements of a face extracted by linking facial recognition technology and coronary science. .
상기한 목적을 달성하기 위한 본 발명의 일 양상에 따르면, 본 발명에 따른 관상 정보 서비스 시스템이 관상 정보 서비스 제공을 위한 대상 영상에 포함된 조명과 잡음에 의한 영상 왜곡을 보정하여 이로 부터 얼굴 영역을 추출하고, 추출된 얼굴 영역으로부터 관상학적 요소 및 이들 각각의 관상학적 특징을 추출하고, 추출된 각 관상학적 요소들의 관상학적 특징에 대응하는 관상학 정보를 관상학 정보 데이타베이스를 참조하여 분석하고, 분석된 각 관상학적 요소들에 대한 관상학 정보를 조합하여 관상 서비스 정보를 생성하여 출력하는 것을 특징으로 한다.According to an aspect of the present invention for achieving the above object, the coronal information service system according to the present invention corrects the image distortion caused by the illumination and noise included in the target image for providing the coronal information service to correct the face region therefrom. Extract the coronary elements and their respective coronary features from the extracted face regions, and analyze coronary information corresponding to the coronary features of the extracted coronary elements with reference to the coronary information database, It generates and outputs coronary service information by combining coronary information about each coronary element.
따라서, 본 발명에 따른 관상 정보 서비스 시스템은 얼굴 인식 기술과 관상학을 연계하여 추출된 얼굴의 관상학적 요소들의 특징에 대응하는 관상 정보를 클라이언트(Client) 기반으로 제공함으로써 사용자가 컴퓨터를 이용해 간편하게 관상 정보를 서비스 받을 수 있도록 한다.Accordingly, the coronary information service system according to the present invention provides a client-based coronary information corresponding to the features of the coronary elements of a face extracted by linking facial recognition technology with coronary art. To be served.
본 발명의 일 양상에 따르면, 본 발명에 따른 관상 정보 서비스 시스템이According to an aspect of the present invention, the coronary information service system according to the present invention
사용자 단말기로부터 관상 정보 서비스를 위한 대상 영상을 포함하는 관상 서비스 요청정보를 수신하고, 대상 영상에 포함된 조명과 잡음에 의한 영상 왜곡을 보정하여 이로 부터 얼굴 영역을 추출하고, 추출된 얼굴 영역으로부터 관상학적 요소 및 이들 각각의 관상학적 특징을 추출하고, 추출된 각 관상학적 요소들의 관상학적 특징에 대응하는 관상학 정보를 관상학 정보 데이타베이스를 참조하여 분석하고, 분석된 각 관상학적 요소들에 대한 관상학 정보를 조합하여 관상 서비스 정보를 생성하여 이를 해당 사용자 단말기로 전송하는 것을 특징으로 한다.Receives the coronal service request information including the target image for the coronary information service from the user terminal, corrects the image distortion caused by the illumination and noise included in the target image, extracts the face region from the extracted face region, and collects the coronal image from the extracted face region. Extracts coronary elements and their respective coronary features, analyzes coronary information corresponding to the coronary features of each extracted coronary element with reference to the coronary information database, and coronary information about each analyzed coronary element To generate the coronary service information and transmit it to the corresponding user terminal.
따라서, 본 발명에 따른 관상 정보 서비스 시스템은 얼굴 인식 기술과 관상학을 연계하여 추출된 얼굴의 관상학적 요소들의 특징에 대응하는 관상 정보를 서버-클라이언트(Server-Client) 기반의 네트워크를 통해 제공함으로써 서버에서 제공하는 관상 정보 서비스를 사용자가 개인용 컴퓨터 또는 이동통신 단말기를 통해 간편하게 이용할 수 있도록 한다.Accordingly, the coronary information service system according to the present invention provides a server by providing coronary information corresponding to features of the facial coronary elements extracted by linking facial recognition technology and coronary art through a server-client based network. The ornamental information service provided by the user can be easily used through a personal computer or a mobile communication terminal.
도 1 은 본 발명에 따른 관상 정보 서비스 시스템의 일실시예에 따른 블럭도1 is a block diagram according to an embodiment of a coronary information service system according to the present invention;
도 2 는 본 발명에 따른 관상 정보 서비스 시스템의 또다른 실시예에 따른 블럭도2 is a block diagram according to another embodiment of a coronary information service system according to the present invention;
도 3 은 도 1 에 도시한 관상 정보 서비스 시스템의 동작 흐름도3 is an operation flowchart of the ornamental information service system shown in FIG.
도 4 는 도 2 에 도시한 관상 정보 서비스 시스템의 동작 흐름도4 is an operation flowchart of the ornamental information service system shown in FIG.
도 5 는 종래의 얼굴인식 기술의 동작 흐름도5 is an operation flowchart of a conventional face recognition technique.
<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>
100 : 관상 정보 서비스 시스템 110 : 전처리부100: ornamental information service system 110: preprocessing unit
120 : 얼굴영역 추출부 130 : 관상학적 요소 추출부120: facial region extraction unit 130: coronary element extraction unit
140 : 관상학적 분석부 150 : 관상 서비스 정보 생성부140: coronary analysis unit 150: coronary service information generation unit
160 : 관상 서비스 요청정보 수신부 170 : 관상 서비스 정보 송신부160: ornamental service request information receiving unit 170: ornamental service information transmitting unit
200 : 사용자 단말기200: user terminal
이하, 첨부된 도면을 참조하여 기술되는 바람직한 실시예를 통하여 본 발명을 당업자가 용이하게 이해하고 재현할 수 있도록 상세히 기술하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily understand and reproduce the present invention.
도 1 은 본 발명에 따른 관상 정보 서비스 시스템의 일실시예에 따른 블럭도이다.1 is a block diagram according to an embodiment of a coronary information service system according to the present invention.
이 실시예에 따른 관상 정보 서비스 시스템은 얼굴 인식 기술과 관상학을 연계하여 추출된 얼굴의 관상학적 요소들의 특징에 대응하는 관상 정보를 클라이언트(Client) 기반으로 제공하도록 한 것으로, 사용자 컴퓨터에서 실행 가능한 소프트웨어의 형태로 존재하는 관상 정보 서비스 모듈(100)을 통해 관상 정보를 사용자에게 제공한다.Coronary information service system according to this embodiment is to provide a client-based coronary information corresponding to the characteristics of the coronary elements of the face extracted in connection with facial recognition technology and coronary, the software executable on the user's computer Coronary information is provided to the user through the coronal information service module 100 present in the form of.
도면에 도시한 바와같이, 상기 관상 정보 서비스 모듈(100)은 전처리부(110)와, 얼굴 영역 추출부(120)와, 관상학적 요소 추출부(130)와, 관상학적 분석부(140)와, 관상 서비스 정보 생성부(150)를 포함한다.As shown in the figure, the coronal information service module 100 includes a preprocessing unit 110, a face region extraction unit 120, a coronary element extraction unit 130, a coronary analysis unit 140, And a coronary service information generator 150.
상기 전처리부(110)는 대상 영상에 포함된 조명과 잡음에 의한 영상 왜곡을 보정한다.The preprocessor 110 corrects an image distortion caused by illumination and noise included in the target image.
즉, 사용자 컴퓨터의 하드 디스크에 저장되거나, 사용자 컴퓨터에 연동된 카메라에 의해 촬영된 대상 영상에 대한 관상 정보를 열람하기 위해 사용자가 상기 관상 정보 서비스 모듈(100)을 실행하여 대상 영상을 선택하면, 상기 관상 정보 서비스 모듈(100)은 상기 전처리부(110)를 통해 대상 영상에 포함된 조명과 잡음에 의한 영상 왜곡을 보정한다. 상기한 영상 왜곡 보정에 관련해서는 이 출원 이전에 화상 처리 분야에서 이미 다양하게 공지되어 시행되는 통상의 기술이므로 이에 대한 자세한 설명은 생략하기로 한다.That is, when a user executes the coronal information service module 100 and selects a target image to read coronary information about the target image stored in the hard disk of the user computer or captured by a camera linked to the user computer, The coronal information service module 100 corrects the image distortion caused by the illumination and noise included in the target image through the preprocessor 110. Regarding the image distortion correction described above, detailed description thereof will be omitted since it is a common technique that is already known and implemented in various fields in the image processing field before this application.
상기 얼굴 영역 추출부(120)는 상기 전처리부(110)에 의해 보정된 대상 영상으로부터 얼굴 영역을 추출한다.The face region extractor 120 extracts a face region from the target image corrected by the preprocessor 110.
즉, 상기 관상 정보 서비스 모듈(100)은 전처리(왜곡 보상 처리)가 끝난 대상 영상에 대해 상기 얼굴 영역 추출부(120)를 통해 칼라 정보와 기하학적 정보를 이용해 얼굴 후보 영역을 추출하고, 얼굴인지 아닌지를 판별하여 얼굴로 판별된 영역을 얼굴 영역으로 인식한다.That is, the coronal information service module 100 extracts a face candidate region using color information and geometric information through the face region extracting unit 120 with respect to the pre-processed (distortion compensation processing) target image, and whether or not it is a face. The area determined as a face is recognized as a face area by determining the.
상기 관상학적 요소 추출부(130)는 상기 얼굴 영역 추출부(120)에 의해 추출된 얼굴 영역으로부터 관상학적 요소들을 추출하고, 이들 각각의 관상학적 특징을 추출한다.The coronary element extractor 130 extracts coronary elements from the face region extracted by the face region extractor 120, and extracts respective coronary features.
즉, 관상 정보 서비스 모듈(100)은 추출된 얼굴 영역에서 상기 관상학적 요소 추출부(130)를 통해 눈, 눈썹, 코, 입, 귀, 턱, 이마 등의 관상학적 요소들 및이들 각각의 특징을 추출한다.That is, the coronal information service module 100 uses the coronal element extracting unit 130 in the extracted face region, and coronary elements such as eyes, eyebrows, nose, mouth, ears, chin, and forehead, and each of them. Extract the feature.
상기한 얼굴 영역 추출부(120)를 통한 얼굴 영역 추출 및 상기 관상학적 요소 추출부(130)를 통한 관상학적 요소 및 특징을 추출시에는 다음과 같은 방법들이 이용될 수 있다.The following methods may be used when extracting the facial region through the facial region extractor 120 and extracting the coronary elements and features through the coronary element extractor 130.
크게 얼굴검출기술과 관상학적 특징을 추출하는 기술 두 가지이다.There are two main types: face detection technology and technology to extract coronary features.
얼굴검출방법은 크게 지식기반(Knowledge-based)방법과, 특징기반(Feature-based)과, 형판정합(template matching)과, 표현기반(Appearance-based)방법 네 가지 방법으로 구분된다.Face detection methods are largely divided into four methods: knowledge-based, feature-based, template matching, and appearance-based.
지식기반방법은 얼굴 구성요소 간의 기하학적 위치와 관계를 이용하는 방법이다. 얼굴은 두 눈이 대칭적이고 코가 하나이며 입이 하나라는 특징을 이용해 각 특징의 거리와 위치를 이용해 얼굴 유무를 결정한다.Knowledge-based methods use geometric positions and relationships between face components. The face is characterized by symmetrical eyes, one nose and one mouth to determine the presence or absence of a face using the distance and position of each feature.
특징기반방법은 얼굴의 이목구비의 특징을 이용하는 방법과 인간의 얼굴은 서로 다른 텍스쳐(texture)를 가지고 있다는 점을 이용한 텍스쳐(Texture)방법과 사람들의 피부색상정보를 이용하는 피부색을 이용한 방법과 이들 여러 특징을 혼합하여 사용하는 다중특징을 이용한 방법들이 있는데, 이들 방법은 변하지 않는 얼굴의 특징을 찾아 얼굴 유무를 결정한다. 눈썹, 눈, 코, 입, 헤어라인 등의 얼굴구성요소는 에지검출기로 검출하여 얼굴여부 확인을 위해 또 이들 관계를 표현하기 위해 통계 모델 만들어서 사용한다. 이 방법은 조명조건 및 표정변화에 효과적이다.The feature-based method uses the features of the facial features of the face, the texture method using the fact that the human face has different textures, the skin method using the skin color information of people, and these various features. There are methods using multiple features using a mixture of these methods, and these methods determine the presence or absence of a face by finding features of the face that do not change. Facial components such as eyebrows, eyes, nose, mouth and hairline are detected by edge detectors and used to create statistical models to confirm facial expression and to express these relationships. This method is effective for changing lighting conditions and facial expressions.
형판정합(Template matching)기반방법은 얼굴전체 또는 부분적인 얼굴의 구성요소를 표현하는 패턴을 저장시키고 입력영상을 받아 이들 자료와 비교한다. 얼굴의 윤곽 및 눈, 코, 입 등의 특징을 이용해 특정하게 만든 패턴을 이용하여 얼굴 유무를 결정한다.Template matching-based method stores the patterns representing the whole or partial face components and receives input images and compares them with these data. The facial contour is determined using a pattern made by using a contour of the face and features of the eyes, nose, and mouth.
표현기반방법에는 고유얼굴(eigen face), Distribution-based, Neural Network, Support Vector Machine (SVM), Naive Bayes Classifer, Hidden Markov Model (HMM), Information-Theoretical Approach 등의 방법들이 있다. 이는 형판정합과 대조적으로 얼굴모델 혹은 형상을 여러 얼굴영상으로부터 학습시킨다. 즉 얼굴과 비얼굴을 구분을 위해 통계적인 분석과 학습방법을 이용한다.Expression-based methods include eigen face, distribution-based, neural network, support vector machine (SVM), naive bayes classifer, hidden markov model (HMM), and information-theoretical approach. In contrast to template matching, face models or shapes are learned from multiple face images. In other words, statistical analysis and learning methods are used to distinguish face and non-face.
얼굴의 관상학적 특징검출은 기하학적인 정보와 색상정보를 이용해 각 얼굴요소의 특징을 추출해 낸다. 먼저 얼굴의 구성요소 중 눈과 입의 위치정보를 찾는다. 눈과 입은 RGB의 색상좌표계를 YCbCr의 색상좌표계로 변환하여 색차신호를 이용하여 입과 눈의 위치정보를 예측하고 얼굴의 기하학적인 정보를 이용하여 각 구성요소를 영역화하여 정확한 입과 눈의 위치 및 형태를 추출한다. 추출된 입과 눈의 정보를 이용하여 눈썹과 코의 위치를 추적하여 눈썹과 코와 턱 선의 윤곽과 영역정보를 구한다. 얼굴의 측면 영상을 이용하여 코의 높이와 턱의 모양을 추출한다.Coronary feature detection of face extracts features of each face element using geometric and color information. First, find the location information of eyes and mouth among the components of the face. The eye and mouth are converted to the color coordinate system of RGB by YC b C r , and the positional information of the mouth and eyes is predicted using the color difference signal. Extract the position and shape of the eye. Using the extracted mouth and eye information, eyebrows and noses are tracked to obtain contour and area information of eyebrows, nose and chin lines. Extract the height of the nose and the shape of the chin using the side image of the face.
또한 눈과 눈썹의 위치정보와 색상정보를 이용하여 인당과 이마의 관상학적 특징(주름, 점)을 추출한다. 입과 코의 위치 및 영역 정보와 색상정보를 이용하여 인중과 법령의 관상학적 특징을 추출한다.It also extracts coronary features (wrinkles, dots) of per capita and forehead using location and color information of eyes and eyebrows. The coronary features of human and legislation are extracted using the location and area information of the mouth and nose and color information.
얼굴의 관상학적인 각 구성요소를 추출하여 관상학적인 특징을 추출한다.Coronary features are extracted by extracting each coronary component of the face.
눈썹은 눈썹의 형태에서 눈썹의 위경계선과 아래 경계선이 어떤 굴곡을 가지고 있는가와 눈썹의 두께와 눈과 입과의 크기 대비 등의 정보를 이용하여 눈썹의 관상학적 형태를 분류한다.The eyebrows classify coronary forms of the eyebrows using information such as the curvature of the upper and lower borders of the eyebrows, the thickness of the eyebrows, and the size comparison between the eyes and the mouth.
눈은 눈의 좌우측 끝점의 위치와 눈의 크기와 눈 형태에서 위경계선과 아래경계선의 위치와 곡선의 모양정보와 코와 입과 눈썹의 크기정보를 비교하여 눈의 관상학적 형태를 분류한다.The eye classifies the coronary shape of the eye by comparing the position of the upper and lower boundary lines, the shape of the curve and the size of the nose, mouth, and eyebrows.
코는 콧 망울의 폭이 입과 눈에 비해 얼마나 큰가와 측면사진으로부터 얻은 코의 높이 정보와 콧등의 경계선 모양을 이용하여 관상학적 형태를 분류한다.The nose classifies the coronal shape using how big the width of the nose is compared to the mouth and eyes, the height information obtained from the side view, and the shape of the border of the nose.
입은 입의 위경계선과 아래경계선과 입술상이의 경계선의 모양정보와 입의 좌우측 끝의 위치정보와 입의 모양에서 무게중심을 구하여 무게중심으로부터 경계선까지의 거리정보와 코와 눈의 크기와 위치정보를 이용하여 관상학적인 형태를 분류한다.The shape information of the upper and lower boundary lines of the mouth and the boundary between the lips, the position information of the left and right ends of the mouth, the distance information from the center of gravity to the boundary line, and the size and location information of the nose and eyes Classify coronary forms using.
턱 선은 얼굴의 정면영상과 측면영상을 이용하여 경계선 검출을 하여 경계선의 모양을 구분하여 관상학적인 형태를 분류한다.The jaw line classifies coronary forms by detecting the boundary line using front and side images of the face.
이마와 인당과 인중과 법령은 상기의 얼굴구성요소의 위치정보와 색상정보와 크기정보를 이용하여 관상학적인 형태를 분류한다.Forehead, per capita, per capita, and legislation classify coronary forms using location information, color information, and size information of facial components.
얼굴 전체적으로 분포 되어 있을 수 있는 점은 얼굴영역을 각 기관의 크기와 위치정보를 이용하여 나누어 점의 위치를 파악하여 관상학적인 형태를 분류한다.Points that can be distributed throughout the face are classified by correlating the face area using the size and location information of each organ to determine the location of the points.
따라서, 위와 같은 방법들을 이용해서 상기한 얼굴 영역 추출부(120) 및 관상학적 요소 추출부(130)는 각각 얼굴 영역 추출하고 관상학적 요소 및 특징을 추출하게 된다.Accordingly, the face region extractor 120 and the coronary element extractor 130 extract face regions and extract coronary elements and features using the above methods.
상기 관상학적 분석부(140)는 상기 관상학적 요소 추출부(130)에 의해 추출된 각 관상학적 요소들의 관상학적 특징에 대응하는 관상학 정보를 관상학 정보 데이타베이스를 참조하여 분석한다.The coronary analysis unit 140 analyzes coronary information corresponding to the coronary features of each coronary element extracted by the coronary element extraction unit 130 with reference to the coronary information database.
즉, 상기 관상 정보 서비스 모듈(100)은 관상학 정보를 데이타베이스로 기 구축하여 저장하고 있다. 상기 관상학 정보는 얼굴의 구성요소들을 관상학적으로 분류하고, 분류된 얼굴 구성 요소의 특징에 따라 관상학적 설명을 기록한 것이다.That is, the coronal information service module 100 has previously constructed and stored coronary information into a database. The coronary information correlates the face components and records the coronary description according to the characteristics of the classified face components.
관상학적으로 눈썹은 교가미(交加眉), 귀미(鬼眉), 소산미(疎散眉), 황도미(黃導眉), 용미(龍尾), 유엽미(柳葉眉), 검미(劒眉), 사자미(獅子眉), 소추미(掃추眉), 첨도미(尖刀眉), 팔자미(八字眉), 나한미(羅漢眉), 전청후소미(前淸後疎眉), 경청미(輕淸眉), 단촉수미(短促秀眉), 선라미(旋螺眉), 일자미(一字眉), 와잠미(臥蠶眉), 신월미(新月眉), 호미(虎眉), 소소추미(小掃추眉), 대단촉미(大短促眉), 청수미(淸秀眉), 간단미(間斷眉)의 24개의 형태로 분류된다.In the coronary way, the eyebrows are made of gummy, oat, sour beauty, yellow-corn, yellow-eye, yeast, and gummi. 사자, lion rice, shochu rice, kurt sea bream, palm leaf, Nahanmi, jeoncheom somi, Kyungcheongmi, Short-Tailed Sumi, Sun-Lami, Sunjami, Wa-Zami, Shin-Wolmi, Homi It is classified into 24 types: (眉), Sosochumi (,), Sojucho (大 短促 眉), Cheongsumi (간단 秀眉), and simple rice (間斷 眉).
눈은 용안(龍眼), 봉안(鳳眼), 후안(侯眼), 귀안(龜眼), 우안(牛眼), 공작안(孔雀眼), 원앙안(鴛鴦眼), 명봉안(鳴鳳眼), 상안(象眼), 작안(鵲眼), 사안(獅眼), 호안(虎眼), 수봉안(睡鳳眼), 서봉안(瑞鳳眼), 안목(안目), 음양안(陰陽眼), 관안(관眼), 아안(鵝眼), 도화안(桃花眼), 취안(醉眼), 저안(猪眼), 사안(蛇眼), 합안(합眼), 난안(鸞眼), 학안(鶴眼), 양안(羊眼), 어안(魚眼), 마안(馬眼), 낭목(狼目), 복서안(伏犀眼), 노란안(鷺鸞眼), 원목(猿目), 녹목(鹿目), 웅목(熊目), 하목(蝦目), 해목(蟹目), 연목(燕目), 자고목(자고目), 묘목(描目)의 39개의 형태로 분류된다.The eyes are Yong'an, Bong'an, Huan's, Ear's eye, Right's eye, Peacock's eye, Mandarin's eye, Myeongbong's eye ,, Sang'an, X'an, Xian, Ho'an, Subong's, Seobong's, An'm's eyes, Yin and Yang's Xianyang, Guan'an, Aan, Dohuaan, Quang'an, Jian'an, Jian'an, Ha'an'an, Nan'an ), School eye, binocular, fisheye, horse eye, cyst, boxer's eye, yellow eye, wood ( 39 forms of, 目, lumberjack, lumberjack, lumberjack, lumberjack, lumberjack, softwood, deadwood, seedling Classified as
코는 용비(龍鼻), 호비(虎鼻), 산비(蒜鼻), 성낭비(盛囊鼻), 호양비(胡羊鼻), 사자비(獅子鼻), 현담비(懸膽鼻), 복서비(伏犀鼻), 후비(후鼻), 응취비(鷹嘴鼻), 구비(狗鼻), 즉어비(즉魚鼻), 우비(牛鼻), 절통비(截筒鼻), 편요비(偏凹鼻), 고봉비(孤峯鼻), 삼만삼곡비(三彎三曲鼻), 검봉비(劍鋒鼻), 장비(獐鼻), 성비(猩鼻), 노척비(露脊鼻), 노조비(露조鼻), 녹비(鹿鼻), 원비(猿鼻)의 24개의 형태로 분류된다.Nose, dragon rain, hobi, mountain rain, sexual waste, hoyangbi, lion rain, tsudambi, bok Servings, picklings, pickles, picklings, fish bowls, raincoats, cuttings and yawnings ( 고, Gobongbi (孤峯 鼻), Sammanggokbi (三 彎 三 曲 鼻), Gumbongbi (劍鋒 鼻), Equipment (獐 鼻), Seongbi (猩 鼻) ), Union rain (녹조 鼻), green rain (鹿 鼻), raw rain (猿 鼻) is classified into 24 types.
입은 사자구(四字口), 방구(方口), 앙월구(仰月口), 만궁구(彎弓口), 저구(猪口), 취화구(吹火口), 앵도구(櫻桃口), 우구(牛口), 용구(龍口), 호구(虎口), 양구(羊口), 후구(후口), 포어구(鮑魚口), 즉어구(즉魚口), 복선구(覆船口)의 15개의 형태로 분류된다.Four mouth mouth, mouth, angu, mouth, mouth, mouth, mouthpiece, cherry blossom, mouthpiece Mouth, long mouth, long mouth, rear mouth, back mouth, fore mouth, ie mouth mouth, double mouth mouth It is classified into 15 forms.
귀는 금이(金耳), 목이(木耳), 수이(水耳), 화이(火耳), 토이(土耳), 저이(猪耳), 저반이(低反耳), 수견이(垂肩耳), 첩뇌이(貼腦耳), 개화이(開花耳), 기자이(棋子耳), 호이(虎耳), 전우이(箭羽耳), 선풍이(扇風耳), 서이(鼠耳), 여이(驢耳)의 16개의 형태로 분류된다.Ears are gold ear, throat, water, fire, toy, low ear, low ear, and shoulder dog. ,, sphincter, flowering flower, giza, hoi, jeonyi, whirlwind, seo It is classified into sixteen forms of the ear.
턱은 모양에 따라 10개의 종류로 분류된다. 이마의 주름은 12개의 종류로 분류된다. 인당의 주름은 10개의 형태로 분류된다. 인중은 9개의 형태로 분류된다. 법령의 12개의 형태로 분류된다.Jaws are divided into 10 categories according to their shape. Forehead wrinkles fall into 12 categories. Wrinkles per person are classified into ten types. The mass is classified into nine forms. It is classified into 12 forms of decree.
상기 관상학적 분석부(140)는 상기 관상학적 요소 추출부(130)에 의해 추출된 각 관상학적 요소들의 관상학적 특징 예컨데, 눈(관상학적 요소)중 용안(관상학적 특징)에 해당하는 관상학 정보를 관상학 정보 데이타베이스를 검색하여 독출한다. 이 관상학적 분석부(140)는 얼굴을 이루는 관상학적 요소들 모두에 대해 관상학적 특징에 대응하는 관상학 정보를 관상학 정보 데이타베이스를 참조하여 독출하여 분석한다.The coronary analysis unit 140 coronary features of each of the coronary elements extracted by the coronary element extraction unit 130, for example, coronary information corresponding to the eye of the eye (coronary elements) Search and read the database of coronary information. The coronary analysis unit 140 reads out and analyzes coronary information corresponding to the coronary features of all the coronary elements forming the face with reference to the coronary information database.
상기 관상 서비스 정보 생성부(150)는 상기 관상학적 분석부(140)에 의해 분석된 각 관상학적 요소들에 대한 관상학 정보를 조합하여 관상 서비스 정보를 생성하여 출력한다.The coronary service information generation unit 150 generates coronary service information by combining coronary information about each coronary element analyzed by the coronary analysis unit 140 and outputs the coronary service information.
즉, 상기 관상 정보 서비스 모듈(100)은 상기 관상학적 분석부(140)에 의해 분석된 각 관상학적 요소들의 특징에 따른 관상학 정보들을 관상 서비스 정보 생성부(150)를 통해 조합하여 사용자에게 제공되는 형태인 관상 서비스 정보로 가공한다.That is, the coronal information service module 100 is provided to the user by combining the coronary information according to the characteristics of each of the coronary elements analyzed by the coronary analysis unit 140 through the coronary service information generation unit 150 It is processed into the form of ornamental service information.
따라서, 사용자는 상기 관상 서비스 정보 생성부(150)에 의해 생성된 관상 서비스 정보를 화면 출력이나, 프린터 출력하여 열람함으로써 사용자 컴퓨터의 하드 디스크에 저장되거나, 사용자 컴퓨터에 연동된 카메라에 의해 촬영된 대상 영상 얼굴에 대한 관상 정보를 얻을 수 있게 된다.Accordingly, the user may store the coronary service information generated by the coronary service information generation unit 150 on a screen or by printing and viewing the printer to be stored on the hard disk of the user computer or photographed by a camera linked to the user computer. Coronary information about the image face can be obtained.
도 3 에 이 실시예에 따른 관상 정보 서비스 시스템의 동작 흐름을 도시하였다.3 shows the operational flow of the coronal information service system according to this embodiment.
이 실시예에 따른 관상 정보 서비스 시스템은 먼저, 단계 S110 에서 관상 정보 서비스 모듈(100)의 전처리부(110)를 통해 관상 서비스 정보를 얻고자하는 대상 영상에 포함된 조명과 잡음에 의한 영상 왜곡을 보정한다.The coronal information service system according to the present embodiment first, in step S110, the image distortion caused by lighting and noise included in the target image to obtain coronary service information through the preprocessor 110 of the coronal information service module 100. Correct it.
그 후, 단계 S120 에서 얼굴 영역 추출부(120)를 통해 보정된 대상 영상으로부터 얼굴 영역을 추출한 후, 단계 S130 에서 관상학적 요소 추출부(130)를 통해 상기 얼굴 영역 추출부(120)에 의해 추출된 얼굴 영역으로부터 관상학적 요소들을 추출하고, 이들 각각의 관상학적 특징을 추출한다.Thereafter, a face region is extracted from the target image corrected by the face region extractor 120 in step S120, and then extracted by the face region extractor 120 through the coronary element extractor 130 in step S130. Coronary elements are extracted from the extracted facial regions and their respective coronary features are extracted.
그 다음, 단계 S140 에서 관상학적 분석부(140)를 통해 상기 관상학적 요소 추출부(130)에 의해 추출된 각 관상학적 요소들의 관상학적 특징에 대응하는 관상학 정보를 관상학 정보 데이타베이스를 참조하여 분석하고, 단계 S150 에서 관상 서비스 정보 생성부(150)를 통해 상기 관상학적 분석부(140)에 의해 분석된 각 관상학적 요소들에 대한 관상학 정보를 조합하여 관상 서비스 정보를 생성하여 출력함으로써 사용자가 관상 서비스 정보를 열람할 수 있도록 한다.Next, the coronary information corresponding to the coronary features of each of the coronary elements extracted by the coronary element extraction unit 130 through the coronary analysis unit 140 in step S140 is analyzed with reference to the coronary information database. In addition, by combining the coronary information for each of the coronary elements analyzed by the coronary analysis unit 140 through the coronary service information generation unit 150 in step S150 to generate and output the coronary service information by the user coronary Allow service information to be viewed.
따라서, 이 실시예에 따른 관상 정보 서비스 시스템은 얼굴 인식 기술과 관상학을 연계하여 추출된 얼굴의 관상학적 요소들의 특징에 대응하는 관상 정보를 클라이언트(Client) 기반으로 사용자에게 제공할 수 있게 된다.Accordingly, the coronary information service system according to the present embodiment can provide the user with coronary information corresponding to the features of the coronary elements of the face extracted by linking the face recognition technology with the coronary science.
도 2 는 본 발명에 따른 관상 정보 서비스 시스템의 또다른 실시예에 따른 블럭도이다.2 is a block diagram according to another embodiment of a coronal information service system according to the present invention.
이 실시예에 따른 관상 정보 서비스 시스템은 얼굴 인식 기술과 관상학을 연계하여 추출된 얼굴의 관상학적 요소들의 특징에 대응하는 관상 정보를 서버-클라이언트(Server-Client) 기반으로 제공하도록 한 것으로, 서버(Server)상에서 실행 가능한 소프트웨어의 형태로 존재하는 관상 정보 서비스 모듈(100)을 통해 관상 정보를 네트워크 접속한 사용자 단말기(200)로 제공한다.The coronal information service system according to the present embodiment is to provide coronary information corresponding to features of the coronary elements of a face extracted by linking face recognition technology with coronary art on a server-client basis. It provides the coronary information to the user terminal 200 connected to the network through the coronary information service module 100 existing in the form of software executable on the server.
상기 사용자 단말기(200)는 상기 관상 정보 서비스 모듈(100)로 관상 정보 서비스를 위한 대상 영상을 전송하여 관상 서비스 정보를 요청하고, 상기 관상 정보 서비스 모듈로부터 생성된 해당 대상 영상에 대한 관상 서비스 정보를 수신한다.The user terminal 200 requests the coronary service information by transmitting the target image for the coronary information service to the coronal information service module 100 and requests the coronary service information for the corresponding target image generated from the coronary information service module. Receive.
이 때, 상기 사용자 단말기(200)가 관상 정보 서비스를 위한 대상 영상을 촬영하는 카메라 모듈을 탑재한 것이 바람직하며, 사용자는 카메라 모듈을 통해 촬영된 얼굴을 포함하는 대상 영상(정지 영상 또는 동영상)을 사용자 단말기(200)를 이용해 서버상에서 실행되는 관상 정보 서비스 모듈(100)로 전송하여 관상 서비스 정보를 요청하고, 이를 수신한다.At this time, the user terminal 200 is preferably equipped with a camera module for capturing the target image for the coronary information service, the user is to take a target image (still image or video) including a face photographed through the camera module By using the user terminal 200 to transmit to the coronary information service module 100 running on the server to request the coronary service information, and receives it.
한편, 상기 사용자 단말기(200)는 개인용 컴퓨터 또는 이동통신 단말기를 포함하는 서버와 통신 가능한 통신 모듈을 탑재한 포괄적인 개념의 장치이다.On the other hand, the user terminal 200 is a comprehensive concept device equipped with a communication module capable of communicating with a server including a personal computer or a mobile communication terminal.
도면에 도시한 바와같이, 이 실시예에서의 관상 정보 서비스 모듈(100)은 전처리부(110)와, 얼굴 영역 추출부(120)와, 관상학적 요소 추출부(130)와, 관상학적 분석부(140)와, 관상 서비스 정보 생성부(150)와, 관상 서비스 요청정보 수신부(160)와, 관상 서비스 정보 송신부(170)를 포함한다.As shown in the figure, the coronal information service module 100 in this embodiment includes a preprocessor 110, a face region extraction unit 120, a coronary element extraction unit 130, and a coronary analysis unit. 140, the ornamental service information generating unit 150, the ornamental service request information receiving unit 160, and the ornamental service information transmitting unit 170.
즉, 이 실시예의 관상 정보 서비스 모듈(100)은 도 1 에 도시한 실시예와는 사용자 단말기(200)와 데이타를 송수신하는 관상 서비스 요청정보 수신부(160)와, 관상 서비스 정보 송신부(170)를 더 포함한다는 점에서 차이가 있다.That is, the coronary information service module 100 according to the present embodiment uses the coronary service request information receiving unit 160 and the coronary service information transmitting unit 170 to transmit and receive data to and from the user terminal 200 as shown in FIG. The difference is that it includes more.
이 실시예의 관상 정보 서비스 모듈(100)의 전처리부(110)와, 얼굴 영역 추출부(120)와, 관상학적 요소 추출부(130)와, 관상학적 분석부(140)와, 관상 서비스정보 생성부(150)의 동작은 도 1 에 도시한 실시예와 동일하므로, 이에 대한 중복 설명은 생략하기로 한다.Generating preprocessing unit 110, face region extraction unit 120, coronary element extraction unit 130, coronary analysis unit 140, coronary service information of the coronary information service module 100 of this embodiment Since the operation of the unit 150 is the same as the embodiment shown in FIG. 1, duplicate description thereof will be omitted.
또한, 서버상에서 실행 가능한 관상 정보 서비스 모듈(100)과 사용자 단말기(200)간의 회원인증을 포함하는 네트워크 접속 기술에 관련해서는 이 출원 이전에 이미 다양하게 공지되어 시행되는 통상의 기술이며, 이 출원의 범주에서도 벗어나므로 자세한 설명은 생략하기로 한다.In addition, with respect to the network connection technology including membership authentication between the tubular information service module 100 and the user terminal 200 that can be executed on the server is a conventional technique already known and implemented variously before this application, It is also out of scope, so a detailed description thereof will be omitted.
상기 관상 서비스 요청정보 수신부(160)는 상기 사용자 단말기(200)로부터 관상 정보 서비스를 위한 대상 영상을 포함하는 관상 서비스 요청정보를 수신한다.The ornamental service request information receiving unit 160 receives the ornamental service request information including the target image for the ornamental information service from the user terminal 200.
즉, 개인용 컴퓨터 또는 이동통신 단말기 등의 사용자 단말기(200)를 이용해 사용자가 관상 정보 서비스 모듈(100)에 네트워크 접속하여 관상 정보 서비스를 위한 대상 영상을 포함하는 관상 서비스 요청정보를 전송하면, 관상 정보 서비스 모듈(100)은 상기 관상 서비스 요청정보 수신부(160)를 통해 사용자 단말기(200)로부터 관상 서비스 요청정보를 수신한다.That is, when a user connects to the coronary information service module 100 using a user terminal 200 such as a personal computer or a mobile communication terminal and transmits coronary service request information including a target image for coronary information service, coronary information The service module 100 receives the coronal service request information from the user terminal 200 through the coronal service request information receiver 160.
상기 관상 서비스 요청정보 수신부(160)를 통해 관상 서비스 요청정보를 수신하면, 상기 관상 정보 서비스 모듈(100)은 도 1 에 도시한 실시예에서와 마찬가지로 상기 전처리부(110)를 통해 관상 서비스 정보를 얻고자하는 대상 영상에 포함된 조명과 잡음에 의한 영상 왜곡을 보정하고, 상기 얼굴 영역 추출부(120)를 통해 보정된 대상 영상으로부터 얼굴 영역을 추출하고, 상기 관상학적 요소 추출부(130)를 통해 상기 얼굴 영역 추출부(120)에 의해 추출된 얼굴 영역으로부터 관상학적 요소들을 추출하고, 이들 각각의 관상학적 특징을 추출한다.Upon receiving the coronary service request information through the coronary service request information receiving unit 160, the coronary information service module 100 receives coronary service information through the preprocessor 110 as in the embodiment shown in FIG. 1. The image distortion caused by illumination and noise included in the target image to be obtained is corrected, the face region is extracted from the corrected target image by the face region extractor 120, and the coronary element extractor 130 is Coronary elements are extracted from the facial regions extracted by the face region extractor 120, and the respective coronary features are extracted.
그 후, 상기 관상 정보 서비스 모듈(100)은 관상학적 분석부(140)를 통해 상기 관상학적 요소 추출부(130)에 의해 추출된 각 관상학적 요소들의 관상학적 특징에 대응하는 관상학 정보를 관상학 정보 데이타베이스를 참조하여 분석하고, 상기 관상 서비스 정보 생성부(150)를 통해 상기 관상학적 분석부(140)에 의해 분석된 각 관상학적 요소들에 대한 관상학 정보를 조합하여 관상 서비스 정보를 생성한다.Thereafter, the coronary information service module 100 collects coronary information corresponding to the coronary features of each coronary element extracted by the coronary element extraction unit 130 through the coronary analysis unit 140. Analyze by referring to the database, by combining the coronary information for each of the coronary elements analyzed by the coronary analysis unit 140 through the coronary service information generation unit 150 to generate the coronary service information.
상기 관상 서비스 정보 송신부(170)는 상기 관상 서비스 정보 생성부(150)에 의해 생성된 관상 서비스 정보를 해당 사용자 단말기(200)로 전송한다.The ornamental service information transmitter 170 transmits the ornamental service information generated by the ornamental service information generator 150 to the corresponding user terminal 200.
즉, 상기 관상 정보 서비스 모듈(100)은 상기 관상 서비스 정보 생성부(150)에 의해 생성된 관상 서비스 정보를 상기 관상 서비스 정보 송신부(170)를 통해 해당 사용자 단말기(200)로 웹페이지 형태, e-메일, 단문 메시지 서비스(SMS) 등을 이용해 전송한다.That is, the coronal information service module 100 transmits the coronary service information generated by the coronary service information generating unit 150 to the corresponding user terminal 200 through the coronary service information transmitting unit 170 in a web page form, e. -Send by mail or short message service (SMS).
따라서, 사용자는 개인용 컴퓨터, 이동통신 단말기 등의 사용자 단말기를 이용해 서버로 관상 서비스 정보를 요청하고, 서버에서 실행 가능한 관상 정보 서비스 모듈(100)에 의해 생성된 관상 서비스 정보를 사용자 단말기를 통해 수신하여 열람함으로써 사용자 단말기의 메모리 수단에 저장되거나, 사용자 단말기에 연동된 카메라에 의해 촬영된 대상 영상 얼굴에 대한 관상 정보를 서버로 요청하고, 이로부터 얻을 수 있게 된다.Therefore, the user requests coronary service information to the server using a user terminal such as a personal computer, a mobile communication terminal, and receives coronary service information generated by the coronary information service module 100 executable on the server through the user terminal. By reading, it is possible to request coronary information on the target image face stored in the memory means of the user terminal or taken by a camera linked to the user terminal to the server, and to obtain the same.
도 4 에 이 실시예에 따른 관상 정보 서비스 시스템의 동작 흐름을 도시하였다.4 shows the operational flow of the coronal information service system according to this embodiment.
이 실시예에 따른 관상 정보 서비스 시스템은 먼저, 단계 S210 에서 관상 정보 서비스 모듈(100)의 관상 서비스 요청정보 수신부(160)를 통해 사용자 단말기(200)로부터 관상 정보 서비스를 위한 대상 영상을 포함하는 관상 서비스 요청정보를 수신하고, 단계 S220 에서 전처리부(110)를 통해 관상 서비스 정보를 얻고자하는 대상 영상에 포함된 조명과 잡음에 의한 영상 왜곡을 보정한다.The coronary information service system according to this embodiment first includes a coronal image including a target image for coronary information service from the user terminal 200 through the coronary service request information receiver 160 of the coronary information service module 100 in step S210. Receive the service request information, and corrects the image distortion due to illumination and noise included in the target image to obtain the coronary service information through the preprocessor 110 in step S220.
그 후, 단계 S230 에서 얼굴 영역 추출부(120)를 통해 보정된 대상 영상으로부터 얼굴 영역을 추출한 후, 단계 S240 에서 관상학적 요소 추출부(130)를 통해 상기 얼굴 영역 추출부(120)에 의해 추출된 얼굴 영역으로부터 관상학적 요소들을 추출하고, 이들 각각의 관상학적 특징을 추출한다.Thereafter, a face region is extracted from the target image corrected by the face region extractor 120 in step S230, and then extracted by the face region extractor 120 through the coronary element extractor 130 in step S240. Coronary elements are extracted from the extracted facial regions and their respective coronary features are extracted.
그 다음, 단계 S250 에서 관상학적 분석부(140)를 통해 상기 관상학적 요소 추출부(130)에 의해 추출된 각 관상학적 요소들의 관상학적 특징에 대응하는 관상학 정보를 관상학 정보 데이타베이스를 참조하여 분석하고, 단계 S260 에서 관상 서비스 정보 생성부(150)를 통해 상기 관상학적 분석부(140)에 의해 분석된 각 관상학적 요소들에 대한 관상학 정보를 조합하여 관상 서비스 정보를 생성하여, 이를 단계 S270 에서 상기 관상 서비스 정보 송신부(170)를 통해 해당 사용자 단말기(200)로 전송함으로써 사용자가 관상 서비스 정보를 열람할 수 있도록 한다.Then, the coronary information corresponding to the coronary features of each of the coronary elements extracted by the coronary element extraction unit 130 through the coronary analysis unit 140 in step S250 is analyzed with reference to the coronary information database. In addition, in step S260, the coronary service information is generated by combining the coronary information for each of the coronary elements analyzed by the coronary analysis unit 140 through the coronary service information generation unit 150, and in step S270 By transmitting to the user terminal 200 through the tubular service information transmitter 170, the user can view the coronary service information.
따라서, 이 실시예에 따른 관상 정보 서비스 시스템은 얼굴 인식 기술과 관상학을 연계하여 추출된 얼굴의 관상학적 요소들의 특징에 대응하는 관상 정보를 서버-클라이언트(Server-Client) 기반으로 사용자에게 제공할 수 있게 된다.Accordingly, the coronary information service system according to the present embodiment may provide the user with coronary information corresponding to the features of the coronary elements of the face extracted by linking facial recognition technology and coronary arts to a user on a server-client basis. Will be.
한편, 본 발명에 의해 추출된 관상학적 구성 요소의 특징을 이용해 기존의 얼굴 인식 시스템에서와 같이 데이타베이스에 저장된 얼굴 영상들중 유사한 관상학적 구성 요소의 특징을 가지는 얼굴을 찾는 등 다양한 서비스에 적용 가능함은 당연하다.On the other hand, using the features of the coronary component extracted by the present invention can be applied to a variety of services, such as finding a face having the characteristics of similar coronary component among the face images stored in the database as in the existing face recognition system Of course.
그러므로, 위와같이 함에 의해 상기에서 제시한 본 발명에 따른 관상 정보 서비스 시스템의 목적을 달성할 수 있게 된다.Therefore, it is possible to achieve the object of the coronary information service system according to the present invention as described above by the above.
이상에서 설명한 바와같은 본 발명에 따른 관상 정보 서비스 시스템은 얼굴 인식 기술과 관상학을 연계하여 추출된 얼굴의 관상학적 요소들의 특징에 대응하는 관상 정보를 제공함으로써 사용자가 쉽고 간편하게 관상 정보를 서비스 받을 수 있는 유용한 효과가 있다.As described above, the coronary information service system according to the present invention provides coronary information corresponding to the features of the coronary elements of a face extracted by linking facial recognition technology and coronary arts so that the user can easily and conveniently receive coronary information. It has a useful effect.
본 발명은 첨부된 도면을 참조하여 바람직한 실시예를 중심으로 기술되었지만 당업자라면 이러한 기재로부터 후술하는 특허청구범위에 의해 포괄되는 본 발명의 범주를 벗어남이 없이 다양한 변형이 가능하다는 것은 명백하다.Although the present invention has been described with reference to the accompanying drawings, it will be apparent to those skilled in the art that various modifications may be made therein without departing from the scope of the invention, which is covered by the following claims.
Claims (5)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040021271A KR20040100876A (en) | 2004-03-29 | 2004-03-29 | System for offering physiognomy information service |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040021271A KR20040100876A (en) | 2004-03-29 | 2004-03-29 | System for offering physiognomy information service |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20040100876A true KR20040100876A (en) | 2004-12-02 |
Family
ID=37378160
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020040021271A KR20040100876A (en) | 2004-03-29 | 2004-03-29 | System for offering physiognomy information service |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20040100876A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170082074A (en) * | 2016-01-05 | 2017-07-13 | 한국전자통신연구원 | Face recognition apparatus and method using physiognomic information |
KR102507083B1 (en) * | 2022-08-23 | 2023-03-07 | 주식회사 휴네트 | Pharmaceutical vendors sharing service providing device, method and program |
KR102543427B1 (en) * | 2022-05-19 | 2023-06-14 | 박정신 | Apparatus for analyzing face facial features |
-
2004
- 2004-03-29 KR KR1020040021271A patent/KR20040100876A/en not_active Application Discontinuation
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170082074A (en) * | 2016-01-05 | 2017-07-13 | 한국전자통신연구원 | Face recognition apparatus and method using physiognomic information |
KR102543427B1 (en) * | 2022-05-19 | 2023-06-14 | 박정신 | Apparatus for analyzing face facial features |
KR102507083B1 (en) * | 2022-08-23 | 2023-03-07 | 주식회사 휴네트 | Pharmaceutical vendors sharing service providing device, method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Garcia et al. | Real-time American sign language recognition with convolutional neural networks | |
CN111767900B (en) | Face living body detection method, device, computer equipment and storage medium | |
KR102462818B1 (en) | Method of motion vector and feature vector based fake face detection and apparatus for the same | |
KR101760258B1 (en) | Face recognition apparatus and method thereof | |
KR101901591B1 (en) | Face recognition apparatus and control method for the same | |
US20070071288A1 (en) | Facial features based human face recognition method | |
Zhao | Robust image based 3D face recognition | |
WO2021196721A1 (en) | Cabin interior environment adjustment method and apparatus | |
Kumar et al. | Time series neural networks for real time sign language translation | |
JP2006293644A (en) | Information processing device and information processing method | |
CN113963032A (en) | Twin network structure target tracking method fusing target re-identification | |
WO2019003973A1 (en) | Facial authentication device, facial authentication method, and program recording medium | |
CN110378414B (en) | Multi-mode biological characteristic fusion identity recognition method based on evolution strategy | |
WO2020195732A1 (en) | Image processing device, image processing method, and recording medium in which program is stored | |
CN110705454A (en) | Face recognition method with living body detection function | |
CN110866454A (en) | Human face living body detection method and system and computer readable storage medium | |
CN111738059A (en) | Non-sensory scene-oriented face recognition method | |
Ramanathan et al. | Robust human authentication using appearance and holistic anthropometric features | |
Wang et al. | Pose-aware facial expression recognition assisted by expression descriptions | |
Samatha et al. | Securesense: Enhancing person verification through multimodal biometrics for robust authentication | |
CN111191549A (en) | Two-stage face anti-counterfeiting detection method | |
KR20040100876A (en) | System for offering physiognomy information service | |
KR102411765B1 (en) | Correct posture estimation system and method using neural network | |
Gottumukkal et al. | Real time face detection from color video stream based on PCA method | |
KR100702226B1 (en) | Apparatus and method for detecting and authenticating facial data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
G15R | Request for early publication | ||
N231 | Notification of change of applicant | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |