KR102161476B1 - Apparatus and method for identifying user using user body based on deep learning - Google Patents

Apparatus and method for identifying user using user body based on deep learning Download PDF

Info

Publication number
KR102161476B1
KR102161476B1 KR1020180081356A KR20180081356A KR102161476B1 KR 102161476 B1 KR102161476 B1 KR 102161476B1 KR 1020180081356 A KR1020180081356 A KR 1020180081356A KR 20180081356 A KR20180081356 A KR 20180081356A KR 102161476 B1 KR102161476 B1 KR 102161476B1
Authority
KR
South Korea
Prior art keywords
image
face
feature information
score
neural network
Prior art date
Application number
KR1020180081356A
Other languages
Korean (ko)
Other versions
KR20200013271A (en
Inventor
박강령
구자형
Original Assignee
동국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단 filed Critical 동국대학교 산학협력단
Priority to KR1020180081356A priority Critical patent/KR102161476B1/en
Publication of KR20200013271A publication Critical patent/KR20200013271A/en
Application granted granted Critical
Publication of KR102161476B1 publication Critical patent/KR102161476B1/en

Links

Images

Classifications

    • G06K9/00268
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06K9/00201
    • G06K9/00362
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 신원 인식 기술에 관한 것으로, 보다 상세하게는 딥 러닝 기반의 사용자 몸을 이용한 신원 인식 기술에 관한 것이다. 본 발명의 일 실시 예에 따르면, 사용자를 촬영한 영상이 흐리거나 노이즈를 포함하는 경우에도 사용자에 대한 신원 인식을 정확하게 수행할 수 있다.The present invention relates to an identity recognition technology, and more particularly, to an identity recognition technology using a user's body based on deep learning. According to an embodiment of the present invention, even when an image photographed by the user is blurred or contains noise, identification of the user may be accurately performed.

Description

딥 러닝 기반의 사용자 몸을 이용한 신원 인식 장치 및 방법{APPARATUS AND METHOD FOR IDENTIFYING USER USING USER BODY BASED ON DEEP LEARNING}Identity recognition device and method using a user's body based on deep learning {APPARATUS AND METHOD FOR IDENTIFYING USER USING USER BODY BASED ON DEEP LEARNING}

본 발명은 신원 인식 기술에 관한 것으로, 보다 상세하게는 딥 러닝 기반의 사용자 몸을 이용한 신원 인식 기술에 관한 것이다. The present invention relates to an identity recognition technology, and more particularly, to an identity recognition technology using a user's body based on deep learning.

신원 인식 방법은 지문, 홍채, 정맥, 얼굴 등을 이용한 인식 방법 등의 사용자를 효과적으로 구별할 수 있는 고유한 행동학적 또는 생물학적 요소를 고려하여 정량적인 방식에 따라 데이터의 특징을 분석하여 사용자를 확인하는 방법이다. 신원 인식은 시스템 보안, 금융전자결제, 출입 통제 등을 포함한 많은 응용 분야에서 사용된다. 최근에는 스마트폰의 대중화에 따라 PC환경 이외의 분야에서도 신원 인증 기술이 대두되고 있다. 기존의 신원 인식 기술 중에서도 다양한 장점을 가진 얼굴 인식 기술이 존재한다. 얼굴 인식 기술은 사람을 정확하게 식별할 수 있는 점이 있으나, CCTV 카메라 등의 원거리에서 촬영한 영상을 이용하는 경우, 영상이 흐리거나 노이즈를 포함하는 경우가 많아 얼굴 인식 기술만으로는 신원 인식이 어려운 점이 있다. The identity recognition method identifies the user by analyzing the characteristics of data according to a quantitative method in consideration of unique behavioral or biological factors that can effectively distinguish the user, such as a recognition method using fingerprint, iris, vein, face, etc. That's the way. Identity recognition is used in many applications, including system security, financial electronic payments, and access control. In recent years, with the popularization of smartphones, identity authentication technology has emerged in fields other than the PC environment. Among the existing identity recognition technologies, there are face recognition technologies with various advantages. Face recognition technology has a point that can accurately identify a person, but when an image captured from a distance such as a CCTV camera is used, the image is often blurred or contains noise, making it difficult to recognize an identity using only the face recognition technology.

본 발명의 배경기술은 대한민국 공개특허 제2017-0017588호에 개시되어 있다.Background art of the present invention is disclosed in Korean Patent Application Publication No. 2017-0017588.

본 발명은 딥 러닝 기반의 사용자 몸을 이용한 신원 인식 장치 및 방법을 제공한다. The present invention provides an apparatus and method for identifying identity using a user's body based on deep learning.

본 발명의 일 측면에 따르면, 딥 러닝 기반의 사용자 몸을 이용한 신원 인식 장치를 제공한다.According to an aspect of the present invention, an identity recognition device using a user's body based on deep learning is provided.

본 발명의 일 실시 예에 따른 딥 러닝 기반의 사용자 몸을 이용한 신원 인식 장치는 입력 영상에 대해 얼굴 영상 및 몸 영상을 생성하는 영상 생성부, 얼굴 신경망을 통해 상기 얼굴 영상으로부터 얼굴 특징 정보를 추출하는 얼굴 특징 추출부, 몸 신경망을 통해 상기 몸 영상으로부터 몸 특징 정보를 추출하는 몸 특징 추출부, 상기 얼굴 특징 정보 및 상기 몸 특징 정보에 따라 퓨전 점수를 산출하는 퓨전 점수 산출부 및 상기 퓨전 점수에 따라 신원 인식 정보를 생성하는 신원 인식부를 포함할 수 있다. An identity recognition apparatus using a user's body based on deep learning according to an embodiment of the present invention includes an image generator that generates a face image and a body image for an input image, and extracts facial feature information from the face image through a facial neural network. According to a facial feature extraction unit, a body feature extraction unit for extracting body feature information from the body image through a body neural network, a fusion score calculation unit for calculating a fusion score according to the facial feature information and the body feature information, and the fusion score It may include an identity recognition unit that generates identity recognition information.

상기 퓨전 점수 산출부는 상기 얼굴 특징 정보에 따른 얼굴 매칭 거리 및 상기 몸 특징 정보에 따른 몸 매칭 거리를 산출하고, 상기 얼굴 매칭 거리 및 상기 몸 매칭 거리에 가중치를 적용하여 상기 퓨전 점수를 산출할 수 있다.The fusion score calculator may calculate a face matching distance according to the facial feature information and a body matching distance according to the body feature information, and apply a weight to the face matching distance and the body matching distance to calculate the fusion score. .

상기 얼굴 신경망은, 13개의 콘볼루션 레이어, 5개의 풀링 레이어 및 3개의 완전 연결 레이어를 포함하고, 각 상기 콘볼루션 레이어에서 이용된 커널 사이즈는 3×3이고, 패딩 수는 1이고, 스트라이드 수는 1일 수 있다.The facial neural network includes 13 convolutional layers, 5 pooling layers, and 3 fully connected layers, and the kernel size used in each of the convolutional layers is 3×3, the number of paddings is 1, and the number of strides is May be 1.

상기 몸 신경망은 5개의 콘볼루션 레이어, 2개의 풀링 레이어 및 1개의 완전 연결 레이어를 포함하되, 상기 콘볼루션 레이어 중 4개의 콘볼루션 레이어는 3개의 브랜치(branch)를 포함하고, 상기 브랜치 중 제1 브랜치 및 제3 브랜치에서 이용된 커널 사이즈는 1×1이고, 스트라이드 수는 1×1이고, 패딩 수는 0×0이고, 제2 브랜치에서 이용된 커널 사이즈는 3×3이고, 스트라이드 수는 1×1이고, 패딩 수는 1×1일 수 있다.The body neural network includes five convolutional layers, two pooling layers, and one fully connected layer, and four of the convolutional layers include three branches, and a first of the branches. The kernel size used in the branch and the third branch is 1 × 1, the number of strides is 1 × 1, the number of padding is 0 × 0, the kernel size used in the second branch is 3 × 3, and the number of strides is 1 ×1, and the number of padding may be 1×1.

상기 영상 생성부는, 상기 얼굴 영상에 대한 초점 점수를 산출하고, 상기 초점 점수가 미리 지정된 임계 값 미만인 경우, 새로운 입력 영상에 대한 얼굴 영상을 다시 생성할 수 있다.The image generator may calculate a focus score for the face image, and when the focus score is less than a predetermined threshold value, regenerate a face image for a new input image.

본 발명의 다른 일 측면에 따르면, 딥 러닝 기반의 사용자 몸을 이용한 신원 인식 방법을 제공한다.According to another aspect of the present invention, an identity recognition method using a user's body based on deep learning is provided.

본 발명의 일 실시 예에 따른 딥 러닝 기반의 사용자 몸을 이용한 신원 인식 방법은 입력 영상에 대해 얼굴 영상 및 몸 영상을 생성하는 단계, 얼굴 신경망을 통해 상기 얼굴 영상으로부터 얼굴 특징 정보를 추출하는 단계, 몸 신경망을 통해 상기 몸 영상으로부터 몸 특징 정보를 추출하는 단계, 상기 얼굴 특징 정보 및 상기 몸 특징 정보에 따라 퓨전 점수를 산출하는 단계 및 상기 퓨전 점수에 따라 신원 인식 정보를 생성하는 단계를 포함할 수 있다. An identity recognition method using a user's body based on deep learning according to an embodiment of the present invention includes generating a face image and a body image for an input image, extracting facial feature information from the face image through a facial neural network, Extracting body feature information from the body image through a body neural network, calculating a fusion score according to the facial feature information and the body feature information, and generating identity recognition information according to the fusion score. have.

상기 얼굴 특징 정보 및 상기 몸 특징 정보에 따라 퓨전 점수를 산출하는 단계는 상기 얼굴 특징 정보에 따른 얼굴 매칭 거리 및 상기 몸 특징 정보에 따른 몸 매칭 거리를 산출하고, 상기 얼굴 매칭 거리 및 상기 몸 매칭 거리에 가중치를 적용하여 상기 퓨전 점수를 산출하는 단계일 수 있다.In the calculating of the fusion score according to the facial feature information and the body feature information, a face matching distance according to the facial feature information and a body matching distance according to the body feature information are calculated, and the face matching distance and the body matching distance It may be a step of calculating the fusion score by applying a weight to.

상기 얼굴 신경망은, 13개의 콘볼루션 레이어, 5개의 풀링 레이어 및 3개의 완전 연결 레이어를 포함하고, 각 상기 콘볼루션 레이어에서 이용된 커널 사이즈는 3×3이고, 패딩 수는 1이고, 스트라이드 수는 1일 수 있다.The facial neural network includes 13 convolutional layers, 5 pooling layers, and 3 fully connected layers, and the kernel size used in each of the convolutional layers is 3×3, the number of paddings is 1, and the number of strides is May be 1.

상기 몸 신경망은, 5개의 콘볼루션 레이어, 2개의 풀링 레이어 및 1개의 완전 연결 레이어를 포함하되, 상기 콘볼루션 레이어 중 4개의 콘볼루션 레이어는 3개의 브랜치(branch)를 포함하고, 상기 브랜치 중 제1 브랜치 및 제3 브랜치에서 이용된 커널 사이즈는 1×1이고, 스트라이드 수는 1×1이고, 패딩 수는 0×0이고, 제2 브랜치에서 이용된 커널 사이즈는 3×3이고, 스트라이드 수는 1×1이고, 패딩 수는 1×1일 수 있다.The body neural network includes five convolutional layers, two pooling layers, and one fully connected layer, wherein four of the convolutional layers include three branches, and the first among the branches. The kernel size used in branch 1 and branch 3 is 1 × 1, the number of strides is 1 × 1, the number of padding is 0 × 0, the kernel size used in the second branch is 3 × 3, and the number of strides is 1×1, and the number of padding may be 1×1.

상기 입력 영상에 대해 얼굴 영상 및 몸 영상을 생성하는 단계는, 상기 얼굴 영상에 대한 초점 점수를 산출하는 단계; 상기 초점 점수가 미리 지정된 임계 값 미만인 경우, 새로운 입력 영상에 대한 얼굴 영상을 다시 생성하는 단계를 포함할 수 있다.Generating a face image and a body image for the input image may include calculating a focus score for the face image; If the focus score is less than a predetermined threshold value, regenerating a face image for a new input image may be included.

본 발명의 일 실시 예에 따르면, 딥 러닝 기반의 가시광선 카메라를 이용하여 실내 환경의 사용자의 신원 인식을 정확하게 수행할 수 있다.According to an embodiment of the present invention, it is possible to accurately recognize the identity of a user in an indoor environment by using a visible ray camera based on deep learning.

본 발명의 일 실시 예에 따르면, 사용자를 촬영한 영상이 흐리거나 노이즈를 포함하는 경우에도 사용자에 대한 신원 인식을 정확하게 수행할 수 있다.According to an embodiment of the present invention, even when an image photographed by the user is blurred or contains noise, identification of the user may be accurately performed.

도 1은 본 발명의 일 실시 예에 따른 신원 인식 장치를 예시한 도면.
도 2는 본 발명의 일 실시 예에 따른 신원 인식 장치가 생성한 얼굴 영상을 예시한 도면.
도 3은 본 발명의 일 실시 예에 따른 신원 인식 장치가 사용하는 얼굴 신경망의 간략한 구조를 예시한 도면.
도 4는 본 발명의 일 실시 예에 따른 신원 인식 장치가 사용하는 얼굴 신경망의 구체적인 초반 구조를 예시한 도면.
도 5는 본 발명의 일 실시 예에 따른 신원 인식 장치가 사용하는 얼굴 신경망의 구체적인 후반 구조를 예시한 도면.
도 6은 본 발명의 일 실시 예에 따른 신원 인식 장치가 사용하는 몸 신경망의 간략한 구조를 예시한 도면.
도 7은 본 발명의 일 실시 예에 따른 신원 인식 장치가 사용하는 몸 신경망의 구체적인 구조를 예시한 도면.
도 8은 본 발명의 일 실시 예에 따른 신원 인식 장치가 신원을 인식하는 방법을 예시한 순서도.
도 9는 본 발명의 일 실시 예에 따른 신원 인식 장치의 제1 데이터베이스의 테스트 영상에 대한 테스트 결과를 예시한 도면.
도 10은 본 발명의 일 실시 예에 따른 신원 인식 장치의 제1 데이터베이스의 테스트 영상에 대한 테스트 결과를 예시한 도면.
1 is a diagram illustrating an identity recognition apparatus according to an embodiment of the present invention.
2 is a diagram illustrating a face image generated by an identity recognition apparatus according to an embodiment of the present invention.
3 is a diagram illustrating a simplified structure of a facial neural network used by an identity recognition apparatus according to an embodiment of the present invention.
4 is a diagram illustrating a specific initial structure of a facial neural network used by an identity recognition apparatus according to an embodiment of the present invention.
5 is a diagram illustrating a detailed structure of a rear face of a facial neural network used by an identity recognition apparatus according to an embodiment of the present invention.
6 is a diagram illustrating a simplified structure of a body neural network used by an identity recognition apparatus according to an embodiment of the present invention.
7 is a diagram illustrating a specific structure of a body neural network used by an identity recognition apparatus according to an embodiment of the present invention.
8 is a flow chart illustrating a method of recognizing an identity by an identity recognition apparatus according to an embodiment of the present invention.
9 is a diagram illustrating a test result of a test image of a first database of an identity recognition apparatus according to an embodiment of the present invention.
10 is a diagram illustrating a test result of a test image of a first database of an identity recognition apparatus according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서 및 청구항에서 사용되는 단수 표현은, 달리 언급하지 않는 한 일반적으로 "하나 이상"을 의미하는 것으로 해석되어야 한다.In the present invention, various modifications may be made and various embodiments may be provided. Specific embodiments are illustrated in the drawings and will be described in detail through detailed description. However, this is not intended to limit the present invention to a specific embodiment, it is to be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention. In describing the present invention, when it is determined that a detailed description of a related known technology may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, the singular expressions used in the specification and claims are to be construed as meaning “one or more” in general, unless otherwise stated.

이하, 본 발명의 바람직한 실시 예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, and in the description with reference to the accompanying drawings, the same or corresponding components are assigned the same reference numbers, and redundant descriptions thereof will be omitted. To

도 1은 본 발명의 일 실시 예에 따른 신원 인식 장치를 예시한 도면이고, 도 2는 본 발명의 일 실시 예에 따른 신원 인식 장치가 생성한 얼굴 영상을 예시한 도면이고, 도 3은 본 발명의 일 실시 예에 따른 신원 인식 장치가 사용하는 얼굴 신경망의 간략한 구조를 예시한 도면이고, 도 4는 본 발명의 일 실시 예에 따른 신원 인식 장치가 사용하는 얼굴 신경망의 구체적인 초반 구조를 예시한 도면이고, 도 5는 본 발명의 일 실시 예에 따른 신원 인식 장치가 사용하는 얼굴 신경망의 구체적인 후반 구조를 예시한 도면이고, 도 6은 본 발명의 일 실시 예에 따른 신원 인식 장치가 사용하는 몸 신경망의 간략한 구조를 예시한 도면이고, 도 7은 본 발명의 일 실시 예에 따른 신원 인식 장치가 사용하는 몸 신경망의 구체적인 구조를 예시한 도면이다.1 is a diagram illustrating an identity recognition apparatus according to an embodiment of the present invention, FIG. 2 is a diagram illustrating a face image generated by an identity recognition apparatus according to an embodiment of the present invention, and FIG. 3 is a view illustrating the present invention. Is a diagram illustrating a simple structure of a facial neural network used by an identity recognition apparatus according to an embodiment of the present invention, and FIG. 4 is a diagram illustrating a specific initial structure of a facial neural network used by an identity recognition apparatus according to an embodiment of the present invention 5 is a diagram illustrating a specific late structure of a facial neural network used by an identity recognition apparatus according to an embodiment of the present invention, and FIG. 6 is a body neural network used by an identity recognition apparatus according to an embodiment of the present invention. Is a diagram illustrating a simple structure of, and FIG. 7 is a diagram illustrating a specific structure of a body neural network used by an identity recognition apparatus according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시 예에 따른 신원 인식 장치는 입력부(110), 영상 생성부(120), 얼굴 초점 검출부(130), 얼굴 특징 추출부(140), 몸 특징 추출부(150), 퓨전 점수 산출부(160) 및 신원 인식부(170)를 포함한다.Referring to FIG. 1, the identity recognition apparatus according to an embodiment of the present invention includes an input unit 110, an image generation unit 120, a face focus detection unit 130, a face feature extraction unit 140, and a body feature extraction unit ( 150), and a fusion score calculation unit 160 and an identity recognition unit 170.

입력부(110)는 네트워크 또는 미리 지정된 입력 단자를 통해 영상을 입력 받는다. 이하, 입력부(110)가 입력 받은 영상을 입력 영상이라 지칭하도록 한다. 입력부(110)는 입력 영상을 영상 생성부(120)로 전송한다.The input unit 110 receives an image through a network or a predetermined input terminal. Hereinafter, the image received by the input unit 110 will be referred to as an input image. The input unit 110 transmits the input image to the image generation unit 120.

영상 생성부(120)는 입력 영상 중 미리 지정된 알고리즘에 따라 얼굴 영역을 포함하는 얼굴 영상을 생성한다.The image generator 120 generates a face image including a face region from among the input images according to a predetermined algorithm.

얼굴 초점 검출부(130)는 생성한 얼굴 영상에서 초점 점수를 산출한다. 여기서, 초점 점수는 얼굴 영상이 촬영되었을 때 초점이 어느 정도 식별 가능한 정도인지를 나타내는 점수이다. 얼굴 초점 검출부(130)는 콘볼루션 필터(convolutional filter)를 얼굴 영상에 적용하였을 경우, 오프셋(offset) 값의 변화에 대응하는 초점 점수를 산출할 수 있다. 이 때, 초점 점수가 높은 경우, 도 2의 210과 같이 초점 점수가 낮은 경우(도 2의 220)보다 얼굴 영상이 선명하다. 얼굴 초점 검출부(130)는 얼굴 영상에 대한 초점 점수가 도 2의 210과 같이 미리 지정된 임계 값 이상인 경우, 얼굴 영상을 얼굴 특징 추출부(140)로 전송한다. 얼굴 초점 검출부(130)는 얼굴 영상에 대한 초점 점수가 도 2의 220과 같이 임계 값 미만인 경우, 입력 영상을 다시 입력부(110)로부터 수신하여 얼굴 영상에 대한 초점 점수를 다시 산출할 수 있다. 따라서, 얼굴 초점 검출부(130)는 초점이 얼굴 영상을 통해 유효한 특징 정보를 추출하기 어려운 경우, 새로운 입력 영상을 통해 얼굴 영상을 추출함으로써 신원 인식의 정확성을 높일 수 있다.The face focus detection unit 130 calculates a focus score from the generated face image. Here, the focus score is a score indicating to what extent the focus can be identified when a face image is captured. When a convolutional filter is applied to a face image, the face focus detector 130 may calculate a focus score corresponding to a change in an offset value. In this case, when the focus score is high, the face image is clearer than when the focus score is low as shown in 210 of FIG. 2 (220 of FIG. 2). The face focus detection unit 130 transmits the face image to the face feature extraction unit 140 when the focus score for the face image is equal to or greater than a predetermined threshold value as shown in 210 of FIG. 2. When the focus score for the face image is less than the threshold value as shown in 220 of FIG. 2, the face focus detection unit 130 may receive the input image again from the input unit 110 and calculate the focus score for the face image again. Accordingly, when it is difficult to extract effective feature information through a face image having a focus, the face focus detection unit 130 may increase accuracy of identity recognition by extracting a face image through a new input image.

영상 생성부(120)는 또한, 입력 영상 중 얼굴 영역을 제외한 몸 영상을 생성하고, 몸 영상을 몸 특징 추출부(150)로 전송한다.The image generation unit 120 also generates a body image excluding the face region among the input images, and transmits the body image to the body feature extraction unit 150.

얼굴 특징 추출부(140)는 얼굴 영상으로부터 얼굴 특징 정보를 추출한다. 이 때, 얼굴 특징 추출부(140)는 얼굴 신경망에 얼굴 영상을 입력하여 얼굴 특징 정보를 추출할 수 있다. 예를 들어, 얼굴 특징 추출부(140)는 도 3과 같은 구조의 얼굴 신경망을 통해 얼굴 특징 정보를 추출할 수 있다. The facial feature extraction unit 140 extracts facial feature information from a face image. In this case, the facial feature extractor 140 may extract facial feature information by inputting a face image to the facial neural network. For example, the facial feature extractor 140 may extract facial feature information through a facial neural network having a structure as shown in FIG. 3.

즉, 얼굴 신경망은 도 4 및 도 5와 같이 13개의 콘볼루션 레이어, 5개의 풀링 레이어 및 3개의 완전 연결 레이어를 포함하는 신경망일 수 있다.That is, the facial neural network may be a neural network including 13 convolutional layers, 5 pooling layers, and 3 fully connected layers as shown in FIGS. 4 and 5.

제1 콘볼루션 레이어 및 제2 콘볼루션 레이어는 224×224×64의 특징 맵을 생성한다. 제1 콘볼루션 레이어 및 제2 콘볼루션 레이어에서 이용된 커널 사이즈는 3×3이고, 스트라이드 수는 1이고, 패딩 수는 1일 수 있다.The first convolution layer and the second convolution layer generate a 224×224×64 feature map. The kernel size used in the first convolution layer and the second convolution layer may be 3×3, the number of strides may be 1, and the number of paddings may be 1.

제3 콘볼루션 레이어 및 제4 콘볼루션 레이어는 112×112×128의 특징 맵을 생성한다. 제3 콘볼루션 레이어 및 제4 콘볼루션 레이어에서 이용된 커널 사이즈는 3×3이고, 스트라이드 수는 1이고, 패딩 수는 1일 수 있다.The third convolution layer and the fourth convolution layer generate a 112×112×128 feature map. The kernel size used in the third convolution layer and the fourth convolution layer may be 3×3, the number of strides may be 1, and the number of paddings may be 1.

제5 콘볼루션 레이어, 제6 콘볼루션 레이어 및 제7 콘볼루션 레이어는 56×56×256의 특징 맵을 생성한다. 제5 콘볼루션 레이어, 제6 콘볼루션 레이어 및 제7 콘볼루션 레이어에서 이용된 커널 사이즈는 3×3이고, 스트라이드 수는 1이고, 패딩 수는 1일 수 있다.The fifth convolution layer, the sixth convolution layer, and the seventh convolution layer generate a 56×56×256 feature map. The kernel size used in the fifth convolution layer, the sixth convolution layer, and the seventh convolution layer may be 3×3, the number of strides may be 1, and the number of paddings may be 1.

제8 콘볼루션 레이어, 제9 콘볼루션 레이어 및 제10 콘볼루션 레이어는 28×28×256의 특징 맵을 생성한다. 제8 콘볼루션 레이어, 제9 콘볼루션 레이어 및 제10 콘볼루션 레이어에서 이용된 커널 사이즈는 3×3이고, 스트라이드 수는 1이고, 패딩 수는 1일 수 있다.The eighth convolution layer, the ninth convolution layer, and the tenth convolution layer generate a feature map of 28×28×256. The kernel size used in the eighth convolution layer, the ninth convolution layer, and the tenth convolution layer may be 3×3, the number of strides may be 1, and the number of padding may be 1.

제11 콘볼루션 레이어, 제12 콘볼루션 레이어 및 제13 콘볼루션 레이어는 14×14×512의 특징 맵을 생성한다. 제11 콘볼루션 레이어, 제12 콘볼루션 레이어 및 제13 콘볼루션 레이어에서 이용된 커널 사이즈는 3×3이고, 스트라이드 수는 1이고, 패딩 수는 1일 수 있다.The eleventh convolution layer, the twelfth convolution layer, and the thirteenth convolution layer generate a feature map of 14×14×512. The kernel size used in the 11th convolution layer, the twelfth convolution layer, and the 13th convolution layer may be 3×3, the number of strides may be 1, and the number of paddings may be 1.

얼굴 특징 추출부(140)는 얼굴 특징 정보를 퓨전 점수 산출부(160)로 전송한다.The facial feature extraction unit 140 transmits the facial feature information to the fusion score calculation unit 160.

몸 특징 추출부(150)는 몸 신경망에 몸 영상을 입력하여 몸 특징 정보를 산출한다. 예를 들어, 몸 특징 추출부(150)는 도 6과 같은 구조의 몸 신경망을 통해 몸 특징 정보를 산출할 수 있다.The body feature extraction unit 150 calculates body feature information by inputting a body image into a body neural network. For example, the body feature extractor 150 may calculate body feature information through a body neural network having a structure as shown in FIG. 6.

즉, 몸 신경망은 도 7과 같이 5 종류의 콘볼루션 레이어, 2개의 풀링 레이어, 1개의 완전 연결 레이어를 포함할 수 있다.That is, the body neural network may include 5 types of convolutional layers, 2 pooling layers, and 1 fully connected layer as shown in FIG. 7.

도 7을 참조하면, 첫 번째 콘볼루션 레이어(conv1)는 112×112×64의 특징 맵을 생성한다. 첫 번째 콘볼루션 레이어에서 이용된 커널 사이즈는 7×7이고, 스트라이드 수는 2×2이고, 패딩 수는 3×3일 수 있다.Referring to FIG. 7, a first convolution layer conv1 generates a 112×112×64 feature map. The kernel size used in the first convolution layer may be 7×7, the number of strides may be 2×2, and the number of padding may be 3×3.

두 번째 콘볼루션 레이어(conv2)는 3개의 브랜치(branch)를 포함한다. 제1 브랜치(Branch2a)는 56×56×64의 특징 맵을 생성한다. 제1 브랜치에서 이용된 커널 사이즈는 1×1이고, 스트라이드 수는 1×1이고, 패딩 수는 0×0일 수 있다. 제2 브랜치(Branch2b)는 56×56×64의 특징 맵을 생성한다. 제2 브랜치에서 이용된 커널 사이즈는 3×3이고, 스트라이드 수는 1×1이고, 패딩 수는 1×1일 수 있다. 제3 브랜치(Branch2c)는 56×56×256의 특징 맵을 생성한다. 제3 브랜치에서 이용된 커널 사이즈는 1×1이고, 스트라이드 수는 1×1이고, 패딩 수는 0×0일 수 있다.The second convolutional layer (conv2) includes three branches. The first branch (Branch2a) generates a 56 × 56 × 64 feature map. The kernel size used in the first branch may be 1×1, the number of strides may be 1×1, and the number of paddings may be 0×0. The second branch (Branch2b) generates a 56 × 56 × 64 feature map. The kernel size used in the second branch may be 3×3, the number of strides may be 1×1, and the number of padding may be 1×1. The third branch (Branch2c) generates a 56×56×256 feature map. The kernel size used in the third branch may be 1×1, the number of strides may be 1×1, and the number of padding may be 0×0.

세 번째 콘볼루션 레이어(conv3)는 3개의 브랜치(branch)를 포함한다. 제1 브랜치(Branch2a)는 28×28×128의 특징 맵을 생성한다. 제1 브랜치에서 이용된 커널 사이즈는 1×1이고, 스트라이드 수는 1×1이고, 패딩 수는 0×0일 수 있다. 제2 브랜치(Branch2b)는 28×28×128의 특징 맵을 생성한다. 제2 브랜치에서 이용된 커널 사이즈는 3×3이고, 스트라이드 수는 1×1이고, 패딩 수는 1×1일 수 있다. 제3 브랜치(Branch2c)는 28×28×512의 특징 맵을 생성한다. 제3 브랜치에서 이용된 커널 사이즈는 1×1이고, 스트라이드 수는 1×1이고, 패딩 수는 0×0일 수 있다.The third convolutional layer (conv3) includes three branches. The first branch (Branch2a) generates a feature map of 28×28×128. The kernel size used in the first branch may be 1×1, the number of strides may be 1×1, and the number of paddings may be 0×0. The second branch (Branch2b) generates a feature map of 28×28×128. The kernel size used in the second branch may be 3×3, the number of strides may be 1×1, and the number of padding may be 1×1. The third branch (Branch2c) generates a feature map of 28 × 28 × 512. The kernel size used in the third branch may be 1×1, the number of strides may be 1×1, and the number of padding may be 0×0.

네 번째 콘볼루션 레이어(conv4)는 3개의 브랜치(branch)를 포함한다. 제1 브랜치(Branch2a)는 14×14×256의 특징 맵을 생성한다. 제1 브랜치에서 이용된 커널 사이즈는 1×1이고, 스트라이드 수는 1×1이고, 패딩 수는 0×0일 수 있다. 제2 브랜치(Branch2b)는 14×14×256의 특징 맵을 생성한다. 제2 브랜치에서 이용된 커널 사이즈는 3×3이고, 스트라이드 수는 1×1이고, 패딩 수는 1×1일 수 있다. 제3 브랜치(Branch2c)는 14×14×1024의 특징 맵을 생성한다. 제3 브랜치에서 이용된 커널 사이즈는 1×1이고, 스트라이드 수는 1×1이고, 패딩 수는 0×0일 수 있다.The fourth convolutional layer (conv4) includes three branches. The first branch (Branch2a) generates a feature map of 14 × 14 × 256. The kernel size used in the first branch may be 1×1, the number of strides may be 1×1, and the number of paddings may be 0×0. The second branch (Branch2b) generates a 14×14×256 feature map. The kernel size used in the second branch may be 3×3, the number of strides may be 1×1, and the number of padding may be 1×1. The third branch (Branch2c) generates a feature map of 14 × 14 × 1024. The kernel size used in the third branch may be 1×1, the number of strides may be 1×1, and the number of padding may be 0×0.

다섯 번째 콘볼루션 레이어(conv5)는 3개의 브랜치(branch)를 포함한다. 제1 브랜치(Branch2a)는 7×7×512의 특징 맵을 생성한다. 제1 브랜치에서 이용된 커널 사이즈는 1×1이고, 스트라이드 수는 1×1이고, 패딩 수는 0×0일 수 있다. 제2 브랜치(Branch2b)는 7×7×512의 특징 맵을 생성한다. 제2 브랜치에서 이용된 커널 사이즈는 3×3이고, 스트라이드 수는 1×1이고, 패딩 수는 1×1일 수 있다. 제3 브랜치(Branch2c)는 7×7×2048의 특징 맵을 생성한다. 제3 브랜치에서 이용된 커널 사이즈는 1×1이고, 스트라이드 수는 1×1이고, 패딩 수는 0×0일 수 있다.The fifth convolutional layer (conv5) includes three branches. The first branch (Branch2a) generates a 7×7×512 feature map. The kernel size used in the first branch may be 1×1, the number of strides may be 1×1, and the number of paddings may be 0×0. The second branch (Branch2b) generates a 7x7x512 feature map. The kernel size used in the second branch may be 3×3, the number of strides may be 1×1, and the number of padding may be 1×1. The third branch (Branch2c) generates a 7×7×2048 feature map. The kernel size used in the third branch may be 1×1, the number of strides may be 1×1, and the number of padding may be 0×0.

몸 특징 추출부(150)는 몸 특징 벡터를 생성하여 퓨전 점수 산출부(160)로 전송한다.The body feature extraction unit 150 generates a body feature vector and transmits it to the fusion score calculation unit 160.

퓨전 점수 산출부(160)는 얼굴 특징 벡터와 몸 특징 벡터를 결합하여 퓨전 점수를 산출한다. 예를 들어, 퓨전 점수 산출부(160)는 얼굴 특징 벡터와 데이터베이스에 미리 지정된 특징 벡터와의 얼굴 매칭 거리, 몸 특징 벡터와 데이터베이스에 미리 저장된 특징 벡터와의 몸 매칭 거리를 각각 산출할 수 있다. 퓨전 점수 산출부(160)는 얼굴 매칭 거리와 몸 매칭 거리 각각에 미리 지정된 가중치를 곱하고, 가중치가 곱해진 얼굴 매칭 거리와 몸 매칭 거리를 합하거나 곱하여 퓨전 점수를 산출할 수 있다. 즉, 퓨전 점수 산출부(160)는 얼굴 매칭 거리와 몸 매칭 거리에 대해 weight sum 또는 weight product를 퓨전 점수로 산출할 수 있다. 퓨전 점수 산출부(160)는 퓨전 점수를 신원 인식부(170)로 전송한다.The fusion score calculation unit 160 calculates a fusion score by combining the facial feature vector and the body feature vector. For example, the fusion score calculator 160 may calculate a face matching distance between a facial feature vector and a feature vector previously specified in the database, and a body matching distance between a body feature vector and a feature vector previously stored in the database. The fusion score calculator 160 may calculate a fusion score by multiplying each of the face matching distance and the body matching distance by a predetermined weight, and adding or multiplying the face matching distance multiplied by the weight and the body matching distance. That is, the fusion score calculation unit 160 may calculate a weight sum or a weight product for the face matching distance and the body matching distance as a fusion score. The fusion score calculation unit 160 transmits the fusion score to the identity recognition unit 170.

신원 인식부(170)는 퓨전 점수에 따라 사용자의 신원을 나타내는 신원 인식 정보를 생성한다. 예를 들어, 신원 인식부(170)는 퓨전 점수가 미리 지정된 임계 값 이하인 경우, 사용자의 신원을 나타내는 신원 인식 정보를 생성하고, 퓨전 점수가 미리 지정된 임계 값 초과인 경우, 사용자가 지정된 인원이 아님을 나타내는 신원 인식 정보를 생성할 수 있다.The identity recognition unit 170 generates identity recognition information indicating the identity of the user according to the fusion score. For example, when the fusion score is less than or equal to a predetermined threshold, the identity recognition unit 170 generates identity recognition information indicating the identity of the user, and when the fusion score exceeds a predetermined threshold, the user is not a designated number. It is possible to generate identification information indicating

도 8은 본 발명의 일 실시 예에 따른 신원 인식 장치가 신원을 인식하는 방법을 예시한 순서도이다. 이하 설명하는 각 단계는 도 1을 참조하여 상술한 신원 인식 장치에 포함된 각 기능부를 통해 수행되는 단계이나, 발명의 간결하고 명확한 설명을 위해 각 단계의 주체를 신원 인식 장치로 통칭하도록 한다.8 is a flow chart illustrating a method of recognizing an identity by an identity recognition apparatus according to an embodiment of the present invention. Each of the steps to be described below is a step performed by each functional unit included in the identity recognition device described above with reference to FIG. 1, but for a concise and clear description of the invention, the subject of each step is collectively referred to as an identity recognition device.

도 8을 참조하면, 단계 S810에서 신원 인식 장치는 입력 영상을 입력 받는다. 예를 들어, 신원 인식 장치는 네트워크 또는 미리 지정된 입력 단자를 통해 입력 영상을 입력 받을 수 있다.Referring to FIG. 8, in step S810, the identity recognition apparatus receives an input image. For example, the identity recognition apparatus may receive an input image through a network or a predetermined input terminal.

단계 S820에서 신원 인식 장치는 입력 영상으로부터 얼굴 영상을 검출한다.In step S820, the identity recognition apparatus detects a face image from the input image.

단계 S830에서 신원 인식 장치는 얼굴 영상에 대한 초점 점수를 산출하고, 초점 점수가 지정된 임계 값 미만인 경우, 단계 S810부터의 과정을 다시 수행한다.In step S830, the identity recognition apparatus calculates a focus score for the face image, and when the focus score is less than a specified threshold value, the process from step S810 is performed again.

단계 S830에서 초점 점수가 임계 값 이상인 경우, 단계 S840에서 신원 인식 장치는 얼굴 신경망을 통해 얼굴 특징 정보를 산출한다. 얼굴 신경망에 대해서는 도 3 내지 도 5를 참조하여 상술하였다.When the focus score is greater than or equal to the threshold value in step S830, the identity recognition apparatus calculates facial feature information through a facial neural network in step S840. The facial neural network was described above with reference to FIGS. 3 to 5.

단계 S850에서 신원 인식 장치는 얼굴 특징 정보에 대응하는 얼굴 매칭 거리를 산출한다.In step S850, the identity recognition apparatus calculates a face matching distance corresponding to the facial feature information.

단계 S860에서 신원 인식 장치는 입력 영상에서 얼굴 영역을 제외한 몸 영상을 검출한다.In step S860, the identity recognition apparatus detects a body image excluding a face area from the input image.

단계 S870에서 신원 인식 장치는 몸 신경 망을 통해 몸 특징 정보를 생성한다. 몸 신경망에 대해서는 도 6 및 도 7을 참조하여 상술하였다.In step S870, the identity recognition device generates body feature information through a body neural network. The body neural network was described above with reference to FIGS. 6 and 7.

단계 S880에서 신원 인식 장치는 몸 특징 정보에 대응하는 몸 매칭 거리를 산출한다.In step S880, the identity recognition apparatus calculates a body matching distance corresponding to the body feature information.

단계 S890에서 신원 인식 장치는 얼굴 특징 정보 및 몸 특징 정보를 결합하여 퓨전 점수를 산출한다. 예를 들어, 신원 인식 장치는 얼굴 특징 정보에 대응하는 얼굴 매칭 거리 및 몸 특징 정보에 대응하는 몸 매칭 거리를 산출하고, 얼굴 매칭 거리 및 몸 매칭 거리에 가중치를 적용하여 퓨전 점수를 산출할 수 있다.In step S890, the identity recognition apparatus calculates a fusion score by combining facial feature information and body feature information. For example, the identity recognition apparatus may calculate a face matching distance corresponding to facial feature information and a body matching distance corresponding to body feature information, and apply a weight to the face matching distance and body matching distance to calculate a fusion score. .

단계 S900에서 신원 인식 장치는 퓨전 점수에 대응하는 신원 인식 정보를 생성한다. 예를 들어, 신원 인식 장치는 퓨전 점수가 미리 지정된 임계 값 이하인 경우, 사용자의 신원을 나타내는 신원 인식 정보를 생성하고, 퓨전 점수가 미리 지정된 임계 값 초과인 경우, 사용자가 지정된 인원이 아님을 나타내는 신원 인식 정보를 생성할 수 있다.In step S900, the identity recognition apparatus generates identity recognition information corresponding to the fusion score. For example, when the fusion score is less than a predetermined threshold, the identity recognition device generates identity recognition information indicating the identity of the user, and when the fusion score exceeds a predetermined threshold, the identity indicating that the user is not a designated number Can generate recognition information.

도 9는 본 발명의 일 실시 예에 따른 신원 인식 장치의 제1 데이터베이스의 테스트 영상에 대한 테스트 결과를 예시한 도면이고, 도 10은 본 발명의 일 실시 예에 따른 신원 인식 장치의 제1 데이터베이스의 테스트 영상에 대한 테스트 결과를 예시한 도면이다.9 is a diagram illustrating a test result of a test image of a first database of an identity recognition apparatus according to an embodiment of the present invention, and FIG. 10 is a diagram illustrating a first database of an identity recognition apparatus according to an embodiment of the present invention. This is a diagram illustrating a test result for a test image.

신원 인식에서 오류율을 측정하기 위한 수단으로 False acceptance ratio(FAR)가 존재한다. FAR은 서로 다른 클래스를 인식됨(authentic)으로 판단할 경우 발생하는 확률을 의미한다. General acceptance ratio(GAR)는 같은 클래스를 인식됨으로 판단할 경우가 발생하는 확률을 의미한다. 따라서, GAR이 높으면서 FAR이 낮은 방식이 정확성이 높은 신원 인식 방법임을 의미한다.There is a false acceptance ratio (FAR) as a measure of the error rate in identity recognition. FAR refers to a probability that occurs when different classes are determined to be authentic. The general acceptance ratio (GAR) refers to the probability that the same class is recognized as recognized. Therefore, a method with high GAR and low FAR means an identity recognition method with high accuracy.

도 9의 그래프와 같이 제1 데이터베이스의 테스트 영상에서는 weighted sum 방식의 퓨전 점수를 산출하는 본 발명의 일 실시 예에 따른 신원 인식 방법이 가장 정확한 것으로 나타난다. 또한, 도 10의 그래프와 같이 제2 데이터베이스의 테스트 영상에서도 weighted sum 방식의 퓨전 점수를 산출하는 본 발명의 일 실시 예에 따른 신원 인식 방법이 가장 정확한 것으로 나타난다. 제1 데이터베이스 및 제2 데이터베이스는 실내에서 사용자가 이동하는 영상을 보유하고 있는 데이터베이스로 다소 흐리고 노이즈를 포함하는 서로 상이한 영상을 포함한다. 따라서, 본 발명의 일 실시 예에 따른 신원 인식 장치는 입력 영상에서 얼굴만을 통해 신원을 인식하는 방식이나, 몸 전체만을 통해 신원을 인식하는 방식에 비해 높은 신원 인식 정확성을 보장한다. As shown in the graph of FIG. 9, in the test image of the first database, the identity recognition method according to an embodiment of the present invention, which calculates the weighted sum method fusion score, is the most accurate. In addition, as shown in the graph of FIG. 10, the identity recognition method according to an embodiment of the present invention, which calculates the weighted sum fusion score in the test image of the second database, is the most accurate. The first database and the second database are databases holding images of a user moving indoors, and include different images that are somewhat blurred and include noise. Accordingly, the identity recognition apparatus according to an embodiment of the present invention guarantees higher identity recognition accuracy than a method of recognizing an identity through only a face in an input image or a method of recognizing an identity through only the entire body.

본 발명의 실시 예에 따른 신원 인식 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 또한 상술한 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드 뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.An identity recognition method according to an embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. Program instructions recorded on a computer-readable medium may be specially designed and configured for the present invention, or may be known to and usable by those skilled in the computer software field. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes magneto-optical media and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Further, the above-described medium may be a transmission medium such as an optical or metal wire, a waveguide including a carrier wave for transmitting a signal specifying a program command, a data structure, or the like. Examples of program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The above-described hardware device may be configured to operate as one or more software modules to perform the operation of the present invention, and vice versa.

이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been looked at around the embodiments. Those of ordinary skill in the art to which the present invention pertains will be able to understand that the present invention can be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered from an illustrative point of view rather than a limiting point of view. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.

Claims (11)

입력 영상에 대해 얼굴 영상 및 몸 영상을 생성하는 영상 생성부;
얼굴 신경망을 통해 상기 얼굴 영상으로부터 얼굴 특징 정보를 추출하는 얼굴 특징 추출부;
몸 신경망을 통해 상기 몸 영상으로부터 몸 특징 정보를 추출하는 몸 특징 추출부;
상기 얼굴 특징 정보 및 상기 몸 특징 정보에 따라 퓨전 점수를 산출하는 퓨전 점수 산출부; 및
상기 퓨전 점수에 따라 신원 인식 정보를 생성하는 신원 인식부를 포함하되,
상기 얼굴 영상에 대한 초점 점수를 산출하는 얼굴 초점 검출부를 더 포함하고,
상기 영상 생성부는
상기 입력 영상 중 미리 지정된 알고리즘에 따라 얼굴 영역을 포함하는 얼굴 영상을 생성하고,
상기 입력 영상 중 미리 지정된 알고리즘에 따라 상기 얼굴 영역을 제외한 몸 영상을 생성하고,
상기 얼굴 초점 검출부는
상기 초점 점수가 미리 지정된 임계 값 미만인 경우, 새로운 입력 영상에 대한 얼굴 영상을 다시 구분하여 생성하고,
상기 초점 점수는
콘볼루션 필터(convolutional filter)를 상기 얼굴 영상에 적용하였을 경우, 오프셋(offset) 값의 변화에 대응하는 값으로 산출하고,
상기 퓨전 점수 산출부는
상기 얼굴 특징 정보에 따른 얼굴 매칭 거리 및 상기 몸 특징 정보에 따른 몸 매칭 거리를 산출하고, 상기 얼굴 매칭 거리 및 상기 몸 매칭 거리에 가중치를 적용하여 상기 퓨전 점수를 산출하고,
상기 얼굴 신경망은,
13개의 콘볼루션 레이어, 5개의 풀링 레이어 및 3개의 완전 연결 레이어를 포함하고,
각 상기 콘볼루션 레이어에서 이용된 커널 사이즈는 3×3이고, 패딩 수는 1이고, 스트라이드 수는 1인 것을 특징으로 하고,
상기 몸 신경망은
5개의 콘볼루션 레이어, 2개의 풀링 레이어 및 1개의 완전 연결 레이어를 포함하되,
상기 콘볼루션 레이어 중 4개의 콘볼루션 레이어는 3개의 브랜치(branch)를 포함하고,
상기 브랜치 중 제1 브랜치 및 제3 브랜치에서 이용된 커널 사이즈는 1×1이고, 스트라이드 수는 1×1이 고, 패딩 수는 0×0이고, 제2 브랜치에서 이용된 커널 사이즈는 3×3이고, 스트라이드 수는 1×1이고, 패딩 수는 1×1인 것을 특징으로 하는 신원 인식 장치.
An image generator for generating a face image and a body image for the input image;
A facial feature extraction unit that extracts facial feature information from the face image through a facial neural network;
A body feature extraction unit for extracting body feature information from the body image through a body neural network;
A fusion score calculator configured to calculate a fusion score according to the facial feature information and the body feature information; And
Including an identity recognition unit for generating identity recognition information according to the fusion score,
Further comprising a face focus detector for calculating a focus score for the face image,
The image generator
Generates a face image including a face region according to a predetermined algorithm among the input images,
A body image excluding the face region is generated according to a predetermined algorithm among the input images,
The face focus detection unit
When the focus score is less than a predetermined threshold, a face image for a new input image is re-divided and generated,
The focus score is
When a convolutional filter is applied to the face image, it is calculated as a value corresponding to a change in an offset value,
The fusion score calculation unit
Calculating a face matching distance according to the facial feature information and a body matching distance according to the body feature information, and calculating the fusion score by applying a weight to the face matching distance and the body matching distance,
The facial neural network,
Includes 13 convolutional layers, 5 pooling layers and 3 fully connected layers,
The kernel size used in each of the convolutional layers is 3×3, the number of padding is 1, and the number of strides is 1,
The body neural network is
Including 5 convolutional layers, 2 pooling layers and 1 fully connected layer,
Four of the convolution layers include three branches,
Among the branches, the kernel size used in the first branch and the third branch is 1×1, the number of strides is 1×1, the number of padding is 0×0, and the kernel size used in the second branch is 3×3. And, the number of strides is 1×1, and the number of paddings is 1×1.
삭제delete 삭제delete 삭제delete 삭제delete 딥 러닝 기반의 사용자 몸을 이용한 신원 인식 장치가 신원을 인식하는 방법에 있어서,
입력 영상에 대해 얼굴 영상 및 몸 영상을 생성하는 단계;
얼굴 신경망을 통해 상기 얼굴 영상으로부터 얼굴 특징 정보를 추출하는 단계;
몸 신경망을 통해 상기 몸 영상으로부터 몸 특징 정보를 추출하는 단계;
상기 얼굴 특징 정보 및 상기 몸 특징 정보에 따라 퓨전 점수를 산출하는 단계; 및
상기 퓨전 점수에 따라 신원 인식 정보를 생성하는 단계를 포함하되,
상기 얼굴 영상에 대한 초점 점수를 산출하는 단계를 더 포함하고,
상기 입력 영상에 대해 얼굴 영상 및 몸 영상을 생성하는 단계는
상기 입력 영상에 대해 미리 지정된 알고리즘에 따라 얼굴 영역을 포함하는 얼굴 영상을 생성하고,
상기 입력 영상에 대해 얼굴 영역을 제외한 몸 영상을 생성하고,
상기 얼굴 영상에 대한 초점 점수를 산출하는 단계는
상기 초점 점수가 미리 지정된 임계 값 미만인 경우, 새로운 입력 영상에 대한 얼굴 영상을 다시 구분하여 생성하도록 하고,
상기 초점 점수는
콘볼루션 필터(convolutional filter)를 상기 얼굴 영상에 적용하였을 경우, 오프셋(offset) 값의 변화에 대응하는 값으로 산출하고,
상기 얼굴 특징 정보 및 상기 몸 특징 정보에 따라 퓨전 점수를 산출하는 단계는
상기 얼굴 특징 정보에 따른 얼굴 매칭 거리 및 상기 몸 특징 정보에 따른 몸 매칭 거리를 각각 산출하고, 상기 얼굴 매칭 거리 및 상기 몸 매칭 거리에 가중치를 적용하여 상기 퓨전 점수를 산출하는 단계인 것을 특징으로 하고,
상기 얼굴 신경망은,
13개의 콘볼루션 레이어, 5개의 풀링 레이어 및 3개의 완전 연결 레이어를 포함하고,
각 상기 콘볼루션 레이어에서 이용된 커널 사이즈는 3×3이고, 패딩 수는 1이고, 스트라이드 수는 1인 것을 특징으로 하고,
상기 몸 신경망은
5개의 콘볼루션 레이어, 2개의 풀링 레이어 및 1개의 완전 연결 레이어를 포함하되,
상기 콘볼루션 레이어 중 4개의 콘볼루션 레이어는 3개의 브랜치(branch)를 포함하고,
상기 브랜치 중 제1 브랜치 및 제3 브랜치에서 이용된 커널 사이즈는 1×1이고, 스트라이드 수는 1×1이고, 패딩 수는 0×0이고, 제2 브랜치에서 이용된 커널 사이즈는 3×3이고, 스트라이드 수는 1×1이고, 패딩 수는 1×1인 것을 특징으로 하는 신원 인식 방법.
In a method for an identity recognition device using a user's body based on deep learning to recognize an identity,
Generating a face image and a body image for the input image;
Extracting facial feature information from the face image through a facial neural network;
Extracting body feature information from the body image through a body neural network;
Calculating a fusion score according to the facial feature information and the body feature information; And
Including the step of generating identity recognition information according to the fusion score,
Further comprising the step of calculating a focus score for the face image,
Generating a face image and a body image for the input image
Generates a face image including a face region according to a predetermined algorithm for the input image,
A body image excluding a face region is generated for the input image,
The step of calculating a focus score for the face image
When the focus score is less than a predetermined threshold value, a face image for a new input image is re-divided and generated,
The focus score is
When a convolutional filter is applied to the face image, it is calculated as a value corresponding to a change in an offset value,
The step of calculating a fusion score according to the facial feature information and the body feature information
A step of calculating the face matching distance according to the facial feature information and the body matching distance according to the body feature information, respectively, and calculating the fusion score by applying a weight to the face matching distance and the body matching distance. ,
The facial neural network,
Includes 13 convolutional layers, 5 pooling layers and 3 fully connected layers,
The kernel size used in each of the convolutional layers is 3×3, the number of padding is 1, and the number of strides is 1,
The body neural network is
Including 5 convolutional layers, 2 pooling layers and 1 fully connected layer,
Four of the convolution layers include three branches,
Among the branches, the kernel size used in the first branch and the third branch is 1×1, the number of strides is 1×1, the number of padding is 0×0, and the kernel size used in the second branch is 3×3. , The number of strides is 1×1, and the number of paddings is 1×1.
삭제delete 삭제delete 삭제delete 삭제delete 제6항의 신원 인식 방법을 실행하는 컴퓨터가 판독 가능한 기록매체에 기록된 컴퓨터 프로그램.
A computer program recorded on a recording medium readable by a computer that executes the identification method of claim 6.
KR1020180081356A 2018-07-13 2018-07-13 Apparatus and method for identifying user using user body based on deep learning KR102161476B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180081356A KR102161476B1 (en) 2018-07-13 2018-07-13 Apparatus and method for identifying user using user body based on deep learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180081356A KR102161476B1 (en) 2018-07-13 2018-07-13 Apparatus and method for identifying user using user body based on deep learning

Publications (2)

Publication Number Publication Date
KR20200013271A KR20200013271A (en) 2020-02-07
KR102161476B1 true KR102161476B1 (en) 2020-10-06

Family

ID=69570298

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180081356A KR102161476B1 (en) 2018-07-13 2018-07-13 Apparatus and method for identifying user using user body based on deep learning

Country Status (1)

Country Link
KR (1) KR102161476B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102410564B1 (en) * 2020-09-22 2022-06-20 (주) 아하 Device and method for human recognition based on deep learning
CN112597850B (en) * 2020-12-15 2022-04-19 浙江大华技术股份有限公司 Identity recognition method and device
CN113591864B (en) * 2021-07-28 2023-04-07 北京百度网讯科技有限公司 Training method, device and system for text recognition model framework

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101302601B1 (en) * 2012-04-12 2013-08-30 오용길 Image processing apparatus for iris authentication and method thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101164228B1 (en) * 2010-05-26 2012-07-10 수원대학교산학협력단 A security system and a method using multiplex biometrics of face and body
KR102036963B1 (en) * 2017-01-03 2019-11-29 한국과학기술원 Method and system for robust face dectection in wild environment based on cnn

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101302601B1 (en) * 2012-04-12 2013-08-30 오용길 Image processing apparatus for iris authentication and method thereof

Also Published As

Publication number Publication date
KR20200013271A (en) 2020-02-07

Similar Documents

Publication Publication Date Title
CN109101919B (en) Method and apparatus for generating information
KR102161476B1 (en) Apparatus and method for identifying user using user body based on deep learning
KR101956071B1 (en) Method and apparatus for verifying a user
CN111539740B (en) Payment method, device and equipment
CN112258193A (en) Payment method and device
CN108429619A (en) Identity identifying method and system
KR102412832B1 (en) Method for training and testing obfuscation network for processing data to be obfuscated for privacy, and training device and testing device using them
KR102592551B1 (en) Object recognition processing apparatus and method for ar device
CN109145783B (en) Method and apparatus for generating information
US11048917B2 (en) Method, electronic device, and computer readable medium for image identification
KR102101221B1 (en) Apparatus and method for identifying based on gait using convolution neural network
KR20170003348A (en) Updating method and apparatus of registration database for user authentication
CN107731234A (en) A kind of method and device of authentication
CN109389098B (en) Verification method and system based on lip language identification
Monteiro et al. Development of voice spoofing detection systems for 2019 edition of automatic speaker verification and countermeasures challenge
KR102185979B1 (en) Method and apparatus for determining type of movement of object in video
CN110991278A (en) Human body action recognition method and device in video of computer vision system
CN111291668A (en) Living body detection method, living body detection device, electronic equipment and readable storage medium
CN111160251B (en) Living body identification method and device
CN113343247A (en) Biological characteristic identification counterattack sample attack safety evaluation method, system, device, processor and computer readable storage medium thereof
US20150371098A1 (en) Authentication device, authentication method and program storage medium
Senarath et al. BehaveFormer: A Framework with Spatio-Temporal Dual Attention Transformers for IMU-enhanced Keystroke Dynamics
WO2020009991A1 (en) Systems and methods for matching identity and readily accessible personal identifier information based on transaction timestamp
KR20190109772A (en) Apparatus and method for detection presentaion attack for face recognition system
CN114495903A (en) Language category identification method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant