KR20190076745A - Method for controlling gate using machine learning - Google Patents

Method for controlling gate using machine learning Download PDF

Info

Publication number
KR20190076745A
KR20190076745A KR1020170178802A KR20170178802A KR20190076745A KR 20190076745 A KR20190076745 A KR 20190076745A KR 1020170178802 A KR1020170178802 A KR 1020170178802A KR 20170178802 A KR20170178802 A KR 20170178802A KR 20190076745 A KR20190076745 A KR 20190076745A
Authority
KR
South Korea
Prior art keywords
image
passer
machine learning
visitor
learning
Prior art date
Application number
KR1020170178802A
Other languages
Korean (ko)
Inventor
김명희
박중현
Original Assignee
(주) 인하씨엔티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 인하씨엔티 filed Critical (주) 인하씨엔티
Priority to KR1020170178802A priority Critical patent/KR20190076745A/en
Publication of KR20190076745A publication Critical patent/KR20190076745A/en

Links

Images

Classifications

    • G07C9/00103
    • G06K9/00221
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C1/00Registering, indicating or recording the time of events or elapsed time, e.g. time-recorders for work people
    • G07C9/00079

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

According to an embodiment of the present invention, a visitor control method comprises: a visitor image generation process in which a camera photographs a gate defined between two objects facing each other and generates a visitor image of a visitor passing through the gate; a visitor image storage process in which a machine learning server stores the visitor image together with the time of access; an access information storage process in which the machine learning server classifies each visitor in the visitor image, extracts a visitor face image, and stores access information for each read visitor face image; a machine learning process in which the machine learning server determines whether a preset visitor classification condition is met using the access information, and stores a visitor face image corresponding to the visitor classification condition as learning data; a pre-registered person classification process in which the machine learning server classifies a visitor having the visitor face image as a pre-registered person when the visitor face image exists in preset learning data; and a new person classification process in which the machine learning server classifies a visitor having the visitor face image as a new person when the visitor face image does not exist in the preset learning data.

Description

기계학습 러닝을 통한 출입자 관제 방법{Method for controlling gate using machine learning}[0001] The present invention relates to a method for controlling access to a moving object,

본 발명은 출입자 관제 방법으로서, 기계학습 러닝을 통하여 출입자들을 관제할 수 있는 출입자 관제 방법에 관한 것이다.The present invention relates to a method for controlling an accessing person, which can control accessing persons through machine learning learning.

산업 현장에서는 다양한 작업 공정이 이루어지는 작업장들이 존재하게 된다. 또한 대형의 산업 현장일수록 주관사의 감독하에 다수의 협력사들이 작업을 진행하게 된다. 그런데 이러한 산업 현장에서 협력사들의 인원 관리가 효율적으로 이루어지지 않는 다음과 같은 문제가 있다.In the industrial field, there are workplaces where various work processes are performed. Also, the larger the industrial site, the more work will be carried out by many partner companies under the supervision of the supervisor. However, there are the following problems that the personnel management of partner companies is not efficient in such an industrial field.

각 작업장별로 어느 정도의 인원을 투입하여야 하는지 파악하기 어려운 문제가 있다. 감독자의 지시에 따라 각 작업장에 필요한 인원들이 투입되게 되는데, 경우에 따라서 작업 인원이 많이 필요하지 않은 현장에 너무 많은 인원이 투입되며 반면에 작업 인원이 많이 필요한 현장에 너무 적은 인원이 투입될 수 있다. 따라서 작업이 진행이 되는 중에 투입 인원의 재조정이 이루어져 작업 공정이 늦추어지는 문제가 있다.There is a problem that it is difficult to understand how much personnel should be input for each workplace. According to the supervisor's instructions, the necessary personnel are input into each workplace. In some cases, too many personnel are input to the site where a large number of workers are not needed, while too few persons are input to a site requiring a large number of workers . Therefore, there is a problem in that the work process is delayed due to the readjustment of the input personnel during the work progress.

또한, 산업 현장의 인원관리에 있어서 현재는 각 협력사의 출력 일지 및 일일 작업 일지에 의존하여 관리하거나 현장의 안전 관리자에 의해서 인원 파악이 이루어지고 있는데, 이러한 작업 일지 등에 의한 출입 관리가 근로자의 출입 상태, 건강 상태 및 이력에 의한 관리가 효율적으로 이루어지지 않을 수 있다. 특히 여러 협력 업체의 작업에 의하여 대형 공정이 진행되는 산업 현장의 경우, 각각의 협력사 인원들이 계획된 인원이 정확하게 산업 현장에 투입되었는지를 파악하기 어렵다. 따라서 이로 인하여 나중에 주관사와 협력사 간에 투입 인원에 대한 분쟁이 발생하기도 한다.In addition, in the management of personnel at the industrial site, the management is dependent on the output log of each partner company and the daily work log, or the personnel is identified by the safety manager at the site. Access control by the work log, , Management by health status and history may not be efficiently performed. Especially, in the case of industrial sites where large-scale processes are carried out by the work of several partner companies, it is difficult to grasp whether each of the employees of the partner company correctly put the planned personnel into the industrial site. As a result, disputes may arise between the supervisor and the supplier later on.

특히 폐쇄된 공간이 아닌 오픈된 산업 현장의 공간에 출입할 수 있는 출입구에서의 출입인원의 존재 및 출입자 확인이 어려운 문제가 있다.In particular, there is a problem that it is difficult to confirm the presence of the passengers at the entrance and the passengers who can enter the open industrial space, not the closed space.

한국등록번호 제10-1435572호Korean Registration No. 10-1435572

본 발명의 기술적 과제는 기계학습 러닝을 통하여 출입자들을 효율적으로 관제할 수 있는 출입자 관제 수단을 제공하는데 있다.The technical problem of the present invention is to provide an access control means capable of efficiently controlling the passengers through machine learning learning.

본 발명의 실시 형태는 카메라가, 서로 마주보는 두 개의 물체 사이로 정의되는 게이트를 촬영하여 게이트를 통과하는 출입자를 촬영한 출입자 영상을 생성하는 출입자 영상 생성 과정; 기계학습 러닝 서버가, 상기 출입자 영상을 출입 시간과 함께 저장하는 출입자 영상 저장 과정; 상기 기계학습 러닝 서버가, 상기 출입자 영상에서 각각의 출입자를 분류하여, 출입자 얼굴 이미지를 추출하여, 판독되는 출입자 얼굴 이미지별로 출입 정보를 저장하는 출입 정보 저장 과정; 상기 기계학습 러닝 서버가, 상기 출입 정보를 이용하여 미리 설정된 출입자 분류 조건을 충족시키는지를 판단하여 출입자 분류 조건에 충족되는 출입자 얼굴 이미지를 러닝 데이터로 저장하는 기계학습 러닝 과정; 상기 출입자 얼굴 이미지가 미리 설정된 러닝 데이터에 존재하는 경우, 상기 기계학습 러닝 서버가, 상기 출입자 얼굴 이미지를 가지는 출입자를 기등록 인력으로 분류하는 기등록 인력 분류 과정; 및 상기 출입자 얼굴 이미지가 미리 설정된 러닝 데이터에 존재하지 않는 경우, 상기 기계학습 러닝 서버가, 상기 출입자 얼굴 이미지를 가지는 출입자를 신규 인력으로 분류하는 신규 인력 분류 과정;을 포함할 수 있다.The camera of the present invention may include a moving image generating step of generating a moving image of a person who has photographed a gate passing through a gate by photographing a gate defined between two objects facing each other; A machine learning learning server for storing the accessing image together with the access time; An access information storing step of the machine learning learning server classifying each of the passers by the passer-by image, extracting the passer-bye face image, and storing access information for each of the passer-bye face images to be read; A machine learning learning process for determining whether the machine learning learning server meets a preset accessor classification condition using the access information and storing the entrance face image satisfying the entry classification condition as learning data; Wherein the machine learning learning server classifies a passenger having the entrance face image as a registered entry force if the entrance face image exists in preset running data; And a new manpower classifying step of classifying the machine learning learning server as a new manpower if the entrance face image is not present in the preset running data.

상기 출입자 분류 조건은, 출입횟수 분류조건, 출입 시간대 출입자 분류 조건을 포함할 수 있다.The passenger classification condition may include an access frequency classification condition and an entry-time passenger classification condition.

상기 출입횟수 분류조건은, 미리 설정된 출입횟수를 초과하는 출입자 얼굴 이미지를 충족시키는 조건이며, 상기 출입 시간대 출입자 분류 조건은, 미리 설정된 시간대에 출입한 경험이 있는 출입자 얼굴 이미지를 충족시키는 조건임을 특징으로 할 수 있다.Wherein the access frequency classification condition is a condition that satisfies an entrance face image that exceeds a preset access count and the access time classification type condition satisfies an entrance face image having an entrance / can do.

상기 출입자 영상 생성 과정은, 두 개의 물체 사이의 게이트에 통과하기 전의 출입자 영상인 통과전 출입자 영상과, 두 개의 물체 사이의 게이트에 통과하는 출입자 영상인 통과중 출입자 영상과, 두 개의 물체 사이의 게이트를 통과한 후의 출입자 영상인 통과후 출입자 영상을 생성할 수 있다.The passenger image generating process includes a passer-and -resser image, which is an entrance image before passing through a gate between two objects, a passer -by image that is an entrance image passing through a gate between two objects, a gate between two objects, It is possible to generate a viewer image after passing through the viewer image.

상기 출입자 영상 저장 과정은, 상기 통과전 출입자 영상, 통과중 출입자 영상, 및 통과후 출입자 영상을 각 출입자 별로 하나의 그룹으로 하여 함께 저장함을 특징으로 할 수 있다.The passenger image storage process may include storing the passer-by-passer image, passer-by image, passer-by image, and passer-by image image into a group for each passenger.

기 출입자 얼굴 이미지 추출 과정은, 상기 통과전 출입자 영상에 있는 출입자들을 각각 식별하여 통과전 출입자 얼굴 이미지로서 추출하고, 상기 통과중 출입자 영상에 있는 출입자들을 각각 식별하여 통과중 출입자 얼굴 이미지로서 추출하고, 상기 통과후 출입자 영상에 있는 출입자들을 각각 식별하여 통과후 출입자 얼굴 이미지로서 추출할 수 있다.The passer-by-passer image extraction process identifies each of the passers-by in the passer-by-passer image as the passer-by-passer face image, extracts the passer-by-passer image as passer- The passengers in the passenger image after the passing can be respectively identified and extracted as passenger face images after pass.

상기 출입자 분류 조건은, 통과전 출입자 얼굴 이미지의 얼굴 표정, 통과중 출입자 얼굴 이미지의 얼굴 표정, 및 통과후 출입자 얼굴 이미지의 얼굴 표정 간의 유사율에 대한 조건이며, 상기 기계학습 러닝 과정은, 상기 유사율이 미리 설정된 허용 오차 범위 내에 있는 경우 정상적인 출입자로 판단하여 러닝 데이터로 저장하며, 반면에 유사율이 허용 오차 범위를 벗어난 경우 허가받지 않은 출입자로 판단하여 러닝 데이터로 저장하지 않음을 특징으로 할 수 있다.Wherein the passenger classification condition is a condition for a similarity rate between a facial expression of a passer-by-pass facial image, a facial expression of a passer-by-pass facial image, and a facial expression of a passer-by facial image after passage, If the rate is within the predetermined tolerance range, it is determined that the user is a normal person and stored as running data. On the other hand, if the similarity rate is out of the allowable error range, have.

본 발명의 실시 형태에 따르면 기계학습 러닝을 통하여 신규 인력과 기존 인력을 분류함으로써, 출입 관제를 효율적으로 할 수 있다. 또한 본 발명의 실시 형태에 따르면 설정된 보안 구역을 통과하는 출입자의 출입 동선의 얼굴 패턴을 학습하여 출입 관제를 효율적으로 할 수 있다.According to the embodiment of the present invention, access control can be efficiently performed by classifying new manpower and existing manpower through machine learning learning. Also, according to the embodiment of the present invention, it is possible to efficiently perform the access control by learning the face pattern of the entrance and exit lines of the passerby passing through the set security zone.

도 1은 본 발명의 실시예에 따른 기계학습 러닝을 통한 출입자 관제 시스템의 구성도.
도 2는 본 발명의 실시예에 따른 카메라가 설치된 모습을 도시한 그림.
도 3은 본 발명의 실시예에 따른 통과전 출입자 영상을 도시한 그림.
도 4는 본 발명의 실시예에 따른 통과중 출입자 영상을 도시한 그림.
도 5는 본 발명의 실시예에 따른 통과후 출입자 영상을 도시한 그림.
도 6은 본 발명의 실시예에 따라 신규 인력 판단시의 경고 알람을 발생하는 모습을 도시한 그림.
도 7은 본 발명의 실시예에 따른 기계학습 러닝을 통한 출입자 관제 과정들을 도시한 플로차트.
1 is a block diagram of an access control system through machine learning learning according to an embodiment of the present invention;
2 is a view showing a state where a camera is installed according to an embodiment of the present invention.
3 is a view showing a pre-passenger image according to an embodiment of the present invention.
4 is a view showing a passenger image during passage according to an embodiment of the present invention.
FIG. 5 is a view showing a passenger image after passage according to the embodiment of the present invention. FIG.
6 is a view showing a state in which a warning alarm is generated when a new manpower is judged according to an embodiment of the present invention.
FIG. 7 is a flowchart illustrating an access control process through machine learning learning according to an embodiment of the present invention; FIG.

이하, 본 발명의 장점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은, 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것으로, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 또한, 본 발명을 설명함에 있어 관련된 공지 기술 등이 본 발명의 요지를 흐리게 할 수 있다고 판단되는 경우 그에 관한 자세한 설명은 생략하기로 한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and how to achieve them, will be apparent from the following detailed description of embodiments thereof taken in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the exemplary embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete and will fully convey the concept of the invention to those skilled in the art. And the present invention is only defined by the scope of the claims. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

도 1은 본 발명의 실시예에 따른 기계학습 러닝을 통한 출입자 관제 시스템의 구성도이며, 도 2는 본 발명의 실시예에 따른 카메라가 설치된 모습을 도시한 그림이며, 도 3은 본 발명의 실시예에 따른 통과전 출입자 영상을 도시한 그림이며, 도 4는 본 발명의 실시예에 따른 통과중 출입자 영상을 도시한 그림이며, 도 5는 본 발명의 실시예에 따른 통과후 출입자 영상을 도시한 그림이며, 도 6은 본 발명의 실시예에 따라 신규 인력 판단시의 경고 알람을 발생하는 모습을 도시한 그림이다.FIG. 1 is a configuration diagram of a user access control system through machine learning learning according to an embodiment of the present invention. FIG. 2 is a diagram illustrating a camera installed according to an embodiment of the present invention. FIG. 4 is a view showing a passenger image during passage according to an embodiment of the present invention, and FIG. 5 is a view showing a passenger image after passing according to an embodiment of the present invention FIG. 6 is a diagram illustrating a state in which a warning alarm is generated when a new manpower is determined according to an embodiment of the present invention.

본 발명의 출입자 관제 시스템은, 도 1에 도시한 바와 같이 카메라(100) 및 기계학습 러닝 서버(200)를 포함한다.The access control system of the present invention includes a camera 100 and a machine learning learning server 200 as shown in Fig.

카메라(100)는, 서로 마주보는 두 개의 물체 사이로 정의되는 게이트를 촬영하여 게이트를 통과하는 출입자를 촬영한 출입자 영상을 생성하는 모듈이다. 즉, 여기서 마주보는 두 개의 물체라 함은 마주보고 있는 책상, 마주보고 있는 화분, 마주보고 있는 광고 기둥체, 서류함 캐비넷 등이 해당될 수 있다. 따라서 도 2에 도시한 바와 같이 마주보는 두 개의 물체가 서류함 캐비넷이라 할 경우, 두 개의 마주보는 서류함 캐비넷의 상측에 카메라(100)가 위치하여 서류함 캐비넷의 사이를 촬영한다. The camera 100 is a module for photographing a gate defined between two objects facing each other and generating an entrance image of a person who has taken a pass through the gate. That is, the two facing objects may be a facing desk, a flowerpot facing each other, a facing advertising column, a cabinet of a paper box, and the like. Accordingly, when two opposing objects are referred to as a cabinet cabinet, as shown in FIG. 2, the camera 100 is positioned on the upper side of two cabinet cabinets facing each other to photograph the cabinets between the cabinets.

이러한 촬영되는 출입자 영상은, 도 3에 도시한 바와 같이 두 개의 물체 사이의 게이트에 통과하기 전의 출입자 영상(이하, '통과전 출입자 영상'이라 함)과, 도 4에 도시한 바와 같이 두 개의 물체 사이의 게이트에 통과하는 출입자 영상(이하, '통과중 출입자 영상'이라 함)과, 도 5에 도시한 바와 같이 두 개의 물체 사이의 게이트를 통과한 후의 출입자 영상(이하, '통과후 출입자 영상'이라 함)이 해당될 수 있다. As shown in Fig. 3, the image of the person to be photographed includes a passenger image before passing through the gate between two objects (hereinafter referred to as a passer-and-passer image) and two objects (Hereinafter, referred to as " passer-by image ") passing through the gate between the two objects, as shown in Fig. 5, and a passer- ) May be applied.

따라서 카메라(100)는, 두 개의 물체 사이의 게이트에 통과하기 전의 출입자 영상을 촬영하여 통과전 출입자 영상과, 또한 두 개의 물체 사이의 게이트에 통과하는 통과중 출입자 영상과, 또한 두 개의 물체 사이의 게이트를 통과한 후의 통과후 출입자 영상을 각각 생성할 수 있다.Therefore, the camera 100 photographs the entrance image before passing through the gate between the two objects, and calculates the distance between the entrance and exit entrance image and the passenger entrance image passing through the gate between the two objects, After passing through the gate, passenger images can be generated respectively.

이러한 통과전 출입자 영상(도 3), 통과중 출입자 영상(도 4), 및 통과후 출입자 영상(도 5)은 각각의 순간에 촬영되는 사진일 수 있으며, 또는 두 개의 물체 사이를 통과전부터 통과후까지 촬영되는 동영상을 통하여, 동영상 내에서 각각의 통과전 출입자 영상, 통과중 출입자 영상, 및 통과후 출입자 영상이 추출될 수 있다.The passer-by-pass image (FIG. 3), the passer-by image during pass (FIG. 4), and the passer-by image (FIG. 5) may be photographed at respective moments, The passer-by-passer image, the passer-by image in pass, and the passer-in image in the moving image can be extracted through the moving image photographed up to the passer-by.

촬영되는 출입자 영상은, 유선 통신 또는 무선 통신을 통하여 기계학습 러닝 서버(200)로 전송될 수 있는데, 예컨대, 이더넷(Ethernet), 범용 직렬 버스(Universal Serial Bus), IEEE 1394, 직렬통신(serial communication) 및 병렬 통신(parallel communication)과 같은 유선 통신 방식이 사용될 수 있으며, 적외선 통신(Infrared Radiation), 블루투스(Bluetooth), 홈 RF(Radio Frequency) 및 무선 랜(Wireless LAN)과 같은 무선 통신 방식이 사용될 수 있다. The photographed impersonator image can be transmitted to the machine learning running server 200 through a wired communication or a wireless communication. For example, an Ethernet, a universal serial bus, an IEEE 1394, a serial communication And wireless communication methods such as infrared communication, Bluetooth, home radio frequency (RF), and wireless LAN may be used. .

참고로, 여기서 카메라(100)는, 렌즈 어셈블리, 필터, 광전 변환 모듈, 및 아날로그/디지털 변환 모듈을 포함할 수 있다. 렌즈 어셈블리는 줌 렌즈, 포커스 렌즈 및 보상 렌즈를 포함한다. 포커스 모터(MF)의 제어에 따라 렌즈의 촛점 거리가 이동될 수 있다. 필터는, 광학적 저역통과필터(Optical Low Pass Filter)와. 적외선 차단 필터(Infra-Red cut Filter)를 포함할 수 있다. 광학적 저역통과필터(Optical Low Pass Filter)로서 고주파 성분의 광학적 노이즈를 제거하며, 적외선 차단 필터(Infra-Red cut Filter)는 입사되는 빛의 적외선 성분을 차단한다. 광전 변환 모듈은 CCD(Charge Coupled Device) 또는 CMOS(Complementary Metal-Oxide- Semiconductor) 등의 촬상 소자를 포함하여 이루어질 수 있다. 광전 변환 모듈은 광학계(OPS)로부터의 빛을 전기적 아날로그 신호로 변환시킨다. 아날로그/디지털 변환 모듈은 CDS-ADC(Correlation Double Sampler and Analog-to-Digital Converter) 소자를 포함하여 이루어질 수 있다. 아날로그/디지털 변환 모듈(미도시)은 광전 변환 모듈(OEC)로부터의 아날로그 신호를 처리하여, 그 고주파 노이즈를 제거하고 진폭을 조정한 후, 디지털 신호로 변환시킨다.For reference, the camera 100 may include a lens assembly, a filter, a photoelectric conversion module, and an analog / digital conversion module. The lens assembly includes a zoom lens, a focus lens, and a compensation lens. The focus distance of the lens can be shifted under the control of the focus motor MF. The filters include an optical low pass filter and an optical low pass filter. And may include an Infra-Red Cut Filter. An optical low-pass filter removes the high-frequency component of optical noise, while the Infra-Red cut filter blocks the infrared component of incident light. The photoelectric conversion module may include an image pickup device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide-Semiconductor). The photoelectric conversion module converts light from the optical system (OPS) into an electrical analog signal. The analog / digital conversion module may include a CDS-ADC (Correlation Double Sampler and Analog-to-Digital Converter) device. An analog / digital conversion module (not shown) processes an analog signal from the photoelectric conversion module OEC, removes the high-frequency noise, adjusts the amplitude, and converts the analog signal into a digital signal.

기계학습 러닝 서버(200)는, 하드웨어적으로는 통상적인 웹 서버와 동일한 구성을 가지며, 소프트웨어적으로는 C, C++, Java, Visual Basic, Visual C 등과 같은 다양한 형태의 언어를 통해 구현되어 여러 가지 기능을 하는 프로그램 모듈을 포함한다. 또한, 일반적인 서버용 하드웨어에 도스(dos), 윈도우(window), 리눅스(linux), 유닉스(unix), 매킨토시(macintosh) 등의 운영 체제에 따라 다양하게 제공되고 있는 웹 서버 프로그램을 이용하여 구현될 수 있으며, 대표적인 것으로는 윈도우 환경에서 사용되는 웹사이트(website), IIS(Internet Information Server)와 유닉스 환경에서 사용되는 CERN, NCSA, APPACH 등이 이용될 수 있다.The machine learning learning server 200 has the same configuration as that of a typical web server in terms of hardware and is implemented in various types of languages such as C, C ++, Java, Visual Basic, Visual C, And a program module which functions as a program module. In addition, it can be implemented using a web server program that is variously provided according to operating systems such as dos, window, linux, unix, and macintosh for general server hardware. Typical examples include a Web site used in a Windows environment, Internet Information Server (IIS), and CERN, NCSA, and APPACH used in a UNIX environment.

기계학습 러닝 서버(200)는, 딥러닝 등과 같은 기계학습 러닝을 수행하는 서버로서, 여기서, 딥러닝(deep learning)이라 함은, 공지된 바와 같이, 컴퓨터가 여러 데이터를 이용해 마치 사람처럼 스스로 학습할 수 있게 하기 위해 인공 신경망(ANN: artificial neural network)을 기반으로 구축한 한 기계 학습 기술이다. 딥러닝은 인간의 두뇌가 수많은 데이터 속에서 패턴을 발견한 뒤 사물을 구분하는 정보처리 방식을 모방해 컴퓨터가 사물을 분별하도록 기계를 학습시킨다. 딥러닝 기술을 적용하면 사람이 모든 판단 기준을 정해주지 않아도 컴퓨터가 스스로 인지/추론/판단할 수 있게 된다. The machine learning learning server 200 is a server for performing machine learning learning such as deep learning and the like. Here, deep learning is a technique in which a computer uses various data to learn Is a machine learning technology based on an artificial neural network (ANN). Deep Learning is a machine in which a human brain finds patterns in a large number of data and then implements the information processing method of distinguishing objects so that the computer can distinguish objects. Deep learning technology allows computers to recognize, reason, and judge themselves without having to set all criteria.

이와 같이 딥러닝 기술은 음성 인식, 이미지 인식, 및 사진 분석 등에 광범위하게 활용되는데, 본 발명의 기계학습 러닝 서버(200)는 립러닝과 같은 기계학습 러닝을 통하여 마주보는 두 개의 물체 사이를 통과하는 출입자의 출입 패턴을 기계학습 러닝한다.As described above, the deep learning technique is widely used for voice recognition, image recognition, and photo analysis. The machine learning learning server 200 of the present invention is a system that allows a machine learning run such as lip learning to pass between two opposing objects Run the machine's access pattern of the passengers.

이를 위하여, 기계학습 러닝 서버(200)가, 출입자 영상을 출입 시간과 함께 저장체에 저장한다. 여기서 저장체는, 하드디스크 드라이브(Hard Disk Drive), SSD 드라이브(Solid State Drive), 플래시메모리(Flash Memory), CF카드(Compact Flash Card), SD카드(Secure Digital Card), SM카드(Smart Media Card), MMC 카드(Multi-Media Card) 또는 메모리 스틱(Memory Stick) 등 정보의 입출력이 가능한 모듈로서 장치의 내부에 구비되어 있을 수도 있고, 별도의 장치에 구비되어 있을 수도 있다.To this end, the machine learning learning server 200 stores the entrance image together with the entrance and exit time in the storage unit. Here, the storage body may be a hard disk drive, an SSD drive (Solid State Drive), a flash memory, a CF card (Compact Flash Card), an SD card (Secure Digital Card) Card, an MMC card (Multi-Media Card), a memory stick, and the like, or may be provided in a separate device.

그리고 기계학습 러닝 서버(200)는, 출입자 영상에서 각각의 출입자를 분류하여, 출입자 얼굴 이미지를 추출하여, 판독되는 출입자 얼굴 이미지별로 출입 정보를 저장한다. 그리고 출입 정보를 이용하여 미리 설정된 출입자 분류 조건을 충족시키는지를 판단하여 출입자 분류 조건에 충족되는 출입자 얼굴 이미지를 러닝 데이터로 저장한다.The machine learning learning server 200 classifies each participant in the participant image, extracts the participant's face image, and stores the entrance information for each participant's face image to be read. Then, using the access information, it is judged whether or not the predetermined accessor classification condition is satisfied, and the image of the face of the passenger which satisfies the passenger classification condition is stored as the running data.

그 후 출입자 얼굴 이미지가 미리 설정된 러닝 데이터에 존재하는 경우, 기계학습 러닝 서버(200)는, 출입자 얼굴 이미지를 가지는 출입자를 기등록 인력으로 분류한다. 반면에 출입자 얼굴 이미지가 미리 설정된 러닝 데이터에 존재하지 않는 경우, 기계학습 러닝 서버(200)는, 출입자 얼굴 이미지를 가지는 출입자를 신규 인력으로 분류한다.Thereafter, when the entrance face image exists in the preset running data, the machine learning running server 200 classifies the entrance attendant having the entrance face image as the original registration work. On the other hand, when the passenger face image is not present in the preset running data, the machine learning running server 200 classifies the passenger having the passenger face image as a new human attraction.

따라서 기계학습 러닝 서버(200)는, 카메라(100)를 통해 인식되는 출입자 영상을 기계학습 러닝을 통해 분석하여, 기등록 인력인지 신규 인력인지 판단하고, 그에 따른 적절한 대처를 수행할 수 있다. 예를 들어, 카메라(100)를 통해 인식되는 출입자 영상을 기계학습 러닝을 통해 분석한 결과, 신규 인력이 검출되는 경우 출입 시간과 출입 영상을 저장하고 이를 보안 관리자 단말기에 실시간으로 모니터링 통보하여 즉각적인 조치가 이루어질 수 있도록 한다. 여기서 보안 관리자 단말기는, 스마트폰(smart phone), 데스크탑 PC(desktop PC), 태블릿 PC(tablet PC), 슬레이트 PC(slate PC), 노트북 컴퓨터(notebook computer) 등이 해당될 수 있다. 물론, 본 발명이 적용 가능한 단말기는 상술한 종류에 한정되지 않고, 외부 장치와 통신이 가능한 단말기를 모두 포함할 수 있음은 당연하다.Therefore, the machine learning running server 200 can analyze the entrance image recognized through the camera 100 through machine learning learning, determine whether it is a pre-registration work force or a new work force, and perform appropriate countermeasures accordingly. For example, when an image of a passenger recognized through the camera 100 is analyzed through machine learning learning, when a new manpower is detected, an access time and an entrance image are stored, and the security manager terminal is notified in real- . Here, the security administrator terminal may be a smart phone, a desktop PC, a tablet PC, a slate PC, a notebook computer, and the like. Of course, it is needless to say that the terminal to which the present invention is applicable is not limited to the above-described type, but may include both terminals capable of communicating with external devices.

또한 기계학습 러닝 서버(200)는, 카메라(100)를 통해 인식되는 출입자 영상을 기계학습 러닝을 통해 분석한 결과, 신규 인력이 검출되는 경우 도 6에 도시한 바와 같이 알람 경고하여 현장 보안 요원이 해당 인력을 확인할 수 있게 된다.Also, the machine learning running server 200 analyzes the entrance image recognized through the camera 100 through the machine learning learning. When the new work attraction is detected, the machine learning learning server 200 generates an alarm warning as shown in FIG. 6, The workforce can be identified.

한편, 기계학습 러닝 서버(200)가, 미리 설정된 출입자 분류 조건을 충족시키는 출입자 얼굴 이미지를 러닝 데이터로 저장함에 있어서, 출입자 분류조건은, 출입횟수 분류조건, 출입 시간대 출입자 분류 조건 등이 해당될 수 있다.On the other hand, when the machine learning learning server 200 stores the entrance face image that satisfies the preset entrance classifying condition as the running data, the entrance classifying condition may be the entry / exit number classifying condition, the entrance time class / have.

여기서 출입횟수 분류조건은, 미리 설정된 출입횟수를 초과하는 출입자 얼굴 이미지를 충족시키는 조건을 말하며, 출입 시간대 출입자 분류 조건은, 미리 설정된 시간대에 출입한 경험이 있는 출입자 얼굴 이미지를 충족시키는 조건을 말한다.Herein, the access frequency classification condition is a condition that satisfies the entrance face image that exceeds the preset access count, and the access time time access classification condition is a condition that satisfies the entrance face image having an experience of entering and leaving in a predetermined time zone.

도 7은 본 발명의 실시예에 따른 기계학습 러닝을 통한 출입자 관제 과정들을 도시한 플로차트이다.FIG. 7 is a flowchart illustrating an access control process through machine learning learning according to an embodiment of the present invention.

본 발명의 기계학습 러닝을 통한 출입자 관제 방법은, 도 7에 도시한 바와 같이 출입자 영상 생성 과정(S710), 출입자 영상 저장 과정(S720), 출입 정보 저장 과정(S730), 기계학습 러닝 과정(S740), 기등록 인력 분류 과정(S750), 및 신규 인력 분류 과정(S760)을 포함할 수 있다.7, the method for controlling a visitor through machine learning learning includes steps S710, S720, S730, S740, (S750), and a new manpower classification process (S760).

출입자 영상 생성 과정(S710)은, 카메라(100)가, 서로 마주보는 두 개의 물체 사이로 정의되는 게이트를 촬영하여 게이트를 통과하는 출입자를 촬영한 출입자 영상을 생성하는 과정이다. 즉, 관리자에 의해 설정되는 특정 지점을 게이트로 정의하고 이를 통과하는 출입자를 촬영하여 출입자 영상을 생성한다. 이를 위해 서로 마주 보는 책상, 서로 마주보는 광고 기둥체, 서로 마주보는 화분의 사이를 게이트, 서로 마주보는 서류함 캐비넷 등으로 정의하고, 정의된 게이트 영역 주변을 카메라(100)를 통해 촬영하여 출입자 영상을 생성한다. 예를 들어, 도 2는 마주보는 서류함 캐비넷의 사이를 촬영하는 카메라(100)를 도시한 것이다.The passenger image generation process S710 is a process in which the camera 100 captures a gate defined between two objects opposed to each other and generates a passer-by image of a passenger who has passed through the gate. That is, a specific point set by the administrator is defined as a gate, and a passer-by is passed through to define an entrance image. For this purpose, it is defined as a desk facing each other, an opposing advertisement column facing each other, a gate between the facing pots, a cabinet for facing each other, and the like, and the vicinity of the defined gate area is photographed through the camera 100, . For example, FIG. 2 illustrates a camera 100 that photographs between facing cabinet cabinets.

출입자 영상 저장 과정(S720)은, 기계학습 러닝 서버(200)가, 출입자 영상을 출입 시간과 함께 저장하는 과정이다.The passenger image storage process (S720) is a process in which the machine learning running server 200 stores the passenger image together with the access time.

출입 정보 저장 과정(S730)은, 기계학습 러닝 서버(200)가, 출입자 영상에서 각각의 출입자를 분류하여, 출입자 얼굴 이미지를 추출하여, 판독되는 출입자 얼굴 이미지별로 출입 정보를 저장하는 과정이다. 공지되어 있는 얼굴 인식 알고리즘을 통하여 출입자 영상에서 사람 얼굴만을 판독하여 출입자 얼굴 이미지로서 추출한 후, 판독되는 출입자 얼굴 이미지별로 출입 정보를 저장하는 것이다. 따라서 출입자 얼굴 이미지별로 출입횟수, 출입시간 등의 출입 정보가 저장된다.The accessing information storing process S730 is a process in which the machine learning learning server 200 classifies each of the passengers in the passenger image, extracts the passenger face image, and stores access information for each passenger face image to be read. A human face is read out from the entrance image through a known face recognition algorithm to extract the entrance face image as an entrance face image and then the entrance information is stored for each entrance face image to be read. Therefore, entrance and exit information such as the number of times of entrance and exit, and access time are stored for each face image of the passer-by.

기계학습 러닝 과정(S740)은, 기계학습 러닝 서버(200)가, 출입자 출입 정보를 이용하여 미리 설정된 출입자 분류 조건을 충족시키는지를 판단하여 출입자 분류 조건에 충족되는 출입자 얼굴 이미지를 러닝 데이터로 저장하는 과정이다.In the machine learning learning process (S740), the machine learning learning server 200 determines whether or not the user class information satisfies a predetermined user classification condition by using the access information, and stores the image of the participant's face that satisfies the user classification condition as learning data Process.

여기서 출입자 분류조건은, 출입횟수 분류조건, 출입 시간대 출입자 분류 조건 등이 해당될 수 있다.Here, the accessor classification condition may correspond to the access frequency classification condition, the access time class importer classification condition, and the like.

여기서 출입횟수 분류조건은, 미리 설정된 출입횟수를 초과하는 출입자 얼굴 이미지를 충족시키는 조건을 말한다. 예를 들어, 미리 설정된 출입 횟수가 '3회 출입 횟수'로 설정된 경우, 3회를 초과하여 출입한 경험이 있는 출입자의 출입 정보는 러닝 데이터로 저장되며, 반면에 3회 이하로 출입한 경험이 있는 출입자의 출입 정보는 러닝 데이터로 저장되지 않는다.Here, the access frequency classification condition is a condition that satisfies the entrance face image that exceeds the preset access frequency. For example, if the preset number of accesses is set to '3 times accesses', access information of a user who has accessed more than 3 times is stored as running data, whereas if the user has accessed 3 times or less The access information of the accessing person is not stored as running data.

또한 출입 시간대 출입자 분류 조건은, 미리 설정된 시간대에 출입한 경험이 있는 출입자 얼굴 이미지를 충족시키는 조건이다. 예를 들어, 오전 9시에서 오후 5시에 사이에 출입한 경험이 있는 출입자의 출입 정보는 러닝 데이터로 저장되며, 반면에 오전 9시에서 오후 5시에 사이가 아닌 다른 시간에 출입한 경험이 있는 출입자의 출입 정보는 러닝 데이터로 저장되지 않는다.The access time class visitor classification condition is a condition that satisfies the passenger face image that has been accessed in the predetermined time zone. For example, access information of a passenger who has been in the session between 9:00 am and 5:00 pm is stored as running data, while access to the session is different from 9:00 am to 5:00 pm The access information of the accessing person is not stored as running data.

기등록 인력 분류 과정(S750)은, 출입자 얼굴 이미지가 미리 설정된 러닝 데이터에 존재하는 경우, 상기 기계학습 러닝 서버(200)가, 상기 출입자 얼굴 이미지를 가지는 출입자를 기등록 인력으로 분류하는 과정이다.In the pre-registered manpower classifying process (S750), when the entrance face image exists in the preset running data, the machine learning running server 200 classifies the entrance person having the entrance face image as the registered entry man.

신규 인력 분류 과정(S760)은, 출입자 얼굴 이미지가 미리 설정된 러닝 데이터에 존재하지 않는 경우, 상기 기계학습 러닝 서버(200)가, 출입자 얼굴 이미지를 가지는 출입자를 신규 인력으로 분류하는 과정이다.The new manpower classification process S760 is a process in which the machine learning running server 200 classifies a passenger having an entrance face image as a new manpower when the entrance face image is not present in the preset running data.

따라서 기계학습 러닝 서버(200)는, 카메라(100)를 통해 인식되는 출입자 영상을 기계학습 러닝을 통해 분석하여, 기등록 인력인지 신규 인력인지 판단하고, 그에 따른 적절한 대처를 수행할 수 있다. 예를 들어, 카메라(100)를 통해 인식되는 출입자 영상을 기계학습 러닝을 통해 분석한 결과, 신규 인력이 검출되는 경우 출입 시간과 출입 영상을 저장하고 이를 보안 관리자 단말기에 실시간으로 모니터링 통보하여 즉각적인 조치가 이루어질 수 있도록 한다. Therefore, the machine learning running server 200 can analyze the entrance image recognized through the camera 100 through machine learning learning, determine whether it is a pre-registration work force or a new work force, and perform appropriate countermeasures accordingly. For example, when an image of a passenger recognized through the camera 100 is analyzed through machine learning learning, when a new manpower is detected, an access time and an entrance image are stored, and the security manager terminal is notified in real- .

또한 기계학습 러닝 서버(200)는, 카메라(100)를 통해 인식되는 출입자 영상을 기계학습 러닝을 통해 분석한 결과, 신규 인력이 검출되는 경우 도 6에 도시한 바와 같이 알람 경고하여 현장 보안 요원이 해당 인력을 확인할 수 있게 된다.Also, the machine learning running server 200 analyzes the entrance image recognized through the camera 100 through the machine learning learning. When the new work attraction is detected, the machine learning learning server 200 generates an alarm warning as shown in FIG. 6, The workforce can be identified.

한편, 촬영되는 출입자 영상은, 도 3에 도시한 바와 같이 두 개의 물체 사이의 게이트에 통과하기 전의 출입자 영상(이하, '통과전 출입자 영상'이라 함)과, 도 4에 도시한 바와 같이 두 개의 물체 사이의 게이트에 통과하는 출입자 영상(이하, '통과중 출입자 영상'이라 함)과, 도 5에 도시한 바와 같이 두 개의 물체 사이의 게이트를 통과한 후의 출입자 영상(이하, '통과후 출입자 영상'이라 함)이 해당될 수 있다. On the other hand, as shown in Fig. 3, the image of a person to be photographed is divided into a passenger image before passing through the gate between two objects (hereinafter referred to as a passer-and-passer image) (Hereinafter referred to as " passer-by image ") passing through a gate between objects, and a passenger image after passing through a gate between two objects as shown in Fig. 5 ') Can be applied.

따라서 카메라(100)는, 두 개의 물체 사이의 게이트에 통과하기 전의 출입자 영상을 촬영하여 통과전 출입자 영상과, 또한 두 개의 물체 사이의 게이트에 통과하는 통과중 출입자 영상과, 또한 두 개의 물체 사이의 게이트를 통과한 후의 통과후 출입자 영상을 각각 생성할 수 있다.Therefore, the camera 100 photographs the entrance image before passing through the gate between the two objects, and calculates the distance between the entrance and exit entrance image and the passenger entrance image passing through the gate between the two objects, After passing through the gate, passenger images can be generated respectively.

따라서 출입자 영상 저장 과정(S720)은, 이러한 통과전 출입자 영상(도 3), 통과중 출입자 영상(도 4), 및 통과후 출입자 영상(도 5)은 각 출입자 별로 하나의 그룹으로 하여 함께 저장할 수 있다. 출입자 얼굴 이미지 추출 과정은, 통과전 출입자 영상에 있는 출입자들을 각각 식별하여 통과전 출입자 얼굴 이미지로서 추출하고, 통과중 출입자 영상에 있는 출입자들을 각각 식별하여 통과중 출입자 얼굴 이미지로서 추출하고, 통과후 출입자 영상에 있는 출입자들을 각각 식별하여 통과후 출입자 얼굴 이미지로서 추출할 수 있게 된다.Accordingly, the passenger image storage process (S720) can store the passer-by-passer image (FIG. 3), the passer-by image (FIG. 4), and the passer- have. The passer-by-passer image extraction process identifies each passer-by of the passer-by-passer image, extracts the passer-by-passer face image, extracts the passer-by-passer image as passer- Each of the passers on the image can be identified and extracted as an image of the passer-by of the passer.

이에 따라 출입자 분류 조건은, 통과전 출입자 얼굴 이미지의 얼굴 표정, 통과중 출입자 얼굴 이미지의 얼굴 표정, 및 통과후 출입자 얼굴 이미지의 얼굴 표정 간의 유사율에 대한 조건일 수 있다.Accordingly, the passenger classification condition may be a condition for the similarity rate between the facial expression of the face image of the passer-by before the pass, the facial expression of the passer-by image during pass, and the facial expression of the passer-by image.

따라서 출입자 분류 조건에 충족되는 출입자 얼굴 이미지를 러닝 데이터로 저장하는 기계학습 러닝 과정(S740)은, 통과전 출입자 영상의 얼굴 표정 패턴, 통과중 출입자 영상의 얼굴 패턴, 및 통과후 출입자 영상의 얼굴 표정 패턴 간의 유사율을 이용하여 러닝 데이터로 저장하게 된다.Accordingly, the machine learning learning process (S740) for storing the face image of the passenger who meets the passenger classification condition as the running data is performed by the facial expression pattern of the passer-player image, the face pattern of the passer- And the similarity rate between the patterns is used as the running data.

일반적으로 보안 구역에 무단 침입하는 침입자의 경우, CCTV 카메라와 같은 보안 카메라(100) 앞에서는 긴장된 얼굴 표정을 보이나 CCTV 카메라를 통과한 후에는 안심된 표정을 짓게 된다. 이에 본 발명은 이러한 특징을 이용하여 러닝 데이터로 저장하게 된다. Generally, in case of an intruder intruding into a security area, a tense facial expression is displayed in front of a security camera 100 such as a CCTV camera, but after having passed through a CCTV camera, an intruder looks relieved. Therefore, the present invention stores the data as running data by using this feature.

예를 들어, 정식 합법적인 출입자의 경우 CCTV 카메라와 같은 보안 카메라(100) 앞에서는 긴장하지 않기 때문에, 통과전 출입자 영상의 얼굴 표정 패턴, 통과중 출입자 영상의 얼굴 패턴, 및 통과후 출입자 영상의 얼굴 표정 패턴 간의 유사율이 허용 오차 범위내로 유사하다.For example, in the case of a legally legitimate person, since it is not nervous in front of the security camera 100 such as a CCTV camera, the face expression pattern of the passerby image, the face pattern of the passerby image during passage, Similarity rates between facial patterns are similar within tolerance limits.

반면에 보안 구역에 무단 침입하는 침입자의 경우, CCTV 카메라와 같은 보안 카메라(100) 앞에서는 긴장된 얼굴 표정을 보이고 CCTV 카메라를 통과한 후에는 안심된 표정을 짓게 되기 때문에, 통과전 출입자 영상의 얼굴 표정 패턴, 통과중 출입자 영상의 얼굴 패턴, 및 통과후 출입자 영상의 얼굴 표정 패턴 간의 유사율이 허용 오차 범위를 벗어나게 된다.On the other hand, in case of an intruder intruding into the security area, since a confused facial expression is displayed in front of the security camera 100 such as a CCTV camera and a safe expression is made after passing through the CCTV camera, The similarity rate between the pattern, the facial pattern of the passerby image during passage, and the facial expression pattern of the passerby image after passing is out of the tolerance range.

따라서 이러한 유사율이 미리 설정된 허용 오차 범위 내에 있는 경우 정상적인 출입자로 판단하여 러닝 데이터로 저장하며, 반면에 유사율이 허용 오차 범위를 벗어난 경우 허가받지 않은 출입자로 판단하여 러닝 데이터로 저장하지 않는 것이다.Therefore, if the similarity rate is within the predetermined tolerance range, it is determined that the user is a normal person and stored as running data. On the other hand, if the similarity rate is out of the allowable error range, it is determined that the user is unauthorized.

상술한 본 발명의 설명에서의 실시예는 여러가지 실시가능한 예중에서 당업자의 이해를 돕기 위하여 가장 바람직한 예를 선정하여 제시한 것으로, 이 발명의 기술적 사상이 반드시 이 실시예만 의해서 한정되거나 제한되는 것은 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위내에서 다양한 변화와 변경 및 균등한 타의 실시예가 가능한 것이다.The embodiments of the present invention described above are selected and presented in order to facilitate the understanding of those skilled in the art from a variety of possible examples. The technical idea of the present invention is not necessarily limited to or limited to these embodiments Various changes, modifications, and other equivalent embodiments are possible without departing from the spirit of the present invention.

S710:출입자 영상 생성
S720:출입자 영상 저장
S730:출입 정보 저장
S740:기계학습 러닝
S750:기등록 인력 분류
S760:신규 인력 분류
S710: Creating a passenger image
S720: Image storage
S730: Store access information
S740: Machine learning learning
S750: Classification of registered workers
S760: New manpower classification

Claims (7)

카메라가, 서로 마주보는 두 개의 물체 사이로 정의되는 게이트를 촬영하여 게이트를 통과하는 출입자를 촬영한 출입자 영상을 생성하는 출입자 영상 생성 과정;
기계학습 러닝 서버가, 상기 출입자 영상을 출입 시간과 함께 저장하는 출입자 영상 저장 과정;
상기 기계학습 러닝 서버가, 상기 출입자 영상에서 각각의 출입자를 분류하여, 출입자 얼굴 이미지를 추출하여, 판독되는 출입자 얼굴 이미지별로 출입 정보를 저장하는 출입 정보 저장 과정;
상기 기계학습 러닝 서버가, 상기 출입 정보를 이용하여 미리 설정된 출입자 분류 조건을 충족시키는지를 판단하여 출입자 분류 조건에 충족되는 출입자 얼굴 이미지를 러닝 데이터로 저장하는 기계학습 러닝 과정;
상기 출입자 얼굴 이미지가 미리 설정된 러닝 데이터에 존재하는 경우, 상기 기계학습 러닝 서버가, 상기 출입자 얼굴 이미지를 가지는 출입자를 기등록 인력으로 분류하는 기등록 인력 분류 과정; 및
상기 출입자 얼굴 이미지가 미리 설정된 러닝 데이터에 존재하지 않는 경우, 상기 기계학습 러닝 서버가, 상기 출입자 얼굴 이미지를 가지는 출입자를 신규 인력으로 분류하는 신규 인력 분류 과정;
을 포함하는 기계학습 러닝을 통한 출입자 관제 방법.
A camera captures a gate defined between two objects facing each other and generates a viewer image by capturing an image of a person passing through the gate;
A machine learning learning server for storing the accessing image together with the access time;
An access information storing step of the machine learning learning server classifying each of the passers by the passer-by image, extracting the passer-bye face image, and storing access information for each of the passer-bye face images to be read;
A machine learning learning process for determining whether the machine learning learning server meets a preset accessor classification condition using the access information and storing the entrance face image satisfying the entry classification condition as learning data;
Wherein the machine learning learning server classifies a passenger having the entrance face image as a registered entry force if the entrance face image exists in preset running data; And
Wherein the machine learning learning server classifies a passenger having the entrance face image as a new manpower if the entrance face image does not exist in the preset running data;
A method of controlling access to a person through machine learning learning.
청구항 1에 있어서, 상기 출입자 분류 조건은,
출입횟수 분류조건, 출입 시간대 출입자 분류 조건을 포함하는 기계학습 러닝을 통한 출입자 관제 방법.
The method according to claim 1,
Access control method through machine learning learning including access frequency classification condition and access time classifier condition.
청구항 2에 있어서,
상기 출입횟수 분류조건은, 미리 설정된 출입횟수를 초과하는 출입자 얼굴 이미지를 충족시키는 조건이며,
상기 출입 시간대 출입자 분류 조건은, 미리 설정된 시간대에 출입한 경험이 있는 출입자 얼굴 이미지를 충족시키는 조건임을 특징으로 하는 기계학습 러닝을 통한 출입자 관제 방법.
The method of claim 2,
Wherein the access frequency classification condition is a condition that satisfies an entrance face image that exceeds a preset access count,
Wherein the access time class visitor classification condition is a condition that satisfies an entrance face image having an experience of entering and leaving in a predetermined time zone.
청구항 1에 있어서, 상기 출입자 영상 생성 과정은,
두 개의 물체 사이의 게이트에 통과하기 전의 출입자 영상인 통과전 출입자 영상과, 두 개의 물체 사이의 게이트에 통과하는 출입자 영상인 통과중 출입자 영상과, 두 개의 물체 사이의 게이트를 통과한 후의 출입자 영상인 통과후 출입자 영상을 생성하는 기계학습 러닝을 통한 출입자 관제 방법.
The method as claimed in claim 1,
Passer and passer image before passing through the gate between two objects, passer image during passing which is the passer image passing through the gate between two objects, passer image after pass through the gate between two objects A method of access control through machine learning learning which generates an entrance image after passing.
청구항 4에 있어서, 상기 출입자 영상 저장 과정은,
상기 통과전 출입자 영상, 통과중 출입자 영상, 및 통과후 출입자 영상을 각 출입자 별로 하나의 그룹으로 하여 함께 저장함을 특징으로 하는 기계학습 러닝을 통한 출입자 관제 방법.
5. The method of claim 4,
Wherein the passer-by-passer image, the passer-by image during passage, and the passer-by image are stored together as one group for each passenger and are stored together.
청구항 4에 있어서, 상기 출입자 얼굴 이미지 추출 과정은,
상기 통과전 출입자 영상에 있는 출입자들을 각각 식별하여 통과전 출입자 얼굴 이미지로서 추출하고,
상기 통과중 출입자 영상에 있는 출입자들을 각각 식별하여 통과중 출입자 얼굴 이미지로서 추출하고,
상기 통과후 출입자 영상에 있는 출입자들을 각각 식별하여 통과후 출입자 얼굴 이미지로서 추출하는 기계학습 러닝을 통한 출입자 관제 방법.
5. The method according to claim 4,
And identifies the passers on the passer-by-passer image, extracts them as passer-by-passer face images,
Identifies each of the passers in the passer-by image during the pass, extracts it as the passer-face image during pass,
And a machine learning run in which passengers in the passenger image after the pass are respectively identified and extracted as passenger face images.
청구항 6에 있어서, 상기 출입자 분류 조건은,
통과전 출입자 얼굴 이미지의 얼굴 표정, 통과중 출입자 얼굴 이미지의 얼굴 표정, 및 통과후 출입자 얼굴 이미지의 얼굴 표정 간의 유사율에 대한 조건이며,
상기 기계학습 러닝 과정은, 상기 유사율이 미리 설정된 허용 오차 범위 내에 있는 경우 정상적인 출입자로 판단하여 러닝 데이터로 저장하며, 반면에 유사율이 허용 오차 범위를 벗어난 경우 허가받지 않은 출입자로 판단하여 러닝 데이터로 저장하지 않음을 특징으로 하는 기계학습 러닝을 통한 출입자 관제 방법.
The method according to claim 6,
The condition for the similarity rate between the facial expression of the face image of the passer before the pass, the facial expression of the passer-face image during pass, and the facial expression of the passer-byant image after passing,
The machine learning learning process determines that the similarity rate is within a predetermined tolerance range and stores the learning data as running data. If the similarity rate is out of the allowable error range, The method according to claim 1,
KR1020170178802A 2017-12-22 2017-12-22 Method for controlling gate using machine learning KR20190076745A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170178802A KR20190076745A (en) 2017-12-22 2017-12-22 Method for controlling gate using machine learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170178802A KR20190076745A (en) 2017-12-22 2017-12-22 Method for controlling gate using machine learning

Publications (1)

Publication Number Publication Date
KR20190076745A true KR20190076745A (en) 2019-07-02

Family

ID=67258584

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170178802A KR20190076745A (en) 2017-12-22 2017-12-22 Method for controlling gate using machine learning

Country Status (1)

Country Link
KR (1) KR20190076745A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102261605B1 (en) * 2020-01-20 2021-06-07 주식회사 에스비시스템즈 Passenger Recognition System Using Uneven Fog Computing
KR20210076519A (en) * 2019-12-16 2021-06-24 주식회사 리얼타임테크 System for management entrance and exit based on face recognition using data augmentation
KR20220004327A (en) * 2020-07-03 2022-01-11 한국전력공사 Method for reading qualification in real time of manpower on construction site using facial recognition technology
KR20220068282A (en) * 2020-11-18 2022-05-26 재단법인대구경북과학기술원 Intelligent virtual fitness system utilizing face recognition and motion recognition and operating method thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101435572B1 (en) 2014-06-17 2014-08-28 이재준 Apparatus for worker safety in industrial site

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101435572B1 (en) 2014-06-17 2014-08-28 이재준 Apparatus for worker safety in industrial site

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210076519A (en) * 2019-12-16 2021-06-24 주식회사 리얼타임테크 System for management entrance and exit based on face recognition using data augmentation
KR102261605B1 (en) * 2020-01-20 2021-06-07 주식회사 에스비시스템즈 Passenger Recognition System Using Uneven Fog Computing
KR20220004327A (en) * 2020-07-03 2022-01-11 한국전력공사 Method for reading qualification in real time of manpower on construction site using facial recognition technology
KR20220068282A (en) * 2020-11-18 2022-05-26 재단법인대구경북과학기술원 Intelligent virtual fitness system utilizing face recognition and motion recognition and operating method thereof

Similar Documents

Publication Publication Date Title
KR20190076745A (en) Method for controlling gate using machine learning
JP6911154B2 (en) Access control methods and devices, systems, electronic devices, programs and media
CN105427421A (en) Entrance guard control method based on face recognition
CN104794827A (en) Method and apparatus for prevention of false alarms in monitoring systems
Barhm et al. Negotiating privacy preferences in video surveillance systems
CN112258718A (en) Human body temperature measurement and personnel identification method and system
CN204423477U (en) A kind of monoblock type clearance equipment
Khairuddin et al. A smart building security system with intelligent face detection and recognition
CN113971782A (en) Comprehensive monitoring information management method and system
CN204423476U (en) A kind of split type clearance equipment
Hsu et al. Design and implementation of image electronic fence with 5G technology for smart farms
CN105407324A (en) Monitoring system for monitoring school
TWI486910B (en) Parking lot management system combined with two-factor identification and method therefore
Sharma et al. Automatic Office Environment System for Employees Using IoT and Computer Vision
CN103294981A (en) Intelligent face recognition system
CN210466495U (en) Multifunctional barrier-free passing gate
CN204537273U (en) A kind of photographing device of swiping the card for gate control system
El Gemayel et al. Automated face detection and control system using computer vision based video analytics to avoid the spreading of Covid-19
Tay et al. Application of computer vision in the construction industry
CN104966345A (en) Access control system and access control management method
CN109101875A (en) Dealing based on recognition of face divides illegal activities to investigate and prosecute system
Muench et al. Detection of infrastructure manipulation with knowledge-based video surveillance
Bernardo et al. Vehicle Plate Monitoring and Information System Using Optical Character Recognition (OC) Technique
KR20150031059A (en) The Development Of CCTV For Security By Pattern Recognition Technology
Choudhary et al. Smart Surveillance Monitoring System using Machine Learning and Raspberry Pi

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right