KR20210061211A - System for recognizing face and motion of clinical subject using video capture member - Google Patents
System for recognizing face and motion of clinical subject using video capture member Download PDFInfo
- Publication number
- KR20210061211A KR20210061211A KR1020190149143A KR20190149143A KR20210061211A KR 20210061211 A KR20210061211 A KR 20210061211A KR 1020190149143 A KR1020190149143 A KR 1020190149143A KR 20190149143 A KR20190149143 A KR 20190149143A KR 20210061211 A KR20210061211 A KR 20210061211A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- unit
- facial
- motion
- authentication
- Prior art date
Links
Images
Classifications
-
- G06K9/00228—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G06K9/00268—
-
- G06K9/00335—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 영상촬영부를 이용한 임상 대상자의 안면 및 모션인식시스템에 관한 것으로, 보다 상세하게는 영상촬영부에서 촬영한 임상 대상자의 안면 정보 및 모션 정보에서 추출한 특징점 정보를 기반으로 본인인증여부를 확인하는 영상촬영부를 이용한 임상 대상자의 안면 및 모션인식시스템에 관한 것이다.The present invention relates to a facial and motion recognition system of a clinical subject using an imaging unit, and more particularly, to verify whether or not a person is authenticated based on feature point information extracted from the facial information and motion information of the clinical subject photographed by the imaging unit. It relates to a facial and motion recognition system of a clinical subject using an imaging unit.
일반적으로 의약업체는 신약을 개발하기 위해 많은 임상 시험을 진행하고 있으며, 이를 위해 임상 시험에 참여할 임상 대상자를 모집한다.In general, pharmaceutical companies are conducting many clinical trials to develop new drugs, and for this purpose, they recruit clinical subjects to participate in clinical trials.
그런데, 현재 임상 시험은 비용이 많이 들 뿐 아니라 임상 대상자의 모집이 어렵고 피험자가 번거롭게 병원을 방문해야 하는 문제점이 있었다.However, the current clinical trials are expensive, and it is difficult to recruit clinical subjects, and there is a problem in that the subject must visit the hospital in a cumbersome manner.
상기한 문제점을 해소하기 위해 원격으로 임상 시험을 진행하는 원격임상서비스가 도입되고 있으나, 이러한 원격임상서비스는 원격에서 임상 시험에 참여하고 있는 대상자가 임상 시험의 요건에 맞추어 성실하게 시험에 참여하고 있는지를 확인하기 어려운 문제점이 있었다.In order to solve the above problems, remote clinical services that conduct clinical trials remotely are being introduced. However, these remote clinical services do not ensure that subjects participating in clinical trials remotely are faithfully participating in the trial according to the requirements of the clinical trial. There was a problem that it was difficult to check.
또한, 임상 시험에 참여하겠다고 한 대상자가 실제로 원격에서 임상 시험(로그인, 생체정보 측정 및 전송, 약복용, 행위정보 측정 및 전송, 문진 입력 등)에 참여하고 있는지를 확인하기 어려운 문제점이 있다.In addition, there is a problem that it is difficult to confirm whether a subject who intends to participate in a clinical trial is actually participating in a clinical trial remotely (login, measuring and transmitting biometric information, taking medicine, measuring and transmitting behavior information, inputting a questionnaire, etc.).
임상 병원 이외의 장소에서 진행하는 임상 시험용 검사는 임상 관련 기관(식약처, CRO, 스폰서)의 신뢰성의 문제(대상자 확인의 문제, .임상 시험 데이터의 신뢰성 문제, 임상 데이터 품질의 문제)와 함께 임상 데이터 품질에 대한 의구심을 받을 수 있다.For clinical trial tests conducted at locations other than clinical hospitals, clinical trials are conducted with clinically related organizations (Ministry of Food and Drug Safety, CRO, sponsors) reliability issues (subject identification issues, reliability issues of clinical trial data, clinical data quality issues) and clinical data quality issues. You may be in doubt about the quality of your data.
이러한 대상자의 투명한 정보 확인을 위해 대상자의 모든 행위에 대해 동영상을 촬영하여 실시간에 업로드하는 것이 하나의 방법이 될 수 있다.In order to check the transparent information of the subject, one method may be to take a video of all actions of the subject and upload it in real time.
그러나, 상기한 방법은 개인정보가 보호되지 않고 임상 대상자의 사생활 침해할 소지가 있으며, 동영상의 용량에 따른 스토리지와 네트워크 비용도 무시할 수는 없다.However, the above method does not protect personal information and may invade the privacy of the clinical subject, and storage and network costs according to the capacity of the video cannot be ignored.
따라서, 사생활 침해를 방지하고 개인 정보를 보호하면서 스토리지와 네트워크 비용을 절감하면서 사용자에 대한 인증과 행위에 대한 대상자 판명이 가능한 기술이 필요한 시점이다.Therefore, it is time to need a technology that can authenticate users and identify targets for actions while preventing invasion of privacy and protecting personal information while reducing storage and network costs.
(특허문헌 1) 등록특허공보 제10-0757167호(2007.09.03.)(Patent Document 1) Registered Patent Publication No. 10-0757167 (2007.09.03.)
(특허문헌 2) 공개특허공보 제10-2015-0011046호(2015.01.30.)(Patent Document 2) Unexamined Patent Publication No. 10-2015-0011046 (2015.01.30.)
상기와 같은 문제를 해결하기 위한 본 발명의 목적은 영상촬영부에서 촬영한 임상 대상자의 안면정보 및 모션정보를 기반으로 사용자 단말부를 통하여 특징점 정보를 추출한 후 인증정보 또는 비인증정보를 제공하는 영상촬영부를 이용한 임상 대상자의 안면 및 모션인식시스템을 제공하는 것이다.An object of the present invention for solving the above problems is an image capture unit that provides authentication information or non-authentication information after extracting feature point information through a user terminal based on facial information and motion information of a clinical subject photographed by an image capturing unit. It is to provide the facial and motion recognition system of the used clinical subject.
또한, 상기와 같은 문제를 해결하기 위한 본 발명의 목적은 모션정보를 기반으로 모션 특징점 정보를 디스플레이부로 제공하는 영상촬영부를 이용한 임상 대상자의 안면 및 모션인식시스템을 제공하는 것이다.In addition, an object of the present invention for solving the above problems is to provide a facial and motion recognition system of a clinical subject using an image capture unit that provides motion feature point information to a display unit based on motion information.
아울러, 상기와 같은 문제를 해결하기 위한 본 발명의 목적은 안면정보 및 모션정보를 기반으로 특징점 정보를 추출하여 정보를 처리하는 영상촬영부를 이용한 임상 대상자의 안면 및 모션인식시스템을 제공하는 것이다.In addition, an object of the present invention for solving the above problems is to provide a facial and motion recognition system of a clinical subject using an image capture unit that processes information by extracting feature point information based on facial information and motion information.
본 발명이 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problem to be achieved by the present invention is not limited to the technical problems mentioned above, and other technical problems that are not mentioned can be clearly understood by those of ordinary skill in the technical field to which the present invention belongs from the following description. There will be.
상기와 같은 목적을 달성하기 위한 본 발명의 구성은 임상 대상자를 촬영하는 영상촬영부; 상기 영상촬영부에서 촬영한 상기 임상 대상자의 안면정보 및 모션정보에 대한 특징점 정보를 추출하는 사용자 단말부; 및 상기 사용자 단말부로부터 전송받은 상기 특징점 정보를 기반으로 사용자 인증 및 행위 인식 인증에 대한 인증결과를 상기 사용자 단말부로 전송하는 인증서버부;를 포함하고, 상기 인증서버부는 딥러닝 기법을 이용하여 상기 임상 대상자의 안면 및 모션을 인식하고, 상기 사용자 단말부는 상기 사용자 인증 및 상기 행위 인식 인증에 대한 결과인 인증정보 및 비인증정보 중 어느 하나를 출력하는, 영상촬영부를 이용한 임상 대상자의 안면 및 모션인식시스템을 제공한다.The configuration of the present invention for achieving the above object is an imaging unit for photographing a clinical subject; A user terminal unit for extracting feature point information for the facial information and motion information of the clinical subject photographed by the image capturing unit; And an authentication server configured to transmit authentication results for user authentication and behavior recognition authentication to the user terminal based on the feature point information transmitted from the user terminal unit, wherein the authentication server unit uses a deep learning technique. A face and motion recognition system of a clinical subject using an imaging unit that recognizes the face and motion of the clinical subject, and the user terminal unit outputs any one of authentication information and non-authentication information that is a result of the user authentication and the behavior recognition authentication. Provides.
본 발명의 실시예에 있어서, 상기 사용자 단말부는, 상기 안면정보 및 상기 모션정보를 저장하는 정보저장부; 및 상기 정보저장부에서 전송되는 상기 안면정보 및 상기 모션정보에 대한 특징점 정보를 추출하는 정보처리부;를 포함하고, 상기 특징점 정보는 상기 임상 대상자의 안면 특징점 정보 및 모션 특징점 정보를 포함할 수 있다.In an embodiment of the present invention, the user terminal unit comprises: an information storage unit for storing the facial information and the motion information; And And an information processing unit that extracts feature point information for the facial information and the motion information transmitted from the information storage unit, wherein the feature point information may include facial feature point information and motion feature point information of the clinical subject.
본 발명의 실시예에 있어서, 상기 정보저장부는, 상기 영상촬영부에서 촬영한 상기 임상 대상자의 안면정보가 저장되는 제1 저장부; 및 안면 알고리즘을 통하여 상기 제1 저장부로부터 전송되는 상기 임상 대상자의 안면정보에서 상기 안면 특징점 정보를 추출하는 정보처리부;를 포함하고, 상기 정보처리부는 기설정된 안면정보와 상기 임상 대상자의 안면정보를 비교하여 상기 안면 특징점 정보를 추출할 수 있다.In an embodiment of the present invention, the information storage unit comprises: a first storage unit for storing facial information of the clinical subject photographed by the image capturing unit; And an information processing unit for extracting the facial feature point information from the facial information of the clinical subject transmitted from the first storage unit through a facial algorithm, wherein the information processing unit stores preset facial information and facial information of the clinical subject. By comparison, the facial feature point information may be extracted.
본 발명의 실시예에 있어서, 상기 정보처리부는, 상기 영상촬영부에서 촬영한 상기 임상 대상자의 모션정보가 저장되는 제2 저장부;를 포함하는 정보저장부; 및 모션 알고리즘을 통하여 상기 제2 저장부로부터 전송되는 상기 임상 대상자의 모션정보에서 상기 임상 대상자의 모션 특징점 정보를 추출하는 정보처리부;를 포함하고, 상기 정보처리부는 기설정된 모션정보와 상기 임상 대상자의 모션정보를 비교하여 상기 모션 특징점 정보를 추출할 수 있다.In an embodiment of the present invention, the information processing unit includes: an information storage unit including a second storage unit for storing motion information of the clinical subject photographed by the image capturing unit; And an information processing unit that extracts motion feature point information of the clinical subject from motion information of the clinical subject transmitted from the second storage unit through a motion algorithm, wherein the information processing unit includes preset motion information and the clinical subject's motion information. The motion feature point information may be extracted by comparing motion information.
본 발명의 실시예에 있어서, 상기 모션 특징점 정보는 상기 임상 대상자의 컵에 약이 존재하는지에 대한 확인정보 및 상기 임상 대상자가 상기 약을 마시는 동작정보 중 적어도 어느 하나를 포함할 수 있다.In an embodiment of the present invention, the motion feature point information may include at least one of confirmation information on whether a drug is present in the cup of the clinical subject and motion information of the clinical subject drinking the drug.
본 발명의 실시예에 있어서, 상기 정보저장부는 상기 인증서버부로부터 전송되는 사용자 인증 및 행위 인식 인증에 대한 인증결과를 저장하는 인증정보 저장부;를 더 포함하고, 상기 사용자 단말부는 상기 인증정보 저장부로부터 전송되는 사용자 인증 및 행위 인식 인증에 대한 인증결과를 출력하는 디스플레이부;를 더 포함할 수 있다.In an embodiment of the present invention, the information storage unit further includes an authentication information storage unit for storing authentication results for user authentication and behavior recognition authentication transmitted from the authentication server unit, wherein the user terminal unit stores the authentication information. It may further include a display unit for outputting the authentication result for user authentication and behavior recognition authentication transmitted from the unit; may further include.
본 발명의 실시예에 있어서, 상기 디스플레이부는 상기 임상 대상자의 골격정보, 근육정보, 로그인 정보, 생체정보 및 행위정보의 측정 및 전송에 대한 정보, 약복용 정보 및 문진정보 중 적어도 어느 하나를 출력할 수 있다.In an embodiment of the present invention, the display unit may output at least one of skeletal information, muscle information, log-in information, biometric information, and information on measurement and transmission of behavioral information, drug use information, and medical examination information of the clinical subject. I can.
본 발명의 실시예에 있어서, 상기 인증서버부는 상기 사용자 단말부로부터 전송되는 특징점 정보와 상기 딥러닝 기법에 의해 기설정된 특징점 정보가 일치하는지 여부를 판단하고, 상기 특징점 정보와 상기 기설정된 특징점 정보가 일치하면, 상기 인증서버부는 상기 인증정보를 상기 사용자 단말부로 전송하며, 상기 특징점 정보와 상기 기설정된 특징점 정보가 일치하면, 상기 인증서버부는 상기 비인증정보를 상기 사용자 단말부로 전송할 수 있다.In an embodiment of the present invention, the authentication server unit determines whether the feature point information transmitted from the user terminal unit matches the feature point information preset by the deep learning technique, and the feature point information and the preset feature point information are matched. If matched, the authentication server unit transmits the authentication information to the user terminal unit, and when the feature point information and the preset feature point information match, the authentication server unit may transmit the non-authentication information to the user terminal unit.
본 발명의 실시예에 있어서, 상기 영상촬영부는 비디오 카메라, 적외선 카메라 및 3차원 측정기 중 어느 하나인 것을 특징으로 할 수 있다.In an embodiment of the present invention, the image capture unit may be any one of a video camera, an infrared camera, and a 3D measuring device.
본 발명의 실시예에 있어서, 상기 적외선 카메라는 동맥과 피를 통한 피의 흐름에 의해 생기는 열점을 인식하여 상기 안면정보 및 상기 모션정보를 생성하고, 상기 사용자 단말부는 상기 열점을 이용하여 상기 임상 대상자의 특징점 정보를 추출할 수 있다.In an embodiment of the present invention, the infrared camera recognizes hot spots generated by blood flow through arteries and blood to generate the facial information and the motion information, and the user terminal uses the hot spot to generate the Feature point information can be extracted.
본 발명의 실시예에 있어서, 상기 3차원 측정기는 상기 임상 대상자의 측정정보인 눈, 입, 코, 턱 간의 각도와 거리, 뼈 돌출 정도 중 적어도 어느 하나를 측정하여 상기 안면정보 및 상기 모션정보를 생성하고, 상기 사용자 단말부는 상기 측정정보를 이용하여 상기 임상 대상자의 특징점 정보를 추출할 수 있다.In an embodiment of the present invention, the 3D measuring device measures at least one of the angle and distance between the eyes, mouth, nose, and jaw, and the degree of bone protrusion, which are the measurement information of the clinical subject, and calculates the facial information and the motion information. And, the user terminal may extract feature point information of the clinical subject by using the measurement information.
상기와 같은 구성에 따르는 본 발명의 효과는, 영상촬영부에서 촬영한 임상 대상자의 안면정보 및 모션정보를 기반으로 사용자 단말부를 통하여 특징점 정보를 추출한 후 인증정보 또는 비인증정보를 제공함에 따라 임상 대상자가 실제로 임상시험에 참여하는 본인이 맞는지 여부를 확인할 수 있다.The effect of the present invention according to the configuration as described above is that the clinical subject is provided with authentication information or non-authentication information after extracting feature point information through the user terminal unit based on the facial information and motion information of the clinical subject photographed by the imaging unit. You can check whether you are actually participating in the clinical trial.
또한, 상기와 같은 구성에 따르는 본 발명의 효과는, 모션정보를 기반으로 모션 특징점 정보를 디스플레이부로 제공함에 따라 임상 대상자가 임상 시험의 조건에 맞춰 성실하게 참여하고 있는지를 확인할 수 있다.In addition, the effect of the present invention according to the configuration as described above is that motion feature point information is provided to the display unit based on motion information, so that it is possible to confirm whether the clinical subject is faithfully participating in the clinical trial condition.
아울러, 상기와 같은 구성에 따르는 본 발명의 효과는, 안면정보 및 모션정보를 기반으로 특징점 정보를 추출하여 정보를 처리함에 따라 저장공간에 대한 부담이 줄어들고 네트워크 트래픽 및 네트워크 비용을 감소시킬 수 있다.In addition, the effect of the present invention according to the above configuration can reduce the burden on storage space and reduce network traffic and network cost as the information is processed by extracting feature point information based on facial information and motion information.
본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.The effects of the present invention are not limited to the above effects, and should be understood to include all effects that can be inferred from the configuration of the invention described in the detailed description or claims of the present invention.
도 1은 본 발명의 일실시예에 따른 영상촬영부를 이용한 임상 대상자의 안면 및 모션인식시스템을 나타낸 블록도이다.
도 2는 본 발명의 일실시예에 따른 영상촬영부를 이용한 임상 대상자의 안면 및 모션인식시스템에서 안면 특징점 정보 및 사용자 인증에 대한 과정을 나타낸 개략도이다.
도 3은 본 발명의 일실시예에 따른 영상촬영부를 이용한 임상 대상자의 안면 및 모션인식시스템에서 모션 특징점 정보 및 행위 인식 인증에 대한 과정을 나타낸 개략도이다.1 is a block diagram showing a face and motion recognition system of a clinical subject using an image capture unit according to an embodiment of the present invention.
2 is a schematic diagram showing a process for facial feature point information and user authentication in a facial and motion recognition system of a clinical subject using an image capture unit according to an embodiment of the present invention.
3 is a schematic diagram showing a process for motion feature point information and behavior recognition authentication in a facial and motion recognition system of a clinical subject using an image capture unit according to an embodiment of the present invention.
이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, the present invention will be described with reference to the accompanying drawings. However, the present invention may be implemented in various different forms, and therefore is not limited to the embodiments described herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and similar reference numerals are attached to similar parts throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉, 결합)"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.Throughout the specification, when a part is said to be "connected (connected, contacted, bonded)" with another part, it is not only "directly connected", but also "indirectly connected" with another member in the middle. "Including the case. In addition, when a part "includes" a certain component, this means that other components may be further provided, not excluding other components, unless specifically stated to the contrary.
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof does not preclude in advance.
이하 첨부된 도면을 참고하여 본 발명의 실시예를 상세히 설명하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
1. 영상촬영부를 이용한 임상 대상자의 안면 및 모션인식시스템의 설명1. Description of the facial and motion recognition system of the clinical subject using the imaging unit
도 1은 본 발명의 일실시예에 따른 영상촬영부를 이용한 임상 대상자의 안면 및 모션인식시스템을 나타낸 블록도이다.1 is a block diagram showing a face and motion recognition system of a clinical subject using an image capture unit according to an embodiment of the present invention.
본 발명의 일실시예에 따른 영상촬영부를 이용한 임상 대상자의 안면 및 모션인식시스템은 영상촬영부(100), 사용자 단말부(200) 및 인증서버부(300)를 포함한다.A facial and motion recognition system of a clinical subject using an image taking unit according to an embodiment of the present invention includes an
영상촬영부(100)는 임상 대상자의 사진 또는 동영상을 촬영하는 기기로서, 예시적으로 비디오 카메라일 수 있다. 기본적으로 영상촬영부(100)는 임상 대상자의 사진 또는 동영상을 촬영한 후 촬영된 사진 및 동영상을 사용자 단말부(200)로 전송한다.The
즉, 영상촬영부(100)에서 획득한 임상 대상자의 사진 또는 동영상은 임상 대상자의 안면정보 및 모션정보이고, 특징점 정보를 추출하기 위한 근간자료로 활용된다.That is, the photograph or video of the clinical subject acquired by the
본 발명에서 영상촬영부(100)는 비디오 카메라인 것으로 설명하고 있으나, 이에 한정되는 것은 아니다. 예를 들어, 영상촬영부(100)는 비디오 카메라, 적외선 카메라 및 3차원 측정기 중 어느 하나일 수 있다.In the present invention, the
여기서, 적외선 카메라는 동맥과 피를 통한 피의 흐름에 의해 생기는 열점을 인식하여 안면정보 및 모션정보를 생성하고, 그에 따라 사용자 단말부(200)는 열점을 이용하여 임상 대상자의 특징점 정보를 추출한다.Here, the infrared camera recognizes hot spots generated by blood flow through arteries and blood to generate facial information and motion information, and accordingly, the
한편, 3차원 측정기는 임상 대상자의 측정정보인 눈, 입, 코, 턱 간의 각도와 거리, 뼈 돌출 정도 중 적어도 어느 하나를 측정하여 안면정보 및 모션정보를 생성하고, 그에 따라 사용자 단말부(200)는 측정정보를 이용하여 임상 대상자의 특징점 정보를 추출한다.On the other hand, the 3D measuring device generates facial information and motion information by measuring at least one of the angle and distance between the eyes, mouth, nose, and jaw, which are measurement information of the clinical subject, and the degree of bone protrusion, and accordingly, the user terminal unit 200 ) Extracts the feature point information of the clinical subject using the measurement information.
도 2는 본 발명의 일실시예에 따른 영상촬영부를 이용한 임상 대상자의 안면 및 모션인식시스템에서 안면 특징점 정보 및 사용자 인증에 대한 과정을 나타낸 개략도이다.2 is a schematic diagram showing a process for facial feature point information and user authentication in a facial and motion recognition system of a clinical subject using an image capture unit according to an embodiment of the present invention.
사용자 단말부(200)는 영상촬영부(100)에서 촬영한 임상 대상자의 안면정보 및 모션정보에 대한 특징점 정보를 추출한다.The
또한, 사용자 단말부(200)는 인증서버부(300)에서 전송받은 인증정보를 토대로 사용자 인증 및 행위 인식 인증에 대한 인증결과를 출력한다.In addition, the
예시적으로 사용자 단말부(200)는 인증서버부(300)로부터 인증정보를 전송받으면, 영상촬영부(100)에 의해 촬영된 임상 대상자의 특징점 정보가 임상 대상자의 기설정된 특징점 정보와 일치하는 인증정보(사용자 인증, 행위 인식 인증)를 출력한다.Exemplarily, when the
반면, 사용자 단말부(200)는 인증서버부(300)로부터 비인증정보를 전송받으면, 영상촬영부(100)에 의해 촬영된 임상 대상자의 특징점 정보가 임상 대상자의 기설정된 특징점 정보와 불일치하는 비인증정보(사용자 비인증, 행위 인식 비인증)를 출력한다.On the other hand, when the
사용자 단말부(200)는 정보저장부(210), 정보처리부(220), 제어부(230) 및 디스플레이부(240)를 포함한다.The
정보저장부(210)는 영상촬영부(100)로부터 전송된 안면정보 및 모션정보를 저장한다. 이러한 정보저장부(210)는 제1 저장부(211), 제2 저장부(212) 및 인증정보 저장부(213)를 포함한다.The
제1 저장부(211)는 영상촬영부(100)에서 촬영한 임상 대상자의 안면정보가 저장된다.The
제2 저장부(212)는 영상촬영부(100)에서 촬영한 임상 대상자의 모션정보가 저장된다.The
인증정보 저장부(213)는 인증서버부(300)로부터 전송되는 사용자 인증 및 행위 인식 인증에 대한 인증결과를 저장한다. 구체적으로 인증정보 저장부(213)는 인증서버부(300)에서 처리된 인증결과에 따라 인증정보 및 비인증정보 중 어느 하나를 저장한다.The authentication
정보처리부(220)는 정보저장부(210)에서 전송되는 안면정보 및 모션정보에 대한 특징점 정보를 추출한다. 여기서, 특징점 정보는 임상 대상자의 안면 특징점 정보 및 모션 특징점 정보를 포함한다.The
안면 특징점 정보는 수집된 다양하고 많은 사람들의 안면(눈, 코, 입, 턱, 이마, 안면뼈 돌출 등)에 대한 정보에서 안면의 각 부위별 평균값을 찾은 기설정된 안면평균값과 비교하여 두드러지게 차이가 나는 값을 추출한 것이다.The facial feature point information is significantly different compared to the preset facial average value obtained by finding the average value for each part of the face from the collected information on the faces (eyes, nose, mouth, chin, forehead, facial bone protrusion, etc.) of a large number of people. Is the extracted value.
또한, 모션 특징점 정보는 수집된 다양하고 많은 사람들의 행위(습관적 행동, 약복용 행동 등)에 대한 정보에서 행위별 평균값을 찾은 기설정된 안면평균값과 비교하여 두드러지게 차이가 나는 값을 추출한 것이다.In addition, the motion feature point information is a value that is significantly different compared to the preset facial average value obtained by finding the average value for each activity from the collected information about various and many people's actions (habitual behavior, drug-taking behavior, etc.).
또한, 정보처리부(220)는 정보저장부(210)로부터 전송되는 안면 특징점 정보 및 모션 특징점 정보를 나누어 처리한다.In addition, the
구체적으로 정보처리부(220)는 안면 알고리즘을 통하여 제1 저장부(211)로부터 전송되는 임상 대상자의 안면정보에서 안면 특징점 정보를 추출한다. 이때, 정보처리부(220)는 기설정된 안면정보와 임상 대상자의 안면정보를 비교하여 안면 특징점 정보를 추출한다.Specifically, the
다음, 정보처리부(220)는 모션 알고리즘을 통하여 제2 저장부(212)로부터 전송되는 임상 대상자의 모션정보에서 임상 대상자의 모션 특징점 정보를 추출한다. 이때, 정보처리부(220)는 기설정된 모션정보와 임상 대상자의 모션정보를 비교하여 모션 특징점 정보를 추출한다.Next, the
여기서, 모션 특징점 정보는 임상 대상자의 컵에 약이 존재하는지에 대한 확인정보 및 임상 대상자가 약을 마시는 동작정보 중 적어도 어느 하나를 포함한다.Here, the motion feature point information includes at least one of confirmation information on whether the medicine is present in the cup of the clinical subject and motion information on which the clinical subject drinks the medicine.
제어부(230)는 영상촬영부(100), 정보저장부(210), 정보처리부(230), 디스플레이부(240) 및 인증서버부(300)의 동작을 제어한다.The
구체적으로 제어부(230)는 영상촬영부(100)에서 획득한 안면정보 및 모션정보가 각각 제1 저장부(211) 및 제2 저장부(212)로 전송되도록 영상촬영부(100)를 제어한다.Specifically, the
또한, 제어부(230)는 제1 저장부(211)로부터 전송되는 안면정보 및 제2 저장부(212)로부터 전송되는 모션정보에서 안면 특징점 정보 및 모션 특징점 정보를 추출하도록 정보처리부(230)를 제어한다.In addition, the
또한, 제어부(230)는 인증서버부(300)에서 전송하는 인증정보 또는 비인증정보가 인증정보 저장부(213)로 전송되도록 인증서버부(300)를 제어한다.In addition, the
아울러, 제어부(230)는 인증정보 저장부(213)로부터 전송되는 인증정보 또는 비인증정보를 출력하도록 디스플레이부(240)를 제어한다.In addition, the
디스플레이부(240)는 인증정보 저장부(213)로부터 전송되는 사용자 인증 및 행위 인식 인증에 대한 인증결과를 출력한다. 인증결과는 임상 대상자가 본인임이 확인된 인증정보 및 임상 대상자가 본인이 아님이 확인된 비인증정보 중 어느 하나일 수 있다.The
또한, 디스플레이부(240)는 임상 대상자의 골격정보, 근육정보, 로그인 정보, 생체정보 및 행위정보의 측정 및 전송에 대한 정보, 약복용 정보 및 문진정보 중 적어도 어느 하나를 출력할 수 있다.In addition, the
도 3은 본 발명의 일실시예에 따른 영상촬영부를 이용한 임상 대상자의 안면 및 모션인식시스템에서 모션 특징점 정보 및 행위 인식 인증에 대한 과정을 나타낸 개략도이다.3 is a schematic diagram showing a process for motion feature point information and behavior recognition authentication in a facial and motion recognition system of a clinical subject using an image capture unit according to an embodiment of the present invention.
인증서버부(300)는 사용자 단말부로부터 전송받은 특징점 정보를 기반으로 사용자 인증 및 행위 인식 인증에 대한 인증결과를 사용자 단말부(200)로 전송한다.The
이때, 인증서버부(300)는 딥러닝 기법을 이용하여 임상 대상자의 안면 및 모션을 인식한다.At this time, the
구체적으로 인증서버부(300)는 사용자 단말부로부터 전송되는 특징점 정보와 딥러닝 기법에 의해 기설정된 특징점 정보가 일치하는지 여부를 판단한다.Specifically, the
만약, 특징점 정보와 기설정된 특징점 정보가 일치하면, 인증서버부(300)는 인증정보를 사용자 단말부(200)로 전송한다.If the feature point information and the preset feature point information match, the
반면, 특징점 정보와 기설정된 특징점 정보가 불일치하면, 인증서버부(300)는 비인증정보를 사용자 단말부(200)로 전송한다.On the other hand, if the feature point information and the preset feature point information do not match, the
2. 영상촬영부를 이용한 임상 대상자의 안면 및 모션인식시스템의 동작설명2. Description of the operation of the clinical subject's facial and motion recognition system using the imaging unit
이하, 도 1 내지 도 3을 참조하여, 본 발명의 영상촬영부를 이용한 임상 대상자의 안면 및 모션인식시스템의 동작을 설명한다.Hereinafter, the operation of the face and motion recognition system of a clinical subject using the image capture unit of the present invention will be described with reference to FIGS. 1 to 3.
최초, 영상촬영부(100)에서 임상 대상자의 안면정보 및 영상정보를 획득한 후 사용자 단말부(200)로 안면정보 및 영상정보가 전송된다.First, after obtaining the facial information and image information of the clinical subject from the
다음, 안면정보는 제1 저장부(211)를 거쳐 정보처리부(230)로 전송되고, 모션정보는 제2 저장부(212)를 거쳐 정보처리부(230)로 전송된다.Next, the facial information is transmitted to the
다음, 정보처리부(230)는 안면정보 및 모션정보에서 안면 특징점 정보(얼굴 특징점 정보) 및 모션 특징점 정보(행동, 행위, 근육, 골격 등)을 추출하여 인증서버부(300)로 전송한다.Next, the
다음, 인증서버부(300)는 딥러닝 기법을 이용하여 기설정된 안면 특징점 정보와 추출한 안면 특징점 정보, 기설정된 모션 특징점 정보와 추출한 모션 특징점 정보가 일치하는지 여부를 확인한 후 인증결과에 따라 인증정보 및 비인증정보 중 어느 하나를 사용자 단말부(200)로 전송한다.Next, the
다음, 인증정보 및 비인증정보 중 어느 하나의 정보는 인증정보 저장부(213)에 저장된 후 디스플레이부(240)를 통해 출력된다.Next, any one of authentication information and non-authentication information is stored in the authentication
전술한 바에 따른 본 발명은 영상촬영부에서 촬영한 임상 대상자의 안면정보 및 모션정보를 기반으로 사용자 단말부를 통하여 특징점 정보를 추출한 후 인증정보 또는 비인증정보를 제공함에 따라 임상 대상자가 실제로 임상시험에 참여하는 본인이 맞는지 여부를 확인할 수 있다.According to the present invention as described above, the clinical subject actually participates in the clinical trial by providing authentication information or non-authentication information after extracting the feature point information through the user terminal unit based on the facial information and motion information of the clinical subject photographed by the imaging unit. You can check whether you are the right person.
또한, 본 발명은 모션정보를 기반으로 모션 특징점 정보를 디스플레이부로 제공함에 따라 임상 대상자가 임상 시험의 조건에 맞춰 성실하게 참여하고 있는지를 확인할 수 있다.In addition, the present invention provides motion feature point information to the display unit based on the motion information, so that it is possible to confirm whether the clinical subject is faithfully participating in the condition of the clinical trial.
아울러, 본 발명은 안면정보 및 모션정보를 기반으로 특징점 정보를 추출하여 정보를 처리함에 따라 저장공간에 대한 부담이 줄어들고 네트워크 트래픽 및 네트워크 비용을 감소시킬 수 있다.In addition, according to the present invention, as the feature point information is extracted and processed based on facial information and motion information, a burden on a storage space may be reduced, and network traffic and network cost may be reduced.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustrative purposes only, and those of ordinary skill in the art to which the present invention pertains will be able to understand that other specific forms can be easily modified without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative and non-limiting in all respects. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.
본 발명의 범위는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims to be described later, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention.
100: 영상촬영부
200: 사용자 단말부
210: 정보저장부
211: 제1 저장부
212: 제2 저장부
213: 인증정보 저장부
220: 정보처리부
230: 제어부
240: 디스플레이부
300: 인증서버부100: image recording unit
200: user terminal
210: information storage unit
211: first storage unit
212: second storage unit
213: authentication information storage unit
220: information processing unit
230: control unit
240: display unit
300: certificate server
Claims (11)
상기 영상촬영부에서 촬영한 상기 임상 대상자의 안면정보 및 모션정보에 대한 특징점 정보를 추출하는 사용자 단말부; 및
상기 사용자 단말부로부터 전송받은 상기 특징점 정보를 기반으로 사용자 인증 및 행위 인식 인증에 대한 인증결과를 상기 사용자 단말부로 전송하는 인증서버부;를 포함하고,
상기 인증서버부는 딥러닝 기법을 이용하여 상기 임상 대상자의 안면 및 모션을 인식하고,
상기 사용자 단말부는 상기 사용자 인증 및 상기 행위 인식 인증에 대한 결과인 인증정보 및 비인증정보 중 어느 하나를 출력하는,
영상촬영부를 이용한 임상 대상자의 안면 및 모션인식시스템.
An imaging unit for photographing a clinical subject;
A user terminal unit for extracting feature point information for the facial information and motion information of the clinical subject photographed by the image capturing unit; And
Including; an authentication server for transmitting an authentication result for user authentication and behavior recognition authentication to the user terminal unit based on the feature point information transmitted from the user terminal unit,
The authentication server recognizes the face and motion of the clinical subject using a deep learning technique,
The user terminal unit outputs any one of authentication information and non-authentication information that is a result of the user authentication and the behavior recognition authentication,
Facial and motion recognition system of clinical subjects using an imaging unit.
상기 사용자 단말부는,
상기 안면정보 및 상기 모션정보를 저장하는 정보저장부; 및
상기 정보저장부에서 전송되는 상기 안면정보 및 상기 모션정보에 대한 특징점 정보를 추출하는 정보처리부;를 포함하고,
상기 특징점 정보는 상기 임상 대상자의 안면 특징점 정보 및 모션 특징점 정보를 포함하는,
영상촬영부를 이용한 임상 대상자의 안면 및 모션인식시스템.
The method of claim 1,
The user terminal unit,
An information storage unit for storing the facial information and the motion information; And
Including; an information processing unit for extracting feature point information for the facial information and the motion information transmitted from the information storage unit,
The feature point information includes facial feature point information and motion feature point information of the clinical subject,
Facial and motion recognition system of clinical subjects using an imaging unit.
상기 정보저장부는,
상기 영상촬영부에서 촬영한 상기 임상 대상자의 안면정보가 저장되는 제1 저장부; 및
안면 알고리즘을 통하여 상기 제1 저장부로부터 전송되는 상기 임상 대상자의 안면정보에서 상기 안면 특징점 정보를 추출하는 정보처리부;를 포함하고,
상기 정보처리부는 기설정된 안면정보와 상기 임상 대상자의 안면정보를 비교하여 상기 안면 특징점 정보를 추출하는,
영상촬영부를 이용한 임상 대상자의 안면 및 모션인식시스템.
The method of claim 2,
The information storage unit,
A first storage unit for storing facial information of the clinical subject photographed by the imaging unit; And
Including; an information processing unit for extracting the facial feature point information from the facial information of the clinical subject transmitted from the first storage unit through a facial algorithm,
The information processing unit extracts the facial feature point information by comparing preset facial information and facial information of the clinical subject,
Facial and motion recognition system of clinical subjects using an imaging unit.
상기 정보처리부는,
상기 영상촬영부에서 촬영한 상기 임상 대상자의 모션정보가 저장되는 제2 저장부;를 포함하는 정보저장부; 및
모션 알고리즘을 통하여 상기 제2 저장부로부터 전송되는 상기 임상 대상자의 모션정보에서 상기 임상 대상자의 모션 특징점 정보를 추출하는 정보처리부;를 포함하고,
상기 정보처리부는 기설정된 모션정보와 상기 임상 대상자의 모션정보를 비교하여 상기 모션 특징점 정보를 추출하는,
영상촬영부를 이용한 임상 대상자의 안면 및 모션인식시스템.
The method of claim 2,
The information processing unit,
An information storage unit including a second storage unit for storing motion information of the clinical subject photographed by the image capturing unit; And
Including; an information processing unit for extracting the motion feature point information of the clinical subject from the motion information of the clinical subject transmitted from the second storage unit through a motion algorithm,
The information processing unit extracts the motion feature point information by comparing preset motion information with motion information of the clinical subject,
Facial and motion recognition system of clinical subjects using an imaging unit.
상기 모션 특징점 정보는 상기 임상 대상자의 컵에 약이 존재하는지에 대한 확인정보 및 상기 임상 대상자가 상기 약을 마시는 동작정보 중 적어도 어느 하나를 포함하는,
영상촬영부를 이용한 임상 대상자의 안면 및 모션인식시스템.
The method of claim 3,
The motion feature point information includes at least one of confirmation information on whether a drug is present in the cup of the clinical subject and motion information of the clinical subject drinking the drug,
Facial and motion recognition system of clinical subjects using an imaging unit.
상기 정보저장부는 상기 인증서버부로부터 전송되는 사용자 인증 및 행위 인식 인증에 대한 인증결과를 저장하는 인증정보 저장부;를 더 포함하고,
상기 사용자 단말부는 상기 인증정보 저장부로부터 전송되는 사용자 인증 및 행위 인식 인증에 대한 인증결과를 출력하는 디스플레이부;를 더 포함하는,
영상촬영부를 이용한 임상 대상자의 안면 및 모션인식시스템.
The method of claim 1,
The information storage unit further includes an authentication information storage unit for storing an authentication result for user authentication and behavior recognition authentication transmitted from the authentication server unit,
The user terminal unit further comprises a display unit for outputting the authentication result for user authentication and behavior recognition authentication transmitted from the authentication information storage unit;
Facial and motion recognition system of clinical subjects using an imaging unit.
상기 디스플레이부는 상기 임상 대상자의 골격정보, 근육정보, 로그인 정보, 생체정보 및 행위정보의 측정 및 전송에 대한 정보, 약복용 정보 및 문진정보 중 적어도 어느 하나를 출력하는,
영상촬영부를 이용한 임상 대상자의 안면 및 모션인식시스템.
The method of claim 6,
The display unit outputs at least one of skeletal information, muscle information, log-in information, biometric information, and information on measurement and transmission of behavioral information, drug use information, and medical examination information of the clinical subject,
Facial and motion recognition system of clinical subjects using an imaging unit.
상기 인증서버부는 상기 사용자 단말부로부터 전송되는 특징점 정보와 상기 딥러닝 기법에 의해 기설정된 특징점 정보가 일치하는지 여부를 판단하고,
상기 특징점 정보와 상기 기설정된 특징점 정보가 일치하면,
상기 인증서버부는 상기 인증정보를 상기 사용자 단말부로 전송하며,
상기 특징점 정보와 상기 기설정된 특징점 정보가 일치하면,
상기 인증서버부는 상기 비인증정보를 상기 사용자 단말부로 전송하는,
영상촬영부를 이용한 임상 대상자의 안면 및 모션인식시스템.
The method of claim 1,
The authentication server unit determines whether the feature point information transmitted from the user terminal unit matches the feature point information preset by the deep learning technique,
If the feature point information and the preset feature point information match,
The authentication server unit transmits the authentication information to the user terminal unit,
If the feature point information and the preset feature point information match,
The authentication server unit transmits the non-authentication information to the user terminal unit,
Facial and motion recognition system of clinical subjects using an imaging unit.
상기 영상촬영부는 비디오 카메라, 적외선 카메라 및 3차원 측정기 중 어느 하나인 것을 특징으로 하는,
영상촬영부를 이용한 임상 대상자의 안면 및 모션인식시스템.
The method of claim 1,
The image capture unit is characterized in that any one of a video camera, an infrared camera and a three-dimensional measuring device,
Facial and motion recognition system of clinical subjects using an imaging unit.
상기 적외선 카메라는 동맥과 피를 통한 피의 흐름에 의해 생기는 열점을 인식하여 상기 안면정보 및 상기 모션정보를 생성하고,
상기 사용자 단말부는 상기 열점을 이용하여 상기 임상 대상자의 특징점 정보를 추출하는,
영상촬영부를 이용한 임상 대상자의 안면 및 모션인식시스템.
The method of claim 9,
The infrared camera recognizes hot spots generated by blood flow through arteries and blood to generate the facial information and the motion information,
The user terminal unit extracts feature point information of the clinical subject using the hot point,
Facial and motion recognition system of clinical subjects using an imaging unit.
상기 3차원 측정기는 상기 임상 대상자의 측정정보인 눈, 입, 코, 턱 간의 각도와 거리, 뼈 돌출 정도 중 적어도 어느 하나를 측정하여 상기 안면정보 및 상기 모션정보를 생성하고,
상기 사용자 단말부는 상기 측정정보를 이용하여 상기 임상 대상자의 특징점 정보를 추출하는,
영상촬영부를 이용한 임상 대상자의 안면 및 모션인식시스템.The method of claim 9,
The 3D measuring device generates the facial information and the motion information by measuring at least one of the angle and distance between the eyes, the mouth, the nose, and the jaw, and the degree of bone protrusion, which are measurement information of the clinical subject,
The user terminal unit extracts feature point information of the clinical subject using the measurement information,
Facial and motion recognition system of clinical subjects using an imaging unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190149143A KR20210061211A (en) | 2019-11-19 | 2019-11-19 | System for recognizing face and motion of clinical subject using video capture member |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190149143A KR20210061211A (en) | 2019-11-19 | 2019-11-19 | System for recognizing face and motion of clinical subject using video capture member |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210061211A true KR20210061211A (en) | 2021-05-27 |
Family
ID=76135886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190149143A KR20210061211A (en) | 2019-11-19 | 2019-11-19 | System for recognizing face and motion of clinical subject using video capture member |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20210061211A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230135449A (en) | 2022-03-16 | 2023-09-25 | 호서대학교 산학협력단 | Deep learning-based posture estimation system and metaverse system for real-time animation |
KR102614756B1 (en) | 2023-07-10 | 2023-12-15 | 주식회사 바론시스템 | Deep learning face recognition system through various entry level imaging device in a closed space and method performing thereof |
-
2019
- 2019-11-19 KR KR1020190149143A patent/KR20210061211A/en unknown
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230135449A (en) | 2022-03-16 | 2023-09-25 | 호서대학교 산학협력단 | Deep learning-based posture estimation system and metaverse system for real-time animation |
KR102614756B1 (en) | 2023-07-10 | 2023-12-15 | 주식회사 바론시스템 | Deep learning face recognition system through various entry level imaging device in a closed space and method performing thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11004554B2 (en) | Method and apparatus for identification | |
US20220043896A1 (en) | Facial recognition authentication system including path parameters | |
Prokoski | History, current status, and future of infrared identification | |
US20200342245A1 (en) | Robust biometric access control based on dynamic structural changes in tissue | |
US10517520B2 (en) | Method and system for correlating an image capturing device to a human user for analysis of cognitive performance | |
CN105184246B (en) | Living body detection method and living body detection system | |
EP3654239A1 (en) | Contact and non-contact image-based biometrics using physiological elements | |
KR20170047195A (en) | Systems and methods for discerning eye signals and continuous biometric identification | |
JP2020170569A (en) | Authentication system, authentication method, and program | |
US20160012291A1 (en) | Biometric identification via retina scanning with liveness detection | |
CN106446855A (en) | Real name authentication device | |
KR20210061211A (en) | System for recognizing face and motion of clinical subject using video capture member | |
CN113111846A (en) | Diagnosis method, device, equipment and storage medium based on face recognition | |
JP2018007792A (en) | Expression recognition diagnosis support device | |
JP2019201360A (en) | Image processing apparatus, computer program, video call system, and image processing method | |
CN109360652A (en) | A kind of physical examination industry is prevented for detecting method, system, device and storage medium | |
CN105993022A (en) | Recognition and authentication method and system using facial expression | |
CN206348810U (en) | A kind of real-name authentication device | |
WO2019014521A1 (en) | Dynamic image recognition system for security and telemedicine | |
US20230135997A1 (en) | Ai monitoring and processing system | |
KR102432992B1 (en) | Method and Server for providing customized information using face recognition technology | |
KR102263708B1 (en) | De-identification device for healthcare image | |
KR20230006719A (en) | Image content platform using 3D shot images | |
KR20210103519A (en) | How information is processed | |
JP7446806B2 (en) | Information processing device, method and program |