KR20200008820A - Method for user identification and pathological symptom prediction - Google Patents

Method for user identification and pathological symptom prediction Download PDF

Info

Publication number
KR20200008820A
KR20200008820A KR1020180082956A KR20180082956A KR20200008820A KR 20200008820 A KR20200008820 A KR 20200008820A KR 1020180082956 A KR1020180082956 A KR 1020180082956A KR 20180082956 A KR20180082956 A KR 20180082956A KR 20200008820 A KR20200008820 A KR 20200008820A
Authority
KR
South Korea
Prior art keywords
tremor
user
axis
face
shaking
Prior art date
Application number
KR1020180082956A
Other languages
Korean (ko)
Other versions
KR102241483B1 (en
Inventor
홍광석
조상일
Original Assignee
성균관대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 성균관대학교산학협력단 filed Critical 성균관대학교산학협력단
Priority to KR1020180082956A priority Critical patent/KR102241483B1/en
Publication of KR20200008820A publication Critical patent/KR20200008820A/en
Application granted granted Critical
Publication of KR102241483B1 publication Critical patent/KR102241483B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7225Details of analog processing, e.g. isolation amplifier, gain or sensitivity adjustment, filtering, baseline or drift compensation

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Power Engineering (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Tremors occur pathologically or physiologically in the hands, head, and other parts of the body. Pathological tremor is a condition in which a part or all of the body trembles with a regular rhythm. The pathological tremor is the most common symptom of movement disorders, and there are many types of pathological tremor depending on causes. The pathophysiology of tremor, a medical term for trembling, has not yet been precisely identified, but there are main hypotheses that there is a source of tremor in the central nervous system and that tremor occurs due to abnormalities in the cerebellar function. In addition, depending on the number of tremors and the timing of tremors, tremor may be manifested as a precursor to, or complication of various diseases. A representative disease involving tremor is Parkinson′s disease. The tremor of Parkinson′s disease is a resting tremor which occurs when a patient is at rest and is reduced during voluntary exercise. The resting tremor refers to tremor that is present severely when the hands are placed on the knees or chairs, and that is reduced when a patient holds or grips an object. In addition to tremor caused by pathological symptoms, most people have a certain pattern of tremors. The certain pattern of tremors can be used as a feature to classify users. The present invention relates to a method of predicting pathological symptoms for each user as well as identifying a user using a pattern of tremors.

Description

사용자 인식방법 및 병적징후 예측방법{METHOD FOR USER IDENTIFICATION AND PATHOLOGICAL SYMPTOM PREDICTION}METHOD FOR USER IDENTIFICATION AND PATHOLOGICAL SYMPTOM PREDICTION}

본 발명은 머리 미세떨림을 이용한 사용자 인식 및 병적징후 예측방법에 관한 것이다.The present invention relates to a method for recognizing a user and predicting morbidity using head micro shaking.

기존 영상 기반의 사용자 인식 기술은 사용자의 안면 구조적 특징에 집중하여 분류를 수행하였다. 하지만 이러한 안면인식 기술의 경우 사칭에 다소 취약점이 있다. 사용자의 안면정보와 더불어 개인별 생리적 상태에서 유발된 특징을 사용할 경우 사용자와 사칭자를 구분할 수 있다.In the existing image-based user recognition technology, classification is performed by focusing on the facial structural features of the user. However, such facial recognition technology has some weaknesses in impersonation. In addition to the user's facial information, the user and distinguished person can be distinguished by using features induced in the individual physiological state.

본 발명에서는 개인의 생리적 특징 중 하나인 머리 떨림 패턴을 검출하여 모델을 학습/생성하고 분류알고리즘을 사용하여 안면정보와 더불어 떨림에 대한 사용자 인식을 수행한다.In the present invention, the model of the head shaking is one of the physiological characteristics of the individual, and the model is trained and generated, and the classification algorithm is used to perform user recognition of the shaking along with facial information.

사용자 인식과 더불어 개별 사용자에 대한 떨림 패턴을 분석하여 병리적 상태를 예측하고, 사용자별 병적 징후 예측결과를 기록/관리하여 상태개선을 위한 도구로 사용한다.In addition to user recognition, it analyzes tremor patterns for individual users to predict pathological conditions, and records and manages pathological symptom prediction results for each user to use as a tool for improving status.

본 발명에서는 기존 안면인식을 통한 사용자 인식의 문제점을 해소하기 위해 생리적 상태에 따라 개인별 특징으로 사용될 수 있는 머리의 미세떨림을 검출하는 방법을 제안한다.The present invention proposes a method for detecting the microscopic shaking of the head that can be used as an individual feature according to the physiological state in order to solve the problem of user recognition through conventional facial recognition.

또한 머리의 미세떨림을 분석하는 방법을 통해 사진 또는 기타 방식에 의한 사칭자를 적절하게 구분하여 인식할 수 있으며, 머리 미세떨림 패턴에 대해 미리 구성된 병적징후 모델에 사용자의 머리 떨림 패턴을 입력하여 사용자별 병적징후 예측을 수행한다.In addition, by analyzing the microscopic shaking of the head, it is possible to appropriately recognize the impersonators by photographs or other methods, and input the user's head shaking pattern into the pre-configured morbidity model for the head micro shaking pattern. Morbidity prediction is performed.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Technical problems to be achieved in the present invention are not limited to the above-mentioned technical problems, and other technical problems not mentioned above will be clearly understood by those skilled in the art from the following description. Could be.

상술한 목적을 달성하기 위한 본 발명의 적어도 일 실시 예에 따르는 사용자 인식방법 및 병적징후 예측방법은, 카메라를 이용하여 사용자의 얼굴 영상을 촬영하는 단계; 상기 영상에서 상기 사용자의 얼굴 영역을 검출하는 단계; 상기 얼굴 영역의 임의의 두 점을 잇는 직선을 검출하는 단계; 상기 영상에서 일정 시간동안 상기 직선의 길이변화를 측정하는 단계; 그리고, 상기 직선의 길이변화에 기초하여, 상기 카메라와 상기 사용자의 얼굴 사이의 거리 변화를 획득하는 단계를 포함할 수 있다.In accordance with at least one embodiment of the present invention, a user recognition method and a pathological prediction method include: photographing a face image of a user using a camera; Detecting a face area of the user in the image; Detecting a straight line connecting any two points of the face area; Measuring a change in length of the straight line for a predetermined time in the image; The method may include obtaining a change in distance between the camera and the face of the user based on the change in the length of the straight line.

다른 실시 예에 따르면, 상기 직선은 상기 사용자 얼굴의 폭일 수 있다.According to another embodiment, the straight line may be the width of the user's face.

또 다른 실시 예에 따르면, 상기 직선은, 상기 사용자 얼굴의 길이일 수 있다.According to another embodiment, the straight line may be the length of the user's face.

또 다른 실시 예에 따르면, 상기 영상이 형성하는 평면에 제1 축을 설정하는 단계; 상기 일정 시간동안, 상기 제1 축 방향으로, 상기 얼굴 영역의 변위를 제1 떨림 정보로 획득하는 단계를 포함할 수 있다.According to another embodiment, setting a first axis in the plane formed by the image; The method may include obtaining, as the first shaking information, the displacement of the face region in the first axial direction during the predetermined time.

또 다른 실시 예에 따르면, 상기 영상이 형성하는 평면에 제2 축을 설정하는 단계; 상기 일정 시간동안, 상기 제2 축 방향으로, 상기 얼굴 영역의 변위를 제2 떨림 정보로 획득하는 단계를 포함할 수 있다.According to another embodiment, setting a second axis in the plane formed by the image; The method may include obtaining, as the second shaking information, displacement of the face region in the second axis direction during the predetermined time.

또 다른 실시 예에 따르면, 상기 제1 축과 상기 제2 축은 서로 직교할 수 있다.According to another embodiment, the first axis and the second axis may be perpendicular to each other.

또 다른 실시 예에 따르면, 상기 영상이 형성하는 평면에 포함되지 않는 제3 축을 설정하는 단계; 상기 일정 시간동안, 상기 제3 축 방향으로, 상기 얼굴 영역의 변위를 제3 떨림 정보로 획득하는 단계를 포함할 수 있다.According to another embodiment, setting a third axis that is not included in the plane formed by the image; The method may include obtaining, as the third shaking information, displacement of the face region in the third axis direction.

또 다른 실시 예에 따르면, 상기 제3 축은 상기 평면과 서로 직교할 수 있다.According to another embodiment, the third axis may be perpendicular to the plane.

또 다른 실시 예에 따르면, 상기 제1 떨림 정보, 상기 제2 떨림 정보, 상기 제3 떨림 정보 중 적어도 어느 하나를 하이패스필터에 통과시키는 단계를 포함할 수 있다.According to another embodiment, the method may include passing at least one of the first shaking information, the second shaking information, and the third shaking information to the high pass filter.

또 다른 실시 예에 따르면, 상기 하이패스필터의 차단주파수는 0.5Hz일 수 있다.According to another embodiment, the cutoff frequency of the high pass filter may be 0.5 Hz.

또 다른 실시 예에 따르면, 상기 제1 떨림 정보, 상기 제2 떨림 정보, 상기 제3 떨림 정보 중 적어도 어느 하나를 기 저장된 질병의 떨림 정보와 대비하는 단계를 포함할 수 있다. According to another embodiment, the method may include comparing at least one of the first shaking information, the second shaking information, and the third shaking information with pre-stored shaking information of the disease.

본 발명의 실시 예에 따르면, 영상을 이용하여 사용자의 머리 미세떨림을 검출하고 떨림 패턴을 분석하여 사용자 인식과 병적 징후를 예측한다. 또한, 사용자 개개인의 병적징후를 기록/관리하는 시스템에 적용할 수 있다.According to an embodiment of the present invention, the microscopic shaking of the user is detected using the image, and the shaking pattern is analyzed to predict the user recognition and the pathological signs. In addition, the present invention can be applied to a system for recording / management of individual symptoms of a user.

개인의 고유한 특성인 머리 미세 떨림을 이용하여, 사용자 인식에 적용할 경우 보안성을 높일 수 있다. 본 발명의 실시 예는 카메라 영상을 이용하는 것으로, 다른 생체인식 방법과 병행될 수 있다.By using the head shaking, which is a unique characteristic of the individual, the security can be enhanced when applied to user recognition. An embodiment of the present invention uses a camera image and may be combined with other biometric methods.

본 발명의 다른 실시 예에 따르면, 사용자의 병리적 상태를 예측하는 시스템을 구축할 수 있다.According to another embodiment of the present invention, a system for predicting a pathological state of a user may be constructed.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effect obtained in the present invention is not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those skilled in the art from the following description. .

도 1 내지 도 14는 사용자의 얼굴 떨림을 측정하는 방법의 일 예를 나타낸다.
도 15는 사용자를 인식하는 방법을 나타내는 순서도이다.
도 16은 사용자의 병적징후를 예측하는 방법을 나타내는 순서도이다.
도 17은 사용자의 떨림패턴을 측정하여 사용자 인식을 수행하는 방법을 나타내는 순서도이다.
1 to 14 show an example of a method of measuring the shaking of the user's face.
15 is a flowchart illustrating a method of recognizing a user.
16 is a flowchart illustrating a method of predicting a morbidity symptom of a user.
17 is a flowchart illustrating a method of measuring user tremor pattern and performing user recognition.

이하 설명하는 기술은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 이하 설명하는 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 이하 설명하는 기술의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The following description may be made in various ways and have a variety of embodiments, specific embodiments will be illustrated in the drawings and described in detail. However, this is not intended to limit the technology described below to specific embodiments, it should be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the technology described below.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 해당 구성요소들은 상기 용어들에 의해 한정되지는 않으며, 단지 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 이하 설명하는 기술의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.The terms first, second, A, B, etc. may be used to describe various components, but the components are not limited by the terms, but merely for distinguishing one component from other components. Only used as For example, the first component may be referred to as the second component, and similarly, the second component may be referred to as the first component without departing from the scope of the technology described below. The term and / or includes a combination of a plurality of related items or any item of a plurality of related items.

본 명세서에서 사용되는 용어에서 단수의 표현은 문맥상 명백하게 다르게 해석되지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함한다" 등의 용어는 설시된 특징, 개수, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계 동작 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해되어야 한다.As used herein, the singular forms "a," "an," and "the" are intended to include the plural forms as well, unless the context clearly indicates otherwise. It is to be understood that the present invention means that there is a part or a combination thereof, and does not exclude the presence or addition possibility of one or more other features or numbers, step operation components, parts or combinations thereof.

도면에 대한 상세한 설명을 하기에 앞서, 본 명세서에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.Prior to the detailed description of the drawings, it is intended to clarify that the division of the components in the present specification is only divided by the main function of each component. That is, two or more components to be described below may be combined into one component, or one component may be provided divided into two or more for each of the more detailed functions. Each of the components to be described below may additionally perform some or all of the functions of other components in addition to the main functions of the components, and some of the main functions of each of the components are different. Of course, it may be carried out exclusively by.

또, 방법 또는 동작 방법을 수행함에 있어서, 상기 방법을 이루는 각 과정들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 과정들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In addition, in performing the method or operation method, each process constituting the method may occur differently from the stated order unless the context clearly indicates a specific order. That is, each process may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.

이하의 설명에서 사용되는 높이, 길이, 너비, 폭 등의 용어는 설명의 편의를 위해 혼용될 수 있으며, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.Terms such as height, length, width, width, and the like used in the following description may be used for convenience of description and do not have meanings or roles that are distinct from each other.

떨림이란 병리적 또는 생리적으로 손, 머리, 기타 신체 부위에서 발생될 수 있다. 떨림은 몸의 일부 또는 전체가 규칙적인 리듬으로 떨림을 의미할 수 있다. 떨림은 이상운동질환 중 하나일 수 있다.Tremor can occur pathologically or physiologically in the hands, head, or other parts of the body. Tremor may mean that some or all of the body trembles in a regular rhythm. Tremor may be one of the dyskinesia.

떨림은 사람의 고유한 특성일 수 있다. 떨림을 감지함으로써, 사람을 인식 또는 특정할 수 있다.Tremor can be a unique characteristic of a person. By detecting the shaking, a person can be recognized or specified.

도 1을 참조하면, 촬영장치는 사용자를 촬영할 수 있다. 촬영장치는 영상 또는 이미지를 획득할 수 있다. 예를 들어, 촬영장치는 사용자의 머리 또는 얼굴을 촬영할 수 있다. 촬영장치는 카메라라고 칭할 수 있다.Referring to FIG. 1, the photographing apparatus may photograph a user. The photographing apparatus may acquire an image or an image. For example, the photographing apparatus may photograph the head or face of the user. The photographing apparatus may be called a camera.

도 2를 참조하면, 촬영장치가 획득한 영상 또는 이미지는 2차원일 수 있다. 2차원의 영상 또는 이미지에 두 개의 좌표축을 설정할 수 있다. 두 개의 좌표축은 서로 평행하지 않을 수 있다. 예를 들어, 두 개의 좌표축은 x축 및 y축일 수 있다. x축과 y축은 서로 직교할 수 있다.Referring to FIG. 2, an image or an image acquired by the photographing apparatus may be two-dimensional. Two coordinate axes can be set in a two-dimensional image or image. The two coordinate axes may not be parallel to each other. For example, the two coordinate axes can be the x axis and the y axis. The x and y axes may be orthogonal to each other.

촬영장치가 획득한 영상 또는 이미지를 3차원 좌표계를 도입하기 위해 z축이 설정될 수 있다. z축은 x축 또는 y축과 평행하지 않을 수 있다. 예를 들어, z축은 x축 또는 y축과 직교할 수 있다.The z-axis may be set to introduce a three-dimensional coordinate system to an image or an image acquired by the photographing apparatus. The z axis may not be parallel to the x or y axis. For example, the z axis can be orthogonal to the x axis or the y axis.

사용자 얼굴에 대해, x축과 나란한 방향을 폭, y축과 나란한 방향을 높이라고 칭할 수 있다. 임의의 시간 t에 대하여, 사용자 얼굴의 임의의 좌표는 (Xt, Yt, Zt)으로 표시될 수 있다. 좌표(Xt, Yt, Zt)는 얼굴의 중심점이라고 칭할 수 있다.For the user's face, the direction parallel to the x-axis may be referred to as the width and the direction parallel to the y-axis. For any time t, any coordinates of the user's face may be represented as (Xt, Yt, Zt). The coordinates Xt, Yt, and Zt may be referred to as the center points of the face.

도 3(a)를 참조하면, 시간 t1에 대하여 중심점은 (Xt1, Yt1, Zt1)으로 표시될 수 있다. 도 3(b)를 참조하면, 시간 t2에 대하여 중심점은 (Xt2, Yt2, Zt2)로 표시될 수 있다. 시간 t1가 시간 t2로 경과할 때, x축 또는 y축 좌표의 변화량은 픽셀의 좌표 등을 이용하여 계산할 수 있다. 그러나 영상 또는 이미지에서 z축 좌표의 변화량은 쉽게 측정되지 않으므로, z축 좌표의 변화량을 측정하는 방법이 필요할 수 있다.Referring to FIG. 3A, the center point may be represented as (Xt1, Yt1, Zt1) with respect to time t1. Referring to FIG. 3B, the center point may be represented as (Xt2, Yt2, Zt2) with respect to time t2. When time t1 elapses to time t2, the amount of change in the x- or y-axis coordinates can be calculated using the coordinates of the pixel and the like. However, since the change amount of the z-axis coordinate in the image or image is not easily measured, a method of measuring the change amount of the z-axis coordinate may be necessary.

이 때, z축 좌표의 변화량을 측정하기 위해, 영상 또는 이미지에 나타난 사용자의 얼굴의 폭 또는 높이를 이용할 수 있다. 시간 t1에서 사용자 얼굴의 폭을 W1, 사용자 얼굴의 높이를 H1라고 할 수 있다. 시간 t2에서 사용자 얼굴의 폭을 W2, 사용자 얼굴의 높이를 H2라고 할 수 있다.In this case, in order to measure the amount of change in the z-axis coordinate, the width or height of the user's face shown in the image or the image may be used. At time t1, the width of the user's face may be referred to as W1 and the height of the user's face may be referred to as H1. At time t2, the width of the user's face may be W2, and the height of the user's face may be H2.

사용자의 머리떨림과 더불어 심인성 요인 등에 의해 얼굴 안면근육의 떨림이 발생할 수 있다. 이러한 떨림을 측정하기 위해 얼굴 영역 내 눈, 입술 등의 검출을 수행하여 상기방법과 동일한 기능으로 떨림패턴 측정할 수 있다.In addition to the shaking of the user, facial facial muscles may be shaken due to psychogenic factors. In order to measure the shaking, a shaking pattern may be measured by the same function as the above method by detecting the eyes, the lips, and the like in the face region.

도 4를 참조하면, 그래프의 가로축은 사용자의 얼굴의 폭을 나타낸 것일 수 있고, 그래프의 세로축은 사용자의 얼굴과 카메라의 거리(distance)를 나타낸 것일 수 있다. 거리(distance)와 얼굴의 폭(W)의 관계는 수학식 1과 같을 수 있다. 거리는 cm 단위일 수 있다. 얼굴의 폭(W)는 카메라가 획득한 이미지 또는 영상으로부터 얻을 수 있다.Referring to FIG. 4, the horizontal axis of the graph may represent the width of the user's face, and the vertical axis of the graph may represent the distance between the user's face and the camera. The relationship between the distance and the width W of the face may be represented by Equation 1. The distance may be in cm. The width W of the face may be obtained from an image or an image acquired by the camera.

Figure pat00001
Figure pat00001

도 5를 참조하면, 그래프의 가로축은 카메라와 사용자 얼굴 사이의 거리(distance)를 나타낸 것일 수 있고, 그래프의 세로축은 영상 또는 이미지의 1픽셀의 실제 거리(p)를 나타낸 것일 수 있다. 1픽셀거리(p)와 거리(distance)의 관계는 수학식 2와 같을 수 있다. 거리는 cm 단위일 수 있다. 거리(distance)는 수학식 1로부터 계산된 값일 수 있다.Referring to FIG. 5, the horizontal axis of the graph may represent a distance between a camera and a user face, and the vertical axis of the graph may represent an actual distance p of an image or an image of 1 pixel. The relationship between the distance of 1 pixel p and the distance may be as shown in Equation 2. The distance may be in cm. The distance may be a value calculated from Equation 1.

Figure pat00002
Figure pat00002

도 6을 참조하면, 그래프의 가로축은 영상 또는 이미지에서 측정되는 사용자의 얼굴 폭(W)일 수 있고, 그래프의 세로축은 영상 또는 이미지에서 측정되는 얼굴 높이(H)를 나타낸 것일 수 있다. 그래프에 나타나는 측정값들은 직선을 형성할 수 있다. 즉, 카메라와 사용자 얼굴 사이의 거리(distance)가 변하더라도, 얼굴의 폭(W)과 얼굴의 높이(H)의 비는 일정할 수 있다. 따라서, 사용자의 얼굴과 카메라의 거리(distance)를 구하기 위해, 사용자 얼굴의 폭(W) 대신 사용자 얼굴의 높이(H)를 이용할 수도 있다.Referring to FIG. 6, the horizontal axis of the graph may be the face width W of the user measured in the image or the image, and the vertical axis of the graph may represent the face height H measured in the image or the image. The measurements shown on the graph can form a straight line. That is, even if the distance between the camera and the user's face changes, the ratio of the width W of the face to the height H of the face may be constant. Accordingly, in order to obtain the distance between the user's face and the camera, the height H of the user's face may be used instead of the width W of the user's face.

도 7을 참조하면, 그래프의 가로축은 시간일 수 있고, 그래프의 세로축은 x축 변위를 나타낸 것일 수 있다. 시간의 단위는 second 일 수 있다. x축 변위의 기준점은 중심점(Xt, Yt, Zt)일 수 있다. 변위의 단위는 cm일 수 있다. 그래프는 x축 떨림 정보 또는 떨림 정보라고 할 수 있다.Referring to FIG. 7, the horizontal axis of the graph may be time, and the vertical axis of the graph may represent the x-axis displacement. The unit of time may be second. The reference point of the x-axis displacement may be a center point (Xt, Yt, Zt). The unit of displacement may be cm. The graph may be referred to as x-axis shake information or shake information.

도 8을 참조하면, 그래프의 가로축은 시간일 수 있고, 그래프의 세로축은 y축 변위를 나타낸 것일 수 있다. 시간의 단위는 second 일 수 있다. y축 변위의 기준점은 중심점(Xt, Yt, Zt)일 수 있다. 변위의 단위는 cm일 수 있다. 그래프는 y축 떨림 정보 또는 떨림 정보라고 할 수 있다.Referring to FIG. 8, the horizontal axis of the graph may be time, and the vertical axis of the graph may represent the y-axis displacement. The unit of time may be second. The reference point of the y-axis displacement may be a center point (Xt, Yt, Zt). The unit of displacement may be cm. The graph may be referred to as y-axis shake information or shake information.

도 9을 참조하면, 그래프의 가로축은 시간일 수 있고, 그래프의 세로축은 z축 변위를 나타낸 것일 수 있다. 시간의 단위는 second 일 수 있다. z축 변위의 기준점은 중심점(Xt, Yt, Zt)일 수 있다. 변위의 단위는 cm일 수 있다. 그래프는 z축 떨림 정보 또는 떨림 정보라고 할 수 있다.Referring to FIG. 9, the horizontal axis of the graph may be time, and the vertical axis of the graph may represent the z-axis displacement. The unit of time may be second. The reference point of the z-axis displacement may be a center point (Xt, Yt, Zt). The unit of displacement may be cm. The graph may be referred to as z-axis shaking information or shaking information.

도 7 내지 도 9에 나타난 그래프는 사용자 얼굴의 떨림정보와 사용자 머리의 움직임 정보가 함께 나타난 것일 수 있다. 사용자 머리의 움직임 정보는 사용자 머리의 편향정보라고 할 수 있다. 사용자 머리의 움직임 정보는 사용자 머리의 떨림과 구별되는 움직임일 수 있다. 따라서, 사용자 머리의 움직임 정보를 제거함으로써, 사용자 얼굴의 떨림 정보만을 추출할 수 있다. 이를 위해, 도 7 내지 도 9에 나타난 그래프를 필터링할 수 있다. 예를 들어, 0.5Hz 이상의 주파수를 통과시키는 고역통과 필터링을 수행할 수 있다.7 to 9 may show the shaking information of the user's face and the movement information of the user's head. The motion information of the user's head may be referred to as deflection information of the user's head. The motion information of the user's head may be a motion distinguished from the shaking of the user's head. Therefore, by removing the motion information of the user's head, only the shaking information of the user's face can be extracted. To this end, the graphs shown in FIGS. 7 to 9 may be filtered. For example, high pass filtering that passes frequencies above 0.5 Hz can be performed.

도 10을 참조하면, 그래프의 가로축은 시간일 수 있고, 그래프의 세로축은 x축 변위를 나타낸 것일 수 있다. 도 10의 그래프는 도 7의 그래프에서 사용자의 머리 움직임 정보를 제거하고, 사용자 얼굴의 떨림 정보를 추출한 그래프일 수 있다. 시간의 단위는 second 일 수 있다. x축 변위의 기준점은 중심점(Xt, Yt, Zt)일 수 있다. 변위의 단위는 cm일 수 있다. 그래프는 x축 떨림 정보 또는 떨림 정보라고 할 수 있다.Referring to FIG. 10, the horizontal axis of the graph may be time, and the vertical axis of the graph may represent x-axis displacement. The graph of FIG. 10 may be a graph from which the user's head movement information is removed from the graph of FIG. 7 and the shaking information of the user's face is extracted. The unit of time may be second. The reference point of the x-axis displacement may be a center point (Xt, Yt, Zt). The unit of displacement may be cm. The graph may be referred to as x-axis shake information or shake information.

도 11을 참조하면, 그래프의 가로축은 시간일 수 있고, 그래프의 세로축은 y축 변위를 나타낸 것일 수 있다. 도 11의 그래프는 도 8의 그래프에서 사용자의 머리 움직임 정보를 제거하고, 사용자 얼굴의 떨림 정보를 추출한 그래프일 수 있다. 시간의 단위는 second 일 수 있다. y축 변위의 기준점은 중심점(Xt, Yt, Zt)일 수 있다. 변위의 단위는 cm일 수 있다. 그래프는 y축 떨림 정보 또는 떨림 정보라고 할 수 있다.Referring to FIG. 11, the horizontal axis of the graph may be time, and the vertical axis of the graph may represent the y-axis displacement. The graph of FIG. 11 may be a graph from which the head movement information of the user is removed from the graph of FIG. 8 and the shaking information of the user's face is extracted. The unit of time may be second. The reference point of the y-axis displacement may be a center point (Xt, Yt, Zt). The unit of displacement may be cm. The graph may be referred to as y-axis shake information or shake information.

도 12를 참조하면, 그래프의 가로축은 시간일 수 있고, 그래프의 세로축은 z축 변위를 나타낸 것일 수 있다. 도 12의 그래프는 도 9의 그래프에서 사용자의 머리 움직임 정보를 제거하고, 사용자 얼굴의 떨림 정보를 추출한 그래프일 수 있다. 시간의 단위는 second 일 수 있다. z축 변위의 기준점은 중심점(Xt, Yt, Zt)일 수 있다. 변위의 단위는 cm일 수 있다. 그래프는 z축 떨림 정보 또는 떨림 정보라고 할 수 있다.Referring to FIG. 12, the horizontal axis of the graph may be time, and the vertical axis of the graph may represent the z-axis displacement. The graph of FIG. 12 may be a graph from which the user's head movement information is removed from the graph of FIG. 9 and the shaking information of the user's face is extracted. The unit of time may be second. The reference point of the z-axis displacement may be a center point (Xt, Yt, Zt). The unit of displacement may be cm. The graph may be referred to as z-axis shaking information or shaking information.

도 13을 참조하면, 그래프의 가로축은 시간일 수 있고, 그래프의 세로축은 변위를 나타낸 것일 수 있다. 떨림강도 떨림으로 인한 변위의 크기를 의미할 수 있다. 떨림횟수는 교차기준선과 그래프의 교차횟수를 기준으로 산출할 수 있다. 교차기준선은 x축과 평행한 선일 수 있다. 예를 들어, 교차기준선이 7인 경우, 교차횟수는 14회일 수 있다. 예를 들어, 교차기준선이 -1인 경우, 교차횟수는 22회일 수 있다. 예를 들어, 교차기준선이 -2인 경우, 교차횟수는 22회일 수 있다. 예를 들어, 교차기준선이 -7인 경우, 교차횟수는 10회일 수 있다. 떨림횟수와 교차횟수의 관계는 수학식 3과 같을 수 있다. 떨림강도, 떨림횟수 등은 떨림패턴을 형성할 수 있다.Referring to FIG. 13, the horizontal axis of the graph may be time, and the vertical axis of the graph may represent displacement. Tremor intensity may refer to the amount of displacement due to tremor. The number of tremors can be calculated based on the number of crossings of the cross reference line and the graph. The cross reference line may be a line parallel to the x axis. For example, when the cross reference line is 7, the number of crossings may be 14 times. For example, when the cross reference line is -1, the crossing frequency may be 22 times. For example, when the cross reference line is -2, the number of crossings may be 22 times. For example, when the cross reference line is -7, the crossing frequency may be 10 times. The relationship between the number of shaking and the number of crossings may be as shown in Equation 3. Tremor intensity, tremor frequency, etc. can form a tremor pattern.

Figure pat00003
Figure pat00003

도 14를 참조하면, 그래프의 -9, -8, -7, -6, -5, -4, -3, -2, -1, 0, 1, 2, 3, 4, 5, 6, 7, 8 또는 9로 나타낸 값은 변위를 의미할 수 있다. 그래프의 0, 200, 400, 600, 800, 1000 또는 1200은 떨림횟수를 의미할 수 있다. 그래프는 x축, y축 또는 z축 중 어느 하나에 대한 떨림횟수를 나타낸 것일 수 있다. 사용자는 고유의 떨림패턴을 가질 수 있고, 그래프는 사용자마다 고유의 형태로 나타날 수 있다. 따라서, 사용자의 떨림패턴을 분석함으로써, 사용자 인증과 같은 생체인식의 일 예로서 활용될 수 있다.Referring to FIG. 14, -9, -8, -7, -6, -5, -4, -3, -2, -1, 0, 1, 2, 3, 4, 5, 6, 7 of the graph A value represented by 8, 9 may mean a displacement. 0, 200, 400, 600, 800, 1000 or 1200 of the graph may refer to the number of shaking. The graph may be representative of the number of vibrations on any one of the x-axis, the y-axis, or the z-axis. The user may have a unique shaking pattern, and the graph may appear in a unique form for each user. Therefore, by analyzing the shaking pattern of the user, it can be utilized as an example of biometrics such as user authentication.

떨림 또는 진전(tremor) 증상은 특정 패턴을 가질 수 있다. 사용자의 떨림패턴을 분석함으로써, 사용자가 특정 떨림 또는 진전(tremor) 증상을 가지고 있는지 판별할 수 있다.Tremor or tremor symptoms may have a specific pattern. By analyzing the shaking pattern of the user, it is possible to determine whether the user has a certain shaking or tremor symptom.

표 1은 떨림 또는 진전(tremor) 증상에 대한 특징을 나타낸 예시이다.Table 1 is an example showing the characteristics of tremor or tremor symptoms.

Figure pat00004
Figure pat00004

진전증세는 모든 사람에게서 발견되며 병리학적 진전은 여러 조건에서 발생된다. 떨림의 진폭과 빈도는 진전증세를 특정 짓는 주요 특징으로 사용될 수 있다. 표 1에서와 같이 떨림의 발생조건과 초당 떨림 횟수에 따라 파킨슨병, 본태성, 근긴장, 신경병증성, 외상 후 심인성 등 다양한 병적징후를 예측할 수 있다.Tremor symptoms are found in all people and pathological progress occurs under various conditions. The amplitude and frequency of tremor can be used as a key feature to characterize tremor. As shown in Table 1, various pathological symptoms such as Parkinson's disease, essential, muscle tone, neuropathy, and post-traumatic psychogenicity can be predicted according to the shaking conditions and the number of tremors per second.

본 발명의 실시 예에 따르면, 사용자를 촬영한 영상으로부터 z축 좌표를 획득함으로써, 사용자의 떨림패턴 인식의 정확성을 높일 수 있다. 사용자의 떨림패턴 인식은 머신러닝으로 구현될 수 있다.According to an embodiment of the present invention, by acquiring the z-axis coordinates from the image of the user, the accuracy of the recognition of the user's vibration pattern may be increased. Recognition of the tremor pattern of the user may be implemented by machine learning.

머신러닝 기법을 통해 12명의 인원으로 떨림패턴 인식률을 실험하여, confusion matrix를 작성할 수 있다. 표 2는 x축 및 y축의 떨림패턴을 가지고 인식률을 측정한 결과를 나타낸다.By using the machine learning method, we can create a confusion matrix by experimenting with the vibration pattern recognition rate of 12 people. Table 2 shows the results of measuring the recognition rate with the shaking patterns of the x- and y-axes.

Figure pat00005
Figure pat00005

표 3은 x축, y축 및 z축의 떨림패턴을 가지고 인식률을 측정한 결과를 나타낸다.Table 3 shows the result of measuring the recognition rate with the shaking pattern of the x-axis, y-axis and z-axis.

Figure pat00006
Figure pat00006

실험 결과 x축과 y축을 사용했을 경우 58%의 인식률을 얻을 수 있고, x축, y축 및 z축을 사용한 경우 67%의 인식률을 얻을 수 있다.Experimental results show that the recognition rate is 58% when using the x-axis and the y-axis, and 67% when the x-axis, the y-axis, and the z-axis are used.

또는, 머신러닝 기법 중 SVM(support vector machine)을 이용하여, 12명의 떨림패턴 인식 confusion matrix를 작성할 수 있다. 표 4는 x축 및 y축의 떨림패턴을 가지고 인식률을 측정한 결과를 나타낸다.Or, a tremor pattern recognition confusion matrix of 12 people can be created using a support vector machine (SVM). Table 4 shows the results of measuring the recognition rate with the shaking patterns of the x- and y-axes.

Figure pat00007
Figure pat00007

표 5은 x축, y축 및 z축의 떨림패턴을 가지고 인식률을 측정한 결과를 나타낸다.Table 5 shows the result of measuring the recognition rate with the shaking pattern of the x-axis, y-axis and z-axis.

Figure pat00008
Figure pat00008

실험 결과 x축과 y축을 사용했을 경우 80%의 인식률을 얻을 수 있고, x축, y축 및 z축을 사용한 경우 100%의 인식률을 얻을 수 있다.As a result of the experiment, 80% recognition rate can be obtained using the x-axis and y-axis, and 100% recognition rate can be obtained using the x-axis, y-axis, and z-axis.

즉, 상하좌우떨림인 x축, y축 정보만을 사용하는 것보다 머리 앞뒤 움직임 정보인 z축을 이용하는 경우, 인식률을 높일 수 있다.That is, the recognition rate can be increased when using the z-axis, which is the front and back motion information, rather than using only the x-axis and the y-axis information, which are up, down, left, and right.

도 15를 참조하면, 순서도는 사용자의 떨림패턴을 측정하여 사용자 인식을 수행하는 방법을 나타낸 것일 수 있다. 카메라로 사용자의 머리 또는 얼굴을 촬영하는 단계를 포함할 수 있다(S1510). 촬영된 영상에서 사용자의 얼굴을 검출하는 단계를 포함할 수 있다(S1530). 사용자 얼굴의 움직임에 대한 3차원 좌표를 획득하는 단계를 포함할 수 있다(S1550). 사용자 얼굴의 미세 떨림을 측정하여 떨림패턴을 획득하는 단계를 포함할 수 있다(S1570). 획득한 떨림패턴과 기 저장된 정보를 대비하여, 사용자를 인식하는 단계를 포함할 수 있다(S1590).Referring to FIG. 15, a flowchart may illustrate a method of measuring user tremor pattern to perform user recognition. In operation S1510, the method may include photographing a head or a face of the user with a camera. In operation S1530, the method may include detecting a face of the user from the captured image. In operation S1550, the method may include obtaining 3D coordinates of the movement of the user face. In operation S1570, the method may include obtaining a shaking pattern by measuring the small shaking of the user's face. In operation S1590, the method may include recognizing a user by contrasting the obtained vibration pattern with previously stored information.

도 16을 참조하면, 순서도는 사용자의 떨림패턴을 측정하여 병적징후를 예측 또는 판단하는 방법을 나타낸 것일 수 있다. 카메라로 사용자의 머리 또는 얼굴을 촬영하는 단계를 포함할 수 있다(S1610). 촬영된 영상에서 사용자의 얼굴을 검출하는 단계를 포함할 수 있다(S1620). 사용자 얼굴의 움직임에 대한 3차원 좌표를 획득하는 단계를 포함할 수 있다(S1630). 사용자 얼굴의 미세 떨림을 측정하여 떨림패턴을 획득하는 단계를 포함할 수 있다(S1640). 획득한 떨림패턴과 기 저장된 병적징후 정보를 대비하는 단계를 포함할 수 있다(S1650). 사용자의 병적징후를 예측하는 단계를 포함할 수 있다(S1660).Referring to FIG. 16, a flowchart may illustrate a method of predicting or determining a symptom of morbidity by measuring a user's tremor pattern. In operation S1610, the method may include photographing a head or a face of the user with a camera. The method may include detecting a face of the user from the captured image (S1620). In operation S1630, the method may include obtaining 3D coordinates of the movement of the user face. In operation S1640, the method may include obtaining a shaking pattern by measuring the small shaking of the user's face. It may include the step of contrasting the obtained vibration pattern and the previously stored morbidity information (S1650). It may include the step of predicting the morbid symptoms of the user (S1660).

도 17은 본 발명의 흐름도를 보여준다. 도 17을 참조하면, 순서도는 사용자의 떨림패턴을 측정하여 사용자 인식을 수행하는 방법을 나타낸 것일 수 있다. 카메라로 사용자의 머리 또는 얼굴을 촬영하는 단계를 포함할 수 있다(S1720). 촬영된 영상에서 사용자의 얼굴을 검출하는 단계를 포함할 수 있다(S1730). 사용자 얼굴의 움직임에 대한 3차원 좌표를 획득하는 단계를 포함할 수 있다(S1740). 사용자 얼굴의 미세 떨림을 측정하여 떨림패턴을 획득하는 단계를 포함할 수 있다(S1750). 획득한 떨림패턴과 기 저장된 정보를 대비하여, 사용자를 인식하는 단계(S1760) 또는 사용자의 병적징후를 예측하는 단계를 포함할 수 있다(S1770).17 shows a flow chart of the present invention. Referring to FIG. 17, a flowchart may illustrate a method of measuring user tremor pattern to perform user recognition. In operation S1720, the method may include photographing a head or a face of the user with a camera. In operation S1730, the method may include detecting a face of the user from the captured image. In operation S1740, the method may include obtaining 3D coordinates of the movement of the user face. In operation S1750, the method may include obtaining a shaking pattern by measuring a small shaking of the user's face. It may include the step of recognizing the user (S1760) or predicting the pathological symptoms of the user (S1770) in contrast to the obtained vibration pattern and the previously stored information.

본 실시 예 및 본 명세서에 첨부된 도면은 전술한 기술에 포함되는 기술적 사상의 일부를 명확하게 나타내고 있는 것에 불과하며, 전술한 기술의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시 예는 모두 전술한 기술의 권리범위에 포함되는 것이 자명하다고 할 것이다.The embodiments and the drawings attached to this specification are merely to clearly show a part of the technical idea included in the above-described technology, and those skilled in the art can easily make it within the scope of the technical idea included in the specification and drawings of the above-described technology. Modifications and specific embodiments that can be inferred will be obviously included in the scope of the above-described technology.

Claims (11)

카메라로 사용자의 얼굴 영상을 촬영하는 단계;
상기 영상에서 상기 사용자의 얼굴 영역을 검출하는 단계;
상기 얼굴 영역 내부의 임의의 두 점을 잇는 직선을 검출하는 단계;
상기 영상에서 일정 시간동안 상기 직선의 길이변화를 측정하는 단계; 그리고,
상기 직선의 길이변화에 기초하여, 상기 카메라와 상기 사용자의 얼굴 사이의 거리 변화를 획득하는 단계를 포함하는 사용자 인식 및 병적징후 예측방법.
Photographing a face image of a user with a camera;
Detecting a face area of the user in the image;
Detecting a straight line connecting two arbitrary points within the face area;
Measuring a change in length of the straight line for a predetermined time in the image; And,
And acquiring a change in distance between the camera and the face of the user based on the change in the length of the straight line.
제1 항에 있어서,
상기 직선은 상기 사용자 얼굴의 폭인 사용자 인식 및 병적징후 예측 방법.
According to claim 1,
And wherein the straight line is the width of the user's face.
제1 항에 있어서,
상기 직선은, 상기 사용자 얼굴의 길이인 사용자 인식 및 병적징후 예측 방법.
According to claim 1,
The straight line is the length of the user's face, the user recognition and pathological signs prediction method.
제1 항에 있어서,
상기 영상이 형성하는 평면에 제1 축을 설정하는 단계;
상기 일정 시간동안, 상기 제1 축 방향으로, 상기 얼굴 영역의 변위를 제1 떨림 정보로 획득하는 단계를 포함하는 사용자 인식 및 병적징후 예측 방법.
According to claim 1,
Setting a first axis on a plane formed by the image;
And acquiring a displacement of the face region as first shaking information during the predetermined time, in the first axial direction.
제4 항에 있어서,
상기 영상이 형성하는 평면에 제2 축을 설정하는 단계;
상기 일정 시간동안, 상기 제2 축 방향으로, 상기 얼굴 영역의 변위를 제2 떨림 정보로 획득하는 단계를 포함하는 사용자 인식 및 병적징후 예측 방법.
The method of claim 4, wherein
Setting a second axis on a plane formed by the image;
And acquiring a displacement of the face area as second shaking information during the predetermined time, in the second axis direction.
제5 항에 있어서,
상기 제1 축과 상기 제2 축은 서로 직교하는 사용자 인식 및 병적징후 예측 방법.
The method of claim 5,
And the first axis and the second axis are orthogonal to each other.
제5 항에 있어서,
상기 영상이 형성하는 평면에 포함되지 않는 제3 축을 설정하는 단계;
상기 일정 시간동안, 상기 제3 축 방향으로, 상기 얼굴 영역의 변위를 제3 떨림 정보로 획득하는 단계를 포함하는 사용자 인식 및 병적징후 예측 방법.
The method of claim 5,
Setting a third axis not included in a plane formed by the image;
And acquiring a displacement of the face region as third shaking information during the predetermined time, in the third axis direction.
제7 항에 있어서,
상기 제3 축은 상기 평면과 서로 직교하는 사용자 인식 및 병적징후 예측 방법.
The method of claim 7, wherein
And the third axis is orthogonal to the plane.
제8 항에 있어서,
상기 제1 떨림 정보, 상기 제2 떨림 정보, 상기 제3 떨림 정보 중 적어도 어느 하나를 하이패스필터에 통과시키는 단계를 포함하는 사용자 인식 및 병적징후 예측 방법.
The method of claim 8,
And passing at least one of the first shaking information, the second shaking information, and the third shaking information to a high pass filter.
제9 항에 있어서,
상기 하이패스필터의 차단주파수는 0.5Hz인 사용자 인식 및 병적징후 예측 방법.
The method of claim 9,
And a cutoff frequency of the high pass filter is 0.5 Hz.
제9 항에 있어서,
상기 제1 떨림 정보, 상기 제2 떨림 정보, 상기 제3 떨림 정보 중 적어도 어느 하나를 기 저장된 질병의 떨림 정보와 대비하는 단계를 포함하는 사용자 인식 및 병적징후 예측 방법.
The method of claim 9,
And comparing at least one of the first shaking information, the second shaking information, and the third shaking information with pre-stored shaking information of a disease.
KR1020180082956A 2018-07-17 2018-07-17 Method for user identification and pathological symptom prediction KR102241483B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180082956A KR102241483B1 (en) 2018-07-17 2018-07-17 Method for user identification and pathological symptom prediction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180082956A KR102241483B1 (en) 2018-07-17 2018-07-17 Method for user identification and pathological symptom prediction

Publications (2)

Publication Number Publication Date
KR20200008820A true KR20200008820A (en) 2020-01-29
KR102241483B1 KR102241483B1 (en) 2021-04-19

Family

ID=69322387

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180082956A KR102241483B1 (en) 2018-07-17 2018-07-17 Method for user identification and pathological symptom prediction

Country Status (1)

Country Link
KR (1) KR102241483B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102591395B1 (en) 2021-07-19 2023-10-20 서울대학교병원 System and method for supporting diagnosis of velo cardio facial syndrome(vcfs)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017503276A (en) * 2014-01-02 2017-01-26 イリテック インコーポレイテッド Apparatus and method for acquiring iris recognition image using face component distance
KR20170054837A (en) * 2015-11-10 2017-05-18 상명대학교산학협력단 Method for extracting heart information of facial micro-movement and system adopting the method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017503276A (en) * 2014-01-02 2017-01-26 イリテック インコーポレイテッド Apparatus and method for acquiring iris recognition image using face component distance
KR20170054837A (en) * 2015-11-10 2017-05-18 상명대학교산학협력단 Method for extracting heart information of facial micro-movement and system adopting the method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
공개특허 US6834115 B2 (발명의 명칭: Method for optimizing off-line facial feature tracking)
공개특허 US7352881 B2(발명의 명칭: Method for tracking facial features in a video sequence)

Also Published As

Publication number Publication date
KR102241483B1 (en) 2021-04-19

Similar Documents

Publication Publication Date Title
Hernandez-Ortega et al. Time analysis of pulse-based face anti-spoofing in visible and NIR
Preis et al. Gait recognition with kinect
CN110662490B (en) System and method for detecting complex networks in MRI image data
Cola et al. Gait-based authentication using a wrist-worn device
WO2019127365A1 (en) Face living body detection method, electronic device and computer program product
Li et al. Gait components and their application to gender recognition
Liong et al. Subtle expression recognition using optical strain weighted features
Thang et al. Gait identification using accelerometer on mobile phone
Boulgouris et al. Gait recognition using radon transform and linear discriminant analysis
Hoang et al. Adaptive cross-device gait recognition using a mobile accelerometer
CN107831907A (en) Identity identifying method and device based on Gait Recognition
Deravi et al. Gaze trajectory as a biometric modality
KR102029219B1 (en) Method for recogniging user intention by estimating brain signals, and brain-computer interface apparatus based on head mounted display implementing the method
CN108596106A (en) Visual fatigue recognition methods and its device, VR equipment based on VR equipment
JP2016031679A (en) Object identification device, object identification method, and program
Elkader et al. Wearable sensors for recognizing individuals undertaking daily activities
Yamada et al. Can saliency map models predict human egocentric visual attention?
Foster et al. New area based metrics for gait recognition
JP2019514102A (en) Behavior pattern analysis system and method using depth image
van Boxtel et al. Joints and their relations as critical features in action discrimination: Evidence from a classification image method
KR20200008820A (en) Method for user identification and pathological symptom prediction
Das et al. Detecting deepfake videos using Euler video magnification
CN112417977B (en) Target object searching method and terminal
Nunes et al. Benchmark RGB-D gait datasets: a systematic review
Healy et al. Optimising the number of channels in eeg-augmented image search

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant