KR102047237B1 - 영상 데이터를 분석하는 인공 지능을 이용한 질병 진단 방법 및 진단 시스템 - Google Patents

영상 데이터를 분석하는 인공 지능을 이용한 질병 진단 방법 및 진단 시스템 Download PDF

Info

Publication number
KR102047237B1
KR102047237B1 KR1020170170919A KR20170170919A KR102047237B1 KR 102047237 B1 KR102047237 B1 KR 102047237B1 KR 1020170170919 A KR1020170170919 A KR 1020170170919A KR 20170170919 A KR20170170919 A KR 20170170919A KR 102047237 B1 KR102047237 B1 KR 102047237B1
Authority
KR
South Korea
Prior art keywords
image
face
neural network
network model
client device
Prior art date
Application number
KR1020170170919A
Other languages
English (en)
Other versions
KR20190070432A (ko
Inventor
심재희
심우호
김철호
Original Assignee
(주)엔텔스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)엔텔스 filed Critical (주)엔텔스
Priority to KR1020170170919A priority Critical patent/KR102047237B1/ko
Publication of KR20190070432A publication Critical patent/KR20190070432A/ko
Application granted granted Critical
Publication of KR102047237B1 publication Critical patent/KR102047237B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Abstract

영상 데이터를 분석하는 인공 지능을 이용한 질병 진단 방법은 클라이언트 장치가 사용자의 얼굴 영상을 전송하는 단계, 서비스 서버가 수신한 상기 얼굴 영상을 분석 서버에 전송하는 단계, 상기 분석 서버가 사전에 마련된 신경망 모델에 상기 얼굴 영상을 입력하여 생성되는 상기 사용자에 대한 진단 데이터를 전송하는 단계, 상기 서비스 서버가 상기 진단 데이터를 상기 클라이언트 장치에 전송하는 단계 및 상기 서비스 서버가 상기 진단 데이터를 병원 서버에 전송하는 단계를 포함한다. 상기 신경망 모델은 복수의 얼굴 영역별 색상 및 복수의 얼굴 영역별 온도 중 적어도 하나를 입력으로 삼아, 사용자의 건강 상태에 대한 정보를 출력한다.

Description

영상 데이터를 분석하는 인공 지능을 이용한 질병 진단 방법 및 진단 시스템{DISEASE DIAGNOSIS METHOD AND SYSTEM BASED ON ARTIFICIAL INTELLIGENCE ANALYZING IMAGE DATA}
이하 설명하는 기술은 얼굴 영상을 이용하여 질병을 진단하는 기법 에 관한 것이다.
최근 빅데이터 분석 내지 인공 지능을 접목한 다양한 기법에 대한 연구가 진행되고 있다. 질병 진단 분야에서도 컴퓨터를 활용하여 환자의 검사 결과를 분석하는 기법도 연구되고 있다.
한국등록특허 제10-1740464호
이하 설명하는 기술은 사용자의 얼굴 영상을 이용하여 사용자의 건강 상태 내지 질병을 진단하는 방법을 제공하고자 한다.
영상 데이터를 분석하는 인공 지능을 이용한 질병 진단 방법은 클라이언트 장치가 사용자의 얼굴 영상을 전송하는 단계, 서비스 서버가 수신한 상기 얼굴 영상을 분석 서버에 전송하는 단계, 상기 분석 서버가 사전에 마련된 신경망 모델에 상기 얼굴 영상을 입력하여 생성되는 상기 사용자에 대한 진단 데이터를 전송하는 단계, 상기 서비스 서버가 상기 진단 데이터를 상기 클라이언트 장치에 전송하는 단계 및 상기 서비스 서버가 상기 진단 데이터를 병원 서버에 전송하는 단계를 포함한다. 상기 신경망 모델은 복수의 얼굴 영역별 색상 및 복수의 얼굴 영역별 온도 중 적어도 하나를 입력으로 삼아, 사용자의 건강 상태에 대한 정보를 출력한다.
이하 설명하는 기술은 사용자가 이용하는 스마트 기기 등과 같은 장치로 획득한 얼굴 영상을 인공신경망을 이용하여 분석하여 즉각적으로 건강 상태 내지 질병 가능성에 대한 정보를 제공한다. 이하 설명하는 기술은 사용자가 자신의 건강 강태를 수시로 점검 가능하게 하고, 필요한 경우 병원에 관련 정보를 제공하여 건강 관리에 만전을 기하게 한다.
도 1은 인공 지능을 이용한 질병 진단 시스템의 구성을 도시한 예이다.
도 2는 클라이언트 장치에 대한 예이다.
도 3은 클라이언트 장치의 구성에 대한 예이다.
도 4는 클라이언트 장치의 화면에 대한 예이다.
도 5는 클라이언트 장치의 화면에 대한 다른 예이다.
도 6은 영상 데이터를 분석하는 인공신경망에 대한 예이다.
도 7은 영상 데이터를 분석하는 인공신경망에 대한 다른 예이다.
이하 설명하는 기술은 다양한 변경을 가할 수 있고 여러 가지 실시례를 가질 수 있는 바, 특정 실시례들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 이하 설명하는 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 이하 설명하는 기술의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 해당 구성요소들은 상기 용어들에 의해 한정되지는 않으며, 단지 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 이하 설명하는 기술의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
본 명세서에서 사용되는 용어에서 단수의 표현은 문맥상 명백하게 다르게 해석되지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함한다" 등의 용어는 설시된 특징, 개수, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계 동작 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해되어야 한다.
도면에 대한 상세한 설명을 하기에 앞서, 본 명세서에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.
또, 방법 또는 동작 방법을 수행함에 있어서, 상기 방법을 이루는 각 과정들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 과정들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
이하 설명하는 기술은 사용자의 얼굴 영상을 이용하여 해당 사용자의 건강 상태를 확인하는 기법에 관한 것이다. 이하 설명하는 기술은 얼굴 영상을 인공 지능 기법으로 분석하여 건강 상태 내지 질병 여부를 분석하는 기법이다. 사용자의 건강이나 질병과 관련된 정보를 이하 진단 정보라고 명명한다. 진단 정보는 다양한 유형의 정보로 구성될 수 있다. (1) 진단 정보는 얼굴의 피부 상태에 대한 정보를 포함할 수 있다. 예컨대, 진단 정보는 피부의 유분 정도, 피부의 수분 정도, 피부의 노화 정도, 피부의 주름 상태, 피부의 색상 변화 정도 등에 대한 정보를 포함할 수 있다. (2) 진단 정보는 다른 신체 부위의 건강 상태에 대한 정보를 포함할 수 있다. 얼굴의 색상 및/또는 온도를 기준으로 추정가능한 신체 부위의 건강 상태를 의미한다. 예컨대, 진단 정보는 소화 기관의 장애, 혈액 순환 장애, 호흡기 관련 장애, 알러지 반응, 눈병 등에 대한 정보를 포함할 수 있다. (3) 나아가 진단 정보는 사용자의 머리 부위를 기준으로 측정되는 모발 상태, 탈모 진행 상태 등에 대한 정보를 포함할 수 도 있다.
도 1은 인공 지능을 이용한 질병 진단 시스템(100)의 구성을 도시한 예이다. 질병 진단 시스템(100)은 클라이언트 장치(110), 서비스 서버(120) 및 분석 서버(130)를 포함한다.
클라이언트 장치(110)는 사용자가 사용하는 장치이다. 클라이언트 장치(110)는 스마트 기기, PC 등과 같은 장치일 수 있다. 클라이언트 장치(110)는 기본적으로 사용자의 얼굴 영상을 획득하고, 얼굴 영상을 다른 객체에 전송한다. 따라서 클라이언트 장치(110)는 사용자 얼굴 영상을 획득할 수 있는 카메라를 포함한다. 클라이언트 장치(110)는 특정한 애플리케이션을 구동하여 서비스를 수행할 수 있다. 이 경우 클라이언트 장치(110)가 애플리케이션을 구동하면 서비스 서버(120)에 접속하고, 필요한 경우 로그인을 수행하면 이후 얼굴 영상 촬영 등이 진행 될 수 있다.
서비스 서버(120)는 얼굴 영상을 이용한 진단 정보 제공에 대한 전반적인 서비스를 제공한다. 서비스 서버(120)는 접속한 클라이언트 장치(110)를 인증할 수 있다. 서비스 서버(120)는 클라이언트 장치(110)에 얼굴 영상 촬영을 요청하는 명령을 전달할 수 있다. 요청에 따라 사용자가 클라이언트 장치(110)에서 얼굴 영상을 촬영하면, 서비스 서버(120)는 클라이언트 장치(110)로부터 얼굴 영상을 전송받는다. 서비스 서버(120)는 분석 서버(130)로 얼굴 영상을 전송하고, 분석 서버(130)로부터 분석 결과에 해당하는 진단 정보를 수신한다. 서비스 서버(120)는 진단 정보를 클라이언트 장치(110)에 전송할 수 있다. 서비스 서버(120)는 진단 정보를 일정하게 가공하여 클라이언트 장치(110)에 전송할 수 있다. 예컨대, 서비스 서버(120)는 진단 정보를 시각화하거나, 자신이 보유한 통계적 자료와 비교한 데이터를 생성하여 클라이언트 장치(110)에 전송할 수 있다. 서비스 서버(120)는 진단 정보를 병원 서버(150)에 전송할 수도 있다.
병원 서버(150)는 해당 사용자에 대한 의료 서비스를 제공하는 병원이 관리하는 서버에 해당한다. 서비스 서버(150)는 특정 사용자와 매칭되는 병원 서버(150)에 대한 정보를 사전에 보유한다고 가정한다. 병원 서버(150)는 사용자에 대한 공적 의료 서비스를 제공하는 기관이 관리하는 서버일 수도 있다.
분석 서버(130)는 인공 신경망을 이용하여 얼굴 영상을 분석한다. 분석 서버(130)는 사전에 훈련한 인공 신경망을 보유한다고 전제한다. 분석 서버(130)는 별도의 분석 모델 DB(135)에 인공 신경망을 보유하고 관리할 수도 있다. 인공 신경망을 활용한 분석 과정에 대해서는 후술한다.
도 2는 클라이언트 장치에 대한 예이다. 도 2(A)는 클라이언트 장치(110)에 대한 예이다. 도 2(A)는 스마트 기기와 같은 클라이언트 장치(110)에 대한 예이다. 스마트 기기는 내장한 카메라를 이용하여 사용자의 얼굴 영상을 획득할 수 있다. 후술하겠지만, 클라이언트 장치(110)는 얼굴의 온도를 추정하기 위하여 적외선 카메라 같은 장치를 포함할 수도 있다.
도 2(B)는 클라이언트 장치(200)에 대한 예이다. 도 2(B)는 거울을 포함하는 구조물에 설치된 클라이언트 장치(200)에 대한 예이다. 클라이언트 장치(200)는 거울층(210)과 거울층(210) 배면에 위치한 디스플레이층(220)을 포함한다. 디스플레이층(220)는 LED, OLED 또는 LCD 등과 같은 방식의 디스플레이 패널을 포함한다. 거울층(210)은 반투명한 거울(half-silvered mirror)이다. 반투명한 거울이기 때문에 거울층(210)의 배면에 있는 디스플레이층(220)에서 출력되는 영상이 전면에 있는 사용자에게 출력될 수 있다. 클라이언트 장치(200)는 일반 영상을 촬영하는 제1 카메라(230)과 적외선 영상을 촬영하는 제2 카메라(240)를 포함할 수 있다. 클라이언트 장치(200)는 화장대, 욕실의 거울, 화장실의 거울 등과 같은 구조물 형태일 수 있다.
도 3은 클라이언트 장치(300)의 구성에 대한 예이다. 클라이언트 장치(300)는 전술한 클라이언트 장치(110) 또는 클라이언트 장치(200)에 해당한다. 도 3은 클라이언트 장치(110) 또는 클라이언트 장치(200)에 대한 구성을 도시한 예이다. 클라이언트 장치(300)는 입력장치(310), 제1 카메라(320), 제2 카메라(330), 연산장치(340), 저장장치(350), 출력장치(360) 및 통신장치(370)를 포함한다.
입력장치(310)는 기본적으로 사용자로부터 일정한 명령이나 정보를 입력받은 장치이다. 입력장치(310)는 키보드, 마우스, 터치 입력 장치, 음성 입력 장치 등으로 구현될 수 있다. 입력장치(310)는 얼굴 영상을 이용한 질병 진단을 위한 애플리케이션을 실행하는 명령, 영상 촬영 명령, 진단 정보 요청 명령, 진단 정보를 병원 서버에 전달하라는 명령 등을 입력받을 수 있다.
제1카메라(320)는 사용자의 얼굴 영상을 획득하는 장치이다. 제1카메라(320)는 영상의 각 픽셀에 대한 색상 종류와 색상의 정도(레벨)를 나타내는 정보를 생성한다. 제1카메라(320)는 일반적인 카메라 장치 내지 카메라 센서에 해당한다.
제2카메라(330)는 촬영한 객체의 온도를 나타내는 영상을 생성한다. 예컨대, 제2카메라(330)는 적외선 카메라일 수 있다. 제2카메라(330)는 촬영 대상(얼굴 영역)에 대하여 각 부위별 온도를 나타내는 정보를 생성한다.
저장장치(350)는 각종 프로그램 및 데이터를 저장하는 객체이다. 저장장치(350)는 하드디스크 및/또는 비휘발성 메모리로 구현될 수 있다. 저장장치(350)는 질병 진단을 위한 애플리케이션, 카메라(310, 320)가 획득한 영상, 서비스 서버에서 전달받은 진단 정보 등을 저장할 수 있다.
연산장치(340)는 AP(Application process) 또는 CPU 등과 같은 장치를 의미한다. 연산장치(340)는 주어진 명령에 따라 특정 연산을 수행한다. 연산장치(340)는 저장장치(350)에 저장된 애플리케이션을 실행하면서 관련된 연산이나 작업을 수행한다. 연산장치(340)는 촬영한 영상 또는 특정한 명령을 통신장치(370)에 전달하거나, 진단 정보를 출력장치(360)에 출력하게 하는 제어를 할 수도 있다.
출력장치(360)는 일정한 정보를 출력하는 장치이다. 출력장치(360)는 기본적으로 디스플레이 장치로 구현될 수 있다. 출력장치(360)는 영상 촬영을 위한 정보, 애플리케이션 구동을 위한 인터페이스, 진단 결과 등을 출력할 수 있다.
통신장치(370)는 입력된 명령 및/또는 촬영된 영상을 서비스 서버(120)에 전달한다. 또한 통신장치(370)는 서비스 서버(120)로부터 진단 정보 또는 진단 정보를 일정하게 가공한 데이터를 수신할 수 있다.
도 4는 클라이언트 장치의 화면(400)에 대한 예이다. 클라이언트 장치의 화면(400)은 클라이언트 장치(110) 또는 클라이언트 장치(200)의 화면에 대한 예이다. 클라이언트 장치는 화면(400)에 얼굴 영상 촬영을 위하여 바람직한 얼굴 위치를 나타내는 가이드 구역(410)을 표시할 수 있다. 가이드 구역(410)을 이용하는 경우 분석 서버(130)가 얼굴 영역을 별도로 식별하지 않아도 된다. 분석 서버(130)는 영상의 특정 부분이 특정한 얼굴 영역이라고 인식할 수 있다. 여기서 얼굴 영역은 코, 눈, 볼, 이마 등과 같이 얼굴을 구성하는 특정한 영역 중 어느 하나를 의미한다.
클라이언트 장치는 화면(400)의 특정 구역(420)에 진단 결과를 출력할 수도 있다. 화면(400)에 출력되는 진단 결과는 분석 서버(130)가 전달한 진단 정보 또는 진단 정보를 가공한 정보일 수 있다. 클라이언트 장치는 화면(400)은 일정한 인터페이스를 출력할 수 있다. 도 4는 진단 결과를 병원 서버에 전송하는 버튼 메뉴를 예시로 표시하였다.
도 5는 클라이언트 장치의 화면(400)에 대한 다른 예이다. 클라이언트 장치는 화면(400)의 특정 구역(430)에 분석 결과에 대한 그래프 자료 및 통계 자료를 출력할 수 있다. 그래프 자료 등은 서비스 서버(120)가 가공한 데이터일 수 있다. 경우에 따라서는 클라이언트 장치가 자신이 보유한 이전 진단 정보를 이용하여 일정한 통계적 자료를 화면에 출력할 수도 있다. 클라이언트 장치는 화면(400)의 특정 구역(440)에 진단 정보 및 사용자에 대한 권고 사항을 출력할 수도 있다.
이제 분석 서버(130)에서 얼굴 영상을 이용하여 진단 정보를 생성하기 위하여 이용하는 인공 신경망 모델을 설명한다. 인공 신경망은 다양한 형태의 신경망일 수 있다. 예컨대, 인공 신경망은 FNN(Feedforward neural network), CNN(Convolutional neural network) 등과 같은 형태로 구현될 수 있다. 나아가 분석 서버(130)는 반드시 인공 신경망 모델을 사용하여야 하는 것은 아니며, 다양한 기계 학습 모델을 사용할 수도 있다. 다만 이하 설명의 편의를 위하여 영상 처리에서 많이 사용되는 CNN을 기준으로 설명한다.
도 6은 영상 데이터를 분석하는 인공신경망에 대한 예이다. 도 6은 예시적으로 컨볼루션 계층(Convolution Layer) 및 풀링 계층(Pooling Layer)을 각각 2개 갖는 형태를 도시하였다. 컨볼루션 계층과 풀링 계층은 개수는 구현하는 방식에 따라 다양할 수 있다. 컨볼루션 계층과 풀링 계층은 영상에서 특징을 추출하는 구성에 해당하고, 완전 연결 계층(Fully connected Layer)는 추출한 특징에 기반하여 일정한 분류를 수행하는 구성이다.
컨볼루션 계층은 입력 영상에 대하여 필터 뱅크를 적용하여 일정한 특징값을 추출하는 계층이다. 컨볼루션 계층의 파라미터(parameter)들은 일련의 학습가능한 필터들로 이뤄져 있다. 각 필터는 가로/세로 차원으로는 작지만 깊이 (depth) 차원으로는 전체 깊이를 아우른다. 포워드 패스 (forward pass) 때에는 각 필터를 입력 볼륨의 가로/세로 차원으로 이동(convolution) 시키며 2차원의 액티베이션 맵 (activation map)을 생성한다. 필터를 입력 위로 이동 시킬 때, 필터와 입력의 요소들 사이의 내적 연산 (dot product)이 이뤄진다. 신경망은 입력의 특정 위치의 특정 패턴에 대해 반응하는 (activate) 필터를 학습한다. 액티베이션 맵 (activation map)을 깊이 (depth) 차원을 따라 쌓은 것이 곧 출력 볼륨이 된다. 그러므로 출력 볼륨의 각 요소들은 입력의 작은 영역만을 취급하고, 같은 액티베이션 맵 내의 뉴런들은 같은 모수들을 공유한다. 도 6에 도시한 바와 같이 영상과 같은 고차원 입력을 다룰 때에는, 현재 레이어의 한 뉴런을 이전 볼륨의 모든 뉴런들과 연결하는 것이 비효율적이다. 따라서 레이어의 각 뉴런을 입력 볼륨의 로컬한 영역(local region)에만 연결한다.
풀링 계층(Max-Pooling Layer 또는 Subsampling Layer)은 입력 영상에 대하여 지역적으로 최대값을 추출하여 2D 이미지로 맵핑하는 계층이다. CNN은 컨볼루션 계층들 중간중간에 주기적으로 풀링 계층을 포함한다. 풀링 계층은 네트워크의 파라미터의 개수나 연산량을 줄이기 위해 공간의 크기를 줄인다. 예컨대, 풀링 계층은 서브 샘플 윈도우에서 가장 큰 값만을 선택하여 이후 샘플의 크기를 줄일 수 있다.
컨볼루션 계층과 풀링 계층 과정을 반복하면 입력 영상을 대표할 수 있는 특징을 얻을 수 있다. 이러한 특징을 학습하여 일정한 결과를 출력한다. 완전 연결 계층은 복수 계층망의 표준적인 계층으로 입력 벡터와 가중치 값의 선형결합이 수행된다. 분류는 입출력간의 이미지 오차를 최소화하는 방향으로 학습을 반복한다.
분석 서버(130)이 사용하는 인공 신경망을 학습하는 예를 설명한다. 분석 서버(130)는 도 6과 같은 하나의 CNN을 이용할 수 있다.
(1) 인공 신경망은 얼굴 영상의 색상을 입력으로 사용할 수 있다. 인공 신경망은 기본적으로 얼굴 영역을 구성하는 각 픽셀값을 기준으로 특징을 추출하여 학습할 수 있다. 일반 영상을 제1 영상이라고 명명한다. 일반 영상이란 일반적인 칼라 영상을 의미한다.
(2) 인공 신경망은 나아가 얼굴의 온도를 입력으로 사용할 수 있다. 전술한 바와 같이 클라이언트 장치(110, 200)는 일반 영상과 함께 적외선 영상을 생성할 수 있다. 이 경우 인공 신경망은 동일한 얼굴 영역의 온도를 나타내는 적외선 영상에서 특징을 추출하여 학습할 수 있다. 적외선 영상을 제2 영상이라고 명명한다.
(3) 인공 신경망은 얼굴에 대한 제1 영상 및 제2 영상을 동시에 입력받아 학습할 수 있다. 몇 가지 구현 가능한 방법들이 있다. (i) 하나는 제1 영상과 제2 영상을 결합(예컨대, add 연산)하여 결합된 영상을 기준으로 특징값을 찾고 학습하는 방법이다. (ii) 다른 하나는 제1 영상과 제2 영상에서 각각 특징값을 찾고, 특징값을 결합하여 완전 연결 계층에서 분류하도록 학습하는 방법이다.
한편 얼굴 영상을 복수의 얼굴 영역(눈, 코, 입, 이마, 뺨 등)으로 구분될 수 있다. 이러한 구분은 별다른 영상 처리 없이 도 4와 같은 가이드 구역을 활용하여 영상의 특정 부분을 해당 영역이라고 가정하고 처리할 수 있다. 이 경우 다음과 같은 구현이 가능하다. (4) 인공 신경망은 서로 다른 얼굴 영역에 대하여 각 노드에 서로 다른 파라미터를 적용하여 특징값을 추출할 수 있다. (5) 인공 신경망은 서로 다른 얼굴 영역에 대한 특징값에 대하여 각 얼굴 영역 별로 분류기를 사전에 학습할 수 있다. 즉, 현재 추출된 특징값이 제1 특정 영역에서 추출된 것이라면, 제1 분류기를 사용하여 영상을 분석하는 것이다.
도 7은 영상 데이터를 분석하는 인공신경망에 대한 다른 예이다. 도 7은 CNN을 계층적으로 구성한 예이다. 도 7의 CNN은 제1 계층 CNN(510)과 제2 계층 CNN(520)으로 구성된다.
제1 계층 CNN(510)은 입력되는 영상에서 특정한 얼굴 영역을 분류한다. 제1 계층 CNN(510)은 입력 영상에서 얼굴을 인식하는 기법을 활용하여 입력 영상에서 전체 얼굴 영역을 추출하고, 추출한 전체 얼굴 영역에서 각 얼굴 영역(코, 눈, 뺨 등)을 식별한다.
제2 계층 CNN(520)은 다양한 방법으로 구현될 수 있다.
(1) 제2 계층 CNN(520)은 얼굴 영역에 따라서 서로 다른 파라미터나 가중치를 부여한 노드를 활용하여 특징을 추출할 수 있다. 이 경우 제2 계층 CNN(520)은 하나의 CNN으로 구현된다.
(2) 또 도 7에 도시한 바와 같이 각 얼굴 영역 별로 서로 다른 CNN을 사전에 마련할 수 있다. 예컨대, 제2 계층 CNN(521)은 얼굴 영역 A 전용으로 구성된 CNN이고, 제2 계층 CNN(522)은 얼굴 영역 B 전용으로 구성된 CNN이다.
설명의 편의를 위해 제2 계층 CNN(521)과 제2 계층 CNN(522)만을 예로 설명한다. 제2 계층 CNN(520)은 더 많은 수의 CNN을 포함할 수도 있다.
제2 계층 CNN(521) 및 제2 계층 CNN(522)은 각각 얼굴 영역 A와 얼굴 영역 B만을 입력으로 받는다. 이 경우 제2 계층 CNN(521) 및 제2 계층 CNN(522)은 얼굴 영역 전체가 아닌 일부를 사용하는 것이다. 제2 계층 CNN(521) 및 제2 계층 CNN(522)은 각각 입력된 영상을 기준으로 특징값을 추출하고, 추출한 특징값에 따라 학습하여 완전 연결 계층을 마련한다. 즉 제2 계층 CNN(521) 및 제2 계층 CNN(522)은 서로 동일한 값(진단 정보)을 출력할 수도 있고, 서로 다른 값을 출력할 수도 있다.
분석 서버(130)는 복수의 제2 계층 CNN에서 출력하는 진단 정보 중 가장 많은 동일한 값을 갖는 진단 정보를 최종적인 진단 정보로 선택할 수 있다. 또는 분석 서버(130)는 복수의 제2 계층 CNN 각각이 출력하는 값에 서로 다른 가중치를 부여하여 합산한 결과값을 최종적인 진단 정보로 선택할 수도 있다. 경우에 따라서는 복수의 복수의 제2 계층 CNN이 출력하는 값을 다른 기계 학습 모델로 학습하여 최종적인 진단 정보를 추출할 수도 있다.
분석 서버(130)는 도 6 내지 도 7에서 설명한 바와 같이 학습한 CNN을 활용하여 입력 영상을 분석하고, 분석 결과(진단 정보)를 서비스 서버(120)에 전달한다.
본 실시례 및 본 명세서에 첨부된 도면은 전술한 기술에 포함되는 기술적 사상의 일부를 명확하게 나타내고 있는 것에 불과하며, 전술한 기술의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시례는 모두 전술한 기술의 권리범위에 포함되는 것이 자명하다고 할 것이다.
100 : 인공 지능을 이용한 질병 진단 시스템
110 : 클라이언트 장치
120 : 서비스 서버
130 : 분석 서버
135 : 모델 DB
150 : 병원 서버
200 : 클라이언트 장치
210 : 유리층
220 : 디스플레이층
230 : 제1 카메라
240 : 제2 카메라
300 : 클라이언트 장치
310 : 입력 장치
320 : 제1 카메라
330 : 제2 카메라
340 : 연산 장치
350 : 저장 장치
360 : 출력 장치
370 : 통신 장치
400 : 클라이언트 장치 화면

Claims (15)

  1. 클라이언트 장치가 피부 색상을 나타내는 색상값으로 구성되는 제1 영상 및 피부 온도를 나타내는 색상값으로 구성되는 제2 영상을 포함하는 사용자의 얼굴 영상을 전송하는 단계;
    서비스 서버가 수신한 상기 얼굴 영상을 분석 서버에 전송하는 단계;
    상기 분석 서버가 사전에 마련된 신경망 모델에 상기 얼굴 영상을 입력하여 생성되는 진단 데이터를 전송하는 단계;
    상기 서비스 서버가 상기 진단 데이터를 상기 클라이언트 장치에 전송하는 단계; 및
    상기 서비스 서버가 상기 진단 데이터를 병원 서버에 전송하는 단계를 포함하되,
    상기 클라이언트 장치는 거울층 및 상기 거울층 배면에서 가이드 이미지를 출력하는 디스플레이 장치, 상기 거울층 전면 방향에 위치하면서 상기 가이드 이미지 내에 정합되는 얼굴에 대한 상기 제1 영상을 촬영하는 제1 카메라 장치, 상기 거울층 전면 방향에 위치하면서 상기 가이드 이미지 내에 정합되는 얼굴에 대한 온도를 나타내는 상기 제2 영상을 촬영하는 제2 카메라 장치 및 상기 제1 영상 및 상기 제2 영상을 네트워크로 전송하는 통신 장치를 포함하고, 상기 제2 카메라 장치는 적외선 카메라이고,
    상기 신경망 모델은 상기 얼굴 영상에서 복수의 얼굴 영역을 추출하는 제1 신경망 모델 및 상기 복수의 얼굴 영역에 대하여 색상 및 온도 중 적어도 하나에 대한 값을 매개 변수로 갖고 정보를 출력하는 제2 신경망 모델을 포함하고,
    상기 제2 신경망 모델은 상기 복수의 얼굴 영역 각각에 대하여 별개의 모델을 포함하고, 상기 분석 서버는 상기 별개의 모델이 각각 출력하는 결과값에 서로 다른 가중치를 부여하여 상기 진단 데이터를 생성하는 영상 데이터를 분석하는 인공 지능을 이용한 질병 모니터링 방법.
  2. 클라이언트 장치가 사용자의 얼굴 영상을 전송하는 단계;
    서비스 서버가 수신한 상기 얼굴 영상을 분석 서버에 전송하는 단계;
    상기 분석 서버가 사전에 마련된 신경망 모델에 상기 얼굴 영상을 입력하여 생성되는 상기 사용자에 대한 진단 데이터를 전송하는 단계;
    상기 서비스 서버가 상기 진단 데이터를 상기 클라이언트 장치에 전송하는 단계; 및
    상기 서비스 서버가 상기 진단 데이터를 병원 서버에 전송하는 단계를 포함하되,
    상기 신경망 모델은 복수의 얼굴 영역별 색상 및 복수의 얼굴 영역별 온도를 입력으로 삼아, 사용자의 건강 상태에 대한 정보를 출력하고,
    상기 얼굴 영상은 피부 색상을 나타내는 색상값으로 구성되는 제1 영상 및 피부 온도를 나타내는 색상값으로 구성되는 제2 영상을 포함하는 영상 데이터를 분석하는 인공 지능을 이용한 질병 모니터링 방법.
  3. 제2항에 있어서,
    상기 클라이언트 장치는 화면에 가이드 이미지를 출력하고, 일반 카메라 및 적외선 카메라 중 적어도 하나로 상기 가이드 이미지 내에 위치하는 객체에 대한 영상을 획득하는 영상 데이터를 분석하는 인공 지능을 이용한 질병 모니터링 방법.
  4. 삭제
  5. 제2항에 있어서,
    상기 신경망 모델은 상기 얼굴 영상에서 복수의 얼굴 영역을 추출하는 제1 신경망 모델 및 상기 복수의 얼굴 영역에 대하여 색상 및 온도 중 적어도 하나에 대한 값을 매개 변수로 갖고 상기 정보를 출력하는 제2 신경망 모델을 포함하는 영상 데이터를 분석하는 인공 지능을 이용한 질병 모니터링 방법.
  6. 제5항에 있어서,
    상기 제2 신경망 모델은 상기 복수의 얼굴 영역 각각에 대하여 별개의 모델을 포함하고, 상기 분석 서버는 상기 별개의 모델이 각각 출력하는 결과값에 서로 다른 가중치를 부여하여 상기 진단데이터를 생성하는 영상 데이터를 분석하는 인공 지능을 이용한 질병 모니터링 방법.
  7. 제5항에 있어서,
    상기 제2 신경망 모델은 상기 복수의 얼굴 영역 각각에 대하여 별개의 모델을 포함하고, 상기 분석 서버는 상기 별개의 모델이 각각 출력하는 결과값 중 가장 많은 동일한 결과값을 상기 진단 데이터로 마련하는 영상 데이터를 분석하는 인공 지능을 이용한 질병 모니터링 방법.
  8. 제2항에 있어서,
    상기 클라이언트 장치는
    거울층 및 상기 거울층 배면에서 영상을 출력하는 디스플레이 장치;
    상기 거울층 전면 방향의 영상을 획득하는 카메라 장치; 및
    상기 제1 영상 및 상기 제2 영상을 네트워크로 전송하는 통신 장치를 포함하는 영상 데이터를 분석하는 인공 지능을 이용한 질병 모니터링 방법.
  9. 카메라로 사용자의 얼굴 영상을 획득하여 전송하는 클라이언트 장치;
    상기 클라이언트 장치의 요청을 수신하고, 상기 얼굴 영상을 송신하고, 상기 얼굴 영상에 대한 분석 결과를 클라이언트 장치에 전달하는 서비스 서버; 및
    사전에 마련된 신경망 모델에 상기 얼굴 영상을 입력하여 생성되는 상기 사용자에 대한 진단 데이터를 전송하는 분석 서버를 포함하되,
    상기 신경망 모델은 복수의 얼굴 영역별 색상 및 복수의 얼굴 영역별 온도 중 적어도 하나를 입력으로 삼아, 사용자의 건강 상태에 대한 정보를 출력하는 영상 데이터를 분석하고,
    상기 신경망 모델은 상기 얼굴 영상에서 복수의 얼굴 영역을 추출하는 제1 신경망 모델 및 상기 복수의 얼굴 영역에 대하여 색상 및 온도 중 적어도 하나에 대한 값을 매개 변수로 갖고 상기 정보를 출력하는 제2 신경망 모델을 포함하는 인공 지능을 이용한 질병 진단 시스템.
  10. 제9항에 있어서,
    상기 클라이언트 장치는
    거울층 및 상기 거울층 배면에서 상기 분석 결과를 출력하는 디스플레이 장치;
    상기 거울층 전면 방향의 영상을 획득하는 카메라 장치;
    상기 거울층 전면 방향의 온도 영상을 획득하는 적외선 카메라 장치; 및
    상기 영상을 송신하고, 상기 분석 결과를 수신하는 통신 장치를 포함하는 영상 데이터를 분석하는 인공 지능을 이용한 질병 진단 시스템.
  11. 제9항에 있어서,
    상기 클라이언트 장치는 상기 분석 결과를 병원 서버에 전달하는 영상 데이터를 분석하는 인공 지능을 이용한 질병 진단 시스템.
  12. 제9항에 있어서,
    상기 얼굴 영상은 피부 색상을 나타내는 색상값으로 구성되는 제1 영상 및 피부 온도를 나타내는 색상값으로 구성되는 제2 영상을 포함하는 영상 데이터를 분석하는 인공 지능을 이용한 질병 진단 시스템.
  13. 삭제
  14. 제9항에 있어서,
    상기 제2 신경망 모델은 상기 복수의 얼굴 영역 각각에 대하여 별개의 모델을 포함하고, 상기 분석 서버는 상기 별개의 모델이 각각 출력하는 결과값에 서로 다른 가중치를 부여하여 상기 진단데이터를 생성하는 영상 데이터를 분석하는 인공 지능을 이용한 질병 진단 시스템.
  15. 제9항에 있어서,
    상기 제2 신경망 모델은 상기 복수의 얼굴 영역 각각에 대하여 별개의 모델을 포함하고, 상기 분석 서버는 상기 별개의 모델이 각각 출력하는 결과값 중 가장 많은 동일한 결과값을 상기 진단 데이터로 마련하는 영상 데이터를 분석하는 인공 지능을 이용한 질병 진단 시스템.
KR1020170170919A 2017-12-13 2017-12-13 영상 데이터를 분석하는 인공 지능을 이용한 질병 진단 방법 및 진단 시스템 KR102047237B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170170919A KR102047237B1 (ko) 2017-12-13 2017-12-13 영상 데이터를 분석하는 인공 지능을 이용한 질병 진단 방법 및 진단 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170170919A KR102047237B1 (ko) 2017-12-13 2017-12-13 영상 데이터를 분석하는 인공 지능을 이용한 질병 진단 방법 및 진단 시스템

Publications (2)

Publication Number Publication Date
KR20190070432A KR20190070432A (ko) 2019-06-21
KR102047237B1 true KR102047237B1 (ko) 2019-12-02

Family

ID=67056476

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170170919A KR102047237B1 (ko) 2017-12-13 2017-12-13 영상 데이터를 분석하는 인공 지능을 이용한 질병 진단 방법 및 진단 시스템

Country Status (1)

Country Link
KR (1) KR102047237B1 (ko)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11172873B2 (en) 2018-05-17 2021-11-16 The Procter & Gamble Company Systems and methods for hair analysis
WO2022056013A1 (en) * 2020-09-08 2022-03-17 Kang Zhang Artificial intelligence for detecting a medical condition using facial images
US11282190B2 (en) 2018-05-17 2022-03-22 The Procter And Gamble Company Systems and methods for hair coverage analysis
KR20220089927A (ko) 2020-12-22 2022-06-29 광운대학교 산학협력단 현장진단검사에 기반한 관제시스템, 서버 및 이를 이용하는 현장진단검사방법
WO2023282611A1 (ko) * 2021-07-09 2023-01-12 블록체인랩스 주식회사 진단 키트의 검사 결과를 판독하는 ai 모델 학습 장치 및 그 동작 방법
US11663719B2 (en) 2021-06-30 2023-05-30 Thyroscope Inc. Method for hospital visit guidance for medical treatment for active thyroid eye disease, and system for performing same
KR20230082495A (ko) 2021-12-01 2023-06-08 주식회사 에코마인 두피 분석 모델의 학습 데이터를 생성하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
US11717160B2 (en) 2021-06-30 2023-08-08 Thyroscope Inc. Method and photographing device for acquiring side image for ocular proptosis degree analysis, and recording medium therefor
US11741610B2 (en) 2021-06-30 2023-08-29 Thyroscope Inc. Method for hospital visit guidance for medical treatment for active thyroid eye disease, and system for performing same
KR102595646B1 (ko) 2023-03-16 2023-10-30 (주)해우기술 심층신경망과 몬테카를로 드롭아웃을 이용한 고막 질병 예측 모델 시스템
KR20240002668A (ko) 2022-06-29 2024-01-05 주식회사 타이로스코프 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 시스템

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102314338B1 (ko) * 2019-09-16 2021-10-18 연세대학교 원주산학협력단 탈모 진단을 위한 진단시스템 및 방법
KR102200686B1 (ko) * 2019-11-29 2021-01-08 박민식 안면인식 및 인식표 기반의 병원 관리 시스템 및 방법
KR102180922B1 (ko) * 2020-04-13 2020-11-19 주식회사 룰루랩 멀티모달 센서 어셈블리를 포함하는 분산형 엣지 컴퓨팅 기반 피부 질환 분석 디바이스
KR102402684B1 (ko) * 2020-07-27 2022-05-27 엔사이크(주) 비대면 환경에서 빅데이터 기반의 자가 피부 수분 상태 정보 제공 방법
CN112057053A (zh) * 2020-08-03 2020-12-11 北京邮电大学 一种基于svm的异常体温序列检测装置及方法
KR102353387B1 (ko) * 2020-08-07 2022-01-19 주식회사 에프티에치코리아 딥러닝 인공 지능 바이러스 열 감지 시스템
KR102627697B1 (ko) * 2020-12-09 2024-01-24 엠티스코퍼레이션(주) 스마트 미러를 이용하는 피부 진단장치 및 그 구동 방법
KR102544064B1 (ko) * 2021-02-18 2023-06-14 김태진 인공지능 기반 건강 이상 여부 판단을 위한 키오스크 장치 및 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004000428A (ja) * 2001-10-01 2004-01-08 L'oreal Sa 画像取得方法
JP2005192944A (ja) * 2004-01-09 2005-07-21 Keio Gijuku 色素沈着部位の遠隔診療システム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101740464B1 (ko) 2016-10-20 2017-06-08 (주)제이엘케이인스펙션 뇌졸중 진단 및 예후 예측 방법 및 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004000428A (ja) * 2001-10-01 2004-01-08 L'oreal Sa 画像取得方法
JP2005192944A (ja) * 2004-01-09 2005-07-21 Keio Gijuku 色素沈着部位の遠隔診療システム

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11633148B2 (en) 2018-05-17 2023-04-25 The Procter & Gamble Company Systems and methods for hair analysis
US11282190B2 (en) 2018-05-17 2022-03-22 The Procter And Gamble Company Systems and methods for hair coverage analysis
US11172873B2 (en) 2018-05-17 2021-11-16 The Procter & Gamble Company Systems and methods for hair analysis
WO2022056013A1 (en) * 2020-09-08 2022-03-17 Kang Zhang Artificial intelligence for detecting a medical condition using facial images
KR20220089927A (ko) 2020-12-22 2022-06-29 광운대학교 산학협력단 현장진단검사에 기반한 관제시스템, 서버 및 이를 이용하는 현장진단검사방법
US11663719B2 (en) 2021-06-30 2023-05-30 Thyroscope Inc. Method for hospital visit guidance for medical treatment for active thyroid eye disease, and system for performing same
US11717160B2 (en) 2021-06-30 2023-08-08 Thyroscope Inc. Method and photographing device for acquiring side image for ocular proptosis degree analysis, and recording medium therefor
US11741610B2 (en) 2021-06-30 2023-08-29 Thyroscope Inc. Method for hospital visit guidance for medical treatment for active thyroid eye disease, and system for performing same
US11748884B2 (en) 2021-06-30 2023-09-05 Thyroscope Inc. Method for hospital visit guidance for medical treatment for active thyroid eye disease, and system for performing same
WO2023282611A1 (ko) * 2021-07-09 2023-01-12 블록체인랩스 주식회사 진단 키트의 검사 결과를 판독하는 ai 모델 학습 장치 및 그 동작 방법
KR20230082495A (ko) 2021-12-01 2023-06-08 주식회사 에코마인 두피 분석 모델의 학습 데이터를 생성하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
KR20240002668A (ko) 2022-06-29 2024-01-05 주식회사 타이로스코프 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 시스템
KR102595646B1 (ko) 2023-03-16 2023-10-30 (주)해우기술 심층신경망과 몬테카를로 드롭아웃을 이용한 고막 질병 예측 모델 시스템

Also Published As

Publication number Publication date
KR20190070432A (ko) 2019-06-21

Similar Documents

Publication Publication Date Title
KR102047237B1 (ko) 영상 데이터를 분석하는 인공 지능을 이용한 질병 진단 방법 및 진단 시스템
JP7075085B2 (ja) 全身測定値抽出のためのシステムおよび方法
Leo et al. Computer vision for assistive technologies
US20190164012A1 (en) State detection using machine-learning model trained on simulated image data
CN109475294A (zh) 用于治疗精神障碍的移动和可穿戴视频捕捉和反馈平台
KR102151710B1 (ko) 이미지 분석 결과 및 학습된 피부 인식기에 기초하여 피부의 상태를 평가하는 방법 및 프로그램
KR20210062747A (ko) 증강 현실 아이덴티티 검증
Raudonis et al. Evaluation of human emotion from eye motions
CN107122744A (zh) 一种基于人脸识别的活体检测系统及方法
CN108776786A (zh) 用于生成用户真伪识别模型的方法和装置
Rattani et al. Convolutional neural network for age classification from smart-phone based ocular images
CN105917305A (zh) 基于图像情感内容的过滤和快门拍摄
John et al. The security-utility trade-off for iris authentication and eye animation for social virtual avatars
US20220067519A1 (en) Neural network synthesis architecture using encoder-decoder models
KR102396794B1 (ko) 전자 장치 및 이의 제어 방법
Galdi et al. PROTECT: Pervasive and useR fOcused biomeTrics bordEr projeCT–a case study
JP7306152B2 (ja) 感情推定装置、感情推定方法、プログラム、情報提示装置、情報提示方法及び感情推定システム
US20220277579A1 (en) Clustered dynamic graph convolutional neural network (cnn) for biometric three-dimensional (3d) hand recognition
WO2019014521A1 (en) DYNAMIC IMAGE RECOGNITION SYSTEM FOR SECURITY AND TELEMEDICINE
US20210361897A1 (en) Apparatus and method for selecting positive airway pressure mask interface
KR20200004939A (ko) 스마트 폰 기반의 홍채를 통한 건강 관리 방법 및 장치
Her et al. Keypoint-based gaze tracking
Pikulkaew et al. Pain detection using deep learning method from 3D facial expression and movement of motion
WO2021140642A1 (ja) 視線推定装置、視線推定方法、モデル生成装置、及びモデル生成方法
Wang Ecamera: a real-time facial expression recognition system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right