KR102477699B1 - A method, an imaging device and a recording medium for acquiring a lateral image for eye protrusion analysis - Google Patents

A method, an imaging device and a recording medium for acquiring a lateral image for eye protrusion analysis Download PDF

Info

Publication number
KR102477699B1
KR102477699B1 KR1020220078867A KR20220078867A KR102477699B1 KR 102477699 B1 KR102477699 B1 KR 102477699B1 KR 1020220078867 A KR1020220078867 A KR 1020220078867A KR 20220078867 A KR20220078867 A KR 20220078867A KR 102477699 B1 KR102477699 B1 KR 102477699B1
Authority
KR
South Korea
Prior art keywords
image
guide
face
user terminal
subject
Prior art date
Application number
KR1020220078867A
Other languages
Korean (ko)
Inventor
신규보
박재민
김종찬
탁윤원
김휘연
심은영
Original Assignee
주식회사 타이로스코프
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 타이로스코프 filed Critical 주식회사 타이로스코프
Priority to KR1020220078867A priority Critical patent/KR102477699B1/en
Priority to PCT/KR2022/009259 priority patent/WO2023277548A1/en
Priority to US17/951,681 priority patent/US11717160B2/en
Priority to KR1020220171092A priority patent/KR20240002133A/en
Application granted granted Critical
Publication of KR102477699B1 publication Critical patent/KR102477699B1/en
Priority to US18/209,604 priority patent/US20230337913A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0083Apparatus for testing the eyes; Instruments for examining the eyes provided with means for patient positioning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/42Detecting, measuring or recording for evaluating the gastrointestinal, the endocrine or the exocrine systems
    • A61B5/4222Evaluating particular parts, e.g. particular organs
    • A61B5/4227Evaluating particular parts, e.g. particular organs endocrine glands, i.e. thyroid, adrenals, hypothalamic, pituitary
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Data Mining & Analysis (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • Urology & Nephrology (AREA)
  • Endocrinology (AREA)
  • Gastroenterology & Hepatology (AREA)
  • Physiology (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

The present application relates to a method for obtaining a lateral image for analyzing the protrusion of the eyeball. According to one embodiment, the method comprises: obtaining a front image of the face of a subject in a guided state to satisfy a first photographing condition; forming a panorama guide based on location information of first and second points extracted from the front image; guiding the movement of a photographing device to obtain a preview image corresponding to the panorama guide; and obtaining a side image of the face of the subject in a guided state to satisfy a second photographing condition. The first photographed image shows the iris region of the subject, and the second photographed image shows the corner and cornea of one eye of the subject. Accordingly, a lateral image of a face suitable for monitoring a change in eyeball protrusion can be obtained.

Description

안구의 돌출도 분석을 위한 측면 이미지를 획득하는 방법, 이를 수행하는 촬영 장치 및 기록 매체{A METHOD, AN IMAGING DEVICE AND A RECORDING MEDIUM FOR ACQUIRING A LATERAL IMAGE FOR EYE PROTRUSION ANALYSIS}A method for obtaining a lateral image for analyzing the projection of the eyeball, a photographing device and a recording medium performing the same

본 발명은 안구의 돌출도 분석을 위한 측면 이미지를 획득하는 방법, 이를 수행하는 촬영 장치 및 기록 매체에 관한 것이다.The present invention relates to a method for obtaining a side image for analyzing the protrusion of the eyeball, a photographing device and a recording medium for performing the same.

인공지능 기술이 발달함에 따라, 사용자를 촬영한 진단 이미지를 분석하여 사용자의 건강 상태에 관한 정보를 획득하고, 그를 기초로 사용자가 병원에 조기에 방문할 수 있도록 내원을 안내해주는 기술이 활발히 개발되고 있다.As artificial intelligence technology develops, technology is being actively developed to obtain information on the user's health condition by analyzing diagnostic images taken of the user, and to guide the user to visit the hospital so that the user can visit the hospital early. have.

일 예로, 본 출원인인 타이로스코프社는 갑상선을 관리하는 솔루션을 제공하는 기업으로, 갑상선 기능 이상의 위험을 예측하여 내원을 안내해주는 소프트웨어 의료기기의 개발에 이어서 안면부의 디지털 이미지 학습을 이용하여 갑상선 안병증을 예측하는 인공지능 모델을 개발하였고, 갑상선 안병증의 위험을 예측하여 내원을 안내해주는 소프트웨어 의료기기의 출시를 앞두고 있다.For example, Tyroscope, the applicant of the present application, is a company that provides a thyroid management solution. Following the development of a software medical device that predicts the risk of thyroid dysfunction and guides visits to the hospital, it uses digital image learning of the face to improve thyroid safety. An artificial intelligence model that predicts disease has been developed, and a software medical device that predicts the risk of thyroid eye disease and guides visits to the hospital is about to be released.

갑상선 안병증을 예측하는 소프트웨어 의료기기의 소비자 조사를 진행하다 보니, 병원 내원 시기를 확인하고자 하는 환자들뿐 아니라 갑상선 안병증 치료제의 임상 과정에서 치료 경과를 살피기 위해서 이용될 수 있음을 알게 되었고, 갑상선 안병증의 치료 경과를 관찰하고 자료로 남기기 위해 안구의 돌출도를 분석할 수 있는 측면 이미지를 획득하는 정밀한 촬영 기법의 개발이 요구되었다.As I conducted a consumer survey of a software medical device that predicts thyroid eye disease, I found out that it can be used not only for patients who want to check the timing of hospital visits, but also to monitor the treatment progress in the clinical process of thyroid eye disease treatment. In order to observe the treatment process of ophthalmopathy and leave it as data, it was required to develop a precise imaging technique that acquires lateral images that can analyze the projection of the eyeball.

본 출원에 의해 개시되는 내용들이 해결하고자 하는 일 과제는 병원에 방문하지 않고도 안구의 돌출도를 모니터링할 수 있도록 얼굴의 측면 이미지를 획득하는 방법, 이를 수행하는 촬영 장치 및 기록 매체를 제공하는 것이다.One problem to be solved by the contents disclosed by the present application is to provide a method for acquiring a side image of a face, a photographing device for performing the same, and a recording medium so that the projection of the eyeball can be monitored without visiting a hospital.

본 출원에 의해 개시되는 내용들이 해결하고자 하는 다른 과제는 얼굴의 상하 회전 각도를 정확하게 검출하기 어려운 상태에서도 진단 이미지로의 사용이적합한 안면부 이미지를 획득할 수 있도록 한 이미지를 획득하는 방법, 이를 수행하는 촬영 장치 및 기록 매체를 제공하는 것이다.Another problem to be solved by the contents disclosed by the present application is a method of acquiring an image so that a face image suitable for use as a diagnostic image can be obtained even in a state in which it is difficult to accurately detect the vertical rotation angle of the face, and performing this It is to provide a photographic device and a recording medium.

본 출원에 의해 개시되는 내용들이 해결하고자 하는 또 다른 과제는 일반인들이 또는 갑상선 기능 이상을 치료하고 있는 환자들이 갑상선 안병증을 조기에 발견할 수 있도록, 갑상선 안병증에 관한 임상활동점수를 모니터링할 수 있는 방법 및 시스템을 제공하는 것이다. Another problem to be solved by the contents disclosed by this application is to be able to monitor the clinical activity score related to thyroid eye disease so that the general public or patients who are treating thyroid dysfunction can detect thyroid eye disease early. It is to provide a method and system.

본 출원에서 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 출원으로부터 본 출원이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved in this application is not limited to the above-mentioned problems, and problems not mentioned will be clearly understood from this application to those of ordinary skill in the art to which this application belongs.

본 출원의 일 양태에 의하면, 안구의 돌출도를 분석하기 위해 대상의 얼굴 이미지를 획득하는 방법이 개시된다. 상기 방법은, 제1 촬영 조건을 만족하도록 가이드된 상태에서 상기 대상의 얼굴의 정면 이미지를 획득하고-상기 제1 촬영 조건을 만족하는 것은, 적어도 상기 대상의 양눈이 제1 촬영 이미지의 정해진 영역에 배치되는 것을 포함함-, 상기 정면 이미지에서 추출된 제1 지점 및 제2 지점의 위치 정보를 기초로 파노라마 가이드를 형성하고-상기 파노라마 가이드는 얼굴의 정면을 기준으로 가로 방향으로 형성되며, 상기 제1 지점 및 상기 제2 지점은 얼굴의 정면을 기준으로 세로 방향으로 이격되어 있음-, 상기 파노라마 가이드에 대응되는 프리뷰 이미지가 획득되도록 촬영 장치의 이동을 가이드하고-이 때, 상기 프리뷰 이미지에서 추출된 상기 제1 지점 및 상기 제2 지점 사이의 세로 방향의 이격 거리가 최초 이격 거리를 기준으로 정해진 오차범위 미만의 차이를 가지도록 모니터링함-, 및 제2 촬영 조건을 만족하도록 가이드된 상태에서 상기 대상의 얼굴의 측면 이미지를 획득하는-상기 제2 촬영 조건은, 상기 제2 촬영 이미지에서 추출된 상기 제1 지점 및 상기 제2 지점 사이의 세로방향으로의 이격 거리가 최초 이격 거리를 기준으로 정해진 오차범위 미만의 차이를 가짐- 것을 포함한다. 이 때, 획득된 이미지가 안구의 돌출도를 계산하는데에 이용될 수 있도록, 상기 제1 촬영 이미지에는 상기 대상의 홍채 영역이 나타나있고, 상기 제2 촬영 이미지에는 상기 대상의 한 눈의 눈꼬리 및 각막이 나타나있다.According to one aspect of the present application, a method of acquiring a facial image of a subject to analyze protrusion of the eyeball is disclosed. The method acquires a frontal image of the subject's face in a guided state to satisfy a first photographing condition - satisfying the first photographing condition means that at least both eyes of the subject are located in a predetermined area of the first photographed image. Including being disposed-, forming a panorama guide based on the location information of the first point and the second point extracted from the front image-the panorama guide is formed in a horizontal direction based on the front of the face, and the The first point and the second point are vertically spaced apart from the front of the face - guide the movement of the photographing device so that a preview image corresponding to the panorama guide is obtained - at this time, extracted from the preview image The distance between the first point and the second point in the vertical direction is monitored so as to have a difference less than an error range determined based on the initial separation distance-, and the subject in a guided state to satisfy the second shooting condition. Obtaining a side image of the face of -The second shooting condition is, the separation distance in the vertical direction between the first point and the second point extracted from the second shooting image is an error determined based on the initial separation distance with a difference less than the range - inclusive. At this time, the iris region of the target is shown in the first captured image, and the outer corner of one eye and the cornea of the target are displayed in the second captured image so that the obtained image can be used to calculate the protrusion of the eyeball. is appearing

본 출원의 다른 양태에 따르면, 하나 이상의 인스트럭션을 저장하는 비일시적 컴퓨터 판독 가능 매체가 개시된다. 상기 비일시적 컴퓨터 판독 가능 매체는 컴퓨팅 장치의 하나 이상의 프로세서들에 의해 실행될 때, 상기 컴퓨팅 장치로 하여금, 전술한 방법을 수행하도록 할 수 있다.According to another aspect of the present application, a non-transitory computer readable medium storing one or more instructions is disclosed. When the non-transitory computer readable medium is executed by one or more processors of a computing device, it may cause the computing device to perform the above-described method.

본 출원의 또 다른 양태에 의하면, 안구의 돌출도를 분석하기 위해 대상의 얼굴 이미지를 획득하는 촬영 장치이 개시된다. 상기 장치는, 통신부, 하나 이상의 인스트럭션을 저장하는 저장부, 및 상기 저장부에 저장된 상기 하나 이상의 인스트럭션을 실행하는 제어부를 포함한다. 상기 상기 제어부는, 상기 하나 이상의 인스트럭션을 실행함으로써, 제1 촬영 조건을 만족하도록 가이드된 상태에서 상기 대상의 얼굴의 정면 이미지를 획득하고, 상기 정면 이미지에서 추출된 제1 지점 및 제2 지점의 위치 정보를 기초로 파노라마 가이드를 형성하고, 파노라마 가이드에 대응되는 프리뷰 이미지가 획득되도록 촬영 장치의 이동을 가이드하고, 제2 촬영 조건을 만족하도록 가이드된 상태에서 상기 대상의 얼굴의 측면 이미지를 획득하고, 상기 제1 촬영 조건은, 적어도 상기 대상의 양눈이 제1 촬영 이미지의 정해진 영역에 배치되는 것을 포함하고, 상기 파노라마 가이드는 얼굴의 정면을 기준으로 가로 방향으로 형성되며, 제1 지점 및 상기 제2 지점은 얼굴의 정면을 기준으로 세로 방향으로 이격되어 있으며, 상기 제2 촬영 조건은, 적어도 상기 제2 촬영 이미지에서 추출된 상기 제1 지점 및 상기 제2 지점 사이의 세로방향으로의 이격 거리가 최초 이격 거리를 기준으로 정해진 오차범위 미만의 차이를 가질 수 있다.According to another aspect of the present application, a photographing device that acquires a facial image of a subject to analyze the degree of protrusion of the eyeball is disclosed. The device includes a communication unit, a storage unit to store one or more instructions, and a control unit to execute the one or more instructions stored in the storage unit. By executing the one or more instructions, the controller acquires a frontal image of the face of the subject in a guided state to satisfy a first shooting condition, and positions of first and second points extracted from the frontal image. Forming a panorama guide based on the information, guiding movement of the photographing device so that a preview image corresponding to the panorama guide is obtained, and obtaining a side image of the subject's face in a guided state to satisfy a second photographing condition, The first photographing condition includes that at least both eyes of the subject are disposed in a predetermined area of a first photographed image, and the panorama guide is formed in a horizontal direction based on the front of the face, and the first point and the second The points are spaced apart in a vertical direction based on the front of the face, and the second photographing condition is at least a vertical distance between the first and second points extracted from the second photographed image. It may have a difference less than the error range determined based on the separation distance.

본 출원의 과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 출원으로부터 본 출원이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The solutions to the problems of the present application are not limited to the above-described solutions, and solutions not mentioned will be clearly understood by those skilled in the art from this application.

본 출원에 의하여 개시되는 내용에 의하면, 일반인들이 사용할 수 있는 스마트폰과 같은 디지털 카메라를 이용하여 안구의 돌출도 변화를 모니터링하는 데에 적합한 얼굴의 측면 이미지를 획득할 수 있다.According to the contents disclosed by the present application, a side image of a face suitable for monitoring a change in protrusion of the eyeball may be obtained using a digital camera such as a smart phone usable by the general public.

본 출원의 발명의 효과가 상술한 효과로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 출원으로부터 본 출원이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.Effects of the invention of the present application are not limited to the above-mentioned effects, and effects not mentioned will be clearly understood from this application to those of ordinary skill in the art to which this application belongs.

도 1 은 일 실시예에 따른 안병증 관리 시스템을 설명하기 위한 도면이다.
도 2는 사용자 단말을 포함하는 안병증 관리 시스템을 도시한 도면이다.
도 3은 일 실시예에 따른 사용자 단말의 블록도이다.
도 4는 일 실시예에 따른 안병증 관리 시스템의 동작을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 이미지 획득 방법을 설명하기 위한 도면이다.
도 6은 실시예에 따라 제공된 촬영 가이드의 형상 및 그 동작에 대해서 설명하기 위한 도면이다.
도 7은 실시예에 따라 제공된 실시간 촬영 가이드의 형상 및 그 동작에 대해서 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 사용자 단말의 이미지 촬영 후 디스플레이 화면을 설명하기 위한 도면이다.
도 9는 일 실시예에 따른 이미지 획득 방법을 설명하기 위한 도면이다.
도 10은 일 실시예에 따른 기준 가이드의 생성 동작을 설명하기 위한 도면이다.
도 11은 일 실시예에 따른 이미지 획득 방법을 설명하기 위한 도면이다.
도 12 및 13은 일 실시예에 따른 촬영 가이드 및 기준 가이드를 제공하는 디스플레이 화면을 설명하기 위한 도면이다.
도 14는 일 실시예에 따른 이미지 획득 방법을 설명하기 위한 도면이다.
도 15는 일 실시예에 따른 이미지 획득 방법을 설명하기 위한 도면이다.
도 16은 일 실시예에 따른 정면 이미지 및 측면 이미지를 도시한 도면이다.
도 17은 일 실시예에 따른 갑상선 안병증 예측 방법에 관한 순서도이다.
도 18은 일 실시예에 따른 사용자 단말의 설문 입력 인터페이스 및 확인 인터페이스를 포함하는 디스플레이 화면을 설명하기 위한 도면이다.
도 19은 일 실시예에 따른 갑상선 안병증 예측을 위한 지표를 설명하기 위한 도면이다.
도 20은 일 실시예에 따른 얼굴의 측면 이미지를 분석하여 돌출도를 예측하는 방법을 설명하기 위한 도면이다.
도 21은 일 실시예에 따른 얼굴의 정면 이미지에서의 홍채 영역의 지름값 및 얼굴의 측면 이미지에서의 안구의 돌출 정도를 설명하기 위한 도면이다.
1 is a diagram for explaining an ophthalmopathy management system according to an exemplary embodiment.
2 is a diagram illustrating an ophthalmopathy management system including a user terminal.
3 is a block diagram of a user terminal according to an embodiment.
4 is a diagram for explaining the operation of an ophthalmopathy management system according to an embodiment.
5 is a diagram for explaining an image acquisition method according to an exemplary embodiment.
6 is a diagram for explaining the shape and operation of a photographing guide provided according to an embodiment.
7 is a diagram for explaining the shape and operation of a real-time shooting guide provided according to an embodiment.
8 is a diagram for describing a display screen after capturing an image of a user terminal according to an exemplary embodiment.
9 is a diagram for explaining an image acquisition method according to an exemplary embodiment.
10 is a diagram for explaining an operation of generating a reference guide according to an exemplary embodiment.
11 is a diagram for explaining an image acquisition method according to an exemplary embodiment.
12 and 13 are views for explaining a display screen providing a shooting guide and a reference guide according to an exemplary embodiment.
14 is a diagram for explaining an image acquisition method according to an exemplary embodiment.
15 is a diagram for explaining an image acquisition method according to an exemplary embodiment.
16 is a diagram illustrating a front image and a side image according to an exemplary embodiment.
17 is a flowchart of a method for predicting thyroid ophthalmopathy according to an embodiment.
18 is a diagram for explaining a display screen including a questionnaire input interface and confirmation interface of a user terminal according to an exemplary embodiment.
19 is a diagram for explaining an index for predicting thyroid ophthalmopathy according to an embodiment.
20 is a diagram for explaining a method of predicting prominence by analyzing a side image of a face, according to an exemplary embodiment.
21 is a diagram for explaining a diameter value of an iris region in a front image of a face and a protrusion degree of an eyeball in a side image of a face, according to an exemplary embodiment.

본 출원의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 출원은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다.The foregoing objects, features and advantages of the present application will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. However, the present application can apply various changes and can have various embodiments. Hereinafter, specific embodiments will be illustrated in the drawings and described in detail.

명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명하며, 이에 대한 중복되는 설명은 생략하기로 한다.Like reference numerals designate essentially like elements throughout the specification. In addition, components having the same function within the scope of the same idea appearing in the drawings of each embodiment will be described using the same reference numerals, and overlapping descriptions thereof will be omitted.

본 출원과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 출원의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.If it is determined that a detailed description of a known function or configuration related to the present application may unnecessarily obscure the subject matter of the present application, the detailed description thereof will be omitted. In addition, numbers (eg, first, second, etc.) used in the description process of this specification are only identifiers for distinguishing one component from another component.

또한, 이하의 실시예에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.In addition, the suffixes "module" and "unit" for components used in the following embodiments are given or used interchangeably in consideration of ease of writing the specification, and do not have meanings or roles that are distinguished from each other by themselves.

이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.In the following examples, expressions in the singular number include plural expressions unless the context clearly dictates otherwise.

이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다.In the following embodiments, terms such as include or have mean that features or components described in the specification exist, and do not preclude the possibility that one or more other features or components may be added.

도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타낸 것으로, 본 발명이 반드시 도시된 바에 한정되지 않는다.In the drawings, the size of components may be exaggerated or reduced for convenience of explanation. For example, the size and thickness of each component shown in the drawings are arbitrarily shown for convenience of explanation, and the present invention is not necessarily limited to those shown.

어떤 실시예가 달리 구현 가능한 경우에 특정한 프로세스의 순서는 설명되는 순서와 다르게 수행될 수도 있다. 예를 들어, 연속하여 설명되는 두 프로세스가 실질적으로 동시에 수행될 수도 있고, 설명되는 순서와 반대의 순서로 진행될 수 있다.If an embodiment is otherwise implementable, the order of specific processes may be performed differently from the order described. For example, two processes that are described in succession may be performed substantially concurrently, or may proceed in an order reverse to that described.

이하의 실시예에서, 구성 요소 등이 연결되었다고 할 때, 구성 요소들이 직접적으로 연결된 경우뿐만 아니라 구성요소들 중간에 구성 요소들이 개재되어 간접적으로 연결된 경우도 포함한다. 예컨대, 본 명세서에서 구성 요소 등이 전기적으로 연결되었다고 할 때, 구성 요소 등이 직접 전기적으로 연결된 경우뿐만 아니라, 그 중간에 구성 요소 등이 개재되어 간접적으로 전기적 연결된 경우도 포함한다.In the following embodiments, when components are connected, a case in which the components are directly connected as well as a case in which components are interposed between the components and connected indirectly is included. For example, when it is said that components are electrically connected in this specification, not only the case where the components are directly electrically connected, but also the case where the components are interposed and electrically connected indirectly is included.

본 출원의 일 양태에 의하면, 안구의 돌출도를 분석하기 위해 대상의 얼굴 이미지를 획득하는 방법이 개시된다. 상기 방법은, 제1 촬영 조건을 만족하도록 가이드된 상태에서 상기 대상의 얼굴의 정면 이미지를 획득하고-상기 제1 촬영 조건을 만족하는 것은, 적어도 상기 대상의 양눈이 제1 촬영 이미지의 정해진 영역에 배치되는 것을 포함함-, 상기 정면 이미지에서 추출된 제1 지점 및 제2 지점의 위치 정보를 기초로 파노라마 가이드를 형성하고-상기 파노라마 가이드는 얼굴의 정면을 기준으로 가로 방향으로 형성되며, 상기 제1 지점 및 상기 제2 지점은 얼굴의 정면을 기준으로 세로 방향으로 이격되어 있음-, 상기 파노라마 가이드에 대응되는 프리뷰 이미지가 획득되도록 촬영 장치의 이동을 가이드하고-이 때, 상기 프리뷰 이미지에서 추출된 상기 제1 지점 및 상기 제2 지점 사이의 세로 방향의 이격 거리가 최초 이격 거리를 기준으로 정해진 오차범위 미만의 차이를 가지도록 모니터링함-, 및 제2 촬영 조건을 만족하도록 가이드된 상태에서 상기 대상의 얼굴의 측면 이미지를 획득하는-상기 제2 촬영 조건은, 상기 제2 촬영 이미지에서 추출된 상기 제1 지점 및 상기 제2 지점 사이의 세로방향으로의 이격 거리가 최초 이격 거리를 기준으로 정해진 오차범위 미만의 차이를 가짐- 것을 포함한다. 이 때, 획득된 이미지가 안구의 돌출도를 계산하는데에 이용될 수 있도록, 상기 제1 촬영 이미지에는 상기 대상의 홍채 영역이 나타나있고, 상기 제2 촬영 이미지에는 상기 대상의 한 눈의 눈꼬리 및 각막이 나타나있다.According to one aspect of the present application, a method of acquiring a facial image of a subject to analyze protrusion of the eyeball is disclosed. The method acquires a frontal image of the subject's face in a guided state to satisfy a first photographing condition - satisfying the first photographing condition means that at least both eyes of the subject are located in a predetermined area of the first photographed image. Including being disposed-, forming a panorama guide based on the location information of the first point and the second point extracted from the front image-the panorama guide is formed in a horizontal direction based on the front of the face, and the The first point and the second point are vertically spaced apart from the front of the face - guide the movement of the photographing device so that a preview image corresponding to the panorama guide is obtained - at this time, extracted from the preview image The distance between the first point and the second point in the vertical direction is monitored so as to have a difference less than an error range determined based on the initial separation distance-, and the subject in a guided state to satisfy the second shooting condition. Obtaining a side image of the face of -The second shooting condition is, the separation distance in the vertical direction between the first point and the second point extracted from the second shooting image is an error determined based on the initial separation distance with a difference less than the range - inclusive. At this time, the iris region of the target is shown in the first captured image, and the outer corner of one eye and the cornea of the target are displayed in the second captured image so that the obtained image can be used to calculate the protrusion of the eyeball. is appearing

몇몇 실시예들에 있어서, 상기 제1 촬영 조건을 만족하는 것은, 적어도 상기 대상의 얼굴의 좌우 회전각도가 기 설정된 제1 기준치를 초과하지 않는 것을 포함할 수 있다.In some embodiments, satisfying the first photographing condition may include at least a horizontal rotation angle of the subject's face not exceeding a preset first reference value.

몇몇 실시예들에 있어서, 상기 제1 촬영 조건을 만족하는 것은, 적어도 상기 대상의 얼굴 표정 정보에 기초하여 상기 대상의 미소 수준이 기 설정된 제2 기준치를 초과하지 않는 것을 포함할 수 있다.In some embodiments, satisfying the first photographing condition may include that a smile level of the subject does not exceed a preset second reference value based on at least facial expression information of the subject.

몇몇 실시예들에 있어서, 상기 제1 촬영 조건을 만족하는 것은, 적어도 상기 대상의 얼굴의 상하 회전각도가 기 설정된 제3 기준치를 초과하지 않는 것을 포함할 수 있다.In some embodiments, satisfying the first photographing condition may include that at least a vertical rotation angle of the subject's face does not exceed a preset third reference value.

몇몇 실시예들에 있어서, 상기 제1 촬영 조건을 만족하는 것은, 적어도 주변 밝기가 제4 기준치를 초과하지 않는 것을 포함할 수 있다.In some embodiments, satisfying the first photographing condition may include at least ambient brightness not exceeding a fourth reference value.

몇몇 실시예들에 있어서, 상기 제2 촬영 조건을 만족하는 것은, 적어도 상기 대상의 귀가 제2 촬영 이미지의 정해진 영역에 배치되는 것을 포함하는 것을 포함할 수 있다.In some embodiments, satisfying the second photographing condition may include disposing at least the ears of the target in a predetermined area of the second photographed image.

몇몇 실시예들에 있어서, 상기 제1 지점은 코의 끝 점이고, 상기 제2 지점은 얼굴의 외곽선 중 턱측 끝점일 수 있다.In some embodiments, the first point may be an end point of the nose, and the second point may be an end point on the chin side of the outline of the face.

몇몇 실시예들에 있어서, 상기 파노라마 가이드에 대응되는 프리뷰 이미지가 획득되도록 촬영 장치의 이동을 가이드하는 것은, 기설정된 프레임 레이트에 따라 프리뷰 이미지를 획득하고, 획득된 프리뷰 이미지에서 추출된 상기 제1 지점 및 상기 제2 지점 사이의 세로 방향의 이격 거리가 최초 이격 거리를 기준으로 정해진 오차범위 미만의 차이를 가지는지 판단하고, 정해진 오차범위를 벗어난 것으로 판단되면, 촬영 장치와 얼굴 사이의 거리를 조정하는 가이드를 출력함을 포함하는 것을 포함할 수 있다.In some embodiments, guiding the movement of the photographing device to obtain a preview image corresponding to the panorama guide may include obtaining a preview image according to a preset frame rate and the first point extracted from the obtained preview image. and determining whether the vertical separation distance between the second points has a difference less than a predetermined error range based on the initial separation distance, and adjusting the distance between the photographing device and the face if it is determined that the distance is outside the predetermined error range. It may include outputting the guide.

몇몇 실시예들에 있어서, 상기 방법은, 정해진 오차범위를 벗어난 것으로 판단되면, 촬영 장치와 얼굴 사이의 거리를 조정하는 가이드를 출력함은, 획득된 프리뷰 이미지에서 추출된 상기 제1 지점 및 상기 제2 지점 사이의 세로 방향의 이격 거리가 최초 이격 거리에 비해 정해진 오차범위를 초과할만큼 큰 것으로 판단되면, 촬영 장치를 얼굴로부터 멀어지게 이동시키라는 가이드를 출력하고, 획득된 프리뷰 이미지에서 추출된 상기 제1 지점 및 상기 제2 지점 사이의 세로 방향의 이격 거리가 최초 이격 거리에 비해 정해진 오차범위를 초과할만큼 작은 것으로 판단되면, 촬영 장치를 얼굴에 가까워지게 이동시키라는 가이드를 출력하는 것을 포함할 수 있다.In some embodiments, if it is determined that the distance is out of a predetermined error range, outputting a guide for adjusting the distance between the photographing device and the face includes the first point and the first point extracted from the obtained preview image. When it is determined that the vertical separation distance between the two points is large enough to exceed a predetermined error range compared to the initial separation distance, a guide to move the photographing device away from the face is output, and the above information extracted from the obtained preview image is output. When it is determined that the separation distance in the vertical direction between the first point and the second point is small enough to exceed a predetermined error range compared to the initial separation distance, outputting a guide instructing the photographing device to move closer to the face. can

몇몇 실시예들에 있어서, 상기 파노라마 가이드에 대응되는 프리뷰 이미지가 획득되도록 촬영 장치의 이동을 가이드하는 것은, 획득된 프리뷰 이미지에서 추출된 상기 제1 지점의 위치가 정면 이미지에서 추출된 제1 지점의 위치에 비해 제5 기준치 미만으로 이동되었는지 판단하고, 획득된 프리뷰 이미지에서 추출된 상기 제1 지점의 위치가 정면 이미지에서 추출된 제1 지점의 위치에 비해 제5 기준치를 초과할만큼 이동된 것으로 판단되면, 촬영 장치를 얼굴에 비하여 위쪽 또는 아래쪽으로 이동시키라는 가이드를 출력하는 것을 포함할 수 있다.In some embodiments, guiding the movement of the photographing device so that a preview image corresponding to the panorama guide is acquired is such that the position of the first point extracted from the acquired preview image is the location of the first point extracted from the front image. It is determined whether the position is moved by less than a fifth reference value compared to the position, and it is determined that the position of the first point extracted from the acquired preview image is moved by more than a fifth reference value compared to the position of the first point extracted from the front image. , outputting a guide instructing the photographing device to move upward or downward relative to the face.

몇몇 실시예들에 있어서, 파노라마 가이드에 대응되는 프리뷰 이미지가 획득되도록 촬영 장치의 이동을 가이드하는 것은 획득된 프리뷰 이미지에서 추출된 상기 제2 지점의 위치가 정면 이미지에서 추출된 제2 지점의 위치에 비해 제6 기준치 미만으로 이동되었는지 판단하고, 획득된 프리뷰 이미지에서 추출된 상기 제2 지점의 위치가 정면 이미지에서 추출된 제2 지점의 위치에 비해 제6 기준치를 초과할만큼 이동된 것으로 판단되면, 촬영 장치를 얼굴에 비하여 위쪽 또는 아래쪽으로 이동시키라는 가이드를 출력하는 것을 포함할 수 있다.In some embodiments, guiding the movement of the photographing device so that a preview image corresponding to the panorama guide is acquired is such that the location of the second point extracted from the acquired preview image is the location of the second point extracted from the front image. If it is determined whether the position of the second point extracted from the obtained preview image is moved by more than the sixth reference value compared to the position of the second point extracted from the front image, It may include outputting a guide instructing the photographing device to move upward or downward relative to the face.

몇몇 실시예들에 있어서, 파노라마 가이드에 대응되는 프리뷰 이미지가 획득되도록 촬영 장치의 이동을 가이드할 때, 적어도 일부의 프리뷰 이미지는 제3 촬영 이미지로 획득되고, 상기 제1 촬영 이미지, 상기 제2 촬영 이미지 및 상기 제3 촬영 이미지는 파노라마 이미지로 편집되어 저장될 수 있다.In some embodiments, when the movement of the photographing device is guided so that a preview image corresponding to the panorama guide is acquired, at least some of the preview images are acquired as third captured images, the first captured image, and the second captured image. The image and the third captured image may be edited and stored as a panoramic image.

몇몇 실시예들에 있어서, 상기 제1 촬영 이미지가 획득되는 시점부터 상기 제2 촬영 이미지가 획득되는 시점까지 연속적으로 이미지를 획득하여 동영상 이미지가 저장될 수 있다.In some embodiments, a moving image may be stored by continuously acquiring images from a time when the first captured image is obtained to a time when the second captured image is acquired.

몇몇 실시예들에 있어서, 상기 제2 촬영 조건을 만족하는 것은, 적어도 상기 대상의 한 눈이 제2 촬영 이미지에서 검출되지 않는 것을 포함할 수 있다.In some embodiments, satisfying the second photographing condition may include not detecting at least one eye of the subject in the second photographed image.

몇몇 실시예들에 있어서, 상기 방법은, 상기 제1 촬영 이미지에서 검출된 홍채 영역의 지름값을 획득하고, 상기 제2 촬영 이미지에서 검출된 눈꼬리와, 눈꼬리로부터 가장 먼곳에 위치하는 각막 사이의 거리값을 획득하고, 상기 거리값과 상기 지름값의 비율을 구하고, 상기 홍채 영역의 고유값을 반영하여 상기 거리값을 예측함으로써 상기 안구의 돌출도를 획득하는 것을 포함하는 것을 포함할 수 있다.In some embodiments, the method may obtain a diameter value of the iris region detected in the first photographed image, and a distance between the outer corner of the eye detected in the second photographed image and the cornea located farthest from the outer corner of the eye. The method may include obtaining the projection of the eyeball by obtaining a value, obtaining a ratio between the distance value and the diameter value, and predicting the distance value by reflecting the eigenvalue of the iris region.

본 출원의 다른 양태에 따르면, 하나 이상의 인스트럭션을 저장하는 비일시적 컴퓨터 판독 가능 매체가 개시된다. 상기 비일시적 컴퓨터 판독 가능 매체는 컴퓨팅 장치의 하나 이상의 프로세서들에 의해 실행될 때, 상기 컴퓨팅 장치로 하여금, 전술한 방법을 수행하도록 할 수 있다.According to another aspect of the present application, a non-transitory computer readable medium storing one or more instructions is disclosed. When the non-transitory computer readable medium is executed by one or more processors of a computing device, it may cause the computing device to perform the above-described method.

본 출원의 또 다른 양태에 의하면, 안구의 돌출도를 분석하기 위해 대상의 얼굴 이미지를 획득하는 촬영 장치이 개시된다. 상기 장치는, 통신부, 하나 이상의 인스트럭션을 저장하는 저장부, 및 상기 저장부에 저장된 상기 하나 이상의 인스트럭션을 실행하는 제어부를 포함한다. 상기 상기 제어부는, 상기 하나 이상의 인스트럭션을 실행함으로써, 제1 촬영 조건을 만족하도록 가이드된 상태에서 상기 대상의 얼굴의 정면 이미지를 획득하고, 상기 정면 이미지에서 추출된 제1 지점 및 제2 지점의 위치 정보를 기초로 파노라마 가이드를 형성하고, 파노라마 가이드에 대응되는 프리뷰 이미지가 획득되도록 촬영 장치의 이동을 가이드하고, 제2 촬영 조건을 만족하도록 가이드된 상태에서 상기 대상의 얼굴의 측면 이미지를 획득하고, 상기 제1 촬영 조건은, 적어도 상기 대상의 양눈이 제1 촬영 이미지의 정해진 영역에 배치되는 것을 포함하고, 상기 파노라마 가이드는 얼굴의 정면을 기준으로 가로 방향으로 형성되며, 제1 지점 및 상기 제2 지점은 얼굴의 정면을 기준으로 세로 방향으로 이격되어 있으며, 상기 제2 촬영 조건은, 적어도 상기 제2 촬영 이미지에서 추출된 상기 제1 지점 및 상기 제2 지점 사이의 세로방향으로의 이격 거리가 최초 이격 거리를 기준으로 정해진 오차범위 미만의 차이를 가질 수 있다.According to another aspect of the present application, a photographing device that acquires a facial image of a subject to analyze the degree of protrusion of the eyeball is disclosed. The device includes a communication unit, a storage unit to store one or more instructions, and a control unit to execute the one or more instructions stored in the storage unit. By executing the one or more instructions, the controller acquires a frontal image of the face of the subject in a guided state to satisfy a first shooting condition, and positions of first and second points extracted from the frontal image. Forming a panorama guide based on the information, guiding movement of the photographing device so that a preview image corresponding to the panorama guide is obtained, and obtaining a side image of the subject's face in a guided state to satisfy a second photographing condition, The first photographing condition includes that at least both eyes of the subject are disposed in a predetermined area of a first photographed image, and the panorama guide is formed in a horizontal direction based on the front of the face, and the first point and the second The points are spaced apart in a vertical direction based on the front of the face, and the second photographing condition is at least a vertical distance between the first and second points extracted from the second photographed image. It may have a difference less than the error range determined based on the separation distance.

본 출원에 의하면, 갑상선 안병증을 관리하는데에 이용되는 이미지를 촬영하는 방법 및 그에 기초하여 갑상선 안병증을 관리(예를 들어, 내원 안내)를 하기 위한 시스템이 개시된다.According to the present application, a method for capturing an image used to manage thyroid ophthalmopathy and a system for managing thyroid ophthalmopathy based thereon (eg, guidance to a hospital visit) are disclosed.

본 명세서에서 "눈"이라 함은, 안구를 기준으로 눈꺼풀에 의해 결정된 눈매를 통해 외부로 노출된 영역을 의미할 수 있다. 다시 말해, 본 명세서에서 "눈"이라 함은 "안구"에 포함되는 개념일 수 있다. In the present specification, the term "eye" may refer to an area exposed to the outside through the eye area determined by the eyelid based on the eyeball. In other words, "eye" in this specification may be a concept included in "eyeball".

본 명세서에서 "홍채 영역"은 안구의 홍채 및 안구의 동공을 합한 영역을 의미할 수 있다. In the present specification, "iris region" may refer to an area in which the iris of the eye and the pupil of the eye are combined.

본 명세서에서 "대상"이라 함은, 갑상선 안병증 관리 시스템에서 획득된 촬영이미지에서 피사체가 된 대상(예, 사람)을 의미할 수 있다.In the present specification, the term "subject" may refer to an object (eg, a person) that has become a subject in a photographed image acquired by the thyroid eye disease management system.

본 명세서에서 "프리뷰 이미지"라 함은, 이미지의 촬영 시점에 정해진 프레임 레이트에 따라 획득되는 이미지를 의미할 수 있고, 구체적으로, 사용자의 입력에 따른 이미지 촬영 동작이나 기 저장된 조건을 만족함으로 인한 자동 촬영 동작이 개시되어 그에 따른 응답으로 촬영 이미지가 저장되기 전단계에서 캡쳐되는 이미지를 의미할 수 있다.In the present specification, the term "preview image" may refer to an image obtained according to a frame rate determined at the time of capturing the image, and specifically, an image capturing operation according to a user's input or an automatic image capturing operation due to satisfying a pre-stored condition. It may refer to an image captured in a step before a photographing operation is initiated and a photographed image is stored in response thereto.

본 명세서에서 "촬영 이미지"라 함은, 이미지의 촬영 동작에 따라 최종적으로 획득된 이미지를 의미할 수 있고, 구체적으로, 사용자의 입력에 따른 이미지 촬영 동작이나 기 저장된 조건을 만족함으로 인한 자동 촬영 동작이 개시되어 그에 따른 응답으로 저장된 이미지를 의미할 수 있다.In this specification, the term "photographed image" may mean an image finally obtained according to a photographing operation of an image, and specifically, an image photographing operation according to a user's input or an automatic photographing operation resulting from satisfying a pre-stored condition. This may mean an image that is initiated and stored as a response thereto.

본 명세서에서 "촬영 가이드"라 함은, 이미지 촬영을 보조하기 위한 기능을 수행하는 것으로, 일 예로, 사용자 단말(1000)의 디스플레이에 출력되고 있는 프리뷰 이미지 상에 선이나 글자의 형상으로 함께 출력되는 형상일 수 있고, 다른 예로, 사용자 단말(1000)의 스피커를 통해 촬영을 보조하는 음성이 출력되는 형태일 수 있으며, 이에 한정되지 않는다.In this specification, the term "capturing guide" refers to a function for assisting image capturing, and for example, a preview image displayed on the display of the user terminal 1000 is output together in the form of lines or letters. It may be a shape, and as another example, it may be a form in which a voice assisting photographing is output through a speaker of the user terminal 1000, but is not limited thereto.

본 명세서에서 얼굴의 "좌우 회전 각도"라 함은, 얼굴의 머리측 중앙을 관통하는 가상의 수직축을 기준으로 회전하는 각도(Yaw)를 의미할 수 있다. 구체적으로, 얼굴이 정면을 바라보고 있을 때 얼굴의 좌우 회전 각도는 0°일 수 있고, 얼굴이 오른쪽을 바라보고 있을 때 얼굴의 좌우 회전 각도는 90°일 수 있으며, 얼굴이 왼쪽을 바라보고 있을 때 얼굴의 좌우 회전 각도는 -90°일 수 있다.In the present specification, the "left and right rotation angle" of a face may refer to an angle (Yaw) of rotation based on an imaginary vertical axis passing through the center of the head side of the face. Specifically, when the face is facing the front, the left and right rotation angle of the face may be 0°, when the face is looking to the right, the left and right rotation angle of the face may be 90°, and when the face is looking to the left. In this case, the left and right rotation angle of the face may be -90°.

본 명세서에서 "상하 회전 각도"라 함은, 얼굴의 귀측 중앙을 관통하는 가상의 수평축을 기준으로 회전하는 각도(Pitch)를 의미할 수 있다. 구체적으로, 얼굴이 정면을 바라보고 있을 때 얼굴의 상하 회전 각도는 0°일 수 있고, 얼굴이 상측(예, 하늘)을 바라보고 있을 때 얼굴의 상하 회전 각도는 90°일 수 있으며, 얼굴이 하측(예, 바닥)을 바라보고 있을 때 얼굴의 상하 회전 각도는 -90°일 수 있다.In this specification, the "up and down rotation angle" may mean a rotation angle (pitch) based on a virtual horizontal axis passing through the center of the ear side of the face. Specifically, when the face is facing the front, the vertical rotation angle of the face may be 0°, and when the face is facing upward (eg, the sky), the vertical rotation angle of the face may be 90°. When looking down (eg, the floor), the face's up and down rotation angle may be -90°.

본 명세서에서 "안병증"이라 함은, 갑상선 질환과 연관되어 발생하는 것으로 알려진 자가면역성 안질환으로 갑상선 안병증(Thyroid eye disease)을 의미할 수 있다. 통계적으로 갑상선 안병증은 대부분 갑상선기능 항진증과 동반되어 나타나지만, 갑상선기능 항진증이 나타나기 전이나 갑상선 기능이 정상일 때에도 나타나는 경우가 있다. 따라서, 본 명세서에서 설명하는 "안병증"은 안병증 관리 시스템을 이용하여 관리하고자 하는 질병을 의료업계에서 통상적으로 칭하는 질환명으로 기재한 것으로 해석되어야 하지, 모니터링하는 질병의 발생 기전이 갑상선에 의한 것임을 뜻하는 것으로 해석되어서는 안된다. In the present specification, "ophthalmia" may mean thyroid eye disease as an autoimmune eye disease known to occur in association with thyroid disease. Statistically, thyroid ophthalmopathy usually appears in conjunction with hyperthyroidism, but it may also appear before hyperthyroidism or when thyroid function is normal. Therefore, "eye disease" described herein should be interpreted as describing the disease to be managed using the eye disease management system as a disease name commonly referred to in the medical industry, but the mechanism of occurrence of the disease to be monitored is caused by the thyroid gland. It should not be interpreted to mean that

1.One. 안병증 관리 시스템Eye disease management system

(1)(One) 시스템 일반system general

도 1 은 일 실시예에 따른 안병증 관리 시스템(10)을 설명하기 위한 도면이다.1 is a diagram for explaining an ophthalmopathy management system 10 according to an exemplary embodiment.

안병증 관리 시스템(10)은 안병증을 예측하거나, 안병증의 존재를 알게된 이후 질병의 경과를 확인하고 관리하는 역할을 수행한다. The ophthalmopathy management system 10 plays a role of predicting ophthalmopathy or confirming and managing the course of the disease after finding out the existence of ophthalmopathy.

일 실시예에 따르면, 안병증 관리 시스템(10)은 대상의 이미지를 획득하고, 획득된 이미지를 분석하여 안병증 가능성을 예측하는 역할을 수행할 수 있다. 구체적인 예를 들어, 안병증 관리 시스템(10)은 대상의 정면 얼굴 이미지를 획득하고, 획득한 정면 얼굴 이미지를 분석하여 임상활동점수(CAS)를 예측하며, 예측된 임상활동점수가 기준치를 초과하였는지를 판단하여 갑상선 안병증의 발생 가능성을 예측할 수 있다. 다른 구체적인 예를 들어, 안병증 관리 시스템(10)은 대상의 측면 얼굴 이미지를 획득하고, 획득된 측면 얼굴 이미지를 분석하여 안구의 돌출도를 예측하거나, 안구의 돌출도 변화를 모니터링할 수 있다.According to an embodiment, the ophthalmopathy management system 10 may perform a role of acquiring an image of a target and predicting the possibility of ophthalmopathy by analyzing the obtained image. For example, the ophthalmopathy management system 10 acquires a front face image of the subject, analyzes the acquired front face image to predict a clinical activity score (CAS), and determines whether the predicted clinical activity score exceeds a reference value. It can be judged to predict the possibility of thyroid eye disease. For another specific example, the ophthalmopathy management system 10 may obtain a side face image of the subject, analyze the acquired side face image, predict the degree of projection of the eyeball, or monitor a change in the degree of projection of the eyeball.

도 2는 사용자 단말을 포함하는 안병증 관리 시스템을 도시한 도면이다.2 is a diagram illustrating an ophthalmopathy management system including a user terminal.

몇몇 실시예에서, 사용자 단말(100)은 네트워크를 통해 다른 사용자 단말(100) 및/또는 안병증 관리 서버(200)에 연결될 수 있다. 일반적으로, 네트워크는 통신 네트워크 및/또는 광역 네트워크(WAN)일 수 있다. 특정 실시예에서, 네트워크는 인터넷일 수 있다.In some embodiments, the user terminal 100 may be connected to other user terminals 100 and/or the eye disease management server 200 through a network. Generally, the network may be a communications network and/or a wide area network (WAN). In certain embodiments, the network may be the Internet.

사용자 단말(100)는 대상의 신체 부위에 대한 이미지를 획득할 수 있다. 획득되는 이미지는 안병증 관리 서버(200)에서 진단을 위해 이용될 수 있도록, 기 설정된 조건에 맞게 촬영된 이미지일 수 있다. 사용자 단말(100)는 획득된 이미지를 안병증 관리 서버(200)로 전송할 수 있다. The user terminal 100 may acquire an image of a body part of a target. The obtained image may be an image taken according to a preset condition so that it can be used for diagnosis in the ophthalmopathy management server 200 . The user terminal 100 may transmit the acquired image to the ophthalmopathy management server 200 .

안병증 관리 서버(200)는 이미지를 분석하여 갑상선 안병증에 관한 정보를 생성할 수 있다. 일 예로, 안병증 관리 서버(200)는 이미지를 분석하여 임상활용점수를 산출할 수 있고, 임상활용점수가 3점 이상인지를 평가하여 적절한 시기에 갑상선 안병증 치료를 목적으로 병원을 내원하도록 유도하기 위한 정보를 제공할 수 있다. 다른 예로, 안병증 관리 서버(200)는 이미지를 분석하여 안구의 돌출도를 예상할 수 있고, 안구의 돌출도 정보를 저장하여 사용자가 안구의 돌출도 변화에 관한 정보를 제공할 수 있다.The ophthalmopathy management server 200 may generate information about thyroid ophthalmia by analyzing the image. For example, the ophthalmopathy management server 200 may analyze the image to calculate a clinical utilization score, evaluate whether the clinical utilization score is 3 points or more, and induce visitation to the hospital for the purpose of treating thyroid ophthalmopathy at an appropriate time You can provide information to do so. As another example, the ophthalmopathy management server 200 may analyze the image to predict the projection degree of the eyeball, store the projection degree information of the eyeball, and provide information about the change in the projection degree of the eyeball to the user.

안병증 관리 시스템(10)은 도 2에 도시된 구성 요소 중 적어도 일부 구성이 생략된 형상으로 구축되거나, 도 2에 도시되지 않은 구성을 추가로 포함한 형상으로 구축될 수 있다.The ophthalmopathy management system 10 may be built in a shape in which at least some of the components shown in FIG. 2 are omitted, or may be built in a shape in which additional components not shown in FIG. 2 are included.

(2)(2) 사용자 단말의 구성요소Components of user terminal

도 3은 일 실시예에 따른 사용자 단말의 블록도이다.3 is a block diagram of a user terminal according to an embodiment.

일 실시예에 따르면, 사용자 단말(100)은 단말 통신부(110), 카메라 모듈(120), 단말 저장부(130), 입/출력 모듈(140) 및 단말 제어부(150)를 포함한다. 사용자 단말(100)은 예시적으로 스마트폰, 태블릿 디바이스, 랩탑 컴퓨터, 퍼스널 컴퓨터 또는 이들의 조합일 수 있으나, 이에 한정되는 것은 아니다.According to one embodiment, the user terminal 100 includes a terminal communication unit 110, a camera module 120, a terminal storage unit 130, an input/output module 140, and a terminal control unit 150. The user terminal 100 may be, for example, a smart phone, a tablet device, a laptop computer, a personal computer, or a combination thereof, but is not limited thereto.

단말 통신부(110)는 무선 통신 모듈 및/또는 유선 통신 모듈을 포함할 수 있다. 단말 통신부(110)는 예시적으로 유/무선 LAN(Local Area Network) 모듈, WAN 모듈, 이더넷 모듈, 블루투스(Bluetooth) 모듈, 지그비(Zigbee) 모듈, USB(Universal Serial Bus) 모듈, IEEE 1394 모듈, 와이파이(Wifi) 모듈 또는 이들의 조합일 수 있으나, 이에 한정되는 것은 아니다.The terminal communication unit 110 may include a wireless communication module and/or a wired communication module. The terminal communication unit 110 exemplarily includes a wired/wireless Local Area Network (LAN) module, a WAN module, an Ethernet module, a Bluetooth module, a Zigbee module, a Universal Serial Bus (USB) module, an IEEE 1394 module, It may be a WiFi module or a combination thereof, but is not limited thereto.

카메라 모듈(120)은 디지털 카메라로, 이미지 센서와 영상처리부를 포함할 수 있다. 이미지 센서는 광학 영상(image)을 전기적 신호로 변환하는 장치로, 다수개의 광 다이오드(photo diode)가 직접된 칩으로 구성될 수 있다. 예시적으로, 이미지 센서는 CCD(Charge Coupled Device), CMOS(Complementary Metal Oxide Semiconductor) 등을 포함할 수 있다. 한편, 영상처리부는 촬영된 결과를 영상 처리하여, 영상 정보를 생성할 수 있다. The camera module 120 is a digital camera and may include an image sensor and an image processor. An image sensor is a device that converts an optical image into an electrical signal, and may be composed of a chip in which a plurality of photo diodes are directly incorporated. Illustratively, the image sensor may include a Charge Coupled Device (CCD), Complementary Metal Oxide Semiconductor (CMOS), and the like. Meanwhile, the image processing unit may generate image information by processing a photographed result.

단말 저장부(130)는 메모리로, 메모리는 마이크로 프로세서(microprocessor)에 의해 읽힐 수 있는 데이터를 저장하는 저장수단일 수 있다. 단말 저장부(130)는 HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM 등을 포함할 수 있다. 단말 저장부(130)는 사용자 단말을 구동하는 운용 프로그램(OS: Operating System), 사용자 단말에서 구동되어야 하는 각종 프로그램들(및/또는 어플리케이션 프로그램(131)), 그리고 이들에 의해 참조될 각종 데이터 들이 저장될 수 있다. The terminal storage unit 130 is a memory, and the memory may be a storage means for storing data that can be read by a microprocessor. The terminal storage unit 130 may include a hard disk drive (HDD), solid state disk (SSD), silicon disk drive (SDD), ROM, RAM, and the like. The terminal storage unit 130 stores an operating system (OS) that drives a user terminal, various programs (and/or application programs 131) to be driven in the user terminal, and various data to be referred to by them. can be stored

입/출력 모듈(140)은 사용자 입력부, 출력부 및/또는 입출력 인터페이스를 포함할 수 있다. 사용자 입력부는 사용자 단말(100)에 대한 사용자의 입력을 수신한다. 수신된 입력은 단말 제어부(150)에 전달될 수 있다. 일 실시예에 따르면, 사용자 입력부는 터치 디스플레이를 통해 사용자의 입력을 수신할 수 있다. 출력부는 단말 제어부(150)의 제어 명령에 따라 각종 정보를 출력한다. 일 실시예에 따르면, 출력부는 사용자에게 정보를 시각적으로 출력하는 디스플레이를 포함할 수 있다. 또는, 출력부는 사용자에게 정보를 청각적으로 출력하는 스피커, 사용자에게 정보를 촉각적으로 출력하는 진동모터를 포함할 수 있다.The input/output module 140 may include a user input unit, an output unit, and/or an input/output interface. The user input unit receives a user's input for the user terminal 100 . The received input may be transmitted to the terminal control unit 150 . According to one embodiment, the user input unit may receive a user's input through a touch display. The output unit outputs various types of information according to the control command of the terminal control unit 150 . According to one embodiment, the output unit may include a display that visually outputs information to a user. Alternatively, the output unit may include a speaker that audibly outputs information to the user and a vibration motor that tactilely outputs information to the user.

입출력 인터페이스는, 예를 들면, 사용자 또는 다른 외부 기기로부터 입력된 명령 또는 데이터를 사용자 단말(100)의 다른 구성요소(들)에 전달할 수 있는 인터페이스의 역할을 할 수 있다. 또한, 입출력 인터페이스는 사용자 단말(100)의 다른 구성요소(들)로부터 수신된 명령 또는 데이터를 사용자 또는 다른 외부 기기로 출력할 수 있다.The input/output interface may serve as an interface capable of transferring commands or data input from a user or other external device to other component(s) of the user terminal 100, for example. Also, the input/output interface may output commands or data received from other component(s) of the user terminal 100 to the user or other external devices.

단말 제어부(150)는 적어도 하나의 프로세서를 포함할 수 있다. 이때, 각각의 프로세서는 메모리에 저장된 적어도 하나의 명령어를 실행시킴으로써, 소정의 동작을 실행할 수 있다. 일 실시예에 따르면, 단말 제어부(150)는 사용자 단말(100)에 포함되어 있는 구성들의 전체적인 동작을 제어할 수 있다. 다시 말해, 사용자 단말(100)은 단말 제어부(150)에 의해 제어 또는 동작될 수 있다. 단말 제어부(150)는, 예를 들면, 사용자 단말(100)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.The terminal controller 150 may include at least one processor. At this time, each processor may execute a predetermined operation by executing at least one instruction stored in the memory. According to an embodiment, the terminal controller 150 may control overall operations of elements included in the user terminal 100 . In other words, the user terminal 100 may be controlled or operated by the terminal control unit 150 . The terminal control unit 150 may, for example, execute calculations or data processing related to control and/or communication of at least one other component of the user terminal 100 .

단말 제어부(150)는, 중앙처리장치 (central processing unit (CPU)), 어플리케이션 프로세서 (application processor (AP)), 또는 커뮤니케이션 프로세서 (communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다.The terminal control unit 150 may include one or more of a central processing unit (CPU), an application processor (AP), or a communication processor (CP).

사용자 단말(100)은 도 3에 도시된 구성 요소 중 적어도 일부 구성이 생략된 형상으로 제공되거나, 도 3에 도시되지 않은 구성을 추가로 포함한 형태로 제공될 수 있다.The user terminal 100 may be provided in a form in which at least some of the components shown in FIG. 3 are omitted, or may be provided in a form in which components not shown in FIG. 3 are additionally included.

이하에서, 별도의 언급이 없는 한, 사용자 단말(100)의 동작은 단말 제어부(150)에 의해 수행된 것으로 해석될 수 있다.Hereinafter, unless otherwise noted, the operation of the user terminal 100 may be interpreted as being performed by the terminal control unit 150 .

2.2. 안병증 관리 시스템의 동작 - 이미지 획득 방법Operation of Eye Disease Management System - Image Acquisition Method

도 4는 일 실시예에 따른 안병증 관리 시스템의 동작을 설명하기 위한 도면이다. 4 is a diagram for explaining the operation of an ophthalmopathy management system according to an embodiment.

안병증 관리 시스템(10)은 이미지를 획득(S1000)하고 안병증 정보를 획득(S2000)할 수 있다. 이미지 획득 방법과 이미지 분석 방법에 대해서는 아래에서 보다 구체적으로 설명하기로 한다.The ophthalmopathy management system 10 may acquire an image (S1000) and obtain ophthalmopathy information (S2000). An image acquisition method and an image analysis method will be described in more detail below.

일 실시예에 따르면, 이미지 획득 방법 및 이미지 분석 방법은 모두 사용자 단말(100)에 의해 수행될 수 있고, 이 때, 사용자 단말(100)은 안병증 관리 시스템(10)을 구성하는 유일한 장치일 수 있다.According to an embodiment, both the image acquisition method and the image analysis method may be performed by the user terminal 100, and at this time, the user terminal 100 may be the only device constituting the eye disease management system 10. have.

다른 실시예에 따르면, 이미지 획득 방법은 사용자 단말(100)에 의해 수행되고, 이미지 분석 방법은 안병증 관리 서버(200)에 의해 수행될 수 있다. 이 때, 안병증 관리 시스템(10)은 적어도 전자 장치(100) 및 안병증 관리 서버(200)를 포함할 수 있다. 이 때, 사용자 단말(100) 및 안병증 관리 서버(200)는 서로 데이터 교환이 가능하도록 연결되어, 필요한 데이터를 서로 전송하고 수신할 수 있다.According to another embodiment, the image acquisition method may be performed by the user terminal 100 and the image analysis method may be performed by the ophthalmopathy management server 200 . At this time, the eye disease management system 10 may include at least the electronic device 100 and the eye disease management server 200 . At this time, the user terminal 100 and the ophthalmopathy management server 200 are connected to each other to enable data exchange, and can transmit and receive necessary data to each other.

또 다른 실시예에 따르면, 이미지 획득 방법의 일부 동작은 사용자 단말(100)에 의해 수행되고, 나머지 동작은 안병증 관리 서버(200)에 의해 수행될 수 있다. 또한, 이미지 분석 방법의 일부 동작은 사용자 단말(100)에 의해 수행되고, 나머지 동작은 안병증 관리 서버(200)에 의해 수행될 수 있다.According to another embodiment, some operations of the image acquisition method may be performed by the user terminal 100 and other operations may be performed by the ophthalmopathy management server 200 . Also, some operations of the image analysis method may be performed by the user terminal 100 and other operations may be performed by the ophthalmopathy management server 200 .

이하에서는, 이미지 획득 방법은 사용자 단말(100)이 주체적으로 수행하고, 이미지 분석 방법은 안병증 관리 서버(200)에서 주체적으로 수행하는 것을 가정하여 구체적인 실시 태양을 설명한다. 다만, 이는 설명의 편의를 위해 하나의 실시예를 들어 설명하는 것일 뿐, 본 명세서에서 개시하는 발명이 아래의 주체에 의해 수행되는 것으로 한정됨을 의미하는 것은 아니다.Hereinafter, specific embodiments will be described on the assumption that the user terminal 100 independently performs the image acquisition method and the image analysis method independently performed by the ophthalmopathy management server 200 . However, this is only described as one embodiment for convenience of explanation, and does not mean that the invention disclosed in this specification is limited to being performed by the following subjects.

(1) 이미지 획득 방법 - 제1 실시예 (1) Image Acquisition Method - First Embodiment

이미지를 분석하여 갑상선 안병증을 예측하는 시스템에 있어서, 갑상선 안병증의 예측 정확도를 향상시키기 위해서는 적합한 진단 이미지가 촬영될 필요가 있다. 이를 위해, 진단 이미지는 정해진 촬영 조건을 만족한 상태에서 획득될 필요가 있다. 따라서, 본 실시예에서는 갑상선 안병증의 분석에 이용되는 이미지의 획득 방법에 대해서 구체적으로 설명한다.In a system for predicting thyroid ophthalmopathy by analyzing an image, it is necessary to capture an appropriate diagnosis image in order to improve the prediction accuracy of thyroid ophthalmopathy. To this end, a diagnostic image needs to be obtained in a state in which predetermined photographing conditions are satisfied. Therefore, in this embodiment, a method for obtaining an image used for analysis of thyroid eye disease will be described in detail.

일 실시예에 따른 안병증 관리 시스템(10)에서는 제1 촬영 조건을 만족하는 이미지가 획득될 수 있다. In the ophthalmopathy management system 10 according to an exemplary embodiment, an image satisfying the first photographing condition may be obtained.

제1 촬영 조건은 안병증 관리 시스템(10)의 이미지 획득의 기준으로, 대상의 양눈이 진단 이미지 상의 적절한 위치에 배치되어 있는가, 대상의 얼굴의 상하 회전 각도가 적정 범위 이내인가, 대상의 얼굴의 좌우 회전 각도가 적정 범위 이내인가, 대상의 얼굴이 이미지 상의 적정 비율(portion)을 차지하는가, 대상의 미소 수준이 적정 범위 이내인가, 및/또는 주변 밝기가 적정 범위 이내인가를 평가하여 판단될 수 있다. The first photographing condition is a criterion for image acquisition of the ophthalmopathy management system 10, whether both eyes of the subject are placed in appropriate positions on the diagnosis image, whether the vertical rotation angle of the subject's face is within an appropriate range, whether the subject's face is It can be determined by evaluating whether the left/right rotation angle is within an appropriate range, whether the subject's face occupies an appropriate portion on the image, whether the subject's smile level is within an appropriate range, and/or whether the ambient brightness is within an appropriate range. .

구체적인 예를 들어, 제1 촬영 조건을 만족하는 것은, 대상의 양눈이 제1 촬영 이미지의 정해진 영역에 배치되는 것, 대상의 얼굴의 좌우 회전각도가 기 설정된 제1 기준치를 초과하지 않는 것 및 대상의 얼굴 표정 정보에 기초하여 상기 대상의 미소 수준이 기 설정된 제2 기준치를 초과하지 않는 것일 수 있다. For example, satisfying the first photographing condition is that the eyes of the target are disposed in a predetermined area of the first photographed image, the horizontal rotation angle of the face of the target does not exceed a preset first reference value, and the target Based on the facial expression information of the subject, the smile level of the subject may not exceed a preset second reference value.

다른 실시예에 따르면, 제1 촬영 조건을 만족하는 것은, 대상의 양눈이 제1 촬영 이미지의 정해진 영역에 배치되는 것, 대상의 얼굴의 좌우 회전각도가 기 설정된 제1 기준치를 초과하지 않는 것, 대상의 얼굴 표정 정보에 기초하여 상기 대상의 미소 수준이 기 설정된 제2 기준치를 초과하지 않는 것 및 대상의 얼굴의 상하 회전각도가 기 설정된 제3 기준치를 초과하지 않는 것일 수 있다. According to another embodiment, satisfying the first photographing condition is that both eyes of the target are disposed in a predetermined area of the first photographed image, a horizontal rotation angle of the face of the target does not exceed a preset first reference value, Based on the facial expression information of the target, the target's smile level may not exceed a preset second reference value, and the vertical rotation angle of the target's face may not exceed a preset third reference value.

또 다른 실시예에 따르면, 제1 촬영 조건을 만족하는 것은, 대상의 양눈이 제1 촬영 이미지의 정해진 영역에 배치되는 것, 대상의 얼굴의 좌우 회전각도가 기 설정된 제1 기준치를 초과하지 않는 것, 대상의 얼굴 표정 정보에 기초하여 상기 대상의 미소 수준이 기 설정된 제2 기준치를 초과하지 않는 것, 대상의 얼굴의 상하 회전각도가 기 설정된 제3 기준치를 초과하지 않는 것, 및 주변 밝기가 제4 기준치를 초과하지 않는 것일 수 있다. According to another embodiment, satisfying the first photographing condition is that both eyes of the target are disposed in a predetermined area of the first photographed image, and a horizontal rotation angle of the face of the target does not exceed a preset first reference value. , the target's smile level does not exceed a preset second reference value based on the target's facial expression information, the vertical rotation angle of the target's face does not exceed a preset third reference value, and the ambient brightness 4 may not exceed the standard.

이에 한정되지 않고, 갑상선 안병증 시스템(10)은 전술한 여러 평가 지표들 중 적어도 일부 평가지표 들을 분석하거나, 추가적인 지표를 더 분석하는 형태로 제1 촬영 조건이 만족되었는지 판단할 수 있고, 아래에서는, 본 발명의 이미지 획득 방법의 일실시예를 도 5를 참조하여 설명한다.Without being limited thereto, the thyroid eye disease system 10 may determine whether the first shooting condition is satisfied by analyzing at least some of the above-described evaluation indicators or further analyzing additional indicators. , An embodiment of the image acquisition method of the present invention will be described with reference to FIG.

도 5는 일 실시예에 따른 이미지 획득 방법을 설명하기 위한 도면이다.5 is a diagram for explaining an image acquisition method according to an exemplary embodiment.

사용자 단말(100)은 촬영 가이드를 제공(SA1100)할 수 있다. 단말 제어부(150)는 입/출력 모듈(140)을 통해 사용자에게 촬영 가이드를 제공할 수 있다. The user terminal 100 may provide a photographing guide (SA1100). The terminal controller 150 may provide a photographing guide to the user through the input/output module 140 .

사용자 단말(100)은 프리뷰 이미지가 획득되어 입/출력 모듈(140)을 통해 제공되는 상태에서, 상기 프리뷰 이미지 상에 촬영 가이드가 오버랩 되도록 제공할 수 있다. 이 경우, 촬영 가이드는 입/출력 모듈(140)의 고정된 위치에 제공되고, 획득된 프리뷰 이미지가 특성에 따라 촬영 가이드가 제공되는 위치가 변경되지는 않는다.In a state in which a preview image is obtained and provided through the input/output module 140, the user terminal 100 may provide a photographing guide to overlap the preview image. In this case, the photographing guide is provided at a fixed position of the input/output module 140, and the position at which the photographing guide is provided does not change according to the characteristics of the acquired preview image.

촬영 가이드는 전술한 여러 평가 지표들에 적합한 이미지가 획득되도록 사용자에게 제공되는 지시일 수 있다. 촬영 가이드는 사용자 단말(100)에 저장된 촬영 조건에 따라 평가되도록 설정된 평가 지표 들 중 일부에 대한 지시일 수 있다. 일 예로, 사용자 단말(100)은 대상의 양눈이 위치해야 하는 지점을 표시하고, 나머지 지표들에 대응되는 촬영 가이드는 제공하지 않을 수 있다. 다른 예로, 사용자 단말(100)은 대상의 양눈이 위치해야 하는 지점 및 대상의 얼굴이 포함되어야 하는 영역을 표시하고, 나머지 지표들에 대응되는 촬영 가이드는 제공하지 않을 수 있다. 한편, 촬영 가이드는 사용자 단말(100)에 저장된 촬영 조건에 따라 평가되도록 설정된 평가 지표 들 모두에 대한 지시일 수 있다. 본 발명의 촬영 가이드의 일 실시예는 도 6 및 7을 참조하여 이하에서 설명한다.The photographing guide may be an instruction provided to the user so that an image suitable for the above-described various evaluation indicators is obtained. The shooting guide may be an instruction for some of evaluation indicators set to be evaluated according to shooting conditions stored in the user terminal 100 . For example, the user terminal 100 may display points where both eyes of the target should be located, and may not provide a shooting guide corresponding to the remaining indicators. As another example, the user terminal 100 may display a point where both eyes of the target should be located and an area where the face of the target should be included, and may not provide a shooting guide corresponding to the remaining indicators. Meanwhile, the shooting guide may be an instruction for all evaluation indicators set to be evaluated according to shooting conditions stored in the user terminal 100 . An embodiment of the photographing guide of the present invention will be described below with reference to FIGS. 6 and 7 .

사용자 단말(100)은 프리뷰 이미지를 획득(SA1200)할 수 있다. 단말 제어부(150)는 카메라 모듈(120)을 이용하여 프리뷰 이미지를 획득(SA1200)할 수 있다. 단말제어부(150)는 입/출력 모듈(140)을 통해 촬영 가이드가 제공되는 상태에서, 프리뷰 이미지를 획득(SA1200)할 수 있다. 프리뷰 이미지는 기설정된 프레임 레이트에 따라 획득될 수 있다. The user terminal 100 may obtain a preview image (SA1200). The terminal controller 150 may acquire a preview image using the camera module 120 (SA1200). The terminal controller 150 may acquire a preview image (SA1200) in a state in which a shooting guide is provided through the input/output module 140. A preview image may be acquired according to a preset frame rate.

사용자 단말(100)은 획득된 프리뷰 이미지에 대하여 복수의 지표를 추출(SA1300)할 수 있다. 단말 제어부(150)는 단말 저장부(130)에 저장된 알고리즘을 이용하여 복수의 지표를 추출(SA1300)할 수 있다. The user terminal 100 may extract a plurality of indicators from the acquired preview image (SA1300). The terminal control unit 150 may extract a plurality of indicators using an algorithm stored in the terminal storage unit 130 (SA1300).

사용자 단말(100)은 획득되는 프리뷰 이미지 중 적어도 일부에 대하여 SA1300 단계를 수행할 수 있다. 이는, 프리뷰 이미지 획득 이후 다음 프리뷰 이미지를 획득할 때까지 소요되는 시간이 하나의 프리뷰 이미지에 대하여 SA1300을 수행하는데에 걸리는 시간에 비해 짧을 수 있기 때문이다.The user terminal 100 may perform step SA1300 with respect to at least some of the acquired preview images. This is because the time taken from acquiring the preview image to acquiring the next preview image may be shorter than the time required to perform SA1300 for one preview image.

SA1300단계에서 추출되는 복수의 지표는 전술한 여러 평가 지표들 중 적어도 일부의 적절성을 확인할 수 있도록 추출되는 정보일 수 있다. SA1300단계에서 추출되는 복수의 지표는 사용자 단말(100)에 저장된 촬영 조건에 따라 평가되도록 설정된 평가 지표들 중 일부에 대한 정보일 수 있다. 구체적인 예를 들어, 복수의 지표는 동공의 위치 정보, 얼굴의 윤곽 정보 등을 포함할 수 있으나, 이에 한정되지 않는다.The plurality of indicators extracted in step SA1300 may be information extracted to confirm the appropriateness of at least some of the aforementioned evaluation indicators. The plurality of indicators extracted in step SA1300 may be information about some of evaluation indicators set to be evaluated according to shooting conditions stored in the user terminal 100 . For a specific example, the plurality of indicators may include pupil position information, facial contour information, and the like, but are not limited thereto.

복수의 지표는 랜드마크 검출 알고리즘을 통해 획득될 수 있다. 일 예로, 사용자 단말(100)은 랜드마크 검출 알고리즘을 이용하여 프리뷰 이미지에서의 눈의 위치를 확인할 수 있고, 이 때, 확인된 눈 좌표는 동공의 위치에 관련된 지표일 수 있다.A plurality of indicators may be obtained through a landmark detection algorithm. For example, the user terminal 100 may check the eye position in the preview image using a landmark detection algorithm, and at this time, the checked eye coordinates may be an index related to the pupil position.

복수의 지표는 세그먼테이션 모델을 이용하여 획득될 수 있다. 일 예로, 사용자 단말(100)은 세그먼테이션 모델에 프리뷰 이미지를 입력하여 프리뷰 이미지에서의 눈의 위치를 확인할 수 있고, 이 때, 확인된 눈 영역은 동공의 위치에 관련된 지표일 수 있다.A plurality of indicators may be obtained using a segmentation model. For example, the user terminal 100 may input a preview image to the segmentation model to check the eye position in the preview image. In this case, the identified eye region may be an index related to the pupil position.

복수의 지표는 바운딩 박스 검출 알고리즘을 통해 획득할 수 있다. 일 예로, 사용자 단말(100)은 바운딩 박스 검출 알고리즘에 프리뷰 이미지를 입력하여 프리뷰 이미지에서의 눈 및 얼굴의 위치를 확인할 수 있고, 이 때, 확인된 눈 영역은 동공의 위치에 관련된 지표이고, 확인된 얼굴 영역은 얼굴의 비율에 관련된 지표일 수 있다. A plurality of indices may be obtained through a bounding box detection algorithm. For example, the user terminal 100 may input a preview image into a bounding box detection algorithm to check the positions of the eyes and face in the preview image. At this time, the checked eye area is an index related to the position of the pupil, and The face area may be an index related to a face ratio.

SA1300 단계에서 추출되는 지표는 전술한 여러 평가 지표들 중 일부에 대한 지표들에 관련된 것일 수 있고, 추출되는 지표가 둘 이상인 경우, 두 지표는 동일한 알고리즘에 의해 추출될 수 있고, 다른 알고리즘에 의해 추출될 수도 있다. The indicators extracted in the SA1300 step may be related to indicators for some of the above-described evaluation indicators, and when there are two or more indicators to be extracted, the two indicators may be extracted by the same algorithm or extracted by different algorithms. It could be.

사용자 단말(100)은 추출된 지표가 적정 위치에 있는지 판단(SA1400)할 수 있다. 단말 제어부(150)는 단말 저장부(130)에 저장된 촬영 조건을 참조하여 추출된 지표가 프리뷰 이미지 상의 적정 위치에 있는지 평가할 수 있다. 다시 말해, 단말 제어부(150)는 추출된 지표가 기준을 만족하였는지 여부를 확인할 수 있다.The user terminal 100 may determine whether the extracted indicator is at an appropriate location (SA1400). The terminal control unit 150 may evaluate whether the extracted indicator is at an appropriate position on the preview image by referring to the shooting conditions stored in the terminal storage unit 130 . In other words, the terminal control unit 150 may check whether the extracted indicator satisfies the criterion.

몇몇 실시예에 따르면, 사용자 단말(100)은 추출된 지표와 촬영 가이드의 위치를 비교할 수 있다. 예를 들어, 사용자 단말(100)이 추출된 지표의 픽셀의 좌표값을 획득한 경우, 획득된 좌표값과 촬영 가이드의 좌표값이 기준 거리 이내로 이격되어 있는지를 평가할 수 있다. 또는, 몇몇 실시예에 따르면, 사용자 단말(100)은 추출된 지표와 기저장된 기준을 비교할 수 있다. 예를 들어, 사용자 단말(100)이 복수의 지표로 랜드마크 알고리즘을 이용하여 분석된 왼쪽 눈 좌표 및 오른쪽 눈 좌표를 획득한 경우, 획득된 눈 좌표가 적정 위치로 저장된 픽셀값 범위 이내에 있는지를 평가할 수 있다. According to some embodiments, the user terminal 100 may compare the extracted index and the location of the shooting guide. For example, when the user terminal 100 acquires the coordinate values of pixels of the extracted index, it may evaluate whether the obtained coordinate values and the coordinate values of the photographing guide are separated from each other within a reference distance. Alternatively, according to some embodiments, the user terminal 100 may compare the extracted index with a pre-stored criterion. For example, when the user terminal 100 acquires left eye coordinates and right eye coordinates analyzed using a landmark algorithm as a plurality of indices, it is evaluated whether the obtained eye coordinates are within a pixel value range stored as an appropriate position. can

사용자 단말(100)은 획득된 프리뷰 이미지에 대하여 얼굴의 좌우 회전 각도를 평가(SA1500)할 수 있다. 단말 제어부(150)는 단말 저장부(130)에 저장된 알고리즘을 이용하여 획득된 프리뷰 이미지에 나타난 대상의 얼굴의 좌우 회전 각도를 산출하고, 단말 저장부(130)에 저장된 촬영 조건을 참조하여 산출된 얼굴의 좌우 회전 각도가 적정 범위인지 판단할 수 있다. The user terminal 100 may evaluate the horizontal rotation angle of the face with respect to the acquired preview image (SA1500). The terminal control unit 150 calculates the left and right rotation angle of the face of the subject shown in the obtained preview image using an algorithm stored in the terminal storage unit 130, and the calculated angle is calculated by referring to the shooting conditions stored in the terminal storage unit 130. It may be determined whether the left and right rotation angle of the face is within an appropriate range.

사용자 단말(100)은 획득되는 프리뷰 이미지 중 적어도 일부에 대하여 SA1500 단계를 수행할 수 있다. 이는, 프리뷰 이미지 획득 이후 다음 프리뷰 이미지를 획득할 때까지 소요되는 시간이 하나의 프리뷰 이미지에 대하여 SA1500을 수행하는데에 걸리는 시간에 비해 짧을 수 있기 때문이다. The user terminal 100 may perform step SA1500 on at least some of the obtained preview images. This is because the time taken from acquiring the preview image to acquiring the next preview image may be shorter than the time required to perform SA1500 for one preview image.

SA1300 단계를 수행되는 프리뷰 이미지와 SA 1500 단계가 수행되는 프리뷰 이미지는 동일할 수 있다. 또는, SA1300 단계를 수행되는 프리뷰 이미지와 SA 1500 단계가 수행되는 프리뷰 이미지는 다를 수 있다. 이는, SA1300 단계를 수행하는데에 걸리는 시간과 SA1500단계를 수행하는데에 걸리는 시간이 다를 수 있기 때문이다.The preview image on which step SA1300 is performed and the preview image on which step SA 1500 is performed may be the same. Alternatively, the preview image on which step SA1300 is performed may be different from the preview image on which step SA 1500 is performed. This is because the time taken to perform step SA1300 and the time taken to perform step SA1500 may be different.

얼굴의 좌우 회전 각도는 좌우 회전 각도 검출 알고리즘(Yaw estimation algorithm)을 통해 획득될 수 있으나, 랜드마크 검출 알고리즘을 이용하여 획득된 신체 부위들의 위치를 비교하여 산출될 수도 있고, 그에 한정되지 않는다.The left and right rotation angle of the face may be obtained through a yaw estimation algorithm, but may also be calculated by comparing positions of body parts obtained using a landmark detection algorithm, but is not limited thereto.

사용자 단말(100)은 얼굴의 좌우 회전 각도가 적정 범위(즉, 제1 기준치)이내인지 평가할 수 있다. 일 예로, 제1 기준치 이내인지 평가할 때에 얼굴의 좌우 회전 각도가 ±2도이내인지를 기준으로 판단될 수 있으나, 이에 한정되지 않는다. The user terminal 100 may evaluate whether the horizontal rotation angle of the face is within an appropriate range (ie, the first reference value). For example, when evaluating whether or not the first reference value is within the range, it may be determined based on whether the horizontal rotation angle of the face is within ±2 degrees, but is not limited thereto.

사용자 단말(100)은 획득된 프리뷰 이미지에 대하여 얼굴의 상하 회전 각도를 평가(SA1600)할 수 있다. 단말 제어부(150)는 단말 저장부(130)에 저장된 알고리즘을 이용하여 획득된 프리뷰 이미지에 나타난 대상의 얼굴의 상하 회전 각도를 산출하고, 단말 저장부(130)에 저장된 촬영 조건을 참조하여 산출된 얼굴의 상하 회전 각도가 적정 범위인지 판단할 수 있다.The user terminal 100 may evaluate the vertical rotation angle of the face with respect to the acquired preview image (SA1600). The terminal controller 150 calculates the vertical rotation angle of the target's face shown in the obtained preview image using an algorithm stored in the terminal storage 130, and the calculated angle is calculated by referring to the shooting conditions stored in the terminal storage 130. It may be determined whether the vertical rotation angle of the face is within an appropriate range.

사용자 단말(100)은 획득되는 프리뷰 이미지 중 적어도 일부에 대하여 SA1600 단계를 수행할 수 있다. 이는, 프리뷰 이미지 획득 이후 다음 프리뷰 이미지를 획득할 때까지 소요되는 시간이 하나의 프리뷰 이미지에 대하여 SA1600을 수행하는데에 걸리는 시간에 비해 짧을 수 있기 때문이다. The user terminal 100 may perform step SA1600 on at least some of the obtained preview images. This is because the time taken from acquiring the preview image to acquiring the next preview image may be shorter than the time required to perform SA1600 for one preview image.

SA1500 단계를 수행되는 프리뷰 이미지와 SA 1600 단계가 수행되는 프리뷰 이미지는 동일할 수 있다. 또는, SA1500 단계를 수행되는 프리뷰 이미지와 SA 1600 단계가 수행되는 프리뷰 이미지는 다를 수 있다. 이는, SA1500 단계를 수행하는데에 걸리는 시간과 SA1600단계를 수행하는데에 걸리는 시간이 다를 수 있기 때문이다.The preview image on which step SA1500 is performed and the preview image on which step SA 1600 is performed may be the same. Alternatively, the preview image on which step SA1500 is performed may be different from the preview image on which step SA 1600 is performed. This is because the time required to perform step SA1500 and the time required to perform step SA1600 may be different.

얼굴의 상하 회전 각도는 상하 회전 각도 검출 알고리즘(Pitch Detection Algorithm, PDA)을 통해 획득될 수 있으나, 랜드마크 검출 알고리즘을 이용하여 획득된 신체 부위들의 위치를 비교하여 산출될 수도 있고, 그에 한정되지 않는다.The vertical rotation angle of the face may be obtained through a pitch detection algorithm (Pitch Detection Algorithm, PDA), but may also be calculated by comparing positions of body parts obtained using a landmark detection algorithm, but is not limited thereto. .

사용자 단말(100)은 얼굴의 상하 회전 각도가 적정 범위(즉, 제3 기준치)이내인지 평가할 수 있다. 일 예로, 제3 기준치 이내인지 평가할 때에 얼굴의 상하 회전 각도가 ±2도이내인지를 기준으로 판단될 수 있으나, 이에 한정되지 않는다. The user terminal 100 may evaluate whether the vertical rotation angle of the face is within an appropriate range (ie, the third reference value). For example, when evaluating whether the face is within the third reference value, it may be determined based on whether the vertical rotation angle of the face is within ±2 degrees, but is not limited thereto.

사용자 단말(100)은 획득된 이미지에 대하여 미소 정도를 평가(SA1700)할 수 있다. 단말 제어부(150)는 단말 저장부(130)에 저장된 알고리즘을 이용하여 획득된 프리뷰 이미지에 나타난 대상의 얼굴 표정을 분석하여 미소 정도를 산출하고, 단말 저장부(130)에 저장된 촬영 조건을 참조하여 산출된 미소 정도가 적정 범위인지 판단할 수 있다.The user terminal 100 may evaluate the degree of smiling with respect to the acquired image (SA1700). The terminal controller 150 calculates the degree of smile by analyzing the facial expression of the subject shown in the acquired preview image using an algorithm stored in the terminal storage unit 130, and by referring to the shooting conditions stored in the terminal storage unit 130. It can be determined whether the calculated degree of smile is within an appropriate range.

사용자 단말(100)은 획득되는 프리뷰 이미지 중 적어도 일부에 대하여 SA1700 단계를 수행할 수 있다. 이는, 프리뷰 이미지 획득 이후 다음 프리뷰 이미지를 획득할 때까지 소요되는 시간이 하나의 프리뷰 이미지에 대하여 SA1700을 수행하는 데에 걸리는 시간에 비해 짧을 수 있기 때문이다. The user terminal 100 may perform step SA1700 with respect to at least some of the acquired preview images. This is because the time taken from acquiring the preview image to acquiring the next preview image may be shorter than the time required to perform SA1700 for one preview image.

SA1700 단계를 수행되는 프리뷰 이미지와 SA 1300 단계가 수행되는 프리뷰 이미지는 동일할 수 있다. 또는, SA1700 단계를 수행되는 프리뷰 이미지와 SA 1300 단계가 수행되는 프리뷰 이미지는 다를 수 있다. 이는, SA1700 단계를 수행하는 데에 걸리는 시간과 SA1300단계를 수행하는 데에 걸리는 시간이 다를 수 있기 때문이다.The preview image on which step SA1700 is performed and the preview image on which step SA 1300 is performed may be the same. Alternatively, the preview image on which step SA1700 is performed may be different from the preview image on which step SA 1300 is performed. This is because the time taken to perform step SA1700 and the time taken to perform step SA1300 may be different.

미소 정도는 얼굴 표정 분석 알고리즘(Face Reader)을 통해 획득될 수 있으나, 랜드마크 검출 알고리즘을 이용하여 획득된 신체 부위들의 위치를 비교하여 산출될 수도 있고, 그에 한정되지 않는다.The degree of smile may be obtained through a facial expression analysis algorithm (Face Reader), but may also be calculated by comparing positions of body parts obtained using a landmark detection algorithm, but is not limited thereto.

사용자 단말(100)은 얼굴의 미소 정도가 적정 범위(즉, 제2 기준치)이내인지 평가할 수 있다. 여기서, 적정 범위(즉, 제2 기준치)는 사람의 표정이 밝아짐에 따라 눈의 형상이 변형되고, 이로 인해 진단 정확도가 저해되는 것을 방지하도록 설정된 적정 범위일 수 있다. 일 예로, 제2 기준치 이내인지 평가할 때에 미소 정도가 0.1이하인지를 기준으로 판단될 수 있으나, 이에 한정되지 않는다.The user terminal 100 may evaluate whether the smile level of the face is within an appropriate range (ie, the second reference value). Here, the appropriate range (ie, the second reference value) may be an appropriate range set to prevent the deterioration of diagnosis accuracy due to deformation of the eye shape as a person's facial expression becomes brighter. For example, when evaluating whether the smile is within the second reference value, it may be determined based on whether the degree of smile is 0.1 or less, but is not limited thereto.

사용자 단말(100)은 사용자 단말(100)에 저장된 촬영 조건에 따라 평가되도록 설정된 평가 지표들이 모두 만족된 것으로 판단될 때, 이미지를 촬영(SA1800)할 수 있다. The user terminal 100 may capture an image (SA1800) when it is determined that all evaluation indicators set to be evaluated according to the photographing conditions stored in the user terminal 100 are satisfied.

사용자 단말(100)은 SA1100에 제공되었던 촬영 가이드와 관련된 평가 지표들이 모두 만족되었더라도, 저장된 촬영 조건에 따라 평가되도록 설정된 평가 지표들이 모두 만족된 것으로 판단되지 않으면 이미지를 촬영하지 않는다. 다시 말해, 사용자 단말(100)은 촬영 가이드로 제공된 평가 지표들에 종속되지 않고, 촬영 조건에 따라 평가되어야 하는 평가 지표들 모두에 대해서 만족 여부를 판단한다.The user terminal 100 does not capture an image unless it is determined that all of the evaluation indices set to be evaluated according to the stored photographing conditions are satisfied, even if all of the evaluation indices related to the photographing guide provided to the SA1100 are satisfied. In other words, the user terminal 100 determines whether all of the evaluation indices to be evaluated according to the shooting conditions are satisfied without being dependent on the evaluation indices provided as the shooting guide.

사용자 단말(100)은, 하나의 프리뷰 이미지에 대하여 사용자 단말(100)에 저장된 촬영 조건에 따라 평가되도록 설정된 평가 지표들이 모두 만족된 것으로 판단될 때 이미지를 촬영(SA1800)할 수 있다. 또는, 사용자 단말(100)은, 이미지를 촬영(SA1800)하기 전에, 사용자 단말(100)에 저장된 촬영 조건에 따라 평가되도록 설정된 각 평가 지표들이 모두 만족된 것으로 판단될 때 이미지를 촬영(SA1800)할 수 있다.The user terminal 100 may capture an image (SA1800) when it is determined that evaluation indices set to be evaluated according to shooting conditions stored in the user terminal 100 are all satisfied with respect to one preview image. Alternatively, before capturing an image (SA1800), the user terminal 100 may capture an image (SA1800) when it is determined that each evaluation index set to be evaluated according to a photographing condition stored in the user terminal 100 is satisfied. can

이미지를 촬영(SA1800)하는 것은, 조건이 충족되었다고 판단된 시점 직후에 사용자 단말(100)이 획득한 프리뷰 이미지를 촬영 이미지로 저장하거나, 조건 여부를 판단할 때의 프리뷰 이미지를 사용자 단말(100)이 촬영 이미지로 저장하는 것을 의미할 수 있다. 한편, 이미지를 자동촬영 하는 동작을 대신하여, 사용자 단말(100)은 촬영 조건을 만족한 것으로 판단되었을 때 사용자가 이미지를 촬영할 수 있도록 촬영 버튼을 활성화하거나 알림을 제공할 수 있다.Taking an image (SA1800) is to save a preview image obtained by the user terminal 100 as a captured image immediately after it is determined that a condition is satisfied, or to store a preview image when determining whether a condition is satisfied by the user terminal 100. This may mean saving as a captured image. Meanwhile, instead of automatically capturing an image, the user terminal 100 may activate a capturing button or provide a notification so that the user may capture an image when it is determined that the capturing condition is satisfied.

이하에서는, 설명의 편의를 위하여, 사용자 단말(100)은 각 실시예에 따른 조건을 만족하였을 때 사진을 촬영한다고 설명하지만, 이는 촬영 버튼이 활성화되거나, 촬영하도록 알림을 제공하는 것으로 변형되어 실시될 수 있다. Hereinafter, for convenience of description, it is described that the user terminal 100 takes a picture when a condition according to each embodiment is satisfied, but this may be modified to activate a capture button or provide a notification to take a picture. can

또한, 몇몇 실시예에서, 사용자 단말(100)은 이미지를 촬영하기 전에 주변 밝기를 평가하는 단계를 더 수행할 수 있다. 단말 제어부(150)는 단말 센서부(미도시, 예를 들어, 주변광센서)를 통해 주변 밝기가 적정 범위인지 판단할 수 있다. Also, in some embodiments, the user terminal 100 may further perform a step of evaluating ambient brightness before capturing an image. The terminal control unit 150 may determine whether ambient brightness is in an appropriate range through a terminal sensor unit (not shown, for example, an ambient light sensor).

사용자 단말(100)은 주변 밝기가 적정 범위(즉, 제4 기준치)이내인지 평가할 수 있다. 여기서, 적정 범위(즉, 제4 기준치)는 플래쉬를 터트리지 않아도 이미지 분석이 가능할 정도의 밝기를 갖도록 적정 최소 기준이 설정될 수 있고, 촬영 이미지의 색 분석을 방해하지 않는 정도의 밝기를 갖도록 적정 최대 기준을 포함할 수 있다. 일 예로, 제4 기준치 이내인지 평가할 때에 주변 밝기가 100~1000 lux 인지를 기준으로 판단될 수 있으나, 이에 한정되지 않는다.The user terminal 100 may evaluate whether the ambient brightness is within an appropriate range (ie, the fourth reference value). Here, an appropriate minimum criterion may be set so that the appropriate range (ie, the fourth reference value) has enough brightness to allow image analysis even without flash, and is appropriate to have enough brightness not to interfere with color analysis of the captured image. A maximum criterion may be included. For example, when evaluating whether it is within the fourth reference value, it may be determined based on whether the ambient brightness is 100 to 1000 lux, but is not limited thereto.

또한, 몇몇 실시예에서, 사용자 단말(100)은 프리뷰 이미지에 기초하여 결정된 여러 평가 지표들 중 적어도 하나의 평가 지표가 기 저장된 조건을 만족하지 않는 것으로 판단되면 촬영하지 않으며, 그 때, 만족되지 않은 평가 지표에 관한 정보를 제공해줄 수 있다. 이 때, 제공되는 정보는 만족하지 않은 평가 지표를 알려주는 형태이거나, 만족하지 않은 평가 지표를 만족시키기 위한 바람직한 사용자의 행위를 알려주는 형태일 수 있다. 일 예로, 사용자 단말(100)은 프리뷰 이미지에 기초하여 결정된 얼굴의 미소 정도가 미리 정해진 기준을 초과한다고 판단되는 경우, "웃지마세요"라는 메시지를 디스플레이를 통해 제공할 수 있다.Also, in some embodiments, the user terminal 100 does not capture when it is determined that at least one evaluation index among several evaluation indexes determined based on the preview image does not satisfy a pre-stored condition, and at that time, the unsatisfied evaluation index is not satisfied. It can provide information about evaluation indicators. In this case, the provided information may be in the form of notifying the unsatisfactory evaluation index, or may be in the form of informing the user of a desirable action to satisfy the unsatisfactory evaluation index. For example, when the user terminal 100 determines that the level of smile of the face determined based on the preview image exceeds a predetermined criterion, the user terminal 100 may provide a message “don't laugh” through the display.

또한, 전술한 실시예에서 촬영 가이드가 제공되는 것을 상정하여 전체적인 동작을 설명하였으나, 촬영 가이드의 제공 단계가 생략된 형태로 이미지 획득 방법이 수행될 수 있다. 그와 별개로, 본 명세서에서 개시하는 안병증 관리 시스템(10)은 정밀하게 제어된 환경에서의 이미지 획득이 필요하고, 이에 사용자 단말(100)이 촬영 가이드를 통해 사용자의 행위를 적절하게 유도함으로써 보다 개선된 안병증 관리가 수행될 수 있다.In addition, although the overall operation has been described by assuming that a photographing guide is provided in the above-described embodiment, the image acquisition method may be performed in a form in which the step of providing a photographing guide is omitted. Apart from that, the ophthalmopathy management system 10 disclosed in this specification requires image acquisition in a precisely controlled environment, so that the user terminal 100 appropriately induces the user's behavior through the shooting guide. More advanced ophthalmopathy management can be performed.

또한, 다른 실시예에 따르면, 전술한 사용자 단말(100)의 동작은 안병증 관리 서버(200)에 의해 수행될 수 있다. 복수의 지표를 추출하는 알고리즘 및 관련 기준, 상하 회전 각도를 검출하는 알고리즘 및 관련 기준, 좌우 회전 각도를 검출하는 알고리즘 및 관련 기준, 미소 정도를 검출하는 알고리즘 및 관련 기준 등은 안병증 관리 서버(200)에 저장되어 있을 수 있다. 사용자 단말(100)은 사용자와의 관계에서 데이터를 입력받고 제공하는 인터페이스로 동작할 수 있다. 사용자 단말(100)과 안병증 관리 서버(200)는 실시간으로 연동되고 안병증 관리 서버(200)의 주체적인 동작에 따라 사용자 단말(100)은 적절한 촬영 가이드를 제공하고 촬영 이미지를 획득하여 안병증 관리 서버(200)로 전송하는 역할을 수행할 수 있다.Also, according to another embodiment, the operation of the user terminal 100 described above may be performed by the ophthalmopathy management server 200 . An algorithm and related criteria for extracting a plurality of indices, an algorithm and related criteria for detecting vertical rotation angle, an algorithm and related criteria for detecting left and right rotation angles, an algorithm and related criteria for detecting degree of smile, etc. ) may be stored in The user terminal 100 may operate as an interface for receiving and providing data in relation to a user. The user terminal 100 and the ophthalmopathy management server 200 are interlocked in real time, and according to the subjective operation of the ophthalmopathy management server 200, the user terminal 100 provides an appropriate shooting guide and obtains a photographed image to treat ophthalmopathy. It may serve to transmit to the management server 200.

도 6은 실시예에 따라 제공된 촬영 가이드의 형상 및 그 동작에 대해서 설명하기 위한 도면이다. 이하에서는, 입/출력 모듈(140)이 스마트폰의 디스플레이인 것을 가정하여 설명한다.6 is a diagram for explaining the shape and operation of a photographing guide provided according to an embodiment. Hereinafter, it is assumed that the input/output module 140 is a display of a smart phone.

도 6을 참조하면, 일실시예에 따른 사용자 단말(100)은 고정된 촬영 가이드를 제공할 수 있다. Referring to FIG. 6 , the user terminal 100 according to an embodiment may provide a fixed shooting guide.

촬영 가이드는 제1 가이드(G1), 제2 가이드(G2), 제3 가이드(G3) 및 제4 가이드(G4)를 포함할 수 있다. 제1 가이드(G1)는 대상의 오른쪽 눈의 적정 위치를 표시하도록 출력될 수 있다. 제2 가이드(G2)는 대상의 왼쪽 눈의 적정 위치를 표시하도록 출력될 수 있다. 제3 가이드(G3)는 대상의 얼굴의 적정 좌우 회전 각도를 표시하도록 출력될 수 있다. 제4 가이드(G4)는 대상의 얼굴의 적정 차지 비율을 표시하도록 출력될 수 있다.The photographing guide may include a first guide G1 , a second guide G2 , a third guide G3 , and a fourth guide G4 . The first guide G1 may be output to indicate an appropriate position of the right eye of the subject. The second guide G2 may be output to indicate an appropriate position of the subject's left eye. The third guide G3 may be output to display an appropriate left/right rotation angle of the subject's face. The fourth guide G4 may be output to display an appropriate proportion of the target's face.

제1 가이드(G1)는 대상의 오른쪽 눈의 적정 위치를 직접적 또는 간접적으로 표시하도록 출력될 수 있다. 일 예로, 제1 가이드(G1)는 대상의 오른쪽 눈이 위치해야 하는 지점에 출력되어, 사용자가 오른쪽 눈을 제1 가이드(G1)에 맞추는 것을 도울 수 있다. 제1 가이드(G1)는, 도면에 도시된 것과 같이 대상의 눈이 적정 위치에 있을 때의 홍채 영역의 외곽을 표시하는 형상일 수 있고, 또는, 대상의 눈이 적정 위치에 있을 때의 동공의 위치를 표시하거나, 대상의 눈 아웃라인을 표시하는 형상일 수 있다.The first guide G1 may be output to directly or indirectly indicate an appropriate position of the right eye of the subject. For example, the first guide G1 is output at a point where the right eye of the subject is to be located, and may help the user align the right eye with the first guide G1. As shown in the drawing, the first guide G1 may have a shape that indicates the outline of the iris region when the target's eye is in an appropriate position, or the pupil of the target's eye when the target's eye is in an appropriate position. It may be a shape that displays a position or an outline of an eye of a target.

구체적인 예를 들어, 제1 가이드(G1)는 십자모양으로 제공될 수 있다. 제1 가이드(G1)가 십자형으로 제공되는 경우, 제1 가이드(G1)는 동공 센서 없이도 눈의 중앙이 적절한 위치에 배치된 이미지가 촬영되도록 가이드할 수 있다. 다시 말해, 제1 가이드(G1)가 십자형으로 제공되는 경우, 제1 가이드(G1)는 사용자가 왼쪽 눈의 홍채 영역의 중앙을 상기 십자형의 교차점에 매칭시키도록 유도하는 기능을 수행할 수 있고, 이에 따라, 정확도 높은 분석이 이뤄질 수 있도록 적합한 진단 이미지를 획득할 수 있다.For a specific example, the first guide G1 may be provided in a cross shape. When the first guide G1 is provided in a cross shape, the first guide G1 may guide an image with the center of the eye disposed at an appropriate position to be captured without a pupil sensor. In other words, when the first guide G1 is provided in a cross shape, the first guide G1 may perform a function of inducing the user to match the center of the iris region of the left eye to the intersection of the cross shape, Accordingly, an appropriate diagnostic image may be acquired so that highly accurate analysis can be performed.

제2 가이드(G2)는 대상의 왼쪽 눈의 적정 위치를 직접적 또는 간접적으로 표시하도록 출력할 수 있다. 제2 가이드(G2)는 제1 가이드(G1)와 표시하고자 하는 부위는 다르지만, 동일하거나 유사한 형상으로 제공될 수 있다. 다시 말해, 제1 가이드(G1)가 오른쪽 동공을 십자모양으로 표시하도록 출력된다면, 제2 가이드(G2)는 왼쪽 동공을 십자모양으로 표시하도록 출력될 수 있다.The second guide G2 may directly or indirectly display an appropriate position of the subject's left eye. The second guide G2 may have the same or similar shape as the first guide G1, although the region to be displayed is different. In other words, if the first guide G1 is output to display the right pupil in the shape of a cross, the second guide G2 can be output to display the left pupil in the shape of a cross.

제1 가이드(G1)와 제2 가이드(G2)는 디스플레이 상에서 대칭적으로 제공될 수 있다. 제1 가이드(G1)와 제2 가이드(G2)는 제3 가이드(G3)를 기준으로 대칭되도록 제공될 수 있다.The first guide G1 and the second guide G2 may be symmetrically provided on the display. The first guide G1 and the second guide G2 may be provided symmetrically with respect to the third guide G3.

제3 가이드(G3)는 대상의 얼굴의 좌우 회전 각도를 직접적 또는 간접적으로 표시하도록 출력할 수 있다. 제3 가이드(G3)는 얼굴의 좌우 회전 각도를 수치로 표시하는 것도 가능하지만, 디스플레이의 세로 방향으로 연장된 세로선으로 표시하는 것도 가능하다. 이 때, 세로선은 대상의 양눈이 제1 가이드(G1) 및 제2 가이드(G2)에 각각 대응하고 얼굴의 좌우 회전 각도가 0일 때, 얼굴의 코가 위치해야 하는 영역을 지나는 세로선일 수 있다.The third guide G3 may directly or indirectly display the left and right rotation angle of the face of the target. The third guide G3 can display the horizontal rotation angle of the face as a numerical value or as a vertical line extending in the vertical direction of the display. In this case, the vertical line may be a vertical line passing through an area where the nose of the face should be located when both eyes of the target respectively correspond to the first guide G1 and the second guide G2 and the horizontal rotation angle of the face is 0. .

제4 가이드(G4)는 대상의 얼굴이 이미지 상에서 차지하는 적정 비율 (portion)을 직접적 또는 간접적으로 표시하도록 출력할 수 있다. 제4 가이드(G4)는 대상의 얼굴이 위치해야 하는 영역을 원 형상으로 표시하거나, 대상의 얼굴과 사용자 단말(100)사이의 거리를 표시하여 대상의 얼굴이 이미지 상에서 차지한 상태의 이미지가 촬영되도록 가이드할 수 있다.The fourth guide G4 may directly or indirectly display an appropriate proportion (portion) occupied by the face of the target on the image. The fourth guide G4 displays an area where the target's face should be located in a circular shape or displays the distance between the target's face and the user terminal 100 so that an image in which the target's face is occupied on the image is captured. can guide

제1 가이드(G1), 제2 가이드(G2), 및 제4 가이드(G4)는 전술한 SA1400 단계에서 판단될 평가 지표와 연관되어 있을 수 있다. 제3 가이드(G3)는 전술한 SA1500 단계에서 판단될 평가 지표와 연관되어 있을 수 있다. The first guide G1 , the second guide G2 , and the fourth guide G4 may be related to the evaluation index to be determined in step SA1400 described above. The third guide G3 may be related to the evaluation index to be determined in the above-described step SA1500.

일 실시예에 따르면, 사용자 단말(100)은 고정된 촬영 가이드와 프리뷰 이미지를 분석하여 획득된 정보를 기초로 생성되는 실시간 촬영 가이드(RG)를 함께 제공할 수 있다.According to an embodiment, the user terminal 100 may provide a fixed shooting guide and a real-time shooting guide RG generated based on information obtained by analyzing a preview image.

실시간 촬영 가이드(RG)는 사용자 단말(100)에 제공된 촬영 가이드와 관련된 평가 지표(들)에 대하여 생성될 수 있다.The real-time shooting guide RG may be generated for evaluation index(s) related to the shooting guide provided to the user terminal 100 .

일 예로, 실시간 촬영 가이드(RG)는 사용자 단말(100)에서 제공되는 촬영 가이드 들이 관련된 모든 평가 지표에 대하여 생성될 수 있다. 사용자 단말(100)이 4개의 평가 지표에 대한 촬영 가이드를 제공하는 경우, 4개의 평가 지표에 대한 실시간 촬영 가이드(RG)가 제공될 수 있다. 다른 예로, 실시간 촬영 가이드(RG)는 사용자 단말(100)에서 제공되는 촬영 가이드 들이 관련된 평가 지표 중 일부에 대하여 생성될 수 있다. 사용자 단말(100)이 4개의 평가 지표에 대한 촬영 가이드를 제공하는 경우, 2개의 평가 지표에 대한 실시간 촬영 가이드(RG)가 제공될 수 있다.For example, the real-time shooting guide RG may be generated for all evaluation indexes related to shooting guides provided from the user terminal 100 . When the user terminal 100 provides shooting guides for the four evaluation indicators, real-time shooting guides RG for the four evaluation indicators may be provided. As another example, the real-time shooting guide RG may be generated for some of the evaluation indicators related to shooting guides provided from the user terminal 100 . When the user terminal 100 provides shooting guides for four evaluation indicators, real-time shooting guides RG for two evaluation indicators may be provided.

실시간 촬영 가이드(RG)는 촬영 가이드와 대응되는 형상으로 제공될 수 있다. 다시 말해, 촬영 가이드가 세로선 형상이면 그에 대응되는 실시간 촬영 가이드(RG)도 세로선 형상일 수 있고, 촬영 가이드가 십자모양이면 그에 대응하는 실시간 촬영 가이드(RG)도 십자모양일 수 있다.The real-time photographing guide RG may be provided in a shape corresponding to the photographing guide. In other words, if the shooting guide is in the shape of a vertical line, the corresponding real-time shooting guide RG may also be in the shape of a vertical line, and if the shooting guide is in the shape of a cross, the corresponding real-time shooting guide RG may also be in the shape of a cross.

실시간 촬영 가이드(RG)는 대응되는 평가 지표가 만족되었는지에 따라 적어도 하나의 특성이 변화될 수 있다. 실시간 촬영 가이드(RG)에 대응되는 평가 지표가 기 저장된 기준을 만족한 것으로 판단되면, 사용자 단말(100)은 기존에 제공되던 실시간 촬영 가이드(RG)의 특성을 변경하여 제공함으로써 사용자가 조건의 만족여부를 쉽게 인식할 수 있도록 할 수 있다. 특성의 변화는, 점선이 실선으로 변경되는 형태이거나, 색상이 변경되는 형태이거나, 선의 굵기가 달라지는 형태일 수 있으나 이에 한정되지 않는다.At least one characteristic of the real-time photographing guide RG may be changed according to whether a corresponding evaluation index is satisfied. When it is determined that the evaluation index corresponding to the real-time shooting guide RG satisfies the pre-stored criterion, the user terminal 100 changes and provides the characteristics of the previously provided real-time shooting guide RG so that the user satisfies the condition. can be easily identified. The change in characteristics may be a form in which a dotted line is changed to a solid line, a form in which a color is changed, or a form in which the thickness of a line is changed, but is not limited thereto.

일 실시예에 따르면, 사용자 단말(100)은 프리뷰 이미지를 분석하여 평가 지표들에 대응되는 값(예를 들어, 동공의 위치 및 얼굴의 좌우 회전 각도)을 획득하고, 평가 지표들에 대응되는 값들이 기준을 만족하였는지를 평가하고, 평가된 값을 기초로 실시간 촬영 가이드(RG)를 제공할 수 있다. According to an embodiment, the user terminal 100 analyzes the preview image to obtain values corresponding to evaluation indicators (eg, a pupil position and a left/right rotation angle of a face), and values corresponding to the evaluation indicators. It is possible to evaluate whether or not the images satisfy the criterion, and provide a real-time photographing guide RG based on the evaluated value.

다른 실시예에 따르면, 사용자 단말(100)은 프리뷰 이미지를 분석하여 평가 지표들에 대응되는 값(예를 들어, 동공의 위치 및 얼굴의 좌우 회전 각도)을 획득하여, 그에 상응하는 실시간 촬영 가이드(RG)를 제공하고, 실시간 촬영 가이드(RG)와 촬영 가이드를 비교하여 평가 지표들에 대응되는 값들이 기준을 만족하였는지를 평가할 수 있다.According to another embodiment, the user terminal 100 analyzes the preview image to obtain values corresponding to the evaluation indicators (eg, the position of the pupil and the left/right rotation angle of the face), and the corresponding real-time shooting guide ( RG) is provided, and by comparing the real-time recording guide RG and the recording guide, it is possible to evaluate whether values corresponding to evaluation indicators satisfy criteria.

도 7은 실시예에 따라 제공된 실시간 촬영 가이드의 형상 및 그 동작에 대해서 설명하기 위한 도면이다. 이하에서는, 사용자 단말(100)을 통해 제3 가이드(G3) 및 제3 가이드(G3)와 연관된 실시간 가이드(RG)을 제공하는 동작을 설명한다.7 is a diagram for explaining the shape and operation of a real-time shooting guide provided according to an embodiment. Hereinafter, an operation of providing the third guide G3 and the real-time guide RG associated with the third guide G3 through the user terminal 100 will be described.

일 실시예에 따르면, 제3 가이드(G2)는 세로선 형태로 제공될 수 있다. 몇몇 실시예에 따르면, 제3 가이드(G3)가 얼굴의 좌우 회전 각도를 수치로 제공하는 형태로 구현될 수 있지만, 이는 사용자가 어떻게 자세를 수정해야 하는지 직관적으로 와닿지 않는 문제가 있다. 이를 해결하기 위해, 제3 가이드(G3)와 같이 얼굴의 좌우 회전 각도를 디스플레이 상의 세로선으로 표시할 수 있다. 예를 들어, 제3 가이드(G3)는 디스플레이의 가로 방향을 기준으로 중앙을 지나면서, 디스플레이의 세로 방향으로 연장된 세로선으로 제공될 수 있다.According to one embodiment, the third guide G2 may be provided in a vertical line shape. According to some embodiments, the third guide G3 may be implemented in a form of providing a left and right rotation angle of the face as a numerical value, but this has a problem in that it does not intuitively reach the user how to correct the posture. To solve this problem, like the third guide G3, the horizontal rotation angle of the face may be displayed as a vertical line on the display. For example, the third guide G3 may be provided as a vertical line passing through the center of the display in the horizontal direction and extending in the vertical direction of the display.

제3 가이드(G3)가 고정된 촬영 가이드로 제공되는 상태에서, 사용자 단말(100)은 얼굴의 좌우 회전 각도에 대한 실시간 촬영 가이드(RG)를 제공할 수 있다.In a state in which the third guide G3 is provided as a fixed photographing guide, the user terminal 100 may provide a real-time photographing guide RG for the left and right rotation angle of the face.

프리뷰 이미지 상에서 얼굴의 좌우 회전 각도가 0도일 때에는 실시간 촬영 가이드(RG)는 디스플레이의 가로 방향의 중앙을 지나면서 디스플레이의 세로 방향으로 연장된 세로선으로 제공될 수 있다. 프리뷰 이미지 상에서 얼굴의 좌우 회전 각도가 90도일 때에는 실시간 촬영 가이드(RG)는 디스플레이의 가로 방향을 기준으로 4분의 1지점을 지나면서 디스플레이의 세로 방향으로 연장된 세로선으로 제공될 수 있다. 사용자 단말(100)은 프리뷰 이미지 상에서 얼굴의 좌우 회전 각도 별로 디스플레이의 가로 방향의 지점을 균등하게 표시할 수 있도록 얼굴의 좌우 회전 각도별 세로선의 위치를 저장하고, 실시간 촬영 가이드(RG)는 디스플레이의 세로 방향으로 연장된 세로선의 형태로 얼굴의 좌우 회전 각도에 맞게 제공될 수 있다.When the horizontal rotation angle of the face on the preview image is 0 degrees, the real-time shooting guide RG may be provided as a vertical line passing through the center of the display in the horizontal direction and extending in the vertical direction of the display. When the left and right rotation angle of the face on the preview image is 90 degrees, the real-time shooting guide RG may be provided as a vertical line extending in the vertical direction of the display passing through a quarter point based on the horizontal direction of the display. The user terminal 100 stores the position of the vertical line for each left and right rotation angle of the face so that points in the horizontal direction of the display can be equally displayed for each left and right rotation angle of the face on the preview image, and the real-time shooting guide RG of the display It may be provided in the form of a vertical line extending in the vertical direction to match the left and right rotation angle of the face.

도 7(a)를 참조하면, 사용자 단말(100)은 제3 가이드(G3)를 제공한 상태에서 프리뷰 이미지를 획득할 수 있다. 획득된 프리뷰 이미지를 분석하여 얼굴의 좌우 회전 각도를 산출하고, 산출된 얼굴의 좌우 회전 각도에 대응되는 실시간 촬영 가이드(RG)를 제공할 수 있다. Referring to FIG. 7(a) , the user terminal 100 may obtain a preview image in a state in which the third guide G3 is provided. The obtained preview image may be analyzed to calculate the horizontal rotation angle of the face, and the real-time photographing guide RG corresponding to the calculated facial horizontal rotation angle may be provided.

대상의 얼굴이 왼쪽을 바라보고 있기 때문에, 실시간 촬영 가이드(RG)는 제3 가이드(G3)에 비해 사용자 단말(100)의 가로 방향을 기준으로 오른쪽에 위치한다. 이 때, 획득된 얼굴의 좌우 회전 각도는 적정 범위(즉, 제1 기준치)를 만족하지 못했기 때문에, 실시간 촬영 가이드(RG)는 점선으로 표시된다.Since the subject's face is looking to the left, the real-time shooting guide RG is located on the right side relative to the horizontal direction of the user terminal 100 compared to the third guide G3. At this time, since the obtained horizontal rotation angle of the face does not satisfy an appropriate range (ie, the first reference value), the real-time photographing guide RG is displayed as a dotted line.

사용자 단말(100)은 프리뷰 이미지의 얼굴의 좌우 회전 각도가 제1 기준치를 만족하지 못했기 때문에, 제1 기준치를 만족시키기 위해 사용자가 행해야 하는 동작을 디스플레이를 통해 제공할 수 있다. 일 예로, 제공되는 추가 촬영 가이드는 "얼굴 세로 중심선을 좌우로 움직여 중앙선에 맞춰주세요."일 수 있다. Since the left/right rotation angle of the face of the preview image does not satisfy the first reference value, the user terminal 100 may provide an operation to be performed by the user to satisfy the first reference value through the display. For example, the provided additional shooting guide may be "Move the vertical center line of the face left and right to align with the center line."

도 7(b)를 참조하면, 대상의 얼굴이 정면을 바라보고 있기 때문에, 실시간 촬영 가이드(RG)는 제3 가이드(G3)와 동일하게 사용자 단말(100)의 가로 방향을 기준으로 중앙에 위치한다. 획득된 얼굴의 좌우 회전 각도는 적정 범위(즉, 제1 기준치)를 만족하였기 때문에, 실시간 촬영 가이드(RG)는 실선으로 표시된다.Referring to FIG. 7(b) , since the face of the subject is facing the front, the real-time shooting guide RG is located at the center of the horizontal direction of the user terminal 100 like the third guide G3. do. Since the acquired horizontal rotation angle of the face satisfies an appropriate range (ie, the first reference value), the real-time photographing guide RG is displayed as a solid line.

사용자 단말(100)은 프리뷰 이미지의 얼굴의 좌우 회전 각도가 제1 기준치를 만족했기 때문에, 사용자에게 선택적으로 정보를 제공할 수 있다. 일 예로, 사용자 단말(100)은 자동 촬영을 수행하면서, 디스플레이를 통해 "자동촬영 됩니다"를 제공할 수 있다.The user terminal 100 may selectively provide information to the user because the left and right rotation angle of the face of the preview image satisfies the first reference value. For example, the user terminal 100 may provide “automatically photographed” through a display while performing automatic photographing.

사용자 단말(100)은 안병증 관리를 위한 이미지가 촬영되면, 이미지를 안병증 관리 서버(200)로 전송할 수 있다. 또는, 사용자 단말(100)은 안병증 관리를 위한 이미지가 촬영되면, 이미지 분석을 진행할 수 있다. 이미지를 분석하여 안병증 가능성을 예측하고, 이를 토대로 사용자에 내원 안내를 제공하는 방법에 대해서는 후술한다.When an image for eye disease management is captured, the user terminal 100 may transmit the image to the eye disease management server 200 . Alternatively, the user terminal 100 may perform image analysis when an image for ophthalmopathy management is captured. A method of predicting the possibility of eye disease by analyzing the image and providing guidance to the user based on the analysis will be described later.

사용자 단말(100)은 안병증 관리(예를 들어, 예측)을 위한 이미지가 촬영되면, 이미지를 디스플레이를 통해 출력할 수 있다. 일 예로, 사용자 단말(100)은 이미지가 촬영되면, 이미지를 분석하여 이미지 상에서 눈의 위치를 확인하고, 눈 및 눈 주변부를 포함하도록 이미지를 크롭하여 디스플레이를 통해 출력할 수 있다. When an image for eye disease management (eg, prediction) is captured, the user terminal 100 may output the image through a display. For example, when an image is captured, the user terminal 100 may analyze the image to check the position of the eye on the image, crop the image to include the eye and the eye periphery, and output the image through a display.

몇몇 실시예에 있어서, 이미지를 분석하고 눈을 검출하여 눈 및 눈 주변부를 포함하도록 이미지를 크롭하는 동작은 안병증 관리 서버(200)에 의해 수행될 수 있다. 또는, 이미지를 분석하고 눈을 검출하여 눈 및 눈 주변부를 포함하도록 이미지를 크롭하는 동작은 사용자 단말(100)에 의해 수행될 수 있다.In some embodiments, an operation of analyzing the image, detecting the eye, and cropping the image to include the eye and the eye periphery may be performed by the ophthalmopathy management server 200 . Alternatively, an operation of analyzing the image, detecting the eye, and cropping the image to include the eye and the eye periphery may be performed by the user terminal 100 .

눈을 검출하기 위해서, 사용자 단말(100) 및/또는 안병증 관리 서버(200)는 검출 알고리즘을 저장하고 있을 수 있다. 예시적으로, 검출 알고리즘은 랜드마크 검출 알고리즘, 세그먼테이션 모델 등일 수 있으나 이에 한정되지 않는다.In order to detect the eye, the user terminal 100 and/or the ophthalmopathy management server 200 may store a detection algorithm. Illustratively, the detection algorithm may be a landmark detection algorithm, a segmentation model, etc., but is not limited thereto.

본 실시예에서, 촬영 이미지를 사용자에게 제공함으로써, 사용자가 육안으로 눈 이미지가 부적절하게 촬영되었는지 한 번 더 체크할 수 있고, 필요한 경우 재촬영을 진행할 수 있다. 따라서, 이미지의 부적합성으로 인한 진단의 정확도 저하를 해결할 수 있다.In this embodiment, by providing the captured image to the user, the user can visually check once again whether the eye image is improperly captured, and re-photographed if necessary. Therefore, it is possible to solve the degradation of diagnosis accuracy due to the inappropriateness of the image.

또한, 본 실시예에서, 촬영 이미지를 크롭해서 제공함으로써, 사용자가 육안으로 이미지를 확인할 때에 눈을 좀더 집중적으로 확인할 수 있도록 하는 장점이 도출될 수 있다. 따라서, 이미지의 부적합성으로 인한 진단의 정확도 저하를 해결할 수 있다.In addition, in the present embodiment, by cropping and providing a photographed image, an advantage of allowing a user to check an image more intensively when checking an image with the naked eye can be derived. Therefore, it is possible to solve the degradation of diagnosis accuracy due to the inappropriateness of the image.

도 8은 일 실시예에 따른 사용자 단말의 이미지 촬영 후 디스플레이 화면을 설명하기 위한 도면이다.8 is a diagram for describing a display screen after capturing an image of a user terminal according to an exemplary embodiment.

사용자 단말(100)은 크롭 이미지 인터페이스(CII), 확인 인터페이스(CI), 재촬영 인터페이스(RII) 및 설문 입력 인터페이스(QII)를 디스플레이를 통해 제공할 수 있다. The user terminal 100 may provide a crop image interface (CII), a confirmation interface (CI), a retake interface (RII), and a questionnaire input interface (QII) through a display.

크롭 이미지 인터페이스(CII)는 촬영 이미지의 일부 영역을 표시하고, 이 때, 일부 영역은 눈을 포함하는 영역일 수 있다. The cropped image interface CII displays a partial area of the photographed image, and in this case, the partial area may include an eye.

확인 인터페이스(CI)는 안병증 분석에 있어서 적절 밝기를 유지하는 것은 중요하기 때문에, 실제 모습보다 너무 밝거나 어두운지, 양 눈이 동일한 밝기로 촬영되었는지 확인하기 위한 인터페이스일 수 있다. 확인 이미지(CI)는 항목별 응답을 받을 수 있는 영역을 더 포함할 수 있다. 예를 들어, 실제 모습보다 너무 밝거나 어두운지에 대한 응답 영역 및 양눈이 동일한 밝기로 촬영되었는지에 대한 응답영역이 디스플레이를 통해 제공될 수 있다.Since it is important to maintain proper brightness in the analysis of eye disease, the confirmation interface CI may be an interface for checking whether the image is too bright or dark compared to the actual image and whether both eyes are photographed with the same brightness. The confirmation image CI may further include an area where a response for each item can be received. For example, a response area for whether the image is too bright or dark compared to the actual image and a response area for whether both eyes are photographed with the same brightness may be provided through the display.

재촬영 인터페이스(RII)는 사용자가 크롭 이미지 및/또는 확인 항목을 보고 재촬영을 진행하고자 할 때 재촬영 기능을 수행할 수 있도록 제공되는 선택 인터페이스일 수 있다. 재촬영 인터페이스(RII)는 확인 인터페이스(CI)의 응답영역에 대응되는 사용자 입력이 있었는지와 무관하게 활성화되어, 사용자 단말(100)에 재촬영 인터페이스(RII)를 선택하는 사용자 입력이 획득되면 재촬영 동작을 수행할 수 있다.The recapturing interface (RII) may be a selection interface provided so that the user can perform a recapture function when viewing the cropped image and/or confirmation items and proceeding with recapture. The recapture interface (RII) is activated regardless of whether there is a user input corresponding to the response area of the confirmation interface (CI), and when a user input for selecting the recapture interface (RII) is obtained in the user terminal 100, the recapture interface (RII) is activated. A shooting operation can be performed.

설문 입력 인터페이스(QII)는 사용자가 크롭 이미지 및/또는 확인 항목을 보고 다음 단계로 넘어가고자 할 때 입력할 수 있도록 제공되는 선택 인터페이스일 수 있다. 설문 입력 인터페이스(QII)는 확인 인터페이스(CI)의 응답영역에 대응되는 사용자 입력이 있을 때 활성화되는 인터페이스일 수 있다. 구체적으로, 확인 인터페이스(CI)에 적절한 응답이 입력되지 않은 것으로 확인되면, 사용자 단말(100)은 설문 입력 인터페이스(QII)를 선택하는 사용자 입력이 획득되어도 그에 적절한 동작을 수행하지 않을 수 있다. The questionnaire input interface (QII) may be a selection interface provided so that the user can input when he/she wants to go to the next step after viewing the cropped image and/or confirmation item. The questionnaire input interface QII may be an interface activated when there is a user input corresponding to the response area of the confirmation interface CI. Specifically, when it is confirmed that no appropriate response is input to the confirmation interface CI, the user terminal 100 may not perform an appropriate operation even if a user input for selecting the questionnaire input interface QII is obtained.

(2) 이미지 획득 방법 - 제2 실시예 (2) Image Acquisition Method - Second Embodiment

갑상선 안병증을 정확하게 예측하기 위해서, 얼굴의 좌우 회전 각도 및 얼굴의 상하 회전 각도를 적정 범위에서 유지된 상태의 이미지를 획득하는 것은 중요하다. 이는, 동일한 눈을 촬영하여도 이미지를 촬영하는 시점의 얼굴의 좌우 회전 각도 및/또는 얼굴의 상하 회전 각도에 따라 눈의 형태가 미세하게 달라질 수 있고, 이는 갑상선 안병증의 가능성을 예측하거나 돌출도를 분석하는데에 정확도를 저해시키는 요인으로 작용할 수 있기 때문이다.In order to accurately predict thyroid ophthalmopathy, it is important to acquire an image in a state in which the horizontal and vertical rotation angles of the face and the vertical rotation angles of the face are maintained within appropriate ranges. This means that even if the same eye is photographed, the shape of the eye may be slightly different depending on the horizontal rotation angle of the face and/or the vertical rotation angle of the face at the time of capturing the image, which predicts the possibility of thyroid eye disease or protrudes. This is because it can act as a factor that impairs accuracy in analyzing .

다만, 스마트폰을 이용하여 이미지를 획득되는 경우, 얼굴의 좌우 회전 각도 및/또는 얼굴의 상하 회전 각도를 분석하는 알고리즘을 선택할 때에 스마트폰의 CPU 스펙(ex., 연산속도)을 고려해야하기 때문에, 처리량이 적은 알고리즘을 이용하여 얼굴의 좌우 회전 각도 및/또는 얼굴의 상하 회전 각도를 일관되게 모니터링할 수 있는 방법의 개발이 요구되었다.However, when an image is obtained using a smartphone, the smartphone's CPU specifications (ex., operation speed) must be considered when selecting an algorithm for analyzing the horizontal rotation angle of the face and / or the vertical rotation angle of the face. Development of a method capable of consistently monitoring the horizontal rotation angle and/or the vertical rotation angle of the face using a low-throughput algorithm has been required.

특히, 얼굴의 좌우 회전 각도의 경우 얼굴의 좌우 대칭을 통해 어느정도 파악할 수 있으나, 얼굴의 상하 회전 각도의 경우 이미지를 통해 검출되는 눈, 코, 입 등 위치(예를 들어, 랜드마크 검출 알고리즘을 통해 검출된 신체 부위)를 토대로 계산되어야 하기 때문에, 얼굴 상하 회전 각도를 일관되게 모니터링할 수 있는 방법의 개발이 필요하다.In particular, in the case of the left-right rotation angle of the face, it can be grasped to some extent through the left-right symmetry of the face, but in the case of the vertical rotation angle of the face, the positions of the eyes, nose, mouth, etc. detected through the image (for example, through the landmark detection algorithm) detected body part), it is necessary to develop a method capable of consistently monitoring the vertical rotation angle of the face.

이에, 대상이 정확한 자세로 촬영한 이미지를 기준 이미지(RI)로 선정하여, 기준 가이드(RG)를 생성하고, 이를 제공하고 만족하는 이미지를 획득함으로써 얼굴의 좌우 회전 각도 및/또는 상하 회전 각도를 일관되게 유지한 촬영 이미지를 획득할 수 있는 방법을 개시한다. Accordingly, by selecting an image taken by the target in the correct posture as the reference image RI, generating a reference guide RG, providing it, and obtaining a satisfactory image, the horizontal rotation angle and/or the vertical rotation angle of the face can be determined. Disclosed is a method for obtaining a consistently maintained captured image.

다만, 아래의 실시예를 설명함에 있어서는, 얼굴의 상하 회전 각도를 가이딩하기 위한 기준 가이드(RG)가 제공되는 실시예를 대표적으로 설명하고, 얼굴의 좌우 회전 각도를 가이딩하기 위한 기준 가이드(RG)가 제공되는 실시예에 대해서는 구체적으로 설명하지 않는다. 다만, 얼굴의 좌우 회전 각도를 가이딩 하기 위한 기준 가이드(RG)는 얼굴의 가로 방향으로 이격되어 있는 복수의 기준 가이드 지표와 관련된 기준 가이드(RG)가 제공되는 형태로 실시되고, 그 동작은 후술할 상하 회전 각도를 가이딩 하는 동작과 유사하게 수행될 수 있는바 충분히 실시할 수 있을 정도로 기재되어 있다고 할 것이다.However, in describing the following embodiments, an embodiment in which a reference guide RG for guiding the vertical rotation angle of the face is provided as a representative example, and a reference guide for guiding the horizontal rotation angle of the face ( RG) is not specifically described for an embodiment in which it is provided. However, the reference guide RG for guiding the left and right rotation angle of the face is implemented in a form in which reference guides RG related to a plurality of reference guide indicators spaced apart in the horizontal direction of the face are provided, and the operation thereof will be described later. It will be said that it is described enough to be practicable as it can be performed similarly to the operation of guiding the vertical rotation angle to be performed.

마찬가지로, 얼굴의 좌우 회전 각도 및 상하 회전 각도를 모두 가이딩하기 위한 기준 가이드(RG)가 제공되는 실시예는 구체적으로 설명하지 않으나, 얼굴의 세로 방향으로 이격되어 있는 복수의 기준 가이드 지표와 관련된 기준 가이드(RG) 및 얼굴의 가로 방향으로 이격되어 있는 복수의 기준 가이드 지표와 관련된 기준 가이드(RG)가 제공되는 형태로 실시되고, 그 동작은 후술할 상하 회전 각도를 가이딩 하는 동작과 유사하게 수행될 수 있는바 충분히 실시할 수 있을 정도로 기재되어 있다고 할 것이다. Similarly, although an embodiment in which reference guides RG are provided for guiding both the left and right rotation angles and up and down rotation angles of the face are not specifically described, references related to a plurality of reference guide indicators spaced apart in the vertical direction of the face It is implemented in a form in which a guide (RG) and a reference guide (RG) related to a plurality of reference guide indicators spaced apart in the horizontal direction of the face are provided, and the operation is performed similarly to the operation of guiding the vertical rotation angle to be described later It will be said that it is described to the extent that it can be fully implemented as much as possible.

도 9는 일 실시예에 따른 이미지 획득 방법을 설명하기 위한 도면이다. 9 is a diagram for explaining an image acquisition method according to an exemplary embodiment.

사용자는 기준 이미지(RI)를 촬영할 수 있다(도 9의 Day 1 참조). A user may capture a reference image RI (refer to Day 1 of FIG. 9 ).

기준 이미지(RI)는 안병증 관리 시스템(10)에서 제안한 환경에서 촬영될 수 있다. 일 예로, 기준 이미지(RI)는 사용자가 벽에 등을 기댄 상태에서 촬영된 이미지일 수 있다. 기준 이미지(RI)는 제1 실시예에 따른 이미지 획득 방법에 따라 촬영된 이미지일 수 있다. 기준 이미지(RI)는 병원에서 의료인력(예를 들어, 간호사)이 촬영한 이미지일 수 있다. 기준 이미지(RI)는 기 획득되었던 진단 이미지(즉, 촬영 이미지) 중 촬영 조건을 만족한 것으로 사후적으로 평가된 이미지일 수 있다.The reference image RI may be captured in an environment suggested by the ophthalmopathy management system 10 . For example, the reference image RI may be an image captured while the user leans his back against the wall. The reference image RI may be an image captured according to the image acquisition method according to the first embodiment. The reference image RI may be an image captured by medical personnel (eg, nurses) in a hospital. The reference image RI may be an image evaluated ex post facto that satisfies the photographing condition among previously obtained diagnosis images (ie, photographed images).

기준 이미지(RI)를 분석하여 기준 가이드(RG)를 생성할 수 있다. 기준 가이드(RG)를 생성하는 방법은 이하에서 보다 구체적으로 설명한다. A reference guide RG may be generated by analyzing the reference image RI. A method of generating the reference guide RG will be described in more detail below.

기준 가이드(RG)(RI)는 적어도 둘 이상의 지점을 가이드할 수 있다. 일 예로, 기준 가이드(RG)는 제1 기준 가이드(RG1) 및 제2 기준 가이드(RG2)를 포함할 수 있다. The reference guide RG (RI) may guide at least two or more points. For example, the reference guide RG may include a first reference guide RG1 and a second reference guide RG2.

생성된 기준 가이드(RG)는 사용자 단말(100)의 단말 저장부(130)에 저장될 수 있다. The generated reference guide RG may be stored in the terminal storage unit 130 of the user terminal 100 .

사용자 단말(100)는 기준 가이드(RG)를 제공할 수 있다(도 9의 Day 2 참조). 사용자 단말(100)은 안병증 관리를 위한 이미지 획득 동작을 수행하는 시점에 기준 가이드(RG)를 제공할 수 있다. The user terminal 100 may provide a reference guide RG (see Day 2 of FIG. 9 ). The user terminal 100 may provide a reference guide RG at the time of performing an image acquisition operation for ophthalmopathy management.

일 실시예에 따르면 사용자 단말(100)은 이미지 획득 동작을 수행할 때, 저장된 기준 가이드(RG)를 디스플레이를 통해 제공한다. 다른 실시예에 따르면 사용자 단말(100)은 이미지 획득 동작을 수행할 때, 기준 가이드(RG) 및 촬영 가이드를 함께 제공할 수 있다. 기준 가이드(RG)는 프리뷰 이미지 상에 제공된다.According to an embodiment, when performing an image acquisition operation, the user terminal 100 provides the stored reference guide RG through a display. According to another embodiment, the user terminal 100 may provide a reference guide RG and a photographing guide together when performing an image acquisition operation. A reference guide RG is provided on the preview image.

도 10은 일 실시예에 따른 기준 가이드의 생성 동작을 설명하기 위한 도면이다.10 is a diagram for explaining an operation of generating a reference guide according to an exemplary embodiment.

사용자 단말(10)은 기준 이미지(RI)를 획득(SB9100)하고, 획득된 기준 이미지(RI)를 기초로 기준 가이드 지표를 추출(SB9100)하고, 기준 가이드(RG)를 생성(SB9300)할 수 있다.The user terminal 10 may obtain a reference image RI (SB9100), extract a reference guide indicator based on the acquired reference image RI (SB9100), and generate a reference guide RG (SB9300). have.

기준 이미지(RI)의 획득(SB9100)은 본 명세서의 일 실시예에 따른 이미지 획득 방법을 통해 수행될 수 있다. 일 예로, 도 5에서 설명하는 이미지 획득 방법에 따라 기준 이미지(RI)가 획득될 수 있다. 몇몇 실시예에 따르면, 기준 이미지(RI)는 갑상선 안병증이 발병되기 이전에 촬영된 이미지일 수 있다. Acquisition of the reference image RI (SB9100) may be performed through an image acquisition method according to an embodiment of the present specification. For example, the reference image RI may be obtained according to the image acquisition method described in FIG. 5 . According to some embodiments, the reference image RI may be an image taken before the onset of thyroid eye disease.

사용자 단말(100)은 기준 이미지(RI)를 분석하여, 기준 가이드 지표를 추출(S9200)할 수 있다. 기준 가이드 지표는 얼굴의 정면에서 나타날 수 있는 신체 부위에 관련되며, 적어도 둘 이상의 기준 가이드 지표가 획득될 수 있다.The user terminal 100 may analyze the reference image RI and extract reference guide indicators (S9200). The reference guide index is related to a body part that may appear on the front of the face, and at least two or more reference guide indexes may be obtained.

얼굴의 상하 회전 각도를 가이딩하기 위한 기준 가이드 지표는, 얼굴의 세로 방향으로 이격된 적어도 두 지점에 관련된다. 얼굴의 좌우 회전 각도를 가이딩하기 위한 기준 가이드 지표는, 얼굴의 가로 방향으로 이격된 적어도 두 지점에 관련된다. The reference guide indicator for guiding the vertical rotation angle of the face is related to at least two points spaced apart in the longitudinal direction of the face. The reference guide indicator for guiding the left/right rotation angle of the face is related to at least two points spaced apart in the horizontal direction of the face.

기준 가이드 지표는 코끝에 상응하는 위치 정보 및 눈에 상응하는 위치 정보일 수 있다. 본 명세서에서 "위치 정보"라 함은, 이미지 상에서의 위치를 확인할 수 있는 정보로, 예를 들어, 랜드마크 검출 알고리즘을 통해 획득한 신체부위의 좌표값일 수 있다. 또는, 기준 가이드 지표는 턱끝에 상응하는 위치 정보 및 눈에 상응하는 위치 정보일 수 있다. 다만, 안병증 관리 시스템(10)에서는 모니터링하는 질병이 갑상선 안병증이기 때문에, 눈의 경우 안구 돌출에 따른 형태 변화가 생길 수 있고, 따라서, 기준 가이드 지표는 눈에 관련되지 않은 신체 부위로 설정되는 것이 상대적으로 바람직하다.The reference guide indicator may be positional information corresponding to the tip of the nose and positional information corresponding to the eye. In the present specification, "location information" is information capable of confirming a location on an image, and may be, for example, coordinate values of body parts obtained through a landmark detection algorithm. Alternatively, the reference guide indicator may be positional information corresponding to the tip of the chin and positional information corresponding to the eye. However, since the disease monitored by the ophthalmopathy management system 10 is thyroid ophthalmopathy, in the case of the eye, shape changes may occur due to protrusion of the eyeball, and therefore, the reference guide index is set to a body part not related to the eye. is relatively preferable.

기준 가이드 지표는 코끝에 상응하는 위치 정보 및 입술에 상응하는 위치 정보일 수 있다. 또는, 기준 가이드 지표는 턱끝에 상응하는 위치 정보 및 입술에 상응하는 위치 정보일 수 있다. 다만, 기준 가이드 지표에 관련된 신체 부위는 이미지가 획득되는 동작에서 촬영 조건으로 모니터링되는 바, 기준 가이드 지표는 입술과 같이 움직임이 큰 부위에 관련되지 않은 신체 부위로 설정되는 것이 상대적으로 바람직하다.The reference guide indicator may be positional information corresponding to the tip of the nose and positional information corresponding to the lips. Alternatively, the reference guide indicator may be positional information corresponding to the tip of the chin and positional information corresponding to the lips. However, since the body part related to the reference guide indicator is monitored as a shooting condition in an image acquisition operation, it is relatively preferable that the reference guide indicator is set to a body part not related to a part with large movement such as lips.

기준 가이드 지표는, 코끝에 상응하는 위치 정보 및 턱끝에 상응하는 위치 정보일 수 있다. 얼굴의 상하 회전 각도를 가이딩하기 위한 기준 가이드 지표는, 코끝에 상응하는 위치 정보 및 턱끝에 상응하는 위치 정보일 수 있다. 다만, 이에 한정되지 않고, 기준 가이드 지표는 얼굴의 정면에서 나타날 수 있는 신체 부위이며, 적어도 둘 이상의 지점을 포함하는 것으로 선택될 수 있다.The reference guide indicator may be positional information corresponding to the tip of the nose and positional information corresponding to the tip of the chin. Reference guide indicators for guiding the vertical rotation angle of the face may be positional information corresponding to the tip of the nose and positional information corresponding to the tip of the chin. However, it is not limited thereto, and the reference guide indicator is a body part that may appear in front of the face, and may be selected to include at least two or more points.

사용자 단말(100)은 기준 가이드(RG)를 생성(SB9300)할 수 있다. 기준 가이드(RG)는 기준 이미지(RI)에서 추출된 기준 가이드 지표에 대응되는 지점을 디스플레이 상에 점으로 표시하는 형태일 수 있고, 기준 이미지(RI)에서 추출된 기준 가이드 지표에 대응되는 지점을 지나는 선으로 표시하는 형태일 수 있다.The user terminal 100 may generate a reference guide RG (SB9300). The reference guide RG may have a form in which a point corresponding to a reference guide index extracted from the reference image RI is displayed as a dot on a display, and a point corresponding to a reference guide index extracted from the reference image RI is displayed as a dot. It may be in the form of a passing line.

일 실시예에 따르면, 사용자 단말(100)이 얼굴의 상하 회전 각도를 가이딩하기 위해 기준 가이드(RG)를 제공하는 경우, 제1 기준 가이드 지표에 상응하는 지점을 지나면서 디스플레이의 가로 방향으로 연장된 제1 기준 가이드(RG1) 및 제2 기준 가이드 지표에 상응하는 지점을 지나면서 디스플레이의 가로 방향으로 연장된 제2 기준 가이드(RG2)를 포함하는 형태일 수 있다.According to an embodiment, when the user terminal 100 provides a reference guide (RG) for guiding the vertical rotation angle of the face, it extends in the horizontal direction of the display while passing through a point corresponding to the first reference guide indicator. It may include a first reference guide RG1 and a second reference guide RG2 extending in the horizontal direction of the display while passing a point corresponding to the index of the second reference guide.

다른 실시예에 따르면, 사용자 단말(100)이 얼굴의 좌우 회전 각도를 가이딩하기 위해 기준 가이드(RG)를 제공하는 경우, 제1 기준 가이드 지표에 상응하는 지점을 지나면서 디스플레이의 세로 방향으로 연장된 제1 기준 가이드(RG1) 및 제2 기준 가이드 지표에 상응하는 지점을 지나면서 디스플레이의 세로 방향으로 연장된 제2 기준 가이드(RG2)를 포함하는 형태일 수 있다.According to another embodiment, when the user terminal 100 provides a reference guide (RG) for guiding the left and right rotation angle of the face, it extends in the vertical direction of the display while passing through a point corresponding to the first reference guide index. It may include a first reference guide RG1 and a second reference guide RG2 extending in the vertical direction of the display while passing a point corresponding to the second reference guide index.

사용자 단말(100)은 SB9100 내지 SB9300을 통해 획득된 기준 가이드(RG)를 단말 저장부(130)에 저장할 수 있다. 저장된 기준 가이드(RG)는, 사용자 단말(100)에서 안병증 관리를 위한 이미지 획득 동작을 수행하는 시점마다 디스플레이 상에 제공될 수 있다. 또는, 사용자 단말(100)은 기준 가이드(RG)가 제공되지 않은 상태로 안병증 예측을 위한 이미지를 촬영하되, 촬영 이미지를 분석하여 기준 가이드(RG)에 만족하는 사진인지를 사후적으로 평가할 수 있다. 만약, 사후적으로 판단한 촬영 이미지가 기준 가이드(RG)에 관련된 기준을 만족되지 않으면, "촬영 조건을 만족하였지만, 지난번 사진과는 다른 특성을 가져 얼굴의 상하 회전 각도가 0이 맞는지 의심됩니다."라는 내용을 디스플레이를 통해 표시할 수 있다. 이 때, 사용자 단말(100)은 디스플레이를 통해, 재촬영 인터페이스(RII)를 제공할 수 있다.The user terminal 100 may store the reference guide RG obtained through the SB9100 to SB9300 in the terminal storage unit 130 . The stored reference guide RG may be provided on the display whenever the user terminal 100 performs an image acquisition operation for managing ophthalmia. Alternatively, the user terminal 100 may take an image for predicting ophthalmopathy in a state in which the reference guide RG is not provided, and analyze the captured image to evaluate whether the picture satisfies the reference guide RG ex post facto. have. If the photographed image determined ex post facto does not satisfy the criterion related to the criterion guide (RG), "The photographing condition was met, but it has a different characteristic from the last photograph, so it is doubtful whether the vertical rotation angle of the face is 0." can be displayed on the display. At this time, the user terminal 100 may provide a recapture interface (RII) through the display.

일 실시예에 따르면, 사용자 단말(100)에 다운로드된 안병증 관리 어플리케이션(131)이 실행된 경우, 사용자 단말(100)은 기준 이미지(RI)를 획득하도록 인터페이스를 제공하고, 기준 가이드(RG)를 생성할 수 있다. 다시 말해, 사용자 단말(100)에 안병증 관리 어플리케이션(131)이 다운로드되고 처음 실행되는 시점에, 사용자 단말(100)은 기준 이미지(RI)를 획득하도록 인터페이스를 제공하고, 기준 가이드(RG)를 생성할 수 있다. 이후, 사용자 단말(100)은 새로운 기준 이미지(RI)가 획득될 때까지, 안병증 관리 어플리케이션(131)을 통해 이미지가 촬영될 때마다 저장된 기준 가이드(RG)를 제공할 수 있다. 본 실시예에서는, 특히 기준 가이드 지표는 눈을 포함하지 않는다. 이유는, 눈이 돌출됨에 따라, 눈과 다른 지표 사이의 거리가 가깝게 분석될 수 있고 따라서 기준 가이드(RG)를 통해 왜곡이 생기는 문제가 발생할 수 있기 때문이다.According to one embodiment, when the ophthalmopathy management application 131 downloaded to the user terminal 100 is executed, the user terminal 100 provides an interface to acquire the reference image RI, and the reference guide RG can create In other words, when the eye disease management application 131 is downloaded to the user terminal 100 and executed for the first time, the user terminal 100 provides an interface to acquire the reference image RI and provides the reference guide RG. can create Thereafter, the user terminal 100 may provide the stored reference guide RG whenever an image is captured through the ophthalmopathy management application 131 until a new reference image RI is obtained. In this embodiment, in particular, the reference guide index does not include the eye. The reason is that, as the eye protrudes, the distance between the eye and other indices can be closely analyzed, and thus distortion may occur through the reference guide RG.

다른 구체적인 실시예에 따르면, 사용자 단말(100)에 다운로드된 안병증 관리 어플리케이션(131)을 통해 이미지가 촬영되는 경우, 직전차 촬영 이미지를 분석하여 생성한 기준 가이드(RG)가 디스플레이를 통해 제공될 수 있다. 기준 가이드(RG)가 제공된 상태에서 이미지가 촬영되면, 사용자 단말(100)은 촬영 이미지를 안병증 관리 서버(200)로 전송할 수 있다. 사용자 단말(100) 및/또는 안병증 관리 서버(200)는 금번 촬영 이미지를 이용하여 기준 가이드(RG)를 다시 생성하고, 안병증 관리를 위한 다음차 이미지 촬영 시점에 금번 촬영 이미지로 획득된 기준 가이드(RG)를 제공할 수 있다. 다시 말해, 촬영 이미지가 획득될 때마다 기준 가이드(RG)를 생성하고, 다음차 촬영 이미지를 획득할 때 생성된 기준 가이드(RG)를 제공하도록, 사용자 단말(100)은 촬영 이미지가 획득되면 새롭게 생성된 기준 가이드(RG)를 단말 저장부(130)에 저장할 수 있다.According to another specific embodiment, when an image is captured through the ophthalmopathy management application 131 downloaded to the user terminal 100, a reference guide RG generated by analyzing the previous photographed image may be provided through the display. can When an image is captured while the reference guide RG is provided, the user terminal 100 may transmit the captured image to the eye disease management server 200 . The user terminal 100 and/or the eye disease management server 200 regenerates the reference guide RG using the image taken this time, and the criterion obtained with the image taken this time at the time of capturing the next image for managing eye disease. A guide (RG) may be provided. In other words, the user terminal 100 creates a reference guide RG whenever a captured image is acquired and provides the generated reference guide RG when acquiring the next captured image. The generated reference guide RG may be stored in the terminal storage unit 130 .

일 실시예에 따르면 사용자 단말(100)은 이미지 획득 동작을 수행할 때, 저장된 기준 가이드(RG)를 디스플레이를 통해 제공할 수 있다. 다른 실시예에 따르면 사용자 단말(100)은 이미지 획득 동작을 수행할 때, 기준 가이드(RG) 및 촬영 가이드를 함께 제공할 수 있다.According to an embodiment, when performing an image acquisition operation, the user terminal 100 may provide the stored reference guide RG through a display. According to another embodiment, the user terminal 100 may provide a reference guide RG and a photographing guide together when performing an image acquisition operation.

도 11은 일 실시예에 따른 이미지 획득 방법을 설명하기 위한 도면이다.11 is a diagram for explaining an image acquisition method according to an exemplary embodiment.

사용자 단말(100)은 촬영 가이드 및 기준 가이드(RG)를 제공(SB1100)하고, 프리뷰 이미지를 획득(SB1200)하여, 복수의 지표를 추출(SB1300)하고, 추출된 지표가 적정 위치에 있는지 판단(SB1400)하고, 얼굴의 좌우 회전 각도를 평가(SB1500)하고, 이미지를 촬영(SB1600)할 수 있다.The user terminal 100 provides a photographing guide and a reference guide RG (SB1100), acquires a preview image (SB1200), extracts a plurality of indicators (SB1300), and determines whether the extracted indicators are at an appropriate position ( SB1400), evaluate the left and right rotation angle of the face (SB1500), and capture an image (SB1600).

여기서, 도 11의 SB1200, SB1500 및 SB1600은 도5에서의 SA1200, SA1500, SA1800과 유사하게 수행될 수 있기 때문에, 중복된 설명은 생략하기로 한다.Here, since SB1200, SB1500 and SB1600 of FIG. 11 can be performed similarly to SA1200, SA1500 and SA1800 of FIG. 5, duplicate descriptions will be omitted.

도 12를 참조하면, 사용자 단말(100)은 제1 가이드(G1), 제2 가이드(G2), 제3 가이드(G3), 제1 기준 가이드(RG1) 및 제2 기준 가이드(RG2)를 디스플레이를 통해 제공할 수 있다. 제1 가이드(G1), 제2 가이드(G2) 및 제3 가이드(G3)에 대해서는 도 6을 설명하면서 서술한 바 있고, 제1 기준 가이드(RG1) 및 제2 기준 가이드(RG2)에 대해서는 도 9를 설명하면서 서술한 바 있어 구체적인 설명은 생략하기로 한다.Referring to FIG. 12 , the user terminal 100 displays a first guide G1, a second guide G2, a third guide G3, a first reference guide RG1, and a second reference guide RG2. can be provided through The first guide G1, the second guide G2, and the third guide G3 have been described with reference to FIG. 6, and the first reference guide RG1 and the second reference guide RG2 are illustrated in FIG. Since it has been described while explaining 9, a detailed description will be omitted.

제1 기준 가이드(RG1) 및 제2 기준 가이드(RG2)는 도 9에 도시된 바와 같이 평행한 가로 선으로 표시될 수 있지만, 기준 가이드 지표에 대응되는 위치를 점 가이드로 나타내도록 표시될 수 있다.The first reference guide RG1 and the second reference guide RG2 may be displayed as parallel horizontal lines as shown in FIG. 9, but may be displayed to indicate positions corresponding to the reference guide indicators as dot guides. .

다시, 도 11을 참조하면, 사용자 단말(100)은 촬영 가이드 및 기준 가이드(RG)가 제공된 상태에서 프리뷰 이미지를 획득하고, 획득된 프리뷰 이미지에 대한 복수의 지표를 추출(SB1300)할 수 있다. Referring again to FIG. 11 , the user terminal 100 may acquire a preview image in a state where a shooting guide and a reference guide RG are provided, and may extract a plurality of indices for the obtained preview image (SB1300).

사용자 단말(100)은 기준 가이드(RG)에 관련된 복수의 지표를 프리뷰 이미지로부터 추출할 수 있다. 사용자 단말(100)은 기준 가이드 지표에 관련된 복수의 지표를 프리뷰 이미지로부터 추출할 수 있다. The user terminal 100 may extract a plurality of indicators related to the reference guide RG from the preview image. The user terminal 100 may extract a plurality of indicators related to the reference guide indicator from the preview image.

여기서, 기준 가이드(RG)에 관련된 복수의 지표는, 기준 가이드(RG) 및/또는 기준 가이드 지표에 대응하는 동일한 신체 부위에 관한 위치 정보이거나, 유사한 신체 부위에 관한 위치정보일 수 있다. 구체적인 예를 들어, 기준 가이드(RG)가 코끝의 위치 정보에 기초하여 생성되었다면, 기준 가이드(RG)에 관련된 복수의 지표는 코끝의 위치 정보로 추출될 수 있다. 다른 구체적인 예를 들어, 기준 가이드(RG)가 눈의 위치 정보에 기초하여 생성되었다면, 기준 가이드(RG)에 관련된 복수의 지표는 동공의 위치 정보로 추출될 수 있다.Here, the plurality of indices related to the reference guide RG may be location information about the same body part corresponding to the reference guide RG and/or the reference guide indices, or location information about similar body parts. For example, if the reference guide RG is generated based on the position information of the tip of the nose, a plurality of indices related to the reference guide RG may be extracted as the position information of the tip of the nose. For another specific example, if the reference guide RG is generated based on eye position information, a plurality of indicators related to the reference guide RG may be extracted as pupil position information.

사용자 단말(100)은 촬영 가이드에 대응되는 적어도 하나 이상의 복수의 지표를 추출하고, 기준 가이드(RG)에 대응되는 모든 복수의 지표를 추출할 수 있다. 도 12을 참조하여 구체적으로 설명하면, 사용자 단말(100)은 제1 가이드(G1) 및 제2 가이드(G2)에 대응되는 양 눈을 검출하여 복수의 지표를 추출하고, 제1 기준 가이드(RG1) 및 제2 기준 가이드(RG2)에 대응되는 코끝 및 턱끝을 검출하여 복수의 지표를 추출할 수 있다.The user terminal 100 may extract at least one or more indicators corresponding to the shooting guide and extract all the indicators corresponding to the reference guide RG. 12, the user terminal 100 detects both eyes corresponding to the first guide G1 and the second guide G2, extracts a plurality of indicators, and first reference guide RG1. ) and the nose tip and chin tip corresponding to the second reference guide RG2 may be detected to extract a plurality of indices.

사용자 단말(100)은 추출된 지표가 적정 위치에 있는지 판단(SB1400)할 수 있다. 단말 제어부(150)는 단말 저장부(130)에 저장된 촬영 조건을 참조하여 추출된 지표가 프리뷰 이미지 상의 적정 위치에 있는지 평가할 수 있다. 다시 말해, 단말 제어부(150)는 추출된 지표가 기준을 만족하였는지 여부를 확인할 수 있다.The user terminal 100 may determine whether the extracted indicator is at an appropriate location (SB1400). The terminal control unit 150 may evaluate whether the extracted indicator is at an appropriate position on the preview image by referring to the shooting conditions stored in the terminal storage unit 130 . In other words, the terminal control unit 150 may check whether the extracted indicator satisfies the criterion.

촬영 가이드에 관련된 추출된 지표가 적정 위치에 있는지를 판단하는 방법은, 도 5를 통해 이미 설명한바 있어 구체적인 설명은 생략한다.A method of determining whether the extracted index related to the photographing guide is at an appropriate position has already been described with reference to FIG. 5 , and thus a detailed description thereof will be omitted.

몇몇 실시예에 따르면, 사용자 단말(100)은 기준 가이드(RG)에 관련된 추출된 지표와 기준 가이드(RG)의 위치를 비교할 수 있다. 예를 들어, 사용자 단말(100)이 기준 가이드(RG)에 관련된 추출된 지표의 픽셀의 좌표값을 획득한 경우, 획득된 좌표값과 기준 가이드(RG)의 좌표값이 기준 거리 이내로 이격되어 있는지를 평가할 수 있다. 또는, 몇몇 실시예에 따르면, 사용자 단말(100)은 추출된 지표 사이의 거리를 기준 가이드 지표 사이의 거리와 비교할 수 있다. 예를 들어, 사용자 단말(100)이 복수의 지표로 코끝 좌표와 턱끝 좌표를 획득한 경우 두 점사이의 이격 거리를 산출하고, 획득된 이격 거리가 기준 가이드 지표 사이의 이격 거리와 일정 범위 이내로 차이나는지를 평가할 수 있다. 사용자 단말(100)은 SB1400에 따라 복수의 지표들의 위치가 기준을 만족한 것으로 판단되고, SB1500에 따라 얼굴의 좌우 회전 각도가 기준을 만족한 것으로 판단되면, 이미지를 촬영(SB1600)할 수 있다. 이 경우, 얼굴의 상하 회전 각도에 대해서 따로 분석하지 않더라도, 그에 상응하는 효과를 얻을 수 있다.According to some embodiments, the user terminal 100 may compare an extracted indicator related to the reference guide RG with a position of the reference guide RG. For example, when the user terminal 100 acquires the coordinate values of pixels of the extracted index related to the reference guide RG, whether the obtained coordinate values and the coordinate values of the reference guide RG are separated within a reference distance. can be evaluated. Alternatively, according to some embodiments, the user terminal 100 may compare the distance between the extracted indicators with the distance between reference guide indicators. For example, when the user terminal 100 acquires the nose tip coordinates and the chin tip coordinates as a plurality of indicators, the separation distance between the two points is calculated, and the obtained separation distance differs from the separation distance between reference guide indicators within a certain range. can evaluate whether The user terminal 100 may capture an image (SB1600) when it is determined that the position of the plurality of indicators satisfies the criterion according to SB1400 and the horizontal rotation angle of the face satisfies the criterion according to SB1500. In this case, even if the vertical rotation angle of the face is not separately analyzed, a corresponding effect can be obtained.

사용자 단말(100)은 촬영 가이드 및 기준 가이드(RG)를 제공한 상태에서 프리뷰 이미지를 획득할 수 있다. 획득된 프리뷰 이미지를 분석하여 이미지를 촬영하거나 추가 가이드를 제공할 수 있다.The user terminal 100 may acquire a preview image in a state in which a photographing guide and a reference guide RG are provided. An image may be taken or an additional guide may be provided by analyzing the acquired preview image.

도 13(a)를 참조하면, 대상의 얼굴이 아래를 바라보고 있기 때문에, 프리뷰 이미지에서 추출된 코끝과 턱끝 사이의 거리는 제1 기준 가이드(RG1) 및 제2 기준 가이드(RG2) 사이의 거리에 비해 짧다. 프리뷰 이미지에서의 코끝의 위치 정보가 제1 기준 가이드(RG1)에 대응되지만, 프리뷰 이미지에서의 턱끝의 위치 정보가 제2 기준 가이드(RG2)에 대응되지 않는다. Referring to FIG. 13(a), since the subject's face is looking down, the distance between the tip of the nose and the tip of the chin extracted from the preview image is the same as the distance between the first reference guide RG1 and the second reference guide RG2. shorter than The location information of the tip of the nose in the preview image corresponds to the first reference guide RG1, but the location information of the tip of the chin in the preview image does not correspond to the second reference guide RG2.

사용자 단말(100)은 프리뷰 이미지의 얼굴의 상하 회전 각도가 제3 기준치를 만족하지 못했기 때문에, 제3 기준치를 만족시키기 위해 사용자가 행해야 하는 동작을 디스플레이를 통해 제공할 수 있다. 일 예로, 제공되는 추가 촬영 가이드는 "얼굴을 위쪽으로 회전해 코와 턱끝을 가이드에 맞춰주세요"일 수 있다. Since the vertical rotation angle of the face of the preview image does not satisfy the third reference value, the user terminal 100 may provide an operation to be performed by the user through the display to satisfy the third reference value. As an example, the provided additional shooting guide may be "Rotate the face upward and align the tip of the nose and chin with the guide".

도 13(b)를 참조하면, 대상의 얼굴이 정면을 바라보고 있기 때문에, 프리뷰 이미지에서 추출된 코끝과 턱끝 사이의 거리는 제1 기준 가이드(RG1) 및 제2 기준 가이드(RG2) 사이의 거리와 동일하다. 프리뷰 이미지에서의 코끝의 위치 정보가 제1 기준 가이드(RG1)에 대응되고, 프리뷰 이미지에서의 턱끝의 위치 정보가 제2 기준 가이드(RG2)가 대응된다. Referring to FIG. 13(b), since the subject's face is facing the front, the distance between the tip of the nose and the tip of the chin extracted from the preview image is the same as the distance between the first and second reference guides RG1 and RG2. same. Positional information of the tip of the nose in the preview image corresponds to the first reference guide RG1, and positional information of the tip of the chin in the preview image corresponds to the second reference guide RG2.

사용자 단말(100)은 프리뷰 이미지의 얼굴의 상하 회전 각도가 제3 기준치를 만족했기 때문에, 사용자에게 선택적으로 정보를 제공할 수 있다. 일 예로, 사용자 단말(100)은 자동 촬영을 수행하면서, 디스플레이를 통해 "자동촬영 됩니다"를 제공할 수 있다.Since the vertical rotation angle of the face of the preview image satisfies the third reference value, the user terminal 100 can selectively provide information to the user. For example, the user terminal 100 may provide “automatically photographed” through a display while performing automatic photographing.

일 실시예에 따르면, 전술한 사용자 단말(100)의 동작은 안병증 관리 서버(200)에 의해 수행될 수 있다. 사용자 단말(100)은 사용자와의 관계에서 데이터를 입력받고 제공하는 인터페이스로 동작할 수 있다. 사용자 단말(100)과 안병증 관리 서버(200)는 실시간으로 연동되고 안병증 관리 서버(200)의 주체적인 동작에 따라 사용자 단말(100)은 적절한 기준 가이드(RG)를 제공하고 촬영 이미지를 획득하여 안병증 관리 서버(200)로 전송하는 역할을 수행할 수 있다.According to one embodiment, the operation of the user terminal 100 described above may be performed by the ophthalmopathy management server 200 . The user terminal 100 may operate as an interface for receiving and providing data in relation to a user. The user terminal 100 and the ophthalmopathy management server 200 are linked in real time, and according to the subjective operation of the ophthalmopathy management server 200, the user terminal 100 provides an appropriate reference guide RG and obtains a captured image. It can play a role of transmitting to the ophthalmopathy management server 200.

(3) 이미지 획득 방법 - 제3 실시예 (3) Image Acquisition Method - Third Embodiment

갑상선 안병증 관리 시스템(10)은 건강 관리를 위해 갑상선 안병증의 가능성을 예측하는 동작을 수행할 수 있고, 갑상선 안병증으로 인한 돌출도를 모니터링하는 동작을 수행할 수 있다. 특히, 갑상선 안병증 관리 시스템(10)이 갑상선 안병증의 치료제를 개발하는 제약회사의 임상 진행시에 이용되는 경우, 복약에 따른 '치료 경과'를 자료로 남길 필요성이 있기 때문에 갑상선 안병증을 예측하는 동작과 돌출도를 모니터링하는 동작이 병행되는 것이 좋다.The thyroid ophthalmopathy management system 10 may perform an operation of predicting the possibility of thyroid ophthalmopathy for health management and may perform an operation of monitoring the degree of protrusion due to thyroid ophthalmopathy. In particular, when the thyroid ophthalmopathy management system 10 is used during the clinical process of a pharmaceutical company developing a treatment for thyroid ophthalmopathy, it is necessary to record the 'treatment progress' according to medications, so that thyroid ophthalmopathy is predicted. It is recommended that the operation of monitoring the projection and the operation of monitoring the protrusion should be performed in parallel.

다만, 갑상선 안병증의 돌출 정도를 육안으로 또는 이미지 분석으로 확인하기 위해서는 얼굴의 측면 이미지(SI)가 획득되어야 하는데, 얼굴의 측면 이미지(SI)를 개인이 의료진의 도움없이 정확하게 촬영하는 것은 쉽지않은 일이다. 특히, 종래에는 얼굴의 돌출도 분석하기 위해, 얼굴의 아래에서 위 방향으로 카메라를 촬영하는 형태로 이미지를 획득하곤 했는데, 이는 일관성있는 이미지의 촬영이 불가능하였고, 나아가, 환자들이 얼굴의 아래에서 위 방향으로 촬영한 사진을 기록으로 남기고 싶어하지 않았기 때문에 상용화 및 서비스 적용에 어려움이 있었다.However, in order to confirm the degree of protrusion of thyroid ophthalmopathy with the naked eye or image analysis, a lateral image (SI) of the face must be obtained. It's a thing. In particular, in the prior art, in order to analyze the prominence of the face, images were acquired in the form of shooting a camera from the bottom of the face to the top, which made it impossible to take a consistent image, and furthermore, patients were able to capture images from the bottom to the top of the face. There were difficulties in commercialization and application of the service because they did not want to leave a record of the photos taken in the direction.

아래에서는, 얼굴의 정면 및 측면 이미지(SI)를 획득하는 이미지 획득 방법에 대해서 구체적으로 개시한다.Below, an image acquisition method for acquiring front and side images SI of a face is specifically disclosed.

도 14는 일 실시예에 따른 이미지 획득 방법을 설명하기 위한 도면이다. 14 is a diagram for explaining an image acquisition method according to an exemplary embodiment.

본 실시예는 정면 이미지(FI)를 먼저 획득하고, 그에 따라 파노라마 가이드를 생성하여 제공하여, 파노라마 가이드를 기초로 모니터링된 상태에서 측면 이미지(SI)를 획득하는 방법이다. This embodiment is a method of obtaining a side image SI in a monitored state based on the panoramic guide by first obtaining a front image FI and generating and providing a panorama guide accordingly.

또한, 본 실시예는 얼굴의 정면 이미지(FI)를 촬영할 때에 생성된 파노라마 가이드에 따라 사용자 단말(100)을 움직이도록 유도되는 것을 설명한다. 이경우, 얼굴의 정면 이미지(FI)를 촬영할 때의 사용자 단말(100)과 얼굴 사이의 거리가 얼굴의 측면 이미지(SI)를 촬영할 때에도 유지될 수 있어, 돌출도를 분석할 때 정면 이미지(FI)에서의 홍채 크기를 활용할 수 있다는 것이 큰 이점이다. 이로써, 측면 이미지(SI)를 분석하여 안구의 돌출도를 예측하는 것이 가능해진다.In addition, the present embodiment describes that the user terminal 100 is guided to move according to the panorama guide generated when capturing the front image FI of the face. In this case, the distance between the user terminal 100 and the face when capturing the front image FI of the face may be maintained even when capturing the side image SI of the face, so that the front image FI Being able to utilize the size of the iris in , is a huge advantage. Accordingly, it is possible to predict the protrusion of the eyeball by analyzing the side image SI.

도 15는 일 실시예에 따른 이미지 획득 방법을 설명하기 위한 도면이다.15 is a diagram for explaining an image acquisition method according to an exemplary embodiment.

사용자 단말(100)은 정면 이미지(FI)를 획득(SC1100)할 수 있다. 일 예로, 정면 이미지(FI)는 제1 실시예에 따른 이미지 획득 방법에 의해 촬영될 수 있다. The user terminal 100 may acquire the front image FI (SC1100). For example, the front image FI may be captured by the image acquisition method according to the first embodiment.

정면 이미지(FI)는 제1 촬영 조건을 만족하도록 가이드된 상태에서 획득될 수 있다. 일 예로, 제1 촬영 조건을 만족하는 것은, 대상의 양눈이 제1 촬영 이미지의 정해진 영역에 배치되는 것일 수 있다. 다른 예로, 제1 촬영 조건을 만족하는 것은, 대상의 양눈이 제1 촬영 이미지의 정해진 영역에 배치되는 것 및 대상의 얼굴의 좌우 회전각도가 기 설정된 제1 기준치를 초과하지 않는 것일 수 있다. 또 다른 예로, 제1 촬영 조건을 만족하는 것은, 대상의 양눈이 제1 촬영 이미지의 정해진 영역에 배치되는 것, 대상의 얼굴의 좌우 회전각도가 기 설정된 제1 기준치를 초과하지 않는 것 및 대상의 얼굴 표정 정보에 기초하여 상기 대상의 미소 수준이 기 설정된 제2 기준치를 초과하지 않는 것일 수 있다. 또 다른 예로, 제1 촬영 조건을 만족하는 것은, 대상의 양눈이 제1 촬영 이미지의 정해진 영역에 배치되는 것, 대상의 얼굴의 좌우 회전각도가 기 설정된 제1 기준치를 초과하지 않는 것, 대상의 얼굴 표정 정보에 기초하여 상기 대상의 미소 수준이 기 설정된 제2 기준치를 초과하지 않는 것 및 대상의 얼굴의 상하 회전각도가 기 설정된 제3 기준치를 초과하지 않는 것일 수 있다. 또 다른 예로, 제1 촬영 조건을 만족하는 것은, 대상의 양눈이 제1 촬영 이미지의 정해진 영역에 배치되는 것, 대상의 얼굴의 좌우 회전각도가 기 설정된 제1 기준치를 초과하지 않는 것, 대상의 얼굴 표정 정보에 기초하여 상기 대상의 미소 수준이 기 설정된 제2 기준치를 초과하지 않는 것, 대상의 얼굴의 상하 회전각도가 기 설정된 제3 기준치를 초과하지 않는 것, 및 주변 밝기가 제4 기준치를 초과하지 않는 것일 수 있다. The front image FI may be acquired in a guided state to satisfy the first photographing condition. For example, satisfying the first photographing condition may be that both eyes of the target are disposed in a predetermined area of the first photographed image. As another example, satisfying the first photographing condition may be that both eyes of the target are disposed in a predetermined area of the first photographed image and that a horizontal rotation angle of the face of the target does not exceed a preset first reference value. As another example, satisfying the first photographing condition is that both eyes of the subject are disposed in a predetermined area of the first photographed image, that the left and right rotation angle of the subject's face does not exceed a preset first reference value, and that the subject's Based on the facial expression information, the target's smile level may not exceed a preset second reference value. As another example, satisfying the first photographing condition means that both eyes of the subject are disposed in a predetermined area of the first photographed image, that the left and right rotation angle of the subject's face does not exceed a preset first reference value, and that Based on the facial expression information, the target's smile level may not exceed a preset second reference value, and the vertical rotation angle of the target's face may not exceed a preset third reference value. As another example, satisfying the first photographing condition means that both eyes of the subject are disposed in a predetermined area of the first photographed image, that the left and right rotation angle of the subject's face does not exceed a preset first reference value, and that Based on facial expression information, the subject's smile level does not exceed a preset second reference value, the vertical rotation angle of the subject's face does not exceed a preset third reference value, and the ambient brightness exceeds a fourth reference value. may not be exceeded.

사용자 단말(100)은 정면 이미지(FI)가 획득되면, 파노라마 가이드를 제공(SB1200)할 수 있다. 사용자 단말(100)에서 정면 이미지(FI)가 획득된 후 제공되는 파노라마 가이드는, 정면 이미지(FI)를 기초로 생성된 것일 수 있다. When the front image FI is obtained, the user terminal 100 may provide a panorama guide (SB1200). The panorama guide provided after the front image FI is acquired by the user terminal 100 may be generated based on the front image FI.

파노라마 가이드는 정면 이미지(FI)에서 추출된 정보를 기초로 생성된 것일 수 있다. 일 실시예에 따르면, 사용자 단말(100)은 정면 이미지(FI)에서 추출된 제1 지점 및 제2 지점의 위치 정보를 기초로 파노라마 가이드를 생성하여 제공할 수 있다.The panorama guide may be generated based on information extracted from the front image FI. According to an embodiment, the user terminal 100 may generate and provide a panorama guide based on location information of the first and second points extracted from the front image FI.

사용자 단말(100)은 파노라마 가이드 지표를 추출(SC1210)할 수 있다. 파노라마 가이드 지표는 얼굴의 정면 이미지(FI)에서 나타날 수 있는 신체 부위이면서, 얼굴의 측면 이미지(SI)에서도 나타날 수 있는 신체부위이다. 파노라마 가이드 지표는 얼굴의 정면을 기준으로 세로 방향으로 이격된 적어도 두 지점에 관련된다. The user terminal 100 may extract a panorama guide indicator (SC1210). The panorama guide index is a body part that can appear in the frontal image FI of the face and a body part that can also appear in the side image SI of the face. The panorama guide index relates to at least two points vertically spaced apart from the front of the face.

파노라마 가이드 지표는 코끝에 상응하는 위치 정보 및 눈에 상응하는 위치 정보일 수 있다. 또는, 파노라마 가이드 지표는 턱끝에 상응하는 위치 정보 및 눈에 상응하는 위치 정보일 수 있다. 다만, 얼굴의 왼쪽 측면 이미지(SI)를 촬영하는 경우에는 오른쪽 눈이, 얼굴의 오른쪽 측면 이미지(SI)를 촬영하는 경우에는 왼쪽 눈이 검출되지 않게되는 변화가 생기기 때문에, 파노라마 가이드 지표는 눈을 포함하지 않는 것이 바람직할 수 있다.The panorama guide indicator may be location information corresponding to the tip of the nose and location information corresponding to the eye. Alternatively, the panorama guide indicator may be positional information corresponding to the tip of the chin and positional information corresponding to the eye. However, since the right eye is not detected when the left side image (SI) of the face is taken, and the left eye is not detected when the right side image (SI) is taken, the panoramic guide index is It may be preferable not to include

파노라마 가이드 지표는 코끝에 상응하는 위치 정보 및 입술에 상응하는 위치 정보일 수 있다. 또는, 기준 가이드 지표는 턱끝에 상응하는 위치 정보 및 입술에 상응하는 위치 정보일 수 있다. 파노라마 가이드 지표에 관련된 신체 부위는 측면 이미지(SI)를 획득할 때까지 촬영 조건으로 모니터링되는 바, 파노라마 가이드 지표는 입술과 같이 움직임이 큰 부위에 관련되지 않은 신체 부위로 설정되는 것이 상대적으로 바람직하다.The panorama guide index may be positional information corresponding to the tip of the nose and positional information corresponding to the lips. Alternatively, the reference guide indicator may be positional information corresponding to the tip of the chin and positional information corresponding to the lips. Since the body part related to the panorama guide index is monitored under shooting conditions until the side image SI is acquired, it is relatively preferable that the panoramic guide index is set to a body part not related to a part with large movement such as the lips. .

파노라마 가이드 지표는, 코끝에 상응하는 위치 정보 및 턱끝에 상응하는 위치 정보일 수 있다. 다만, 이에 한정되지 않고, 파노라마 가이드 지표는 얼굴의 정면 및 측면에서 나타날 수 있는 신체 부위이며, 적어도 둘 이상의 지점을 포함하는 것으로 선택될 수 있다.The panorama guide index may be location information corresponding to the tip of the nose and location information corresponding to the tip of the chin. However, it is not limited thereto, and the panorama guide indicator is a body part that may appear on the front and side of the face, and may be selected to include at least two or more points.

사용자 단말(100)은 추출된 파노라마 가이드 지표를 기초로, 파노라마 가이드를 생성(S1220)할 수 있다. 파노라마 가이드는 정면 이미지(FI)에서 추출된 파노라마 가이드 지표에 대응되는 지점을 디스플레이 상에 점으로 표시하는 형태일 수 있다. 일 예로, 파노라마 가이드는 정면 이미지(FI)에서 추출된 파노라마 가이드 지표에 대응되는 지점을 지나는 선의 형태나, 위치를 표시하기 위한 인디케이터 등을 통해 제공될 수 있다.The user terminal 100 may generate a panorama guide based on the extracted panorama guide index (S1220). The panorama guide may be in the form of displaying a point corresponding to a panorama guide indicator extracted from the front image FI as a dot on the display. For example, the panorama guide may be provided in the form of a line passing through a point corresponding to a panorama guide indicator extracted from the front image FI, or an indicator for displaying a location.

일 실시예에 따르면, 사용자 단말(100)이 파노라마 가이드를 제공하는 경우, 제1 파노라마 가이드 지표에 상응하는 지점을 지나면서 디스플레이의 가로 방향으로 연장된 제1 파노라마 가이드 및 제2 파노라마 가이드 지표에 상응하는 지점을 지나면서 디스플레이의 가로 방향으로 연장된 제2 파노라마 가이드를 포함하는 형태일 수 있다.According to an embodiment, when the user terminal 100 provides a panorama guide, the first panorama guide and second panorama guide indicators extending in the horizontal direction of the display pass through points corresponding to the first panorama guide indicators. It may be a form including a second panorama guide extending in the horizontal direction of the display while passing the point of doing.

사용자 단말(100)은 생성된 파노라마 가이드를 디스플레이를 통해 제공(SC1230)할 수 있다. 사용자 단말(100)은 파노라마 가이드가 디스플레이를 통해 제공된 상태에서, 파노라마 가이드를 모니터링(SC1300)할 수 있다. The user terminal 100 may provide the generated panorama guide through a display (SC1230). The user terminal 100 may monitor the panorama guide (SC1300) while the panorama guide is provided through the display.

구체적으로, 사용자 단말(100)은 프리뷰 이미지에서 복수의 지표를 추출(SC1310)할 수 있다. 여기서, 복수의 지표는 S1210의 파노라마 가이드 지표와 대응되는 지표일 수 있다. 여기서, 복수의 지표는, 파노라마 가이드 및/또는 파노라마 가이드 지표에 대응하는 동일한 신체 부위에 관한 위치 정보이거나, 유사한 신체 부위에 관한 위치정보일 수 있다. 구체적인 예를 들어, 파노라마 가이드가 코끝의 위치 정보에 기초하여 생성되었다면, 복수의 지표는 코끝의 위치 정보로 추출될 수 있다. 다른 구체적인 예를 들어, 파노라마 가이드가 눈의 위치 정보에 기초하여 생성되었다면, 복수의 지표는 동공의 위치 정보로 추출될 수 있다.Specifically, the user terminal 100 may extract a plurality of indices from the preview image (SC1310). Here, the plurality of indicators may be indicators corresponding to the panorama guide indicators of S1210. Here, the plurality of indicators may be location information on the same body part corresponding to the panorama guide and/or the panorama guide indicator, or location information on similar body parts. For example, if the panorama guide is generated based on the location information of the tip of the nose, a plurality of indices may be extracted as the location information of the tip of the nose. For another specific example, if the panorama guide is generated based on eye position information, a plurality of indicators may be extracted as pupil position information.

몇몇 실시예에 따르면, 사용자 단말(100)은 파노라마 가이드를 모니터링(SC1300)할 때에, 정면 이미지(FI)를 획득할 때에 촬영 조건으로 고려되었던 여러 평가 지표들의 만족 여부를 평가하지 않을 수 있다. 일 예로, 정면 사진을 촬영할 때에는 양쪽 눈의 위치를 모니터링 하였다고 하더라도, 파노라마 가이드를 모니터링하면서 사용자 단말(100)을 이동시킬 때에는 양쪽 눈의 위치를 모니터링하지 않을 수 있다.According to some embodiments, when the user terminal 100 monitors the panorama guide (SC1300) and acquires the front image FI, it may not evaluate whether various evaluation indicators considered as photographing conditions are satisfied. For example, even if the positions of both eyes are monitored when taking a frontal picture, the positions of both eyes may not be monitored when the user terminal 100 is moved while monitoring the panorama guide.

몇몇 실시예에 따르면, 사용자 단말(100)은 파노라마 가이드를 모니터링(SC1300)할 때에, 프리뷰 이미지에서의 대상의 얼굴의 상하 회전 각도를 계속 평가할 수 있다. 이 경우, 얼굴의 상하 회전 각도에 따라 대상의 코끝과 턱끝 사이의 이격 거리가 짧아지는 등의 변수를 차단할 수 있어 대상과 사용자 단말(100)사이의 거리를 일정하게 모니터링하는 것의 정확도가 더욱 향상된다.According to some embodiments, when monitoring the panorama guide (SC1300), the user terminal 100 may continuously evaluate the vertical rotation angle of the face of the target in the preview image. In this case, it is possible to block variables such as a shortening of the separation distance between the tip of the nose and the tip of the chin of the target according to the vertical rotation angle of the face, so that the accuracy of constantly monitoring the distance between the target and the user terminal 100 is further improved. .

사용자 단말(100)은 추출된 지표가 적정 위치에 있는지 판단(SC1320)할 수 있다. 사용자 단말(100)은 사용자 단말 이동 가이드를 제공(SC1330)할 수 있다.The user terminal 100 may determine whether the extracted indicator is at an appropriate location (SC1320). The user terminal 100 may provide a user terminal movement guide (SC1330).

사용자 단말(100)은 파노라마 가이드에 대응되는 프리뷰 이미지가 획득되도록 사용자 단말(100)의 이동을 가이드 할 수 있다. The user terminal 100 may guide the movement of the user terminal 100 so that a preview image corresponding to the panorama guide is obtained.

사용자 단말(100)은 추출된 지표가 적정 위치에 있는지 판단(SC1320)할 수 있다. The user terminal 100 may determine whether the extracted indicator is at an appropriate location (SC1320).

몇몇 실시예에 따르면, 사용자 단말(100)은 SC1320단계에서 추출된 지표와 파노라마 가이드의 위치를 비교할 수 있다. 예를 들어, 사용자 단말(100)이 SC1320단계에서 복수의 지표의 좌표값을 획득한 경우, 획득된 좌표값과 그에 대응되는 파노라마 가이드의 좌표값이 기준 거리 이내로 이격되어 있는지를 평가할 수 있다. According to some embodiments, the user terminal 100 may compare the index extracted in step SC1320 with the location of the panorama guide. For example, when the user terminal 100 acquires coordinate values of a plurality of indices in step SC1320, it may be evaluated whether the obtained coordinate values and the corresponding coordinate values of the panorama guide are separated by a reference distance.

구체적인 예를 들어, 사용자 단말(100)은 얼굴의 코끝 및 턱끝의 위치 정보를 파노라마 가이드 지표로 추출할 수 있다. 사용자 단말(100)은 파노라마 가이드 지표를 이용하여 생성된 파노라마 가이드를 제공하면서, 파노라마 가이드에 대응되는 사용자 단말(100)의 이동이 수행되고 있는지 모니터링할 수 있다. 사용자 단말(100)은 프리뷰 이미지에 대하여, 얼굴의 코끝 및 턱끝에 대응되는 위치를 추출할 수 있고, 추출된 코끝 및 턱끝의 위치를 파노라마 가이드 지표와 일대일 대응시켜 정해진 오차 범위 미만의 차이를 가지도록 모니터링 할 수 있다.For a specific example, the user terminal 100 may extract location information of the tip of the nose and the tip of the chin of the face as a panorama guide indicator. The user terminal 100 may monitor whether movement of the user terminal 100 corresponding to the panorama guide is being performed while providing a panorama guide generated using a panorama guide indicator. The user terminal 100 may extract positions corresponding to the tip of the nose and the tip of the chin of the face with respect to the preview image, and correspond the extracted positions of the tip of the nose and the tip of the chin to the panorama guide index on a one-to-one basis to have a difference within a predetermined error range. can be monitored.

사용자 단말(100)은, 사용자 단말(100)과 얼굴 사이의 위치를 조정하는 가이드를 출력할 수 있다. 구체적으로, 프리뷰 이미지에서 추출된 제1 지점(예를 들어, 턱끝)이 정면 이미지(FI)에서 추출된 제1 지점에 비해 제5 기준치를 초과할만큼 이동된 것으로 판단되면, 사용자 단말(100)은 사용자 단말(100)을 얼굴에 비하여 위쪽 또는 아래쪽으로 이동시키라는 가이드를 출력할 수 있다. 또한, 프리뷰 이미지에서 추출된 제2 지점(예를 들어, 코끝)이 정면 이미지(FI)에서 추출된 제2 지점에 비해 제6 기준치를 초과할만큼 이동된 것으로 판단되면, 사용자 단말(100)은 사용자 단말(100)을 얼굴에 비하여 위쪽 또는 아래쪽으로 이동시키라는 가이드를 출력할 수 있다.The user terminal 100 may output a guide for adjusting the position between the user terminal 100 and the face. Specifically, when it is determined that the first point (eg, the tip of the chin) extracted from the preview image is moved by an amount exceeding the fifth reference value compared to the first point extracted from the frontal image FI, the user terminal 100 may output a guide to move the user terminal 100 upward or downward relative to the face. In addition, when it is determined that the second point (eg, the tip of the nose) extracted from the preview image is moved by an amount exceeding the sixth reference value compared to the second point extracted from the frontal image FI, the user terminal 100 A guide instructing the user terminal 100 to move upward or downward relative to the face may be output.

또는, 몇몇 실시예에 따르면, 사용자 단말(100)은 SC1320단계에서 추출된 지표 사이의 이격 거리를 기준 가이드 지표 사이의 이격 거리와 비교할 수 있다. 예를 들어, 사용자 단말(100)이 SC1320단계에서 복수의 지표의 코끝 좌표와 턱끝 좌표를 획득한 경우 두 점사이의 이격 거리를 산출하고, 획득된 이격 거리가 파노라마 가이드 지표 사이의 최초 이격 거리와 일정 범위 이내로 차이나는지를 평가할 수 있다.Alternatively, according to some embodiments, the user terminal 100 may compare the separation distance between indicators extracted in step SC1320 with the separation distance between reference guide indicators. For example, when the user terminal 100 acquires the coordinates of the tip of the nose and the coordinates of the chin of a plurality of indicators in step SC1320, the separation distance between the two points is calculated, and the obtained separation distance is the initial separation distance between the panorama guide indicators and It can be evaluated whether the difference is within a certain range.

구체적인 예를 들어, 사용자 단말(100)은 얼굴의 코끝 및 턱끝의 위치를 파노라마 가이드 지표로 추출할 수 있다. 사용자 단말(100)은 파노라마 가이드 지표를 이용하여 생성된 파노라마 가이드를 제공하면서, 파노라마 가이드에 따른 촬영이 수행되고 있는지 모니터링할 수 있다. 사용자 단말(100)은 프리뷰 이미지에 대하여, 얼굴의 코끝 및 턱끝의 위치를 추출하여 이격 거리를 계산하고, 파노라마 가이드 지표 사이의 최초 이격거리와 정해진 오차 범위 미만의 차이를 가지도록 모니터링 할 수 있다.For a specific example, the user terminal 100 may extract positions of the tip of the nose and the tip of the chin of the face as panorama guide indicators. The user terminal 100 may monitor whether shooting according to the panorama guide is being performed while providing the panorama guide generated using the panorama guide indicator. The user terminal 100 may extract the positions of the tip of the nose and the tip of the chin of the face in the preview image to calculate the separation distance, and monitor the difference between the initial separation distance between the panorama guide indicators and a predetermined error range.

사용자 단말(100)은, 정해진 오차범위를 벗어난 것으로 판단되면, 사용자 단말(100)과 얼굴 사이의 거리를 조정하는 가이드를 출력할 수 있다. 구체적으로, 프리뷰 이미지에서 추출된 제1 지점(예를 들어, 턱끝) 및 제2 지점(예를 들어, 코끝) 사이의 세로 방향의 이격 거리가 최초 이격 거리(즉, 정면 이미지(FI)에서의 제1 및 제2 지점에 상응하는 위치)에 비해 정해진 오차범위를 초과할만큼 큰 것으로 판단되면, 사용자 단말(100)은 사용자 단말(100)을 얼굴로부터 멀어지게 이동시키라는 가이드를 출력할 수 있다. 반대로, 프리뷰 이미지에서 추출된 제1 지점 및 제2 지점 사이의 세로 방향의 이격 거리가 최초 이격 거리에 비해 정해진 오차범위를 초과할만큼 작은 것으로 판단되면, 사용자 단말(100)은 사용자 단말(100)을 얼굴에 가까워지게 이동시키라는 가이드를 출력할 수 있다.When it is determined that the user terminal 100 is out of a predetermined error range, the user terminal 100 may output a guide for adjusting the distance between the user terminal 100 and the face. Specifically, the vertical separation distance between the first point (eg, the tip of the chin) and the second point (eg, the tip of the nose) extracted from the preview image is the initial separation distance (ie, in the front image FI). If it is determined that the user terminal 100 is large enough to exceed a predetermined error range compared to the positions corresponding to the first and second points), the user terminal 100 may output a guide instructing the user terminal 100 to move away from the face. . Conversely, when it is determined that the vertical separation distance between the first and second points extracted from the preview image is smaller than the initial separation distance to exceed a predetermined error range, the user terminal 100 returns the user terminal 100 A guide to move closer to the face can be output.

사용자 단말(100)은 측면 이미지(SI)를 획득(SC1400)할 수 있다. 사용자 단말(100)은 제2 촬영 조건을 만족하도록 가이드된 상태에서 측면 이미지(SI)를 획득(SC1400)할 수 있다. The user terminal 100 may acquire the side image SI (SC1400). The user terminal 100 may acquire the side image SI in a guided state to satisfy the second photographing condition (SC1400).

파노라마 가이드 모니터링이 수행되는 환경에서, 사용자 단말(100)이 얼굴의 측면 이미지(SI)를 획득하는 위치로 이동되면 사용자 단말(100)은 측면 이미지(SI)를 획득(SC1400)할 수 있다.In an environment where the panorama guide monitoring is performed, when the user terminal 100 moves to a position where the side image SI of the face is acquired, the user terminal 100 may acquire the side image SI (SC1400).

제2 촬영 조건을 만족하는 것은, 얼굴의 측면임을 인식할 수 있는 지표를 기초로 판단될 수 있다. 또한, 제2 촬영 조건을 만족하는 것은 파노라마 가이드 모니터링을 수행할 때의 기준을 만족하는 것으로 판단될 수 있다.Satisfying the second photographing condition may be determined based on an index capable of recognizing that the side of the face is satisfied. In addition, satisfying the second photographing condition may be determined to satisfy a criterion for performing panorama guide monitoring.

예를 들어, 제2 촬영 조건을 만족하는 것은, 제2 촬영 이미지에서 추출된 제1 지점 및 제2 지점 사이의 세로방향으로의 이격 거리가 최초 이격 거리를 기준으로 정해진 오차범위 미만의 차이를 가지는 것일 수 있다. 제2 촬영 조건을 만족하는 것은, 제2 촬영 이미지에서 추출된 제1 지점 및 제2 지점 사이의 세로방향으로의 이격 거리가 최초 이격 거리를 기준으로 정해진 오차범위 미만의 차이를 가지는 것 및 대상의 귀가 제2 촬영 이미지의 정해진 영역에 배치되는 것을 포함할 수 있다. 제2 촬영 조건을 만족하는 것은, 제2 촬영 이미지에서 추출된 제1 지점 및 제2 지점 사이의 세로방향으로의 이격 거리가 최초 이격 거리를 기준으로 정해진 오차범위 미만의 차이를 가지는 것 및 상기 대상의 한 눈이 제2 촬영 이미지에서 검출되지 않는 것을 포함할 수 있다.For example, satisfying the second photographing condition means that the separation distance in the vertical direction between the first point and the second point extracted from the second photographed image has a difference less than an error range determined based on the initial separation distance. it could be Satisfying the second shooting condition means that the separation distance in the vertical direction between the first and second points extracted from the second shooting image has a difference less than the error range determined based on the initial separation distance and It may include disposing the ear in a predetermined area of the second photographed image. Satisfying the second photographing condition means that the separation distance in the vertical direction between the first and second points extracted from the second photographed image has a difference less than an error range determined based on the initial separation distance and the subject It may include that one eye of is not detected in the second captured image.

도 16은 일 실시예에 따른 정면 이미지 및 측면 이미지를 도시한 도면이다.16 is a diagram illustrating a front image and a side image according to an exemplary embodiment.

본 실시예에 따른 이미지 획득 방법에 따라 획득된 정면 이미지(FI)의 기준 이격 거리(RSD)는 측면 이미지(SI)의 측면 이격 거리(SSD)와 유사한 값을 가진다. 즉, 사용자 단말(100)과 대상 사이의 거리가 정면 이미지(FI) 촬영 시점 및 측면 이미지(SI) 촬영 시점에 일정하게 유지된 상태로 정면 및 측면 이미지(SI)가 획득될 수 있다. The standard separation distance RSD of the front image FI acquired according to the image acquisition method according to the present embodiment has a value similar to the side separation distance SSD of the side image SI. That is, the front and side images SI may be acquired while maintaining a constant distance between the user terminal 100 and the object at the time of capturing the front image FI and the capturing time of the side image SI.

아래에서 설명할 안구 돌출도 분석 방법을 수행하기 위해서는, 실제 거리를 예상할 수 있는 수단이 필요하다. 사람들의 홍채의 지름은 거의 유사한 것으로 밝혀져 있는바, 본 실시예에 따라 정면 및 측면 이미지(SI)를 획득하는 경우에는, 정면 이미지(FI)에서 획득된 홍채의 지름을 기 저장된 길이로 가정하고, 안구 돌출의 정도를 예측할 수 있어, 별도의 절대값 획득 수단 없이 안구 돌출도를 예상할 수 있는 장점이 있다. In order to perform the proptosis analysis method described below, a means capable of estimating the actual distance is required. It has been found that people's iris diameters are almost similar, so when acquiring front and side images SI according to the present embodiment, it is assumed that the diameter of the iris obtained from the front image FI is a pre-stored length, Since the degree of protrusion of the eyeball can be predicted, there is an advantage in that the degree of protrusion of the eyeball can be predicted without a separate absolute value acquisition means.

도 14 내지 16에서 설명한 이미지 획득 방법은, 얼굴의 오른쪽 측면 이미지(SI)를 획득하기 위해 수행될 수 있고, 얼굴의 왼쪽 측면 이미지(SI)를 획득하기 위해 수행될 수 있으며, 얼굴의 왼쪽 및 오른쪽 측면 이미지(SI)를 획득하기 위해 2번 수행될 수 있다.The image acquisition method described in FIGS. 14 to 16 may be performed to acquire an image SI of the right side of the face, may be performed to acquire an image SI of the left side of the face, and left and right sides of the face. It may be performed twice to obtain the lateral image SI.

전술한 이미지 획득 방법을 통해, 얼굴의 정면 이미지(FI) 및 얼굴의 측면 이미지(SI)가 획득될 수 있다. 또는, 전술한 이미지 획득 방법을 통해, 얼굴의 정면 이미지(FI)에 대응되는 프레임, 얼굴의 측면 이미지(SI)에 대응되는 프레임을 포함하는 동영상 이미지가 획득될 수 있다. 이 때, 동영상 이미지는 얼굴의 정면 이미지(FI)가 획득되는 시점부터 얼굴의 측면 이미지(SI)가 획득되는 시점까지 연속적으로 촬영된 동영상 이미지일 수 있다. 또는, 전술한 이미지 획득 방법을 통해, 얼굴의 정면 이미지(FI) 및 얼굴의 측면 이미지(SI)가 포함되도록 편집된 파노라마 이미지가 획득될 수 있다.Through the above-described image acquisition method, a front face image FI and a face side image SI may be obtained. Alternatively, a moving image including a frame corresponding to the front image FI of the face and a frame corresponding to the side image SI of the face may be acquired through the above-described image acquisition method. In this case, the moving image may be a moving image continuously photographed from the point of time when the front image FI of the face is obtained to the point of time when the side image SI of the face is obtained. Alternatively, a panoramic image edited to include the front face image FI and the face side image SI may be acquired through the above-described image acquisition method.

일 실시예에 따르면, 전술한 사용자 단말(100)의 동작은 안병증 관리 서버(200)에 의해 수행될 수 있다. 사용자 단말(100)은 사용자와의 관계에서 데이터를 입력받고 제공하는 인터페이스로 동작할 수 있다. 사용자 단말(100)과 안병증 관리 서버(200)는 실시간으로 연동되고 안병증 관리 서버(200)의 주체적인 동작에 따라 사용자 단말(100)은 적절한 파노라마 가이드를 제공하고, 정면 및 측면 이미지(SI)를 획득하여 안병증 관리 서버(200)로 전송하는 역할을 수행할 수 있다.According to one embodiment, the operation of the user terminal 100 described above may be performed by the ophthalmopathy management server 200 . The user terminal 100 may operate as an interface for receiving and providing data in relation to a user. The user terminal 100 and the ophthalmopathy management server 200 are linked in real time, and according to the subjective operation of the ophthalmopathy management server 200, the user terminal 100 provides an appropriate panoramic guide, and the front and side images (SI ) and transmits them to the ophthalmopathy management server 200.

3.3. 안병증 관리 시스템의 동작 - 이미지 분석 방법Operation of ophthalmopathy management system - image analysis method

(1)(One) 이미지 분석 방법 - 제1 실시예Image Analysis Method - First Embodiment

도 17은 일 실시예에 따른 갑상선 안병증 예측 방법에 관한 순서도이다.17 is a flowchart of a method for predicting thyroid eye disease according to an embodiment.

사용자 단말(100)에서 획득된 이미지는 안병증 관리 서버(200)로 전송될 수 있다. An image obtained from the user terminal 100 may be transmitted to the ophthalmopathy management server 200 .

안병증 관리 서버(200)는 수신된 이미지를 이용하여 이미지 분석을 수행할 수 있다(SA2100). 이미지 분석을 통해 획득되는 값은, 수신된 이미지의 대상인 사람이 결막 충혈, 결막 부종, 눈꺼풀 발적, 눈꺼풀 부종 및 눈물언덕 부종에 대한 증상이 있는지에 관한 예측값일 수 있다. 일 예로, 안병증 관리 서버(200)는 이미지에 대상의 얼굴 이미지가 포함되어 있는 경우, 얼굴 이미지를 분석하여 결막 충혈이 있는 것으로 예상되는지, 결막 부종이 있는 것으로 예상되는지, 눈꺼풀 발적이 있는 것으로 예상되는지, 눈꺼풀 부종이 있는 것으로 예상되는지, 및/또는 눈물언덕 부종이 있는 것으로 예상되는지에 대한 정보를 획득할 수 있다. The ophthalmopathy management server 200 may perform image analysis using the received image (SA2100). The value obtained through image analysis may be a prediction value regarding whether a person who is a subject of the received image has symptoms of conjunctival congestion, conjunctival edema, eyelid redness, eyelid edema, and lacrimal edema. For example, when the image includes a face image of the subject, the ophthalmopathy management server 200 analyzes the face image to determine whether conjunctival congestion is expected, conjunctival edema is expected, or eyelid redness is expected. information about whether the patient has eyelid edema, is expected to have eyelid edema, and/or is expected to have lacrimal edema.

결막 충혈, 결막 부종, 눈꺼풀 발적, 눈꺼풀 부종 및 눈물언덕 부종 중 적어도 하나의 예측값은 인공지능 모델을 통해 획득될 수 있다. 몇몇 실시예에 따르면, 안병증 관리 서버(200)는 적어도 5개의 인공지능 모델을 이용하여 예측값을 획득하고, 각 인공지능 모델은 결막 충혈, 결막 부종, 눈꺼풀 발적, 눈꺼풀 부종 또는 눈물언덕 부종의 예측값을 출력하도록 학습될 수 있다. 이 때, 인공지능 모델의 입력으로 이용되는 이미지는 얼굴 이미지에 크롭, 마스킹, 반전, 및/또는 리사이징 등을 이용하여 전처리된 이미지일 수 있다.A predicted value of at least one of conjunctival congestion, conjunctival edema, eyelid redness, eyelid edema, and lacrimal edema may be obtained through an artificial intelligence model. According to some embodiments, the ophthalmopathy management server 200 obtains a predictive value using at least five artificial intelligence models, and each artificial intelligence model is a predictive value of conjunctival congestion, conjunctival edema, eyelid redness, eyelid edema, or lacrimal edema. It can be learned to output. At this time, the image used as an input of the artificial intelligence model may be an image preprocessed using cropping, masking, inversion, and/or resizing of the face image.

사용자 단말(100)에서 사용자 응답을 안병증 관리 서버(200)로 전송할 수 있다. 사용자 단말(100)은 입/출력 모듈(140)을 통해 구후부의 자발적인 통증이 있는지, 눈을 움직일때의 통증이 있는지에 대한 각각의 사용자 응답을 획득하기 위한 사용자 인터페이스를 출력할 수 있다. 안병증 관리 서버(200)는 수신된 사용자 응답에 기초하여 구후부의 자발적인 통증 및 눈을 움직일 때의 통증에 대한 예측값을 획득할 수 있다. The user terminal 100 may transmit a user response to the ophthalmopathy management server 200 . The user terminal 100 may output a user interface through the input/output module 140 to obtain user responses to whether there is voluntary pain in the back of the mouth or pain when moving the eyes. The ophthalmopathy management server 200 may obtain predicted values for voluntary pain in the posterior part of the mouth and pain when moving the eyes based on the received user response.

안병증 관리 서버(200)는 이미지 분석(SA2100)을 통해 획득한 예측값과, 사용자 응답(SA2200)을 통해 획득한 예측값을 이용하여 안병증 예측 스코어를 계산(SA2300)할 수 있다. 여기서, 안병증 예측 스코어라 함은, 임상활동점수를 안병증 관리 시스템의 이미지 분석 등의 기법으로 예측한 값으로, 결막 충혈, 결막 부종, 눈꺼풀 발적, 눈꺼풀 부종, 눈물언덕 부종, 구부후의 자발적인 통증 및 눈을 움직일 때의 통증 유무를 각각 1점으로 예상하여 산출한 것일 수 있다.The ophthalmopathy management server 200 may calculate an ophthalmopathy prediction score (SA2300) using the predicted value obtained through the image analysis (SA2100) and the predicted value obtained through the user response (SA2200). Here, the ophthalmopathy prediction score is a value predicted by techniques such as image analysis of the ophthalmopathy management system for the clinical activity score, conjunctival congestion, conjunctival edema, eyelid redness, eyelid edema, lacrimal hillock edema, and spontaneous pain after mouth swelling. And it may be calculated by predicting the presence or absence of pain when moving the eyes as 1 point each.

안병증 관리 서버(200)은 안병증 예측 스코어가 기준치 이상인 경우 사용자에 내원을 안내(SA2400)할 수 있다. 서버(200)는 사용자에게 내원을 안내하기 위해 사용자 단말(100)에 안병증 예측 스코어를 제공할 수 있다. 서버(200)은 사용자 단말(100)에서 안병증 예측 스코어 및/또는 내원 안내를 출력할 수 있도록, 필요한 데이터를 전송할 수 있다.The ophthalmopathy management server 200 may guide the user to visit the hospital (SA2400) when the ophthalmopathy prediction score is greater than or equal to a reference value. The server 200 may provide an eye disease prediction score to the user terminal 100 to guide the user to visit the hospital. The server 200 may transmit necessary data so that the user terminal 100 can output an ophthalmopathy prediction score and/or a visit guide.

사용자 단말(100)은 환자가 병원에 가서 치료를 받도록 권유하는 메시지를 출력할 수 있다. 사용자 단말(100)은 환자가 갑상선 안병증 치료에 이용되는 약물을 복용하도록 권유할 수 있다. 이에, 한정되지 않고 사용자 단말(100)은 환자가 갑상선 안병증을 치료하는데에 필요한 절차를 수행하도록 가이드할 수 있다.The user terminal 100 may output a message recommending that the patient go to the hospital and receive treatment. The user terminal 100 may recommend that the patient take a drug used for treatment of thyroid eye disease. Accordingly, without being limited thereto, the user terminal 100 may guide the patient to perform procedures necessary for treating thyroid eye disease.

도 18은 일 실시예에 따른 사용자 단말의 설문 입력 인터페이스 및 확인 인터페이스를 포함하는 디스플레이 화면을 설명하기 위한 도면이다.18 is a diagram for explaining a display screen including a questionnaire input interface and confirmation interface of a user terminal according to an exemplary embodiment.

설문 입력 인터페이스(PII)는 구후부의 자발적인 통증이 있는지, 눈을 움직일때의 통증이 있는지에 대한 각각의 사용자 응답을 획득하기 위한 인터페이스일 수 있다. 일 예로, "눈 뒤쪽에서 앞으로 미는 듯한 통증이 느껴진다" 및 "눈을 위아래로 째려볼 때 뻐근함이 느껴진다"를 출력하고, 그 각각에 대한 사용자의 응답을 입력받기 위한 인터페이스가 사용자 단말(100)의 입/출력 모듈(140)을 통해 제공될 수 있다.The questionnaire input interface (PII) may be an interface for obtaining each user's response to whether there is voluntary pain in the posterior region or pain when moving the eyes. As an example, an interface for outputting “I feel pain as if pushing forward from the back of the eye” and “I feel stiffness when glancing up and down” and receiving a user's response to each of them is of the user terminal 100. It may be provided through the input/output module 140.

사용자 단말(100)을 통해 두 설문에 대한 사용자의 입력이 획득되고, "다음"이 눌러지면, 확인 인터페이스(CI)가 출력될 수 있다. When user inputs for the two questionnaires are obtained through the user terminal 100 and “next” is pressed, a confirmation interface CI may be output.

확인 인터페이스(CI)는 설문 입력 인터페이스(PII)에서 사용자가 선택한 사항들에 대해서 출력하고, 사용자가 의도한 입력과 일치하는지 확인하는 기능을 수행할 수 있다. 설문 입력 인터페이스(PI)에서 얻어지는 사용자의 응답은 안병증을 예측하는데에 이용되기 때문에 중요도가 높고, 이를 사용자에 한번 더 확인하여 정확도 높은 결과를 예측하기 위해 2-STEP의 입력 방식을 채택한 것이다.The confirmation interface (CI) may perform a function of outputting items selected by the user in the survey input interface (PII) and verifying whether the user's intended input matches. The user's response obtained from the questionnaire input interface (PI) is of high importance because it is used to predict eye disease, and the 2-STEP input method is adopted to predict the result with high accuracy by confirming it to the user once more.

같은 이유로, 설문 입력 인터페이스(PII)에서 "눈 뒤쪽에서 앞으로 미는 듯한 통증이 느껴진다" 및 "눈을 위아래로 째려볼 때 뻐근함이 느껴진다" 중 하나의 응답만 획득된 경우에는, "다음" 버튼을 눌러도 확인 인터페이스(CI)로 전환되지 않을 수 있다.For the same reason, if only one response was obtained from the questionnaire input interface (PII) of "I feel a pushing pain from the back of my eye" and "I feel stiff when I glare my eyes up and down", even if I press the "Next" button It may not switch to the Confirmation Interface (CI).

도 19은 일 실시예에 따른 갑상선 안병증 예측을 위한 지표를 설명하기 위한 도면이다.19 is a diagram for explaining an index for predicting thyroid ophthalmopathy according to an embodiment.

다른 실시예에 따르면, 갑상선 안병증을 위한 내원을 안내하는 기준을 임상활동점수를 7점 기준으로 산출하여 3점 이상인지로 판단할 수 있지만, 본 실시예에서는, 갑상선 안병증을 위한 내원을 안내하는 기준을 임상활동점수를 10점 기준으로 산출하여 4점 이상인지로 판단하는 것을 설명한다.According to another embodiment, the criterion for guiding visits for thyroid eye disease can be determined by calculating the clinical activity score based on 7 points and determining whether it is 3 points or more. However, in this embodiment, the guide for visiting the hospital for thyroid eye disease The criterion for determining whether a clinical activity score is 4 or higher by calculating the clinical activity score on a 10-point basis will be explained.

이 때, 안병증 관리 서버(200)는 돌출도를 분석할 수 있고, 안구 운동 각도를 계산할 수 있으며, 예상 시력을 획득할 수 있다.At this time, the ophthalmopathy management server 200 may analyze protrusion, calculate an eye movement angle, and obtain an estimated visual acuity.

돌출도를 분석하는 방법은, 아래의 "이미지 분석 방법 - 제2 실시예"에서 구체적으로 설명하기로 한다.A method of analyzing protrusion will be described in detail in "Image Analysis Method - Second Embodiment" below.

안구 운동은 동영상 이미지를 분석하여 평가될 수 있다. 일 예로, 사용자의 정면 얼굴 이미지를 촬영하면서 사용자의 눈을 8방향으로 움직이도록 가이드를 주고, 최대로 이동한 위치를 기초로 안구 운동 각도를 획득할 수 있다. 안구 운동 각도는, 사람의 안구 및 홍채의 크기가 전반적으로 비슷하다는 학설로부터, 사람의 안구의 지름이나 사람의 홍채의 지름을 상수로 두고 예산치를 계산하는 형태로 산출될 수 있다. 구체적인 예를 들어, 안구의 지름은 24mm, 홍채의 지름은 11mm로 둘 수 있고, 또는 홍채의 지름을 인종, 성별, 나이에 따라 다르게 두고 안구 운동 각도를 계산할 수 있다.Eye movements can be evaluated by analyzing moving images. For example, while taking a frontal face image of the user, guides may be given to move the user's eyes in eight directions, and an eyeball movement angle may be obtained based on the maximum movement position. The eyeball movement angle can be calculated in the form of calculating a budget based on the theory that the size of the human eyeball and the iris are generally similar, with the diameter of the human eyeball or the diameter of the human iris as a constant. For example, the diameter of the eyeball may be 24 mm, the diameter of the iris may be set to 11 mm, or the eyeball movement angle may be calculated with different diameters of the iris depending on race, gender, and age.

예상 시력은 얼굴의 정면 이미지(FI)에서 획득된 홍채의 크기와 홍채의 절대적인 크기를 비교하여 얼굴과 사용자 단말(100) 사이의 거리를 예상하고, 사용자 단말(100)을 통해 출력한 글자를 사용자가 올바르게 답변하지 못한 경우의 크기를 예상된 얼굴과 사용자 단말(100)사이의 거리로 환산하여 시력을 예상할 수 있다. The expected visual acuity compares the size of the iris obtained from the frontal image (FI) of the face with the absolute size of the iris, predicts the distance between the face and the user terminal 100, and converts the letters output through the user terminal 100 to the user. The visual acuity may be estimated by converting the size of the case in which ? is not answered correctly into the distance between the expected face and the user terminal 100 .

또는, 근시, 원시 등의 요소를 배제하기 위해 사용자 단말(100) 및 얼굴 사이의 거리가 3m, 또는 5m 정도가 되도록 두고, 적정 크기의 글자를 디스플레이를 통해 출력하여 그에 대하여 올바르게 답변하였는지를 평가하여 예상 시력을 구할수 있다. 이 때에도, 사용자 단말(100) 및 얼굴 사이의 거리는 얼굴의 정면 이미지(FI)에서 획득된 홍채의 크기를 기준으로 산출될 수 있다.Alternatively, in order to exclude factors such as nearsightedness and hyperopia, the distance between the user terminal 100 and the face is set to 3m or 5m, and letters of an appropriate size are output through the display to evaluate whether or not the user answered correctly. eyesight can be saved. Even in this case, the distance between the user terminal 100 and the face may be calculated based on the size of the iris obtained from the frontal image FI of the face.

(2)(2) 이미지 분석 방법 - 제2 실시예Image Analysis Method - Second Embodiment

도 20은 일 실시예에 따른 얼굴의 측면 이미지를 분석하여 돌출도를 예측하는 방법을 설명하기 위한 도면이다.20 is a diagram for explaining a method of predicting prominence by analyzing a side image of a face, according to an exemplary embodiment.

안병증 관리 서버(200)는 정면 이미지(FI)에서 홍채 영역의 지름값을 획득(SB2310)할 수 있다. 일 예로, 안병증 관리 서버(200)는 얼굴의 정면 이미지(FI)를 랜드마크 추출을 통하여 홍채 영역의 지름에 대응되는 픽셀값을 획득할 수 있다. 다른 예로, 안병증 관리 서버(200)은 얼굴의 정면 이미지(FI) 및 세그먼테이션 모델을 이용하여 홍채 영역의 지름에 대응되는 픽셀값을 획득할 수 있다. 또 다른 예로, 안병증 관리 서버(200)는 얼굴의 정면 이미지(FI)를 홍채 영역의 지름값 예측 모델에 넣어, 대응되는 픽셀값 또는 지름의 예상값을 획득할 수 있다.The ophthalmopathy management server 200 may obtain a diameter value of the iris region from the front image FI (SB2310). For example, the ophthalmopathy management server 200 may obtain a pixel value corresponding to the diameter of the iris region through landmark extraction of the frontal image FI of the face. As another example, the ophthalmopathy management server 200 may obtain a pixel value corresponding to the diameter of the iris region by using the front image FI of the face and the segmentation model. As another example, the ophthalmopathy management server 200 may insert the frontal image FI of the face into a diameter prediction model of the iris region to obtain a corresponding pixel value or diameter prediction value.

안병증 관리 서버(200)가 정면 이미지(FI)에서의 홍채 영역의 지름에 대응되는 픽셀값을 획득한 경우, 홍채 영역의 표준 크기에 기초하여 하나의 픽셀에 대응되는 실제 크기값을 계산하고 이를 저장할 수 있다.When the ophthalmopathy management server 200 acquires a pixel value corresponding to the diameter of the iris region in the frontal image FI, it calculates an actual size value corresponding to one pixel based on the standard size of the iris region and calculates the actual size value. can be saved

안병증 관리 서버(200)는 측면 이미지(SI)에서 눈꼬리-각막 거리값을 획득(SB2320)할 수 있다. 일 예로, 안병증 관리 서버(200)는 정면 이미지(FI)를 세그멘테이션 모델을 이용하여 눈꼬리-각막의 거리에 대응되는 픽셀값을 획득할 수 있다. 다른 예로, 안병증 관리 서버(200)는 얼굴의 측면 이미지(SI)를 눈꼬리-각막의 거리 예측 모델에 넣어, 대응되는 픽셀값 또는 거리의 예상값을 획득할 수 있다.The ophthalmopathy management server 200 may acquire a corner-corneal distance value from the side image SI (SB2320). For example, the ophthalmopathy management server 200 may obtain a pixel value corresponding to the distance between the outer corner of the eye and the cornea of the frontal image FI by using a segmentation model. As another example, the ophthalmopathy management server 200 may obtain a corresponding pixel value or an expected distance value by inserting the lateral image SI of the face into the caudal-corneal distance prediction model.

안병증 관리 서버(200)는 안구의 돌출도를 예측(SB2330)할 수 있다. 안병증 관리 서버(200)는 획득된 눈꼬리-각막의 거리에 대응되는 픽셀값과, 홍채 영역의 표준 크기에 기초하여 산출된 하나의 픽셀의 실제 크기값을 고려하여, 안구의 돌출도를 예측할 수 있다.The ophthalmopathy management server 200 may predict the projection of the eyeball (SB2330). The ophthalmopathy management server 200 may predict the protrusion of the eyeball by considering the acquired pixel value corresponding to the distance between the outer corner of the eye and the cornea and the actual size value of one pixel calculated based on the standard size of the iris region. have.

도 21은 일 실시예에 따른 얼굴의 정면 이미지에서의 홍채 영역의 지름값 및 얼굴의 측면 이미지에서의 안구의 돌출 정도를 설명하기 위한 도면이다.21 is a diagram for explaining a diameter value of an iris region in a front image of a face and a protrusion degree of an eyeball in a side image of a face, according to an exemplary embodiment.

전술한 동작의 SB2310에서는, 얼굴의 정면 이미지(FI)에서의 홍채 영역의 지름값(ID)의 예상 길이를 산출할 수 있다. 전술한 동작의 SB2320에서는, 얼굴의 측면 이미지(SI)에서의 눈꼬리-각막 거리의 예상 길이를 산출할 수 있다. In the SB2310 of the above-described operation, the expected length of the diameter value (ID) of the iris region in the frontal image FI of the face may be calculated. In the SB2320 of the above-described operation, it is possible to calculate the expected length of the caudal-corneal distance in the side image SI of the face.

안병증 관리 서버(200)는 사용자 단말(100)을 통해 얼굴의 측면 사진을 획득된 날짜(및/또는 시간)와 함께 제공할 수 있다. 안병증 관리 서버(200)는 사용자 단말(100)을 통해 사용자가 안구 돌출도의 변화를 확인할 수 있도록, 얼굴의 눈꼬리-각막 거리가 나타나도록 크롭된 이미지와 이미지가 획득된 날짜를 매핑하여 제공할 수 있다.The ophthalmopathy management server 200 may provide the side picture of the face together with the date (and/or time) obtained through the user terminal 100 . The ophthalmopathy management server 200 maps and provides a cropped image and a date on which the image was acquired so that the eyeball-corneal distance of the face is displayed so that the user can check the change in the proptosis of the eyeball through the user terminal 100. can

상기 실시예들에 따른 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 본 발명의 실시예들에서 사용될 수 있는 데이터 구조, 프로그램 명령, 혹은 데이터 파일은 컴퓨터로 읽을 수 있는 기록매체에 다양한 수단을 통하여 기록될 수 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함할 수 있다. 컴퓨터로 읽을 수 있는 기록매체의 예로는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 또한, 컴퓨터로 읽을 수 있는 기록매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 전송 매체일 수도 있다. 프로그램 명령의 예로는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다.The method according to the above embodiments can be written as a program that can be executed on a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium. In addition, the data structure, program command, or data file that can be used in the above-described embodiments of the present invention can be recorded on a computer-readable recording medium through various means. The computer-readable recording medium may include all types of storage devices in which data readable by a computer system is stored. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, floptical disks and A hardware device specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, etc. may be included. Also, the computer-readable recording medium may be a transmission medium that transmits signals designating program commands, data structures, and the like. Examples of the program instructions may include not only machine language codes generated by a compiler but also high-level language codes that can be executed by a computer using an interpreter or the like.

이상과 같이 본 출원의 실시예는 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 명세서에서 개시하는 기술적 사상이나 그 실시예가 상기 설명된 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 출원의 범위(scope)는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 이의 균등 또는 등가적 변형 모두는 본 발명 기술적 사상의 범주에 속한다고 할 것이다.As described above, although the embodiments of the present application have been described with limited embodiments and drawings, the technical idea disclosed in this specification or the embodiments thereof are not limited to the above-described embodiments, which are common in the field to which the present invention belongs. Numerous modifications and variations from these descriptions are possible for those skilled in the art. Therefore, the scope of the present application is shown in the claims rather than the foregoing description, and all equivalent or equivalent modifications thereof will be said to belong to the scope of the technical spirit of the present invention.

10: 안병증 관리 시스템
100: 사용자 단말
200: 안병증 관리 서버
300: 데이터 저장 서버
10: eye disease management system
100: user terminal
200: ophthalmopathy management server
300: data storage server

Claims (17)

안구의 돌출도를 분석하기 위해 제어부에 의해 수행되는 대상의 얼굴 이미지를 획득하는 방법에 있어서,
제1 촬영 조건을 만족하도록 가이드된 상태에서 상기 대상의 얼굴의 정면 이미지를 획득함-상기 제1 촬영 조건을 만족하는 것은, 적어도 상기 대상의 양눈이 제1 촬영 이미지의 정해진 영역에 배치되는 것을 포함함-;
상기 정면 이미지에서 추출된 제1 지점 및 제2 지점의 위치 정보를 기초로 파노라마 가이드를 형성함-상기 파노라마 가이드는 얼굴의 정면을 기준으로 가로 방향으로 형성되며, 상기 제1 지점 및 상기 제2 지점은 얼굴의 정면을 기준으로 세로 방향으로 이격되어 있음-;
상기 파노라마 가이드에 대응되는 프리뷰 이미지가 획득되도록 촬영 장치의 이동을 가이드함-이 때, 상기 프리뷰 이미지에서 추출된 상기 제1 지점 및 상기 제2 지점 사이의 세로 방향의 이격 거리가 최초 이격 거리를 기준으로 정해진 오차범위 미만의 차이를 가지도록 모니터링함-; 및
제2 촬영 조건을 만족하도록 가이드된 상태에서 상기 대상의 얼굴의 측면 이미지를 획득함-상기 제2 촬영 조건은, 상기 제2 촬영 이미지에서 추출된 상기 제1 지점 및 상기 제2 지점 사이의 세로방향으로의 이격 거리가 최초 이격 거리를 기준으로 정해진 오차범위 미만의 차이를 가짐-;을 포함하고,
획득된 이미지가 안구의 돌출도를 계산하는데에 이용될 수 있도록, 상기 제1 촬영 이미지에는 상기 대상의 홍채 영역이 나타나있고, 상기 제2 촬영 이미지에는 상기 대상의 한 눈의 눈꼬리 및 각막이 나타나있는,
이미지를 획득하는 방법.
A method of acquiring a face image of a target performed by a controller to analyze the protrusion of an eyeball,
Obtaining a front image of the subject's face in a guided state to satisfy a first photographing condition - Satisfying the first photographing condition includes placing at least both eyes of the subject in a predetermined area of the first photographing image. box-;
A panorama guide is formed based on location information of a first point and a second point extracted from the frontal image - the panorama guide is formed in a horizontal direction based on the front of the face, and the first point and the second point are formed. are spaced apart in a vertical direction based on the front of the face-;
The movement of the photographing device is guided so that a preview image corresponding to the panorama guide is acquired - at this time, the vertical separation distance between the first and second points extracted from the preview image is based on the initial separation distance. Monitoring to have a difference less than the error range set by -; and
Obtaining a side image of the subject's face in a guided state to satisfy a second shooting condition - The second shooting condition is a vertical direction between the first point and the second point extracted from the second shooting image The separation distance to has a difference less than the error range determined based on the initial separation distance-; Including,
The iris region of the subject is shown in the first shot image, and the corner of the eye and the cornea of one eye of the subject are shown in the second shot image so that the obtained image can be used to calculate the protrusion of the eyeball. ,
How to acquire images.
제1 항에 있어서,
상기 제1 촬영 조건을 만족하는 것은, 적어도 상기 대상의 얼굴의 좌우 회전각도가 기 설정된 제1 기준치를 초과하지 않는 것을 포함하는,
이미지를 획득하는 방법.
According to claim 1,
Satisfying the first photographing condition includes at least a horizontal rotation angle of the subject's face not exceeding a preset first reference value.
How to acquire images.
제2 항에 있어서,
상기 제1 촬영 조건을 만족하는 것은, 적어도 상기 대상의 얼굴 표정 정보에 기초하여 상기 대상의 미소 정도가 기 설정된 제2 기준치를 초과하지 않는 것을 포함하는,
이미지를 획득하는 방법.
According to claim 2,
Satisfying the first photographing condition includes that the degree of smiling of the subject does not exceed a predetermined second reference value based on at least facial expression information of the subject.
How to acquire images.
제3 항에 있어서,
상기 제1 촬영 조건을 만족하는 것은, 적어도 상기 대상의 얼굴의 상하 회전각도가 기 설정된 제3 기준치를 초과하지 않는 것을 포함하는,
이미지를 획득하는 방법.
According to claim 3,
Satisfying the first photographing condition includes at least a vertical rotation angle of the subject's face not exceeding a preset third reference value.
How to acquire images.
제4 항에 있어서,
상기 제1 촬영 조건을 만족하는 것은, 적어도 주변 밝기가 제4 기준치를 초과하지 않는 것을 포함하는,
이미지를 획득하는 방법.
According to claim 4,
Satisfying the first shooting condition includes at least ambient brightness not exceeding a fourth reference value.
How to acquire images.
제1 항에 있어서,
상기 제2 촬영 조건을 만족하는 것은, 적어도 상기 대상의 귀가 제2 촬영 이미지의 정해진 영역에 배치되는 것을 포함하는,
이미지를 획득하는 방법.
According to claim 1,
Satisfying the second shooting condition includes at least the ear of the subject being disposed in a predetermined area of the second shooting image.
How to acquire images.
제1 항에 있어서,
상기 제1 지점은 코의 끝 점이고, 상기 제2 지점은 얼굴의 외곽선 중 턱측 끝점인,
이미지를 획득하는 방법.
According to claim 1,
The first point is the end point of the nose, and the second point is the end point of the chin side of the outline of the face.
How to acquire images.
제1 항에 있어서,
상기 파노라마 가이드에 대응되는 프리뷰 이미지가 획득되도록 촬영 장치의 이동을 가이드함은,
기설정된 프레임 레이트에 따라 프리뷰 이미지를 획득함,
획득된 프리뷰 이미지에서 추출된 상기 제1 지점 및 상기 제2 지점 사이의 세로 방향의 이격 거리가 최초 이격 거리를 기준으로 정해진 오차범위 미만의 차이를 가지는지 판단함,
정해진 오차범위를 벗어난 것으로 판단되면, 촬영 장치와 얼굴 사이의 거리를 조정하는 가이드를 출력함을 포함하는,
이미지를 획득하는 방법.
According to claim 1,
Guiding the movement of the photographing device so that a preview image corresponding to the panorama guide is obtained,
Acquiring a preview image according to a preset frame rate;
Determining whether a vertical separation distance between the first and second points extracted from the obtained preview image has a difference less than a predetermined error range based on the initial separation distance;
Including outputting a guide for adjusting the distance between the photographing device and the face when it is determined that it is out of the predetermined error range,
How to acquire images.
제8 항에 있어서,
정해진 오차범위를 벗어난 것으로 판단되면, 촬영 장치와 얼굴 사이의 거리를 조정하는 가이드를 출력함은,
획득된 프리뷰 이미지에서 추출된 상기 제1 지점 및 상기 제2 지점 사이의 세로 방향의 이격 거리가 최초 이격 거리에 비해 정해진 오차범위를 초과할만큼 큰 것으로 판단되면, 촬영 장치를 얼굴로부터 멀어지게 이동시키라는 가이드를 출력하고,
획득된 프리뷰 이미지에서 추출된 상기 제1 지점 및 상기 제2 지점 사이의 세로 방향의 이격 거리가 최초 이격 거리에 비해 정해진 오차범위를 초과할만큼 작은 것으로 판단되면, 촬영 장치를 얼굴에 가까워지게 이동시키라는 가이드를 출력하는,
이미지를 획득하는 방법.
According to claim 8,
If it is determined that it is out of the set error range, outputting a guide for adjusting the distance between the photographing device and the face,
When it is determined that the vertical separation distance between the first and second points extracted from the obtained preview image is greater than the initial separation distance to exceed a predetermined error range, move the photographing device away from the face. outputs a guide,
When it is determined that the vertical separation distance between the first and second points extracted from the obtained preview image is smaller than the initial separation distance to exceed a predetermined error range, move the photographing device closer to the face. which outputs the guide,
How to acquire images.
제8 항에 있어서,
상기 파노라마 가이드에 대응되는 프리뷰 이미지가 획득되도록 촬영 장치의 이동을 가이드함은,
획득된 프리뷰 이미지에서 추출된 상기 제1 지점의 위치가 정면 이미지에서 추출된 제1 지점의 위치에 비해 제5 기준치 미만으로 이동되었는지 판단함,
획득된 프리뷰 이미지에서 추출된 상기 제1 지점의 위치가 정면 이미지에서 추출된 제1 지점의 위치에 비해 제5 기준치를 초과할만큼 이동된 것으로 판단되면, 촬영 장치를 얼굴에 비하여 위쪽 또는 아래쪽으로 이동시키라는 가이드를 출력하는,
이미지를 획득하는 방법.
According to claim 8,
Guiding the movement of the photographing device so that a preview image corresponding to the panorama guide is obtained,
Determining whether the position of the first point extracted from the obtained preview image is moved less than a fifth reference value compared to the position of the first point extracted from the front image;
When it is determined that the position of the first point extracted from the obtained preview image is moved by an amount exceeding the fifth reference value compared to the position of the first point extracted from the front image, the photographing device is moved upward or downward relative to the face. Shikira outputs a guide,
How to acquire images.
제10 항에 있어서,
파노라마 가이드에 대응되는 프리뷰 이미지가 획득되도록 촬영 장치의 이동을 가이드함은,
획득된 프리뷰 이미지에서 추출된 상기 제2 지점의 위치가 정면 이미지에서 추출된 제2 지점의 위치에 비해 제6 기준치 미만으로 이동되었는지 판단함,
획득된 프리뷰 이미지에서 추출된 상기 제2 지점의 위치가 정면 이미지에서 추출된 제2 지점의 위치에 비해 제6 기준치를 초과할만큼 이동된 것으로 판단되면, 촬영 장치를 얼굴에 비하여 위쪽 또는 아래쪽으로 이동시키라는 가이드를 출력하는,
이미지를 획득하는 방법.
According to claim 10,
Guiding the movement of the photographing device so that a preview image corresponding to the panorama guide is obtained,
Determining whether the position of the second point extracted from the obtained preview image is moved less than a sixth reference value compared to the position of the second point extracted from the front image;
When it is determined that the position of the second point extracted from the obtained preview image is moved by an amount exceeding the sixth reference value compared to the position of the second point extracted from the front image, the photographing device is moved upward or downward relative to the face. Shikira outputs a guide,
How to acquire images.
제1 항에 있어서,
파노라마 가이드에 대응되는 프리뷰 이미지가 획득되도록 촬영 장치의 이동을 가이드할 때, 적어도 일부의 프리뷰 이미지는 제3 촬영 이미지로 획득되고,
상기 제1 촬영 이미지, 상기 제2 촬영 이미지 및 상기 제3 촬영 이미지는 파노라마 이미지로 편집되어 저장되는,
이미지를 획득하는 방법.
According to claim 1,
When the motion of the photographing device is guided so that a preview image corresponding to the panorama guide is acquired, at least some of the preview images are acquired as third photographed images;
The first captured image, the second captured image, and the third captured image are edited and stored as a panoramic image.
How to acquire images.
제1 항에 있어서,
상기 제1 촬영 이미지가 획득되는 시점부터 상기 제2 촬영 이미지가 획득되는 시점까지 연속적으로 이미지를 획득하여 동영상 이미지가 저장되는,
이미지를 획득하는 방법.
According to claim 1,
Moving images are stored by continuously acquiring images from the time the first captured image is acquired to the time the second captured image is acquired.
How to acquire images.
제1 항에 있어서,
상기 제2 촬영 조건을 만족하는 것은, 적어도 상기 대상의 한 눈이 제2 촬영 이미지에서 검출되지 않는 것을 포함하는,
이미지를 획득하는 방법.
According to claim 1,
Satisfying the second shooting condition includes that at least one eye of the subject is not detected in the second shooting image.
How to acquire images.
제1 항에 따른 이미지 획득 방법을 수행하여 획득된 이미지의 분석 방법에 있어서,
상기 제1 촬영 이미지에서 검출된 홍채 영역의 지름값을 획득함;
상기 제2 촬영 이미지에서 검출된 눈꼬리와, 눈꼬리로부터 가장 먼곳에 위치하는 각막 사이의 거리값을 획득함;
상기 거리값과 상기 지름값의 비율을 구하고, 상기 홍채 영역의 고유값을 반영하여 상기 거리값을 예측함으로써 상기 안구의 돌출도를 획득함;을 포함하는,
이미지의 분석 방법.
In the method of analyzing an image acquired by performing the image acquisition method according to claim 1,
obtaining a diameter value of the iris region detected in the first captured image;
obtaining a distance value between the tail of the eye detected in the second photographed image and the cornea located farthest from the tail of the eye;
Obtaining the projection of the eyeball by obtaining a ratio between the distance value and the diameter value and predicting the distance value by reflecting the eigenvalue of the iris region;
How to analyze images.
하나 이상의 인스트럭션을 저장하는 비일시적 컴퓨터 판독 가능 매체로써, 상기 하나 이상의 인스트럭션은, 컴퓨팅 장치의 하나 이상의 프로세서들에 의해 실행될 때, 상기 컴퓨팅 장치로 하여금, 제1 항 내지 제15 항 중 어느 하나의 항에 따른 방법을 수행하게 하는 비일시적 컴퓨터 판독 가능 매체.
A non-transitory computer-readable medium storing one or more instructions, which, when executed by one or more processors of a computing device, cause the computing device to: A non-transitory computer readable medium for performing a method according to.
안구의 돌출도를 분석하기 위해 대상의 얼굴 이미지를 획득하는 촬영 장치에 있어서,
통신부;
하나 이상의 인스트럭션을 저장하는 저장부; 및
상기 저장부에 저장된 상기 하나 이상의 인스트럭션을 실행하는 제어부를 포함하고,
상기 제어부는, 상기 하나 이상의 인스트럭션을 실행함으로써,
제1 촬영 조건을 만족하도록 가이드된 상태에서 상기 대상의 얼굴의 정면 이미지를 획득하고
상기 정면 이미지에서 추출된 제1 지점 및 제2 지점의 위치 정보를 기초로 파노라마 가이드를 형성하고,
파노라마 가이드에 대응되는 프리뷰 이미지가 획득되도록 촬영 장치의 이동을 가이드하고,
제2 촬영 조건을 만족하도록 가이드된 상태에서 상기 대상의 얼굴의 측면 이미지를 획득하고,
상기 제1 촬영 조건은, 적어도 상기 대상의 양눈이 제1 촬영 이미지의 정해진 영역에 배치되는 것을 포함하고,
상기 파노라마 가이드는 얼굴의 정면을 기준으로 가로 방향으로 형성되며, 제1 지점 및 상기 제2 지점은 얼굴의 정면을 기준으로 세로 방향으로 이격되어 있으며,
상기 제2 촬영 조건은, 적어도 상기 제2 촬영 이미지에서 추출된 상기 제1 지점 및 상기 제2 지점 사이의 세로방향으로의 이격 거리가 최초 이격 거리를 기준으로 정해진 오차범위 미만의 차이를 가지는,
촬영 장치.
A photographing device for acquiring an image of a face of a target in order to analyze the protrusion of the eyeball,
communications department;
a storage unit for storing one or more instructions; and
And a control unit for executing the one or more instructions stored in the storage unit,
The controller, by executing the one or more instructions,
Obtaining a frontal image of the subject's face in a guided state to satisfy a first shooting condition;
Forming a panorama guide based on location information of a first point and a second point extracted from the front image;
Guide the movement of the photographing device so that a preview image corresponding to the panorama guide is acquired;
Obtaining a side image of the subject's face in a guided state to satisfy a second shooting condition;
The first photographing condition includes that at least both eyes of the subject are disposed in a predetermined area of a first photographed image,
The panoramic guide is formed in a horizontal direction based on the front of the face, and the first point and the second point are spaced apart in the vertical direction based on the front of the face,
In the second shooting condition, a separation distance in the vertical direction between the first and second points extracted from at least the second shooting image has a difference less than an error range determined based on the initial separation distance,
filming device.
KR1020220078867A 2021-06-30 2022-06-28 A method, an imaging device and a recording medium for acquiring a lateral image for eye protrusion analysis KR102477699B1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020220078867A KR102477699B1 (en) 2022-06-28 2022-06-28 A method, an imaging device and a recording medium for acquiring a lateral image for eye protrusion analysis
PCT/KR2022/009259 WO2023277548A1 (en) 2021-06-30 2022-06-28 Method for acquiring side image for eye protrusion analysis, image capture device for performing same, and recording medium
US17/951,681 US11717160B2 (en) 2021-06-30 2022-09-23 Method and photographing device for acquiring side image for ocular proptosis degree analysis, and recording medium therefor
KR1020220171092A KR20240002133A (en) 2022-06-28 2022-12-09 A method, an imaging device and a recording medium for acquiring a lateral image for eye protrusion analysis
US18/209,604 US20230337913A1 (en) 2021-06-30 2023-06-14 Method and photographing device for acquiring side image for ocular proptosis degree analysis, and recording medium therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220078867A KR102477699B1 (en) 2022-06-28 2022-06-28 A method, an imaging device and a recording medium for acquiring a lateral image for eye protrusion analysis

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220171092A Division KR20240002133A (en) 2022-06-28 2022-12-09 A method, an imaging device and a recording medium for acquiring a lateral image for eye protrusion analysis

Publications (1)

Publication Number Publication Date
KR102477699B1 true KR102477699B1 (en) 2022-12-14

Family

ID=84438549

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020220078867A KR102477699B1 (en) 2021-06-30 2022-06-28 A method, an imaging device and a recording medium for acquiring a lateral image for eye protrusion analysis
KR1020220171092A KR20240002133A (en) 2022-06-28 2022-12-09 A method, an imaging device and a recording medium for acquiring a lateral image for eye protrusion analysis

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220171092A KR20240002133A (en) 2022-06-28 2022-12-09 A method, an imaging device and a recording medium for acquiring a lateral image for eye protrusion analysis

Country Status (1)

Country Link
KR (2) KR102477699B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018099174A (en) * 2016-12-19 2018-06-28 国立大学法人静岡大学 Pupil detector and pupil detection method
KR20200133923A (en) * 2019-05-21 2020-12-01 (의) 삼성의료재단 Method and system for monitoring related disease using face perception of mobile phone

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018099174A (en) * 2016-12-19 2018-06-28 国立大学法人静岡大学 Pupil detector and pupil detection method
KR20200133923A (en) * 2019-05-21 2020-12-01 (의) 삼성의료재단 Method and system for monitoring related disease using face perception of mobile phone

Also Published As

Publication number Publication date
KR20240002133A (en) 2024-01-04

Similar Documents

Publication Publication Date Title
EP4134981A1 (en) Method for acquiring side image for eye protrusion analysis, image capture device for performing same, and recording medium
JP7420183B2 (en) Authentication system
US11961620B2 (en) Method and apparatus for determining health status
EP2515206B1 (en) User interface apparatus and input method
KR102092931B1 (en) Method for eye-tracking and user terminal for executing the same
CN111507176B (en) Posture estimation device, action estimation device, recording medium, and posture estimation method
US10841501B2 (en) Photographing control apparatus and photographing control method
EP3651457B1 (en) Pupillary distance measurement method, wearable eye equipment and storage medium
US9408562B2 (en) Pet medical checkup device, pet medical checkup method, and non-transitory computer readable recording medium storing program
JP2022527007A (en) Auxiliary imaging device, control method and device for analysis of movement disorder disease
JP2020120908A (en) Mental state estimation system, mental state estimation method, and program
US20230337913A1 (en) Method and photographing device for acquiring side image for ocular proptosis degree analysis, and recording medium therefor
KR102657095B1 (en) Method and device for providing alopecia information
JP2018007792A (en) Expression recognition diagnosis support device
KR102459723B1 (en) Method for verification of image, diagnostic system performing the same and computer-readable recording medium on which the method of performing the same
Healy et al. Detecting demeanor for healthcare with machine learning
KR102477699B1 (en) A method, an imaging device and a recording medium for acquiring a lateral image for eye protrusion analysis
US20230284968A1 (en) System and method for automatic personalized assessment of human body surface conditions
KR102477694B1 (en) A method for guiding a visit to a hospital for treatment of active thyroid-associated ophthalmopathy and a system for performing the same
JP7453192B2 (en) Mobile device, program and method for presenting information based on object recognition according to user's dynamic state
WO2023037348A1 (en) System and method for monitoring human-device interactions
KR100686517B1 (en) Method For Modeling Pupil Shape
JP2024522469A (en) Method for clinic visit guidance for medical treatment of active thyroid eye disease and system for carrying out same
US11972603B2 (en) Image verification method, diagnostic system performing same, and computer-readable recording medium having the method recorded thereon
Bačić et al. Towards Real-Time Drowsiness Detection for Elderly Care

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant