WO2023234758A1 - 인공지능 모델을 이용하여 손톱을 분석하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 - Google Patents

인공지능 모델을 이용하여 손톱을 분석하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 Download PDF

Info

Publication number
WO2023234758A1
WO2023234758A1 PCT/KR2023/007663 KR2023007663W WO2023234758A1 WO 2023234758 A1 WO2023234758 A1 WO 2023234758A1 KR 2023007663 W KR2023007663 W KR 2023007663W WO 2023234758 A1 WO2023234758 A1 WO 2023234758A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
fingernail
finger
model
present
Prior art date
Application number
PCT/KR2023/007663
Other languages
English (en)
French (fr)
Inventor
박영준
박두석
Original Assignee
주식회사 링커버스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220125782A external-priority patent/KR20230168095A/ko
Application filed by 주식회사 링커버스 filed Critical 주식회사 링커버스
Publication of WO2023234758A1 publication Critical patent/WO2023234758A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • the present invention relates to a method, system, and non-transitory computer-readable recording medium for analyzing fingernails using an artificial intelligence model.
  • the present inventor(s) have developed a technology to accurately and easily determine or diagnose a person's health status using images taken of fingernails.
  • the purpose of the present invention is to solve all the problems of the prior art described above.
  • the present invention recognizes at least one nail by type from a captured image using a recognition model, and inputs the image corresponding to the recognized at least one nail into an analysis model, thereby identifying the nail using an artificial intelligence model. Another purpose is to analyze and further determine or diagnose the health status of the subject being measured.
  • a representative configuration of the present invention to achieve the above object is as follows.
  • a method for analyzing fingernails using an artificial intelligence model comprising: recognizing at least one nail by type from a captured image using a recognition model; and attaching a fingernail to the recognized at least one nail.
  • a method is provided that includes inputting a corresponding image into an analysis model.
  • a system for analyzing nails using an artificial intelligence model comprising: a recognition management unit that recognizes at least one nail by type from a captured image using a recognition model; and the recognized at least one nail.
  • a system including an analysis management unit that inputs images corresponding to an analysis model is provided.
  • the present invention it is possible to determine or diagnose the health status of a subject using fingernail images that can be easily captured on a daily basis.
  • nails can be accurately recognized by type in an image using a recognition model learned separately for each type of nail, so the characteristics or changes that appear in the nail can be analyzed for each nail, and furthermore, the nail image It is possible to increase the accuracy of the health status analysis model using .
  • a health status analysis model can be learned using time series data captured at multiple viewpoints, so changes in the health status of the subject are tracked based on changes appearing in the nail image, and the changes are derived from the changes. It is possible to determine or diagnose the health status of the person being measured.
  • Figure 1 is a diagram showing the schematic configuration of an entire system for analyzing fingernails using an artificial intelligence model according to an embodiment of the present invention.
  • Figure 2 is a diagram illustrating in detail the internal configuration of an analysis system according to an embodiment of the present invention.
  • Figure 3 is a diagram illustrating a situation in which a hand (nail) image is captured according to an embodiment of the present invention.
  • Figure 4 is a diagram illustrating a situation in which fingernails are recognized in an image of a hand according to an embodiment of the present invention.
  • control unit 240 control unit
  • Figure 1 is a diagram showing the schematic configuration of an entire system for analyzing fingernails using an artificial intelligence model according to an embodiment of the present invention.
  • the entire system may include a communication network 100, an analysis system 200, and a device 300.
  • the communication network 100 can be configured regardless of communication mode, such as wired communication or wireless communication, and can be used as a local area network (LAN) or a metropolitan area network (MAN). It can be composed of various communication networks such as (Network) and Wide Area Network (WAN).
  • the communication network 100 referred to in this specification may be the known Internet or World Wide Web (WWW).
  • WWW World Wide Web
  • the communication network 100 is not necessarily limited thereto and may include at least a portion of a known wired or wireless data communication network, a known telephone network, or a known wired or wireless television communication network.
  • the communication network 100 is a wireless data communication network, including radio frequency (RF) communication, WiFi communication, cellular (LTE, etc.) communication, and Bluetooth communication (more specifically, low-power Bluetooth (BLE) communication. ; Bluetooth Low Energy)), infrared communication, ultrasonic communication, etc. may be implemented at least in part.
  • RF radio frequency
  • WiFi WiFi communication
  • cellular LTE, etc.
  • Bluetooth communication more specifically, low-power Bluetooth (BLE) communication. ; Bluetooth Low Energy)
  • infrared communication ultrasonic communication, etc.
  • ultrasonic communication etc.
  • the analysis system 200 recognizes at least one nail by type from the captured image using a recognition model, and uses the image corresponding to the recognized at least one nail as an analysis model.
  • an artificial intelligence model By inputting the fingernails using an artificial intelligence model, it is possible to perform the function of determining or diagnosing the health status of the subject being measured.
  • the device 300 is a digital device that includes a function that can communicate after connecting to the analysis system 200, such as a smartphone, tablet, smart watch, smart patch, or smart device.
  • a digital device equipped with a memory means and equipped with a microprocessor, such as a band, smart glass, desktop computer, laptop computer, workstation, PDA, web pad, mobile phone, etc., and has computing power can be used as the device 300 according to the present invention. It can be adopted as.
  • the device 300 according to an embodiment of the present invention may be a digital device in the form of a kiosk that can be installed in a place where people regularly visit, such as a business or nail salon.
  • the device 300 may include a sensing means (eg, a camera, etc.) for obtaining an image of the body (nails, face, etc.) of the person being measured.
  • a sensing means eg, a camera, etc.
  • the device 300 may include an application (not shown) that supports a user to receive a service according to the present invention from the analysis system 200.
  • an application may be downloaded from the analysis system 200 or an external application distribution server (not shown).
  • the nature of this application may be generally similar to the recognition management unit 210, analysis management unit 220, communication unit 230, and control unit 240 of the analysis system 200, which will be described later.
  • at least part of the application may be replaced with a hardware device or firmware device that can perform substantially the same or equivalent functions as necessary.
  • FIG. 2 is a diagram illustrating in detail the internal configuration of the analysis system 200 according to an embodiment of the present invention.
  • the analysis system 200 may include a recognition management unit 210, an analysis management unit 220, a communication unit 230, and a control unit 240.
  • the recognition management unit 210, analysis management unit 220, communication unit 230, and control unit 240 of the analysis system 200 are connected to an external system (not shown). It may be a program module that communicates with.
  • These program modules may be included in the analysis system 200 in the form of an operating system, application program module, or other program module, and may be physically stored in various known storage devices. Additionally, these program modules may be stored in a remote memory device capable of communicating with the analysis system 200. Meanwhile, such program modules include, but are not limited to, routines, subroutines, programs, objects, components, data structures, etc. that perform specific tasks or execute specific abstract data types according to the present invention.
  • analysis system 200 has been described as above, this description is illustrative and at least some of the components or functions of the analysis system 200 may be stored in the device 300 or server (not shown) as needed. It is obvious to those skilled in the art that it may be realized in or included in an external system (not shown).
  • the recognition management unit 210 may recognize at least one fingernail by type from a captured image using a recognition model.
  • images of the hands (nails) of a person being measured can be collected through a photography device provided at home, a nail salon, a hospital, a pharmacy, etc., and the image data collected in this way is It may be stored in association with the identification information or account information of the person being measured.
  • Figure 3 is a diagram illustrating a situation in which a hand (nail) image is captured according to an embodiment of the present invention.
  • Figure 4 is a diagram illustrating a situation in which fingernails are recognized in an image of a hand according to an embodiment of the present invention.
  • an image of a hand may be captured multiple times over multiple viewpoints, and the images collected by being photographed over multiple viewpoints for a specific subject may be time series data. It can be stored as and used in the recognition model and analysis model described later.
  • the recognition model according to an embodiment of the present invention may include a Convolutional Neural Network (CNN) model, a Recurrent Neural Network (RNN) model, a Deep Belief Network (DBN) model, or an artificial neural network model combining the above models.
  • CNN Convolutional Neural Network
  • RNN Recurrent Neural Network
  • DNN Deep Belief Network
  • the artificial neural network model according to an embodiment of the present invention is not limited to those listed above, and may be changed in various ways within the scope of achieving the purpose of the present invention.
  • the recognition model according to an embodiment of the present invention may be an artificial intelligence model specialized for object detection and recognition, such as YOLOv5.
  • the recognition model can be learned to recognize fingernails separately for each finger type, and for this purpose, the fingernail images constituting the learning data can be constructed separately for each finger type.
  • the recognition model can recognize the fingernails of each of the five fingers separately in the hand image, thereby eliminating the need to separately photograph or recognize the fingernails for each finger.
  • the recognition model is learned based on first learning data including data about at least one of finger shape, finger position, finger length, finger thickness, fingernail shape, fingernail position, and finger joint wrinkles. It can be. Additionally, not only data collected from the general public but also data collected from people with diseases may be included in the first learning data.
  • the recognition management unit 210 may specify the thumb with reference to the shape and location of the thumb that is significantly differentiated from other fingers, and may specify the thumb, such as a nail detected in the thumb portion.
  • the recognition model can be trained so that it can accurately recognize the thumb nail.
  • the recognition management unit 210 may collect a large number of fingernail images labeled for each finger and learn a recognition model using data about the shape of the fingernail appearing in the fingernail images. there is.
  • the recognition management unit 210 uses the index finger, middle finger, ring finger, and small finger in that order based on the location of the thumb and whether it is left or right hand, which is relatively easily recognized in the hand image. It can be recognized as it is, and the nail part of each finger can be recognized by further referring to the joint position of each finger, and the recognition model can be retrained using the nail images recognized and collected.
  • the recognition management unit 210 can recognize the fingernail part from the hand image by referring to data about the length and thickness of the finger, and the state in which the subject is measuring with his or her hand open. It is possible to determine whether a person is in a state of being aware or holding a hand, and apply different recognition standards based on the length and thickness of the fingers depending on the state. And, the recognition model can be retrained using the fingernail images recognized and collected in this way.
  • an image corresponding to at least one fingernail recognized by the above recognition model may be input into the analysis model.
  • the analysis model according to an embodiment of the present invention can output data related to the determination or diagnosis of the health status of the subject using an image of the subject's fingernails.
  • the analysis model according to an embodiment of the present invention includes a Convolutional Neural Network (CNN) model, a Recurrent Neural Network (RNN) model, a Deep Belief Network (DBN) model, or an artificial neural network model combining the above models. You can.
  • the artificial neural network model according to an embodiment of the present invention is not limited to those listed above, and may be changed in various ways within the scope of achieving the purpose of the present invention.
  • the analysis model may be learned based on second learning data including images of the fingernails of the subject and data on the health status of the subject.
  • the color of the fingernail meniscus of a subject may have a significant correlation with the subject's health status, and an analysis model may be learned based on learning data supporting this correlation.
  • the training data supports the association between blue nail meniscus color and the health condition silver poisoning, and the training data supporting the association between red nail meniscus color and the health condition heart failure.
  • An example would be training data that supports the association between the color of the fingernail meniscus being yellow and the state of health being on antibiotics.
  • the analysis model includes data on at least one of the image of the subject's fingernails, images of other body parts of the subject, the health status of the subject, and the surrounding environment of the subject. It may be learned based on second learning data included.
  • an analysis model is learned by complexly using highly correlated data such as images of the subject's fingernails, images of other body parts of the subject, the health status of the subject, and the surrounding environment of the subject. By doing so, both the accuracy and reliability of the analysis model can be improved.
  • the second learning data used to learn the analysis model may include time series data collected at at least two points in time, and the analysis model may be learned based on the time series data. Therefore, the analysis model according to the present invention can determine or diagnose changes in the health status of the subject that appears over time.
  • the analysis model determines the health status of a specific subject by referring to at least one of images of nails collected for a specific subject and images of other body parts of the subject. You can output related data.
  • an analysis model is learned based on learning data that supports the fact that a round face and round hands are associated with good health.
  • the analysis model according to an embodiment of the present invention can output a determination or diagnosis result to the effect that the subject has a lung or kidney abnormality.
  • the analysis model according to an embodiment of the present invention can track changes in the health status of the subject over time by analyzing time series data.
  • the jaw line, cheek angle, and eyebrow bone protrusion shown in the face data can be quantified, and the plumpness and joint bone protrusion shown in the hand data can also be quantified.
  • the analysis model in response to features indicating jaundice symptoms being detected in the subject's face data and features indicating terry nails being detected in the subject's fingernail data, the analysis model according to an embodiment of the present invention is used to determine whether the subject is being measured. It is possible to output a determination or diagnosis result indicating that the patient may have a liver disease such as cirrhosis.
  • the analysis system 200 can be used in all situations where it is necessary to routinely determine or diagnose a person's health condition.
  • the analysis system 200 is applied to a workplace where a chemically hazardous environment exists.
  • hand images including fingernails can be periodically captured for workers working at the relevant workplace, and fingernails can be recognized and analyzed from the captured images.
  • a notification to the effect that the workplace environment is likely to be highly hazardous can be provided;
  • a notification may be provided to encourage the worker to undergo a health examination.
  • the analysis system 200 is applied to a nail salon.
  • hand images including fingernails can be captured at regular intervals for customers visiting the nail salon, and fingernails can be recognized and analyzed from the captured images.
  • a notification recommending that the customer not receive nail art treatment may be provided. This is because nails with nail art cannot be used to determine or diagnose health status. By doing this, the customer can be encouraged to continuously receive health status analysis services based on nail analysis.
  • the communication unit 230 may perform a function that enables data transmission and reception to/from the recognition management unit 210 and the analysis management unit 220.
  • control unit 240 may perform a function of controlling the flow of data between the recognition management unit 210, the analysis management unit 220, and the communication unit 230. That is, the control unit 240 according to the present invention controls the data flow to/from the outside of the analysis system 200 or the data flow between each component of the analysis system 200, thereby controlling the recognition management unit 210, the analysis management unit ( 220) and the communication unit 230 can each be controlled to perform their own functions.
  • the embodiments according to the present invention described above can be implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium.
  • the computer-readable recording medium may include program instructions, data files, data structures, etc., singly or in combination.
  • Program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention, or may be known and usable by those skilled in the computer software field.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. medium), and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc.
  • Examples of program instructions include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • a hardware device can be converted into one or more software modules to perform processing according to the invention and vice versa.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Primary Health Care (AREA)
  • Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Molecular Biology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Dentistry (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명의 일 태양에 따르면, 인공지능 모델을 이용하여 손톱을 분석하기 위한 방법으로서, 인식 모델을 이용하여 촬영 이미지로부터 적어도 하나의 손톱을 종류별로 인식하는 단계, 및 상기 인식된 적어도 하나의 손톱에 해당하는 이미지를 분석 모델에 입력하는 단계를 포함하는 방법이 제공된다.

Description

인공지능 모델을 이용하여 손톱을 분석하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
본 발명은 인공지능 모델을 이용하여 손톱을 분석하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체에 관한 것이다.
IT 기술이 발달함에 따라 헬스케어 분야에서도 많은 변화가 일어나고 있다. 특히, 혈액, 유전자 등 바이오마커를 이용하거나 MRI 등 번거로운 촬영 수단을 이용하여 사람의 건강 상태를 분석하는 전통적인 방법에서 벗어나 일상적으로 수집할 수 있는 데이터를 이용하여 사람의 건강 상태를 판별 또는 진단하려는 시도가 이루어지고 있다.
일 예로서, 눈, 입술, 피부 등 신체 부위를 촬영한 이미지를 인공 신경망 등 인공지능 모델을 이용하여 분석함으로써 사람의 건강 상태를 판별 또는 진단하려는 기술이 다수 소개되었다. 하지만, 일상 생활 중에 통제되지 않은 환경에서 촬영되는 이미지는 품질과 형식이 제각각이어서 분석하기가 어렵다는 한계가 있었고, 신체 부위에서 나타나는 특징이나 변화가 사람마다 달라서 특정인의 건강 상태를 정확하게 진단하기가 어렵다는 한계도 있었다.
이에, 본 발명자(들)는, 손톱을 촬영한 이미지를 이용하여 정확하고도 간편하게 사람의 건강 상태를 판별 또는 진단하는 기술을 개발하기에 이르렀다.
본 발명은 전술한 종래 기술의 문제점을 모두 해결하는 것을 그 목적으로 한다.
또한, 본 발명은, 인식 모델을 이용하여 촬영 이미지로부터 적어도 하나의 손톱을 종류별로 인식하고, 위 인식된 적어도 하나의 손톱에 해당하는 이미지를 분석 모델에 입력함으로써, 인공지능 모델을 이용하여 손톱을 분석하고 나아가 피측정자의 건강 상태를 판별 또는 진단할 수 있도록 하는 것을 다른 목적으로 한다.
상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.
본 발명의 일 태양에 따르면, 인공지능 모델을 이용하여 손톱을 분석하기 위한 방법으로서, 인식 모델을 이용하여 촬영 이미지로부터 적어도 하나의 손톱을 종류별로 인식하는 단계, 및 상기 인식된 적어도 하나의 손톱에 해당하는 이미지를 분석 모델에 입력하는 단계를 포함하는 방법이 제공된다.
본 발명의 다른 태양에 따르면, 인공지능 모델을 이용하여 손톱을 분석하기 위한 시스템으로서, 인식 모델을 이용하여 촬영 이미지로부터 적어도 하나의 손톱을 종류별로 인식하는 인식 관리부, 및 상기 인식된 적어도 하나의 손톱에 해당하는 이미지를 분석 모델에 입력하는 분석 관리부를 포함하는 시스템이 제공된다.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능한 기록 매체가 더 제공된다.
본 발명에 의하면, 일상적으로 손쉽게 촬영할 수 있는 손톱 이미지를 이용하여 피측정자의 건강 상태를 판별 또는 진단할 수 있게 된다.
또한, 본 발명에 의하면, 손톱의 종류별로 따로 학습된 인식 모델을 이용하여 이미지 내에서 손톱을 종류별로 정확하게 인식할 수 있으므로, 손톱에서 나타나는 특징이나 변화를 손톱별로 분석할 수 있게 되고, 나아가 손톱 이미지를 이용한 건강 상태 분석 모델의 정확도를 높일 수 있게 된다.
또한, 본 발명에 의하면, 손톱을 촬영한 이미지만이 아니라 손톱 이외의 다른 신체 부위를 촬영한 이미지, 피측정자의 건강 상태, 피측정자가 속한 환경에 관한 다양한 데이터를 학습 데이터로서 활용하여 분석 모델을 학습시킬 수 있으므로, 건강 상태 분석 모델의 신뢰도를 높일 수 있게 된다.
또한, 본 발명에 의하면, 복수의 시점에서 촬영된 시계열 데이터를 이용하여 건강 상태 분석 모델을 학습시킬 수 있으므로, 손톱 이미지에서 나타나는 변화에 근거하여 피측정자의 건강 상태의 변화를 추적하고 그 변화로부터 피측정자의 건강 상태를 판별 또는 진단할 수 있게 된다.
도 1은 본 발명의 일 실시예에 따라 인공지능 모델을 이용하여 손톱을 분석하기 위한 전체 시스템의 개략적인 구성을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 분석 시스템의 내부 구성을 상세하게 도시하는 도면이다.
도 3은 본 발명의 일 실시예에 따라 손(손톱) 이미지를 촬영하는 상황을 예시적으로 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따라 손을 촬영한 이미지에서 손톱을 인식하는 상황을 예시적으로 나타내는 도면이다.
<부호의 설명>
100: 통신망
200: 분석 시스템
210: 인식 관리부
220: 분석 관리부
230: 통신부
240: 제어부
300: 디바이스
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이러한 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 본 명세서에 기재되어 있는 특정 형상, 구조 및 특성은 본 발명의 정신과 범위를 벗어나지 않으면서 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치도 본 발명의 정신과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 행하여지는 것이 아니며, 본 발명의 범위는 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다.
이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 여러 바람직한 실시예에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
전체 시스템의 구성
도 1은 본 발명의 일 실시예에 따라 인공지능 모델을 이용하여 손톱을 분석하기 위한 전체 시스템의 개략적인 구성을 나타내는 도면이다.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 전체 시스템은 통신망(100), 분석 시스템(200) 및 디바이스(300)를 포함할 수 있다.
먼저, 본 발명의 일 실시예에 따른 통신망(100)은, 유선 통신이나 무선 통신과 같은 통신 양태를 가리지 않고 구성될 수 있으며, 근거리 통신망(LAN; Local Area Network), 도시권 통신망(MAN; Metropolitan Area Network), 광역 통신망(WAN; Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 바람직하게는, 본 명세서에서 말하는 통신망(100)은 공지의 인터넷 또는 월드 와이드 웹(WWW; World Wide Web)일 수 있다. 그러나, 통신망(100)은, 굳이 이에 국한될 필요 없이, 공지의 유무선 데이터 통신망, 공지의 전화망 또는 공지의 유무선 텔레비전 통신망을 그 적어도 일부에 있어서 포함할 수도 있다.
예를 들면, 통신망(100)은, 무선 데이터 통신망으로서, 무선주파수(RF; Radio Frequency) 통신, 와이파이(WiFi) 통신, 셀룰러(LTE 등) 통신, 블루투스 통신(더 구체적으로는, 저전력 블루투스(BLE; Bluetooth Low Energy)), 적외선 통신, 초음파 통신 등과 같은 종래의 통신 방법을 적어도 그 일부분에 있어서 구현하는 것일 수 있다.
다음으로, 본 발명의 일 실시예에 따른 분석 시스템(200)은, 인식 모델을 이용하여 촬영 이미지로부터 적어도 하나의 손톱을 종류별로 인식하고, 위 인식된 적어도 하나의 손톱에 해당하는 이미지를 분석 모델에 입력함으로써, 인공지능 모델을 이용하여 손톱을 분석하고 나아가 피측정자의 건강 상태를 판별 또는 진단하는 기능을 수행할 수 있다.
본 발명의 일 실시예에 따른 분석 시스템(200)의 구성과 기능에 관하여는 이하의 상세한 설명을 통하여 자세하게 알아보기로 한다.
다음으로, 본 발명의 일 실시예에 따른 디바이스(300)는, 분석 시스템(200)에 접속한 후 통신할 수 있는 기능을 포함하는 디지털 기기로서, 스마트폰, 태블릿, 스마트 워치, 스마트 패치, 스마트 밴드, 스마트 글래스, 데스크탑 컴퓨터, 노트북 컴퓨터, 워크스테이션, PDA, 웹 패드, 이동 전화기 등과 같이 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 디지털 기기라면 얼마든지 본 발명에 따른 디바이스(300)로서 채택될 수 있다. 또한, 본 발명의 일 실시예에 따른 디바이스(300)는, 사업장, 네일샵 등 사람이 주기적으로 방문하는 장소에 설치될 수 있는 키오스크(kiosk) 형태의 디지털 기기일 수도 있다.
특히, 본 발명의 일 실시예에 따른 디바이스(300)는 피측정자의 신체(손톱, 얼굴 등)를 촬영한 이미지를 획득하기 위한 센싱 수단(예를 들어, 카메라 등)을 포함할 수 있다.
한편, 본 발명의 일 실시예에 따른 디바이스(300)는, 사용자가 분석 시스템(200)으로부터 본 발명에 따른 서비스를 제공받을 수 있도록 지원하는 애플리케이션(미도시됨)을 포함할 수 있다. 이와 같은 애플리케이션은 분석 시스템(200) 또는 외부의 애플리케이션 배포 서버(미도시됨)로부터 다운로드된 것일 수 있다. 한편, 이러한 애플리케이션의 성격은 후술할 바와 같은 분석 시스템(200)의 인식 관리부(210), 분석 관리부(220), 통신부(230) 및 제어부(240)와 전반적으로 유사할 수 있다. 여기서, 애플리케이션은 그 적어도 일부가 필요에 따라 그것과 실질적으로 동일하거나 균등한 기능을 수행할 수 있는 하드웨어 장치나 펌웨어 장치로 치환될 수도 있다.
분석 시스템의 구성
이하에서는, 본 발명의 구현을 위하여 중요한 기능을 수행하는 분석 시스템(200)의 내부 구성과 각 구성요소의 기능에 대하여 살펴보기로 한다.
도 2는 본 발명의 일 실시예에 따른 분석 시스템(200)의 내부 구성을 상세하게 도시하는 도면이다.
도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 분석 시스템(200)은 인식 관리부(210), 분석 관리부(220), 통신부(230) 및 제어부(240)를 포함할 수 있다. 본 발명의 일 실시예에 따르면, 분석 시스템(200)의 인식 관리부(210), 분석 관리부(220), 통신부(230) 및 제어부(240)는 그 중 적어도 일부가 외부의 시스템(미도시됨)과 통신하는 프로그램 모듈일 수 있다. 이러한 프로그램 모듈은 운영 시스템, 응용 프로그램 모듈 또는 기타 프로그램 모듈의 형태로 분석 시스템(200)에 포함될 수 있고, 물리적으로는 여러 가지 공지의 기억 장치에 저장될 수 있다. 또한, 이러한 프로그램 모듈은 분석 시스템(200)과 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈은 본 발명에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.
한편, 분석 시스템(200)에 관하여 위와 같이 설명되었으나, 이러한 설명은 예시적인 것이고, 분석 시스템(200)의 구성요소 또는 기능 중 적어도 일부가 필요에 따라 디바이스(300) 또는 서버(미도시됨) 내에서 실현되거나 외부 시스템(미도시됨) 내에 포함될 수도 있음은 당업자에게 자명하다.
먼저, 본 발명의 일 실시예에 따른 인식 관리부(210)는, 인식 모델을 이용하여 촬영 이미지로부터 적어도 하나의 손톱을 종류별로 인식할 수 있다.
구체적으로, 본 발명의 일 실시예에 따르면, 피측정자의 손(손톱)을 촬영한 이미지는 집, 네일샵, 병원, 약국 등에 비치된 촬영 디바이스를 통해 수집될 수 있고, 이렇게 수집되는 이미지 데이터는 피측정자의 식별 정보 또는 계정 정보와 연관되어 저장될 수 있다.
도 3은 본 발명의 일 실시예에 따라 손(손톱) 이미지를 촬영하는 상황을 예시적으로 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따라 손을 촬영한 이미지에서 손톱을 인식하는 상황을 예시적으로 나타내는 도면이다.
또한, 본 발명의 일 실시예에 따르면, 손(손톱)을 촬영한 이미지는 복수의 시점에 걸쳐서 여러 번 촬영될 수 있고, 특정 피측정자에 대하여 복수의 시점이 걸쳐서 촬영되어 수집된 이미지는 시계열 데이터로서 저장되어 후술할 인식 모델 및 분석 모델에서 활용될 수 있다.
본 발명의 일 실시예에 따른 인식 모델에는, CNN(Convolutional Neural Network) 모델, RNN(Recurrent Neural Network) 모델, DBN(Deep Belief Network) 모델, 또는 위 모델들이 결합된 인공신경망 모델 등이 포함될 수 있다. 다만, 본 발명의 일 실시예에 따른 인공신경망 모델이 위의 열거된 것에 한정되는 것은 아니고, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다. 예를 들면, 본 발명의 일 실시예에 따른 인식 모델은 YOLOv5와 같이 객체 감지 및 인식에 특화된 인공지능 모델일 수 있다.
또한, 본 발명의 일 실시예에 따르면, 인식 모델은 손가락 종류별로 각각 따로 손톱을 인식하도록 학습될 수 있고, 이를 위해 학습 데이터를 구성하는 손톱 이미지는 손가락 종류별로 각각 구축될 수 있다. 이렇게 함으로써, 인식 모델이 손 이미지에서 다섯 손가락의 손톱을 각각 따로 인식할 수 있게 되고, 이에 따라 손가락마다 손톱을 따로 촬영하거나 따로 인식할 필요가 없게 된다.
실제로, 어떤 사람의 건강 상태를 나타내는 징후가 열 손가락의 모든 손톱에서 동일한 양상으로 나타나는 것이 아니라 특정 손가락의 손톱에서만 나타나는 경우가 많기 때문에, 손톱 이미지를 이용하여 건강 상태를 정확하게 진단하기 위해서는, 손톱 이미지를 종류별로(손가락별로) 인식하여 따로 수집할 필요가 있고, 나아가, 손톱 이미지를 종류별로(손가락별로) 따로 분석할 필요가 있다.
본 발명의 일 실시예에 따르면, 인식 모델은 손가락 모양, 손가락 위치, 손가락 길이, 손가락 두께, 손톱 모양, 손톱 위치 및 손가락 관절 주름 중 적어도 하나에 관한 데이터를 포함하는 제1 학습 데이터에 기초하여 학습될 수 있다. 또한, 일반인으로부터 수집된 데이터만이 아니라 질병을 가지고 있는 사람으로부터 수집된 데이터도 제1 학습 데이터에 포함될 수 있다.
예를 들면, 본 발명의 일 실시예에 따른 인식 관리부(210)는 다른 손가락들과 현저하게 구별되는 엄지 손가락의 모양 및 위치를 참조하여 엄지 손가락을 특정할 수 있고, 엄지 손가락 부분에서 검출되는 손톱 모양, 관절 주름 수 등 특징에 관한 데이터를 학습 데이터로서 이용하여 인식 모델이 엄지 손톱을 정확하게 인식할 수 있도록 인식 모델을 학습시킬 수 있다.
또한, 예를 들면, 본 발명의 일 실시예에 따른 인식 관리부(210)는 손가락별로 라벨링된 손톱 이미지를 다수 수집하고 그 손톱 이미지에서 나타나는 손톱의 모양에 관한 데이터를 이용하여 인식 모델을 학습시킬 수 있다.
또한, 예를 들면, 본 발명의 일 실시예에 따른 인식 관리부(210)는 손 이미지에서 비교적 손쉽게 인식되는 엄지 손가락의 위치와 왼손/오른손 여부를 기준으로 하여, 검지, 중지, 약지 및 소지를 순서대로 인식할 수 있고, 각 손가락의 관절 위치를 더 참조하여 각 손가락에서 손톱 부분을 인식할 수 있고, 이렇게 인식되어 수집되는 손톱 이미지를 이용하여 인식 모델을 다시 학습시킬 수 있다.
또한, 예를 들면, 본 발명의 일 실시예에 따른 인식 관리부(210)는 손가락의 길이 및 두께에 관한 데이터를 참조하여 손 이미지로부터 손톱 부분을 인식할 수 있고, 피측정자가 손을 펴고 있는 상태인지 아니면 손을 쥐고 있는 상태인지를 판별하여 그 상태에 따라 손가락의 길이 및 두께에 근거한 인식 기준을 달리 적용할 수 있다. 그리고, 이렇게 인식되어 수집되는 손톱 이미지를 이용하여 인식 모델을 다시 학습시킬 수 있다.
다음으로, 본 발명의 일 실시예에 따르면, 위 인식 모델에 의해 인식된 적어도 하나의 손톱에 해당하는 이미지를 분석 모델에 입력할 수 있다. 그리고, 본 발명의 일 실시예에 따른 분석 모델은 피측정자의 손톱에 관한 이미지를 이용하여 피측정자의 건강 상태에 대한 판별 또는 진단에 관한 데이터를 출력할 수 있다.
여기서, 본 발명의 일 실시예에 따른 분석 모델에는, CNN(Convolutional Neural Network) 모델, RNN(Recurrent Neural Network) 모델, DBN(Deep Belief Network) 모델, 또는 위 모델들이 결합된 인공신경망 모델 등이 포함될 수 있다. 다만, 본 발명의 일 실시예에 따른 인공신경망 모델이 위의 열거된 것에 한정되는 것은 아니고, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다.
본 발명의 일 실시예에 따르면, 분석 모델은 피측정자의 손톱에 관한 이미지 및 피측정자의 건강 상태에 관한 데이터를 포함하는 제2 학습 데이터에 기초하여 학습될 수 있다.
예를 들면, 피측정자의 손톱 반월판의 색과 피측정자의 건강 상태는 유의미한 상관 관계를 가질 수 있는데, 이러한 상관 관계를 뒷받침하는 학습 데이터에 기초하여 분석 모델이 학습될 수 있다. 구체적으로, 손톱 반월판의 색이 푸른색인 것과 건강 상태가 은 중독 상태인 것이 연관된다는 점을 뒷받침하는 학습 데이터, 손톱 반월판의 색이 붉은색인 것과 건강 상태가 심부전 상태인 것이 연관된다는 점을 뒷받침하는 학습 데이터, 손톱 반월판의 색이 노란색인 것과 건강 상태가 항생제 투여 상태인 것이 연관된다는 점을 뒷받침하는 학습 데이터를 예로 들 수 있다.
또한, 본 발명의 일 실시예에 따르면, 분석 모델은 피측정자의 손톱에 관한 이미지, 피측정자의 다른 신체 부위에 관한 이미지, 피측정자의 건강 상태 및 피측정자의 주변 환경 중 적어도 하나에 관한 데이터를 포함하는 제2 학습 데이터에 기초하여 학습될 수 있다.
실제로, 사람의 건강 상태를 나타내는 징후는 손톱에서만 나타나는 것이 아니라 피측정자의 얼굴 등 다른 신체 부위에서도 나타나는 경우가 많다. 그리고, 사람의 건강 상태는 그 사람을 둘러싸고 있는 주변 환경으로부터 많은 영향을 받기도 한다. 따라서, 본 발명에 따라 피측정자의 손톱에 관한 이미지, 피측정자의 다른 신체 부위에 관한 이미지, 피측정자의 건강 상태, 피측정자의 주변 환경 등에 서로 관련성이 높은 데이터를 복합적으로 이용하여 분석 모델을 학습시킴으로써, 분석 모델의 정확도와 신뢰도를 모두 향상시킬 수 있게 된다.
또한, 본 발명의 일 실시예에 따르면, 분석 모델의 학습에 이용되는 제2 학습 데이터에는 적어도 두 시점에서 수집된 시계열 데이터가 포함될 수 있고, 분석 모델은 시계열 데이터에 근거하여 학습될 수 있다. 따라서, 본 발명에 따른 분석 모델은 시간의 흐름에 따라 나타나는 피측정자의 건강 상태 변화를 판별하거나 진단할 수도 있게 된다.
구체적으로, 본 발명의 일 실시예에 따르면, 분석 모델은 특정 피측정자에 대하여 수집되는 손톱에 관한 이미지 및 피측정자의 다른 신체 부위에 관한 이미지 중 적어도 하나를 참조하여 상기 특정 피측정자의 건강 상태에 관한 데이터를 출력할 수 있다.
예를 들면, 건강 상태가 양호한 경우에 동글동글한 얼굴과 동글동글한 손이 연관된다는 점을 뒷받침하는 학습 데이터에 기초하여 분석 모델이 학습된 경우를 가정할 수 있다. 이러한 경우에, 피측정자의 얼굴 데이터에서 각진 턱선, 날카로운 광대각, 눈썹 뼈 돌출 등 뾰족한 얼굴을 나타내는 특징이 검출되고 피측정자의 손 데이터에서 통통함 등 동글동글한 손을 나타내는 특징이 검출되는 것에 대응하여, 본 발명의 일 실시예에 따른 분석 모델은 피측정자가 폐 또는 신장에 이상이 있다는 취지의 판별 또는 진단 결과를 출력할 수 있다. 또한, 본 발명의 일 실시예에 따른 분석 모델은 시계열 데이터를 분석함으로써 피측정자의 건강 상태의 시간에 따른 변화도 추적할 수 있다. 여기서, 얼굴 데이터에서 나타나는 턱선, 광대각, 눈썹 뼈 돌출 등은 수치화될 수 있고, 손 데이터에서 나타나는 통통함, 관절 뼈의 돌출 등도 수치화될 수 있다.
다른 예를 들면, 간 질환(간경화 등)이 있는 경우에 테리손톱(Terry's nail) 증상과 얼굴 또는 눈 부위 황달 증상이 연관된다는 점을 뒷받침하는 학습 데이터에 기초하여 분석 모델이 학습된 경우를 가정할 수 있다. 이러한 경우에, 피측정자의 얼굴 데이터에서 황달 증상을 나타내는 특징이 검출되고 피측정자의 손톱 데이터에서 테리손톱을 나타내는 특징이 검출되는 것에 대응하여, 본 발명의 일 실시예에 따른 분석 모델은 피측정자가 간경화 등 간 질환을 가지고 있을 가능성이 있다는 취지의 판별 또는 진단 결과를 출력할 수 있다.
본 발명에 따른 분석 시스템(200)은 사람의 건강 상태를 일상적으로 판별 또는 진단할 필요가 있는 모든 상황에서 활용될 수 있다.
일 예로서, 본 발명에 따른 분석 시스템(200)이 화학적으로 위험한 환경이 존재하는 사업장에 적용되는 경우를 상정할 수 있다. 이 경우에 해당 사업장에서 근무하는 근로자를 대상으로 손톱 모습이 포함된 손 이미지를 주기적으로 촬영할 수 있고, 그 촬영된 이미지로부터 손톱을 인식하고 분석할 수 있다. 그리고, 그 분석 결과로서, (1) 여러 명의 근로자에게서 건강 상태에 이상이 있음을 나타내는 분석 결과가 공통적으로 도출되는 것에 대응하여 사업장 환경의 유해도가 높을 가능성이 있다는 취지의 알림을 제공할 수 있고, (2) 어느 한 근로자에게서만 건강 상태에 이상이 있음을 나타내는 분석 결과가 도출되는 것에 대응하여 해당 근로자가 건강 검진을 받도록 유도하는 취지의 알림을 제공할 수 있다.
다른 예로서, 본 발명에 따른 분석 시스템(200)이 네일샵에 적용되는 경우를 상정할 수 있다. 이러한 경우에 해당 네일샵에 방문하는 고객을 대상으로 소정 주기로 손톱 모습이 포함된 손 이미지를 촬영할 수 있고, 그 촬영된 이미지로부터 손톱을 인식하고 분석할 수 있다. 그리고, 그 분석 결과로서, 어떤 고객의 건강 상태에 이상이 있음을 나타내는 분석 결과가 도출되는 것에 대응하여 해당 고객이 네일 아트 시술을 받지 않기를 추천하는 취지의 알림을 제공할 수 있다. 네일 아트가 시술된 손톱은 건강 상태 판별 또는 진단에 이용될 수 없기 때문이다. 이렇게 함으로써, 해당 고객이 손톱 분석에 근거한 건강 상태 분석 서비스를 지속적으로 받을 수 있도록 유도할 수 있다.
다음으로, 본 발명의 일 실시예에 따른 통신부(230)는 인식 관리부(210) 및 분석 관리부(220)로부터의/로의 데이터 송수신이 가능하도록 하는 기능을 수행할 수 있다.
마지막으로, 본 발명의 일 실시예에 따른 제어부(240)는 인식 관리부(210), 분석 관리부(220) 및 통신부(230) 간의 데이터의 흐름을 제어하는 기능을 수행할 수 있다. 즉, 본 발명에 따른 제어부(240)는 분석 시스템(200)의 외부로부터의/로의 데이터 흐름 또는 분석 시스템(200)의 각 구성요소 간의 데이터 흐름을 제어함으로써, 인식 관리부(210), 분석 관리부(220) 및 통신부(230)에서 각각 고유 기능을 수행하도록 제어할 수 있다.
이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항과 한정된 실시예 및 도면에 의하여 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐, 본 발명이 상기 실시예에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정과 변경을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.

Claims (13)

  1. 인공지능 모델을 이용하여 손톱을 분석하기 위한 방법으로서,
    인식 모델을 이용하여 촬영 이미지로부터 적어도 하나의 손톱을 종류별로 인식하는 단계, 및
    상기 인식된 적어도 하나의 손톱에 해당하는 이미지를 분석 모델에 입력하는 단계를 포함하는
    방법.
  2. 제1항에 있어서,
    상기 인식 모델은, 손가락 모양, 손가락 위치, 손가락 길이, 손가락 두께, 손톱 모양, 손톱 위치 및 손가락 관절 주름 중 적어도 하나에 관한 데이터를 포함하는 제1 학습 데이터에 기초하여 학습되는
    방법.
  3. 제1항에 있어서,
    상기 인식 단계에서, 엄지 손톱의 위치를 참조하여 나머지 손가락의 손톱을 인식하는
    방법.
  4. 제1항에 있어서,
    상기 분석 모델은 피측정자의 손톱에 관한 이미지, 피측정자의 다른 신체 부위에 관한 이미지, 피측정자의 건강 상태 및 피측정자의 주변 환경 중 적어도 하나에 관한 데이터를 포함하는 제2 학습 데이터에 기초하여 학습되는
    방법.
  5. 제4항에 있어서,
    상기 제2 학습 데이터는 적어도 두 시점에서 수집된 시계열 데이터를 포함하는
    방법.
  6. 제1항에 있어서,
    상기 분석 모델은 특정 피측정자에 대하여 수집되는 손톱에 관한 이미지 및 피측정자의 다른 신체 부위에 관한 이미지를 참조하여 상기 특정 피측정자의 건강 상태에 관한 데이터를 출력하는
    방법.
  7. 제1항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능 기록 매체.
  8. 인공지능 모델을 이용하여 손톱을 분석하기 위한 시스템으로서,
    인식 모델을 이용하여 촬영 이미지로부터 적어도 하나의 손톱을 종류별로 인식하는 인식 관리부, 및
    상기 인식된 적어도 하나의 손톱에 해당하는 이미지를 분석 모델에 입력하는 분석 관리부를 포함하는
    시스템.
  9. 제8항에 있어서,
    상기 인식 모델은, 손가락 모양, 손가락 위치, 손가락 길이, 손가락 두께, 손톱 모양, 손톱 위치 및 손가락 관절 주름 중 적어도 하나에 관한 데이터를 포함하는 제1 학습 데이터에 기초하여 학습되는
    시스템.
  10. 제8항에 있어서,
    상기 인식 관리부는, 엄지 손톱의 위치를 참조하여 나머지 손가락의 손톱을 인식하는
    시스템.
  11. 제8항에 있어서,
    상기 분석 모델은 피측정자의 손톱에 관한 이미지, 피측정자의 다른 신체 부위에 관한 이미지, 피측정자의 건강 상태 및 피측정자의 주변 환경 중 적어도 하나에 관한 데이터를 포함하는 제2 학습 데이터에 기초하여 학습되는
    시스템.
  12. 제11항에 있어서,
    상기 제2 학습 데이터는 적어도 두 시점에서 수집된 시계열 데이터를 포함하는
    시스템.
  13. 제8항에 있어서,
    상기 분석 모델은 특정 피측정자에 대하여 수집되는 손톱에 관한 이미지 및 피측정자의 다른 신체 부위에 관한 이미지를 참조하여 상기 특정 피측정자의 건강 상태에 관한 데이터를 출력하는
    시스템.
PCT/KR2023/007663 2022-06-03 2023-06-02 인공지능 모델을 이용하여 손톱을 분석하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 WO2023234758A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2022-0068548 2022-06-03
KR20220068548 2022-06-03
KR10-2022-0125782 2022-09-30
KR1020220125782A KR20230168095A (ko) 2022-06-03 2022-09-30 인공지능 모델을 이용하여 손톱을 분석하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체

Publications (1)

Publication Number Publication Date
WO2023234758A1 true WO2023234758A1 (ko) 2023-12-07

Family

ID=89025253

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/007663 WO2023234758A1 (ko) 2022-06-03 2023-06-02 인공지능 모델을 이용하여 손톱을 분석하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체

Country Status (1)

Country Link
WO (1) WO2023234758A1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210033394A (ko) * 2019-09-18 2021-03-26 삼성전자주식회사 전자 장치 및 그의 제어 방법
KR20210067815A (ko) * 2019-11-29 2021-06-08 광운대학교 산학협력단 사용자의 건강 상태를 측정하기 위한 방법 및 이를 위한 장치
JP2021125130A (ja) * 2020-02-07 2021-08-30 田辺三菱製薬株式会社 健康状態推定システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210033394A (ko) * 2019-09-18 2021-03-26 삼성전자주식회사 전자 장치 및 그의 제어 방법
KR20210067815A (ko) * 2019-11-29 2021-06-08 광운대학교 산학협력단 사용자의 건강 상태를 측정하기 위한 방법 및 이를 위한 장치
JP2021125130A (ja) * 2020-02-07 2021-08-30 田辺三菱製薬株式会社 健康状態推定システム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
P. MANIYAN, DR. B L SHIVAKUMAR: "Detection of diseases using nail image processing based on multiclass SVM classifier method", INTERNATIONAL JOURNAL OF ENGINEERING SCIENCE AND COMPUTING, vol. 8, no. 5, 1 May 2018 (2018-05-01), pages 17382 - 17390, XP009551421, ISSN: 2250-1371 *
SAYALI VIJAY, GHODKE ARTI, SIKHWAL: "Novel Approach of Automatic Disease Prediction and Regular Check-up System Using ML/DL", INTERNATIONAL JOURNAL OF CREATIVE RESEARCH THOUGHTS (IJCRT), vol. 9, no. 3, 1 March 2021 (2021-03-01), pages 3552 - 3557, XP093117013, ISSN: 2320-2882 *

Similar Documents

Publication Publication Date Title
WO2019208848A1 (ko) 3차원 안구 움직임 측정 방법 및 전자동 딥러닝 기반 어지럼 진단 시스템
WO2018106005A1 (ko) 뉴럴 네트워크를 이용한 질병의 진단 시스템 및 그 방법
WO2022124746A1 (ko) 피부 상태 예측 및 피부관리 시스템 그리고 그 방법
Bourouis et al. M-health: skin disease analysis system using smartphone's camera
CN104298983B (zh) 具有分布式用户终端的舌苔图像获取与分析系统
WO2015008936A1 (ko) 습관을 이용한 진단 장치 및 진단 관리 장치와 그를 이용한 진단 방법
CN110163078A (zh) 活体检测方法、装置及应用活体检测方法的服务系统
WO2021025458A1 (ko) 멀티미디어 정보를 이용한 휴대용 체외진단키트 해석장치
KR101301821B1 (ko) 안색 정보 생성 장치 및 그 방법, 안색 정보를 이용한 건강 상태 판단 장치 및 그 방법, 건강 분류 함수 생성 장치 및 그 방법
WO2019225870A1 (ko) 무인 안면 및 손등 피부 분석장치
WO2019031794A1 (ko) 피검체의 치명적 증상의 발생을 조기에 예측하기 위한 예측 결과를 생성하는 방법 및 이를 이용한 장치
CN109508755B (zh) 一种基于图像认知的心理测评方法
WO2021091066A1 (en) System and method for passive subject specific monitoring
WO2020085576A1 (ko) 건강관리 서비스 제공 방법
WO2021201582A1 (ko) 피부 병변의 원인 분석 방법 및 장치
WO2024005542A1 (ko) 주름 검출을 통해 질환을 예측하는 방법 및 장치
WO2023234758A1 (ko) 인공지능 모델을 이용하여 손톱을 분석하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
WO2023182702A1 (ko) 디지털 병리이미지의 인공지능 진단 데이터 처리 장치 및 그 방법
WO2021112317A1 (ko) 구강 내 미생물 분석장치를 이용한 건강 예측 시스템 및 방법
WO2023234757A1 (ko) 손톱 분석을 위해 이미지를 처리하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
WO2022010149A1 (ko) 얼굴 표정에 관한 데이터 세트를 생성하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
WO2024101466A1 (ko) 속성 기반 실종자 추적 장치 및 방법
WO2016200243A1 (ko) 미병 분류를 보조하는 컴퓨팅 장치 및 방법
WO2019164277A1 (ko) 수술영상을 이용한 출혈 평가 방법 및 장치
WO2022158843A1 (ko) 조직 검체 이미지 정제 방법, 및 이를 수행하는 컴퓨팅 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23816417

Country of ref document: EP

Kind code of ref document: A1