KR102421739B1 - System and method for monitoring oral health using camera device - Google Patents
System and method for monitoring oral health using camera device Download PDFInfo
- Publication number
- KR102421739B1 KR102421739B1 KR1020200162079A KR20200162079A KR102421739B1 KR 102421739 B1 KR102421739 B1 KR 102421739B1 KR 1020200162079 A KR1020200162079 A KR 1020200162079A KR 20200162079 A KR20200162079 A KR 20200162079A KR 102421739 B1 KR102421739 B1 KR 102421739B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- information
- oral cavity
- management server
- image
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000012544 monitoring process Methods 0.000 title description 3
- 210000000214 mouth Anatomy 0.000 claims description 97
- 238000003745 diagnosis Methods 0.000 claims description 32
- 208000002925 dental caries Diseases 0.000 claims description 16
- 210000003128 head Anatomy 0.000 claims description 12
- 238000009223 counseling Methods 0.000 claims description 9
- 230000005856 abnormality Effects 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 6
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 239000003086 colorant Substances 0.000 claims description 3
- 230000002159 abnormal effect Effects 0.000 claims description 2
- 210000005069 ears Anatomy 0.000 description 25
- 238000013473 artificial intelligence Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 10
- 201000010099 disease Diseases 0.000 description 7
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 206010003210 Arteriosclerosis Diseases 0.000 description 1
- 208000025721 COVID-19 Diseases 0.000 description 1
- 208000019693 Lung disease Diseases 0.000 description 1
- 208000011775 arteriosclerosis disease Diseases 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000037123 dental health Effects 0.000 description 1
- 206010012601 diabetes mellitus Diseases 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 208000019622 heart disease Diseases 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 208000019423 liver disease Diseases 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 208000028169 periodontal disease Diseases 0.000 description 1
- 230000019612 pigmentation Effects 0.000 description 1
- 238000004171 remote diagnosis Methods 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000003442 weekly effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/24—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the mouth, i.e. stomatoscopes, e.g. with tongue depressors; Instruments for opening or keeping open the mouth
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00011—Operational features of endoscopes characterised by signal transmission
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00055—Operational features of endoscopes provided with output arrangements for alerting the user
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/227—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for ears, i.e. otoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
- A61B5/0004—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
- A61B5/0013—Medical image data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0082—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
- A61B5/0088—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7465—Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/67—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2560/00—Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
- A61B2560/04—Constructional details of apparatus
- A61B2560/0431—Portable apparatus, e.g. comprising a handle or case
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Physics & Mathematics (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Optics & Photonics (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Dentistry (AREA)
- Physiology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Business, Economics & Management (AREA)
- Business, Economics & Management (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Nursing (AREA)
- Signal Processing (AREA)
- Medical Treatment And Welfare Office Work (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
휴대용 카메라 디바이스를 사용하여 사용자의 구강 또는 귀 내부가 촬영됨에 따라 획득된 영상을 관리 서버에서 분석 및 관리하며, 모바일 단말이, 관리 서버로부터, 구상 또는 귀 내부에 관한 상태 정보를 수신하고, 표시하는 방법이 제공된다. The management server analyzes and manages the image obtained as the user's mouth or inside the ear is photographed using the portable camera device, and the mobile terminal receives and displays status information about the conception or the inside of the ear from the management server A method is provided.
Description
실시예들은 카메라 디바이스를 사용하여 구강 상태 모니터링 시스템 및 방법에 관한 것으로, 특히, 휴대용 카메라 디바이스를 사용하여 촬영된 영상에 기반하여 사용자의 구강(또는 귀) 상태에 관한 정보를 획득하는 시스템 및 방법에 관한 것이다. The embodiments relate to an oral condition monitoring system and method using a camera device, and more particularly, to a system and method for obtaining information about a user's oral (or ear) condition based on an image captured using a portable camera device. it's about
최근 구강 내의 질환 또는 귀 내의 질환을 자가 진단하는 방법에 대한 관심이 높아지고 있다. 특히, 치주 질환의 경우 여러 전신의 다른 질환들(당료, 폐질환, 심장 질환, 동맥경화, 간 질환 등)과 관련되는 경우가 많고, 노인과 같은 고령자의 삶의 질을 저하시키는 중요한 요인이 되는 것으로 알려져 있다. 치과 분야에서의 중증 치료의 경우 40% 이상이 치아 또는 잇몸의 문제를 조기에 발견하지 못하여 발생하는 경우가 많다. Recently, interest in a method for self-diagnosing diseases in the oral cavity or diseases in the ear is increasing. In particular, in the case of periodontal disease, it is often associated with other diseases of the body (diabetes, lung disease, heart disease, arteriosclerosis, liver disease, etc.) it is known In the case of severe treatment in the dental field, more than 40% of cases are caused by not detecting teeth or gum problems at an early stage.
한편, 코로나 19 발생 이후 비대면 원격 진단/진료에 대한 요구와 그 필요성이 증가하고 있다. 따라서, 치아 우식, 크랙, 색소 침착 등의 질환이나 기타 귀 관련 질환에 대해 환자가 굳이 병원에 방문하지 않더라도, 효과적으로 진단 정보를 획득할 수 있도록 하는 기술이 요구된다. Meanwhile, since the outbreak of COVID-19, the demand for and need for non-face-to-face remote diagnosis/treatment has increased. Accordingly, there is a need for a technology that allows a patient to effectively obtain diagnostic information for diseases such as dental caries, cracks, pigmentation, or other ear-related diseases, without requiring a patient to visit a hospital.
한국공개특허 제10-2019-0111909호(공개일 2019년 10월 02일)는 구강 기기의 사용을 모니터링하기 위한 시스템에 관한 것으로서, 구강 기기는 사용 시에 사용자의 구강 내에 위치되는 몸체를 포함하며, 시스템은 사용 시에 구강 기기에 부착되거나 그 내에 내장되는 기기 모니터링 디바이스를 포함하여 구성되는 것을 개시하고 있다. Korean Patent Application Laid-Open No. 10-2019-0111909 (published on October 02, 2019) relates to a system for monitoring the use of an oral appliance, wherein the oral appliance includes a body positioned in the user's mouth when in use, , discloses that the system comprises a device monitoring device attached to or embedded within the oral appliance in use.
상기에서 설명된 정보는 단지 이해를 돕기 위한 것이며, 종래 기술의 일부를 형성하지 않는 내용을 포함할 수 있다.The information described above is for understanding only, and may include content that does not form a part of the prior art.
일 실시예는, 휴대용 카메라 디바이스를 사용하여 사용자의 구강 또는 귀 내부가 촬영됨에 따라 획득된 영상을 관리 서버에서 분석 및 관리하며, 모바일 단말이, 관리 서버로부터, 구상 또는 귀 내부에 관한 상태 정보를 수신하고, 표시하는 방법을 제공할 수 있다. In one embodiment, a management server analyzes and manages an image obtained as the user's mouth or inside the ear is photographed using a portable camera device, and the mobile terminal, from the management server, obtains state information about the concept or the inside of the ear A method for receiving and displaying can be provided.
일 측면에 있어서, 휴대용 카메라 디바이스 및 관리 서버와 통신하는 모바일 단말에 의해 수행되는, 사용자의 구강 또는 귀에 대한 상태 정보를 획득하는 방법에 있어서, 상기 휴대용 카메라 디바이스에 의해 사용자의 구강 또는 귀 내부가 촬영됨에 따라, 상기 휴대용 카메라 디바이스로부터 상기 사용자의 구강 또는 귀 내부의 영상을 획득하는 단계, 상기 모바일 단말이, 상기 획득된 영상을 관리 서버로 전송하는 단계 - 상기 전송된 영상은 상기 관리 서버에서 상기 사용자에 대해 이전에 획득된 상기 사용자의 구강 또는 귀 내부의 영상과 함께 축적되어 관리됨 -, 상기 관리 서버에서 축적되어 관리되는 상기 사용자의 구강 또는 귀 내부의 영상이 상기 관리 서버에 의해 분석됨에 따라 생성된 상기 사용자의 구강 또는 귀에 관한 상태 정보를, 상기 관리 서버로부터, 수신하는 단계 및 상기 수신된 상태 정보를 표시하는 단계를 포함하는, 구강 또는 귀에 대한 상태 정보를 획득하는 방법이 제공된다.In one aspect, in a method for obtaining state information about a user's mouth or ear, performed by a mobile terminal communicating with a portable camera device and a management server, the user's mouth or inside of the ear is photographed by the portable camera device In response, acquiring an image of the user's mouth or inside the ear from the portable camera device, the mobile terminal, transmitting the acquired image to a management server - The transmitted image is transmitted from the management server to the user is accumulated and managed together with the image inside the user's mouth or ear previously acquired for There is provided a method for obtaining state information about the oral cavity or ear, comprising the steps of receiving, from the management server, the state information about the user's oral cavity or ear, and displaying the received state information.
상기 방법은, 상기 획득된 영상을 상담 서버로 전송하는 단계 - 상기 상담 서버는 구강 또는 귀에 대한 전문의가 사용하는 단말과 통신 가능하도록 구성되고, 상기 상담 서버로 전송된 영상은 상기 전문의가 확인 가능하도록 상기 전문의가 사용하는 단말에 제공됨 -, 상기 상담 서버로부터, 상기 사용자의 구강 또는 귀에 대한 전문의 진단 정보를 수신하는 단계 - 상기 전문의 진단 정보는 상기 전문의가 사용하는 단말로부터 입력된 정보에 기반하여 상기 상담 서버에 의해 생성됨 - 및 상기 수신된 전문의 진단 정보를 표시하는 단계를 더 포함할 수 있다. The method includes the steps of transmitting the obtained image to a consultation server - The consultation server is configured to be able to communicate with a terminal used by an oral or ear specialist, and the image transmitted to the consultation server can be checked by the specialist Provided to the terminal used by the specialist -, from the consultation server, receiving specialist diagnosis information on the user's mouth or ear - The specialist diagnosis information is based on information input from the terminal used by the specialist generated by the consultation server, and displaying the received diagnosis information of the specialist.
상기 전문의가 사용하는 단말은 상기 상담 서버를 통해 상기 관리 서버에 접근 가능하도록 구성되고, 상기 전문의 진단 정보는 상기 관리 서버에서 축적되어 관리되는 상기 사용자의 구강 또는 귀 내부의 영상에 더 기반하여 생성된 것일 수 있다. The terminal used by the specialist is configured to be accessible to the management server through the consultation server, and the diagnostic information of the specialist is generated based on an image of the user's mouth or the inside of the ear that is accumulated and managed in the management server it may have been
상기 수신된 상태 정보는 상기 관리 서버에서 소정의 기간 동안 상기 사용자에 대해 획득된 상기 사용자의 구강 또는 귀 내부의 영상들이, 상기 관리 서버에 의해 분석됨에 따라 획득된 상기 사용자의 구강 또는 귀에 대한 진단 정보를 포함할 수 있다. The received state information is diagnostic information about the user's mouth or ear obtained by analyzing the images of the user's mouth or inside the ear obtained for the user for a predetermined period in the management server by the management server may include.
상기 진단 정보는 상기 관리 서버에 구현된 AI 모델이 상기 사용자의 구강 또는 귀 내부의 영상들을 분석한 결과로서 생성될 수 있다. The diagnosis information may be generated as a result of the AI model implemented in the management server analyzing images of the user's mouth or inside the ear.
상기 영상들의 각각은 치아 우식 데이터를 포함하고, 상기 진단 정보는, 상기 치아 우식 데이터로부터 추출된 특징을 소정의 테스트 데이터에 기반하여 미리 학습된 클래스 분류기에 입력시킴에 따른 결과로서 출력되는 데이터에 기반하여 생성될 수 있다. Each of the images includes dental caries data, and the diagnosis information is based on data output as a result of inputting features extracted from the dental caries data into a class classifier learned in advance based on predetermined test data. can be created by
상기 영상들의 각각은 상기 사용자의 치아를 촬영한 것이고, 상기 진단 정보는, 상기 영상들 중 상기 소정의 기간 동안의 제1 시점에 촬영된 제1 영상에 포함된 상기 치아의 색상과 상기 영상들 중 상기 소정의 기간 동안의 제2 시점에 촬영된 제2 영상에 포함된 상기 치아의 색상을 비교한 차이에 기반하여 생성될 수 있다. Each of the images is a photograph of the user's teeth, and the diagnosis information is, among the images, the color of the teeth included in the first image captured at a first point in time during the predetermined period among the images. It may be generated based on a difference between the colors of the teeth included in the second image captured at a second time point during the predetermined period.
상기 방법은, 상기 진단 정보가 상기 사용자의 치아 또는 귀의 이상을 나타낼 경우, 경고 메시지를 표시하는 단계를 더 포함하고, 상기 진단 정보는 구강 또는 귀에 대한 전문의가 사용하는 단말과 통신 가능하도록 구성되는 상기 상담 서버로 전달될 수 있다. The method further includes displaying a warning message when the diagnostic information indicates an abnormality in the user's teeth or ears, wherein the diagnostic information is configured to communicate with a terminal used by an oral or ear specialist may be transmitted to the consultation server.
상기 획득된 영상은 복수의 영상들로서 상기 사용자의 구강을 촬영한 2차원의 영상들이고, 상기 방법은, 상기 모바일 단말 또는 상기 관리 서버에서, 상기 2차원의 영상들을 합성함으로써 상기 사용자의 구강의 3차원의 영상을 생성하는 단계를 더 포함할 수 있다. The obtained image is a two-dimensional image of the user's oral cavity as a plurality of images, and the method, in the mobile terminal or the management server, by synthesizing the two-dimensional images, the three-dimensionality of the user's mouth The method may further include generating an image of
상기 휴대용 카메라 디바이스는 헤드가 분리 가능하게 구성되고, 상기 헤드가 분리된 상태에서는 상기 사용자의 귀 내부를 촬영 가능하도록 구성되고, 상기 헤드가 분리되지 않은 상태에서는 상기 사용자의 구강을 촬영 가능하도록 구성될 수 있다. The portable camera device is configured to have a detachable head, and is configured to photograph the inside of the user's ear when the head is separated, and is configured to photograph the user's oral cavity in a state in which the head is not separated. can
휴대용 카메라 디바이스를 사용하여 촬영된 사용자의 구강 또는 귀 내부의 영상에 기반한 구상 또는 귀 내부에 관한 상태 정보(진단 정보)를 모바일 단말에서 표시하도록 함으로써, 사용자가 병원에 직접 방문하지 않고도 구강 및 귀에 관한 적절한 진단 정보를 획득할 수 있다. By allowing the mobile terminal to display status information (diagnostic information) about the inside of the ear or conception based on the image of the user's mouth or inside the ear taken using a portable camera device, the user does not have to visit the hospital directly. Appropriate diagnostic information can be obtained.
전문의로부터의 의견을 획득할 수 있는 관리 서버와 통신하도록 함으로써, 휴대용 카메라 디바이스를 사용하여 촬영된 사용자의 구강 또는 귀 내부의 영상에 대해 사용자의 구강 및 귀에 대한 전문의 진단 정보를 원격으로 획득할 수 있다.By communicating with a management server that can obtain opinions from specialists, it is possible to remotely obtain expert diagnosis information about the user's mouth and ears for images taken using a portable camera device. have.
관리 서버에서 축적된 사용자의 구강 또는 귀 내부의 영상들을 인공지능을 사용하여 분석함으로써, 사용자의 구강 또는 귀 내부에 대한 시계열적 추적 진단 정보를 제공할 수 있다. By analyzing the images inside the user's mouth or ear accumulated in the management server using artificial intelligence, it is possible to provide time-series tracking diagnostic information for the user's mouth or inside the ear.
도 1은 일 실시예에 따른, 휴대용 카메라 디바이스, 모바일 단말 및 관리 서버로 구성된 시스템을 통해, 사용자의 구강 또는 귀에 대한 상태 정보를 획득하는 방법을 나타낸다.
도 2는 일 실시예에 따른, 사용자의 구강 또는 귀의 내부를 촬영하기 위해 사용되는 휴대용 카메라 디바이스를 나타낸다.
도 3은 일 실시예에 따른, 사용자의 구강 또는 귀에 대한 상태 정보를 획득하는 방법을 나타내는 흐름도이다.
도 4는 일 예에 따른, 상담 서버와의 통신을 통해, 사용자의 구강 또는 귀에 대한 전문의 진단 정보를 획득하는 방법을 나타내는 흐름도이다.
도 5는 일 예에 따른, 사용자의 구강 또는 귀의 내부에 대해 촬영된 복수의 2차원 영상들에 기반하여 3차원 영상을 획득(생성)하는 방법을 나타낸다.
도 6은 일 예에 따른, 인공지능 모델을 사용하여 치아 우식 데이터를 분석함으로써 진단 정보를 획득하는 방법을 나타낸다.
도 7a 내지 도 7c는 일 예에 따른, 치아 우식 데이터 및 그 분석 방법을 나타낸다. 1 illustrates a method of acquiring state information about a user's mouth or ears through a system including a portable camera device, a mobile terminal, and a management server, according to an embodiment.
2 illustrates a portable camera device used to photograph the inside of a user's mouth or ear, according to an embodiment.
3 is a flowchart illustrating a method of acquiring state information about a user's mouth or ears, according to an embodiment.
4 is a flowchart illustrating a method of acquiring expert diagnosis information on a user's mouth or ears through communication with a counseling server, according to an example.
5 illustrates a method of acquiring (generating) a 3D image based on a plurality of 2D images captured with respect to the inside of the user's mouth or ear, according to an example.
6 illustrates a method of acquiring diagnostic information by analyzing dental caries data using an artificial intelligence model, according to an example.
7A to 7C show dental caries data and an analysis method thereof, according to an example.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Like reference numerals in each figure indicate like elements.
도 1은 일 실시예에 따른, 휴대용 카메라 디바이스, 모바일 단말 및 관리 서버로 구성된 시스템을 통해, 사용자의 구강 또는 귀에 대한 상태 정보를 획득하는 방법을 나타낸다. 1 illustrates a method of acquiring state information about a user's mouth or ears through a system including a portable camera device, a mobile terminal, and a management server, according to an embodiment.
도 1에서는 사용자가 휴대할 수 있는 휴대용 카메라 디바이스(100)를 사용하여 사용자의 구강(치아 및 잇몸을 포함함) 또는 귀 내부를 촬영함으로써 사용자의 구강 또는 귀 내부의 영상을 획득하고; 휴대용 카메라 디바이스(100)와 통신하는 모바일 단말(110)에 의해 획득된 영상이 관리 서버(120) 및/또는 상담 서버(130)로 전송되고; 관리 서버(120)로부터 모바일 단말(110)로 사용자의 구강 또는 귀에 관한 상태 정보(또는 진단 정보)가 수신되고, 상담 서버(130)로부터 모바일 단말(110)로 사용자의 구강 또는 귀에 관한 전문의 진단 정보가 수신되는 방법이 도시되었다. In FIG. 1 , an image of the user's mouth or the inside of the ear is obtained by photographing the user's oral cavity (including teeth and gums) or the inside of the ear using a
휴대용 카메라 디바이스(100)를 도 2를 참조하여 더 자세하게 설명한다. The
도 2는 일 실시예에 따른, 사용자의 구강 또는 귀의 내부를 촬영하기 위해 사용되는 휴대용 카메라 디바이스를 나타낸다. 2 illustrates a portable camera device used to photograph the inside of a user's mouth or ear, according to an embodiment.
휴대용 카메라 디바이스(100)(이하, 카메라 디바이스(100))는 헤드부(210), 본체부(240) 및 본체부(230)에 포함되는 조작부(230)로 구성될 수 있다. 조작부(230)는 카메라 디바이스(100)의 동작(예컨대, 전원 On/Off) 및 촬영을 제어하기 위한 적어도 하나의 버튼을 포함할 수 있다. The portable camera device 100 (hereinafter, the camera device 100 ) may include a
헤드부(210)(헤드)는 분리 가능하게 구성될 수 있고, 따라서, 헤드부(210)는 분리하여 세척될 수 있다. The head portion 210 (head) may be configured to be detachable, and thus the
카메라 디바이스(100)는 헤드부(210)가 분리된 상태에서는 사용자의 귀 내부를 촬영 가능하도록 구성될 수 있다. 이 때, 카메라부(220)(카메라의 렌즈부)는 헤드부(210)에 위치될 수 있다. 카메라부(220)가 사용자의 구강 또는 귀 내부로 삽입됨으로써, 구강 또는 귀 내부가 촬영될 수 있다. The
한편, 카메라 디바이스(100)는 헤드부(210)가 분리되지 않은 상태에서는 사용자의 구강을 촬영 가능하도록 구성될 수 있다. 이 때, 카메라부(220)(카메라의 렌즈부)는 헤드부(210)가 분리된 본체부(240)의 상단부에 위치될 수 있다.On the other hand, the
카메라 디바이스(100)는 촬영된 영상을 임시/영구적으로 저장하기 위한 메모리를 포함할 수 있고, 모바일 단말(110)로 촬영된 영상을 전송하기 위한 통신부를 포함할 수 있다. 예컨대, 카메라 디바이스(100)는 모바일 단말(110)과 와이파이(WIFI)를 통해 서로 접속될 수 있고, 또는 블루투스를 통해 패어링될 수 있다. 또는, 카메라 디바이스(100)는 모바일 단말(110)과 근거리 무선 통신을 사용하여 서로 통신할 수 있다.The
카메라 디바이스(100)는 촬영된 영상을 자동으로 모바일 단말(110)로 송신하거나, 모바일 단말(110)에서의 조작(예컨대, 어플리케이션의 조작) 또는 카메라 디바이스(100)의 조작부(230)의 조작에 따라 촬영된 영상을 모바일 단말(110)로 송신할 수 있다. The
다음으로 모바일 단말(110)에 대해 아래에서 더 자세하게 설명한다. 모바일 단말(110)은 카메라 디바이스(100), 관리 서버(120) 및 상담 서버(130)와 통신하기 위한 사용자의 단말일 수 있다. 모바일 단말(110)에는 카메라 디바이스(100)로부터 영상을 획득하고 관리 서버(120) 및 상담 서버(130)로부터 수신되는 정보를 표시하기 위한 어플리케이션/프로그램이 설치될 수 있다. Next, the
모바일 단말(110)은 컴퓨팅 장치로서, 예컨대, 스마트 폰, 태블릿(tablet), 사물 인터넷(Internet Of Things) 기기, 또는 웨어러블 컴퓨터(wearable computer) 등의 사용자가 사용하는 단말일 수 있다.The
모바일 단말(110)은 도시하지는 않았으나 통신부, 프로세서 및 표시부를 포함할 수 있다. Although not shown, the
통신부는 카메라 디바이스(100)에 의해 촬영된 영상을 수신하고, 관리 서버(120) 및 상담 서버(130)와 정보/데이터를 송수신하기 위한 구성일 수 있다. 말하자면, 통신부(210)는 모바일 단말(110)이 카메라 디바이스(100) 및 서버(120, 130) 등의 기타 다른 장치에 대해 데이터 및/또는 정보를 무선 또는 유선으로 전송/수신하기 위한 구성으로서, 모바일 단말(110)의 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다.The communication unit may be configured to receive an image captured by the
프로세서는 모바일 단말(110)의 구성 요소들을 관리할 수 있고, 모바일 단말(110)이 사용하는 프로그램 또는 어플리케이션을 실행하기 위한 구성일 수 있다. 프로세서는 모바일 단말(110)의 적어도 하나의 프로세서 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다. 이러한 프로세서에 의한 동작에 의해 도 3 내지 도 6을 참조하여 후술될 사용자의 구강 또는 귀에 대한 상태 정보를 획득하는 방법이 수행될 수 있다. 프로세서는 컴퓨터에서 판독 가능한 명령을 실행하도록 구현될 수 있고, 이러한 명령의 실행을 통해 상기의 방법들을 수행할 수 있다.The processor may manage components of the
표시부는 모바일 단말(110)의 사용자가 입력한 데이터를 출력하거나, 카메라 디바이스(100)에 의해 촬영된 영상(들) 및 서버(120, 130)로부터 수신된 상태 정보 및 진단 정보를 출력(표시)하기 위한 디스플레이 장치일 수 있다. 표시부는 터치 스크린을 포함할 수 있다.The display unit outputs data input by the user of the
관리 서버(120)는 모바일 단말(110)을 통해 수신되는 사용자의 구강 또는 귀 내부의 영상을 수신 및 관리하고, 영상에 기반하여 사용자의 구강 또는 귀에 대한 상태 정보를 생성하는 장치일 수 있다. 관리 서버(120)는 모바일 단말(110)과는 원격지에 존재하는 서버 또는 기타 컴퓨팅 장치일 수 있다. 관리 서버(120)는 상태 정보를 생성함에 있어서, 빅 데이터를 활용할 수 있다. 또는/추가적으로, 관리 서버(120)는 상태 정보를 생성함에 있어서 내부에 구현되는 인공지능 모듈(예컨대, 딥러닝 모듈)을 사용할 수 있다. The
관리 서버(120)는 통신부 및 프로세서를 포함할 수 있다. 관리 서버(120)의 통신부 및 프로세서에 대해서는 모바일 단말(110)의 통신부 및 프로세서에 대한 기술적인 설명이 유사하게 적용될 수 있으므로 중복되는 설명은 생략한다. The
상담 서버(130)는 모바일 단말(110) 또는 관리 서버(120)를 통해 수신되는 사용자의 구강 또는 귀 내부의 영상에 기반하여, 사용자의 구강 또는 귀에 대한 전문의 진단 정보를 생성하는 장치일 수 있다. 상담 서버(130)는 모바일 단말(110)과는 원격지에 존재하는 서버 또는 기타 컴퓨팅 장치일 수 있다.The
상담 서버(130)는 구강 또는 귀에 대한 전문의(들)가 사용하는 단말(들) (140)과 통신 가능하도록 구성될 수 있다. 모바일 단말(110) 또는 관리 서버(120)를 통해 상담 서버(130)로 전송된 영상은 전문의가 확인 가능하도록 상기 전문의가 사용하는 단말(140)에서 제공될 수 있다. 이러한 영상을 확인한 전문의의 단말(140)로부터 입력된 정보에 기반하여, 상담 서버(130)는 사용자의 구강 또는 귀에 대한 전문의 진단 정보를 생성할 수 있다. 단말(140)은 컴퓨팅 장치로서, 예컨대, 스마트 폰, 태블릿(tablet), 사물 인터넷(Internet Of Things) 기기, 또는 웨어러블 컴퓨터(wearable computer) 등의 전문의가 사용하는 단말일 수 있다. 단말(140)은 병원 내에서 사용되는 장치(예컨대, 병원에 배치된 의사가 사용하는 개인 컴퓨터)일 수 있다. The
상담 서버(130)는 통신부 및 프로세서를 포함할 수 있다. 관리 서버(130)의 통신부 및 프로세서에 대해서는 모바일 단말(110)의 통신부 및 프로세서에 대한 기술적인 설명이 유사하게 적용될 수 있으므로 중복되는 설명은 생략한다. The
모바일 단말(110), 관리 서버(120) 및 상담 서버(130)의 구체적인 방법과, 사용자의 구강 또는 귀에 대한 상태 정보를 획득하는 방법의 상세한 내용에 대해서는 후술될 도 3 내지 도 7을 참조하여 더 자세하게 설명한다. For details of a specific method of the
후술될 상세한 설명에서, 모바일 단말(110) 또는 프로세서의 구성들에 의해 수행되는 동작이나 모바일 단말(110) 또는 프로세서가 실행하는 어플리케이션/프로그램에 의해 수행되는 동작은 설명의 편의상 모바일 단말(110)에 의해 수행되는 동작으로 설명될 수 있다. 관리 서버(120), 상담 서버(130) 및 카메라 디바이스(100)와 관련하여서도 마찬가지이다. In the detailed description to be described later, the operation performed by the
도 3은 일 실시예에 따른, 사용자의 구강 또는 귀에 대한 상태 정보를 획득하는 방법을 나타내는 흐름도이다. 3 is a flowchart illustrating a method of acquiring state information about a user's mouth or ears, according to an embodiment.
단계(310)에서, 모바일 단말(110)은 휴대용 카메라 디바이스(100)에 의해 사용자의 구강 또는 귀 내부가 촬영됨에 따라, 휴대용 카메라 디바이스(100)로부터 사용자의 구강 또는 귀 내부의 영상을 획득할 수 있다. 모바일 단말(110)은 획득(수신)된 영상을 (메모리 또는 스토리지에) 저장할 수 있다. In
단계(320)에서, 모바일 단말(110)은 단계(310)에서 획득된 영상을 관리 서버(120)로 전송할 수 있다. 전송된 영상은 관리 서버(120)에서 사용자에 대해 이전에 획득된 사용자의 구강 또는 귀 내부의 영상과 함께 축적되어 관리될 수 있다. 말하자면, 관리 서버(120)는 사용자에 대해 촬영된 영상들을 시계열적으로 축적하여 관리할 수 있다. 관리 서버(120)는 사용자별로 이러한 영상을 관리할 수 있다. In
단계(330)에서, 모바일 단말(110)은 관리 서버(120)로부터 사용자의 구강 또는 귀에 관한 상태 정보를 수신할 수 있다. 상태 정보는 관리 서버(120)에 의해 생성되는 것으로서, 관리 서버(120)는 관리 서버(120)에서 축적되어 관리되는 사용자의 구강 또는 귀 내부의 영상(들)을 분석함으로써 이러한 관리 정보를 생성할 수 있다.In
단계(340)에서, 모바일 단말(110)은 수신된 상태 정보를 표시할 수 있다. 모바일 단말(110)은 구강 또는 귀에 대한 상태를 제공하는 모바일 단말(110)에 설치된 어플리케이션을 통해 이러한 상태 정보를 표시할 수 있다.In
상태 정보의 수신 및 표시는 주기적(예컨대, 매주 또는 매월)으로 이루어질 수 있다. Reception and display of status information may occur periodically (eg, weekly or monthly).
관리 서버(120)가 생성하는 사용자의 구강 또는 귀에 관한 상태 정보는, 사용자의 사용자의 구강 또는 귀에 관한 진단 정보를 포함할 수 있다. 예컨대, 이러한 진단 정보는, 관리 서버(120)에서 소정의 기간 동안 사용자에 대해 획득된 사용자의 구강 또는 귀 내부의 영상들을, 관리 서버(120)가 분석함에 따라 획득되는 것일 수 있다.The state information about the user's mouth or ears generated by the
일례로, 상기 영상들의 각각이 사용자의 치아를 촬영한 것인 경우에 있어서, 전술한 진단 정보는, 영상들 중 소정의 기간 동안의 제1 시점에 촬영된 제1 영상에 포함된 치아의 색상과 해당 영상들 중 소정의 기간 동안의 제2 시점(상기 제1 시점 이후 일정 기간이 경과한 시점)에 촬영된 제2 영상에 포함된 치아의 색상을 비교한 차이에 기반하여 생성될 수 있다. 관리 서버(120)는 이러한 색상의 차이가 상대적으로 큰 경우와 작은 경우에 각각 상이한 종류의 진단 정보를 생성할 수 있다. 예컨대, 관리 서버(100)는 1개월 전 및 6개월 전에 촬영된 영상들로부터의 치아 색상을 비교할 수 있다. 치아의 색상 변화에 대한 판단은 도 6을 참조하여 후술될 인공지능 모델(600)을 통해 수행될 수 있다.For example, in the case where each of the images is a photograph of a user's teeth, the above-described diagnostic information includes a color of a tooth included in a first image captured at a first time point during a predetermined period among images and The image may be generated based on a difference between the colors of teeth included in the second image captured at a second time point (a point in time when a predetermined period has elapsed after the first time point) during a predetermined period among the corresponding images. The
관리 서버(120)는 사용자의 구강 또는 귀 내부의 영상(들)을 분석하여 사용자의 치아 또는 귀에 이상이 있는지 여부를 판정할 수 있다. 예컨대, 관리 서버(120)는 상기 색상의 차이가 일정 이상인 경우 사용자의 치아에 이상이 있는 것으로 판정할 수 있고, 상기 색상의 차이가 일정 미만인 경우 사용자의 치아가 정상인 것으로 판정할 수 있다. 전술한 진단 정보는 이러한 사용자의 치아(또는 귀 내부)의 이상 여부를 나타내는 정보를 포함할 수 있다.The
단계(340)에서, 모바일 단말(110)은 진단 정보가 사용자의 치아 또는 귀의 이상을 나타낼 경우, 경고 메시지를 출력할 수 있다. 경고 메시지는 음성 메시지로서 모바일 단말(110)에서 출력되거나, 시각적인 메시지로서 모바일 단말(110)에서 표시될 수 있다. In
사용자는 관리 서버(120)로부터 수신되는 상태 정보(또는 진단 정보)를 확인하여 자신의 구강(치아) 또는 귀를 자가 진단할 수 있으며, 모바일 단말(110)에서 출력되는 경고 메시지를 통해 구강(치아) 또는 귀의 이상에 대한 주의를 환기할 수 있다.The user can self-diagnose his or her oral cavity (teeth) or ear by checking the status information (or diagnostic information) received from the
이상, 도 1 및 도 2를 참조하여 전술된 기술적 특징은 도 3에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. As described above, the technical features described above with reference to FIGS. 1 and 2 can be applied to FIG. 3 as they are, and thus a redundant description will be omitted.
도 4는 일 예에 따른, 상담 서버와의 통신을 통해, 사용자의 구강 또는 귀에 대한 전문의 진단 정보를 획득하는 방법을 나타내는 흐름도이다.4 is a flowchart illustrating a method of acquiring expert diagnosis information on a user's mouth or ears through communication with a counseling server, according to an example.
단계(410)에서, 모바일 단말(110)(또는 관리 서버(120))는 획득된 영상(즉, 사용자의 구강 또는 귀 내부에 대해 촬영된 영상)을 상담 서버(130)로 전송할 수 있다. 전술한 것처럼, 상담 서버(130)는 구강 또는 귀에 대한 전문의가 사용하는 단말(140)과 통신 가능하도록 구성될 수 있다. 단계(410)에서, 상담 서버(130)로 전송된 영상은 전문의가 확인 가능하도록 전문의가 사용하는 단말(140)에 제공될 수 있다. 즉, 전문의는 자신의 단말(140)을 통해 사용자의 구강 또는 귀 내부에 대해 촬영된 영상을 열람할 수 있다. In
단계(420)에서, 모바일 단말(110)(또는 관리 서버(120)를 경유하여 모바일 단말(110))은 상담 서버(130)로부터, 사용자의 구강 또는 귀에 대한 전문의 진단 정보를 수신할 수 있다. 전문의 진단 정보는 전문의가 사용하는 단말(140)로부터 (전문의에 의해) 입력된 정보에 기반하여 상담 서버(130)에 의해 생성된 것일 수 있다. 예컨대, 전문의는 단말(140)을 통해 열람한 사용자의 영상에 대해 자신의 전문의로서의 진단 의견을 작성할 수 있고, 상담 서버(130)는 이러한 진단 의견을 가공함으로써 모바일 단말(110)에의 제공을 위한 전문의 진단 정보를 생성할 수 있다. In
단계(410)에서, 모바일 단말(110)은 수신된 전문의 진단 정보를 표시할 수 있다. In
실시예를 통해, 모바일 단말(110)은 관리 서버(120)를 통해 주기적으로 상태 정보를 수신하는 것 외에, 상담 서버(130)를 통해 전문의 진단 정보를 (마찬가지로 주기적으로) 획득할 수 있다. 따라서, 사용자는 전문의로부터의 보다 정확한 의견을 나타내는 진단 정보를 원격으로 확인할 수 있게 된다. 예컨대, 비대면으로 유아 및 아동 등에 대해 정기적인 치아 건강 관리 및 상담이 이루어질 수 있다. According to the embodiment, the
전술한 관리 서버(120)로부터의 상태 정보 및/또는 상담 서버(130)로부터의 전문의 진단 정보는 모바일 단말(110)로부터의 요청이 있는 경우에 모바일 단말(110)로 전송될 수 있다. 모바일 단말(110)은 소정의 어플리케이션을 통해 이러한 요청을 관리 서버(120) 및/또는 상담 서버(130)로 전송할 수 있다(예컨대, 도 1에서 도시된 모바일 단말(110)의 화면에서 "상담" 선택 시 상담 서버(130)에 전문의 진단 정보가 요청될 수 있음). The aforementioned status information from the
한편, 전문의가 사용하는 단말(140)은 상담 서버(130)를 통해 관리 서버(120)에 접근 가능하도록 구성될 수 있다. 전문의 진단 정보는 관리 서버(120)에서 축적되어 관리되는 사용자의 구강 또는 귀 내부의 영상(들)에 더 기반하여 생성된 것일 수 있다. Meanwhile, the terminal 140 used by the specialist may be configured to be accessible to the
말하자면, 전문의는 단말(140)을 사용하여 관리 서버(120)에서 축적 관리되고 있는 사용자의 영상에도 접근할 수 있고, 이를 참조하여, 사용자에 대해 보다 정확한 진단 의견을 단말(140)에 입력할 수 있다. 이러한 접근은 사용자(모바일 단말(110))에 의해 허가된 경우(즉, 허가의 통지가 관리 서버(120) 및/또는 상담 서버(130)에 출력된 경우)에만 가능하게 될 수 있다. In other words, the specialist can also access the user's image accumulated and managed in the
실시예에 따라, 사용자는 보다 정확하게 원격의 의료 정보를 획득할 수 있게 된다. According to an embodiment, a user may more accurately obtain remote medical information.
한편, 도 3을 참조하여 전술된 경고 메시지가 모바일 단말(110)에 출력되는 경우에 있어서, 경고 메시지와 연관된 진단 정보는 (구강 또는 귀에 대한 전문의가 사용하는 단말(140)과 통신 가능하도록 구성되는) 상담 서버(130)로 전달될 수 있다. 이에 따라, 전문의는 단말(140)을 통해 이러한 진단 정보를 확인할 수 있고, 단말(140)을 통해 상담 서버(130)를 경유하여 해당 진단 정보에 대한 피드백을 모바일 단말(110)에 대해 제공할 수 있다. On the other hand, in the case in which the warning message described above with reference to FIG. 3 is output to the
이상, 도 1 내지 도 3을 참조하여 전술된 기술적 특징은 도 4에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. As described above, the technical features described above with reference to FIGS. 1 to 3 can be applied to FIG. 4 as it is, and thus a redundant description will be omitted.
도 5는 일 예에 따른, 사용자의 구강 또는 귀의 내부에 대해 촬영된 복수의 2차원 영상들에 기반하여 3차원 영상을 획득(생성)하는 방법을 나타낸다.5 illustrates a method of acquiring (generating) a 3D image based on a plurality of 2D images captured with respect to the inside of the user's mouth or ear, according to an example.
단계(310)에서 획득된 영상(또는 관리 서버(120)가 축적 관리하고 있는 영상)은 복수의 영상들로서 사용자의 구강(또는 귀 내부)을 촬영한 2차원의 영상들일 수 있다. The image obtained in step 310 (or the image accumulated and managed by the management server 120 ) may be two-dimensional images obtained by photographing the user's mouth (or the inside of the ear) as a plurality of images.
단계(510)에서, 관리 서버(120)(또는 모바일 단말(110))은 사용자의 구강(또는 귀 내부)을 촬영한 이러한 복수의 2차원의 영상들을 획득할 수 있다. In step 510 , the management server 120 (or the mobile terminal 110 ) may acquire a plurality of two-dimensional images of the user's oral cavity (or inside the ear).
단계(520)에서, 관리 서버(120)(또는 모바일 단말(110))은 이러한 2차원의 영상들을 합성함으로써 사용자의 구강(또는 귀 내부)의 3차원의 영상을 생성(획득)할 수 있다. In step 520, the management server 120 (or the mobile terminal 110) may generate (obtain) a three-dimensional image of the user's mouth (or inside the ear) by synthesizing these two-dimensional images.
3차원의 영상은 사용자의 사용자의 구강(또는 귀 내부)에 대한 파노라마 영상일 수 있다. The 3D image may be a panoramic image of the user's mouth (or inside the ear) of the user.
복수의 2차원의 영상들 각각은 구강(또는 귀 내부)의 서로 상이한 부분을 촬영한 영상일 수 있다. 이러한 각 영상은 소정의 중복을 갖되 구강(또는 귀 내부)의 서로 상이한 부분을 촬영한 영상일 수 있다. 관리 서버(120)(또는 모바일 단말(110))는 2차원 영상들을 합성하여 3차원의 영상(예컨대, 파노라마 영상)을 생성함에 있어서 여하한 영상 합성 방법을 사용할 수 있다.Each of the plurality of two-dimensional images may be images obtained by photographing different portions of the oral cavity (or inside the ear). Each of these images may be images obtained by photographing different portions of the oral cavity (or the inside of the ear) with a predetermined overlap. The management server 120 (or the mobile terminal 110) may use any image synthesis method in generating a 3D image (eg, a panoramic image) by synthesizing the 2D images.
생성된 3차원의 영상은 모바일 단말(110)에서 표시될 수 있다. The generated 3D image may be displayed on the
이상, 도 1 내지 도 4를 참조하여 전술된 기술적 특징은 도 5에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. As described above, the technical features described above with reference to FIGS. 1 to 4 can be applied to FIG. 5 as they are, and thus a redundant description will be omitted.
도 6은 일 예에 따른, 인공지능 모델을 사용하여 치아 우식 데이터를 분석함으로써 진단 정보를 획득하는 방법을 나타낸다.6 illustrates a method of obtaining diagnostic information by analyzing dental caries data using an artificial intelligence model, according to an example.
도 3을 참조하여 전술된 진단 정보는, 관리 서버에 구현된 인공지능(AI) 모델(600)이 사용자의 구강 또는 귀 내부의 영상들을 분석한 결과로서 생성될 수 있다. AI 모델(600)은 예컨대, 인공 신경망으로 구성된 모델, CNN 모델, 딥러닝 모델일 수 있다. The diagnostic information described above with reference to FIG. 3 may be generated as a result of the artificial intelligence (AI)
AI 모델(600)은 특징 추출부(610) 및 클래스 분류부(620)를 포함할 수 있다. AI 모델(600)(클래스 분류부(620))는 소정의 테스트 데이터에 의해 미리 훈련된 것일 수 있다. 테스트 데이터는 정답을 이미 알고 있는 데이터일 수 있다. The
AI 모델(600)은 입력으로서, 사용자에 대해 촬영된 영상에 포함된 치아 우식 데이터를 사용할 수 있다. 즉, 관리 서버(120)가 분석하는 영상들의 각각은 치아 우식 데이터를 포함할 수 있고, AI 모델(600)은 이를 입력 데이터로서 사용할 수 있다. 테스트 데이터는 AI 모델(600)을 치아 우식 데이터를 입력으로 하여 치아에 대한 상태 정보를 출력하도록 훈련시키기 위한 훈련용 데이터일 수 있다.The
사용자에 대해 촬영된 영상에 포함된 치아 우식 데이터는 특징 추출부(610)에 의해 특징이 추출될 수 있다. 치아 우식 데이터 및 추출된 특징은 클래스 분류부(620)로 입력될 수 있고, 클래스 분류부(620)에 의해 분류되어 결과 데이터가 출력될 수 있다. 결과 데이터에 기반하여, 관리 서버(120)는 사용자에 대해 촬영된 영상에 포함된 치아의 상태를 판정할 수 있다. 예컨대, 관리 서버(120)는 결과 데이터에 기반하여 치아의 질병 유무를 판정하거나, 질병의 가능성을 예측 및 평가할 수 있다. The dental caries data included in the image taken for the user may be feature extracted by the feature extraction unit (610). The dental caries data and the extracted features may be input to the
예컨대, 도 3을 참조하여 전술한 (관리 서버(120)에 의해 생성되는) 진단 정보는, 사용자에 대해 촬영된 영상에 포함된 치아 우식 데이터로부터 특징 추출부(610)에 의해 추출된 특징을, 소정의 테스트 데이터에 기반하여 미리 학습된 클래스 분류기(620)에 입력시킴에 따른 결과로서 출력되는 데이터에 기반하여 생성되는 것일 수 있다.For example, the diagnostic information (generated by the management server 120) described above with reference to FIG. 3 is a feature extracted by the
실시예에 의해서는, AI 모델에 기반한 사용자의 영상 분석에 따라, 사용자의 구강 또는 귀에 대한 상태 정보가 제공될 수 있다.In some embodiments, state information about the user's mouth or ears may be provided according to the user's image analysis based on the AI model.
도 7a 내지 도 7c는 일 예에 따른, 치아 우식 데이터 및 그 분석 방법을 나타낸다. 7A to 7C show dental caries data and an analysis method thereof, according to an example.
도 7a 내지 도 7c는 치아 우식 진행에 따른 표준 ICDAS 코드를 나타낸다. 관리 서버(120)는 사용자에 대해 촬영된 영상을 분석함으로써 사용자의 치아 상태가 도시된 ICDAS 코드들(0 내지 6) 중 어느 것의 상태에 대응하는지를 판정할 수 있다. 전술된 AI 모델(600) 역시 입력된 사용자의 영상에 대해 사용자의 영상이 포함하는 치아의 상태를 ICDAS 코드들(0 내지 6) 중 어느 하나로 분류하도록 훈련된 것일 수 있다. 즉, 도 3 내지 도 6을 참조하여 전술된 상태 정보(또는 진단 정보)는 사용자의 치아가 ICDAS 코드들(0 내지 6) 중 어느 것에 해당하는지를 나타내는 정보를 포함할 수 있다. 7a to 7c show standard ICDAS codes according to the progression of dental caries. The
이상, 도 1 내지 도 6을 참조하여 전술된 기술적 특징은 도 7 및 도 8에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. As described above, the technical features described above with reference to FIGS. 1 to 6 can be applied to FIGS. 7 and 8 as they are, and thus a redundant description will be omitted.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more of these, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible from the above description by those skilled in the art. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.
Claims (10)
상기 휴대용 카메라 디바이스에 의해 사용자의 구강 내부가 촬영됨에 따라, 상기 휴대용 카메라 디바이스로부터 상기 사용자의 구강 내부의 영상을 획득하는 단계;
상기 모바일 단말이, 상기 획득된 영상을 관리 서버로 전송하는 단계 - 상기 전송된 영상은 상기 관리 서버에서 상기 사용자에 대해 이전에 획득된 상기 사용자의 구강 내부의 영상과 함께 축적되어 관리됨 -;
상기 관리 서버에서 축적되어 관리되는 상기 사용자의 구강 내부의 영상이 상기 관리 서버에 의해 분석됨에 따라 생성된 상기 사용자의 구강에 관한 상태 정보를, 상기 관리 서버로부터, 수신하는 단계; 및
상기 수신된 상태 정보를 표시하는 단계
를 포함하고,
상기 수신된 상태 정보는 상기 관리 서버에서 소정의 기간 동안 상기 사용자에 대해 획득된 상기 사용자의 구강 내부의 영상들이, 상기 관리 서버에 의해 분석됨에 따라 획득된 상기 사용자의 구강에 대한 진단 정보를 포함하고,
상기 영상들의 각각은 상기 사용자의 치아를 촬영한 것이고,
상기 진단 정보는, 상기 영상들 중 상기 소정의 기간 동안의 제1 시점에 촬영된 제1 영상에 포함된 상기 치아의 색상과 상기 영상들 중 상기 소정의 기간 동안의 제2 시점에 촬영된 제2 영상에 포함된 상기 치아의 색상을 비교한 차이에 기반하여 생성되되, 상기 사용자의 치아의 이상 여부를 나타내는 정보를 포함하고,
상기 진단 정보는, 상기 관리 서버에서의 판정에 따라, 상기 치아의 색상을 비교한 차이가 소정의 값 이상인 경우 상기 사용자의 치아에 이상이 있는 것을 나타내는 제1 정보를 포함하고, 상기 치아의 색상을 비교한 차이가 소정의 값 미만인 경우 상기 사용자의 치아가 정상인 것을 나타내는 제2 정보를 포함하고,
상기 구강에 대한 상태 정보를 획득하는 방법은,
상기 진단 정보가 상기 제1 정보를 포함할 경우, 경고 메시지를 표시하는 단계
를 더 포함하고,
상기 제1 정보를 포함하는 상기 진단 정보는 구강에 대한 전문의가 사용하는 단말과 통신 가능하도록 구성되는 상담 서버로 전달되고,
상기 상담 서버는 구강에 대한 전문의가 사용하는 단말과 통신 가능하도록 구성되고, 상기 상담 서버로 전송된 상기 제1 정보를 포함하는 상기 진단 정보는 상기 전문의가 확인 가능하도록 상기 전문의가 사용하는 단말에 제공되고,
상기 구강에 대한 상태 정보를 획득하는 방법은,
상기 상담 서버로 상기 제1 정보를 포함하는 상기 진단 정보가 전달됨에 따라, 상기 상담 서버로부터, 상기 사용자의 구강에 대한 전문의 진단 정보를 수신하는 단계; 및
상기 수신된 전문의 진단 정보를 표시하는 단계
를 더 포함하고,
상기 모바일 단말로부터의 허가가 있는 경우에만, 상기 전문의가 사용하는 단말은 상기 상담 서버를 통해 상기 관리 서버에 접근 가능하도록 구성되고,
상기 전문의 진단 정보는, 상기 제1 정보를 포함하는 상기 진단 정보를 확인한 상기 전문의가 사용하는 단말로부터 입력된 정보에 기반하여 상기 상담 서버에 의해 생성된 것으로서, 상기 전문의가 사용하는 단말에 의해 접근이 허가된 상기 관리 서버에서 축적되어 관리되는 상기 사용자의 구강 내부의 영상에 더 기반하여 생성된 것이고,
상기 구강에 대한 상태 정보를 획득하는 방법은,
상기 상담 서버를 통해, 상기 관리 서버에서 축적되어 관리되는 상기 사용자의 구강 내부의 영상에 기반하여 생성된 상기 사용자의 구강에 대한 전문의 진단 정보를 주기적으로 수신하는 단계; 및
상기 모바일 단말의 화면에서 표시된 사용자 인터페이스가 선택되는 경우, 상기 관리 서버에서 축적되어 관리되는 상기 사용자의 구강 내부의 영상에 기반하여 생성된 상기 사용자의 구강에 대한 전문의 진단 정보를 수신하는 단계
를 더 포함하는, 구강에 대한 상태 정보를 획득하는 방법.A method of obtaining status information about the user's oral cavity, performed by a mobile terminal communicating with a portable camera device and a management server, the method comprising:
As the inside of the user's mouth is photographed by the portable camera device, obtaining an image of the inside of the user's mouth from the portable camera device;
Transmitting, by the mobile terminal, the acquired image to a management server, the transmitted image is accumulated and managed together with the image of the user's oral cavity previously acquired for the user in the management server;
Receiving, from the management server, state information about the user's oral cavity generated as the image inside the user's oral cavity accumulated and managed by the management server is analyzed by the management server; and
displaying the received status information
including,
The received state information includes diagnostic information about the user's oral cavity obtained by analyzing the images in the user's oral cavity obtained for the user for a predetermined period in the management server by the management server, and ,
Each of the images is a photograph of the user's teeth,
The diagnosis information may include a color of the tooth included in a first image captured at a first time point during the predetermined period among the images and a second image captured at a second time point during the predetermined period among the images. It is generated based on a difference comparing the color of the teeth included in the image, and includes information indicating whether the user's teeth are abnormal,
The diagnosis information includes first information indicating that there is an abnormality in the user's teeth when the difference between the colors of the teeth is greater than or equal to a predetermined value according to a determination in the management server, and the color of the teeth and second information indicating that the user's teeth are normal when the compared difference is less than a predetermined value,
A method of obtaining state information about the oral cavity,
displaying a warning message when the diagnostic information includes the first information
further comprising,
The diagnosis information including the first information is transmitted to a counseling server configured to be able to communicate with a terminal used by an oral specialist,
The consultation server is configured to be able to communicate with a terminal used by a specialist for oral cavity, and the diagnosis information including the first information transmitted to the consultation server is provided to a terminal used by the specialist so that the specialist can confirm become,
A method of obtaining state information about the oral cavity,
receiving, from the counseling server, diagnostic information of a specialist about the user's oral cavity as the diagnosis information including the first information is transmitted to the counseling server; and
Displaying the received expert diagnosis information
further comprising,
Only when there is permission from the mobile terminal, the terminal used by the specialist is configured to be able to access the management server through the consultation server,
The specialist diagnosis information is generated by the consultation server based on information input from the terminal used by the specialist who has confirmed the diagnosis information including the first information, and is accessed by the terminal used by the specialist It is generated based on the image inside the user's oral cavity that is accumulated and managed by the authorized management server,
A method of obtaining state information about the oral cavity,
periodically receiving, through the consultation server, expert diagnosis information on the user's oral cavity generated based on the image inside the user's oral cavity accumulated and managed by the management server; and
When the user interface displayed on the screen of the mobile terminal is selected, receiving expert diagnosis information about the user's oral cavity generated based on the image inside the user's oral cavity accumulated and managed by the management server
Further comprising, a method of obtaining state information about the oral cavity.
상기 진단 정보는 상기 관리 서버에 구현된 AI 모델이 상기 사용자의 구강 내부의 영상들을 분석한 결과로서 생성되는, 구강에 대한 상태 정보를 획득하는 방법.The method of claim 1,
The diagnostic information is generated as a result of the AI model implemented in the management server analyzing the images inside the user's mouth, how to obtain state information about the oral cavity.
상기 영상들의 각각은 치아 우식 데이터를 포함하고,
상기 진단 정보는, 상기 치아 우식 데이터로부터 추출된 특징을 소정의 테스트 데이터에 기반하여 미리 학습된 클래스 분류기에 입력시킴에 따른 결과로서 출력되는 데이터에 기반하여 생성되는, 구강에 대한 상태 정보를 획득하는 방법.6. The method of claim 5,
Each of the images includes dental caries data,
The diagnosis information is generated based on data output as a result of inputting the features extracted from the dental caries data to a class classifier learned in advance based on predetermined test data, to obtain state information about the oral cavity Way.
상기 획득된 영상은 복수의 영상들로서 상기 사용자의 구강을 촬영한 2차원의 영상들이고,
상기 모바일 단말 또는 상기 관리 서버에서, 상기 2차원의 영상들을 합성함으로써 상기 사용자의 구강의 3차원의 영상을 생성하는 단계
를 더 포함하는, 구강에 대한 상태 정보를 획득하는 방법. The method of claim 1,
The acquired image is a two-dimensional image of the user's oral cavity as a plurality of images,
Generating a three-dimensional image of the user's mouth by synthesizing the two-dimensional images in the mobile terminal or the management server
Further comprising, a method of obtaining state information about the oral cavity.
상기 휴대용 카메라 디바이스는 헤드가 분리 가능하게 구성되고,
상기 헤드가 분리된 상태에서는 상기 사용자의 귀 내부를 촬영 가능하도록 구성되고,
상기 헤드가 분리되지 않은 상태에서는 상기 사용자의 구강을 촬영 가능하도록 구성되는 것인, 구강에 대한 상태 정보를 획득하는 방법.The method of claim 1,
The portable camera device is configured to have a detachable head,
In the state in which the head is separated, it is configured to be able to photograph the inside of the user's ear,
In a state in which the head is not separated, the method for obtaining state information about the oral cavity is configured to be capable of photographing the user's oral cavity.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200162079A KR102421739B1 (en) | 2020-11-27 | 2020-11-27 | System and method for monitoring oral health using camera device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200162079A KR102421739B1 (en) | 2020-11-27 | 2020-11-27 | System and method for monitoring oral health using camera device |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220075065A KR20220075065A (en) | 2022-06-07 |
KR102421739B1 true KR102421739B1 (en) | 2022-07-20 |
Family
ID=81987219
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200162079A KR102421739B1 (en) | 2020-11-27 | 2020-11-27 | System and method for monitoring oral health using camera device |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102421739B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015147045A (en) * | 2014-02-05 | 2015-08-20 | シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング | Method and device for intraoral three-dimensional measurement |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101758977B1 (en) * | 2015-06-10 | 2017-07-18 | 주식회사 레메디 | The diagnostic imaging apparatus and method for transmitting a diagnostic image to external system thereby |
KR102074887B1 (en) * | 2018-03-05 | 2020-03-11 | 재단법인 경북아이티융합 산업기술원 | Oral conditon management remote monitoring system using image analysis |
-
2020
- 2020-11-27 KR KR1020200162079A patent/KR102421739B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015147045A (en) * | 2014-02-05 | 2015-08-20 | シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング | Method and device for intraoral three-dimensional measurement |
Also Published As
Publication number | Publication date |
---|---|
KR20220075065A (en) | 2022-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3787481B1 (en) | Machine learning-based diagnostic classifier | |
US20210057105A1 (en) | Method and apparatus for determining health status | |
US10117617B2 (en) | Automated systems and methods for skin assessment and early detection of a latent pathogenic bio-signal anomaly | |
US20180092595A1 (en) | System and method for training and monitoring administration of inhaler medication | |
CN112673378B (en) | Device for generating estimator, monitoring device, method for generating estimator, and program for generating estimator | |
US20160364549A1 (en) | System and method for patient behavior and health monitoring | |
US12036085B2 (en) | Systems and methods for remote dental monitoring | |
KR20210006244A (en) | Method and apparatus for recording and displaying dental care data on a digital dental image | |
KR102241804B1 (en) | Method of assessing the psychological state through the drawing process of the subject and computer program | |
US11113813B2 (en) | Evaluating a condition of a person | |
KR102388337B1 (en) | Service provision method of the application for temporomandibular joint disease improvement service | |
KR20210083478A (en) | Mobile based self-oral examination device | |
KR20180033106A (en) | Portable terminal for an intraoral x-ray sensor and intraoral x-ray system using the same | |
KR102216899B1 (en) | Psychology consultation method capable of personalized consultation through real-time image and voice mapping | |
KR102421739B1 (en) | System and method for monitoring oral health using camera device | |
WO2008033010A1 (en) | Device and method for positioning recording means for recording images relative to an object | |
KR20190112493A (en) | Method for controling fundus camera and apparatus using the same | |
WO2023076456A1 (en) | Monitoring system and method for remote monitoring of physiological health | |
KR102596502B1 (en) | Dental scanner device, method and the system thereof | |
IT202100004274A1 (en) | MONITORING AND COMMUNICATION SYSTEM BETWEEN PATIENT AND DOCTOR | |
KR102216892B1 (en) | Psychology consultation method capable of personalized video consultation through real-time image mapping | |
JP7485233B2 (en) | Information processing system, information processing device, information processing method, and program | |
US11883186B2 (en) | Methods and systems for continuous measurement of anomalies for dysmorphology analysis | |
AU2021374990B2 (en) | Deriving insights into motion of an object through computer vision | |
JP7202729B1 (en) | Orthodontic advice system, orthodontic advice method and its program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |