KR102421739B1 - System and method for monitoring oral health using camera device - Google Patents

System and method for monitoring oral health using camera device Download PDF

Info

Publication number
KR102421739B1
KR102421739B1 KR1020200162079A KR20200162079A KR102421739B1 KR 102421739 B1 KR102421739 B1 KR 102421739B1 KR 1020200162079 A KR1020200162079 A KR 1020200162079A KR 20200162079 A KR20200162079 A KR 20200162079A KR 102421739 B1 KR102421739 B1 KR 102421739B1
Authority
KR
South Korea
Prior art keywords
user
information
oral cavity
management server
image
Prior art date
Application number
KR1020200162079A
Other languages
Korean (ko)
Other versions
KR20220075065A (en
Inventor
유현민
지용국
Original Assignee
주식회사 핵심가치
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 핵심가치 filed Critical 주식회사 핵심가치
Priority to KR1020200162079A priority Critical patent/KR102421739B1/en
Publication of KR20220075065A publication Critical patent/KR20220075065A/en
Application granted granted Critical
Publication of KR102421739B1 publication Critical patent/KR102421739B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/24Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the mouth, i.e. stomatoscopes, e.g. with tongue depressors; Instruments for opening or keeping open the mouth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00055Operational features of endoscopes provided with output arrangements for alerting the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/227Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for ears, i.e. otoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0013Medical image data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7465Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/04Constructional details of apparatus
    • A61B2560/0431Portable apparatus, e.g. comprising a handle or case

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Physiology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Nursing (AREA)
  • Signal Processing (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

휴대용 카메라 디바이스를 사용하여 사용자의 구강 또는 귀 내부가 촬영됨에 따라 획득된 영상을 관리 서버에서 분석 및 관리하며, 모바일 단말이, 관리 서버로부터, 구상 또는 귀 내부에 관한 상태 정보를 수신하고, 표시하는 방법이 제공된다. The management server analyzes and manages the image obtained as the user's mouth or inside the ear is photographed using the portable camera device, and the mobile terminal receives and displays status information about the conception or the inside of the ear from the management server A method is provided.

Figure R1020200162079
Figure R1020200162079

Description

카메라 디바이스를 사용하여 구강 상태 모니터링 시스템 및 방법{SYSTEM AND METHOD FOR MONITORING ORAL HEALTH USING CAMERA DEVICE}SYSTEM AND METHOD FOR MONITORING ORAL HEALTH USING CAMERA DEVICE

실시예들은 카메라 디바이스를 사용하여 구강 상태 모니터링 시스템 및 방법에 관한 것으로, 특히, 휴대용 카메라 디바이스를 사용하여 촬영된 영상에 기반하여 사용자의 구강(또는 귀) 상태에 관한 정보를 획득하는 시스템 및 방법에 관한 것이다. The embodiments relate to an oral condition monitoring system and method using a camera device, and more particularly, to a system and method for obtaining information about a user's oral (or ear) condition based on an image captured using a portable camera device. it's about

최근 구강 내의 질환 또는 귀 내의 질환을 자가 진단하는 방법에 대한 관심이 높아지고 있다. 특히, 치주 질환의 경우 여러 전신의 다른 질환들(당료, 폐질환, 심장 질환, 동맥경화, 간 질환 등)과 관련되는 경우가 많고, 노인과 같은 고령자의 삶의 질을 저하시키는 중요한 요인이 되는 것으로 알려져 있다. 치과 분야에서의 중증 치료의 경우 40% 이상이 치아 또는 잇몸의 문제를 조기에 발견하지 못하여 발생하는 경우가 많다. Recently, interest in a method for self-diagnosing diseases in the oral cavity or diseases in the ear is increasing. In particular, in the case of periodontal disease, it is often associated with other diseases of the body (diabetes, lung disease, heart disease, arteriosclerosis, liver disease, etc.) it is known In the case of severe treatment in the dental field, more than 40% of cases are caused by not detecting teeth or gum problems at an early stage.

한편, 코로나 19 발생 이후 비대면 원격 진단/진료에 대한 요구와 그 필요성이 증가하고 있다. 따라서, 치아 우식, 크랙, 색소 침착 등의 질환이나 기타 귀 관련 질환에 대해 환자가 굳이 병원에 방문하지 않더라도, 효과적으로 진단 정보를 획득할 수 있도록 하는 기술이 요구된다. Meanwhile, since the outbreak of COVID-19, the demand for and need for non-face-to-face remote diagnosis/treatment has increased. Accordingly, there is a need for a technology that allows a patient to effectively obtain diagnostic information for diseases such as dental caries, cracks, pigmentation, or other ear-related diseases, without requiring a patient to visit a hospital.

한국공개특허 제10-2019-0111909호(공개일 2019년 10월 02일)는 구강 기기의 사용을 모니터링하기 위한 시스템에 관한 것으로서, 구강 기기는 사용 시에 사용자의 구강 내에 위치되는 몸체를 포함하며, 시스템은 사용 시에 구강 기기에 부착되거나 그 내에 내장되는 기기 모니터링 디바이스를 포함하여 구성되는 것을 개시하고 있다. Korean Patent Application Laid-Open No. 10-2019-0111909 (published on October 02, 2019) relates to a system for monitoring the use of an oral appliance, wherein the oral appliance includes a body positioned in the user's mouth when in use, , discloses that the system comprises a device monitoring device attached to or embedded within the oral appliance in use.

상기에서 설명된 정보는 단지 이해를 돕기 위한 것이며, 종래 기술의 일부를 형성하지 않는 내용을 포함할 수 있다.The information described above is for understanding only, and may include content that does not form a part of the prior art.

일 실시예는, 휴대용 카메라 디바이스를 사용하여 사용자의 구강 또는 귀 내부가 촬영됨에 따라 획득된 영상을 관리 서버에서 분석 및 관리하며, 모바일 단말이, 관리 서버로부터, 구상 또는 귀 내부에 관한 상태 정보를 수신하고, 표시하는 방법을 제공할 수 있다. In one embodiment, a management server analyzes and manages an image obtained as the user's mouth or inside the ear is photographed using a portable camera device, and the mobile terminal, from the management server, obtains state information about the concept or the inside of the ear A method for receiving and displaying can be provided.

일 측면에 있어서, 휴대용 카메라 디바이스 및 관리 서버와 통신하는 모바일 단말에 의해 수행되는, 사용자의 구강 또는 귀에 대한 상태 정보를 획득하는 방법에 있어서, 상기 휴대용 카메라 디바이스에 의해 사용자의 구강 또는 귀 내부가 촬영됨에 따라, 상기 휴대용 카메라 디바이스로부터 상기 사용자의 구강 또는 귀 내부의 영상을 획득하는 단계, 상기 모바일 단말이, 상기 획득된 영상을 관리 서버로 전송하는 단계 - 상기 전송된 영상은 상기 관리 서버에서 상기 사용자에 대해 이전에 획득된 상기 사용자의 구강 또는 귀 내부의 영상과 함께 축적되어 관리됨 -, 상기 관리 서버에서 축적되어 관리되는 상기 사용자의 구강 또는 귀 내부의 영상이 상기 관리 서버에 의해 분석됨에 따라 생성된 상기 사용자의 구강 또는 귀에 관한 상태 정보를, 상기 관리 서버로부터, 수신하는 단계 및 상기 수신된 상태 정보를 표시하는 단계를 포함하는, 구강 또는 귀에 대한 상태 정보를 획득하는 방법이 제공된다.In one aspect, in a method for obtaining state information about a user's mouth or ear, performed by a mobile terminal communicating with a portable camera device and a management server, the user's mouth or inside of the ear is photographed by the portable camera device In response, acquiring an image of the user's mouth or inside the ear from the portable camera device, the mobile terminal, transmitting the acquired image to a management server - The transmitted image is transmitted from the management server to the user is accumulated and managed together with the image inside the user's mouth or ear previously acquired for There is provided a method for obtaining state information about the oral cavity or ear, comprising the steps of receiving, from the management server, the state information about the user's oral cavity or ear, and displaying the received state information.

상기 방법은, 상기 획득된 영상을 상담 서버로 전송하는 단계 - 상기 상담 서버는 구강 또는 귀에 대한 전문의가 사용하는 단말과 통신 가능하도록 구성되고, 상기 상담 서버로 전송된 영상은 상기 전문의가 확인 가능하도록 상기 전문의가 사용하는 단말에 제공됨 -, 상기 상담 서버로부터, 상기 사용자의 구강 또는 귀에 대한 전문의 진단 정보를 수신하는 단계 - 상기 전문의 진단 정보는 상기 전문의가 사용하는 단말로부터 입력된 정보에 기반하여 상기 상담 서버에 의해 생성됨 - 및 상기 수신된 전문의 진단 정보를 표시하는 단계를 더 포함할 수 있다. The method includes the steps of transmitting the obtained image to a consultation server - The consultation server is configured to be able to communicate with a terminal used by an oral or ear specialist, and the image transmitted to the consultation server can be checked by the specialist Provided to the terminal used by the specialist -, from the consultation server, receiving specialist diagnosis information on the user's mouth or ear - The specialist diagnosis information is based on information input from the terminal used by the specialist generated by the consultation server, and displaying the received diagnosis information of the specialist.

상기 전문의가 사용하는 단말은 상기 상담 서버를 통해 상기 관리 서버에 접근 가능하도록 구성되고, 상기 전문의 진단 정보는 상기 관리 서버에서 축적되어 관리되는 상기 사용자의 구강 또는 귀 내부의 영상에 더 기반하여 생성된 것일 수 있다. The terminal used by the specialist is configured to be accessible to the management server through the consultation server, and the diagnostic information of the specialist is generated based on an image of the user's mouth or the inside of the ear that is accumulated and managed in the management server it may have been

상기 수신된 상태 정보는 상기 관리 서버에서 소정의 기간 동안 상기 사용자에 대해 획득된 상기 사용자의 구강 또는 귀 내부의 영상들이, 상기 관리 서버에 의해 분석됨에 따라 획득된 상기 사용자의 구강 또는 귀에 대한 진단 정보를 포함할 수 있다. The received state information is diagnostic information about the user's mouth or ear obtained by analyzing the images of the user's mouth or inside the ear obtained for the user for a predetermined period in the management server by the management server may include.

상기 진단 정보는 상기 관리 서버에 구현된 AI 모델이 상기 사용자의 구강 또는 귀 내부의 영상들을 분석한 결과로서 생성될 수 있다. The diagnosis information may be generated as a result of the AI model implemented in the management server analyzing images of the user's mouth or inside the ear.

상기 영상들의 각각은 치아 우식 데이터를 포함하고, 상기 진단 정보는, 상기 치아 우식 데이터로부터 추출된 특징을 소정의 테스트 데이터에 기반하여 미리 학습된 클래스 분류기에 입력시킴에 따른 결과로서 출력되는 데이터에 기반하여 생성될 수 있다. Each of the images includes dental caries data, and the diagnosis information is based on data output as a result of inputting features extracted from the dental caries data into a class classifier learned in advance based on predetermined test data. can be created by

상기 영상들의 각각은 상기 사용자의 치아를 촬영한 것이고, 상기 진단 정보는, 상기 영상들 중 상기 소정의 기간 동안의 제1 시점에 촬영된 제1 영상에 포함된 상기 치아의 색상과 상기 영상들 중 상기 소정의 기간 동안의 제2 시점에 촬영된 제2 영상에 포함된 상기 치아의 색상을 비교한 차이에 기반하여 생성될 수 있다. Each of the images is a photograph of the user's teeth, and the diagnosis information is, among the images, the color of the teeth included in the first image captured at a first point in time during the predetermined period among the images. It may be generated based on a difference between the colors of the teeth included in the second image captured at a second time point during the predetermined period.

상기 방법은, 상기 진단 정보가 상기 사용자의 치아 또는 귀의 이상을 나타낼 경우, 경고 메시지를 표시하는 단계를 더 포함하고, 상기 진단 정보는 구강 또는 귀에 대한 전문의가 사용하는 단말과 통신 가능하도록 구성되는 상기 상담 서버로 전달될 수 있다. The method further includes displaying a warning message when the diagnostic information indicates an abnormality in the user's teeth or ears, wherein the diagnostic information is configured to communicate with a terminal used by an oral or ear specialist may be transmitted to the consultation server.

상기 획득된 영상은 복수의 영상들로서 상기 사용자의 구강을 촬영한 2차원의 영상들이고, 상기 방법은, 상기 모바일 단말 또는 상기 관리 서버에서, 상기 2차원의 영상들을 합성함으로써 상기 사용자의 구강의 3차원의 영상을 생성하는 단계를 더 포함할 수 있다. The obtained image is a two-dimensional image of the user's oral cavity as a plurality of images, and the method, in the mobile terminal or the management server, by synthesizing the two-dimensional images, the three-dimensionality of the user's mouth The method may further include generating an image of

상기 휴대용 카메라 디바이스는 헤드가 분리 가능하게 구성되고, 상기 헤드가 분리된 상태에서는 상기 사용자의 귀 내부를 촬영 가능하도록 구성되고, 상기 헤드가 분리되지 않은 상태에서는 상기 사용자의 구강을 촬영 가능하도록 구성될 수 있다. The portable camera device is configured to have a detachable head, and is configured to photograph the inside of the user's ear when the head is separated, and is configured to photograph the user's oral cavity in a state in which the head is not separated. can

휴대용 카메라 디바이스를 사용하여 촬영된 사용자의 구강 또는 귀 내부의 영상에 기반한 구상 또는 귀 내부에 관한 상태 정보(진단 정보)를 모바일 단말에서 표시하도록 함으로써, 사용자가 병원에 직접 방문하지 않고도 구강 및 귀에 관한 적절한 진단 정보를 획득할 수 있다. By allowing the mobile terminal to display status information (diagnostic information) about the inside of the ear or conception based on the image of the user's mouth or inside the ear taken using a portable camera device, the user does not have to visit the hospital directly. Appropriate diagnostic information can be obtained.

전문의로부터의 의견을 획득할 수 있는 관리 서버와 통신하도록 함으로써, 휴대용 카메라 디바이스를 사용하여 촬영된 사용자의 구강 또는 귀 내부의 영상에 대해 사용자의 구강 및 귀에 대한 전문의 진단 정보를 원격으로 획득할 수 있다.By communicating with a management server that can obtain opinions from specialists, it is possible to remotely obtain expert diagnosis information about the user's mouth and ears for images taken using a portable camera device. have.

관리 서버에서 축적된 사용자의 구강 또는 귀 내부의 영상들을 인공지능을 사용하여 분석함으로써, 사용자의 구강 또는 귀 내부에 대한 시계열적 추적 진단 정보를 제공할 수 있다. By analyzing the images inside the user's mouth or ear accumulated in the management server using artificial intelligence, it is possible to provide time-series tracking diagnostic information for the user's mouth or inside the ear.

도 1은 일 실시예에 따른, 휴대용 카메라 디바이스, 모바일 단말 및 관리 서버로 구성된 시스템을 통해, 사용자의 구강 또는 귀에 대한 상태 정보를 획득하는 방법을 나타낸다.
도 2는 일 실시예에 따른, 사용자의 구강 또는 귀의 내부를 촬영하기 위해 사용되는 휴대용 카메라 디바이스를 나타낸다.
도 3은 일 실시예에 따른, 사용자의 구강 또는 귀에 대한 상태 정보를 획득하는 방법을 나타내는 흐름도이다.
도 4는 일 예에 따른, 상담 서버와의 통신을 통해, 사용자의 구강 또는 귀에 대한 전문의 진단 정보를 획득하는 방법을 나타내는 흐름도이다.
도 5는 일 예에 따른, 사용자의 구강 또는 귀의 내부에 대해 촬영된 복수의 2차원 영상들에 기반하여 3차원 영상을 획득(생성)하는 방법을 나타낸다.
도 6은 일 예에 따른, 인공지능 모델을 사용하여 치아 우식 데이터를 분석함으로써 진단 정보를 획득하는 방법을 나타낸다.
도 7a 내지 도 7c는 일 예에 따른, 치아 우식 데이터 및 그 분석 방법을 나타낸다.
1 illustrates a method of acquiring state information about a user's mouth or ears through a system including a portable camera device, a mobile terminal, and a management server, according to an embodiment.
2 illustrates a portable camera device used to photograph the inside of a user's mouth or ear, according to an embodiment.
3 is a flowchart illustrating a method of acquiring state information about a user's mouth or ears, according to an embodiment.
4 is a flowchart illustrating a method of acquiring expert diagnosis information on a user's mouth or ears through communication with a counseling server, according to an example.
5 illustrates a method of acquiring (generating) a 3D image based on a plurality of 2D images captured with respect to the inside of the user's mouth or ear, according to an example.
6 illustrates a method of acquiring diagnostic information by analyzing dental caries data using an artificial intelligence model, according to an example.
7A to 7C show dental caries data and an analysis method thereof, according to an example.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Like reference numerals in each figure indicate like elements.

도 1은 일 실시예에 따른, 휴대용 카메라 디바이스, 모바일 단말 및 관리 서버로 구성된 시스템을 통해, 사용자의 구강 또는 귀에 대한 상태 정보를 획득하는 방법을 나타낸다. 1 illustrates a method of acquiring state information about a user's mouth or ears through a system including a portable camera device, a mobile terminal, and a management server, according to an embodiment.

도 1에서는 사용자가 휴대할 수 있는 휴대용 카메라 디바이스(100)를 사용하여 사용자의 구강(치아 및 잇몸을 포함함) 또는 귀 내부를 촬영함으로써 사용자의 구강 또는 귀 내부의 영상을 획득하고; 휴대용 카메라 디바이스(100)와 통신하는 모바일 단말(110)에 의해 획득된 영상이 관리 서버(120) 및/또는 상담 서버(130)로 전송되고; 관리 서버(120)로부터 모바일 단말(110)로 사용자의 구강 또는 귀에 관한 상태 정보(또는 진단 정보)가 수신되고, 상담 서버(130)로부터 모바일 단말(110)로 사용자의 구강 또는 귀에 관한 전문의 진단 정보가 수신되는 방법이 도시되었다. In FIG. 1 , an image of the user's mouth or the inside of the ear is obtained by photographing the user's oral cavity (including teeth and gums) or the inside of the ear using a portable camera device 100 that the user can carry; the image acquired by the mobile terminal 110 communicating with the portable camera device 100 is transmitted to the management server 120 and/or the consultation server 130 ; State information (or diagnostic information) about the user's mouth or ears is received from the management server 120 to the mobile terminal 110 , and from the consultation server 130 to the mobile terminal 110 , the user's mouth or ears are diagnosed by a specialist How the information is received is shown.

휴대용 카메라 디바이스(100)를 도 2를 참조하여 더 자세하게 설명한다. The portable camera device 100 will be described in more detail with reference to FIG. 2 .

도 2는 일 실시예에 따른, 사용자의 구강 또는 귀의 내부를 촬영하기 위해 사용되는 휴대용 카메라 디바이스를 나타낸다. 2 illustrates a portable camera device used to photograph the inside of a user's mouth or ear, according to an embodiment.

휴대용 카메라 디바이스(100)(이하, 카메라 디바이스(100))는 헤드부(210), 본체부(240) 및 본체부(230)에 포함되는 조작부(230)로 구성될 수 있다. 조작부(230)는 카메라 디바이스(100)의 동작(예컨대, 전원 On/Off) 및 촬영을 제어하기 위한 적어도 하나의 버튼을 포함할 수 있다. The portable camera device 100 (hereinafter, the camera device 100 ) may include a head unit 210 , a body unit 240 , and a manipulation unit 230 included in the body unit 230 . The manipulation unit 230 may include at least one button for controlling an operation (eg, power on/off) and photographing of the camera device 100 .

헤드부(210)(헤드)는 분리 가능하게 구성될 수 있고, 따라서, 헤드부(210)는 분리하여 세척될 수 있다. The head portion 210 (head) may be configured to be detachable, and thus the head portion 210 may be detachably cleaned.

카메라 디바이스(100)는 헤드부(210)가 분리된 상태에서는 사용자의 귀 내부를 촬영 가능하도록 구성될 수 있다. 이 때, 카메라부(220)(카메라의 렌즈부)는 헤드부(210)에 위치될 수 있다. 카메라부(220)가 사용자의 구강 또는 귀 내부로 삽입됨으로써, 구강 또는 귀 내부가 촬영될 수 있다. The camera device 100 may be configured to photograph the inside of the user's ear while the head 210 is separated. In this case, the camera unit 220 (the lens unit of the camera) may be located in the head unit 210 . By inserting the camera unit 220 into the user's mouth or inside the ear, the inside of the mouth or ear may be photographed.

한편, 카메라 디바이스(100)는 헤드부(210)가 분리되지 않은 상태에서는 사용자의 구강을 촬영 가능하도록 구성될 수 있다. 이 때, 카메라부(220)(카메라의 렌즈부)는 헤드부(210)가 분리된 본체부(240)의 상단부에 위치될 수 있다.On the other hand, the camera device 100 may be configured to be able to photograph the user's oral cavity in a state in which the head unit 210 is not separated. In this case, the camera unit 220 (the lens unit of the camera) may be located at the upper end of the body unit 240 from which the head unit 210 is separated.

카메라 디바이스(100)는 촬영된 영상을 임시/영구적으로 저장하기 위한 메모리를 포함할 수 있고, 모바일 단말(110)로 촬영된 영상을 전송하기 위한 통신부를 포함할 수 있다. 예컨대, 카메라 디바이스(100)는 모바일 단말(110)과 와이파이(WIFI)를 통해 서로 접속될 수 있고, 또는 블루투스를 통해 패어링될 수 있다. 또는, 카메라 디바이스(100)는 모바일 단말(110)과 근거리 무선 통신을 사용하여 서로 통신할 수 있다.The camera device 100 may include a memory for temporarily/permanently storing the photographed image, and may include a communication unit for transmitting the photographed image to the mobile terminal 110 . For example, the camera device 100 may be connected to each other through the mobile terminal 110 and Wi-Fi, or may be paired through Bluetooth. Alternatively, the camera device 100 may communicate with the mobile terminal 110 using short-range wireless communication.

카메라 디바이스(100)는 촬영된 영상을 자동으로 모바일 단말(110)로 송신하거나, 모바일 단말(110)에서의 조작(예컨대, 어플리케이션의 조작) 또는 카메라 디바이스(100)의 조작부(230)의 조작에 따라 촬영된 영상을 모바일 단말(110)로 송신할 수 있다. The camera device 100 automatically transmits the captured image to the mobile terminal 110 , or for operation in the mobile terminal 110 (eg, operation of an application) or operation of the operation unit 230 of the camera device 100 . Accordingly, the captured image may be transmitted to the mobile terminal 110 .

다음으로 모바일 단말(110)에 대해 아래에서 더 자세하게 설명한다. 모바일 단말(110)은 카메라 디바이스(100), 관리 서버(120) 및 상담 서버(130)와 통신하기 위한 사용자의 단말일 수 있다. 모바일 단말(110)에는 카메라 디바이스(100)로부터 영상을 획득하고 관리 서버(120) 및 상담 서버(130)로부터 수신되는 정보를 표시하기 위한 어플리케이션/프로그램이 설치될 수 있다. Next, the mobile terminal 110 will be described in more detail below. The mobile terminal 110 may be a user's terminal for communicating with the camera device 100 , the management server 120 , and the consultation server 130 . An application/program for acquiring an image from the camera device 100 and displaying information received from the management server 120 and the consultation server 130 may be installed in the mobile terminal 110 .

모바일 단말(110)은 컴퓨팅 장치로서, 예컨대, 스마트 폰, 태블릿(tablet), 사물 인터넷(Internet Of Things) 기기, 또는 웨어러블 컴퓨터(wearable computer) 등의 사용자가 사용하는 단말일 수 있다.The mobile terminal 110 is a computing device, and may be, for example, a terminal used by a user, such as a smart phone, a tablet, an Internet of Things (IoT) device, or a wearable computer.

모바일 단말(110)은 도시하지는 않았으나 통신부, 프로세서 및 표시부를 포함할 수 있다. Although not shown, the mobile terminal 110 may include a communication unit, a processor, and a display unit.

통신부는 카메라 디바이스(100)에 의해 촬영된 영상을 수신하고, 관리 서버(120) 및 상담 서버(130)와 정보/데이터를 송수신하기 위한 구성일 수 있다. 말하자면, 통신부(210)는 모바일 단말(110)이 카메라 디바이스(100) 및 서버(120, 130) 등의 기타 다른 장치에 대해 데이터 및/또는 정보를 무선 또는 유선으로 전송/수신하기 위한 구성으로서, 모바일 단말(110)의 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다.The communication unit may be configured to receive an image captured by the camera device 100 , and transmit/receive information/data to and from the management server 120 and the consultation server 130 . In other words, the communication unit 210 is a configuration for the mobile terminal 110 to transmit/receive data and/or information wirelessly or wired to other devices such as the camera device 100 and the servers 120 and 130, It may be a hardware module such as a network interface card, a network interface chip, and a networking interface port of the mobile terminal 110 or a software module such as a network device driver or a networking program.

프로세서는 모바일 단말(110)의 구성 요소들을 관리할 수 있고, 모바일 단말(110)이 사용하는 프로그램 또는 어플리케이션을 실행하기 위한 구성일 수 있다. 프로세서는 모바일 단말(110)의 적어도 하나의 프로세서 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다. 이러한 프로세서에 의한 동작에 의해 도 3 내지 도 6을 참조하여 후술될 사용자의 구강 또는 귀에 대한 상태 정보를 획득하는 방법이 수행될 수 있다. 프로세서는 컴퓨터에서 판독 가능한 명령을 실행하도록 구현될 수 있고, 이러한 명령의 실행을 통해 상기의 방법들을 수행할 수 있다.The processor may manage components of the mobile terminal 110 , and may be configured to execute a program or application used by the mobile terminal 110 . The processor may be at least one processor of the mobile terminal 110 or at least one core in the processor. A method of acquiring state information about the user's mouth or ears, which will be described later with reference to FIGS. 3 to 6 , may be performed by the operation by the processor. The processor may be implemented to execute computer-readable instructions, and the above methods may be performed through the execution of such instructions.

표시부는 모바일 단말(110)의 사용자가 입력한 데이터를 출력하거나, 카메라 디바이스(100)에 의해 촬영된 영상(들) 및 서버(120, 130)로부터 수신된 상태 정보 및 진단 정보를 출력(표시)하기 위한 디스플레이 장치일 수 있다. 표시부는 터치 스크린을 포함할 수 있다.The display unit outputs data input by the user of the mobile terminal 110 or outputs (displays) the image(s) captured by the camera device 100 and status information and diagnostic information received from the servers 120 and 130 . It may be a display device for The display unit may include a touch screen.

관리 서버(120)는 모바일 단말(110)을 통해 수신되는 사용자의 구강 또는 귀 내부의 영상을 수신 및 관리하고, 영상에 기반하여 사용자의 구강 또는 귀에 대한 상태 정보를 생성하는 장치일 수 있다. 관리 서버(120)는 모바일 단말(110)과는 원격지에 존재하는 서버 또는 기타 컴퓨팅 장치일 수 있다. 관리 서버(120)는 상태 정보를 생성함에 있어서, 빅 데이터를 활용할 수 있다. 또는/추가적으로, 관리 서버(120)는 상태 정보를 생성함에 있어서 내부에 구현되는 인공지능 모듈(예컨대, 딥러닝 모듈)을 사용할 수 있다. The management server 120 may be a device that receives and manages an image of the user's mouth or inside the ear received through the mobile terminal 110, and generates state information about the user's mouth or ear based on the image. The management server 120 may be a server or other computing device that is remote from the mobile terminal 110 . The management server 120 may utilize big data in generating state information. Or/additionally, the management server 120 may use an artificial intelligence module (eg, a deep learning module) implemented therein in generating state information.

관리 서버(120)는 통신부 및 프로세서를 포함할 수 있다. 관리 서버(120)의 통신부 및 프로세서에 대해서는 모바일 단말(110)의 통신부 및 프로세서에 대한 기술적인 설명이 유사하게 적용될 수 있으므로 중복되는 설명은 생략한다. The management server 120 may include a communication unit and a processor. For the communication unit and the processor of the management server 120, the technical description of the communication unit and the processor of the mobile terminal 110 may be similarly applied, and thus overlapping description will be omitted.

상담 서버(130)는 모바일 단말(110) 또는 관리 서버(120)를 통해 수신되는 사용자의 구강 또는 귀 내부의 영상에 기반하여, 사용자의 구강 또는 귀에 대한 전문의 진단 정보를 생성하는 장치일 수 있다. 상담 서버(130)는 모바일 단말(110)과는 원격지에 존재하는 서버 또는 기타 컴퓨팅 장치일 수 있다.The consultation server 130 may be a device that generates expert diagnosis information about the user's mouth or ear based on the image of the user's mouth or the inside of the ear received through the mobile terminal 110 or the management server 120 . . The counseling server 130 may be a server or other computing device that is remote from the mobile terminal 110 .

상담 서버(130)는 구강 또는 귀에 대한 전문의(들)가 사용하는 단말(들) (140)과 통신 가능하도록 구성될 수 있다. 모바일 단말(110) 또는 관리 서버(120)를 통해 상담 서버(130)로 전송된 영상은 전문의가 확인 가능하도록 상기 전문의가 사용하는 단말(140)에서 제공될 수 있다. 이러한 영상을 확인한 전문의의 단말(140)로부터 입력된 정보에 기반하여, 상담 서버(130)는 사용자의 구강 또는 귀에 대한 전문의 진단 정보를 생성할 수 있다. 단말(140)은 컴퓨팅 장치로서, 예컨대, 스마트 폰, 태블릿(tablet), 사물 인터넷(Internet Of Things) 기기, 또는 웨어러블 컴퓨터(wearable computer) 등의 전문의가 사용하는 단말일 수 있다. 단말(140)은 병원 내에서 사용되는 장치(예컨대, 병원에 배치된 의사가 사용하는 개인 컴퓨터)일 수 있다. The consultation server 130 may be configured to be able to communicate with the terminal(s) 140 used by the oral or ear specialist(s). The image transmitted to the consultation server 130 through the mobile terminal 110 or the management server 120 may be provided by the terminal 140 used by the specialist so that the specialist can check it. Based on the information input from the terminal 140 of the specialist who has confirmed the image, the consultation server 130 may generate the diagnosis information of the specialist about the user's mouth or ears. The terminal 140 is a computing device, and may be, for example, a terminal used by a specialist such as a smart phone, a tablet, an Internet Of Things device, or a wearable computer. The terminal 140 may be a device used in a hospital (eg, a personal computer used by a doctor disposed in the hospital).

상담 서버(130)는 통신부 및 프로세서를 포함할 수 있다. 관리 서버(130)의 통신부 및 프로세서에 대해서는 모바일 단말(110)의 통신부 및 프로세서에 대한 기술적인 설명이 유사하게 적용될 수 있으므로 중복되는 설명은 생략한다. The consultation server 130 may include a communication unit and a processor. For the communication unit and the processor of the management server 130, the technical description of the communication unit and the processor of the mobile terminal 110 may be similarly applied, and thus overlapping description will be omitted.

모바일 단말(110), 관리 서버(120) 및 상담 서버(130)의 구체적인 방법과, 사용자의 구강 또는 귀에 대한 상태 정보를 획득하는 방법의 상세한 내용에 대해서는 후술될 도 3 내지 도 7을 참조하여 더 자세하게 설명한다. For details of a specific method of the mobile terminal 110, the management server 120, and the consultation server 130, and a method of obtaining state information about the user's mouth or ears, refer to FIGS. 3 to 7 to be described later. Describe in detail.

후술될 상세한 설명에서, 모바일 단말(110) 또는 프로세서의 구성들에 의해 수행되는 동작이나 모바일 단말(110) 또는 프로세서가 실행하는 어플리케이션/프로그램에 의해 수행되는 동작은 설명의 편의상 모바일 단말(110)에 의해 수행되는 동작으로 설명될 수 있다. 관리 서버(120), 상담 서버(130) 및 카메라 디바이스(100)와 관련하여서도 마찬가지이다. In the detailed description to be described later, the operation performed by the mobile terminal 110 or components of the processor or the operation performed by the mobile terminal 110 or the application/program executed by the processor is the mobile terminal 110 for convenience of description. It can be described as an operation performed by The same applies to the management server 120 , the consultation server 130 , and the camera device 100 .

도 3은 일 실시예에 따른, 사용자의 구강 또는 귀에 대한 상태 정보를 획득하는 방법을 나타내는 흐름도이다. 3 is a flowchart illustrating a method of acquiring state information about a user's mouth or ears, according to an embodiment.

단계(310)에서, 모바일 단말(110)은 휴대용 카메라 디바이스(100)에 의해 사용자의 구강 또는 귀 내부가 촬영됨에 따라, 휴대용 카메라 디바이스(100)로부터 사용자의 구강 또는 귀 내부의 영상을 획득할 수 있다. 모바일 단말(110)은 획득(수신)된 영상을 (메모리 또는 스토리지에) 저장할 수 있다. In step 310 , the mobile terminal 110 may acquire an image of the user's mouth or the inside of the ear from the portable camera device 100 as the user's mouth or the inside of the ear is photographed by the portable camera device 100 . have. The mobile terminal 110 may store the acquired (received) image (in memory or storage).

단계(320)에서, 모바일 단말(110)은 단계(310)에서 획득된 영상을 관리 서버(120)로 전송할 수 있다. 전송된 영상은 관리 서버(120)에서 사용자에 대해 이전에 획득된 사용자의 구강 또는 귀 내부의 영상과 함께 축적되어 관리될 수 있다. 말하자면, 관리 서버(120)는 사용자에 대해 촬영된 영상들을 시계열적으로 축적하여 관리할 수 있다. 관리 서버(120)는 사용자별로 이러한 영상을 관리할 수 있다. In step 320 , the mobile terminal 110 may transmit the image obtained in step 310 to the management server 120 . The transmitted image may be accumulated and managed together with the image of the user's mouth or the inside of the ear previously acquired for the user in the management server 120 . In other words, the management server 120 may accumulate and manage the images captured for the user in time series. The management server 120 may manage these images for each user.

단계(330)에서, 모바일 단말(110)은 관리 서버(120)로부터 사용자의 구강 또는 귀에 관한 상태 정보를 수신할 수 있다. 상태 정보는 관리 서버(120)에 의해 생성되는 것으로서, 관리 서버(120)는 관리 서버(120)에서 축적되어 관리되는 사용자의 구강 또는 귀 내부의 영상(들)을 분석함으로써 이러한 관리 정보를 생성할 수 있다.In step 330 , the mobile terminal 110 may receive status information about the user's mouth or ears from the management server 120 . As the status information is generated by the management server 120, the management server 120 generates such management information by analyzing the image(s) inside the user's mouth or ears that are accumulated and managed by the management server 120 . can

단계(340)에서, 모바일 단말(110)은 수신된 상태 정보를 표시할 수 있다. 모바일 단말(110)은 구강 또는 귀에 대한 상태를 제공하는 모바일 단말(110)에 설치된 어플리케이션을 통해 이러한 상태 정보를 표시할 수 있다.In step 340, the mobile terminal 110 may display the received status information. The mobile terminal 110 may display such state information through an application installed in the mobile terminal 110 that provides a state of the oral cavity or the ear.

상태 정보의 수신 및 표시는 주기적(예컨대, 매주 또는 매월)으로 이루어질 수 있다. Reception and display of status information may occur periodically (eg, weekly or monthly).

관리 서버(120)가 생성하는 사용자의 구강 또는 귀에 관한 상태 정보는, 사용자의 사용자의 구강 또는 귀에 관한 진단 정보를 포함할 수 있다. 예컨대, 이러한 진단 정보는, 관리 서버(120)에서 소정의 기간 동안 사용자에 대해 획득된 사용자의 구강 또는 귀 내부의 영상들을, 관리 서버(120)가 분석함에 따라 획득되는 것일 수 있다.The state information about the user's mouth or ears generated by the management server 120 may include diagnostic information about the user's mouth or ears. For example, such diagnostic information may be obtained as the management server 120 analyzes the images of the user's mouth or the inside of the ears obtained for the user for a predetermined period by the management server 120 .

일례로, 상기 영상들의 각각이 사용자의 치아를 촬영한 것인 경우에 있어서, 전술한 진단 정보는, 영상들 중 소정의 기간 동안의 제1 시점에 촬영된 제1 영상에 포함된 치아의 색상과 해당 영상들 중 소정의 기간 동안의 제2 시점(상기 제1 시점 이후 일정 기간이 경과한 시점)에 촬영된 제2 영상에 포함된 치아의 색상을 비교한 차이에 기반하여 생성될 수 있다. 관리 서버(120)는 이러한 색상의 차이가 상대적으로 큰 경우와 작은 경우에 각각 상이한 종류의 진단 정보를 생성할 수 있다. 예컨대, 관리 서버(100)는 1개월 전 및 6개월 전에 촬영된 영상들로부터의 치아 색상을 비교할 수 있다. 치아의 색상 변화에 대한 판단은 도 6을 참조하여 후술될 인공지능 모델(600)을 통해 수행될 수 있다.For example, in the case where each of the images is a photograph of a user's teeth, the above-described diagnostic information includes a color of a tooth included in a first image captured at a first time point during a predetermined period among images and The image may be generated based on a difference between the colors of teeth included in the second image captured at a second time point (a point in time when a predetermined period has elapsed after the first time point) during a predetermined period among the corresponding images. The management server 120 may generate different types of diagnostic information when the color difference is relatively large and small. For example, the management server 100 may compare the color of teeth from images taken 1 month ago and 6 months ago. The determination of the color change of the tooth may be performed through an artificial intelligence model 600 that will be described later with reference to FIG. 6 .

관리 서버(120)는 사용자의 구강 또는 귀 내부의 영상(들)을 분석하여 사용자의 치아 또는 귀에 이상이 있는지 여부를 판정할 수 있다. 예컨대, 관리 서버(120)는 상기 색상의 차이가 일정 이상인 경우 사용자의 치아에 이상이 있는 것으로 판정할 수 있고, 상기 색상의 차이가 일정 미만인 경우 사용자의 치아가 정상인 것으로 판정할 수 있다. 전술한 진단 정보는 이러한 사용자의 치아(또는 귀 내부)의 이상 여부를 나타내는 정보를 포함할 수 있다.The management server 120 may determine whether there is an abnormality in the user's teeth or ears by analyzing the image(s) inside the user's mouth or ears. For example, the management server 120 may determine that there is an abnormality in the user's teeth when the color difference is greater than or equal to a certain level, and may determine that the user's teeth are normal when the color difference is less than a certain amount. The above-described diagnostic information may include information indicating whether the user's teeth (or inside the ears) are abnormal.

단계(340)에서, 모바일 단말(110)은 진단 정보가 사용자의 치아 또는 귀의 이상을 나타낼 경우, 경고 메시지를 출력할 수 있다. 경고 메시지는 음성 메시지로서 모바일 단말(110)에서 출력되거나, 시각적인 메시지로서 모바일 단말(110)에서 표시될 수 있다. In step 340 , the mobile terminal 110 may output a warning message when the diagnostic information indicates an abnormality in the user's teeth or ears. The warning message may be output from the mobile terminal 110 as a voice message or displayed on the mobile terminal 110 as a visual message.

사용자는 관리 서버(120)로부터 수신되는 상태 정보(또는 진단 정보)를 확인하여 자신의 구강(치아) 또는 귀를 자가 진단할 수 있으며, 모바일 단말(110)에서 출력되는 경고 메시지를 통해 구강(치아) 또는 귀의 이상에 대한 주의를 환기할 수 있다.The user can self-diagnose his or her oral cavity (teeth) or ear by checking the status information (or diagnostic information) received from the management server 120 , and through a warning message output from the mobile terminal 110 , the oral cavity (teeth) ) or to call attention to ear abnormalities.

이상, 도 1 및 도 2를 참조하여 전술된 기술적 특징은 도 3에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. As described above, the technical features described above with reference to FIGS. 1 and 2 can be applied to FIG. 3 as they are, and thus a redundant description will be omitted.

도 4는 일 예에 따른, 상담 서버와의 통신을 통해, 사용자의 구강 또는 귀에 대한 전문의 진단 정보를 획득하는 방법을 나타내는 흐름도이다.4 is a flowchart illustrating a method of acquiring expert diagnosis information on a user's mouth or ears through communication with a counseling server, according to an example.

단계(410)에서, 모바일 단말(110)(또는 관리 서버(120))는 획득된 영상(즉, 사용자의 구강 또는 귀 내부에 대해 촬영된 영상)을 상담 서버(130)로 전송할 수 있다. 전술한 것처럼, 상담 서버(130)는 구강 또는 귀에 대한 전문의가 사용하는 단말(140)과 통신 가능하도록 구성될 수 있다. 단계(410)에서, 상담 서버(130)로 전송된 영상은 전문의가 확인 가능하도록 전문의가 사용하는 단말(140)에 제공될 수 있다. 즉, 전문의는 자신의 단말(140)을 통해 사용자의 구강 또는 귀 내부에 대해 촬영된 영상을 열람할 수 있다. In step 410 , the mobile terminal 110 (or the management server 120 ) may transmit the acquired image (ie, the image captured for the user's mouth or inside the ear) to the counseling server 130 . As described above, the counseling server 130 may be configured to be able to communicate with the terminal 140 used by the oral or ear specialist. In step 410, the image transmitted to the consultation server 130 may be provided to the terminal 140 used by the specialist so that the specialist can check. That is, the specialist may view the captured image of the user's mouth or the inside of the ear through his/her terminal 140 .

단계(420)에서, 모바일 단말(110)(또는 관리 서버(120)를 경유하여 모바일 단말(110))은 상담 서버(130)로부터, 사용자의 구강 또는 귀에 대한 전문의 진단 정보를 수신할 수 있다. 전문의 진단 정보는 전문의가 사용하는 단말(140)로부터 (전문의에 의해) 입력된 정보에 기반하여 상담 서버(130)에 의해 생성된 것일 수 있다. 예컨대, 전문의는 단말(140)을 통해 열람한 사용자의 영상에 대해 자신의 전문의로서의 진단 의견을 작성할 수 있고, 상담 서버(130)는 이러한 진단 의견을 가공함으로써 모바일 단말(110)에의 제공을 위한 전문의 진단 정보를 생성할 수 있다. In step 420 , the mobile terminal 110 (or the mobile terminal 110 via the management server 120 ) may receive, from the consultation server 130 , the expert diagnosis information for the user's mouth or ear. . The specialist diagnosis information may be generated by the consultation server 130 based on information input (by the specialist) from the terminal 140 used by the specialist. For example, the specialist may write a diagnosis opinion as his/her own specialist on the user's image viewed through the terminal 140 , and the consultation server 130 processes the diagnosis opinion to provide a message to the mobile terminal 110 . diagnostic information can be generated.

단계(410)에서, 모바일 단말(110)은 수신된 전문의 진단 정보를 표시할 수 있다. In step 410, the mobile terminal 110 may display the received diagnosis information of the specialist.

실시예를 통해, 모바일 단말(110)은 관리 서버(120)를 통해 주기적으로 상태 정보를 수신하는 것 외에, 상담 서버(130)를 통해 전문의 진단 정보를 (마찬가지로 주기적으로) 획득할 수 있다. 따라서, 사용자는 전문의로부터의 보다 정확한 의견을 나타내는 진단 정보를 원격으로 확인할 수 있게 된다. 예컨대, 비대면으로 유아 및 아동 등에 대해 정기적인 치아 건강 관리 및 상담이 이루어질 수 있다. According to the embodiment, the mobile terminal 110 may obtain the diagnosis information of a specialist through the consultation server 130 (similarly periodically) in addition to periodically receiving the status information through the management server 120 . Accordingly, the user can remotely check diagnostic information indicating a more accurate opinion from a specialist. For example, regular dental health care and counseling for infants and children may be performed non-face-to-face.

전술한 관리 서버(120)로부터의 상태 정보 및/또는 상담 서버(130)로부터의 전문의 진단 정보는 모바일 단말(110)로부터의 요청이 있는 경우에 모바일 단말(110)로 전송될 수 있다. 모바일 단말(110)은 소정의 어플리케이션을 통해 이러한 요청을 관리 서버(120) 및/또는 상담 서버(130)로 전송할 수 있다(예컨대, 도 1에서 도시된 모바일 단말(110)의 화면에서 "상담" 선택 시 상담 서버(130)에 전문의 진단 정보가 요청될 수 있음). The aforementioned status information from the management server 120 and/or the expert diagnosis information from the consultation server 130 may be transmitted to the mobile terminal 110 when there is a request from the mobile terminal 110 . The mobile terminal 110 may transmit such a request to the management server 120 and/or the consultation server 130 through a predetermined application (eg, "consultation" on the screen of the mobile terminal 110 shown in FIG. 1 ). When selected, expert diagnosis information may be requested from the consultation server 130).

한편, 전문의가 사용하는 단말(140)은 상담 서버(130)를 통해 관리 서버(120)에 접근 가능하도록 구성될 수 있다. 전문의 진단 정보는 관리 서버(120)에서 축적되어 관리되는 사용자의 구강 또는 귀 내부의 영상(들)에 더 기반하여 생성된 것일 수 있다. Meanwhile, the terminal 140 used by the specialist may be configured to be accessible to the management server 120 through the consultation server 130 . The expert diagnosis information may be generated further based on the image(s) inside the user's mouth or ears, which are accumulated and managed by the management server 120 .

말하자면, 전문의는 단말(140)을 사용하여 관리 서버(120)에서 축적 관리되고 있는 사용자의 영상에도 접근할 수 있고, 이를 참조하여, 사용자에 대해 보다 정확한 진단 의견을 단말(140)에 입력할 수 있다. 이러한 접근은 사용자(모바일 단말(110))에 의해 허가된 경우(즉, 허가의 통지가 관리 서버(120) 및/또는 상담 서버(130)에 출력된 경우)에만 가능하게 될 수 있다. In other words, the specialist can also access the user's image accumulated and managed in the management server 120 using the terminal 140 , and can input a more accurate diagnosis opinion about the user into the terminal 140 with reference to this. have. Such access may be enabled only when permission is granted by the user (mobile terminal 110 ) (ie, when a notification of permission is output to the management server 120 and/or the consultation server 130 ).

실시예에 따라, 사용자는 보다 정확하게 원격의 의료 정보를 획득할 수 있게 된다. According to an embodiment, a user may more accurately obtain remote medical information.

한편, 도 3을 참조하여 전술된 경고 메시지가 모바일 단말(110)에 출력되는 경우에 있어서, 경고 메시지와 연관된 진단 정보는 (구강 또는 귀에 대한 전문의가 사용하는 단말(140)과 통신 가능하도록 구성되는) 상담 서버(130)로 전달될 수 있다. 이에 따라, 전문의는 단말(140)을 통해 이러한 진단 정보를 확인할 수 있고, 단말(140)을 통해 상담 서버(130)를 경유하여 해당 진단 정보에 대한 피드백을 모바일 단말(110)에 대해 제공할 수 있다. On the other hand, in the case in which the warning message described above with reference to FIG. 3 is output to the mobile terminal 110, diagnostic information related to the warning message is configured to be able to communicate with the terminal 140 used by a specialist for the oral cavity or ear. ) may be transmitted to the consultation server 130 . Accordingly, the specialist can check such diagnostic information through the terminal 140 , and provide feedback on the corresponding diagnostic information to the mobile terminal 110 through the consultation server 130 through the terminal 140 . have.

이상, 도 1 내지 도 3을 참조하여 전술된 기술적 특징은 도 4에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. As described above, the technical features described above with reference to FIGS. 1 to 3 can be applied to FIG. 4 as it is, and thus a redundant description will be omitted.

도 5는 일 예에 따른, 사용자의 구강 또는 귀의 내부에 대해 촬영된 복수의 2차원 영상들에 기반하여 3차원 영상을 획득(생성)하는 방법을 나타낸다.5 illustrates a method of acquiring (generating) a 3D image based on a plurality of 2D images captured with respect to the inside of the user's mouth or ear, according to an example.

단계(310)에서 획득된 영상(또는 관리 서버(120)가 축적 관리하고 있는 영상)은 복수의 영상들로서 사용자의 구강(또는 귀 내부)을 촬영한 2차원의 영상들일 수 있다. The image obtained in step 310 (or the image accumulated and managed by the management server 120 ) may be two-dimensional images obtained by photographing the user's mouth (or the inside of the ear) as a plurality of images.

단계(510)에서, 관리 서버(120)(또는 모바일 단말(110))은 사용자의 구강(또는 귀 내부)을 촬영한 이러한 복수의 2차원의 영상들을 획득할 수 있다. In step 510 , the management server 120 (or the mobile terminal 110 ) may acquire a plurality of two-dimensional images of the user's oral cavity (or inside the ear).

단계(520)에서, 관리 서버(120)(또는 모바일 단말(110))은 이러한 2차원의 영상들을 합성함으로써 사용자의 구강(또는 귀 내부)의 3차원의 영상을 생성(획득)할 수 있다. In step 520, the management server 120 (or the mobile terminal 110) may generate (obtain) a three-dimensional image of the user's mouth (or inside the ear) by synthesizing these two-dimensional images.

3차원의 영상은 사용자의 사용자의 구강(또는 귀 내부)에 대한 파노라마 영상일 수 있다. The 3D image may be a panoramic image of the user's mouth (or inside the ear) of the user.

복수의 2차원의 영상들 각각은 구강(또는 귀 내부)의 서로 상이한 부분을 촬영한 영상일 수 있다. 이러한 각 영상은 소정의 중복을 갖되 구강(또는 귀 내부)의 서로 상이한 부분을 촬영한 영상일 수 있다. 관리 서버(120)(또는 모바일 단말(110))는 2차원 영상들을 합성하여 3차원의 영상(예컨대, 파노라마 영상)을 생성함에 있어서 여하한 영상 합성 방법을 사용할 수 있다.Each of the plurality of two-dimensional images may be images obtained by photographing different portions of the oral cavity (or inside the ear). Each of these images may be images obtained by photographing different portions of the oral cavity (or the inside of the ear) with a predetermined overlap. The management server 120 (or the mobile terminal 110) may use any image synthesis method in generating a 3D image (eg, a panoramic image) by synthesizing the 2D images.

생성된 3차원의 영상은 모바일 단말(110)에서 표시될 수 있다. The generated 3D image may be displayed on the mobile terminal 110 .

이상, 도 1 내지 도 4를 참조하여 전술된 기술적 특징은 도 5에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. As described above, the technical features described above with reference to FIGS. 1 to 4 can be applied to FIG. 5 as they are, and thus a redundant description will be omitted.

도 6은 일 예에 따른, 인공지능 모델을 사용하여 치아 우식 데이터를 분석함으로써 진단 정보를 획득하는 방법을 나타낸다.6 illustrates a method of obtaining diagnostic information by analyzing dental caries data using an artificial intelligence model, according to an example.

도 3을 참조하여 전술된 진단 정보는, 관리 서버에 구현된 인공지능(AI) 모델(600)이 사용자의 구강 또는 귀 내부의 영상들을 분석한 결과로서 생성될 수 있다. AI 모델(600)은 예컨대, 인공 신경망으로 구성된 모델, CNN 모델, 딥러닝 모델일 수 있다. The diagnostic information described above with reference to FIG. 3 may be generated as a result of the artificial intelligence (AI) model 600 implemented in the management server analyzing images inside the user's mouth or ears. The AI model 600 may be, for example, a model composed of an artificial neural network, a CNN model, or a deep learning model.

AI 모델(600)은 특징 추출부(610) 및 클래스 분류부(620)를 포함할 수 있다. AI 모델(600)(클래스 분류부(620))는 소정의 테스트 데이터에 의해 미리 훈련된 것일 수 있다. 테스트 데이터는 정답을 이미 알고 있는 데이터일 수 있다. The AI model 600 may include a feature extractor 610 and a class classifier 620 . The AI model 600 (class classification unit 620) may be pre-trained by predetermined test data. The test data may be data for which the correct answer is already known.

AI 모델(600)은 입력으로서, 사용자에 대해 촬영된 영상에 포함된 치아 우식 데이터를 사용할 수 있다. 즉, 관리 서버(120)가 분석하는 영상들의 각각은 치아 우식 데이터를 포함할 수 있고, AI 모델(600)은 이를 입력 데이터로서 사용할 수 있다. 테스트 데이터는 AI 모델(600)을 치아 우식 데이터를 입력으로 하여 치아에 대한 상태 정보를 출력하도록 훈련시키기 위한 훈련용 데이터일 수 있다.The AI model 600 may use, as an input, dental caries data included in an image taken for a user. That is, each of the images analyzed by the management server 120 may include dental caries data, and the AI model 600 may use this as input data. The test data may be training data for training the AI model 600 to output dental state information by inputting dental caries data.

사용자에 대해 촬영된 영상에 포함된 치아 우식 데이터는 특징 추출부(610)에 의해 특징이 추출될 수 있다. 치아 우식 데이터 및 추출된 특징은 클래스 분류부(620)로 입력될 수 있고, 클래스 분류부(620)에 의해 분류되어 결과 데이터가 출력될 수 있다. 결과 데이터에 기반하여, 관리 서버(120)는 사용자에 대해 촬영된 영상에 포함된 치아의 상태를 판정할 수 있다. 예컨대, 관리 서버(120)는 결과 데이터에 기반하여 치아의 질병 유무를 판정하거나, 질병의 가능성을 예측 및 평가할 수 있다. The dental caries data included in the image taken for the user may be feature extracted by the feature extraction unit (610). The dental caries data and the extracted features may be input to the class classification unit 620 , and the result data may be output after being classified by the class classification unit 620 . Based on the result data, the management server 120 may determine the state of the teeth included in the image taken for the user. For example, the management server 120 may determine the presence or absence of a disease of the tooth or predict and evaluate the possibility of a disease based on the result data.

예컨대, 도 3을 참조하여 전술한 (관리 서버(120)에 의해 생성되는) 진단 정보는, 사용자에 대해 촬영된 영상에 포함된 치아 우식 데이터로부터 특징 추출부(610)에 의해 추출된 특징을, 소정의 테스트 데이터에 기반하여 미리 학습된 클래스 분류기(620)에 입력시킴에 따른 결과로서 출력되는 데이터에 기반하여 생성되는 것일 수 있다.For example, the diagnostic information (generated by the management server 120) described above with reference to FIG. 3 is a feature extracted by the feature extraction unit 610 from the dental caries data included in the image taken for the user, It may be generated based on data output as a result of being input to the class classifier 620 learned in advance based on predetermined test data.

실시예에 의해서는, AI 모델에 기반한 사용자의 영상 분석에 따라, 사용자의 구강 또는 귀에 대한 상태 정보가 제공될 수 있다.In some embodiments, state information about the user's mouth or ears may be provided according to the user's image analysis based on the AI model.

도 7a 내지 도 7c는 일 예에 따른, 치아 우식 데이터 및 그 분석 방법을 나타낸다. 7A to 7C show dental caries data and an analysis method thereof, according to an example.

도 7a 내지 도 7c는 치아 우식 진행에 따른 표준 ICDAS 코드를 나타낸다. 관리 서버(120)는 사용자에 대해 촬영된 영상을 분석함으로써 사용자의 치아 상태가 도시된 ICDAS 코드들(0 내지 6) 중 어느 것의 상태에 대응하는지를 판정할 수 있다. 전술된 AI 모델(600) 역시 입력된 사용자의 영상에 대해 사용자의 영상이 포함하는 치아의 상태를 ICDAS 코드들(0 내지 6) 중 어느 하나로 분류하도록 훈련된 것일 수 있다. 즉, 도 3 내지 도 6을 참조하여 전술된 상태 정보(또는 진단 정보)는 사용자의 치아가 ICDAS 코드들(0 내지 6) 중 어느 것에 해당하는지를 나타내는 정보를 포함할 수 있다. 7a to 7c show standard ICDAS codes according to the progression of dental caries. The management server 120 may determine which state of the ICDAS codes (0 to 6) shown corresponds to the state of the user's teeth by analyzing the image taken for the user. The aforementioned AI model 600 may also be trained to classify the state of teeth included in the user's image with respect to the inputted user's image into any one of the ICDAS codes (0 to 6). That is, the state information (or diagnostic information) described above with reference to FIGS. 3 to 6 may include information indicating which of the ICDAS codes 0 to 6 the user's teeth correspond.

이상, 도 1 내지 도 6을 참조하여 전술된 기술적 특징은 도 7 및 도 8에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. As described above, the technical features described above with reference to FIGS. 1 to 6 can be applied to FIGS. 7 and 8 as they are, and thus a redundant description will be omitted.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more of these, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible from the above description by those skilled in the art. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

Claims (10)

휴대용 카메라 디바이스 및 관리 서버와 통신하는 모바일 단말에 의해 수행되는, 사용자의 구강에 대한 상태 정보를 획득하는 방법에 있어서,
상기 휴대용 카메라 디바이스에 의해 사용자의 구강 내부가 촬영됨에 따라, 상기 휴대용 카메라 디바이스로부터 상기 사용자의 구강 내부의 영상을 획득하는 단계;
상기 모바일 단말이, 상기 획득된 영상을 관리 서버로 전송하는 단계 - 상기 전송된 영상은 상기 관리 서버에서 상기 사용자에 대해 이전에 획득된 상기 사용자의 구강 내부의 영상과 함께 축적되어 관리됨 -;
상기 관리 서버에서 축적되어 관리되는 상기 사용자의 구강 내부의 영상이 상기 관리 서버에 의해 분석됨에 따라 생성된 상기 사용자의 구강에 관한 상태 정보를, 상기 관리 서버로부터, 수신하는 단계; 및
상기 수신된 상태 정보를 표시하는 단계
를 포함하고,
상기 수신된 상태 정보는 상기 관리 서버에서 소정의 기간 동안 상기 사용자에 대해 획득된 상기 사용자의 구강 내부의 영상들이, 상기 관리 서버에 의해 분석됨에 따라 획득된 상기 사용자의 구강에 대한 진단 정보를 포함하고,
상기 영상들의 각각은 상기 사용자의 치아를 촬영한 것이고,
상기 진단 정보는, 상기 영상들 중 상기 소정의 기간 동안의 제1 시점에 촬영된 제1 영상에 포함된 상기 치아의 색상과 상기 영상들 중 상기 소정의 기간 동안의 제2 시점에 촬영된 제2 영상에 포함된 상기 치아의 색상을 비교한 차이에 기반하여 생성되되, 상기 사용자의 치아의 이상 여부를 나타내는 정보를 포함하고,
상기 진단 정보는, 상기 관리 서버에서의 판정에 따라, 상기 치아의 색상을 비교한 차이가 소정의 값 이상인 경우 상기 사용자의 치아에 이상이 있는 것을 나타내는 제1 정보를 포함하고, 상기 치아의 색상을 비교한 차이가 소정의 값 미만인 경우 상기 사용자의 치아가 정상인 것을 나타내는 제2 정보를 포함하고,
상기 구강에 대한 상태 정보를 획득하는 방법은,
상기 진단 정보가 상기 제1 정보를 포함할 경우, 경고 메시지를 표시하는 단계
를 더 포함하고,
상기 제1 정보를 포함하는 상기 진단 정보는 구강에 대한 전문의가 사용하는 단말과 통신 가능하도록 구성되는 상담 서버로 전달되고,
상기 상담 서버는 구강에 대한 전문의가 사용하는 단말과 통신 가능하도록 구성되고, 상기 상담 서버로 전송된 상기 제1 정보를 포함하는 상기 진단 정보는 상기 전문의가 확인 가능하도록 상기 전문의가 사용하는 단말에 제공되고,
상기 구강에 대한 상태 정보를 획득하는 방법은,
상기 상담 서버로 상기 제1 정보를 포함하는 상기 진단 정보가 전달됨에 따라, 상기 상담 서버로부터, 상기 사용자의 구강에 대한 전문의 진단 정보를 수신하는 단계; 및
상기 수신된 전문의 진단 정보를 표시하는 단계
를 더 포함하고,
상기 모바일 단말로부터의 허가가 있는 경우에만, 상기 전문의가 사용하는 단말은 상기 상담 서버를 통해 상기 관리 서버에 접근 가능하도록 구성되고,
상기 전문의 진단 정보는, 상기 제1 정보를 포함하는 상기 진단 정보를 확인한 상기 전문의가 사용하는 단말로부터 입력된 정보에 기반하여 상기 상담 서버에 의해 생성된 것으로서, 상기 전문의가 사용하는 단말에 의해 접근이 허가된 상기 관리 서버에서 축적되어 관리되는 상기 사용자의 구강 내부의 영상에 더 기반하여 생성된 것이고,
상기 구강에 대한 상태 정보를 획득하는 방법은,
상기 상담 서버를 통해, 상기 관리 서버에서 축적되어 관리되는 상기 사용자의 구강 내부의 영상에 기반하여 생성된 상기 사용자의 구강에 대한 전문의 진단 정보를 주기적으로 수신하는 단계; 및
상기 모바일 단말의 화면에서 표시된 사용자 인터페이스가 선택되는 경우, 상기 관리 서버에서 축적되어 관리되는 상기 사용자의 구강 내부의 영상에 기반하여 생성된 상기 사용자의 구강에 대한 전문의 진단 정보를 수신하는 단계
를 더 포함하는, 구강에 대한 상태 정보를 획득하는 방법.
A method of obtaining status information about the user's oral cavity, performed by a mobile terminal communicating with a portable camera device and a management server, the method comprising:
As the inside of the user's mouth is photographed by the portable camera device, obtaining an image of the inside of the user's mouth from the portable camera device;
Transmitting, by the mobile terminal, the acquired image to a management server, the transmitted image is accumulated and managed together with the image of the user's oral cavity previously acquired for the user in the management server;
Receiving, from the management server, state information about the user's oral cavity generated as the image inside the user's oral cavity accumulated and managed by the management server is analyzed by the management server; and
displaying the received status information
including,
The received state information includes diagnostic information about the user's oral cavity obtained by analyzing the images in the user's oral cavity obtained for the user for a predetermined period in the management server by the management server, and ,
Each of the images is a photograph of the user's teeth,
The diagnosis information may include a color of the tooth included in a first image captured at a first time point during the predetermined period among the images and a second image captured at a second time point during the predetermined period among the images. It is generated based on a difference comparing the color of the teeth included in the image, and includes information indicating whether the user's teeth are abnormal,
The diagnosis information includes first information indicating that there is an abnormality in the user's teeth when the difference between the colors of the teeth is greater than or equal to a predetermined value according to a determination in the management server, and the color of the teeth and second information indicating that the user's teeth are normal when the compared difference is less than a predetermined value,
A method of obtaining state information about the oral cavity,
displaying a warning message when the diagnostic information includes the first information
further comprising,
The diagnosis information including the first information is transmitted to a counseling server configured to be able to communicate with a terminal used by an oral specialist,
The consultation server is configured to be able to communicate with a terminal used by a specialist for oral cavity, and the diagnosis information including the first information transmitted to the consultation server is provided to a terminal used by the specialist so that the specialist can confirm become,
A method of obtaining state information about the oral cavity,
receiving, from the counseling server, diagnostic information of a specialist about the user's oral cavity as the diagnosis information including the first information is transmitted to the counseling server; and
Displaying the received expert diagnosis information
further comprising,
Only when there is permission from the mobile terminal, the terminal used by the specialist is configured to be able to access the management server through the consultation server,
The specialist diagnosis information is generated by the consultation server based on information input from the terminal used by the specialist who has confirmed the diagnosis information including the first information, and is accessed by the terminal used by the specialist It is generated based on the image inside the user's oral cavity that is accumulated and managed by the authorized management server,
A method of obtaining state information about the oral cavity,
periodically receiving, through the consultation server, expert diagnosis information on the user's oral cavity generated based on the image inside the user's oral cavity accumulated and managed by the management server; and
When the user interface displayed on the screen of the mobile terminal is selected, receiving expert diagnosis information about the user's oral cavity generated based on the image inside the user's oral cavity accumulated and managed by the management server
Further comprising, a method of obtaining state information about the oral cavity.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 진단 정보는 상기 관리 서버에 구현된 AI 모델이 상기 사용자의 구강 내부의 영상들을 분석한 결과로서 생성되는, 구강에 대한 상태 정보를 획득하는 방법.
The method of claim 1,
The diagnostic information is generated as a result of the AI model implemented in the management server analyzing the images inside the user's mouth, how to obtain state information about the oral cavity.
제5항에 있어서,
상기 영상들의 각각은 치아 우식 데이터를 포함하고,
상기 진단 정보는, 상기 치아 우식 데이터로부터 추출된 특징을 소정의 테스트 데이터에 기반하여 미리 학습된 클래스 분류기에 입력시킴에 따른 결과로서 출력되는 데이터에 기반하여 생성되는, 구강에 대한 상태 정보를 획득하는 방법.
6. The method of claim 5,
Each of the images includes dental caries data,
The diagnosis information is generated based on data output as a result of inputting the features extracted from the dental caries data to a class classifier learned in advance based on predetermined test data, to obtain state information about the oral cavity Way.
삭제delete 삭제delete 제1항에 있어서,
상기 획득된 영상은 복수의 영상들로서 상기 사용자의 구강을 촬영한 2차원의 영상들이고,
상기 모바일 단말 또는 상기 관리 서버에서, 상기 2차원의 영상들을 합성함으로써 상기 사용자의 구강의 3차원의 영상을 생성하는 단계
를 더 포함하는, 구강에 대한 상태 정보를 획득하는 방법.
The method of claim 1,
The acquired image is a two-dimensional image of the user's oral cavity as a plurality of images,
Generating a three-dimensional image of the user's mouth by synthesizing the two-dimensional images in the mobile terminal or the management server
Further comprising, a method of obtaining state information about the oral cavity.
제1항에 있어서,
상기 휴대용 카메라 디바이스는 헤드가 분리 가능하게 구성되고,
상기 헤드가 분리된 상태에서는 상기 사용자의 귀 내부를 촬영 가능하도록 구성되고,
상기 헤드가 분리되지 않은 상태에서는 상기 사용자의 구강을 촬영 가능하도록 구성되는 것인, 구강에 대한 상태 정보를 획득하는 방법.
The method of claim 1,
The portable camera device is configured to have a detachable head,
In the state in which the head is separated, it is configured to be able to photograph the inside of the user's ear,
In a state in which the head is not separated, the method for obtaining state information about the oral cavity is configured to be capable of photographing the user's oral cavity.
KR1020200162079A 2020-11-27 2020-11-27 System and method for monitoring oral health using camera device KR102421739B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200162079A KR102421739B1 (en) 2020-11-27 2020-11-27 System and method for monitoring oral health using camera device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200162079A KR102421739B1 (en) 2020-11-27 2020-11-27 System and method for monitoring oral health using camera device

Publications (2)

Publication Number Publication Date
KR20220075065A KR20220075065A (en) 2022-06-07
KR102421739B1 true KR102421739B1 (en) 2022-07-20

Family

ID=81987219

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200162079A KR102421739B1 (en) 2020-11-27 2020-11-27 System and method for monitoring oral health using camera device

Country Status (1)

Country Link
KR (1) KR102421739B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015147045A (en) * 2014-02-05 2015-08-20 シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Method and device for intraoral three-dimensional measurement

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101758977B1 (en) * 2015-06-10 2017-07-18 주식회사 레메디 The diagnostic imaging apparatus and method for transmitting a diagnostic image to external system thereby
KR102074887B1 (en) * 2018-03-05 2020-03-11 재단법인 경북아이티융합 산업기술원 Oral conditon management remote monitoring system using image analysis

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015147045A (en) * 2014-02-05 2015-08-20 シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Method and device for intraoral three-dimensional measurement

Also Published As

Publication number Publication date
KR20220075065A (en) 2022-06-07

Similar Documents

Publication Publication Date Title
EP3787481B1 (en) Machine learning-based diagnostic classifier
US20210057105A1 (en) Method and apparatus for determining health status
US10117617B2 (en) Automated systems and methods for skin assessment and early detection of a latent pathogenic bio-signal anomaly
US20180092595A1 (en) System and method for training and monitoring administration of inhaler medication
CN112673378B (en) Device for generating estimator, monitoring device, method for generating estimator, and program for generating estimator
US20160364549A1 (en) System and method for patient behavior and health monitoring
US12036085B2 (en) Systems and methods for remote dental monitoring
KR20210006244A (en) Method and apparatus for recording and displaying dental care data on a digital dental image
KR102241804B1 (en) Method of assessing the psychological state through the drawing process of the subject and computer program
US11113813B2 (en) Evaluating a condition of a person
KR102388337B1 (en) Service provision method of the application for temporomandibular joint disease improvement service
KR20210083478A (en) Mobile based self-oral examination device
KR20180033106A (en) Portable terminal for an intraoral x-ray sensor and intraoral x-ray system using the same
KR102216899B1 (en) Psychology consultation method capable of personalized consultation through real-time image and voice mapping
KR102421739B1 (en) System and method for monitoring oral health using camera device
WO2008033010A1 (en) Device and method for positioning recording means for recording images relative to an object
KR20190112493A (en) Method for controling fundus camera and apparatus using the same
WO2023076456A1 (en) Monitoring system and method for remote monitoring of physiological health
KR102596502B1 (en) Dental scanner device, method and the system thereof
IT202100004274A1 (en) MONITORING AND COMMUNICATION SYSTEM BETWEEN PATIENT AND DOCTOR
KR102216892B1 (en) Psychology consultation method capable of personalized video consultation through real-time image mapping
JP7485233B2 (en) Information processing system, information processing device, information processing method, and program
US11883186B2 (en) Methods and systems for continuous measurement of anomalies for dysmorphology analysis
AU2021374990B2 (en) Deriving insights into motion of an object through computer vision
JP7202729B1 (en) Orthodontic advice system, orthodontic advice method and its program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant