KR102135874B1 - 상태정보 분석장치, 방법, 시스템 및 프로그램 - Google Patents

상태정보 분석장치, 방법, 시스템 및 프로그램 Download PDF

Info

Publication number
KR102135874B1
KR102135874B1 KR1020190098633A KR20190098633A KR102135874B1 KR 102135874 B1 KR102135874 B1 KR 102135874B1 KR 1020190098633 A KR1020190098633 A KR 1020190098633A KR 20190098633 A KR20190098633 A KR 20190098633A KR 102135874 B1 KR102135874 B1 KR 102135874B1
Authority
KR
South Korea
Prior art keywords
user
teeth
image
tooth
computer
Prior art date
Application number
KR1020190098633A
Other languages
English (en)
Other versions
KR20200050346A (ko
Inventor
이형진
Original Assignee
프리즈머블 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 프리즈머블 주식회사 filed Critical 프리즈머블 주식회사
Publication of KR20200050346A publication Critical patent/KR20200050346A/ko
Application granted granted Critical
Publication of KR102135874B1 publication Critical patent/KR102135874B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4542Evaluating the mouth, e.g. the jaw
    • A61B5/4547Evaluating teeth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C19/00Dental auxiliary appliances
    • A61C19/04Measuring instruments specially adapted for dentistry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Epidemiology (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Physical Education & Sports Medicine (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Rheumatology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Primary Health Care (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)

Abstract

컴퓨터에 의하여 수행되는 방법에 있어서, 대상체를 촬영한 이미지를 획득하는 단계 및 상기 획득된 이미지를 분석하여 상기 대상체의 상태정보를 획득하는 단계를 포함하는, 상태정보 분석방법이 개시된다.

Description

상태정보 분석장치, 방법, 시스템 및 프로그램 {APPARATUS, METHOD, SYSTEM AND PROGRAM FOR ANALYSING STATE INFORMATION}
본 발명은 상태정보 분석장치, 방법, 시스템 및 프로그램에 관한 것이다.
개인이 직접 구강상태를 확인하는 방법은 거울 등을 통해 치아의 외관을 살펴보는 방법 정도인 데 반해, 실제 치아에는 눈으로 보이지 않는 구강 내 세균 등 잠재 위험요인들이 존재한다.
따라서, 개인은 통증을 느끼고 병원에 가서 진단을 받기 전까지는 치아의 정확한 상태를 알 수 없는데, 이 경우 이미 치아가 크게 손상되어 적지 않은 치료비용을 부담하게 되는 경우가 많다.
그럼에도 치과에 주기적으로 방문하는 것은 쉽지 않으므로, 개인이 평소에 치아의 상태를 확인 및 관리하는 데 소극적일 수밖에 없는 것이 사실이다.
치아를 육안으로 확인하는 경우에는 깨끗해 보이더라도, 특수한 광원과 필터를 사용하여 볼 때에는 세균막이 형성된 모습 등을 확인하는 것이 가능하다. 예를 들어, LF(Light-Induced Fluorescence)를 이용할 수 있는데, LF는 푸른색 가시광선을 치아에 조사하여 발현된 형광 프로파일의 차이를 통해 치아의 상태를 판단하는 기술이다.
치아 상태에 따라 형광 프로파일에 차이가 발생하게 되는데, 예를 들어 건강한 치아에 조사된 UV-A는 법랑질과 상아질 경계에서 반사되면서 녹색 형광을 발현한다. 반면, 치태가 있는 치아에서는 치태에 포함되어 있는 포피린(pophyrin, 세균막)에서 적색 형광을 발현한다.
이를 통해 치아 상태를 확인하는 것이 가능하며, 이는 현재 치과 의료 현장에서 초기 치아 우식 탐지 및 모니터링 등의 목적으로 다양한 기기에 적용되고 있다.
본 발명이 해결하고자 하는 과제는 상태정보 분석장치, 방법, 시스템 및 프로그램을 제공하는 것이다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 상태정보 분석방법은, 대상체를 촬영한 이미지를 획득하는 단계 및 상기 획득된 이미지를 분석하여 상기 대상체의 상태정보를 획득하는 단계를 포함한다.
또한, 상기 이미지를 획득하는 단계는, 상기 대상체의 치아를 촬영한 이미지를 획득하는 단계를 포함하고, 상기 대상체의 상태정보를 획득하는 단계는, 상기 획득된 이미지에 포함된 상기 대상체의 치아의 상태정보를 획득하는 단계; 를 포함할 수 있다.
또한, 상기 이미지를 획득하는 단계는, 상기 대상체의 치아를 촬영한 LF 이미지를 획득하는 단계를 포함하고, 상기 대상체의 상태정보를 획득하는 단계는, 상기 획득된 LF 이미지를 이용하여 상기 대상체의 치아의 상태정보를 획득하는 단계를 포함할 수 있다.
또한, 상기 대상체의 치아의 상태정보를 획득하는 단계는, 복수의 치아 이미지에 기반하여 학습된 모델에 상기 획득된 이미지를 입력하는 단계 및 상기 학습된 모델의 출력에 기반하여 상기 대상체의 치아의 상태정보를 획득하는 단계를 포함할 수 있다.
또한, 상기 이미지를 획득하는 단계는, 상기 대상체의 치아를 촬영한 LF 이미지를 획득하는 단계를 포함하고, 상기 대상체의 상태정보를 획득하는 단계는, 복수의 LF 치아 이미지에 기반하여 학습된 모델에 상기 획득된 LF 이미지를 입력하는 단계 및 상기 학습된 모델의 출력에 기반하여 상기 대상체의 치아의 상태정보를 획득하는 단계를 포함할 수 있다.
또한, 상기 치아의 상태정보에 대응하는 치아 관리법을 결정하는 단계 및 상기 결정된 치아 관리법을 전송 또는 출력하는 단계를 더 포함할 수 있다.
또한, 상기 치아의 상태정보를 획득하는 단계는, 상기 대상체의 치아 각각의 상태정보를 획득하는 단계를 포함하고, 상기 치아 관리법을 결정하는 단계는, 상기 대상체의 치아 각각의 상태정보에 기초하여 상기 대상체의 치아 각각에 대한 치아 관리법을 결정하는 단계 및 상기 대상체의 서로 인접한 치아의 상태정보에 기초하여, 상기 대상체의 서로 인접한 치아의 치간 관리법을 결정하는 단계를 포함할 수 있다.
또한, 상기 치아의 상태정보에 대응하는 하나 이상의 치아관리 제품을 결정하는 단계 및 상기 결정된 제품을 추천하는 추천정보를 생성하는 단계를 더 포함할 수 있다.
또한, 사용자의 치아관리 제품 사용량 또는 잔량에 기초하여 상기 사용자가 주문하여야 할 하나 이상의 치아관리 제품의 종류 및 주문시점을 결정하는 단계 및 상기 결정된 치아관리 제품의 종류에 대하여, 상기 사용자가 기존에 사용하던 제품 또는 상기 추천정보에 대응하는 제품을 상기 결정된 주문시점에 주문하는 단계를 더 포함할 수 있다.
또한, 상기 이미지를 획득하는 단계는, 상기 대상체의 피부를 촬영한 LF 이미지를 획득하는 단계를 포함하고, 상기 대상체의 상태정보를 획득하는 단계는, 상기 획득된 LF 이미지를 이용하여 상기 대상체의 피부의 상태정보를 획득하는 단계를 포함할 수 있다.
또한, 상기 피부의 상태정보를 획득하는 단계는, 복수의 LF 피부 이미지에 기반하여 학습된 모델에 상기 획득된 LF 이미지를 입력하는 단계 및 상기 학습된 모델의 출력에 기반하여 상기 대상체의 피부의 상태정보를 획득하는 단계를 포함할 수 있다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 상태정보 분석시스템은, 대상체에 LF 이미지 촬영을 위한 기 설정된 파장의 빛을 조사하는 LF 모듈, 상기 기 설정된 파장의 빛이 조사된 대상체를 촬영하는 촬영 모듈 및 상기 촬영 모듈에서 촬영된 이미지를 획득하고, 상기 촬영된 이미지를 분석하여 상기 대상체의 상태정보를 획득하는 처리장치를 포함한다.
또한, 상기 LF 모듈은, 상기 대상체의 치아에 상기 기 설정된 파장의 빛을 조사하고, 상기 촬영 모듈은, 상기 기 설정된 파장의 빛이 조사된 상기 대상체의 치아를 촬영하고, 상기 처리장치는, 상기 대상체의 치아를 촬영한 이미지를 분석하여 상기 대상체의 치아의 상태정보를 획득할 수 있다.
또한, 상기 처리장치는, 복수의 치아 이미지에 기반하여 학습된 모델을 획득하고, 상기 학습된 모델에 상기 획득된 이미지를 입력하고, 상기 학습된 모델의 출력에 기반하여 상기 대상체의 치아의 상태정보를 획득할 수 있다.
또한, 상기 LF 모듈은, 상기 대상체의 피부에 상기 기 설정된 파장의 빛을 조사하고, 상기 촬영 모듈은, 상기 기 설정된 파장의 빛이 조사된 상기 대상체의 피부를 촬영하고, 상기 처리장치는, 상기 대상체의 피부를 촬영한 이미지를 분석하여 상기 대상체의 피부의 상태정보를 획득할 수 있다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 상태정보 분석장치는, 하나 이상의 인스트럭션을 저장하는 메모리 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 개시된 실시 예에 따른 상태정보 분석방법을 수행한다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 상태정보 분석프로그램은, 하드웨어인 컴퓨터와 결합되어, 개시된 실시 예에 따른 상태정보 분석방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
개시된 실시 예에 따르면, 개개인이 가정에서 직접 구강의 건강상태를 주기적으로 점검할 수 있고, 제공되는 정보에 따라 구강의 건강상태를 관리함으로써 구강의 건강을 증진하는 데 이바지할 수 있는 효과가 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 일 실시 예에 따른 상태정보 분석방법을 도시한 도면이다.
도 2는 사용자 단말이 대상체를 촬영하는 일 예를 도시한 도면이다.
도 3은 일 실시 예에 따른 LF 기반 상태정보 분석방법을 도시한 도면이다.
도 4는 LF광을 조사하여 대상체의 LF 이미지를 획득하는 일 예를 도시한 도면이다.
도 5는 일 실시 예에 따른 LF 기기를 도시한 도면이다.
도 6은 도 5에 도시된 LF 기기를 이용하는 일 예를 도시한 도면이다.
도 7은 도 5에 도시된 LF 기기를 이용하여 대상체의 치아 이미지를 촬영하는 일 예를 도시한 도면이다.
도 8은 대상체의 LF 치아 이미지로부터 대상체의 치아 상태정보를 획득 및 표시하는 일 예를 도시한 도면이다.
도 9는 일 실시 예에 따른 인공지능 기반 상태정보 분석방법을 도시한 도면이다.
도 10은 일 실시 예에 따른 LF 및 인공지능 기반 상태정보 분석방법을 도시한 흐름도이다.
도 11은 일 실시 예에 따라 서버를 포함하는 시스템을 도시한 도면이다.
도 12는 일 실시 예에 따른 대상체의 상태정보에 따른 관리법 결정방법을 도시한 흐름도이다.
도 13은 치아 상태정보에 따른 치아 관리방법을 제공하는 일 예를 도시한 도면이다.
도 14는 일 실시 예에 따른 치아관리 방법을 판단 및 제공하는 방법을 설명하기 위한 도면이다.
도 15는 일 실시 예에 따른 치아 상태정보 히스토리 관리방법을 도시한 도면이다.
도 16은 일 실시 예에 따른 제품 추천방법을 도시한 흐름도이다.
도 17은 일 실시 예에 따른 제품 추천 및 주문방법을 도시한 흐름도이다.
도 18은 일 실시 예에 따라 정보를 수집하고, 서비스를 제공하는 시스템을 도시한 도면이다.
도 19는 일 실시 예에 따른 상태정보 분석시스템을 도시한 도면이다.
도 20은 일 실시 예에 따른 장치의 구성도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.
본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
본 명세서에서는, 별도의 도구 혹은 스마트폰 등을 활용하여 사용자의 치아에 대한 정보를 수집하고, 이에 기초하여 치아의 건강상태를 분석하여 제공할 수 있는 장치와 방법, 시스템에 대한 내용을 설명한다.
예를 들어, LF를 가정에서 이용할 수 있도록 하는 장비가 개발 및 보급될 수 있고, 나아가 소프트웨어를 이용하여 검사 결과를 분석 및 관리할 수 있도록 하는 기술이 제공될 수 있다.
실시 예에 따라서, LF는 치아 외에도 피부 등 다양한 대상체의 표면을 검사하고, 분석 및 관리하는 데에도 활용될 수 있다.
도 1은 일 실시 예에 따른 상태정보 분석방법을 도시한 도면이다.
본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.
예를 들어, 각 단계를 수행하는 주체로서의 컴퓨터는 사용자 단말을 의미할 수도 있고, 서버를 의미할 수도 있다. 예를 들어, 사용자 단말은 스마트폰을 포함하는 모바일 단말을 의미할 수 있으나, 이에 제한되는 것은 아니다. 예를 들어, 서버는 상술한 컴퓨터의 일종을 의미할 수도 있으나, 이에 제한되는 것은 아니며, 예를 들어 클라우드 서버를 의미할 수도 있다.
단계 S110에서, 컴퓨터는 대상체를 촬영한 이미지를 획득한다.
본 명세서에서, 대상체는 분석의 대상이 되는 객체를 의미한다. 예를 들어, 대상체는 사람 혹은 인체 및 그 일부를 의미할 수 있으나, 이에 제한되는 것은 아니다.
단계 S120에서, 컴퓨터는 상기 획득된 이미지를 분석하여 상기 대상체의 상태정보를 획득한다.
일 실시 예에서, 컴퓨터는 대상체의 이미지를 분석함으로써 대상체의 상태에 대한 정보를 획득한다. 예를 들어, 대상체의 상태정보는 대상체를 촬영한 이미지로부터 획득될 수 있는, 즉 대상체의 표면 이미지로부터 분석될 수 있는 것을 의미할 수 있으나, 이에 제한되는 것은 아니다.
일 실시 예에서, 컴퓨터는 상술한 상기 이미지를 획득하는 단계(S110)에서, 상기 대상체의 치아를 촬영한 이미지를 획득하는 단계를 수행할 수 있다.
일 실시 예에서, 컴퓨터는 상술한 대상체의 상태정보를 획득하는 단계(S120)에서, 상기 획득된 이미지에 포함된 상기 대상체의 치아의 상태정보를 획득하는 단계를 수행할 수 있다.
즉, 컴퓨터는 대상체의 치아를 촬영한 이미지를 획득하고, 획득된 이미지를 이미지 분석 방법에 기반하여 분석함으로써 대상체의 치아의 상태정보를 획득할 수 있다.
예를 들어, 컴퓨터는 대상체의 치아를 별도의 조작 없이 카메라 모듈을 이용하여 촬영한 이미지를 획득할 수도 있고, LF 광을 대상체의 치아에 조사한 후 그 결과를 필터링한 이미지를 획득할 수도 있으며, 편광을 이용하여 촬영된 치아 이미지를 획득할 수도 있다.
컴퓨터가 치아 이미지를 분석하여 치아 상태정보를 획득하는 구체적인 방법에 대해서는 후술한다.
예를 들어, 컴퓨터는 대상체의 치아 이미지로부터 정상적인 부분과 이상이 있는 부분을 구분할 수 있다. 나아가, 컴퓨터는 이상이 있는 부분의 면적 및 상태를 판단할 수 있는데, 예를 들어 컴퓨터는 이상이 있는 부분에 치태나 치석이 있는지, 음식물이 남아 있는지, 혹은 치아 우식이 발생했는지 등을 판단하고, 해당 문제점이 발생한 영역의 위치 및 면적을 판단할 수 있다.
더 나아가, 컴퓨터는 해당 부분의 문제점의 진행상황과 심각성 등을 판단할 수 있고, 치아 우식이 발생한 경우 우식이 발생한 영역의 면적뿐 아니라 깊이, 표면적 혹은 부피 등을 판단할 수도 있다.
일 실시 예에서, 컴퓨터는 대상체(10)의 피부를 촬영한 이미지를 획득하고, 이에 기반하여 대상체(10)의 피부 상태정보를 획득할 수 있다.
도 2는 사용자 단말이 대상체를 촬영하는 일 예를 도시한 도면이다.
도 2를 참조하면, 사용자 단말(100)이 카메라(110)를 이용하여 대상체(10)를 촬영하는 일 예가 도시되어 있다.
일 실시 예에서, 사용자 단말(100)은 대상체(10)를 촬영하고, 촬영된 이미지를 직접 분석하여 도 1의 방법을 수행할 수 있다.
다른 실시 예에서, 사용자 단말(100)은 대상체(10)를 촬영한 이미지를 외부 단말 혹은 서버에 전송하고, 외부 단말 혹은 서버가 이미지를 분석하여 도 1의 방법을 수행하고, 수행 결과를 사용자 단말(100)에 전송할 수 있다.
도 3은 일 실시 예에 따른 LF 기반 상태정보 분석방법을 도시한 도면이다.
단계 S210에서, LF 기기는 대상체(10)에 LF 광을 조사할 수 있다.
LF(Light-Induced Fluorescence)는 푸른색 가시광선을 치아에 조사하여 발현된 형광 프로파일의 차이를 통해 대상체의 상태를 판단하는 기술이다. 즉, LF 광은 LF 기술에 이용되는 푸른색 가시광선을 의미할 수 있으나, 이에 제한되는 것은 아니다. 예를 들어, LF 광은 LF 기술에 이용되는 소정 파장범위의 빛을 의미할 수 있다.
상술한 이미지를 획득하는 단계(S110)에서, 컴퓨터는 상기 대상체의 치아를 촬영한 LF 이미지를 획득하는 단계(S220)를 수행할 수 있다.
일 실시 예에서, LF 이미지는 LF 광이 조사된 대상체를 촬영한 이미지를 의미할 수 있다.
또한, 상술한 대상체의 상태정보를 획득하는 단계(S120)에서, 컴퓨터는 상기 획득된 LF 이미지를 이용하여 상기 대상체의 치아의 상태정보를 획득하는 단계(S230)를 수행할 수 있다.
도 1에서 설명한 바와 마찬가지로, 컴퓨터는 이미지 분석방법을 이용하여 LF 이미지로부터 대상체의 치아 상태정보를 획득할 수 있다.
예를 들어, 대상체(10)의 치아에 LF 광을 조사하는 경우, 건강한 치아에 조사된 광은 법랑질과 상아질 경계에서 반사되면서 녹색 형광을 발현하는 데 반해, 치태가 있는 치아에서는 치태에 포함되어 있는 포피린(pophyrin, 세균막)에서 적색 형광을 발현한다.
이에 따라, 컴퓨터는 이미지 분석방법에 기반하여 적색 형광을 발현하는 것으로 판단되는 위치를 식별하고, 이에 기반하여 대상체(10)의 치아에서 치태가 있는 부분을 판단할 수 있다.
실시 예에 따라서, LF 광의 파장범위에 따라 육안으로도 적색 형광을 용이하게 판별할 수도 있으나, 육안으로는 명확히 해당 부분을 파악하기 어려울 수도 있다.
육안으로 파악이 어려운 경우에도 이를 촬영한 이미지에 기반하여 컴퓨터가 치아상태를 파악하는 것은 가능할 수 있다. 이 경우, 컴퓨터는 치아를 촬영한 이미지에 기반하여 사용자의 치아상태를 분석하며, 사용자의 치아상태가 표시된 치아 이미지를 생성하여 제공할 수 있다.
일 실시 예에서, 상술한 이미지를 획득하는 단계(S110)에서, 컴퓨터는 틀니를 촬영한 이미지를 획득할 수도 있다. 예를 들어, 컴퓨터는 틀니를 촬영한 LF 이미지를 획득할 수 있으며, 이에 기반하여 틀니의 상태정보 및 관리를 위한 정보를 제공할 수도 있다. 본 명세서에 개시된 치아와 관련된 실시 예들은, 틀니에도 동일하게 적용되는 것으로 이해될 수 있다.
일 실시 예에서, 상술한 이미지를 획득하는 단계(S110)에서, 컴퓨터는 상기 대상체(10)의 피부를 촬영한 LF 이미지를 획득하는 단계(S220)를 수행할 수 있다.
또한, 상술한 대상체의 상태정보를 획득하는 단계(S120)에서, 컴퓨터는 상기 획득된 LF 이미지를 이용하여 상기 대상체(10)의 피부의 상태정보를 획득하는 단계(S230)를 수행할 수 있다.
일 실시 예에서, 컴퓨터는 이미지 분석방법을 이용하여 LF 이미지로부터 대상체의 피부 상태정보를 획득할 수 있다.
예를 들어, 피부 상태정보는 피부의 주름, 노화도, 기미, 주근깨, 트러블, 수분, 유분 등 다양한 정보를 포함할 수 있으며, 이에 제한되는 것은 아니다.
컴퓨터는 LF광을 조사함에 따른 피부 표면의 반응 및 이에 따른 색상변화에 기초하여 피부의 상태정보를 판단할 수 있다. 예를 들어, 컴퓨터는 피부 표면의 색상변화에 따른 해당 부분의 상태정보에 대한 정보를 포함하는 데이터베이스에 기초하여, 대상체(10)의 피부를 촬영한 LF 이미지로부터 대상체(10)의 피부 각 위치에 대한 상태정보를 획득할 수 있다.
예를 들어, LF 기기를 이용하여 피부를 촬영하는 경우, 피지는 붉은 형광색으로 표시되며, 피지가 아닌 기타 이물질은 초록색 계열 형광색으로 표시되어 구분이 가능할 수 있다.
이외에도 LF 기기를 이용하여 다양한 피부의 특성을 판단할 수 있으며, 나아가 하나 이상의 센서를 추가로 사용하여 피부의 다양한 상태정보를 수집할 수 있다.
다른 실시 예에서, 컴퓨터는 편광을 이용하여 치아에 대한 이미지를 획득하며, 치아의 상태정보를 분석할 수 있다.
일 실시 예에서, 편광 모듈은 대상체의 치아에 일반 광원 혹은 편광된 광원을 조사하며, 치아로부터 반사되는 빛을 일반 카메라 혹은 편광 카메라를 이용하여 획득하고, 그 결과를 분석하여 치아에 대한 상태정보를 분석할 수 있다.
예를 들어, 편광 모듈은 광원에 편광 필름을 이용하여 편광된 광원이 대상체의 치아로 조사되도록 하며, 반사된 빛을 편광 카메라를 이용하여 촬영할 수 있다. 본 실시 예에서, 편광 카메라는 편광 필름을 포함하는 카메라를 의미할 수 있으며, 이는 편광 필름이 카메라와 일체로서 구성된 것뿐 아니라 일반 카메라에 편광 필름을 덧대어 사용하는 경우를 포괄하는 것으로 이해될 수 있다.
치아에 조사된 빛은, 치아 표면의 에나멜 구조에 의하여 편광되어 반사된다. 반사된 빛이 편광필름을 거치게 되는 경우, 반사된 빛의 편광 방향과 편광필름의 편광방향이 일치하는 경우 더 많은 빛이 필터를 통과하여 카메라에서 촬영될 것이고, 반사된 빛의 편광 방향과 편광필름의 편광방향이 일치하지 않는 경우 적은 빛이 필터를 통과하여 카메라에서 촬영될 것이다.
건강한 치아의 표면은 그 에나멜 구조에 의하여 일정한 방향의 결을 가지며, 따라서 치아의 표면에서 반사되는 빛 또한 일정한 방향으로 편광된다.
반면 치아의 표면에 치석, 치태, 우식 등 손상이 있는 경우, 표면이 일정한 결을 가지지 못하므로 치아의 표면에서 반사되는 빛 또한 일정한 방향으로 편광되지 못한다.
이에 상이한 각도의 편광필름(예를 들어, 0도와 90도)을 이용하여 반사되는 빛을 촬영하거나, 편광필름을 모터를 이용하여 회전시키며 반사되는 빛을 촬영하는 경우, 치아의 표면에서 반사되는 빛의 편광상태를 판단할 수 있다.
예를 들어, 편광필름의 각도에 따라 특정 각도에서 많은 빛이 촬영되는 경우 일정한 방향으로 편광된 빛으로 판단할 수 있고, 편광필름의 각도 변화에 따라 촬영되는 빛의 차이가 크지 않은 경우, 일정한 방향으로 편광되지 않은 빛으로 판단할 수 있다.
이에 따라 컴퓨터는 편광필름의 각도에 따라 특정 각도에서 많은 빛이 촬영되는 경우 해당 치아의 표면이 건강한 것으로 판단할 수 있고, 그렇지 못한 경우에는 해당 치아의 표면에 문제가 있는 것으로 판단할 수 있다.
일 실시 예에서, 조사되는 광원의 편광필터는 생략될 수도 있다.
또한, 편광필터 대신 액정폴리머를 이용함으로써, 편광방향을 전기적으로 선택할 수도 있다. 이 경우, 복수의 편광필터를 이용하기 위해 복수의 카메라를 이용하거나, 편광필터를 물리적으로 회전시키기 위하여 모터 등을 이용하지 않아도 되는 장점이 있다.
또한, 다양한 각도(예를 들어, 0, 45, 90, 135도)의 편광필터가 내장된 편광 카메라를 이용함으로써 치아로부터 반사되는 이미지를 촬영하여 편광 이미지를 획득할 수도 있다.
즉, 컴퓨터는 다양한 편광 각도에서 촬영된 치아의 이미지를 획득하되, 이를 합성하는 과정에서 편광 각도에 따라 특정 각도에서 더 밝게 촬영된 부분은 정상적인 치아로, 그러한 각도가 없는 부분은 손상된 것으로 표시할 수 있으며, 이에 따라 손상된 부분이 표시된 치아 이미지를 획득할 수 있다.
또한, 실시 예에 따라 복수의 편광 각도에서 촬영된 치아 이미지를 중첩하여 합성하는 과정에서, 특정 각도에서 더 밝게 촬영되는 부분의 경우 합성된 이미지가 더 밝게, 어떤 각도에서도 특별히 밝게 촬영되지 않는 부분의 경우 합성된 이미지가 상대적으로 어둡게 표시될 수 있다. 이 경우, 합성된 이미지에서 상대적으로 어두운 부분이 손상된 치아 표면인 것으로 판단할 수 있으나, 이에 제한되는 것은 아니다.
도 4는 LF광을 조사하여 대상체의 LF 이미지를 획득하는 일 예를 도시한 도면이다.
도 4를 참조하면, 대상체(10)에 LF 광을 조사하는 LF 기기(200)와, 카메라(110)를 이용하여 LF 광이 조사된 대상체(10)를 촬영하는 사용자 단말(100)이 도시되어 있다.
일 실시 예에서, 사용자 단말(100)은 대상체(10)를 촬영하고, 촬영된 이미지를 직접 분석하여 도 1의 방법을 수행할 수 있다.
다른 실시 예에서, 사용자 단말(100)은 대상체(10)를 촬영한 이미지를 외부 단말 혹은 서버에 전송하고, 외부 단말 혹은 서버가 이미지를 분석하여 도 1의 방법을 수행하고, 수행 결과를 사용자 단말(100)에 전송할 수 있다.
도 5는 일 실시 예에 따른 LF 기기를 도시한 도면이다.
도 5를 참조하면, LF 기기(200)의 전면 및 후면이 도시되어 있다.
일 실시 예에서, LF 기기(200)는 LF에 최적화된 LED 광원(202) 및 특수 제작 필터(206)를 포함한다.
일 실시 예에서, LF 기기(200)에는 탈착용 쉐이드가 포함될 수 있으며, 탈착용 쉐이드를 탈착하기 위한 탈착부(204)가 마련될 수 있다. LF 기기(200)의 본체에는 기기에 전원을 공급하기 위한 배터리가 포함될 수 있다.
쉐이드는 사용자의 구강에 직접적으로 접촉될 수 있으므로, 용이한 세척을 위해 탈착식으로 구성될 수 있으며, 탈착부(204)에 마련된 홈을 이용하여 LF 기기(200)와 탈착될 수 있으나, 이에 제한되는 것은 아니다.
실시 예에 따라서, 별도의 필터(206)가 이용되지 않고, 필터(206)의 자리에 통공 혹은 투명한 재질의 가림막이 구비될 수도 있다.
도 6은 도 5에 도시된 LF 기기를 이용하는 일 예를 도시한 도면이다.
도 6을 참조하면, 대상체(10)의 구강에 쉐이드(210)를 부착한 LF 기기(200)를 밀착시키고, 거울(1)을 이용하여 육안으로 치아의 상태를 확인하는 일 예가 도시되어 있다.
따라서, 사용자는 거울 앞에 서서, 전원 버튼을 켜는 것 만으로 손쉽게 치아의 상태를 체크할 수 있다. 나아가, 쉐이드가 부착되어 있는 경우 외부 빛 간섭을 막아주므로 보다 선명한 영상을 획득하는 것이 가능하다.
특히, 육안으로 치아의 상태를 확인할 때보다도 스마트폰 앱 등을 이용하여 치아를 촬영하는 경우에 쉐이드를 사용하는 것이 권장된다.
일 실시 예에서, LF 기기(200)에 카메라 모듈이 구비되어 사용자는 LF 기기(200)를 구강에 밀착시킨 후, LF 기기(200)에 구비된 카메라 모듈을 이용하여 구강 이미지를 촬영할 수도 있다.
촬영된 구강 이미지는 실시간으로 사용자 단말 등에 전송될 수도 있고, 실시 예에 따라 LF 기기(200)에 저장된 후에 사용자 단말로 전달될 수도 있다.
도 7은 도 5에 도시된 LF 기기를 이용하여 대상체의 치아 이미지를 촬영하는 일 예를 도시한 도면이다.
도 7을 참조하면, 도 6과 마찬가지로 대상체(10)의 구강에 쉐이드(210)를 부착한 LF 기기(200)를 밀착시키고, 사용자 단말(100)을 이용하여 대상체(10)의 LF 치아 이미지를 촬영하는 일 예가 도시되어 있다.
예를 들어 사용자가 가정용 구강 위생상태 체크 기기를 이용하는 중에, 사용자의 치아 상태를 스마트폰 카메라를 이용하여 촬영할 수 있다. 이를 통해 스마트폰은 LF 기술이 적용된 사용자의 치아 이미지를 획득할 수 있으며, 스마트폰 혹은 서버에서 획득된 치아 이미지를 분석하여, 그 결과를 사용자의 스마트폰 애플리케이션을 이용하에 제공할 수 있다.
일 실시 예에서, 스마트폰 혹은 서버에서 치아 이미지를 분석하여 사용자의 치아상태를 판단할 수 있다. 또한, 스마트폰 혹은 서버에서 잇몸의 적어도 일부가 포함된 치아 이미지를 획득하는 경우, 해당 이미지의 LF 기술 적용여부와 무관하게 사용자의 잇몸 건강상태를 판단할 수도 있다. 예를 들어, 사용자의 치아 사이의 잇몸 끝 부분이 뾰족하지 않고 둥그스름한 경우, 잇몸에 이상이 있는 것으로 판단할 수 있다. 잇몸 끝 부분의 둥그스름한 정도에 따른 잇몸의 상태 판단기준은 다양하게 설정될 수 있다.
이는 예시로서 제공된 것이며, 실시 예에 따라 사용자의 잇몸 이미지를 인공지능 모델이 분석하여 사용자의 잇몸 건강상태를 판단하는 것도 가능하며, 사용자의 치아와 잇몸의 건강상태를 함께 분석하여 판단하고, 치아와 잇몸의 상호 상관관계에 기초하여 진단 및 개선방안 안내가 가능할 수 있다.
도 8은 대상체의 LF 치아 이미지로부터 대상체의 치아 상태정보를 획득 및 표시하는 일 예를 도시한 도면이다.
도 8을 참조하면, 대상체(10)의 LF 치아 이미지(20)가 도시되어 있다. 이미지(20)를 참조하면, 대상체의 아랫니 일부가 붉게 빛나는 것을 확인할 수 있다. 해당 부분은 치태가 있는 것으로 판단할 수 있으며, 개시된 실시 예에 따른 컴퓨터는 육안으로 식별이 어렵거나 모호한 부분에 대해서도 치아의 상태정보를 획득할 수 있다.
일 실시 예에서, 사용자 단말(100)에는 대상체의 치아 상태정보를 분석한 결과 이미지(30)가 소정의 설명과 함께 표시될 수 있다.
예를 들어, 이미지(30)는 치아 각각에 대하여 정량적으로 평가된 점수 및 대상체의 치아에 문제가 발생한 위치, 면적 및 그 종류를 시각적으로 도시한 이미지를 포함할 수 있다.
예를 들어, 도 8에 도시된 바와 같이 사용자의 치아 각각에 대한 평가 결과에 대응하는 점수를 산정 및 표시하고, 각각의 치아에서 문제가 발생한 위치와 면적, 모양 등을 서로 다른 색상이나 이미지로 표시하여 사용자가 직관적으로 치아의 건강상태를 파악하도록 할 수 있다.
또한, 대상체의 치아 상태분석은 각각의 치아에 대하여 수행될 수 있으며, 전체 치아에 대해서도 종합적으로 수행될 수 있다.
일 실시 예에서, 컴퓨터는 대상체(10)의 각각의 치아에 대한 상태정보를 획득하고, 이에 기초하여 각각의 치아에 대한 점수를 결정할 수 있다. 예로, 이미지(30)에는 각각의 치아에서 이상이 있는 부분을 표시하는 것과 함께, 각각의 치아에 대한 점수를 표시할 수 있다.
도 9는 일 실시 예에 따른 인공지능 기반 상태정보 분석방법을 도시한 도면이다.
본 명세서에서, 인공지능 기술은 머신러닝(Machine Learning, 기계학습) 기술을 포함하며, 머신러닝 기술 중에서도 특히 영상을 분석하는 데 널리 이용되는 딥러닝(Deep Learning) 기술을 포함하며, 특정한 종류의 기술에 제한되지 않는다.
딥 러닝은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화(abstractions, 다량의 데이터나 복잡한 자료들 속에서 핵심적인 내용 또는 기능을 요약하는 작업)를 시도하는 기계학습(machine learning) 알고리즘의 집합으로 정의된다. 딥 러닝은 큰 틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습의 한 분야로 볼 수 있다.
어떠한 데이터가 있을 때 이를 컴퓨터가 알아들을 수 있는 형태(예를 들어 영상의 경우는 픽셀정보를 열벡터로 표현하는 등)로 표현(representation)하고 이를 학습에 적용하기 위해 많은 연구(어떻게 하면 더 좋은 표현기법을 만들고 또 어떻게 이것들을 학습할 모델을 만들지에 대한)가 진행되고 있다. 이러한 노력의 결과로 다양한 딥 러닝 기법들이 개발되었다. 딥 러닝 기법들로는 심층 신경망(Deep Neural Networks, DNN), 합성곱 신경망(Convolutional deep Neural Networks, CNN), 순환 신경망(Reccurent Neural Network, RNN) 및 심층 신뢰 신경망(Deep Belief Networks, DBN)을 예로 들 수 있다. 또한, 실시 예에 따라 강화학습(Reinforcement Learning)이 이용될 수 있다.
심층 신경망(Deep Neural Networks, DNN)은 입력 계층(input layer)과 출력 계층(output layer) 사이에 복수개의 은닉 계층(hidden layer)들로 이뤄진 인공신경망(Artificial Neural Network, ANN)이다.
합성곱 신경망(Convolutional deep Neural Networks, CNN)은 최소한의 전처리(preprocess)를 사용하도록 설계된 다계층 퍼셉트론(multilayer perceptrons)의 한 종류이다. 합성곱 신경망은 하나 또는 여러개의 합성곱 계층(convolutional layer)과 그 위에 올려진 일반적인 인공신경망 계층들로 이루어져 있으며, 가중치와 통합 계층(pooling layer)들을 추가로 활용한다. 이러한 구조 덕분에 합성곱 신경망은 2차원 구조의 입력 데이터를 충분히 활용할 수 있다. 또한, 합성곱 신경망은 표준 역전달을 통해 훈련될 수 있다. 합성곱 신경망은 다른 피드포워드 인공신경망 기법들보다 쉽게 훈련되는 편이고 적은 수의 매개변수를 사용한다는 이점이 있다.
순환 신경망(Reccurent Neural Network, RNN)은 인공신경망을 구성하는 유닛 사이의 연결이 Directed cycle을 구성하는 신경망을 말한다. 순환 신경망은 앞먹임 신경망과 달리, 임의의 입력을 처리하기 위해 신경망 내부의 메모리를 활용할 수 있다.
심층 신뢰 신경망(Deep Belief Networks, DBN)이란 기계학습에서 사용되는 그래프 생성 모형(generative graphical model)으로, 딥 러닝에서는 잠재변수(latent variable)의 다중계층으로 이루어진 심층 신경망을 의미한다. 계층 간에는 연결이 있지만 계층 내의 유닛 간에는 연결이 없다는 특징이 있다.
심층 신뢰 신경망은 생성 모형이라는 특성상 선행학습에 사용될 수 있고, 선행학습을 통해 초기 가중치를 학습한 후 역전파 혹은 다른 판별 알고리즘을 통해 가중치의 미조정을 할 수 있다. 이러한 특성은 훈련용 데이터가 적을 때 굉장히 유용한데, 이는 훈련용 데이터가 적을수록 가중치의 초기값이 결과적인 모델에 끼치는 영향이 세지기 때문이다. 선행학습된 가중치 초기값은 임의로 설정된 가중치 초기값에 비해 최적의 가중치에 가깝게 되고 이는 미조정 단계의 성능과 속도향상을 가능케 한다.
상술한 딥 러닝 기술에 대한 내용은 본 명세서에서 설명되는 인공지능 기술에 대한 이해를 돕기 위한 예시로써 기술된 것이며, 개시된 실시 예에 따라 사용자의 치아 상태를 판단하는 데 이용되는 인공지능 기술의 종류는 이에 제한되지 않는다.
예를 들어, 당 업계의 통상의 기술자가 동일한 과제해결을 위하여 적용할 수 있는 모든 종류의 인공지능 기술 및 그 학습방법이 개시된 실시 예에 따라 대상체(예를 들어, 치아 혹은 피부)의 상태정보를 판단하는 데 활용될 수 있다.
일 실시 예에서, 컴퓨터는 대상체의 이미지를 획득(S310)한다.
일 실시 예에서, 상술한 대상체의 치아의 상태정보를 획득하는 단계(S120)에 있어서, 컴퓨터는 복수의 치아 이미지에 기반하여 학습된 모델에 상기 획득된 이미지를 입력하는 단계(S320)를 수행할 수 있다.
일 실시 예에서, 학습된 모델은 지도학습에 기반하여 학습된 모델일 수 있다. 예를 들어, 학습된 모델은 복수의 치아 이미지에 이상부위, 치석, 치태, 우식 등이 라벨링된 학습 데이터에 기반하여 학습된 모델일 수 있다.
또한, 컴퓨터는 상기 학습된 모델의 출력에 기반하여 상기 대상체의 치아의 상태정보를 획득하는 단계(S330)를 수행할 수 있다.
도 10은 일 실시 예에 따른 LF 및 인공지능 기반 상태정보 분석방법을 도시한 흐름도이다.
단계 S410에서, LF 기기(200)에 의하여 대상체에 LF광이 조사될 수 있다.
일 실시 예에서, 상술한 이미지를 획득하는 단계(S110)에 있어서, 컴퓨터는 상기 대상체의 치아를 촬영한 LF 이미지를 획득하는 단계(S420)를 수행할 수 있다.
또한, 상술한 대상체의 상태정보를 획득하는 단계(S120)에 있어서, 컴퓨터는 복수의 LF 치아 이미지에 기반하여 학습된 모델에 상기 획득된 LF 이미지를 입력하는 단계(S430)를 수행할 수 있다.
일 실시 예에서, 학습된 모델은 지도학습에 기반하여 학습된 모델일 수 있다. 예를 들어, 학습된 모델은 복수의 LF 치아 이미지에 이상부위, 치석, 치태, 우식 등이 라벨링된 학습 데이터에 기반하여 학습된 모델일 수 있다.
또한, 컴퓨터는 상기 학습된 모델의 출력에 기반하여 상기 대상체의 치아의 상태정보를 획득하는 단계(S440)를 수행할 수 있다.
이에 따라, 컴퓨터는 사용자의 육안으로는 물론, 색상 등에 기초한 이미지 분석방법으로는 확인하기 어려운 다양한 치아의 이상상태를 판단할 수 있으며, 이상상태가 발생하는 영역 및 정도 또한 더욱 구체적으로 판단할 수 있다.
예를 들어, 획득된 이미지는 딥 러닝에 기반하여 학습된 인공지능 모델에 의하여 분석될 수 있으며, 컴퓨터는 이에 기반하여 사용자의 치아 이미지로부터 정상적인 부분과 이상이 있는 부분을 구분할 수 있다. 나아가, 컴퓨터는 이상이 있는 부분의 면적 및 상태를 판단할 수 있는데, 예를 들어 컴퓨터는 이상이 있는 부분에 치태나 치석이 있는지, 음식물이 남아 있는지, 혹은 치아 우식이 발생했는지 등을 판단하고, 해당 문제점이 발생한 영역의 위치 및 면적을 판단할 수 있다.
더 나아가, 컴퓨터는 해당 부분의 문제점의 진행상황과 심각성 등을 판단할 수 있고, 치아 우식이 발생한 경우 우식이 발생한 영역의 면적뿐 아니라 깊이, 표면적 혹은 부피 등을 판단할 수도 있다.
또한, 컴퓨터는 기 획득된 사용자의 치아에 대한 CT 혹은 MRI 등의 의료영상에 기초하여 사용자의 치아에 신경이 분포된 위치 및 모양을 획득하고, 현재 치아가 우식된 부분이 사용자의 신경에 영향을 미치는지 여부 및 그 정도를 판단할 수도 있다.
실시 예에 따라서, 컴퓨터는 인공지능 모델을 이용하여 사용자의 치아 외형으로부터 사용자의 치아 내 신경이 배치된 위치를 예측할 수도 있다. 이러한 예측은 사용자의 치아 외관을 촬영한 이미지와, 사용자의 치아를 CT나 MRI 등으로 촬영한 이미지를 학습 데이터로 하여 학습된 인공지능 모델에 의하여 수행될 수 있다.
개시된 실시 예에 따른 인공지능 모델은, 사용자의 치아 이미지와, 해당 이미지에서 이상이 있는 부분에 대한 정보를 표시한 라벨링 정보를 포함하는 학습 데이터에 기초하여 학습될 수 있다. 라벨링은 치과의사 등 전문인력에 의하여 미리 수행될 수 있다.
일 실시 예에서, 학습 데이터는 LF 기술을 이용하여 촬영된 치아 이미지만을 포함할 수도 있지만, 실시 예에 따라 별도의 처리 없이 일반 카메라로 촬영된 치아 이미지 또한 포함할 수 있다. 이는 동일한 학습 데이터 그룹으로 병합될 수도 있지만, 서로 다른 학습을 위하여 별도의 학습 데이터 그룹으로 분류될 수도 있다.
예를 들어, 별도의 처리 없이 일반 카메라로 촬영된 치아 이미지와, 해당 이미지에서 이상이 있는 부분에 대한 정보를 표시한 라벨링 정보가 포함된 학습 데이터를 이용하여 인공지능 모델을 학습시키는 경우, 별도의 장비 없이도 스마트폰 카메라를 이용한 촬영만으로도 사용자의 치아건강 상태를 어느정도 예측할 수 있는 인공지능 모델이 획득될 수 있다.
또한, 별도의 처리 없이 일반 카메라로 촬영된 치아 이미지와, LF 기술을 이용하여 촬영된 치아 이미지를 포함하는 학습 데이터를 이용하여 인공지능 모델을 학습시키는 경우, 별도의 처리 없이 일반 카메라로 촬영된 치아 이미지로부터 LF 기술을 이용하여 촬영된 치아 이미지를 재현할 수 있는 인공지능 모델이 학습될 수도 있다.
일 실시 예에서, 컴퓨터는 사용자의 치아 청결도(혹은 건강상태)를 정량적인 점수로 평가하여 제공할 수 있다.
예를 들어, 점수는 치아의 형광소실정도와, 위험요소분포영역 및 위험요소의 위치나 기간, 종류 등에 따른 가중치에 기초하여 산출될 수 있으며, 예를 들어 각각의 요소와 가중치를 곱하여 산출될 수 있으나, 이에 제한되는 것은 아니다.
일 실시 예에서, 컴퓨터는 복수의 LF 피부 이미지에 기반하여 학습된 모델에 대상체의 LF 피부 이미지를 입력할 수 있다.
또한, 컴퓨터는 학습된 모델의 출력에 기반하여 대상체의 피부의 상태정보를 획득할 수 있다.
일 실시 예에서, 학습된 모델은 지도학습에 기반하여 학습된 모델일 수 있다. 예를 들어, 학습된 모델은 복수의 LF 피부 이미지에 이상부위, 기미, 주근깨, 트러블 등이 라벨링된 학습 데이터에 기반하여 학습된 모델일 수 있다. 또한, 학습된 모델은 LF 피부 이미지에 수분, 유분 등에 대한 수치가 라벨링된 학습 데이터에 기반하여 학습된 모델일 수 있다.
도 11은 일 실시 예에 따라 서버를 포함하는 시스템을 도시한 도면이다.
도 11을 참조하면, 대상체(10)에 LF 광을 조사하는 LF 기기(200)와, 카메라(110)를 이용하여 LF 광이 조사된 대상체(10)를 촬영하는 사용자 단말(100)이 도시되어 있다.
또한, 도 11을 참조하면, 사용자 단말(100)과 정보를 교환하는 서버(300)가 도시되어 있다.
일 실시 예에서, 사용자 단말(100)은 대상체(10)를 촬영하고, 촬영된 이미지를 직접 분석하여 도 1의 방법을 수행할 수 있다.
다른 실시 예에서, 사용자 단말(100)은 대상체(10)를 촬영한 이미지를 외부 단말 혹은 서버(300)에 전송하고, 외부 단말 혹은 서버(300)가 이미지를 분석하여 도 10의 방법을 수행하고, 수행 결과를 사용자 단말(100)에 전송할 수 있다.
일 실시 예에서, 상술한 학습된 모델은 서버(300)에 의하여 학습될 수 있다. 또한, 서버(300)는 학습된 모델을 이용하여 촬영된 이미지를 분석하고, 분석 결과를 사용자 단말(100)에 제공할 수 있다.
또한, 서버(300)는 학습된 모델을 사용자 단말(100)에 제공할 수 있다. 서버(300)는 사용자 단말(100)에 저장된, 학습된 모델을 소정의 주기로 업데이트할 수 있다.
일 실시 예에서, 사용자 단말(100)은 서버(300)로부터 획득된, 학습된 모델을 이용하여 직접 촬영된 이미지를 분석하여 대상체(10)의 상태정보를 획득할 수도 있다.
도 12는 일 실시 예에 따른 대상체의 상태정보에 따른 관리법 결정방법을 도시한 흐름도이다.
단계 S510에서, 컴퓨터는 대상체를 촬영한 이미지를 획득한다.
단계 S520에서, 컴퓨터는 대상체의 상태정보를 획득한다.
단계 S530에서, 컴퓨터는 대상체의 치아의 상태정보에 대응하는 치아 관리법을 결정할 수 있다.
컴퓨터는 결정된 치아 관리법을 전송 또는 출력할 수 있다.
마찬가지로, 컴퓨터는 대상체의 피부 관리법을 결정하며, 전송 또는 출력할 수 있다.
예를 들어, 컴퓨터는 대상체의 치아 상태정보에 기초하여 사용자의 치아건강을 증진 혹은 유지시키기 위한 방법을 도출할 수 있으며, 그 결과를 사용자에게 제공할 수 있다. 또한, 컴퓨터는 해당 결과에 따른 행동을 취하도록 사용자에게 알림을 제공하거나, 정보를 제공할 수 있다.
예를 들어, 컴퓨터는 사용자 맞춤형 치아 관리 방법을 안내하거나, 치아 검진 시기에 대한 알림을 제공할 수 있다. 또한, 치아 건강상태의 진행방향에 따라 치아 관리방법이나 검진시기는 변경될 수 있으며, 변경에 대한 알림 또한 제공될 수 있다.
도 13은 치아 상태정보에 따른 치아 관리방법을 제공하는 일 예를 도시한 도면이다.
도 13을 참조하면, 사용자의 각각의 치아 중 치과 진료가 필요한 치아에 대한 정보와, 회전법, 치실/치간, 칫솔질 횟수 증가 등을 통해 치아건강을 증진시킬 수 있는 치아에 대한 정보가 화면을 통해 제공되는 일 예가 도시되어 있다.
또한, 사용자가 각각의 항목을 선택하는 경우, 이를 보조할 수 있는 추가정보 혹은 서비스가 제공될 수 있다.
예를 들어, 사용자가 치과 진료 필요 치아 항목을 선택하는 경우, 주변의 치과에 대한 정보를 제공하고, 치과 진료 예약이 가능한 화면이 표시될 수 있다. 사용자가 예약을 완료하는 경우, 애플리케이션을 이용한 검사결과가 해당 병원에 제공되어 진료에 활용될 수도 있다.
또한, 사용자가 회전법 필요 치아 항목을 선택하는 경우, 회전법에 대한 정보가 제공될 수 있으며, 치실/치간 칫솔 필요 치아를 선택하는 경우, 치실이나 치간칫솔을 구매할 수 있는 페이지가 표시될 수 있다.
또한, 사용자가 칫솔질 횟수 증가 필요 치아 항목을 선택하는 경우, 칫솔질 시간을 알려주고, 칫솔질을 많이 해야 할 치아의 위치를 알려주는 알람이 설정될 수 있다.
본 명세서에서, 회전법은 칫솔질 방법의 하나로서 칫솔을 치아방향으로 회전시키며 치아를 닦아내는 방법을 의미할 수 있으나, 이에 제한되는 것은 아니며, 사용자의 치아 상태에 따라 다양한 칫솔질 방법이 안내될 수 있다.
일 실시 예에서, 사용자가 칫솔질을 하기 전후의 치아 이미지를 획득한 후, 이를 비교함으로써 칫솔질의 문제점을 파악하는 것이 가능하다. 이에 따라, 사용자의 칫솔질을 개선하기 위한 방법 및 도구에 대한 정보를 제공하는 것이 가능하며, 이러한 분석 및 정보제공 방법의 적어도 일부는 인공지능 모델을 이용하여 수행될 수 있으나, 이에 제한되는 것은 아니다.
도 14는 일 실시 예에 따른 치아관리 방법을 판단 및 제공하는 방법을 설명하기 위한 도면이다.
도 14를 참조하면, 대상체의 치아 상태정보 판단 결과 이미지(50)가 도시되어 있다. 이미지(50)에는 대상체의 치아 중 이상이 있는 치아(51 내지 56)에 이상부분이 표시되어 있으며, 이에 해당하는 치아 관리방법이 이미지로 도시되어 있다.
도 13을 참조하여 살펴보면, 치아(52)는 치과 진료가, 치아(53 및 55)는 칫솔질 횟수 증가가 필요하고, 치아(51) 및 치아(52)의 치간에는 치실이나 치간칫솔이 필요하고, 치아(52) 및 치아(53)의 치간에는 회전법이 필요한 것을 알 수 있다.
일 실시 예에서, 컴퓨터는 대상체의 치아에서 이상이 있는 위치, 범위 및 정도에 대한 정보에 기초하여, 각각의 치아의 관리방법을 결정할 수 있다.
또한, 컴퓨터는 대상체의 치아에서 소정 비율 이상에 문제가 발생하였거나, 문제가 발생한 정도가 기 설정된 기준 이상인 경우 해당 치아에 대한 치과 진료가 필요한 것으로 결정할 수 있다.
일 실시 예에서, 상술한 치아의 상태정보를 획득하는 단계에 있어서, 컴퓨터는 대상체의 치아 각각의 상태정보를 획득하는 단계를 수행할 수 있다.
또한, 컴퓨터는 상술한 치아 관리법을 결정하는 단계에 있어서, 대상체의 치아 각각의 상태정보에 기초하여 대상체의 치아 각각에 대한 치아 관리법을 결정할 수 있다.
또한, 컴퓨터는 상기 대상체의 서로 인접한 치아의 상태정보에 기초하여, 상기 대상체의 서로 인접한 치아의 치간 관리법을 결정할 수 있다.
실시 예에 따라, 컴퓨터는 대상체의 치아 및 치간뿐 아니라 잇몸 등 구강 내부의 다양한 대상에 대한 관리방법을 결정 및 제공할 수 있으며, 이에 제한되는 것은 아니다.
마찬가지로, 컴퓨터는 대상체의 복수의 치아 상태정보에 기초하여 복수의 치아에 대한 관리법을 결정하거나, 전체 치아에 대한 관리법을 결정할 수 있다.
예를 들어, 사용자가 회전법을 이용하거나 칫솔을 이용하여 특정 치아를 관리하고자 하는 경우, 칫솔모의 크기에 따라 해당 치아뿐 아니라 주변의 치아도 함께 관리가 되는 것이 일반적이다.
이에 따라, 컴퓨터는 특정한 크기나 모양, 재질의 칫솔모를 갖는 칫솔을 사용자에게 추천할 수도 있으며, 사용자가 이용하는 칫솔 혹은 일반적인 칫솔의 모양에 기초하여 관리방법을 제안할 수도 있다.
예를 들어, 컴퓨터는 서로 인접한 복수의 치아 혹은 소정 간격 내의 치아에 대해 특정 관리가 필요한 경우, 이를 그룹화하여 사용자에게 소정 그룹의 치아에 대한 관리방법을 결정 및 제공할 수도 있다.
일 실시 예에서, 컴퓨터는 인공지능 기술에 기반하여 각 치아에 대한 관리방법을 결정할 수도 있다.
예를 들어, 컴퓨터는 각 치아의 상태정보를 분석한 결과 이미지 혹은 각 치아를 촬영한 일반 혹은 LF 이미지에 대하여, 해당 치아의 관리방법이 라벨링된 학습 데이터를 이용하여 소정의 모델을 학습시킬 수 있다.
컴퓨터는 이후 해당 모델에 각 치아의 상태정보를 분석한 결과 이미지, 치아를 촬영한 일반 이미지 혹은 LF 이미지를 입력함으로써, 이에 대응하는 관리방법을 획득할 수 있다.
일 실시 예에서, 컴퓨터는 클러스터링 기법에 기반하여 각 치아의 상태정보를 분석한 결과 이미지, 치아를 촬영한 일반 이미지 혹은 LF 이미지를 분류하고, 각각의 클러스터에 대응하는 치아의 특성을 결정하며, 각 특성에 해당하는 관리방법을 결정 및 제공할 수 있다.
이후, 컴퓨터는 각 치아의 이미지(각 치아의 상태정보를 분석한 결과 이미지, 치아를 촬영한 일반 이미지 혹은 LF 이미지)를 클러스터링하고, 클러스터링 결과에 기초하여 이에 대응하는 관리방법을 제공할 수 있다.
도 15는 일 실시 예에 따른 치아 상태정보 히스토리 관리방법을 도시한 도면이다.
도 15를 참조하면, 치아 상태정보 히스토리 관리 화면(60)이 도시되어 있다.
일 실시 예에서, 치아 이미지는 주기적으로 혹은 임의의 기간마다 획득될 수 있으며, 컴퓨터는 현재의 검사결과뿐 아니라 지난 검사결과들에 대한 히스토리를 함께 제공할 수 있다.
또한, 컴퓨터는 검사결과의 히스토리에 기초하여 치아건강상태의 변화 추이를 획득 및 제공할 수 있으며, 이에 기초하여 사용자의 앞으로의 치아건강상태의 진행방향을 예측 및 제공할 수 있다.
또한, 컴퓨터는 치아의 상태정보에 기초하여 사용자에게 치아 관리방법을 제공할 수 있으며, 해당 관리방법에 대한 알림을 제공하고, 사용자가 해당 관리방법을 적용하였는지 여부에 대한 정보를 획득할 수 있다.
이 경우, 컴퓨터는 각 관리방법의 적용여부에 따른 치아상태의 변화를 획득하고, 이에 기초하여 관리방법을 결정, 조정 혹은 변경할 수 있다.
실시 예에 따라서, 컴퓨터는 사용자의 치아상태의 변화에 기초하여 사용자가 각 관리방법을 제대로 적용하고 있는지 여부를 판단할 수 있다. 예를 들어, 사용자에게 회전법을 적용하거나, 양치질을 늘릴 것을 제안한 치아에 대해 개선이 없거나 적은 경우, 사용자에게 다시 회전법에 대한 교육을 제공하거나, 해당 치아에 대하여 제공된 관리방법을 준수할 것을 제안하는 알림을 제공할 수 있다.
일 실시 예에서, 컴퓨터는 사용자의 치아 관리방법 적용에도 불구하고 치아의 상태가 개선되지 않거나 악화되는 경우, 사용자에게 치과 진료를 받을 것을 제안할 수 있다.
또한, 컴퓨터는 사용자의 치아 상태 및 사용자의 치과 진료 히스토리를 획득하고, 이에 기반하여 정기적인 점검이나 스케일링 등을 권유할 수 있다.
일 실시 예에서, 컴퓨터는 사용자의 보험정보를 획득하고, 이에 기반하여 스케일링이나 치과 진료를 저렴하게 받을 수 있는 시점에 대한 정보를 제공할 수 있으며, 사용자가 치과 관련 보험에 가입되어 있는 경우, 사용자가 저렴하게 이용할 수 있는 치과 검진 및 진료에 대한 정보를 제공할 수 있다.
일 실시 예에서, 컴퓨터는 사용자의 치아 히스토리에 기초하여 사용자의 치아가 흔들리거나, 움직이거나, 기울어지는 등의 변화를 감지할 수 있다. 이에 따라 컴퓨터는 사용자의 해당 치아가 실제 치아인지, 혹은 임플란트인지 등에 대한 정보를 획득하고, 이에 따른 경고 혹은 진료알림을 제공할 수 있다.
일 실시 예에서, 치아가 흔들리거나 움직이는 것은 외부 압력에 의한 것일 수도 있고, 임플란트가 망가지거나, 사랑니가 나는 등 질병 혹은 신체변화에 의한 것일 수도 있다.
컴퓨터는 사용자의 치아상태 변화의 원인을 추정하고, 이에 기반하여 사용자에게 정보를 제공하며, 진료를 권유할 수 있다.
컴퓨터는 사용자의 위치, 동선, 생활패턴 등에 기반하여 특정 위치의 치과를 추천할 수 있고, 사용자의 치아상태 및 진료과목에 기초하여 치과를 추천할 수 있으며, 실시 예에 따라 치과에 대한 광고를 수집 및 제공하는 플랫폼으로서의 역할도 수행할 수 있다.
도 16은 일 실시 예에 따른 제품 추천방법을 도시한 흐름도이다.
단계 S610에서, 컴퓨터는 대상체의 치아 혹은 피부 등의 이미지를 획득한다.
단계 S620에서, 컴퓨터는 대상체의 치아 혹은 피부 등의 상태정보를 획득한다.
단계 S630에서, 컴퓨터는 상기 치아의 상태정보에 대응하는 하나 이상의 치아관리 제품을 결정할 수 있다.
단계 S640에서, 컴퓨터는 상기 결정된 제품을 추천하는 추천정보를 생성할 수 있다.
예를 들어, 컴퓨터는 사용자의 치아 상태에 따라 특정한 종류의 칫솔, 치실, 치간칫솔, 구강청정제, 치약 등을 결정 및 추천할 수 있다.
또한, 컴퓨터는 사용자가 이용하고 있는 치아관리 제품에 대해서도, 다른 브랜드 혹은 다른 형태, 기능을 갖는 제품을 추천할 수 있다.
제품의 추천은 사용자의 치아 상태정보에 따라 기 설정된 데이터베이스에 기반하여 수행될 수도 있고, 사용자의 치아 상태정보의 특성값 혹은 키워드에 대응하는 특성값 혹은 키워드를 갖는 제품을 매칭함으로써 수행될 수도 있다.
이를 위하여, 컴퓨터는 각 치아관리 제품의 특성값 혹은 키워드를 추출하여 데이터베이스에 저장할 수 있다.
일 실시 예에서, 컴퓨터는 사용자의 치아상태정보뿐 아니라 사용자의 성별이나 나이 등 기본적인 개인정보를 함께 고려하여 사용자에게 제품을 추천 및 제공할 수 있다.
또한, 컴퓨터는 사용자의 피부상태에 따른 피부관리제품 혹은 화장품 등을 추천 및 제공할 수 있다.
실시 예에 따라, 컴퓨터는 사용자의 피부상태에 기초한 맞춤형 화장품에 대한 정보를 생성하며, 이에 따라 생성된 화장품을 사용자에게 제공도록 할 수도 있다. 예를 들어, 사용자의 피부상태에 따라 부위별로 맞춤형 화장품이 도포된 마스크팩을 생성 및 제공하도록 할 수 있다.
또한, 컴퓨터는 LED 마스크와 연동되어, 사용자의 피부상태에 기초하여 LED를 이용한 피부관리를 수행하도록 할 수 있다. 예를 들어, 사용자의 피부상태에 기초하여 LED 조사패턴에 대한 정보를 생성하고, 이를 LED 마스크에 전송하여 사용자에게 피부상태에 따른 피부관리를 제공하도록 할 수 있다.
도 17은 일 실시 예에 따른 제품 추천 및 주문방법을 도시한 흐름도이다.
단계 S710에서, 컴퓨터는 사용자의 제품 사용량 또는 잔량을 획득한다. 일 실시 예에서, 제품 사용량 또는 잔량은 치약이나 구강세정제와 같은 소모품의 사용량 또는 잔량을 의미할 수 있다. 또한, 제품 사용량 또는 잔량은 칫솔과 같은 관리도구의 사용기간/횟수 및 잔여 사용기간/횟수(또는 권장 사용기간/횟수 등)를 의미할 수 있다.
일 실시 예에서, 컴퓨터는 각 제품의 주문시점 및 평균적인 사용량 또는 해당 사용자의 평균적인 사용주기에 기초하여 각 제품의 사용수준 및 잔여 사용기간을 획득할 수 있다.
예를 들어, 치약의 경우 평균적으로 100g당 한 달을 사용한다고 했을 때, 사용자가 주문하였거나 보유하고 있는 치약의 용량 대비 기한을 산정하여 사용량 및 잔여 사용기간을 산출할 수 있다.
또한, 컴퓨터는 사용자의 사용 히스토리에 기초하여, 각각의 사용자에 특화된 사용량 및 사용주기를 획득하고, 이에 기반하여 사용량 및 잔량을 획득할 수 있다.
또한, 칫솔의 경우에도 평균적인 사용기한이 있을 수 있으며, 또한 칫솔모의 강도에 따라 사용기한이 상이할 수 있으므로, 컴퓨터는 칫솔의 종류에 따라 상이한 사용기간을 설정할 수 있다.
또한, 사용자의 치열이나 치아 상태, 양치 습관 등에 따라 칫솔 교체주기는 상이할 수 있으므로, 컴퓨터는 사용자의 칫솔 사용 히스토리 및 교체 히스토리에 기초하여 사용자의 사용주기를 설정할 수 있다.
또한, 사용자가 기 설정된 사용주기를 넘겨 계속 칫솔을 사용하는 것으로 판단되는 경우(예를 들어, 사용자가 추가 주문을 하지 않거나, 칫솔 교체여부를 애플리케이션을 통해 체크하지 않는 경우) 교체를 결정 혹은 요청할 수 있다.
일 실시 예에서, 컴퓨터는 사용자의 치아상태 변화를 모니터링하되, 사용자의 치아상태 변화(예를 들어, 일별 변화 혹은 치아 전후 변화 등)에 기초하여 사용자의 칫솔 교체주기를 판단할 수 있다.
예를 들어, 사용자의 치아상태에 기존 히스토리와 달리 잔여 음식물이나 치태, 치석 등이 발생하기 시작하는 경우, 칫솔 교체주기에 도달한 것으로 판단할 수 있으나, 이에 제한되는 것은 아니다.
단계 S720에서, 컴퓨터는 사용자의 치아관리 제품 사용량 또는 잔량에 기초하여 상기 사용자가 주문하여야 할 하나 이상의 치아관리 제품의 종류를 결정할 수 있다.
단계 S730에서, 컴퓨터는 사용자의 치아관리 제품 사용량 또는 잔량에 기초하여 상기 사용자가 주문하여야 할 하나 이상의 치아관리 제품의 주문시점을 결정할 수 있다.
단계 S740에서, 컴퓨터는 상기 결정된 치아관리 제품의 종류에 대하여, 상기 사용자가 기존에 사용하던 제품 또는 상기 추천정보에 대응하는 제품을 상기 결정된 주문시점에 주문할 수 있다.
예를 들어, 컴퓨터는 사용자의 소모품 교체주기에 따라 기존에 사용자가 사용하던 제품을 재주문할 수도 있고, 도 16에 도시된 실시 예에 따른 추천제품을 주문할 수도 있다.
일 실시 예에서, 컴퓨터는 사용자에게 제품 주문의 확인을 요청할 수 있으며, 확인 요청은 주문대상 상품에 대한 정보를 포함할 수 있다.
실시 예에 따라서, 확인 요청 정보에는 복수의 주문대상 상품에 대한 정보가 포함될 수 있다. 예를 들어, 컴퓨터는 사용자에게 기존 사용제품 및 추천제품을 모두 포함하며, 각 제품에 대한 정보 및 추천사유 등을 포함하는 정보를 제공함으로써, 사용자로 하여금 적어도 하나의 상품을 선택 및 주문하도록 할 수 있다.
즉, 컴퓨터는 사용자의 치아상태 및 칫솔질 습관에 대한 평가결과 등에 기초하여 사용자에게 하나 이상의 치아관리도구 혹은 소모품을 추천할 수 있으며, 이는 개시된 실시 예에 따른 애플리케이션 내부에서 제공되거나, 애플리케이션과 연동된 웹 페이지 등을 통해 제공될 수도 있다.
일 실시 예에서, 사용자의 계정에는 포인트나 예치금 혹은 결제정보가 미리 저장될 수 있으며, 사용자의 사전 동의가 있는 경우 사용자의 치아상태, 관리상태 및 필요한 치아관리 도구 및 소모품 등에 대한 정보에 기초하여, 자동으로 사용자에게 필요한 상품이 결제 및 배송될 수 있다. 실시 예에 따라서, 결제단계에는 사용자의 승인과정이 추가될 수 있다.
일 실시 예에서, 사용자에게 추천되는 다양한 치아관리 도구 및 소모품이 정기적인 구독 형태로 사용자에게 제공될 수도 있으며, 제공되는 도구 및 소모품은 하나 이상의 샘플제품을 포함할 수 있다. 또한, 사용자가 샘플제품을 사용함에 따른 치아상태의 변화에 대한 정보를 수집함으로써, 사용자에게 적합한 제품에 대한 정보를 획득할 수 있다.
일 실시 예에서, 사용자는 개시된 실시 예에 따른 구강 위생상태 체크 기기 및 애플리케이션을 이용함에 따라 포인트를 얻을 수 있고, 해당 포인트로 제품을 구매할 수도 있다. 이에 따라, 사용자로 하여금 더 적극적으로 치아관리를 하도록 유도할 수 있으며, 이에 따라 더 많은 데이터를 확보하여 더 정확한 분석결과를 제공할 수 있을 뿐 아니라, 사용자의 데이터는 개시된 실시 예에 따른 인공지능 모델의 정확도를 향상시키는 데에도 활용될 수 있다.
도 18은 일 실시 예에 따라 정보를 수집하고, 서비스를 제공하는 시스템을 도시한 도면이다.
일 실시 예에서, 시스템은 서버(300) 및 하나 이상의 사용자 단말(110 및 120)를 포함할 수 있다.
서버(300)는 하나 이상의 사용자 단말(110 및 120)로부터 정보를 수집하고, 수집된 정보에 기초하여 개시된 실시 예에 따른 서비스를 제공할 수 있다.
예를 들어, 서버(300)는 하나 이상의 사용자 단말(110 및 120)로부터 수집되는 정보에 기초하여 개시된 실시 예에 따른 학습된 모델을 학습, 재학습 및 업데이트하고, 실시 예에 따라 강화학습을 수행할 수 있다.
또한, 서버(300)는 하나 이상의 사용자 단말(110 및 120)로부터 수집되는, 각 치아 상태에 대한 치아 관리법에 따른 치아상태 변화정보에 기초하여, 치아 상태에 대한 치아 관리법을 선택하는 방법을 결정, 조정 및 변경할 수 있다.
일 실시 예에서, 서버(300)는 하나 이상의 사용자 단말(110 및 120)로부터 수집되는, 각 치아 관리도구 및 소모품의 사용주기에 대한 정보를 수집함으로써, 각각의 치아 관리도구의 사용주기를 판단할 수 있다.
또한, 서버(300)는 하나 이상의 사용자 단말(110 및 120)로부터 수집되는, 각각의 치아 관리도구를 이용함에 따른 치아상태의 변화에 기초하여 각각의 치아 관리도구의 효과정보를 획득할 수 있다.
도 19는 일 실시 예에 따른 상태정보 분석시스템을 도시한 도면이다.
도 19를 참조하면, 개시된 실시 예에 따른 상태정보 분석시스템은 대상체에 LF 이미지 촬영을 위한 기 설정된 파장의 빛을 조사하는 LF 모듈(400), 상기 기 설정된 파장의 빛이 조사된 대상체를 촬영하는 촬영 모듈(500) 및 상기 촬영 모듈에서 촬영된 이미지를 획득하고, 상기 촬영된 이미지를 분석하여 상기 대상체의 상태정보를 획득하는 처리장치(600)를 포함한다.
일 실시 예에서, LF 모듈(400)은 개시된 실시 예에 따른 LF 기기(200)에 대응할 수 있으나, 이에 제한되는 것은 아니다.
일 실시 예에서, 촬영 모듈(500)은 적어도 하나의 이미징 센서를 포함하는, 카메라 장치를 의미할 수 있다.
일 실시 예에서, 처리장치(600)는 개시된 실시 예에 따른 사용자 단말(100) 또는 서버(300)를 의미할 수 있으나, 이에 제한되는 것은 아니다.
일 실시 예에서, LF 모듈(400), 촬영 모듈(500) 및 처리장치(600)는 각각 서로 다른 장치로서 구성되거나, 서로 유선 혹은 무선으로 연결하여 이용할 수 있는 장치로서 구성될 수도 있다.
또한, LF 모듈(400), 촬영 모듈(500) 및 처리장치(600)의 적어도 일부 혹은 전부는 일체로서 구성될 수도 있고, 서로 분리된 객체로서 구성될 수도 있으며, 이에 제한되지 않는다.
예를 들어, LF 모듈(400) 및 촬영 모듈(500)은 하나의 LF 기기(200)에 내장될 수도 있으며, 촬영 모듈(500)은 처리장치(600)와 일체로서 구성될 수도 있다.
즉, 촬영 모듈(500)은 LF 기기(200)에 내장될 수도 있고, 사용자 단말(100)에 내장될 수도 있으며, 별도의 단말로서 구성될 수도 있으며, 이는 제한되지 않는다.
일 실시 예에서, 상기 LF 모듈(400)은, 상기 대상체의 치아에 상기 기 설정된 파장의 빛을 조사할 수 있다.
일 실시 예에서, 상기 촬영 모듈(500)은, 상기 기 설정된 파장의 빛이 조사된 상기 대상체의 치아를 촬영할 수 있다.
일 실시 예에서, 상기 처리장치(600)는, 상기 대상체의 치아를 촬영한 이미지를 분석하여 상기 대상체의 치아의 상태정보를 획득할 수 있다.
일 실시 예에서, 상기 처리장치(600)는, 복수의 치아 이미지에 기반하여 학습된 모델을 획득하고, 상기 학습된 모델에 상기 획득된 이미지를 입력하고, 상기 학습된 모델의 출력에 기반하여 상기 대상체의 치아의 상태정보를 획득할 수 있다.
일 실시 예에서, 상기 LF 모듈(400)은, 상기 대상체의 피부에 상기 기 설정된 파장의 빛을 조사할 수 있다.
일 실시 예에서, 상기 촬영 모듈(500)은, 상기 기 설정된 파장의 빛이 조사된 상기 대상체의 피부를 촬영할 수 있다.
일 실시 예에서, 상기 처리장치(600)는, 상기 대상체의 피부를 촬영한 이미지를 분석하여 상기 대상체의 피부의 상태정보를 획득할 수 있다.
도 1 내지 도 18을 참조하여 상술된 모든 실시 예는 도 19의 시스템에도 동일하게 적용될 수 있다.
도 20은 일 실시 예에 따른 장치의 구성도이다.
프로세서(102)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.
일 실시예에 따른 프로세서(102)는 메모리(104)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 도 1 내지 도 19와 관련하여 설명된 방법들을 수행한다.
예를 들어, 프로세서(102)는 메모리에 저장된 하나 이상의 인스트럭션을 실행함으로써 대상체를 촬영한 이미지를 획득하고, 상기 획득된 이미지를 분석하여 상기 대상체의 상태정보를 획득할 수 있다.
한편, 프로세서(102)는 프로세서(102) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(102)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.
메모리(104)에는 프로세서(102)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(104)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
10 : 대상체
100 : 사용자 단말
200 : LF 기기
300 : 서버

Claims (17)

  1. 컴퓨터에 의하여 수행되는 방법에 있어서,
    사용자의 치아가 촬영된 이미지를 획득하는 단계; 및
    상기 획득된 이미지를 분석하여 상기 획득된 이미지에 포함된 상기 사용자의 치아 각각의 상태정보를 획득하는 단계; 를 포함하고,
    상기 이미지를 획득하는 단계는,
    편광된 빛을 상기 사용자의 치아에 조사한 뒤, 편광필름을 이용하여 상기 사용자의 치아로부터 반사되는 빛을 복수의 각도로 편광한 복수의 편광 이미지를 획득하는 단계; 를 포함하고,
    상기 상태정보를 획득하는 단계는,
    상기 복수의 편광 이미지를 중첩하여 합성하는 단계; 및
    상기 중첩하여 합성된 이미지 내의 밝기에 기초하여 상기 사용자의 치아 각각에서 손상된 부분을 판단하는 단계; 를 포함하는,
    상태정보 분석방법.
  2. 제1 항에 있어서,
    상기 사용자의 치아 각각의 상태정보에 기초하여 상기 사용자의 치아 각각에 대한 치아 관리법을 결정하는 단계;
    상기 사용자의 서로 인접한 치아의 상태정보에 기초하여, 상기 사용자의 서로 인접한 치아의 치간 관리법을 결정하는 단계;
    상기 결정된 치아 및 치간 관리법을 전송 또는 출력하는 단계;
    상기 사용자의 치아 검사결과 히스토리를 획득하는 단계;
    상기 히스토리에 기초하여 상기 사용자가 상기 치아 및 치간 관리법을 올바르게 적용하고 있는지 여부를 판단하는 단계; 및
    상기 판단 결과에 기초하여, 상기 사용자에 대하여 상기 치아 및 치간 관리법에 대한 교육정보 또는 알림을 제공하는 단계; 를 더 포함하는,
    상태정보 분석방법.
  3. 제1 항에 있어서,
    상기 사용자의 치아 각각의 상태정보에 대응하는 하나 이상의 치아관리 제품을 결정하는 단계;
    상기 결정된 제품을 추천하는 추천정보를 생성하는 단계;
    상기 사용자의 치아관리 제품 사용량 또는 잔량에 기초하여 상기 사용자가 주문하여야 할 하나 이상의 치아관리 제품의 종류 및 주문시점을 결정하는 단계; 및
    상기 결정된 치아관리 제품의 종류에 대하여, 상기 사용자가 기존에 사용하던 제품 또는 상기 추천정보에 대응하는 제품을 상기 결정된 주문시점에 주문하는 단계; 를 더 포함하는,
    상태정보 분석방법.
  4. 삭제
  5. 삭제
  6. 사용자의 치아에 편광된 빛을 조사하는 편광 모듈;
    편광필름을 이용하여 상기 사용자의 치아로부터 반사되는 빛을 복수의 각도로 편광한 복수의 편광 이미지를 촬영하는 촬영 모듈; 및
    상기 촬영 모듈에서 촬영된 상기 복수의 편광 이미지를 획득하고, 상기 복수의 편광 이미지를 분석하여 상기 사용자의 치아의 상태정보를 획득하는 처리장치; 를 포함하고,
    상기 처리장치는,
    제1 항의 상태정보 분석방법을 수행하는,
    상태정보 분석 시스템.
  7. 제6 항에 있어서,
    상기 촬영 모듈은,
    모터를 이용하여 회전하는 상기 편광필름을 포함하는 편광필름 모듈; 을 더 포함하고,
    상기 편광필름의 회전에 따라 복수의 각도로 편광된 상기 복수의 편광 이미지를 촬영하는,
    상태정보 분석 시스템
  8. 하나 이상의 인스트럭션을 저장하는 메모리; 및
    상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
    상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
    제1 항의 방법을 수행하는, 장치.
  9. 하드웨어인 컴퓨터와 결합되어, 제1 항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.
  10. 삭제
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
KR1020190098633A 2018-11-01 2019-08-13 상태정보 분석장치, 방법, 시스템 및 프로그램 KR102135874B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180133178 2018-11-01
KR20180133178 2018-11-01

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020200086886A Division KR20210019944A (ko) 2020-07-14 2020-07-14 상태정보 분석장치, 방법, 시스템 및 프로그램

Publications (2)

Publication Number Publication Date
KR20200050346A KR20200050346A (ko) 2020-05-11
KR102135874B1 true KR102135874B1 (ko) 2020-07-20

Family

ID=70729211

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190098633A KR102135874B1 (ko) 2018-11-01 2019-08-13 상태정보 분석장치, 방법, 시스템 및 프로그램

Country Status (1)

Country Link
KR (1) KR102135874B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230196552A1 (en) * 2021-12-16 2023-06-22 The Gillette Company Llc Digital imaging systems and methods of analyzing pixel data of an image of a skin area of a user for determining skin oiliness

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102392916B1 (ko) * 2020-09-09 2022-05-03 주식회사 큐티티 검진 부스를 이용한 구강검진장치
KR102392912B1 (ko) * 2020-09-09 2022-05-03 주식회사 큐티티 부스기반 자가 구강검진장치
KR102442719B1 (ko) 2020-10-22 2022-09-13 주식회사 메디트 이미지 처리 방법 및 이를 이용한 이미지 처리 장치
KR102592884B1 (ko) * 2021-01-21 2023-10-23 주식회사 명성 칫솔 추천 장치 및 그 제어 방법
JP2024508608A (ja) * 2021-01-21 2024-02-28 ミョンソン インク. 歯ブラシの推薦装置及びその制御方法
WO2022260442A1 (ko) * 2021-06-09 2022-12-15 주식회사 메디트 구강 이미지를 처리하는 데이터 처리 장치 및 구강 이미지 처리 방법
CN113553909B (zh) * 2021-06-23 2023-08-04 北京百度网讯科技有限公司 用于皮肤检测的模型训练方法、皮肤检测方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101886199B1 (ko) * 2016-10-17 2018-08-08 주식회사 아이오바이오 치아 관측 시스템

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9072370B2 (en) * 2008-06-19 2015-07-07 Colgate-Palmolive Company User health profiles derived from oral care implements
KR102472034B1 (ko) * 2016-02-19 2022-11-30 주식회사 바텍 X선 영상에서의 치아의 인접면 우식증 영역 검출 방법 및 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101886199B1 (ko) * 2016-10-17 2018-08-08 주식회사 아이오바이오 치아 관측 시스템

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230196552A1 (en) * 2021-12-16 2023-06-22 The Gillette Company Llc Digital imaging systems and methods of analyzing pixel data of an image of a skin area of a user for determining skin oiliness

Also Published As

Publication number Publication date
KR20200050346A (ko) 2020-05-11

Similar Documents

Publication Publication Date Title
KR102135874B1 (ko) 상태정보 분석장치, 방법, 시스템 및 프로그램
US9770217B2 (en) Dental variation tracking and prediction
KR102267197B1 (ko) 디지털 치아 영상에 치아 진료 데이터를 기록 및 표시하는 방법 및 장치
US20190340760A1 (en) Systems and methods for monitoring oral health
US20130122468A1 (en) Method of processing and displaying oral health diagnostic data
JP2007502185A (ja) 蛍光発光画像の分析及び表示
KR20110125421A (ko) 구강 건강 관리 서비스 제공 시스템 및 구강 건강 관리 서비스 제공 방법
WO2020057803A1 (en) Method and system for determining a characteristic of a keratinous surface and method and system for treating said keratinous surface
Liu et al. Red fluorescence imaging for dental plaque detection and quantification: pilot study
KR20210019702A (ko) 상태정보 분석장치, 방법, 시스템 및 프로그램
KR20210019944A (ko) 상태정보 분석장치, 방법, 시스템 및 프로그램
WO2021243640A1 (en) Oral care based digital imaging systems and methods for determining perceived attractiveness of facial image portion
WO2021240207A1 (en) Predicting, diagnosing, and proposing treatment plans for oral and dental diseases in humans and animals with artificial intelligence, machine learning and deep learning techniques
US20180146919A1 (en) System and method of monitoring consumable use based on correlations with diagnostic testing
US20240000405A1 (en) Dental assessment using single near infared images
KR102499368B1 (ko) 구강 내 치아의 선택적 모니터링을 통한 치아 관리 시스템
KR20230066380A (ko) 치과 제품 선택 방법
US20240104738A1 (en) Oral care based digital imaging systems and methods for analyzing attributes of a facial image portion
KR20230147839A (ko) 개인 맞춤형 구강 관리 상품 추천 시스템 및 방법
VISHWAKARMA et al. Early Detection of Dental Plaque Using Convolution Neural Networks: A Technological Approach for Oral Health Improvement
JP2022068483A (ja) 口腔状態評価システム
Jones et al. Caries Detection in Primary Teeth Using Intraoral Scanners Featuring Fluorescence: Protocol for a Diagnostic Agreement Study
JP2022068485A (ja) 口腔状態評価システム
JP2022097176A (ja) 口腔状態評価システム
JP2022068486A (ja) 口腔状態通知システム

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant