KR102653616B1 - 투명 교정 장치의 성공률 결정 방법, 장치 및 기록 매체 - Google Patents

투명 교정 장치의 성공률 결정 방법, 장치 및 기록 매체 Download PDF

Info

Publication number
KR102653616B1
KR102653616B1 KR1020220181227A KR20220181227A KR102653616B1 KR 102653616 B1 KR102653616 B1 KR 102653616B1 KR 1020220181227 A KR1020220181227 A KR 1020220181227A KR 20220181227 A KR20220181227 A KR 20220181227A KR 102653616 B1 KR102653616 B1 KR 102653616B1
Authority
KR
South Korea
Prior art keywords
neural network
artificial neural
network model
user
information
Prior art date
Application number
KR1020220181227A
Other languages
English (en)
Inventor
박선영
Original Assignee
박선영
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박선영 filed Critical 박선영
Priority to KR1020220181227A priority Critical patent/KR102653616B1/ko
Application granted granted Critical
Publication of KR102653616B1 publication Critical patent/KR102653616B1/ko

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/002Orthodontic computer assisted systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/08Mouthpiece-type retainers or positioners, e.g. for both the lower and upper arch
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C2201/00Material properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Dentistry (AREA)
  • Animal Behavior & Ethology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Image Analysis (AREA)

Abstract

본 개시의 일 측면에 따르면, 투명 교정 장치의 성공률을 결정하기 위한 방법이 제공될 수 있다. 상기 방법은, 하나 이상의 프로세서 및 상기 하나 이상의 프로세서에 의해 실행되기 위한 명령들이 저장된 하나 이상의 메모리를 포함하는 컴퓨팅 장치에서 수행되는 방법으로서, 사용자에 대해 생성된 전문가 판단 정보를 획득하는 단계; 상기 사용자의 인적 사항을 포함하는 인적 정보를 획득하는 단계; 상기 사용자의 치아에 관한 측면 이미지를 획득하는 단계; 상기 측면 이미지에 기초하여 교합 정보를 산출하는 단계; 및 상기 전문가 판단 정보, 상기 인적 정보 및 상기 교합 정보에 기초하여 투명 교정 장치의 성공률을 결정하는 단계를 포함할 수 있다.

Description

투명 교정 장치의 성공률 결정 방법, 장치 및 기록 매체{APPARATUS, METHOD AND RECORDING MEDIUM OF DETERMINING SUCCESS RATE OF TRANSPARENT ORTHODONTIC APPLIANCE}
본 발명은 교정 장치의 성공률을 결정하는 방법에 관한 것으로서, 보다 상세하게는, 투명 교정 장치의 성공률을 결정하는 방법에 관한 것이다.
일반적으로, 치열이 바르지 않고 상하의 치아 교합이 비정상적인 상태를 부정 교합이라고 하며, 이와 같은 부정 교합은 저작, 발음상의 문제와 같은 기능적인 문제점과 얼굴에 대한 미적인 문제점을 발생시킬 뿐만 아니라 충치와 잇몸 질환과 같은 건강상의 문제점도 발생시킬 수 있다. 따라서, 이러한 부정 교합을 정상 교합으로 만들기 위해서는 치아 교정 치료가 시행되어야 한다.
한편, 치아 교정 치료의 종류에는 투명 교정 장치에 의한 교정 방식이 있는데, 사용자에 따라 투명 교정 장치에 의한 교정 방식의 성공 여부가 달라지는 문제점이 있었다.
따라서, 당해 기술 분야에는 보다 효과적으로 투명 교정 장치에 의한 교정 방식의 성공률 결정 방법에 대한 수요가 증가해왔다. 당해 기술 분야의 배경기술과 관련하여, "교정 진단을 위한 치과 영상 분석 방법 및 이를 이용한 장치 (한국등록특허공보 10-2099390)"가 개시되어 있다.
한편, 전술한 배경 기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 본 발명의 목적은 투명 교정 장치를 이용한 교정 방식의 성공률을 결정하는 방법을 제공하는데 있다.
본 발명의 상기 및 다른 목적과 이점은 바람직한 실시예를 설명한 하기의 설명으로부터 분명해질 것이다.
본 개시의 일 측면에 따르면, 투명 교정 장치의 성공률을 결정하기 위한 방법이 제공될 수 있다. 상기 방법은, 하나 이상의 프로세서 및 상기 하나 이상의 프로세서에 의해 실행되기 위한 명령들이 저장된 하나 이상의 메모리를 포함하는 컴퓨팅 장치에서 수행되는 방법으로서, 사용자에 대해 생성된 전문가 판단 정보를 획득하는 단계; 상기 사용자의 인적 사항을 포함하는 인적 정보를 획득하는 단계; 상기 사용자의 치아에 관한 측면 이미지를 획득하는 단계; 상기 측면 이미지에 기초하여 교합 정보를 산출하는 단계; 및 상기 전문가 판단 정보, 상기 인적 정보 및 상기 교합 정보에 기초하여 투명 교정 장치의 성공률을 결정하는 단계를 포함할 수 있다.
일 실시예에서, 상기 전문가 판단 정보는, 상기 사용자의 집중력에 대한 점수, 상기 사용자의 치아 교정에 대한 관심 정도를 지시하는 점수, 상기 사용자의 치아 교정을 위해 발치가 필요한지 여부, 상기 사용자의 교정 기간에 관한 점수 또는 상기 사용자의 치아 움직임 정도에 대한 점수 중 적어도 하나를 포함할 수 있다.
일 실시예에서, 상기 인적 정보는, 상기 사용자의 성격 유형 검사 결과 정보 또는 상기 사용자의 연령 정보를 포함할 수 있다.
일 실시예에서, 상기 교합 정보는, 상기 사용자의 치아에 관하여 치성 부정 교합 또는 골격성 부정 교합 중 하나를 지시하는 값을 포함할 수 있다.
일 실시예에서, 상기 교합 정보는, 인공 신경망 모델에 기초하여 산출될 수 있다.
일 실시예에서, 상기 인공 신경망 모델은, 상기 측면 이미지 내에서 상악 치조골, 하악 치조골 및 하나 이상의 치아 각각을 검출(detect)하도록 학습된 제1 인공 신경망 모델; 및 상기 측면 이미지에 대한 상기 제1 인공 신경망 모델의 검출 결과에 기초하여 부정 교합의 종류를 출력하도록 학습된 제2 인공 신경망 모델을 포함할 수 있다.
일 실시예에서, 상기 성공률은, 상기 전문가 판단 정보, 상기 인적 정보 및 상기 교합 정보를 가중 합산함으로써 산출된 최종 점수에 따라 결정될 수 있다.
본 개시의 다른 일 측면에 따르면, 교정 방식을 결정하는 장치가 제공될 수 있다. 상기 장치는, 하나 이상의 프로세서; 및 상기 하나 이상의 프로세서에 의한 실행 시, 상기 하나 이상의 프로세서가 연산을 수행하도록 하는 명령들이 저장된 하나 이상의 메모리를 포함하고, 상기 하나 이상의 프로세서는, 상기 명령에 따라, 사용자에 대해 생성된 전문가 판단 정보를 획득하고, 상기 사용자의 인적 사항을 포함하는 인적 정보를 획득하고, 상기 사용자의 치아에 관한 측면 이미지를 획득하고, 상기 측면 이미지에 기초하여 교합 정보를 산출하고, 상기 전문가 판단 정보, 상기 인적 정보 및 상기 교합 정보에 기초하여 투명 교정 장치의 성공률을 결정하도록 구성될 수 있다.
본 개시의 다른 일 측면에 따르면, 교정 방식을 결정하기 위해 컴퓨터 상에서 수행되기 위한 명령들을 기록한 비일시적 컴퓨터 판독 가능 기록 매체가 제공될 수 있다. 상기 명령들은, 하나 이상의 프로세서에 의한 실행시, 상기 하나 이상의 프로세서가, 사용자에 대해 생성된 전문가 판단 정보를 획득하고, 상기 사용자의 인적 사항을 포함하는 인적 정보를 획득하고, 상기 사용자의 치아에 관한 측면 이미지를 획득하고, 상기 측면 이미지에 기초하여 교합 정보를 산출하고, 상기 전문가 판단 정보, 상기 인적 정보 및 상기 교합 정보에 기초하여 투명 교정 장치의 성공률을 결정하도록 할 수 있다.
본 발명에 따르면, 투명 교정 방식의 성공률을 결정하는 효과를 가진다.
다만, 본 발명의 효과들은 이상에서 언급한 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 개시의 일 실시예에 따른 투명 교정 장치 성공률 결정 방법을 수행하기 위한 전자 장치의 블록도이다.
도 2는 본 개시의 일 실시예에 따른 인공 신경망 모델을 개략적으로 나타낸 개략도이다.
도 3은 본 개시의 일 실시예에 따른 투명 교정 장치 성공률 결정 방법의 각 동작에 관한 순서도이다.
도 4는 본 개시에 따른 사용자의 치아에 관한 측면 이미지를 예시적으로 도시한 도면이다.
도 5는 본 개시의 일 실시예에 따른 제1 인공 신경망 모델의 출력 데이터 및 제2 인공 신경망 모델의 입력 데이터를 예시적으로 도시한 도면이다.
이하, 본 발명의 실시예와 도면을 참조하여 본 발명을 상세히 설명한다. 이들 실시예는 오로지 본 발명을 보다 구체적으로 설명하기 위해 예시적으로 제시한 것일 뿐, 본 발명의 범위가 이들 실시예에 의해 제한되지 않는다는 것은 당업계에서 통상의 지식을 가지는 자에 있어서 자명할 것이다.
또한, 달리 정의하지 않는 한, 본 명세서에서 사용되는 모든 기술적 및 과학적 용어는 본 발명이 속하는 기술 분야의 숙련자에 의해 통상적으로 이해되는 바와 동일한 의미를 가지며, 상충되는 경우에는, 정의를 포함하는 본 명세서의 기재가 우선할 것이다.
도면에서 제안된 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. 그리고, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에서 기술한 "부"란, 특정 기능을 수행하는 하나의 단위 또는 블록을 의미한다.
각 단계들에 있어 식별부호(제1, 제2, 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 실시될 수도 있고 실질적으로 동시에 실시될 수도 있으며 반대의 순서대로 실시될 수도 있다.
본 개시에 있어서 "이미지" 또는 "영상"이라는 용어는 이산적 영상 요소들(예컨대, 2차원 영상에 있어서는 픽셀)로 구성된 다차원 데이터를 지칭하며, 달리 말하자면, (예컨대, 비디오 화면에 표시된) 눈으로 볼 수 있는 대상 또는 (예컨대, CT, MRI 검출기 등의 픽셀 출력에 대응되는 파일과 같은) 그 대상의 디지털 표현물을 지칭하는 용어이다.
본 개시에 있어서 “이미지” 또는 “영상”은, X-ray 영상, 전산화 단층 촬영(CT; computed tomography), 자기 공명 영상(MRI; magnetic resonance imaging), 초음파 또는 본 발명의 기술분야에서 공지된 임의의 다른 의료 영상 시스템의 의하여 수집된 피검체(subject) 또는 타겟(target) 사용자에 관한 의료 영상을 의미할 수 있다.
본 개시에 있어서 “이미지” 또는 “영상”은, 파노라마 방사선(panoramic radiography) 이미지일 수 있다. 파노라마 방사선 이미지는 얼굴의 상악(위턱)과 하악(아래턱) 및 그 주변 부분을 임의의 방법으로 스캔한 결과 생성된 이미지일 수 있다. 파노라마 방사선 이미지는 치과용 X-ray 촬영 시스템에 의해 생성될 수 있다.
본 개시에 있어서 “이미지 집합”은 하나 이상의 이미지를 포함하는 이미지 셋(set)을 지칭하기 위한 용어로서, 하나 이상의 이미지에 포함된 각각의 이미지는 “제1 이미지”, “제2 이미지” 등으로 구분될 수 있다.
이하, 구체적인 실시예와 비교예를 통하여 본 발명의 구성 및 그에 따른 효과를 보다 상세히 설명하고자 한다. 그러나, 본 실시예는 본 발명을 보다 구체적으로 설명하기 위한 것이며, 본 발명의 범위가 이들 실시예에 한정되는 것은 아니다.
도 1은 본 개시의 일 실시예에 따른 투명 교정 장치 성공률 결정 방법을 수행하기 위한 전자 장치(100)의 블록도이다. 전자 장치(100)는 하나 이상의 프로세서(110), 통신 회로(120) 또는 메모리(130)를 구성요소로서 포함할 수 있다. 어떤 실시예에서는, 전자 장치(100)의 이 구성요소들 중 적어도 하나가 생략되거나, 다른 구성요소가 전자 장치(100)에 추가될 수 있다. 어떤 실시예에서는, 추가적으로 또는 대체적으로(in alternative to), 일부의 구성요소들이 통합되어 구현되거나, 단수 또는 복수의 개체로 구현될 수 있다. 전자 장치(100) 내부 또는 외부의 구성요소들 중 적어도 일부의 구성요소들은 버스, GPIO(General Purpose Input/Output), SPI(Serial Peripheral Interface) 또는 MIPI(Mobile Industry Processor Interface) 등을 통해 서로 연결됨으로써 데이터 또는 시그널을 주거나 받을 수 있다.
본 개시에서 하나 이상의 프로세서(110)는 프로세서(110)라고 표현될 수 있다. 프로세서(110)라는 용어는, 문맥상 명백히 다르게 표현하지 않는 이상, 하나 또는 그 이상의 프로세서의 집합을 의미할 수 있다. 프로세서(110)는 소프트웨어(예를 들어, 명령, 프로그램 등)를 구동하여 프로세서(110)와 연결된 전자 장치(100)의 적어도 하나의 구성요소를 제어할 수 있다. 또한 프로세서(110)는 다양한 연산, 처리, 데이터 생성 또는 가공 등의 동작을 수행할 수 있다. 프로세서(110)는 데이터 등을 메모리(130)로부터 로드하거나 메모리(130)에 저장할 수 있다.
통신 회로(120)는, 전자 장치(100)와 다른 장치(예를 들어, 사용자 단말 또는 다른 서버) 사이의 무선 또는 유선 통신을 수행할 수 있다. 예를 들어, 통신 회로(120)는 eMBB, URLLC, MMTC, LTE, LTE-A, NR, UMTS, GSM, CDMA, WCDMA, WiBro, WiFi, 블루투스, NFC, GPS 또는 GNSS 등의 방식에 따른 무선 통신을 수행할 수 있다. 또한, 예를 들어, 통신 회로(120)는 USB(Universal Serial Bus), HDMI(High Definition Multimedia Interface), RS-232(Recommended Standard-232) 또는 POTS(Plain Old Telephone Service) 등의 방식에 따른 유선 통신을 수행할 수 있다.
메모리(130)는 다양한 데이터를 저장할 수 있다. 메모리(130)에 저장되는 데이터는, 전자 장치(100)의 적어도 하나의 구성요소에 의해 획득되거나, 처리되거나 또는 사용되는 데이터로서, 소프트웨어(예를 들어, 명령, 프로그램 등)를 포함할 수 있다. 메모리(130)는 휘발성 또는 비휘발성 메모리를 포함할 수 있다. 메모리(130)라는 용어는, 문맥상 명백히 다르게 표현하지 않는 이상, 하나 또는 그 이상의 메모리의 집합을 의미할 수 있다. 본 명세서에서 언급되는 "메모리(130)에 저장되는 명령(Instruction)들의 집합" 또는 "메모리(130)에 저장되는 프로그램"이라는 표현은, 전자 장치(100)의 리소스를 제어하기 위한 운영체제, 어플리케이션 또는 어플리케이션이 전자 장치(100)의 리소스들을 활용할 수 있도록 어플리케이션에 다양한 기능을 제공하는 미들 웨어 등을 지칭하기 위해 사용될 수 있다. 일 실시예에서, 프로세서(110)가 특정 연산을 수행할 때, 메모리(130)는 프로세서(110)에 의해 수행되고 특정 연산에 대응되는 명령들을 저장할 수 있다.
일 실시예에서, 전자 장치(100)는 프로세서(110)의 연산 결과에 따른 데이터, 통신 회로(120)에 의해 수신된 데이터 또는 메모리(130)에 저장된 데이터 등을 외부 장치로 전송할 수 있다. 외부 장치는 수신된 데이터를 표출, 표시 또는 출력하기 위한 장치일 수 있다.
도 2는 본 개시의 일 실시예에 따른 인공 신경망 모델을 개략적으로 나타낸 개략도이다.
본 개시내용에 있어서, “제 1 인공 신경망 모델”, “제 2 인공 신경망 모델” 등의 용어는, 입력 데이터에 대하여 인공 신경망 모델에 포함된 노드들 중 적어도 일부에 의해 연산이 이뤄지고 상기 연산의 결과에 기초하여 출력 데이터를 생성하는 특정 자료구조에 따른 모델을 지칭하기 위해 사용될 수 있다.
본 명세서에 걸쳐, 신경망, 인공 신경망, 네트워크 함수, 뉴럴 네트워크(neural network) 등은 서로 동일한 의미로 사용될 수 있다. 인공 신경망은 일반적으로 노드라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있다. 이러한 노드들은 뉴런(neuron)들로 지칭될 수도 있다. 신경망은 적어도 하나 이상의 노드들을 포함하여 구성된다. 신경망들을 구성하는 노드(또는 뉴런)들은 하나 이상의 링크에 의해 상호 연결될 수 있다.
신경망 내에서, 링크를 통해 연결된 하나 이상의 노드들은 상대적으로 입력 노드 및 출력 노드의 관계를 형성할 수 있다. 입력 노드 및 출력 노드의 개념은 상대적인 것으로서, 하나의 노드에 대하여 출력 노드 관계에 있는 임의의 노드는 다른 노드와의 관계에서 입력 노드 관계에 있을 수 있으며, 그 역도 성립할 수 있다. 상술한 바와 같이, 입력 노드 대 출력 노드 관계는 링크를 중심으로 생성될 수 있다. 하나의 입력 노드에 하나 이상의 출력 노드가 링크를 통해 연결될 수 있으며, 그 역도 성립할 수 있다.
하나의 링크를 통해 연결된 입력 노드 및 출력 노드 관계에서, 출력 노드의 데이터는 입력 노드에 입력된 데이터에 기초하여 그 값이 결정될 수 있다. 여기서 입력 노드와 출력 노드를 상호 연결하는 링크는 가중치(weight)를 가질 수 있다. 가중치는 가변적일 수 있으며, 신경망이 원하는 기능을 수행하기 위해, 사용자 또는 알고리즘에 의해 가변 될 수 있다. 예를 들어, 하나의 출력 노드에 하나 이상의 입력 노드가 각각의 링크에 의해 상호 연결된 경우, 출력 노드는 상기 출력 노드와 연결된 입력 노드들에 입력된 값들 및 각각의 입력 노드들에 대응하는 링크에 설정된 가중치에 기초하여 출력 노드 값을 결정할 수 있다.
상술한 바와 같이, 신경망은 하나 이상의 노드들이 하나 이상의 링크를 통해 상호 연결되어 신경망 내에서 입력 노드 및 출력 노드 관계를 형성한다. 신경망 내에서 노드들과 링크들의 개수 및 노드들과 링크들 사이의 연관관계, 링크들 각각에 부여된 가중치의 값에 따라, 신경망의 특성이 결정될 수 있다. 예를 들어, 동일한 개수의 노드 및 링크들이 존재하고, 링크들의 가중치 값이 상이한 두 신경망이 존재하는 경우, 두 개의 신경망들은 서로 상이한 것으로 인식될 수 있다.
신경망은 하나 이상의 노드들의 집합으로 구성될 수 있다. 신경망을 구성하는 노드들의 부분 집합은 레이어(layer)를 구성할 수 있다. 신경망을 구성하는 노드들 중 일부는, 최초 입력 노드로부터의 거리들에 기초하여, 하나의 레이어(layer)를 구성할 수 있다. 예를 들어, 최초 입력 노드로부터 거리가 n인 노드들의 집합은, n 레이어를 구성할 수 있다. 최초 입력 노드로부터 거리는, 최초 입력 노드로부터 해당 노드까지 도달하기 위해 거쳐야 하는 링크들의 최소 개수에 의해 정의될 수 있다. 그러나, 이러한 레이어의 정의는 설명을 위한 임의적인 것으로서, 신경망 내에서 레이어의 차수는 상술한 것과 상이한 방법으로 정의될 수 있다. 예를 들어, 노드들의 레이어는 최종 출력 노드로부터 거리에 의해 정의될 수도 있다.
최초 입력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서 링크를 거치지 않고 데이터가 직접 입력되는 하나 이상의 노드들을 의미할 수 있다. 또는, 신경망 네트워크 내에서, 링크를 기준으로 한 노드 간의 관계에 있어서, 링크로 연결된 다른 입력 노드들을 가지지 않는 노드들을 의미할 수 있다. 이와 유사하게, 최종 출력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서, 출력 노드를 가지지 않는 하나 이상의 노드들을 의미할 수 있다. 또한, 히든 노드는 최초 입력 노드 및 최후 출력 노드가 아닌 신경망을 구성하는 노드들을 의미할 수 있다.
본 개시의 일 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수와 동일할 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하다가 다시 증가하는 형태의 신경망일 수 있다. 또한, 본 개시의 다른 일 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수 보다 적을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하는 형태의 신경망일 수 있다. 또한, 본 개시의 또 다른 일 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수보다 많을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 증가하는 형태의 신경망일 수 있다. 본 개시의 또 다른 일 실시예에 따른 신경망은 상술한 신경망들의 조합된 형태의 신경망일 수 있다.
딥 뉴럴 네트워크(DNN: deep neural network, 심층신경망)는 입력 레이어와 출력 레이어 외에 복수의 히든 레이어를 포함하는 신경망을 의미할 수 있다. 딥 뉴럴 네트워크를 이용하면 데이터의 잠재적인 구조(latent structures)를 파악할 수 있다. 즉, 사진, 글, 비디오, 음성, 음악의 잠재적인 구조(예를 들어, 어떤 물체가 사진에 있는지, 글의 내용과 감정이 무엇인지, 음성의 내용과 감정이 무엇인지 등)를 파악할 수 있다. 딥 뉴럴 네트워크는 컨볼루션 뉴럴 네트워크(CNN: convolutional neural network), 리커런트 뉴럴 네트워크(RNN: recurrent neural network), 오토 인코더(auto encoder), GAN(Generative Adversarial Networks), 제한 볼츠만 머신(RBM: restricted boltzmann machine), 심층 신뢰 네트워크(DBN: deep belief network), Q 네트워크, U 네트워크, 샴 네트워크, 적대적 생성 네트워크(GAN: Generative Adversarial Network) 등을 포함할 수 있다. 전술한 딥 뉴럴 네트워크의 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.
본 개시의 일 실시예에서 네트워크 함수는 오토 인코더(autoencoder)를 포함할 수도 있다. 오토 인코더는 입력 데이터와 유사한 출력 데이터를 출력하기 위한 인공 신경망의 일종일 수 있다. 오토 인코더는 적어도 하나의 히든 레이어를 포함할 수 있으며, 홀수 개의 히든 레이어가 입출력 레이어 사이에 배치될 수 있다. 각각의 레이어의 노드의 수는 입력 레이어의 노드의 수에서 병목 레이어(인코딩)라는 중간 레이어로 축소되었다가, 병목 레이어에서 출력 레이어(입력 레이어와 대칭)로 축소와 대칭되어 확장될 수도 있다. 오토 인코더는 비선형 차원 감소를 수행할 수 있다. 입력 레이어 및 출력 레이어의 수는 입력 데이터의 전처리 이후에 차원과 대응될 수 있다. 오토 인코더 구조에서 인코더에 포함된 히든 레이어의 노드의 수는 입력 레이어에서 멀어질수록 감소하는 구조를 가질 수 있다. 병목 레이어(인코더와 디코더 사이에 위치하는 가장 적은 노드를 가진 레이어)의 노드의 수는 너무 작은 경우 충분한 양의 정보가 전달되지 않을 수 있으므로, 특정 수 이상(예를 들어, 입력 레이어의 절반 이상 등)으로 유지될 수도 있다.
인공 신경망 모델은 교사 학습(supervised learning), 비교사 학습(unsupervised learning), 반교사학습(semi supervised learning), 또는 강화학습(reinforcement learning) 중 적어도 하나의 방식으로 학습될 수 있다. 인공 신경망 모델의 학습은 인공 신경망 모델이 특정한 동작을 수행하기 위한 지식을 인공 신경망 모델에 적용하는 과정일 수 있다.
인공 신경망 모델은 출력의 오류를 최소화하는 방향으로 학습될 수 있다. 인공 신경망 모델의 학습에서 반복적으로 학습 데이터를 인공 신경망 모델에 입력시키고 학습 데이터에 대한 인공 신경망 모델의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 인공 신경망 모델의 에러를 인공 신경망 모델의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation)하여 인공 신경망 모델의 각 노드의 가중치를 업데이트 하는 과정이다. 교사 학습의 경우 각각의 학습 데이터에 정답이 라벨링 되어있는 학습 데이터를 사용하며(즉, 라벨링된 학습 데이터), 비교사 학습의 경우는 각각의 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 교사 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 라벨링 된 데이터 일 수 있다. 라벨링된 학습 데이터가 인공 신경망 모델에 입력되고, 인공 신경망 모델의 출력(카테고리)과 학습 데이터의 라벨을 비교함으로써 오류(error)가 계산될 수 있다. 다른 예로, 데이터 분류에 관한 비교사 학습의 경우 입력인 학습 데이터가 인공 신경망 모델 출력과 비교됨으로써 오류가 계산될 수 있다. 계산된 오류는 인공 신경망 모델에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 인공 신경망 모델의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 인공 신경망 모델의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 인공 신경망 모델의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 인공 신경망 모델의 학습 초기에는 높은 학습률을 사용하여 인공 신경망 모델이 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다.
인공 신경망 모델의 학습에서 일반적으로 학습 데이터는 실제 데이터(즉, 학습된 인공 신경망 모델을 이용하여 처리하고자 하는 데이터)의 부분집합일 수 있으며, 따라서, 학습 데이터에 대한 오류는 감소하나 실제 데이터에 대해서는 오류가 증가하는 학습 사이클이 존재할 수 있다. 과적합(overfitting)은 이와 같이 학습 데이터에 과하게 학습하여 실제 데이터에 대한 오류가 증가하는 현상이다. 예를 들어, 노란색 고양이를 보여 고양이를 학습한 인공 신경망 모델이 노란색 이외의 고양이를 보고는 고양이임을 인식하지 못하는 현상이 과적합의 일종일 수 있다. 과적합은 머신러닝 알고리즘의 오류를 증가시키는 원인으로 작용할 수 있다. 이러한 과적합을 막기 위하여 다양한 최적화 방법이 사용될 수 있다. 과적합을 막기 위해서는 학습 데이터를 증가시키거나, 레귤라이제이션(regularization), 학습의 과정에서 네트워크의 노드 일부를 비활성화하는 드롭아웃(dropout), 배치 정규화 레이어(batch normalization layer)의 활용 등의 방법이 적용될 수 있다.
도 3은 본 개시의 일 실시예에 따른 투명 교정 장치 성공률 결정 방법의 각 동작에 관한 순서도이다.
전자 장치(100)는 사용자에 대해 생성된 전문가 판단 정보를 획득할 수 있다(S310). 본 개시에서 “사용자”는 투명 교정 장치를 착용하는 대상으로서, 치아에 관한 이미지 촬영의 대상을 지칭할 수 있다.
본 개시의 일 실시예에 따른 전문가 판단 정보는, 사용자의 집중력에 대한 점수를 포함할 수 있다. 전문가(예를 들어, 투명 교정을 시술하는 의사)는 사용자가 상담 과정에서 상대방의 말을 얼마나 경청하는지 또는 대화 시작 몇 분 후에 집중력이 흐트러지는 관찰한 후 사용자의 집중력에 대한 점수를 결정할 수 있다. 전자 장치(100)는 이러한 집중력에 대한 점수를 획득할 수 있다. 사용자의 집중력에 대한 점수는 예를 들어, 집중력이 높을수록 더 높은 값을 가지고, 집중력이 낮을수록 더 낮은 값을 가질 수 있다.
본 개시의 일 실시예에 따른 전문가 판단 정보는, 사용자의 치아 교정에 대한 관심 정도를 지시하는 점수를 포함할 수 있다. 예를 들어, 전문가는 사용자와의 상담을 통해 사용자가 치아 교정을 자발적으로 수행하는지 또는 타인에 의해 비자발적으로 수행하는지 등을 고려하고, 이에 따라 사용자의 치아 교정에 대한 관심 정도를 지시하는 점수를 결정할 수 있다. 전자 장치(100)는 이와 같이 결정된 관심 정도에 대한 점수를 획득할 수 있다. 사용자의 치아 교정에 대한 관심 정도를 지시하는 점수는 예를 들어, 사용자가 자발적으로 치아 교정을 수행하는 경우 높은 값(예를 들어, “100”)을 가지고, 사용자가 비자발적으로 치아 교정을 수행하는 경우 낮은 값(예를 들어, “0”)을 가질 수 있다.
본 개시의 일 실시예에 따른 전문가 판단 정보는 사용자의 치아 교정을 위해 발치가 필요한 지 여부를 포함할 수 있다. 예를 들어, 사용자의 치아 교정을 위해 발치가 필요한 경우 전문가 판단 정보에는 발치가 필요함을 지시하는 값이 포함될 수 있다. 다른 예를 들어, 사용자의 치아 교정을 위해 발치가 필요하지 않은 경우 전문가 판단 정보에는 발치가 필요하지 않음을 지시하는 값이 포함될 수 있다. 이에 기초하여, 전자 장치(100)는 사용자의 치아 교정을 위해 발치가 필요한 지 여부에 대한 값을 획득할 수 있다.
본 개시의 일 실시예에 따른 전문가 판단 정보는 사용자의 교정 기간에 관한 점수를 포함할 수 있다. 전문가는 사용자의 치아 상태에 따라 교정 기간에 관한 점수를 결정할 수 있다. 본 개시에서 교정 기간에 관한 점수란, 사용자가 교정을 수행해야 될 것으로 예측되는 기간에 관한 점수를 의미할 수 있다. 교정 기간에 관한 점수는, 예를 들어, 사용자에게 요구되는 교정 기간이 길수록 더 높은 점수로 설정되고, 사용자에게 요구되는 교정 기간이 짧을수록 더 낮은 점수로 설정될 수 있다.
본 개시의 일 실시예에 따른 전문가 판단 정보는 사용자의 치아 움직임 정도에 대한 점수를 포함할 수 있다. 예를 들어, 전문가는 사용자의 치아 상태를 확인하고, 치아 움직임에 따라 점수를 결정할 수 있다. 이를 통해 전자 장치(100)는 치아 움직임의 정도에 대한 점수를 획득할 수 있다. 사용자의 치아 움직임 정도에 대한 점수는 예를 들어, 움직임이 많을수록 더 높은 값을 가지고, 움직임이 적을수록 더 낮은 값을 가질 수 있다.
전자 장치(100)는 사용자의 인적 사항을 포함하는 인적 정보를 획득할 수 있다(S320). 본 개시에서 인적 정보는 사용자의 성격 유형 검사 결과 정보 또는 사용자의 연령 정보를 포함할 수 있다.
본 개시의 일 실시예에 따른 인적 정보는 사용자의 성격 유형 검사 결과 정보를 포함할 수 있다. 성격 유형 검사 결과 정보는, 예를 들어 MBTI(Myers-Briggs Type Indicator) 성격 유형 중에서 E 또는 I 중 어느 유형에 속하는 지를 지시하는 값을 포함할 수 있다.
본 개시의 일 실시예에 따른 인적 정보는 사용자의 연령 정보를 포함할 수 있다. 사용자의 연령 정보는 사용자의 나이를 지시하는 값을 포함할 수 있다.
전자 장치(100)는 사용자의 치아에 관한 측면 이미지를 획득할 수 있다(S330). 본 개시에서, 사용자의 치아에 관한 측면 이미지는 사용자의 구강 또는 치아를 좌측 내지는 우측에서 촬영한 하나 이상의 방사선 이미지를 의미할 수 있다. 예를 들어, 전자 장치(100)는 구성요소로서 카메라(미도시)를 더 포함하고, 해당 카메라를 통해 사용자의 치아를 촬영함으로써 사용자의 치아에 관한 측면 이미지를 획득할 수 있다. 또한, 전자 장치(100)는 통신 회로(120)를 통해 외부의 다른 전자 장치로부터 사용자의 치아에 관한 측면 이미지를 전달 받음으로써 사용자의 치아에 관한 측면 이미지를 획득할 수 있다. 도 4는 본 개시에 따른 사용자의 치아에 관한 측면 이미지(410)를 예시적으로 도시한 도면이다.
전자 장치(100)는 획득된 측면 이미지에 기초하여 교합 정보를 산출할 수 있다(S340). 일반적으로 교합(malocclusion) 또는 부정 교합(malocclusion)의 여부, 부정 교합의 종류 등은 윗니와 아랫니의 관계에 의해 결정된다. 부정 교합의 종류에는, 예를 들어, 치성 부정 교합, 골격성 부정 교합이 포함될 수 있다. 여기서, 치성 부정 교합이란 치아의 정렬 상태에 따른 부정 교합으로서, 1급 치성 부정 교합은 윗니와 아랫니가 일렬로 정렬된 상태를 지시하고, 2급 치성 부정 교합은 아랫니가 윗니보다 상대적으로 뒤로 빠진 상태를 지시하고, 3급 치성 부정 교합은 아랫니가 윗니보다 상대적으로 앞으로 빠진 상태를 지시할 수 있다. 또한, 골격성 부정 교합이란 상악과 하악의 구조적 문제로 인한 부정 교합으로서, 1급 골격성 부정 교합은 정상적인 턱 상태를 지시하고, 2급 골격성 부정 교합은 무턱 상태를 지시하고, 3급 골격성 부정 교합은 주걱턱 상태를 지시할 수 있다.
본 개시에서 “교합 정보”는 부정 교합의 종류를 지시하는 값을 포함할 수 있다. 예를 들어, 사용자의 치아에 관한 교합 정보는 해당 사용자의 치아가 치성 부정 교합 또는 골격성 부정 교합 중 어디에 해당하는 지를 지시하는 값을 포함할 수 있다.
일 실시예에서, 전자 장치(100)는 인공 신경망 모델에 기초하여 교합 정보를 산출할 수 있다. 인공 신경망 모델은 입력 이미지에 대한 부정 교합의 종류를 지시하는 값을 출력할 수 있다. 예를 들어, 인공 신경망 모델은 사용자의 치아를 측면에서 촬영한 방사선 이미지를 입력 받고, 부정 교합의 종류를 지시하는 값을 출력하도록 학습될 수 있다. 예를 들어, 인공 신경망 모델은 일종의 분류(Classification) 모델로서, 골격성 부정 교합을 지시하는 값이 참값(Ground Truth)으로서 라벨링된 하나 이상의 학습 이미지 및 치성 부정 교합을 지시하는 값이 참값으로서 라벨링된 하나 이상의 학습 이미지에 기초하여 각각의 학습 이미지를 분류하고 분류 결과의 신뢰도를 출력하도록 학습될 수 있다.
학습된 인공 신경망 모델은 입력된 사용자의 치아에 관한 측면 이미지에 대해 가장 유사한 소견을 갖는 부정 교합의 종류를 결정하고 해당 분류 결과의 신뢰도를 출력할 수 있다. 예를 들어, 인공 신경망 모델은 입력된 측면 이미지에 대해 “골격성 부정 교합(0.3), 치성 부정 교합(0.7)”과 같은 중간 연산 결과를 생성한 후, 입력된 방사선 이미지를 가장 높은 점수가 출력된 “치성 부정 교합”으로 분류하고, 신뢰도 값으로서 “0.7”을 반환할 수 있다. 전자 장치(100)는 이러한 인공 신경망 모델에 기초하여 사용자의 치아에 대한 교합 정보를 산출할 수 있다.
다른 일 실시예에서, 전자 장치(100)는 제1 인공 신경망 모델 및 제2 인공 신경망 모델에 기초하여 교합 정보를 산출할 수 있다. 이하에서는 설명의 편의상, 도 4의 측면 이미지(410)가 제1 인공 신경망 모델의 입력 데이터인 것으로 가정하고 설명한다.
제1 인공 신경망 모델은 측면 이미지(410) 내에서 상악 치조골, 하악 치조골 및 하나 이상의 치아 각각을 검출(detect)하도록 학습될 수 있다. 예를 들어, 제1 인공 신경망 모델은 측면 이미지(410)에 포함된 상악 치조골, 하악 치조골 및 하나 이상의 치아 각각에 대해 바운딩 박스(bounding box)를 생성하도록 학습될 수 있다. 구체적으로, 제1 인공 신경망 모델은 학습 이미지에 포함된 상악 치조골, 하악 치조골 및 하나 이상의 치아 각각에 대하여 사각형 박스의 네 꼭지점 좌표가 라벨링된 학습 이미지에 기초하여 학습될 수 있다. 그 결과, 제1 인공 신경망 모델은 입력된 측면 이미지 내에서 상악 치조골, 하악 치조골 및 하나 이상의 치아를 각각 검출하고 대응되는 바운딩 박스를 생성할 수 있다.
도 5는 본 개시의 일 실시예에 따른 제1 인공 신경망 모델의 출력 데이터(510) 및 제2 인공 신경망 모델의 입력 데이터(530)를 예시적으로 도시한 도면이다.
전자 장치(100)는 제1 인공 신경망 모델이 생성한 검출 결과에 기초하여 제2 인공 신경망에 입력되는 입력 데이터(530)를 생성할 수 있다. 구체적으로, 제1 인공 신경망 모델이 입력된 측면 이미지(410)에 대하여 출력 데이터(510)를 생성한 후, 프로세서(110)는 각 바운딩 박스의 중점을 상악 치조골, 하악 치조골 및 하나 이상의 치아 각각의 중심 좌표로 결정할 수 있다. 제2 인공 신경망에 입력되는 입력 데이터(530)는 프로세서(110)가 결정한 상악 치조골, 하악 치조골 및 하나 이상의 치아 각각의 중심 좌표를 시각적으로 나타낸 이미지이다.
제2 인공 신경망 모델은 입력 데이터(530)에 포함된 하나 이상의 중심 좌표에 기초하여 부정 교합의 종류를 출력하도록 학습될 수 있다. 이를 통해, 제2 인공 신경망 모델은 학습이 완료된 제1 인공 신경망 모델과 직렬적으로 연결되어 학습될 수 있다. 구체적으로, 제1 인공 신경망 모델의 학습이 완료되면 제1 인공 신경망 모델에 포함된 각 파라미터의 값(또는 노드 가중치)은 특정 값으로 고정될 수 있다. 전자 장치(100)는 이러한 제1 인공 신경망 모델의 파라미터 값을 고정시키되, 상악 치조골, 하악 치조골 및 하나 이상의 치아를 각각 검출하도록 학습된 제1 인공 신경망 모델의 출력 데이터를 이용함으로써, 제2 인공 신경망 모델의 입력 데이터를 생성하고 제2 인공 신경망 모델을 학습시킬 수 있다. 상술한 바와 같이 학습을 진행할 경우, 전자 장치(100)는 학습이 완료된 제1 인공 신경망 모델 및 학습 진행 중인 제2 인공 신경망 모델을 직렬로 연결시키고 연결된 두 모델을 엔드 투 엔드(End-to-End) 방식으로 학습시킴으로써, 제2 인공 신경망 모델의 파라미터 값을 보다 효율적으로 결정할 수 있다. 즉, 전자 장치(100)는 측면 이미지(410)와 유사한 “A” 학습 이미지 및 “A” 학습 이미지에 라벨링된 특정 부정 교합의 종류를 지시하는 값 셋(즉, “A” 학습 이미지-“A” 학습 이미지에 대한 부정 교합 분류 값 쌍)에 기초하여서, 학습이 완료된 제1 인공 신경망 모델에 “A” 학습 이미지를 입력한 이후, 제2 인공 신경망 모델이 출력하는 부정 교합의 종류를 “A” 학습 이미지에 대한 부정 교합 분류 값과 비교함으로써 제2 인공 신경망 모델을 학습시킬 수 있다. 이러한 본 개시에 따를 경우, 인공 신경망 모델의 학습 과정에 입력 데이터에 대한 추가 정보를 제공함으로써 보다 정확한 인공 신경망 모델이 생성될 수 있다.
전자 장치(100)는 전문가 판단 정보, 인적 정보 및 교합 정보에 기초하여 투명 교정 장치의 성공률을 결정할 수 있다(S350). 투명 교정 장치의 성공률은 사전 결정된 점수 구간(예를 들어 0 이상 100 이하)에 포함되는 특정 값일 수 있다.
일 실시예에서, 전자 장치(100)는 전문가 판단 정보, 인적 정보 및 교합 정보를 가중 합산함으로써 산출된 최종 점수에 따라 성공률을 결정할 수 있다. 예를 들어, 전자 장치(100)는 사용자의 집중력에 대한 점수가 높을수록 성공률이 높게 산출되도록, 집중력 점수에 대한 가중치를 설정할 수 있다. 전자 장치(100)는 사용자의 치아 교정에 대한 관심 점수가 높을수록 성공률이 높게 산출되도록, 관심 점수에 대한 가중치를 설정할 수 있다. 전자 장치(100)는 사용자의 교정 기간에 대한 점수가 높을수록(즉, 교정이 필요한 기간이 길수록) 성공률이 낮게 산출되도록 교정 기간 점수에 대한 가중치를 설정할 수 있다. 전자 장치(100)는 사용자의 치아 움직임 정도에 대한 점수가 높을수록(즉, 치아의 움직임이 심할수록) 성공률이 낮게 산출되도록 치아 움직임 점수에 대한 가중치를 설정할 수 있다. 또한, 전자 장치(100)는 사용자의 연령이 어릴수록 성공률이 높게 산출되도록 연령 정보에 대한 가중치를 설정할 수 있다.
한편, 성공률 결정에 관여하는 정보들 중 연속 값이 아닌 이산 값(예를 들어, 발치 여부, 성격 유형 검사 결과 정보, 교합 정보 등)을 갖는 정보의 경우, 전자 장치(100)는 각각의 정보가 갖는 값의 종류에 따라 사전 결정된 상수를 성공률에 합산할 수 있다.
일례로, 전자 장치(100)는 치아 교정을 위해 발치가 필요하지 않은 경우에 발치가 필요한 경우보다 성공률이 높게 산출되도록, 발치가 필요한 경우 사전 결정된 상수로서 “1” 발치가 필요하지 않은 경우 사전 결정된 상수로서 “-1”을 성공률에 합산할 수 있다. 또한, 전자 장치(100)는 사용자의 성격 유형 검사 결과 정보에 기초하여 MBTI 성격 유형 중 첫번째 요소가 “I”인 경우에 “E” 경우보다 성공률이 높게 산출되도록, “I”인 경우 사전 결정된 상수로서 “5”, “E”인 경우 사전 결정된 상수로서 “-5”를 성공률에 합산할 수 있다. 또한, 전자 장치(100)는 교합 정보에 기초하여, 사용자의 치아가 치성 부정 교합으로 판단될 경우에 골격성 부정 교합으로 판단되는 경우보다 성공률이 높게 산출되도록, “치성 부정 교합”인 경우 사전 결정된 상수로서 “10”, “골격성 부정 교합”인 경우 사전 결정된 상수로서 “-10”을 성공률에 합산할 수 있다.
상술한 몇몇 예시들에 기재된 구체적 수치들은 본 개시를 설명하기 위한 예시적 기재일 뿐, 본 개시를 제한하지 않는다.
본 명세서에의 개시 내용에 따른 순서도 또는 흐름도에서, 방법 또는 알고리즘의 각 단계들은 순차적인 순서로 설명되었지만, 각 단계들은 순차적으로 수행되는 것 외에, 임의로 조합될 수 있는 순서에 따라 수행될 수도 있다. 본 명세서의 순서도 또는 흐름도에 관한 설명은, 방법 또는 알고리즘에 변화 또는 수정을 가하는 것을 제외하지 않으며, 임의의 단계가 필수적이거나 바람직하다는 것을 의미하지 않는다. 일 실시예에서, 적어도 일부의 단계가 병렬적, 반복적 또는 휴리스틱하게 수행될 수 있다. 일 실시예에서, 적어도 일부의 단계가 생략되거나, 다른 단계가 추가될 수 있다.
다양한 실시예들은 기기(Machine)가 읽을 수 있는 저장매체(Machine-readable Storage Medium)에 소프트웨어로 구현될 수 있다. 소프트웨어는 본 명세서의 다양한 실시예들을 구현하기 위한 소프트웨어일 수 있다. 소프트웨어는 본 명세서의 개시 내용이 속하는 기술분야의 프로그래머들에 의해 본 명세서의 다양한 실시예들로부터 추론될 수 있다. 예를 들어 소프트웨어는 기기가 읽을 수 있는 명령(예를 들어, 코드 또는 코드 세그먼트)을 포함하는 프로그램일 수 있다. 기기는 저장 매체로부터 호출된 명령에 따라 동작이 가능한 장치로서, 예를 들어 컴퓨터일 수 있다. 일 실시예에서, 기기는 본 명세서의 다양한 실시예들에 따른 컴퓨팅 장치일 수 있다. 일 실시예에서, 기기의 프로세서는 호출된 명령을 실행하여, 기기의 구성요소들이 해당 명령에 해당하는 기능을 수행하게 할 수 있다. 일 실시예에서, 프로세서는 본 명세서의 실시예들에 따른 프로세서(110, 210)일 수 있다. 저장 매체는 기기에 의해 읽혀질 수 있는, 데이터가 저장되는 모든 종류의 기록 매체(Recording Medium)를 의미할 수 있다. 저장 매체는, 예를 들어 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등을 포함할 수 있다. 일 실시예에서, 저장 매체는 메모리(130, 230)일 수 있다. 일 실시예에서, 저장매체는 네트워크로 연결된 컴퓨터 시스템 등에 분산된 형태로서 구현될 수도 있다. 소프트웨어는 컴퓨터 시스템 등에 분산되어 저장되고, 실행될 수 있다. 저장 매체는 비일시적(non-transitory) 저장매체일 수 있다. 비일시적 저장매체는, 데이터가 반영구적 또는 임시적으로 저장되는 것과 무관하게 실재하는 매체(Tangible Medium)를 의미하며, 일시적(transitory)으로 전파되는 신호(Signal)를 포함하지 않는다.
이상 다양한 실시예들에 의해 본 명세서의 개시 내용에 따른 기술적 사상이 설명되었지만, 본 명세서의 개시 내용에 따른 기술적 사상은 본 명세서의 개시 내용이 속하는 기술 분야에서 통상의 지식을 가진 자가 이해할 수 있는 범위에서 이루어질 수 있는 다양한 치환, 변형 및 변경을 포함한다. 또한, 그러한 치환, 변형 및 변경은 첨부된 청구범위 내에 포함될 수 있는 것으로 이해되어야 한다.

Claims (5)

  1. 하나 이상의 프로세서 및 상기 하나 이상의 프로세서에 의해 실행되기 위한 명령들이 저장된 하나 이상의 메모리를 포함하는 컴퓨팅 장치에서 수행되는 방법에 있어서,
    사용자에 대해 생성된 전문가 판단 정보를 획득하는 단계;
    상기 사용자의 인적 사항을 포함하는 인적 정보를 획득하는 단계;
    상기 사용자의 치아에 관한 측면 이미지를 획득하는 단계;
    상기 측면 이미지에 기초하여 교합 정보를 산출하는 단계; 및
    상기 전문가 판단 정보, 상기 인적 정보 및 상기 교합 정보에 기초하여 투명 교정 장치의 성공률을 결정하는 단계를 포함하고,
    상기 교합 정보는 인공 신경망 모델에 기초하여 산출되고,
    상기 인공 신경망 모델은,
    상기 측면 이미지 내에서 상악 치조골, 하악 치조골 및 하나 이상의 치아 각각을 검출하는 제1 인공 신경망 모델; 및
    상기 제 1 인공 신경망 모델의 검출 결과에 기초하여 부정 교합의 종류를 출력하는 제2 인공 신경망 모델;
    을 포함하고,
    상기 제1 인공 신경망 모델 및 상기 제2 인공 신경망 모델은 적어도 하나의 데이터 쌍 - 상기 데이터 쌍은 입력 데이터 및 상기 입력 데이터에 대응되는 라벨 데이터를 포함함 - 을 포함하는 학습 데이터 셋에 기초하여 엔드 투 엔드(End-to-End) 방식으로 학습되는, 방법.
  2. 제1항에 있어서,
    상기 전문가 판단 정보는,
    상기 사용자의 집중력에 대한 점수, 상기 사용자의 치아 교정에 대한 관심 정도를 지시하는 점수, 상기 사용자의 치아 교정을 위해 발치가 필요한지 여부, 상기 사용자의 교정 기간에 관한 점수 또는 상기 사용자의 치아 움직임 정도에 대한 점수 중 적어도 하나를 포함하는, 방법.
  3. 제1항에 있어서,
    상기 인적 정보는,
    상기 사용자의 성격 유형 검사 결과 정보 또는 상기 사용자의 연령 정보를 포함하는, 방법.
  4. 하나 이상의 프로세서; 및
    상기 하나 이상의 프로세서에 의한 실행 시, 상기 하나 이상의 프로세서가 연산을 수행하도록 하는 명령들이 저장된 하나 이상의 메모리를 포함하고,
    상기 하나 이상의 프로세서는, 상기 명령에 따라,
    사용자에 대해 생성된 전문가 판단 정보를 획득하고,
    상기 사용자의 인적 사항을 포함하는 인적 정보를 획득하고,
    상기 사용자의 치아에 관한 측면 이미지를 획득하고,
    상기 측면 이미지에 기초하여 교합 정보를 산출하고,
    상기 전문가 판단 정보, 상기 인적 정보 및 상기 교합 정보에 기초하여 투명 교정 장치의 성공률을 결정하도록 구성되고,
    상기 교합 정보는 인공 신경망 모델에 기초하여 산출되고,
    상기 인공 신경망 모델은,
    상기 측면 이미지 내에서 상악 치조골, 하악 치조골 및 하나 이상의 치아 각각을 검출하는 제1 인공 신경망 모델; 및
    상기 제 1 인공 신경망 모델의 검출 결과에 기초하여 부정 교합의 종류를 출력하는 제2 인공 신경망 모델;
    을 포함하고,
    상기 제1 인공 신경망 모델 및 상기 제2 인공 신경망 모델은 적어도 하나의 데이터 쌍 - 상기 데이터 쌍은 입력 데이터 및 상기 입력 데이터에 대응되는 라벨 데이터를 포함함 - 을 포함하는 학습 데이터 셋에 기초하여 엔드 투 엔드(End-to-End) 방식으로 학습되는, 전자 장치.
  5. 투명 교정 장치의 성공률을 결정하기 위해 컴퓨터 상에서 수행되기 위한 명령들을 기록한 비일시적 컴퓨터 판독 가능 기록 매체에 있어서,
    상기 명령들은, 하나 이상의 프로세서에 의한 실행시, 상기 하나 이상의 프로세서가,
    사용자에 대해 생성된 전문가 판단 정보를 획득하고,
    상기 사용자의 인적 사항을 포함하는 인적 정보를 획득하고,
    상기 사용자의 치아에 관한 측면 이미지를 획득하고,
    상기 측면 이미지에 기초하여 교합 정보를 산출하고,
    상기 전문가 판단 정보, 상기 인적 정보 및 상기 교합 정보에 기초하여 투명 교정 장치의 성공률을 결정하도록 하되,
    상기 교합 정보는 인공 신경망 모델에 기초하여 산출되고,
    상기 인공 신경망 모델은,
    상기 측면 이미지 내에서 상악 치조골, 하악 치조골 및 하나 이상의 치아 각각을 검출하는 제1 인공 신경망 모델; 및
    상기 제 1 인공 신경망 모델의 검출 결과에 기초하여 부정 교합의 종류를 출력하는 제2 인공 신경망 모델;
    을 포함하고,
    상기 제1 인공 신경망 모델 및 상기 제2 인공 신경망 모델은 적어도 하나의 데이터 쌍 - 상기 데이터 쌍은 입력 데이터 및 상기 입력 데이터에 대응되는 라벨 데이터를 포함함 - 을 포함하는 학습 데이터 셋에 기초하여 엔드 투 엔드(End-to-End) 방식으로 학습되는, 컴퓨터 판독 가능 기록 매체.
KR1020220181227A 2022-12-22 2022-12-22 투명 교정 장치의 성공률 결정 방법, 장치 및 기록 매체 KR102653616B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220181227A KR102653616B1 (ko) 2022-12-22 2022-12-22 투명 교정 장치의 성공률 결정 방법, 장치 및 기록 매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220181227A KR102653616B1 (ko) 2022-12-22 2022-12-22 투명 교정 장치의 성공률 결정 방법, 장치 및 기록 매체

Publications (1)

Publication Number Publication Date
KR102653616B1 true KR102653616B1 (ko) 2024-04-01

Family

ID=90666922

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220181227A KR102653616B1 (ko) 2022-12-22 2022-12-22 투명 교정 장치의 성공률 결정 방법, 장치 및 기록 매체

Country Status (1)

Country Link
KR (1) KR102653616B1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150139465A (ko) * 2014-06-03 2015-12-11 오서-테인 인코포레이티드 환자의 치열교정 진단 분석을 결정하는 시스템 및 방법
WO2019150608A1 (ja) * 2018-02-01 2019-08-08 テルモ株式会社 支援システム、支援方法、支援プログラム、および支援プログラムを記録した記録媒体
KR20200023703A (ko) * 2018-08-21 2020-03-06 디디에이치 주식회사 교정 진단을 위한 치과 영상 분석 방법 및 이를 이용한 장치
KR20210067913A (ko) * 2019-11-29 2021-06-08 이화여자대학교 산학협력단 학습 모델을 이용한 데이터 처리 방법
KR102401982B1 (ko) * 2021-06-04 2022-05-24 정중희 기능성 투명 교정장치와 이를 포함한 맞춤형 치아 교정시스템 및 치아 교정방법
KR20220072744A (ko) * 2020-11-25 2022-06-02 주식회사 덴티스 투명 교정 치료 관리 장치 및 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150139465A (ko) * 2014-06-03 2015-12-11 오서-테인 인코포레이티드 환자의 치열교정 진단 분석을 결정하는 시스템 및 방법
WO2019150608A1 (ja) * 2018-02-01 2019-08-08 テルモ株式会社 支援システム、支援方法、支援プログラム、および支援プログラムを記録した記録媒体
KR20200023703A (ko) * 2018-08-21 2020-03-06 디디에이치 주식회사 교정 진단을 위한 치과 영상 분석 방법 및 이를 이용한 장치
KR20210067913A (ko) * 2019-11-29 2021-06-08 이화여자대학교 산학협력단 학습 모델을 이용한 데이터 처리 방법
KR20220072744A (ko) * 2020-11-25 2022-06-02 주식회사 덴티스 투명 교정 치료 관리 장치 및 방법
KR102401982B1 (ko) * 2021-06-04 2022-05-24 정중희 기능성 투명 교정장치와 이를 포함한 맞춤형 치아 교정시스템 및 치아 교정방법

Similar Documents

Publication Publication Date Title
US11348237B2 (en) Artificial intelligence architecture for identification of periodontal features
US11553874B2 (en) Dental image feature detection
US11790645B2 (en) Diagnosis assistance system and control method thereof
US20200364624A1 (en) Privacy Preserving Artificial Intelligence System For Dental Data From Disparate Sources
US20200372301A1 (en) Adversarial Defense Platform For Automated Dental Image Classification
KR102075293B1 (ko) 의료 영상의 메타데이터 예측 장치 및 방법
KR20200005407A (ko) 안구 이미지 기반의 진단 보조 이미지 제공 장치
US11217350B2 (en) Systems and method for artificial-intelligence-based dental image to text generation
KR20230104083A (ko) 안구 이미지 기반의 진단 보조 이미지 제공 장치
CN109949280B (zh) 图像处理方法、装置、设备存储介质及生长发育评估系统
CN111833343A (zh) 冠状动脉狭窄度估计方法系统及设备
US20210196428A1 (en) Artificial Intelligence (AI) based Decision-Making Model for Orthodontic Diagnosis and Treatment Planning
JP2023527136A (ja) 診断結果を提供するための方法及び装置(method and apparatus for providing diagnosis result)
Jeong Feasibility study of Google's Teachable Machine in diagnosis of tooth-marked tongue
CN110599444B (zh) 预测血管树的血流储备分数的设备、系统以及非暂时性可读存储介质
KR102653616B1 (ko) 투명 교정 장치의 성공률 결정 방법, 장치 및 기록 매체
KR102619800B1 (ko) 환자의 상태에 따라 교정 방식을 결정하는 장치, 방법 및 시스템
JP6737491B1 (ja) Aiを用いる診断装置、診断システム、及び、プログラム
CN112215835A (zh) 一种图文系统中模板化报告的信息处理方法及装置
KR102596666B1 (ko) 의료 영상 기반 통합 의료 서비스 제공 시스템 및 방법
KR102469288B1 (ko) 자동 치열 교정 계획 방법, 장치 및 프로그램
KR102463627B1 (ko) 3차원 데이터를 세그멘테이션 하는 방법, 장치 및 프로그램
CN115281709B (zh) 一种下颌第二磨牙c形根管检测装置及方法
KR102566311B1 (ko) 신경치료를 위한 엔도 가이드 생성 방법 및 시스템
WO2023188800A1 (ja) 運動機能改善支援装置、運動機能改善支援方法及び非一時的なコンピュータ可読媒体