KR102577953B1 - Ai 기반 음성인식을 이용한 치아 상태 표시 장치 및 그 방법 - Google Patents

Ai 기반 음성인식을 이용한 치아 상태 표시 장치 및 그 방법 Download PDF

Info

Publication number
KR102577953B1
KR102577953B1 KR1020200166011A KR20200166011A KR102577953B1 KR 102577953 B1 KR102577953 B1 KR 102577953B1 KR 1020200166011 A KR1020200166011 A KR 1020200166011A KR 20200166011 A KR20200166011 A KR 20200166011A KR 102577953 B1 KR102577953 B1 KR 102577953B1
Authority
KR
South Korea
Prior art keywords
tooth
voice
patient
teeth
chart
Prior art date
Application number
KR1020200166011A
Other languages
English (en)
Other versions
KR20220077313A (ko
Inventor
임병준
Original Assignee
주식회사 덴컴
임병준
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 덴컴, 임병준 filed Critical 주식회사 덴컴
Priority to KR1020200166011A priority Critical patent/KR102577953B1/ko
Publication of KR20220077313A publication Critical patent/KR20220077313A/ko
Application granted granted Critical
Publication of KR102577953B1 publication Critical patent/KR102577953B1/ko

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4542Evaluating the mouth, e.g. the jaw
    • A61B5/4547Evaluating teeth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • A61B5/749Voice-controlled interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/04Constructional details of apparatus
    • A61B2560/0487Special user inputs or interfaces
    • A61B2560/0493Special user inputs or interfaces controlled by voice

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Rheumatology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Evolutionary Computation (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)

Abstract

본 발명은 AI 기반 음성인식을 이용한 치아 상태 표시 장치 및 그 방법에 대한 것이다.
본 발명에 따른 AI 기반 음성인식을 이용한 치아 상태 표시 장치는 치과 진료시 의사로부터 환자의 치아 상태에 대한 진단 음성을 입력받는 음성입력부; 음성인식 알고리즘을 이용하여 상기 음성의 파형을 분석하고 분석된 음성을 문자로 변환하는 음성인식부; 상기 변환된 문자를 해당 환자의 차트에 반영하고, 상기 차트에 반영된 치아 상태에 대응하여 치아 모형을 생성하는 제어부; 및 상기 생성된 치아 모형 중 선택된 치아 모형을 디스플레이 하는 디스플레이부를 포함한다.
이와 같이 본 발명에 따르면, 음성인식을 이용하여 의사의 음성을 인식하고 인식된 진료 내용이 환자 차트에 자동으로 반영되도록 함으로써, 의사의 진료 내용을 차트에 기록하기 위한 보조 인력을 감축시킬 수 있고 수기 기록시 발생할 수 있는 내용 누락 및 오기재의 위험률을 감소시킬 수 있는 효과가 있다.

Description

AI 기반 음성인식을 이용한 치아 상태 표시 장치 및 그 방법{APPARATUS FOR TOOTH STATUS DISPLAY USING SPEECH RECOGNITION BASED ON AI AND METHOD THEREOF}
본 발명은 AI 기반 음성인식을 이용한 치아 상태 표시 장치 및 그 방법에 관한 것으로서, 더욱 상세하게는 음성인식을 이용하여 기록된 환자 차트를 디스플레이하는 AI 기반 음성인식을 이용한 치아 상태 표시 장치 및 그 방법에 관한 것이다.
일반적으로 치과 진료시 의사가 환자의 치아 상태를 육안으로 확인하고 진료 내용을 전문 용어로 말하면, 옆에 있는 조수(예를 들면, 간호사)가 의사의 진료 내용을 해당 환자의 진료 차트에 수기로 적어서 기록하는 방식으로 진료가 이루어진다.
그러나, 조수가 의사의 용어를 제대로 이해하지 못하거나 잘못 이해하는 경우 환자의 치아 상태가 차트에 잘못 기재되거나 중요한 정보가 누락되는 일이 발생할 수 있어 자칫하면 의료 사고로까지 어어질 수 있는 문제점이 있다.
따라서 의사가 진단하는 내용을 정확하게 이해하고 기록하기 위해서는 전문 교육 과정을 거친 전문 인력이 서포트해야 하나 현실적으로 전문 인력을 충당하기가 어려운 치과에서는 의사가 치아 상태를 확인하여 차트에 기록하고 치료하는 등 다양한 프로세스를 혼자 수행해야 하므로 치료에만 집중하기 어려운 문제점이 있다.
또한, 다수의 조수가 의사를 서포트하는 경우 업무 분담이 원활히 이루어지지 않고 의사의 시야 확보가 어렵거나 동선이 겹쳐 오히려 진료에 방해를 주는 경우가 발생할 수도 있다.
본 발명의 배경이 되는 기술은 대한민국 공개특허공보 제10-2018-0009884호(2018. 01. 30. 공개)에 개시되어 있다.
본 발명이 이루고자 하는 기술적 과제는 음성인식을 이용하여 의사의 음성을 인식하고, 인식된 진료 내용을 환자 차트에 반영하여 차트에 기록된 치아 상태를 디스플레이 하는 AI 기반 음성인식을 이용한 치아 상태 표시 장치 및 그 방법을 제공하기 위한 것이다.
이러한 기술적 과제를 이루기 위한 본 발명의 실시 예에 따른 AI 기반 음성인식을 이용한 치아 상태 표시 장치는, 치과 진료시 의사로부터 환자의 치아 상태에 대한 진단 음성을 입력받는 음성입력부; 음성인식 알고리즘을 이용하여 상기 음성의 파형을 분석하고 분석된 음성을 문자로 변환하는 음성인식부; 상기 변환된 문자를 해당 환자의 차트에 반영하고, 상기 차트에 반영된 치아 상태에 대응하여 치아 모형을 생성하는 제어부; 및 상기 생성된 치아 모형 중 선택된 치아 모형을 디스플레이 하는 디스플레이부를 포함한다.
이때, 상기 음성인식부는 화자인식 알고리즘을 이용하여 상기 입력된 음성이 기 저장된 의사의 음성과 동일한 경우 상기 음성을 분석할 수 있다.
또한, 상기 제어부는 치아 위치, 진단명 및 치아 상태 중 적어도 하나 이상을 상기 차트에 반영하여 저장할 수 있다.
또한, 상기 제어부는 잇몸의 깊이를 측정하는 프로브(Probe)의 삽입이 감지되면, 상기 프로브에 의해 측정된 잇몸 깊이 및 두께를 상기 차트에 반영할 수 있다.
또한, 상기 제어부는 치아의 위치와 동일한 모양으로 생성하되, 상기 차트에 반영된 치아의 진단명 및 진단 상태와 동일하도록 상기 치아 모형을 생성할 수 있다.
또한, 상기 음성인식 알고리즘은 딥 러닝(Deep Learning) 또는 머신러닝(Machine Learning)을 이용하여 학습하는 인공지능(Artificial Intelligence)을 기반으로 한국어, 영어 및 치의학 용어를 인식할 수 있다.
또한, 본 발명의 다른 실시 예에 따른 AI 기반 음성인식을 이용한 치아 상태 표시 방법은, 치과 진료시 의사로부터 환자의 치아 상태에 대한 진단 음성을 입력받는 단계; 음성인식 알고리즘을 이용하여 상기 음성의 파형을 분석하고 분석된 음성을 문자로 변환하는 단계; 상기 변환된 문자를 해당 환자의 차트에 반영하는 단계; 상기 차트에 반영된 치아 상태에 대응하여 치아 모형을 생성하는 단계; 및 상기 생성된 치아 모형 중 선택된 치아 모형을 디스플레이 하는 단계를 포함할 수 있다.
이와 같이 본 발명에 따르면, 음성인식을 이용하여 의사의 음성을 인식하고 인식된 진료 내용이 환자 차트에 자동으로 반영되도록 함으로써, 의사의 진료 내용을 차트에 기록하기 위한 보조 인력을 감축시킬 수 있고 수기 기록시 발생할 수 있는 내용 누락 및 오기재의 위험률을 감소시킬 수 있는 효과가 있다.
또한 본 발명에 따르면, 차트에 기록된 치아의 상태를 환자의 실제 치아와 동일한 모양으로 디스플레이함으로써, 환자 본인의 치아 상태에 대한 직관적인 이해가 가능하도록 하여 의사와 환자 사이의 커뮤니케이션이 보다 원활해져 진료의 만족도를 향상시킬수 있는 효과가 있다.
또한 본 발명에 따르면, 의사의 음성과 동일한 음성만 인식하여 차트에 자동 반영함으로써 타인의 음성이나 주변 소음에 의해 의사의 음성이 오인식되는 확률을 저감시킬 수 있는 효과가 있다.
본 발명의 상기 목적과 여러 가지 장점은 이 기술분야에 숙련된 사람들에 의해 본 발명의 바람직한 실시예로부터 더욱 명확하게 될 것이다.
도 1은 본 발명의 실시 예에 따른 AI 기반 음성인식을 이용한 치아 상태 표시 장치를 나타낸 블록구성도이다.
도 2는 도 1에 도시된 장치에 의해 생성되는 환자의 차트를 예시적으로 도시한 도면이다.
도 3은 도 1에 도시된 장치에 의해 생성되는 치아 모형을 예시적으로 도시한 도면이다.
도 4는 잇몸 깊이 및 두께를 측정하는 프로브의 사용 예시이다.
도 5는 본 발명의 실시 예에 따른 AI 기반 음성인식을 이용한 치아 상태 표시 방법의 동작 흐름을 도시한 순서도이다.
도 6은 S500 단계에서 치아 모형을 생성하는 과정을 설명하기 위한 도면이다.
이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하기로 한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다.
또한 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
먼저, 도 1 내지 도 4를 통해 본 발명의 실시 예에 따른 AI 기반 음성인식을 이용한 치아 상태 표시 장치에 대하여 설명한다.
도 1은 본 발명의 실시 예에 따른 AI 기반 음성인식을 이용한 치아 상태 표시 장치를 나타낸 블록구성도이다.
도 1에서와 같이 본 발명의 실시 예에 따른 AI 기반 음성인식을 이용한 치아 상태 표시 장치(100)는, 음성입력부(110), 음성인식부(120), 제어부(130), 저장부(140) 및 디스플레이부(150)를 포함한다.
먼저, 음성입력부(110)는 치과 진료시 의사로부터 환자의 치아 상태에 대한 진단 음성을 입력받는다.
이때, 음성입력부(110)는 마이크, 핸즈프리 형태로 구현되어 사용자인 의사의 음성을 입력받을 수 있고, 의사의 가운에 거치하거나 귀에 착용하여 진료시 의사의 양손의 사용이 자유롭도록 할 수도 있다. 이 외에도 목걸이 타입과 같이 다양한 형태로 구현될 수 있다.
즉, 본 발명의 실시 예에 따른 음성입력부(110)는 치과 의사의 의복이나 신체에 거치 또는 착용이 가능하므로 의사는 치경(dental mirror), 탐침(explorer), 핀셋, 석션, 라이트, 핸드피스 등과 같은 치아 치료에 관련된 각종 치료 도구를 양손으로 사용이 가능하다.
그리고 음성인식부(120)는 음성인식 알고리즘을 이용하여 음성입력부(110)를 통해 입력된 음성의 파형을 분석하고 분석된 음성을 문자로 변환한다.
이때, 음성인식부(120)는 화자인식 알고리즘(speaker recognition algorithm)을 이용하여 음성입력부(110)를 통해 입력된 음성이 기 저장된 의사의 음성과 동일한 경우 입력된 음성을 분석할 수도 있다.
즉, 음성인식부(120)는 음성입력부(110)를 통해 음성이 입력되면, 화자인식 알고리즘을 이용하여 입력된 음성이 기 저장된 의사의 음성인지를 판단하고, 타인의 음성(예를 들면, 간호사)이 입력된 것으로 판단된 경우 입력된 음성을 분석하지 않고 무시한다.
따라서, 본 발명의 실시 예에서는 의사의 음성과 동일한 음성만 인식하도록 함으로써 타인의 음성이나 주변 소음에 의해 의사의 음성이 오인식되는 확률을 저감시킬 수 있다.
여기서, 화자인식 알고리즘은 입력된 음성에서 인물 정보를 찾는 알고리즘으로 사용자의 음성을 가우시안 혼합 모델(Gaussian Mixture Model, GMM) 등을 이용하여 만들어진 음향 모델에 입력되는 음성을 인식하는 과정에서 인물 정보를 얻는 방식이다.
따라서, 음성인식부(120)는 입력된 음성이 기 저장된 의사의 음성인 경우에만 음성인식 알고리즘을 이용하여 입력된 음성을 분석한다.
본 발명의 실시예에서 음성인식 알고리즘은, 딥 러닝(Deep Learning) 또는 머신러닝(Machine Learning)을 이용하여 학습하는 인공지능(Artificial Intelligence)을 기반으로 하며, 각 나라(ex 한국어, 영어 등)의 치의학 용어를 인식한다.
따라서, 음성인식부(120)는 음성입력부(110)를 통해 입력된 음성의 파형을 분석하여 문자로 변환시킨다.
따라서, 음성인식부(120)는 음성인식 알고리즘을 이용하여 의사에 의해 진단되는 치아의 움직임, 충치 유무 및 부위, 빠진 치아, 애나멜의 회전, 침식 또는 찰과상과 같은 치아의 이상 및 손상 정도와, 잇몸 후퇴, 출혈 등과 같은 잇몸 상태, 크라운, 브릿지, 임플란트 등과 같은 충전물의 존재 유무 등에 관한 음성의 파형을 분석하고 분석된 음성을 문자로 변환한다.
그리고 제어부(130)는 음성인식부(120)에서 변환된 문자를 해당 환자의 차트에 반영하고, 차트에 반영된 치아 상태에 대응하여 치아 모형을 생성한다.
이때, 제어부(130)는 치아 위치, 진단명 및 치아 상태 중 적어도 하나 이상을 차트에 반영하여 저장부(140)에 저장하며, 업데이트 되는 정보를 누적 저장할 수 있다.
도 2는 도 1에 도시된 장치에 의해 생성되는 환자의 차트를 예시적으로 도시한 도면이다. 구체적으로, 도 2(a) 내지 도 2(c)는 다양한 실시예에 따라 환자의 차트를 예시적으로 나타내고 있다.
도 2(a)에서와 같이 환자의 차트는 세로열에 진단명(측정 요소)이 나열되고, 가로열에 치아의 위치별 순번이 나열되어, 치아 별 각 진단 항목의 정도, 상태, 레벨, Y/N 등과 같은 치아 상태가 기재되도록 하며, 제어부(130)는 음성인식부(120)에서 변환된 문자에 대응하는 정보를 해당 항목에 반영한다.
이때, 도 2(a)의 세로열 중 'BOP'는 출혈을 의미(붉은 점으로 표시된 것은 출혈 지점)하고, 'PD'는 잇몸의 파인 정도(0 에서 15 사이의 정도 표시가능)를 의미하며, 'GM'은 치은 마진을 의미하고, 'PLAQ'는 플라그를 의미하며, 'FURC'는 치근 분기점을 의미한다.
따라서, 의사로부터 "1번 치아 플라그 1단계"이라는 음성이 입력되어 인식되면, 제어부(130)는 음성인식부(120)에서 변환된 "1번 치아 플라그 1단계"라는 문자를 전달받아 세로열의 항목 중 플라그(PLAQ)에 해당하는 열과 가로열 항목 중 1번 치아에 해당하는 열이 교차하는 지점에 '1'을 반영한다. 같은 방식으로 의사에 의해 진단되는 내용을 차트에 반영한다.
참고로, 도 2(a)에서 볼 수 있듯이, 치아를 가로 방향으로 3등분하고, 잇몸의 파인 정도(PD), 출혈(BOP) 등 상태를 나타낼 수 있다. 예를 들어, 3번 치아(앞면)의 잇몸의 파인 정도(PD)를 살펴보면, 가장 왼쪽 부분은 2, 중앙은 2, 가장 오른쪽 부분은 5라고 표시되어 3번 치아(앞면)의 가장 오른쪽 부분이 잇몸 파인 정도가 큰 것을 확인할 수 있다. 또한, 4번 치아(뒷면)의 출혈(BOP)를 살펴보면, 가장 왼쪽 부분, 중앙은 N, 가장 오른쪽 부분은 Y로 표시되어 4번 치아(뒷면)의 가장 오른쪽 부분에 출혈이 있는 것을 확인할 수 있다.
위와 같이, 환자의 차트는 각 치아의 앞면, 뒷면을 모두 나타내고, 앞면, 두시면 각각에 대한 진단 항목을 나타낼 수 있다. 도 2(a)에서 볼 수 있듯이, 윗 라인의 이빨들은 동일 치아의 앞면, 아래라인의 이빨들은 동일 치아의 뒷면을 나타내고 있는 것이다. 또한, 하나의 차트는 윗 이빨의 앞면/뒷면만을 나타내고 있으므로, 아랫 이빨의 앞면/뒷면을 나타내기 위해서는 또 다른 하나의 차트가 필요할 수 있다. 물론, 하나의 차트에서 위/아래 이빨이 모두 표시될 수도 있을 것이다.
또한, 일 실시예에 의할 때, 환자의 차트에 나타난 각 치아를 연결하는 하나의 기준선 및 잇몸 상태선을 나타낼 수 있고, 각 치아의 잇몸(파인 정도) 상태에 따라 상기 잇몸 상태선의 높낮이가 달라질 수 있다. 이때, 각 치아를 가로 방향으로 3등분(ex 가장 왼쪽 부분, 중앙 부분, 가장 오른쪽 부분)하고, 상기 기준선 및 잇몸의 파인 정도(PD)에 따라 잇몸 상태선이 통과하는 지점을 각 부분에 위치시킬 수 있다.
구체적으로, 환자의 차트에는 각 치아의 그림이 나열되어 있고, 각 치아의 높이를 기준으로 정상적인 상태에서 잇몸이 위치해야 하는 지점을 상기 기준선이 나타낼 수 있다. 각 치아마다 3개의 점(치아가 3등분되고, 각 부분마다 정상적인 잇몸의 위치를 1개의 점으로서 보유)이 존재하고, 상기 3개의 점을 상기 기준선이 통과할 수 있을 것이다.
상기 기준선이 표현되어 있는 치아의 그림(윗니의 앞면 기준)에 기준선의 점과 동일하거나 위쪽 위치에 현재 잇몸 상태의 점을 표현할 수 있다. 상기 잇몸 상태의 점들이 모여 잇몸 상태선을 이룰 수 있을 것이다.
즉, 각 치아마다 3개의 부분으로 구분되어 잇고, 기준선에 해당하는 점, 잇몸 상태선에 해당하는 점을 보유할 수 있다. 도 2의 12번 치아의 뒷면을 살펴보면, 잇몸의 파인 정도가 5, 1, 2인 것을 확인할 수 있다. 따라서, 대응하는 그림의 12번 치아(뒷면)의 경우, 가장 왼쪽 부분은 기준선보다 상대적으로 5 크기만큼 높은 위치에 잇몸 상태선이 존재하고, 중앙 부분은 기준선보다 상대적으로 1 크기만큼 높은 위치에 잇몸 상태선이 존재하며, 가장 오른쪽 부분은 기준선보다 상대적으로 2 크기만큼 높은 위치에 잇몸 상태선이 존재할 수 있을 것이다. 위와 같은 각 치아에서의 잇몸 상태선들이 환자의 차트에서 하나의 연결선으로 표현될 수 있다.
위와 같이 윗 라인의 이빨들의 경우 기준선보다 잇몸 상태선이 위쪽에 위치하지만, 아래 라인의 이빨들의 경우 기준선보다 잇몸 상태선이 아래쪽에 위치할 수 있을 것이다.
또한, 환자의 차트에 각 치아에는 출혈(BOP) 정도에 따라 출혈지점이 표시될 수 있다. 예를 들어, 7번 치아(앞면)의 출혈(BOP)를 살펴보면, N, N, Y인 것을 확인할 수 있다. 따라서, 대응하는 그림의 7번 치아(앞면)의 경우, 가장 오른쪽 부분에 출혈 지점이 표시될 수 있는 것이다.
또한, 다른 실시예에 따른 환자의 차트는 도 2(b) 내지 도 2(c)와 같이 나타날 수 있다. 참고로, 도 2(b)(c)는 위/아래 이빨의 앞면 및 뒷면을 모두 나타내고 있다.
디스플레이되는 방식이 상이하나, 도 2(a)(b)(c)를 통해 출혈이 발생하는지 여부, 고름 등이 나타나는지 여부, 잇몸 경계선, 치아가 갈라진 정도 등을 나타낼 수 있다. 물론, 상기 도면 내 차트 등을 통해 나타내는 정보는 설정에 따라 상이할 수 있을 것이다.
도 2는 어디까지나 이해의 편의를 돕기 위한 예시일 뿐 차트의 형태가 반드시 도 2와 동일한 형태로 생성되는 것은 아니다.
또한, 제어부(130)는 치아의 위치와 동일한 모양으로 생성하되, 상기 차트에 반영된 치아의 진단명 및 진단 상태와 동일하도록 상기 치아 모형을 생성하는 것이 바람직하다.
도 3은 도 1에 도시된 장치에 의해 생성되는 치아 모형을 예시적으로 도시한 도면이다.
도 3에서와 같이 제어부(130)는 음성인식부(120)를 통해 전달되는 문자의 내용에 따라 도 3의 (a)와 같은 치아 모형을 도 3의 (b)와 같이 변형하여 생성할 수도 있다.
즉, 의사가 "왼쪽 1 어금니 파철"이라는 음성을 입력하면, 제어부(130)는 해당 치아의 모형을 진단 내용과 동일한 상태가 되도록 도 3의 (b)와 같이 생성할 수도 있다.
또한, 제어부(130)는 잇몸의 깊이를 측정하는 프로브(Probe)의 삽입이 감지되면, 프로브에 의해 측정된 잇몸 깊이 및 두께를 차트에 반영할 수도 있다.
여기서, 프로브는 끝부분이 구부러져 치주 질환의 염증 깊이를 측정하는 기구이며, 의사에 의해 환자의 잇몸으로 삽입되면 자동으로 잇몸의 깊이를 측정하여 측정 결과를 제어부(130)로 전달한다. 즉, 프로브는 치아 상태 표시 장치(100)와 유무선 연결될 수도 있다.
도 4는 잇몸 깊이 및 두께를 측정하는 프로브의 사용 예시이다.
도 4와 같이 의사에 의해 이상이 의심되는 치아(10)의 잇몸(20)으로 프로브(30)가 삽입되어 프로브(30)에 의해 잇몸의 깊이가 측정되면, 제어부(130)는 프로브에 의해 측정된 잇몸의 깊이 및 두께를 차트에 자동으로 반영시킬 수도 있다.
이때, 프로브가 치아 상태 표시 장치(100)와 연결되지 않은 경우에는 의사의 음성을 인식하여 잇몸의 깊이 및 두께를 차트에 반영할 수도 있다.
마지막으로 디스플레이부(150)는 제어부(130)에서 생성된 치아 모형 중 선택된 치아 모형을 디스플레이한다.
이때, 디스플레이부(150)는 의사에 의해 선택되는 치아의 모형을 디스플레이하되, 환자 본인의 치아 상태에 대한 직관적인 이해가 가능하도록 2D 또는 3D 형태로 디스플레이하여 의사와 환자 사이의 커뮤니케이션이 보다 원활해지도록 할 수도 있다.
이하에서는 도 5 내지 도 6을 통해 본 발명의 실시 예에 따른 AI 기반 음성인식을 이용한 치아 상태 표시 방법에 대하여 설명한다.
도 5는 본 발명의 실시 예에 따른 AI 기반 음성인식을 이용한 치아 상태 표시 방법의 동작 흐름을 도시한 순서도로서, 이를 참조하여 본 발명의 구체적인 동작을 설명한다.
본 발명의 실시 예에 따르면, 먼저 음성입력부(110)는 치과 진료시 의사로부터 환자의 치아 상태에 대한 진단 음성을 입력받는다(S100).
이때, 음성입력부(110)는 마이크, 핸즈프리 형태로 구현되어 사용자인 의사의 음성을 입력받을 수 있다.
그 다음 음성인식부(120)는 화자인식 알고리즘을 이용하여 S100 단계에서 입력된 음성이 기 저장된 사용자(즉, 의사)의 음성과 동일한지 판단한다(S200).
S200 단계의 판단 결과 S100 단계에서 입력된 음성이 기 저장된 사용자의 음성과 동일한 경우, 음성인식부(120)는 음성인식 알고리즘을 이용하여 S100 단계에서 입력된 음성의 파형을 분석하고 분석된 음성을 문자로 변환한다(S300).
만약, S100 단계에서 입력된 음성이 기 저장된 사용자의 음성과 동일하지 않은 경우 음성인식부(120)는 S100 단계에서 입력된 음성을 분석하지 않고 무시한다.
본 발명의 실시 예에서의 음성인식 알고리즘은 딥 러닝(Deep Learning) 또는 머신러닝(Machine Learning)을 이용하여 학습하는 인공지능(Artificial Intelligence)을 기반으로 한국어, 영어 및 치의학 용어를 인식하는 것이 바람직하다.
그 다음 제어부(130)는 S300 단계에서 변환된 문자를 해당 환자의 차트에 반영한다(S400).
S400 단계에서 제어부(130)는 치아 위치, 진단명 및 치아 상태 중 적어도 하나 이상을 차트에 반영하여 저장부(140)에 저장하며, 업데이트 되는 정보를 누적 저장할 수 있다.
그 다음 제어부(130)는 차트에 반영된 치아 상태에 대응하여 치아 모형을 생성한다(S500).
S500 단계에서 제어부(130)는 치아 모형을 생성할 때 치아의 위치와 동일한 모양으로 생성하되, 차트에 반영된 치아의 진단명 및 진단 상태와 동일하도록 치아 모형을 생성하는 것이 바람직하다.
도 6은 S500 단계에서 치아 모형을 생성하는 과정을 설명하기 위한 도면이다.
도 6은 환자의'FURC'상태를 3D 모형으로 생성하는 과정을 나타낸 것으로, S400 단계에서 음성인식부(120)를 통해 전달된 문자의 내용이 도 6에서와 같이 차트에 반영되었을 때, 제어부(130)는 단계별 FURC 모형 중 환자의 상태에 대응하는 1 단계의 FURC 모형을 생성한다.
또한, 제어부(130)는 잇몸의 깊이를 측정하는 프로브(Probe)의 삽입이 감지되면, 프로브에 의해 측정된 잇몸 깊이 및 두께를 차트에 반영할 수도 있다.
여기서, 프로브는 끝부분이 구부러져 치주 질환의 염증 깊이를 측정하는 기구이며, 의사에 의해 환자의 잇몸으로 삽입되면 자동 또는 수동으로 잇몸의 깊이를 측정하여 측정 결과를 제어부(130)로 전달한다. 즉, 프로브는 치아 상태 표시 장치(100)와 유무선 연결될 수도 있다.
의사에 의해 이상이 의심되는 치아(10)의 잇몸(20)으로 프로브(30)가 삽입되어 프로브(30)에 의해 잇몸의 깊이가 측정되면, 제어부(130)는 프로브에 의해 측정된 잇몸의 깊이 및 두께를 차트에 자동으로 반영할 수도 있다.
이때, 프로브가 치아 상태 표시 장치(100)와 연결되지 않은 경우에는 의사의 음성을 인식하여 잇몸의 깊이 및 두께를 차트에 반영할 수도 있다.
마지막으로 디스플레이부(150)는 S500 단계에서 생성된 치아 모형 중 선택된 치아 모형을 디스플레이한다(S600).
이때, 디스플레이부(150)는 의사에 의해 선택되는 치아의 모형을 디스플레이하되, 환자의 이해도를 높이기 위해 2D 또는 3D 형태로 디스플레이할 수도 있다.
참고로, 상기 치아의 모형에 대해 애니메이션 효과를 제공하기 위해, 치아에 눈, 코, 입을 나타내어 의인화시킬 수도 있다. 예를 들어, 특정 치아에 출혈이 있는 경우, 2D 또는 3D 형태로 디스플레이되는 치아에서 피가 흐르고, 치아가 우는 형상을 애니메이션으로 나타낼 수 있는 것이다.
또한, 특정 치아가 손상이 된 상태라면, 특정 치아에 대일 밴드를 부착된 모습을 애니메이션으로 나타낼 수 있고, 특정 치아에 충치가 있다면 악마 형태의 작은 세균들이 나타나 특정 치아를 찌르는 애니메이션을 디스플레이할 수도 있을 것이다.
위와 같은 애니메이션 효과는 치아의 상태에 따라 그 정도를 다르게 표현할 수 있다. 예를 들어, 충치가 심한 경우에는 악마 형태의 작은 세균들이 더 많고, 출혈이 심한 경우에는 치아에서 나오는 눈물의 양이 더 많아질 수 있는 것이다. 상기 애니메이션 효과를 통해 환자에게 더 경각심을 불러일으킬 수 있고, 아이들의 흥미 역시 불러일으킬 수 있을 것이다.
이때, 환자의 나이에 따라 상기 애니메이션 효과의 유무가 달라질 수도 있을 것이다. 예를 들어, 환자의 나이가 15세 이하인 경우에만 애니메이션 효과가 나타나도록 설정할 수 있는 것이다. 이 경우, 환자의 나이대에 대응하는 치아의 평균 개수, 치아의 크기가 나타나는 상태에서, 해당 환자의 치아의 개수, 치아의 크기를 함께 나타내면서 환자의 치아가 제대로 나고 있는지 여부를 나타낼 수 있다.
또한, 어린이 환자들을 고려한 애니메이션으로서, 사탕 등 단 음식(제1 음식)을 먹는 과정에서, 치아에서 많은 세균들이 나오는 것을 디스플레이하고, 반대로 멸치 등 칼슘이 많은 음식(제2 음식)을 먹는 과정에서, 치아가 웃는 모습을 드러내는 것을 디스플레이할 수도 있다. 또한, 구체적으로 어린이의 나이에 따라 이빨의 개수, 이빨의 크기 등을 애니메이션상에서 달리할 수 있다.
또한, 본 발명의 다른 실시예에 의할 때, 어린이의 성별에 매칭하는 캐릭터(ex 로봇 캐릭터, 공주 인형 캐릭터 등)가 디스플레이되어, 건강한 치아를 위한 습관 등을 애니메이션으로 디스플레이할 수 있다.
본 발명의 실시 예에 따른 치아 상태 표시 장치(100)는 S500 단계에서 생성된 치아의 모형 및 진료 결과를 환자의 단말기(미도시)로 전송할 수도 있다.
상술한 바와 같이, 본 발명의 실시 예에 따른 AI 기반 음성인식을 이용한 치아 상태 표시 장치 및 그 방법은, 음성인식을 이용하여 의사의 음성을 인식하고 인식된 진료 내용이 환자 차트에 자동으로 반영되도록 함으로써, 의사의 진료 내용을 차트에 기록하기 위한 보조 인력을 감축시킬 수 있고 수기 기록시 발생할 수 있는 내용 누락 및 오기재의 위험률을 감소시킬 수 있는 효과가 있다.
또한 본 발명의 실시 예에 따르면, 차트에 기록된 치아의 상태를 환자의 실제 치아와 동일한 모양으로 디스플레이함으로써, 환자 본인의 치아 상태에 대한 직관적인 이해가 가능하도록 하여 의사와 환자 사이의 커뮤니케이션이 보다 원활해져 진료의 만족도를 향상시킬수 있는 효과가 있다.
또한 본 발명의 실시 예에 따르면, 의사의 음성과 동일한 음성만 인식하여 차트에 자동 반영함으로써 타인의 음성이나 주변 소음에 의해 의사의 음성이 오인식되는 확률을 저감시킬 수 있는 효과가 있다.
본 발명은 도면에 도시된 실시 예를 참고로 하여 설명되었으나 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.
100 : 치아 상태 표시 장치 110 : 음성입력부
120 : 음성인식부 130 : 제어부
140 : 저장부 150 : 디스플레이부

Claims (12)

  1. AI 기반 음성인식을 이용한 치아 상태 표시 장치에 있어서,
    치과 진료시 의사로부터 환자의 치아 상태에 대한 진단 음성을 입력받는 음성입력부;
    음성인식 알고리즘을 이용하여 상기 음성의 파형을 분석하고 분석된 음성을 문자로 변환하는 음성인식부;
    상기 변환된 문자를 해당 환자의 차트에 반영하고, 상기 차트에 반영된 치아 상태에 대응하여 치아 모형을 생성하는 제어부; 및
    상기 생성된 치아 모형 중 선택된 치아 모형을 디스플레이 하는 디스플레이부를 포함하고,
    상기 차트의 세로열에는 진단명이 나열되고, 가로열에는 치아의 위치별 순번이 나열되며, 상기 세로열에는 출혈을 의미하는 BOP, 잇몸의 파인 정도를 의미하는 PD, 마진을 의미하는 GM, 플라그를 의미하는 PLAQ, 치근 분기점을 의미하는 FURC이 포함되고,
    상기 치아는 가로 방향으로 3등분되고, 상기 3등분 각각에는 잇몸의 파인 정도를 나타내는 잇몸 상태선, 정상적인 상태에서 잇몸이 위치해야 하는 지점을 나타내는 기준선, 출혈 여부가 표시되며,
    상기 치아의 3등분 각각 마다 상기 잇몸의 파인 정도를 나타내는 0에서 15 사이의 숫자가 설정되고, 상기 치아의 3등분 중 가장 왼쪽 부분이 제1 숫자, 중앙 부분이 제2 숫자, 가장 오른쪽 부분이 제3 숫자로 표시되는 경우, 상기 가장 왼쪽 부분에는 상기 기준선보다 상대적으로 상기 제1 숫자만큼 높은 위치에 잇몸 상태선이 존재하고, 상기 가장 중앙 부분에는 상기 기준선보다 상대적으로 상기 제2 숫자만큼 높은 위치에 잇몸 상태선이 존재하며, 상기 가장 오른쪽 부분에는 상기 기준선보다 상대적으로 상기 제3 숫자만큼 높은 위치에 잇몸 상태선이 존재하고,
    상기 치아의 3등분 각각 마다 출혈이 없음을 나타내는 N 또는 출혈이 있음을 나타내는 Y가 표시되며,
    상기 디스플레이부는 상기 치아 모형에 대해 애니메이션 효과를 제공하고, 상기 애니메이션 효과의 유무는 상기 환자의 나이에 따라 달라지며, 상기 환자의 성별에 매칭하는 캐릭터가 디스플레이되고,
    특정 치아에 출혈이 있는 경우 2D 또는 3D 형태로 디스플레이되는 상기 특정 치아에서 피가 흐르고, 상기 특정 치아가 우는 형상을 애니메이션으로 디스플레이되며,
    상기 특정 치아가 손상이 된 상태인 경우 상기 특정 치아에 대일 밴드가 부착된 모습이 애니메이션으로 나타나고, 상기 특정 치아에 충치가 있는 경우 악마 형태의 작은 세균들이 나타나 상기 특정 치아를 찌르는 모습이 애니메이션으로 나타나며, 상기 특정 치아에 대한 충치가 심한 경우 상기 악마 형태의 작은 세균들이 더 많고, 상기 특정 치아에 대해 출혈이 심한 경우 상기 특정 치아에서 나오는 눈물의 양이 더 많아지며,
    상기 환자의 나이가 일정 나이 이하인 경우에만 상기 애니메이션이 디스플레이되고, 상기 환자의 나이대에 대응하는 치아의 평균 개수, 치아의 크기가 나타나는 상태에서 상기 환자의 치아의 개수, 상기 환자의 치아의 크기를 나타내면서 상기 환자의 치아가 제대로 나고 있는지 여부를 나타내며,
    단 음식에 해당하는 제1 음식을 먹는 과정에서, 상기 치아에서 많은 세균들이 나오는 모습이 디스플레이되고, 칼슘이 많은 음식에 해당하는 제2 음식을 먹는 과정에서 상기 치아가 웃는 모습이 디스플레이되며,
    상기 환자의 나이에 따라 치아의 개수, 치아의 크기 등이 상기 애니메이션 상에서 상이하고,
    상기 음성인식부는, 화자인식 알고리즘을 이용하여 상기 입력된 음성이 기 저장된 의사의 음성과 동일한 경우 상기 음성을 분석하며,
    상기 제어부는, 치아 위치, 진단명 및 치아 상태 중 적어도 하나 이상을 상기 차트에 반영하여 저장하고, 잇몸의 깊이를 측정하는 프로브(Probe)의 삽입이 감지되면, 상기 프로브에 의해 측정된 잇몸 깊이 및 두께를 상기 차트에 반영하며, 치아의 위치와 동일한 모양으로 생성하되, 상기 차트에 반영된 치아의 진단명 및 진단 상태와 동일하도록 상기 치아 모형을 생성하고,
    상기 음성인식 알고리즘은, 딥 러닝(Deep Learning) 또는 머신러닝(Machine Learning)을 이용하여 학습하는 인공지능(Artificial Intelligence)을 기반으로 각 나라의 치의학 용어를 인식하는 치아 상태 표시 장치.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. AI 기반 음성인식을 이용한 치아 상태 표시 장치에 의해 수행되는 치아 상태 표시 방법에 있어서,
    치과 진료시 의사로부터 환자의 치아 상태에 대한 진단 음성을 입력받는 단계;
    음성인식 알고리즘을 이용하여 상기 음성의 파형을 분석하고 분석된 음성을 문자로 변환하는 단계;
    상기 변환된 문자를 해당 환자의 차트에 반영하는 단계;
    상기 차트에 반영된 치아 상태에 대응하여 치아 모형을 생성하는 단계; 및
    상기 생성된 치아 모형 중 선택된 치아 모형을 디스플레이 하는 단계를 포함하고,
    상기 차트의 세로열에는 진단명이 나열되고, 가로열에는 치아의 위치별 순번이 나열되며, 상기 세로열에는 출혈을 의미하는 BOP, 잇몸의 파인 정도를 의미하는 PD, 마진을 의미하는 GM, 플라그를 의미하는 PLAQ, 치근 분기점을 의미하는 FURC이 포함되고,
    상기 치아는 가로 방향으로 3등분되고, 상기 3등분 각각에는 잇몸의 파인 정도를 나타내는 잇몸 상태선, 정상적인 상태에서 잇몸이 위치해야 하는 지점을 나타내는 기준선, 출혈 여부가 표시되며,
    상기 치아의 3등분 각각 마다 상기 잇몸의 파인 정도를 나타내는 0에서 15 사이의 숫자가 설정되고, 상기 치아의 3등분 중 가장 왼쪽 부분이 제1 숫자, 중앙 부분이 제2 숫자, 가장 오른쪽 부분이 제3 숫자로 표시되는 경우, 상기 가장 왼쪽 부분에는 상기 기준선보다 상대적으로 상기 제1 숫자만큼 높은 위치에 잇몸 상태선이 존재하고, 상기 가장 중앙 부분에는 상기 기준선보다 상대적으로 상기 제2 숫자만큼 높은 위치에 잇몸 상태선이 존재하며, 상기 가장 오른쪽 부분에는 상기 기준선보다 상대적으로 상기 제3 숫자만큼 높은 위치에 잇몸 상태선이 존재하고,
    상기 치아의 3등분 각각 마다 출혈이 없음을 나타내는 N 또는 출혈이 있음을 나타내는 Y가 표시되며,
    디스플레이부는 상기 치아 모형에 대해 애니메이션 효과를 제공하고, 상기 애니메이션 효과의 유무는 상기 환자의 나이에 따라 달라지며, 상기 환자의 성별에 매칭하는 캐릭터가 디스플레이되고,
    특정 치아에 출혈이 있는 경우 2D 또는 3D 형태로 디스플레이되는 상기 특정 치아에서 피가 흐르고, 상기 특정 치아가 우는 형상을 애니메이션으로 디스플레이되며,
    상기 특정 치아가 손상이 된 상태인 경우 상기 특정 치아에 대일 밴드가 부착된 모습이 애니메이션으로 나타나고, 상기 특정 치아에 충치가 있는 경우 악마 형태의 작은 세균들이 나타나 상기 특정 치아를 찌르는 모습이 애니메이션으로 나타나며, 상기 특정 치아에 대한 충치가 심한 경우 상기 악마 형태의 작은 세균들이 더 많고, 상기 특정 치아에 대해 출혈이 심한 경우 상기 특정 치아에서 나오는 눈물의 양이 더 많아지며,
    상기 환자의 나이가 일정 나이 이하인 경우에만 상기 애니메이션이 디스플레이되고, 상기 환자의 나이대에 대응하는 치아의 평균 개수, 치아의 크기가 나타나는 상태에서 상기 환자의 치아의 개수, 상기 환자의 치아의 크기를 나타내면서 상기 환자의 치아가 제대로 나고 있는지 여부를 나타내며,
    단 음식에 해당하는 제1 음식을 먹는 과정에서, 상기 치아에서 많은 세균들이 나오는 모습이 디스플레이되고, 칼슘이 많은 음식에 해당하는 제2 음식을 먹는 과정에서 상기 치아가 웃는 모습이 디스플레이되며,
    상기 환자의 나이에 따라 치아의 개수, 치아의 크기 등이 상기 애니메이션 상에서 상이하고,
    상기 치아 상태 표시 장치는 음성인식부를 통해, 화자인식 알고리즘을 이용하여 상기 입력된 음성이 기 저장된 의사의 음성과 동일한 경우 상기 음성을 분석하며,
    상기 치아 상태 표시 장치는, 치아 위치, 진단명 및 치아 상태 중 적어도 하나 이상을 상기 차트에 반영하여 저장하고, 잇몸의 깊이를 측정하는 프로브(Probe)의 삽입이 감지되면, 상기 프로브에 의해 측정된 잇몸 깊이 및 두께를 상기 차트에 반영하며, 치아의 위치와 동일한 모양으로 생성하되, 상기 차트에 반영된 치아의 진단명 및 진단 상태와 동일하도록 상기 치아 모형을 생성하고,
    상기 음성인식 알고리즘은, 딥 러닝(Deep Learning) 또는 머신러닝(Machine Learning)을 이용하여 학습하는 인공지능(Artificial Intelligence)을 기반으로 각 나라의 치의학 용어를 인식하는 치아 상태 표시 방법.

  8. 삭제
  9. 삭제
  10. 삭제
  11. 삭제
  12. 삭제
KR1020200166011A 2020-12-01 2020-12-01 Ai 기반 음성인식을 이용한 치아 상태 표시 장치 및 그 방법 KR102577953B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200166011A KR102577953B1 (ko) 2020-12-01 2020-12-01 Ai 기반 음성인식을 이용한 치아 상태 표시 장치 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200166011A KR102577953B1 (ko) 2020-12-01 2020-12-01 Ai 기반 음성인식을 이용한 치아 상태 표시 장치 및 그 방법

Publications (2)

Publication Number Publication Date
KR20220077313A KR20220077313A (ko) 2022-06-09
KR102577953B1 true KR102577953B1 (ko) 2023-09-15

Family

ID=81985704

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200166011A KR102577953B1 (ko) 2020-12-01 2020-12-01 Ai 기반 음성인식을 이용한 치아 상태 표시 장치 및 그 방법

Country Status (1)

Country Link
KR (1) KR102577953B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102649996B1 (ko) * 2023-07-04 2024-03-22 주식회사 덴컴 치과용 차트 통합 관리 서버 및 이를 이용한 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016500537A (ja) * 2012-10-31 2016-01-14 アルギリオス マルガリティス、デメトリオス 歯根膜ポケットの深さを測定するための歯根膜プローブ及びそれを使用する方法
US20180130558A1 (en) * 2008-11-12 2018-05-10 Softech, Inc. Dental charting system
KR102056480B1 (ko) 2018-12-10 2020-01-22 이치중 디지털 치과 진료 데이터 관리 방법 및 시스템

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101765240B1 (ko) * 2015-08-26 2017-08-04 주식회사 카이아이컴퍼니 치과 환자 행동조절을 위한 맞춤형 치료정보 제공 시스템 및 방법
KR20180009884A (ko) * 2016-07-20 2018-01-30 경희대학교 산학협력단 치과 진료 시스템, 치과 진료정보 제공방법, 이를 위한 컴퓨터프로그램 및 기록매체
KR102596430B1 (ko) * 2016-08-31 2023-10-31 삼성전자주식회사 화자 인식에 기초한 음성 인식 방법 및 장치
KR20180055234A (ko) * 2016-11-16 2018-05-25 (주)라우기술 음성을 이용한 치과진료 시스템
KR20180060362A (ko) * 2016-11-29 2018-06-07 이형철 치아 진단 및 치료 계획 시스템
KR20200120857A (ko) * 2019-04-14 2020-10-22 경희대학교 산학협력단 치과 검진 시스템 및 이를 이용한 치과 검진 정보 제공방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180130558A1 (en) * 2008-11-12 2018-05-10 Softech, Inc. Dental charting system
JP2016500537A (ja) * 2012-10-31 2016-01-14 アルギリオス マルガリティス、デメトリオス 歯根膜ポケットの深さを測定するための歯根膜プローブ及びそれを使用する方法
KR102056480B1 (ko) 2018-12-10 2020-01-22 이치중 디지털 치과 진료 데이터 관리 방법 및 시스템

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
허유경 외, "긴장 완화를 위한 어린이치과용 상호작용 애니메이션 생성 시스템", 한국융합신호처리학회논문지, 20(1):37-44. (2019.03.)

Also Published As

Publication number Publication date
KR20220077313A (ko) 2022-06-09

Similar Documents

Publication Publication Date Title
JP5154955B2 (ja) 口腔スキャニング用システムおよび方法
Flores-Mir et al. Lay person's perception of smile aesthetics in dental and facial views
KR102056480B1 (ko) 디지털 치과 진료 데이터 관리 방법 및 시스템
US20200000562A1 (en) Method for constructing a restoration
US20100035223A1 (en) Medical training apparatus
CN109166625B (zh) 一种牙齿虚拟编辑方法及系统
JP6869586B2 (ja) 増強現実を用いた歯磨きガイド情報の提供方法および装置
KR102577953B1 (ko) Ai 기반 음성인식을 이용한 치아 상태 표시 장치 및 그 방법
US20230026220A1 (en) Oral health assessment for generating a dental treatment plan
BR112020023692A2 (pt) método de análise de uma situação dentária real de um paciente e uso deste
Greenberg et al. A dental esthetic checklist for treatment planning in esthetic dentistry
BR112020023700A2 (pt) método de análise de uma situação dentária real de um paciente, dispositivo para implementação deste e uso deste
CN112451151A (zh) 一种利用混合现实技术的正畸检查评估方法
Calamia et al. The components of smile design: New York University smile evaluation form revisited, update 2015
Grist Basic guide to orthodontic dental nursing
CN115132346A (zh) 一种便携式口腔多病种检测、定位和输出个性化应对策略的方法和系统
KR102314564B1 (ko) 음성인식을 이용한 차트 관리 방법 및 이를 이용하는 장치
JP2023099629A (ja) 識別装置、スキャナシステム、識別方法、および識別用プログラム
US7452210B2 (en) Method and system for periodontal charting
JP2002083044A (ja) 歯科共同検査システム
Yumashev et al. The use of digital technologies for teaching dentistry
CN115240500A (zh) 一种正畸虚拟仿真教学系统
CN111446011B (zh) 一种牙周诊疗信息管理系统
Elaskary Advances in esthetic implant dentistry
JP2021015278A (ja) 歯科技能評価装置、及び歯科技能評価プログラム

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right