KR102473139B1 - 인공지능 기반의 임플란트 인식 시스템 및 그 방법 - Google Patents

인공지능 기반의 임플란트 인식 시스템 및 그 방법 Download PDF

Info

Publication number
KR102473139B1
KR102473139B1 KR1020200128149A KR20200128149A KR102473139B1 KR 102473139 B1 KR102473139 B1 KR 102473139B1 KR 1020200128149 A KR1020200128149 A KR 1020200128149A KR 20200128149 A KR20200128149 A KR 20200128149A KR 102473139 B1 KR102473139 B1 KR 102473139B1
Authority
KR
South Korea
Prior art keywords
implant
medical image
model
abutment
database
Prior art date
Application number
KR1020200128149A
Other languages
English (en)
Other versions
KR20220045589A (ko
Inventor
박찬수
Original Assignee
박찬수
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박찬수 filed Critical 박찬수
Priority to KR1020200128149A priority Critical patent/KR102473139B1/ko
Publication of KR20220045589A publication Critical patent/KR20220045589A/ko
Application granted granted Critical
Publication of KR102473139B1 publication Critical patent/KR102473139B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C8/00Means to be fixed to the jaw-bone for consolidating natural teeth or for fixing dental prostheses thereon; Dental implants; Implanting tools
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • G06N3/0427
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/005Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/258User interfaces for surgical systems providing specific settings for specific users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30052Implant; Prosthesis

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Surgery (AREA)
  • Business, Economics & Management (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Accounting & Taxation (AREA)
  • Veterinary Medicine (AREA)
  • Finance (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Pathology (AREA)
  • Urology & Nephrology (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)

Abstract

본 발명은 인공지능 기반의 임플란트 인식 시스템 및 그 방법에 관한 것이다.
본 발명에 따르면, 인공지능 기반의 임플란트 인식 시스템을 이용한 임플란트 인식 방법에 있어서, 복수의 사용자에 대하여 이전에 임플란트 식립된 임플란트 의료 영상 데이터와 해당 영상에 대한 정보 레이블을 이용하여 데이터베이스를 구축하는 단계, 치료 대상자의 임플란트 의료 영상을 촬영하고, 촬영된 임플란트 의료 영상을 전처리하는 단계, 상기 전처리된 임플란트 의료 영상을 기 생성된 임플란트 인식 모델에 적용하여 상기 임플란트 의료 영상에서 임플란트를 인식하고, 인식된 임플란트의 위치 데이터를 획득하는 단계, 상기 인식된 임플란트를 기 생성된 임플란트 식별 모델에 적용하여 상기 데이터 베이스에 저장된 임플란트와의 유사도를 연산하는 단계, 상기 유사도가 높은 순서대로 플란트의 정보 레이블을 추출하여 디스플레이하는 단계를 포함한다.
이와 같이 본 발명에 따르면, 구강 내 교합면 사진의 임플란트-지대주 연결 부위 및 치과 방사선 사진 내 임플란트 픽스처의 외형적 특징을 통해 해당 임플란트의 제조회사와 모델명을 신속하고 정확하게 파악할 수 있다. 또한, 구강 치료시 빠르고 적절한 대처가 가능하며 시간적 및 금전적 손실을 크게 줄일 수 있다.

Description

인공지능 기반의 임플란트 인식 시스템 및 그 방법{SYSTEM FOR RECOGNIZING IMPLANT BASED ON ARTIFICIAL INTELLIGENCE AND METHOD THEREOF}
본 발명은 인공지능 기반의 임플란트 인식 시스템 및 그 방법에 관한 것으로, 환자의 임플란트 의료영상을 인공지능으로 분석하기 위한 인공지능 기반의 임플란트 인식 시스템 및 그 방법에 관한 것이다.
치과용 임플란트 치료는 시술에 앞서서 환자의 골 상태에 적절한 임플란트의 치수, 종류, 위치, 배향 및 형상등을 결정하는 임플란트 플래닝 과정을 거치게 된다.
먼저 영상획득장비를 통해 X-ray, CT, MRI, 파노라마 등 환자의 턱과 치아 골의 양과 질 등을 파악할 수 있는 영상을 획득하고, 환자의 상태에 적합한 임플란트의 종류, 치수 등을 선택하여 위치나 배향, 형상 등을 소프트웨어 프로그램을 통해 시뮬레이션한다.
종래 치과용 임플란트 플래닝을 위한 소프트웨어 프로그램은 이러한 임플란트를 구성하는 객체들 중에서 픽스처를 먼저 선택, 위치시키도록 구현되어 있는 것이 대부분이다. 그러나, 실제 임플란트 식립 및 제작 시에는 크라운은 위치를 쉽게 이동하거나 회전하거나 깊이를 조절할 수 있는 부분이 아니기 때문에, 크라운의 위치를 먼저 조정한 후에 픽스처의 방향을 결정하는 경우가 많다. 픽스처의 위치를 먼저 지정할 경우, 크라운의 위치가 크라운이 파절되기 쉬운 위치나 크라운과 픽스처를 연결하는 지대주를 사용할 수 없는 위치가 나타나기 때문이다.
따라서, 이러한 임상에서의 과정을 그대로 임플란트 시뮬레이션 시에도 적용시켜 실제 임상에서 시술의 정확도를 높이고 안전하게 적용 가능한 임플란트 플래닝을 위한 소프트웨어 프로그램이 필요하다.
본 발명의 배경이 되는 기술은 대한민국 공개특허 제10-2020-0045852호(2020.05.06. 공개)에 개시되어 있다.
본 발명이 이루고자 하는 기술적 과제는 환자의 임플란트 의료영상을 인공지능으로 분석하기 위한 인공지능 기반의 임플란트 인식 시스템 및 그 방법을 제공하기 위한 것이다.
이러한 기술적 과제를 이루기 위한 본 발명의 실시 예에 따르면, 인공지능 기반의 임플란트 인식 시스템을 이용한 임플란트 인식 방법에 있어서, 복수의 사용자에 대하여 이전에 임플란트 식립된 임플란트 의료 영상 데이터와 해당 영상에 대한 정보 레이블을 이용하여 데이터베이스를 구축하는 단계, 치료 대상자의 임플란트 의료 영상을 촬영하고, 촬영된 임플란트 의료 영상을 전처리하는 단계, 상기 전처리된 임플란트 의료 영상을 기 생성된 임플란트 인식 모델에 적용하여 상기 임플란트 의료 영상에서 임플란트를 인식하고, 인식된 임플란트의 위치 데이터를 획득하는 단계, 상기 인식된 임플란트를 기 생성된 임플란트 식별 모델에 적용하여 상기 데이터 베이스에 저장된 임플란트와의 유사도를 연산하는 단계, 상기 유사도가 높은 순서대로 플란트의 정보 레이블을 추출하여 디스플레이하는 단계를 포함한다.
상기 정보 레이블은, 상기 임플란트의 모델명 및 종류를 포함하고, 대표 임플란트 의료 영상, 상기 임플란트 제조회사 정보, 상기 임플란트의 모델명, 상기 임플란트의 주요 특징, 상기 임플란트의 생산시작 연도, 생산 종료 연도, 상기 임플란트의 공식 호환 드라이버의 명칭 및 규격, 상기 임플란트의 비 공식 호환 드라이버의 명칭 및 규격, 상기 임플란트의 지대주 연결부위의 특징부 중에서 적어도 하나를 더 포함할 수 있다.
상기 촬영된 임플란트 의료 영상을 전처리하는 단계는, 히스토그램 평준화 모듈에 상기 임플란트 의료 영상을 입력하는 단계, 아래의 수학식을 이용하여 상기 촬영된 영상의 픽셀 출력 값을 전처리하는 단계를 포함할 수 있다.
Figure 112020104884427-pat00001
여기서, v: 촬영된 원본 영상의 픽셀 출력값(Pixel Intensity), h(v): 전처리 된 영상의 픽셀 출력값, cdf(v)는 해당 픽셀의 누적분포함수 값이고, cdfmin은 누적분포함수 최소값이고, M은 상기 임플란트 의료 영상의 가로 픽셀 수이고, N은 상기 임플란트 의료 영상의 세로 픽셀 수이며, L은 그레이 스케일 레벨을 나타낸다.
상기 임플란트 인식 모델은, 상기 데이터베이스를 딥러닝 알고리즘에 적용하여 학습하고, 임플란트 지대주의 위치를 구분하고, 해당 지대주의 위치를 직사각형태로 추출할 수 있다.
상기 임플란트 식별 모델은, 상기 데이터베이스와 상기 임플란트의 외형상 특징 정보를 딥러닝 알고리즘에 적용하여 학습하고, 직사각형태로 추출된 지대주에 해당하는 임플란트의 모델을 식별할 수 있다.
상기 임플란트의 외형상 특징 정보는, 상기 임플란트의 나사선 모양, 상기 나사선 끝의 모양, 상기 임플란트의 정점(apex)의 형태, 상기 나사선의 각도(taper angle), 말단 기재에서 지대주와 체결되는 부분의 모양, 체결부 모서리의 내각, 체결 부위의 색깔 및 상기 임플란트 지대주의 모양 중에서 어느 하나 이상을 포함할 수 있다.
상기 디스플레이하는 단계는, 상기 임플란트의 종류 또는 모델에 따른 보철물 재수복을 위해 필요한 지대주 추천 및 호환성 정보를 함께 디스플레이할 수 있다.
본 발명의 다른 실시예에 따르면, 임플란트를 인식하기 위한 인공지능 기반의 임플란트 인식 시스템에 있어서, 복수의 사용자에 대하여 이전에 임플란트 식립된 임플란트 의료 영상 데이터와 해당 영상에 대한 정보 레이블을 이용하여 데이터베이스를 구축하는 데이터베이스부, 치료 대상자의 임플란트 의료 영상을 촬영하고, 촬영된 임플란트 의료 영상을 전처리하는 전처리부, 상기 전처리된 임플란트 의료 영상을 기 생성된 임플란트 인식 모델에 적용하여 상기 임플란트 의료 영상에서 임플란트를 인식하고, 인식된 임플란트의 위치 데이터를 획득하는 데이터 획득부, 상기 인식된 임플란트를 기 생성된 임플란트 식별 모델에 적용하여 상기 데이터 베이스에 저장된 임플란트와의 유사도를 연산하는 연산부, 상기 유사도가 높은 순서대로 임플란트의 정보 레이블을 추출하여 디스플레이하는 디스플레이부를 포함한다.
이와 같이 본 발명에 따르면, 구강 내 교합면 사진의 임플란트-지대주 연결 부위 및 치과 방사선 사진 내 임플란트 픽스처의 외형적 특징을 통해 해당 임플란트의 제조회사와 모델명을 신속하고 정확하게 파악할 수 있다. 또한, 구강 치료시 빠르고 적절한 대처가 가능하며 시간적 및 금전적 손실을 크게 줄일 수 있다.
도 1은 본 발명의 실시예에 따른 임플란트 인식 시스템의 구성을 설명하기 위한 구성도이다.
도 2는 본 발명의 실시예에 따른 임플란트 인식 방법을 설명하기 위한 순서도이다.
도 3은 도 2의 S210 단계를 설명하기 위한 도면이다.
도 4는 도 2의 S230 단계를 설명하기 위한 도면이다.
도 5는 도 2의 S240 단계를 설명하기 위한 도면이다.
도 6은 도 2의 S250 단계를 설명하기 위한 도면이다.
도 7은 본 발명의 실시예에 따른 임플란트 인식 방법을 나타낸 예시도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시 예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
그러면 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.
도 1은 본 발명의 실시예에 따른 임플란트 인식 시스템의 구성을 설명하기 위한 구성도이다.
도 1에서 나타낸 것처럼, 본 발명의 실시예에 따른 임플란트 인식 시스템(100)은 데이터베이스부(110), 전처리부(120), 데이터 획득부(130), 연산부(140) 및 디스플레이부(150)를 포함한다.
먼저, 데이터베이스부(110)는 복수의 사용자에 대하여 이전에 임플란트가 식립된 임플란트 의료 영상과 해당 영상에 대한 정보 레이블을 이용하여 데이터베이스를 구축한다.
다음으로, 전처리부(120)는 치료 대상자의 임플란트 의료 영상을 촬영하고, 촬영된 임플란트 의료 영상을 전처리한다.
그리고, 데이터 획득부(130)는 전처리된 임플란트 의료 영상을 기 생성된 임플란트 인식 모델에 적용하여 임플란트 의료 영상에서 임플란트를 인식하고, 인식된 임플란트의 위치 데이터를 획득한다.
다음으로, 연산부(140)는 인식된 임플란트를 기 생성된 임플란트 식별 모델에 적용하여 데이터베이스에 저장된 임플란트와의 유사도를 연산한다.
그리고 디스플레이부(150)는 유사도가 높은 순서대로 임플란트의 정보 레이블을 추출하여 디스플레이한다.
이하에서는 도 2 내지 도 7을 이용하여 본 발명의 실시예에 따른 임플란트 인식 방법을 설명한다.
도 2는 본 발명의 실시예에 따른 임플란트 인식 방법을 설명하기 위한 순서도이다.
먼저, 임플란트 인식 시스템(100)은 복수의 사용자에 대하여 이전에 임플란트가 식립된 임플란트 의료 영상과 해당 영상에 대한 정보 레이블을 이용하여 데이터베이스부(110)를 구축한다(S210).
이때, 데이터베이스부(110)는 임플란트의 모델명 및 종류를 포함하고, 대표 임플란트 의료 영상, 임플란트 제조회사 정보, 임플란트의 모델명, 임플란트의 주요 특징, 임플란트의 생산시작 연도, 생산 종료 연도, 임플란트의 공식 호환 드라이버의 명칭 및 규격, 임플란트의 비 공식 호환 드라이버의 명칭 및 규격, 임플란트의 지대주 연결부위의 특징부 중에서 적어도 하나를 더 포함한다.
도 3은 도 2의 S210 단계를 설명하기 위한 도면이다.
즉, 도 3에서 나타낸 것과 같이, 데이터베이스부(110)는 임플란트 의료 영상 데이터와 해당 영상에 대한 정보 레이블을 포함한다.
다음으로, 전처리부(120)는 치료 대상자의 임플란트 의료 영상을 촬영하고, 촬영된 임플란트 의료 영상을 전처리한다(S220).
이때, 임플란트 의료 영상은 치료 대상자의 구강을 X-ray로 촬영한 파노라마 사진과 치근단 사진 또는 구강 내 교합면 사진을 의미한다.
그러면, 전처리부(120)는 히스토그램 평준화 모듈에 임플란트 의료 영상을 입력한다.
이때, 히스토그램 평준화 모듈은 명암 분포가 빈약한 영상을 명암 분포가 균일한 영상으로 제작하기 위한 모듈이며, 본 발명의 실시예에 따르면, 임플란트 의료 영상의 명암 분포를 조절하게 하기 위해 이용된다.
그러면, 전처리부(120)는 아래의 수학식 1을 이용하여 상기 촬영된 영상의 픽셀 출력 값을 전처리한다.
Figure 112020104884427-pat00002
여기서, v: 촬영된 원본 영상의 픽셀 출력값(Pixel Intensity), h(v): 전처리 된 영상의 픽셀 출력값, cdf(v)는 해당 픽셀의 누적분포함수 값이고, cdfmin은 누적분포함수 최소값이고, M은 상기 임플란트 의료 영상의 가로 픽셀 수이고, N은 상기 임플란트 의료 영상의 세로 픽셀 수이며, L은 그레이 스케일 레벨을 나타낸다.
다음으로, 데이터 획득부(130)는 전처리된 임플란트 의료 영상을 기 생성된 임플란트 인식 모델에 적용하여 임플란트 의료 영상에서 임플란트를 인식하고, 인식된 임플란트의 위치 데이터를 획득한다(S230).
여기서, 임플란트 인식 모델은 데이터베이스를 YOLOv4 딥러닝 알고리즘에 적용하여 학습한다.
이때, YOLOv4 딥러닝 알고리즘은 영상에 존재하는 객체 각각을 분류하는 딥러닝 알고리즘으로, 본 발명의 실시예에서는 임플란트 의료 영상에 존재하는 하나 이상의 임플란트 객체를 각각 분류하기 위해 사용된다.
그러면, 데이터 획득부(130)는 학습된 임플란트 인식 모델에 촬영된 임플란트 의료 영상을 적용하여 임플란트 지대주의 위치를 구분하고, 해당 지대주의 위치를 직사각형태로 추출한다.
도 4는 도 2의 S230 단계를 설명하기 위한 도면이다.
즉, 도 4의 a 내지 f에서 나타낸 것과 같이, 데이터 획득부(130)는 해당 지대주의 위치를 붉은색의 직사각형 형태로 추출한다.
이때, 데이터 획득부는 해당 지대주의 위치를 붉은색이 아닌 다른 색으로 변경하여 추출할 수 있다.
다음으로, 연산부(140)는 인식된 임플란트를 기 생성된 임플란트 식별 모델에 적용하여 데이터 베이스에 저장된 임플란트와의 유사도를 연산한다(S240).
이때, 임플란트 식별 모델은 데이터베이스와 임플란트의 외형상 특징 정보를 Inception-ResNet-v2 딥러닝 알고리즘에 적용하여 학습한다.
여기서, Inception-ResNet-v2 딥러닝 알고리즘은 시각적 이미지를 분석하기 위한 알고리즘으로, 본 발명의 실시예에서는, 유사도를 연산하기 위해 사용한다.
그러면, 연산부(140)는 직사각형태로 추출된 지대주에 해당하는 임플란트의 모델을 임플란트 식별 모델에 적용하여 데이터 베이스에 저장된 임플란트와의 유사도를 연산한다.
여기서, 임플란트의 외형상 특징 정보는 임플란트의 나사선 모양, 나사선 끝의 모양, 임플란트의 정점(apex)의 형태, 나사선의 각도(taper angle), 말단 기재에서 지대주와 체결되는 부분의 모양, 체결부 모서리의 내각, 체결 부위의 색깔 및 임플란트 지대주의 모양 중에서 어느 하나 이상을 포함한다.
도 5는 도 2의 S240 단계를 설명하기 위한 도면이다.
즉, 도 5의 a 내지 h에서 나타낸 것과 같이, 각각의 임플란트의 모델의 유사도를 연산하여 나타낸다.
다음으로, 디스플레이부(150)는 유사도가 높은 순서대로 임플란트의 정보 레이블을 추출하여 디스플레이한다(S250).
이때, 디스플레이부(150)는 임플란트의 종류 또는 모델에 따른 보철물 재수복을 위해 필요한 지대주 추천 및 호환성 정보를 함께 디스플레이한다.
도 6은 도 2의 S250 단계를 설명하기 위한 도면이다.
도 6에서 나타낸 것과 같이, 디스플레이부(150)는 디스플레이를 통해 의료진에게 해당 치료 대상자의 임플란트에 관한 정보를 제공한다.
도 7은 본 발명의 실시예에 따른 임플란트 인식 방법을 나타낸 예시도이다.
도 7에서 나타낸 것처럼, 임플란트 인식 시스템(100)은 1번 내지 3번을 통해 임플란트 인식 모델과 임플란트 식별 모델을 생성한다.
그러면, 임플란트 인식 시스템(100)은 치료 대상자의 임플란트 의료 영상을 입력받고(4), 입력된 임플란트 의료 영상을 각각 임플란트 인식 모델과 임플란트 식별 모델에 적용(5,6)하여 유사도가 높은 순서대로 임플란트의 정보 레이블을 추출한다.
그리고, 임플란트 인식 시스템(100)은 해당 유사도가 높은 순서대로 임플란트의 정보 레이블을 디스플레이(7)를 통해 의료진에게 제공한다.
이와 같이 본 발명의 실시예에 따르면, 구강 내 교합면 사진의 임플란트-지대주 연결 부위 및 치과 방사선 사진 내 임플란트 픽스처의 외형적 특징을 통해 해당 임플란트의 제조회사와 모델명을 신속하고 정확하게 파악할 수 있다. 또한, 구강 치료시 빠르고 적절한 대처가 가능하며 시간적 및 금전적 손실을 크게 줄일 수 있다.
본 발명은 도면에 도시된 실시 예를 참고로 설명되었으나 이는 예시적인 것이 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.
100: 임플란트 인식 시스템, 110: 데이터베이스부,
120: 전처리부, 130: 데이터 획득부,
140: 연산부, 150: 디스플레이부

Claims (14)

  1. 인공지능 기반의 임플란트 인식 시스템을 이용한 임플란트 인식 방법에 있어서,
    복수의 사용자에 대하여 임플란트 의료 영상 데이터와 해당 영상에 대한 정보 레이블을 이용하여 데이터베이스를 구축하는 단계,
    치료 대상자의 임플란트 의료 영상을 촬영하고, 촬영된 임플란트 의료 영상을 전처리하는 단계,
    상기 전처리된 임플란트 의료 영상을 기 생성된 임플란트 인식 모델에 적용하여 상기 임플란트 의료 영상에서 임플란트를 인식하고, 인식된 임플란트의 위치 데이터를 획득하는 단계,
    상기 인식된 임플란트를 기 생성된 임플란트 식별 모델에 적용하여 상기 데이터 베이스에 저장된 임플란트와의 유사도를 연산하는 단계,
    상기 유사도가 높은 순서대로 임플란트의 정보 레이블을 추출하여 디스플레이하는 단계를 포함하며,
    상기 정보 레이블은,
    상기 임플란트의 모델명 및 종류를 포함하고,
    대표 임플란트 의료 영상, 상기 임플란트 제조회사 정보, 상기 임플란트의 모델명, 상기 임플란트의 주요 특징, 상기 임플란트의 생산시작 연도, 생산 종료 연도, 상기 임플란트의 공식 호환 드라이버의 명칭 및 규격, 상기 임플란트의 비 공식 호환 드라이버의 명칭 및 규격, 상기 임플란트의 지대주 연결부위의 특징부 중에서 적어도 하나를 더 포함하고,
    상기 촬영된 임플란트 의료 영상을 전처리하는 단계는,
    히스토그램 평준화 모듈에 상기 임플란트 의료 영상을 입력하는 단계,
    아래의 수학식을 이용하여 상기 촬영된 영상의 픽셀 출력 값을 전처리하는 단계를 포함하며
    Figure 112022082540995-pat00012

    (여기서, v: 촬영된 원본 영상의 픽셀 출력값(Pixel In tensity), h(v): 전처리 된 영상의 픽셀 출력값, cdf(v)는 해당 픽셀 의 누적분포함수 값이고, cdfmin은 누적분포함수 최소 값이고, M은 상기 임플란트 의료 영상의 가로 픽셀 수이고, N은 상기 임플란트 의료 영상의 세로 픽셀 수이며, L은 그레이 스케일 레벨을 나타내며, round는 반올림을 나타내는 함수이다.)
    상기 인식된 임플란트의 위치 데이터를 획득하는 단계는,
    상기 전처리가 완료된 임플란트 의료 영상을 학습이 완료된 임플란트 인식 모델에 입력하여, 상기 임플란트 인식 모델로부터 임플란트 지주대 위치를 구분하여 해당되는 지주대의 위치를 직사각형 형태로 표시하여 출력하는 임플란트 인식 방법.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서,
    상기 임플란트 인식 모델은,
    상기 데이터베이스를 딥러닝 알고리즘에 적용하여 학습하고, 임플란트 지대주의 위치를 구분하고, 해당 지대주의 위치를 직사각형태로 추출하는 임플란트 인식 방법.
  5. 제4항에 있어서,
    상기 임플란트 식별 모델은,
    상기 데이터베이스와 상기 임플란트의 외형상 특징 정보를 딥러닝 알고리즘에 적용하여 학습하고, 직사각형태로 추출된 지대주에 해당하는 임플란트의 모델을 식별하는 임플란트 인식 방법.
  6. 제5항에 있어서,
    상기 임플란트의 외형상 특징 정보는,
    상기 임플란트의 나사선 모양, 상기 나사선 끝의 모양, 상기 임플란트의 정점(apex)의 형태, 상기 나사선의 각도(taper angle), 말단 기재에서 지대주와 체결되는 부분의 모양, 체결부 모서리의 내각, 체결 부위의 색깔 및 상기 임플란트 지대주의 모양 중에서 어느 하나 이상을 포함하는 임플란트 인식 방법.
  7. 제1항에 있어서,
    상기 디스플레이하는 단계는,
    상기 임플란트의 종류 또는 모델에 따른 보철물 재수복을 위해 필요한 지대주 추천 및 호환성 정보를 함께 디스플레이하는 임플란트 인식 방법.
  8. 인공지능 기반의 임플란트 인식 시스템에 있어서,
    복수의 사용자에 대하여 임플란트 의료 영상 데이터와 해당 영상에 대한 정보 레이블을 이용하여 데이터베이스를 구축하는 데이터베이스부,
    치료 대상자의 임플란트 의료 영상을 촬영하고, 촬영된 임플란트 의료 영상을 전처리하는 전처리부,
    상기 전처리된 임플란트 의료 영상을 기 생성된 임플란트 인식 모델에 적용하여 상기 임플란트 의료 영상에서 임플란트를 인식하고, 인식된 임플란트의 위치 데이터를 획득하는 데이터 획득부,
    상기 인식된 임플란트를 기 생성된 임플란트 식별 모델에 적용하여 상기 데이터 베이스에 저장된 임플란트와의 유사도를 연산하는 연산부,
    상기 유사도가 높은 순서대로 임플란트의 정보 레이블을 추출하여 디스플레이하는 디스플레이부를 포함하며,
    상기 정보 레이블은,
    상기 임플란트의 모델명 및 종류를 포함하고,
    대표 임플란트 의료 영상, 상기 임플란트 제조회사 정보, 상기 임플란트의 모델명, 상기 임플란트의 주요 특징, 상기 임플란트의 생산시작 연도, 생산 종료 연도, 상기 임플란트의 공식 호환 드라이버의 명칭 및 규격, 상기 임플란트의 비 공식 호환 드라이버의 명칭 및 규격, 상기 임플란트의 지대주 연결부위의 특징부 중에서 적어도 하나를 더 포함하고,
    상기 전처리부는,
    히스토그램 평준화 모듈에 상기 임플란트 의료 영상을 입력하는 단계,
    아래의 수학식을 이용하여 상기 촬영된 영상의 픽셀 출력 값을 전처리하는 단계를 포함하며,
    Figure 112022082540995-pat00013

    (여기서, v: 촬영된 원본 영상의 픽셀 출력값(Pixel In tensity), h(v): 전처리 된 영상의 픽셀 출력값, cdf(v)는 해당 픽셀 의 누적분포함수 값이고, cdfmin은 누적분포함수 최소 값이고, M은 상기 임플란트 의료 영상의 가로 픽셀 수이고, N은 상기 임플란트 의료 영상의 세로 픽셀 수이며, L은 그레이 스케일 레벨을 나타내며, round는 반올림을 나타내는 함수이다.)
    상기 데이터 획득부는,
    상기 전처리가 완료된 임플란트 의료 영상을 학습이 완료된 임플란트 인식 모델에 입력하여, 상기 임플란트 인식 모델로부터 임플란트 지주대 위치를 구분하여 해당되는 지주대의 위치를 직사각형 형태로 표시하여 출력하는 임플란트 인식 시스템.
  9. 삭제
  10. 삭제
  11. 제8항에 있어서,
    상기 임플란트 인식 모델은,
    상기 데이터베이스를 딥러닝 알고리즘에 적용하여 학습하고, 임플란트 지대주의 위치를 구분하고, 해당 지대주의 위치를 직사각형태로 추출하는 임플란트 인식 시스템.
  12. 제11항에 있어서,
    상기 임플란트 식별 모델은,
    상기 데이터베이스와 상기 임플란트의 외형상 특징 정보를 딥러닝 알고리즘에 적용하여 학습하고, 직사각형태로 추출된 지대주에 해당하는 임플란트의 모델을 식별하는 임플란트 인식 시스템.
  13. 제12항에 있어서,
    상기 임플란트의 외형상 특징 정보는,
    상기 임플란트의 나사선 모양, 상기 나사선 끝의 모양, 상기 임플란트의 정점(apex)의 형태, 상기 나사선의 각도(taper angle), 말단 기재에서 지대주와 체결되는 부분의 모양, 체결부 모서리의 내각, 체결 부위의 색깔 및 상기 임플란트 지대주의 모양 중에서 어느 하나 이상을 포함하는 임플란트 인식 시스템.
  14. 제8항에 있어서,
    상기 디스플레이부는,
    상기 임플란트의 종류 또는 모델에 따른 보철물 재수복을 위해 필요한 지대주 추천 및 호환성 정보를 함께 디스플레이하는 임플란트 인식 시스템.
KR1020200128149A 2020-10-05 2020-10-05 인공지능 기반의 임플란트 인식 시스템 및 그 방법 KR102473139B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200128149A KR102473139B1 (ko) 2020-10-05 2020-10-05 인공지능 기반의 임플란트 인식 시스템 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200128149A KR102473139B1 (ko) 2020-10-05 2020-10-05 인공지능 기반의 임플란트 인식 시스템 및 그 방법

Publications (2)

Publication Number Publication Date
KR20220045589A KR20220045589A (ko) 2022-04-13
KR102473139B1 true KR102473139B1 (ko) 2022-12-02

Family

ID=81215034

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200128149A KR102473139B1 (ko) 2020-10-05 2020-10-05 인공지능 기반의 임플란트 인식 시스템 및 그 방법

Country Status (1)

Country Link
KR (1) KR102473139B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102572623B1 (ko) * 2022-10-31 2023-09-01 (주)덴탈브릿지 치과 관련 컨텐츠를 공유 및 거래하기 위한 리워드 기반의 플랫폼 서비스를 제공하는 방법 및 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170340418A1 (en) * 2016-05-25 2017-11-30 Matthew Raanan System and method for dental implant recognition
US20190303712A1 (en) * 2016-12-19 2019-10-03 Loma Linda University Methods and systems for implant identification using imaging data

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170340418A1 (en) * 2016-05-25 2017-11-30 Matthew Raanan System and method for dental implant recognition
US20190303712A1 (en) * 2016-12-19 2019-10-03 Loma Linda University Methods and systems for implant identification using imaging data

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NXP, Histogram Equalization(2011.06.) 1부.*

Also Published As

Publication number Publication date
KR20220045589A (ko) 2022-04-13

Similar Documents

Publication Publication Date Title
US11810271B2 (en) Domain specific image quality assessment
CN111415419B (zh) 基于多源图像的牙体修复模型制作方法和系统
KR101839789B1 (ko) 치과 영상의 판독 데이터 생성 시스템
US20230068041A1 (en) Method and apparatus for generating orthodontic teeth arrangement shape
JP7152455B2 (ja) セグメンテーション装置および学習モデルの生成方法
CN113543742A (zh) 用于口内扫描的异物对象识别以及图像增强和/或滤波
US20220222910A1 (en) Method for generating a model of a dental arch
Poonsri et al. Teeth segmentation from dental x-ray image by template matching
CN114187293B (zh) 基于注意力机制和集成配准的口腔腭部软硬组织分割方法
KR102473139B1 (ko) 인공지능 기반의 임플란트 인식 시스템 및 그 방법
US20220361992A1 (en) System and Method for Predicting a Crown and Implant Feature for Dental Implant Planning
CA3200325A1 (en) Method for automatically detecting landmark in three-dimensional dental scan data, and computer-readable recording medium with program for executing same in computer recorded thereon
KR102372962B1 (ko) 자연 두부 위치에서 촬영된 3차원 cbct 영상에서 기계 학습 기반 치아 교정 진단을 위한 두부 계측 파라미터 도출방법
Pattanachai et al. Tooth recognition in dental radiographs via Hu's moment invariants
KR20200058316A (ko) 인공지능 기술을 활용한 치과용 두부 계측점 자동 추적 방법 및 그를 이용한 서비스 시스템
US20220378548A1 (en) Method for generating a dental image
Yeshua et al. Automatic detection and classification of dental restorations in panoramic radiographs
KR20200012707A (ko) 해부학적 랜드마크의 예측 방법 및 이를 이용한 디바이스
KR102448169B1 (ko) 딥러닝 기반 치아 교정치료 결과 예측 방법 및 장치
US11488305B2 (en) Segmentation device
CN116234518A (zh) 用于跟踪牙齿移动的方法
JP6481432B2 (ja) 眼底画像処理装置
KR102319251B1 (ko) 심혈관 시술 훈련을 위한 시술도구 트래킹 시스템
Huang et al. Computer-assisted orientation of dental periapical radiographs to the occlusal plane
EP4328861A2 (en) Jaw movements data generation apparatus, data generation method, and data generation program

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant