KR20220012991A - 치아 이미지 처리 방법, 장치, 전자 기기, 저장 매체 및 프로그램 - Google Patents

치아 이미지 처리 방법, 장치, 전자 기기, 저장 매체 및 프로그램 Download PDF

Info

Publication number
KR20220012991A
KR20220012991A KR1020227001270A KR20227001270A KR20220012991A KR 20220012991 A KR20220012991 A KR 20220012991A KR 1020227001270 A KR1020227001270 A KR 1020227001270A KR 20227001270 A KR20227001270 A KR 20227001270A KR 20220012991 A KR20220012991 A KR 20220012991A
Authority
KR
South Korea
Prior art keywords
tooth
pixel
instance
image
processed
Prior art date
Application number
KR1020227001270A
Other languages
English (en)
Inventor
창 리우
리앙 자오
Original Assignee
상하이 센스타임 인텔리전트 테크놀로지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN202011246718.0A external-priority patent/CN112308867B/zh
Application filed by 상하이 센스타임 인텔리전트 테크놀로지 컴퍼니 리미티드 filed Critical 상하이 센스타임 인텔리전트 테크놀로지 컴퍼니 리미티드
Publication of KR20220012991A publication Critical patent/KR20220012991A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 실시예는 치아 이미지 처리 방법, 장치, 전자 기기, 저장 매체 및 프로그램에 관한 것이고, 상기 방법은, 처리할 이미지에 대해 치아 인스턴스 분할을 수행하여, 상기 처리할 이미지의 치아 인스턴스 분할 결과를 획득하는 단계 - 하나의 치아 인스턴스는 하나의 치아에 대응되고, 상기 치아 인스턴스 분할 결과는 상기 처리할 이미지 중의 픽셀이 속하는 치아 인스턴스의 정보를 포함함 - ; 및 상기 치아 인스턴스 분할 결과에 기반하여 치아 위치 포지셔닝을 수행하여, 상기 처리할 이미지의 치아 위치 포지셔닝 결과를 획득하는 단계를 포함한다. 이와 같이, 본 발명의 실시예에서는 치아와 배경을 구분할 수 있을 뿐만 아니라 상이한 치아를 구분할 수 있는 치아 인스턴스 분할 결과에 기반하여 치아 위치 포지셔닝을 수행하여, 치아 위치 포지셔닝의 정확성을 향상시킬 수 있다.

Description

치아 이미지 처리 방법, 장치, 전자 기기, 저장 매체 및 프로그램
[관련 출원의 상호 참조]
본 발명은 출원번호가 202011246718.0이고, 출원일자가 2020년 11월 10일이며, 출원명칭이 “치아 이미지 처리 방법 및 장치, 전자 기기 및 저장 매체”인 중국특허출원을 기반으로 제출하였고, 상기 중국특허출원의 우선권을 주장하는 바, 상기 중국특허출원의 모든 내용은 참조로서 본 발명에 인용된다.
본 발명은 컴퓨터 비전 기술 분야에 관한 것이고, 특히 치아 이미지 처리 방법, 장치, 전자 기기, 저장 매체 및 프로그램에 관한 것이다.
콘 빔 컴퓨터 단층 촬영(Cone Beam Computed Tomography, CBCT)은 3차원 영상을 획득하는 방법이다. CBCT는 컴퓨터 단층 촬영(Computed Tomography, CT)에 비해 방사선량이 적고, 스캐닝 시간이 짧으며, 이미지 공간 해상도가 높은 장점이 있어 구강의학 분야에서 널리 적용되고 있다. CBCT 이미지에 대해 자동 치아 위치 포지셔닝을 수행하는 것은 구강의학 분야에서 매우 중요한 의미가 있다.
본 발명의 실시예는 치아 이미지 처리 방법, 장치, 전자 기기, 저장 매체 및 프로그램을 적어도 제공한다.
본 발명의 실시예는 치아 이미지 처리 방법을 제공하며, 상기 방법은 전자 기기에 의해 수행되고, 상기 방법은,
처리할 이미지에 대해 치아 인스턴스 분할을 수행하여, 상기 처리할 이미지의 치아 인스턴스 분할 결과를 획득하는 단계 - 하나의 치아 인스턴스는 하나의 치아에 대응되고, 상기 치아 인스턴스 분할 결과는 상기 처리할 이미지 중의 픽셀이 속하는 치아 인스턴스의 정보를 포함함 - ; 및
상기 치아 인스턴스 분할 결과에 기반하여 치아 위치 포지셔닝을 수행하여, 상기 처리할 이미지의 치아 위치 포지셔닝 결과를 획득하는 단계를 포함한다. 이와 같이, 처리할 이미지에 대해 치아 인스턴스 분할을 수행하여, 처리할 이미지의 치아 인스턴스 분할 결과를 획득하고, 치아 인스턴스 분할 결과에 기반하여 치아 위치 포지셔닝을 수행하여, 처리할 이미지의 치아 위치 포지셔닝 결과를 획득함으로써, 치아와 배경을 구분할 수 있을 뿐만 아니라 상이한 치아를 구분할 수 있는 치아 인스턴스 분할 결과에 기반하여 치아 위치 포지셔닝을 수행하여, 치아 위치 포지셔닝의 정확성을 향상시킬 수 있다.
본 발명의 일부 실시예에서, 상기 처리할 이미지에 대해 치아 인스턴스 분할을 수행하여, 상기 처리할 이미지의 치아 인스턴스 분할 결과를 획득하는 단계는, 상기 처리할 이미지의 복수의 픽셀에서, 상이한 치아 인스턴스에 속하는 픽셀 집합을 순차적으로 예측하여, 상기 처리할 이미지 중의 복수의 치아 인스턴스에 포함된 복수의 픽셀 집합의 예측 결과를 획득하는 단계; 및 상기 복수의 치아 인스턴스에 포함된 복수의 픽셀 집합의 예측 결과에 따라, 상기 처리할 이미지의 치아 인스턴스 분할 결과를 획득하는 단계를 포함한다. 이와 같이, 처리할 이미지의 복수의 픽셀에서, 상이한 치아 인스턴스에 속하는 픽셀 집합을 순차적으로 예측하여, 처리할 이미지 중의 복수의 치아 인스턴스에 포함된 복수의 픽셀 집합의 예측 결과를 획득하고, 복수의 치아 인스턴스에 포함된 복수의 픽셀 집합의 예측 결과에 따라, 처리할 이미지의 치아 인스턴스 분할 결과를 획득함으로써, 정확한 치아 인스턴스 분할 결과를 획득하고, CBCT 이미지 중의 노이즈 간섭, 흐릿한 치아 경계, 근접한 치근과 턱의 그레이 값 등 복잡한 상황에 효과적으로 대처할 수 있다.
본 발명의 일부 실시예에서, 상기 처리할 이미지의 복수의 픽셀에서, 상이한 치아 인스턴스에 속하는 픽셀 집합을 순차적으로 예측하여, 상기 처리할 이미지 중의 복수의 치아 인스턴스에 포함된 복수의 픽셀 집합의 예측 결과를 획득하는 단계는, 상기 처리할 이미지의 복수의 처리할 픽셀에서, 타깃 치아 인스턴스의 중심 픽셀을 예측하는 단계 - 상기 처리할 픽셀은 상기 처리할 이미지 중 어느 하나의 치아 인스턴스에 속하는 것으로 예측되지 않은 픽셀을 나타내고, 상기 타깃 치아 인스턴스는 현재 예측된 치아 인스턴스를 나타냄 - ; 및 상기 타깃 치아 인스턴스의 중심 픽셀의 좌표에 따라, 복수의 상기 처리할 픽셀에서 상기 타깃 치아 인스턴스에 속하는 픽셀 집합을 예측하여, 상기 타깃 치아 인스턴스에 포함된 픽셀 집합의 예측 결과를 획득하는 단계를 포함한다. 이와 같이, 처리할 이미지의 복수의 처리할 픽셀에서, 타깃 치아 인스턴스의 중심 픽셀을 예측하고, 타깃 치아 인스턴스의 중심 픽셀의 좌표에 따라, 복수의 처리할 픽셀에서 타깃 치아 인스턴스에 속하는 픽셀 집합을 예측하여, 타깃 치아 인스턴스에 포함된 픽셀 집합의 예측 결과를 획득함으로써, 획득한 어느 하나의 치아 인스턴스에 포함된 픽셀의 예측 결과의 정확성을 향상시킬 수 있다.
본 발명의 일부 실시예에서, 상기 처리할 이미지의 복수의 처리할 픽셀에서, 타깃 치아 인스턴스의 중심 픽셀을 예측하는 단계는, 상기 처리할 이미지의 복수의 처리할 픽셀에서, 치아 인스턴스 중심에 위치할 확률이 가장 큰 제1 픽셀을 결정하는 단계; 및 상기 제1 픽셀이 치아 인스턴스 중심에 위치할 확률이 제1 기설정 값보다 크거나 같을 경우, 상기 제1 픽셀을 상기 타깃 치아 인스턴스의 중심 픽셀로 예측하는 단계를 포함한다. 이와 같이, 처리할 이미지의 복수의 처리할 픽셀에서, 치아 인스턴스 중심에 위치할 확률이 가장 큰 제1 픽셀을 결정하고, 제1 픽셀이 치아 인스턴스 중심에 위치할 확률이 제1 기설정 값보다 크거나 같을 경우, 제1 픽셀을 타깃 치아 인스턴스의 중심 픽셀로 예측함으로써, 정확하게 치아 인스턴스의 중심 픽셀을 결정할 수 있어, 치아 인스턴스 분할을 정확하게 수행하는데 도움을 준다.
본 발명의 일부 실시예에서, 상기 제1 픽셀이 치아 인스턴스 중심에 위치할 확률이 제1 기설정 값보다 크거나 같을 경우, 상기 제1 픽셀을 상기 타깃 치아 인스턴스의 중심 픽셀로 예측하는 단계는, 복수의 상기 처리할 픽셀에서, 상기 치아 인스턴스 중심에 위치할 확률이 상기 제1 기설정 값보다 크거나 같은 픽셀 수가 제2 기설정 값보다 크거나 같고, 상기 제1 픽셀이 상기 치아 인스턴스 중심에 위치할 확률이 상기 제1 기설정 값보다 크거나 같을 경우, 상기 제1 픽셀을 타깃 치아 인스턴스의 중심 픽셀로 예측하는 단계를 포함한다. 이와 같이, 복수의 처리할 픽셀에서, 치아 인스턴스 중심에 위치할 확률이 제1 기설정 값보다 크거나 같은 픽셀 수가 제2 기설정 값보다 크거나 같고, 제1 픽셀이 치아 인스턴스 중심에 위치할 확률이 제1 기설정 값보다 크거나 같을 경우, 제1 픽셀을 타깃 치아 인스턴스의 중심 픽셀로 예측하고, 제1 픽셀에 기반하여 계속해서 예측하며; 복수의 처리할 픽셀에서, 치아 인스턴스 중심에 위치할 확률이 제1 기설정 값보다 크거나 같은 픽셀 수가 제2 기설정 값보다 작을 경우, 예측을 정지할 수 있어, 예측 효율 및 정확성을 향상시킬 수 있다.
본 발명의 일부 실시예에서, 상기 타깃 치아 인스턴스의 중심 픽셀의 좌표에 따라, 복수의 상기 처리할 픽셀에서 상기 타깃 치아 인스턴스에 속하는 픽셀 집합을 예측하는 단계는, 복수의 상기 처리할 픽셀 중의 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표를 결정하는 단계 - 상기 제2 픽셀은 복수의 상기 처리할 픽셀 중 어느 하나의 픽셀을 나타내고, 상기 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표는 상기 제2 픽셀에 기반하여 예측된 상기 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀의 좌표를 나타냄 - ; 상기 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표 및 상기 타깃 치아 인스턴스의 중심 픽셀의 좌표에 따라, 상기 제2 픽셀이 상기 타깃 치아 인스턴스의 중심에 속할 확률을 예측하는 단계; 및 상기 제2 픽셀이 상기 타깃 치아 인스턴스의 중심에 속할 확률에 따라, 복수의 상기 처리할 픽셀에서 상기 타깃 치아 인스턴스에 속하는 픽셀 집합을 예측하는 단계를 포함한다. 이와 같이, 복수의 처리할 픽셀 중의 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표를 결정하고, 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표 및 타깃 치아 인스턴스의 중심 픽셀의 좌표에 따라, 제2 픽셀이 타깃 치아 인스턴스의 중심에 속할 확률을 예측하며, 제2 픽셀이 타깃 치아 인스턴스의 중심에 속할 확률에 따라, 복수의 처리할 픽셀에서 타깃 치아 인스턴스에 속하는 픽셀 집합을 예측함으로써, 복수의 처리할 픽셀에서 타깃 치아 인스턴스에 속하는 픽셀을 정확하게 예측할 수 있다.
본 발명의 일부 실시예에서, 상기 복수의 상기 처리할 픽셀 중의 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표를 결정하는 단계는, 복수의 상기 처리할 픽셀 중의 제2 픽셀로부터 상기 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋을 결정하는 단계; 및 상기 제2 픽셀의 좌표 및 상기 제2 픽셀로부터 상기 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋에 따라, 상기 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표를 결정하는 단계를 포함한다. 이와 같이, 제2 픽셀의 좌표 및 제2 픽셀로부터 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋에 따라, 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표를 결정함으로써, 정확한 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표를 획득할 수 있다.
본 발명의 일부 실시예에서, 상기 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표 및 상기 타깃 치아 인스턴스의 중심 픽셀의 좌표에 따라, 상기 제2 픽셀이 상기 타깃 치아 인스턴스의 중심에 속할 확률을 예측하는 단계는, 상기 타깃 치아 인스턴스에 대응되는 클러스터링 파라미터를 예측하는 단계 - 상기 클러스터링 파라미터는 상기 타깃 치아 인스턴스의 중심 픽셀의 예측 좌표의 이산 정도를 나타내기 위한 것임 - ; 및 상기 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표, 상기 타깃 치아 인스턴스의 중심 픽셀의 좌표 및 상기 타깃 치아 인스턴스에 대응되는 클러스터링 파라미터에 따라, 상기 제2 픽셀이 상기 타깃 치아 인스턴스의 중심에 속할 확률을 예측하는 단계를 포함한다. 이와 같이, 타깃 치아 인스턴스에 대응되는 클러스터링 파라미터를 예측하고, 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표, 타깃 치아 인스턴스의 중심 픽셀의 좌표 및 타깃 치아 인스턴스에 대응되는 클러스터링 파라미터에 따라, 제2 픽셀이 타깃 치아 인스턴스의 중심에 속할 확률을 예측함으로써, 본 발명의 일부 실시예에서 제2 픽셀이 타깃 치아 인스턴스의 중심에 속할 예측 확률의 정확성을 향상시킬 수 있다.
본 발명의 일부 실시예에서, 상기 방법은, 상기 처리할 이미지를 제1 신경망에 입력하고, 상기 제1 신경망을 통해 상기 제2 픽셀로부터 상기 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋, 상기 제2 픽셀이 속하는 치아 인스턴스의 클러스터링 파라미터 및 상기 제2 픽셀이 치아 인스턴스 중심에 위치할 확률을 획득하는 단계를 더 포함한다. 이와 같이, 제1 신경망을 통해 처리할 이미지를 처리함으로써, 획득한 예측 오프셋, 클러스터링 파라미터 및 픽셀이 치아 인스턴스 중심에 위치할 확률의 정확성을 향상시킬 수 있고, 예측 오프셋, 클러스터링 파라미터 및 픽셀이 치아 인스턴스 중심에 위치할 확률을 획득하는 속도를 향상시킬 수 있다.
본 발명의 일부 실시예에서, 상기 제1 신경망은 제1 디코더 및 제2 디코더를 포함하며; 상기 처리할 이미지를 제1 신경망에 입력하고, 상기 제1 신경망을 통해 상기 제2 픽셀로부터 상기 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋, 상기 제2 픽셀이 속하는 치아 인스턴스의 클러스터링 파라미터 및 상기 제2 픽셀이 치아 인스턴스 중심에 위치할 확률을 획득하는 단계는, 상기 처리할 이미지를 제1 신경망에 입력하고, 상기 제1 디코더를 통해 상기 제2 픽셀로부터 상기 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋 및 상기 제2 픽셀이 속하는 치아 인스턴스의 클러스터링 파라미터를 획득하며, 상기 제2 디코더를 통해 상기 제2 픽셀이 치아 인스턴스 중심에 위치할 확률을 획득하는 단계를 포함한다. 이와 같이, 본 발명의 일부 실시예에서 획득한 예측 오프셋, 클러스터링 파라미터 및 픽셀이 치아 인스턴스 중심에 위치할 확률의 정확성을 향상시킬 수 있다.
본 발명의 일부 실시예에서, 상기 처리할 이미지를 제1 신경망에 입력하는 단계 이전에, 상기 방법은, 트레이닝 이미지를 상기 제1 신경망에 입력하고, 상기 제1 신경망을 통해 상기 트레이닝 이미지 중의 제3 픽셀로부터 상기 제3 픽셀이 속하는 제1 치아 인스턴스의 중심 픽셀까지의 예측 오프셋, 상기 제1 치아 인스턴스에 대응되는 클러스터링 파라미터 및 상기 제3 픽셀이 치아 인스턴스 중심에 위치할 확률을 획득하는 단계 - 상기 제3 픽셀은 상기 트레이닝 이미지 중 어느 하나의 픽셀을 나타내고, 상기 제1 치아 인스턴스는 상기 제3 픽셀이 속하는 치아 인스턴스를 나타냄 - ; 상기 제3 픽셀의 좌표 및 상기 제3 픽셀로부터 상기 제1 치아 인스턴스의 중심 픽셀까지의 예측 오프셋에 따라, 상기 제3 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표를 결정하는 단계 - 상기 제3 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표는 상기 제3 픽셀에 기반하여 예측된 상기 제1 치아 인스턴스의 중심 픽셀의 좌표를 나타냄 - ; 상기 제3 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표, 상기 제1 치아 인스턴스에 속하는 상이한 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표 및 상기 제1 치아 인스턴스에 대응되는 클러스터링 파라미터에 따라, 상기 제3 픽셀이 상기 제1 치아 인스턴스의 중심에 속할 확률을 결정하는 단계; 및 상기 제3 픽셀이 치아 인스턴스 중심에 위치할 확률, 상기 제3 픽셀이 상기 제1 치아 인스턴스의 중심에 속할 확률 및 상기 제3 픽셀이 치아 내부에 속할 참값에 따라, 상기 제1 신경망을 트레이닝하는 단계를 더 포함한다. 이와 같이, 제1 신경망을 트레이닝함으로써, 제1 신경망이 치아 이미지 중 상이한 치아 인스턴스를 분할하는 능력을 학습할 수 있도록 한다. 상기 구현 방식을 통해 트레이닝하여 획득한 제1 신경망을 이용하여 치아 인스턴스 분할을 수행함으로써, 복잡한 장면에서 안정적이고 정확한 치아 인스턴스 분할 결과를 획득할 수 있는 바, 예를 들어, CBCT 이미지 중 치아 그레이 분포가 균일하기 않고, 치아 경계가 흐릿하며, 일반 형태의 치아가 아니고, 치아 내부 저밀도 섀도우 등 상황에 대처할 수 있다.
본 발명의 일부 실시예에서, 상기 치아 인스턴스 분할 결과에 기반하여 치아 위치 포지셔닝을 수행하여, 상기 처리할 이미지의 치아 위치 포지셔닝 결과를 획득하는 단계는, 상기 치아 인스턴스 분할 결과 중의 제2 치아 인스턴스에 포함된 픽셀이 속하는 치아 위치 카테고리를 예측하는 단계 - 상기 제2 치아 인스턴스는 상기 치아 인스턴스 분할 결과 중 어느 하나의 치아 인스턴스를 나타냄 - ; 및 상기 제2 치아 인스턴스에 포함된 픽셀이 속하는 치아 위치 카테고리에 따라, 상기 제2 치아 인스턴스가 속하는 치아 위치 카테고리를 결정하는 단계를 포함한다. 이와 같이, 치아 인스턴스 분할 결과 중의 제2 치아 인스턴스에 포함된 픽셀이 속하는 치아 위치 카테고리를 예측하고, 제2 치아 인스턴스에 포함된 픽셀이 속하는 치아 위치 카테고리에 따라, 제2 치아 인스턴스가 속하는 치아 위치 카테고리를 결정함으로써, 상기 제2 치아 인스턴스가 속하는 치아 위치 카테고리를 정확하게 결정할 수 있다.
본 발명의 일부 실시예에서, 상기 처리할 이미지에 대해 치아 인스턴스 분할을 수행하는 단계 이전에, 상기 방법은, 분할할 이미지를 제1 해상도로 다운 샘플링하여, 제1 이미지를 획득하는 단계; 및 상기 제1 이미지에 따라, 상기 처리할 이미지를 획득하는 단계를 더 포함하고; 상기 처리할 이미지의 치아 인스턴스 분할 결과를 획득하는 단계 이후에, 상기 방법은, 상기 분할할 이미지에 따라, 제2 이미지를 획득하는 단계 - 상기 제2 이미지의 해상도는 제2 해상도이고, 상기 제2 해상도는 상기 제1 해상도보다 높음 - ; 상기 치아 인스턴스 분할 결과 중의 제3 치아 인스턴스의 중심 픽셀의 좌표에 따라, 상기 제2 이미지에서, 상기 제3 치아 인스턴스에 대응되는 이미지를 컷팅하는 단계 - 상기 제3 치아 인스턴스는 상기 치아 인스턴스 분할 결과 중 어느 하나의 치아 인스턴스를 나타냄 - ; 및 상기 제3 치아 인스턴스에 대응되는 이미지를 분할하여, 상기 제2 해상도에서 상기 제3 치아 인스턴스의 분할 결과를 획득하는 단계를 더 포함한다. 이와 같이, 먼저 낮은 해상도에서 치아 인스턴스 분할 및 치아 위치 포지셔닝을 빠르게 수행할 수 있고, 높은 해상도에서 각각의 치아 인스턴스의 분할 결과를 획득할 수 있다.
본 발명의 일부 실시예에서, 상기 처리할 이미지에 대해 치아 인스턴스 분할을 수행하는 단계 이전에, 상기 방법은, 분할할 이미지에 따라 상하 치아 분할을 수행하여, 상기 분할할 이미지 중의 관심 영역을 결정하는 단계; 및 상기 관심 영역에 따라, 상기 분할할 이미지를 컷팅하여, 상기 처리할 이미지를 획득하는 단계를 더 포함한다. 이와 같이, 획득한 처리할 이미지는 분할할 이미지 중의 대부분의 치아 정보를 유지할 수 있고, 분할할 이미지 중의 대부분의 관련 없는 정보(예를 들어 배경 정보)를 제거할 수 있어, 치아 인스턴스 분할, 치아 위치 포지셔닝 등을 후속 수행하는 효율 및 정확성에 도움을 준다.
이하, 장치, 전자 기기 등의 효과에 대한 설명은 상기 방법의 설명을 참조한다.
본 발명의 실시예는 치아 이미지 처리 장치를 더 제공하고, 상기 장치는,
처리할 이미지에 대해 치아 인스턴스 분할을 수행하여, 상기 처리할 이미지의 치아 인스턴스 분할 결과를 획득하도록 구성되는 치아 인스턴스 분할 모듈 - 하나의 치아 인스턴스는 하나의 치아에 대응되고, 상기 치아 인스턴스 분할 결과는 상기 처리할 이미지 중의 픽셀이 속하는 치아 인스턴스의 정보를 포함함 - ; 및
상기 치아 인스턴스 분할 결과에 기반하여 치아 위치 포지셔닝을 수행하여, 상기 처리할 이미지의 치아 위치 포지셔닝 결과를 획득하도록 구성되는 치아 위치 포지셔닝 모듈을 포함한다.
본 발명의 일부 실시예에서, 상기 치아 인스턴스 분할 모듈은, 상기 처리할 이미지의 복수의 픽셀에서, 상이한 치아 인스턴스에 속하는 픽셀 집합을 순차적으로 예측하여, 상기 처리할 이미지 중의 복수의 치아 인스턴스에 포함된 복수의 픽셀 집합의 예측 결과를 획득하고; 상기 복수의 치아 인스턴스에 포함된 복수의 픽셀 집합의 예측 결과에 따라, 상기 처리할 이미지의 치아 인스턴스 분할 결과를 획득하도록 구성된다.
본 발명의 일부 실시예에서, 상기 치아 인스턴스 분할 모듈은, 상기 처리할 이미지의 복수의 처리할 픽셀에서, 타깃 치아 인스턴스의 중심 픽셀을 예측하고 - 상기 처리할 픽셀은 상기 처리할 이미지 중 어느 하나의 치아 인스턴스에 속하는 것으로 예측되지 않은 픽셀을 나타내고, 상기 타깃 치아 인스턴스는 현재 예측된 치아 인스턴스를 나타냄 - ; 상기 타깃 치아 인스턴스의 중심 픽셀의 좌표에 따라, 복수의 상기 처리할 픽셀에서 상기 타깃 치아 인스턴스에 속하는 픽셀 집합을 예측하여, 상기 타깃 치아 인스턴스에 포함된 픽셀 집합의 예측 결과를 획득하도록 구성된다.
본 발명의 일부 실시예에서, 상기 치아 인스턴스 분할 모듈은, 상기 처리할 이미지의 복수의 처리할 픽셀에서, 치아 인스턴스 중심에 위치할 확률이 가장 큰 제1 픽셀을 결정하고; 상기 제1 픽셀이 치아 인스턴스 중심에 위치할 확률이 제1 기설정 값보다 크거나 같을 경우, 상기 제1 픽셀을 상기 타깃 치아 인스턴스의 중심 픽셀로 예측하도록 구성된다.
본 발명의 일부 실시예에서, 상기 치아 인스턴스 분할 모듈은, 복수의 상기 처리할 픽셀에서, 상기 치아 인스턴스 중심에 위치할 확률이 상기 제1 기설정 값보다 크거나 같은 픽셀 수가 제2 기설정 값보다 크거나 같고, 상기 제1 픽셀이 상기 치아 인스턴스 중심에 위치할 확률이 상기 제1 기설정 값보다 크거나 같을 경우, 상기 제1 픽셀을 상기 타깃 치아 인스턴스의 중심 픽셀로 예측하도록 구성된다.
본 발명의 일부 실시예에서, 상기 치아 인스턴스 분할 모듈은, 복수의 상기 처리할 픽셀 중의 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표를 결정하고 - 상기 제2 픽셀은 복수의 상기 처리할 픽셀 중 어느 하나의 픽셀을 나타내고, 상기 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표는 상기 제2 픽셀에 기반하여 예측된 상기 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀의 좌표를 나타냄 - ; 상기 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표 및 상기 타깃 치아 인스턴스의 중심 픽셀의 좌표에 따라, 상기 제2 픽셀이 상기 타깃 치아 인스턴스의 중심에 속할 확률을 예측하고; 상기 제2 픽셀이 상기 타깃 치아 인스턴스의 중심에 속할 확률에 따라, 복수의 상기 처리할 픽셀에서 상기 타깃 치아 인스턴스에 속하는 픽셀 집합을 예측하도록 구성된다.
본 발명의 일부 실시예에서, 상기 치아 인스턴스 분할 모듈은, 복수의 상기 처리할 픽셀 중의 제2 픽셀로부터 상기 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋을 결정하고; 상기 제2 픽셀의 좌표 및 상기 제2 픽셀로부터 상기 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋에 따라, 상기 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표를 결정하도록 구성된다.
본 발명의 일부 실시예에서, 상기 치아 인스턴스 분할 모듈은, 상기 타깃 치아 인스턴스에 대응되는 클러스터링 파라미터를 예측하고 - 상기 클러스터링 파라미터는 상기 타깃 치아 인스턴스의 중심 픽셀의 예측 좌표의 이산 정도를 나타내기 위한 것임 - ; 상기 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표, 상기 타깃 치아 인스턴스의 중심 픽셀의 좌표 및 상기 타깃 치아 인스턴스에 대응되는 클러스터링 파라미터에 따라, 상기 제2 픽셀이 상기 타깃 치아 인스턴스의 중심에 속할 확률을 예측하도록 구성된다.
본 발명의 일부 실시예에서, 상기 장치는,
상기 처리할 이미지를 제1 신경망에 입력하고, 상기 제1 신경망을 통해 상기 제2 픽셀로부터 상기 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋, 상기 제2 픽셀이 속하는 치아 인스턴스의 클러스터링 파라미터 및 상기 제2 픽셀이 치아 인스턴스 중심에 위치할 확률을 획득하도록 구성되는 제1 예측 모듈을 더 포함한다.
본 발명의 일부 실시예에서, 상기 제1 신경망은 제1 디코더 및 제2 디코더를 포함하며;
상기 제1 예측 모듈은, 상기 처리할 이미지를 제1 신경망에 입력하고, 상기 제1 디코더를 통해 상기 제2 픽셀로부터 상기 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋 및 상기 제2 픽셀이 속하는 치아 인스턴스의 클러스터링 파라미터를 획득하며, 상기 제2 디코더를 통해 상기 제2 픽셀이 치아 인스턴스 중심에 위치할 확률을 획득하도록 구성된다.
본 발명의 일부 실시예에서, 상기 장치는,
트레이닝 이미지를 상기 제1 신경망에 입력하고, 상기 제1 신경망을 통해 상기 트레이닝 이미지 중의 제3 픽셀로부터 상기 제3 픽셀이 속하는 제1 치아 인스턴스의 중심 픽셀까지의 예측 오프셋, 상기 제1 치아 인스턴스에 대응되는 클러스터링 파라미터 및 상기 제3 픽셀이 치아 인스턴스 중심에 위치할 확률을 획득하도록 구성되는 제2 예측 모듈 - 상기 제3 픽셀은 상기 트레이닝 이미지 중 어느 하나의 픽셀을 나타내고, 상기 제1 치아 인스턴스는 상기 제3 픽셀이 속하는 치아 인스턴스를 나타냄 - ;
상기 제3 픽셀의 좌표 및 상기 제3 픽셀로부터 상기 제1 치아 인스턴스의 중심 픽셀까지의 예측 오프셋에 따라, 상기 제3 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표를 결정하도록 구성되는 제1 결정 모듈 - 상기 제3 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표는 상기 제3 픽셀에 기반하여 예측된 상기 제1 치아 인스턴스의 중심 픽셀의 좌표를 나타냄 - ;
상기 제3 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표, 상기 제1 치아 인스턴스에 속하는 상이한 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표 및 상기 제1 치아 인스턴스에 대응되는 클러스터링 파라미터에 따라, 상기 제3 픽셀이 상기 제1 치아 인스턴스의 중심에 속할 확률을 결정하도록 구성되는 제2 결정 모듈; 및
상기 제3 픽셀이 치아 인스턴스 중심에 위치할 확률, 상기 제3 픽셀이 상기 제1 치아 인스턴스의 중심에 속할 확률 및 상기 제3 픽셀이 치아 내부에 속할 참값에 따라, 상기 제1 신경망을 트레이닝하도록 구성되는 트레이닝 모듈을 더 포함한다.
본 발명의 일부 실시예에서, 상기 치아 위치 포지셔닝 모듈은, 상기 치아 인스턴스 분할 결과 중의 제2 치아 인스턴스에 포함된 픽셀이 속하는 치아 위치 카테고리를 예측하고 - 상기 제2 치아 인스턴스는 상기 치아 인스턴스 분할 결과 중 어느 하나의 치아 인스턴스를 나타냄 - ; 상기 제2 치아 인스턴스에 포함된 픽셀이 속하는 치아 위치 카테고리에 따라, 상기 제2 치아 인스턴스가 속하는 치아 위치 카테고리를 결정하도록 구성된다.
본 발명의 일부 실시예에서, 상기 장치는,
분할할 이미지를 제1 해상도로 다운 샘플링하여, 제1 이미지를 획득하고; 상기 제1 이미지에 따라, 상기 처리할 이미지를 획득하도록 구성되는 다운 샘플링 모듈;
상기 분할할 이미지에 따라, 제2 이미지를 획득하도록 구성되는 제3 결정 모듈 - 상기 제2 이미지의 해상도는 제2 해상도이고, 상기 제2 해상도는 상기 제1 해상도보다 높음 - ;
상기 치아 인스턴스 분할 결과 중의 제3 치아 인스턴스의 중심 픽셀의 좌표에 따라, 상기 제2 이미지에서, 상기 제3 치아 인스턴스에 대응되는 이미지를 컷팅하도록 구성되는 제1 컷팅 모듈 - 상기 제3 치아 인스턴스는 상기 치아 인스턴스 분할 결과 중 어느 하나의 치아 인스턴스를 나타냄 - ; 및
상기 제3 치아 인스턴스에 대응되는 이미지를 분할하여, 상기 제2 해상도에서 상기 제3 치아 인스턴스의 분할 결과를 획득하도록 구성되는 제1 분할 모듈을 더 포함한다.
본 발명의 일부 실시예에서, 상기 장치는,
분할할 이미지에 따라 상하 치아 분할을 수행하여, 상기 분할할 이미지 중의 관심 영역을 결정하도록 구성되는 제2 분할 모듈; 및
상기 관심 영역에 따라, 상기 분할할 이미지를 컷팅하여, 상기 처리할 이미지를 획득하도록 구성되는 제2 컷팅 모듈을 더 포함한다.
본 발명의 실시예는 전자 기기를 더 제공하며, 상기 전자 기기는 하나 이상의 프로세서; 및 실행 가능한 명령을 저장하도록 구성되는 메모리를 포함하고; 상기 하나 이상의 프로세서는 상기 메모리에 저장된 실행 가능한 명령을 호출하도록 구성되어, 상기 방법을 수행한다.
본 발명의 실시예는 컴퓨터 프로그램 명령이 저장되는 컴퓨터 판독 가능 저장 매체를 더 제공하며, 상기 컴퓨터 프로그램 명령이 프로세서에 의해 실행될 경우 상기 방법을 구현한다.
본 발명의 실시예는 컴퓨터 프로그램을 더 제공하며, 상기 컴퓨터 프로그램은 컴퓨터 판독 가능 코드를 포함하고, 상기 컴퓨터 판독 가능 코드가 전자 기기에서 실행될 경우, 상기 전자 기기의 프로세서는 상기 어느 하나의 실시예에 따른 치아 이미지 처리 방법을 구현한다.
본 발명의 실시예에서 제공되는 치아 이미지 처리 방법, 장치, 기기, 저장 매체 및 프로그램은, 처리할 이미지에 대해 치아 인스턴스 분할을 수행하여, 처리할 이미지의 치아 인스턴스 분할 결과를 획득하고, 치아 인스턴스 분할 결과에 기반하여 치아 위치 포지셔닝을 수행하여, 처리할 이미지의 치아 위치 포지셔닝 결과를 획득함으로써, 치아와 배경을 구분할 수 있을 뿐만 아니라 상이한 치아를 구분할 수 있는 치아 인스턴스 분할 결과에 기반하여 치아 위치 포지셔닝을 수행하여, 치아 위치 포지셔닝의 정확성을 향상시킬 수 있다.
위의 일반적인 설명 및 다음의 상세한 설명은 본 발명을 제한하는 것이 아니라 단지 예시적이고 설명적인 것임을 이해해야 한다.
아래의 첨부 도면을 참조하여 예시적인 실시예를 상세히 설명하면, 본 발명의 다른 특징 및 측면이 명확해질 것이다.
여기서의 도면은 명세서에 병합되어 본 명세서의 일부분을 구성하고, 이러한 도면은 본 발명에 부합되는 실시예를 나타내며, 명세서와 함께 본 발명의 기술적 해결 수단을 설명하기 위한 것이다.
도 1은 본 발명의 실시예에서 제공되는 치아 이미지 처리 방법의 응용 장면의 모식도를 도시한다.
도 2는 본 발명의 실시예에서 제공되는 치아 이미지 처리 방법의 흐름 모식도를 도시한다.
도 3은 본 발명의 실시예에서 제공되는 처리할 이미지의 치아 인스턴스 분할 결과의 모식도를 도시한다.
도 4는 본 발명의 실시예에 따른 치아 이미지 처리 방법이 적용될 수 있는 시스템 아키텍처 모식도를 도시한다.
도 5는 본 발명의 실시예에서 제공되는 하이라이트 아티팩트 및 치아 결손이 존재하는 CBCT 횡단면 이미지의 모식도를 도시한다.
도 6은 본 발명의 실시예에서 제공되는 치아 이미지 처리 장치(600)의 블록도를 도시한다.
도 7은 본 발명의 실시예에서 제공되는 전자 기기(700)의 블록도를 도시한다.
도 8은 본 발명의 실시예에서 제공되는 전자 기기(1900)의 블록도를 도시한다.
이하 도면을 참조하여 본 발명의 다양한 예시적 실시예, 특징 및 양태를 상세히 설명한다. 도면에서 도면 부호는 기능이 동일하거나 유사한 소자를 가리킨다. 도면에서 실시예의 다양한 양태를 도시하지만, 달리 지정되지 않는 한, 본 발명이 도면의 비율에 의해 한정되지 않는다.
여기서 사용된 단어 “예시적”은 “예, 실시예 또는 설명적"인 의미이다. "예시적"으로 설명되는 어떠한 실시예는 다른 실시예보다 우수하거나 더 나은 것으로 해석될 필요는 없다.
본문의 용어 “및/또는"은 단지 관련 객체를 설명하는 연관 관계일 뿐, 3가지 관계가 존재할 수 있음을 의미한다, 예를 들어, A 및/또는 B는, A만 존재, A와 B가 동시에 존재, B만 존재하는 3가지 경우를 의미한다. 이 밖에, 본문에서 용어 "적어도 하나"는 다수 중의 임의의 하나 또는 다수 중의 적어도 2개의 임의의 조합을 나타내고, 예를 들어, A, B, C 중의 적어도 하나를 포함하며, A, B 및 C로 구성된 집합으로부터 선택된 임의의 하나 이상의 요소를 포함하는 것을 나타낸다.
이 밖에, 본 발명을 더 잘 설명하기 위해, 아래에 발명의 상세한 설명에서 다양한 구체적인 세부사항을 시사한다. 당업자는 일부 구체적인 세부사항이 없이도, 본 발명은 마찬가지로 실시될 수 있음을 이해해야 한다. 일부 구현예에서, 본 발명의 사상을 강조하기 위해 당업자에게 숙지된 방법, 수단, 소자 및 회로에 대해 상세히 설명하지 않는다.
관련 기술에서, CBCT 이미지는 현대 구강의학, 특히 치과에서 널리 적용되고 있다. 임상 진단 및 치아 복구 임플란트 재료의 제작 등 단계에서, 의사는 정확한 치아의 3차원 형태 등 기하학적 정보를 통해 진단하고 맞춤형 치료 방안을 결정해야 한다. 알고리즘을 통해 환자의 치아 해부학 및 치아 위치 정보를 자동으로 획득함으로써 의사의 사진 판독 효율을 향상시킬 수 있고 치아 복구 재료의 제작에 정보를 제공할 수 있다. 따라서 CBCT 이미지를 기반으로 한 자동 치아 분할 및 치아 위치 결정 알고리즘은 임상적으로 중요한 의미가 있다. CBCT 이미지의 노이즈 간섭, 흐릿한 치아 경계, 근접한 치근과 턱의 그레이 값 등 요인으로 인해, 치아의 정확한 분할에 많은 어려움이 있음과 동시에 환자마다 치아 결손, 임플란트, 또는 잔존 치근 등 상황이 상이하므로, 치아 위치의 자동 판단도 해결하기 어려운 문제이다.
또한 치과 의사에 의해 치아의 3차원 모델을 수동으로 윤곽을 잡고 획득하는 방법은 많은 시간이 소요되고 우발적인 오차가 존재하며; 임계값에 기반한 방법은 CBCT 이미지 중 치아 그레이 분포가 균일하지 않고, 경계가 흐릿한 문제를 처리하기 어려우며; 인터랙티브 기반의 분할 방법은 수동 참여가 필요하므로, 일반 형태가 아닌 치아 및 경계가 흐릿한 치아에 대처하기 어려우며; 레벨 세트 기반의 자동 분할 방법은 초기화에 민감하고, 치아의 상이한 부위에서 자가 적응적으로 분할 경계 진화를 수행하기 어려우며; 액티브 윤곽 모델 기반의 방법도 우수한 초기화 곡선을 결정해야 하고, 치아 경계가 흐릿하고 치아의 저밀도 섀도우 등 상황에서는 효과가 좋지 못하다. 따라서 기존 알고리즘 설계는 일반적으로 대처할 수 있는 상황이 한정되고, 복잡한 장면에서 안정적으로 실행되어 우수한 효과를 획득하기 어렵다. 최근 딥러닝 방법의 등장으로 치아 분할에 딥러닝 기법이 적용되고 있는데, 이러한 방법은 대부분 정상 치아 샘플을 기반으로 모델 훈련 및 테스트를 하고 있으며, 실제 임상에서는 환자의 치아 형태 및 치아 결손, 치아 복구, 임플란트 상황이 복잡하여 기존 방법으로는 이러한 장면에서 이상적인 효과를 얻을 수 없다.
상술한 바와 유사한 기술적 과제를 해결하기 위하여, 본 발명의 실시예는 치아 이미지 처리 방법, 장치, 전자 기기, 저장 매체 및 프로그램을 제공하는 바, 처리할 이미지에 대해 치아 인스턴스 분할을 수행하여, 처리할 이미지의 치아 인스턴스 분할 결과를 획득하고, 치아 인스턴스 분할 결과에 기반하여 치아 위치 포지셔닝을 수행하여, 처리할 이미지의 치아 위치 포지셔닝 결과를 획득함으로써, 치아와 배경을 구분할 수 있을 뿐만 아니라 상이한 치아를 구분할 수 있는 치아 인스턴스 분할 결과에 기반하여 치아 위치 포지셔닝을 수행하여, 치아 위치 포지셔닝의 정확성을 향상시킬 수 있다.
이하, 하나의 구체적인 응용 장면을 통해 본 발명의 실시예에서 제공되는 치아 이미지 처리 방법을 설명한다. 도 1은 본 발명의 실시예에서 제공되는 치아 이미지 처리 방법의 응용 장면의 모식도를 도시한다. 도 1에 도시된 바와 같이, 먼저, 분할할 이미지를 획득할 수 있다(단계 101)(즉 원본 데이터). 분할할 이미지를 획득한 후, 분할할 이미지에 따라 상하 치아 분할을 수행하여, 분할할 이미지 중의 치아 관심 영역을 결정할 수 있는 바, 즉 단계 102를 수행할 수 있다. 아울러, 분할할 이미지를 제1 해상도로 다운 샘플링하여, 낮은 공간 해상도에 있는 제1 이미지를 획득할 수 있는 바, 즉 단계 103을 수행할 수 있다. 관심 영역에 따라, 제1 이미지를 컷팅하여, 처리할 이미지를 획득할 수 있는 바, 즉 단계 104를 수행할 수 있다. 다음, 처리할 이미지에 대해 치아 인스턴스 분할을 수행하여, 처리할 이미지의 치아 인스턴스 분할 결과를 상응하게 획득하는 바, 즉 단계 105를 수행한다. 처리할 이미지의 치아 인스턴스 분할 결과를 획득한 후 먼저 처리할 이미지 중의 한쪽 치아(예를 들어 오른쪽 치아)에 대해 치아 위치 분류(즉 치아 위치 포지셔닝)를 수행한 후, 처리할 이미지를 좌우로 뒤집고, 다른 쪽 치아(예를 들어 왼쪽 치아)에 대해 치아 위치 분류를 수행함으로써, 처리할 이미지의 치아 위치 포지셔닝 결과를 획득할 수 있는 바, 즉 단계 106을 수행할 수 있다. 그 다음, 치아 위치 포지셔닝 결과를 획득한 후, 분할할 이미지에 따라, 제2 이미지를 획득할 수 있는 바, 즉 단계 107을 수행하되, 여기서, 제2 이미지의 해상도는 제2 해상도이고, 제2 해상도는 제1 해상도보다 높다. 그 다음, 치아 위치 포지셔닝 결과 중 어느 하나의 치아 인스턴스의 중심 픽셀의 좌표에 따라, 제2 이미지에서, 상기 치아 인스턴스에 대응되는 이미지를 컷팅할 수 있는 바, 즉 단계 108을 수행할 수 있다. 상기 치아 인스턴스에 대응되는 이미지에 대해 단일 치아 분할을 수행하여, 제2 해상도에서 상기 치아 인스턴스의 분할 결과를 획득하고 출력할 수 있는 바, 즉 단계 109를 수행할 수 있다. 이로써 높은 해상도에서 각각의 치아 인스턴스의 분할 결과를 획득할 수 있다.
이하, 첨부 도면을 참조하여 본 발명의 실시예에서 제공되는 치아 이미지 처리 방법을 상세히 설명한다.
도 2는 본 발명의 실시예에서 제공되는 치아 이미지 처리 방법의 흐름 모식도를 도시한다. 본 발명의 일부 실시예에서, 치아 이미지 처리 방법은 단말 기기 또는 서버 또는 다른 처리 기기에 의해 구현될 수 있다. 여기서, 단말 기기는 사용자 기기(User Equipment, UE), 모바일 기기, 상요자 단말기, 단말기, 셀룰러 전화, 무선 전화, 개인용 정보 단말기(Personal Digital Assistant, PDA), 휴대용 기기, 컴퓨팅 기기, 차량 탑재 기기 또는 착용 가능 기기 등일 수 있다. 본 발명의 일부 실시예에서, 치아 이미지 처리 방법은 프로세서를 통해 메모리에 저장된 컴퓨터 판독 가능 명령을 호출하는 방식으로 구현될 수 있다. 도 2에 도시된 바와 같이, 치아 이미지 처리 방법은, 단계 S21 내지 단계 S22를 포함한다.
단계 S21에서, 처리할 이미지에 대해 치아 인스턴스 분할을 수행하여, 처리할 이미지의 치아 인스턴스 분할 결과를 획득한다.
여기서, 하나의 치아 인스턴스는 하나의 치아에 대응되고, 치아 인스턴스 분할 결과는 처리할 이미지 중의 픽셀이 속하는 치아 인스턴스의 정보를 포함한다.
본 발명의 일부 실시예에서, 처리할 이미지는 처리해야 하는 치아 이미지를 나타낼 수 있고, 여기서, 치아 이미지는 일부 치아 정보를 적어도 포함하는 이미지를 나타낼 수 있다. 처리할 이미지는 이미지일 수 있다. 여기서, CBCT 이미지는 콘 빔 프로젝션 컴퓨터 재구성 단층 촬영 기기 등 기기를 통해 수집된 것일 수 있다. 물론, 처리할 이미지는 또한 CT 이미지, 또는 치아 정보를 포함하는 다른 이미지일 수 있으며, 여기서는 이에 대해 한정하지 않는다. 처리할 이미지는 3차원 이미지 또는 2차원 이미지일 수 있다. 예를 들어, 처리할 이미지는 3차원 CBCT 이미지일 수 있다.
본 발명의 일부 실시예에서, 치아 인스턴스 분할은 상이한 치아를 분할하는 것을 나타낼 수 있다. 즉, 치아 인스턴스 분할을 통해 치아와 배경을 구분할 수 있을 뿐만 아니라, 상이한 치아도 구분할 수 있다. 처리할 이미지에 대해 치아 인스턴스 분할을 수행는 것은 처리할 이미지 중의 상이한 치아를 분할 하여, 처리할 이미지 중의 각각의 치아에 포함된 픽셀 집합을 획득하는 것을 나타낼 수 있다.
본 발명의 일부 실시예에서, 치아 인스턴스 분할 결과에서, 처리할 이미지 중의 픽셀이 속하는 치아 인스턴스의 정보는 카테고리를 이용하여 나타낼 수 있다. 예를 들어, 처리할 이미지에 32개의 치아 인스턴스가 포함될 경우, 치아 인스턴스 분할 결과는 33개의 카테고리를 포함하고, 각각 32개의 치아 인스턴스 카테고리 및 배경 카테고리이다. 여기서, 어느 하나의 치아 인스턴스 카테고리는 하나의 치아 인스턴스에 대응되고, 배경 카테고리는 치아 내부에 속하지 않음을 나타낸다. 치아 인스턴스 분할 결과에서, 처리할 이미지 중 어느 하나의 픽셀은 33개의 카테고리 중 어느 하나의 카테고리에 속할 수 있다.
본 발명의 일부 실시예에서, 치아 인스턴스 분할 결과는 이미지, 테이블, 매트릭스 등 데이터 형식을 이용하여 나타낼 수 있고, 처리할 이미지 중의 픽셀이 속하는 치아 인스턴스의 정보를 나타낼 수만 있으면 되며, 본 발명의 실시예는 이에 대해 한정하지 않는다. 도 3은 본 발명의 실시예에서 제공되는 처리할 이미지의 치아 인스턴스 분할 결과의 모식도를 도시한다. 도 3에서, 처리할 이미지 중 치아 내부(즉 배경 부분에 속함)에 속하지 않는 픽셀의 픽셀 값은 0이고, 상이한 치아 인스턴스에 속하는 픽셀의 픽셀 값의 그레이 값은 상이하며, 동일한 치아 인스턴스에 속하는 픽셀의 픽셀 값은 동일하다.
단계 S22에서, 치아 인스턴스 분할 결과에 기반하여 치아 위치 포지셔닝을 수행하여, 처리할 이미지의 치아 위치 포지셔닝 결과를 획득한다.
본 발명의 일부 실시예에서, 치아 위치 포지셔닝은 치아 인스턴스가 속하는 치아 위치의 정보를 결정하는 것, 처리할 이미지 중의 픽셀이 속하는 치아 위치의 정보를 결정하는 것 중 적어도 하나를 나타낼 수 있다. 즉, 치아 인스턴스 분할 결과에 기반하여 치아 위치 포지셔닝을 수행함으로써, 처리할 이미지 중의 각각의 치아 인스턴스가 각각 어느 치아 위치에 속하는지 결정할 수 있다. 치아 위치 포지셔닝 결과는 처리할 이미지 중의 치아 인스턴스가 속하는 치아 위치의 정보, 처리할 이미지 중의 픽셀이 속하는 치아 위치의 정보 중 적어도 하나를 포함할 수 있다.
본 발명의 일부 실시예에서, 치아 위치 포지셔닝 결과는 세계 치과 연맹(Federation Dentaire Internationale, FDI) 치아 위치 표기법으로 나타낼 수 있고; 여기서, 상기 FDI 치아 위치 표기법은 국제 표준화 기구(International Organization for Standardization, ISO)-3950 표기법이라고도 한다. 다른 가능한 구현 방식에서, 치아 위치 포지셔닝 결과는 위치 기록법(Palmer 치아 위치 표기법이라고도 함), 범용 기록법(Universal Numbering System, UNS) 등 치아 위치 표기법으로 나타낼 수도 있다.
본 발명의 일부 실시예에서, 처리할 이미지에 대해 치아 인스턴스 분할을 수행하여, 처리할 이미지의 치아 인스턴스 분할 결과를 획득하고, 치아 인스턴스 분할 결과에 기반하여 치아 위치 포지셔닝을 수행하여, 처리할 이미지의 치아 위치 포지셔닝 결과를 획득함으로써, 치아와 배경을 구분할 수 있을 뿐만 아니라 상이한 치아를 구분할 수 있는 치아 인스턴스 분할 결과에 기반하여 치아 위치 포지셔닝을 수행하여, 치아 위치 포지셔닝의 정확성을 향상시킬 수 있다. 본 발명의 실시예는 먼저 치아 인스턴스 분할을 수행한 다음, 치아 인스턴스 분할 결과에 기반하여 치아 위치 포지셔닝을 수행함으로써, 상이한 치아 형태, 치아 결손, 임플란트 등 복잡한 상황에서 모두 정확한 치아 위치 포지셔닝 결과를 획득할 수 있다.
도 4는 본 발명의 실시예에 따른 치아 이미지 처리 방법이 적용될 수 있는 시스템 아키텍처 모식도를 도시한다. 도 4에 도시된 바와 같이, 상기 시스템 아키텍처는 이미지 획득 단말기(401), 네트워크(402) 및 치아 이미지의 처리 단말기(403)를 포함한다. 예시적인 응용을 지원하기 위해, 이미지 획득 단말기(401) 및 치아 이미지의 처리 단말기(403)는 네트워크(402)를 통해 통신 연결을 구축하고, 이미지 획득 단말기(401)는 네트워크(402)를 통해 치아 이미지의 처리 단말기(403)에 처리할 이미지를 보고하며, 치아 이미지의 처리 단말기(403)는 처리할 이미지에 응답하고, 치아 인스턴스 분할 모듈 및 치아 위치 포지셔닝 모듈을 이용하여, 처리할 이미지에 대해 치아 인스턴스 분할 및 치아 위치 포지셔닝을 수행하여, 처리할 이미지의 치아 위치 포지셔닝 결과를 획득한다. 마지막으로, 치아 이미지의 처리 단말기(403)는 처리할 이미지의 치아 위치 포지셔닝 결과를 네트워크(402)에 업로드하고, 네트워크(402)를 통해 이미지 획득 단말기(401)에 송신한다.
예시로서, 이미지 획득 단말기(401)는 이미지 수집 기기를 포함할 수 있고, 치아 이미지의 처리 단말기(403)는 비전 정보 처리 능력을 구비한 비전 처리 기기 또는 원격 서버를 포함할 수 있다. 네트워크(402)는 유선 또는 무선 연결 방식을 이용할 수 있다. 여기서, 치아 이미지의 처리 단말기(403)가 비전 처리 기기일 경우, 이미지 획득 단말기(401)는 유선 연결 방식으로 비전 처리 기기와 통신 연결될 수 있고, 예를 들어 버스를 통해 데이터 통신을 수행할 수 있으며; 치아 이미지의 처리 단말기(403)가 원격 서버일 경우, 이미지 획득 단말기(401)는 무선 네트워크를 통해 원격 서버와 데이터 인터랙션을 수행할 수 있다.
또는, 일부 장면에서, 이미지 획득 단말기(401)는 이미지 수집 모듈이 있는 비전 처리 기기일 수 있고, 구체적으로 카메라가 있는 호스트로 구현된다. 이때, 본 발명의 실시예의 치아 이미지 처리 방법은 이미지 획득 단말기(401)에 의해 구현될 수 있고, 상기 시스템 아키텍처는 네트워크(402) 및 치아 이미지의 처리 단말기(403)를 포함하지 않을 수 있다.
본 발명의 일부 실시예에서, 처리할 이미지에 대해 치아 인스턴스 분할을 수행하여, 처리할 이미지의 치아 인스턴스 분할 결과를 획득하는 단계는, 처리할 이미지의 복수의 픽셀에서, 상이한 치아 인스턴스에 속하는 픽셀 집합을 순차적으로 예측하여, 처리할 이미지 중의 복수의 치아 인스턴스에 포함된 복수의 픽셀 집합의 예측 결과를 획득하는 단계; 및 복수의 치아 인스턴스에 포함된 복수의 픽셀 집합의 예측 결과에 따라, 처리할 이미지의 치아 인스턴스 분할 결과를 획득하는 단계를 포함한다.
본 발명의 일부 실시예에서, 어느 하나의 치아 인스턴스에 속하는 픽셀 집합은, 상기 치아 인스턴스에 포함된 픽셀의 집합을 나타낼 수 있다. 처리할 이미지의 복수의 픽셀에서, 상이한 치아 인스턴스에 속하는 픽셀을 순차적으로 예측하여, 처리할 이미지 중의 복수의 치아 인스턴스에 포함된 픽셀 집합을 획득할 수 있다. 예를 들어, 먼저 첫 번째 치아 인스턴스에 속하는 픽셀 집합을 예측하고, 첫 번째 치아 인스턴스에 속하는 픽셀 집합의 예측이 완료된 후, 두 번째 치아 인스턴스에 속하는 픽셀 집합을 예측하며, 두 번째 치아 인스턴스에 속하는 픽셀 집합의 예측이 완료된 후, 세 번째 치아 인스턴스에 속하는 픽셀 집합을 예측하고, 이와 같이 유추할 수 있다. 즉, 상기 구현 방식에서, 한 번에 하나의 치아 인스턴스만 예측할 수 있다.
본 발명의 일부 실시예에서, 어느 하나의 치아 인스턴스에 포함된 픽셀 집합의 예측 결과는 예측된 상기 치아 인스턴스에 속하는 픽셀의 정보를 포함할 수 있고, 예를 들어, 예측된 상기 치아 인스턴스에 속하는 픽셀의 좌표를 포함할 수 있다.
본 발명의 일부 실시예에서, 처리할 이미지의 복수의 픽셀에서, 각각의 치아 인스턴스에 속하는 픽셀 집합을 순차적으로 예측하여, 처리할 이미지 중의 각각의 치아 인스턴스에 포함된 픽셀 집합의 예측 결과를 획득할 수 있고; 각각의 치아 인스턴스에 포함된 픽셀 집합의 예측 결과에 따라, 처리할 이미지의 치아 인스턴스 분할 결과를 획득할 수 있다. 물론, 다른 예시에서, 처리할 이미지의 복수의 픽셀에서, 각각의 치아 인스턴스에 속하는 픽셀 집합을 예측할 필요 없이 일부 치아 인스턴스에 속하는 픽셀 집합만 예측할 수도 있다.
본 발명의 일부 실시예에서, 어느 하나의 치아 인스턴스에 포함된 픽셀 집합의 예측 결과는 상기 치아 인스턴스에 대응되는 예측 마스크(mask)를 이용하여 나타낼 수 있다. 상기 치아 인스턴스에 대응되는 예측 마스크의 크기는 처리할 이미지와 동일할 수 있다. 상기 치아 인스턴스에 대응되는 예측 마스크에서, 예측된 상기 치아 인스턴스에 속하는 픽셀의 픽셀 값은 예측된 상기 치아 인스턴스에 속하지 않는 픽셀의 픽셀 값과 상이하다. 예를 들어, 상기 치아 인스턴스에 대응되는 예측 마스크에서, 예측된 상기 치아 인스턴스에 속하는 픽셀의 픽셀 값은 1이고, 예측된 상기 치아 인스턴스에 속하지 않는 픽셀의 픽셀 값은 0이다. 물론, 테이블, 매트릭스 등 데이터 형태를 이용하여, 어느 하나의 치아 인스턴스에 포함된 픽셀 집합의 예측 결과를 나타낼 수도 있다.
CBCT 이미지의 노이즈 간섭, 흐릿한 치아 경계, 근접한 치근과 턱의 그레이 값 등 요인으로 인해, 치아의 정확한 분할에 많은 어려움이 있다. 본 발명의 일부 실시예에서, 처리할 이미지의 복수의 픽셀에서, 상이한 치아 인스턴스에 속하는 픽셀 집합을 순차적으로 예측하여, 처리할 이미지 중의 복수의 치아 인스턴스에 포함된 복수의 픽셀 집합의 예측 결과를 획득하고, 복수의 치아 인스턴스에 포함된 복수의 픽셀 집합의 예측 결과에 따라, 처리할 이미지의 치아 인스턴스 분할 결과를 획득함으로써, 정확한 치아 인스턴스 분할 결과를 획득하고, CBCT 이미지 중의 노이즈 간섭, 흐릿한 치아 경계, 근접한 치근과 턱의 그레이 값 등 복잡한 상황에 효과적으로 대처할 수 있다.
본 발명의 일부 실시예에서, 상이한 치아 인스턴스에 대한 예측을 병렬로 수행할 수도 있고, 예를 들어, 각각의 치아 인스턴스에 속하는 픽셀 집합을 동시에 예측하여, 처리할 이미지 중의 각각의 치아 인스턴스에 포함된 픽셀 집합의 예측 결과를 획득한 다음, 각각의 치아 인스턴스에 포함된 픽셀 집합의 예측 결과에 따라, 처리할 이미지의 치아 인스턴스 분할 결과를 획득할 수 있다.
본 발명의 일부 실시예에서, 처리할 이미지의 복수의 픽셀에서, 상이한 치아 인스턴스에 속하는 픽셀 집합을 순차적으로 예측하여, 처리할 이미지 중의 복수의 치아 인스턴스에 포함된 복수의 픽셀 집합의 예측 결과를 획득하는 단계는, 처리할 이미지의 복수의 처리할 픽셀에서, 타깃 치아 인스턴스의 중심 픽셀을 예측하는 단계 - 처리할 픽셀은 처리할 이미지 중 어느 하나의 치아 인스턴스에 속하는 것으로 예측되지 않은 픽셀을 나타내고, 타깃 치아 인스턴스는 현재 예측된 치아 인스턴스를 나타냄 - ; 및 타깃 치아 인스턴스의 중심 픽셀의 좌표에 따라, 복수의 처리할 픽셀에서 타깃 치아 인스턴스에 속하는 픽셀 집합을 예측하여, 타깃 치아 인스턴스에 포함된 픽셀 집합의 예측 결과를 획득하는 단계를 포함한다.
본 발명의 일부 실시예에서, 어느 하나의 치아 인스턴스의 예측이 수행되지 않을 경우, 처리할 이미지의 모든 픽셀에서, 타깃 치아 인스턴스의 중심 픽셀을 예측할 수 있다. 즉, 어느 하나의 치아 인스턴스의 예측이 수행되지 않을 경우, 처리할 이미지의 모든 픽셀을 처리할 픽셀로 사용할 수 있다. 특정 치아 인스턴스에 속하는 픽셀 집합의 예측이 완료된 후, 처리할 이미지의 복수의 처리할 픽셀에서, 다음 치아 인스턴스(즉 타깃 치아 인스턴스)의 중심 픽셀을 예측할 수 있다.
본 발명의 일부 실시예에서, 어느 하나의 치아 인스턴스에 속하는 것으로 예측된 픽셀 집합은, 예측된 상기 치아 인스턴스의 중심 픽셀, 및 상기 치아 인스턴스에 속하는 것으로 예측된 다른 픽셀(즉 비중심 픽셀)을 포함한다.
본 발명의 일부 실시예에서, 타깃 치아 인스턴스의 중심 픽셀의 좌표는
Figure pct00001
로 표시할 수 있다.
본 발명의 일부 실시예에서, 처리할 이미지의 복수의 처리할 픽셀에서, 타깃 치아 인스턴스의 중심 픽셀을 예측하고, 타깃 치아 인스턴스의 중심 픽셀의 좌표에 따라, 복수의 처리할 픽셀에서 타깃 치아 인스턴스에 속하는 픽셀 집합을 예측하여, 타깃 치아 인스턴스에 포함된 픽셀 집합의 예측 결과를 획득함으로써, 획득한 어느 하나의 치아 인스턴스에 포함된 픽셀 집합의 예측 결과의 정확성을 향상시킬 수 있다.
본 발명의 일부 실시예에서, 처리할 이미지의 복수의 처리할 픽셀에서, 타깃 치아 인스턴스의 중심 픽셀을 예측하는 단계는, 처리할 이미지의 복수의 처리할 픽셀에서, 치아 인스턴스 중심에 위치할 확률이 가장 큰 제1 픽셀을 결정하는 단계; 및 제1 픽셀이 치아 인스턴스 중심에 위치할 확률이 제1 기설정 값보다 크거나 같을 경우, 제1 픽셀을 타깃 치아 인스턴스의 중심 픽셀로 예측하는 단계를 포함할 수 있다.
본 발명의 일부 실시예에서, 처리할 이미지의 픽셀
Figure pct00002
가 치아 인스턴스 중심에 위치할 확률은
Figure pct00003
로 표시될 수 있다.
상기 예시에서, 제1 픽셀은 복수의 처리할 픽셀 중 치아 인스턴스 중심에 위치할 확률이 가장 큰 픽셀을 나타낸다.
본 발명의 일부 실시예에서, 제1 기설정 값은 0.5일 수 있다. 물론, 당업자는 실제 응용 장면 요구 사항에 따라 제1 기설정 값을 유연하게 설정할 수 있으며, 여기서는 이에 대해 한정하지 않는다.
상기 예시에서, 처리할 이미지의 복수의 처리할 픽셀에서, 치아 인스턴스 중심에 위치할 확률이 가장 큰 제1 픽셀을 결정하고, 제1 픽셀이 치아 인스턴스 중심에 위치할 확률이 제1 기설정 값보다 크거나 같을 경우, 제1 픽셀을 타깃 치아 인스턴스의 중심 픽셀로 예측함으로써, 정확하게 치아 인스턴스의 중심 픽셀을 결정할 수 있어, 치아 인스턴스 분할을 정확하게 수행하는데 도움을 준다.
본 발명의 일부 실시예에서, 제1 픽셀이 치아 인스턴스 중심에 위치할 확률이 제1 기설정 값보다 크거나 같을 경우, 제1 픽셀을 타깃 치아 인스턴스의 중심 픽셀로 예측하는 단계는, 복수의 처리할 픽셀에서, 치아 인스턴스 중심에 위치할 확률이 제1 기설정 값보다 크거나 같은 픽셀 수가 제2 기설정 값보다 크거나 같고, 제1 픽셀이 치아 인스턴스 중심에 위치할 확률이 제1 기설정 값보다 크거나 같을 경우, 제1 픽셀을 타깃 치아 인스턴스의 중심 픽셀로 예측하는 단계를 포함할 수 있다. 이 예에서, 복수의 처리할 픽셀에서, 치아 인스턴스 중심에 위치할 확률이 제1 기설정 값보다 크거나 같은 픽셀 수는, 처리할 이미지 중 어느 하나의 치아 인스턴스에 속하는 것으로 예측되지 않은 픽셀에서 치아 인스턴스 중심에 위치할 확률이 제1 기설정 값보다 크거나 같은 픽셀 수를 나타낸다. 이 예에서, 하나의 치아에 포함된 픽셀 수의 평균값 또는 경험값에 따라, 제2 기설정 값을 결정할 수 있다. 예를 들어, 제2 기설정 값은 32일 수 있다. 물론, 당업자는 실제 응용 장면 요구 사항 및 경험 중 적어도 하나에 따라, 제2 기설정 값을 유연하게 결정할 수도 있으며, 여기서는 이에 대해 한정하지 않는다. 이 예에서, 복수의 처리할 픽셀에서, 치아 인스턴스 중심에 위치할 확률이 제1 기설정 값보다 크거나 같은 픽셀 수가 제2 기설정 값보다 크거나 같고, 제1 픽셀이 치아 인스턴스 중심에 위치할 확률이 제1 기설정 값보다 크거나 같을 경우, 제1 픽셀을 타깃 치아 인스턴스의 중심 픽셀로 예측하고, 제1 픽셀에 기반하여 계속해서 예측하며; 복수의 처리할 픽셀에서, 치아 인스턴스 중심에 위치할 확률이 제1 기설정 값보다 크거나 같은 픽셀 수가 제2 기설정 값보다 작을 경우, 예측을 정지할 수 있어, 예측 효율 및 정확성을 향상시킬 수 있다.
본 발명의 일부 실시예에서, 타깃 치아 인스턴스의 중심 픽셀의 좌표에 따라, 복수의 처리할 픽셀에서 타깃 치아 인스턴스에 속하는 픽셀 집합을 예측하는 단계는, 복수의 처리할 픽셀 중의 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표를 결정하는 단계 - 제2 픽셀은 복수의 처리할 픽셀 중 어느 하나의 픽셀을 나타내고, 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표는 제2 픽셀에 기반하여 예측된 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀의 좌표를 나타냄 - ; 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표 및 타깃 치아 인스턴스의 중심 픽셀의 좌표에 따라, 제2 픽셀이 타깃 치아 인스턴스의 중심에 속할 확률을 예측하는 단계; 및 제2 픽셀이 타깃 치아 인스턴스의 중심에 속할 확률에 따라, 복수의 처리할 픽셀에서 타깃 치아 인스턴스에 속하는 픽셀 집합을 예측하는 단계를 포함할 수 있다.
본 발명의 일부 실시예에서, 제2 픽셀이 픽셀
Figure pct00004
이면, 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표는
Figure pct00005
로 표시될 수 있다.
본 발명의 일부 실시예에서, 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표와 타깃 치아 인스턴스의 중심 픽셀의 좌표 사이의 차이 값에 따라, 제2 픽셀이 타깃 치아 인스턴스의 중심에 속할 확률을 예측할 수 있다. 예를 들어, 제2 픽셀이 픽셀
Figure pct00006
이고, 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표가
Figure pct00007
이며, 타깃 치아 인스턴스의 중심 픽셀의 좌표가
Figure pct00008
이면, 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표와 타깃 치아 인스턴스의 중심 픽셀의 좌표 사이의 차이 값은
Figure pct00009
로 표시될 수 있다.
상기 예시에서, 제2 픽셀이 타깃 치아 인스턴스의 중심에 속할 확률은, 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표와 타깃 치아 인스턴스의 중심 픽셀의 좌표 사이의 거리와 음의 상관 관계일 수 있다. 즉, 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표와 타깃 치아 인스턴스의 중심 픽셀의 좌표 사이의 거리가 작을수록, 제2 픽셀이 타깃 치아 인스턴스의 중심에 속할 확률이 크고; 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표와 타깃 치아 인스턴스의 중심 픽셀의 좌표 사이의 거리가 클수록, 제2 픽셀이 타깃 치아 인스턴스의 중심에 속할 확률이 작다.
상기 예시에서, 제2 픽셀이 타깃 치아 인스턴스의 중심에 속할 확률이 클수록, 제2 픽셀이 타깃 치아 인스턴스에 속할 확률이 크고; 제2 픽셀이 타깃 치아 인스턴스의 중심에 속할 확률이 작을수록, 제2 픽셀이 타깃 치아 인스턴스에 속할 확률이 작다.
본 발명의 일부 실시예에서, 제2 픽셀이 타깃 치아 인스턴스의 중심에 속할 확률이 제4 기설정 값보다 크면, 제2 픽셀이 타깃 치아 인스턴스에 속하는 것으로 예측할 수 있고, 즉, 타깃 치아 인스턴스에 속하는 픽셀 집합이 제2 픽셀을 포함하는 것으로 예측할 수 있으며; 제2 픽셀이 타깃 치아 인스턴스의 중심에 속할 확률이 제4 기설정 값보다 작거나 같으면, 제2 픽셀이 타깃 치아 인스턴스에 속하지 않는 것으로 예측할 수 있고, 즉, 타깃 치아 인스턴스에 속하는 픽셀 집합이 제2 픽셀을 포함하지 않는 것으로 예측할 수 있다. 예를 들어, 제4 기설정 값은 0.5일 수 있다. 물론, 당업자는 실제 응용 장면 요구 사항에 따라 제4 기설정 값을 유연하게 설정할 수 있으며, 여기서는 이에 대해 한정하지 않는다.
상기 예시에서, 복수의 처리할 픽셀 중의 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표를 결정하고, 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표 및 타깃 치아 인스턴스의 중심 픽셀의 좌표에 따라, 제2 픽셀이 타깃 치아 인스턴스의 중심에 속할 확률을 예측하며, 제2 픽셀이 타깃 치아 인스턴스의 중심에 속할 확률에 따라, 복수의 처리할 픽셀에서 타깃 치아 인스턴스에 속하는 픽셀 집합을 예측함으로써, 복수의 처리할 픽셀에서 타깃 치아 인스턴스에 속하는 픽셀을 정확하게 예측할 수 있다.
일 예시에서, 복수의 처리할 픽셀 중의 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표를 결정하는 단계는, 복수의 처리할 픽셀 중의 제2 픽셀로부터 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋을 결정하는 단계; 및 제2 픽셀의 좌표 및 제2 픽셀로부터 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋에 따라, 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표를 결정하는 단계를 포함할 수 있다.
상기 예시에서, 제2 픽셀로부터 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋은, 제2 픽셀의 좌표와 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀의 좌표 사이의 예측 좌표 차이 값을 나타낼 수 있다. 예를 들어, 제2 픽셀의 좌표는
Figure pct00010
로 표시될 수 있고, 제2 픽셀로부터 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋은
Figure pct00011
로 표시될 수 있다.
본 발명의 일부 실시예에서, 예측 오프셋이 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀의 좌표와 제2 픽셀의 좌표 사이의 예측 좌표 차이 값이면, 제2 픽셀의 좌표와 예측 오프셋의 합을 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표로 결정할 수 있다. 예를 들어, 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표는
Figure pct00012
로 표시될 수 있고, 즉
Figure pct00013
이다.
본 발명의 다른 일부 실시예에서, 예측 오프셋이 제2 픽셀의 좌표와 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀의 좌표 사이의 예측 좌표 차이 값이면, 제2 픽셀의 좌표와 예측 오프셋의 차이를 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표로 결정할 수 있다.
상기 예시에서, 복수의 처리할 픽셀 중의 제2 픽셀로부터 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋을 결정하고, 제2 픽셀의 좌표 및 제2 픽셀로부터 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋에 따라, 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표를 결정함으로써, 정확한 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표를 획득할 수 있다.
일 예시에서, 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표, 및 타깃 치아 인스턴스의 중심 픽셀의 좌표에 따라, 제2 픽셀이 타깃 치아 인스턴스의 중심에 속할 확률을 예측하는 단계는, 타깃 치아 인스턴스에 대응되는 클러스터링 파라미터를 예측하는 단계 - 클러스터링 파라미터는 타깃 치아 인스턴스의 중심 픽셀의 예측 좌표의 이산 정도를 나타내기 위한 것임 - ; 및 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표, 타깃 치아 인스턴스의 중심 픽셀의 좌표 및 타깃 치아 인스턴스에 대응되는 클러스터링 파라미터에 따라, 제2 픽셀이 타깃 치아 인스턴스의 중심에 속할 확률을 예측하는 단계를 포함할 수 있다.
상기 예시에서, 타깃 치아 인스턴스에 대응되는 클러스터링 파라미터는 타깃 치아 인스턴스의 중심 픽셀의 예측 좌표의 이산 정도를 나타낼 수 있는 임의의 파라미터일 수 있다. 본 발명의 일부 실시예에서, 타깃 치아 인스턴스에 대응되는 클러스터링 파라미터는 타깃 치아 인스턴스의 중심 픽셀의 예측 좌표의 표준 편차를 나타낼 수 있다. 이 예에서, 타깃 치아 인스턴스에 대응되는 클러스터링 파라미터는
Figure pct00014
로 표시될 수 있다. 본 발명의 다른 일부 실시예에서, 타깃 치아 인스턴스에 대응되는 클러스터링 파라미터는 타깃 치아 인스턴스의 중심 픽셀의 예측 좌표의 분산을 나타낼 수 있다. 이 예에서, 타깃 치아 인스턴스에 대응되는 클러스터링 파라미터는
Figure pct00015
로 표시될 수 있다. 본 발명의 다른 일부 실시예에서, 타깃 치아 인스턴스에 대응되는 클러스터링 파라미터는 타깃 치아 인스턴스의 중심 픽셀의 예측 좌표의 분산과 음의 상관 관계일 수 있다. 예를 들어, 타깃 치아 인스턴스에 대응되는 클러스터링 파라미터는
Figure pct00016
일 수 있다.
상기 예시에서, 상이한 치아 인스턴스에 대응되는 클러스터링 파라미터는 상이할 수 있고, 각각의 치아 인스턴스에 대해 대응되는 클러스터링 파라미터를 각각 예측할 수 있다.
본 발명의 일부 실시예에서, 제2 픽셀이 타깃 치아 인스턴스의 중심에 속할 확률은
Figure pct00017
일 수 있고, 여기서,
Figure pct00018
Figure pct00019
Figure pct00020
제곱이다. 타깃 치아 인스턴스에 대응되는 클러스터링 파라미터
Figure pct00021
을 통해, 획득한 제2 픽셀이 타깃 치아 인스턴스의 중심에 속할 확률이 [0, 1] 범위 내에 있도록 할 수 있다.
상기 예시에서, 타깃 치아 인스턴스에 대응되는 클러스터링 파라미터를 예측하고, 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표, 타깃 치아 인스턴스의 중심 픽셀의 좌표 및 타깃 치아 인스턴스에 대응되는 클러스터링 파라미터에 따라, 제2 픽셀이 타깃 치아 인스턴스의 중심에 속할 확률을 예측함으로써, 본 발명의 일부 실시예에서 제2 픽셀이 타깃 치아 인스턴스의 중심에 속할 예측 확률의 정확성을 향상시킬 수 있다.
본 발명의 일부 실시예에서, 상기 방법은, 처리할 이미지를 제1 신경망에 입력하고, 제1 신경망을 통해 제2 픽셀로부터 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋, 제2 픽셀이 속하는 치아 인스턴스의 클러스터링 파라미터 및 제2 픽셀이 치아 인스턴스 중심에 위치할 확률을 획득하는 단계를 더 포함한다. 예를 들어, 이 예에서, 제1 신경망을 통해 처리할 이미지 중의 각각의 픽셀로부터 상기 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋, 처리할 이미지 중의 각각의 치아 인스턴스의 클러스터링 파라미터 및 처리할 이미지 중의 각각의 픽셀이 치아 인스턴스 중심에 위치할 확률을 획득할 수 있다. 물론, 제1 신경망은 처리할 이미지의 일부 픽셀만 처리할 수도 있으며, 여기서는 이에 대해 한정하지 않는다. 이 예에서, 제1 신경망을 통해 처리할 이미지를 처리함으로써, 획득한 예측 오프셋, 클러스터링 파라미터 및 픽셀이 치아 인스턴스 중심에 위치할 확률의 정확성을 향상시킬 수 있고, 예측 오프셋, 클러스터링 파라미터 및 픽셀이 치아 인스턴스 중심에 위치할 확률을 획득하는 속도를 향상시킬 수 있다.
본 발명의 일부 실시예에서, 제1 신경망은 제1 디코더 및 제2 디코더를 포함하며; 처리할 이미지를 제1 신경망에 입력하고, 제1 신경망을 통해 제2 픽셀로부터 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋, 제2 픽셀이 속하는 치아 인스턴스의 클러스터링 파라미터, 및 제2 픽셀이 치아 인스턴스 중심에 위치할 확률을 획득하는 단계는, 처리할 이미지를 제1 신경망에 입력하고, 제1 디코더를 통해 제2 픽셀로부터 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋 및 제2 픽셀이 속하는 치아 인스턴스의 클러스터링 파라미터를 획득하며, 제2 디코더를 통해 제2 픽셀이 치아 인스턴스 중심에 위치할 확률을 획득하는 단계를 포함한다. 이 예에 따르면, 본 발명의 일부 실시예에서 획득한 예측 오프셋, 클러스터링 파라미터 및 픽셀이 치아 인스턴스 중심에 위치할 확률의 정확성을 향상시킬 수 있다.
일 예시에서, 처리할 이미지를 제1 신경망에 입력하는 단계 이전에, 상기 방법은, 트레이닝 이미지를 제1 신경망에 입력하고, 제1 신경망을 통해 트레이닝 이미지 중의 제3 픽셀로부터 제3 픽셀이 속하는 제1 치아 인스턴스의 중심 픽셀까지의 예측 오프셋, 제1 치아 인스턴스에 대응되는 클러스터링 파라미터 및 제3 픽셀이 치아 인스턴스 중심에 위치할 확률을 획득하는 단계 - 제3 픽셀은 트레이닝 이미지 중 어느 하나의 픽셀을 나타내고, 제1 치아 인스턴스는 제3 픽셀이 속하는 치아 인스턴스를 나타냄 - ; 제3 픽셀의 좌표 및 제3 픽셀로부터 제1 치아 인스턴스의 중심 픽셀까지의 예측 오프셋에 따라, 제3 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표를 결정하는 단계 - 제3 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표는 제3 픽셀에 기반하여 예측된 제1 치아 인스턴스의 중심 픽셀의 좌표를 나타냄 - ; 제3 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표, 제1 치아 인스턴스에 속하는 상이한 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표 및 제1 치아 인스턴스에 대응되는 클러스터링 파라미터에 따라, 제3 픽셀이 제1 치아 인스턴스의 중심에 속할 확률을 결정하는 단계; 및 제3 픽셀이 치아 인스턴스 중심에 위치할 확률, 제3 픽셀이 제1 치아 인스턴스의 중심에 속할 확률, 제3 픽셀이 치아 내부에 속할 참값 및 제3 픽셀이 제1 치아 인스턴스의 중심에 속할 확률에 따라, 제1 신경망을 트레이닝하는 단계를 더 포함할 수 있다.
이 예시에서, 트레이닝 이미지는 3차원 이미지 또는 2차원 이미지일 수 있다. 예를 들어, 트레이닝 이미지는 3차원 이미지이고, 트레이닝 이미지의 크기는 (
Figure pct00022
,
Figure pct00023
,
Figure pct00024
)이며, 예를 들어,
Figure pct00025
,
Figure pct00026
,
Figure pct00027
이다.
예를 들어, 제1 치아 인스턴스는
Figure pct00028
로 표시될 수 있고, 제1 치아 인스턴스의 중심 픽셀은
Figure pct00029
로 표시될 수 있으며, 여기서,
Figure pct00030
는 치아 인스턴스의 번호를 나타낸다. 제3 픽셀이 픽셀
Figure pct00031
이고, 제3 픽셀의 좌표가
Figure pct00032
이면, 제3 픽셀로부터 제3 픽셀이 속하는 제1 치아 인스턴스의 중심 픽셀까지의 예측 오프셋은
Figure pct00033
일 수 있다. 여기서, 트레이닝 이미지가 3차원 이미지이면,
Figure pct00034
는 제3 픽셀의 x축 좌표, y축 좌표 및 z축 좌표를 포함할 수 있고, 제3 픽셀로부터 제3 픽셀이 속하는 제1 치아 인스턴스의 중심 픽셀까지의 예측 오프셋은 제3 픽셀로부터 제3 픽셀이 속하는 제1 치아 인스턴스의 중심 픽셀까지의 x축 예측 오프셋, y축 예측 오프셋 및 z축 예측 오프셋을 포함할 수 있다.
이 예시에서, 제1 신경망을 통해 트레이닝 이미지 중의 각각의 픽셀로부터 이 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋을 획득할 수 있어, (3,
Figure pct00035
,
Figure pct00036
,
Figure pct00037
)의 오프셋 매트릭스를 획득할 수 있다.
이 예시에서, 제1 치아 인스턴스에 속하는 상이한 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표에 따라, 제1 치아 인스턴스에 속하는 상이한 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표의 평균값을 획득할 수 있다. 예를 들어, 제1 치아 인스턴스에 속하는 상이한 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표의 평균값은
Figure pct00038
로 표시될 수 있고, 여기서,
Figure pct00039
는 제1 치아 인스턴스에 속하는 픽셀
Figure pct00040
가 가리키는 치아 인스턴스 중심의 예측 좌표를 나타내며,
Figure pct00041
는 제1 치아 인스턴스에 속하는 총 픽셀 수를 나타낸다.
예를 들어, 제3 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표 및 제1 치아 인스턴스에 속하는 상이한 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표에 따라, 제3 픽셀이 제1 치아 인스턴스의 중심에 속할 확률을 결정하는 단계는, 제1 치아 인스턴스에 속하는 각각의 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표의 평균값을 결정하는 단계; 및 제3 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표와 평균값 사이의 차이 값에 따라, 제3 픽셀이 제1 치아 인스턴스의 중심에 속할 확률을 결정하는 단계를 포함할 수 있다.
본 발명의 일부 실시예에서, 제1 치아 인스턴스에 대응되는 클러스터링 파라미터는
Figure pct00042
로 표시될 수 있다. 예를 들어, 제3 픽셀이 제1 치아 인스턴스의 중심에 속할 확률은
Figure pct00043
일 수 있다.
본 발명의 일부 실시예에서, 제1 신경망은 교차 엔트로피 손실 함수 등 손실 함수를 이용하여 트레이닝될 수 있다. 예를 들어, 제3 픽셀은 픽셀
Figure pct00044
이고, 제3 픽셀이 치아 인스턴스 중심에 위치할 확률은
Figure pct00045
로 표시될 수 있으며, 제3 픽셀이 제1 치아 인스턴스의 중심에 속할 확률은
Figure pct00046
로 표시될 수 있고, 제1 신경망을 트레이닝하기 위한 손실 함수는
Figure pct00047
로 표시될 수 있다. 여기서,
Figure pct00048
는 제3 픽셀이 치아 내부에 속함을 나타내고, 즉, 제3 픽셀이 치아 내부에 속할 참값이 제3 픽셀이 치아 내부에 속하는 것이다.
Figure pct00049
는 제3 픽셀이 치아 내부에 속하지 않음을 나타내고, 즉, 제3 픽셀이 치아 내부에 속할 참값은 제3 픽셀이 치아 내부에 속하지 않는 것이며, 즉, 제3 픽셀이 배경 부분에 속한다.
Figure pct00050
은 처리할 이미지 중의 총 픽셀 수를 나타낸다.
상기 예시를 통해 제1 신경망을 트레이닝함으로써, 제1 신경망이 치아 이미지 중 상이한 치아 인스턴스를 분할하는 능력을 학습할 수 있도록 한다. 상기 예시를 통해 트레이닝하여 획득한 제1 신경망을 이용하여 치아 인스턴스 분할을 수행함으로써, 복잡한 장면에서 안정적이고 정확한 치아 인스턴스 분할 결과를 획득할 수 있으며, 예를 들어, CBCT 이미지 중 치아 그레이 분포가 균일하지 않고, 치아 경계가 흐릿하며, 일반 형태의 치아가 아니고, 치아 내부 저밀도 섀도우 등 상황에 대처할 수 있다.
본 발명의 일부 실시예에서, 트레이닝 이미지를 제1 신경망에 입력하고, 제1 신경망을 통해 트레이닝 이미지 중의 제3 픽셀로부터 제3 픽셀이 속하는 제1 치아 인스턴스의 중심 픽셀까지의 예측 오프셋, 제1 치아 인스턴스에 대응되는 클러스터링 파라미터 및 제3 픽셀이 치아 인스턴스 중심에 위치할 확률을 획득하는 단계는, 트레이닝 이미지를 제1 신경망에 입력하고, 제1 신경망의 제1 디코더를 통해 트레이닝 이미지 중의 제3 픽셀로부터 제3 픽셀이 속하는 제1 치아 인스턴스의 중심 픽셀까지의 예측 오프셋 및 제1 치아 인스턴스에 대응되는 클러스터링 파라미터를 획득하며, 제1 신경망의 제2 디코더를 통해 제3 픽셀이 치아 인스턴스 중심에 위치할 확률을 획득하는 단계를 포함한다. 본 발명의 일부 실시예에서, 제1 신경망은 Encoder-Decoder의 구조를 사용하고, 구체적인 네트워크 아키텍처는 여기서는 이에 대해 한정하지 않는다.
본 발명의 일부 실시예에서, 치아 인스턴스 분할 결과에 기반하여 치아 위치 포지셔닝을 수행하여, 처리할 이미지의 치아 위치 포지셔닝 결과를 획득는 단계는, 치아 인스턴스 분할 결과 중의 제2 치아 인스턴스에 포함된 픽셀이 속하는 치아 위치 카테고리를 예측하는 단계 - 제2 치아 인스턴스는 치아 인스턴스 분할 결과 중 어느 하나의 치아 인스턴스를 나타냄 - ; 및 제2 치아 인스턴스에 포함된 픽셀이 속하는 치아 위치 카테고리에 따라, 제2 치아 인스턴스가 속하는 치아 위치 카테고리를 결정하는 단계를 포함한다.
본 발명의 일부 실시예에서, 픽셀이 속하는 치아 위치 카테고리를 예측하기 위한 제2 신경망을 사전 트레이닝하고, 치아 인스턴스 분할 결과를 제2 신경망에 입력하거나, 치아 인스턴스 분할 결과 및 처리할 이미지를 제2 신경망에 입력하여, 제2 신경망을 통해 치아 인스턴스 분할 결과 중의 각각의 치아 인스턴스에 포함된 픽셀이 속하는 치아 위치 카테고리를 획득함으로써, 치아 인스턴스 분할 결과 중의 각각의 치아 인스턴스에 포함된 픽셀이 속하는 치아 위치 카테고리에 따라, 치아 인스턴스 분할 결과 중의 각각의 치아 인스턴스가 속하는 치아 위치 카테고리를 결정할 수 있다. 여기서, 제2 신경망은 U-Net 등 구조를 사용할 수 있으며, 여기서는 이에 대해 한정하지 않는다.
본 발명의 일부 실시예에서, 제2 신경망은 한쪽 치아의 분류에 사용될 수 있고, 예를 들어, 제2 신경망은 오른쪽 치아의 분류에 사용될 수 있다. 예를 들어, 제2 신경망은 입력 이미지를 각각 오른쪽 16개의 치아 위치 카테고리, 왼쪽 치아 및 배경 부분과 같이 18개의 카테고리로 구획하는데 사용될 수 있다. 즉, 제2 신경망은 입력 이미지 중의 각각의 픽셀이 각각 이 18개의 카테고리 중 어느 카테고리에 속하는지 결정하는데 사용될 수 있어, 오른쪽 치아의 치아 위치 카테고리를 획득할 수 있다. 입력 이미지를 좌우로 뒤집은 다음 제2 신경망에 입력함으로써, 왼쪽 치아의 치아 위치 카테고리를 획득할 수 있다. 이 예에서, 제2 신경망을 트레이닝하여 한쪽 치아를 분류함으로써, 제2 신경망의 트레이닝 난이도를 줄일 수 있다.
본 발명의 일부 실시예에서, 제2 치아 인스턴스에 포함된 각각의 픽셀이 속하는 치아 위치 카테고리 중 가장 많이 나타나는 치아 위치 카테고리를 제2 치아 인스턴스가 속하는 치아 위치 카테고리로 사용할 수 있다. 예를 들어, 제2 치아 인스턴스가 100개의 픽셀을 포함하고, 여기서, 80개의 픽셀이 속하는 치아 위치 카테고리가 치아 위치 34이며, 10개의 픽셀이 속하는 치아 위치 카테고리가 치아 위치 33이고, 10개의 픽셀이 속하는 치아 위치 카테고리가 치아 위치 35이면, 제2 치아 인스턴스가 속하는 치아 위치 카테고리를 치아 위치 34로 결정할 수 있다.
본 발명의 일부 실시예에서, 치아 인스턴스 분할 결과 중의 제2 치아 인스턴스에 포함된 픽셀이 속하는 치아 위치 카테고리를 예측하고, 제2 치아 인스턴스에 포함된 픽셀이 속하는 치아 위치 카테고리에 따라, 제2 치아 인스턴스가 속하는 치아 위치 카테고리를 결정함으로써, 제2 치아 인스턴스가 속하는 치아 위치 카테고리를 정확하게 결정할 수 있다.
본 발명의 일부 실시예에서, 처리할 이미지에 대해 치아 인스턴스 분할을 수행하는 단계 이전에, 상기 방법은, 분할할 이미지를 제1 해상도로 다운 샘플링하여, 제1 이미지를 획득하는 단계; 및 제1 이미지에 따라, 처리할 이미지를 획득하는 단계를 더 포함하고; 처리할 이미지의 치아 인스턴스 분할 결과를 획득하는 단계 이후에, 상기 방법은, 분할할 이미지에 따라, 제2 이미지를 획득하는 단계 - 제2 이미지의 해상도는 제2 해상도이고, 제2 해상도는 제1 해상도보다 높음 - ; 치아 인스턴스 분할 결과 중의 제3 치아 인스턴스의 중심 픽셀의 좌표에 따라, 제2 이미지에서, 제3 치아 인스턴스에 대응되는 이미지를 컷팅하는 단계 - 제3 치아 인스턴스는 치아 인스턴스 분할 결과 중 어느 하나의 치아 인스턴스를 나타냄 - ; 및 제3 치아 인스턴스에 대응되는 이미지를 분할하여, 제2 해상도에서 제3 치아 인스턴스의 분할 결과를 획득하는 단계를 더 포함한다.
본 발명의 일부 실시예에서, 분할할 이미지는 분할해야 하는 치아 이미지를 나타낼 수 있다.
본 발명의 일부 실시예에서, 분할할 이미지는 3차원 이미지일 수 있고, 예를 들어, 분할할 이미지는 3차원 CBCT 이미지일 수 있으며, 분할할 이미지의 해상도는 0.2mmХ0.2mmХ0.2mm 또는 0.3mmХ0.3mmХ0.3mm 등일 수 있고, 길이, 폭, 높이는 (453Х755Х755) 또는 (613Х681Х681) 등일 수 있다. 제1 해상도는 공간 해상도일 수 있다. 예를 들어, 제1 해상도는 0.6mmХ0.6mmХ0.6mm일 수 있다. 상기 구현예의 다른 예시로서, 분할할 이미지는 2차원 이미지일 수 있다.
본 발명의 일부 실시예에서, 제1 이미지를 정규화하여, 제1 정규화된 이미지를 획득할 수 있고; 제1 정규화된 이미지를 컷팅하여, 처리할 이미지를 획득할 수 있다. 예를 들어, 처리할 이미지의 크기는 (112, 128, 144)일 수 있다.
본 발명의 일부 실시예에서, 기설정 구간에 기반하여 제1 이미지의 픽셀 값을 정규화하여, 제1 정규화된 이미지를 획득할 수 있다. 여기서, 기설정 구간에 기반하여 제1 이미지의 픽셀 값을 정규화하는 단계는, 제1 이미지 중의 제4 픽셀일 경우, 제4 픽셀의 픽셀 값이 기설정 구간의 하한값보다 작으면, 제4 픽셀의 정규화된 값을 0으로 결정하는 단계 - 제4 픽셀은 제1 이미지 중 어느 하나의 픽셀을 나타냄 - ; 제4 픽셀의 픽셀 값이 기설정 구간의 하한값보다 크거나 같고, 기설정 구간의 상한값보다 작거나 같으면, 제4 픽셀의 픽셀 값과 하한값의 차이 값을 결정하고, 차이 값과 구간 길이의 비율을 제4 픽셀의 정규화된 값으로 결정하는 단계; 및 제4 픽셀의 픽셀 값이 상한값보다 크면, 제4 픽셀의 정규화된 값을 1로 결정하는 단계를 포함할 수 있다. 예를 들어, 기설정 구간은 [-1000, 1500]이고, 픽셀
Figure pct00051
의 픽셀 값은
Figure pct00052
이다.
Figure pct00053
<-1000이면, 픽셀
Figure pct00054
의 정규화된 값을 0으로 결정하고; -1000≤
Figure pct00055
≤1500이면, (
Figure pct00056
-(-1000))/2500을 픽셀
Figure pct00057
의 정규화된 값으로 결정하며;
Figure pct00058
가 1500보다 크면, 픽셀
Figure pct00059
의 정규화된 값을 1로 결정한다. 기설정 구간에 기반하여 제1 이미지의 픽셀 값을 정규화함으로써, 획득한 정규화된 이미지 중의 픽셀 값이 구간 [0, 1]에 있도록 할 수 있다.
본 발명의 일부 실시예에서, 분할할 이미지를 제2 해상도로 다운 샘플링하여, 제2 이미지를 획득할 수 있다. 본 발명의 일부 실시예에서, 분할할 이미지를 제2 이미지로 사용할 수 있다. 상기 예시에서, 분할할 이미지의 해상도는 제2 해상도이다. 예를 들어, 제2 해상도는 0.2mmХ0.2mmХ0.2mm일 수 있다.
본 발명의 일부 실시예에서, 제2 이미지를 획득한 후, 제2 이미지를 정규화하여, 제2 정규화된 이미지를 얻을 수 있고; 치아 인스턴스 분할 결과 중의 제3 치아 인스턴스의 중심 픽셀의 좌표에 따라, 제2 이미지에서, 제3 치아 인스턴스에 대응되는 이미지를 컷팅하는 단계는, 치아 인스턴스 분할 결과 중의 제3 치아 인스턴스의 중심 픽셀의 좌표에 따라, 제2 정규화된 이미지에서, 제3 치아 인스턴스에 대응되는 이미지를 컷팅하는 단계를 포함할 수 있다.
본 발명의 일부 실시예에서, 치아 인스턴스 분할 결과 중의 제3 치아 인스턴스의 중심 픽셀의 위치를 기하학적 중심으로 사용하여, 제2 이미지에서, 제3 치아 인스턴스에 대응되는 이미지를 컷팅할 수 있다. 즉, 상기 예시에서, 제3 치아 인스턴스에 대응되는 이미지의 기하학적 중심은 치아 인스턴스 분할 결과 중의 제3 치아 인스턴스의 중심 픽셀의 위치일 수 있다. 예를 들어, 제3 치아 인스턴스에 대응되는 이미지의 크기는 (176, 112, 96)일 수 있다. 물론, 다른 예시에서, 제3 치아 인스턴스에 대응되는 이미지의 기하학적 중심은 치아 인스턴스 분할 결과 중의 제3 치아 인스턴스의 중심 픽셀의 위치가 아닐 수도 있다.
본 발명의 일부 실시예에서, 제3 치아 인스턴스에 대응되는 이미지를 제3 신경망에 입력하고, 제3 신경망을 통해 제3 치아 인스턴스에 대응되는 이미지를 분할하여, 제2 해상도에서 제3 치아 인스턴스의 분할 결과를 획득할 수 있다. 예를 들어, 제3 신경망은 U-Net 등 아키텍처를 사용할 수 있다.
본 발명의 일부 실시예에서, 먼저 낮은 해상도에서 치아 인스턴스 분할 및 치아 위치 포지셔닝을 빠르게 수행할 수 있고, 높은 해상도에서 각각의 치아 인스턴스의 분할 결과를 획득할 수 있다.
본 발명의 일부 실시예에서, 처리할 이미지에 대해 치아 인스턴스 분할을 수행하는 단계 이전에, 상기 방법은, 분할할 이미지에 따라 상하 치아 분할을 수행하여, 분할할 이미지 중의 관심 영역을 결정하는 단계; 및 관심 영역에 따라, 분할할 이미지를 컷팅하여, 처리할 이미지를 획득하는 단계를 더 포함한다.
본 발명의 일부 실시예에서, 분할할 이미지에 따라, 제3 이미지를 획득하고; 제3 이미지에 따라 상하 치아 분할을 수행하여, 분할할 이미지 중의 관심 영역을 결정할 수 있다. 본 발명의 일부 실시예에서, 분할할 이미지를 제3 해상도로 다운 샘플링하여, 제3 이미지를 획득할 수 있다. 예를 들어, 제3 해상도는 0.2mmХ0.2mmХ0.2mm일 수 있다. 본 발명의 다른 일부 실시예에서, 분할할 이미지를 제3 이미지로 사용할 수 있다. 본 발명의 일부 실시예에서, 제3 이미지의 픽셀 값을 정규화하여, 제3 정규화된 이미지를 획득하고; 제3 정규화된 이미지에 대해 상하 치아 분할을 수행하여, 분할할 이미지 중의 관심 영역을 결정할 수 있다. 본 발명의 다른 일부 실시예에서, 제3 이미지에 대해 상하 치아 분할을 수행하여, 분할할 이미지 중의 관심 영역을 결정할 수 있다.
본 발명의 일부 실시예에서, 제4 신경망을 이용하여, 관상축 또는 시상축, 즉 횡단면 또는 시상면으로부터, 계층별로 제3 정규화된 이미지의 2차원(2 Dimensions, 2D) 슬라이스에 대해 상하 치아 분할을 수행하여, 제3 정규화된 이미지의 각 계층의 2차원 슬라이스의 관심 영역을 획득하고, 제3 정규화된 이미지의 각 계층의 2차원 슬라이스의 관심 영역에 따라, 제3 정규화된 이미지의 관심 영역을 획득할 수 있다. 예를 들어, 제4 신경망은 콘볼루션 신경망일 수 있다. 여기서, 횡단면 및 시상면에서 치아의 경계가 명확하고 분할하기 쉽다. 예를 들어, 제3 정규화된 이미지의 각 계층의 2차원 슬라이스의 관심 영역을 재구성하여 제3 정규화된 이미지의 관심 영역을 획득할 수 있다. 또 다른 예를 들어, 제3 정규화된 이미지의 각 계층의 2차원 슬라이스의 관심 영역을 재구성하여 3차원 관심 영역을 획득한 후, 상기 3차원 관심 영역 중 크기가 제3 기설정 값보다 작은 연통 영역을 제거하여, 제3 정규화된 이미지의 관심 영역을 획득할 수 있다. 상기 3차원 관심 영역 중 크기가 제3 기설정 값보다 작은 연통 영역을 제거함으로써, 분할 결과에 대한 이미지 노이즈의 영향을 줄일 수 있어, 분할 결과를 최적화한다. 예를 들어, 제3 기설정 값은 150mm3일 수 있다.
본 발명의 일부 실시예에서, 분할할 이미지를 제1 해상도로 다운 샘플링하여, 제1 이미지를 획득하고, 관심 영역에 따라, 제1 이미지를 컷팅하여, 처리할 이미지를 획득할 수 있다. 예를 들어, 컷팅하여 획득한 처리할 이미지는 관심 영역을 포함할 수 있다. 또 다른 예를 들어, 관심 영역의 기하학적 중심을 처리할 이미지의 기하학적 중심으로 사용하고, 기설정 크기를 처리할 이미지의 크기로 사용하여, 처리할 이미지를 컷팅하여 획득할 수 있다. 예를 들어, 기설정 크기는 (112, 128, 144)일 수 있다.
상기 실시예에 따라 획득한 처리할 이미지는 분할할 이미지 중의 대부분의 치아 정보를 유지할 수 있고, 분할할 이미지 중의 대부분의 관련 없는 정보(예를 들어 배경 정보)를 제거할 수 있어, 치아 인스턴스 분할, 치아 위치 포지셔닝 등을 후속 수행하는 효율 및 정확성에 도움을 준다.
본 발명의 실시예 중의 신경망은 U-Net 등 아키텍처를 사용할 수 있으며, 여기서는 이에 대해 한정하지 않는다. 본 발명의 일부 실시예에서, 신경망의 콘볼루션 블록은 잔차 모듈로 구성될 수 있다. 본 발명의 일부 실시예에서, 신경망의 코딩 및 디코딩의 두 부분 사이에 듀얼 어텐션(Dual Attention) 모듈을 도입할 수 있다.
본 발명의 실시예에서 제공되는 치아 이미지 처리 방법에 따르면, 이미지에 치아 결손, 하이라이트 아티팩트가 존재하는 경우에도, 정확한 치아 위치 포지셔닝 결과를 획득할 수 있어, 의사의 사진 판독 효율을 향상시키는 데 도움을 주고, 예를 들어, 의사가 환자 치아의 CBCT 이미지를 분석하는 효율을 향상시키는데 도움을 준다. 예를 들어, 치아 결손이 있는 치아 위치의 판단이 용이하도록 치과 의사의 사진 판독에 도움을 제공할 수 있다. 도 5는 본 발명의 실시예에서 제공되는 하이라이트 아티팩트 및 치아 결손이 존재하는 CBCT 횡단면 이미지의 모식도를 도시한다. 여기서, 도 5 중의 a는 하이라이트 아티팩트가 존재하는 CBCT 횡단면 이미지의 모식도를 도시한다. 아울러 도 5 중의 b는 치아 결손이 존재하는 CBCT 횡단면 이미지의 모식도를 도시한다.
본 발명의 실시예는 정확한 치아 위치 포지셔닝 결과를 제공함으로써, 치아 복구 임플란트 재료의 제작 등 단계에 정확한 치아 위치 정보를 제공할 수도 있다. 본 발명의 실시예는 또한 기기, 소프트웨어 제조업체에 치아 인스턴스 분할 결과 및 치아 위치 포지셔닝 결과 중 적어도 하나를 제공할 수 있고, 기기, 소프트웨어 제조업체 등은 본 발명의 실시예에서 제공되는 치아 인스턴스 분할 결과 및 치아 위치 포지셔닝 결과 중 적어도 하나에 기반하여 세밀한 분석을 수행할 수 있으며, 예를 들어 본 발명의 실시예에서 제공되는 치아 인스턴스 분할 결과 및 치아 위치 포지셔닝 결과 중 적어도 하나에 기반하여 치열궁 곡선 등을 획득할 수 있다.
본 발명에서 언급된 상기 각 방법 실시예는 원리 논리를 위반하지 않고 서로 결합되어 결합된 실시예를 형성할 수 있음을 이해할 수 있다. 당업자는 발명의 상세한 설명의 상기 방법에서 각 단계의 구체적인 수행 순서는 그 기능 및 가능한 내부 논리에 의해 결정되어야 한다는 것을 이해할 수 있다.
이 밖에, 본 발명의 실시예는 치아 이미지 처리 장치, 전자 기기, 컴퓨터 판독 가능 저장 매체, 프로그램을 더 제공하고, 이들은 모두 본 발명의 실시예에서 제공되는 어느 하나의 치아 이미지 처리 방법을 구현하는 데 사용될 수 있으며, 상응한 기술적 해결수단 및 기술적 효과는 방법 부분의 상응한 설명을 참조할 수 있다.
도 6은 본 발명의 실시예에서 제공되는 치아 이미지 처리 장치(60)의 블록도를 도시한다. 도 6에 도시된 바와 같이, 치아 이미지 처리 장치(60)는,
처리할 이미지에 대해 치아 인스턴스 분할을 수행하여, 처리할 이미지의 치아 인스턴스 분할 결과를 획득하도록 구성되는 치아 인스턴스 분할 모듈(61) - 하나의 치아 인스턴스는 하나의 치아에 대응되고, 치아 인스턴스 분할 결과는 처리할 이미지 중의 픽셀이 속하는 치아 인스턴스의 정보를 포함함 - ; 및
치아 인스턴스 분할 결과에 기반하여 치아 위치 포지셔닝을 수행하여, 처리할 이미지의 치아 위치 포지셔닝 결과를 획득하도록 구성되는 치아 위치 포지셔닝 모듈(62)을 포함한다.
본 발명의 일부 실시예에서, 치아 인스턴스 분할 모듈(61)은, 처리할 이미지의 복수의 픽셀에서, 상이한 치아 인스턴스에 속하는 픽셀 집합을 순차적으로 예측하여, 처리할 이미지 중의 복수의 치아 인스턴스에 포함된 복수의 픽셀 집합의 예측 결과를 획득하고; 복수의 치아 인스턴스에 포함된 복수의 픽셀 집합의 예측 결과에 따라, 처리할 이미지의 치아 인스턴스 분할 결과를 획득하도록 구성된다.
본 발명의 일부 실시예에서, 치아 인스턴스 분할 모듈(61)은, 처리할 이미지의 복수의 처리할 픽셀에서, 타깃 치아 인스턴스의 중심 픽셀을 예측하며 - 처리할 픽셀은 처리할 이미지 중 어느 하나의 치아 인스턴스에 속하는 것으로 예측되지 않은 픽셀을 나타내고, 타깃 치아 인스턴스는 현재 예측된 치아 인스턴스를 나타냄 - ; 타깃 치아 인스턴스의 중심 픽셀의 좌표에 따라, 복수의 처리할 픽셀에서 타깃 치아 인스턴스에 속하는 픽셀 집합을 예측하여, 타깃 치아 인스턴스에 포함된 픽셀 집합의 예측 결과를 획득하도록 구성된다.
본 발명의 일부 실시예에서, 치아 인스턴스 분할 모듈(61)은, 처리할 이미지의 복수의 처리할 픽셀에서, 치아 인스턴스 중심에 위치할 확률이 가장 큰 제1 픽셀을 결정하고; 제1 픽셀이 치아 인스턴스 중심에 위치할 확률이 제1 기설정 값보다 크거나 같을 경우, 제1 픽셀을 타깃 치아 인스턴스의 중심 픽셀로 예측하도록 구성된다.
본 발명의 일부 실시예에서, 치아 인스턴스 분할 모듈(61)은, 복수의 처리할 픽셀에서, 치아 인스턴스 중심에 위치할 확률이 제1 기설정 값보다 크거나 같은 픽셀 수가 제2 기설정 값보다 크거나 같고, 제1 픽셀이 치아 인스턴스 중심에 위치할 확률이 제1 기설정 값보다 크거나 같을 경우, 제1 픽셀을 타깃 치아 인스턴스의 중심 픽셀로 예측하도록 구성된다.
본 발명의 일부 실시예에서, 치아 인스턴스 분할 모듈(61)은, 복수의 처리할 픽셀 중의 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표를 결정하며 - 제2 픽셀은 복수의 처리할 픽셀 중 어느 하나의 픽셀을 나타내고, 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표는 제2 픽셀에 기반하여 예측된 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀의 좌표를 나타냄 - ; 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표 및 타깃 치아 인스턴스의 중심 픽셀의 좌표에 따라, 제2 픽셀이 타깃 치아 인스턴스의 중심에 속할 확률을 예측하고; 제2 픽셀이 타깃 치아 인스턴스의 중심에 속할 확률에 따라, 복수의 처리할 픽셀에서 타깃 치아 인스턴스에 속하는 픽셀 집합을 예측하도록 구성된다.
본 발명의 일부 실시예에서, 치아 인스턴스 분할 모듈(61)은, 복수의 처리할 픽셀 중의 제2 픽셀로부터 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋을 결정하고; 제2 픽셀의 좌표 및 제2 픽셀로부터 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋에 따라, 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표를 결정하도록 구성된다.
본 발명의 일부 실시예에서, 치아 인스턴스 분할 모듈(61)은, 타깃 치아 인스턴스에 대응되는 클러스터링 파라미터를 예측하고 - 클러스터링 파라미터는 타깃 치아 인스턴스의 중심 픽셀의 예측 좌표의 이산 정도를 나타내기 위한 것임 - ; 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표, 타깃 치아 인스턴스의 중심 픽셀의 좌표 및 타깃 치아 인스턴스에 대응되는 클러스터링 파라미터에 따라, 제2 픽셀이 타깃 치아 인스턴스의 중심에 속할 확률을 예측하도록 구성된다.
본 발명의 일부 실시예에서, 장치(60)는,
처리할 이미지를 제1 신경망에 입력하고, 제1 신경망을 통해 제2 픽셀로부터 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋, 제2 픽셀이 속하는 치아 인스턴스의 클러스터링 파라미터 및 제2 픽셀이 치아 인스턴스 중심에 위치할 확률을 획득하도록 구성되는 제1 예측 모듈을 더 포함한다.
본 발명의 일부 실시예에서, 제1 신경망은 제1 디코더 및 제2 디코더를 포함하며;
제1 예측 모듈은, 처리할 이미지를 제1 신경망에 입력하고, 제1 디코더를 통해 제2 픽셀로부터 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋 및 제2 픽셀이 속하는 치아 인스턴스의 클러스터링 파라미터를 획득하며, 제2 디코더를 통해 제2 픽셀이 치아 인스턴스 중심에 위치할 확률을 획득하도록 구성된다.
본 발명의 일부 실시예에서, 장치(60)는,
트레이닝 이미지를 제1 신경망에 입력하고, 제1 신경망을 통해 트레이닝 이미지 중의 제3 픽셀로부터 제3 픽셀이 속하는 제1 치아 인스턴스의 중심 픽셀까지의 예측 오프셋, 제1 치아 인스턴스에 대응되는 클러스터링 파라미터 및 제3 픽셀이 치아 인스턴스 중심에 위치할 확률을 획득하도록 구성되는 제2 예측 모듈 - 제3 픽셀은 트레이닝 이미지 중 어느 하나의 픽셀을 나타내고, 제1 치아 인스턴스는 제3 픽셀이 속하는 치아 인스턴스를 나타냄 - ;
제3 픽셀의 좌표 및 제3 픽셀로부터 제1 치아 인스턴스의 중심 픽셀까지의 예측 오프셋에 따라, 제3 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표를 결정하도록 구성되는 제1 결정 모듈 - 제3 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표는 제3 픽셀에 기반하여 예측된 제1 치아 인스턴스의 중심 픽셀의 좌표를 나타냄 - ;
제3 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표, 제1 치아 인스턴스에 속하는 상이한 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표 및 제1 치아 인스턴스에 대응되는 클러스터링 파라미터에 따라, 제3 픽셀이 제1 치아 인스턴스의 중심에 속할 확률을 결정하도로구 구성되는 제2 결정 모듈; 및
제3 픽셀이 치아 인스턴스 중심에 위치할 확률, 제3 픽셀이 제1 치아 인스턴스의 중심에 속할 확률 및 제3 픽셀이 치아 내부에 속할 참값에 따라, 제1 신경망을 트레이닝하도록 구성되는 트레이닝 모듈을 더 포함한다.
본 발명의 일부 실시예에서, 치아 위치 포지셔닝 모듈(62)은, 치아 인스턴스 분할 결과 중의 제2 치아 인스턴스에 포함된 픽셀이 속하는 치아 위치 카테고리를 예측하고 - 제2 치아 인스턴스는 치아 인스턴스 분할 결과 중 어느 하나의 치아 인스턴스를 나타냄 - ; 제2 치아 인스턴스에 포함된 픽셀이 속하는 치아 위치 카테고리에 따라, 제2 치아 인스턴스가 속하는 치아 위치 카테고리를 결정하도록 구성된다.
본 발명의 일부 실시예에서, 장치(60)는,
분할할 이미지를 제1 해상도로 다운 샘플링하여, 제1 이미지를 획득하고; 제1 이미지에 따라, 처리할 이미지를 획득하도록 구성되는 다운 샘플링 모듈;
분할할 이미지에 따라, 제2 이미지를 획득하도록 구성되는 제3 결정모듈 - 제2 이미지의 해상도는 제2 해상도이고, 제2 해상도는 제1 해상도보다 높음 - ;
치아 인스턴스 분할 결과 중의 제3 치아 인스턴스의 중심 픽셀의 좌표에 따라, 제2 이미지에서, 제3 치아 인스턴스에 대응되는 이미지를 컷팅하도록 구성되는 제1 컷팅 모듈 - 제3 치아 인스턴스는 치아 인스턴스 분할 결과 중 어느 하나의 치아 인스턴스를 나타냄 - ; 및
제3 치아 인스턴스에 대응되는 이미지를 분할하여, 제2 해상도에서 제3 치아 인스턴스의 분할 결과를 획득하도록 구성되는 제1 분할 모듈을 더 포함한다.
본 발명의 일부 실시예에서, 장치(60)는,
분할할 이미지에 따라 상하 치아 분할을 수행하여, 분할할 이미지 중의 관심 영역을 결정하도록 구성되는 제2 분할 모듈; 및
관심 영역에 따라, 분할할 이미지를 컷팅하여, 처리할 이미지를 획득하도록 구성되는 제2 컷팅 모듈을 더 포함한다.
본 발명의 실시예에서, 처리할 이미지에 대해 치아 인스턴스 분할을 수행하여, 처리할 이미지의 치아 인스턴스 분할 결과를 획득하고, 치아 인스턴스 분할 결과에 기반하여 치아 위치 포지셔닝을 수행하여, 처리할 이미지의 치아 위치 포지셔닝 결과를 획득함으로써, 치아와 배경을 구분할 수 있을 뿐만 아니라 상이한 치아를 구분할 수 있는 치아 인스턴스 분할 결과에 기반하여 치아 위치 포지셔닝을 수행하여, 치아 위치 포지셔닝의 정확성을 향상시킬 수 있다.
본 발명의 일부 실시예에서, 본 발명의 실시예에서 제공되는 장치가 구비하는 기능 또는 장치에 포함된 모듈은 상기 방법 실시예에서 설명된 방법을 구현하도록 구성될 수 있으며, 그 구체적인 구현 및 기술적 효과에 대해서는 상기 방법 실시예의 설명을 참조할 수 있다.
본 발명의 실시예는 컴퓨터 프로그램 명령이 저장되는 컴퓨터 판독 가능 저장 매체를 더 제공하고, 상기 컴퓨터 프로그램 명령이 프로세서에 의해 실행될 경우 상기 방법을 구현한다. 여기서, 상기 컴퓨터 판독 가능 저장 매체는 비휘발성 컴퓨터 판독 가능 저장 매체, 또는 휘발성 컴퓨터 판독 가능 저장 매체일 수 있다.
본 발명의 실시예는 컴퓨터 판독 가능 코드가 포함된 컴퓨터 프로그램을 더 제공하고, 상기 컴퓨터 판독 가능 코드가 전자 기기에서 실행될 경우, 상기 전자 기기 중의 프로세서는 상기 어느 하나의 치아 이미지 처리 방법을 구현하기 위해 실행된다.
본 발명의 실시예는 컴퓨터 판독 가능 명령을 저장하도록 구성되는 다른 컴퓨터 프로그램 제품을 더 제공하고, 명령이 실행될 경우 컴퓨터가 상기 어느 하나의 실시예에서 제공되는 치아 이미지 처리 방법의 동작을 수행하도록 한다.
본 발명의 실시예는 전자 기기를 더 제공하며, 상기 전자 기기는 하나 이상의 프로세서; 및 실행 가능한 명령을 저장하도록 구성되는 메모리를 포함하고; 여기서, 상기 하나 이상의 프로세서는 상기 메모리에 저장된 실행 가능한 명령을 호출하도록 구성되어, 상기 방법을 구현한다.
전자 기기는 단말기, 서버 또는 다른 형태의 기기로 제공될 수 있다.
도 7은 본 발명의 실시예에서 제공되는 전자 기기(700)의 블록도를 도시한다. 예를 들어, 전자 기기(700)는 모바일 전화, 컴퓨터, 디지털 방송 단말기, 메시지 송수신 기기, 게임 콘솔, 태블릿 기기, 의료 기기, 헬스 기기 및 개인 휴대 정보 단말기 등 단말기일 수 있다.
도 7을 참조하면, 전자 기기(700)는 프로세싱 컴포넌트(702), 메모리(704), 전원 컴포넌트(706), 멀티미디어 컴포넌트(708), 오디오 컴포넌트(710), 입력/출력(Input/Output, I/O) 인터페이스(712), 센서 컴포넌트(714) 및 통신 컴포넌트(716) 중 하나 이상의 컴포넌트를 포함할 수 있다.
프로세싱 컴포넌트(702)는 일반적으로 디스플레이, 전화 통화, 데이터 통신, 카메라 동작 및 기록 동작과 관련된 동작과 같은 전자 기기(700)의 전체 동작을 제어한다. 프로세싱 컴포넌트(702)는, 상기 방법의 전부 또는 일부 단계를 완료하도록 하나 이상의 프로세서(720)를 포함하여 명령을 실행할 수 있다. 이외에, 프로세싱 컴포넌트(702)는, 프로세싱 컴포넌트(702)와 다른 컴포넌트 사이의 인터랙션을 진행하도록 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 프로세싱 컴포넌트(702)는, 멀티미디어 컴포넌트(708)와 프로세싱 컴포넌트(702) 사이의 인터랙션을 편리하게 진행하도록 멀티미디어 모듈을 포함할 수 있다.
메모리(704)는 다양한 유형의 데이터를 저장하여 전자 기기(700)에서의 동작을 지원한다. 이러한 데이터의 예시는 전자 기기(700)에서 동작하는 임의의 응용 프로그램 또는 방법의 명령, 연락처 데이터, 전화번호부 데이터, 메시지, 사진, 영상 등을 포함한다. 메모리(704)는, 정적 랜덤 액세스 메모리(Static Random-Access Memory, SRAM), 전기적으로 소거 가능한 프로그램 가능 판독 전용 메모리(Electrically Erasable Programmable Read Only Memory, EEPROM), 소거 가능한 프로그램 가능 판독 전용 메모리(Electrical Programmable Read Only Memory, EPROM), 프로그램 가능 판독 전용 메모리(Programmable Read-Only Memory, PROM), 판독 전용 메모리(Read-Only Memory, ROM), 자기 메모리, 플래시 메모리, 디스크 또는 광 디스크와 같은 임의의 유형의 휘발성 또는 비휘발성 저장 기기 또는 이들의 조합에 의해 구현될 수 있다.
전원 컴포넌트(706)은 전자 기기(700)의 다양한 컴포넌트에 전력을 제공한다. 전원 컴포넌트(706)는 전원 관리 시스템, 하나 이상의 전원, 및 전자 기기(700)의 생성, 관리, 및 전원 할당과 관련된 다른 컴포넌트를 포함할 수 있다.
멀티미디어 컴포넌트(708)는 상기 전자 기기(700)와 사용자 사이에 출력 인터페이스를 제공하는 스크린을 포함한다. 본 발명의 일부 실시예에서, 스크린은 액정 디스플레이(Liquid Crystal Display, LCD) 및 터치 패널(Touch Panel, TP)을 포함할 수 있다. 만약, 스크린이 터치 패널을 포함하면, 사용자로부터 입력 신호를 수신하도록 스크린은 터치 스크린으로 구현될 수 있다. 터치 패널은, 터치 패널에서의 터치, 슬라이드, 제스처를 감지하기 위한 하나 이상의 터치 센서를 포함한다. 상기 터치 센서는 터치 또는 슬라이드 동작의 경계를 감지할 뿐만 아니라 상기 터치 또는 슬라이드 동작와 관련된 지속 시간 및 압력을 감지할 수 있다. 본 발명의 일부 실시예에서, 멀티미디어 컴포넌트(708)는 하나의 전방 카메라 및/또는 후방 카메를 포함한다. 전자 기기(700)가, 촬영 모드 또는 영상 모드와 같은 동작 모드일 경우, 전방 카메라 및/또는 후방 카메라는 외부의 멀티미디어 데이터를 수신할 수 있다. 각각의 전방 카메라와 후방 카메라는 하나의 고정식 광학 렌즈 시스템이거나, 초점 거리 및 광학 줌 기능을 가질 수 있다.
오디오 컴포넌트(710)는 오디오 신호를 출력 및/또는 입력하도록 구성된다. 예를 들어, 오디오 컴포넌트(710)는 하나의 마이크(Microphone, MIC)를 포함하고 전자 기기(700)가 통화 모드, 기록 모드 및 음성 인식 모드와 같은 동작 모드일 경우, 마이크는 외부 오디오 신호를 수신하도록 구성된다. 본 발명의 일부 실시예에서, 수신된 오디오 신호는 메모리(704)에 저장되거나 통신 컴포넌트(716)를 통해 송신될 수 있다. 본 발명의 일부 실시예에서, 오디오 컴포넌트(710)는 오디오 신호를 출력하도록 구성되는 스피커를 더 포함한다.
I/O 인터페이스(712)는 프로세싱 컴포넌트(702)와 주변 장치 인터페이스 모듈 사이의 인터페이스를 제공하며, 상기 주변 장치 인터페이스 모듈은 키보드, 클릭 휠(Click Wheel), 버튼 등일 수 있다. 이러한 버튼은 홈 버튼, 볼륨 버튼, 시작 버튼 및 잠금 버튼을 포함할 수 있지만 이에 한정되지 않는다.
센서 컴포넌트(714)는 다양한 양태의 상태 평가를 전자 기기(700)에 제공하도록 구성되는 하나 이상의 센서를 포함한다. 예를 들어, 센서 컴포넌트(714)는 전자 기기(700)의 온/오프 상태, 컴포넌트의 상대적 위치를 감지할 수 있고, 예를 들어, 상기 컴포넌트는 전자 기기(700)의 디스플레이 및 키패드이고 센서 컴포넌트(714)는 전자 기기(700) 또는 전자 기기(700)의 컴포넌트의 위치 변화, 사용자와 전자 기기(700) 사이의 접촉 여부, 전자 기기(700) 방위 또는 가속/감속 및 전자 기기(700)의 온도 변화를 감지할 수 있다. 센서 컴포넌트(714)는 물리적 접촉없이 주변 물체의 존재를 감지하도록 구성되는 근접 센서를 포함할 수 있다. 센서 컴포넌트(714)는 이미징 애플리케이션에 사용하도로구 구성되는 상보성 금속 산화물 반도체(Complementary Metal Oxide Semiconductor, CMOS) 또는 전하 결합 소자(Charge-coupled Device, CCD) 이미지 센서와 같은 광 센서를 더 포함할 수 있다. 본 발명의 일부 실시예에서, 상기 센서 컴포넌트(714)는 가속도 센서, 자이로 센서, 자기 센서, 압력 센서 또는 온도 센서를 더 포함할 수 있다.
통신 컴포넌트(716)는 전자 기기(700)와 다른 기기 사이의 유선 또는 무선 방식의 통신이 용이하도록 구성된다. 전자 기기(700)는 무선 네트워크(WiFi), 2세대 이동통신 기술(2-Generation, 2G) 또는 3세대 이동통신 기술(3rd-Generation, 3G), 4세대 이동통신 기술(4-Generation, 4G)/범용 이동통신 기술의 롱 텀 에볼루션(Long Term Evolution, LTE), 5세대 이동통신 기술(5-Generation, 5G) 또는 이들의 조합과 같은 통신 표준에 기반한 무선 네트워크에 액세스할 수 있다. 예시적인 일 실시예에서, 통신 컴포넌트(716)는 방송 채널을 통해 외부 방송 관리 시스템으로부터 방송 신호 또는 방송 관련 정보를 수신한다. 예시적인 일 실시예에서, 상기 통신 컴포넌트(716)는 근거리 통신을 촉진하는 근거리 통신(Near Field Communication, NFC) 모듈을 더 포함한다. 예를 들어, NFC 모듈은 무선 주파수 식별(Radio Frequency Identification, RFID) 기술, 적외선 통신 규격(Infrared Data Association, IrDA) 기술, 초광대역(Ultra Wide Band, UWB) 기술, 블루투스(BitTorrent, BT) 기술 및 다른 기술 기반으로 구현될 수 있다.
예시적인 실시예에서, 전자 기기(700)는 하나 이상의 주문형 집적 회로(Application Specific Integrated Circuit, ASIC), 디지털 신호 프로세서(Digital Signal Process, DSP), 디지털 신호 프로세서 기기(Digital Signal Process Device, DSPD), 프로그램 가능 논리 소자(Programmable Logic Device, PLD), 필드 프로그램 가능 게이트 어레이(Field Programmable Gate Array, FPGA), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 다른 전자 소자에 의해 상기 방법을 구현할 수 있다.
예시적인 실시예에서, 컴퓨터 프로그램 명령을 포함하는 메모리(704)와 같은 비휘발성 컴퓨터 판독 가능 저장 매체를 더 제공하고, 상기 컴퓨터 프로그램 명령은 전자 기기(700)의 프로세서(720)에 의해 실행되어 상기 방법을 완성할 수 있다.
도 8은 본 발명의 실시예에서 제공되는 전자 기기(1900)의 블록도를 도시한다. 예를 들어, 전자 기기(1900)는 하나의 서버로 제공될 수 있다. 도 8을 참조하면 전자 기기(1900)는 본 발명의 일부 실시예에서 하나 이상의 프로세서를 포함하는 프로세싱 컴포넌트(1922) 및 프로세싱 컴포넌트(1922)가 실행 가능한 명령, 예를 들어 애플리케이션 프로그램을 저장하도록 구성되는 메모리(1932)를 대표로 하는 메모리 리소스를 포함한다. 메모리(1932)에 저장된 애플리케이션 프로그램은 하나 또는 하나 이상의 각각의 명령과 대응되는 모듈을 포함할 수 있다. 이 밖에 프로세싱 컴포넌트(1922)는 명령을 실행하도록 구성되어 상기 방법을 수행한다.
전자 기기(1900)는 전자 기기(1900)의 전원관리를 실행하도록 구성되는 하나의 전원 컴포넌트(1926), 전자 기기(1900)를 네트워크에 연결하도록 구성되는 하나의 유선 또는 무선 네트워크 인터페이스(1950), 및 하나의 입력/출력(I/O) 인터페이스(1958)를 더 포함할 수 있다. 전자 기기(1900)는 메모리(1932)에 저장된 운영체제, 예를 들어 윈도우 서버 운영체제(Windows ServerTM), 애플 사에서 출시한 그래픽 사용자 인터페이스 기반 운영체제(Mac OS XTM), 다중 사용자 및 다중 프로세스 컴퓨터 운영체제(UnixTM), 프리 앤 오픈 소스 코드의 Unix 유사 운영체제(LinuxTM), 오픈 소스 코드의 Unix 유사 운영체제(FreeBSDTM) 또는 이와 유사한 것을 작동시킬 수 있다.
예시적인 실시예에서, 컴퓨터 프로그램 명령을 포함하는 메모리(1932)와 같은 비휘발성 컴퓨터 판독 가능 저장 매체를 더 제공하고, 상기 컴퓨터 프로그램 명령은 전자 기기(1900)의 프로세싱 컴포넌트(1922)에 의해 실행되어 상기 방법을 완성할 수 있다.
본 발명의 실시예에서 언급된 기기는 시스템, 방법 및/또는 컴퓨터 프로그램 제품일 수 있다. 컴퓨터 프로그램 제품은 컴퓨터 판독 가능 저장 매체를 포함할 수 있고, 프로세서가 본 발명의 각 양태를 구현하도록 하는 컴퓨터 판독 가능 프로그램 명령이 로딩되어 있다.
컴퓨터 판독 가능 저장 매체는 명령에 의해 수행되는 기기가 사용하는 명령을 보존 및 저장 가능한 유형의 기기일 수 있다. 컴퓨터 판독 가능 저장 매체는 예를 들어 전기적 저장 기기, 마그네틱 저장 기기, 광 저장 기기, 전자기 저장 기기, 반도체 저장 기기 또는 상기 임의의 적합한 조합일 수 있지만 이에 한정되지 않는다. 컴퓨터 판독 가능 저장 매체의 보다 구체적인 예는(비 완전한 리스트), 휴대형 컴퓨터 디스크, 하드 디스크, 랜덤 액세스 메모리(Random Access Memory, RAM), ROM, EPROM 또는 플래시 메모리, SRAM, 휴대형 컴팩트 디스크 판동 전용 메모리(Compact Disc Read-Only Memory, CD-ROM), 디지털 비디오 디스크(Digital Video Disc, DVD), 메모리 스틱, 플로피 디스크, 기계 코딩 기기, 예를 들어 이에 명령이 저장된 펀칭 카드 또는 요홈 내의 돌기 구조, 및 상기 임의의 적합한 조합을 포함한다. 여기서 사용되는 컴퓨터 판독 가능 저장 매체는 예를 들어 무선 전자파 또는 다른 자유 전파의 전자파, 도파관 또는 다른 전송 매체를 통해 전파되는 전자파(예를 들어 광섬유 케이블의 광펄스), 또는 전선을 통해 전송되는 전자 신호와 같은 일시적 신호 자체로 해석되지 않는다.
여기서 서술되는 컴퓨터 판독 가능 프로그램 명령은 컴퓨터 판독 가능 저장 매체에서 각 컴퓨팅/처리 기기로 다운로드될 수 있거나, 또는 네트워크, 예를 들어 인터넷, 근거리 통신망, 광역 통신망 및/또는 무선망을 통해 외부 컴퓨터 또는 외부 저장 기기에 다운로드될 수 있다. 네트워크는 구리 전송 케이블, 광섬유 전송, 무선 전송, 라우터, 방화벽, 교환기, 게이트웨이 컴퓨터 및/또는 엣지 서버를 포함할 수 있다. 각각의 컴퓨팅/처리 기기 중의 네트워크 어댑터 카드 또는 네트워크 인터페이스는 네트워크에서 컴퓨터 판독 가능 프로그램 명령을 수신하고, 상기 컴퓨터 판독 가능 프로그램 명령을 전달하여, 각 컴퓨팅/처리 기기의 컴퓨터 판독 가능 저장 매체에 저장되도록 한다.
본 발명의 동작을 수행하기 위한 컴퓨터 프로그램 명령은 컴포넌트 명령, 명령 세트 아키텍처(Industry Standard Architecture, ISA) 명령, 기계 명령, 기계 관련 명령, 마이크로코드, 펌웨어 명령, 상태 설정 데이터, 또는 하나 이상의 프로그래밍 언어의 임의의 조합으로 프로그래밍된 소스 코드 또는 타깃 코드일 수 있고, 상기 프로그래밍 언어는 Smalltalk, C++를 비롯한 객체 지향 프로그래밍 언어와, "C" 언어 또는 유사한 프로그래밍 언어를 비롯한 기존 절차적 프로그래밍 언어를 포함한다. 컴퓨터 판독 가능 프로그램 명령은 완전히 사용자의 컴퓨터에서 실행되거나, 부분적으로 사용자의 컴퓨터에서 실행되거나, 독립형 소프트웨어 패키지로서 실행되거나, 일부는 사용자의 컴퓨터에서 실행되고 일부는 원격 컴퓨터에서 실행되거나, 또는 완전히 원격 컴퓨터 또는 서버에서 실행될 수 있다. 원격 컴퓨터의 경우, 원격 컴퓨터는 근거리 통신망(Local Area Network, LAN) 또는 광역 통신망(Wide Area Network, WAN)을 포함한 모든 종류의 네트워크를 통해 사용자의 컴퓨터에 연결되거나 외부 컴퓨터에 연결될 수 있다(예를 들어, 인터넷 서비스 제공 업체를 이용하여 인터넷을 통해 연결됨). 본 발명의 일부 실시예에서, 컴퓨터 판독 가능 프로그램 명령의 상태 정보를 이용하여, 예를 들어 프로그램 가능 논리 회로, FPGA 또는 프로그램 가능 논리 어레이(Programmable Logic Arrays, PLA)와 같은 전자 회로를 개인 맞춤하며, 상기 전자 회로는 컴퓨터 판독 가능 프로그램 명령을 실행함으로써, 본 발명의 각 양태를 구현한다.
여기서 본 발명의 실시예에 따른 방법, 장치(시스템) 및 컴퓨터 프로그램 제품의 흐름도 및/또는 블록도를 참조하여 본 발명의 각 양태를 서술한다. 이해해야 할 것은, 흐름도 및/또는 블록도의 각각의 블록 및 흐름도 및/또는 블록도에서 각 블록의 조합은 모두 컴퓨터 판독 가능 프로그램 명령에 의해 구현될 수 있다.
이러한 컴퓨터 판독 가능 프로그램 명령은 범용 컴퓨터, 전용 컴퓨터 또는 다른 프로그램 가능 데이터 처리 장치의 프로세서에 제공됨으로써, 기계를 생산할 수 있도록 하며, 이러한 명령이 컴퓨터 또는 다른 프로그램 가능 데이터 처리 장치의 프로세서를 통해 실행될 경우, 흐름도 및/또는 블록도 중의 하나 이상의 블록에 규정된 기능/동작을 구현하는 장치를 생성한다. 이러한 컴퓨터 판독 가능 프로그램 명령을 컴퓨터 판독 가능 저장 매체에 저장할 수도 있으며, 이러한 명령은 컴퓨터, 프로그램 가능 데이터 처리 장치 및/또는 다른 기기가 특정 방식으로 작동하도록 함으로써, 명령이 저장된 컴퓨터 판독 가능 매체는 하나의 제조품을 포함하고, 이는 흐름도 및/또는 블록도 중의 하나 이상의 블록에 규정된 기능/동작을 구현하는 각 양태의 명령을 포함한다.
컴퓨터 판독 가능 프로그램 명령을 컴퓨터, 다른 프로그램 가능 데이터 처리 장치, 또는 다른 기기에 로딩하여, 컴퓨터, 다른 프로그램 가능 데이터 처리 장치 또는 다른 기기에서 일련의 조작 단계가 수행되어, 컴퓨터 구현의 과정을 생성하도록 하여, 컴퓨터, 다른 프로그램 가능 데이터 처리 장치, 또는 다른 기기에서 실행되는 명령이 흐름도 및/또는 블록도 중의 하나 이상의 블록에 규정된 기능/동작을 구현하도록 할 수도 있다.
도면의 흐름도 및 블록도는 본 발명의 다양한 실시예에 따른 방법 및 컴퓨터 프로그램 제품의 구현 가능한 아키텍처, 기능 및 동작을 나타낸다. 이 점에서, 흐름도 또는 블록도의 각 블록은 지정된 논리적 기능을 구현하기 위한 하나 이상의 실행 가능한 명령을 포함하는 하나의 모듈, 프로그램 세그먼트 또는 명령의 일부를 나타낼 수 있다. 일부 대안적인 구현에서, 블록에 표기된 기능은 또한 도면에 도시된 것과 다른 순서로 구현될 수 있다. 예를 들어, 2개의 연속적인 블록은 실제로 병렬 실행될 수 있고, 관련 기능에 따라 때때로 역순으로 실행될 수도 있다. 또한, 블록도 및/또는 흐름도의 각 블록, 및 블록도 및/또는 흐름도에서 블록의 조합은 지정된 기능 또는 동작을 수행하는 전용 하드웨어 기반 시스템에서 구현될 수 있거나 전용 하드웨어와 컴퓨터 명령어를 조합하여 구현할 수도 있음에 유의해야 한다.
상기 컴퓨터 프로그램 제품은 구체적으로 하드웨어, 소프트웨어 또는 그 결합의 방식으로 구현될 수 있다. 하나의 선택 가능한 실시예에서, 상기 컴퓨터 프로그램 제품은 구체적으로 컴퓨터 저장 매체로 구현되며, 다른 선택 가능한 실시예에서, 컴퓨터 프로그램 제품은 구체적으로 소프트웨어 개발 키트(Software Development Kit, SDK)와 같은 소프트웨어 제품으로 구현된다.
상기와 같이 본 발명의 각 실시예를 서술하였고, 상기 설명은 예시적인 것으로서 완벽한 것이 아니며 공개된 각 실시예에 한정되지도 않는다. 설명되는 각 실시예의 범위와 구상을 벗어나지 않는 전제하에서, 수많은 보정 및 변경은 당업자에게 있어서 모두 자명한 것이다. 본문에서 사용되는 용어의 선택은 각 실시예의 원리, 실제 응용 또는 시장 중의 기술의 개선을 가장 잘 해석하기 위한 것이거나, 또는 다른 당업자가 본문에 공개된 각 실시예를 잘 이해하도록 하기 위한 것이다.
본 발명의 실시예는 치아 이미지 처리 방법, 장치, 전자 기기, 저장 매체 및 프로그램을 제공하는 바, 여기서, 치아 이미지 처리 방법은, 처리할 이미지에 대해 치아 인스턴스 분할을 수행하여, 상기 처리할 이미지의 치아 인스턴스 분할 결과를 획득하는 단계 - 하나의 치아 인스턴스는 하나의 치아에 대응되고, 상기 치아 인스턴스 분할 결과는 상기 처리할 이미지 중의 픽셀이 속하는 치아 인스턴스의 정보를 포함함 - ; 및 상기 치아 인스턴스 분할 결과에 기반하여 치아 위치 포지셔닝을 수행하여, 상기 처리할 이미지의 치아 위치 포지셔닝 결과를 획득하는 단계를 포함한다.

Claims (18)

  1. 치아 이미지 처리 방법으로서,
    상기 방법은 전자 기기에 의해 수행되고, 상기 치아 이미지 처리 방법은,
    처리할 이미지에 대해 치아 인스턴스 분할을 수행하여, 상기 처리할 이미지의 치아 인스턴스 분할 결과를 획득하는 단계 - 하나의 치아 인스턴스는 하나의 치아에 대응되고, 상기 치아 인스턴스 분할 결과는 상기 처리할 이미지 중의 픽셀이 속하는 치아 인스턴스의 정보를 포함함 - ; 및
    상기 치아 인스턴스 분할 결과에 기반하여 치아 위치 포지셔닝을 수행하여, 상기 처리할 이미지의 치아 위치 포지셔닝 결과를 획득하는 단계를 포함하는, 치아 이미지 처리 방법.
  2. 제1항에 있어서,
    상기 처리할 이미지에 대해 치아 인스턴스 분할을 수행하여, 상기 처리할 이미지의 치아 인스턴스 분할 결과를 획득하는 단계는,
    상기 처리할 이미지의 복수의 픽셀에서, 상이한 치아 인스턴스에 속하는 픽셀 집합을 순차적으로 예측하여, 상기 처리할 이미지 중의 복수의 치아 인스턴스에 포함된 복수의 픽셀 집합의 예측 결과를 획득하는 단계; 및
    상기 복수의 치아 인스턴스에 포함된 복수의 픽셀 집합의 예측 결과에 따라, 상기 처리할 이미지의 치아 인스턴스 분할 결과를 획득하는 단계를 포함하는, 치아 이미지 처리 방법.
  3. 제2항에 있어서,
    상기 처리할 이미지의 복수의 픽셀에서, 상이한 치아 인스턴스에 속하는 픽셀 집합을 순차적으로 예측하여, 상기 처리할 이미지 중의 복수의 치아 인스턴스에 포함된 복수의 픽셀 집합의 예측 결과를 획득하는 상기 단계는,
    상기 처리할 이미지의 복수의 처리할 픽셀에서, 타깃 치아 인스턴스의 중심 픽셀을 예측하는 단계 - 상기 처리할 픽셀은 상기 처리할 이미지 중 어느 하나의 치아 인스턴스에 속하는 것으로 예측되지 않은 픽셀을 나타내고, 상기 타깃 치아 인스턴스는 현재 예측된 치아 인스턴스를 나타냄 - ; 및
    상기 타깃 치아 인스턴스의 중심 픽셀의 좌표에 따라, 복수의 상기 처리할 픽셀에서 상기 타깃 치아 인스턴스에 속하는 픽셀 집합을 예측하여, 상기 타깃 치아 인스턴스에 포함된 픽셀 집합의 예측 결과를 획득하는 단계를 포함하는, 치아 이미지 처리 방법.
  4. 제3항에 있어서,
    상기 처리할 이미지의 복수의 처리할 픽셀에서, 타깃 치아 인스턴스의 중심 픽셀을 예측하는 상기 단계는,
    상기 처리할 이미지의 복수의 처리할 픽셀에서, 치아 인스턴스 중심에 위치할 확률이 가장 큰 제1 픽셀을 결정하는 단계; 및
    상기 제1 픽셀이 치아 인스턴스 중심에 위치할 확률이 제1 기설정 값보다 크거나 같을 경우, 상기 제1 픽셀을 상기 타깃 치아 인스턴스의 중심 픽셀로 예측하는 단계를 포함하는, 치아 이미지 처리 방법.
  5. 제4항에 있어서,
    상기 제1 픽셀이 치아 인스턴스 중심에 위치할 확률이 제1 기설정 값보다 크거나 같을 경우, 상기 제1 픽셀을 상기 타깃 치아 인스턴스의 중심 픽셀로 예측하는 상기 단계는,
    복수의 상기 처리할 픽셀에서, 상기 치아 인스턴스 중심에 위치할 확률이 상기 제1 기설정 값보다 크거나 같은 픽셀 수가 제2 기설정 값보다 크거나 같고, 상기 제1 픽셀이 상기 치아 인스턴스 중심에 위치할 확률이 상기 제1 기설정 값보다 크거나 같을 경우, 상기 제1 픽셀을 상기 타깃 치아 인스턴스의 중심 픽셀로 예측하는 단계를 포함하는, 치아 이미지 처리 방법.
  6. 제3항 내지 제5항 중 어느 한 항에 있어서,
    상기 타깃 치아 인스턴스의 중심 픽셀의 좌표에 따라, 복수의 상기 처리할 픽셀에서 상기 타깃 치아 인스턴스에 속하는 픽셀 집합을 예측하는 상기 단계는,
    복수의 상기 처리할 픽셀 중의 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표를 결정하는 단계 - 상기 제2 픽셀은 복수의 상기 처리할 픽셀 중 어느 하나의 픽셀을 나타내고, 상기 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표는 상기 제2 픽셀에 기반하여 예측된 상기 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀의 좌표를 나타냄 - ;
    상기 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표 및 상기 타깃 치아 인스턴스의 중심 픽셀의 좌표에 따라, 상기 제2 픽셀이 상기 타깃 치아 인스턴스의 중심에 속할 확률을 예측하는 단계; 및
    상기 제2 픽셀이 상기 타깃 치아 인스턴스의 중심에 속할 확률에 따라, 복수의 상기 처리할 픽셀에서 상기 타깃 치아 인스턴스에 속하는 픽셀 집합을 예측하는 단계를 포함하는, 치아 이미지 처리 방법.
  7. 제6항에 있어서,
    상기 복수의 상기 처리할 픽셀 중의 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표를 결정하는 단계는,
    복수의 상기 처리할 픽셀 중의 제2 픽셀로부터 상기 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋을 결정하는 단계; 및
    상기 제2 픽셀의 좌표 및 상기 제2 픽셀로부터 상기 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋에 따라, 상기 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표를 결정하는 단계를 포함하는, 치아 이미지 처리 방법.
  8. 제6항 또는 제7항에 있어서,
    상기 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표 및 상기 타깃 치아 인스턴스의 중심 픽셀의 좌표에 따라, 상기 제2 픽셀이 상기 타깃 치아 인스턴스의 중심에 속할 확률을 예측하는 상기 단계는,
    상기 타깃 치아 인스턴스에 대응되는 클러스터링 파라미터를 예측하는 단계 - 상기 클러스터링 파라미터는 상기 타깃 치아 인스턴스의 중심 픽셀의 예측 좌표의 이산 정도를 나타내기 위한 것임 - ; 및
    상기 제2 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표, 상기 타깃 치아 인스턴스의 중심 픽셀의 좌표 및 상기 타깃 치아 인스턴스에 대응되는 클러스터링 파라미터에 따라, 상기 제2 픽셀이 상기 타깃 치아 인스턴스의 중심에 속할 확률을 예측하는 단계를 포함하는, 치아 이미지 처리 방법.
  9. 제8항에 있어서,
    상기 치아 이미지 처리 방법은,
    상기 처리할 이미지를 제1 신경망에 입력하고, 상기 제1 신경망을 통해 상기 제2 픽셀로부터 상기 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋, 상기 제2 픽셀이 속하는 치아 인스턴스의 클러스터링 파라미터 및 상기 제2 픽셀이 치아 인스턴스 중심에 위치할 확률을 획득하는 단계를 더 포함하는, 치아 이미지 처리 방법.
  10. 제9항에 있어서,
    상기 제1 신경망은 제1 디코더 및 제2 디코더를 포함하며;
    상기 처리할 이미지를 제1 신경망에 입력하고, 상기 제1 신경망을 통해 상기 제2 픽셀로부터 상기 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋, 상기 제2 픽셀이 속하는 치아 인스턴스의 클러스터링 파라미터 및 상기 제2 픽셀이 치아 인스턴스 중심에 위치할 확률을 획득하는 단계는,
    상기 처리할 이미지를 제1 신경망에 입력하고, 상기 제1 디코더를 통해 상기 제2 픽셀로부터 상기 제2 픽셀이 속하는 치아 인스턴스의 중심 픽셀까지의 예측 오프셋 및 상기 제2 픽셀이 속하는 치아 인스턴스의 클러스터링 파라미터를 획득하며, 상기 제2 디코더를 통해 상기 제2 픽셀이 치아 인스턴스 중심에 위치할 확률을 획득하는 단계를 포함하는, 치아 이미지 처리 방법.
  11. 제9항 또는 제10항에 있어서,
    상기 처리할 이미지를 제1 신경망에 입력하는 단계 이전에, 상기 치아 이미지 처리 방법은,
    트레이닝 이미지를 상기 제1 신경망에 입력하고, 상기 제1 신경망을 통해 상기 트레이닝 이미지 중의 제3 픽셀로부터 상기 제3 픽셀이 속하는 제1 치아 인스턴스의 중심 픽셀까지의 예측 오프셋, 상기 제1 치아 인스턴스에 대응되는 클러스터링 파라미터 및 상기 제3 픽셀이 치아 인스턴스 중심에 위치할 확률을 획득하는 단계 - 상기 제3 픽셀은 상기 트레이닝 이미지 중 어느 하나의 픽셀을 나타내고, 상기 제1 치아 인스턴스는 상기 제3 픽셀이 속하는 치아 인스턴스를 나타냄 - ;
    상기 제3 픽셀의 좌표 및 상기 제3 픽셀로부터 상기 제1 치아 인스턴스의 중심 픽셀까지의 예측 오프셋에 따라, 상기 제3 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표를 결정하는 단계 - 상기 제3 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표는 상기 제3 픽셀에 기반하여 예측된 상기 제1 치아 인스턴스의 중심 픽셀의 좌표를 나타냄 - ;
    상기 제3 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표, 상기 제1 치아 인스턴스에 속하는 상이한 픽셀이 가리키는 치아 인스턴스 중심의 예측 좌표 및 상기 제1 치아 인스턴스에 대응되는 클러스터링 파라미터에 따라, 상기 제3 픽셀이 상기 제1 치아 인스턴스의 중심에 속할 확률을 결정하는 단계; 및
    상기 제3 픽셀이 치아 인스턴스 중심에 위치할 확률, 상기 제3 픽셀이 상기 제1 치아 인스턴스의 중심에 속할 확률 및 상기 제3 픽셀이 치아 내부에 속할 참값에 따라, 상기 제1 신경망을 트레이닝하는 단계를 더 포함하는, 치아 이미지 처리 방법.
  12. 제1항 내지 제11항 중 어느 한 항에 있어서,
    상기 치아 인스턴스 분할 결과에 기반하여 치아 위치 포지셔닝을 수행하여, 상기 처리할 이미지의 치아 위치 포지셔닝 결과를 획득하는 상기 단계는,
    상기 치아 인스턴스 분할 결과 중의 제2 치아 인스턴스에 포함된 픽셀이 속하는 치아 위치 카테고리를 예측하는 단계 - 상기 제2 치아 인스턴스는 상기 치아 인스턴스 분할 결과 중 어느 하나의 치아 인스턴스를 나타냄 - ; 및
    상기 제2 치아 인스턴스에 포함된 픽셀이 속하는 치아 위치 카테고리에 따라, 상기 제2 치아 인스턴스가 속하는 치아 위치 카테고리를 결정하는 단계를 포함하는, 치아 이미지 처리 방법.
  13. 제1항 내지 제12항 중 어느 한 항에 있어서,
    상기 처리할 이미지에 대해 치아 인스턴스 분할을 수행하는 단계 이전에, 상기 치아 이미지 처리 방법은,
    분할할 이미지를 제1 해상도로 다운 샘플링하여, 제1 이미지를 획득하는 단계; 및
    상기 제1 이미지에 따라, 상기 처리할 이미지를 획득하는 단계를 더 포함하고;
    상기 처리할 이미지의 치아 인스턴스 분할 결과를 획득하는 단계 이후에, 상기 치아 이미지 처리 방법은,
    상기 분할할 이미지에 따라, 제2 이미지를 획득하는 단계 - 상기 제2 이미지의 해상도는 제2 해상도이고, 상기 제2 해상도는 상기 제1 해상도보다 높음 - ;
    상기 치아 인스턴스 분할 결과 중의 제3 치아 인스턴스의 중심 픽셀의 좌표에 따라, 상기 제2 이미지에서, 상기 제3 치아 인스턴스에 대응되는 이미지를 컷팅하는 단계 - 상기 제3 치아 인스턴스는 상기 치아 인스턴스 분할 결과 중 어느 하나의 치아 인스턴스를 나타냄 - ; 및
    상기 제3 치아 인스턴스에 대응되는 이미지를 분할하여, 상기 제2 해상도에서 상기 제3 치아 인스턴스의 분할 결과를 획득하는 단계를 더 포함하는, 치아 이미지 처리 방법.
  14. 제1항 내지 제13항 중 어느 한 항에 있어서,
    상기 처리할 이미지에 대해 치아 인스턴스 분할을 수행하는 단계 이전에, 상기 치아 이미지 처리 방법은,
    분할할 이미지에 따라 상하 치아 분할을 수행하여, 상기 분할할 이미지 중의 관심 영역을 결정하는 단계; 및
    상기 관심 영역에 따라, 상기 분할할 이미지를 컷팅하여, 상기 처리할 이미지를 획득하는 단계를 더 포함하는, 치아 이미지 처리 방법.
  15. 치아 이미지 처리 장치로서,
    처리할 이미지에 대해 치아 인스턴스 분할을 수행하여, 상기 처리할 이미지의 치아 인스턴스 분할 결과를 획득하도록 구성되는 치아 인스턴스 분할 모듈 - 하나의 치아 인스턴스는 하나의 치아에 대응되고, 상기 치아 인스턴스 분할 결과는 상기 처리할 이미지 중의 픽셀이 속하는 치아 인스턴스의 정보를 포함함 - ; 및
    상기 치아 인스턴스 분할 결과에 기반하여 치아 위치 포지셔닝을 수행하여, 상기 처리할 이미지의 치아 위치 포지셔닝 결과를 획득하도록 구성되는 치아 위치 포지셔닝 모듈을 포함하는, 치아 이미지 처리 장치.
  16. 전자 기기로서,
    하나 이상의 프로세서; 및
    실행 가능한 명령을 저장하도록 구성되는 메모리를 포함하고;
    상기 하나 이상의 프로세서는 상기 메모리에 저장된 실행 가능한 명령을 호출하도록 구성되어, 제1항 내지 제14항 중 어느 한 항에 따른 치아 이미지 처리 방법을 수행하는, 전자 기기.
  17. 컴퓨터 판독 가능 저장 매체로서,
    컴퓨터 프로그램 명령이 저장되고,
    상기 컴퓨터 프로그램 명령이 프로세서에 의해 실행될 경우 제1항 내지 제14항 중 어느 한 항에 따른 치아 이미지 처리 방법을 구현하는, 컴퓨터 판독 가능 저장 매체.
  18. 컴퓨터 프로그램으로서,
    상기 컴퓨터 프로그램은 컴퓨터 판독 가능 코드를 포함하고, 상기 컴퓨터 판독 가능 코드가 전자 기기에서 실행될 경우, 상기 전자 기기의 프로세서는 제1항 내지 제14항 중 어느 한 항에 따른 치아 이미지 처리 방법을 구현하기 위해 실행되는, 컴퓨터 프로그램.
KR1020227001270A 2020-11-10 2021-04-22 치아 이미지 처리 방법, 장치, 전자 기기, 저장 매체 및 프로그램 KR20220012991A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202011246718.0A CN112308867B (zh) 2020-11-10 2020-11-10 牙齿图像的处理方法及装置、电子设备和存储介质
CN202011246718.0 2020-11-10
PCT/CN2021/089058 WO2022100005A1 (zh) 2020-11-10 2021-04-22 牙齿图像的处理方法、装置、电子设备、存储介质及程序

Publications (1)

Publication Number Publication Date
KR20220012991A true KR20220012991A (ko) 2022-02-04

Family

ID=80268658

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227001270A KR20220012991A (ko) 2020-11-10 2021-04-22 치아 이미지 처리 방법, 장치, 전자 기기, 저장 매체 및 프로그램

Country Status (2)

Country Link
JP (1) JP2023504957A (ko)
KR (1) KR20220012991A (ko)

Also Published As

Publication number Publication date
JP2023504957A (ja) 2023-02-08

Similar Documents

Publication Publication Date Title
JP7186287B2 (ja) 画像処理方法及び装置、電子機器並びに記憶媒体
TWI754375B (zh) 圖像處理方法、電子設備、電腦可讀儲存介質
WO2022151755A1 (zh) 目标检测方法及装置、电子设备、存储介质、计算机程序产品和计算机程序
CA2930184C (en) Method and system for wound assessment and management
KR20210107667A (ko) 이미지 분할 방법 및 장치, 전자 기기 및 저장 매체
JP2022521130A (ja) ネットワークトレーニング、画像処理方法および電子機器、記憶媒体並びにコンピュータプログラム
CN111899268B (zh) 图像分割方法及装置、电子设备和存储介质
CN112967291B (zh) 图像处理方法及装置、电子设备和存储介质
JP2022535219A (ja) 画像分割方法及び装置、電子機器並びに記憶媒体
WO2021189848A1 (zh) 模型训练方法、杯盘比确定方法、装置、设备及存储介质
WO2022121170A1 (zh) 图像处理方法及装置、电子设备、存储介质和程序
CN113012166A (zh) 颅内动脉瘤分割方法及装置、电子设备和存储介质
WO2022100005A1 (zh) 牙齿图像的处理方法、装置、电子设备、存储介质及程序
CN112927239A (zh) 图像处理方法、装置、电子设备及存储介质
WO2022022350A1 (zh) 图像处理方法及装置、电子设备、存储介质和计算机程序产品
JP2022518583A (ja) ニューラルネットワークトレーニングおよび画像分割方法、装置、機器
CN117218133A (zh) 肺图像处理方法及装置、电子设备和存储介质
JP2022548453A (ja) 画像分割方法及び装置、電子デバイス並びに記憶媒体
KR20220012991A (ko) 치아 이미지 처리 방법, 장치, 전자 기기, 저장 매체 및 프로그램
CN114782345A (zh) 基于人工智能的口腔检测方法、装置、电子设备及介质
CN112927275A (zh) 一种图像处理方法及装置、电子设备和存储介质
CN112802032A (zh) 图像分割网络的训练和图像处理方法、装置、设备及介质
CN113576488B (zh) 基于心率的肺影像组学的确定方法及装置、设备及介质
CN116758207A (zh) 图像渲染模型的训练方法和图像渲染方法
CN116864064A (zh) 一种医学影像报告的生成方法、装置及存储介质