KR102527955B1 - 이미지 처리 장치, 및 이미지 처리 방법 - Google Patents

이미지 처리 장치, 및 이미지 처리 방법 Download PDF

Info

Publication number
KR102527955B1
KR102527955B1 KR1020220026906A KR20220026906A KR102527955B1 KR 102527955 B1 KR102527955 B1 KR 102527955B1 KR 1020220026906 A KR1020220026906 A KR 1020220026906A KR 20220026906 A KR20220026906 A KR 20220026906A KR 102527955 B1 KR102527955 B1 KR 102527955B1
Authority
KR
South Korea
Prior art keywords
data
hole
image processing
scan data
meshes
Prior art date
Application number
KR1020220026906A
Other languages
English (en)
Other versions
KR20220169380A (ko
Inventor
김진영
김두수
Original Assignee
주식회사 메디트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메디트 filed Critical 주식회사 메디트
Priority to PCT/KR2022/007770 priority Critical patent/WO2022265270A1/ko
Priority to US18/289,832 priority patent/US20240242440A1/en
Priority to CN202280028069.8A priority patent/CN117178300A/zh
Priority to EP22825196.3A priority patent/EP4322113A1/en
Publication of KR20220169380A publication Critical patent/KR20220169380A/ko
Application granted granted Critical
Publication of KR102527955B1 publication Critical patent/KR102527955B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10008Still image; Photographic image from scanner, fax or copier
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

개시된 실시예들은 이미지 처리 방법 및 이미지 처리 장치에 관한 것으로, 일 실시예에 따른 이미지의 처리 방법은, 홀을 포함하는 대상체를 스캔한 3차원 스캔 데이터를 획득하는 단계, 스캔 데이터에 기초하여, 홀 영역에 대응하는 데이터를 획득하는 단계, 및 스캔 데이터와 홀 영역에 대응하는 데이터에 기초하여, 홀이 채워진 형태를 나타내는 최종 모델을 표시하는 단계를 포함할 수 있다.

Description

이미지 처리 장치, 및 이미지 처리 방법{An image processing apparatus, and an image processing method}
개시된 실시예는 이미지 처리 장치 및 이미지 처리 방법에 관한 것으로, 구체적으로, 홀을 포함하는 대상체에 대한 스캔 이미지로부터 대상체의 홀이 채워진 형태의 이미지를 획득하는 이미지 처리 장치 및 처리 방법에 관한 것이다.
노화나 풍치, 심한 충치, 외부 충격에 의해 치아가 심하게 파손된 경우 등 불가피하게 치아를 발치 해야 하는 경우가 발생한다. 발치를 하게 될 경우, 그 상태로 방치하게 되면 주변 치아들이 빈 공간으로 눕거나 이동이 일어나 주변 치아에까지 안좋은 영향을 줄 수 있다. 따라서, 치아의 결손이 있는 부위에 임플란트(implant)를 해야할 필요가 있다.
임플란트는 픽스쳐(fixture), 어버트먼트(abutment) 및 크라운(crown)을 포함할 수 있다. 픽스쳐는 자연치아의 뿌리에 상응하는 구조체로 잇몸 뼈 속에 들어가게 된다. 어버트먼트는 픽스쳐와 크라운을 연결해주는 중간 연결 부위로, 잇몸 위로 올라오게 된다. 또한, 크라운은 치아 모형의 최종 보철물로 일반적으로 치아로 나타나는 부분을 의미한다.
어버트먼트에는 픽스쳐와의 결합을 위한 나사홀이 존재하며, 어버트먼트를 스캔한 후에, 이를 기초로 크라운을 디자인하여 생성하게 된다. 이때, 스캔된 나사홀을 기초로 크라운을 디자인하게 되면, 크라운 내면이 나사홀로 인해 잘못 디자인될 수 있다. 따라서, 이를 방지하기 위해 어버트먼트를 스캔하기 전에 나사홀을 수지 등으로 메워 평평하게 만든 후에 어버트먼트를 스캔하고, 스캔이 완료되면 메웠던 수지를 제거하는 과정을 수행한다. 그러나, 이러한 과정은 용이하지 않으며, 작업 효율을 크게 떨어뜨린다는 문제점이 있다.
개시된 실시예는, 홀을 포함하는 대상체를 스캔하였을 때, 대상체의 홀이 자동으로 채워진 이미지를 획득하기 위한 이미지 처리 방법 및 그에 따른 동작을 수행하는 장치의 제공을 목적으로 한다.
일 실시예에 따른 이미지 처리 방법은, 홀을 포함하는 대상체를 스캔한 3차원 스캔 데이터를 획득하는 단계, 상기 스캔 데이터에 기초하여, 상기 홀 영역에 대응하는 데이터를 획득하는 단계, 및 상기 스캔 데이터와 상기 홀 영역에 대응하는 데이터에 기초하여, 상기 홀이 채워진 형태를 나타내는 최종 모델을 표시하는 단계를 포함할 수 있다.
일 실시예에 따른 상기 최종 모델을 표시하는 단계는, 상기 스캔 데이터에서 상기 홀의 내면 영역에 대한 데이터를 삭제하는 단계, 상기 홀의 내면 영역에 대한 데이터가 삭제된 스캔 데이터와 상기 홀 영역에 대응하는 데이터를 합성한 상기 최종 모델을 표시하는 단계를 포함할 수 있다.
일 실시예에 따른 상기 스캔 데이터에 기초하여, 상기 홀 영역에 대응하는 데이터를 획득하는 단계는, 상기 스캔 데이터를 둘러싸는 3차원 모델을 획득하는 단계, 상기 3차원 모델 및 상기 스캔 데이터에 기초하여, 상기 대상체의 표면에 대응하는 메쉬 데이터를 획득하는 단계, 및 상기 메쉬 데이터에서 상기 홀 영역에 대응하는 데이터를 획득하는 단계를 포함할 수 있다.
일 실시예에 따른 상기 3차원 모델은 상기 스캔 데이터에 대한 3차원 볼록 껍질(3d convex hull)을 포함할 수 있다.
일 실시예에 따른 상기 3차원 모델 및 상기 스캔 데이터에 기초하여, 상기 대상체의 표면에 대응하는 메쉬 데이터를 획득하는 단계는, 상기 3차원 모델에 기초하여, 제1 메쉬 데이터를 획득하는 단계, 및 상기 제1 메쉬 데이터 및 상기 스캔 데이터에 기초하여, 제2 메쉬 데이터를 획득하는 단계를 포함하고, 상기 제2 메쉬 데이터에 포함되는 제2 메쉬들의 밀도는 상기 제1 메쉬 데이터에 포함되는 제1 메쉬들의 밀도보다 클 수 있다.
일 실시예에 따른 상기 제1 메쉬 데이터 및 상기 스캔 데이터에 기초하여, 상기 제2 메쉬 데이터를 획득하는 단계는, 상기 제1 메쉬 데이터에 포함되는 제1 메쉬들을 상기 스캔 데이터에 포함되는 제3 메쉬들로 프로젝션하는 단계, 상기 프로젝션된 메쉬들을 세분화하는(subdivide) 단계, 및 상기 세분화된 메쉬들을 수축시킴으로써(shrink), 상기 제2 메쉬들을 생성하는 단계를 포함할 수 있다.
일 실시예에 따른 이미지 처리 방법은, 상기 스캔 데이터에서 상기 홀의 내면 영역을 검출하는 단계를 더 포함하고, 상기 제1 메쉬들을 상기 제3 메쉬들로 프로젝션하는 단계는, 상기 제1 메쉬들이 상기 홀의 내면 영역에 대응하는 지 여부에 기초하여, 상기 제1 메쉬들을 상기 제3 메쉬들로 프로젝션하는 단계를 포함할 수 있다.
일 실시예에 따른 상기 제2 메쉬들의 밀도와 상기 스캔 데이터에 포함되는 제3 메쉬들의 밀도의 차이는 기 설정된 값 미만일 수 있다.
일 실시예에 따른 상기 제2 메쉬들의 표면적은 상기 제1 메쉬들의 표면적보다 작을 수 있다.
일 실시예에 따른 상기 메쉬 데이터에서 상기 홀 영역에 대응하는 데이터를 획득하는 단계는, 상기 메쉬 데이터에서, 상기 스캔 데이터와 오버랩되는 메쉬 데이터를 삭제하는 단계를 포함할 수 있다.
일 실시예에 따른 상기 최종 모델을 표시하는 단계는, 상기 스캔 데이터에서, 상기 메쉬 데이터와 상기 스캔 데이터가 오버랩되지 않는 영역의 경계를 검출하고, 상기 경계를 기준으로 상기 홀의 내면 영역에 대한 데이터를 삭제하는 단계, 및 상기 홀의 내면 영역에 대한 데이터가 삭제된 스캔 데이터와 상기 홀 영역에 대응하는 데이터를 합성한 상기 최종 모델을 표시하는 단계를 포함할 수 있다.
일 실시예에 따른 상기 최종 모델을 표시하는 단계는, 상기 홀이 채워진 영역을 다른 영역과 구별되도록 표시하는 단계를 포함할 수 있다.
일 실시예에 따른 상기 대상체는 나사홀을 포함하는 어버트먼트를 포함할 수 있다.
일 실시예에 따른 이미지 처리 장치는, 디스플레이, 하나 이상의 인스트럭션들을 저장하는 메모리, 및 프로세서를 포함하고, 상기 프로세서는, 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행함으로써, 홀을 포함하는 대상체를 스캔한 3차원 스캔 데이터를 획득하고, 상기 스캔 데이터에 기초하여, 상기 홀 영역에 대응하는 데이터를 획득하며, 상기 스캔 데이터와 상기 홀 영역에 대응하는 데이터에 기초하여, 상기 홀이 채워진 형태를 나타내는 최종 모델을 표시하도록 상기 디스플레이를 제어할 수 있다.
개시된 실시예에 따른 이미지의 처리 장치, 및 구강 이미지 처리 방법은, 대상체의 홀이 채워진 형태의 이미지를 획득하기 위해, 대상체를 스캔하기 전에 홀에 수지 등을 메우고 스캔 후에 수지 등을 제거할 필요가 없다.
이에 따라, 작업 효율을 향상시킬 수 있으며, 구강 내에 삽입된 대상체에 대해서도 홀이 채워진 형태의 이미지를 용이하게 획득할 수 있다.
본 발명은, 다음의 자세한 설명과 그에 수반되는 도면들의 결합으로 쉽게 이해될 수 있으며, 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미한다.
도 1은 개시된 실시예에 따른 이미지 처리 시스템을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 어버트먼트를 스캔할 때, 나사홀을 충전재로 채워야 하는 이유를 나타내는 도면이다.
도 3은 일 실시예에 따른 이미지 처리 장치가 대상체에 대한 스캔 데이터를 획득하는 방법을 나타내는 도면이다.
도 4 및 도 5는 일 실시예에 따른 이미지 처리 장치가 대상체의 홀이 채워진 형태의 이미지를 생성하는 방법을 나타내는 도면들이다.
도 6은 일 실시예에 따른 스캔 데이터와 랩핑 메쉬 데이터를 합성하는 방법을 나타내는 도면이다.
도 7은 일 실시예에 따른 초기 메쉬 데이터에서 랩핑 메쉬 데이터를 생성할 때, 프로젝션할 영역을 결정하기 위한 방법을 나타내는 도면이다.
도 8은 일 실시예에 따른 이미지 처리 장치가 스캔되지 않은 영역의 이미지 처리 방법을 설명하기 위한 도면이다.
도 9는 일 실시예에 따른 이미지 처리 장치가 대상체의 표면에 존재하는 홈(groove)를 처리하는 방법을 설명하기 위한 도면이다.
도 10a 및 도 10b는 일 실시예에 따른 스캔 데이터에서 대상체의 홀 영역이 채워진 경우에 이미지를 처리하는 방법을 설명하기 위한 도면들이다.
도 11은 일 실시예에 따른 스캔 데이터에서 대상체의 홀 영역이 채워진 경우에 이미지를 처리하는 방법을 설명하기 위한 도면이다.
도 12는 일 실시예에 따른 이미지 처리 장치가 최종 모델에서 채워진 홀을 표시하는 방법을 나타내는 도면이다.
도 13은 일 실시예에 따른 이미지 처리 장치가 대상체의 홀이 채워진 상태의 이미지를 획득하는 방법을 설명하기 위한 도면이다.
도 14는 일 실시예에 따른 이미지 처리 방법을 나타내는 흐름도이다.
도 15는 일 실시예에 따른 이미지 처리 장치를 나타내는 블록도이다.
본 명세서는 본 발명의 권리범위를 명확히 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 실시할 수 있도록, 본 발명의 원리를 설명하고, 실시예들을 개시한다. 개시된 실시예들은 다양한 형태로 구현될 수 있다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부'(part, portion)라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부'가 하나의 요소(unit, element)로 구현되거나, 하나의 '부'가 복수의 요소들을 포함하는 것도 가능하다. 이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예들에 대해 설명한다.
본 명세서에서 이미지는 적어도 하나의 치아, 또는 적어도 하나의 치아를 포함하는 구강을 나타내는 이미지를 포함할 수 있다.
또한, 본 명세서에서 이미지는 대상체에 대한 2차원 이미지 또는 대상체를 입체적으로 나타내는 3차원 모델 또는 3차원 이미지가 될 수 있다. 또한, 본 명세서에서 이미지는 대상체를 2차원 또는 3차원적으로 표현하기 위해서 필요한 데이터, 예를 들어, 적어도 하나의 이미지 센서로부터 획득된 로우 데이터(raw data) 등을 의미할 수 있다. 구체적으로, 로우 데이터는 이미지를 생성하기 위해서 획득되는 데이터로, 3차원 스캐너를 이용하여 대상체를 스캔(scan)할 때 3차원 스캐너에 포함되는 적어도 하나의 이미지 센서에서 획득되는 데이터(예를 들어, 2차원 데이터)가 될 수 있다.
본 명세서에서 '대상체(object)'는 치아, 치은, 구강의 적어도 일부 영역, 및/또는 구강 내에 삽입 가능한 인공 구조물(예를 들어, 교정 장치, 임플란트, 인공 치아, 구강 내 삽입되는 교정 보조 도구 등) 등을 포함할 수 있다. 여기서, 교정 장치는 브라켓, 어태치먼트(attachment), 교정용 나사, 설측 교정 장치, 및 가철식 교정 유지 장치 중 적어도 하나를 포함할 수 있다.
이하에서는 도면을 참조하여 실시 예들을 상세히 설명한다.
도 1은 개시된 실시예에 따른 이미지 처리 시스템을 설명하기 위한 도면이다.
도 1을 참조하면, 이미지 처리 시스템은 3차원 스캐너(10, 50) 및 구강 이미지 처리 장치(100)를 포함한다. 3차원 스캐너(10, 50)와 이미지 처리 장치(100)는 통신망(30)을 통해 통신을 수행할 수 있다.
3차원 스캐너(10, 50)는 대상체를 스캔하는 장치로써, 대상체의 이미지를 획득하는 의료 장치일 수 있다.
3차원 스캐너(10, 50)는 구강이나 인공 구조물, 또는 구강이나 인공 구조물을 본 뜬 석고 모형 중 적어도 하나에 대한 이미지를 획득할 수 있다.
3차원 스캐너(10, 50)는 구강 스캐너(10)와 테이블 스캐너(50) 중 적어도 하나를 포함할 수 있다.
실시 예에서, 3차원 스캐너(10, 50)는 구강 스캐너(10)를 포함할 수 있다. 구강 스캐너(10)는 사용자가 손으로 잡고 이동하면서 구강을 스캔하는 핸드 헬드(handheld)형일 수 있다. 구강 스캐너(10)는 구강 내에 삽입되어 비 접촉식으로 치아를 스캐닝함으로써, 적어도 하나의 치아를 포함하는 구강에 대한 이미지를 획득할 수 있다. 또한, 구강 스캐너(10)는 구강 내에 인입 및 인출이 가능한 형태를 가질 수 있으며, 적어도 하나의 이미지 센서(예를 들어, 광학 카메라 등)를 이용하여 환자의 구강 내부를 스캔한다.
구강 스캐너(10)는 본체(11)와 팁(13)을 포함할 수 있다. 본체(11)는 광을 투사하는 광 조사부(미도시)와 대상체를 촬영하여 이미지를 획득하는 카메라(미도시)를 포함할 수 있다.
팁(13)은 구강 내에 삽입되는 부분으로, 탈부착이 가능한 구조로 본체(11)에 장착될 수 있다. 팁(13)은 광 경로 변경 수단을 포함하여, 본체(11)로부터 조사된 광을 대상체로 향하게 하고, 대상체로부터 수신된 광을 본체(11)로 향하게 하도록 할 수 있다.
구강 스캐너(10)는 구강 내부의 치아, 치은 및 구강 내에 삽입 가능한 인공 구조물(예를 들어, 브라켓 및 와이어 등을 포함하는 교정 장치, 임플란트, 인공 치아, 구강 내 삽입되는 교정 보조 도구 등) 중 적어도 하나의 표면을 이미징하기 위해서, 대상체에 대한 표면 정보를 로우 데이터(raw data)로 획득할 수 있다.
실시 예에서, 3차원 스캐너(10, 50)는 테이블 스캐너(50)를 포함할 수 있다. 테이블 스캐너(50)는 테이블(57)의 회전을 이용하여 대상체(58)를 스캔함으로써 대상체(58)에 대한 표면 정보를 로우 데이터(raw data)로 획득하는 스캐너일 수 있다. 테이블 스캐너(50)는 구강을 본 뜬 석고 모형이나 임프레션 모형, 구강에 삽입 가능한 인공 구조물, 또는 인공 구조물을 본 뜬 석고 모형이나 임프레션 모형 등의 대상체(58)의 표면을 스캔할 수 있다.
테이블 스캐너(50)는 하우징(51)의 내측 방향으로 함몰되어 형성되는 내부 공간을 포함할 수 있다. 내부 공간의 측면에는 대상체(58)를 거치할 수 있으며, 대상체(58)를 이동시킬 수 있는 이동부(52)가 형성될 수 있다. 이동부(52)는 z축 방향을 따라 상하 방향으로 이동할 수 있다. 이동부(52)는 제1 회전부(54)와 연결된 고정 베이스(53), 고정 베이스(53) 상의 일 지점을 중심축으로, 예컨대, x축을 중심축으로 한 제1 회전 방향(M1)으로 회전 가능한 제1 회전부(54), 및 제1 회전부(54)와 연결되어 제1 회전부(54)로부터 돌출되어 형성된 빔부(beam portion, 56)를 포함할 수 있다. 빔부(56)는 x축 방향으로 연장 또는 단축될 수 있다.
빔부(56)의 타단에는 z축을 회전축으로 하는 제2 회전 방향(M2)으로 회전할 수 있는 원통 형상의 제2 회전부(115)가 결합될 수 있다. 제2 회전부(55)의 일면 상에는 제2 회전부(55)와 함께 회전하는 테이블(57)이 형성될 수 있다.
내부 공간에는 광학부(59)가 형성될 수 있다. 광학부(59)는 대상체(58)에 패턴 광을 조사(project)하는 광 조사부와, 대상체(58)로부터 반사된 광을 수용하여 복수의 2차원 프레임들을 획득하는 적어도 하나의 카메라를 포함할 수 있다. 광학부(59)는 내부 공간의 측면에 결합된 상태에서, 광 조사부(미도시)의 중심을 회전축으로 하여 회전하는 제2 회전부(미도시)를 더 포함할 수 있다. 제2 회전부는 광 조사부, 제1 및 제2 카메라를 제3 회전 방향(M3)으로 회전시킬 수 있다.
3차원 스캐너(10, 50)는 획득한 로우 데이터를 통신망(130)를 통하여 이미지 처리 장치(100)로 전송할 수 있다. 3차원 스캐너(10, 50)에서 획득된 이미지 데이터는 유선 또는 무선 통신망(30)을 통하여 연결되는 이미지 처리 장치(100)로 전송될 수 있다.
이미지 처리 장치(100)는 3차원 스캐너(10, 50)와 유선 또는 무선 통신 망(30)을 통하여 연결되며, 3차원 스캐너(10, 50)로부터 대상체를 스캔하여 획득된 이차원 이미지를 수신하고, 수신된 이차원 이미지에 근거하여 이미지를 생성, 처리, 디스플레이 및/또는 전송할 수 있는 모든 전자 장치가 될 수 있다.
이미지 처리 장치(100)는 스마트 폰(smart phone), 랩탑 컴퓨터, 데스크탑 컴퓨터, PDA, 태블릿 PC 등의 컴퓨팅 장치가 될 수 있으며, 이에 한정되지 않는다. 또한, 구강 이미지 처리 장치(100)는 구강 이미지를 처리하기 위한 서버(또는 서버 장치) 등의 형태로 존재할 수도 있을 것이다.
이미지 처리 장치(100)는 3차원 스캐너(10, 50)에서 수신된 이차원 이미지 데이터를 처리하여 정보를 생성하거나, 이차원 이미지 데이터를 처리하여 이미지를 생성할 수 있다. 또한, 구강 이미지 처리 장치(100)는 생성된 정보 및 이미지를 디스플레이(130)를 통하여 디스플레이 할 수 있다.
또한, 3차원 스캐너(10, 50)는 스캔을 통하여 획득된 로우 데이터(raw data)를 그대로 이미지 처리 장치(100)로 전송할 수 있다. 이 경우, 이미지 처리 장치(100)는 수신된 로우 데이터에 근거하여 구강을 3차원적으로 나타내는 3차원 구강 이미지를 생성할 수 있다. 일 실시예에 따른 이미지 처리 장치(100)는 수신한 로우 데이터에 기초하여, 대상체의 표면의 형상을 3차원적으로 나타내는 3차원 데이터(예를 들어, 표면 데이터, 메쉬 데이터 등)를 생성할 수 있다.
또한, '3차원 이미지'는 수신된 로우 데이터에 근거하여 대상체를 3차원적으로 모델링(modeling)하여 생성될 수 있으므로, '3차원 모델'로 호칭될 수도 있다. 이하에서는, 대상체를 2차원 또는 3차원적으로 나타내는 모델 또는 이미지를 통칭하여, '이미지'라 칭하도록 한다.
또한, 이미지 처리 장치(100)는 생성된 이미지를 분석, 처리, 디스플레이 및/또는 외부 장치로 전송할 수 있다.
또 다른 예로, 3차원 스캐너(10, 50)는 대상체의 스캔을 통하여 로우 데이터(raw data)를 획득하고, 획득된 로우 데이터를 가공하여 대상체에 대응되는 이미지를 생성하여 이미지 처리 장치(100)로 전송할 수 있다. 이 경우, 이미지 처리 장치(100)는 수신된 이미지를 분석, 처리, 디스플레이 및/또는 전송할 수 있다.
개시된 실시예에서, 이미지 처리 장치(100)는 대상체를 3차원적으로 나타내는 이미지를 생성 및 디스플레이할 수 있는 전자 장치로, 이하에서 상세히 설명한다.
일 실시예에 따른 이미지 처리 장치(100)는 3차원 스캐너(10, 50)로부터 대상체를 스캔한 로우 데이터를 수신하면, 수신된 로우 데이터를 가공하여, 3차원 이미지(또는 3차원 모델)를 생성할 수 있다. 설명의 편의를 위하여, 이미지 처리 장치(100)에 의해 생성된 대상체에 대한 3차원 이미지를 이하에서,'스캔 데이터'라 지칭하기로 한다.
예를 들어, 3차원 스캐너(10, 50)는 홀을 포함하는 대상체를 스캔할 수 있다. 본 개시의 실시예들에서는 홀을 포함하는 대상체가 나사홀을 포함하는 어버트먼트인 것으로 설명하나, 이에 한정되는 것은 아니다. 어버트먼트는 임플란트에 포함된 픽스쳐와 크라운을 연결해주는 구조물로 픽스쳐와의 결합을 위한 나사홀을 포함할 수 있다. 어버트먼트를 스캔할 때, 어버트먼트에 형성된 나사홀을 수지 등의 충전재로 채운 후에 스캔할 필요가 있다. 이에 대해서는 도 2를 참조하여 자세히 설명하기로 한다.
일 실시예에 따른 이미지 처리 장치(100)는 3차원 스캐너(10, 50)로부터 어버트먼트를 스캔한 로우 데이터를 수신하고, 수신된 로우 데이터에 기초하여, 어버트먼트에 대한 스캔 데이터를 획득할 수 있다.
도 2는 일 실시예에 따른 어버트먼트를 스캔할 때, 나사홀을 충전재로 채워야 하는 이유를 나타내는 도면이다.
도 2를 참조하면, 일 실시예에 따른 어버트먼트(210)는 나사홀(220)을 포함할 수 있다. 나사홀(220)을 채우지 않고 어버트먼트(210)를 스캔하여, 스캔 데이터를 획득한 후, 획득한 스캔 데이터에 기초하여 크라운(230)을 생성하는 경우, 스캔 데이터에 포함된 나사홀에 의해 크라운(230)이 잘못 생성될 수 있다. 예를 들어, 크라운(230)의 아래 부분(235)이 나사홀 방향으로 돌출되어 생성될 수 있으며, 돌출된 부분은 추후에 나사홀(220)을 통해 픽스쳐에 고정되는 나사와 충돌될 수 있다.
이를 방지하기 위해, 어버트먼트(210)에 포함된 나사홀(220)을 충전재(225)로 채워 평평하게 만든 후에, 나사 홀(220)이 충전재(225)로 채워진 상태의 어버트먼트(210)를 스캔해야 된다. 나사 홀(220)을 충전재(225)로 채운 후에 어버트먼트(210)를 스캔하게 되면, 스캔 데이터에는 나사홀 영역이 평평한 표면(240)으로 나타나며, 평평한 표면을 따라 크라운(250)이 생성될 수 있다.
다만, 스캔이 완료된 후에는 어버트먼트의 나사홀(220)에 채웠던 충전재(225)를 제거해야 한다. 나사홀(220)에 충전재(225)를 평평하게 채우고, 스캔한 후, 충전재(225)를 다시 제거하는 과정은 용이하지 않으며, 작업 효율을 크게 떨어뜨리게 된다. 또한, 구강 내에 설치된 어버트먼트의 경우에는 구강 내에 설치된 채로, 어버트먼트의 나사홀에 충전재(225)를 채울 수 없다는 문제점이 있다.
따라서, 일 실시예에 따른 이미지 처리 장치(100)는 어버트먼트의 나사홀을 채우지 않고 스캔한 스캔 데이터에 기초하여, 나사홀이 채워진 상태의 이미지를 생성할 수 있다.
도 3은 일 실시예에 따른 이미지 처리 장치가 대상체에 대한 스캔 데이터를 획득하는 방법을 나타내는 도면이다.
일 실시예에 따른 이미지 처리 장치(100)는 3차원 스캐너(10, 50)에 의해 획득된 로우 데이터에 기초하여, 스캔 데이터를 생성할 수 있다. 또한, 이미지 처리 장치(100)는 사용자 인터페이스 화면(301)을 통하여, 생성된 스캔 데이터(310)를 시각적으로 출력할 수 있다. 사용자 인터페이스 화면(301)은 도 1의 디스플레이(130)의 화면일 수 있다. 사용자 인터페이스 화면(301)은 사용자가 스캔 데이터(310)를 분석 또는 처리할 수 있도록 하기 위한 적어도 하나의 메뉴들을 포함할 수 있다.
도 3을 참조하면, 스캔 데이터(310)는 테이블 스캐너(50)에 의해 획득된 로우 데이터에 기초하는 스캔 데이터일 수 있다. 예를 들어, 접착 부재에 의해 지그(jig)에 고정된 어버트먼트를 테이블 스캐너(50)를 이용하여, 스캔함으로써, 로우 데이터를 획득할 수 있다. 다만, 이에 한정되는 것은 아니며, 구강 스캐너(10)를 이용하여, 구강 내에 설치된 어버트먼트를 스캔하여, 로우 데이터를 획득할 수도 있다.
한편, 도 3에 도시된 바와 같이, 스캔 데이터(310)에 어버트먼트 이외에 접착 부재나 지그에 대한 스캔 데이터가 포함되는 경우, 스캔 데이터(310)에서 어버트먼트에 대한 스캔 데이터(320)만 관심 영역으로 설정할 수 있다. 예를 들어, 이미지 처리 장치(100)는 브러쉬 등의 선택 도구를 이용한 사용자 입력에 기초하여, 관심 영역을 설정할 수 있다. 이때, 사용자 입력에 기초하여 선택된 영역을 관심 영역으로 설정할 수 있으며, 선택된 영역은 선택되지 않은 영역과 구별되도록 표시할 수 있다.
또는, 일 실시예에 따른 이미지 처리 장치(100)는 스캔 데이터(310)에서 사용자의 입력 없이 자동으로 어버트먼트에 대한 스캔 데이터(320)를 검출하고, 검출된 어버트먼트에 대한 스캔 데이터(320)를 관심 영역으로 설정할 수 있다. 이미지 처리 장치(100)는 인공지능(AI)을 이용하여, 스캔 데이터(310)에서 어버트먼트에 대한 스캔 데이터(320)를 검출할 수 있다.
한편, 스캔 데이터(310)에 어버트먼트에 대한 스캔 데이터만 포함되어 있는 경우에는 별도로 관심 영역을 설정하는 과정은 필요하지 않다.
도 4 및 도 5는 일 실시예에 따른 이미지 처리 장치가 대상체의 홀이 채워진 형태의 이미지를 생성하는 방법을 나타내는 도면들이다.
도 4를 참조하면, 일 실시예에 따른 이미지 처리 장치(100)는 홀을 포함하는 대상체에 대한 스캔 데이터(410)에 기초하여, 랩핑 메쉬 데이터(510)를 생성할 수 있다.
이미지 처리 장치(100)는 스캔 데이터(410)를 둘러싸는 형태의 3차원 모델(420)을 생성할 수 있다. 예를 들어, 이미지 처리 장치(100)는 3차원 볼록 껍질 알고리즘을 이용하여, 스캔 데이터(410)에 대한 3차원 볼록 껍질을 생성할 수 있다. 3차원 볼록 껍질은 스캔 데이터(410)에 포함된 정점 데이터들 중 일부에 기초하여, 생성된 볼록 다각형들을 포함할 수 있으나, 이에 한정되지 않는다.
이미지 처리 장치(100)는 3차원 모델(420)에 기초하여, 삼각형들로 구성된 초기 메쉬 데이터(430)를 생성할 수 있다. 초기 메쉬 데이터(430)에 포함되는 삼각형들은 3차원 모델(420)에 포함되는 삼각형들보다 균일한 형태일 수 있다.
또한, 도 5를 참조하면, 이미지 처리 장치(100)는 초기 메쉬 데이터(430)에 기초하여, 랩핑 메쉬 데이터(510)를 생성할 수 있다.
예를 들어, 이미지 처리 장치(100)는 초기 메쉬 데이터(430)에 포함되는 제1 메쉬들(삼각형들)을 스캔 데이터(410)에 포함되는 메쉬들(삼각형들)로 프로젝션할 수 있다(이하, '랩핑(warpping)(520)'이라 지칭하기로 한다). 이미지 처리 장치(100)는 프로젝션된 메쉬들을 세분화할 수 있다(이하, '세분화(subdivide)(530)'라 지칭하기로 한다). 이미지 처리 장치(100)는 세분화 과정을 통해 초기 메쉬 데이터의 전체적인 형상은 유지하면서 제1 메쉬들의 밀도를 증가시킬 수 있다.
이미지 처리 장치(100)는 세분화된 메쉬들을 수축시킴으로써(이하, '수축(shrink)(540)'이라 지칭하기로 한다), 대상체의 스캔 데이터(410)에 포함되는 메쉬들에 근접한 메쉬들을 생성할 수 있다.
이미지 처리 장치(100)는 초기 메쉬 데이터(430)에 대하여, 랩핑-세분화-수축 과정들(520. 530, 540)을 반복함으로써, 랩핑 메쉬 데이터(510)를 생성할 수 있다. 예를 들어, 이미지 처리 장치(100)는 랩핑-세분화-수축 과정들(520. 530, 540)을 반복하여 생성된 메쉬들의 밀도가 스캔 데이터(410)에 포함되는 메쉬들의 밀도의 차이가 기 설정된 값 미만인 경우, 랩핑-세분화-수축 과정들(520. 530, 540)의 반복을 종료할 수 있다.
랩핑 메쉬 데이터(510)에 포함되는 제2 메쉬들은 초기 메쉬 데이터(430)에 포함되는 제1 메쉬들의 밀도보다 클 수 있다.
도 6은 일 실시예에 따른 스캔 데이터와 랩핑 메쉬 데이터를 합성하는 방법을 나타내는 도면이다.
도 6을 참조하면, 이미지 처리 장치(100)는 대상체에 대한 스캔 데이터(410)와 랩핑 메쉬 데이터(510)를 정렬시킬 수 있다. 이때, 스캔 데이터(410)와 랩핑 메쉬 데이터(510)를 정렬시키는 방법은 공지된 정렬 알고리즘을 이용할 수 있으나, 이에 한정되지 않는다.또는, 랩핑 메쉬 데이터(510)가 이미 스캔 데이터(410)에 정렬된 상태인 경우, 이미지 처리 장치(100)는 랩핑 메쉬 데이터(510)와 스캔 데이터(410)를 정렬시키는 동작을 수행하지 않을 수 있다.
이미지 처리 장치(100)는 스캔 데이터(410)와 랩핑 메쉬 데이터(510)가 정렬된 상태에서, 오버랩되지 않는 영역을 대상체의 홀 영역으로 검출할 수 있다. 이미지 처리 장치(100)는 랩핑 메쉬 데이터(510)에서, 검출된 홀 영역에 대응하는 메쉬 데이터(610)를 제외한 나머지 데이터를 삭제할 수 있다.
구체적으로, 이미지 처리 장치(100)는 스캔 데이터(410)와 랩핑 메쉬 데이터(510)가 정렬될 상태에서, 랩핑 메쉬 데이터(510)에 포함되는 정점들로부터 법선 방향인 제1 방향의 제1 광선과 제1 방향과 반대 방향인 제2 방향의 제2 광선을 생성하고, 제1 광선 또는 제2 광선과 임계 거리 내에서 교차하는 경우, 해당 정점을 삭제할 수 있다. 반면에, 이미지 처리 장치(100)는 제1 광선 및 제2 광선과 임계 거리 내에서 교차하지 않는 경우, 해당 정점은 삭제하지 않을 수 있다. 이에 따라, 이미지 처리 장치(100)는 랩핑 메쉬 데이터(510)에서 홀 영역에 대응하는 메쉬 데이터(610)를 제외한 나머지 데이터를 삭제할 수 있다.
또한, 이미지 처리 장치(100)는 스캔 데이터(410)와 랩핑 메쉬 데이터(510)가 정렬될 상태에서, 오버랩되지 않는 영역의 경계를 기준으로 스캔 데이터(410)에서 나사홀 내면 영역을 검출할 수 있다. 예를 들어, 도 6에 도시된 바와 같이, 스캔 데이터(410)에서 랩핑 메쉬 데이터(510)와 오버랩되지 않는 영역의 제1 경계점(621) 및 제2 경계점(622)을 기준으로 제1 데이터(631) 및 제2 데이터(632)를 나사홀 내면 영역에 대한 데이터로 검출할 수 있다. 이미지 처리 장치(100)는 스캔 데이터(410)에서 나사홀 내면 영역에 대한 데이터를 삭제할 수 있다.
또는, 이미지 처리 장치(100)는 스캔 데이터(410)에서 나사홀 내면 영역에 대한 데이터(631, 632)를 먼저 검출하고, 검출된 나사홀 내면 영역을 기준으로, 나사홀 내면 영역의 경계(예를 들어, 제1 경계점(621) 및 제2 경계점(622)을 검출할 수 있다. 다만, 이에 한정되지 않는다.
일 실시예에 따른 이미지 처리 장치(100)는 랩핑 메쉬 데이터 중 홀 영역에 대응하는 메쉬 데이터(610)와 스캔 데이터(410) 중 나사홀 내면 영역을 삭제한 나머지 데이터(640)를 합성하여, 최종 모델(650)을 생성할 수 있다. 최종 모델(650)은, 나사홀이 채워진 형태의 이미지를 포함할 수 있다.
도 7은 일 실시예에 따른 초기 메쉬 데이터에서 랩핑 메쉬 데이터를 생성할 때, 프로젝션할 영역을 결정하기 위한 방법을 나타내는 도면이다.
도 7을 참조하면, 일 실시예에 따른 이미지 처리 장치(100)가 초기 메쉬 데이터에서 랩핑 메쉬 데이터를 생성할 때, 스캔 데이터의 나사 홀 내면 영역(710)에 대해서도 프로젝션을 수행하는 경우, 최종 모델은 제1 이미지(720)로 생성될 수 있다. 예를 들어, 나사 홀 내면 영역(710)으로 프로젝션을 수행하게 되면, 랩핑 메쉬 데이터가 나사 홀 내면 영역(710)에 대응하는 메쉬 표면 형상을 포함하게 된다. 이에 따라, 나사 홀 내면 영역(710)에서 랩핑 메쉬 데이터와 스캔 데이터가 오버랩되며, 이에 따라, 랩핑 메쉬 데이터 중 홀 영역에 대응하는 메쉬 데이터(예를 들어, 도 6의 610)를 검출할 수 없게 된다. 이에 따라, 스캔 데이터와 랩핑 메쉬 데이터를 합성할 때, 나사 홀 내면 영역(710)에 대한 스캔 데이터는 삭제되지 않고, 제1 이미지(720)는 나사 홀의 일부가 채워지지 않은 형태를 나타낼 수 있다.
반면에, 일 실시예에 따른 이미지 처리 장치(100)가 초기 메쉬 데이터에서 랩핑 메쉬 데이터를 생성할 때, 나사 홀 내면 영역(710)에 대해서 프로젝션을 수행하지 않는 경우, 최종 모델은 제2 이미지(730)로 생성될 수 있다. 예를 들어, 나사 홀 내면 영역(710)으로 프로젝션을 수행하지 않게 되면, 랩핑 메쉬 데이터와 스캔 데이터는 홀 영역에서 오버랩되지 않게 되고, 랩핑 메쉬 데이터 중 홀 영역에 대응하는 메쉬 데이터(예를 들어, 도 6의 610)를 검출할 수 있다. 스캔 데이터와 랩핑 메쉬 데이터를 합성할 때, 홀 영역에 대응하는 메쉬 데이터를 이용하여, 스캔 데이터의 나사홀 영역을 채울 수 있다. 이에 따라, 제2 이미지(730)는 나사홀 영역이 완전히 채워진 형태를 나타낼 수 있다.
도 8은 일 실시예에 따른 이미지 처리 장치가 스캔되지 않은 영역의 이미지 처리 방법을 설명하기 위한 도면이다.
도 8을 참조하면, 일 실시예에 따른 스캔 데이터에서 대상체의 홀이 아닌 스캔되지 않은 영역(810)이 존재할 수 있다. 스캔되지 않은 영역(810)의 경우, 스캔 데이터와 랩핑 메쉬 데이터가 오버랩되지 않게 되고, 스캔 데이터와 랩핑 메쉬 데이터를 합성할 때, 홀 영역뿐만 아니라 스캔되지 않은 영역(810)도 랩핑 메쉬 데이터(821, 822)에 의해 채워지게 된다. 즉, 최종 모델에서 스캔되지 않은 영역(810)은 랩핑 메쉬 데이터(822)로 나타나게 된다.
스캔되지 않은 영역(810)의 경우, 랩핑 메쉬 데이터(822)로 나타내거나, 스캔을 다시 수행하여, 스캔 데이터로 나타낼 수도 있다. 스캔 되지 않은 영역(810)을 스캔을 다시 수행하여, 스캔 데이터로 나타내는 경우,일 실시예에 따른 이미지 처리 장치(100)는 스캔 데이터에서 나사홀 내면 영역을 검출하고, 검출된 나사홀 내면 영역에 기초하여, 나사홀 내면 영역의 경계를 검출할 수 있다. 이에 따라, 이미지 처리 장치(100)는 스캔되지 않은 영역(810)이 나사홀 내면 영역 및 나사홀 내면 영역의 경계를 포함하는 지를 판단할 수 있다. 이미지 처리 장치(100)는 스캔되지 않은 영역(810)이 나사홀 내면 영역 및 나사홀 내면 영역의 경계를 포함하지 않는 경우, 해당 영역을 랩핑 메쉬 데이터로 채우지 않고, 다시 스캔을 수행하여, 스캔 데이터를 획득할 수 있다.
이에 따라, 스캔되지 않은 영역(810)은 최종 모델에서 랩핑 메쉬 데이터가 아닌 스캔 데이터로 나타날 수 있다.
도 9는 일 실시예에 따른 이미지 처리 장치가 대상체의 표면에 존재하는 홈(groove)를 처리하는 방법을 설명하기 위한 도면이다.
도 9를 참조하면, 일 실시예에 따른 대상체는 표면에 홈(910)을 포함할 수 있다.
일 실시예에 따른 이미지 처리 장치(100)가 홈 영역을 홀의 내면 영역으로 인식하여, 도 7에서 설명한 바와 같이, 초기 메쉬 데이터에서 랩핑 메쉬 데이터를 생성할 때, 프로젝션 영역에서 제외시킨다면, 최종 모델(920)은 대상체의 표면의 홈이 채워진 형태로 나타날 수 있다.
따라서, 이미지 처리 장치(100)는 홈 영역과 홀 영역을 구별하여, 초기 메쉬 데이터에서 랩핑 메쉬 데이터를 생성할 때, 홀 영역에 대해서는 프로젝션을 수행하지 않고, 홈 영역에 대해서는 프로젝션을 수행할 수 있다.
일 실시예에 따른 이미지 처리 장치(100)가 초기 메쉬 데이터에서 랩핑 메쉬 데이터를 생성할 때, 홈(910)에 대해서 프로젝션을 수행하면, 랩핑 메쉬 데이터가 홈(910)에 대응하는 메쉬 데이터를 포함하게 된다. 이에 따라, 홈(910) 영역에서 랩핑 메쉬 데이터와 스캔 데이터가 중첩되며, 스캔 데이터와 랩핑 메쉬 데이터를 합성할 때, 홈(910) 영역에 대한 스캔 데이터는 삭제되지 않는다. 이에 따라, 최종 모델(930)에서 홈이 채워지지 않고, 홈 영역에 대한 스캔 데이터로 나타날 수 있다.
도 10a는 일 실시예에 따른 스캔 데이터에서 대상체의 홀 영역이 채워진 경우에 이미지를 처리하는 방법을 설명하기 위한 도면이다.
도 10a를 참조하면, 일 실시예에 따른 홀을 포함하는 대상체에 대한 스캔 데이터를 후처리하는 과정에서 홀 영역에 대한 데이터가 채워지는 경우가 발생할 수 있다. 예를 들어, 필 홀 알고리즘 등에 따라 스캔 데이터를 후처리하는 경우, 채워지는 홀 영역과 나머지 영역은 완만하게 연결되며, 이에 따라, 스캔 데이터에서 대상체의 윗면이 볼록한 형태로 나타날 수 있다.
이러한 경우, 스캔 데이터(1010)와 랩핑 메쉬 데이터(1020)를 합성할 때, 오버랩되지 않는 영역이 존재하지 않게 되고, 랩핑 메쉬 데이터(1020)에서 홀 영역에 대응하는 데이터를 획득할 수 없다. 이에 따라, 최종 모델은 스캔 데이터(1010)만 포함하는 제1 이미지(1030)로 생성될 수 있다.
이를 방지하기 위해, 일 실시예에 따른 이미지 처리 장치(100)는 스캔 데이터(1010)에서 어버트먼트의 끝 부분에 구 형태의(spherical) 영역이 존재하는 지를 확인할 수 있다. 구 형태의 영역(1015)이 존재하는 경우, 이미지 처리 장치(100)는 구 형태의 영역(1015)에 대한 스캔 데이터를 무시하고, 랩핑 메쉬 데이터를 생성할 수 있다. 예를 들어, 초기 메쉬 데이터에서 랩핑 메쉬 데이터를 생성할 때, 구 형태의 영역(1015)에 대해서는 프로젝션을 수행하지 않을 수 있다.
일 실시예에 따른 이미지 처리 장치(100)는 초기 메쉬 데이터에서 랩핑 메쉬 데이터를 생성할 때, 구 형태의 영역(1015)에 대해서 프로젝션을 수행하지 않는 경우, 최종 모델은 제2 이미지(1040)로 생성될 수 있다. 예를 들어, 구 형태의 영역(1015)에 대해서 프로젝션을 수행하지 않게 되면, 랩핑 메쉬 데이터는 구 형태의 영역(1015)에서 표면의 평평한 형태의 메쉬 데이터를 포함하게 된다.
이에 따라 구 형태의 영역(1015)에서 랩핑 메쉬 데이터와 스캔 데이터가 기 설정된 거리 이내에서 중첩되지 않게 되고, 스캔 데이터와 랩핑 메쉬 데이터를 합성할 때, 구 형태의 영역(1015)에 대한 스캔 데이터가 삭제될 수 있다. 이에 따라, 제2 이미지(1040)는 랩핑 메쉬 데이터에 의해 홀 영역이 평평하게 채워진 형태를 나타낼 수 있다.
도 10b는 일 실시예에 따른 스캔 데이터에서 대상체의 홀 영역이 채워진 경우에 이미지를 처리하는 방법을 설명하기 위한 도면이다.
도 10b를 참조하면, 일 실시예에 따른 홀을 포함하는 대상체에 대한 스캔 데이터를 후처리하는 과정에서 홀 영역에 대한 데이터가 채워지는 경우가 발생할 수 있다. 예를 들어, 홀의 직경이 작을 경우, 홀 내면 영역에 대한 스캔 데이터가 획득되지 않은 상태에서 후처리를 수행하면, 후처리된 스캔 데이터에 대상체의 윗면은 홀이 채워진 평평한 형태로 나타날 수 있다. 이러한 경우, 스캔 데이터(1050)와 랩핑 메쉬 데이터(1060)를 합성할 때, 오버랩되지 않는 영역이 존재하지 않게 되고, 랩핑 메쉬 데이터(1060)에서 홀 영역에 대응하는 데이터를 획득할 수 없다. 이에 따라, 스캔 데이터(1050)를 최종 모델로 생성할 수 있다.
도 11은 일 실시예에 따른 스캔 데이터에서 대상체의 홀 영역이 채워진 경우에 이미지를 처리하는 방법을 설명하기 위한 도면이다.
도 11을 참조하면, 일 실시예에 따른 홀을 포함하는 대상체에 대한 스캔 데이터를 후처리하는 과정에서 홀 영역의 일부 데이터가 채워지는 경우가 발생할 수 있다. 이러한 경우, 스캔 데이터와 랩핑 메쉬 데이터를 합성할 때, 오버랩되지 않는 영역이 존재하지 않게 되고, 랩핑 메쉬 데이터에서 홀 영역에 대응하는 데이터를 획득할 수 없다. 이에 따라, 최종 모델은 스캔 데이터만 포함하는 제1 이미지(1110)로 생성될 수 있다.
이를 방지하기 위해, 일 실시예에 따른 이미지 처리 장치(100)는 홀의 내면 영역(1120)뿐만 아니라, 후처리 과정에서 채워진 바닥 영역(1125)을 검출할 수 있다. 이미지 처리 장치(100)는 홀의 내면 영역(1120) 및 바닥 영역(1125)에 대한 스캔 데이터를 무시하고, 랩핑 메쉬 데이터(1135)를 생성할 수 있다. 예를 들어, 초기 메쉬 데이터에서 랩핑 메쉬 데이터(1135)를 생성할 때, 홀의 내면 영역(1120) 및 후처리로 채워진 바닥 영역(1125)에 대해 프로젝션을 수행하지 않을 수 있다.
일 실시예에 따른 이미지 처리 장치(100)는 초기 메쉬 데이터에서 랩핑 메쉬 데이터(1135)를 생성할 때, 홀의 내면 영역(1120) 및 후처리로 채워진 바닥 영역(1125)에 대해서 프로젝션을 수행하지 않는 경우, 최종 모델은 제2 이미지(1130)로 생성될 수 있다. 예를 들어, 홀의 내면 영역(1120) 및 후처리로 채워진 바닥 영역(1125)에 대해서 프로젝션을 수행하지 않게 되면, 랩핑 메쉬 데이터(1135)는 홀의 내면 영역(1120) 및 후처리로 채워진 바닥 영역(1125)에 대응하는 메쉬 데이터를 포함하지 않게 된다.
이에 따라 홀의 내면 영역(1120) 및 후처리로 채워진 바닥 영역(1125)에서 랩핑 메쉬 데이터(1135)와 스캔 데이터가 기 설정된 거리 이내에서 중첩되지 않게 되고, 스캔 데이터와 랩핑 메쉬 데이터(1135)를 합성할 때, 홀의 내면 영역(1120) 및 후처리로 채워진 바닥 영역(1125)에 대한 스캔 데이터가 삭제될 수 있다. 이에 따라, 제2 이미지는 랩핑 메쉬 데이터(1135)에 의해 홀 영역이 채워진 형태를 나타낼 수 있다.
도 12는 일 실시예에 따른 이미지 처리 장치가 최종 모델에서 채워진 홀을 표시하는 방법을 나타내는 도면이다.
도 12를 참조하면, 일 실시예에 따른 이미지 처리 장치(100)는 홀 영역이 채워진 대상체의 최종 모델을 표시할 수 있다. 예를 들어, 이미지 처리 장치(100)는 나사홀 영역이 채워진 어버트먼트의 최종 이미지(1210, 1220)를 표시할 수 있다.
일 실시예에 따른 이미지 처리 장치(100)는 최종 이미지(1210, 1220)에서 어버트먼트의 나사홀 영역이 다른 영역과 구별되도록 표시할 수 있다.
예를 들어, 이미지 처리 장치(100)는 제1 최종 이미지(1210)와 같이, 어버트먼트의 나사홀 영역의 경계 라인을 표시하거나, 제2 최종 이미지(1220)와 같이, 나사홀 영역을 다른 영역과 다른 색상으로 표시할 수 있다. 다만, 이에 한정되지 않는다.
이미지 처리 장치(100)는 최종 이미지(1210, 1220)에 기초하여, 어버트먼트에 결합되는 크라운 이미지(1230)를 생성할 수 있다. 크라운을 어버트먼트에 장착한 다음에 크라운 홀과 어버트먼트 홀을 통해 나사를 체결하기 위해서는, 크라운에도 어버트먼트의 나사홀에 대응되는 위치, 크기, 각도를 가지는 크라운 홀(1235)이 생성될 필요가 있다. 따라서, 최종 이미지(1210, 1220)에 표시된 나사홀 영역은, 크라운 홀(1235)의 위치, 크기, 각도 등에 대한 가이드 정보로 이용될 수 있다.
도 13은 일 실시예에 따른 이미지 처리 장치가 대상체의 홀이 채워진 상태의 이미지를 획득하는 방법을 설명하기 위한 도면이다.
도 13을 참조하면, 일 실시예에 따른 이미지 처리 장치(100)는 홀을 포함하는 대상체에 대한 스캔 데이터를 획득할 수 있다. 스캔 데이터를 획득하는 방법에 대해서는 도 3에서 자세히 설명하였으므로 동일한 설명은 생략하기로 한다.
일 실시예에 따른 이미지 처리 장치(100)는 스캔 데이터에 포함되는 포인트들의 곡률 정보(1310)를 획득할 수 있다.
곡률(curvature)은 곡선 또는 곡면의 휨 정도를 나타내는 값일 수 있다. 스캔 데이터에 포함되는 소정 포인트의 곡률 값은, 해당 포인트가 위치한 대상체 표면 상에서 결정되는 곡선의 휘어짐 정도를 나타낼 수 있다. 이때, 해당 포인트를 지나가는 곡선들은 방향에 따라 휜 정도가 달라질 수 있다. 이에 따라, 이미지 처리 장치(100)는 해당 포인트가 가지는 곡률 값들 중 가장 큰 곡률 값을 해당 포인트의 곡률 값으로 결정하거나, 곡률 값들의 평균 값을 해당 포인트의 곡률 값으로 결정할 수 있다. 다만, 이에 한정되지 않는다.
일 실시예에 따른 이미지 처리 장치(100)는 포인트를 지나가는 곡선 또는 곡면이 볼록한 경우, 해당 포인트의 곡률 값의 부호를 (+)로 결정할 수 있으며, 포인트를 지나가는 곡선 또는 곡면이 오목한 경우, 해당 포인트의 곡률 값의 부호를 (-)로 결정할 수 있다.
또한, 이미지 처리 장치(100)는 포인트에 인접한 메쉬들의 법선 벡터들을 이용하여, 포인트의 곡률 값의 크기를 결정할 수 있다. 이때, 포인트와 메쉬가 인접한다는 의미는 메쉬가 해당 포인트를 정점으로 포함함을 의미할 수 있다. 예를 들어, 이미지 처리 장치(100)는 포인트에 인접한 메쉬들의 법선 벡터들 중 적어도 2개의 차이에 기초하여, 해당 포인트의 곡률 값의 크기를 결정할 수 있다. 이때, 법선 벡터들 간의 차이는 법선 벡터들 사이의 각도로 나타날 수 있다.
이미지 처리 장치(100)는 인접하는 메쉬들의 법선 벡터들의 차이가 클수록 곡률 값의 크기가 커지고, 메쉬들의 법선 벡터들의 차이가 작을수록 곡률 값의 크기가 작아지도록 포인트의 곡률 값을 결정할 수 있다.
다만, 이에 한정되지 않으며, 일 실시예에 따른 이미지 처리 장치(100)는 다양한 방법으로 스캔 데이터에 포함되는 포인트들의 곡률 값들을 결정할 수 있다. 이미지 처리 장치(100)는 스캔 데이터에 포함되는 포인트들의 법선 벡터들에 기초하여, 포인트의 곡률 값의 크기를 결정할 수 있다.
한편, 일 실시예에 따른 대상체가 나사홀을 포함하는 어버트먼트인 경우, 나사홀 입구 영역은 거의 직각 형상을 나타내며, 이에 따라, 나사홀 입구 영역은 곡률 값이 크게 나타난다. 이미지 처리 장치(100)는 곡률 정보(1310)에 기초하여, 나사홀 입구 영역(1320)을 검출할 수 있다. 이미지 처리 장치(100)는 나사홀 입구 영역(1320)을 기준으로 홀을 채우는 홀 필링 알고리즘을 이용하여, 나사홀이 채워진 형태의 이미지(1330)를 획득할 수 있다. 예를 들어, 이미지 처리 장치(100)는 포아송(poisson) 알고리즘 등을 이용하여, 나사홀이 채워진 형태의 이미지(1330)를 획득할 수 있다. 다만, 이에 한정되지 않는다.
도 14는 일 실시예에 따른 이미지 처리 방법을 나타내는 흐름도이다.
도 14에 도시된 이미지 처리 방법은 이미지 처리 장치(100)에 의해 수행될 수 있다.
도 14를 참조하면, 일 실시예에 따른 이미지 처리 장치(100)는 홀을 포함하는 대상체에 대한 3차원 스캔 데이터를 획득할 수 있다(S1410).
이미지 처리 장치(100)는 3차원 스캐너(10, 50)에 의해 획득된 로우 데이터를 수신할 수 있다. 예를 들어, 테이블 스캐너(50)를 이용하여, 접착 부재에 의해 지그(jig)에 고정된 어버트먼트를 스캔함으로써, 로우 데이터를 획득할 수 있다. 또는 구강 스캐너(10)를 이용하여 구강 내에 설치된 어버트먼트를 스캔함으로써, 로우 데이터를 획득할 수 있다.
이미지 처리 장치(100)는 수신된 로우 데이터에 기초하여, 스캔 데이터를 생성할 수 있다. 또는, 이미지 처리 장치(100)는 메모리에 저장된 스캔 데이터를 불러올 수 있다.
이미지 처리 장치(100)는 스캔 데이터에 어버트먼트 이외에 접착 부재나 지그에 대한 데이터가 포함되는 경우, 스캔 데이터에서 어버트먼트에 대한 스캔 데이터만 관심 영역으로 설정할 수 있다. 이때, 이미지 처리 장치(100)는 사용자 입력에 기초하여, 관심 영역을 설정하거나, 사용자 입력 없이 자동으로 어버트먼트에 대한 스캔 데이터를 검출하고, 검출된 어버트먼트에 대한 스캔 데이터를 관심 영역으로 설정할 수 있다. 다만, 이에 한정되지 않는다.
이미지 처리 장치(100)는 스캔 데이터를 둘러싸는 형태의 3차원 모델을 획득할 수 있다(S1420).
예를 들어, 이미지 처리 장치(100)는 3차원 볼록 껍질 알고리즘을 이용하여, 스캔 데이터에 대한 3차원 볼록 껍질을 생성할 수 있다. 3차원 볼록 껍질은 스캔 데이터에 포함된 정점 데이터들 중 일부에 기초하여, 생성된 볼록 다각형들을 포함할 수 있다. 다만, 이에 한정하지 않는다.
일 실시예에 따른 이미지 처리 장치(100)는 3차원 모델 및 스캔 데이터에 기초하여, 랩핑 메쉬 데이터를 획득할 수 있다(S1430).
예를 들어, 이미지 처리 장치(100)는 3차원 모델에 기초하여, 삼각형들로 구성된 초기 메쉬 데이터를 생성할 수 있다, 초기 메쉬 데이터에 포함되는 삼각형들은 3차원 모델에 포함되는 삼각형들보다 균일한 형태일 수 있다. 이미지 처리 장치(100)는 초기 메쉬 데이터에 대하여, 랩핑-세분화-수축 과정들을 반복함으로써, 랩핑 메쉬 데이터를 생성할 수 있다. 랩핑-세분화-수축 과정들에 대해서는 도 5에서 자세히 설명하였으므로 구체적인 설명은 생략하기로 한다.
이미지 처리 장치(100)는 랩핑-세분화-수축 과정들을 반복하여 생성된 메쉬들의 밀도가 스캔 데이터에 포함되는 메쉬들의 밀도의 차이가 기 설정된 값 미만인 경우, 랩핑-세분화-수축 과정들의 반복을 종료하고, 랩핑 메쉬 데이터를 획득할 수 있다. 랩핑 메쉬 데이터에 포함되는 제2 메쉬들은 초기 메쉬 데이터에 포함되는 제1 메쉬들의 밀도보다 클 수 있다.
일 실시예에 따른 이미지 처리 장치(100)는 대상체에 대한 스캔 데이터와 랩핑 메쉬 데이터를 정렬시킬 수 있다. 이때, 스캔 데이터와 랩핑 메쉬 데이터를 정렬시키는 방법은 공지된 정렬 알고리즘을 이용할 수 있으나, 이에 한정되지 않는다.
일 실시예에 따른 이미지 처리 장치(100)는 홀 영역에 대응하는 데이터를 획득할 수 있다(S1440).
이미지 처리 장치(100)는 스캔 데이터와 랩핑 메쉬 데이터가 정렬된 상태에서, 오버랩되지 않는 영역을 대상체의 홀 영역으로 검출할 수 있다. 이미지 처리 장치(100)는 랩핑 메쉬 데이터에서, 검출된 홀 영역에 대응하는 메쉬 데이터를 제외한 나머지 데이터를 삭제함으로써, 홀 영역에 대응하는 데이터를 획득할 수 있다.
일 실시예에 따른 이미지 처리 장치(100)는 스캔 데이터에서 홀의 내면 영역에 대한 데이터를 삭제할 수 있다(S1450).
이미지 처리 장치(100)는 스캔 데이터와 랩핑 메쉬 데이터가 정렬될 상태에서, 오버랩되지 않는 영역의 경계를 기준으로 스캔 데이터에서 나사홀 내면 영역을 검출할 수 있다. 이미지 처리 장치(100)는 스캔 데이터에서 검출된 나사홀 내면 영역에 대한 데이터를 삭제할 수 있다.
일 실시예에 따른 이미지 처리 장치(100)는 랩핑 메쉬 데이터 중 홀 영역에 대응하는 메쉬 데이터)와 스캔 데이터 중 나사홀 내면 영역을 삭제한 나머지 데이터를 합성하여, 최종 모델을 생성하고, 표시할 수 있다(S1460).
최종 모델은, 나사홀이 채워진 형태의 이미지를 포함할 수 있다. 또한, 이미지 처리 장치(100)는 최종 모델에서 채워진 나사홀 영역이 다른 영역과 구별되도록 표시할 수 있다. 예를 들어, 이미지 처리 장치(100)는 나사홀 영역의 경계 라인을 표시하거나, 나사홀 영역을 다른 영역과 다른 색상으로 구별되게 표시할 수 있다. 다만, 이에 한정되지 않는다.
도 15는 일 실시예에 따른 이미지 처리 장치를 나타내는 블록도이다.
도 15에 도시된 이미지 처리 방법은 이미지 처리 장치(100)를 통하여 수행될 수 있다. 따라서, 도 14에 도시된 이미지의 처리 방법은 이미지 처리 장치(100)의 동작들을 나타내는 흐름도가 될 수 있다.
도 15를 참조하면, 이미지 처리 장치(100)는 통신 인터페이스(110), 사용자 인터페이스(120), 디스플레이(130), 메모리(140) 및 프로세서(150)를 포함할 수 있다.
통신 인터페이스(110)는 적어도 하나의 외부 전자 장치(예를 들어, 구강 스캐너(10), 서버, 또는 외부의 의료 장치 등)와 유선 또는 무선 통신 네트워크를 통하여 통신을 수행할 수 있다. 통신 인터페이스 (110)는 프로세서(150)의 제어에 따라서 적어도 하나의 외부 정자 장치와 통신을 수행할 수 있다.
구체적으로, 통신 인터페이스(110)는 블루투스, 와이파이, BLE(Bluetooth Low Energy), NFC/RFID, 와이파이 다이렉트(Wifi Direct), UWB, 또는 ZIGBEE 등의 통신 규격에 따른 통신을 수행하는 적어도 하나의 근거리 통신 모듈을 포함할 수 있다.
또한, 통신 인터페이스(110)는 원거리 통신 규격에 따라서 원거리 통신을 지원하기 위한 서버와 통신을 수행하는 원거리 통신 모듈을 더 포함할 수 있다. 구체적으로, 통신 인터페이스(110)는 인터넷 통신을 위한 네트워크를 통하여 통신을 수행하는 원거리 통신 모듈을 포함할 수 있다. 또한, 통신 인터페이스(110)는 3G, 4G, 및/또는 5G 등의 통신 규격에 따르는 통신 네트워크를 통하여 통신을 수행하는 원거리 통신 모듈을 포함할 수 있다.
또한, 통신 인터페이스(110)는 외부 전자 장치(예를 들어, 구강 스캐너 등)와 유선으로 통신하기 위해서, 외부 전자 장치와 유선 케이블로 연결되기 위한 적어도 하나의 포트를 포함할 수 있다. 그에 따라서, 통신 인터페이스(110)는 적어도 하나의 포트를 통하여 유선 연결된 외부 전자 장치와 통신을 수행할 수 있다.
사용자 인터페이스(120)는 이미지 처리 장치(100)를 제어하기 위한 사용자 입력을 수신할 수 있다. 사용자 인터페이스(120)는 사용자의 터치를 감지하는 터치 패널, 사용자의 푸시 조작을 수신하는 버튼, 사용자 인터페이스 화면 상의 일 지점을 지정 또는 선택하기 위한 마우스(mouse) 또는 키보드(key board) 등을 포함하는 사용자 입력 디바이스를 포함할 수 있으나 이에 제한되지 않는다.
또한, 사용자 인터페이스(120)는 음성 인식을 위한 음성 인식 장치를 포함할 수 있다. 예를 들어, 음성 인식 장치는 마이크가 될 수 있으며, 음성 인식 장치는 사용자의 음성 명령 또는 음성 요청을 수신할 수 있다. 그에 따라서, 프로세서(150)는 음성 명령 또는 음성 요청에 대응되는 동작이 수행되도록 제어할 수 있다.
디스플레이(130)는 화면을 디스플레이 한다. 구체적으로, 디스플레이(130)는 프로세서(150)의 제어에 따라서 소정 화면을 디스플레이 할 수 있다. 구체적으로, 디스플레이(130)는 구강 스캐너(10)에서 환자의 구강을 스캔하여 획득한 데이터에 근거하여 생성된 구강 이미지를 포함하는 사용자 인터페이스 화면을 디스플레이 할 수 있다. 또는, 테이블 스캐너(10)로부터 획득한 데이터에 근거하여 생성된 대상체에 대한 이미지를 포함하는 사용자 인터페이스 화면을 디스플레이할 수 있다.
또는, 디스플레이(130)는 환자의 치과 치료와 관련되는 정보를 포함하는 사용자 인터페이스 화면을 디스플레이 할 수 있다.
메모리(140)는 적어도 하나의 인스트럭션을 저장할 수 있다. 또한, 메모리 (140)는 프로세서(150)가 실행하는 적어도 하나의 인스트럭션을 저장하고 있을 수 있다. 또한, 메모리(140)는 프로세서(150)가 실행하는 적어도 하나의 프로그램을 저장하고 있을 수 있다. 또한, 메모리(140)는 3차원 스캐너(10, 50)로부터 수신되는 데이터(예를 들어, 스캔을 통하여 획득된 로우 데이터 등)를 저장할 수 있다. 또는, 메모리(140)는 대상체를 3차원적으로 나타내는 이미지를 저장할 수 있다. 일 실시예에 따른 메모리(140)는 홀을 포함하는 대상체에 대한 이미지로부터 홀이 채워진 형태의 이미지를 획득하기 위한 하나 이상의 인스트럭션들을 포함할 수 있다. 일 실시예에 따른 메모리(140)는 홀을 포함하는 대상체에 대한 이미지로부터 홀이 채워진 형태의 이미지를 획득하기 위해 본 개시서에 개시된 방법을 수행하기 위한 하나 이상의 인스트럭션들을 포함할 수 있다.
프로세서(150)는 메모리(140)에 저장된 적어도 하나의 인스트럭션을 수행하여, 의도하는 동작이 수행되도록 제어한다. 여기서, 적어도 하나의 인스트럭션은 프로세서(150)내에 포함되는 내부 메모리 또는 프로세서와 별도로 데이터 처리 장치 내에 포함되는 메모리(140)에 저장되어 있을 수 있다.
구체적으로, 프로세서(150)는 적어도 하나의 인스트럭션을 수행하여, 의도하는 동작이 수행되도록 데이터 처리 장치 내부에 포함되는 적어도 하나의 구성들을 제어할 수 있다. 따라서, 프로세서가 소정 동작들을 수행하는 경우를 예로 들어 설명하더라도, 프로세서가 소정 동작들이 수행되도록 데이터 처리 장치 내부에 포함하는 적어도 하나의 구성들을 제어하는 것을 의미할 수 있다.
일 실시예에 따른 프로세서(150)는 메모리(140)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 3차원 스캐너로부터 수신한 로우 데이터에 기초하여, 스캔 데이터를 생성할 수 있다. 이때, 로우 데이터는 3차원 스캐너에 의해 나사홀을 포함하는 어버트먼트를 스캔함으로써 획득된 로우 데이터를 포함할 수 있다.
프로세서(150)는 메모리(140)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 스캔 데이터를 둘러싸는 형태의 3차원 모델을 획득할 수 있다. 프로세서(150)는 3차원 볼록 껍질 알고리즘을 이용하여, 스캔 데이터에 대한 3차원 볼록 껍질을 생성할 수 있다. 3차원 볼록 껍질은 스캔 데이터에 포함된 정점 데이터들 중 일부에 기초하여, 생성된 볼록 다각형들을 포함할 수 있다. 다만, 이에 한정하지 않는다.
프로세서(150)는 메모리(140)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 3차원 모델 및 스캔 데이터에 기초하여, 랩핑 메쉬 데이터를 획득할 수 있다. 예를 들어, 프로세서(150)는 3차원 모델에 기초하여, 삼각형들로 구성된 초기 메쉬 데이터를 생성할 수 있다, 초기 메쉬 데이터에 포함되는 삼각형들은 3차원 모델에 포함되는 삼각형들보다 균일한 형태일 수 있다. 프로세서(150)는 초기 메쉬 데이터에 대하여, 랩핑-세분화-수축 과정들을 반복함으로써, 랩핑 메쉬 데이터를 생성할 수 있다. 랩핑-세분화-수축 과정들에 대해서는 도 5에서 자세히 설명하였으므로 구체적인 설명은 생략하기로 한다.
프로세서(150)는 랩핑 메쉬 데이터가 획득되면, 대상체에 대한 스캔 데이터와 랩핑 메쉬 데이터를 정렬시킬 수 있다. 이때, 스캔 데이터와 랩핑 메쉬 데이터를 정렬시키는 방법은 공지된 정렬 알고리즘을 이용할 수 있으나, 이에 한정되지 않는다.
프로세서(150)는 메모리(140)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 홀 영역에 대응하는 데이터를 획득할 수 있다. 예를 들어, 프로세서(150)는 스캔 데이터와 랩핑 메쉬 데이터가 정렬된 상태에서, 오버랩되지 않는 영역을 대상체의 홀 영역으로 검출할 수 있다. 프로세서(150)는 랩핑 메쉬 데이터에서, 검출된 홀 영역에 대응하는 메쉬 데이터를 제외한 나머지 데이터를 삭제함으로써, 홀 영역에 대응하는 데이터를 획득할 수 있다.
프로세서(150)는 메모리(140)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 스캔 데이터에서 홀의 내면 영역에 대한 데이터를 삭제할 수 있다.
예를 들어, 프로세서(150)는 스캔 데이터와 랩핑 메쉬 데이터가 정렬될 상태에서, 오버랩되지 않는 영역의 경계를 기준으로 스캔 데이터에서 나사홀 내면 영역을 검출할 수 있다. 프로세서(150)는 스캔 데이터에서 검출된 나사홀 내면 영역에 대한 데이터를 삭제할 수 있다.
프로세서(150)는 메모리(140)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 랩핑 메쉬 데이터 중 홀 영역에 대응하는 메쉬 데이터)와 스캔 데이터 중 나사홀 내면 영역을 삭제한 나머지 데이터를 합성하여, 최종 모델을 생성하고, 표시할 수 있다. 최종 모델은, 나사홀이 채워진 형태의 이미지를 포함할 수 있다.
프로세서(150)는 최종 모델에서 채워진 나사홀 영역이 다른 영역과 구별되도록 표시할 수 있다. 예를 들어, 프로세서(150)는 나사홀 영역의 경계 라인을 표시하거나, 나사홀 영역을 다른 영역과 다른 색상으로 구별되게 표시할 수 있다. 다만, 이에 한정되지 않는다.
일 예에 따른 프로세서(150)는, 내부적으로 적어도 하나의 내부 프로세서 및 내부 프로세서에서 처리 또는 이용될 프로그램, 인스트럭션, 신호, 및 데이터 중 적어도 하나 저장하기 위한 메모리 소자(예를 들어, RAM, ROM 등)을 포함하는 형태로 구현될 수 있다.
또한, 프로세서(150)는 비디오에 대응되는 그래픽 처리를 위한 그래픽 프로세서(Graphic Processing Unit)를 포함할 수 있다. 또한, 프로세서는 코어(core)와 GPU를 통합한 SoC(System On Chip)로 구현될 수 있다. 또한, 프로세서는 싱글 코어 이상의 멀티 코어를 포함할 수 있다. 예를 들어, 프로세서는 듀얼 코어, 트리플 코어, 쿼드 코어, 헥사 코어, 옥타 코어, 데카 코어, 도데카 코어, 헥사 다시 벌 코어 등을 포함할 수 있다.
개시된 실시예에서, 프로세서(150)는 3차원 스캐너(10, 50)로부터 수신되는 이차원 이미지에 근거하여 이미지를 생성할 수 있다.
구체적으로, 프로세서(150)의 제어에 따라서 통신 인터페이스(110)는 3차원 스캐너(10, 50)에서 획득된 데이터, 예를 들어 스캔을 통하여 획득된 로우 데이터(raw data)를 수신할 수 있다. 그리고, 프로세서(150)는 통신 인터페이스(110)에서 수신된 로우 데이터에 근거하여 대상체를 3차원적으로 나타내는 3차원 이미지를 생성할 수 있다. 예를 들어, 3차원 스캐너(10, 50)는 광 삼각 방식에 따라서 3차원 이미지를 복원하기 위해서, 좌안 시야(left Field of View)에 대응되는 L 카메라 및 우안 시야(Right Field of View)에 대응되는 R 카메라를 포함할 수 있다. 그리고, 3차원 스캐너는 L 카메라 및 R 카메라 각각에서 좌안 시야(left Field of View)에 대응되는 L 이미지 데이터 및 우안 시야(Right Field of View)에 대응되는 R 이미지 데이터를 획득할 수 있다. 계속하여, 3차원 스캐너는 L 이미지 데이터 및 R 이미지 데이터를 포함하는 로우 데이터를 이미지 처리 장치(100)의 통신 인터페이스(110)로 전송할 수 있다.
그러면, 통신 인터페이스(110)는 수신되는 로우 데이터를 프로세서(150)로 전달하고, 프로세서(150)는 전달받은 로우 데이터에 근거하여, 대상체를 3차원적으로 나타내는 이미지를 생성할 수 있다.
또한, 프로세서(150)는 통신 인터페이스(110)를 제어하여, 외부의 서버, 의료 장치 등으로부터 대상체를 3차원적으로 나타내는 이미지를 직접 수신할 수 있다. 이 경우, 프로세서는 로우 데이터에 근거한 3차원 이미지를 생성하지 않고, 3차원 이미지를 획득할 수 있다.
개시된 실시예에 따라서, 프로세서(150)가 '추출', '획득', '생성' 등의 동작을 수행한다는 것은, 프로세서(150)에서 적어도 하나의 인스트럭션을 실행하여 전술한 동작들을 직접 수행하는 경우뿐만 아니라, 전술한 동작들이 수행되도록 다른 구성 요소들을 제어하는 것을 포함할 수 있다.
본 개시서에 개시된 실시예들을 구현하기 위해서 이미지 처리 장치(100)는 도 15에 도시된 구성요소들의 일부만을 포함할 수도 있고, 도 15에 도시된 구성요소 외에 더 많은 구성요소를 포함할 수도 있다.
또한, 이미지 처리 장치(100)는 3차원 스캐너(10, 50)에 연동되는 전용 소프트웨어를 저장 및 실행할 수 있다. 여기서, 전용 소프트웨어는 전용 프로그램, 전용 툴(tool), 또는 전용 어플리케이션으로 호칭될 수 있다. 이미지 처리 장치(100)가 3차원 스캐너(10, 50)와 상호 연동되어 동작하는 경우, 이미지 처리 장치(100)에 저장되는 전용 소프트웨어는 3차원 스캐너(10, 50)와 연결되어 대상체의 스캔을 통하여 획득되는 데이터들을 실시간을 수신할 수 있다. 예를 들어, 메디트의 3차원 스캐너인 i500 제품에서 대상체의 스캔을 통하여 획득된 데이터를 처리하기 위한 전용 소프트웨어가 존재한다. 구체적으로, 메디트에서는 3차원 스캐너(예를 들어, i500)에서 획득된 데이터를 처리, 관리, 이용, 및/또는 전송하기 위한 소프트웨어인 'Medit Link'를 제작하여 배포하고 있다. 여기서, '전용 소프트웨어'는 3차원 스캐너와 연동되어 동작 가능한 프로그램, 툴, 또는 어플리케이션을 의미하는 것이므로 다양한 제작자에 의해서 개발 및 판매되는 다양한 3차원 스캐너들이 공용으로 이용할 수도 있을 것이다. 또한, 전술한 전용 소프트웨어는 대상체의 스캔을 수행하는 3차원 스캐너와 별도로 제작 및 배포될 수 있다.
이미지 처리 장치(100)는 i500 제품에 대응되는 전용 소프트웨어를 저장 및 실행할 수 있다. 전송 소프트웨어는 이미지를 획득, 처리, 저장, 및/또는 전송하기 위한 적어도 하나의 동작들을 수행할 수 있다. 여기서, 전용 소프트웨어는 프로세서에 저장될 수 있다. 또한, 전용 소프트웨어는 3차원 스캐너에서 획득된 데이터의 이용을 위한 사용자 인터페이스를 제공할 수 있다. 여기서, 전용 소프트웨어에서 제공되는 사용자 인터페이스 화면은 개시된 실시예에 따라서 생성되는 이미지를 포함할 수 있다.
본 개시의 일 실시예에 따른 이미지의 처리 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 또한, 본 개시의 실시예는, 이미지의 처리 방법을 실행하는 적어도 하나의 인스트럭션을 포함하는 하나 이상의 프로그램이 기록된 컴퓨터로 읽을 수 있는 저장 매체가 될 수 있다.
상기 컴퓨터 판독 가능 저장 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 여기서, 컴퓨터 판독 가능 저장 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치가 포함될 수 있다.
여기서, 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적 저장매체'는 저장 매체가 실재(tangible)하는 장치임을 의미할 수 있다. 또한, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 이미지의 처리 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포될 수 있다. 또는, 어플리케이션 스토어(예: 플레이 스토어 등)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 구체적으로, 개시된 실시예에 따른 컴퓨터 프로그램 제품은 개시된 실시예에 따른 이미지의 처리 방법을 수행하기 위해 적어도 하나의 인스트럭션을 포함하는 프로그램이 기록된 저장 매체를 포함할 수 있다.
이상에서 실시예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.

Claims (26)

  1. 이미지 처리 방법에 있어서,
    홀을 포함하는 대상체를 스캔한 3차원 스캔 데이터를 획득하는 단계;
    상기 스캔 데이터에 기초하여, 상기 홀 영역에 대응하는 데이터를 획득하는 단계;
    상기 홀의 내면 영역에 대한 데이터가 삭제된 스캔 데이터와 상기 홀 영역에 대응하는 데이터를 합성함으로써, 상기 홀이 채워진 형태를 나타내는 최종 모델을 획득하는 단계; 및
    상기 최종 모델을 표시하는 단계;를 포함하는 이미지 처리 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 스캔 데이터에 기초하여, 상기 홀 영역에 대응하는 데이터를 획득하는 단계는,
    상기 스캔 데이터를 둘러싸는 3차원 모델을 획득하는 단계;
    상기 3차원 모델 및 상기 스캔 데이터에 기초하여, 상기 대상체의 표면에 대응하는 메쉬 데이터를 획득하는 단계; 및
    상기 메쉬 데이터에서 상기 홀 영역에 대응하는 데이터를 획득하는 단계를 포함하는, 이미지 처리 방법.
  4. 제3항에 있어서,
    상기 3차원 모델은 상기 스캔 데이터에 대한 3차원 볼록 껍질(3d convex hull)을 포함하는, 이미지 처리 방법.
  5. 제3항에 있어서,
    상기 3차원 모델 및 상기 스캔 데이터에 기초하여, 상기 대상체의 표면에 대응하는 메쉬 데이터를 획득하는 단계는,
    상기 3차원 모델에 기초하여, 제1 메쉬 데이터를 획득하는 단계; 및
    상기 제1 메쉬 데이터 및 상기 스캔 데이터에 기초하여, 제2 메쉬 데이터를 획득하는 단계를 포함하고,
    상기 제2 메쉬 데이터에 포함되는 제2 메쉬들의 밀도는 상기 제1 메쉬 데이터에 포함되는 제1 메쉬들의 밀도보다 큰, 이미지 처리 방법.
  6. 제5항에 있어서,
    상기 제1 메쉬 데이터 및 상기 스캔 데이터에 기초하여, 상기 제2 메쉬 데이터를 획득하는 단계는,
    상기 제1 메쉬 데이터에 포함되는 제1 메쉬들을 상기 스캔 데이터에 포함되는 제3 메쉬들로 프로젝션하는 단계;
    상기 프로젝션된 메쉬들을 세분화하는(subdivide) 단계; 및
    상기 세분화된 메쉬들을 수축시킴으로써(shrink), 상기 제2 메쉬들을 생성하는 단계;를 포함하는 이미지 처리 방법.
  7. 제6항에 있어서,
    상기 이미지 처리 방법은,
    상기 스캔 데이터에서 상기 홀의 내면 영역을 검출하는 단계;를 더 포함하고,
    상기 제1 메쉬들을 상기 제3 메쉬들로 프로젝션하는 단계는,
    상기 제1 메쉬들이 상기 홀의 내면 영역에 대응하는 지 여부에 기초하여, 상기 제1 메쉬들을 상기 제3 메쉬들로 프로젝션하는 단계를 포함하는, 이미지 처리 방법.
  8. 제6항에 있어서,
    상기 제2 메쉬들의 밀도와 상기 스캔 데이터에 포함되는 제3 메쉬들의 밀도의 차이는 기 설정된 값 미만인 이미지 처리 방법.
  9. 제5항에 있어서,
    상기 제2 메쉬들의 표면적은 상기 제1 메쉬들의 표면적보다 작은, 이미지 처리 방법.
  10. 제3항에 있어서,
    상기 메쉬 데이터에서 상기 홀 영역에 대응하는 데이터를 획득하는 단계는,
    상기 메쉬 데이터에서, 상기 스캔 데이터와 오버랩되는 메쉬 데이터를 삭제하는 단계를 포함하는, 이미지 처리 방법.
  11. 제3항에 있어서,
    상기 최종 모델을 획득하는 단계는,
    상기 스캔 데이터에서, 상기 메쉬 데이터와 상기 스캔 데이터가 오버랩되지 않는 영역의 경계를 검출하고, 상기 경계를 기준으로 상기 홀의 내면 영역에 대한 데이터를 삭제하는 단계를 포함하는 이미지 처리 방법.
  12. 제1항에 있어서,
    상기 최종 모델을 표시하는 단계는,
    상기 홀이 채워진 영역을 다른 영역과 구별되도록 표시하는 단계를 포함하는, 이미지 처리 방법.
  13. 제1항에 있어서,
    상기 대상체는 나사홀을 포함하는 어버트먼트를 포함하는, 이미지 처리 방법.
  14. 이미지 처리 장치는,
    디스플레이;
    하나 이상의 인스트럭션들을 저장하는 메모리; 및
    프로세서를 포함하고,
    상기 프로세서는, 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행함으로써,
    홀을 포함하는 대상체를 스캔한 3차원 스캔 데이터를 획득하고,
    상기 스캔 데이터에 기초하여, 상기 홀 영역에 대응하는 데이터를 획득하며,
    상기 홀의 내면 영역에 대한 데이터가 삭제된 스캔 데이터와 상기 홀 영역에 대응하는 데이터를 합성함으로써, 상기 홀이 채워진 형태를 나타내는 최종 모델을 획득하고,
    상기 최종 모델을 표시하도록 상기 디스플레이를 제어하는, 이미지 처리 장치.
  15. 삭제
  16. 제14항에 있어서,
    상기 프로세서는, 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행함으로써,
    상기 스캔 데이터를 둘러싸는 3차원 모델을 획득하고,
    상기 3차원 모델 및 상기 스캔 데이터에 기초하여, 상기 대상체의 표면에 대응하는 메쉬 데이터를 획득하며,
    상기 메쉬 데이터에서 상기 홀 영역에 대응하는 데이터를 획득하는, 이미지 처리 장치.
  17. 제16항에 있어서,
    상기 3차원 모델은 상기 스캔 데이터에 대한 3차원 볼록 껍질(3d convex hull)을 포함하는, 이미지 처리 장치.
  18. 제16항에 있어서,
    상기 프로세서는, 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행함으로써,
    상기 3차원 모델에 기초하여, 제1 메쉬 데이터를 획득하고,
    상기 제1 메쉬 데이터 및 상기 스캔 데이터에 기초하여, 제2 메쉬 데이터를 획득하며,
    상기 제2 메쉬 데이터에 포함되는 제2 메쉬들의 밀도는 상기 제1 메쉬 데이터에 포함되는 제1 메쉬들의 밀도보다 큰, 이미지 처리 장치.
  19. 제18항에 있어서,
    상기 프로세서는, 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행함으로써,
    상기 제1 메쉬 데이터에 포함되는 제1 메쉬들을 상기 스캔 데이터에 포함되는 제3 메쉬들로 프로젝션하고,
    상기 프로젝션된 메쉬들을 세분화(subdivide)하며,
    상기 세분화된 메쉬들을 수축시킴으로써(shrink), 상기 제2 메쉬들을 생성하는, 이미지 처리 장치.
  20. 제19항에 있어서,
    상기 프로세서는, 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행함으로써,
    상기 스캔 데이터에서 상기 홀의 내면 영역을 검출하고,
    상기 제1 메쉬들이 상기 홀의 내면 영역에 대응하는 지 여부에 기초하여, 상기 제1 메쉬들을 상기 제3 메쉬들로 프로젝션하는, 이미지 처리 장치.
  21. 제19항에 있어서,
    상기 제2 메쉬들의 밀도와 상기 스캔 데이터에 포함되는 제3 메쉬들의 밀도의 차이는 기 설정된 값 미만인 이미지 처리 장치.
  22. 제18항에 있어서,
    상기 제2 메쉬들의 표면적은 상기 제1 메쉬들의 표면적보다 작은, 이미지 처리 장치.
  23. 제16항에 있어서,
    상기 프로세서는, 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행함으로써,
    상기 메쉬 데이터에서, 상기 스캔 데이터와 오버랩되는 메쉬 데이터를 삭제하는, 이미지 처리 장치.
  24. 제16항에 있어서,
    상기 프로세서는, 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행함으로써,
    상기 스캔 데이터에서, 상기 메쉬 데이터와 상기 스캔 데이터가 오버랩되지 않는 영역의 경계를 검출하고, 상기 경계를 기준으로 상기 홀의 내면 영역에 대한 데이터를 삭제하는 이미지 처리 장치.
  25. 제14항에 있어서,
    상기 프로세서는, 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행함으로써,
    상기 홀이 채워진 영역을 다른 영역과 구별되게 표시하도록 상기 디스플레이를 제어하는, 이미지 처리 장치.
  26. 제14항에 있어서,
    상기 대상체는 나사홀을 포함하는 어버트먼트를 포함하는, 이미지 처리 장치.
KR1020220026906A 2021-06-18 2022-03-02 이미지 처리 장치, 및 이미지 처리 방법 KR102527955B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/KR2022/007770 WO2022265270A1 (ko) 2021-06-18 2022-05-31 이미지 처리 장치, 및 이미지 처리 방법
US18/289,832 US20240242440A1 (en) 2021-06-18 2022-05-31 Image processing device and image processing method
CN202280028069.8A CN117178300A (zh) 2021-06-18 2022-05-31 图像处理装置及图像处理方法
EP22825196.3A EP4322113A1 (en) 2021-06-18 2022-05-31 Image processing device and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20210079520 2021-06-18
KR1020210079520 2021-06-18

Publications (2)

Publication Number Publication Date
KR20220169380A KR20220169380A (ko) 2022-12-27
KR102527955B1 true KR102527955B1 (ko) 2023-05-03

Family

ID=84568100

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220026906A KR102527955B1 (ko) 2021-06-18 2022-03-02 이미지 처리 장치, 및 이미지 처리 방법

Country Status (1)

Country Link
KR (1) KR102527955B1 (ko)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102442720B1 (ko) * 2019-03-12 2022-09-13 주식회사 메디트 치아 보철 제조를 위한 3차원 스캔 데이터 처리 방법

Also Published As

Publication number Publication date
KR20220169380A (ko) 2022-12-27

Similar Documents

Publication Publication Date Title
WO2023274413A1 (zh) 三维扫描系统、辅助件、处理方法、装置、设备及介质
KR102527955B1 (ko) 이미지 처리 장치, 및 이미지 처리 방법
KR102460621B1 (ko) 구강 이미지 처리 장치, 및 구강 이미지 처리 방법
EP4374819A1 (en) Image processing apparatus and image processing method
KR102582709B1 (ko) 삼차원 구강 모델을 처리하는 방법 및 장치
KR20220056760A (ko) 구강 이미지 처리 장치, 및 구강 이미지 처리 방법
KR102552669B1 (ko) 구강 이미지 처리 장치, 및 구강 이미지 처리 방법
US20240242440A1 (en) Image processing device and image processing method
KR102673346B1 (ko) 삼차원 구강 모델 처리 장치 및 삼차원 구강 모델 처리 방법
KR102472128B1 (ko) 치과 치료를 위한 정보 제공 방법 및 그를 수행하는 전자 장치
US20240077430A1 (en) Image processing apparatus and image processing method
KR20230175014A (ko) 이미지 처리 장치 및 이미지 처리 방법
KR102645173B1 (ko) 구강 이미지 처리 장치, 및 구강 이미지 처리 방법
CN117178300A (zh) 图像处理装置及图像处理方法
US20230390035A1 (en) Oral image processing device and oral image processing method
KR102705054B1 (ko) 구강 이미지 처리 장치, 및 구강 이미지 처리 방법
KR102631922B1 (ko) 삼차원 구강 모델을 처리하는 방법 및 장치
KR20230051418A (ko) 구강 이미지 처리 장치 및 구강 이미지 처리 방법
KR20230038117A (ko) 구강 이미지를 처리하는 방법 및 데이터 처리 장치
KR102626888B1 (ko) 삼차원 구강 모델 처리 장치 및 삼차원 구강 모델 처리 방법
US20240281974A1 (en) Intraoral image processing device and intraoral image processing method
EP4400074A1 (en) Method for processing intraoral image and data processing device
KR102680644B1 (ko) 3차원 모델 상에 텍스트를 추가하는 방법 및 3차원 모델 처리 장치
KR102651515B1 (ko) 데이터 처리 장치 및 데이터 처리 방법
KR20230054605A (ko) 구강 이미지 처리 장치, 및 구강 이미지 처리 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant