KR102223269B1 - Image search and matching method for scan region re-tracking and imaging processing apparatus therefor - Google Patents

Image search and matching method for scan region re-tracking and imaging processing apparatus therefor Download PDF

Info

Publication number
KR102223269B1
KR102223269B1 KR1020190031155A KR20190031155A KR102223269B1 KR 102223269 B1 KR102223269 B1 KR 102223269B1 KR 1020190031155 A KR1020190031155 A KR 1020190031155A KR 20190031155 A KR20190031155 A KR 20190031155A KR 102223269 B1 KR102223269 B1 KR 102223269B1
Authority
KR
South Korea
Prior art keywords
descriptor
image data
matching
feature information
input image
Prior art date
Application number
KR1020190031155A
Other languages
Korean (ko)
Other versions
KR20200111850A (en
Inventor
김기상
Original Assignee
오스템임플란트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오스템임플란트 주식회사 filed Critical 오스템임플란트 주식회사
Priority to KR1020190031155A priority Critical patent/KR102223269B1/en
Publication of KR20200111850A publication Critical patent/KR20200111850A/en
Application granted granted Critical
Publication of KR102223269B1 publication Critical patent/KR102223269B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Dentistry (AREA)
  • Pathology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Quality & Reliability (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Image Analysis (AREA)

Abstract

스캔 영역 재탐지를 위한 영상 검색 및 매칭 방법과 이를 수행하는 영상 처리장치가 개시된다. 일 실시 예에 따른 스캔 영역 재탐지를 위한 영상 검색 및 매칭 방법은, 구강 스캐너를 이용하여 대상을 부분적으로 스캔한 입력 영상 데이터들을 획득하고 각 입력 영상 데이터의 특징정보를 추출하는 단계와, 특징정보가 추출된 위치에서 다른 입력 영상의 특징정보와 구분할 수 있는 디스크립터를 생성하는 단계와, 생성된 디스크립터 간을 매칭하는 단계와, 매칭된 디스크립터를 중심으로 이동 및 회전 성분을 계산하는 단계와, 계산된 이동 및 회전 성분을 이용하여 입력 영상 데이터들을 융합하는 단계를 포함한다.Disclosed are an image search and matching method for re-detection of a scan area, and an image processing apparatus performing the same. An image search and matching method for re-detection of a scan area according to an embodiment includes the steps of acquiring input image data partially scanned a target using an oral scanner and extracting feature information of each input image data, and feature information Generating a descriptor that can be distinguished from feature information of other input images at the extracted location, matching between the generated descriptors, calculating movement and rotation components around the matched descriptor, and the calculated And fusing the input image data using the movement and rotation components.

Description

스캔 영역 재탐지를 위한 영상 검색 및 매칭 방법과 이를 수행하는 영상 처리장치 {Image search and matching method for scan region re-tracking and imaging processing apparatus therefor}[Image search and matching method for scan region re-tracking and imaging processing apparatus therefor}

본 발명은 영상 분석 및 처리기술에 관한 것이다.The present invention relates to image analysis and processing technology.

최근 치과에서 환자의 구강에 대한 데이터를 생성하기 위하여 치과용 구강 스캐너를 많이 사용하고 있는데, 구강 스캐너의 카메라의 경우 관심영역(Field of View: FOV)이 좁기 때문에 전체를 한 번에 스캔할 수 없다. 따라서, 전악을 여러 구역으로 나누어서 스캔하고, 스캔을 통해 획득한 여러 구역에 대한 영상들을 정합함으로써 전악에 대한 데이터를 획득할 수 있다. 그런데 여러 구역에 대한 영상들을 정합할 때, 사용자가 위치를 설계하고 스캔 실패 시에 해당 스캔 위치를 재탐지하여 스캔을 해야 하므로, 지정된 위치에서만 스캔이 가능하며 속도가 저하된다.Recently, dentistry has used a lot of dental oral scanners to generate data on the patient's oral cavity. In the case of the camera of the oral scanner, the field of view (FOV) is narrow, so the entire area cannot be scanned at once. . Accordingly, data on the whole jaw can be obtained by dividing the whole jaw into several zones and scanning, and matching images of several zones acquired through the scan. However, when matching images for multiple areas, the user must design the location and scan by re-detecting the scan location when the scan fails, so that the scan is possible only at the designated location and the speed decreases.

일 실시 예에 따라, 사용자가 자유롭게 스캔할 수 있고, 스캔이 중간에 실패하더라도 이미 스캔이 진행된 다른 영역을 기준으로 새로운 스캔을 진행함으로써 사용자에게 편의성을 증대시킬 수 있는 스캔 영역 재탐지를 위한 영상 검색 및 매칭 방법과 이를 수행하는 영상 처리장치를 제안한다.According to an embodiment, the user can freely scan, and even if the scan fails in the middle, a new scan is performed based on another area where the scan has already been performed, thereby increasing the user's convenience. And a matching method and an image processing apparatus performing the same.

나아가, 전체 영역을 기준으로 재탐지하기 때문에, 기존에 발생하였던 다른 영역을 촬영하였을 때 잘못 추적하는 오 탐지에 대해서도 방지할 수 있는 영상 검색 및 매칭 방법과 이를 수행하는 영상 처리장치를 제안한다.Furthermore, since re-detection is performed based on the entire area, an image search and matching method and an image processing apparatus that perform the same are proposed, which can prevent false detections that are erroneously tracked when another area is captured.

일 실시 예에 따른 스캔 영역 재탐지를 위한 영상 검색 및 매칭 방법은, 구강 스캐너를 이용하여 대상을 부분적으로 스캔한 입력 영상 데이터들을 획득하고 각 입력 영상 데이터의 특징정보를 추출하는 단계와, 특징정보가 추출된 위치에서 다른 입력 영상의 특징정보와 구분할 수 있는 디스크립터를 생성하는 단계와, 생성된 디스크립터 간을 매칭하는 단계와, 매칭된 디스크립터를 중심으로 이동 및 회전 성분을 계산하는 단계와, 계산된 이동 및 회전 성분을 이용하여 입력 영상 데이터들을 융합하는 단계를 포함한다.An image search and matching method for re-detection of a scan area according to an embodiment includes the steps of acquiring input image data partially scanned a target using an oral scanner and extracting feature information of each input image data, and feature information Generating a descriptor that can be distinguished from feature information of other input images at the extracted location, matching between the generated descriptors, calculating movement and rotation components around the matched descriptor, and the calculated And fusing the input image data using the movement and rotation components.

특징정보를 추출하는 단계는, 입력 영상 데이터인 3차원 모델 데이터의 중심좌표 (0,0,cz)와 카메라 좌표 (0,0,0)를 특징점으로 추출할 수 있고, 여기서, x, y의 0은 x축과 y축의 중심을 나타내고, z의 0은 현재 카메라의 위치를 나타내며, cz는 카메라와 3차원 모델 데이터의 중심 간의 거리를 나타낸다.In the step of extracting the feature information, the center coordinate (0,0,cz) and the camera coordinate (0,0,0) of the 3D model data as input image data may be extracted as feature points, where x and y 0 represents the center of the x-axis and y-axis, 0 of z represents the current position of the camera, and cz represents the distance between the camera and the center of the 3D model data.

디스크립터를 생성하는 단계에서, 점 군 데이터를 중심으로 중심점과 그 주변점들 간의 비교를 통해 중심점의 주변점과의 연관성을 나타내는 관계 값을 산출함에 따라 디스크립터를 생성할 수 있다. 이때, 점 군 데이터의 중심점의 법선 벡터와 그 주변점의 법선 벡터 간의 각도를 이용하여 관계 값을 산출할 수 있다.In the step of generating the descriptor, the descriptor may be generated by calculating a relationship value representing the association between the central point and the surrounding points through comparison between the central point and the surrounding points based on the point group data. In this case, a relationship value may be calculated by using an angle between the normal vector of the central point of the point group data and the normal vector of the surrounding points.

디스크립터를 생성하는 단계에서, 카메라의 시점(view point)을 중심으로 카메라와 점 군 데이터의 중심점과의 관계를 산출함에 따라 디스크립터를 생성할 수 있다. 이때, 카메라의 중심점(Vp)과 점 군 데이터를 구성하는 하나의 점(Pi) 간의 벡터(Vp-Pi)와, 점 군 데이터의 점(Pi)의 법선 벡터(ni) 간의 각도(α)를 산출하여 해당 점(Pi)과 카메라 간의 관계를 산출할 수 있다.In the step of generating the descriptor, the descriptor may be generated by calculating the relationship between the camera and the center point of the point group data based on the camera's view point. At this time, the angle (α) between the vector (Vp-Pi) between the center point (Vp) of the camera and one point (Pi) constituting the point group data, and the normal vector (ni) of the point (Pi) of the point group data By calculating, the relationship between the point Pi and the camera can be calculated.

디스크립터를 생성하는 단계에서, 다수의 관계 값이 산출되면 히스토그램 방법을 이용하여 산출된 관계 값들을 하나의 디스크립터로 묶을 수 있다.In the step of generating the descriptor, when a plurality of relationship values are calculated, the relationship values calculated using the histogram method may be grouped into one descriptor.

디스크립터 간을 매칭하는 단계는, 스캔 실패 시 히스토그램에서 동일한 값을 가진 디스크립터들에 대한 평균 및 분산을 산출하는 단계와, 분산 값이 큰 순서에서 낮은 순서대로 디스크립터들을 비교하면서 디스크립터 간의 유사도를 계산하는 단계와, 유사도가 높은 디스크립터들을 부분적으로 우선 매칭하는 단계와, 매칭결과가 성공이면 다음 매칭 단계로 진입하는 캐스케이드(Cascade) 방식을 이용하여 매칭을 수행하는 단계를 포함할 수 있다.The matching between descriptors includes calculating an average and variance for descriptors having the same value in the histogram when a scan fails, and calculating similarity between descriptors by comparing the descriptors in order from the highest to the lowest variance value. And, partially first matching descriptors having high similarity, and performing matching using a cascade method of entering a next matching step if the matching result is successful.

이동 및 회전 성분을 계산하는 단계에서, 매칭된 디스크립터를 중심으로 법선 벡터 및 데이터의 분포를 이용하여 이동 및 회전 성분을 계산할 수 있다.In the step of calculating the movement and rotation components, the movement and rotation components may be calculated using a normal vector and a distribution of data around the matched descriptor.

영상 검색 및 매칭 방법은, ICP(Iterative Closest Point)를 이용하여 2차 융합을 수행하는 단계와, ICP를 통해 산출된 평균거리 및 매칭된 정점의 비율을 이용하여 융합 결과를 검증하는 단계를 더 포함할 수 있다.The image search and matching method further includes performing secondary fusion using ICP (Iterative Closest Point), and verifying the fusion result using the average distance calculated through ICP and the ratio of the matched vertices. can do.

다른 실시 예에 따른 영상 처리장치는, 구강 스캐너를 이용하여 대상을 부분적으로 스캔한 입력 영상 데이터들을 획득하고 각 입력 영상 데이터의 특징정보를 추출하는 위치 선정부와, 특징정보가 추출된 위치에서 다른 입력 영상의 특징정보와 구분할 수 있는 디스크립터를 생성하는 디스크립터 생성부와, 생성된 디스크립터 간을 매칭하는 매칭부와, 매칭된 디스크립터를 중심으로 이동 및 회전 성분을 계산하고 계산된 이동 및 회전 성분을 이용하여 입력 영상 데이터들을 융합하는 융합부를 포함한다.An image processing apparatus according to another embodiment includes a location selector that obtains input image data partially scanned a target using an oral scanner and extracts feature information of each input image data, and a location selector that extracts feature information of each input image data; A descriptor generation unit that generates a descriptor that can be distinguished from the feature information of the input image, a matching unit that matches the generated descriptors, and calculates movement and rotation components around the matched descriptor, and uses the calculated movement and rotation components. And a fusion unit for fusing the input image data.

디스크립터 생성부는, 점 군 데이터를 중심으로 중심점과 그 주변점들 간의 비교를 통해 중심점의 주변점과의 연관성을 나타내는 관계 값을 산출하되, 점 군 데이터의 중심점의 법선 벡터와 그 주변점의 법선 벡터 간의 각도를 이용하여 관계 값을 산출할 수 있다.Based on the point group data, the descriptor generator calculates a relationship value representing the association between the central point and the surrounding points through comparison between the central point and its surrounding points, and the normal vector of the central point of the point group data and the normal vector of the surrounding points The relationship value can be calculated using the angle between.

디스크립터 생성부는, 카메라의 시점(view point)을 중심으로 카메라와 점 군 데이터의 중심점과의 관계를 산출함에 따라 디스크립터를 생성하되, 카메라의 중심점(Vp)과 점 군 데이터를 구성하는 하나의 점(Pi) 간의 벡터(Vp-Pi)와, 점 군 데이터의 점(Pi)의 법선 벡터(ni) 간의 각도(α)를 산출하여 해당 점(Pi)과 카메라 간의 관계를 산출할 수 있다.The descriptor generator generates a descriptor by calculating the relationship between the camera and the center point of the point group data centering on the camera's view point, but the center point (Vp) of the camera and one point constituting the point group data ( The relationship between the corresponding point Pi and the camera may be calculated by calculating the angle α between the vector Vp-Pi between Pi) and the normal vector ni of the point Pi of the point group data.

매칭부는, 스캔 실패 시 히스토그램에서 동일한 값을 가진 디스크립터들에 대한 평균 및 분산을 산출하고, 분산 값이 큰 순서에서 낮은 순서대로 디스크립터들을 비교하면서 디스크립터 간의 유사도를 계산하고, 유사도가 높은 디스크립터들을 부분적으로 우선 매칭하며, 매칭결과가 성공이면 다음 매칭 단계로 진입하는 캐스케이드(Cascade) 방식을 이용하여 매칭을 수행할 수 있다.The matching unit calculates the average and variance of descriptors having the same value in the histogram when a scan fails, and calculates the similarity between descriptors by comparing the descriptors in order from the highest to the lowest variance value, and partially extracts the descriptors with high similarity. Matching is performed first, and if the matching result is successful, matching may be performed using a cascade method of entering the next matching step.

영상 처리장치는, ICP를 통해 산출된 평균거리 및 매칭된 정점의 비율을 이용하여 융합 결과를 검증하는 검증부를 더 포함할 수 있다.The image processing apparatus may further include a verification unit for verifying the fusion result by using the average distance calculated through the ICP and the ratio of the matched vertices.

일 실시 예에 따른 스캔 영역 재탐지를 위한 영상 검색 및 매칭 방법과 이를 수행하는 영상 처리장치에 따르면, 사용자가 원하는 대로 스캔을 할 수 있는 환경을 제공하며, 스캔이 중간에 실패하더라도 이미 스캔이 진행된 다른 영역을 기준으로 새로운 스캔을 진행함으로써 사용자에게 편의성을 증대시킬 수 있다.According to an image search and matching method for re-detection of a scan area according to an embodiment and an image processing apparatus performing the same, an environment in which a user can scan as desired is provided, and even if a scan fails in the middle, a scan has already been performed. Convenience for the user can be increased by performing a new scan based on a different area.

또한, 전체 영역을 기준으로 재탐지하기 때문에, 기존에 발생하였던 다른 영역을 촬영하였을 때 잘못 추적하는 오 탐지 발생을 방지할 수 있다.In addition, since re-detection is performed on the basis of the entire area, it is possible to prevent the occurrence of false detections that are erroneously tracked when another area that has already occurred is photographed.

나아가, 융합 검증을 통해 필요없는 부분을 제거하여 스캔의 정확도를 높일 수 있다.Furthermore, it is possible to increase the accuracy of the scan by removing unnecessary parts through fusion verification.

또한, 디스크립터의 평균 분산과 캐스케이드 방식을 이용하여 디스크립터의 매칭을 고속화할 수 있다.In addition, it is possible to speed up the matching of descriptors by using the average variance and cascade method of the descriptors.

도 1은 스캔 추적 실패 후 데이터 부족으로 재추적이 어려운 상황을 설명하기 위한 도면,
도 2는 재탐지를 통해 자유도가 높아진 스캔을 제공하는 모습을 보여주는 도면,
도 3은 본 발명의 일 실시 예에 따른 스캔 영역 재탐지를 위한 영상 검색 및 영상 매칭이 가능한 스캔 시스템의 구성을 도시한 도면,
도 4는 본 발명의 일 실시 예에 따른 도 3의 영상 처리장치의 세부 구성을 도시한 도면,
도 5는 본 발명의 일 실시 예에 따른 입력 영상 데이터의 예를 도시한 도면,
도 6은 본 발명의 일 실시 예에 따른 입력 영상 데이터의 특징정보를 추출하는 예를 도시한 도면,
도 7은 본 발명의 일 실시 예에 따른 모델 데이터를 중심으로 한 디스크립터의 생성 예를 보여주는 도면,
도 8은 본 발명의 다른 실시 예에 따른 시점(view point) 디스크립터 생성 예를 도시한 도면,
도 9는 본 발명의 일 실시 예에 따른 캐스케이드 방법의 예를 도시한 도면,
도 10은 본 발명의 일 실시 예에 따른 스캔 영역 재탐지를 위한 영상 검색 및 매칭 방법의 흐름을 도시한 도면이다.
1 is a diagram for explaining a situation in which retrace is difficult due to lack of data after a scan tracking failure;
2 is a diagram showing a state in which a scan with increased degrees of freedom is provided through re-detection;
3 is a diagram illustrating a configuration of a scanning system capable of image search and image matching for re-detection of a scan area according to an embodiment of the present invention;
4 is a diagram showing a detailed configuration of the image processing apparatus of FIG. 3 according to an embodiment of the present invention;
5 is a diagram showing an example of input image data according to an embodiment of the present invention;
6 is a diagram showing an example of extracting feature information of input image data according to an embodiment of the present invention;
7 is a diagram showing an example of generating a descriptor centering on model data according to an embodiment of the present invention;
8 is a diagram illustrating an example of generating a view point descriptor according to another embodiment of the present invention;
9 is a diagram showing an example of a cascade method according to an embodiment of the present invention;
10 is a diagram illustrating a flow of an image search and matching method for re-detecting a scan area according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments make the disclosure of the present invention complete, and the general knowledge in the technical field to which the present invention pertains. It is provided to completely inform the scope of the invention to the possessor, and the invention is only defined by the scope of the claims. The same reference numerals refer to the same elements throughout the specification.

본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이며, 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, if it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted, and terms to be described later are in the embodiment of the present invention. These terms are defined in consideration of the functions of the user and may vary according to the intention or custom of users or operators. Therefore, the definition should be made based on the contents throughout the present specification.

첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램인스트럭션들(실행 엔진)에 의해 수행될 수도 있으며, 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다.Combinations of each block of the attached block diagram and each step of the flowchart may be executed by computer program instructions (execution engine), and these computer program instructions are used on a processor of a general-purpose computer, special purpose computer, or other programmable data processing device. As can be mounted, the instructions executed by the processor of a computer or other programmable data processing device generate means for performing the functions described in each block of the block diagram or each step of the flowchart.

이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치를 지향할 수 있는 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.These computer program instructions may also be stored in a computer-usable or computer-readable memory that can be directed to a computer or other programmable data processing device to implement a function in a particular manner, so that the computer-usable or computer-readable memory It is also possible to produce an article of manufacture in which the instructions stored in the block diagram contain instruction means for performing the functions described in each block of the block diagram or each step of the flowchart.

그리고 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명되는 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.In addition, since computer program instructions can be mounted on a computer or other programmable data processing device, a series of operation steps are performed on a computer or other programmable data processing device to create a computer-executable process. It is also possible that the instructions for performing the data processing apparatus provide steps for executing the functions described in each block in the block diagram and in each step in the flowchart.

또한, 각 블록 또는 각 단계는 특정된 논리적 기능들을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있으며, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하며, 또한 그 블록들 또는 단계들이 필요에 따라 해당하는 기능의 역순으로 수행되는 것도 가능하다.In addition, each block or each step may represent a module, segment, or part of code containing one or more executable instructions for executing specified logical functions, and in some alternative embodiments mentioned in the blocks or steps. It should be noted that it is also possible for functions to occur out of order. For example, two blocks or steps shown in succession may in fact be performed substantially simultaneously, and the blocks or steps may be performed in the reverse order of a corresponding function as necessary.

이하, 첨부 도면을 참조하여 본 발명의 실시 예를 상세하게 설명한다. 그러나 다음에 예시하는 본 발명의 실시 예는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 다음에 상술하는 실시 예에 한정되는 것은 아니다. 본 발명의 실시 예는 이 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공된다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the embodiments of the present invention exemplified below may be modified in various other forms, and the scope of the present invention is not limited to the embodiments described below. Embodiments of the present invention are provided to more completely describe the present invention to those of ordinary skill in the art to which the present invention pertains.

도 1은 스캔 추적 실패 후 데이터 부족으로 재추적이 어려운 상황을 설명하기 위한 도면이다.1 is a diagram for describing a situation in which retrace is difficult due to lack of data after a scan tracking failure.

구강 스캐너를 이용한 스캔 프로세스에 따르면, 구강 스캐너를 통해 촬영된 다양한 부분 영상들로부터 3차원 점 군 데이터(Point Cloud Data: PCD, 이하 'PCD'라 칭함)를 생성한다. 현재 촬영된 영상으로부터 생성된 현재의 PCD와 이전 촬영된 영상으로부터 생성된 이전의 PCD의 특징 추출 및 분산 산출 이후, 이를 서로 비교하여 이동 및 회전 성분을 계산한다. 그리고 계산결과를 이용하여 현재의 PCD와 이전의 PCD를 융합하여 하나의 모델 데이터를 만드는 형식으로 스캔을 진행한다.According to the scanning process using an oral scanner, 3D point cloud data (Point Cloud Data: PCD, hereinafter referred to as'PCD') is generated from various partial images captured by the oral scanner. After feature extraction and variance calculation of the current PCD generated from the currently photographed image and the previous PCD generated from the previously photographed image, the movement and rotation components are calculated by comparing them with each other. Then, using the calculation result, the current PCD and the previous PCD are fused to create a single model data, and the scan is performed.

이와 같은 스캔 프로세스에서, 이전의 PCD와 현재의 PCD가 정확하게 매칭(matching) 되느냐에 따라 스캔 추적의 성공 여부를 확인한다. 스캔 추적이 올바르게 된 경우는 그대로 진행하면 된다. 이에 비에, 스캔 추적에 실패한 경우는 예외처리가 필요하다. 예외처리 방법으로써, 마지막으로 스캔 추적 성공이라고 판단된 PCD를 기준으로 새로 촬영된 영상으로부터 생성된 PCD와 스캔 추적을 성공할 때까지 계속 비교하여 재탐지하는 방법이 있다. 이러한 예외처리 방법의 경우, 도 1에 도시된 바와 같이 가지고 있는 데이터가 적으면 그만큼 유사한 영역도 적어지기 때문에 재탐지가 어렵다. 설사, 재탐지가 되더라도 문제가 있는 이동 및 회전성분을 추출하는 경우도 있으며, 올바르지 않은 부분을 맞는 부분이라고 잘못 추적하는 오 탐지가 발생할 수 있다. 이러한 문제가 발생하면 기존의 예외처리로는 해결할 수가 없으므로, 사용자는 처음부터 다시 스캔해야 하는 불편함을 야기한다.In such a scan process, it is checked whether or not the scan trace is successful according to whether the previous PCD and the current PCD are accurately matched. If the scan tracking is correct, you can proceed as it is. For this reason, exception handling is necessary when scan tracking fails. As an exception processing method, there is a method of continuously comparing and re-detecting the PCD generated from the newly captured image based on the PCD determined as the last scan tracking success until the scan tracking is successful. In the case of such an exception handling method, as shown in FIG. 1, if there is less data, a similar area is also reduced, so re-detection is difficult. Even if it is re-detected, there are cases of extracting problematic movement and rotational components, and false detection may occur in which the incorrect part is erroneously tracked as the right part. When such a problem occurs, it cannot be solved with the existing exception handling, which causes the inconvenience of the user having to scan again from the beginning.

도 2는 재탐지를 통해 자유도가 높아진 스캔을 제공하는 모습을 보여주는 도면이다.2 is a view showing a state in which a scan with increased degrees of freedom is provided through re-detection.

도 1을 참조로 하여 전술한 예외처리 방법에 따르면 사용자가 한 번에 전체를 스캔해야 하는 불편함이 있다. 이러한 방법으로는 사용자는 항상 마지막에 스캔한 영역을 기준으로 다른 부분을 스캔해야 하기 때문이다. 도 2에 도시된 바와 같이 치아 외측을 좌에서 우로 한번 스캔 후, 치아 상측을 좌에서 우로 스캔을 시도할 수가 없다. 즉, 사용자는 주어진 대로만 스캔을 시도해야 하는 어려움이 있다.According to the above-described exception handling method with reference to FIG. 1, there is an inconvenience in that the user must scan the whole at once. This is because in this way, the user always has to scan another part based on the last scanned area. As shown in FIG. 2, after scanning the outer side of the tooth from left to right once, it is not possible to attempt to scan the upper side of the tooth from left to right. In other words, there is a difficulty in that the user has to try to scan only as given.

본 발명의 기술적 과제는 도 1 및 도 2를 참조로 하여 기존의 문제점으로 제시한 재탐지에 대한 한계를 극복하고 사용자가 자유롭게 스캔할 수 있는 기능을 제공하는 것이다. 예를 들어, 도 2에서와 같이 사용자가 원하는 대로 스캔을 할 수 있는 환경을 제공하고자 한다. 또한, 스캔이 중간에 실패하더라도 이미 스캔이 진행된 다른 영역을 기준으로 새로운 스캔을 진행함으로써 사용자에게 편의성을 증대시킬 수 있다. 나아가, 전체 영역을 기준으로 재탐지하기 때문에, 기존에 발생하였던 다른 영역을 촬영하였을 때 잘못 추적하는 오 탐지 발생을 방지할 수 있다. 이하, 전술한 기술적 과제를 해결하기 위한 본 발명의 구성에 대해 상세히 후술한다.The technical problem of the present invention is to overcome the limitation of re-detection presented as a problem with reference to FIGS. 1 and 2 and to provide a function that allows a user to freely scan. For example, as shown in FIG. 2, it is intended to provide an environment in which a user can scan as desired. In addition, even if the scan fails in the middle, convenience for the user may be increased by performing a new scan based on another area in which the scan has already been performed. Furthermore, since detection is performed based on the entire area, it is possible to prevent the occurrence of erroneous detection that is erroneously tracked when another area that has already occurred is captured. Hereinafter, the configuration of the present invention for solving the above-described technical problem will be described in detail.

도 3은 본 발명의 일 실시 예에 따른 스캔 영역 재탐지를 위한 영상 검색 및 영상 매칭이 가능한 스캔 시스템의 구성을 도시한 도면이다.3 is a diagram illustrating a configuration of a scanning system capable of image search and image matching for re-detection of a scan area according to an embodiment of the present invention.

도 3을 참조하면, 스캔 시스템(1)은 구강 스캐너(2)와 영상 처리장치(3)를 포함한다.Referring to FIG. 3, the scanning system 1 includes an oral scanner 2 and an image processing device 3.

구강 스캐너(2)는 사용자의 구강 내부를 카메라를 통해 스캔하여 구강 내부의 영상 데이터를 획득한다. 영상 처리장치(3)는 구강 스캐너(2)로부터 영상 데이터를 수신하고 이를 프로세서를 이용하여 처리한다. 영상 처리장치(3)는 영상 처리 프로그램을 실행 가능한 전자장치이다. 전자장치는 컴퓨터, 노트북 컴퓨터, 랩탑 컴퓨터, 태블릿(Tablet) PC, 스마트폰, 휴대폰, PMP(Personal Media Player), PDA(Personal Digital Assistants) 등이 있다. 영상 처리 프로그램은 스캔 프로그램, CAD 프로그램, 가이드 디자인 프로그램 등이 있다. 또한, 치과 임플란트 수술을 포함하여 의료영상 처리를 위한 프로그램에 적용될 수 있다.The oral scanner 2 scans the user's oral cavity through a camera to obtain image data inside the oral cavity. The image processing apparatus 3 receives image data from the oral scanner 2 and processes it using a processor. The image processing device 3 is an electronic device capable of executing an image processing program. Electronic devices include computers, notebook computers, laptop computers, tablet PCs, smartphones, mobile phones, personal media players (PMPs), personal digital assistants (PDAs), and the like. Image processing programs include scan programs, CAD programs, and guide design programs. In addition, it can be applied to programs for medical image processing, including dental implant surgery.

구강 스캐너(2)는 내부 조명의 광원을 구동하여 광을 출력한 후, 광 경로를 따라 외부로 조사된 광을 통해 사용자의 구강 내부를 비출 수 있다. 그러면, 구강 내부에서 반사된 광은 다시 광 경로를 따라 카메라(20)의 이미지 센서에 도달함으로써 구강 내부의 영상 데이터를 획득할 수 있다. 구강 스캐너(2)를 통해 획득하는 구강 모델 데이터는 손상된 치아를 포함한 실제 치아들의 정보를 가진 데이터이다. 구강 모델 데이터는 환자의 구강을 본떠 생성한 석고 모형을 3D 스캐너(3D Scanner)로 스캐닝하여 획득될 수 있다. 다른 예로서, 구강 내 3D 스캐너(3D Intra-oral scanner)를 이용하여 환자의 구강 내부를 스캐닝하여 획득될 수 있다.The oral scanner 2 may output light by driving a light source of internal illumination, and then illuminate the inside of the user's oral cavity through light irradiated to the outside along a light path. Then, the light reflected from the inside of the oral cavity again reaches the image sensor of the camera 20 along the optical path, thereby obtaining image data inside the oral cavity. The oral model data acquired through the oral scanner 2 is data having information on actual teeth including damaged teeth. The oral model data may be obtained by scanning a plaster model created after a patient's oral cavity with a 3D scanner. As another example, it may be obtained by scanning the inside of the patient's oral cavity using a 3D intra-oral scanner.

도 3에서는 영상 처리장치(3)가 구강 스캐너(2)와 분리된 구조를 가지나, 영상 처리장치(3)가 구강 스캐너(2)의 프로세서 내에 위치하는 구조도 가능하다. 또한, 본 명세서에서 영상 처리장치(3)가 구강 스캐너(2)를 통해 획득된 구강 영상을 검색 및 매칭하는 영상처리를 위주로 설명하나, 치과용에 제한되는 것은 아니고, 다른 의료영상 처리에도 동일하게 적용될 수 있음을 명시한다.In FIG. 3, the image processing apparatus 3 has a structure separated from the oral scanner 2, but a structure in which the image processing apparatus 3 is located in the processor of the oral scanner 2 is also possible. In addition, in the present specification, the image processing apparatus 3 mainly describes image processing in which the image processing apparatus 3 searches and matches the oral image acquired through the oral scanner 2, but is not limited to dental use, and the same applies to other medical image processing. State that applicable.

도 4는 본 발명의 일 실시 예에 따른 도 3의 영상 처리장치의 세부 구성을 도시한 도면이다.4 is a diagram showing a detailed configuration of the image processing apparatus of FIG. 3 according to an embodiment of the present invention.

도 3 및 도 4를 참조하면, 영상 처리장치(3)는 입력부(30), 프로세서(32), 출력부(34) 및 저장부(36)를 포함한다.3 and 4, the image processing apparatus 3 includes an input unit 30, a processor 32, an output unit 34, and a storage unit 36.

입력부(30)는 구강 스캐너(2)로부터 촬영된 영상 데이터를 입력받는다. 이때, 촬영된 영상 데이터는 대상의 일부 영역을 부분적으로 스캔한 영상이다. 부분적으로 스캔한 영상 데이터는 프로세서(32)를 통해 하나로 융합된다. 구강 스캐너(2)의 촬영 영상 데이터는 카메라가 촬영한 아날로그 형태의 2차원 영상 데이터로부터 디지털 형태로 변환된 2차원 영상 데이터일 수 있다. 아날로그 2차원 영상 데이터는 카메라(110)의 이미지 센서를 통해 센싱한 신호이고, 디지털 영상 데이터란 영상 데이터 표준에 따라 PC 등의 기기에서 영상으로 인식되는 데이터를 의미한다.The input unit 30 receives image data captured from the oral scanner 2. In this case, the captured image data is an image that partially scans a partial area of the object. The partially scanned image data is fused into one through the processor 32. The image data captured by the oral scanner 2 may be 2D image data converted into a digital form from analog 2D image data captured by the camera. The analog 2D image data is a signal sensed by the image sensor of the camera 110, and the digital image data refers to data recognized as an image by a device such as a PC according to the image data standard.

프로세서(32)는 구강 스캐너(2)를 스캔 동작을 제어하기 위한 제어신호를 생성하고, 영상 처리장치(3)의 각 구성요소를 제어한다. 일 실시 예에 따른 프로세서(32)는 데이터 변환부(300), 위치 선정부(310), 디스크립터 생성부(320), 매칭부(340) 및 융합부(350)를 포함하며, 검증부(360)를 더 포함할 수 있다.The processor 32 generates a control signal for controlling the scanning operation of the oral scanner 2 and controls each component of the image processing apparatus 3. The processor 32 according to an embodiment includes a data conversion unit 300, a location selection unit 310, a descriptor generation unit 320, a matching unit 340, and a fusion unit 350, and a verification unit 360 ) May be further included.

프로세서(32)는 구강 스캐너(2)를 통해 스캔한 입력 영상 데이터를 하나로 융합한다. 입력 영상 데이터는 데이터 변환부(300)를 통해 변환된 데이터일 수 있다. 예를 들어, 데이터 변환부(300)는 구강 스캐너(2)로부터 수신된 2차원 영상 데이터를 3차원 영상 데이터로 변환할 수 있다. 3차원 영상 데이터는 구강 모델 데이터일 수 있다. 데이터 변환부(300)는 구강 모델 데이터를 2차원 RGB 데이터로 변환할 수 있다.The processor 32 fuses the input image data scanned through the oral scanner 2 into one. The input image data may be data converted through the data conversion unit 300. For example, the data conversion unit 300 may convert 2D image data received from the oral scanner 2 into 3D image data. The 3D image data may be oral model data. The data conversion unit 300 may convert oral model data into 2D RGB data.

위치 선정부(310)는 부분적으로 스캔된 입력 영상 데이터에서 융합할 부분을 검색하기 위해 각 입력 영상 데이터의 특징정보가 될 부분에 대한 위치를 선정한다. 예를 들어, 위치 선정부(310)는 입력 영상 데이터인 3차원 모델 데이터의 중심좌표 (0,0,cz)와 카메라 좌표 (0,0,0)를 특징점으로 추출할 수 있다. 여기서, x, y의 0은 x축과 y축의 중심을 나타내고, z의 0은 현재 카메라의 위치를 나타내며, cz는 카메라와 3차원 모델 데이터의 중심 간의 거리를 나타낸다.The location selector 310 selects a location for a portion to be feature information of each input image data in order to search for a portion to be fused from the partially scanned input image data. For example, the location selector 310 may extract a center coordinate (0,0,cz) and a camera coordinate (0,0,0) of 3D model data that is input image data as feature points. Here, 0 of x and y represents the center of the x-axis and y-axis, 0 of z represents the position of the current camera, and cz represents the distance between the camera and the center of the 3D model data.

디스크립터 생성부(320)는 위치 선정부(310)를 통해 특징정보가 추출된 위치에서 다른 입력 영상의 특징정보와 구분할 수 있는 디스크립터를 생성한다. 디스크립터 생성방법으로 모델 데이터를 중심으로 한 디스크립터 생성방법과, 카메라의 시점(view point)을 중심으로 한 디스크립터 생성방법이 있다. 모델 데이터를 중심으로 한 디스크립터 생성방법은 도 7을 참조로 하여 후술하고, 카메라의 시점(view point)을 중심으로 한 디스크립터 생성방법은 도 8을 참조로 하여 후술한다. 디스크립터 생성 시에, 다수의 관계 값이 산출되면 히스토그램 방법을 이용하여 산출된 관계 값들을 하나의 디스크립터로 묶을 수 있다.The descriptor generation unit 320 generates a descriptor that can be distinguished from the feature information of other input images at the location from which the feature information is extracted through the location selector 310. Descriptor generation methods include a descriptor generation method centering on model data and a descriptor generation method centering on the camera's view point. A method of generating a descriptor centering on model data will be described later with reference to FIG. 7, and a method of generating a descriptor centering on a camera view point will be described later with reference to FIG. 8. When generating a descriptor, if a plurality of relationship values are calculated, the relationship values calculated using the histogram method may be grouped into one descriptor.

매칭부(340)는 디스크립터 생성부(320)를 통해 생성된 디스크립터 간을 매칭한다. 일 실시 예에 따른 매칭부(340)는 스캔 성공 시에는 해당 영상 데이터의 디스크립터를 저장부(36)에 누적시킨다. 반대로, 스캔 실패 시 히스토그램에서 동일한 값을 가진 디스크립터들에 대한 평균 및 분산을 산출하고, 분산 값이 큰 순서에서 낮은 순서대로 디스크립터들을 비교하면서 디스크립터 간의 유사도를 계산한다. 이때, 유사도가 높은 디스크립터들을 부분적으로 우선 매칭함에 따라 디스크립터 매칭 속도를 향상시킨다. 매칭결과가 성공이면 다음 매칭 단계로 진입하는 캐스케이드(Cascade) 방식을 이용하여 매칭을 수행한다. 디스크립터의 평균 분산과 캐스케이드 방식을 이용함에 따라 디스크립터 매칭을 고속화할 수 있다.The matching unit 340 matches between descriptors generated through the descriptor generating unit 320. The matching unit 340 according to an embodiment accumulates the descriptor of the corresponding image data in the storage unit 36 when the scan is successful. Conversely, when a scan fails, the average and variance of the descriptors having the same value in the histogram are calculated, and the similarity between the descriptors is calculated by comparing the descriptors in the order from the highest to the lowest variance value. In this case, descriptor matching speed is improved by partially matching descriptors having high similarity first. If the matching result is successful, matching is performed using a cascade method that enters the next matching step. Descriptor matching can be accelerated by using the average variance of descriptors and the cascade method.

융합부(350)는 매칭된 디스크립터를 중심으로 이동 및 회전 성분을 계산하고, 계산된 이동 및 회전 성분을 이용하여 입력 영상 데이터들을 융합한다. 예를 들어, 이동 및 회전 성분 계산 값에 맞게 현재 영상 데이터를 이동 및 회전시킨 후 이전 영상 데이터와 융합한다. 이동 및 회전 성분 계산 시에, 매칭된 디스크립터를 중심으로 법선 벡터 및 데이터의 분포를 이용하여 이동 및 회전 성분을 계산할 수 있다.The fusion unit 350 calculates movement and rotation components based on the matched descriptor, and fuses the input image data using the calculated movement and rotation components. For example, after moving and rotating the current image data according to the calculated value of the movement and rotation component, it is fused with the previous image data. When calculating the movement and rotation components, the movement and rotation components may be calculated using a normal vector and a distribution of data around the matched descriptor.

융합부(350)는 추가적으로 ICP(Iterative Closest Point)를 이용하여 2차 융합을 수행할 수 있다. 검증부(360)는 ICP를 통해 산출된 평균거리 및 매칭된 정점의 비율을 이용하여 융합 결과를 검증한다. 정확하게 융합되었는지를 검증함에 따라 필요없는 부분을 제거하여 보다 정확한 스캔 시스템을 제공할 수 있다.The fusion unit 350 may additionally perform secondary fusion using an Iterative Closest Point (ICP). The verification unit 360 verifies the fusion result using the average distance calculated through the ICP and the ratio of the matched vertices. It is possible to provide a more accurate scan system by removing unnecessary parts by verifying whether the fusion has been correctly fused.

저장부(36)는 획득된 구강 모델 데이터를 포함한 각종 데이터가 저장된다. 저장부(36)에는 프로세서(32)를 통해 생성된 디스크립터가 누적되어 저장될 수 있다. 출력부(34)는 스캔 결과를 화면에 표시한다.The storage unit 36 stores various data including the obtained oral model data. Descriptors generated by the processor 32 may be accumulated and stored in the storage unit 36. The output unit 34 displays the scan result on the screen.

도 5는 본 발명의 일 실시 예에 따른 입력 영상 데이터의 예를 도시한 도면이다.5 is a diagram illustrating an example of input image data according to an embodiment of the present invention.

도 3 및 도 5를 참조하면, 영상 처리장치(3)는 구강 스캐너(2)로부터 촬영된 영상 데이터로부터 3차원 구강 모델 데이터(110)와 2차원 RGB 영상 데이터(120)를 입력 영상 데이터로서 획득한다.3 and 5, the image processing apparatus 3 acquires 3D oral model data 110 and 2D RGB image data 120 as input image data from image data photographed from the oral scanner 2 do.

도 6은 본 발명의 일 실시 예에 따른 입력 영상 데이터의 특징정보를 추출하는 예를 도시한 도면이다.6 is a diagram illustrating an example of extracting feature information of input image data according to an embodiment of the present invention.

도 6을 참조하면, 각 입력 영상 데이터의 특징정보는 입력 영상 데이터의 중심으로 지정할 수 있다. 예를 들어, 3차원 모델 데이터의 경우 (0,0,0)와 (0,0,cz)(600)를 특징점으로 한다. x, y의 0의 의미는 도 6에 도시된 바와 같이 3차원 모델 데이터의 x축과 y축의 중심을 나타낸다. Z의 0은 현재 카메라의 위치를 나타내며 cz는 카메라와 3차원 모델 데이터의 중심 간의 거리를 나타낸다. 후술되는 도 7에서 보면, 현재 카메라(20)의 위치가 (0,0,0)이 된다. 이 두 중심좌표를 이용하여 모델 데이터의 특징정보를 결정한 후, 결정된 특징정보를 다른 특징정보들과 구분할 수 있는 디스크립터(descriptor)를 생성한다. 디스크립터 생성방법으로 모델 데이터를 중심으로 한 디스크립터 생성방법과, 카메라의 시점(view point)을 중심으로 한 디스크립터 생성방법을 제안한다. 이에 대한 실시 예를 도 7 및 도 8을 참조로 하여 후술한다.Referring to FIG. 6, feature information of each input image data may be designated as the center of the input image data. For example, in the case of 3D model data, (0,0,0) and (0,0,cz) (600) are used as feature points. The meaning of 0 of x and y indicates the center of the x-axis and y-axis of the 3D model data, as shown in FIG. 6. Z of 0 represents the current camera position, and cz represents the distance between the camera and the center of the 3D model data. 7 to be described later, the current position of the camera 20 is (0,0,0). After determining the feature information of the model data using these two central coordinates, a descriptor capable of distinguishing the determined feature information from other feature information is generated. As a descriptor generation method, we propose a descriptor generation method centering on model data and a descriptor generation method centering on the camera's view point. An embodiment of this will be described later with reference to FIGS. 7 and 8.

도 7은 본 발명의 일 실시 예에 따른 모델 데이터를 중심으로 한 디스크립터의 생성 예를 보여주는 도면이다.7 is a diagram illustrating an example of generating a descriptor centering on model data according to an embodiment of the present invention.

도 3 및 도 7을 참조하면, 영상 처리장치(3)는 모델 데이터를 중심으로 디스크립터를 생성한다. 모델 데이터 중심은 도 6을 참조로 하여 전술한 바와 같이 모델 데이터의 중심좌표인 (0,0,cz)(600)를 기준으로 구성될 수 있다. 모델 데이터를 중심으로 한 디스크립터는 PCD 간의 주변관계를 표현할 수 있으며, 특히, 다르부 프레임(Darboux frame)을 이용하여 회전에 강건한 디스크립터를 생성하는 방법이다. 회전에 강건하기 때문에, 영상 매칭하는데 있어 회전에 대한 고려를 하지 않아도 되고 이동에 대해서만 고려하기 때문에 영상 매칭이 단순화되는 특징이 있다.3 and 7, the image processing apparatus 3 generates a descriptor based on model data. The model data center may be configured based on (0,0,cz) 600, which is the center coordinate of the model data, as described above with reference to FIG. 6. The descriptor centered on the model data can express the peripheral relationship between PCDs, and in particular, it is a method of generating a descriptor robust to rotation using a Darboux frame. Since it is robust to rotation, there is a characteristic that image matching is simplified because it is not necessary to consider rotation in image matching, and only movement is considered.

디스크립터 생성 방법 중 하나로, PCD를 구성하는 중심점과 주변점들 간의 비교를 통해 점들 간의 연관성을 나타내는 관계 값을 산출하는 방법을 제안한다. 이때, 비교에 앞서, PCD의 특징정보를 회전에 강건한 다브루 프레임 좌표축으로 변환하고, 중심점 및 매칭점인 주변점의 법선 벡터(normal vector) 간 차이를 이용하여 주변관계 값을 산출한다. 예를 들어, 소정 PCD의 중심점의 법선 벡터와 주변점의 법선 벡터 간의 각도를 계산하여 주변관계 값을 산출한다. 각 중심점 및 주변점의 법선 벡터 간의 각도에 따라 주변와의 유사도를 알 수 있다.As one of the descriptor generation methods, we propose a method of calculating a relationship value representing the association between points through comparison between the central point and the peripheral points constituting the PCD. At this time, prior to the comparison, the feature information of the PCD is converted into a double frame coordinate axis that is robust to rotation, and the peripheral relationship value is calculated by using the difference between the center point and the normal vector of the surrounding point, which is the matching point. For example, an angle between a normal vector of a central point of a predetermined PCD and a normal vector of a peripheral point is calculated to calculate a peripheral relationship value. The degree of similarity with the periphery can be known according to the angle between each center point and the normal vector of the periphery point.

도 7에 도시된 바와 같이 중심점(600)은 하나이지만, 주변점은 여러 개 존재하기 때문에, 위의 특징값도 여러 개 출력되게 된다. 이러한 여러 개의 특징값을 하나의 디스크립터로 묶기 위해 히스토그램 표현법을 사용한다. 히스토그램 표현법은 특징 값들을 일정 크기로 샘플링하고, 해당 특징 값이 특정 샘플 구간 안에 들어오면, 해당 구간의 누적 수를 하나씩 증가하는 방법이다. 이렇게 하나씩 누적되면 여러 개의 특징 값들이 하나의 히스토그램으로 표현되게 되며, 이를 디스크립터로 사용하게 된다. 히스토그램 표현법은 도 9를 참조로 하여 후술한다.As shown in FIG. 7, there is one central point 600, but since there are several peripheral points, several of the above feature values are also output. The histogram representation method is used to group these multiple feature values into one descriptor. The histogram representation method is a method of sampling feature values at a certain size, and increasing the cumulative number of the corresponding section by one when the feature value enters a specific sample section. When accumulated one by one, several feature values are expressed as one histogram, which is used as a descriptor. The histogram representation method will be described later with reference to FIG. 9.

도 8은 본 발명의 다른 실시 예에 따른 시점(view point) 디스크립터 생성 예를 도시한 도면이다.8 is a diagram illustrating an example of generating a view point descriptor according to another embodiment of the present invention.

도 3 및 도 8을 참조하면, 영상 처리장치(3)는 카메라의 위치를 기준으로 구성되는 디스크립터를 생성한다. 카메라의 위치는 (0,0,0)으로 글로벌 중심좌표로 표현된다. 이 디스크립터의 특징으로는 PCD와 카메라의 시점 간의 관계를 표현하여 어떤 위치에서 촬영되어 있는지 구분할 수 있는 특징이 있다. 도 7을 참조로 하여 전술한 모델 데이터를 중심으로 생성한 디스크립터는 모델 모양만 보기 때문에, 유사 모양이면 이를 구분할 수 없게 된다. 이러한 한계점을 카메라와 모델 데이터 간의 관계를 통해 유사 모양이어도 다른 각도에서 촬영되었을 경우 이를 구분할 수 있게 하는 특징이 있다.3 and 8, the image processing apparatus 3 generates a descriptor configured based on the position of the camera. The position of the camera is (0,0,0) and is expressed in global center coordinates. As a feature of this descriptor, the relationship between the PCD and the viewpoint of the camera is expressed so that it is possible to distinguish where the image is taken. Since the descriptor generated around the model data described above with reference to FIG. 7 only sees the shape of the model, it is impossible to distinguish it if it has a similar shape. This limitation is characterized by the relationship between the camera and the model data, so that even if the camera has a similar shape, it can be distinguished when photographed from a different angle.

일 실시 예에 따른 카메라 시점을 중심으로 한 디스크립터 생성 방법에 따르면, 카메라(20)의 중심점(Vp)(610)과 PCD의 하나의 점(Pi)(600) 간의 벡터(Vp-Pi)와, 해당 점(Pi)의 법선 벡터(ni) 간의 각도(α)를 산출하여 해당 점과 카메라(20) 간의 관계를 산출한다. 하나의 모델 데이터 안에는 여러 개의 점들로 구성되므로 카메라(20)와 점들 간의 관계 값들은 여러 개로 산출된다. 이러한 값들을 하나의 디스크립터로 묶기 위해 앞에서 설명하였던 히스토그램 방법을 이용하여 디스크립터를 생성하게 된다.According to a method for generating a descriptor centered on a camera viewpoint according to an embodiment, a vector (Vp-Pi) between a center point (Vp) 610 of the camera 20 and one point (Pi) 600 of the PCD, and By calculating the angle α between the normal vector ni of the point Pi, the relationship between the point and the camera 20 is calculated. Since it is composed of several points in one model data, the relationship values between the camera 20 and the points are calculated as several. In order to group these values into one descriptor, a descriptor is generated using the histogram method described above.

영상 처리장치(3)는 스캔이 성공할 경우에는 해당 영상의 디스크립터를 생성하여 저장부에 누적시킨다. 반대로 스캔이 실패하였을 경우에는 어느 위치에서 해당 모델 데이터를 촬영했는지 알기 위해 디스크립터 비교 프로세스가 시작된다. 디스크립터 개수가 일정 수 이상일 경우 효율적으로 매칭하기 위해, 각 히스토그램 값 중 유의미한 것들을 우선적으로 비교할 필요가 있다. 유의미한 것을 구분하기 위해 히스토그램 중 동일한 값을 가진 디스크립터들에 대한 평균 및 분산을 산출한다. 이 분산 값들 중 큰 것일수록 분류가 잘 될 확률이 높으며, 작을수록 분류가 잘 안될 확률이 높다. 따라서, 분산 값이 큰 것들을 우선적으로 비교하며, 분산 값이 낮은 것들을 나중에 비교하는 순서로 진행하여 디스크립터 매칭 속도 향상을 도모한다.When the scan is successful, the image processing apparatus 3 generates a descriptor of the corresponding image and accumulates it in the storage unit. Conversely, if the scan fails, the descriptor comparison process starts to find out where the corresponding model data was taken. In order to efficiently match when the number of descriptors is greater than a certain number, it is necessary to compare meaningful ones of each histogram value first. The average and variance of descriptors having the same value among the histograms are calculated to classify the significant ones. Among these variance values, the higher the probability of classification, the higher the probability of classification, and the smaller the higher the probability of poor classification. Accordingly, the comparison of those with a large variance value is performed first, and those with a low variance value are compared later in order to improve the descriptor matching speed.

도 9는 본 발명의 일 실시 예에 따른 캐스케이드 방법의 예를 도시한 도면이다.9 is a diagram illustrating an example of a cascade method according to an embodiment of the present invention.

도 9를 참조하면, 매칭 방법은 디스크립터를 부분적으로 우선 매칭하며, 해당 매칭이 일정 임계값 이상일 경우 매칭 실패로 판단하며, 매칭 성공할 경우 다른 매칭 단계로 들어가는 캐스케이드(Cascade) 방식을 이용할 수 있다. 캐스케이드 방식을 이용하는 이유는, 대부분의 모델 데이터들은 일부분의 디스크립터로 인해 쉽게 구분될 수 있기 때문에, 프로세스의 단순화를 위함이다. 이러한 방법을 통해 디스크립터 검색의 고속화를 진행할 수 있다.Referring to FIG. 9, in the matching method, a descriptor is partially first matched, and when the matching is greater than a predetermined threshold, it is determined as a matching failure, and when the matching is successful, a cascade method may be used. The reason for using the cascade method is to simplify the process because most of the model data can be easily identified due to some descriptors. Through this method, it is possible to speed up the descriptor search.

도 10은 본 발명의 일 실시 예에 따른 스캔 영역 재탐지를 위한 영상 검색 및 매칭 방법의 흐름을 도시한 도면이다.10 is a diagram illustrating a flow of an image search and matching method for re-detecting a scan area according to an embodiment of the present invention.

도 3 및 도 10을 참조하면, 영상 처리장치(3)는 구강 스캐너(2)를 이용하여 대상을 부분적으로 스캔한 입력 영상 데이터들을 획득하고 각 입력 영상 데이터의 특징정보를 추출한다(S1010). 이때, 입력 영상 데이터인 3차원 모델 데이터의 중심좌표 (0,0,cz)와 카메라 좌표 (0,0,0)를 특징점으로 추출할 수 있다. 여기서, x, y의 0은 x축과 y축의 중심을 나타내고, z의 0은 현재 카메라의 위치를 나타내며, cz는 카메라와 3차원 모델 데이터의 중심 간의 거리를 나타낸다.Referring to FIGS. 3 and 10, the image processing apparatus 3 acquires input image data that partially scans an object using the oral scanner 2 and extracts feature information of each input image data (S1010). At this time, the center coordinate (0,0,cz) and the camera coordinate (0,0,0) of the 3D model data as input image data may be extracted as feature points. Here, 0 of x and y represents the center of the x-axis and y-axis, 0 of z represents the position of the current camera, and cz represents the distance between the camera and the center of the 3D model data.

이어서, 영상 처리장치(3)는 특징정보가 추출된 위치에서 다른 입력 영상의 특징정보와 구분할 수 있는 디스크립터를 생성한다(S1020). 제1 실시 예에 따르면, 점 군 데이터를 중심으로 중심점과 그 주변점들 간의 비교를 통해 중심점의 주변점과의 연관성을 나타내는 관계 값을 산출함에 따라 디스크립터를 생성한다. 예를 들어, 점 군 데이터의 중심점의 법선 벡터와 그 주변점의 법선 벡터 간의 각도를 이용하여 관계 값을 산출한다. 제2 실시 예에 따르면, 카메라의 시점(view point)을 중심으로 카메라와 점 군 데이터의 중심점과의 관계를 산출함에 따라 디스크립터를 생성한다. 예를 들어, 카메라의 중심점(Vp)과 점 군 데이터를 구성하는 하나의 점(Pi) 간의 벡터(Vp-Pi)와, 점 군 데이터의 점(Pi)의 법선 벡터(ni) 간의 각도(α)를 산출하여 해당 점(Pi)과 카메라 간의 관계를 산출한다.Subsequently, the image processing apparatus 3 generates a descriptor capable of distinguishing from the feature information of other input images at the location from which the feature information is extracted (S1020). According to the first embodiment, a descriptor is generated by calculating a relationship value representing the association between the central point and the surrounding points through comparison between the central point and the surrounding points based on point group data. For example, the relationship value is calculated by using the angle between the normal vector of the center point of the point group data and the normal vector of the surrounding points. According to the second embodiment, a descriptor is generated by calculating a relationship between a camera and a center point of point group data based on a view point of the camera. For example, the angle (α) between the center point (Vp) of the camera and the vector (Vp-Pi) between one point (Pi) constituting the point group data, and the normal vector (ni) of the point (Pi) of the point group data ) To calculate the relationship between the point Pi and the camera.

디스크립터 생성 단계(S1020)에서, 다수의 관계 값이 산출되면 히스토그램 방법을 이용하여 산출된 관계 값들을 하나의 디스크립터로 묶을 수 있다.In the descriptor generation step S1020, when a plurality of relationship values are calculated, the relationship values calculated using the histogram method may be grouped into one descriptor.

이어서, 영상 처리장치(3)는 생성된 디스크립터 간을 매칭한다(S1030). 예를 들어, 스캔 실패 시 히스토그램에서 동일한 값을 가진 디스크립터들에 대한 평균 및 분산을 산출하고, 분산 값이 큰 순서에서 낮은 순서대로 디스크립터들을 비교하면서 디스크립터 간의 유사도를 계산한다. 이어서, 유사도가 높은 디스크립터들을 부분적으로 우선 매칭하고, 매칭결과가 성공이면 다음 매칭 단계로 진입하는 캐스케이드(Cascade) 방식을 이용하여 매칭을 수행한다.Subsequently, the image processing apparatus 3 matches the generated descriptors (S1030). For example, when a scan fails, the average and variance of descriptors having the same value in the histogram are calculated, and the similarity between the descriptors is calculated by comparing the descriptors from the order of the highest to the lowest of the variance values. Subsequently, the descriptors having high similarity are partially first matched, and if the matching result is successful, matching is performed using a cascade method in which the next matching step is entered.

이어서, 영상 처리장치(3)는 매칭된 디스크립터를 중심으로 이동 및 회전 성분을 계산한다(S1040). 예를 들어, 매칭된 디스크립터를 중심으로 법선 벡터 및 데이터의 분포를 이용하여 이동 및 회전 성분을 계산한다.Subsequently, the image processing apparatus 3 calculates movement and rotation components based on the matched descriptor (S1040). For example, movement and rotation components are calculated using a normal vector and a distribution of data around the matched descriptor.

이어서, 영상 처리장치(3)는 계산된 이동 및 회전 성분을 이용하여 입력 영상 데이터들을 융합한다(S1050). 나아가, ICP(Iterative Closest Point)를 이용하여 2차 융합을 수행할 수 있고, ICP를 통해 산출된 평균거리 및 매칭된 정점의 비율을 이용하여 융합 결과를 검증할 수도 있다.Subsequently, the image processing apparatus 3 fuses the input image data using the calculated movement and rotation components (S1050). Furthermore, secondary fusion may be performed using ICP (Iterative Closest Point), and the fusion result may be verified using the average distance calculated through ICP and the ratio of matched vertices.

이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been looked at around the embodiments. Those of ordinary skill in the art to which the present invention pertains will be able to understand that the present invention may be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered from a descriptive point of view rather than a limiting point of view. The scope of the present invention is shown in the claims rather than the above description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.

Claims (15)

구강 스캐너의 동일한 카메라를 이용하여 대상의 서로 상이한 영역을 부분적으로 스캔한 입력 영상 데이터들을 획득하고 각 입력 영상 데이터의 특징정보를 추출하는 단계;
특징정보가 추출된 위치에서 다른 입력 영상의 특징정보와 구분하기 위해 특징 간 또는 특징과의 관계정보를 표현하는 디스크립터를 생성하는 단계;
생성된 디스크립터 간을 매칭하는 단계;
매칭된 디스크립터를 중심으로 이동 및 회전 성분을 계산하는 단계; 및
계산된 이동 및 회전 성분을 이용하여 입력 영상 데이터들을 융합하는 단계;
를 포함하는 것을 특징으로 하는 스캔 영역 재탐지를 위한 영상 검색 및 매칭 방법.
Obtaining input image data obtained by partially scanning different regions of the object using the same camera of the oral scanner and extracting feature information of each input image data;
Generating a descriptor representing relationship information between features or between features in order to distinguish it from feature information of another input image at a location from which the feature information is extracted;
Matching the generated descriptors;
Calculating movement and rotation components based on the matched descriptors; And
Fusing the input image data using the calculated movement and rotation components;
Image search and matching method for re-detection of the scan area comprising a.
제 1 항에 있어서, 특징정보를 추출하는 단계는
입력 영상 데이터인 3차원 모델 데이터의 중심좌표 (0,0,cz)와 카메라 좌표 (0,0,0)를 특징점으로 추출하고,
여기서, x, y의 0은 x축과 y축의 중심을 나타내고, z의 0은 현재 카메라의 위치를 나타내며, cz는 카메라와 3차원 모델 데이터의 중심 간의 거리를 나타내는 것을 특징으로 하는 스캔 영역 재탐지를 위한 영상 검색 및 매칭 방법.
The method of claim 1, wherein the extracting feature information comprises:
The center coordinate (0,0,cz) and camera coordinate (0,0,0) of the 3D model data, which is the input image data, are extracted as feature points,
Here, 0 of x and y represents the centers of the x and y axes, 0 of z represents the position of the current camera, and cz represents the distance between the camera and the center of the 3D model data. Image search and matching method for.
입력 영상 데이터들을 획득하고 각 입력 영상 데이터의 특징정보를 추출하는 단계;
특징정보가 추출된 위치에서 다른 입력 영상의 특징정보와 구분할 수 있는 디스크립터를 생성하는 단계;
생성된 디스크립터 간을 매칭하는 단계;
매칭된 디스크립터를 중심으로 이동 및 회전 성분을 계산하는 단계; 및
계산된 이동 및 회전 성분을 이용하여 입력 영상 데이터들을 융합하는 단계;
를 포함하며,
디스크립터를 생성하는 단계는
점 군 데이터를 중심으로 중심점과 그 주변점들 간의 비교를 통해 중심점의 주변점과의 연관성을 나타내는 관계 값을 산출함에 따라 디스크립터를 생성하는 것을 특징으로 하는 스캔 영역 재탐지를 위한 영상 검색 및 매칭 방법.
Acquiring input image data and extracting feature information of each input image data;
Generating a descriptor capable of distinguishing from the feature information of other input images at the location from which the feature information is extracted;
Matching the generated descriptors;
Calculating movement and rotation components based on the matched descriptors; And
Fusing the input image data using the calculated movement and rotation components;
Including,
The step of creating the descriptor is
An image search and matching method for re-detection of a scan area, characterized in that a descriptor is generated by calculating a relationship value representing the relationship between the central point and the surrounding points through comparison between the central point and its surrounding points based on the point group data. .
제 3 항에 있어서, 디스크립터를 생성하는 단계는
점 군 데이터의 중심점의 법선 벡터와 그 주변점의 법선 벡터 간의 각도를 이용하여 관계 값을 산출하는 것을 특징으로 하는 스캔 영역 재탐지를 위한 영상 검색 및 매칭 방법.
The method of claim 3, wherein generating the descriptor
An image retrieval and matching method for re-detection of a scan area, characterized in that a relationship value is calculated using an angle between a normal vector of a central point of point group data and a normal vector of a neighboring point.
입력 영상 데이터들을 획득하고 각 입력 영상 데이터의 특징정보를 추출하는 단계;
특징정보가 추출된 위치에서 다른 입력 영상의 특징정보와 구분할 수 있는 디스크립터를 생성하는 단계;
생성된 디스크립터 간을 매칭하는 단계;
매칭된 디스크립터를 중심으로 이동 및 회전 성분을 계산하는 단계; 및
계산된 이동 및 회전 성분을 이용하여 입력 영상 데이터들을 융합하는 단계;
를 포함하며,
디스크립터를 생성하는 단계는
카메라의 시점(view point)을 중심으로 카메라와 점 군 데이터의 중심점과의 관계를 산출함에 따라 디스크립터를 생성하는 것을 특징으로 하는 스캔 영역 재탐지를 위한 영상 검색 및 매칭 방법.
Acquiring input image data and extracting feature information of each input image data;
Generating a descriptor capable of distinguishing from the feature information of other input images at the location from which the feature information is extracted;
Matching the generated descriptors;
Calculating movement and rotation components based on the matched descriptors; And
Fusing the input image data using the calculated movement and rotation components;
Including,
The step of creating the descriptor is
An image search and matching method for re-detection of a scan area, comprising generating a descriptor by calculating a relationship between a camera and a center point of point group data based on a camera view point.
제 5 항에 있어서, 디스크립터를 생성하는 단계는
카메라의 중심점(Vp)과 점 군 데이터를 구성하는 하나의 점(Pi) 간의 벡터(Vp-Pi)와, 점 군 데이터의 점(Pi)의 법선 벡터(ni) 간의 각도(α)를 산출하여 해당 점(Pi)과 카메라 간의 관계를 산출하는 것을 특징으로 하는 스캔 영역 재탐지를 위한 영상 검색 및 매칭 방법.
The method of claim 5, wherein generating the descriptor
By calculating the angle (α) between the vector (Vp-Pi) between the camera's center point (Vp) and one point (Pi) constituting the point group data, and the normal vector (ni) of the point (Pi) of the point group data An image search and matching method for re-detecting a scan area, characterized in that calculating a relationship between a corresponding point Pi and a camera.
제 1 항에 있어서, 디스크립터를 생성하는 단계는
다수의 관계 값이 산출되면 히스토그램 방법을 이용하여 산출된 관계 값들을 하나의 디스크립터로 묶는 것을 특징으로 하는 스캔 영역 재탐지를 위한 영상 검색 및 매칭 방법.
The method of claim 1, wherein generating the descriptor comprises:
An image search and matching method for re-detection of a scan area, characterized in that when a plurality of relationship values are calculated, the relationship values calculated using a histogram method are grouped into one descriptor.
입력 영상 데이터들을 획득하고 각 입력 영상 데이터의 특징정보를 추출하는 단계;
특징정보가 추출된 위치에서 다른 입력 영상의 특징정보와 구분할 수 있는 디스크립터를 생성하는 단계;
생성된 디스크립터 간을 매칭하는 단계;
매칭된 디스크립터를 중심으로 이동 및 회전 성분을 계산하는 단계; 및
계산된 이동 및 회전 성분을 이용하여 입력 영상 데이터들을 융합하는 단계;
를 포함하며,
디스크립터 간을 매칭하는 단계는
스캔 실패 시 히스토그램에서 동일한 값을 가진 디스크립터들에 대한 평균 및 분산을 산출하는 단계;
분산 값이 큰 순서에서 낮은 순서대로 디스크립터들을 비교하면서 디스크립터 간의 유사도를 계산하는 단계;
유사도가 미리 설정된 값보다 높은 디스크립터들을 부분적으로 우선 매칭하는 단계; 및
매칭결과가 성공이면 다음 매칭 단계로 진입하는 캐스케이드(Cascade) 방식을 이용하여 매칭을 수행하는 단계;
를 포함하는 것을 특징으로 하는 스캔 영역 재탐지를 위한 영상 검색 및 매칭 방법.
Acquiring input image data and extracting feature information of each input image data;
Generating a descriptor capable of distinguishing from the feature information of other input images at the location from which the feature information is extracted;
Matching the generated descriptors;
Calculating movement and rotation components based on the matched descriptors; And
Fusing the input image data using the calculated movement and rotation components;
Including,
The step of matching between descriptors is
Calculating an average and variance of descriptors having the same value in the histogram when a scan fails;
Calculating a similarity between the descriptors while comparing the descriptors from the order of the variance value to the lowest order;
Partially first matching descriptors having a similarity higher than a preset value; And
If the matching result is successful, performing matching using a cascade method of entering a next matching step;
Image search and matching method for re-detection of the scan area comprising a.
입력 영상 데이터들을 획득하고 각 입력 영상 데이터의 특징정보를 추출하는 단계;
특징정보가 추출된 위치에서 다른 입력 영상의 특징정보와 구분할 수 있는 디스크립터를 생성하는 단계;
생성된 디스크립터 간을 매칭하는 단계;
매칭된 디스크립터를 중심으로 이동 및 회전 성분을 계산하는 단계; 및
계산된 이동 및 회전 성분을 이용하여 입력 영상 데이터들을 융합하는 단계;
를 포함하며,
이동 및 회전 성분을 계산하는 단계는
매칭된 디스크립터를 중심으로 법선 벡터 및 데이터의 분포를 이용하여 이동 및 회전 성분을 계산하는 것을 특징으로 하는 스캔 영역 재탐지를 위한 영상 검색 및 매칭 방법.
Acquiring input image data and extracting feature information of each input image data;
Generating a descriptor capable of distinguishing from the feature information of other input images at the location from which the feature information is extracted;
Matching the generated descriptors;
Calculating movement and rotation components based on the matched descriptors; And
Fusing the input image data using the calculated movement and rotation components;
Including,
The steps of calculating the movement and rotation components are
An image search and matching method for re-detection of a scan area, characterized in that the motion and rotation components are calculated using a normal vector and a distribution of data based on the matched descriptor.
입력 영상 데이터들을 획득하고 각 입력 영상 데이터의 특징정보를 추출하는 단계;
특징정보가 추출된 위치에서 다른 입력 영상의 특징정보와 구분할 수 있는 디스크립터를 생성하는 단계;
생성된 디스크립터 간을 매칭하는 단계;
매칭된 디스크립터를 중심으로 이동 및 회전 성분을 계산하는 단계; 및
계산된 이동 및 회전 성분을 이용하여 입력 영상 데이터들을 융합하는 단계;
를 포함하며,
영상 검색 및 매칭 방법은
ICP(Iterative Closest Point)를 이용하여 2차 융합을 수행하는 단계; 및
ICP를 통해 산출된 평균거리 및 매칭된 정점의 비율을 이용하여 융합 결과를 검증하는 단계;
를 더 포함하는 것을 특징으로 하는 스캔 영역 재탐지를 위한 영상 검색 및 매칭 방법.
Acquiring input image data and extracting feature information of each input image data;
Generating a descriptor capable of distinguishing from the feature information of other input images at the location from which the feature information is extracted;
Matching the generated descriptors;
Calculating movement and rotation components based on the matched descriptors; And
Fusing the input image data using the calculated movement and rotation components;
Including,
How to search and match video
Performing secondary fusion using ICP (Iterative Closest Point); And
Verifying the fusion result using the average distance calculated through ICP and the ratio of the matched vertices;
An image search and matching method for re-detecting the scan area, further comprising.
구강 스캐너의 동일한 카메라를 이용하여 대상의 서로 상이한 영역을 부분적으로 스캔한 입력 영상 데이터들을 획득하고 각 입력 영상 데이터의 특징정보를 추출하는 위치 선정부;
특징정보가 추출된 위치에서 다른 입력 영상의 특징정보와 구분하기 위해 특징 간 또는 특징과의 관계정보를 표현하는 디스크립터를 생성하는 디스크립터 생성부;
생성된 디스크립터 간을 매칭하는 매칭부; 및
매칭된 디스크립터를 중심으로 이동 및 회전 성분을 계산하고 계산된 이동 및 회전 성분을 이용하여 입력 영상 데이터들을 융합하는 융합부;
를 포함하는 것을 특징으로 하는 영상 처리장치.
A location selector for acquiring input image data obtained by partially scanning different regions of the object using the same camera of the oral scanner and extracting feature information of each input image data;
A descriptor generator for generating a descriptor representing relationship information between features or between features in order to distinguish it from feature information of other input images at the location from which the feature information is extracted;
A matching unit matching the generated descriptors; And
A fusion unit that calculates a movement and rotation component based on the matched descriptor and fuses the input image data using the calculated movement and rotation component;
Image processing apparatus comprising a.
구강 스캐너를 이용하여 대상을 부분적으로 스캔한 입력 영상 데이터들을 획득하고 각 입력 영상 데이터의 특징정보를 추출하는 위치 선정부;
특징정보가 추출된 위치에서 다른 입력 영상의 특징정보와 구분할 수 있는 디스크립터를 생성하는 디스크립터 생성부;
생성된 디스크립터 간을 매칭하는 매칭부; 및
매칭된 디스크립터를 중심으로 이동 및 회전 성분을 계산하고 계산된 이동 및 회전 성분을 이용하여 입력 영상 데이터들을 융합하는 융합부;
를 포함하며,
디스크립터 생성부는
점 군 데이터를 중심으로 중심점과 그 주변점들 간의 비교를 통해 중심점의 주변점과의 연관성을 나타내는 관계 값을 산출하되,
점 군 데이터의 중심점의 법선 벡터와 그 주변점의 법선 벡터 간의 각도를 이용하여 관계 값을 산출하는 것을 특징으로 하는 영상 처리장치.
A location selector for acquiring input image data that partially scans an object using an oral scanner and extracting feature information of each input image data;
A descriptor generating unit generating a descriptor capable of distinguishing from the feature information of other input images at the location where the feature information is extracted;
A matching unit matching the generated descriptors; And
A fusion unit that calculates a movement and rotation component based on the matched descriptor and fuses the input image data using the calculated movement and rotation component;
Including,
The descriptor generator
Based on the point group data, a relationship value representing the association between the central point and the surrounding points is calculated through comparison between the central point and its surrounding points,
An image processing apparatus, comprising: calculating a relationship value by using an angle between a normal vector of a central point of point group data and a normal vector of a neighboring point.
구강 스캐너를 이용하여 대상을 부분적으로 스캔한 입력 영상 데이터들을 획득하고 각 입력 영상 데이터의 특징정보를 추출하는 위치 선정부;
특징정보가 추출된 위치에서 다른 입력 영상의 특징정보와 구분할 수 있는 디스크립터를 생성하는 디스크립터 생성부;
생성된 디스크립터 간을 매칭하는 매칭부; 및
매칭된 디스크립터를 중심으로 이동 및 회전 성분을 계산하고 계산된 이동 및 회전 성분을 이용하여 입력 영상 데이터들을 융합하는 융합부;
를 포함하며,
디스크립터 생성부는
카메라의 시점(view point)을 중심으로 카메라와 점 군 데이터의 중심점과의 관계를 산출함에 따라 디스크립터를 생성하되,
카메라의 중심점(Vp)과 점 군 데이터를 구성하는 하나의 점(Pi) 간의 벡터(Vp-Pi)와, 점 군 데이터의 점(Pi)의 법선 벡터(ni) 간의 각도(α)를 산출하여 해당 점(Pi)과 카메라 간의 관계를 산출하는 것을 특징으로 하는 영상 처리장치.
A location selector for acquiring input image data that partially scans an object using an oral scanner and extracting feature information of each input image data;
A descriptor generating unit generating a descriptor capable of distinguishing from the feature information of other input images at the location where the feature information is extracted;
A matching unit matching the generated descriptors; And
A fusion unit that calculates a movement and rotation component based on the matched descriptor and fuses the input image data using the calculated movement and rotation component;
Including,
The descriptor generator
By calculating the relationship between the camera and the center point of the point group data centering on the camera's view point, a descriptor is generated,
By calculating the angle (α) between the vector (Vp-Pi) between the camera's center point (Vp) and one point (Pi) constituting the point group data, and the normal vector (ni) of the point (Pi) of the point group data An image processing apparatus, characterized in that calculating a relationship between the point Pi and the camera.
구강 스캐너를 이용하여 대상을 부분적으로 스캔한 입력 영상 데이터들을 획득하고 각 입력 영상 데이터의 특징정보를 추출하는 위치 선정부;
특징정보가 추출된 위치에서 다른 입력 영상의 특징정보와 구분할 수 있는 디스크립터를 생성하는 디스크립터 생성부;
생성된 디스크립터 간을 매칭하는 매칭부; 및
매칭된 디스크립터를 중심으로 이동 및 회전 성분을 계산하고 계산된 이동 및 회전 성분을 이용하여 입력 영상 데이터들을 융합하는 융합부;
를 포함하며,
매칭부는
스캔 실패 시 히스토그램에서 동일한 값을 가진 디스크립터들에 대한 평균 및 분산을 산출하고,
분산 값이 큰 순서에서 낮은 순서대로 디스크립터들을 비교하면서 디스크립터 간의 유사도를 계산하고,
유사도가 미리 설정된 값보다 높은 디스크립터들을 부분적으로 우선 매칭하며,
매칭결과가 성공이면 다음 매칭 단계로 진입하는 캐스케이드(Cascade) 방식을 이용하여 매칭을 수행하는 것을 특징으로 하는 영상 처리장치.
A location selector for acquiring input image data that partially scans an object using an oral scanner and extracting feature information of each input image data;
A descriptor generating unit generating a descriptor capable of distinguishing from the feature information of other input images at the location where the feature information is extracted;
A matching unit matching the generated descriptors; And
A fusion unit that calculates a movement and rotation component based on the matched descriptor and fuses the input image data using the calculated movement and rotation component;
Including,
Matching Department
When a scan fails, the average and variance of descriptors having the same value in the histogram are calculated,
Computing the similarity between the descriptors by comparing the descriptors from the order of the variance value to the lowest,
Descriptors with a similarity higher than a preset value are partially matched first,
When the matching result is successful, matching is performed using a cascade method of entering a next matching step.
구강 스캐너를 이용하여 대상을 부분적으로 스캔한 입력 영상 데이터들을 획득하고 각 입력 영상 데이터의 특징정보를 추출하는 위치 선정부;
특징정보가 추출된 위치에서 다른 입력 영상의 특징정보와 구분할 수 있는 디스크립터를 생성하는 디스크립터 생성부;
생성된 디스크립터 간을 매칭하는 매칭부; 및
매칭된 디스크립터를 중심으로 이동 및 회전 성분을 계산하고 계산된 이동 및 회전 성분을 이용하여 입력 영상 데이터들을 융합하는 융합부;
를 포함하며,
영상 처리장치는
ICP를 통해 산출된 평균거리 및 매칭된 정점의 비율을 이용하여 융합 결과를 검증하는 검증부;
를 더 포함하는 것을 특징으로 하는 영상 처리장치.
A location selector for acquiring input image data that partially scans an object using an oral scanner and extracting feature information of each input image data;
A descriptor generating unit generating a descriptor capable of distinguishing from the feature information of other input images at the location where the feature information is extracted;
A matching unit matching the generated descriptors; And
A fusion unit that calculates a movement and rotation component based on the matched descriptor and fuses the input image data using the calculated movement and rotation component;
Including,
The image processing device
A verification unit for verifying the fusion result using the average distance calculated through the ICP and the ratio of the matched vertices;
An image processing apparatus further comprising a.
KR1020190031155A 2019-03-19 2019-03-19 Image search and matching method for scan region re-tracking and imaging processing apparatus therefor KR102223269B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190031155A KR102223269B1 (en) 2019-03-19 2019-03-19 Image search and matching method for scan region re-tracking and imaging processing apparatus therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190031155A KR102223269B1 (en) 2019-03-19 2019-03-19 Image search and matching method for scan region re-tracking and imaging processing apparatus therefor

Publications (2)

Publication Number Publication Date
KR20200111850A KR20200111850A (en) 2020-10-05
KR102223269B1 true KR102223269B1 (en) 2021-03-08

Family

ID=72808963

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190031155A KR102223269B1 (en) 2019-03-19 2019-03-19 Image search and matching method for scan region re-tracking and imaging processing apparatus therefor

Country Status (1)

Country Link
KR (1) KR102223269B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112767415B (en) * 2021-01-13 2024-07-30 深圳瀚维智能医疗科技有限公司 Chest scanning area automatic determination method, device, equipment and storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008537494A (en) 2005-03-03 2008-09-18 カデント・リミテッド Oral scanning system and method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102292727B (en) * 2009-01-23 2013-10-23 日本电气株式会社 Video descriptor generator
KR101358449B1 (en) * 2010-11-11 2014-02-04 데오덴탈 주식회사 Apparatus and method for scanning oral cavity
KR101524548B1 (en) * 2012-07-26 2015-06-02 삼성테크윈 주식회사 Apparatus and method for alignment of images
US8948482B2 (en) * 2012-11-01 2015-02-03 Align Technology, Inc. Motion compensation in a three dimensional scan

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008537494A (en) 2005-03-03 2008-09-18 カデント・リミテッド Oral scanning system and method

Also Published As

Publication number Publication date
KR20200111850A (en) 2020-10-05

Similar Documents

Publication Publication Date Title
JP5950973B2 (en) Method, apparatus and system for selecting a frame
US20170270355A1 (en) Method and Apparatus for Pattern Tracking
JP4575829B2 (en) Display screen position analysis device and display screen position analysis program
JP2017182739A (en) Gaze detection device, gaze detection method and computer program for gaze detection
JP2010176380A (en) Information processing device and method, program, and recording medium
JP2018045309A (en) Feature quantity extraction device and authentication system
JP2005228042A (en) Face identification device, face identification method, and face identification program
WO2010084967A1 (en) Image processing apparatus, biometric authentication apparatus, image processing method and recording medium
US9082000B2 (en) Image processing device and image processing method
US11700365B2 (en) Position detection method, position detection device, and display device
JP2021108193A (en) Image processing device, image processing method, and program
JP2018205819A (en) Gazing position detection computer program, gazing position detection device, and gazing position detection method
JP4537143B2 (en) Image processing apparatus and method, imaging apparatus, and program
JP2021128658A (en) Position detection method, position detection device, and position detection system
KR102223269B1 (en) Image search and matching method for scan region re-tracking and imaging processing apparatus therefor
JP2021128657A (en) Position detection method, position detection device, and position detection system
JP2017049742A (en) Image processing method, image processing apparatus, robot apparatus, program and recording medium
CN110991292A (en) Action identification comparison method and system, computer storage medium and electronic device
US20220156977A1 (en) Calibration apparatus, calibration method, and non-transitory computer readable medium storing program
US20210248357A1 (en) Image processing method and image processing apparatus
US20230386256A1 (en) Techniques for detecting a three-dimensional face in facial recognition
KR20090115738A (en) Information extracting method, registering device, collating device and program
JPWO2019016879A1 (en) Object detection device and object detection method
KR102167771B1 (en) Method for automatically integrating scan models and imaging processing apparatus therefor
CN113435229B (en) Multi-modal human face iris recognition method and device, readable storage medium and equipment

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right