KR102097396B1 - Method for facial image registration - Google Patents

Method for facial image registration Download PDF

Info

Publication number
KR102097396B1
KR102097396B1 KR1020180127577A KR20180127577A KR102097396B1 KR 102097396 B1 KR102097396 B1 KR 102097396B1 KR 1020180127577 A KR1020180127577 A KR 1020180127577A KR 20180127577 A KR20180127577 A KR 20180127577A KR 102097396 B1 KR102097396 B1 KR 102097396B1
Authority
KR
South Korea
Prior art keywords
data
skin surface
coordinate data
skin
mask
Prior art date
Application number
KR1020180127577A
Other languages
Korean (ko)
Inventor
홍헬렌
이민진
정소영
Original Assignee
서울여자대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울여자대학교 산학협력단 filed Critical 서울여자대학교 산학협력단
Priority to KR1020180127577A priority Critical patent/KR102097396B1/en
Application granted granted Critical
Publication of KR102097396B1 publication Critical patent/KR102097396B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

A facial image registration method is provided in the present invention. The facial image registration method comprises the steps of: obtaining, by a computer, medical image data; dividing a skin surface from the obtained medical image data to obtain first skin surface data; obtaining, by the computer, second skin surface data extracted from the photographed facial surface image data; reducing, by the computer, the number of first surface coordinate data by adaptive sampling to the first skin surface data; and performing, by the computer, surface registration of the first skin surface data to the second skin surface data using the number of the first surface coordinate data.

Description

안면 영상 정합 방법{METHOD FOR FACIAL IMAGE REGISTRATION}METHOD FOR FACIAL IMAGE REGISTRATION

본 발명은 안면 영상 정합 방법에 관한 것으로, 보다 상세하게는 안면에 대한 의료영상과 3차원영상을 정확하게 정합시키는 방법에 관한 것이다. The present invention relates to a method for matching a facial image, and more particularly, to a method for accurately matching a medical image and a 3D image on the face.

영상 정합(image registration)은 서로 다른 영상을 변형하여 하나의 좌표계에 나타내는 처리기법이다. 정합을 통하여 서로 다른 측정 방식을 통해 얻은 영상이 어떻게 대응되는지 알 수 있다.Image registration is a processing technique that transforms different images and displays them in one coordinate system. Through registration, it can be seen how the images obtained through different measurement methods correspond.

의료 영상 처리에서는 환부의 영상을 시간에 따라 비교하거나, 정상인 조직의 영상과 비교하기 위해서 영상 정합을 수행한다.In medical image processing, image matching is performed to compare the image of the affected area with time or to compare the image of normal tissue.

영상 정합은 한 가지 방식의 영상들을 맞추는 단일 방식 정합과 여러 방식의 영상을 서로 맞추는 여러 방식 정합으로 나뉜다. 단일 방식 정합은 한 가지 스캐너 또는 측정 장치에서 얻어진 영상만을 정합하는 것이고, 여러 영상 방식은 서로 다른 스캐너 또는 측정 장치에서 얻어진 영상들을 정합하는 것이다.The image registration is divided into a single method matching to match one type of images and a multiple method matching to match different types of images. Single-mode matching is to match only images obtained from one scanner or measuring device, and multiple imaging methods are to match images obtained from different scanners or measuring devices.

여러 방식 정합은 특히 의료 영상에서 여러 가지 스캐너를 이용하여 얻은 영상을 서로 맞추기 위해 주로 이용된다. 예를 들어 자기공명영상(MRI)과 컴퓨터 단층촬영(CT)영상 사이의 정합, 양전자 방출 단층촬영(PET)과 컴퓨터 단층촬영(CT)영상 사이의 정합, 또는 초음파 영상과 컴퓨터 단층촬영 영상의 정합 등 여러 방식으로 획득한 영상들을 정합하는 것이다.Multi-method matching is mainly used to match images obtained using various scanners, particularly in medical imaging. For example, matching between magnetic resonance imaging (MRI) and computed tomography (CT) images, matching between positron emission tomography (PET) and computed tomography (CT) images, or matching between ultrasound and computed tomography images It is to match the images acquired in various ways.

한국공개특허공보 제10-2015-0088972호, 2015.08.04.Korean Patent Publication No. 10-2015-0088972, 2015.08.04.

본 발명이 해결하고자 하는 과제는 수술 진행 전 시뮬레이션을 통해 결과를 예측하고, 수술을 계획하기 위하여 시뮬레이션에 유용하게 쓰일 수 있도록 하는 의료영상과 3차원영상을 정확하게 정합시키는 방법을 제공하는 것이다.The problem to be solved by the present invention is to provide a method of accurately matching a medical image and a 3D image that can be usefully used for simulation in order to predict a result through simulation before surgery and plan surgery.

또한, 본 발명이 해결하고자 하는 과제는 의료영상과 3차원영상의 표면 정합시에 수행 시간을 보다 더 단축하는 정합 방법을 제공하는 것이다.In addition, the problem to be solved by the present invention is to provide a matching method that further shortens the execution time when matching the surfaces of medical images and 3D images.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 안면 영상 정합 방법은 컴퓨터가 의료영상데이터를 획득하는 단계, 획득된 상기 의료영상데이터에서 피부 표면을 분할하여 제1피부표면데이터를 획득하는 단계, 상기 컴퓨터가 촬영된 안면표면영상데이터에서 추출된 제2피부표면데이터를 획득하는 단계, 상기 컴퓨터가 제1피부표면데이터에 적응적 샘플링 적용하여 제1표면좌표데이터 수를 감소시키는 단계, 상기 컴퓨터가 상기 제1표면좌표데이터 수를 이용하여 상기 제1피부표면데이터를 상기 제2피부표면데이터에 표면 정합을 수행하는 단계를 포함한다.A method of matching a facial image according to an embodiment of the present invention for solving the above-described problem is a step of obtaining a medical image data by a computer, and dividing a skin surface from the obtained medical image data to obtain first skin surface data Step, acquiring the second skin surface data extracted from the facial surface image data photographed by the computer, reducing the number of first surface coordinate data by applying the adaptive sampling to the first skin surface data by the computer. And a computer performing surface registration of the first skin surface data to the second skin surface data using the number of first surface coordinate data.

상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 안면 영상 정합 방법은 상기 제1표면좌표데이터 수를 감소시키는 단계 이전에, 상기 제1피부표면데이터 및 상기 제2피부표면데이터 각각으로부터 동일한 위치에 하나 이상의 랜드마크 점을 추출하는 단계 및 상기 제1피부표면데이터의 랜드마크 점의 중심점과 상기 제2피부표면데이터의 랜드마크 점의 중심점이 일치하도록 상기 제1피부표면데이터를 이동 변환하여 초기 정합을 수행하는 단계를 더 포함한다.The face image registration method according to an embodiment of the present invention for solving the above-described problem is the same from each of the first skin surface data and the second skin surface data before the step of reducing the number of first surface coordinate data. Extracting one or more landmark points at a location, and shifting and converting the first skin surface data such that the center point of the landmark point of the first skin surface data matches the center point of the landmark point of the second skin surface data And performing an initial matching.

상기 제1피부표면데이터를 획득하는 단계에서, 오츠 이진화를 적용하여 피부 영역을 선택하는 단계, 상기 오츠 이진화를 이용하여 선택된 영역이며 밝기 값이 미리 정해진 값 이상인 점을 씨앗점으로 선택하는 단계 및 마스크 내부의 빈 공간을 홀 필링(hole filing) 방법으로 채워주되, 상기 마스크는 선택된 상기 씨앗점을 3차원 씨앗 영역 성장법에 적용함으로써 분할된 피부 영역인, 마스크 내부에 빈 공간을 채워주는 단계를 더 포함한다.In the step of acquiring the first skin surface data, selecting a skin region by applying Otsu binarization, selecting a point as a seed point that is a region selected using Otsu binarization and having a brightness value equal to or greater than a predetermined value. Filling the empty space inside with a hole filing method, the mask further comprising filling the empty space inside the mask, which is a divided skin area by applying the selected seed point to a 3D seed region growth method. Includes.

상기 표면 정합을 수행하는 단계에서, 본 발명의 일 실시예에 따른 안면 영상 정합 방법은 적응적 샘플링을 이용하여, 곡률이 작은 영역인 뺨, 이마, 광대 부분을 기준 영역(reference area)으로 사용하여 정합시키는 것을 특징으로 한다,In the step of performing the surface registration, the facial image matching method according to an embodiment of the present invention uses adaptive sampling to use a cheek, forehead, and cheekbone, which are regions with a small curvature, as a reference area. Characterized by matching,

상기 적응적 샘플링을 적용하는 것은, 제1피부표면데이터를 y축 기준으로 같은 y좌표의 제1표면좌표데이터를 각각 그룹화 하여 그룹별로 적응적 샘플링을 적용하는 것을 특징으로 하되, 미리 정해진 간격으로 떨어져 있는 미리 정해진 개수의 제1표면좌표데이터 간의 거리차를 확인하고 곡률을 계산하여 미리 정해진 곡률값 이하의 제1표면좌표데이터를 선택하는 단계 및 선택된 상기 제1표면좌표데이터를 이용하여, 미리 정해진 간격으로 떨어져있는 제1표면좌표데이터를 이동 및 선택함으로써 각각의 곡률을 반영하는 단계를 포함한다.Applying the adaptive sampling is characterized by applying adaptive sampling for each group by grouping the first surface coordinate data of the same y coordinate based on the first skin surface data on the y-axis, but apart at predetermined intervals. Determining a distance difference between the predetermined number of first surface coordinate data and calculating a curvature to select the first surface coordinate data below a predetermined curvature value, and using the selected first surface coordinate data, a predetermined interval And reflecting each curvature by moving and selecting the separated first surface coordinate data.

상기 표면 정합을 수행하는 단계에서, 상기 제2피부표면데이터의 3차원 가우시안 마스크를 계산하는 단계, 상기 제2피부표면데이터의 제2표면좌표데이터에 대하여 계산된 상기 3차원 가우시안 마스크의 중심을 일치시키는 단계, 상기 마스크와 대응하는 주변부에 가우시안 가중치를 할당하는 단계 상기 가우시안 가중치를 이용하여 제1표면좌표데이터 및 제2표면좌표데이터의 좌표 값에 대하여 가우시안 가중치 거리지도의 평균값을 계산하는 단계 및 상기 가중치 거리지도의 평균값이 최대가 되는 위치를 추출하는 단계를 더 포함한다.In the step of performing the surface registration, calculating a 3D Gaussian mask of the second skin surface data, coinciding the center of the 3D Gaussian mask calculated with respect to the second surface coordinate data of the second skin surface data Step of assigning a Gaussian weight to a periphery corresponding to the mask, Computing an average value of a Gaussian weighted distance map with respect to the coordinate values of the first surface coordinate data and the second surface coordinate data using the Gaussian weight and the The method further includes extracting a location where the average value of the weighted distance map becomes the maximum.

상술한 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 안면 영상 정합 프로그램은 하드웨어인 컴퓨터와 결합되어, 상기의 방법을 실행시키기 위하여 매체에 저장된다.The face image matching program according to another embodiment of the present invention for solving the above-described problems is combined with a hardware computer, and is stored in a medium to execute the above method.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific matters of the present invention are included in the detailed description and drawings.

상기 본 발명에 의하면, 적응적 샘플링 적용에 의한 표면 정합을 수행함으로써 의료영상과 3차원영상을 정확하게 정합시킬 수 있다.According to the present invention, it is possible to accurately match a medical image and a 3D image by performing surface registration by adaptive sampling.

또한, 상기 본 발명에 의하면, 적응적 샘플링 적용에 의하여 표면좌표데이터 중 일정 간격으로 떨어진 표면좌표데이터만을 활용함으로써, 영상 정합 시간을 단축시키면서도 정확하게 정합시킬 수 있다.In addition, according to the present invention, by using only the surface coordinate data spaced apart at regular intervals among the surface coordinate data by adaptive sampling, it is possible to accurately match the image matching time while reducing the time.

또한, 상기 본 발명에 의하면, 적응적 샘플링 적용 전, 일정한 개수의 랜드마크 점을 이용한 초기 정합을 수행함으로써 영상 정합에 있어서 계산량을 줄이면서도 영상 정합의 최적위치 수렴에 보다 더 시간을 단축할 수 있다.In addition, according to the present invention, before adaptive sampling is applied, initial matching using a predetermined number of landmark points is performed, thereby reducing the amount of computation in image matching and reducing the time for converging the optimal position of image matching. .

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 안면 영상 정합 방법을 설명하기 위한 순서도이다.
도 2는 안면 영상 정합 방법 중 피부 표면을 분할하는 방법을 설명하기 위한 순서도이다.
도 3은 의료영상데이터에서 피부 표면을 분할하는 각 단계에서의 실시 결과를 나타낸 도면이다.
도 4는 안면 영상 정합 방법 중 제1표면좌표데이터 수를 감소시키는 단계에서 적응적 샘플링을 적용하는 방법을 설명하기 위한 순서도이다.
도 5는 안면 영상 정합 방법 중 제1표면좌표데이터 수를 감소시키는 단계에서 적응적 샘플링의 원리를 설명하기 위한 도면이다.
도 6은 적응적 샘플링을 적용한 결과를 나타낸 도면이다.
도 7은 안면 영상 정합 방법 중 표면 정합을 수행하는 방법을 설명하기 위한 순서도이다.
도 8은 본 발명의 일 실시예에 따른 안면 영상 정합 방법에서 초기 정합을 수행한 후 안면 영상을 정합하는 방법을 설명하기 위한 순서도이다.
도 9는 본 발명의 일 실시예에 따른 안면 영상 정합 방법을 포함하여 다양한 방법에 의해 안면 영상을 정합한 결과를 나타낸 도면이다.
1 is a flow chart for explaining a facial image matching method according to an embodiment of the present invention.
2 is a flow chart for explaining a method of dividing a skin surface among face image registration methods.
Figure 3 is a view showing the results of each step of dividing the skin surface from the medical image data.
4 is a flowchart for explaining a method of applying adaptive sampling in a step of reducing the number of first surface coordinate data among the face image matching methods.
5 is a diagram for explaining the principle of adaptive sampling in the step of reducing the number of first surface coordinate data among the face image matching methods.
6 is a diagram showing the results of applying adaptive sampling.
7 is a flowchart for describing a method of performing surface registration among face image matching methods.
8 is a flowchart for explaining a method of matching a facial image after performing initial matching in the facial image matching method according to an embodiment of the present invention.
9 is a view showing a result of matching the facial image by various methods, including a method for matching the facial image according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, only the present embodiments allow the disclosure of the present invention to be complete, and are common in the technical field to which the present invention pertains. It is provided to fully inform the skilled person of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for describing the embodiments and is not intended to limit the present invention. In this specification, the singular form also includes the plural form unless otherwise specified in the phrase. As used herein, “comprises” and / or “comprising” does not exclude the presence or addition of one or more other components other than the components mentioned. Throughout the specification, the same reference numerals refer to the same components, and “and / or” includes each and every combination of one or more of the mentioned components. Although "first", "second", etc. are used to describe various components, it goes without saying that these components are not limited by these terms. These terms are only used to distinguish one component from another component. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings commonly understood by those skilled in the art to which the present invention pertains. In addition, terms defined in the commonly used dictionary are not ideally or excessively interpreted unless explicitly defined.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.The spatially relative terms “below”, “beneath”, “lower”, “above”, “upper”, etc., are as shown in the figure. It can be used to easily describe a correlation between a component and other components. The spatially relative terms should be understood as terms including different directions of components in use or operation in addition to the directions shown in the drawings. For example, if a component shown in the drawing is flipped over, the component described as "below" or "beneath" the other component will be placed "above" the other component. You can. Thus, the exemplary term “below” can include both the directions below and above. Components can also be oriented in different directions, and thus spatially relative terms can be interpreted according to orientation.

본 명세서에서 '컴퓨터'는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book)뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. 또한, 컴퓨터는 의료용 컴퓨터, 의료용 PC, 의료용 태블릿, 의료 장치도 해당될 수 있으며, 클라이언트로부터 요청을 수신하여 정보처리를 수행하는 서버도 해당될 수 있다.In the present specification, 'computer' includes all of various devices capable of performing arithmetic processing and providing a result to a user. For example, the computer is not only a desktop PC, a notebook, but also a smart phone, a tablet PC, a cellular phone, and a personal communication service phone (PCS phone), synchronous / asynchronous. A mobile terminal of an International Mobile Telecommunication-2000 (IMT-2000), a Palm Personal Computer (PC), and a Personal Digital Assistant (PDA) may also be applicable. Further, the computer may also be a medical computer, a medical PC, a medical tablet, a medical device, and a server that receives a request from a client and performs information processing.

본 명세서에서 '의료영상데이터'는 컴퓨터 처리가 만들어내는 단층 촬영을 이용하는 의학 화상 처리 방식에 의해 획득된 의료영상데이터는 모두 포함된다. 예를 들어, 의료영상데이터는 CT(Computer tomography), 핵자기공명 컴퓨터 단층촬영 영상(Nuclear Magnetic Resonance Computed Tomography, NMR-CT), 양전자 단층촬영 영상(positron emission tomography; PET), CBCT(conebeamCT)가 해당될 수 있다. In this specification, 'medical image data' includes all medical image data obtained by a medical image processing method using tomography generated by computer processing. For example, medical imaging data includes CT (Computer tomography), Nuclear Magnetic Resonance Computed Tomography (NMR-CT), Positron Emission Tomography (PET), and Conebeam CT (CBCT). It may apply.

본 명세서에서 '안면표면영상데이터'는 3차원 카메라, 3차원 스캐너, 광학 카메라, 씨암(C-arm) 장치 및 광간섭단층촬영장치(optical coherence tomography)중 적어도 하나로부터 촬영되는 안면표면영상데이터이다.In the present specification, 'face surface image data' is face surface image data photographed from at least one of a 3D camera, a 3D scanner, an optical camera, a C-arm device, and an optical coherence tomography. .

본 명세서에서 '제1표면좌표데이터'는 의료영상데이터에서 피부 표면을 분할한 피부표면영상에서의 표면점을 의미한다. In the present specification, 'first surface coordinate data' refers to a surface point in a skin surface image obtained by dividing a skin surface from medical image data.

본 명세서에서 '제2표면좌표데이터'는 안면표면영상데이터에서의 표면점을 의미한다.In the present specification, the “second surface coordinate data” means a surface point in the facial surface image data.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 안면 영상 정합 방법을 설명하기 위한 순서도이다.1 is a flow chart for explaining a facial image matching method according to an embodiment of the present invention.

도 1을 참고하면, 안면 영상 정합 방법은 컴퓨터가 의료영상데이터를 획득하는 단계(S100), 의료영상데이터에서 피부 표면을 분할하여 제1피부표면데이터를 획득하는 단계(S120), 안면표면영상데이터에서 제2피부표면데이터를 획득하는 단계(S140), 컴퓨터가 제1피부표면데이터에 적응적 샘플링을 적용하여 제1표면좌표데이터 수를 감소시키는 단계(S160) 및 제1피부표면데이터를 제2피부표면데이터에 표면 정합을 수행하는 단계(S180)을 포함한다.Referring to FIG. 1, the method of matching a facial image includes obtaining a medical image data by a computer (S100), obtaining a first skin surface data by dividing a skin surface from the medical image data (S120), and facial surface image data In step (S140) of obtaining the second skin surface data, the computer applies adaptive sampling to the first skin surface data to reduce the number of first surface coordinate data (S160) and the first skin surface data is second And performing a surface registration on the skin surface data (S180).

의료영상데이터에서 피부 표면을 분할하여 제1피부표면데이터를 획득하는 단계(S120)는, 영상 정합 수행 시, 의료영상데이터에서 영상 정합을 위해 대응하는 부분은 피부이므로 피부 표면 부분을 견고하게 추출하기 위하여 피부 표면을 분할하는 단계로서, 제1피부표면데이터는 의료영상데이터에서 피부 표면을 분할하여 획득한 데이터이다. The step of obtaining the first skin surface data by dividing the skin surface from the medical image data (S120), when performing image registration, the corresponding portion for image registration in the medical image data is skin, so that the skin surface portion is firmly extracted In order to divide the skin surface, the first skin surface data is data obtained by dividing the skin surface from medical image data.

도 2는 안면 영상 정합 방법 중 피부 표면을 분할하는 방법을 설명하기 위한 순서도이다.2 is a flow chart for explaining a method of dividing a skin surface among face image registration methods.

도 2를 참고하면, 피부 표면을 분할하는 방법은 오츠 이진화를 적용하여 피부 영역을 선택하는 단계(S122), 오츠 이진화를 이용하여 선택된 영역이며 밝기 값이 미리 정해진 값 이상인 점을 씨앗점으로 선택하는 단계(S124) 및 마스크 내부에 빈 공간을 채워주는 단계(S126)를 포함한다.Referring to FIG. 2, the method of dividing the skin surface is a step of selecting a skin region by applying Otsu binarization (S122), and selecting a point having a brightness value equal to or greater than a predetermined value as a seed point by using Otsu binarization. Step S124 and filling an empty space inside the mask (S126).

오츠 이진화를 적용하여 피부 영역을 선택하는 단계(S122)는 영상데이터의 잡음을 감소시켜 피부층을 보다 더 정확하게 분할하기 위한 단계이다.The step of selecting the skin region by applying Otsu binarization (S122) is a step of more accurately dividing the skin layer by reducing noise of image data.

오츠 이진화란, 어떠한 그레이 값으로 픽셀을 분리해야 하는지에 관한 것으로, 임계값 설정에 있어서 비용함수를 설정하고, 설정한 비용함수의 최소값으로 임계값을 취하는 방식으로, 즉, 오츠 이진화를 적용하면 고정 임계값을 사용하는 것이 아니라, 데이터에 최적화된 임계치를 사용하여 피부 영역의 분할을 수행하는 것이 가능하게 된다.Otsu binarization refers to what gray value to separate pixels from, and sets a cost function in threshold setting and takes a threshold value as a minimum value of the set cost function, that is, it is fixed when Otsu binarization is applied. Instead of using a threshold, it is possible to perform segmentation of the skin region using a threshold optimized for the data.

오츠 이진화를 이용하여 선택된 영역이며 밝기 값이 미리 정해진 값 이상인 점을 씨앗점으로 선택하는 단계(S124) 및 마스크 내부에 빈 공간을 채워주는 단계(S126)에서 상기 마스크는 선택된 상기 씨앗점을 3차원 씨앗 영역 성장법에 적용함으로써 상기 피부 영역을 분할한 것이다.The mask is selected by using Otsu binarization, and the mask is three-dimensionally selected from the seed point in step S124 of selecting a point having a brightness value equal to or higher than a predetermined value and filling an empty space inside the mask (S126). The skin region is divided by applying the seed region growth method.

씨앗 영역 성장법은, 이미지를 구분하는 여러가지 방법 중 하나로서, 사용자가 이미지의 다른 영역을 식별할 때의 식별 태그를 씨앗 표시라고 한다. 씨앗 영역 성장법의 알고리즘은 씨앗 표시에서 시작하고, 반복적으로 씨앗 표시 영역의 크기를 늘린다. 영역이 확장되는 동안 알고리즘은 어떠한 픽셀이 주어진 씨앗 표시 영역에 통합되는지 결정해야 하며, 어떠한 픽셀이 주어진 씨앗 표시 영역에 통합되는지 결정은 유사성 측정을 기반으로 한다. The seed region growth method is one of various methods for classifying images, and an identification tag when a user identifies another region of the image is called a seed display. The algorithm of the seed area growth method starts with the seed display and repeatedly increases the size of the seed display area. While the region is expanding, the algorithm must determine which pixels are incorporated into a given seed display region, and determining which pixels are incorporated into a given seed display region is based on similarity measurements.

만일, 분할한 피부 표면에서 마스크 내부에 빈 공간이 존재하는 경우에는, 불필요한 표면이 생성되기 때문에, 불필요한 표면의 생성을 방지하기 위하여 씨앗점을 마스크 내부에서 선택하여 빈 공간을 채워준다.If an empty space exists inside the mask on the divided skin surface, an unnecessary surface is generated, so that a seed point is selected inside the mask to fill the empty space to prevent the generation of unnecessary surfaces.

분할한 피부 표면에서 마스크 내부에 빈 공간이 존재하는 경우는, 다양한 경우가 있을 수 있으며, 특히 메탈 아티팩트가 발생되는 경우일 수 있다.When there is an empty space inside the mask on the divided skin surface, there may be various cases, and in particular, it may be a case where metal artifacts are generated.

의료영상데이터를 획득하는 의료영상장치의 대표적인 CT(Computed Tomography)는 X선을 출력하는 소스(Source)와 대상 물체를 통과한 X선을 수용하는 디텍터(Detector)를 대상 물체 주위에 회전시키며 대상 물체에 대한 단면 영상을 획득하는 장치이다. 소스로부터 출력되는 X선은 대상 물체를 통과하여 디텍터에 흡수되며, 디텍터에 흡수되는 X선의 양은 X선이 지나간 경로에 놓인 대상 물체의 성질 및 길이에 따라 달라진다.A representative CT (Computed Tomography) of a medical imaging device that acquires medical image data rotates a source that outputs X-rays and a detector that accepts X-rays that have passed through the object, around the object. It is a device to acquire a cross-sectional image for. The X-rays output from the source pass through the target object and are absorbed by the detector, and the amount of X-rays absorbed by the detector depends on the nature and length of the target object placed in the path where the X-rays pass.

상기와 같은 방법으로 대상 물체를 회전 시켜가며 X선을 통과시키면 각 회전 각도별 X선이 흡수된 양을 나타내는 그래프를 얻는다. 각 회전 각도별 흡수된 X선의 양을 하나로 합쳐 시각화한 것을 사이노그램(Sinogram)이라고 하며, 사이노그램에 일정 연산을 구행하면 대상 물체에 대한 단층 촬영 영상을 얻을 수 있게 된다.When the target object is rotated in the same way as described above and passed through X-rays, a graph indicating the amount of X-ray absorption by each rotation angle is obtained. The visualization of the sum of the amount of X-rays absorbed for each rotation angle is called a sinogram, and if a certain operation is performed on the sinogram, a tomography image of the target object can be obtained.

그러나, 만일 촬영 대상 물체에 금속 물질이 포함되는 경우에는, 해당 금속 물질로 인해 사이노그램이 비정상적으로 획득된다. 결과로서, 단층 영상에서 균일한 물질임에도 물체의 중간 부분이 바깥 부분보다 어둡게 나타나거나(cupping artifact) 금속 물질 사이에서 어둡거나 밝은 부분이 줄 모양으로 나타나는(streak artifact) 메탈 아티팩트(metal artifact)가 나타나는 문제가 있을 수 있다.However, if a metal object is included in the object to be photographed, the sinogram is abnormally obtained due to the metal material. As a result, even if it is a uniform material in a tomography image, the middle part of the object appears darker than the outer part (cupping artifact), or the dark or light part between the metal materials appears as a streak artifact or metal artifact. There may be a problem.

따라서, 3D 씨앗 영역 성장법에 의한 피부 영역 분할의 수행은, 오츠 이진화를 이용하여 선택된 영역이며 밝기 값이 미리 정해진 값 이상인 점을 씨앗점으로 선택한 후, 마스크 내부에 빈 공간을 채워줌으로써 수행된다.Therefore, the skin region segmentation by the 3D seed region growth method is performed by selecting a point that is a region selected by using Otsu binarization and having a brightness value equal to or higher than a predetermined value as a seed point, and then filling an empty space inside the mask.

또한, 본 발명의 일 실시예에 따른 안면 영상 정합 방법에 있어서, 오츠 이진화 및 3D 씨앗 영역 성장법에 의해 피부 영역이 분할된 마스크를 마칭큐브 알고리즘을 이용하여 3차원 모델링하는 단계를 더 포함할 수 있다.In addition, in the method of matching facial images according to an embodiment of the present invention, the method may further include three-dimensional modeling of the mask in which the skin region is segmented by Otsu binarization and 3D seed region growth using a marching cube algorithm. have.

도 3은 의료영상데이터에서 피부 표면을 분할하는 각 단계에서의 실시 결과를 나타낸 도면이다.Figure 3 is a view showing the results of each step of dividing the skin surface from the medical image data.

도 3의 (a)는 안면부에 대한 의료영상데이터이며, 도 3의 (b)는 오츠 이진화를 통하여 선택된 영역을 씨앗점으로 하여 3차원 씨앗 영역 성장법에 적용하여 피부를 분할하고, 분할한 피부를 마스크로 나타낸 도면이며, 도 3의 (c)는 홀 필링(holefiling) 방법을 이용하여 도 3의 (b)의 마스크 내에 생기는 빈 공간을 채운 것을 나타낸 도면이다. 도 3의 (d)는 최종적으로 피부 표면 모델링이 수행된 것을 나타낸 도면이다.Fig. 3 (a) is medical image data for the face, and Fig. 3 (b) divides the skin by applying it to the 3D seed region growth method using the selected region as the seed point through Otsu binarization, and the divided skin 3 (c) is a view showing that the empty space generated in the mask of FIG. 3 (b) is filled by using a hole-filing method. FIG. 3 (d) is a diagram showing that skin surface modeling was finally performed.

도 4는 안면 영상 정합 방법 중 제1표면좌표데이터 수를 감소시키는 단계에서 적응적 샘플링을 적용하는 방법을 설명하기 위한 순서도이다.4 is a flowchart for explaining a method of applying adaptive sampling in a step of reducing the number of first surface coordinate data among the face image matching methods.

도 4를 참고하면, 적응적 샘플링을 적용하는 방법은, 미리 정해진 간격으로 떨어져 있는 미리 정해진 개수의 제1표면좌표데이터의 거리차를 확인하고, 곡률을 계산하여 미리 정해진 곡률값 이하의 제1표면좌표데이터를 선택하는 단계(S162) 및 미리 정해진 간격으로 떨어져 있는 제1표면좌표데이터를 이동 및 선택함으로써 각각의 곡률을 반영하여 적응적 샘플링을 적용하는 단계(S164)를 포함한다.Referring to FIG. 4, in the method of applying adaptive sampling, a distance difference between a predetermined number of first surface coordinate data spaced apart at a predetermined interval is checked, and a curvature is calculated to calculate a curvature of a first surface below a predetermined curvature value. And selecting adaptive data (S162) and applying adaptive sampling by reflecting each curvature by moving and selecting first surface coordinate data spaced at predetermined intervals (S164).

적응적 샘플링을 적용하지 않고 수행하는 일반적인 표면 정합 수행 방법은, 정합하는 두 영상의 표면좌표데이터들 간 거리차이를 최소화 함으로써 정합을 수행한다. 표면좌표데이터의 수가 많으면 영상 정합 수행 시간이 길어지는 단점이 있다. 본 발명의 경우에는, 적응적 샘플링을 적용함으로써 표면좌표데이터의 수를 감소시킨 후, 영상을 정합하여 영상 정합 수행 시간을 단축할 수 있는 효과가 있다.In a general surface registration method performed without adaptive sampling, registration is performed by minimizing a distance difference between surface coordinate data of two images to be matched. If the number of surface coordinate data is large, there is a disadvantage in that the image registration execution time is long. In the case of the present invention, after applying adaptive sampling, the number of surface coordinate data is reduced, and there is an effect of reducing the time of performing image registration by matching the images.

제1피부표면데이터 중에서 곡률이 큰 지역은 눈, 코, 입 등으로 표정의 영향을 많이 받는 부분이므로, 본 발명의 일 실시예에 따른 안면 영상 정합 방법에서 적응적 샘플링을 이용하여 표면 정합을 수행하는 것은, 곡률이 작은 영역인 뺨, 이마, 광대 부분을 기준 영역(reference)으로 사용하여 정합시킨다. 곡률이 작은 영역을 기준 영역으로 사용하여 정합 시킴으로써, 제1표면좌표데이터의 수를 줄이고, 보다 더 정확하게 영상을 정합할 수 있다.Since the area with a large curvature among the first skin surface data is a part affected by facial expressions such as eyes, nose, and mouth, the surface registration is performed using adaptive sampling in the facial image matching method according to an embodiment of the present invention. To do this, the cheeks, forehead, and cheekbones, which are regions with a small curvature, are matched using a reference region. By matching a region having a small curvature as a reference region, the number of first surface coordinate data can be reduced and images can be more accurately matched.

적응적 샘플링을 적용하기 위하여, 적응적 샘플링 적용 전, 의료영상데이터에서 획득한 제1피부표면데이터를 y축 기준으로 같은 y좌표의 표면점을 각각 그룹화한 후, 그룹별로 적응적 샘플링을 적용한다.In order to apply adaptive sampling, before applying adaptive sampling, the first skin surface data obtained from medical image data is grouped by the surface points of the same y coordinate based on the y-axis, and then adaptive sampling is applied to each group. .

같은 위치 상에서 y축을 기준으로 그룹화 하였을 때, 얼굴에 대한 전체 윤곽을 보다 잘 나타낼 수 있다.When grouping on the same position based on the y-axis, the entire outline of the face can be better represented.

도 5는 안면 영상 정합 방법 중 제1표면좌표데이터 수를 감소시키는 단계에서 적응적 샘플링의 원리를 설명하기 위한 도면이다.5 is a diagram for explaining the principle of adaptive sampling in the step of reducing the number of first surface coordinate data among the face image matching methods.

도 5를 참고하면, pi-1과 pi의 거리를 A, pi와 pi+1의 거리를 B, pi-1과 pi+1의 거리를 C라고 하면, 곡률이 큰 지역에서는 A+B>C+ε 이고, 평평한 지역에서는 A+B<C+ε이다. ε 는 곡률을 조절할 수 있는 요소로서 C에 더해준다. 따라서, 곡률이 작은 지역에서의 제1표면좌표데이터를 선택하기 위하여 A+B<C+ε의 조건을 만족하는 지역에 있는 pi를 채택한다.Referring to FIG. 5, if the distance between p i-1 and p i is A, the distance between p i and p i + 1 is B, and the distance between p i-1 and p i + 1 is C, a region having a large curvature In A + B> C + ε, in flat areas A + B <C + ε. ε is an element that can control the curvature and adds it to C. Therefore, pi in the region satisfying the condition of A + B <C + ε is adopted to select the first surface coordinate data in the region having a small curvature.

도 5의 (a)는 곡률이 큰 지역으로서, A+B>C+ε로서, 조건을 만족하지 못하는 것을 확인할 수 있으며, 도 5의 (b)는 곡률이 작은 지역으로서, A+B<C+ε의 조건을 만족하는 것을 확인할 수 있다.5 (a) is a region with a large curvature, A + B> C + ε, and it can be confirmed that the condition is not satisfied, and FIG. 5 (b) is a region with a small curvature, A + B <C It can be seen that the condition of + ε is satisfied.

본 발명의 일 실시예에 따른 안면 영상 정합 방법에 있어서, 적응적 샘플링을 적용하기 위하여 제1피부표면데이터에서의 인접한 3개의 제1표면좌표데이터는 표면의 전체적인 곡률이 반영되지 않으므로, 미리 정해진 일정한 간격으로 떨어져 있는 미리 정해진 개수의 제1표면좌표데이터 간의 거리차를 확인하고, 곡률을 계산하여 미리 정해진 곡률값 이하의 제1표면좌표데이터를 선택한다(S162).In the face image matching method according to an embodiment of the present invention, in order to apply adaptive sampling, the adjacent three first surface coordinate data in the first skin surface data do not reflect the overall curvature of the surface, so a predetermined constant The distance difference between the predetermined number of first surface coordinate data spaced apart is checked, and the curvature is calculated to select the first surface coordinate data below a predetermined curvature value (S162).

일 실시예로, 미리 정해진 일정 간격은 10개의 제1표면좌표데이터 간격이며, 10개의 제1표면좌표데이터의 간격으로 떨어져 있는 3개의 제1표면좌표데이터의 거리차를 확인하여 곡률을 계산하여 미리 정해진 곡률값 이하의 제1표면좌표데이터를 선택할 수 있으나, 상기 예에 한정되지 않고, 제1표면좌표데이터의 간격 및 개수는 미리 정할 수 있다.In one embodiment, the predetermined predetermined interval is 10 first surface coordinate data intervals, and the curvature is calculated in advance by checking the distance difference between the three first surface coordinate data spaced apart from the 10 first surface coordinate data intervals. The first surface coordinate data below a predetermined curvature value may be selected, but is not limited to the above example, and the interval and number of the first surface coordinate data may be determined in advance.

제1표면좌표데이터를 선택한 후에는, 선택된 제1표면좌표데이터를 이용하여, 미리 정해진 간격으로 떨어져 있는 제1표면좌표데이터를 이동 및 선택함으로써 각각의 곡률을 반영(S164)하여 적응적 샘플링을 적용한다.After selecting the first surface coordinate data, adaptive sampling is applied by reflecting each curvature (S164) by moving and selecting the first surface coordinate data spaced apart at predetermined intervals using the selected first surface coordinate data (S164). do.

도 6은 적응적 샘플링을 적용한 결과를 나타낸 도면이다.6 is a diagram showing the results of applying adaptive sampling.

도 6의 (a)는 의료영상데이터에서 분할한 제1피부표면데이터를 나타낸 도면이며, 도 6의 (b)는 ε를 0.5로 하여 적응적 샘플링을 적용한 결과를 나타낸 도면이다.FIG. 6 (a) is a view showing first skin surface data divided from medical image data, and FIG. 6 (b) is a view showing a result of applying adaptive sampling with ε of 0.5.

만일, ε가 0.5보다 크면 곡률이 큰 부분이 많이 남게 되며, ε가 0.5보다 작으면 평평한 지역에서 샘플링이 많이 될 수 있으므로, ε를 0.5로 하여 적응적 샘플링을 할 경우에 가장 정확하게 영상을 정합할 수 있다.If ε is greater than 0.5, a large portion of the curvature remains, and if ε is less than 0.5, sampling may occur in a flat area. You can.

도 7은 안면 영상 정합 방법 중 표면 정합을 수행하는 방법을 설명하기 위한 순서도이다.7 is a flowchart for describing a method of performing surface registration among face image matching methods.

표면 정합을 수행하는 방법은, 제2피부표면데이터의 3차원 가우시안 마스크를 계산하는 단계(S182), 제2피부표면데이터의 제2표면좌표데이터에 대하여 3차원 가우시안 마스크의 중심을 일치시키는 단계(S184), 마스크와 대응하는 주변부에 가우시안 가중치를 할당하는 단계(S186), 제1표면좌표데이터 및 제2표면좌표데이터의 좌표 값에 대하여 가우시안 가중치 거리 지도의 평균값을 계산하는 단계(S188) 및 가중치 거리 지도의 평균값이 최대가 되는 위치를 추출하는 단계(S190)을 포함한다.The method of performing surface registration includes calculating a 3D Gaussian mask of the second skin surface data (S182), and matching the center of the 3D Gaussian mask with the second surface coordinate data of the second skin surface data ( S184), assigning a Gaussian weight to the periphery corresponding to the mask (S186), calculating an average value of a Gaussian weighted distance map for coordinate values of the first surface coordinate data and the second surface coordinate data (S188) and the weight And extracting a location where the average value of the distance map becomes the maximum (S190).

제2피부표면데이터의 3차원 가우시안 마스크를 계산하는 단계(S182)에서 3차원 가우시안 마스크는 하기의 수학식 1에 의해 계산된다.In step S182 of calculating the 3D Gaussian mask of the second skin surface data, the 3D Gaussian mask is calculated by Equation 1 below.

<수학식 1><Equation 1>

Figure 112018105201305-pat00001
Figure 112018105201305-pat00001

수학식 1에서 G는 가우시안 마스크이며, x, y, z는 제2표면좌표데이터 값이고, σ는 가우시안의 분산, c는 가우시안 마스크의 중심점 좌표이다.In Equation 1, G is a Gaussian mask, x, y, and z are second surface coordinate data values, σ is a Gaussian variance, and c is a Gaussian mask center point coordinate.

상기 수학식 1에 의해 계산된 마스크의 값을 비교하면, 마스크의 크기가 클수록 국소부위의 형태차이가 있더라도 정확하게 수렴되며, 마스크의 크기를 작게 할수록 형태차이가 작은 영상에 유리하다.When the value of the mask calculated by Equation 1 is compared, the larger the size of the mask converges accurately even if there is a shape difference in the local area, and the smaller the size of the mask, the better the image with a smaller shape difference.

이후, 제2피부표면데이터의 제2표면좌표데이터에 대하여 3차원 가우시안 마스크의 중심을 일치시키는 단계(S184), 마스크와 대응하는 주변부에 가우시안 가중치를 할당하는 단계(S186)를 수행한다.Thereafter, the center of the three-dimensional Gaussian mask is matched with respect to the second surface coordinate data of the second skin surface data (S184), and the step of assigning a Gaussian weight to the periphery corresponding to the mask (S186) is performed.

가중치가 이미 존재하는 위치의 경우에는, 기존 가중치와 할당하고자 하는 가중치 중 더 큰 값으로 갱신하여 할당한다. 이에 의하면 가우시안 가중치 거리 지도는 제2표면좌표데이터의 위치에 1이 할당되며, 제2표면좌표데이터와 멀어질수록 가우시안 분포 형태를 보이며 작은 가중치가 할당되게 된다.In the case of a location where the weight already exists, it is updated and assigned to a larger value among the existing weight and the weight to be assigned. According to this, in the Gaussian weighted distance map, 1 is assigned to the position of the second surface coordinate data, and as it moves away from the second surface coordinate data, a Gaussian distribution is shown and a small weight is assigned.

제1표면좌표데이터 및 제2표면좌표데이터의 좌표 값에 대하여 가우시안 가중치 거리 지도의 평균값을 계산하는 단계(S188) 및 가중치 거리 지도의 평균값이 최대가 되는 위치를 추출하는 단계(S190)에서, 두 영상이 위치적으로 일치하는 정도이자, 제2표면좌표데이터가 유사 변환 되었을 경우의 가우시안 가중치 거리 지도의 평균값은, 하기 수학식 2에 의해 계산된다.In the step of calculating the average value of the Gaussian weighted distance map with respect to the coordinate values of the first surface coordinate data and the second surface coordinate data (S188) and extracting the location where the average value of the weighted distance map is the maximum (S190), the two The degree to which the images are locally matched and the average value of the Gaussian weighted distance map when the second surface coordinate data is similarly transformed is calculated by Equation 2 below.

<수학식 2><Equation 2>

Figure 112018105201305-pat00002
Figure 112018105201305-pat00002

수학식 2에서 T는 유사 변환 함수, GW는 좌표에 해당하는 제2좌표데이터의 거리지도 값이며, N은 제1표면좌표데이터의 수이다.In Equation 2, T is a pseudo-transformation function, GW is a distance map value of second coordinate data corresponding to coordinates, and N is the number of first surface coordinate data.

제1피부표면데이터 및 제2피부표면데이터가 정합 시 위치적으로 멀어질수록 가중치 값이 작아지고 가까워질수록 가중치가 증가하게 되므로, GWD가 최대가 되는 위치를 반복적으로 탐색하여 수렴시킴으로써, 영상 정합을 정확하게 수행할 수 있다.When the first skin surface data and the second skin surface data are matched, the weight value increases as the distance increases and the weight increases as the distance increases, thereby repeatedly searching and converging the location where the GWD is the maximum, thereby matching the image. Can be done accurately.

도 8은 본 발명의 일 실시예에 따른 안면 영상 정합 방법에서 초기 정합을 수행한 후 안면 영상을 정합하는 방법을 설명하기 위한 순서도이다.8 is a flowchart for explaining a method of matching a facial image after performing initial matching in the facial image matching method according to an embodiment of the present invention.

도 8을 참고하면, 본 발명의 일 실시예에 따른 안면 영상 정합 방법은, 안면표면영상데이터에서 제2피부표면데이터를 획득하는 단계(S140)이후에 제1피부표면데이터 및 제2피부표면데이터 각각으로부터 동일한 위치에 하나 이상의 랜드마크점을 추출하는 단계(S145) 및 제1피부표면데이터 및 제2피부표면데이터의 랜드마크점의 중심점이 일치하도록 제1피부표면데이터를 이동 변환하여 초기 정합을 수행하는 단계(S150)를 더 포함한다Referring to FIG. 8, in the method of matching a facial image according to an embodiment of the present invention, after obtaining the second skin surface data from the facial surface image data (S140), the first skin surface data and the second skin surface data are obtained. The step of extracting one or more landmark points at the same location from each (S145) and shifting the first skin surface data so that the center points of the landmark points of the first skin surface data and the second skin surface data coincide to perform initial matching. Further comprising the step of performing (S150)

랜드마크점을 추출하여, 추출된 랜드마크점을 이용하여 초기 정합을 수행하는 단계는, 안면표면영상데이터는 촬영 위치에 따라 획득되는 영상의 크기가 달라지며, 의료영상데이터와는 모달리티(modality)가 다르므로 초기 위치나 얼굴정면의 방향이 일치하지 않으므로, 초기 위치와 전체적인 크기를 맞추기 위하여 미리 정해진 개수의 랜드마크를 이용하여 초기정합을 수행한다. 랜드마크는 촬영상태에 따른 영향을 가장 적게 받는 위치를 선택한다.In the step of performing the initial registration by using the extracted landmark point and extracting the landmark point, the size of the image obtained by the facial surface image data varies depending on the shooting location, and is modality with the medical image data. Since the initial position or the direction of the front face does not coincide with each other, initial matching is performed using a predetermined number of landmarks to match the initial position and the overall size. The landmark selects the location that is least affected by the shooting condition.

초기 정합을 수행함으로써, 표면 정합 수행에 있어서, 계산양을 줄일 수 있으며, 따라서 최적위치에 수렴함에 있어 더 적은 시간을 소요할 수 있는 효과가 있다.By performing the initial matching, in performing the surface matching, the amount of calculation can be reduced, and accordingly, there is an effect that it may take less time to converge to the optimal position.

도 9는 본 발명의 일 실시예에 따른 안면 영상 정합 방법을 포함하여 다양한 방법에 의해 안면 영상을 정합한 결과를 나타낸 도면이다.9 is a view showing a result of matching the facial image by various methods, including a method for matching the facial image according to an embodiment of the present invention.

도 9의 (a)는 점 기반으로만 영상을 접합한 것으로서, 도 8에서 설명한 초기정합에 의한 영상 접합에 의한 결과를 나타낸 도면이다. 도 8의 설명에서는 랜드마크점을 추출하여 초기 정합을 수행한 후, 적응적 샘플링을 적용하여 영상을 정합한 방법을 설명하였지만, 도 9의 (a)는 점 기반 영상 접합만을 한 것으로, 적응적 샘플링을 포함한 표면 정합을 적용하지 않은 결과를 나타낸 도면이다.FIG. 9 (a) is a view of joining images based only on points, and is a view showing results of image joining by initial registration described in FIG. In the description of FIG. 8, a method of matching an image by applying adaptive sampling after performing initial matching by extracting a landmark point has been described, but FIG. 9A shows that only point-based image concatenation is performed. This diagram shows the result of not applying the surface registration including sampling.

도 9의 (b)는 표면 정합에 의한 영상 접합에 의한 결과를 나타낸 도면이다. 본 발명과는 달리, 샘플링을 적용하지 않고 모든 표면좌표데이터를 이용하여 표면 정합을 수행한 것이다.9 (b) is a view showing the results of image bonding by surface registration. Unlike the present invention, surface matching is performed using all surface coordinate data without applying sampling.

도 9의 (c)는 균등 샘플링을 적용한 표면 정합에 의한 영상 접합에 의한 결과를 나타낸 도면이다. 본 발명과는 달리, 적응적 샘플링이 아닌 균등 샘플링을 적용한 것으로, 균등 샘플링은 제1피부표면데이터에서 추출한 제1표면좌표데이터를 x축과 y축을 기준으로 하여 균등한 거리만큼 떨어진 좌표에 존재하는 제1표면좌표데이터를 추출하는 방법에 의한 것이다.9 (c) is a diagram showing the results of image bonding by surface registration to which uniform sampling is applied. Unlike the present invention, uniform sampling is applied instead of adaptive sampling, and uniform sampling is performed at coordinates separated by equal distances based on the x-axis and the y-axis from the first surface coordinate data extracted from the first skin surface data. It is by the method of extracting the first surface coordinate data.

도 9의 (d)는 본 발명의 일 실시예에 따른 적응적 샘플링을 적용한 표면 정합에 의한 영상 접합에 의한 결과를 나타낸 도면이다.9 (d) is a diagram showing the results of image bonding by surface registration to which adaptive sampling is applied according to an embodiment of the present invention.

도 9는 정합된 표면 간의 거리차를 색상으로 구분하여 나타낸 컬러맵으로서, 두 영상 간의 거리차이가 작을수록 흰색, 녹색으로 표시된 것이고, 위치적으로 큰 오차를 보일수록 붉은색과 푸른색으로 표시되었다. FIG. 9 is a color map showing the distance difference between the matched surfaces in color, and the smaller the distance difference between the two images is, the white and green are displayed, and the larger the positional error, the red and blue. .

도 9의 (a)는 전체적으로 어긋나 있으며, 특히 이마부분이 잘 맞지 않은 것을 확인할 수 있으며, 도 9의 (b) 및 (c)는 이마나 광대 부위는 잘 맞았으나 입과 턱 부위에서 상대적으로 큰 오차를 갖는 것을 확인할 수 있다.Fig. 9 (a) is entirely displaced, in particular, it can be confirmed that the forehead portion did not fit well, and in Fig. 9 (b) and (c) the forehead and cheekbones fit well, but relatively large in the mouth and chin area You can see that it has an error.

본 발명의 일 실시예에 따른 안면 영상 접합 방법에 의한 도 9의 (d)는 거리차이가 0에 가까운 흰색 부분이 가장 많은 영역을 차지하며, 광대, 턱 및 입 부근이 잘 정합된 것을 확인할 수 있다.9 (d) by the facial image splicing method according to an embodiment of the present invention, it can be confirmed that the white portion having a distance difference occupies the most area, and the cheeks, jaw, and mouth areas are well matched. have.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, a software module executed by hardware, or a combination thereof. The software modules may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer readable recording medium well known in the art.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. The embodiments of the present invention have been described above with reference to the accompanying drawings, but a person skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing its technical spirit or essential features. You will understand. Therefore, it should be understood that the above-described embodiments are illustrative in all respects and not restrictive.

Claims (7)

컴퓨터가 의료영상데이터를 획득하는 단계;
획득된 상기 의료영상데이터에서 피부 표면을 분할하여 제1피부표면데이터를 획득하는 단계;
상기 컴퓨터가 촬영된 안면표면영상데이터에서 추출된 제2피부표면데이터를 획득하는 단계;
상기 컴퓨터가 제1피부표면데이터에 적응적 샘플링 적용하여 제1표면좌표데이터 수를 감소시키는 단계;
상기 컴퓨터가 상기 제1표면좌표데이터 수를 이용하여 상기 제1피부표면데이터를 상기 제2피부표면데이터에 표면 정합을 수행하는 단계를 포함하고,
상기 적응적 샘플링을 적용하는 것은,
제1피부표면데이터를 y축 기준으로 같은 y좌표의 제1표면좌표데이터를 각각 그룹화 하여 그룹별로 적응적 샘플링을 적용하는 것을 특징으로 하는,
안면 영상 정합 방법.
A computer obtaining medical image data;
Dividing the skin surface from the obtained medical image data to obtain first skin surface data;
Acquiring second skin surface data extracted from the facial surface image data photographed by the computer;
Reducing the number of first surface coordinate data by adaptive sampling by the computer to the first skin surface data;
And the computer performing surface registration of the first skin surface data to the second skin surface data using the number of first surface coordinate data.
Applying the adaptive sampling,
Characterized in that adaptive sampling is applied to each group by grouping the first surface coordinate data of the same y coordinate based on the first skin surface data on the y-axis.
How to match facial images.
제1항에 있어서,
상기 제1표면좌표데이터 수를 감소시키는 단계 이전에,
상기 제1피부표면데이터 및 상기 제2피부표면데이터 각각으로부터 동일한 위치에 하나 이상의 랜드마크 점을 추출하는 단계; 및
상기 제1피부표면데이터의 랜드마크 점의 중심점과 상기 제2피부표면데이터의 랜드마크 점의 중심점이 일치하도록 상기 제1피부표면데이터를 이동 변환하여 초기 정합을 수행하는 단계
를 더 포함하는, 안면 영상 정합 방법.
According to claim 1,
Before the step of reducing the number of first surface coordinate data,
Extracting one or more landmark points at the same location from each of the first skin surface data and the second skin surface data; And
Performing initial matching by moving and transforming the first skin surface data such that the center point of the landmark point of the first skin surface data matches the center point of the landmark point of the second skin surface data.
Further comprising, a facial image registration method.
제1항에 있어서,
상기 제1피부표면데이터를 획득하는 단계에서,
오츠 이진화를 적용하여 피부 영역을 선택하는 단계;
상기 오츠 이진화를 이용하여 선택된 영역이며 밝기 값이 미리 정해진 값 이상인 점을 씨앗점으로 선택하는 단계; 및
마스크 내부의 빈 공간을 홀 필링(holefiling) 방법으로 채워주되, 상기 마스크는 선택된 상기 씨앗점을 3차원 씨앗 영역 성장법에 적용함으로써 분할된 피부 영역인, 마스크 내부의 빈 공간을 채워주는 단계를 더 포함하는,
안면 영상 정합 방법.
According to claim 1,
In the step of obtaining the first skin surface data,
Selecting a skin region by applying oats binarization;
Selecting a seed point as a point selected by using Otsu binarization and having a brightness value equal to or greater than a predetermined value; And
Filling the empty space inside the mask by a hole-filing method, the mask further comprising filling the empty space inside the mask, which is a divided skin region, by applying the selected seed point to a 3D seed region growth method. Including,
How to match facial images.
제1항에 있어서,
상기 표면 정합을 수행하는 단계에서,
적응적 샘플링을 이용하여, 곡률이 작은 영역인 뺨, 이마, 광대 부분을 기준 영역(reference area)으로 사용하여 정합시키는 것을 특징으로 하는,
안면 영상 정합 방법.
According to claim 1,
In the step of performing the surface registration,
Using adaptive sampling, the cheek, forehead, and cheekbones, which are areas with a small curvature, are matched using a reference area.
How to match facial images.
제1항에 있어서,
상기 적응적 샘플링을 적용하는 것은,
미리 정해진 간격으로 떨어져 있는 미리 정해진 개수의 제1표면좌표데이터 간의 거리차를 확인하고 곡률을 계산하여 미리 정해진 곡률값 이하의 제1표면좌표데이터를 선택하는 단계; 및
선택된 상기 제1표면좌표데이터를 이용하여, 미리 정해진 간격으로 떨어져있는 제1표면좌표데이터를 이동 및 선택함으로써 각각의 곡률을 반영하는 단계를 포함하는,
안면 영상 정합 방법.
According to claim 1,
Applying the adaptive sampling,
Checking a distance difference between a predetermined number of first surface coordinate data spaced apart at predetermined intervals and calculating a curvature to select first surface coordinate data below a predetermined curvature value; And
Reflecting each curvature by moving and selecting the first surface coordinate data spaced apart at predetermined intervals using the selected first surface coordinate data,
How to match facial images.
제1항에 있어서,
상기 표면 정합을 수행하는 단계에서,
상기 제2피부표면데이터의 3차원 가우시안 마스크를 계산하는 단계;
상기 제2피부표면데이터의 제2표면좌표데이터에 대하여 계산된 상기 3차원 가우시안 마스크의 중심을 일치시키는 단계;
상기 마스크와 대응하는 주변부에 가우시안 가중치를 할당하는 단계;
상기 가우시안 가중치를 이용하여 제1표면좌표데이터 및 제2표면좌표데이터의 좌표 값에 대하여 가우시안 가중치 거리지도의 평균값을 계산하는 단계; 및
상기 가중치 거리지도의 평균값이 최대가 되는 위치를 추출하는 단계를 더 포함하는,
안면 영상 정합 방법.
According to claim 1,
In the step of performing the surface registration,
Calculating a three-dimensional Gaussian mask of the second skin surface data;
Matching the center of the three-dimensional Gaussian mask calculated with respect to the second surface coordinate data of the second skin surface data;
Assigning a Gaussian weight to a periphery corresponding to the mask;
Calculating an average value of a Gaussian weighted distance map with respect to the coordinate values of the first surface coordinate data and the second surface coordinate data using the Gaussian weights; And
Further comprising the step of extracting a location where the average value of the weighted distance map is the maximum,
How to match facial images.
하드웨어인 컴퓨터와 결합되어, 제1항 내지 제6항 중 어느 한 항의 방법을 실행시키기 위하여 매체에 저장된, 안면 영상 정합 프로그램.A facial image matching program stored in a medium to execute the method of any one of claims 1 to 6 in combination with a computer that is hardware.
KR1020180127577A 2018-10-24 2018-10-24 Method for facial image registration KR102097396B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180127577A KR102097396B1 (en) 2018-10-24 2018-10-24 Method for facial image registration

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180127577A KR102097396B1 (en) 2018-10-24 2018-10-24 Method for facial image registration

Publications (1)

Publication Number Publication Date
KR102097396B1 true KR102097396B1 (en) 2020-04-06

Family

ID=70281914

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180127577A KR102097396B1 (en) 2018-10-24 2018-10-24 Method for facial image registration

Country Status (1)

Country Link
KR (1) KR102097396B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101251822B1 (en) * 2011-11-18 2013-04-09 서울여자대학교 산학협력단 System and method for analysising perfusion in dynamic contrast-enhanced lung computed tomography images
KR20150088972A (en) 2014-01-24 2015-08-04 삼성전자주식회사 Method and appartus for registering medical images
JP2016154872A (en) * 2012-03-20 2016-09-01 カーパル エイド,リミティド ライアビリティ カンパニー Therapeutic device suitable for reducing pain associated with carpal tunnel syndrome by lifting skin above median nerve in patient's palm
JP2017046913A (en) * 2015-09-01 2017-03-09 日本写真印刷株式会社 Bio-information detection device, fabric product, method for manufacturing bio-information detection device, and method for manufacturing fabric product

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101251822B1 (en) * 2011-11-18 2013-04-09 서울여자대학교 산학협력단 System and method for analysising perfusion in dynamic contrast-enhanced lung computed tomography images
JP2016154872A (en) * 2012-03-20 2016-09-01 カーパル エイド,リミティド ライアビリティ カンパニー Therapeutic device suitable for reducing pain associated with carpal tunnel syndrome by lifting skin above median nerve in patient's palm
KR20150088972A (en) 2014-01-24 2015-08-04 삼성전자주식회사 Method and appartus for registering medical images
JP2017046913A (en) * 2015-09-01 2017-03-09 日本写真印刷株式会社 Bio-information detection device, fabric product, method for manufacturing bio-information detection device, and method for manufacturing fabric product

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
정소영, 김주진, 홍헬렌, "점 및 강화표면기반 영상정합을 이용한 안면부 CT 영상과 3 차원 카메라 영상 간 융합." 한국정보과학회 학술발표논문집 (2015): 1381-1383.* *

Similar Documents

Publication Publication Date Title
US10102639B2 (en) Building a three-dimensional composite scene
JP6685827B2 (en) Image processing apparatus, image processing method and program
CN110458830B (en) Image processing method, image processing apparatus, server, and storage medium
EP3655924B1 (en) Method and apparatus to generate and track standardized anatomical regions automatically
JP6368709B2 (en) Method for generating 3D body data
US11869182B2 (en) Systems and methods for segmentation and measurement of a skin abnormality
JP2001283224A (en) Face collating method, recording medium stored with the collating method and face collator
CN111488872B (en) Image detection method, image detection device, computer equipment and storage medium
JP5751865B2 (en) Face image processing device
US20180330496A1 (en) Generation Of Personalized Surface Data
US20170064284A1 (en) Producing three-dimensional representation based on images of a person
KR102652749B1 (en) Method and apparatus for determining mid-sagittal plane in magnetic resonance images
CN113538682B (en) Model training method, head reconstruction method, electronic device, and storage medium
JP5122650B2 (en) Path neighborhood rendering
JP7312026B2 (en) Image processing device, image processing method and program
KR102097396B1 (en) Method for facial image registration
JP2017122993A (en) Image processor, image processing method and program
US11928828B2 (en) Deformity-weighted registration of medical images
KR102007316B1 (en) Apparatus and method of producing three dimensional image of orbital prosthesis
JP7294702B2 (en) Image processing device, image processing method, and program
JP7276978B2 (en) Image processing device, image processing method, and program
US20230298174A1 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium
JP2023109739A (en) Image registration system and image registration method
CN117095177A (en) Kidney image positioning method and device and electronic equipment
CN113706443A (en) Image prediction method, device, equipment and readable storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant