KR20220085076A - A method of creating a shape for reconstruct the defectvie area of wound using artificial intelligence - Google Patents

A method of creating a shape for reconstruct the defectvie area of wound using artificial intelligence Download PDF

Info

Publication number
KR20220085076A
KR20220085076A KR1020200174235A KR20200174235A KR20220085076A KR 20220085076 A KR20220085076 A KR 20220085076A KR 1020200174235 A KR1020200174235 A KR 1020200174235A KR 20200174235 A KR20200174235 A KR 20200174235A KR 20220085076 A KR20220085076 A KR 20220085076A
Authority
KR
South Korea
Prior art keywords
data
affected area
axis
boundary
point
Prior art date
Application number
KR1020200174235A
Other languages
Korean (ko)
Other versions
KR102547776B1 (en
Inventor
유석환
Original Assignee
주식회사 로킷헬스케어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 로킷헬스케어 filed Critical 주식회사 로킷헬스케어
Priority to KR1020200174235A priority Critical patent/KR102547776B1/en
Publication of KR20220085076A publication Critical patent/KR20220085076A/en
Application granted granted Critical
Publication of KR102547776B1 publication Critical patent/KR102547776B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/10Hair or skin implants
    • A61F2/105Skin implants, e.g. artificial skin
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0064Body surface scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/445Evaluating skin irritation or skin trauma, e.g. rash, eczema, wound, bed sore
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L27/00Materials for grafts or prostheses or for coating grafts or prostheses
    • A61L27/50Materials characterised by their function or physical properties, e.g. injectable or lubricating compositions, shape-memory materials, surface modified materials
    • A61L27/60Materials for use in artificial skin
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C64/00Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
    • B29C64/30Auxiliary operations or equipment
    • B29C64/386Data acquisition or data processing for additive manufacturing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y40/00Auxiliary operations or equipment, e.g. for material handling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y50/00Data acquisition or data processing for additive manufacturing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y70/00Materials specially adapted for additive manufacturing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2240/00Manufacturing or designing of prostheses classified in groups A61F2/00 - A61F2/26 or A61F2/82 or A61F9/00 or A61F11/00 or subgroups thereof
    • A61F2240/001Designing or manufacturing processes
    • A61F2240/002Designing or making customized prostheses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2430/00Materials or treatment for tissue regeneration
    • A61L2430/34Materials or treatment for tissue regeneration for soft tissue reconstruction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Chemical & Material Sciences (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Materials Engineering (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Manufacturing & Machinery (AREA)
  • Dermatology (AREA)
  • Transplantation (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Epidemiology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Mechanical Engineering (AREA)
  • Cardiology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Vascular Medicine (AREA)
  • Robotics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Optics & Photonics (AREA)
  • Primary Health Care (AREA)
  • Medicinal Chemistry (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

본 명세서는 인공지능을 이용하여 3차원 곡면 형태의 환부의 덮개를 생성하는 방법을 개시한다. 본 명세서에 따른 인공지능을 이용하여 3차원 곡면 형태의 환부의 덮개를 생성하는 방법으로서, 환부 형상의 포인트 클라우드에서 환부 경계 내부의 포인트들을 제거한 후, 다항식 회귀분석을 통해 곡률 방정식을 산출하고, 이를 환부 덮개 포인트 클라우드로 생성한 후, 경계 포인트에 Mesh과정을 거쳐 환부 형상을 생성할 수 있다.The present specification discloses a method of generating a cover of the affected area in a three-dimensional curved shape using artificial intelligence. As a method of generating a cover of a three-dimensional curved affected part using artificial intelligence according to the present specification, after removing the points inside the affected part boundary from the point cloud of the affected part shape, the curvature equation is calculated through polynomial regression analysis, and this After creating the affected area as a point cloud, the shape of the affected area can be created through the mesh process at the boundary point.

Description

인공지능을 이용하여 환부의 결손부위를 재건하기 위한 형상 생성 방법{A METHOD OF CREATING A SHAPE FOR RECONSTRUCT THE DEFECTVIE AREA OF WOUND USING ARTIFICIAL INTELLIGENCE}A method of creating a shape to reconstruct a defect in the affected area using artificial intelligence

본 발명은 인공지능을 이용한 환부 덮개 생성 방법에 관한 것이며, 보다 상세하게는 인공지능을 이용하여 환부의 결손부위를 재건하기 위한 형상 생성 방법에 관한 것이다. The present invention relates to a method for generating a cover for an affected area using artificial intelligence, and more particularly, to a method for generating a shape for reconstructing a defect in an affected area using artificial intelligence.

이 부분에 기술된 내용은 단순히 본 명세서에 기재된 실시예에 대한 배경 정보를 제공할 뿐 반드시 종래 기술을 구성하는 것은 아니다.The content described in this section merely provides background information for the embodiments described herein and does not necessarily constitute prior art.

3D 프린팅(3D printing) 기술의 응용 및 발전 분야인 3D 바이오프린팅(bioprinting)은 3D 프린트 기술을 기반으로 하여, 콜라겐과 같은 세포외기질(Extracellular Matrix: 이하 ECM) 또는 이를 모방한 바이오 잉크(bio-ink)를 세포 및 다른 바이오 물질(biomaterials)와 결합하여 원하는 형태를 만드는 기술이다. 현재 3D 바이오프린팅은 원하는 목적과 생물학적 환경에 맞추어 다양한 방법이 개발되고 있으며, 이와 더불어 다양한 바이오 잉크 역시 연구되고 있다. 3D bioprinting, an application and development field of 3D printing technology, is based on 3D printing technology, and is based on an extracellular matrix (ECM) such as collagen or bio-ink (bio-ink) that mimics it. ink) is combined with cells and other biomaterials to create a desired shape. Currently, various methods for 3D bioprinting are being developed according to the desired purpose and biological environment, and various bio-inks are also being studied.

이러한 3D 바이오프린팅은 ECM 또는 바이오 잉크를 원하는 형태로 구성하고, ECM 또는 바이오 잉크에 필요한 세포를 배양하여 실제와 같은 기능을 갖는 생체 기관 또는 조직을 제작한다. 3D 바이오프린팅에서 가장 중요한 이슈 중 하나는 세포가 죽지 않고 지속적으로 기능할 수 있도록, 재료가 되는 세포 및 바이오 물질을 최대한 안정하게 보관하고 사용 가능하도록 하는 것이다.Such 3D bioprinting constructs ECM or bio-ink in a desired shape, and culturing cells necessary for ECM or bio-ink to produce a living organ or tissue having the same function as in reality. One of the most important issues in 3D bioprinting is to ensure that cells and biomaterials, which are materials, can be safely stored and used as much as possible so that cells can continue to function without dying.

이러한 3D 바이오프린팅에서 출력물의 품질을 좌우하는 중요한 요소 중 하나가 바로 출력물이 얼마나 환부에 일치하는지 이다. 이를 위해서는 환부의 입체 형상을 정확하게 촬영하고, 이를 3D 모델링하는 과정이 중요한 과정으로 취급되어야 한다.One of the important factors influencing the quality of prints in 3D bioprinting is how well the print matches the affected area. For this, the process of accurately photographing the three-dimensional shape of the affected area and 3D modeling it should be treated as an important process.

대한민국 등록특허공보 10-1828345 (2018.02.06)Republic of Korea Patent Publication  10-1828345 (2018.02.06)

본 명세서는 인공지능을 이용하여 3차원 곡면 형태의 환부의 덮개를 생성하는 방법을 제공하는 것을 목적으로 한다.An object of the present specification is to provide a method for generating a cover of a three-dimensional curved affected area using artificial intelligence.

본 명세서는 상기 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The present specification is not limited to the above-mentioned problems, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 명세서에 따른 환부 덮개 3D 데이터 생성 방법은 환부에 대한 3D 데이터를 이용하여 환부의 덮개를 생성하는 방법으로서, 프로세서가 (a) 전개된 환부에 대한 포인트 클라우드로 이루어진 3D 데이터를 저장하는 단계; (b) 상기 3D 데이터를 이루는 포인트 클라우드 중 환부의 경계를 기준으로 내부에 위치한 포인트 클라우드를 제거하는 단계; (c) 상기 3차원 좌표의 기준이 되는 3개의 축 중 제1 축을 기준으로 미리 설정된 간격에 따라 상기 3D 데이터를 나누는 단계; (d) 상기 (c) 단계에서 나누어진 3D 데이터(이하 '슬라이싱 3D 데이터')에 대해서 회귀분석을 통해 곡률 방정식을 산출하는 단계; (e) 슬라이싱 3D 데이터에 포함된 포이트 클라우드의 제1 축과 제2 축에 대한 좌표값을 상기 곡선 방정식에 대입하여 제3 축에 대한 좌표값(이하 '덮개 포인트 클라우드')을 산출하는 단계; 및 (f) 상기 덮개 포인트 클라우드 중 환부의 경계를 벗어난 포인트를 제거하고 상기 전개된 환부에 대한 포인트 클라우드와 결합하는 단계;를 포함할 수 있다.The 3D data generation method for the affected area cover according to the present specification for solving the above-mentioned problems is a method of generating a cover of the affected area using 3D data for the affected area, the processor (a) 3D consisting of a point cloud for the deployed affected area storing data; (b) removing the point cloud located inside based on the boundary of the affected part among the point clouds constituting the 3D data; (c) dividing the 3D data according to a preset interval based on a first axis among three axes serving as a reference of the three-dimensional coordinates; (d) calculating a curvature equation through regression analysis for the 3D data divided in step (c) (hereinafter, 'slicing 3D data'); (e) calculating the coordinate values for the third axis (hereinafter, 'cover point cloud') by substituting the coordinate values for the first and second axes of the point cloud included in the slicing 3D data into the curve equation; And (f) removing the point outside the boundary of the affected part of the cover point cloud and combining with the point cloud for the developed affected part; may include.

본 명세서의 일 실시예에 따르면, 상기 (a) 단계는, (a-1) 저장된 3D 데이터를 제1 축 및 제2 축에 대한 경사값을 산출하는 단계; (a-2) 산출된 경사값의 벡터 합을 산출하는 단계; 및 (a-3) 백터 합이 제2 축과 이루는 경사만큼 저장된 3D 데이터를 제2 축 방향으로 회전시키는 단계;를 더 포함할 수 있다.According to an embodiment of the present specification, the step (a) includes: (a-1) calculating inclination values for the first axis and the second axis from the stored 3D data; (a-2) calculating a vector sum of the calculated gradient values; and (a-3) rotating the stored 3D data in the second axis direction by the inclination that the vector sum makes with the second axis.

본 명세서의 일 실시예에 따르면, 상기 (c) 단계는, 3D 데이터를 이루는 포인트 클라우드의 평균 포인트 간격의 1/n 간격(n은 자연수)에 따라 상기 3D 데이터를 나누는 단계일 수 있다.According to an embodiment of the present specification, the step (c) may be a step of dividing the 3D data according to 1/n intervals (n is a natural number) of the average point interval of the point clouds constituting the 3D data.

본 명세서의 일 실시예에 따르면, 상기 환부 경계의 곡선 방정식은 2차 함수의 형태일 수 있다.According to an embodiment of the present specification, the curve equation of the affected part boundary may be in the form of a quadratic function.

본 명세서의 일 실시예에 따르면, (g) 상기 전개된 환부의 3D 데이터를 이루는 포인트 클라우드 중 경계 포인트들이 제 3축에 대해 가진 최대값을 산출하는 단계; (h) 상기 경계 포인트들의 제 3축에대한 값을 모두 상기 최대값으로 치환하는 단계; 및 (i) 상기 경계 포인트들의 제1 축 및 제2 축 방향으로 미리 설정된 오프셋만큼 확장한 지점까지 포인트 클라우드의 제3 축에 대한 값을 상기 최대값으로 채우고, 상기 오프셋 이후 지점부터 포인트 클라우드의 제3 축에 대한 값을 0으로 채우는 단계;를 더 포함할 수 있다.According to an embodiment of the present specification, (g) calculating the maximum value with respect to the third axis boundary points of the point cloud constituting the 3D data of the developed affected part; (h) substituting all the values for the third axis of the boundary points with the maximum value; and (i) filling the value of the third axis of the point cloud with the maximum value up to a point extended by a preset offset in the first and second axis directions of the boundary points, and starting from the point after the offset, the second value of the point cloud The method may further include a step of filling the values for the 3 axis with 0.

본 명세서에 따른 환부 덮개 3D 데이터 생성 방법은 컴퓨터에서 덮개 3D 데이터 생성 방법의 각 단계들을 수행하도록 작성되어 컴퓨터로 독출 가능한 기록 매체에 기록된 컴퓨터프로그램의 형태로 구현될 수 있다.The 3D data generating method for the cover 3D data on the affected area according to the present specification can be implemented in the form of a computer program recorded on a computer-readable recording medium written to perform each step of the method for generating cover 3D data.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

본 명세서에 따르면, 환부의 결손 부위를 채울 수 있는 환부 덥개용 3D 모델을 출력할 수 있다. 이를 통해, 환부의 추가 감염 및 완화가 가능하다.According to the present specification, it is possible to output a 3D model for covering the affected area that can fill the defective area of the affected area. Through this, further infection and relief of the affected area is possible.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 명세서에 따른 3D 환부 덮개를 생성하는 전체적인 흐름도이다.
도 2는 본 명세서에 따른 3D 환부 덮개의 생산 과정에 대한 보다 구체화된 흐름도이다.
도 3은 본 명세서의 일 실시예에 따른 환부 경계 인식을 위한 인공지능 학습 방법이다.
도 4는 본 명세서에 따른 환부 경계 인식을 위한 인공지능 학습 방법이다.
도 5는 환부 경계 인식을 위한 학습시 사용될 수 있는 기법의 참고도이다.
도 6은 본 명세서에 따른 인공지능 학습 방법에서 후처리의 참고도이다.
도 7은 본 명세서의 다른 실시예에 따른 환부 경계 인식 방법의 흐름도이다.
도 8은 본 명세서에 따른 환부 경계 인식 방법과 관련된 참고도이다.
도 9는 본 명세서의 또 다른 실시예에 따른 환부 경계 인식 방법의 참고도이다.
도 10은 환부 스캔 후 3D 모델링된 환부의 참고도이다.
도 11은 본 명세서의 일 실시예에 따른 환부 3D 데이터 전개 방법이다.
도 12는 곡선 방정식의 다양한 차수에 대한 참고도이다.
도 13은 환부 전개에 대한 참고도이다.
도 14는 본 명세서의 일 실시예에 따른 환부 3D 데이터 전개 방법이다.
도 15는 본 명세서의 일 실시예에 따른 환부 덮개 3D 데이터 생성 방법의 흐름도이다.
도 16은 환부 덮개 3D 데이터의 예시도이다.
도 17은 본 명세서의 다른 실시예에 따른 환부 덮개 3D 데이터 생성 방법의 흐름도이다.
1 is an overall flow diagram of creating a 3D lesion cover according to the present disclosure.
Figure 2 is a more detailed flow chart of the production process of the 3D wound cover according to the present specification.
3 is an artificial intelligence learning method for recognizing an affected area boundary according to an embodiment of the present specification.
4 is an artificial intelligence learning method for recognizing an affected area boundary according to the present specification.
5 is a reference diagram of a technique that can be used during learning for recognizing the border of the affected area.
6 is a reference diagram of post-processing in the artificial intelligence learning method according to the present specification.
7 is a flowchart of a method for recognizing an affected area boundary according to another embodiment of the present specification.
8 is a reference diagram related to a method for recognizing an affected area boundary according to the present specification.
9 is a reference diagram of a method for recognizing an affected area boundary according to another embodiment of the present specification.
10 is a reference view of the 3D modeled lesion after scanning the lesion.
11 is a 3D data development method of the affected part according to an embodiment of the present specification.
12 is a reference diagram for various orders of a curve equation.
13 is a reference diagram for the development of the affected area.
14 is a 3D data development method of the affected part according to an embodiment of the present specification.
15 is a flowchart of a 3D data generating method for the affected part cover according to an embodiment of the present specification.
16 is an exemplary view of 3D data of the affected area cover.
17 is a flowchart of a method for generating 3D data for an affected area cover according to another embodiment of the present specification.

본 명세서에 개시된 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 명세서가 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 명세서의 개시가 완전하도록 하고, 본 명세서가 속하는 기술 분야의 통상의 기술자(이하 '당업자')에게 본 명세서의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 명세서의 권리 범위는 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the invention disclosed herein, and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present specification is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments allow the disclosure of the present specification to be complete, and those of ordinary skill in the art to which this specification belongs. It is provided to fully inform those skilled in the art (hereinafter, 'those skilled in the art') the scope of the present specification, and the scope of the present specification is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 명세서의 권리 범위를 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the scope of the present specification. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components in addition to the stated components.

명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.Like reference numerals refer to like elements throughout, and "and/or" includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various elements, these elements are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first component mentioned below may be the second component within the spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 명세서가 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein will have the meaning commonly understood by those of ordinary skill in the art to which this specification belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓일 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다. 이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Spatially relative terms "below", "beneath", "lower", "above", "upper", etc. It can be used to easily describe the correlation between a component and other components. Spatially relative terms should be understood as terms including different directions of components during use or operation in addition to the directions shown in the drawings. For example, when a component shown in a drawing is turned over, a component described as "beneath" or "beneath" of another component may be placed "above" of the other component. can Accordingly, the exemplary term “below” may include both directions below and above. Components may also be oriented in other orientations, and thus spatially relative terms may be interpreted according to orientation. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 명세서에 따른 3D 환부 덮개를 생성하는 전체적인 흐름도이다.1 is an overall flow diagram of creating a 3D lesion cover according to the present disclosure.

도 1을 참조하면, 병원에서 환자의 환부를 촬영하고, 촬영 자료가 서버를 통해 3D 환부 덮개 생산자에게 전달된다. 생산자는 환부를 촬영한 3D 데이터를 이용하여 환부에 알맞는 3D 환부 덮개를 생산한다.Referring to FIG. 1 , the patient's affected area is photographed in the hospital, and the photographed data is transmitted to the 3D affected area cover producer through the server. The producer uses 3D data taken of the affected area to produce a 3D cover for the affected area.

도 2는 본 명세서에 따른 3D 환부 덮개의 생산 과정에 대한 보다 구체화된 흐름도이다.Figure 2 is a more detailed flow chart of the production process of the 3D wound cover according to the present specification.

도 2를 참조하면, 먼저 환부를 촬영한다. 상기 촬영은 3D 모델을 생성하기 위한 목적이므로, 3D 스캐너 또는 RGB-D 카메라와 같이 3D 데이터를 생성할 수 있는 장치를 이용하여 환부를 촬영할 수 있다.Referring to FIG. 2 , the affected area is first photographed. Since the photographing is for the purpose of generating a 3D model, the affected area may be photographed using a device capable of generating 3D data, such as a 3D scanner or an RGB-D camera.

다음으로, 촬영된 이미지 내에서 환부 영역의 경계를 인식하는 과정이 필요하다. 당뇨병 환자의 발은 피부 표면에서 내부를 향하여 괴사가 진행되는 경우가 있다. 이러한 당뇨성 족부 괴사가 일어난 환부를 메꾸는 3D 환부 덮개를 생산하기 위함이므로, 환부의 경계를 정확하게 인식하는 작업이 필요하다.Next, a process of recognizing the boundary of the affected area within the photographed image is required. In diabetic patients, necrosis may progress from the skin surface to the inside. In order to produce a 3D affected area cover that fills the affected area with diabetic foot necrosis, it is necessary to accurately recognize the boundary of the affected area.

다음으로, 촬영 이미지를 3D 데이터로 변환한다. 이때, 변환된 3D 데이터에는 앞서 확인된 환부의 경계에 대한 데이터도 함께 포함될 수 있다.Next, the captured image is converted into 3D data. In this case, the converted 3D data may also include data on the boundary of the previously identified affected area.

다음으로, 환부 영역에 대해서만 3D 모델을 생성한다. 환부 3D 모델은 각각의 점에 대한 3차원 좌표로 표현된 포인트 클라우드(Point Cloud) 데이터로 이루어질 수 있다.Next, a 3D model is created only for the affected area. The 3D model of the affected part may consist of point cloud data expressed as three-dimensional coordinates for each point.

다음으로, 환부 3D 모델을 이용하여 환부 덮개용 3D 모델을 생성할 수 있다. 환부 덮개용 3D 모델은 환부를 메꾸는 형상이므로, 환부 3D 모델과 환부 덮개용 3D 모델은 상호 대응하는 형상을 가지고 있다.Next, using the 3D model of the affected area, it is possible to generate a 3D model for the cover of the affected area. Since the 3D model for the cover of the affected area is a shape that fills the affected area, the 3D model for the affected area and the 3D model for the cover of the affected area have a shape corresponding to each other.

다음으로, 3D 바이오 프린터가 환부 덮개용 3D 모델을 이용하여 바이오 생체 소재로 환부 덮개를 출력한다. 환부 덮개는 환부에 부착되어 괴사한 부위가 새 조직으로 채울 수 있도록 도움을 준다.Next, the 3D bio-printer uses the 3D model for the cover for the affected area to output the cover for the affected area as a bio-material. The lesion cover is attached to the lesion to help fill the necrotic area with new tissue.

한편, 본 명세서에서는 당뇨성 족부 괴사를 예시로 본 발명에 대한 상세한 설명은 진행하겠다. 그러나 본 명세서에 기재된 발명인 당뇨성 족부 괴사에만 적용되는 기술은 아니며, 본 명세서에 기재된 예시에 의해 본 발명의 권리범위가 제한되는 것은 아니다. 이하에서, 각 단계에 대한 보다 자세한 설명을 하겠다.On the other hand, in this specification, the detailed description of the present invention will proceed with diabetic foot necrosis as an example. However, the invention described herein is not a technology applied only to diabetic foot necrosis, and the scope of the present invention is not limited by the examples described herein. Hereinafter, each step will be described in more detail.

[환부 경계 인식][Recognition of the border of the affected area]

환부를 촬영한 이미지에서는 환부와 환부 이외 부분이 함께 촬영된다. 이때, 환부와 환부 이외 부분을 정확하게 구분하기 위해, 환부의 경계에 대한 인식이 필요하다. 환부 경계를 인식시키기 위한 방법으로서, 사람이 직접 환부 경계를 설정하는 방법, 인공지능 학습을 통해 자동으로 경계를 인식시키는 방법, 3D 데이터를 이용하여 경계를 계산하는 방법이 있을 수 있다. 이 중에서 사람이 직접 환부의 경계를 설정하는 방법은, 의사와 같은 전문가가 마우스, 터치펜과 같은 장비를 이용하여 경계 정보를 입력하는 방식이다. 따라서, 사람이 직접 환부 경계를 설정하는 방법을 제외한 나머지 방법에 대해서 보다 자세히 설명하겠다.In the image obtained by photographing the affected area, the affected area and parts other than the affected area are photographed together. At this time, in order to accurately distinguish the affected area from the non-affected area, it is necessary to recognize the boundary of the affected area. As a method for recognizing the border of the affected area, there may be a method in which a person sets the border of the affected area, a method of automatically recognizing the border through artificial intelligence learning, and a method of calculating the border using 3D data. Among them, the method of setting the boundary of the affected part by a person is a method in which an expert such as a doctor inputs boundary information using equipment such as a mouse and a touch pen. Therefore, I will explain in more detail the remaining methods except for the method of setting the border of the affected area by a person.

<인공지능 학습을 통한 환부 경계 인식><Recognition of affected area through artificial intelligence learning>

도 3은 본 명세서의 일 실시예에 따른 환부 경계 인식을 위한 인공지능 학습 방법이다.3 is an artificial intelligence learning method for recognizing an affected area boundary according to an embodiment of the present specification.

도 3을 참조하면, 본 명세서에 따른 인공지능 학습 방법의 개략적인 흐름을 확인할 수 있다. RGB-D 카메라를 이용하여 촬영한 다양한 환자의 환부를 학습용 이미지로 준비한다. 학습학습용 이미지를 이용하여 딥러닝과 같은 인공신경망을 학습시키고, 학습된 인공신경망이 1차적으로 환부의 경계를 인식한 결과물을 출력하게 한다. 이때 1차적으로 인식한 환부의 경계에는 에러를 포함할 수 있다. 이러한 에러는 의사와 같은 전문가에 의해 수정되고, 최종 경계로 인식된 자료를 다시 학습 이미지로 활용하여 강화 학습이 이루어질 수 있다.Referring to FIG. 3 , a schematic flow of an artificial intelligence learning method according to the present specification can be confirmed. Prepare images for learning of various patient's affected areas taken using RGB-D cameras. An artificial neural network such as deep learning is trained using an image for learning and learning, and the learned artificial neural network outputs the result of recognizing the boundary of the affected part first. In this case, the boundary of the primarily recognized affected area may include an error. These errors are corrected by an expert such as a doctor, and reinforcement learning can be performed by using the data recognized as the final boundary again as a learning image.

이러한 지도 학습 또는 지도 강화 학습은 학습용 데이터가 많을 수록 인공신경망을 성능이 향상될 수 있다. 그러나 수천만개의 이미지 데이터를 손쉽게 구할 수 있는 일반 사물 인식과는 달리, 환부 이미지 데이터는 많은 양의 이미지 데이터(RGB-D 이미지 데이터)를 확보하는 것이 매우 어렵다. 예를 들어, 당뇨성 족부 괴사 환부 이미지 데이터의 경우 환자별로 환부의 상태가 매우 상이하며, 공개되어 있는 가장 큰 규모의 데이터 세트마저도 약 2,000~4,000개 정도에 불과하다. 따라서, 본 명세서에 따른 인공지능 학습 방법은 적은 양의 학습 이미지를 이용하여 보다 효과적인 학습이 이루어질 수 있는 방법을 제시한다.In such supervised learning or supervised reinforcement learning, the performance of an artificial neural network can be improved as there is more data for learning. However, unlike general object recognition that can easily obtain tens of millions of image data, it is very difficult to secure a large amount of image data (RGB-D image data) for image data of the affected area. For example, in the case of diabetic foot necrosis image data, the condition of the affected area is very different for each patient, and even the largest open data set is only about 2,000 to 4,000. Therefore, the artificial intelligence learning method according to the present specification suggests a method in which more effective learning can be achieved using a small amount of learning images.

도 4는 본 명세서에 따른 환부 경계 인식을 위한 인공지능 학습 방법이다.4 is an artificial intelligence learning method for recognizing an affected area boundary according to the present specification.

도 4를 참조하면, 먼저 단계 S10에서 복수의 환부 이미지 데이터를 저장할 수 있다. 상기 환부 이미지 데이터는 2D 이미지 데이터일 수 있고, 또는 3D 이미지 데이터일 수도 있다.Referring to Figure 4, it is possible to store a plurality of image data of the affected area first in step S10. The affected part image data may be 2D image data, or 3D image data.

다음 단계 S11에서 각 환부 이미지 데이터를 전처리(pre-processing)할 수 있다. 상기 전처리의 예시로서 측정 정보 분리 또는 데이터 증강 기법이 포함될 수 있다.In the next step S11, each affected part image data may be pre-processed (pre-processing). As an example of the pre-processing, measurement information separation or data augmentation techniques may be included.

측정 정보 분리란, 환부의 크기를 판단하는데 필요한 정보를 환부 이미지 데이터에서 분리하는 것을 의미한다. 병원에서 환부를 촬영하는 경우, 환부의 크기를 알 수 있도록 자(ruler) 또는 마커(marker)를 환부와 함께 촬영하는 경우가 다수 존재한다. 이러한 정보는 이미지 데이터 내 환부의 크기를 판단하는데 도움을 주지만, 환부의 경계를 판단하는 것에는 큰 도움을 주지 못한다. 따라서, 환부 이미지 데이터에서 측정 도구와 관련된 영역을 자르고 남은 영역만 학습용 이미지 데이터로 사용할 수 있다. 이때, 잘려진 측정 도구 영역은 환부의 크기 판단을 위한 측정 정보(예, 사진상 1cm에 해당하는 픽셀 숫자가 1000개인 경우, 0.001로 기록)로 별도로 저장될 수 있다.Separation of measurement information means separating the information necessary to determine the size of the affected area from the affected area image data. In the case of photographing the affected area in a hospital, there are many cases where a ruler or a marker is photographed together with the affected area to know the size of the affected area. Such information helps to determine the size of the lesion in the image data, but does not help much in determining the boundaries of the lesion. Therefore, only the area remaining after cutting the area related to the measurement tool from the image data of the affected area can be used as image data for training. At this time, the cut measuring tool area may be separately stored as measurement information for determining the size of the affected part (eg, if the number of pixels corresponding to 1 cm in the photo is 1000, record as 0.001).

데이터 증강 기법(Data augmentation )이란, 제한된 데이터를 학습용 데이터로 증가시키는 방법을 의미한다. 데이터 증강 기법으로서 Color randomization, Adjust image intensity value, enhanced contrast using histogram equalization, contrast-limited adaptive histogram equalization, Blurring(Gaussian/Median), Affine transformation, Brightness randomization 등이 사용될 수 있다.Data augmentation refers to a method of increasing limited data to training data. Color randomization, Adjust image intensity value, enhanced contrast using histogram equalization, contrast-limited adaptive histogram equalization, Blurring (Gaussian/Median), Affine transformation, Brightness randomization, etc. may be used as data augmentation techniques.

다음 단계 S12에서 학습 이미지 데이터를 이용하여 인공신경망을 학습 시킬 수 있다. 본 명세서에 따른 인공지능 학습 방법은 환부 경계 인식을 위한 것이므로, 분류(Classification)에 특화된 Faster R-CNN 네트워크에 기반하여 인공신경망이 구성될 수 있다. 그러나 환부 주변에 바운딩 박스(bounding box)를 표시해주는 수준에서 더 나아가, 복잡한 환부 경계를 정확히 인식하기 위하여 RoI Align, Mask R-CNN, Feature Pyramid Network, TTA & Model ensemble 기법들을 추가/변경하여 사용할 수 있다.In the next step S12, the artificial neural network can be trained using the training image data. Since the artificial intelligence learning method according to the present specification is for recognizing an affected part boundary, an artificial neural network may be configured based on a Faster R-CNN network specialized for classification. However, going beyond the level of displaying a bounding box around the affected area, RoI Align, Mask R-CNN, Feature Pyramid Network, TTA & Model ensemble techniques can be added/changed to accurately recognize the complex area boundary. have.

도 5는 환부 경계 인식을 위한 학습시 사용될 수 있는 기법의 참고도이다.5 is a reference diagram of a technique that can be used during learning for recognizing the border of the affected area.

도 5의 (a)를 참조하면, 기존 Faster R-CNN의 RoI pooling 방식은 CNN 네트워크를 통해 크기가 작아지는 feature map 상에서 소수점 아래 자리를 버리고 정수로 계산하면서 인식된 사물의 영역이 misalign 되는 문제가 있다. 본 명세서에 따른 인공지능 학습 방법은 정밀한 segmentation을 위하여 bilinear interpolation을 활용하여 소수점 단위로 작아진 feature map 상에서도 정확한 사물 영역을 인식할 수 있다.Referring to Figure 5 (a), the RoI pooling method of the existing Faster R-CNN is a problem that the area of the object recognized while discarding the decimal point on the feature map that is reduced in size through the CNN network and calculating it as an integer is misaligned. have. The artificial intelligence learning method according to the present specification can recognize an accurate object region even on a feature map reduced to a decimal unit by using bilinear interpolation for precise segmentation.

도 5의 (b)를 참조하면, Object classification 및 detection 성능이 좋은 Faster R-CNN을 활용하면서 환부의 상세한 테두리를 segmentation 하는 작업에도 활용하기 위하여 별도의 Mask 네트워크를 추가한 Mask R-CNN 구조를 활용할 수 있다. 본 명세서에 따른 인공지능 학습 방법은 Classification을 수행하고 사물 주위로 Bounding box를 생성하는 Faster R-CNN을 그대로 유지하고, 별도로 Mask 네트워크 branch를 구성할 수 있다.Referring to Figure 5 (b), while utilizing Faster R-CNN with good object classification and detection performance, a Mask R-CNN structure with a separate Mask network is added to be used for segmentation of the detailed edges of the affected area. can The AI learning method according to the present specification performs classification and maintains Faster R-CNN that generates a bounding box around an object as it is, and can configure a mask network branch separately.

도 5의 (c)를 참조하면, 한 장의 이미지에서 환부가 어떤 크기로 존재할지 예측하기 힘들며, 어떤 경우에는 사진 전체에 환부를 클로즈업되어 있기도 하고, 어떤 경우에는 멀리서 촬영하여 환부가 매우 작게 나타나기도 한다. 이와 같은 이유로 인하여 결과적인 feature map의 크기가 원본 사진에 비해 작아지는 CNN 네트워크 구조는 작은 환부를 인식하는데 어려움을 주기 쉽다. 따라서, 본 명세서에 따른 인공지능 학습 방법은 feature map을 다양한 크기고 up-sampling 해서 feature를 추출하는 feature pyramid network 기법을 활용할 수 있다.Referring to (c) of Figure 5, it is difficult to predict what size the affected area will exist in one image, and in some cases, the entire picture is close-up, and in some cases, the affected area appears very small by shooting from a distance. do. For this reason, the CNN network structure in which the size of the resulting feature map becomes smaller than that of the original photo is likely to give difficulty in recognizing small affected areas. Therefore, the artificial intelligence learning method according to the present specification can utilize the feature pyramid network technique for extracting features by up-sampling feature maps of various sizes.

도 5의 (d)를 참조하면, 앞서 학습된 모델을 이용하여 새로운 환부 사진에 대해 prediction을 수행할 경우, 새로 촬영한 사진의 각도, 방향, 크기 등에 따라 같은 환부에 대해서도 서로 다른 결과가 나타날 수 있다. 이를 방지하기 위하여 본 명세서에 따른 인공지능 학습 방법은 학습 이미지를 모델에 입력하기에 앞서 이미지의 각도, 방향, 크기레 다양하게 변화를 주어 각각의 이미지를 인공신경망에 입력하여 예측을 수행한다. Soft NMS를 통해 모든 결과를 통합하여 최종 prediction 결과를 얻을 수 있다.Referring to (d) of FIG. 5 , when prediction is performed on a new picture of an affected area using the previously trained model, different results may appear even for the same affected area depending on the angle, direction, size, etc. of the newly taken picture. have. In order to prevent this, the artificial intelligence learning method according to the present specification performs prediction by inputting each image into an artificial neural network by variously changing the angle, direction, and size of the image before inputting the learning image to the model. All results can be integrated through Soft NMS to obtain the final prediction result.

도 5의 (e)를 참조하면, Faster R-CNN에도 다양한 variant가 존재한다. 본 명세서에 따른 인공지능 학습 방법은 대표적인 variant 3가지(Cascade R-CNN, Deformable Convolution v2, Prime Sample Attention)를 활용하여 별도의 학습을 진행한 후, weighted boxes fusion 기법을 통해 최종 예측 결과를 도출할 수 있다.Referring to FIG. 5(e), various variants exist also in Faster R-CNN. The artificial intelligence learning method according to the present specification performs separate learning using three representative variants (Cascade R-CNN, Deformable Convolution v2, Prime Sample Attention), and then the final prediction result is derived through the weighted boxes fusion technique. can

한편, 상기 도 5를 참조하여 설명된 학습 방법은 모두 예시에 한하며, 본 명세서에 따른 인공지능 학습 방법이 상기 예시에 제한되는 것은 아니다.Meanwhile, all of the learning methods described with reference to FIG. 5 are limited to examples, and the artificial intelligence learning method according to the present specification is not limited to the examples.

다시 도 4를 참조하면, 단계 S13에서 인공 신경망이 출력한 결과물에 대한 후처리가 이루어 질 수 있다. 상기 후처리는 인공 신경망이 인식한 환부 경계를 보다 부드러운 곡선으로 연결하는 작업이 될 수 있다.Referring back to FIG. 4 , post-processing may be performed on the result output by the artificial neural network in step S13. The post-processing may be an operation of connecting the boundary of the affected part recognized by the artificial neural network with a smoother curve.

도 6은 본 명세서에 따른 인공지능 학습 방법에서 후처리의 참고도이다.6 is a reference diagram of post-processing in the artificial intelligence learning method according to the present specification.

도 6을 참조하면, segmentation 인식 결과로부터 윤곽(contour)을 인식할 수 있다(a). 그리고 Douglas-Peucker algorithm을 사용하여 윤곽을 구성할 수 있는 최소한의 꼭지점(vertex point)를 추출할 수 있다(b). 추출된 모든 꼭지점들을 Catmull-Rom spline 알고리즘으로 연결하여 날카로운 부분이 없은 부드러운 곡선으로 연결할 수 있다(c). 이때, 사람이 직접 꼭지점들을 이동시킬 수도 있다.Referring to FIG. 6 , a contour may be recognized from the segmentation recognition result (a). And using the Douglas-Peucker algorithm, it is possible to extract the minimum number of vertices that can form a contour (b). All extracted vertices can be connected to a smooth curve without sharp parts by connecting them with the Catmull-Rom spline algorithm (c). In this case, a person may directly move the vertices.

또한, 대부분의 환부 사진 데이터셋은 온전한 환부만을 담고 있는 경우가 대부분이다. 그러나, 실제 수술시에는 빈번히 debridement 라고 하는 손상 또는 감염된 조직을 제거하는 작업을 진행하며 이로 인하여 출혈이 발생하게 된다. 이와 같은 출혈은 머신러닝 알고리즘으로 환부 테두리를 예측하는 데에 있어 부정확한 결과를 낳기 쉬우며, 이를 보정하기 위하여 다음의 후처리를 수행할 수 있다. 출혈 영역 인식은 CIELAB 색공간과 CMYK 색공간에 서로 다른 weight를 주어 조합하면 출혈 영역을 측정할 수 있다. (A(x,y): CIELAB의 A채널, M(x,y): CMYK의 M채널)In addition, most of the affected part photo datasets contain only the intact affected part. However, during actual surgery, an operation called debridement is frequently performed to remove damaged or infected tissue, which leads to bleeding. Such bleeding is easy to produce inaccurate results in predicting the rim of the affected area with a machine learning algorithm, and the following post-processing can be performed to correct this. Bleeding area recognition can measure the bleeding area by giving different weights to the CIELAB color space and the CMYK color space and combining them. (A(x,y): A channel of CIELAB, M(x,y): M channel of CMYK)

Figure pat00001
Figure pat00001

출혈 영역에 edge detection을 수행하여 경계를 추출하고, 환부 경계와 출혈영역 경계가 분기하는 지점을 찾는다. 환부경계에 대한 gradient를 계산하고, 해당 지점 주변의 gradient에 따라 Polynomial regression 곡률 방정식의 계수 행렬을 구할 수 있다. 곡률 방정식을 대입하여 해당 구간에 대한 환부 경계를 수정할 수 있다.Edge detection is performed on the bleeding area to extract the boundary, and the point where the boundary of the affected area and the boundary of the bleeding area diverge is found. The gradient for the affected area can be calculated, and the coefficient matrix of the polynomial regression curvature equation can be obtained according to the gradient around the point. By substituting the curvature equation, the affected area boundary for the corresponding section can be modified.

상술된 본 명세서에 따른 인공지능 학습 방법을 통해 훈련된 인공신경망을 통해 환부를 촬영한 이미지에서는 환부의 경계를 인식할 수 있다.The boundary of the affected area can be recognized in the image taken through the artificial neural network trained through the artificial intelligence learning method according to the present specification described above.

<환부의 중심점을 이용한 환부 경계 인식><Recognition of the border of the affected area using the center point of the affected area>

앞서 설명한 인공지능을 통한 환부 경계를 인식하는 방법은 환부의 이미지에서 RGB 데이터만을 이용한 방법이라고 할 수 있다. 그러나 상기 환부를 촬영한 이미지 데이터는 RGB-D 데이터일 수 있는바, 환부의 깊이 정보를 활용하여 환부의 경계를 인식하는 방법을 설명하겠다. 이하에서 설명될 방법은 환부의 경계에서 피부와 환부의 경사가 급격하게 변화하는 특성을 이용한 방법이다.The method of recognizing the border of the affected area through artificial intelligence described above can be said to be a method using only RGB data in the image of the affected area. However, since the image data taken from the affected area may be RGB-D data, a method for recognizing the boundary of the affected area will be described using the depth information of the affected area. The method to be described below is a method using the characteristic that the inclination of the skin and the affected area changes rapidly at the boundary of the affected area.

도 7은 본 명세서의 다른 실시예에 따른 환부 경계 인식 방법의 흐름도이다.7 is a flowchart of a method for recognizing an affected area boundary according to another embodiment of the present specification.

도 8은 본 명세서에 따른 환부 경계 인식 방법과 관련된 참고도이다.8 is a reference diagram related to a method for recognizing an affected area boundary according to the present specification.

도 7을 참조하면, 먼저 단계 S20에서 환부를 촬영한 3D 이미지 데이터를 저장할 수 있다. 상기 3D 이미지 데이터에 대해서는 앞서 설명하였으므로 반복적인 설명은 생략한다.Referring to FIG. 7 , it is possible to store 3D image data captured by the affected part in step S20 first. Since the 3D image data has been described above, a repetitive description will be omitted.

다음 단계 S21에서 상기 이미지 데이터에서 환부의 내부에 위치한 한 점을 기준점으로 설정할 수 있다. 상기 기준점은 이후 환부 경계를 판단하기 위한 연산에 사용되는 좌표로서, 환부의 중심에 가까울 수록 바람직한 기준점이 될 수 있다.In the next step S21, a point located inside the affected part in the image data may be set as a reference point. The reference point is a coordinate used for calculations to determine the boundary of the affected area, and the closer to the center of the affected area, the more preferable the reference point.

일 예로, 환부의 경계가 아직 어디 인지 모르는 상황에서 사용자가 입력한 좌표를 기준점으로 설정할 수 있다. 사용자는 3D 이미지 데이터를 디스플레이를 통해 확인하며 환부의 테두리가 가장 많이 보이도록 회전시킬 수 있다. 그리고 사용자는 환부의 경계 안쪽 임의의 부위 바람직하게 중심 부위를 마우스로 클릭하여 선택할 수 있다.For example, in a situation where the boundary of the affected part is not yet known, the coordinates input by the user may be set as the reference point. The user can check the 3D image data through the display and rotate it so that the border of the affected area is visible the most. In addition, the user can select an arbitrary region within the boundary of the affected part, preferably by clicking the central region with a mouse.

다음 단계 S22에서 상기 기준점(O)을 중심으로 미리 설정된 반경에 포함된 포인트 클라우드들 형성된 삼각형의 평균 법선을 산출할 수 있다(도 8의 (a) 참조). 3D 이미지 데이터는 3차원 좌표상에 점들에 대한 데이터로 표현될 수 있다. 이 3차원 좌표상의 점들을 포인트 클라우드(Point Cloud)라 하고, 3개의 점들로 이루어진 삼각형들을 본 명세서에서는 '3D 삼각면'이라 명명하겠다. 상기 3D 삼각면은 입체 형상을 구성하는 가장 작은 단위의 면에 해당한다. 상기 미리 설정된 반경은 환부 및 환부 경계를 넘어서 정상 피부표면까지 모두 포함할 수 있도록 충분히 크게 설정되는 것이 바람직하다. 각 3D 삼각면의 법선 벡터를 산출하는 것과, 산출된 법선 벡터를 이용하여 평균 법선 벡터를 산출하는 것은 당업자에게 알려져 있으므로 상세한 설명은 생략한다.In the next step S22, an average normal of a triangle formed by point clouds included in a preset radius around the reference point O may be calculated (refer to (a) of FIG. 8). 3D image data may be expressed as data about points on three-dimensional coordinates. Points on these three-dimensional coordinates will be referred to as a point cloud, and triangles made of three points will be referred to as '3D triangular surfaces' in this specification. The 3D triangular plane corresponds to a plane of the smallest unit constituting a three-dimensional shape. The preset radius is preferably set large enough to include both the affected area and the normal skin surface beyond the affected area boundary. Calculating the normal vector of each 3D triangular plane and calculating the average normal vector using the calculated normal vector are known to those skilled in the art, and thus detailed descriptions thereof will be omitted.

이렇게 산출된 평균 법선은 환부 전 영역에 수직하는 축이 될 수 있다. 즉, 환부 전 영역을 가장 잘 나타낼 수 있는 중심 축이 될 수 있다. 따라서, 다음 단계 S23에서 상기 평균 법선과 상기 법선에 수직하는 제1 축을 포함하는 평면을 설정할 수 있다. 바람직하게, 상기 3D 이미지 데이터는 상기 평균 법선이 Z축과 일치하도록 회전될 수 있다. 이 경우, 상기 법선은 Z축이고, 상기 제1 축은 X축이고, 상기 평면은 XZ평면이 될 수 있다(도 8의 (b) 참조). The calculated average normal may be an axis perpendicular to the entire affected area. That is, it can be the central axis that can best represent the entire affected area. Accordingly, in the next step S23, a plane including the average normal and a first axis perpendicular to the normal may be set. Preferably, the 3D image data may be rotated so that the average normal coincides with the Z-axis. In this case, the normal line may be the Z axis, the first axis may be the X axis, and the plane may be the XZ plane (refer to FIG. 8(b) ).

다음 단계 S24에서 상기 (XZ)평면과 상기 각 3D 삼각면과의 교차점을 산출하고, 상기 교차점을 이용하여 각 3D 삼각면의 기울기를 산출할 수 있다(도 8의 (c) 참조).In the next step S24, an intersection point of the (XZ) plane and each 3D triangular plane may be calculated, and the slope of each 3D triangular plane may be calculated using the intersection point (refer to FIG. 8(c) ).

다음 단계 S25에서 상기 기준점으로부터 멀어지는 방향으로 인접한 3D 삼각면의 기울기 변화량을 산출할 수 있다.In the next step S25, the amount of inclination change of the adjacent 3D triangular plane in a direction away from the reference point may be calculated.

다음 단계 S26에서 두 가지 기준을 통해 환부 경계로 예상되는 후보를 선택할 수 있다. 우선, 상기 산출된 기울기 변화량들 중 미리 설정된 기준 기울기 변화량값 이하인 유지되는 기울기 변화량들과 관계된 3D 삼각면들을 선택한다. 즉, 기울기의 변화가 급격하지 않은 3D 삼각면들을 선택한다. 그리고 선택된 3D 삼각면들 중 서로 연결된 3D 삼각면들을 연결한 길이가 미리 설정된 기준 길이값 이상으로 유지되는지 여부를 판단한다. 즉, 기울기의 변화 없이 일정 길이 이상 유지되는지 여부이다. 일정 이상 길이가 될 경우, 각 길이의 시작점을 후보 리스트로 저장한다. In the next step S26, it is possible to select a candidate expected to be the borderline of the affected area through two criteria. First, 3D triangular planes related to inclination changes that are maintained less than or equal to a preset reference inclination change value are selected from among the calculated inclination changes. That is, 3D triangular surfaces in which the change in inclination is not abrupt is selected. Then, it is determined whether a length of connecting 3D triangular faces connected to each other among the selected 3D triangular faces is maintained over a preset reference length value. That is, it is whether or not the predetermined length is maintained without a change in the slope. When the length is longer than a certain length, the starting point of each length is stored as a candidate list.

환부의 내부에는 괴사에 따라 울퉁불퉁한 표면이 형성될 것이고, 환부 경계에서는 기울기가 급격하게 변화할 것이다. 또한, 환부의 경계 바깥 영역 즉, 정상 피부는 기울기 변화가 거의 없을 것이다. 따라서, 기울기 변화가 별로 없는 상태가 일정 길이 이상 유지되는 곳의 시작이라면, 환부의 경계에서 정상 피부로 이어지는 시작점이 될 수 있다. 따라서, 이 시작점들을 후보 리스트로 저장하는 것이다.An uneven surface will be formed according to necrosis inside the affected area, and the slope will change rapidly at the boundary of the affected area. In addition, the area outside the boundary of the affected area, that is, normal skin, will have little change in slope. Therefore, if the state in which there is not much gradient change is the beginning of a place where a certain length is maintained, it can be a starting point leading to normal skin at the boundary of the affected area. Therefore, these starting points are stored as a candidate list.

다음 단계 S27에서 상기 단계 S23에서 설정된 (XZ)평면을 상기 평균 법선(Z축)을 회전축으로 하여 미리 설정된 각도로 회전시킬 수 있다. 그리고 회전된 (XZ)평면과 만나는 새로운 3D 삼각면에 대해서 단계 S24 내지 단계 S27을 반복하면서 후보 리스트를 축적할 수 있다.In the next step S27, the (XZ) plane set in the step S23 may be rotated at a preset angle using the average normal (Z axis) as a rotation axis. In addition, the candidate list may be accumulated while repeating steps S24 to S27 for a new 3D triangular plane that meets the rotated (XZ) plane.

일 예시에 따르면, 상기 (XZ)평면은 시계방향으로 0.1도씩 회전될 수 있다. 따라서 시작점은 0도라고 가정할 때, 후보 리스트는 0~3599번 축적될 수 있다. 상기 과정을 반복하면서 최초 시작지점인 0도에 도달할 때(단계 S28의 'YES'), 3D 이미지 데이터에 포함된 모든 3D 삼각면에 대한 연산이 완료될 수 있다.According to an example, the (XZ) plane may be rotated by 0.1 degree clockwise. Therefore, assuming that the starting point is 0 degrees, the candidate list can be accumulated 0 to 3599 times. When the initial starting point of 0 degrees is reached while repeating the above process ('YES' in step S28), calculations for all 3D triangular planes included in the 3D image data may be completed.

다음 단계 S29에서, 상기 축적된 후로 리스트에 포함된 시작점들 중 미리 설정된 기준 거리(예: 0.5mm) 내에 인접한 시작점들을 서로 연결하여 폐곡선을 형성할 수 있다. 상기 폐곡선이 바로 환부의 경계에 해당할 수 있다.In the next step S29, among the start points included in the list after the accumulation, adjacent start points within a preset reference distance (eg, 0.5 mm) may be connected to each other to form a closed curve. The closed curve may directly correspond to the boundary of the affected area.

만약, 단계 S29에서 복수의 폐곡선이 형성될 때, 상기 복수의 폐곡선 중 상기 기준점을 내부에 포함하는 폐곡선을 선택할 수 있다. 또한, 상기 기준점을 내부에 포함하는 폐곡선이 복수인 경우, 가장 큰 폐곡선을 선택할 수 있다.If a plurality of closed curves are formed in step S29, a closed curve including the reference point therein may be selected from among the plurality of closed curves. Also, when there are a plurality of closed curves including the reference point therein, the largest closed curve may be selected.

본 명세서의 일 예시에 따르면, 3D 이미지 데이터 내 표면 색상(RGB값)이 미리 설정된 기준 색상값 이상 변화하는 곳을 추가 정보로 활용하여 폐곡선을 수정 보완할 수 있다. 환부와 정상 피부의 색깔이 서로 상이한 점을 이용하는 것이다.According to an example of the present specification, a closed curve may be corrected and supplemented by using a location where a surface color (RGB value) in 3D image data changes by more than a preset reference color value as additional information. It takes advantage of the fact that the color of the affected area and the normal skin are different from each other.

이후, 폐곡선을 이동 평균으로 스무딩(Smoothing)처리하고, 폐곡선 내 3D 삼각면 정보 리스트를 배열(WL)로 관리할 수 있다. 즉, 환부의 3D 형상만 추출할 수 있다.Thereafter, the closed curve may be smoothed with a moving average, and a 3D triangular information list within the closed curve may be managed as an array (WL). That is, only the 3D shape of the affected part can be extracted.

<환부의 임시 경계선을 이용한 환부 경계 인식><Recognition of the boundary of the affected area using the temporary boundary line of the affected area>

한편, 도 7 및 도 8을 참조하여 설명한 환부 경계 인식 방법은 3D 이미지 데이터에 포함된 모든 3D 삼각면에 대한 연산이 이루어진다. 이 과정은 연산량 부담으로 인해 처리 속도를 저하시키는 요인이 될 수 있다. 대략의 환부 경계를 알고 있고, 대략의 환부 경계에서 정확한 경계만 인식시킬 수 있다면, 연산량을 줄여서 속도를 향상시킬 수 있다.On the other hand, in the method for recognizing the border of the affected part described with reference to FIGS. 7 and 8, calculation is made for all 3D triangular planes included in the 3D image data. This process may be a factor that lowers the processing speed due to the burden of computational load. If the approximate boundary of the affected area is known and only the exact boundary can be recognized at the approximate boundary of the affected area, the speed can be improved by reducing the amount of computation.

도 9는 본 명세서의 또 다른 실시예에 따른 환부 경계 인식 방법의 참고도이다.9 is a reference diagram of a method for recognizing an affected area boundary according to another embodiment of the present specification.

도 9의 (a)를 참조하면, 환부의 경계에 임시 경계선이 설정된 것을 확인할 수 있다. 상기 임시 경계선은 앞서 도 4를 참조하여 설명한 인공지능 학습을 통한 환부 경계 인식 방법을 통해서 설정될 수 있다. 또한, 사용자가 환부의 테두리를 마우스로 클릭 또는 화면 터치를 통해 다각형의 임시 경계선을 지정할 수도 있다. 이 경우, 도 7의 단계 S20에서 환부를 촬영한 3D 이미지 데이터와 환부의 테두리를 포함하는 임시 경계선 데이터를 함께 수신할 수 있다.Referring to Fig. 9 (a), it can be seen that a temporary boundary line is set at the boundary of the affected area. The temporary boundary line may be set through the method of recognizing the affected area boundary through artificial intelligence learning described above with reference to FIG. 4 . In addition, the user may designate a temporary boundary line of the polygon by clicking the border of the affected part with a mouse or by touching the screen. In this case, it is possible to receive the temporary boundary line data including the 3D image data and the rim of the affected area taken in step S20 of Figure 7 together.

도 9의 (b)를 참조하면, 상기 임시 경계선을 기준으로 미리 설정된 길이만큼 확장된 제1 폐곡선(C1)과 미리 설정된 길이만큼 축소된 제2 폐곡선(C2)을 생성할 수 있다.Referring to FIG. 9B , a first closed curve C1 extended by a preset length and a second closed curve C2 reduced by a preset length may be generated based on the temporary boundary line.

그리고 도 7의 단계 S21에서 상기 제2 폐곡선 내부 영역을 균등하게 4개로 나누는 2개의 가상선이 교차하는 교차점을 기준점으로 설정할 수 있다. 이후 단계 S22 및 단계 S23은 동일하다.In addition, in step S21 of FIG. 7 , an intersection point at which two virtual lines equally dividing the inner region of the second closed curve into four may be set as a reference point. Thereafter, steps S22 and S23 are the same.

반면, 도 7의 단계 S24에서 상기 제1 폐곡선과 상기 제2 폐곡선 사이에 위치한 3D 삼각면들에 대해서만 상기 평면과의 교차점을 산출할 수 있다. 즉, 3D 이미지 데이터에 포함된 모든 3D 삼각면이 아닌, 환부의 경계로 예상되는 영역에 대해서만 연산이 이루어진다. 이를 통해 연산량을 줄이고, 연산 속도를 향상시킬 수 있다. 이후, 단계 S25 내지 단계 S29는 동일하다.On the other hand, in step S24 of FIG. 7 , the intersection point with the plane may be calculated only for 3D triangular surfaces located between the first closed curve and the second closed curve. That is, not all 3D triangular planes included in the 3D image data, calculation is performed only on the area expected to be the boundary of the affected part. Through this, the amount of computation can be reduced and the computation speed can be improved. Thereafter, steps S25 to S29 are the same.

[환부 전개][Development of affected area]

도 10은 환부 스캔 후 3D 모델링된 환부의 참고도이다.10 is a reference view of the 3D modeled lesion after scanning the lesion.

도 10을 참조하면, 3D 모델링된 환부의 모습을 확인할 수 있다. 도면에 도시된 예시와 같이, 환부의 영역이 족부 하부면에서부터 측면까지 넓게 형성되어 있으므로, 곡면의 형상으로 휘어져 있다. 이러한 환부에 대해서 3D 모델링 데이터를 생성할 경우, 생성된 3D 모델 역시 전체적으로 곡면의 형상을 취하게 될 것이다. 바이오 프린터에서 3차원 곡면 형상을 그대로 입력하고 출력할 경우, 출력 도중에 구조물이 붕괴될 수 있다. 따라서, 바이오 프린터에서 출력 가능하도록 곡면 형상을 수평 방향으로 펼쳐주는 과정이 필요하다.Referring to Figure 10, it can be confirmed the appearance of the 3D modeled affected area. As in the example shown in the figure, since the affected area is formed widely from the lower surface of the foot to the side, it is curved in the shape of a curved surface. When 3D modeling data is generated for such an affected part, the generated 3D model will also take the shape of a curved surface as a whole. When a three-dimensional curved shape is directly input and output in a bioprinter, the structure may collapse during printing. Therefore, it is necessary to expand the curved shape in the horizontal direction so that the bioprinter can print it.

<회귀분석을 이용한 환부 전개><Development of affected area using regression analysis>

도 11은 본 명세서의 일 실시예에 따른 환부 3D 데이터 전개 방법이다.11 is a 3D data development method of the affected part according to an embodiment of the present specification.

도 11을 참조하면, 먼저 단계 S30에서 환부에 대한 포인트 클라우드로 이루어진 3D 데이터를 저장할 수 있다. 상기 환부에 대한 포인트 클라우드로 이루어진 3D 데이터는 앞서 도 7 내지 도 9를 참조하여 설명한 환부 경계 인식 방법 실행 이후 추출된 환부의 3D 데이터일 수 있다.Referring to FIG. 11 , it is possible to store 3D data consisting of a point cloud for the affected part in step S30 first. The 3D data of the point cloud for the affected area may be the 3D data of the affected area extracted after the execution of the method for recognizing the boundary of the affected area described above with reference to FIGS. 7 to 9 .

본 명세서의 일 실시예에 따르면, 상기 단계 S30은 이후 계산의 편의를 위해 3D 데이터를 3차원 좌표의 기준이 되는 3개의 축 중 어느 한 축을 기준으로 회전시킬 수 있다. 이 경우, 회전된 3D 데이터의 포인트 좌표값들에 대해서 연산 값의 크기가 줄어들 수 있다. 보다 구체적으로, 저장된 3D 데이터를 제1 축 및 제2 축에 대한 경사값을 산출하고, 산출된 경사값의 벡터 합을 산출하고, 백터 합이 제2 축과 이루는 경사만큼 저장된 3D 데이터를 제2 축 방향으로 회전시킬 수 있다. 본 명세서에서 제1 축은 'Y축', 제2 축은 'X축', 제3 축은 'Z축'으로 설명하겠다. 그러나 상기 예시는 이해의 편의를 위한 것이며, 상기 예시에 본 발명이 제한되는 것은 아니다.According to an embodiment of the present specification, in step S30, the 3D data may be rotated based on any one of three axes serving as a reference of the three-dimensional coordinates for convenience of subsequent calculations. In this case, the size of the calculated value with respect to the point coordinate values of the rotated 3D data may be reduced. More specifically, the stored 3D data calculates the inclination values for the first and second axes, calculates the vector sum of the calculated inclination values, and calculates the stored 3D data as much as the inclination between the vector sum and the second axis to the second axis. It can be rotated axially. In this specification, the first axis will be described as 'Y-axis', the second axis as 'X-axis', and the third axis as 'Z-axis'. However, the above examples are for convenience of understanding, and the present invention is not limited thereto.

다음 단계 S31에서 Y축을 기준으로 미리 설정된 간격에 따라 상기 3D 데이터를 나눌 수 있다. 이렇게 나누어진 3D 데이터를 이하 '슬라이싱 3D 데이터'라고 명명하겠다. 슬라이싱 간격이 작을 수록 더욱 세밀한 전개가 가능하지만 연산량이 증가하고, 슬라이싱 간격이 클 수록 연산량이 감소하지만, 전개가 세밀하지 못하다. 일 예로, 상기 슬라이싱 간격은, 3D 데이터를 이루는 포인트 클라우드의 평균 포인트 간격의 1/n 간격(n은 자연수)이 될 수 있다.In the next step S31, the 3D data may be divided according to a preset interval based on the Y-axis. The divided 3D data will be referred to as 'slicing 3D data' hereinafter. The smaller the slicing interval, the more detailed the development is possible, but the amount of computation increases. The larger the slicing interval, the less the amount of computation, but the development is not fine. For example, the slicing interval may be 1/n interval (n is a natural number) of an average point interval of a point cloud constituting 3D data.

다음 단계 S32에서 상기 슬라이싱 3D 데이터 중 어느 한 슬라이싱 3D 데이터를 XZ 평면으로 투영할 수 있다. 도 11의 하단에는 슬라이싱 3D 데이터가 XZ 평면으로 투영된 예시를 확인할 수 있다.In the next step S32, any one of the slicing 3D data may be projected onto the XZ plane. An example in which the slicing 3D data is projected onto the XZ plane can be seen at the bottom of FIG. 11 .

다음 단계 S33에서 상기 투영된 슬라이싱 3D 데이터의 외각 경계 포인트들에 대해서 회귀분석(Polynomial Regression)을 통해 환부 경계의 곡선 방정식을 산출할 수 있다. 상기 환부 경계의 곡선은 2차 함수의 형태일 수 있다.In the next step S33, the curve equation of the boundary of the affected part can be calculated through regression analysis (polynomial regression) for the outer boundary points of the projected slicing 3D data. The curve of the border of the affected area may be in the form of a quadratic function.

도 12는 곡선 방정식의 다양한 차수에 대한 참고도이다.12 is a reference diagram for various orders of a curve equation.

도 12를 참조하면, 포인트 클라우드에 대하여 1차 함수, 2차 함수, 3차 함수 및 10차 함수가 도시된 것을 확인할 수 있다. 1차 함수의 경우 언더피팅(underfitting)되고 고차 함수일 수록 오버피팅(overfitting)되는 특징을 확인할 수 있다. 인체의 피부 조직에 발생한 환부의 특징을 고려할 때, 2차 함수가 환부의 형상을 가장 잘 표현할 수 있다. 상기 회귀분석은 아래 수식을 이용하여 환부 경계의 곡선 방정식을 2차 함수의 형태로 산출할 수 있다.Referring to FIG. 12 , it can be seen that a first-order function, a second-order function, a third-order function, and a tenth-order function are shown for the point cloud. It can be seen that the first-order function is underfitting, and the higher-order function is overfitting. Considering the characteristics of the affected area in the skin tissue of the human body, the quadratic function can best express the shape of the affected area. The regression analysis can calculate the curve equation of the boundary of the affected area in the form of a quadratic function using the following equation.

[수식][Equation]

Figure pat00002
Figure pat00002

Figure pat00003
Figure pat00003

회귀분석은 당업자에 알려진 수식과 방식이므로 상세한 설명은 생략한다. 다만, 회귀분석을 통해 산출된 환부 경계이 곡선 방정식은 슬라이싱 3D 데이터의 환부 경계에 대해서 가장 근사하게 표현된 2차함수 형태의 곡선이 된다.Since the regression analysis is a formula and method known to those skilled in the art, a detailed description thereof will be omitted. However, the affected area boundary curve equation calculated through regression analysis becomes a quadratic function-shaped curve most closely expressed with respect to the affected area boundary of the slicing 3D data.

다음 단계 S34에서 상기 환부 경계의 곡선 방정식을 포함하는 아래 수식을 이용하여 제2 축과 제3 축에 대해 변환된 슬라이싱 3D 데이터를 산출할 수 있다.In the next step S34, it is possible to calculate the converted slicing 3D data for the second axis and the third axis by using the following equation including the curve equation of the affected part boundary.

[수식][Equation]

Figure pat00004
Figure pat00004

z'i = zi - z_curvei z' i = z i - z_curve i

z_curvei : 환부 경계의 곡선 방정식의 yi와 동일z_curve i : Same as y i of the curve equation of the border of the affected area

즉, 변환된 슬라이싱 3D 데이터{P(x, y, z)}에서 변환된 3D 슬라이싱 데이터{P'(x', y, z')}의 차이점은 각 포인트와 포인트 사이의 거리만큼 X축을 방향으로 전개가 된다. 이때, 변환된 3D 슬라이싱 데이터를 이루고 있는 포이트 클라우드의 Z값들은 환부의 깊이에 대응하는 차이값만 가질 뿐, 환부의 곡면 형태에 따른 차이값은 반영되어 있지 않게 된다.That is, the difference between the transformed 3D slicing data {P(x, y, z)} in the transformed 3D slicing data {P'(x', y, z')} is in the X-axis direction by the distance between each point will unfold with At this time, the Z values of the point cloud constituting the converted 3D slicing data only have a difference value corresponding to the depth of the affected part, and the difference value according to the curved shape of the affected part is not reflected.

한편, 단계 S32 내지 단계 S34는 모든 슬라이싱 3D 데이터에 대해서 적용될때까지 반복 실행된다. 모든 슬라이싱 3D 데이터가 변환된 이후, 변환된 슬라이싱 3D 데이터 다시 통합하면, X축 방향으로 전개된 환부의 형상을 얻을 수 있다.On the other hand, steps S32 to S34 are repeatedly executed until applied to all slicing 3D data. After all the slicing 3D data is transformed, if the transformed slicing 3D data is re-integrated, the shape of the affected part developed in the X-axis direction can be obtained.

도 13은 환부 전개에 대한 참고도이다.13 is a reference diagram for the development of the affected area.

도 13을 참조하면, 환부의 경계를 XZ 평면에 투영한 포인트 클라우드들을 전개한 결과이다. 그래프에서 확인할 수 있는 것은 작고 불규칙한 환부의 형상은 유지되면서 큰 곡면이 제거되어 z축 높이가 줄고 x축 길이는 늘어나는 것을 확인할 수 있다. 바이오 프린터에서 유연한 바이오 소재를 이용하여 아래의 형상을 출력한 후 환부에 부착할 경우 전체 환부를 덮으면서 환부의 미세한 굴곡을 잘 덮어줄 수 있도록 모델링될 수 있다.Referring to FIG. 13 , it is a result of developing point clouds in which the boundary of the affected part is projected on the XZ plane. It can be seen from the graph that the shape of the small and irregular affected part is maintained while the large curved surface is removed, so that the z-axis height is reduced and the x-axis length is increased. If the bioprinter prints the shape below using a flexible biomaterial and attaches it to the affected area, it can be modeled to cover the entire affected area while covering the minute curves of the affected area.

<저주파필터를 이용한 환부 전개><Development of affected area using low-frequency filter>

도 14는 본 명세서의 일 실시예에 따른 환부 3D 데이터 전개 방법이다.14 is a 3D data development method of the affected part according to an embodiment of the present specification.

도 14를 참조하면, 먼저 단계 S40에서 환부에 대한 포인트 클라우드로 이루어진 3D 데이터를 저장할 수 있다. 상기 환부에 대한 포인트 클라우드로 이루어진 3D 데이터는 앞서 도 7 내지 도 9를 참조하여 설명한 환부 경계 인식 방법 실행 이후 추출된 환부의 3D 데이터일 수 있다.Referring to FIG. 14 , it is possible to store 3D data consisting of a point cloud for the affected part in step S40 first. The 3D data of the point cloud for the affected area may be the 3D data of the affected area extracted after the execution of the method for recognizing the boundary of the affected area described above with reference to FIGS. 7 to 9 .

본 명세서의 일 실시예에 따르면, 상기 단계 S40은 이후 계산의 편의를 위해 3D 데이터를 3차원 좌표의 기준이 되는 3개의 축 중 어느 한 축을 기준으로 회전시킬 수 있다. 이 경우, 회전된 3D 데이터의 포인트 좌표값들에 대해서 연산 값의 크기가 줄어들 수 있다. 보다 구체적으로, 저장된 3D 데이터를 제1 축 및 제2 축에 대한 경사값을 산출하고, 산출된 경사값의 벡터 합을 산출하고, 백터 합이 제2 축과 이루는 경사만큼 저장된 3D 데이터를 제2 축 방향으로 회전시킬 수 있다. 본 명세서에서 제1 축은 'Y축', 제2 축은 'X축', 제3 축은 'Z축'으로 설명하겠다. 그러나 상기 예시는 이해의 편의를 위한 것이며, 상기 예시에 본 발명이 제한되는 것은 아니다.According to an embodiment of the present specification, in step S40, the 3D data may be rotated based on any one of three axes serving as a reference of the three-dimensional coordinates for convenience of subsequent calculations. In this case, the size of the calculated value with respect to the point coordinate values of the rotated 3D data may be reduced. More specifically, the stored 3D data calculates the inclination values for the first and second axes, calculates the vector sum of the calculated inclination values, and calculates the stored 3D data as much as the inclination between the vector sum and the second axis to the second axis. It can be rotated axially. In this specification, the first axis will be described as 'Y-axis', the second axis as 'X-axis', and the third axis as 'Z-axis'. However, the above examples are for convenience of understanding, and the present invention is not limited thereto.

다음 단계 S41에서 Y축을 기준으로 미리 설정된 샘플링 주파수(fs)에 따라 상기 3D 데이터를 나눌 수 있다. 이렇게 나누어진 3D 데이터를 이하 '슬라이싱 3D 데이터'라고 명명하겠다. 샘플링 주파수(fs)가 높을 수록 더욱 세밀한 전개가 가능하지만 연산량이 증가하고, 샘플링 주파수(fs)가 낮을 수록 연산량이 감소하지만, 전개가 세밀하지 못하다. 일 예로, 상기 샘플링 주파수(fs)는 포인트 클라우드의 최소 간격의 1/n 간격(n은 자연수)이 될 수 있다. 도 14의 하단에는 샘플링 주파수에 의해 슬라이싱된 3D 데이터의 예시를 확인할 수 있다.In the next step S41, the 3D data may be divided according to a preset sampling frequency fs based on the Y-axis. The divided 3D data will be referred to as 'slicing 3D data' hereinafter. The higher the sampling frequency fs, the more detailed development is possible, but the amount of computation increases, and the lower the sampling frequency fs, the less the amount of computation decreases, but the development is not detailed. For example, the sampling frequency fs may be 1/n interval (n is a natural number) of the minimum interval of the point cloud. An example of the 3D data sliced by the sampling frequency can be confirmed at the bottom of FIG. 14 .

다음 단계 S42에서 상기 슬라이싱 3D 데이터 중 어느 한 슬라이싱 3D 데이터의 곡면 주파수보다 미리 설정된 비율(a%)만큼 높게 설정된 주파수를 차단 주파수(fc)로 설정할 수 있다. 상기 차단 주파수(fc)는 이후 계산의 편의를 위해 라플라스 역변환 후 차분방정식으로 아래와 같이 표현될 수 있다.In the next step S42, a frequency set higher by a preset ratio (a%) than a curved frequency of any one of the slicing 3D data among the slicing 3D data may be set as the cutoff frequency fc. The cutoff frequency fc may be expressed as a differential equation after inverse Laplace transform for the convenience of subsequent calculations as follows.

[수식][Equation]

Figure pat00005
Figure pat00005

다음 단계 S43에서 상기 차단 주파수(fc)를 가진 저주파필터에 상기 슬라이싱 3D 데이터를 통과시켜 곡선 포인트를 산출할 수 있다. 상기 단계 S43에서, 슬라이싱 3D 데이터 중 Y축에 대한 값이 0인 지점에서 앞뒤로 패딩 데이터를 더 추가하고 저주파필터를 통과시킬 수 있다. 이렇게 산출된 곡선 포인트

Figure pat00006
는 아래와 같이 표현될 수 있다.A curve point may be calculated by passing the slicing 3D data through a low-frequency filter having the cut-off frequency fc in the next step S43. In step S43, padding data may be further added back and forth at a point where the value for the Y-axis is 0 among the slicing 3D data, and the low-frequency filter may be passed through. Curve points calculated in this way
Figure pat00006
can be expressed as follows.

[수식][Equation]

Figure pat00007
Figure pat00007

다음 단계 S44에서 곡선 포인트를 포함하는 아래 수식을 이용하여 X축과 Y축에 대한 변환된 슬라이싱 3D 데이터를 산출In the next step S44, the converted slicing 3D data for the X and Y axes is calculated using the formula below including the curve points.

상기 환부 경계의 곡선 방정식을 포함하는 아래 수식을 이용하여 제2 축과 제3 축에 대해 변환된 슬라이싱 3D 데이터를 산출할 수 있다.It is possible to calculate the slicing 3D data transformed with respect to the second axis and the third axis by using the following equation including the curve equation of the affected part boundary.

[수식][Equation]

Figure pat00008
Figure pat00008

z'i = zi - z_curvei z' i = z i - z_curve i

z_curvei : 곡선 포인트의 yi와 동일z_curve i : equal to y i of the curve point

즉, 변환된 슬라이싱 3D 데이터{P(x, y, z_curvei)}에서 변환된 3D 슬라이싱 데이터{P'(x', y, z')}의 차이점은 각 포인트와 포인트 사이의 거리만큼 X축을 방향으로 전개가 된다. 이때, 변환된 3D 슬라이싱 데이터를 이루고 있는 포이트 클라우드의 Z값들은 환부의 깊이에 대응하는 차이값만 가질 뿐, 환부의 곡면 형태에 따른 차이값은 반영되어 있지 않게 된다.That is, the difference between the transformed 3D slicing data {P'(x', y, z')} from the transformed 3D slicing data {P(x, y, z_curve i )} is that develops in the direction At this time, the Z values of the point cloud constituting the converted 3D slicing data only have a difference value corresponding to the depth of the affected part, and the difference value according to the curved shape of the affected part is not reflected.

한편, 단계 S42 내지 단계 S44는 모든 슬라이싱 3D 데이터에 대해서 적용될때까지 반복 실행된다. 모든 슬라이싱 3D 데이터가 변환된 이후, 변환된 슬라이싱 3D 데이터 다시 통합하면, X축 방향으로 전개된 환부의 형상을 얻을 수 있다. 상기 내용은 도 13을 참조하여 설명하였으므로, 반복적인 설명은 생략한다.On the other hand, steps S42 to S44 are repeatedly executed until applied to all slicing 3D data. After all the slicing 3D data is transformed, if the transformed slicing 3D data is re-integrated, the shape of the affected part developed in the X-axis direction can be obtained. Since the above content has been described with reference to FIG. 13, a repetitive description will be omitted.

[환부 덮개][Affected area cover]

도 11 또는 도 14를 참조하여 설명된 환부 3D 데이터 전개 방법에 따라 바이오 프린터로 출력 가능한 3D 데이터를 확보할 수 있다. 그러나 이 과정에서 확보된 3D 데이터는 환부에 대한 데이터이고, 본 발명에서 필요한 것은 환부를 덮을 수 있는 덮개에 대한 데이터가 필요하다.According to the 3D data development method of the affected part described with reference to FIG. 11 or FIG. 14, it is possible to secure 3D data that can be output with a bioprinter. However, the 3D data secured in this process is data on the affected part, and what is needed in the present invention is data on the cover that can cover the affected part.

<환부 덮개 3D 데이터 생성 방법><How to create 3D data for the affected area cover>

도 15는 본 명세서의 일 실시예에 따른 환부 덮개 3D 데이터 생성 방법의 흐름도이다.15 is a flowchart of a 3D data generating method for the affected part cover according to an embodiment of the present specification.

도 15를 참조하면, 먼저 단계 S50에서 전개된 환부에 대한 포인트 클라우드로 이루어진 3D 데이터를 저장할 수 있다. 상기 전개된 환부의 3D 데이터는 도 11 또는 도 14를 참조하여 설명된 환부 3D 데이터 전개 방법에 따라 얻을 수 있다.Referring to FIG. 15 , it is possible to store 3D data consisting of a point cloud for the affected part developed in step S50 first. The 3D data of the developed affected area can be obtained according to the 3D data development method of the affected area described with reference to FIGS. 11 or 14 .

본 명세서의 일 실시예에 따르면, 상기 단계 S50은 이후 계산의 편의를 위해 3D 데이터를 3차원 좌표의 기준이 되는 3개의 축 중 어느 한 축을 기준으로 회전시킬 수 있다. 이 경우, 회전된 3D 데이터의 포인트 좌표값들에 대해서 연산 값의 크기가 줄어들 수 있다. 보다 구체적으로, 저장된 3D 데이터를 제1 축 및 제2 축에 대한 경사값을 산출하고, 산출된 경사값의 벡터 합을 산출하고, 백터 합이 제2 축과 이루는 경사만큼 저장된 3D 데이터를 제2 축 방향으로 회전시킬 수 있다. 본 명세서에서 제1 축은 'Y축', 제2 축은 'X축', 제3 축은 'Z축'으로 설명하겠다. 그러나 상기 예시는 이해의 편의를 위한 것이며, 상기 예시에 본 발명이 제한되는 것은 아니다.According to an embodiment of the present specification, in step S50, the 3D data may be rotated based on any one of three axes serving as a reference of the three-dimensional coordinates for convenience of subsequent calculations. In this case, the size of the calculated value with respect to the point coordinate values of the rotated 3D data may be reduced. More specifically, the stored 3D data calculates the inclination values for the first and second axes, calculates the vector sum of the calculated inclination values, and calculates the stored 3D data as much as the inclination between the vector sum and the second axis to the second axis. It can be rotated axially. In this specification, the first axis will be described as 'Y-axis', the second axis as 'X-axis', and the third axis as 'Z-axis'. However, the above examples are for convenience of understanding, and the present invention is not limited thereto.

다음 단계 S51에서 상기 3D 데이터를 이루는 포인트 클라우드 중 환부의 경계를 기준으로 내부에 위치한 포인트 클라우드를 제거할 수 있다. 이때, 상기 경계는 환부 형상의 가장자리 즉, 정상피부와 경계뿐만 아니라, 환부를 이루는 최외각 포인트를 의미할 수 있다.In the next step S51, it is possible to remove the point cloud located inside based on the boundary of the affected part among the point clouds constituting the 3D data. In this case, the boundary may mean an edge of the shape of the affected part, that is, not only the boundary with normal skin, but also the outermost point forming the affected part.

다음 단계 S52에서 Y축을 기준으로 미리 설정된 간격에 따라 상기 3D 데이터를 나눌 수 있다. 예로, 상기 샘플링 주파수(fs)는 포인트 클라우드의 최소 간격의 1/n 간격(n은 자연수)이 될 수 있다. 도 15의 하단에는 샘플링 주파수에 의해 슬라이싱된 3D 데이터의 예시를 확인할 수 있다.In the next step S52, the 3D data may be divided according to a preset interval based on the Y-axis. For example, the sampling frequency fs may be a 1/n interval (n is a natural number) of the minimum interval of the point cloud. An example of the 3D data sliced by the sampling frequency can be confirmed at the bottom of FIG. 15 .

다음 단계 S53에서 슬라이싱 3D 데이터에 대해서 회귀분석을 통해 곡률 방정식을 산출할 수 있다. 상기 회귀분석을 통해 곡률 방정식을 구하는 과정은 앞서 도 11을 참조하여 설명한 환부 전개 방법에서 설명하였고, 당업자에 알려진 과정이므로 반복 설명은 생략하겠다.In the next step S53, a curvature equation may be calculated through regression analysis on the slicing 3D data. The process of obtaining the curvature equation through the regression analysis has been described in the affected area development method described above with reference to FIG. 11, and since it is a process known to those skilled in the art, repeated descriptions will be omitted.

다음 단계 S54에서 슬라이싱 3D 데이터에 포함된 포인트 클라우드의 (X,Y) 좌표값을 상기 곡선 방정식에 대입하여 (Z) 좌표값을 산출할 수 있다. 이렇게 산출된 좌표값 (X, Y, Z)는 '덮개 포인트 클라우드'에 해당한다.In the next step S54, the (X, Y) coordinate values of the point cloud included in the slicing 3D data may be substituted into the curve equation to calculate the (Z) coordinate values. The calculated coordinate values (X, Y, Z) correspond to the 'cover point cloud'.

다음 단계 S55에서 상기 덮개 포인트 클라우드 중 환부의 경계를 벗어난 포인트를 제거하고 상기 전개된 환부에 대한 포인트 클라우드와 결합할 수 있다.In the next step S55, it is possible to remove a point outside the boundary of the affected part of the cover point cloud and combine it with the point cloud for the developed affected part.

도 16은 환부 덮개 3D 데이터의 예시도이다.16 is an exemplary view of the 3D data of the lesion cover.

도 16을 참조하면, 환부를 덮을 수 있는 형상을 가진 덮개를 확인할 수 있다. 덮개의 상부는 피부 표면과 유사하게 평평한 형상이며, 하부는 환부의 형상에 대응하는 울퉁불퉁한 형상을 가진 것을 확인할 수 있다.Referring to Figure 16, it can be confirmed that the cover having a shape that can cover the affected area. It can be seen that the upper part of the cover has a flat shape similar to the skin surface, and the lower part has an uneven shape corresponding to the shape of the affected part.

<환부 덮개 출력을 고려한 환부 덮개 3D 데이터 생성 방법><How to create 3D data on the affected area covering the affected area cover output>

한편, 도 16에 도시된 환부 덮개는 환부의 가장자리에 정상피부가 존재하는 것을 반영하여 형성된다. 따라서, 도 16에서 확인할 수 있듯이, 환부 덮개의 가장 바깥 경계면이 수직을 단절된 형상을 가질 수 있다. 이렇게 수직으로 단절된 형상을 그대로 바이오 프린터에서 출력할 경우, 덮개의 바깥 영영은 붕괴될 수 있다. On the other hand, the cover of the affected area shown in Fig. 16 is formed to reflect the presence of normal skin at the edge of the affected area. Therefore, as can be seen in FIG. 16, the outermost boundary surface of the affected part may have a vertically cut shape. If the vertically cut shape is printed on the bioprinter as it is, the outer area of the cover may collapse.

도 17은 본 명세서의 다른 실시예에 따른 환부 덮개 3D 데이터 생성 방법의 흐름도이다.17 is a flowchart of a method for generating 3D data on an affected area cover according to another embodiment of the present specification.

도 17을 참조하면, 본 명세서의 다른 실시예에 따른 환부 덮개 3D 데이터 생성 방법은 앞서 도 15의 마지막 단계 S55 이후에 실행될 수 있다.Referring to FIG. 17 , the 3D data generation method for the affected part cover according to another embodiment of the present specification may be performed after the last step S55 of FIG. 15 above.

먼저 단계 S56에서 상기 전개된 환부의 3D 데이터를 이루는 포인트 클라우드 중 경계 포인트들이 Z축에 대해 가진 최대값을 산출할 수 있다.First, in step S56, it is possible to calculate the maximum value with respect to the Z-axis boundary points of the point cloud constituting the 3D data of the developed affected part.

다음 단계 S57에서 상기 경계 포인트들의 Z축에 대한 값을 모두 상기 최대값으로 치환할 수 있다.In the next step S57, all values for the Z-axis of the boundary points may be substituted with the maximum value.

다음 단계 S58에서 상기 경계 포인트들의 X,Y 방향으로 미리 설정된 오프셋(offset)만큼 확장한 지점까지 포인트 클라우드의 Z값을 상기 최대값으로 채울 수 있다. 그리고 상기 오프셋 이후 지점부터 포인트 클라우드의 Z 값을 0으로 채울 수 있다. 즉, 환부 덮개를 제작하는 과정에서 환부 덮개를 담을 수 있는 용기의 벽을 세우는 과정이다. 도 17의 하단을 참조하면, 상기 과정을 통해 생성된 환부 덮개 제작용 용기의 3D 형상을 확인할 수 있다.In the next step S58, the Z value of the point cloud may be filled with the maximum value up to a point extended by a preset offset in the X and Y directions of the boundary points. In addition, the Z value of the point cloud may be filled with 0 from a point after the offset. That is, in the process of manufacturing the cover for the affected area, it is a process of erecting the wall of the container that can contain the cover for the affected area. Referring to the bottom of Figure 17, it can be confirmed the 3D shape of the container for manufacturing the cover for the affected area generated through the above process.

상기 방법은, 산출 및 다양한 제어 로직을 실행하기 위해 본 발명이 속한 기술분야에 알려진 프로세서, ASIC(application-specific integrated circuit), 다른 칩셋, 논리 회로, 레지스터, 통신 모뎀, 데이터 처리 장치 등으로 실행될 수 있다. 또한, 상술한 제어 로직이 소프트웨어로 구현될 때, 상기 제어부는 프로그램 모듈의 집합으로 구현될 수 있다. 이 때, 프로그램 모듈은 메모리 장치에 저장되고, 프로세서에 의해 실행될 수 있다.The method may be implemented with a processor, application-specific integrated circuit (ASIC), other chipset, logic circuit, register, communication modem, data processing device, etc. known in the art for executing calculation and various control logic. have. In addition, when the above-described control logic is implemented in software, the control unit may be implemented as a set of program modules. In this case, the program module may be stored in the memory device and executed by the processor.

상기 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C/C++, C#, JAVA, Python, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.The program is, in order for the computer to read the program and execute the methods implemented as a program, C/C++, C#, JAVA, Python, which the processor (CPU) of the computer can read through the device interface of the computer; It may include code coded in a computer language such as machine language. Such code may include functional code related to a function defining functions necessary for executing the methods, etc., and includes an execution procedure related control code necessary for the processor of the computer to execute the functions according to a predetermined procedure. can do. In addition, the code may further include additional information necessary for the processor of the computer to execute the functions or code related to memory reference for which location (address address) in the internal or external memory of the computer to be referenced. have. In addition, when the processor of the computer needs to communicate with any other computer or server in a remote location in order to execute the functions, the code uses the communication module of the computer to determine how to communicate with any other computer or server remotely. It may further include a communication-related code for whether to communicate and what information or media to transmit and receive during communication.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The storage medium is not a medium that stores data for a short moment, such as a register, a cache, a memory, etc., but a medium that stores data semi-permanently and can be read by a device. Specifically, examples of the storage medium include, but are not limited to, ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. That is, the program may be stored in various recording media on various servers accessible by the computer or in various recording media on the computer of the user. In addition, the medium may be distributed in a computer system connected to a network, and a computer-readable code may be stored in a distributed manner.

이상, 첨부된 도면을 참조로 하여 본 명세서의 실시예를 설명하였지만, 본 명세서가 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. As mentioned above, although the embodiments of the present specification have been described with reference to the accompanying drawings, those of ordinary skill in the art to which this specification belongs can realize that the present invention may be embodied in other specific forms without changing the technical spirit or essential features thereof. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

Claims (6)

환부에 대한 3D 데이터를 이용하여 환부의 덮개를 생성하는 방법으로서, 프로세서가
(a) 전개된 환부에 대한 포인트 클라우드로 이루어진 3D 데이터를 저장하는 단계;
(b) 상기 3D 데이터를 이루는 포인트 클라우드 중 환부의 경계를 기준으로 내부에 위치한 포인트 클라우드를 제거하는 단계;
(c) 상기 3차원 좌표의 기준이 되는 3개의 축 중 제1 축을 기준으로 미리 설정된 간격에 따라 상기 3D 데이터를 나누는 단계;
(d) 상기 (c) 단계에서 나누어진 3D 데이터(이하 '슬라이싱 3D 데이터')에 대해서 회귀분석을 통해 곡률 방정식을 산출하는 단계;
(e) 슬라이싱 3D 데이터에 포함된 포이트 클라우드의 제1 축과 제2 축에 대한 좌표값을 상기 곡선 방정식에 대입하여 제3 축에 대한 좌표값(이하 '덮개 포인트 클라우드')을 산출하는 단계; 및
(f) 상기 덮개 포인트 클라우드 중 환부의 경계를 벗어난 포인트를 제거하고 상기 전개된 환부에 대한 포인트 클라우드와 결합하는 단계;를 포함하는 환부 덮개 3D 데이터 생성 방법.
A method of generating a cover of an affected area using 3D data on the affected area, comprising:
(a) storing 3D data consisting of a point cloud for the developed affected part;
(b) removing the point cloud located inside based on the boundary of the affected part among the point clouds constituting the 3D data;
(c) dividing the 3D data according to a preset interval based on a first axis among three axes serving as a reference of the three-dimensional coordinates;
(d) calculating a curvature equation through regression analysis on the 3D data divided in step (c) (hereinafter, 'slicing 3D data');
(e) calculating the coordinate values for the third axis (hereinafter, 'cover point cloud') by substituting the coordinate values for the first and second axes of the point cloud included in the slicing 3D data into the curve equation; and
(f) removing the point out of the boundary of the affected part of the cover point cloud and combining with the point cloud for the developed affected part; 3D data generation method for cover of the affected part comprising a.
청구항 1에 있어서,
상기 (a) 단계는,
(a-1) 저장된 3D 데이터를 제1 축 및 제2 축에 대한 경사값을 산출하는 단계;
(a-2) 산출된 경사값의 벡터 합을 산출하는 단계; 및
(a-3) 백터 합이 제2 축과 이루는 경사만큼 저장된 3D 데이터를 제2 축 방향으로 회전시키는 단계;를 더 포함하는, 환부 덮개 3D 데이터 생성 방법.
The method according to claim 1,
The step (a) is,
(a-1) calculating inclination values for the first axis and the second axis from the stored 3D data;
(a-2) calculating a vector sum of the calculated gradient values; and
(a-3) rotating the 3D data stored as much as the inclination between the vector sum and the second axis in the second axis direction; further comprising, the affected area cover 3D data generation method.
청구항 1에 있어서,
상기 (c) 단계는, 3D 데이터를 이루는 포인트 클라우드의 평균 포인트 간격의 1/n 간격(n은 자연수)에 따라 상기 3D 데이터를 나누는 단계인, 환부 덮개 3D 데이터 생성 방법.
The method according to claim 1,
The step (c) is a step of dividing the 3D data according to the 1/n interval (n is a natural number) of the average point interval of the point cloud constituting the 3D data, the 3D data generating method for the affected area.
청구항 1에 있어서,
상기 환부 경계의 곡선 방정식은 2차 함수의 형태인, 환부 3D 데이터 전개 방법.
The method according to claim 1,
The curve equation of the wound boundary is in the form of a quadratic function, the affected area 3D data development method.
청구항 1에 있어서,
(g) 상기 전개된 환부의 3D 데이터를 이루는 포인트 클라우드 중 경계 포인트들이 제 3축에 대해 가진 최대값을 산출하는 단계;
(h) 상기 경계 포인트들의 제 3축에대한 값을 모두 상기 최대값으로 치환하는 단계; 및
(i) 상기 경계 포인트들의 제1 축 및 제2 축 방향으로 미리 설정된 오프셋만큼 확장한 지점까지 포인트 클라우드의 제3 축에 대한 값을 상기 최대값으로 채우고, 상기 오프셋 이후 지점부터 포인트 클라우드의 제3 축에 대한 값을 0으로 채우는 단계;를 더 포함하는 환부 덮개 3D 데이터 생성 방법.
The method according to claim 1,
(g) calculating the maximum value with respect to the third axis of the boundary points among the point clouds constituting the 3D data of the developed affected part;
(h) substituting all the values for the third axis of the boundary points with the maximum value; and
(i) Fill the value of the third axis of the point cloud with the maximum value to a point extended by a preset offset in the first and second axis directions of the boundary points, and the third point of the point cloud from the point after the offset Filling in the value for the axis with 0; the affected area cover 3D data generation method further comprising.
컴퓨터에서 청구항 1 내지 청구항 5 중 어느 한 청구항에 따른 덮개 3D 데이터 생성 방법의 각 단계들을 수행하도록 작성되어 컴퓨터로 독출 가능한 기록 매체에 기록된 컴퓨터프로그램.A computer program recorded in a computer-readable recording medium written to perform each step of the method for generating cover 3D data according to any one of claims 1 to 5 in a computer.
KR1020200174235A 2020-12-14 2020-12-14 A method of creating a shape for reconstruct the defectvie area of wound using artificial intelligence KR102547776B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200174235A KR102547776B1 (en) 2020-12-14 2020-12-14 A method of creating a shape for reconstruct the defectvie area of wound using artificial intelligence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200174235A KR102547776B1 (en) 2020-12-14 2020-12-14 A method of creating a shape for reconstruct the defectvie area of wound using artificial intelligence

Publications (2)

Publication Number Publication Date
KR20220085076A true KR20220085076A (en) 2022-06-22
KR102547776B1 KR102547776B1 (en) 2023-06-28

Family

ID=82216391

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200174235A KR102547776B1 (en) 2020-12-14 2020-12-14 A method of creating a shape for reconstruct the defectvie area of wound using artificial intelligence

Country Status (1)

Country Link
KR (1) KR102547776B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160092424A (en) * 2015-01-27 2016-08-04 국민대학교산학협력단 Patient transportation means comprising 3d printing apparatus for emergency patient, 3d printing system for patient and operating method thereof
KR101828345B1 (en) 2016-10-19 2018-03-29 주식회사 로킷 Bio 3d printer
US20190122330A1 (en) * 2015-12-18 2019-04-25 Orthogrid Systems Inc. Method of providing surgical guidance
JP2019141052A (en) * 2013-01-14 2019-08-29 スクリップス ヘルス Tissue array printing
KR20190101758A (en) * 2018-02-23 2019-09-02 한양대학교 산학협력단 Method and apparatus for calibrating scan data of affected area, calibration patch for calibrating scan data of affected area

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019141052A (en) * 2013-01-14 2019-08-29 スクリップス ヘルス Tissue array printing
KR20160092424A (en) * 2015-01-27 2016-08-04 국민대학교산학협력단 Patient transportation means comprising 3d printing apparatus for emergency patient, 3d printing system for patient and operating method thereof
US20190122330A1 (en) * 2015-12-18 2019-04-25 Orthogrid Systems Inc. Method of providing surgical guidance
KR101828345B1 (en) 2016-10-19 2018-03-29 주식회사 로킷 Bio 3d printer
KR20190101758A (en) * 2018-02-23 2019-09-02 한양대학교 산학협력단 Method and apparatus for calibrating scan data of affected area, calibration patch for calibrating scan data of affected area

Also Published As

Publication number Publication date
KR102547776B1 (en) 2023-06-28

Similar Documents

Publication Publication Date Title
EP3449421B1 (en) Classification and 3d modelling of 3d dento-maxillofacial structures using deep learning methods
US8319793B2 (en) Analyzing pixel data by imprinting objects of a computer-implemented network structure into other objects
KR20210002606A (en) Medical image processing method and apparatus, electronic device and storage medium
EP3736776A1 (en) Apparatus, system and method for the generation of polygonal meshes
CN113269862A (en) Scene-adaptive fine three-dimensional face reconstruction method, system and electronic equipment
CN112562082A (en) Three-dimensional face reconstruction method and system
CN115187540A (en) Automatic segmentation method and system for human three-dimensional vertebral cancellous bone image
CN109785399B (en) Synthetic lesion image generation method, device, equipment and readable storage medium
KR102497419B1 (en) Automatic wound boundary detecting method using artificial intelligence and 3d model generating method for wound
Telea Feature preserving smoothing of shapes using saliency skeletons
CN116824070B (en) Real-time three-dimensional reconstruction method and system based on depth image
KR102392371B1 (en) A method of unfolding the affected area in the form of a 3d curved surface through polynomial regression analysis using artificial intelligence
KR102392372B1 (en) A method of unfolding the affected area in the form of a 3d curved surface through low-pass filter using artificial intelligence
KR102547776B1 (en) A method of creating a shape for reconstruct the defectvie area of wound using artificial intelligence
KR102173321B1 (en) Apparatus and methods for automatic spine fracture diagnosis and detection using morphological features
Väänänen et al. Inpainting occlusion holes in 3D built environment point clouds
CN111918611B (en) Method for controlling abnormal display of chest X-ray image, recording medium and apparatus
Schoenemann et al. Validation of plaster endocast morphology through 3D CT image analysis
CN113409306A (en) Detection device, training method, training device, equipment and medium
JP5954846B2 (en) Shape data generation program, shape data generation method, and shape data generation apparatus
CN117495693B (en) Image fusion method, system, medium and electronic device for endoscope
US20230260186A1 (en) Generating a facial-hair-free mesh of a subject
JP2003123057A (en) Method and device for generating three-dimensional shape model
Riedel et al. Accurate segmentation for quantitative analysis of vascular trees in 3D micro-CT images
Penk Simulation and Intermediate Representations for Visual Inspection

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right