KR20180026029A - Method for simulation of plastic surgery - Google Patents

Method for simulation of plastic surgery Download PDF

Info

Publication number
KR20180026029A
KR20180026029A KR1020160112781A KR20160112781A KR20180026029A KR 20180026029 A KR20180026029 A KR 20180026029A KR 1020160112781 A KR1020160112781 A KR 1020160112781A KR 20160112781 A KR20160112781 A KR 20160112781A KR 20180026029 A KR20180026029 A KR 20180026029A
Authority
KR
South Korea
Prior art keywords
user terminal
image
virtual image
body part
target image
Prior art date
Application number
KR1020160112781A
Other languages
Korean (ko)
Inventor
이미선
Original Assignee
이미선
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이미선 filed Critical 이미선
Priority to KR1020160112781A priority Critical patent/KR20180026029A/en
Publication of KR20180026029A publication Critical patent/KR20180026029A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Abstract

According to an embodiment of the present invention, a method for simulating plastic surgery comprises the following steps: receiving content including pictures from a user terminal; recognizing a specific body portion from the content; determining the recognized body portion as a target image or determining the picture on the content as the target image; receiving an input with a corrected image for the specific body portion in the target image from the user terminal; and creating a virtual image of which the corrected image is coupled to the target image, and then sending the same to the user terminal.

Description

성형 수술 시뮬레이션 방법{METHOD FOR SIMULATION OF PLASTIC SURGERY}[0001] METHOD FOR SIMULATION OF PLASTIC SURGERY [0002]

본 발명은 성형 수술 시뮬레이션 방법에 관한 것이다. The present invention relates to a cosmetic surgery simulation method.

일반적으로 피수술자가 성형 수술을 고려하는 경우, 피수술자가 원하는 성형결과를 얻기 위해서는 수술 전에 수술결과를 미리 예측 및 확인하는 과정이 필요하며, 이를 통하여 피수술자와 수술자간의 수술 진행 여부 및 진행 과정에 대한 커뮤니케이션이 진행된다. In general, when the surgeon considers plastic surgery, it is necessary to predict and confirm the surgical result before surgery in order to obtain the desired molding result. Thus, Communication is proceeding.

종래의 경우, 포토샵 작업이나 가상성형 소프트웨어 등을 이용하여 성형 수술 후의 모습을 예측하는 방법이 있었으나, 눈이나 코, 눈썹과 같은 특정 부위에 대하여 사용자가 원하는 형상을 수작업을 통해 그려넣는 방법이었는바, 성형 수술 후의 모습을 생성하는 작업이 수고스러웠고, 그 이미지가 자연스럽지 못하였다. 또한, 기존의 방법에서는 주로 2차원 평면상에서 이미지가 획득되었고, 사용자의 수술 부위 이미지에 수술 후의 이미지를 단순 정합시키는 수준에 머물러 있었으므로 예측의 정확도 및 신뢰도가 낮았으며, 입체적이고 실제적인 수술결과를 확인하는 데 한계가 있었다. Conventionally, there has been a method of predicting the state after plastic surgery using photoshop work or virtual molding software. However, it has been a method of manually drawing a desired shape of a user on a specific part such as eyes, nose, eyebrows, The work of creating the shape after plastic surgery was laborious and the image was not natural. In the conventional method, the images were obtained mainly on the 2D plane, and the accuracy of the prediction and reliability were low because the images of the surgical site remained at the level of simply matching the images after the surgery. There was a limit to confirmation.

본 발명은 성형 수술 시뮬레이션 방법을 제공하는 것을 목적으로 한다. It is an object of the present invention to provide a cosmetic surgery simulation method.

상기 과제를 해결하기 위한 본 발명의 실시예에 따른 성형 수술 시뮬레이션 방법은 사용자 단말로부터 사진을 포함하는 콘텐츠를 수신하는 단계; 상기 콘텐츠로부터 특정 신체 부위를 인식하는 단계; 상기 인식된 신체 부위를 대상 이미지로 확정하거나 또는 상기 콘텐츠의 사진을 그대로 대상 이미지로 확정하는 단계; 상기 대상 이미지 중 특정 신체 부위에 대한 보정 이미지를 사용자 단말로부터 입력받는 단계; 및 상기 대상 이미지에 상기 보정 이미지가 결합된 가상 이미지를 생성하여 상기 사용자 단말에 제공하는 단계;를 포함한다.According to another aspect of the present invention, there is provided a method of simulating a cosmetic surgery comprising: receiving a content including a photograph from a user terminal; Recognizing a specific body part from the contents; Confirming the recognized body part as a target image or confirming a picture of the content as a target image; Receiving a correction image for a specific body part of the target image from a user terminal; And generating a virtual image in which the correction image is combined with the target image, and providing the generated virtual image to the user terminal.

또한, 상기 가상 이미지를 생성하여 상기 사용자 단말에 제공하는 단계 이후에, 사용자 단말로부터 서버에 등록된 병원 중 적어도 하나를 선택받고 네트워크를 통해 해당 병원 단말에 상기 대상 이미지 및 상기 가상 이미지를 전송하는 단계; 및 상기 병원 단말로부터 견적서를 수신하여 상기 사용자 단말에 전송하는 단계;를 더 포함할 수 있다.Selecting at least one of the hospitals registered in the server from the user terminal and transmitting the target image and the virtual image to the hospital terminal through the network after generating the virtual image and providing the virtual image to the user terminal ; And receiving a quotation from the hospital terminal and transmitting the estimate to the user terminal.

또한, 상기 보정 이미지를 사용자 단말로부터 입력받는 단계는, 상기 특정 신체 부위에 대하여 서버에 미리 저장된 적어도 하나의 보정 옵션 중 하나를 사용자 단말로부터 선택 입력받거나, 또는 상기 사용자 단말로부터 사용자가 물리적인 입력 수단을 통해 점이나 선 또는 면으로 상기 특정 신체 부위에 그려 넣은 보정 이미지를 제공받을 수 있다.The step of receiving the correction image from the user terminal may include receiving one of at least one correction option stored in advance in the server with respect to the specific body part from the user terminal, A correction image drawn on the specific body part by a point, a line, or a face through the image.

또한, 상기 서버에는 기 등록된 병원의 신체 부위별 성형법에 대한 정보가 저장되고, 상기 대상 이미지에 상기 보정 이미지가 결합된 가상 이미지를 생성하여 상기 사용자 단말에 제공하는 단계는, 가상 이미지를 상기 사용자 단말로부터 선택받은 적어도 하나의 병원별로 생성하여 사용자 단말에 제공할 수 있다.In addition, the server may store information on a molding method of a body part of a previously registered hospital, and generating a virtual image in which the correction image is combined with the target image to provide the virtual image to the user terminal, It may be generated for each hospital selected from the terminal and provided to the user terminal.

또한, 상기 인식된 특정 신체 부위는 눈, 눈썹, 코, 입술, 얼굴형, 이마 라인을 포함하고, 상기 콘텐츠는 동영상을 포함할 수 있다.In addition, the recognized specific body part may include an eye, an eyebrow, a nose, a lip, a face, and an forehead line, and the content may include a moving image.

또한, 상기 대상 이미지에 상기 보정 이미지가 결합된 가상 이미지를 생성하여 상기 사용자 단말에 제공하는 단계 이후에, 상기 가상 이미지에 대응하는 보형물을 제조하는 단계;를 더 포함할 수 있다.The method may further include generating a virtual image having the correction image combined with the target image and providing the virtual image to the user terminal, and then manufacturing an implant corresponding to the virtual image.

본 발명의 실시예에 따른 성형 수술 시뮬레이션 방법에 따르면, 특정 신체 부위에 다양한 형태의 성형 예시를 반영한 가상 이미지를 제공받을 수 있어, 자신에게 잘 어울리는 성형 후 모습을 용이하게 발견할 수 있는 이점이 있다.According to the cosmetic surgery simulation method according to the embodiment of the present invention, it is possible to receive a virtual image reflecting various types of molding examples on a specific body part, and it is possible to easily find a post- .

또한, 가상 이미지를 3차원의 보형물로 제작할 수 있는바, 사용자가 원하는 성형 형태를 보다 명확하게 전달 가능한 이점이 있다.In addition, since a virtual image can be produced as a three-dimensional implant, there is an advantage that a user can transmit a desired molding form more clearly.

또한, 본 발명을 이용하여 사용자가 미리 선택한 병원의 견적서를 용이하게 제공받을 수 있는 이점이 있다.Further, there is an advantage that a quotation of a hospital preselected by a user can be readily provided using the present invention.

본 발명의 효과는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the following description.

도 1은 대상 이미지, 보정 이미지 및 가상 이미지를 나타낸 예시도이다.1 is an exemplary view showing a target image, a correction image, and a virtual image.

본 발명의 목적 및 효과, 그리고 그것들을 달성하기 위한 기술적 구성들은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다.BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will be more apparent from the following detailed description taken in conjunction with the accompanying drawings, in which: FIG. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The following terms are defined in consideration of the functions of the present invention, and these may be changed according to the intention of the user, the operator, or the like.

그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있다. 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. These embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art to which the present invention pertains. Only. Therefore, the definition should be based on the contents throughout this specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…유닛", "…부", "…모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when an element is referred to as "comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise. The term " unit, "" part," " module, "and the like, which are described in the specification, refer to a unit for processing at least one function or operation and may be implemented by hardware or software or a combination of hardware and software .

한편, 본 발명의 실시 예에 있어서, 각 구성요소들, 기능 블록들 또는 수단들은 하나 또는 그 이상의 하부 구성요소로 구성될 수 있으며, 각 구성요소들이 수행하는 전기, 전자, 기계적 기능들은 전자회로, 집적회로, ASIC(Application Specific Integrated Circuit) 등 공지된 다양한 소자들 또는 기계적 요소들로 구현될 수 있으며, 각각 별개로 구현되거나 2 이상이 하나로 통합되어 구현될 수도 있다.In the exemplary embodiment of the present invention, each component, function block or means may be composed of one or more sub-components, and the electrical, electronic, and mechanical functions performed by the components may be electronic circuits, An integrated circuit, an ASIC (Application Specific Integrated Circuit), or the like, or may be implemented separately or two or more may be integrated into one.

또한, 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터, 휴대용 노트북 컴퓨터, 네트워크 컴퓨터, 스마트폰과 같은 모바일 기기, 서버 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 장치 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 아래에서 설명할 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 장치 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 장치에 이용 가능한 메모리 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 블록도의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조물을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 장치 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 장치 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되기 위한 프로세스를 생성하여 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다. Also, each block of the accompanying block diagrams and combinations of steps of the flowchart may be performed by computer program instructions. These computer program instructions may be embedded in a processor of a general purpose computer, a special purpose computer, a portable notebook computer, a network computer, a mobile device such as a smart phone, a server, or other programmable data processing equipment and thus may be a computer device or other programmable data processing equipment Such that the instructions that are executed through the processor of FIG. 1 generate the means for performing the functions described in each block or flowchart of the block diagrams described below. These computer program instructions may also be stored in a memory or in a computer readable memory available to a computer device capable of directing a computer device or other programmable data processing device to implement the functionality in a particular manner, It is also possible to produce products containing instruction means for performing the functions described in the respective steps of the flowcharts. It will be appreciated that computer program instructions may be loaded onto a computer device or other programmable data processing equipment so that a process for performing a series of operating steps on a computer device or other programmable data processing equipment may be created to determine each block and flowchart of the block diagram It is also possible to provide steps for executing the functions described in each step of Fig.

또한, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Also, each block or each step may represent a module, segment, or portion of code that includes one or more executable instructions for executing the specified logical function (s). It should also be noted that in some alternative embodiments, the functions mentioned in the blocks or steps may occur out of order. For example, two blocks or steps shown in succession may in fact be performed substantially concurrently, or the blocks or steps may sometimes be performed in reverse order according to the corresponding function.

이하에서는 첨부 도면 및 바람직한 실시예를 참조하여 본 발명을 상세히 설명한다. 참고로, 하기 설명에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings and preferred embodiments. In the following description, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention unnecessarily obscure.

본 발명의 일 실시예에 따른 성형 수술 시뮬레이션 방법은, 이하의 단계를 포함한다.A cosmetic surgery simulation method according to an embodiment of the present invention includes the following steps.

(1) 사용자 단말로부터 사진을 포함하는 콘텐츠를 수신하는 단계;(1) receiving content including a picture from a user terminal;

콘텐츠는 사진 이외에 동영상을 포함할 수 있고, 이에 한정되지 않는다. 사용자 단말에 저장된 콘텐츠를 본 발명의 서버에 단순 업로드할 수도 있고, 본 발명의 성형 수술 시뮬레이션 방법이 설치된 프로그램이나 어플리케이션을 구동하는 중간에 촬영하여 업로드하는 것도 가능하다. The content may include, but is not limited to, moving pictures in addition to pictures. The content stored in the user terminal may be simply uploaded to the server of the present invention or may be photographed and uploaded in the middle of running a program or application installed with the cosmetic surgery simulation method of the present invention.

(2) 상기 콘텐츠로부터 특정 신체 부위를 인식하는 단계;(2) recognizing a specific body part from the contents;

인식된 특정 신체 부위는 가상의 성형 수술 시뮬레이션 대상이 되는 시술 부위로서, 언급된 특정 신체 부위는 눈, 눈썹, 코, 입술, 얼굴형, 이마 라인을 포함하며, 이에 한정되지 않는다.The recognized specific body part is a treatment part to be simulated cosmetic surgery, and the specific body parts mentioned include, but are not limited to, eye, eyebrow, nose, lip, face, forehead line.

(3) 상기 인식된 신체 부위를 대상 이미지로 확정하거나 또는 상기 콘텐츠의 사진을 그대로 대상 이미지로 확정하는 단계;(3) confirming the recognized body part as a target image or confirming a picture of the content as a target image as it is;

전 단계에서는 콘텐츠로부터 신체 부위를 인식하여 사용자 단말에 표시하고, 사용자 단말에서 승인 명령이 나올 경우에는 인식된 신체 부위를 대상 이미지로 확정할 수 있다. 다만, 인식이 잘못되었다거나 사용자 단말이 타겟으로 하는 신체 부위와 다른 경우도 발생할 수 있는바, 사용자 단말의 선택에 따라 업로드된 사진이나 동영상 중의 일부 이미지를 대상 이미지로 확정할 수도 있다. In the previous step, the body part is recognized from the contents and displayed on the user terminal. When the approval command is issued from the user terminal, the recognized body part can be determined as the target image. However, the recognition may be wrong, or the user terminal may be different from the targeted body part. Accordingly, the uploaded image or some images in the moving image may be determined as the target image according to the selection of the user terminal.

(4) 상기 대상 이미지 중 특정 신체 부위에 대한 보정 이미지를 사용자 단말로부터 입력받는 단계;(4) receiving a correction image for a specific body part of the target image from a user terminal;

이때, 보정 이미지를 사용자 단말로부터 입력받는 단계는,In this case, the step of receiving the correction image from the user terminal includes:

i) 특정 신체 부위에 대하여 서버에 미리 저장된 적어도 하나의 보정 옵션 중 하나를 사용자 단말로부터 선택 입력을 수도 있고, 또는i) select input from a user terminal of one of at least one correction option previously stored in the server for a particular body part, or

ii) 상기 사용자 단말로부터 사용자가 물리적인 입력 수단을 통해 점이나 선 또는 면으로 상기 특정 신체 부위에 그려 넣은 보정 이미지를 제공받을 수도 있다. ii) a user may be provided with a correction image drawn on the specific body part by point, line or face through the physical input means from the user terminal.

먼저, 서버에는 각 신체 부위별, 예컨대, 눈썹, 눈, 코, 입술을 선택 옵션과, 각 신체 부위에 대한 다양한 형상에 대한 선택 옵션이 미리 저장되어 있다. 사용자 단말에서는 예컨대, 눈썹을 선택한 후 눈썹의 다양한 성형 형상(일자 눈썹, 갈매기 눈썹 등)을 선택해가면서 대상 이미지에 끌어와 얹혀보면서 자신의 얼굴에 어울리는 눈썹을 찾아낼 수 있다. 각 성형 형상에는 색상이나 두께 등을 조절 가능한 세부적 옵션이 미리 저장되어 사용자 단말에 의해 선택 가능하게 한다. 이 경우, 사용자가 순차적으로 선택하여 최종 확정된 옵션은 대상 이미지의 특정 신체 부위에 반영된다.First, the server stores options for selecting each body part, such as eyebrows, eyes, nose, and lips, and various options for various body parts. In the user terminal, for example, after selecting eyebrows, various shapes of eyebrows (eyebrows, seagulls, eyebrows, etc.) can be selected and browsed on the target image to find eyebrows that match their faces. Detailed shapes that can adjust the color, thickness, and the like are stored in advance in each molded shape so that it can be selected by the user terminal. In this case, the options that are finally selected and selected by the user are reflected in a specific body part of the target image.

한편, 사용자가 대상 이미지에 직접 그린 보정 이미지를 사용자 단말로부터 제공받을 수도 있다. 예컨대, 사용자 단말에서는 터치펜과 같은 별도의 입력 도구를 사용하여 본인이 원하는 색상이나 두께 또는 결로 눈썹을 그려넣을 수도 있고, 이마나 목 등에 잔머리를 지울 수도 있다.Meanwhile, the user may be provided with a correction image drawn directly on the target image from the user terminal. For example, a user may use a separate input tool such as a touch pen to draw a desired color, thickness, or condensation eyebrow, or erase the forehead or neck.

(5) 상기 대상 이미지에 상기 보정 이미지가 결합된 가상 이미지를 생성하여 상기 사용자 단말에 제공하는 단계;(5) generating a virtual image in which the correction image is combined with the target image and providing the virtual image to the user terminal;

위 (4) 단계에서, 서버에서는 제공된 보정 이미지와 대상 이미지를 결합하여 가상 이미지를 생성하고, 이러한 절차는 공지의 프로그램을 통하여 진행 가능하다. In step (4), the server combines the provided corrected image with the target image to generate a virtual image, and this procedure can be performed through a known program.

한편, (5) 단계 이후에, (6) 사용자 단말로부터 서버에 등록된 병원 중 적어도 하나를 선택받고 네트워크를 통해 해당 병원 단말에 상기 대상 이미지 및 상기 가상 이미지를 전송하는 단계; 및 (7) 상기 병원 단말로부터 견적서를 수신하여 상기 사용자 단말에 전송하는 단계;를 더 포함할 수 있다.(5), (6) selecting at least one of the hospitals registered in the server from the user terminal, and transmitting the target image and the virtual image to the hospital terminal through the network; And (7) receiving a quotation from the hospital terminal and transmitting the estimate to the user terminal.

사용자 단말에서는 GPS를 이용한 현재 위치에 기반하여 병원을 하나 이상 선택하거나, 또는 지역별, 전문 영역별, 이용 환자 수별로 병원 정보를 정렬한 후 병원을 선택할 수 있고, 선택된 병원은 서버에 저장된다. 서버에서는 사용자 단말로부터 견적서 제공 요청을 받은 경우, 서버는 사용자가 지정한 병원 단말에 대하여 네트워크를 통해 성형전 대상 이미지와 시뮬레이션 후 가상 이미지를 견적서 제공 요청 메시지와 함께 전송한다. 해당 병원 단말로부터 견적서를 수신한 후 사용자 단말에 해당 견적서를 전송한다. In the user terminal, one or more hospitals can be selected based on the current location using the GPS, or hospital information can be sorted according to the area, the specialty area, the number of patients to be used, and the hospital can be selected. If the server receives a request for quotation from the user terminal, the server sends the image of the patient before the forming and the virtual image after the simulation together with the request message to the hospital terminal designated by the user through the network. After receiving the quote from the hospital terminal, the quote is sent to the user terminal.

한편, (5) 단계 이후에, 상기 가상 이미지에 대응하는 보형물을 제조하는 단계;를 더 포함할 수 있다. 2D의 이미지를 3D의 구조물로 출력하는 방법은 평면 이미지를 3D 모델링으로 변환할 수 있는 공지된 소프트웨어를 활용하여 실행 가능하다. 가상 이미지에 대응하는 형태의 3차원의 보형물을 실제 제작함으로써, 병원의 의사에게 사용자가 원하는 형태의 성형 후 이미지를 2차원 평면 이미지보다 명확히 전달하는 것이 가능한바, 사용자의 니즈를 명확하게 반영 가능하다는 이점을 제공한다. 이에 따라 실제 성형 수술 후 3차원 보형물과 실제 성형 후 모습을 비교 가능한바, 병원에서는 환자로부터 이유없는 항의를 받아 난처해지는 상황을 미연에 방지할 수 있다. On the other hand, after step (5), manufacturing the implant corresponding to the virtual image may be performed. The method of outputting an image of a 2D image as a 3D structure can be executed by using known software capable of converting a plane image into a 3D modeling. It is possible to clearly convey the post-forming image of the user's desired shape to the physician of the hospital more clearly than the two-dimensional plane image by actually producing the three-dimensional implant corresponding to the virtual image, This provides the advantage. As a result, it is possible to compare the three-dimensional implant after the actual plastic surgery with the actual shape after the plastic surgery, and the hospital can prevent the situation from becoming embarrassed by the protest from the patient.

상기와 같은 본 발명의 실시예에 따른 성형 수술 시뮬레이션 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD, DVD, 블루레이, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치, 플래시 메모리 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The above-described cosmetic surgery simulation method according to the embodiment of the present invention can be implemented as a computer-readable code on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include ROM, RAM, CD, DVD, Blu-ray, magnetic tape, floppy disk, optical data storage, flash memory, And the like. The computer readable recording medium may also be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner.

이상에서는 첨부된 도면들을 참조하면서 본 발명의 실시 예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 예를 들어, 당업자는 각 구성요소의 구현 방식, 소스코드 등을 적용 분야에 따라 변경하거나, 개시된 실시 형태들을 조합 또는 치환하여 본 발명의 실시 예에 명확하게 개시되지 않은 형태로 실시할 수 있으나, 이 역시 본 발명의 범위를 벗어나지 않는 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것으로 한정적인 것으로 이해해서는 안 되며, 이러한 변형된 실시 예들은 본 발명의 특허등록청구범위에 기재된 기술사상에 포함된다고 하여야 할 것이다. While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be understood. For example, those skilled in the art can change the implementation method, source code, and the like of each component according to the application, or can combine or replace the disclosed embodiments in a form not explicitly disclosed in the embodiments of the present invention, This also does not depart from the scope of the present invention. Therefore, it should be understood that the above-described embodiments are to be considered in all respects as illustrative and not restrictive, and that such modified embodiments are included in the technical idea described in the claims of the present invention.

Claims (6)

사용자 단말로부터 사진을 포함하는 콘텐츠를 수신하는 단계;
상기 콘텐츠로부터 특정 신체 부위를 인식하는 단계;
상기 인식된 신체 부위를 대상 이미지로 확정하거나 또는 상기 콘텐츠의 사진을 그대로 대상 이미지로 확정하는 단계;
상기 대상 이미지 중 특정 신체 부위에 대한 보정 이미지를 사용자 단말로부터 입력받는 단계; 및
상기 대상 이미지에 상기 보정 이미지가 결합된 가상 이미지를 생성하여 상기 사용자 단말에 제공하는 단계;
를 포함하는 것을 특징으로 하는 성형 수술 시뮬레이션 방법.
Receiving content including a picture from a user terminal;
Recognizing a specific body part from the contents;
Confirming the recognized body part as a target image or confirming a picture of the content as a target image;
Receiving a correction image for a specific body part of the target image from a user terminal; And
Generating a virtual image in which the correction image is combined with the target image and providing the virtual image to the user terminal;
Wherein the method comprises the steps of:
제1항에 있어서,
상기 가상 이미지를 생성하여 상기 사용자 단말에 제공하는 단계 이후에,
사용자 단말로부터 서버에 등록된 병원 중 적어도 하나를 선택받고 네트워크를 통해 해당 병원 단말에 상기 대상 이미지 및 상기 가상 이미지를 전송하는 단계; 및
상기 병원 단말로부터 견적서를 수신하여 상기 사용자 단말에 전송하는 단계;
를 더 포함하는 것을 특징으로 하는 성형 수술 시뮬레이션 방법.
The method according to claim 1,
After generating the virtual image and providing it to the user terminal,
Selecting at least one of the hospitals registered in the server from the user terminal and transmitting the target image and the virtual image to the hospital terminal through the network; And
Receiving a quotation from the hospital terminal and transmitting the estimate to the user terminal;
Further comprising the steps of:
제1항에 있어서,
상기 보정 이미지를 사용자 단말로부터 입력받는 단계는,
상기 특정 신체 부위에 대하여 서버에 미리 저장된 적어도 하나의 보정 옵션 중 하나를 사용자 단말로부터 선택 입력받거나, 또는 상기 사용자 단말로부터 사용자가 물리적인 입력 수단을 통해 점이나 선 또는 면으로 상기 특정 신체 부위에 그려 넣은 보정 이미지를 제공받는 것인, 성형 수술 시뮬레이션 방법.
The method according to claim 1,
Wherein the step of receiving the corrected image from the user terminal comprises:
The user can selectively receive one of at least one correction option stored in advance in the server with respect to the specific body part from the user terminal or from the user terminal through the physical input means to draw on the specific body part in points, Wherein the corrected image is provided.
제2항에 있어서,
상기 서버에는 기 등록된 병원의 신체 부위별 성형법에 대한 정보가 저장되고,
상기 대상 이미지에 상기 보정 이미지가 결합된 가상 이미지를 생성하여 상기 사용자 단말에 제공하는 단계는, 가상 이미지를 상기 사용자 단말로부터 선택받은 적어도 하나의 병원별로 생성하여 사용자 단말에 제공하는 것인, 성형 수술 시뮬레이션 방법.
3. The method of claim 2,
The server stores information on a molding method for each body part of a previously registered hospital,
Wherein the generating the virtual image combined with the correction image and providing the virtual image to the user terminal comprises generating a virtual image for each hospital selected from the user terminal and providing the virtual image to the user terminal, Simulation method.
제1항에 있어서,
상기 인식된 특정 신체 부위는 눈, 눈썹, 코, 입술, 얼굴형, 이마 라인을 포함하고, 상기 콘텐츠는 동영상을 포함하는 것인, 성형 수술 시뮬레이션 방법.
The method according to claim 1,
Wherein the recognized specific body part comprises an eye, an eyebrow, a nose, a lip, a face type, a forehead line, and the content comprises a moving picture.
제1항에 있어서,
상기 대상 이미지에 상기 보정 이미지가 결합된 가상 이미지를 생성하여 상기 사용자 단말에 제공하는 단계 이후에,
상기 가상 이미지에 대응하는 보형물을 제조하는 단계;
를 더 포함하는 것인, 성형 수술 시뮬레이션 방법.
The method according to claim 1,
Generating a virtual image in which the correction image is combined with the target image and providing the generated virtual image to the user terminal,
Fabricating a prosthesis corresponding to the virtual image;
Further comprising the steps of:
KR1020160112781A 2016-09-01 2016-09-01 Method for simulation of plastic surgery KR20180026029A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160112781A KR20180026029A (en) 2016-09-01 2016-09-01 Method for simulation of plastic surgery

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160112781A KR20180026029A (en) 2016-09-01 2016-09-01 Method for simulation of plastic surgery

Publications (1)

Publication Number Publication Date
KR20180026029A true KR20180026029A (en) 2018-03-12

Family

ID=61728863

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160112781A KR20180026029A (en) 2016-09-01 2016-09-01 Method for simulation of plastic surgery

Country Status (1)

Country Link
KR (1) KR20180026029A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190120037A (en) * 2018-04-13 2019-10-23 와이케이씨테크(주) Device for skin diagnosis and analysis of face, neck, scalp, and hair
KR20220026844A (en) 2020-08-26 2022-03-07 (주)어셈블써클 Method and apparatus for simulating clinical image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190120037A (en) * 2018-04-13 2019-10-23 와이케이씨테크(주) Device for skin diagnosis and analysis of face, neck, scalp, and hair
KR20220026844A (en) 2020-08-26 2022-03-07 (주)어셈블써클 Method and apparatus for simulating clinical image

Similar Documents

Publication Publication Date Title
US11730545B2 (en) System and method for multi-client deployment of augmented reality instrument tracking
US11331146B2 (en) Systems and methods for guiding a user during surgical planning
US10564628B2 (en) Generating of 3D-printed custom wearables
EP2933780B1 (en) Reality augmenting method, client device and server
WO2020156143A1 (en) Three-dimensional human pose information detection method and apparatus, electronic device and storage medium
CN112087985A (en) Simulated orthodontic treatment via real-time enhanced visualization
KR20150114138A (en) Method and apparatus for virtual molding SNS service
US11842437B2 (en) Marker-less augmented reality system for mammoplasty pre-visualization
CN111768400A (en) Image processing method and device, electronic equipment and storage medium
US20200118349A1 (en) Information processing apparatus, information processing method, and program
Mangado et al. Automatic model generation framework for computational simulation of cochlear implantation
KR20230074468A (en) Methods and systems for placing transducer arrays and avoiding skin surface conditions
KR20140006138A (en) Virtual cosmetic surgery device and virtual cosmetic surgery system thereof
KR20180026029A (en) Method for simulation of plastic surgery
KR102269027B1 (en) Method for planning implant surgery using HU information of CT device and medical image processing device for the same
CN108764135B (en) Image generation method and device and electronic equipment
KR20140028523A (en) Plastic surgery management system and method using autostereoscopic three-dimensional photograph
CN113034558B (en) Medical diagnosis evaluation system, method, medium and terminal based on image assistance
Mukherjee et al. 20 Year review of three-dimensional tools in otology: challenges of translation and innovation
JP2023009344A (en) Generation method, information processing apparatus, program, and information processing system
KR102152940B1 (en) Medical practice contents cps(contents sercice platform) interworking interface
KR20210074962A (en) Method for making video message easly and device using thereof
CN115937371B (en) Character model generation method and system
KR102287020B1 (en) 3d virtual simulation system based on deep learning and operating method thereof
CN115830161B (en) House type diagram generation method, device, equipment and storage medium