KR102417229B1 - Body map providing device for classification by skin area - Google Patents

Body map providing device for classification by skin area Download PDF

Info

Publication number
KR102417229B1
KR102417229B1 KR1020210153624A KR20210153624A KR102417229B1 KR 102417229 B1 KR102417229 B1 KR 102417229B1 KR 1020210153624 A KR1020210153624 A KR 1020210153624A KR 20210153624 A KR20210153624 A KR 20210153624A KR 102417229 B1 KR102417229 B1 KR 102417229B1
Authority
KR
South Korea
Prior art keywords
information
skin
body map
image
map
Prior art date
Application number
KR1020210153624A
Other languages
Korean (ko)
Inventor
장현재
Original Assignee
주식회사 에프앤디파트너스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에프앤디파트너스 filed Critical 주식회사 에프앤디파트너스
Priority to KR1020210153624A priority Critical patent/KR102417229B1/en
Application granted granted Critical
Publication of KR102417229B1 publication Critical patent/KR102417229B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

The present invention relates to a body map providing device for classification by skin area and more specifically, to a body map providing device for classification by skin area that solves the problem of not being able to identify an exact skin area and provides a body map to accurately select a disease area, thereby allowing a doctor or photographer to accurately photograph the disease area of a patient and store and manage it.

Description

피부 부위별 분류를 위한 바디맵 제공 장치{Body map providing device for classification by skin area}Body map providing device for classification by skin area

본 발명은 피부 부위별 분류를 위한 바디맵 제공 장치에 관한 것으로서, 더욱 상세하게는 정확한 피부 부위를 확인할 수 없는 문제점을 개선하여 바디 맵을 제공하여 질환 부위를 정확하게 선택할 수 있도록 함으로써, 의사 혹은 촬영자가 환자의 해당 질환 부위를 정확하게 촬영하여 저장 관리할 수 있도록 하기 위한 피부 부위별 분류를 위한 바디맵 제공 장치에 관한 것이다.The present invention relates to an apparatus for providing a body map for classification by skin area, and more particularly, by improving the problem of not being able to identify an accurate skin area, and providing a body map so that a diseased area can be accurately selected, a doctor or a photographer can It relates to an apparatus for providing a body map for classification by skin area in order to accurately photograph and store and manage the diseased area of a patient.

최근 임상시험에서 신약의 약효평가 등을 위하여 영상 데이터를 이용하는 방법의 중요성은 점차 강조되고 있다.In recent clinical trials, the importance of using image data to evaluate the efficacy of new drugs is increasingly emphasized.

특히, 표적항암제 및 면역치료제의 개발이 가속화되며 기존의 종양 크기에 기반한 약효평가 외에 기능 및 분자 이미징 바이오 마커(functional and molecular imaging biomarker)를 이용한 약효 평가가 매우 유용해지며 중요해지고 있다.In particular, as the development of targeted anticancer drugs and immunotherapeutic agents is accelerated, drug efficacy evaluation using functional and molecular imaging biomarkers in addition to the existing drug efficacy evaluation based on tumor size has become very useful and important.

또한, 이러한 이미징 바이오 마커가 많아지고 이미징 데이터가 방대해짐에 따라 임상시험이나 전임상시험에서 임상시험 의료영상 관리의 필요성이 증대되고 있다.In addition, as the number of these imaging biomarkers increases and the amount of imaging data increases, the need for clinical trial medical image management in clinical trials or preclinical trials is increasing.

이와 같이, 임상시험에서 영상 데이터의 중요성이 더욱 커지고 있지만, 임상 데이터 처리 과정에서 영상데이터와 수치데이터를 통합하여 관리할 수 있는 시스템을 제공하지 못하고 있는 실정이다.As described above, although the importance of image data in clinical trials is increasing, it is not possible to provide a system capable of integrating and managing image data and numerical data during clinical data processing.

따라서, 종래에는 영상 데이터를 서버의 별도의 웹페이지에 업로드 하거나 CD/DVD를 이용하여 택배 발송을 하고 있으며, 이 과정에서 업로드 실패와 CD/DVD 분실로 인한 영상 데이터의 손실이 빈번하게 발생하기 때문에 영상 데이터 전송 및 관리가 어렵고, 영상 데이터의 손실 및 분실 가능성이 높은 문제점이 있었다.Therefore, conventionally, video data is uploaded to a separate web page of the server or delivered by courier using CD/DVD. There were problems in that it was difficult to transmit and manage image data, and the possibility of loss and loss of image data was high.

또한, 지정된 시간과 장소에서만 영상 판독(Central review)이 가능한 번거로움이 있으며, 임상시험에서 획득된 영상 데이터의 보관이 어려운 문제점도 있었다.In addition, there is a problem in that it is possible to read images (central review) only at a designated time and place, and there is a problem in that it is difficult to store image data obtained in a clinical trial.

즉, 피부 진단을 위한 전통적인 임상 방법은 간호사에 의해 촬영된 피부 병변 부위의 더마 스코프 사진을 의사가 판독하는 절차를 가지고 있으며, 피부 병변 부위가 넓게 퍼져 있거나, 복수의 피부 질환을 가진 경우, 간호사가 더마 스코프 사진 촬영을 위한 병변 부위를 특정하기 어려워 진단 과정이 비효율적으로 길어지는 문제가 있었다.That is, the traditional clinical method for skin diagnosis has a procedure in which a doctor reads a dermascope picture of a skin lesion site taken by a nurse, and if the skin lesion area is widely spread or has multiple skin diseases, the nurse There was a problem in that it was difficult to specify the lesion site for dermascope photography, so the diagnosis process was inefficiently lengthened.

따라서, 피부 진단에 걸리는 시간을 단축하여 간호사와 의사의 불필요한 수고를 덜고 환자에게는 신속하고 지능적인 의료 서비스를 제공하기 위한 기술 개발이 필요하게 된 것이다.Therefore, it is necessary to develop a technology to shorten the time taken for skin diagnosis, reduce unnecessary labor of nurses and doctors, and provide prompt and intelligent medical services to patients.

특히, 피부진단을 위한 전통적인 임상적 방법은 간호사에 의해 촬영된 피부 병변 부위의 더모스코피 사진을 의사가 판독하는 절차이기 때문에 임상 사진은 육안 검사 및 피부 병변의 위치 등을 기록하기 위한 참조적 용도로 사용되는 것에 불과하였다.In particular, since the traditional clinical method for skin diagnosis is a procedure in which a doctor reads a dermoscopy picture of a skin lesion taken by a nurse, the clinical picture is used as a reference to record the location of the skin lesion, etc. was only used as

그런데, 피부 병변 부위가 넓게 퍼져 있거나 복수의 피부질환을 가진 경우, 간호사가 더모스코피 사진 촬영을 위한 병변 부위를 특정하기 어려워 진단 과정이 비효율적으로 길어지는 문제가 있었다. However, when the skin lesion site is widely spread or has multiple skin diseases, it is difficult for the nurse to specify the lesion site for dermoscopy, so the diagnosis process becomes inefficiently long.

따라서, 피부 진단에 걸리는 시간을 단축하여 간호사와 의사의 불필요한 수고를 덜고 환자에게는 신속하고 지능적인 의료 서비스를 제공하기 위한 기술 개발이 필요하게 되었다.Therefore, it is necessary to develop a technology for reducing the time required for skin diagnosis, reducing unnecessary labor of nurses and doctors, and providing prompt and intelligent medical services to patients.

한편, 도 1에 도시한 바와 같이, 종래의 촬영 방식은 2D 이미지 종이 상에 병변 부위를 점을 찍어 표시하고, 해당 2D 이미지 종이를 촬영자 혹은 의사가 획득하여 해당 위치를 다시 확인하여 촬영 여부를 결정하는 방식을 채택하였다.On the other hand, as shown in FIG. 1 , in the conventional imaging method, a lesion site is marked with dots on a 2D image paper, and a photographer or a doctor acquires the 2D image paper and rechecks the location to determine whether to shoot. method was adopted.

따라서, 발 뒤꿈치에 뭔가 질환이 있다 하더라도 확인할 수 없었으며, 측면 부위의 경우에 확인이 어려웠다.Therefore, it could not be confirmed even if there was a disease in the heel, and it was difficult to confirm in the case of the side area.

즉, 2D 이미지 종이를 보고 의사가 해당 부위가 어딘지를 육안으로 재확인해야 하는 번거로움이 존재하는 것이다.That is, there is the inconvenience of having to visually reconfirm the location of the affected area by looking at the 2D image paper.

따라서, 의사가 육안으로 재확인하는 절차없이 실시간으로 해당 위치를 확인할 수 있는 새로운 스타일의 촬영 기술이 필요하게 되었다.Therefore, there is a need for a new style of shooting technology that allows the doctor to check the location in real time without the procedure of reconfirming it with the naked eye.

대한민국공개특허공보 제10-2019-0118358호Republic of Korea Patent Publication No. 10-2019-0118358

따라서, 본 발명은 상기와 같은 종래 기술의 문제점을 감안하여 제안된 것으로서, 본 발명의 제1 목적은 종래의 정확한 피부 부위를 확인할 수 없는 문제점을 개선하여 바디 맵을 제공하여 질환 부위를 정확하게 선택할 수 있도록 함으로써, 의사 혹은 촬영자가 환자의 해당 질환 부위를 정확하게 촬영하여 저장 관리할 수 있도록 하는데 있다.Therefore, the present invention has been proposed in view of the problems of the prior art as described above, and a first object of the present invention is to provide a body map by improving the conventional problem of not being able to identify an accurate skin region, so that a diseased region can be accurately selected. By doing so, a doctor or photographer can accurately photograph the diseased area of the patient and store and manage it.

본 발명의 제2 목적은 종래의 판독과 촬영이 분리된 피부 진단 프로세스를 간소화하며, 피부 영상의 디지털화를 통한 피부 의료 영상의 자동 전송에 따른 환자별 빅데이터 구축 및 빅데이터의 효율적 히스토리 관리가 가능하도록 하는데 있다.A second object of the present invention is to simplify the skin diagnosis process in which the conventional reading and imaging are separated, and to establish big data for each patient and efficiently manage the history of big data according to the automatic transmission of skin medical images through digitization of skin images. is to do it

본 발명이 해결하고자 하는 과제를 달성하기 위하여, 본 발명의 일실시예에 따른 피부 부위별 분류를 위한 바디맵 제공 장치는,In order to achieve the problem to be solved by the present invention, an apparatus for providing a body map for classification by skin region according to an embodiment of the present invention,

바디맵서버로부터 바디 맵 정보를 획득하고, 획득한 바디 맵 정보를 이용해 바디 맵을 화면에 표출시키고, 바디 맵을 통해 화면에 표출된 인체의 3차원 객체 영상에 체크된 병변 부위에 대한 병변 위치 정보(180)를 바디맵서버로 제공하기 위한 보조단말기(100)와,Acquire body map information from the body map server, display the body map on the screen using the acquired body map information, and information on the lesion location for the lesion site checked in the 3D object image of the human body displayed on the screen through the body map An auxiliary terminal 100 for providing 180 as a body map server;

바디 맵 정보를 저장하고 있으며, 보조단말기에서 제공된 병변 위치 정보(180)를 저장하고, 저장된 병변 위치 정보를 촬영단말기로 제공하고, 촬영단말기가 제공하는 환자의 피부 영상을 저장하기 위한 바디맵서버(200)와,Body map server ( 200) and

바디맵서버로부터 병변 위치 정보를 획득할 경우에 병변 위치 정보에 해당하는 환자의 피부 영상을 촬영하고, 촬영된 피부 영상 정보를 바디맵서버로 제공하기 위한 촬영단말기(300)를 포함한다.In the case of obtaining lesion location information from the body map server, a photographing terminal 300 for photographing a patient's skin image corresponding to the lesion location information and providing the photographed skin image information to the body map server is included.

본 발명인 피부 부위별 분류를 위한 바디맵 제공 장치를 통해, 종래의 정확한 피부 부위를 확인할 수 없는 문제점을 개선하여 바디 맵을 제공하여 질환 부위를 정확하게 선택할 수 있도록 함으로써, 의사 혹은 촬영자가 환자의 해당 질환 부위를 정확하게 촬영하여 저장 관리할 수 있는 효과를 제공하여 진찰 오류를 방지할 수 있는 효과를 발휘하게 된다.The present invention provides a body map to accurately select a diseased region by improving the conventional problem of not being able to identify an accurate skin region through the device for providing a body map for classification by skin region, so that a doctor or photographer can accurately select a diseased region. It provides the effect of accurately photographing the area and storing and managing it, thereby exhibiting the effect of preventing diagnosis errors.

또한, 종래의 판독과 촬영이 분리된 피부 진단 프로세스를 간소화하며, 피부 영상의 디지털화를 통한 피부 의료 영상의 자동 전송에 따른 환자별 빅데이터 구축 및 빅데이터의 효율적 히스토리 관리가 가능한 효과를 발휘하게 된다.In addition, it simplifies the skin diagnosis process in which the conventional reading and imaging are separated, and the automatic transmission of skin medical images through digitization of skin images enables the establishment of big data for each patient and the efficient history management of big data. .

도 1은 종래 2차원 촬영 위치를 체크하는 종이 예시도.
도 2는 본 발명의 일실시예에 따른 피부 부위별 분류를 위한 바디맵 제공 장치의 개념 구성도.
도 3은 본 발명의 일실시예에 따른 피부 부위별 분류를 위한 바디맵 제공 장치의 바디맵서버(200) 블록도.
도 4 내지 도 11은 본 발명의 일실시예에 따른 피부 부위별 분류를 위한 바디맵 제공 장치의 바디 맵 예시도.
도 12는 본 발명의 일실시예에 따른 피부 부위별 분류를 위한 바디맵 제공 장치에서 제공하는 팍스페이지의 예시도.
1 is a paper example for checking a conventional two-dimensional photographing position.
2 is a conceptual block diagram of an apparatus for providing a body map for classification by skin region according to an embodiment of the present invention.
3 is a block diagram of a body map server 200 of an apparatus for providing a body map for classification by skin region according to an embodiment of the present invention.
4 to 11 are exemplary body map views of an apparatus for providing a body map for classification by skin region according to an embodiment of the present invention.
12 is an exemplary view of a pax page provided by the apparatus for providing a body map for classification by skin region according to an embodiment of the present invention.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만, 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. The following is merely illustrative of the principles of the invention. Therefore, those skilled in the art will be able to devise various devices that, although not explicitly described or shown herein, embody the principles of the present invention and are included within the spirit and scope of the present invention.

또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.In addition, all conditional terms and examples listed herein are, in principle, expressly intended only for the purpose of understanding the concept of the present invention, and it should be understood that they are not limited to the specifically enumerated embodiments and states as such. do.

이하, 도면을 참조하여 본 발명에 의한 피부 부위별 분류를 위한 바디맵 제공 장치의 실시예를 상세히 설명하도록 한다.Hereinafter, an embodiment of the apparatus for providing a body map for classification by skin region according to the present invention will be described in detail with reference to the drawings.

도 2는 본 발명의 일실시예에 따른 피부 부위별 분류를 위한 바디맵 제공 장치의 개념 구성도이다.2 is a conceptual block diagram of an apparatus for providing a body map for classification by skin region according to an embodiment of the present invention.

도 2에 도시한 바와 같이, 본 발명인 피부 부위별 분류를 위한 바디맵 제공 장치는, As shown in Fig. 2, the present invention provides an apparatus for providing a body map for classification by skin region,

바디맵서버로부터 바디 맵 정보를 획득하고, 획득한 바디 맵 정보를 이용해 바디 맵을 화면에 표출시키고, 바디 맵을 통해 화면에 표출된 인체의 3차원 객체 영상에 병변 부위를 설정하여 병변 부위에 대한 병변 위치 정보(180)를 바디맵서버로 제공하기 위한 보조단말기(100)와,Acquire body map information from the body map server, display the body map on the screen using the acquired body map information, and set the lesion area on the 3D object image of the human body displayed on the screen through the body map to determine the lesion area. Auxiliary terminal 100 for providing lesion location information 180 to the body map server;

바디 맵 정보를 저장하고 있으며, 보조단말기에서 제공된 병변 위치 정보(180)를 저장하고, 저장된 병변 위치 정보를 촬영단말기로 제공하고, 촬영단말기가 제공하는 환자의 피부 영상을 저장하기 위한 바디맵서버(200)와,Body map server ( 200) and

바디맵서버로부터 병변 위치 정보를 획득할 경우에 병변 위치 정보에 해당하는 환자의 피부 영상을 촬영하고, 촬영된 피부 영상 정보를 바디맵서버로 제공하기 위한 촬영단말기(300)를 포함하여 구성되는 것을 특징으로 한다.When the lesion location information is obtained from the body map server, the skin image of the patient corresponding to the lesion location information is photographed, and the photographing terminal 300 is configured to include the photographing terminal 300 for providing the captured skin image information to the body map server. characterized.

상기 보조단말기(100)는 바디맵서버로부터 바디 맵 정보를 획득하고, 획득한 바디 맵 정보를 이용해 바디 맵을 화면에 표출시키고, 바디 맵을 통해 화면에 표출된 인체의 3차원 객체 영상에 병변 부위를 설정하여 병변 부위에 대한 병변 위치 정보(180)를 바디맵서버로 제공하는 기능을 수행하게 된다.The auxiliary terminal 100 obtains body map information from the body map server, displays the body map on the screen using the obtained body map information, and shows the lesion site on the 3D object image of the human body displayed on the screen through the body map. By setting , the function of providing the lesion location information 180 for the lesion site to the body map server is performed.

예를 들어, 바디맵서버에서 제공되는 바디 맵 정보를 이용해 도 4에 도시한 바와 같은 바디 맵을 화면에 표출시키고, 바디 맵을 통해 화면에 표출된 인체의 3차원 객체 영상에 진료자가 진료하고자 하는 병변 부위를 설정하게 되는 것이다. 이후, 인체의 3차원 객체 영상에 설정된 병변 부위에 대한 병변 위치 정보(180)를 바디맵서버로 제공하여 저장 관리할 수 있도록 하는 것이다.For example, the body map as shown in FIG. 4 is displayed on the screen using body map information provided by the body map server, and the 3D object image of the human body displayed on the screen through the body map is displayed by the practitioner. The lesion site will be established. Thereafter, the lesion location information 180 on the lesion site set in the 3D object image of the human body is provided to the body map server so that it can be stored and managed.

바디맵서버로부터 획득한 바디 맵 정보를 이용해 화면에 도 4와 같은 바디 맵이 표출된다. 사용자(의사)는 화면에 표출된 바디 맵을 이용해 진료를 위해 인체의 3차원 객체 영상을 화면에 표출시킨다. A body map as shown in FIG. 4 is displayed on the screen using the body map information obtained from the body map server. The user (doctor) uses the body map displayed on the screen to display a 3D object image of the human body on the screen for treatment.

구체적으로, 바디 맵 정보를 이용해 화면에 표출되는 바디 맵은 도 4에 도시한 바와 같이, Specifically, the body map displayed on the screen using body map information is shown in FIG. 4 ,

선택 시, 인체의 3차원 객체 영상 중, 인체의 전방 3차원 객체 영상이 표출되도록 하는 전방바디핫키레이어(151);a front body hot key layer 151 for displaying a front 3D object image of a human body among 3D object images of a human body when selected;

선택 시, 인체의 3차원 객체 영상 중, 인체의 후방 3차원 객체 영상이 표출되도록 하는 후방바디핫키레이어(152);a rear body hotkey layer 152 for displaying a rear 3D object image of the human body among the 3D object images of the human body when selected;

선택 시, 인체의 3차원 객체 영상 중, 인체의 좌측 3차원 객체 영상이 표출되도록 하는 좌측바디핫키레이어(153);a left body hotkey layer 153 for displaying a left 3D object image of a human body among 3D object images of a human body when selected;

선택 시, 인체의 3차원 객체 영상 중, 인체의 우측 3차원 객체 영상이 표출되도록 하는 우측바디핫키레이어(154);a right body hotkey layer 154 for displaying a right 3D object image of a human body among 3D object images of a human body when selected;

선택 시, 인체의 3차원 객체 영상 중, 인체의 얼굴 3차원 객체 영상이 표출되도록 하는 얼굴핫키레이어(155);a face hot key layer 155 for displaying a face 3D object image of a human body among 3D object images of a human body when selected;

선택 시, 인체의 3차원 객체 영상 중, 인체의 손 3차원 객체 영상이 표출되도록 하는 손핫키레이어(156);a hand hot key layer 156 for displaying a 3D object image of a human hand from among the 3D object images of the human body when selected;

선택 시, 인체의 3차원 객체 영상 중, 인체의 발 3차원 객체 영상이 표출되도록 하는 발핫키레이어(157);a foot hot key layer 157 for displaying a 3D object image of a human foot from among the 3D object images of the human body when selected;

핫키레이어 선택에 따른 인체의 3차원 객체 영상이 표시되는 영상 표시레이어(158)을 포함하는 것을 특징으로 한다.and an image display layer 158 on which a 3D object image of a human body is displayed according to the selection of the hot key layer.

상기 전방바디핫키레이어(151)는 사용자의 선택 시, 도 4에 도시한 바와 같이, 인체의 3차원 객체 영상 중, 인체의 전방 3차원 객체 영상이 표출되도록 하는 기능을 수행하게 된다. 즉, 전방바디핫키레이어(151)에 있는 해당 버튼을 클릭하게 되면 인체의 전방 3차원 객체 영상이 표출되게 되는 것이다.When the user selects the front body hotkey layer 151 , as shown in FIG. 4 , the front body hotkey layer 151 performs a function of displaying the front 3D object image of the human body among the 3D object images of the human body. That is, when the corresponding button on the front body hotkey layer 151 is clicked, an image of the front 3D object of the human body is displayed.

상기 후방바디핫키레이어(152)는 사용자의 선택 시, 도 5에 도시한 바와 같이, 인체의 3차원 객체 영상 중, 인체의 후방 3차원 객체 영상이 표출되도록 하는 기능을 수행하게 된다. 즉, 후방바디핫키레이어(152)에 있는 해당 버튼을 클릭하게 되면 인체의 후방 3차원 객체 영상이 표출되게 되는 것이다.When the user selects the rear body hotkey layer 152, as shown in FIG. 5 , the rear body hotkey layer 152 performs a function of displaying the rear 3D object image of the human body among the 3D object images of the human body. That is, when the corresponding button in the rear body hot key layer 152 is clicked, the rear 3D object image of the human body is displayed.

상기 좌측바디핫키레이어(153)는 사용자의 선택 시, 도 6에 도시한 바와 같이, 인체의 3차원 객체 영상 중, 인체의 좌측 3차원 객체 영상이 표출되도록 하는 기능을 수행하게 된다. 즉, 좌측바디핫키레이어(153)에 있는 해당 버튼을 클릭하게 되면 인체의 좌측 3차원 객체 영상이 표출되게 되는 것이다.When the user selects the left body hotkey layer 153, as shown in FIG. 6 , the left body hotkey layer 153 performs a function of displaying the left 3D object image of the human body among the 3D object images of the human body. That is, when the corresponding button in the left body hotkey layer 153 is clicked, the left 3D object image of the human body is displayed.

상기 우측바디핫키레이어(154)는 사용자의 선택 시, 도 7에 도시한 바와 같이, 인체의 3차원 객체 영상 중, 인체의 우측 3차원 객체 영상이 표출되도록 하는 기능을 수행하게 된다. 즉, 좌측바디핫키레이어(154)에 있는 해당 버튼을 클릭하게 되면 인체의 우측 3차원 객체 영상이 표출되게 되는 것이다.When the user selects the right body hot key layer 154, as shown in FIG. 7 , the right body hotkey layer 154 performs a function of displaying the right 3D object image of the human body among the 3D object images of the human body. That is, when the corresponding button in the left body hotkey layer 154 is clicked, the right 3D object image of the human body is displayed.

상기 얼굴핫키레이어(155)는 사용자의 선택 시, 도 8에 도시한 바와 같이, 인체의 3차원 객체 영상 중, 인체의 얼굴 3차원 객체 영상이 표출되도록 하는 기능을 수행하게 된다. 즉, 얼굴핫키레이어(155)에 있는 해당 버튼을 클릭하게 되면 인체의 얼굴 3차원 객체 영상이 표출되게 되는 것이다.When a user selects the face hot key layer 155 , as shown in FIG. 8 , the face hot key layer 155 performs a function of displaying a face 3D object image of a human body among 3D object images of the human body. That is, when a corresponding button in the face hot key layer 155 is clicked, a 3D image of a human face is displayed.

상기 손핫키레이어(156)는 사용자의 선택 시, 도 9에 도시한 바와 같이, 인체의 3차원 객체 영상 중, 인체의 손 3차원 객체 영상이 표출되도록 하는 기능을 수행하게 된다. 즉, 손핫키레이어(151)에 있는 해당 버튼을 클릭하게 되면 인체의 손 3차원 객체 영상이 표출되게 되는 것이다.When the user selects the hand hot key layer 156, as shown in FIG. 9 , the hand hot key layer 156 performs a function of displaying a 3D object image of a hand of a human body among 3D object images of a human body. That is, when a corresponding button in the hand hot key layer 151 is clicked, a 3D image of a human hand is displayed.

해당 버튼을 클릭하게 되면 손 맵 이미지가 표출되게 되는데, 손의 경우, L BACK, L PALM, R BACK, R PALM의 선택 버튼을 표출시켜 이 중 어느 하나를 선택하게 되면 이를 화면에 표출시키게 된다.When the corresponding button is clicked, the hand map image is displayed. In the case of the hand, the selection buttons of L BACK, L PALM, R BACK, and R PALM are displayed, and when any one of them is selected, it is displayed on the screen.

상기 발핫키레이어(157)는 사용자의 선택 시, 도 10에 도시한 바와 같이, 인체의 3차원 객체 영상 중, 인체의 발 3차원 객체 영상이 표출되도록 하는 기능을 수행하게 된다. 즉, 발핫키레이어(157)에 있는 해당 버튼을 클릭하게 되면 인체의 발 3차원 객체 영상이 표출되게 되는 것이다.When the user selects the foot hot key layer 157, as shown in FIG. 10 , the foot hot key layer 157 performs a function of displaying a three-dimensional object image of a human foot among the three-dimensional object images of the human body. That is, when a corresponding button in the foot hot key layer 157 is clicked, a 3D object image of a human foot is displayed.

해당 버튼을 클릭하게 되면 발 맵 이미지가 표출되게 되는데, 발의 경우, L TOP, L BOTTOM, R TOP, R BOTTOM의 선택 버튼을 표출시켜 이 중 어느 하나를 선택하게 되면 이를 화면에 표출시키게 된다.When the corresponding button is clicked, the foot map image is displayed. In the case of the foot, the selection buttons of L TOP, L BOTTOM, R TOP, and R BOTTOM are displayed, and when any one of these is selected, it is displayed on the screen.

상기 영상 표시레이어(158)는 각 핫키레이어 선택에 따른 해당 인체의 3차원 객체 영상이 표시되는 기능을 수행하게 된다. 즉, 각 핫키레이어 선택에 따라 도 4 내지 도10에 도시된 바와 같은 인체의 3차원 객체 영상이 영상 표시레이어(158)에 표시된다.The image display layer 158 performs a function of displaying a 3D object image of the human body according to the selection of each hot key layer. That is, the 3D object image of the human body as shown in FIGS. 4 to 10 is displayed on the image display layer 158 according to the selection of each hot key layer.

상기와 같이, 바디 맵 상에 핫키 버튼을 제공함으로써, 인체 중 촬영하기를 원하는 위치를 신속하게 선택할 수 있는 장점을 제공하게 된다.As described above, by providing the hotkey button on the body map, it is possible to quickly select a desired location in the human body to be photographed.

또한, 바디 맵을 통해 화면에 표출된 인체의 3차원 객체 영상(158)에 체크된 병변 부위에 대한 병변 위치 정보(180)는,In addition, the lesion location information 180 for the lesion site checked in the 3D object image 158 of the human body displayed on the screen through the body map is,

화면에 표출된 인체의 3차원 객체 영상의 어느 한 지점에 클릭된 포인트의 위치 정보(181)와,Position information 181 of a point clicked on any one of the three-dimensional object image of the human body displayed on the screen;

클릭된 포인트 주변의 인체 부위 영역 정보(182)를 포함하되,Including information 182 of the body part area around the clicked point,

직관적으로 피부 질환 위치를 파악할 수 있도록 상기 클릭된 포인트와 클릭된 포인트 주변의 인체 부위 영역은 서로 다른 색 정보를 갖는 것을 특징으로 한다.The clicked point and the region of the body part around the clicked point have different color information so that the location of the skin disease can be intuitively identified.

도 8에 도시한 바와 같이, 사용자(의사)는 화면에 표출된 인체의 3차원 객체 영상(도 8에는 얼굴 영상이 예시됨)에 진료하고자 하는 병변 부위를 클릭한다.As shown in FIG. 8 , the user (doctor) clicks on the lesion site to be treated on the 3D object image of the human body displayed on the screen (a face image is exemplified in FIG. 8).

클릭된 포인트의 위치 정보는 병변 부위에 대한 위치 정보로 기능한다.The location information of the clicked point functions as location information on the lesion site.

또한, 클릭된 포인트 주변의 인체 부위 영역 정보(182)가 생성된다. 예를 들어, 얼굴의 왼쪽 광대뼈 중 특정 병변 위치가 클릭되면 왼쪽 광대뼈 주변 영역이 클릭된 포인트 주변의 인체 부위 영역 정보(182)로 생성된다.In addition, information 182 of the body part area around the clicked point is generated. For example, when a specific lesion position among the left cheekbones of the face is clicked, the area around the left cheekbone is generated as information 182 on the body part area around the clicked point.

특히, 상기 클릭된 포인트와 클릭된 포인트 주변의 인체 부위 영역은 서로 다른 색 정보를 갖게 되는데, 이는 직관적으로 피부 질환 위치를 파악할 수 있도록 하기 위함이다.In particular, the clicked point and the region of the body part around the clicked point have different color information, so that the location of the skin disease can be intuitively identified.

예를 들어, 도 8과 같이, 클릭된 포인트 주변의 인체 부위 영역을 하늘색으로 표시하고, 클릭된 포인트는 붉은색으로 표시함으로써, 직관적으로 피부 질환 위치를 파악할 수 있도록 한다.For example, as shown in FIG. 8 , the region of the body part around the clicked point is displayed in light blue and the clicked point is displayed in red, so that the location of the skin disease can be intuitively identified.

상기 바디맵서버(200)는 바디 맵 정보를 저장하고 있으며, 보조단말기에서 제공된 병변 위치 정보(180)를 저장하고, 저장된 병변 위치 정보를 촬영단말기로 제공하고, 촬영단말기가 제공하는 환자의 피부 영상을 저장하는 기능을 제공하게 된다.The body map server 200 stores body map information, stores lesion location information 180 provided from an auxiliary terminal, provides the stored lesion location information to a photographing terminal, and provides a patient's skin image provided by the photographing terminal A function to save is provided.

예를 들어, 보조단말기에서 제공된 복부 부위의 병변 위치 정보와 촬영단말기에서 제공된 복부에 대한 피부 영상 정보를 해당 환자 정보 필드에 매칭시켜 저장하게 되는 것이다.For example, lesion location information on the abdomen provided by the auxiliary terminal and skin image information on the abdomen provided by the imaging terminal are matched to the corresponding patient information field and stored.

일반적으로 피부과의 경우, 피부영상촬영수단, 예를 들어, 확대경을 이용하여 피부 표면을 확인하게 되고, 확인 후, 이에 대한 영상 정보는 별도로 관리하고 있지 않아 지속적인 피부 표면 상태를 확인하는데 상당한 애로 사항을 겪고 있다.In general, in the case of dermatology, the skin surface is checked using a skin imaging means, for example, a magnifying glass. are suffering

이를 해결하기 위하여 촬영 프로세스를 정립화하여 이를 통해 일관성있는 정보를 획득하여 이를 저장하여 관리하도록 함으로써, 종래 오진의 문제점을 해결할 수 있게 된다.In order to solve this problem, the problem of conventional misdiagnosis can be solved by establishing a photographing process, obtaining consistent information through this, and storing and managing it.

이하에서는 도면을 참조하여 바디맵서버(200)에 대해 구체적으로 설명하도록 한다.Hereinafter, the body map server 200 will be described in detail with reference to the drawings.

도 3은 본 발명의 일실시예에 따른 피부 부위별 분류를 위한 바디맵 제공 장치의 바디맵서버(200) 블록도이다.3 is a block diagram of a body map server 200 of an apparatus for providing a body map for classification by skin region according to an embodiment of the present invention.

도 3에 도시한 바와 같이, 바디맵서버(200)는 바디맵정보디비(210), 바디맵정보제공부(220), 영상정보획득부(230), 피부영상정보저장처리부(240), 환자피부영상정보저장부(250)를 포함하여 구성되게 된다.As shown in FIG. 3 , the body map server 200 includes a body map information DB 210 , a body map information provider 220 , an image information acquisition unit 230 , a skin image information storage processing unit 240 , and a patient It will be configured to include a skin image information storage unit (250).

구체적으로, 바디맵서버(200)는,Specifically, the body map server 200,

바디 맵 정보를 저장하고 있는 바디맵정보디비(210)와;a body map information DB 210 that stores body map information;

상기 바디맵정보디비에 저장된 바디 맵 정보를 보조단말기로 제공하기 위한 바디맵정보제공부(220)와;a body map information providing unit 220 for providing the body map information stored in the body map information DB to an auxiliary terminal;

상기 보조단말기(100)에서 제공된 병변 위치 정보와 촬영단말기(300)에서 제공된 피부 영상 정보를 획득하기 위한 영상정보획득부(230)와;an image information acquisition unit 230 for acquiring lesion location information provided from the auxiliary terminal 100 and skin image information provided from the imaging terminal 300;

상기 영상정보획득부에서 획득된 병변 위치 정보와 피부 영상 정보를 해당 환자 정보 필드에 매칭시켜 환자피부영상정보저장부에 저장 처리하기 위한 피부영상정보저장처리부(240)와;a skin image information storage processing unit 240 for matching the lesion location information and the skin image information obtained in the image information acquisition unit to the corresponding patient information field, and storing and processing the lesion position information and the skin image information in the patient skin image information storage unit;

병변 위치 정보와 피부 영상 정보를 환자 정보 필드별로 저장하고 있는 환자피부영상정보저장부(250);를 포함하는 것을 특징으로and a patient skin image information storage unit 250 that stores lesion location information and skin image information for each patient information field.

상기 바디맵정보디비(210)는 바디 맵 정보를 저장하고 있으며, 상기 바디맵정보제공부(220)는 바디맵정보디비에 저장된 바디 맵 정보를 보조단말기로 제공하기 위한 기능을 수행하게 된다.The body map information DB 210 stores body map information, and the body map information providing unit 220 performs a function to provide the body map information stored in the body map information DB to an auxiliary terminal.

상기 바디 맵 정보는 인체 부위별 코드값과 인체 부위 명칭이 맵핑되어 있는 정보로서, 인체의 3차원 객체 영상이 보조단말기 화면에 표출될 수 있도록 하는 정보인 것을 특징으로 한다.The body map information is information in which a code value for each body part and a body part name are mapped, and it is characterized in that it is information that enables a 3D object image of a human body to be displayed on a screen of an auxiliary terminal.

예를 들어, 도 11에 도시한 바와 같이, 손의 경우, 왼손과 오른손이 존재하고, 손등과 손바닥이 존재하게 된다. 이때, 각각의 부위마다 코드값을 맵핑시키고, 여기에 인체 부위 명칭을 맵핑시킨 것이다.For example, as shown in FIG. 11 , in the case of the hand, the left hand and the right hand exist, and the back of the hand and the palm exist. In this case, a code value is mapped for each part, and the name of a body part is mapped here.

따라서, 분류되어 있는 객체가 합성되어 하나의 바디 맵을 완성한 것이고, 만약 보조단말기에서 특정 부위를 클릭하게 되면 자세한 위치를 영역과 점(포인트)로 표시하게 된다.Accordingly, the classified objects are synthesized to complete one body map, and if a specific part is clicked on the auxiliary terminal, the detailed location is displayed as an area and a point (point).

이때, 진단자가 선택한 부위는 미리 정의된 코드값과 명칭을 포함하고 있어 OK 버튼을 누르게 되면 의사나 촬영자가 해당 부위를 촬영하게 되는 것이다.In this case, the part selected by the diagnostician includes a predefined code value and a name, and when the OK button is pressed, the doctor or the photographer will photograph the corresponding part.

한편, 상기한 코드값이란, 도 5에 도시한 바와 같이, 왼쪽 엉덩이를 선택하게 되면, 하측에 여기에 맵핑된 코드값 '231'을 표출시키게 되는 것이다.On the other hand, the above-described code value, as shown in FIG. 5 , when the left hip is selected, the code value '231' mapped here to the lower side is expressed.

따라서, 상기 코드값과 명칭이 맵핑되어 촬영단말기로 제공되기 때문에 의사 혹은 촬영자가 해당 위치를 육안으로 다시 재확인해야 하는 문제점을 해결하게 된다.Accordingly, since the code value and the name are mapped and provided to the photographing terminal, the problem that the doctor or the photographer must reconfirm the location with the naked eye is solved.

즉, 도 4에 도시한 바와 같이, 바디 맵을 보조단말기로 제공하여 보조단말기 화면 상에 표시된 바디 맵상에 병변 의심 부위를 진단자가 체크하게 된다.That is, as shown in FIG. 4 , the body map is provided to the auxiliary terminal so that the diagnostician checks the suspected lesion area on the body map displayed on the screen of the auxiliary terminal.

예를 들어, 종래 피부과 이외의 진료과에서 일반적으로 사용하고 있는 엑스레이의 경우에는 굳이 병변 위치를 표시하지 않았다.For example, in the case of an X-ray that is generally used in departments other than dermatology, the location of the lesion is not necessarily indicated.

왜냐하면, 대부분이 대면적으로 촬영하기에 인체의 손, 다리, 몸, 머리 중 어디인지를 전문의는 바로 판별해 낼 수가 있게 된다.Because most of the shots are taken in a large area, a specialist can immediately determine whether it is the hand, leg, body, or head of the human body.

그러나, 피부과에서 사용되는 촬영 이미지는 확대경을 통해 확대된 피부 이미지를 사용하기 때문에 촬영시 촬영 위치가 어디인지를 반드시 제공해줘야 전문의가 이를 보고 즉각적으로 판별해낼 수가 있게 되지만, 현재 이러한 기술은 제공하고 있지 않아 전문의가 해당 위치를 확인하기 위하여 촬영자와 통화를 하거나, 촬영자로부터 별도의 메시지를 받은 후, 확인하는 과정을 거치게 되어 대부분 전문의가 직접 보면서 진행하는 경우가 대부분이다.However, since the photographed image used in dermatology uses a skin image enlarged through a magnifying glass, the location of the photographing must be provided so that a specialist can see it and identify it immediately. In order to confirm the location, the specialist calls the photographer or receives a separate message from the photographer and then goes through the process of checking.

따라서, 대형 피부과의 경우에는 진료 대기 시간이 길어져 환자들에게 피부과를 꺼리게 하는 원인이 되었으며, 이를 해결하고자 바디 맵 정보를 제공하여 이를 통해 어느 위치인지를 즉각적으로 확인할 수 있는 효과를 발휘하게 된다.Therefore, in the case of a large dermatology clinic, the waiting time for treatment was long, which made patients reluctant to go to the dermatology clinic.

그리고, 상기 영상정보획득부(230)는 보조단말기(100)에서 제공된 병변 위치 정보와 촬영단말기(300)에서 제공된 피부 영상 정보를 획득하기 위한 기능을 수행하게 된다.In addition, the image information acquisition unit 230 performs a function for acquiring the lesion location information provided from the auxiliary terminal 100 and the skin image information provided from the imaging terminal 300 .

예를 들어, 복부 부위에 위치한 병변에 대한 병변 위치 정보와 해당 병변을 포함한 복부 부위에 대한 피부 영상 정보를 획득하는 것이다.For example, lesion location information on a lesion located in the abdomen and skin image information on the abdomen including the lesion are acquired.

그리고, 피부영상정보저장처리부(240)는 영상정보획득부에서 획득된 병변 위치 정보와 피부 영상 정보를 해당 환자 정보 필드에 매칭시켜 환자피부영상정보저장부에 저장 처리하게 된다.Then, the skin image information storage processing unit 240 matches the lesion location information and the skin image information obtained in the image information acquisition unit to the corresponding patient information field, and stores the information in the patient skin image information storage unit.

예를 들어, 환자마다 환자 고유식별 정보를 포함한 환자 상세 정보를 저장하게 되는데, 환자 상세 정보에는 환자 ID 뿐만 아니라, 환자이름, 생년월일, 성별 등을 의미한다.For example, patient detailed information including patient unique identification information is stored for each patient. The detailed patient information includes not only patient ID, but also patient name, date of birth, gender, and the like.

그리고, 촬영된 피부 영상 정보와 촬영 날짜 정보, 촬영단말기의 고유식별 정보, 진료한 의사의 고유식별 정보, 의사 소견 정보, 촬영한 병변 위치 정보, 병변 촬영시 적용된 조명 정보를 포함하는 것을 특징으로 한다.And, the photographed skin image information and photographing date information, unique identification information of the photographing terminal, unique identification information of the treating doctor, doctor opinion information, photographed lesion location information, and lighting information applied at the time of photographing the lesion. .

#id_01#kimsun#800112#female#abc-jpeg#202103031000#camera_id_01#doctor_id_01#opinion-txt#face#uv 와 같은 정보를 저장하게 되는 것이다.Information such as #id_01#kimsun#800112#female#abc-jpeg#202103031000#camera_id_01#doctor_id_01#opinion-txt#face#uv will be saved.

이때, 상기 환자피부영상정보저장부(250)에는 병변 위치 정보와 피부 영상 정보를 환자 정보 필드별로 저장하는 것이다.In this case, the patient skin image information storage unit 250 stores lesion location information and skin image information for each patient information field.

한편, 부가적인 양태에 따라, 상기 바디맵서버(200)는 팍스페이지제공부를 더 포함하여 구성할 수도 있다.Meanwhile, according to an additional aspect, the body map server 200 may be configured to further include a fax page providing unit.

즉, 상기 팍스페이지제공부는 환자의 포인트별 피부 영상 정보와 환자 등록 혹은 수정, 특정 환자를 검색할 수 있는 팍스페이지(4510)를 진단자단말기로 제공하는 기능을 수행하게 된다.That is, the fax page providing unit performs a function of providing the skin image information for each point of the patient and the fax page 4510 for registering or modifying the patient and searching for a specific patient to the diagnostic terminal.

즉, 도 12에 도시한 바와 같이, 상기 팍스페이지(4510)는, That is, as shown in FIG. 12 , the fax page 4510 is

환자 정보를 검색하기 위한 검색 버튼을 표출하기 위한 환자정보검색레이어(4510A);a patient information retrieval layer 4510A for displaying a retrieval button for retrieving patient information;

검색된 환자 정보를 표출하기 위한 환자정보표출레이어(4510B);a patient information display layer 4510B for displaying the retrieved patient information;

환자 추가 혹은 환자 수정 버튼을 표출하기 위한 환자정보갱신레이어(4510C);a patient information update layer 4510C for displaying a patient addition or patient modification button;

상기 검색된 환자의 히스토리 영상 정보를 표출하기 위한 히스토리영상정보레이어(4510D);a history image information layer 4510D for displaying the searched history image information of the patient;

상기 검색된 환자의 히스토리 영상에 해당하는 바디 맵 병변 위치 정보를 표출하기 위한 바디맵위치정보레이어(4510E);a body map location information layer 4510E for displaying body map lesion location information corresponding to the searched history image of the patient;

상기 표출된 바디 맵 포인트의 피부 영상 정보를 표출하기 위한 피부영상정보레이어(4510F);를 포함하게 된다.and a skin image information layer 4510F for displaying skin image information of the expressed body map point.

구체적으로 설명하면, 상기 환자정보검색레이어(4510A)는 환자 정보를 검색하기 위한 검색 버튼을 표출하게 되고, 해당 레이어 상에 환자 이름을 적고 검색 버튼을 선택하게 되면 해당 환자 이름에 해당하는 환자 정보를 게더링하여 이를 화면에 제공하게 되는 것이다.Specifically, the patient information search layer 4510A displays a search button for searching patient information, and when a patient name is written on the layer and the search button is selected, the patient information corresponding to the patient name is retrieved. Gathering will provide it to the screen.

즉, 환자정보표출레이어(4510B)를 통해 상기 검색된 환자 정보를 표출하게 되는 것이다.That is, the retrieved patient information is displayed through the patient information display layer 4510B.

상기 환자정보갱신레이어(4510C)는 환자 추가 혹은 환자 수정 버튼을 표출하기 위한 레이어로서, 환자 정보가 존재하지 않으면 환자 정보를 추가하게 되고, 환자 정보는 존재하는데 환자의 상세 정보가 변동될 경우에 환자 정보를 수정할 수 있게 되는 것이다.The patient information update layer 4510C is a layer for expressing a patient add or patient edit button. If patient information does not exist, patient information is added, and when patient information exists but detailed patient information is changed, patient information will be able to edit.

상기 히스토리영상정보레이어(4510D)는 상기 검색된 환자의 히스토리 영상 정보를 표출하기 위한 레이어로서, 지금까지 해당 환자가 진료한 히스토리 영상 정보를 제공함으로써, 진단자가 이를 참조할 수 있도록 하는 것이다.The history image information layer 4510D is a layer for displaying the searched history image information of the patient, and provides history image information that the patient has treated so far so that the diagnostician can refer to it.

상기 바디맵위치정보레이어(4510E)는 상기 검색된 환자의 히스토리 영상에 해당하는 바디 맵 병변 위치 정보를 표출하기 위한 레이어로서, 진단자가 현재 촬영한 특정 병변(포인트)에 대한 바디 맵 상의 위치를 직관적으로 확인하여 종합적인 판단이 가능하도록 하는 것이다.The body map location information layer 4510E is a layer for displaying body map lesion location information corresponding to the searched history image of the patient, and the location on the body map for a specific lesion (point) currently photographed by the diagnostician can be intuitively identified. This is to ensure that a comprehensive judgment is possible.

상기 피부영상정보레이어(4510F)는 상기 바디 맵 포인트의 피부 영상 정보를 표출하기 위한 레이어로서, 예를 들어, 바디 맵 상의 복부 부위 중 클릭한 포인트에 대한 영상 정보를 제공하게 되어 이에 따른 종합적인 판단이 가능하도록 하는 것이다.The skin image information layer 4510F is a layer for expressing skin image information of the body map point. For example, it provides image information on a clicked point among the abdominal region on the body map, and thus comprehensive judgment is to make this possible.

따라서, 피부과 진료시, 진단자가 바디 맵 위치, 피부 영상 등을 종합적으로 확인하면서 판단할 수 있는 효과를 발휘하게 되는 것이다.Accordingly, when performing a dermatology treatment, the diagnosis can be made while comprehensively checking the position of the body map, the skin image, and the like.

한편, 상기 바디맵서버(200)는 PACS(Picture Archiving and Communication System), EMR(Electronic Medical Record), PHR(Personal Health Record), RIS(Radiology Information System), CRM(Customer Relationship Management) 중 적어도 어느 하나이거나 이와 연결 가능한 클라우드 서버인 것을 특징으로 한다.On the other hand, the body map server 200 is at least one of PACS (Picture Archiving and Communication System), EMR (Electronic Medical Record), PHR (Personal Health Record), RIS (Radiology Information System), CRM (Customer Relationship Management) It is characterized in that it is a cloud server that can be connected to this or that.

이를 통해, 전문의들은 상기한 바디맵서버에 접속하여 과거 해당 환자의 병력 정보를 확인할 수 있게 되는 것이다.Through this, the specialists can access the body map server and check the patient's medical history information in the past.

상기 촬영단말기(300)는 바디맵서버로부터 병변 위치 정보를 획득할 경우에 병변 위치 정보에 해당하는 환자의 피부 영상을 촬영하고, 촬영된 피부 영상 정보를 바디맵서버로 제공하게 된다.When the photographing terminal 300 obtains the lesion location information from the body map server, it takes a skin image of the patient corresponding to the lesion location information, and provides the photographed skin image information to the body map server.

예를 들어, 도 4에 도시한 바와 같이, 획득한 병변 위치 정보(180)에 해당하는 하복부 좌측 부위를 촬영하게 되며, 촬영된 피부 영상을 환자 정보에 매칭시켜 바디맵서버로 제공하여 저장 관리할 수 있도록 하는 것이다.For example, as shown in FIG. 4 , the left lower abdomen area corresponding to the acquired lesion location information 180 is photographed, and the captured skin image is matched with the patient information and provided to the body map server for storage management. to make it possible

본 발명에 의하면, 종래의 정확한 피부 부위를 확인할 수 없는 문제점을 개선하여 바디 맵을 제공하여 질환 부위를 정확하게 선택할 수 있도록 함으로써, 의사 혹은 촬영자가 환자의 해당 질환 부위를 정확하게 촬영하여 저장 관리할 수 있는 효과를 제공하여 진찰 오류를 방지할 수 있는 효과를 발휘하게 된다.According to the present invention, it is possible to improve the conventional problem of not being able to identify an accurate skin region and provide a body map so that a diseased region can be accurately selected, so that a doctor or photographer can accurately photograph and store and manage the diseased region of a patient. By providing an effect, the effect of preventing diagnosis errors will be exhibited.

이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In the above, preferred embodiments of the present invention have been illustrated and described, but the present invention is not limited to the specific embodiments described above, and it is common in the technical field to which the present invention pertains without departing from the gist of the present invention as claimed in the claims. Various modifications may be made by those having the knowledge of, of course, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.

100 : 보조단말기
200 : 바디맵서버
300 : 촬영단말기
100: auxiliary terminal
200: body map server
300: shooting terminal

Claims (6)

피부 부위별 분류를 위한 바디맵 제공 장치에 있어서,
바디맵서버로부터 바디 맵 정보를 획득하고, 획득한 바디 맵 정보를 이용해 바디 맵을 화면에 표출시키고, 바디 맵을 통해 화면에 표출된 인체의 3차원 객체 영상에 병변 부위를 설정하여 병변 부위에 대한 병변 위치 정보(180)를 바디맵서버로 제공하기 위한 보조단말기(100)와,
바디 맵 정보를 저장하고 있으며, 보조단말기에서 제공된 병변 위치 정보(180)를 저장하고, 저장된 병변 위치 정보를 촬영단말기로 제공하고, 촬영단말기가 제공하는 환자의 피부 영상을 저장하기 위한 바디맵서버(200)와,
바디맵서버로부터 병변 위치 정보를 획득할 경우에 병변 위치 정보에 해당하는 환자의 피부 영상을 촬영하고, 촬영된 피부 영상 정보를 바디맵서버로 제공하기 위한 촬영단말기(300)를 포함하여 구성되고,

상기 병변 위치 정보(180)는,
화면에 표출된 인체의 3차원 객체 영상의 어느 한 지점에 클릭된 포인트의 위치 정보(181)와 클릭된 포인트 주변의 인체 부위 영역 정보(182)를 포함하되,
직관적으로 피부 질환 위치를 파악할 수 있도록 상기 클릭된 포인트와 클릭된 포인트 주변의 인체 부위 영역은 서로 다른 색 정보를 갖는 것을 특징으로 하는 피부 부위별 분류를 위한 바디맵 제공 장치.
In the apparatus for providing a body map for classification by skin region,
Acquire body map information from the body map server, display the body map on the screen using the acquired body map information, and set the lesion area in the 3D object image of the human body displayed on the screen through the body map to determine the lesion area. Auxiliary terminal 100 for providing lesion location information 180 to the body map server;
Body map server ( 200) and
When the lesion location information is obtained from the body map server, the skin image of the patient corresponding to the lesion location information is photographed, and the photographing terminal 300 is configured to provide the photographed skin image information to the body map server,

The lesion location information 180,
Including location information 181 of a point clicked on any one point of the 3D object image of the human body displayed on the screen and information 182 of a body part area around the clicked point,
The apparatus for providing a body map for classification by skin part, characterized in that the clicked point and the region of the body part around the clicked point have different color information so that the location of the skin disease can be intuitively identified.
제 1항에 있어서,
상기 보조단말기(100)의 화면에 표출되는 바디 맵은,
선택 시, 인체의 3차원 객체 영상 중, 인체의 전방 3차원 객체 영상이 표출되도록 하는 전방바디핫키레이어(151);
선택 시, 인체의 3차원 객체 영상 중, 인체의 후방 3차원 객체 영상이 표출되도록 하는 후방바디핫키레이어(152);
선택 시, 인체의 3차원 객체 영상 중, 인체의 좌측 3차원 객체 영상이 표출되도록 하는 좌측바디핫키레이어(153);
선택 시, 인체의 3차원 객체 영상 중, 인체의 우측 3차원 객체 영상이 표출되도록 하는 우측바디핫키레이어(154);
선택 시, 인체의 3차원 객체 영상 중, 인체의 얼굴 3차원 객체 영상이 표출되도록 하는 얼굴핫키레이어(155);
선택 시, 인체의 3차원 객체 영상 중, 인체의 손 3차원 객체 영상이 표출되도록 하는 손핫키레이어(156);
선택 시, 인체의 3차원 객체 영상 중, 인체의 발 3차원 객체 영상이 표출되도록 하는 발핫키레이어(157);
핫키레이어 선택에 따른 인체의 3차원 객체 영상이 표시되는 영상 표시레이어(158)을 포함하는 것을 특징으로 하는 피부 부위별 분류를 위한 바디맵 제공 장치.
The method of claim 1,
The body map displayed on the screen of the auxiliary terminal 100 is,
a front body hot key layer 151 for displaying a front 3D object image of a human body among 3D object images of a human body when selected;
a rear body hotkey layer 152 for displaying a rear 3D object image of the human body among the 3D object images of the human body when selected;
a left body hotkey layer 153 for displaying a left 3D object image of a human body among 3D object images of a human body when selected;
a right body hotkey layer 154 for displaying a right 3D object image of a human body among 3D object images of a human body when selected;
a face hot key layer 155 for displaying a face 3D object image of a human body among 3D object images of a human body when selected;
a hand hot key layer 156 for displaying a 3D object image of a human hand from among the 3D object images of the human body when selected;
a foot hot key layer 157 for displaying a 3D object image of a human foot from among the 3D object images of the human body when selected;
An apparatus for providing a body map for classification by skin part, characterized in that it includes an image display layer (158) on which a three-dimensional object image of a human body is displayed according to the selection of the hot key layer.
삭제delete 제 1항에 있어서,
상기 바디맵서버(200)는,
바디 맵 정보를 저장하고 있는 바디맵정보디비(210)와;
상기 바디맵정보디비에 저장된 바디 맵 정보를 보조단말기로 제공하기 위한 바디맵정보제공부(220)와;
상기 보조단말기(100)에서 제공된 병변 위치 정보와 촬영단말기(300)에서 제공된 피부 영상 정보를 획득하기 위한 영상정보획득부(230)와;
상기 영상정보획득부에서 획득된 병변 위치 정보와 피부 영상 정보를 해당 환자 정보 필드에 매칭시켜 환자피부영상정보저장부에 저장 처리하기 위한 피부영상정보저장처리부(240)와;
병변 위치 정보와 피부 영상 정보를 환자 정보 필드별로 저장하고 있는 환자피부영상정보저장부(250);를 포함하는 것을 특징으로 하는 피부 부위별 분류를 위한 바디맵 제공 장치.
The method of claim 1,
The body map server 200,
a body map information DB 210 that stores body map information;
a body map information providing unit 220 for providing the body map information stored in the body map information DB to an auxiliary terminal;
an image information acquisition unit 230 for acquiring lesion location information provided from the auxiliary terminal 100 and skin image information provided from the imaging terminal 300;
a skin image information storage processing unit 240 for matching the lesion location information and skin image information obtained in the image information acquisition unit to the corresponding patient information field, and storing and processing the lesion location information and skin image information in the patient skin image information storage unit;
The apparatus for providing a body map for classification by skin region, comprising: a patient skin image information storage unit 250 that stores lesion location information and skin image information for each patient information field.
제 4항에 있어서,
상기 바디맵정보디비(210)에 저장되는 바디 맵 정보는,
인체 부위별 코드값과 인체 부위 명칭이 맵핑되어 있는 정보로서, 인체의 3차원 객체 영상이 보조단말기 화면에 표출될 수 있도록 하는 정보인 것을 특징으로 하는 피부 부위별 분류를 위한 바디맵 제공 장치.
5. The method of claim 4,
The body map information stored in the body map information DB 210 is,
A body map providing apparatus for classification by skin part, characterized in that it is information in which code values for each part of the body and names of parts of the body are mapped, so that a 3D object image of the human body can be displayed on the screen of an auxiliary terminal.
제 1항에 있어서,
상기 바디맵서버(200)는,
PACS(Picture Archiving and Communication System), EMR(Electronic Medical Record), PHR(Personal Health Record), RIS(Radiology Information System), CRM(Customer Relationship Management) 중 적어도 어느 하나이거나 이와 연결 가능한 클라우드 서버인 것을 특징으로 하는 피부 부위별 분류를 위한 바디맵 제공 장치.
The method of claim 1,
The body map server 200,
At least one of PACS (Picture Archiving and Communication System), EMR (Electronic Medical Record), PHR (Personal Health Record), RIS (Radiology Information System), CRM (Customer Relationship Management), or characterized in that it is a cloud server that can be connected thereto A body map providing device for classification by skin area.
KR1020210153624A 2021-11-10 2021-11-10 Body map providing device for classification by skin area KR102417229B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210153624A KR102417229B1 (en) 2021-11-10 2021-11-10 Body map providing device for classification by skin area

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210153624A KR102417229B1 (en) 2021-11-10 2021-11-10 Body map providing device for classification by skin area

Publications (1)

Publication Number Publication Date
KR102417229B1 true KR102417229B1 (en) 2022-07-06

Family

ID=82400368

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210153624A KR102417229B1 (en) 2021-11-10 2021-11-10 Body map providing device for classification by skin area

Country Status (1)

Country Link
KR (1) KR102417229B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140047268A (en) * 2012-10-12 2014-04-22 주식회사 인피니트헬스케어 Medical image display method using virtual patient model and apparatus thereof
KR20140091176A (en) * 2013-01-10 2014-07-21 삼성전자주식회사 Apparatus and method for lesion diagnosis
KR20190118358A (en) 2018-04-10 2019-10-18 가톨릭대학교 산학협력단 Standard image data filming-obtaining apparatus for determining inflammatory skin diseases
KR20210086374A (en) * 2019-12-30 2021-07-08 연세대학교 산학협력단 Method of classifying skin disease based on artificial intelligence

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140047268A (en) * 2012-10-12 2014-04-22 주식회사 인피니트헬스케어 Medical image display method using virtual patient model and apparatus thereof
KR20140091176A (en) * 2013-01-10 2014-07-21 삼성전자주식회사 Apparatus and method for lesion diagnosis
KR20190118358A (en) 2018-04-10 2019-10-18 가톨릭대학교 산학협력단 Standard image data filming-obtaining apparatus for determining inflammatory skin diseases
KR20210086374A (en) * 2019-12-30 2021-07-08 연세대학교 산학협력단 Method of classifying skin disease based on artificial intelligence

Similar Documents

Publication Publication Date Title
JP5459423B2 (en) Diagnostic system
JP5844247B2 (en) Inspection result display device, operating method thereof, and program
JP2004005364A (en) Similar image retrieval system
US10417326B2 (en) Methods and apparatus for obtaining a snapshot of a medical imaging display
EP2169577A1 (en) Method and system for medical imaging reporting
CN103733200B (en) Checked by the inspection promoted with anatomic landmarks clinical management
US8306292B2 (en) Image display device and image display program storage medium
JP6719421B2 (en) Learning data generation support device, learning data generation support method, and learning data generation support program
JP2018175864A (en) Automatic layout device and automatic layout method, and automatic layout program
KR101555197B1 (en) Method and apparatus for managing medical image
Savage et al. Use of 3D photography in complex-wound assessment
KR20200068992A (en) Method, Apparatus and Recording For Computerizing Of Electro-Magnetic Resonance
JP6738305B2 (en) Learning data generation support device, learning data generation support device operating method, and learning data generation support program
JP4406279B2 (en) Conference support device
JP2007140762A (en) Diagnostic system
JP2018175366A (en) Automatic layout device and automatic layout method, and automatic layout program
US9152759B2 (en) Key image note matching by image hanging protocols
US20090245609A1 (en) Anatomical illustration selecting method, anatomical illustration selecting device, and medical network system
US8218883B2 (en) Image compression method, image compression device, and medical network system
KR102417229B1 (en) Body map providing device for classification by skin area
WO2012001560A2 (en) Colposcopy network system and method for evaluation of image quality
CN107788998A (en) Medical image system and computer-readable recording medium
JP6532742B2 (en) Medical record transfer device, medical record transfer method and program
JPH06110947A (en) Medical data retrieval system
JP2017207793A (en) Image display device and image display system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant