KR101442953B1 - Method for providing gui for apparatus of tracking diagnosis site, and computer readable recording medium recording program for implementing the method - Google Patents

Method for providing gui for apparatus of tracking diagnosis site, and computer readable recording medium recording program for implementing the method Download PDF

Info

Publication number
KR101442953B1
KR101442953B1 KR1020130009188A KR20130009188A KR101442953B1 KR 101442953 B1 KR101442953 B1 KR 101442953B1 KR 1020130009188 A KR1020130009188 A KR 1020130009188A KR 20130009188 A KR20130009188 A KR 20130009188A KR 101442953 B1 KR101442953 B1 KR 101442953B1
Authority
KR
South Korea
Prior art keywords
frame
marker
image
outputting
receiving
Prior art date
Application number
KR1020130009188A
Other languages
Korean (ko)
Other versions
KR20140096538A (en
Inventor
김성민
이현창
남기표
홍형길
박강령
Original Assignee
동국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단 filed Critical 동국대학교 산학협력단
Priority to KR1020130009188A priority Critical patent/KR101442953B1/en
Publication of KR20140096538A publication Critical patent/KR20140096538A/en
Application granted granted Critical
Publication of KR101442953B1 publication Critical patent/KR101442953B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1127Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4833Assessment of subject's compliance to treatment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7435Displaying user selection data, e.g. icons in a graphical user interface
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Dermatology (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

본 발명의 한 실시예에 따른 진단 위치 추적 장치는 환자의 얼굴 영상을 촬영하거나, 환부를 관찰하는 진단기기에 부착된 마커(marker)를 촬영하는 촬영부, 조작자로부터 환자 정보 또는 설정 정보를 입력 받는 입력부, 열굴 촬영 영상 또는 마커 촬영 영상을 처리하며, 상기 얼굴 촬영 영상의 특징점과 상기 마커의 위치 관계를 추출하는 제어부, 상기 얼굴 촬영 영상의 특징점, 상기 마커의 위치 관계 및 상기 환자 정보를 저장하는 저장부, 그리고 상기 환자 정보를 입력 받기 위한 프레임, 상기 설정 정보를 입력 받기 위한 프레임, 상기 얼굴 촬영 영상을 출력하기 위한 프레임 및 상기 마커 촬영 영상을 출력하기 위한 프레임 중 적어도 하나를 표시하기 위한 그래픽 유저 인터페이스(Graphic User Interface, GUI)를 제공하는 출력부를 포함한다.The diagnostic position tracking apparatus according to an embodiment of the present invention includes a photographing unit for photographing a face image of a patient or photographing a marker attached to a diagnostic device for observing a lesion portion, A control unit for processing the input unit, the thermographed image or the marker image and extracting a positional relationship between the feature point of the face image and the marker, a feature point of the face image, a positional relationship of the marker, And a graphic user interface for displaying at least one of a frame for inputting the patient information, a frame for receiving the setting information, a frame for outputting the facial image, and a frame for outputting the marker image, (Graphic User Interface, GUI).

Description

진단 위치 추적 장치를 구동하기 위한 GUI 제공 방법 및 그 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록하는 컴퓨터 판독 가능한 기록매체{METHOD FOR PROVIDING GUI FOR APPARATUS OF TRACKING DIAGNOSIS SITE, AND COMPUTER READABLE RECORDING MEDIUM RECORDING PROGRAM FOR IMPLEMENTING THE METHOD}TECHNICAL FIELD [0001] The present invention relates to a GUI providing method for driving a diagnostic position tracking apparatus, and a computer readable recording medium storing a program for executing the method on a computer. BACKGROUND OF THE INVENTION 1. Field of the Invention < RTI ID = THE METHOD}

본 발명은 의료 장치에 관한 것으로, 보다 상세하게는 의료용 진단 위치 추적 장치를 구동하기 위한 GUI 제공 방법 및 그 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록하는 컴퓨터 판독 가능한 기록매체에 관한 것이다.Field of the Invention [0002] The present invention relates to a medical apparatus, and more particularly, to a method of providing a GUI for driving a medical diagnostic position tracking apparatus and a computer readable recording medium recording a program for executing the method in a computer.

피부 또는 두피를 치료하거나 수술한 경우, 그 부위를 추적 관찰할 필요가 있다. 그런데, 피부 또는 두피의 치료 또는 수술 부위는 크기가 작아, 그 위치를 찾아내기가 쉽지 않다.If the skin or scalp is treated or operated, it is necessary to follow the site. However, the treatment or the surgical site of the skin or scalp is small in size, and it is not easy to find its position.

일반적으로 추적 관찰을 위하여 치료 또는 수술 부위에 문신 등의 표식을 하지만, 이러한 방법은 환자에게 거부감과 불편을 야기할 수 있으며, 표식이 지워질 가능성도 있다.Generally, tattoo markings are applied to the treatment or surgical site for the purpose of follow-up, but this method may cause discomfort and inconvenience to the patient, and the mark may be erased.

이에 따라, 피부 또는 두피의 치료 또는 수술 부위를 빠른 시간 내에 정확하게 찾아내는 방법이 필요하다.Accordingly, there is a need for a method for accurately detecting the treatment or the surgical site of the skin or scalp in a short period of time.

본 발명이 이루고자 하는 기술적 과제는 의료용 진단 위치 추적 장치를 구동하기 위한 GUI 제공 방법 및 그 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체를 제공하는 데 있다.SUMMARY OF THE INVENTION The present invention is directed to a method for providing a GUI for driving a medical diagnostic location tracking apparatus and a computer readable recording medium for recording a program for executing the method in a computer.

본 발명의 한 실시예에 따른 진단 위치 추적 장치는 환자의 얼굴 영상을 촬영하거나, 환부를 관찰하는 진단기기에 부착된 마커(marker)를 촬영하는 촬영부, 조작자로부터 환자 정보 또는 설정 정보를 입력 받는 입력부, 얼굴 촬영 영상 또는 마커 촬영 영상을 처리하며, 상기 얼굴 촬영 영상의 특징점과 상기 마커의 위치 관계를 추출하는 제어부, 상기 얼굴 촬영 영상의 특징점, 상기 마커의 위치 관계 및 상기 환자 정보를 저장하는 저장부, 그리고 상기 환자 정보를 입력 받기 위한 프레임, 상기 설정 정보를 입력 받기 위한 프레임, 상기 얼굴 촬영 영상을 출력하기 위한 프레임 및 상기 마커 촬영 영상을 출력하기 위한 프레임 중 적어도 하나를 표시하기 위한 그래픽 유저 인터페이스(Graphic User Interface, GUI)를 제공하는 출력부를 포함한다.The diagnostic position tracking apparatus according to an embodiment of the present invention includes a photographing unit for photographing a face image of a patient or photographing a marker attached to a diagnostic device for observing a lesion portion, A control unit for processing a face image, an input unit, a face image or a marker image, extracting a positional relationship between the feature point of the face image and the marker, a feature point of the face image, a positional relationship of the marker, And a graphic user interface for displaying at least one of a frame for inputting the patient information, a frame for receiving the setting information, a frame for outputting the facial image, and a frame for outputting the marker image, (Graphic User Interface, GUI).

상기 설정 정보를 입력 받기 위한 프레임은 환부의 위치를 등록하기 위한 초기 모드 및 환부를 추적 관찰하기 위한 추적 관찰 모드 중 하나를 선택하도록 하는 GUI를 제공할 수 있다.The frame for receiving the setting information may provide a GUI for selecting one of an initial mode for registering the position of the affected part and a tracking observation mode for tracking the affected part.

상기 초기 모드인 경우, 상기 얼굴 촬영 영상을 출력하기 위한 프레임은 상기 얼굴 촬영 영상과 함께 상기 얼굴 촬영 영상의 특징점을 표시하고, 상기 마커 촬영 영상을 출력하기 위한 프레임은 상기 마커 촬영 영상과 함께 상기 마커의 위치 및 방향을 표시할 수 있다.In the initial mode, a frame for outputting the face photographing image displays a feature point of the face photographing image together with the face photographing image, and a frame for outputting the marker photographing image, together with the marker photographing image, Can be displayed.

상기 추적 관찰 모드인 경우, 상기 얼굴 촬영 영상을 출력하기 위한 프레임은 상기 초기 모드 시에 미리 등록된 상기 얼굴 촬영 영상의 특징점을 표시하고, 상기 마커 촬영 영상을 출력하기 위한 프레임은 상기 초기 모드 시에 미리 등록된 상기 마커의 위치 및 방향을 표시할 수 있다.In the tracking mode, a frame for outputting the facial imaged image displays minutiae points of the facial imaged image registered in advance in the initial mode, and a frame for outputting the marker photographic image is displayed in the initial mode The position and direction of the marker registered in advance can be displayed.

상기 설정 정보를 입력 받기 위한 프레임은 상기 얼굴 촬영 영상으로부터의 특징점 또는 상기 마커 촬영 영상으로부터의 마커를 자동으로 검출하는 자동 검출 모드 및 상기 얼굴 촬영 영상으로부터의 특징점 또는 상기 마커 촬영 영상으로부터의 마커를 수동으로 검출하는 수동 검출 모드 중 하나를 선택하도록 하는 GUI를 제공할 수 있다.Wherein the frame for receiving the setting information includes an automatic detection mode for automatically detecting a feature point from the facial imaged image or a marker from the marker imaged image and a feature point from the facial imaged image or a marker from the marker imaged image manually And a manual detection mode for detecting a manual detection mode.

상기 설정 정보를 입력 받기 위한 프레임은 상기 특징점 및 상기 마커를 검출하는 방법을 동시에 제어하는 GUI를 제공할 수 있다.The frame for receiving the setting information may provide a GUI for simultaneously controlling the minutiae and the method of detecting the marker.

상기 설정 정보를 입력 받기 위한 프레임은 상기 특징점 및 상기 마커를 검출하는 방법을 별개의 프레임에 의하여 제어하는 GUI를 제공할 수 있다.The frame for receiving the setting information may provide a GUI for controlling the feature point and the method of detecting the marker by a separate frame.

상기 설정 정보를 입력 받기 위한 프레임은 상기 특징점 및 상기 마커를 검출하기 위한 설정 값을 입력하는 GUI를 제공할 수 있다.The frame for receiving the setting information may provide a GUI for inputting the minutiae and a set value for detecting the marker.

상기 출력부는 상기 얼굴 촬영 영상을 출력하기 위한 프레임 및 상기 마커 촬영 영상을 출력하기 위한 프레임의 위치를 바꾸기 위한 화면 전환 프레임을 표시하기 위한 GUI를 더 제공할 수 있다.The output unit may further include a GUI for displaying a frame for outputting the facial image and a screen switching frame for changing a position of a frame for outputting the marker photographing image.

본 발명의 한 실시예에 따른 진단 위치 추적 장치의 그래픽 유저 인터페이스(Graphic User Interface, GUI) 제공 방법은 환자 정보를 입력 받기 위한 프레임, 설정 정보를 입력 받기 위한 프레임, 환자의 얼굴 촬영 영상을 출력하기 위한 프레임, 환부를 관찰하는 진단기기에 부착된 마커(marker)의 마커 촬영 영상을 출력하기 위한 프레임 중 적어도 하나를 표시하기 위한 그래픽 유저 인터페이스(Graphic User Interface, GUI)를 제공하는 단계, 상기 환자 정보를 입력 받기 위한 프레임 및 상기 설정 정보를 입력 받기 위한 프레임을 통하여 상기 환자 정보 및 상기 설정 정보를 입력 받는 단계, 상기 얼굴 촬영 영상을 출력하기 위한 프레임 및 상기 마커 촬영 영상을 출력하기 위한 프레임을 통하여 상기 얼굴 촬영 영상 및 상기 마커 촬영 영상을 출력하는 단계, 그리고 상기 얼굴 촬영 영상을 출력하기 위한 프레임 및 상기 마커 촬영 영상을 출력하기 위한 프레임을 통하여 상기 얼굴 촬영 영상의 특징점과 상기 마커의 위치 및 방향을 표시하는 단계를 포함한다.A method for providing a graphical user interface (GUI) of a diagnostic location tracking apparatus according to an embodiment of the present invention includes a frame for receiving patient information, a frame for receiving setting information, Providing a graphical user interface (GUI) for displaying at least one of a frame for outputting a marker image of a marker attached to a diagnostic device for observing a lesion, and a frame for outputting a marker image of the marker, Receiving the patient information and the setting information through a frame for inputting the setting information and a frame for receiving the setting information, a frame for outputting the face image, and a frame for outputting the marker image, A face photographing image and a marker photographing image, And displaying the feature points of the facial imaged image and the position and direction of the marker through a frame for outputting the facial imaged image and a frame for outputting the imaged marker image.

상기 얼굴 촬영 영상을 출력하기 위한 프레임 및 상기 마커 촬영 영상을 출력하기 위한 프레임의 위치를 바꾸기 위한 화면 전환 프레임을 표시하기 위한 GUI를 제공하는 단계를 더 포함할 수 있다.The method may further include providing a GUI for displaying a frame for outputting the facial imaged image and a frame switching frame for changing the position of a frame for outputting the marker photographing image.

본 발명의 실시예에 따르면, 피부 또는 두피의 치료 또는 수술 부위를 빠른 시간 내에 정확하게 찾아내는 진단 위치 추적 장치를 얻을 수 있다. 특히, 얼굴의 특징점과 환부 간의 위치 관계를 미리 저장한 후, 추적 관찰 시에 미리 저장한 정보를 불러옴으로써, 환부에 문신 등의 표식을 할 필요가 없다. 또한, 조작자가 용이하게 조작할 수 있도록 화면에 GUI를 제공할 수 있다.According to the embodiment of the present invention, it is possible to obtain a diagnostic position tracking device which can quickly find out the treatment or the surgical site of the skin or the scalp accurately and quickly. In particular, after storing the positional relationship between the feature point of the face and the affected part in advance, it is not necessary to mark the tattoo on the affected part by retrieving the stored information at the time of the follow-up observation. In addition, a GUI may be provided on the screen so that the operator can easily operate it.

도 1은 본 발명의 한 실시예에 따른 진단 위치 추적 장치를 나타내는 블록도이다.
도 2는 본 발명의 한 실시예에 따른 진단 위치 추적 장치의 화면을 통하여 제공되는 GUI를 나타낸다.
도 3은 본 발명의 한 실시예에 따른 진단 위치 추적 장치가 GUI를 제공하는 방법을 나타내는 순서도이다.
도 4 내지 도 7은 본 발명의 한 실시예에 따른 진단 위치 추적 장치가 제공하는 화면의 GUI를 나타낸다.
1 is a block diagram illustrating a diagnostic location tracking device in accordance with an embodiment of the present invention.
FIG. 2 illustrates a GUI provided through a screen of a diagnostic location tracking device according to an embodiment of the present invention.
3 is a flow diagram illustrating a method for a diagnostic location tracking device to provide a GUI in accordance with an embodiment of the present invention.
4 to 7 show a GUI of a screen provided by the diagnostic position tracking device according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated and described in the drawings. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

제2, 제1 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. The terms including ordinal, such as second, first, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the second component may be referred to as a first component, and similarly, the first component may also be referred to as a second component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.

이하, 첨부된 도면을 참조하여 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 대응하는 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings, wherein like or corresponding elements are denoted by the same reference numerals, and redundant description thereof will be omitted.

본 발명의 한 실시예에 따른 진단 위치 추적 장치는 얼굴의 특징점에 기반하여 피부 또는 두피의 치료 또는 수술 부위(이하, 환부 또는 진단 위치와 혼용될 수 있다)를 추적한다. 이를 위하여, 치료 또는 수술 시에 환자의 얼굴 영상을 촬영하고, 얼굴 영상으로부터 특징점을 추출하며, 특징점과 환부의 위치 관계를 미리 저장한다. 이때, 특징점과 환부의 위치 관계는 특징점과 환부를 촬영하는 진단 기기에 부착된 마커(marker)의 위치 및 방향에 따라 정의될 수 있다.The diagnostic location tracking device according to an embodiment of the present invention tracks the treatment or operation site of the skin or scalp (hereinafter, it can be mixed with the affected area or diagnostic site) based on the feature points of the face. To do this, the face image of the patient is taken during treatment or surgery, the feature points are extracted from the facial images, and the positional relationship between the feature points and the lesion is stored in advance. At this time, the positional relationship between the minutiae and the lesion part can be defined according to the position and direction of the marker attached to the diagnostic device for photographing the minutiae and the affected part.

치료 또는 수술로부터 소정 기간 경과 후 환부를 추적 관찰할 경우, 진단 위치 추적 장치는 환자의 얼굴 영상 및 진단기기에 부착된 마커를 촬영하며, 얼굴 촬영 영상과 마커 촬영 영상을 미리 저장된 특징점과 환부의 위치 관계에 매칭(matching)시킴으로써, 진단 위치를 추적할 수 있다. When the affected part is followed up after a predetermined period of time from the treatment or surgery, the diagnostic position tracking device photographs the face image of the patient and the marker attached to the diagnostic device. The face image and the marker image are stored in advance, By matching the relationship, the diagnostic location can be tracked.

본 발명의 한 실시예에 따른 진단 위치 추적 장치는 조작자의 편의를 위하여 화면 상에 그래픽 사용자 인터페이스(Graphic User Interface, GUI)를 제공한다.The diagnostic location tracking device according to an embodiment of the present invention provides a graphical user interface (GUI) on the screen for the convenience of the operator.

도 1은 본 발명의 한 실시예에 따른 진단 위치 추적 장치를 나타내는 블록도이다.1 is a block diagram illustrating a diagnostic location tracking device in accordance with an embodiment of the present invention.

도 1을 참조하면, 진단 위치 추적 장치(100)는 촬영부(110), 입력부(120), 제어부(130), 저장부(140) 및 출력부(150)를 포함한다.1, the diagnostic position tracking apparatus 100 includes a photographing unit 110, an input unit 120, a control unit 130, a storage unit 140, and an output unit 150.

촬영부(110)는 적어도 하나의 카메라를 포함한다. 촬영부(110)는 적어도 하나의 카메라를 이용하여 환자의 얼굴을 촬영하거나, 진단 기기에 부착된 마커(marker)를 촬영할 수 있다. 여기서, 진단기기는 환부를 관찰하기 위한 별도의 카메라를 포함할 수 있다. 그리고, 마커는 진단기기가 환부 상에 정확하게 위치하는지를 표시하기 위하여, 진단기기 표면의 소정 위치에 부착될 수 있다.The photographing unit 110 includes at least one camera. The photographing unit 110 can photograph a face of the patient using at least one camera or photograph a marker attached to the diagnostic apparatus. Here, the diagnostic device may include a separate camera for observing the affected part. And, the marker can be attached to a predetermined position of the surface of the diagnostic device to indicate whether or not the diagnostic device is accurately positioned on the affected part.

입력부(120)는 조작자로부터 사용자 정보, 설정 정보 등을 입력 받으며, 이를 제어부(130)에게 전달한다.The input unit 120 receives user information, setting information, and the like from the operator, and transmits the user information and the setting information to the controller 130.

제어부(130)는 진단 위치 추적 장치(100)의 전반적인 동작을 제어한다. 예를 들면, 제어부(130)는 촬영부(110)에 의하여 촬영된 영상을 처리하거나, 입력부(120)로부터 입력 받은 정보를 처리할 수 있다.The control unit 130 controls the overall operation of the diagnostic position tracking apparatus 100. [ For example, the control unit 130 may process the image photographed by the photographing unit 110 or may process the information input from the input unit 120. For example,

저장부(140)는 제어부(130) 내의 처리 및 제어를 위한 프로그램을 저장하며, 촬영부(110)에 의하여 촬영된 영상, 입력부(120)로부터 입력 받은 정보 및 제어부(130)에 의하여 처리된 신호 등을 저장한다.The storage unit 140 stores a program for processing and control in the control unit 130 and stores the image photographed by the photographing unit 110 and the information input from the input unit 120 and the signal processed by the control unit 130 And so on.

출력부(150)는 화면에 각종 정보를 그래픽(Graphic)이나 텍스트(text)로 표시하기 위하여, 그래픽 유저 인터페이스(Graphic User Interface, GUI)를 제공한다.The output unit 150 provides a graphical user interface (GUI) for displaying various kinds of information on a screen in a graphic or text format.

도 2는 본 발명의 한 실시예에 따른 진단 위치 추적 장치의 화면을 통하여 제공되는 GUI를 나타낸다.FIG. 2 illustrates a GUI provided through a screen of a diagnostic location tracking device according to an embodiment of the present invention.

도 2를 참조하면, 진단 위치 추적 장치(100)의 화면은 메인 프레임(200), 서브 프레임(210), 사용자 정보 입력 프레임(220), 모드 입력 프레임(230), 특징점 검출 설정 프레임(240), 마커 검출 설정 프레임(250), 시작/중지/종료 설정 프레임(260) 및 화면 전환 프레임(270) 등을 포함한다. 도 2에 도시된 각 프레임의 위치 및 크기는 예시에 지나지 않으며, 다양하게 변형 또는 수정될 수 있다. 2, the screen of the diagnostic location tracking apparatus 100 includes a main frame 200, a subframe 210, a user information input frame 220, a mode input frame 230, a minutia detection setting frame 240, A marker detection setting frame 250, a start / stop / end setting frame 260, a screen switching frame 270, and the like. The position and size of each frame shown in Fig. 2 are merely illustrative, and can be variously modified or modified.

메인 프레임(200) 및 서브 프레임(210)은 촬영부(110)에 의하여 촬영된 영상을 표시한다. 메인 프레임(200)은 서브 프레임(210)보다 크게 설정될 수 있으며, 메인 프레임(200) 및 서브 프레임(210)에는 환자의 얼굴 촬영 영상 또는 마커 촬영 영상이 출력될 수 있다. 예를 들어, 메인 프레임(200)은 환자의 얼굴 촬영 영상을 출력하며, 서브 프레임(210)은 마커 촬영 영상을 출력할 수 있다.The main frame 200 and the sub-frame 210 display an image photographed by the photographing unit 110. The main frame 200 may be set larger than the sub frame 210 and the face image of the patient or the marker image may be output to the main frame 200 and the sub frame 210. For example, the main frame 200 outputs a photographed face image of a patient, and the subframe 210 outputs a marker photographed image.

사용자 정보 입력 프레임(220)은 환자 정보(예, 이름, 생년월일, 아이디(ID))를 입력 받는 프레임이다.The user information input frame 220 is a frame for receiving patient information (e.g., name, date of birth, ID).

모드 입력 프레임(230)은 환부의 위치를 등록하기 위한 초기 모드인지, 환부를 추적 관찰하기 위한 추적 관찰 모드인지를 입력 받는 프레임이다. 예를 들어, 치료 또는 수술 시에 얼굴의 특징점과 환부의 위치 관계를 미리 저장하고자 하는 경우, 조작자는 초기 모드, 즉 첫 치료 모드를 선택할 수 있다. 그리고, 치료 또는 수술 후에 환부를 추적 관찰하고자 하는 경우, 조작자는 추적 관찰 모드, 즉 치료 진행 모드를 선택할 수 있다.The mode input frame 230 is a frame for receiving an initial mode for registering the position of the affected part or a tracking mode for tracking the affected part. For example, if the positional relationship between the feature point of the face and the affected part is to be stored in advance during treatment or surgery, the operator can select the initial mode, i.e., the first treatment mode. And, if the patient is to follow the lesion after treatment or surgery, the operator can select a follow-up mode, i.e., a treatment progress mode.

특징점 검출 설정 프레임(240)은 얼굴 촬영 영상으로부터 특징점을 검출하는 방법을 설정 받는 프레임이다. 예를 들어, 조작자는 자동 검출 모드 또는 수동 검출 모드를 설정할 수 있다. 자동 검출 모드인 경우, 진단 위치 추적 장치(100)는 얼굴 촬영 영상으로부터 특징점을 자동으로 추출하여 화면에 표시할 수 있다. 이때, 조작자는 특징점 검출을 위한 눈 영역 검출 사이즈 범위, 코 영역 검출 사이즈 범위 등을 설정할 수 있다. 수동 검출 모드인 경우, 조작자가 얼굴 촬영 영상으로부터 특징점을 직접 지정할 수 있다.The minutia detection setting frame 240 is a frame for which a method of detecting minutiae points from the facial image is set. For example, the operator can set the automatic detection mode or the manual detection mode. In the case of the automatic detection mode, the diagnostic position tracking device 100 can automatically extract the feature points from the facial imaged images and display them on the screen. At this time, the operator can set the eye region detection size range, the nose region detection size range, and the like for the minutia point detection. In the case of the manual detection mode, the operator can directly designate the minutiae point from the photographed face image.

마커 검출 설정 프레임(250)은 진단 기기에 부착된 마커를 검출하는 방법을 설정 받는 프레임이다. 예를 들어, 조작자는 자동 검출 모드 또는 수동 검출 모드를 설정할 수 있다. 수동 검출 모드인 경우, 조작자는 마커 검출에 필요한 이진화 임계값을 슬라이드 바 또는 수치 입력란을 통해 조정할 수 있다.The marker detection setting frame 250 is a frame to which a method of detecting a marker attached to the diagnostic apparatus is set. For example, the operator can set the automatic detection mode or the manual detection mode. In the manual detection mode, the operator can adjust the binarization threshold required for marker detection through the slide bar or the numeric input box.

특징점 검출 설정 프레임(240)과 마커 검출 설정 프레임(250)은 별개의 프레임인 것으로 예시하고 있으나, 하나의 프레임으로 구현될 수도 있다. 얼굴 촬영 영상의 특징점 및 마커를 검출하는 방법이 별개의 프레임에 의하여 독립적으로 제어되거나, 하나의 프레임에 의하여 동시에 제어될 수 있다.Although the minutia detection setting frame 240 and the marker detection setting frame 250 are illustrated as separate frames, they may be implemented as one frame. The feature points of the facial imaged image and the method of detecting the marker can be independently controlled by separate frames or simultaneously controlled by one frame.

그리고, 모드 입력 프레임(230), 특징점 검출 설정 프레임(240) 및 마커 검출 설정 프레임(250)을 통칭하여 설정 정보를 입력 받기 위한 프레임이라 할 수 있다.The mode input frame 230, the minutiae detection setting frame 240, and the marker detection setting frame 250 are collectively referred to as a frame for receiving setting information.

시작/중지/종료 프레임(260)은 영상의 출력을 시작/중지/종료하도록 하는 프레임이다.The start / stop / end frame 260 is a frame for starting / stopping / ending the output of the image.

화면 전환 프레임(270)은 메인 프레임(200)과 서브 프레임(210)을 전환할 것을 지시 받는 프레임이다. 예를 들어, 메인 프레임(200)을 통하여 얼굴 촬영 영상이 표시되고, 서브 프레임(210)을 통하여 마커 촬영 영상이 표시되는 경우, 조작자가 화면 전환 프레임(270)을 통하여 화면 전환을 지시하면, 메인 프레임(200)은 마커 촬영 영상을 표시하고, 서브 프레임(210)은 얼굴 촬영 영상을 표시하는 것으로 전환될 수 있다. The screen switching frame 270 is a frame that is instructed to switch between the main frame 200 and the sub frame 210. For example, when a photographed face image is displayed through the main frame 200 and a marker photographed image is displayed through the subframe 210, when the operator instructs to switch the screen through the screen switching frame 270, The frame 200 may display a marker photographed image, and the subframe 210 may be switched to display a photographed image.

도 3은 본 발명의 한 실시예에 따른 진단 위치 추적 장치가 GUI를 제공하는 방법을 나타내는 순서도이고, 도 4 내지 도 7은 본 발명의 한 실시예에 따른 진단 위치 추적 장치가 제공하는 화면의 GUI를 나타낸다.FIG. 3 is a flowchart illustrating a method of providing a GUI according to an exemplary embodiment of the present invention. FIGS. 4 to 7 are flowcharts illustrating a method of providing a GUI of a screen provided by the diagnostic position tracking apparatus according to an exemplary embodiment of the present invention, .

도 3 내지 도 7을 참조하면, 진단 위치 추적 장치(100)는 환자 정보를 입력 받기 위한 프레임(220), 설정 정보를 입력 받기 위한 프레임(230, 240, 250), 환자의 얼굴 촬영 영상을 출력하기 위한 프레임(200), 환부를 관찰하는 진단기기에 부착된 마커(marker)의 마커 촬영 영상을 출력하기 위한 프레임(210)을 표시하기 위한 그래픽 유저 인터페이스(Graphic Uer Interface, GUI)를 제공한다(S300).3 to 7, the diagnostic position tracking apparatus 100 includes a frame 220 for receiving patient information, frames 230 and 240 for receiving setting information, And a graphic user interface (GUI) for displaying a frame 210 for outputting a marker photographing image of a marker attached to a diagnostic device for observing the affected part ( S300).

그리고, 진단 위치 추적 장치(100)는 조작자로부터 환자 정보를 입력 받기 위한 프레임(220) 및 설정 정보를 입력 받기 위한 프레임(230, 240, 250)을 통하여 환자 정보 및 설정 정보를 입력 받는다(S310). 여기서, 설정 정보는 환부의 위치를 등록하기 위한 초기 모드 및 환부를 추적 관찰하기 위한 추적 관찰 모드 중 하나를 선택하는 정보일 수 있다. 그리고, 설정 정보는 얼굴 촬영 영상으로부터의 특징점 또는 마커 촬영 영상으로부터의 마커를 자동으로 검출하는 자동 검출 모드 및 얼굴 촬영 영상으로부터의 특징점 또는 마커 촬영 영상으로부터의 마커를 수동으로 검출하는 수동 검출 모드 중 하나를 선택하는 정보일 수 있다. 조작자가 초기 모드를 선택한 경우, 진단 위치 추적 장치(100)는 조작자가 자동 검출 모드 또는 수동 검출 모드를 선택할 수 있도록 해당 프레임(240, 250)을 활성화시킬 수 있다. The diagnostic position tracking apparatus 100 receives patient information and setting information through a frame 220 for receiving patient information from an operator and frames 230, 240 and 250 for receiving setting information (S310) . Here, the setting information may be information for selecting one of an initial mode for registering the position of the affected part and a tracking mode for tracking the affected part. The setting information includes an automatic detection mode for automatically detecting a marker from a feature point or a marker image and a manual detection mode for manually detecting a marker from a facial image or a marker image, As shown in FIG. When the operator selects the initial mode, the diagnostic position tracking apparatus 100 can activate the corresponding frame 240, 250 so that the operator can select the automatic detection mode or the manual detection mode.

조작자가 환자 정보 및 설정 정보를 입력한 후, 시작 프레임(260)을 클릭하면, 진단 위치 추적 장치(100)는 얼굴 촬영 영상을 출력하기 위한 프레임(200) 및 마커 촬영 영상을 출력하기 위한 프레임(210)을 통하여 얼굴 촬영 영상 및 마커 촬영 영상을 출력한다(S320).When the operator inputs the patient information and the setting information and then clicks the start frame 260, the diagnostic position tracking apparatus 100 displays a frame 200 for outputting the photographed image and a frame 200 for outputting the marker photographed image 210 to output a facial image and a marker image (S320).

단계 S310에서 초기 모드로 설정된 경우(S330), 진단 위치 추적 장치(100)는 얼굴의 특징점과 마커의 위치 및 방향을 얼굴 촬영 영상과 마커 촬영 영상에 각각 표시한다(S340). 얼굴의 특징점은, 예를 들어 눈 꼬리, 콧구멍, 입 꼬리 등일 수 있으나, 이에 한정되는 것은 아니다. 얼굴의 특징점은 조작자에 의하여 설정될 수 있다. 마커의 위치는 마커의 중심점이 속하는 영역으로 표시될 수 있다. 마커의 방향은 마커의 특정 영역의 방향을 의미할 수 있다. 예를 들어, 마커가 일직선으로 형성된 색깔 없는 영역을 포함하는 경우, 그 방향을 마커의 방향으로 표시할 수 있다. 이때, 얼굴의 특징점 및/또는 마커의 위치 및 방향은 자동 또는 수동으로 검출될 수 있다. 조작자가 단계 S310에서 자동 검출 모드로 설정한 경우, 진단 위치 추적 장치(100)는 얼굴 촬영 영상으로부터의 특징점 또는 마커 촬영 영상으로부터의 마커를 자동으로 검출할 수 있다. 조작자가 단계 S310에서 수동 검출 모드로 설정한 경우, 조작자는 얼굴 촬영 영상으로부터의 특징점 또는 마커 촬영 영상으로부터의 마커의 위치 및 방향을 수동으로 표시할 수 있다. 도 4는 진단 위치 추적 장치(100)가 자동으로 검출한 얼굴 촬영 영상으로부터의 특징점(401) 및 마커의 위치 및 방향(403)을 나타낸다. 도 5는 조작자가 수동으로 검출한 얼굴 촬영 영상으로부터의 특징점(501) 및 마커의 위치 및 방향(503)을 나타낸다.When the initial mode is set in step S310 (S330), the diagnostic position tracking apparatus 100 displays the feature points of the face and the positions and directions of the markers on the facial image and the marker image, respectively (S340). The feature points of the face can be, for example, eye tail, nostril, mouth tail, but are not limited thereto. The feature point of the face can be set by the operator. The position of the marker can be indicated by the area to which the center point of the marker belongs. The direction of the marker may mean the direction of a specific area of the marker. For example, when a marker includes a straight line formed colorless region, the direction can be indicated in the direction of the marker. At this time, the positions and directions of the feature points and / or the markers of the face can be detected automatically or manually. When the operator sets the automatic detection mode at step S310, the diagnostic position tracking apparatus 100 can automatically detect the marker from the feature point or the marker image from the facial image. When the operator sets the manual detection mode at step S310, the operator can manually display the position and direction of the marker from the feature point or the marker image from the facial image. 4 shows the feature point 401 and the position and direction of the marker 403 from the facial image automatically detected by the diagnostic position tracking device 100. [ 5 shows the feature point 501 and the position and direction of the marker 503 from the face image shot manually detected by the operator.

이후, 진단 위치 추적 장치(100)는 환자 별 얼굴의 특징점과 마커의 위치 관계를 저장한다(S350). 여기서, 얼굴의 특징점과 마커의 위치 관계는 얼굴의 특징점, 마커의 위치 및 마커의 방향 간의 상관 관계일 수 있다. 도 6과 같이, 환자 별 얼굴의 특징점과 마커의 위치 관계를 저장하면, 환자 정보가 등록되었음을 안내하는 화면(601)이 출력될 수 있다. Thereafter, the diagnostic position tracking device 100 stores the positional relationship between the feature points of the face and the marker of each patient (S350). Here, the positional relationship between the feature point of the face and the marker may be a correlation between the feature point of the face, the position of the marker, and the direction of the marker. As shown in FIG. 6, when the positional relationship between the feature points of the patient and the marker is stored, a screen 601 indicating that patient information is registered can be output.

한편, 단계 S310에서 추적 관찰 모드로 설정된 경우, 진단 위치 추적 장치(100)는 단계 S350에서 미리 저장된 사용자 별 얼굴의 특징점과 마커의 위치 및 방향을 불러와서 화면에 표시한다(S360). 이때, 마커의 위치 및 방향에는 오차 범위가 반영될 수 있다. 도 7은 추적 관찰 모드 시, 미리 저장된 얼굴의 특징점과 마커의 위치 및 방향을 화면에 표시한 예를 나타낸다.If the tracking position is set to the tracking mode in step S310, the diagnostic position tracking device 100 retrieves the location and direction of the feature points and markers of the per-user face stored in advance in step S350 and displays them on the screen in step S360. At this time, the error range may be reflected in the position and direction of the marker. FIG. 7 shows an example in which the feature points of the previously stored face and the positions and directions of the markers are displayed on the screen in the tracking observation mode.

그리고, 진단 위치 추적 장치(100)는 얼굴의 특징점에 맞게 환자의 얼굴을 조정하며, 표시된 마커의 위치 및 방향과 일치하도록 진단기기를 이동시킴으로써 환부를 찾아낸다(S370). 진단기기에 부착된 마커의 위치 및 방향이 화면에 표시된, 즉 미리 저장된 마커의 위치 및 방향에 근접할수록, 진단 위치 추적 장치(100)는 식별 가능한 소리를 출력할 수 있다.The diagnostic position tracking device 100 adjusts the face of the patient according to the feature point of the face, and moves the diagnostic device to match the position and direction of the displayed marker to find the affected part (S370). The closer the position and direction of the marker attached to the diagnostic device is, that is, the position and direction of the previously stored marker, the more the diagnostic position tracking device 100 can output an identifiable sound.

이와 같이, 진단 위치 추적 장치(100)는 얼굴 촬영 영상과 두피 촬영 영상을 동시에 출력하므로, 조작자는 얼굴의 특징점과 마커의 위치 및 방향에 따라 환부를 찾을 수 있다. 또한, 조작자는 초기/추적관찰 모드, 자동/수동 검출 모드, 화면 전환 등의 GUI를 통하여 용이하게 환부를 추적할 수 있다. Thus, the diagnostic position tracking device 100 simultaneously outputs the facial image and the scalp image, so that the operator can find the affected part according to the feature point of the face and the position and direction of the marker. In addition, the operator can easily track the affected part through the GUI such as the initial / tracking mode, automatic / manual detection mode, and screen switching.

이상에서 설명한 본 발명의 실시예는 장치 및 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있다.The embodiments of the present invention described above are not implemented only by the apparatus and method, but may be implemented through a program for realizing the function corresponding to the configuration of the embodiment of the present invention or a recording medium on which the program is recorded.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the present invention as defined by the following claims It can be understood that

Claims (12)

여자의 얼굴 영상을 촬영하거나, 환부를 관찰하는 진단기기에 부착된 마커(marker)를 촬영하는 촬영부,
조작자로부터 환자 정보 또는 설정 정보를 입력 받는 입력부,
얼굴 촬영 영상 또는 마커 촬영 영상을 처리하며, 상기 얼굴 촬영 영상의 특징점과 상기 마커의 위치 관계를 추출하는 제어부,
상기 얼굴 촬영 영상의 특징점, 상기 마커의 위치 관계 및 상기 환자 정보를 저장하는 저장부, 그리고
상기 환자 정보를 입력 받기 위한 프레임, 상기 설정 정보를 입력 받기 위한 프레임, 상기 얼굴 촬영 영상을 출력하기 위한 프레임 및 상기 마커 촬영 영상을 출력하기 위한 프레임을 표시하기 위한 그래픽 유저 인터페이스(Graphic User Interface, GUI)를 제공하는 출력부
를 포함하고,
상기 설정 정보를 입력 받기 위한 프레임은 환부의 위치를 등록하기 위한 초기 모드 및 환부를 추적 관찰하기 위한 추적 관찰 모드 중 하나를 선택하도록 하는 GUI를 제공하는 진단 위치 추적 장치.
A photographing unit for photographing a face image of the woman or photographing a marker attached to a diagnostic device for observing a lesion,
An input unit for inputting patient information or setting information from an operator,
A controller for processing the facial imaged image or the marker imaged image and extracting the positional relationship between the feature point of the facial imaged image and the marker,
A storage unit for storing the feature points of the facial imaged image, the positional relationship of the markers, and the patient information,
A graphical user interface (GUI) for displaying a frame for receiving the patient information, a frame for inputting the setting information, a frame for outputting the face photographing image, and a frame for outputting the marker photographing image, ≪ / RTI >
Lt; / RTI >
Wherein the frame for receiving the setting information provides a GUI for selecting one of an initial mode for registering the position of the affected part and a tracking mode for tracking the affected part.
삭제delete 제1항에 있어서,
상기 초기 모드인 경우,
상기 얼굴 촬영 영상을 출력하기 위한 프레임은 상기 얼굴 촬영 영상과 함께 상기 얼굴 촬영 영상의 특징점을 표시하고,
상기 마커 촬영 영상을 출력하기 위한 프레임은 상기 마커 촬영 영상과 함께 상기 마커의 위치 및 방향을 표시하는 진단 위치 추적 장치.
The method according to claim 1,
In the initial mode,
Wherein the frame for outputting the photographed image displays feature points of the photographed image together with the photographed image,
Wherein the frame for outputting the marker photographing image displays the position and direction of the marker together with the marker photographing image.
제1항에 있어서,
상기 추적 관찰 모드인 경우,
상기 얼굴 촬영 영상을 출력하기 위한 프레임은 상기 초기 모드 시에 미리 등록된 상기 얼굴 촬영 영상의 특징점을 표시하고,
상기 마커 촬영 영상을 출력하기 위한 프레임은 상기 초기 모드 시에 미리 등록된 상기 마커의 위치 및 방향을 표시하는 진단 위치 추적 장치.
The method according to claim 1,
In the tracking mode,
Wherein the frame for outputting the face photographing image displays the feature points of the face photographing image registered in advance in the initial mode,
Wherein the frame for outputting the marker image displays the position and direction of the marker registered in advance in the initial mode.
제1항에 있어서,
상기 설정 정보를 입력 받기 위한 프레임은 상기 얼굴 촬영 영상으로부터의 특징점 또는 상기 마커 촬영 영상으로부터의 마커를 자동으로 검출하는 자동 검출 모드 및 상기 얼굴 촬영 영상으로부터의 특징점 또는 상기 마커 촬영 영상으로부터의 마커를 수동으로 검출하는 수동 검출 모드 중 하나를 선택하도록 하는 GUI를 제공하는 진단 위치 추적 장치.
The method according to claim 1,
Wherein the frame for receiving the setting information includes an automatic detection mode for automatically detecting a feature point from the facial imaged image or a marker from the marker imaged image and a feature point from the facial imaged image or a marker from the marker imaged image manually And a manual detection mode for detecting the detected position of the object.
제5항에 있어서,
상기 설정 정보를 입력 받기 위한 프레임은 상기 특징점 및 상기 마커를 검출하는 방법을 동시에 제어하는 GUI를 제공하는 진단 위치 추적 장치.
6. The method of claim 5,
Wherein the frame for receiving the setting information provides a GUI for simultaneously controlling the feature point and the method of detecting the marker.
제5항에 있어서,
상기 설정 정보를 입력 받기 위한 프레임은 상기 특징점 및 상기 마커를 검출하는 방법을 별개의 프레임에 의하여 제어하는 GUI를 제공하는 진단 위치 추적 장치.
6. The method of claim 5,
Wherein the frame for receiving the setting information provides a GUI for controlling the feature points and the method of detecting the markers by a separate frame.
제1항에 있어서,
상기 설정 정보를 입력 받기 위한 프레임은 상기 특징점 및 상기 마커를 검출하기 위한 설정 값을 입력하는 GUI를 제공하는 진단 위치 추적 장치.
The method according to claim 1,
Wherein the frame for receiving the setting information provides a GUI for inputting the minutiae and a set value for detecting the marker.
제1항에 있어서,
상기 출력부는 상기 얼굴 촬영 영상을 출력하기 위한 프레임 및 상기 마커 촬영 영상을 출력하기 위한 프레임의 위치를 바꾸기 위한 화면 전환 프레임을 표시하기 위한 GUI를 더 제공하는 진단 위치 추적 장치.
The method according to claim 1,
Wherein the output unit further comprises a GUI for displaying a frame for outputting the facial image and a frame for changing a position of a frame for outputting the marker photographing image.
진단 위치 추적 장치의 그래픽 유저 인터페이스(Graphic User Interface, GUI) 제공 방법에 있어서,
환자 정보를 입력 받기 위한 프레임, 환부의 위치를 등록하기 위한 초기 모드 및 환부를 추적 관찰하기 위한 추적 관찰 모드 중 하나를 선택하는 정보를 포함하는 설정 정보를 입력 받기 위한 프레임, 환자의 얼굴 촬영 영상을 출력하기 위한 프레임, 환부를 관잘하는 진단기기에 부착된 마커(marker)의 마커 촬영 영상을 출력하기 위한 프레임을 표시하기 위한 그래픽 유저 인터페이스(Graphic User Interface, GUI)를 제공하는 단계,
상기 환자 정보를 입력 받기 위한 프레임 및 상기 설정 정보를 입력 받기 위한 프레임을 통하여 상기 환자 정보 및 상기 설정 정보를 입력 받는 단계,
상기 얼굴 촬영 영상을 출력하기 위한 프레임 및 상기 마커 촬영 영상을 출력하기 위한 프레임을 통하여 상기 얼굴 촬영 영상 및 상기 마커 촬영 영상을 출력하는 단계, 그리고
상기 얼굴 촬영 영상을 출력하기 위한 프레임 및 상기 마커 촬영 영상을 출력하기 위한 프레임을 통하여 상기 얼굴 촬영 영상의 특징점과 상기 마커의 위치 및 방향을 표시하는 단계
를 포함하는 GUI 제공 방법.
A method for providing a graphical user interface (GUI) of a diagnostic location tracking device,
A frame for receiving setting information including information for selecting one of a frame for receiving patient information, an initial mode for registering the position of the affected part, and a tracking observation mode for tracking the affected part, Providing a graphical user interface (GUI) for displaying a frame for outputting a marker photographed image of a marker attached to a diagnosing device that is well connected to the affected part,
Receiving the patient information and the setting information through a frame for receiving the patient information and a frame for receiving the setting information,
Outputting the face photographing image and the marker photographing image through a frame for outputting the face photographing image and a frame for outputting the marker photographing image, and
A step of displaying a feature point of the face photographing image and a position and a direction of the marker through a frame for outputting the face photographing image and a frame for outputting the marker photographing image
Gt; a < / RTI > GUI.
제10항에 있어서,
상기 얼굴 촬영 영상을 출력하기 위한 프레임 및 상기 마커 촬영 영상을 출력하기 위한 프레임의 위치를 바꾸기 위한 화면 전환 프레임을 표시하기 위한 GUI를 제공하는 단계를 더 포함하는 GUI 제공 방법.
11. The method of claim 10,
Further comprising: providing a GUI for displaying a frame for outputting the face photographing image and a screen switching frame for changing a position of a frame for outputting the marker photographing image.
환자 정보를 입력 받기 위한 프레임, 환부의 위치를 등록하기 위한 초기 모드 및 환부를 추적 관찰하기 위한 추적 관찰 모드 중 하나를 선택하는 정보를 포함하는 설정 정보를 입력 받기 위한 프레임, 환자의 얼굴 촬영 영상을 출력하기 위한 프레임, 환부를 관찰하는 진단기기에 부착된 마커(marker)의 마커 촬영 영상을 출력하기 위한 프레임 중 적어도 하나를 표시하기 위한 그래픽 유저 인터페이스(Graphic User Interface, GUI)를 제공하는 단계,
상기 환자 정보를 입력 받기 위한 프레임 및 상기 설정 정보를 입력 받기 위한 프레임을 통하여 상기 환자 정보 및 상기 설정 정보를 입력 받는 단계,
상기 얼굴 촬영 영상을 출력하기 위한 프레임 및 상기 마커 촬영 영상을 출력하기 위한 프레임을 통하여 상기 얼굴 촬영 영상 및 상기 마커 촬영 영상을 출력하는 단계, 그리고
상기 얼굴 촬영 영상을 출력하기 위한 프레임 및 상기 마커 촬영 영상을 출력하기 위한 프레임을 통하여 상기 얼굴 촬영 영상의 특징점과 상기 마커의 위치 및 방향을 표시하는 단계
를 포함하는 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록하는 컴퓨터 판독 가능한 기록매체.
A frame for receiving setting information including information for selecting one of a frame for receiving patient information, an initial mode for registering the position of the affected part, and a tracking observation mode for tracking the affected part, Providing a graphic user interface (GUI) for displaying at least one of a frame for outputting a marker image and a frame for outputting a marker photographing image of a marker attached to a diagnostic device for observing the affected part,
Receiving the patient information and the setting information through a frame for receiving the patient information and a frame for receiving the setting information,
Outputting the face photographing image and the marker photographing image through a frame for outputting the face photographing image and a frame for outputting the marker photographing image, and
A step of displaying a feature point of the face photographing image and a position and a direction of the marker through a frame for outputting the face photographing image and a frame for outputting the marker photographing image
A computer-readable recording medium storing a program for executing a method in a computer.
KR1020130009188A 2013-01-28 2013-01-28 Method for providing gui for apparatus of tracking diagnosis site, and computer readable recording medium recording program for implementing the method KR101442953B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130009188A KR101442953B1 (en) 2013-01-28 2013-01-28 Method for providing gui for apparatus of tracking diagnosis site, and computer readable recording medium recording program for implementing the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130009188A KR101442953B1 (en) 2013-01-28 2013-01-28 Method for providing gui for apparatus of tracking diagnosis site, and computer readable recording medium recording program for implementing the method

Publications (2)

Publication Number Publication Date
KR20140096538A KR20140096538A (en) 2014-08-06
KR101442953B1 true KR101442953B1 (en) 2014-09-23

Family

ID=51744367

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130009188A KR101442953B1 (en) 2013-01-28 2013-01-28 Method for providing gui for apparatus of tracking diagnosis site, and computer readable recording medium recording program for implementing the method

Country Status (1)

Country Link
KR (1) KR101442953B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008532602A (en) * 2005-03-11 2008-08-21 ブラッコ・イメージング・ソシエタ・ペル・アチオニ Surgical navigation and microscopy visualization method and apparatus
KR20090112727A (en) * 2007-01-25 2009-10-28 워쏘우 오르쏘페딕 인코포레이티드 Integrated visualization of surgical navigational and neural monitoring information

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008532602A (en) * 2005-03-11 2008-08-21 ブラッコ・イメージング・ソシエタ・ペル・アチオニ Surgical navigation and microscopy visualization method and apparatus
KR20090112727A (en) * 2007-01-25 2009-10-28 워쏘우 오르쏘페딕 인코포레이티드 Integrated visualization of surgical navigational and neural monitoring information

Also Published As

Publication number Publication date
KR20140096538A (en) 2014-08-06

Similar Documents

Publication Publication Date Title
KR102013828B1 (en) Method and apparatus for predicting surgical duration based on surgical video
EP3138526B1 (en) Augmented surgical reality environment system
EP2348955B1 (en) Method and apparatus for obtaining an image of an ocular feature
CN107485455B (en) Efficient interactive bleeding detection in surgical systems
JP2016503667A5 (en)
CN112822989A (en) Surgical training apparatus, method and system
US11266294B2 (en) Image processing device, endoscopic surgery system, and image processing method
JP2017153818A5 (en)
CN110662476B (en) Information processing apparatus, control method, and program
KR101978548B1 (en) Server and method for diagnosing dizziness using eye movement measurement, and storage medium storin the same
US20200162664A1 (en) Input control device, input control method, and operation system
US9877635B2 (en) Image processing device, image processing method, and computer-readable recording medium
JPWO2016013252A1 (en) Medical system
US20150356732A1 (en) Image display device and method
JP2015533329A5 (en)
JP2009291308A (en) Medical device management system
JP6313913B2 (en) Endoscopic image observation support system
US20220008161A1 (en) Information processing device, presentation method, and surgical system
KR101442953B1 (en) Method for providing gui for apparatus of tracking diagnosis site, and computer readable recording medium recording program for implementing the method
KR20160014470A (en) Apparatus and method for supporting computer aided diagnosis based on providing non-visual information, and computer aided diagnosis system
KR101449830B1 (en) Apparatus for tracing diagnosis site, device for tracing diagnosis site and diagnosis device
JP6096441B2 (en) Medical image processing apparatus, medical image processing method, and medical image processing program
JP2017016347A (en) Information processing device, information processing method, and program
US10049480B2 (en) Image alignment device, method, and program
US20240095919A1 (en) Image processing device, endoscope system, image processing method, and information storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180918

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190903

Year of fee payment: 6