KR101442953B1 - Method for providing gui for apparatus of tracking diagnosis site, and computer readable recording medium recording program for implementing the method - Google Patents
Method for providing gui for apparatus of tracking diagnosis site, and computer readable recording medium recording program for implementing the method Download PDFInfo
- Publication number
- KR101442953B1 KR101442953B1 KR1020130009188A KR20130009188A KR101442953B1 KR 101442953 B1 KR101442953 B1 KR 101442953B1 KR 1020130009188 A KR1020130009188 A KR 1020130009188A KR 20130009188 A KR20130009188 A KR 20130009188A KR 101442953 B1 KR101442953 B1 KR 101442953B1
- Authority
- KR
- South Korea
- Prior art keywords
- frame
- marker
- image
- outputting
- receiving
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1113—Local tracking of patients, e.g. in a hospital or private home
- A61B5/1114—Tracking parts of the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1127—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/44—Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
- A61B5/441—Skin evaluation, e.g. for skin disorder diagnosis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4833—Assessment of subject's compliance to treatment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/7435—Displaying user selection data, e.g. icons in a graphical user interface
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Physics & Mathematics (AREA)
- Animal Behavior & Ethology (AREA)
- Pathology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Physiology (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Dermatology (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
본 발명의 한 실시예에 따른 진단 위치 추적 장치는 환자의 얼굴 영상을 촬영하거나, 환부를 관찰하는 진단기기에 부착된 마커(marker)를 촬영하는 촬영부, 조작자로부터 환자 정보 또는 설정 정보를 입력 받는 입력부, 열굴 촬영 영상 또는 마커 촬영 영상을 처리하며, 상기 얼굴 촬영 영상의 특징점과 상기 마커의 위치 관계를 추출하는 제어부, 상기 얼굴 촬영 영상의 특징점, 상기 마커의 위치 관계 및 상기 환자 정보를 저장하는 저장부, 그리고 상기 환자 정보를 입력 받기 위한 프레임, 상기 설정 정보를 입력 받기 위한 프레임, 상기 얼굴 촬영 영상을 출력하기 위한 프레임 및 상기 마커 촬영 영상을 출력하기 위한 프레임 중 적어도 하나를 표시하기 위한 그래픽 유저 인터페이스(Graphic User Interface, GUI)를 제공하는 출력부를 포함한다.The diagnostic position tracking apparatus according to an embodiment of the present invention includes a photographing unit for photographing a face image of a patient or photographing a marker attached to a diagnostic device for observing a lesion portion, A control unit for processing the input unit, the thermographed image or the marker image and extracting a positional relationship between the feature point of the face image and the marker, a feature point of the face image, a positional relationship of the marker, And a graphic user interface for displaying at least one of a frame for inputting the patient information, a frame for receiving the setting information, a frame for outputting the facial image, and a frame for outputting the marker image, (Graphic User Interface, GUI).
Description
본 발명은 의료 장치에 관한 것으로, 보다 상세하게는 의료용 진단 위치 추적 장치를 구동하기 위한 GUI 제공 방법 및 그 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록하는 컴퓨터 판독 가능한 기록매체에 관한 것이다.Field of the Invention [0002] The present invention relates to a medical apparatus, and more particularly, to a method of providing a GUI for driving a medical diagnostic position tracking apparatus and a computer readable recording medium recording a program for executing the method in a computer.
피부 또는 두피를 치료하거나 수술한 경우, 그 부위를 추적 관찰할 필요가 있다. 그런데, 피부 또는 두피의 치료 또는 수술 부위는 크기가 작아, 그 위치를 찾아내기가 쉽지 않다.If the skin or scalp is treated or operated, it is necessary to follow the site. However, the treatment or the surgical site of the skin or scalp is small in size, and it is not easy to find its position.
일반적으로 추적 관찰을 위하여 치료 또는 수술 부위에 문신 등의 표식을 하지만, 이러한 방법은 환자에게 거부감과 불편을 야기할 수 있으며, 표식이 지워질 가능성도 있다.Generally, tattoo markings are applied to the treatment or surgical site for the purpose of follow-up, but this method may cause discomfort and inconvenience to the patient, and the mark may be erased.
이에 따라, 피부 또는 두피의 치료 또는 수술 부위를 빠른 시간 내에 정확하게 찾아내는 방법이 필요하다.Accordingly, there is a need for a method for accurately detecting the treatment or the surgical site of the skin or scalp in a short period of time.
본 발명이 이루고자 하는 기술적 과제는 의료용 진단 위치 추적 장치를 구동하기 위한 GUI 제공 방법 및 그 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체를 제공하는 데 있다.SUMMARY OF THE INVENTION The present invention is directed to a method for providing a GUI for driving a medical diagnostic location tracking apparatus and a computer readable recording medium for recording a program for executing the method in a computer.
본 발명의 한 실시예에 따른 진단 위치 추적 장치는 환자의 얼굴 영상을 촬영하거나, 환부를 관찰하는 진단기기에 부착된 마커(marker)를 촬영하는 촬영부, 조작자로부터 환자 정보 또는 설정 정보를 입력 받는 입력부, 얼굴 촬영 영상 또는 마커 촬영 영상을 처리하며, 상기 얼굴 촬영 영상의 특징점과 상기 마커의 위치 관계를 추출하는 제어부, 상기 얼굴 촬영 영상의 특징점, 상기 마커의 위치 관계 및 상기 환자 정보를 저장하는 저장부, 그리고 상기 환자 정보를 입력 받기 위한 프레임, 상기 설정 정보를 입력 받기 위한 프레임, 상기 얼굴 촬영 영상을 출력하기 위한 프레임 및 상기 마커 촬영 영상을 출력하기 위한 프레임 중 적어도 하나를 표시하기 위한 그래픽 유저 인터페이스(Graphic User Interface, GUI)를 제공하는 출력부를 포함한다.The diagnostic position tracking apparatus according to an embodiment of the present invention includes a photographing unit for photographing a face image of a patient or photographing a marker attached to a diagnostic device for observing a lesion portion, A control unit for processing a face image, an input unit, a face image or a marker image, extracting a positional relationship between the feature point of the face image and the marker, a feature point of the face image, a positional relationship of the marker, And a graphic user interface for displaying at least one of a frame for inputting the patient information, a frame for receiving the setting information, a frame for outputting the facial image, and a frame for outputting the marker image, (Graphic User Interface, GUI).
상기 설정 정보를 입력 받기 위한 프레임은 환부의 위치를 등록하기 위한 초기 모드 및 환부를 추적 관찰하기 위한 추적 관찰 모드 중 하나를 선택하도록 하는 GUI를 제공할 수 있다.The frame for receiving the setting information may provide a GUI for selecting one of an initial mode for registering the position of the affected part and a tracking observation mode for tracking the affected part.
상기 초기 모드인 경우, 상기 얼굴 촬영 영상을 출력하기 위한 프레임은 상기 얼굴 촬영 영상과 함께 상기 얼굴 촬영 영상의 특징점을 표시하고, 상기 마커 촬영 영상을 출력하기 위한 프레임은 상기 마커 촬영 영상과 함께 상기 마커의 위치 및 방향을 표시할 수 있다.In the initial mode, a frame for outputting the face photographing image displays a feature point of the face photographing image together with the face photographing image, and a frame for outputting the marker photographing image, together with the marker photographing image, Can be displayed.
상기 추적 관찰 모드인 경우, 상기 얼굴 촬영 영상을 출력하기 위한 프레임은 상기 초기 모드 시에 미리 등록된 상기 얼굴 촬영 영상의 특징점을 표시하고, 상기 마커 촬영 영상을 출력하기 위한 프레임은 상기 초기 모드 시에 미리 등록된 상기 마커의 위치 및 방향을 표시할 수 있다.In the tracking mode, a frame for outputting the facial imaged image displays minutiae points of the facial imaged image registered in advance in the initial mode, and a frame for outputting the marker photographic image is displayed in the initial mode The position and direction of the marker registered in advance can be displayed.
상기 설정 정보를 입력 받기 위한 프레임은 상기 얼굴 촬영 영상으로부터의 특징점 또는 상기 마커 촬영 영상으로부터의 마커를 자동으로 검출하는 자동 검출 모드 및 상기 얼굴 촬영 영상으로부터의 특징점 또는 상기 마커 촬영 영상으로부터의 마커를 수동으로 검출하는 수동 검출 모드 중 하나를 선택하도록 하는 GUI를 제공할 수 있다.Wherein the frame for receiving the setting information includes an automatic detection mode for automatically detecting a feature point from the facial imaged image or a marker from the marker imaged image and a feature point from the facial imaged image or a marker from the marker imaged image manually And a manual detection mode for detecting a manual detection mode.
상기 설정 정보를 입력 받기 위한 프레임은 상기 특징점 및 상기 마커를 검출하는 방법을 동시에 제어하는 GUI를 제공할 수 있다.The frame for receiving the setting information may provide a GUI for simultaneously controlling the minutiae and the method of detecting the marker.
상기 설정 정보를 입력 받기 위한 프레임은 상기 특징점 및 상기 마커를 검출하는 방법을 별개의 프레임에 의하여 제어하는 GUI를 제공할 수 있다.The frame for receiving the setting information may provide a GUI for controlling the feature point and the method of detecting the marker by a separate frame.
상기 설정 정보를 입력 받기 위한 프레임은 상기 특징점 및 상기 마커를 검출하기 위한 설정 값을 입력하는 GUI를 제공할 수 있다.The frame for receiving the setting information may provide a GUI for inputting the minutiae and a set value for detecting the marker.
상기 출력부는 상기 얼굴 촬영 영상을 출력하기 위한 프레임 및 상기 마커 촬영 영상을 출력하기 위한 프레임의 위치를 바꾸기 위한 화면 전환 프레임을 표시하기 위한 GUI를 더 제공할 수 있다.The output unit may further include a GUI for displaying a frame for outputting the facial image and a screen switching frame for changing a position of a frame for outputting the marker photographing image.
본 발명의 한 실시예에 따른 진단 위치 추적 장치의 그래픽 유저 인터페이스(Graphic User Interface, GUI) 제공 방법은 환자 정보를 입력 받기 위한 프레임, 설정 정보를 입력 받기 위한 프레임, 환자의 얼굴 촬영 영상을 출력하기 위한 프레임, 환부를 관찰하는 진단기기에 부착된 마커(marker)의 마커 촬영 영상을 출력하기 위한 프레임 중 적어도 하나를 표시하기 위한 그래픽 유저 인터페이스(Graphic User Interface, GUI)를 제공하는 단계, 상기 환자 정보를 입력 받기 위한 프레임 및 상기 설정 정보를 입력 받기 위한 프레임을 통하여 상기 환자 정보 및 상기 설정 정보를 입력 받는 단계, 상기 얼굴 촬영 영상을 출력하기 위한 프레임 및 상기 마커 촬영 영상을 출력하기 위한 프레임을 통하여 상기 얼굴 촬영 영상 및 상기 마커 촬영 영상을 출력하는 단계, 그리고 상기 얼굴 촬영 영상을 출력하기 위한 프레임 및 상기 마커 촬영 영상을 출력하기 위한 프레임을 통하여 상기 얼굴 촬영 영상의 특징점과 상기 마커의 위치 및 방향을 표시하는 단계를 포함한다.A method for providing a graphical user interface (GUI) of a diagnostic location tracking apparatus according to an embodiment of the present invention includes a frame for receiving patient information, a frame for receiving setting information, Providing a graphical user interface (GUI) for displaying at least one of a frame for outputting a marker image of a marker attached to a diagnostic device for observing a lesion, and a frame for outputting a marker image of the marker, Receiving the patient information and the setting information through a frame for inputting the setting information and a frame for receiving the setting information, a frame for outputting the face image, and a frame for outputting the marker image, A face photographing image and a marker photographing image, And displaying the feature points of the facial imaged image and the position and direction of the marker through a frame for outputting the facial imaged image and a frame for outputting the imaged marker image.
상기 얼굴 촬영 영상을 출력하기 위한 프레임 및 상기 마커 촬영 영상을 출력하기 위한 프레임의 위치를 바꾸기 위한 화면 전환 프레임을 표시하기 위한 GUI를 제공하는 단계를 더 포함할 수 있다.The method may further include providing a GUI for displaying a frame for outputting the facial imaged image and a frame switching frame for changing the position of a frame for outputting the marker photographing image.
본 발명의 실시예에 따르면, 피부 또는 두피의 치료 또는 수술 부위를 빠른 시간 내에 정확하게 찾아내는 진단 위치 추적 장치를 얻을 수 있다. 특히, 얼굴의 특징점과 환부 간의 위치 관계를 미리 저장한 후, 추적 관찰 시에 미리 저장한 정보를 불러옴으로써, 환부에 문신 등의 표식을 할 필요가 없다. 또한, 조작자가 용이하게 조작할 수 있도록 화면에 GUI를 제공할 수 있다.According to the embodiment of the present invention, it is possible to obtain a diagnostic position tracking device which can quickly find out the treatment or the surgical site of the skin or the scalp accurately and quickly. In particular, after storing the positional relationship between the feature point of the face and the affected part in advance, it is not necessary to mark the tattoo on the affected part by retrieving the stored information at the time of the follow-up observation. In addition, a GUI may be provided on the screen so that the operator can easily operate it.
도 1은 본 발명의 한 실시예에 따른 진단 위치 추적 장치를 나타내는 블록도이다.
도 2는 본 발명의 한 실시예에 따른 진단 위치 추적 장치의 화면을 통하여 제공되는 GUI를 나타낸다.
도 3은 본 발명의 한 실시예에 따른 진단 위치 추적 장치가 GUI를 제공하는 방법을 나타내는 순서도이다.
도 4 내지 도 7은 본 발명의 한 실시예에 따른 진단 위치 추적 장치가 제공하는 화면의 GUI를 나타낸다.1 is a block diagram illustrating a diagnostic location tracking device in accordance with an embodiment of the present invention.
FIG. 2 illustrates a GUI provided through a screen of a diagnostic location tracking device according to an embodiment of the present invention.
3 is a flow diagram illustrating a method for a diagnostic location tracking device to provide a GUI in accordance with an embodiment of the present invention.
4 to 7 show a GUI of a screen provided by the diagnostic position tracking device according to an embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated and described in the drawings. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.
제2, 제1 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. The terms including ordinal, such as second, first, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the second component may be referred to as a first component, and similarly, the first component may also be referred to as a second component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.
이하, 첨부된 도면을 참조하여 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 대응하는 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings, wherein like or corresponding elements are denoted by the same reference numerals, and redundant description thereof will be omitted.
본 발명의 한 실시예에 따른 진단 위치 추적 장치는 얼굴의 특징점에 기반하여 피부 또는 두피의 치료 또는 수술 부위(이하, 환부 또는 진단 위치와 혼용될 수 있다)를 추적한다. 이를 위하여, 치료 또는 수술 시에 환자의 얼굴 영상을 촬영하고, 얼굴 영상으로부터 특징점을 추출하며, 특징점과 환부의 위치 관계를 미리 저장한다. 이때, 특징점과 환부의 위치 관계는 특징점과 환부를 촬영하는 진단 기기에 부착된 마커(marker)의 위치 및 방향에 따라 정의될 수 있다.The diagnostic location tracking device according to an embodiment of the present invention tracks the treatment or operation site of the skin or scalp (hereinafter, it can be mixed with the affected area or diagnostic site) based on the feature points of the face. To do this, the face image of the patient is taken during treatment or surgery, the feature points are extracted from the facial images, and the positional relationship between the feature points and the lesion is stored in advance. At this time, the positional relationship between the minutiae and the lesion part can be defined according to the position and direction of the marker attached to the diagnostic device for photographing the minutiae and the affected part.
치료 또는 수술로부터 소정 기간 경과 후 환부를 추적 관찰할 경우, 진단 위치 추적 장치는 환자의 얼굴 영상 및 진단기기에 부착된 마커를 촬영하며, 얼굴 촬영 영상과 마커 촬영 영상을 미리 저장된 특징점과 환부의 위치 관계에 매칭(matching)시킴으로써, 진단 위치를 추적할 수 있다. When the affected part is followed up after a predetermined period of time from the treatment or surgery, the diagnostic position tracking device photographs the face image of the patient and the marker attached to the diagnostic device. The face image and the marker image are stored in advance, By matching the relationship, the diagnostic location can be tracked.
본 발명의 한 실시예에 따른 진단 위치 추적 장치는 조작자의 편의를 위하여 화면 상에 그래픽 사용자 인터페이스(Graphic User Interface, GUI)를 제공한다.The diagnostic location tracking device according to an embodiment of the present invention provides a graphical user interface (GUI) on the screen for the convenience of the operator.
도 1은 본 발명의 한 실시예에 따른 진단 위치 추적 장치를 나타내는 블록도이다.1 is a block diagram illustrating a diagnostic location tracking device in accordance with an embodiment of the present invention.
도 1을 참조하면, 진단 위치 추적 장치(100)는 촬영부(110), 입력부(120), 제어부(130), 저장부(140) 및 출력부(150)를 포함한다.1, the diagnostic
촬영부(110)는 적어도 하나의 카메라를 포함한다. 촬영부(110)는 적어도 하나의 카메라를 이용하여 환자의 얼굴을 촬영하거나, 진단 기기에 부착된 마커(marker)를 촬영할 수 있다. 여기서, 진단기기는 환부를 관찰하기 위한 별도의 카메라를 포함할 수 있다. 그리고, 마커는 진단기기가 환부 상에 정확하게 위치하는지를 표시하기 위하여, 진단기기 표면의 소정 위치에 부착될 수 있다.The photographing
입력부(120)는 조작자로부터 사용자 정보, 설정 정보 등을 입력 받으며, 이를 제어부(130)에게 전달한다.The
제어부(130)는 진단 위치 추적 장치(100)의 전반적인 동작을 제어한다. 예를 들면, 제어부(130)는 촬영부(110)에 의하여 촬영된 영상을 처리하거나, 입력부(120)로부터 입력 받은 정보를 처리할 수 있다.The
저장부(140)는 제어부(130) 내의 처리 및 제어를 위한 프로그램을 저장하며, 촬영부(110)에 의하여 촬영된 영상, 입력부(120)로부터 입력 받은 정보 및 제어부(130)에 의하여 처리된 신호 등을 저장한다.The
출력부(150)는 화면에 각종 정보를 그래픽(Graphic)이나 텍스트(text)로 표시하기 위하여, 그래픽 유저 인터페이스(Graphic User Interface, GUI)를 제공한다.The
도 2는 본 발명의 한 실시예에 따른 진단 위치 추적 장치의 화면을 통하여 제공되는 GUI를 나타낸다.FIG. 2 illustrates a GUI provided through a screen of a diagnostic location tracking device according to an embodiment of the present invention.
도 2를 참조하면, 진단 위치 추적 장치(100)의 화면은 메인 프레임(200), 서브 프레임(210), 사용자 정보 입력 프레임(220), 모드 입력 프레임(230), 특징점 검출 설정 프레임(240), 마커 검출 설정 프레임(250), 시작/중지/종료 설정 프레임(260) 및 화면 전환 프레임(270) 등을 포함한다. 도 2에 도시된 각 프레임의 위치 및 크기는 예시에 지나지 않으며, 다양하게 변형 또는 수정될 수 있다. 2, the screen of the diagnostic
메인 프레임(200) 및 서브 프레임(210)은 촬영부(110)에 의하여 촬영된 영상을 표시한다. 메인 프레임(200)은 서브 프레임(210)보다 크게 설정될 수 있으며, 메인 프레임(200) 및 서브 프레임(210)에는 환자의 얼굴 촬영 영상 또는 마커 촬영 영상이 출력될 수 있다. 예를 들어, 메인 프레임(200)은 환자의 얼굴 촬영 영상을 출력하며, 서브 프레임(210)은 마커 촬영 영상을 출력할 수 있다.The
사용자 정보 입력 프레임(220)은 환자 정보(예, 이름, 생년월일, 아이디(ID))를 입력 받는 프레임이다.The user
모드 입력 프레임(230)은 환부의 위치를 등록하기 위한 초기 모드인지, 환부를 추적 관찰하기 위한 추적 관찰 모드인지를 입력 받는 프레임이다. 예를 들어, 치료 또는 수술 시에 얼굴의 특징점과 환부의 위치 관계를 미리 저장하고자 하는 경우, 조작자는 초기 모드, 즉 첫 치료 모드를 선택할 수 있다. 그리고, 치료 또는 수술 후에 환부를 추적 관찰하고자 하는 경우, 조작자는 추적 관찰 모드, 즉 치료 진행 모드를 선택할 수 있다.The
특징점 검출 설정 프레임(240)은 얼굴 촬영 영상으로부터 특징점을 검출하는 방법을 설정 받는 프레임이다. 예를 들어, 조작자는 자동 검출 모드 또는 수동 검출 모드를 설정할 수 있다. 자동 검출 모드인 경우, 진단 위치 추적 장치(100)는 얼굴 촬영 영상으로부터 특징점을 자동으로 추출하여 화면에 표시할 수 있다. 이때, 조작자는 특징점 검출을 위한 눈 영역 검출 사이즈 범위, 코 영역 검출 사이즈 범위 등을 설정할 수 있다. 수동 검출 모드인 경우, 조작자가 얼굴 촬영 영상으로부터 특징점을 직접 지정할 수 있다.The minutia
마커 검출 설정 프레임(250)은 진단 기기에 부착된 마커를 검출하는 방법을 설정 받는 프레임이다. 예를 들어, 조작자는 자동 검출 모드 또는 수동 검출 모드를 설정할 수 있다. 수동 검출 모드인 경우, 조작자는 마커 검출에 필요한 이진화 임계값을 슬라이드 바 또는 수치 입력란을 통해 조정할 수 있다.The marker
특징점 검출 설정 프레임(240)과 마커 검출 설정 프레임(250)은 별개의 프레임인 것으로 예시하고 있으나, 하나의 프레임으로 구현될 수도 있다. 얼굴 촬영 영상의 특징점 및 마커를 검출하는 방법이 별개의 프레임에 의하여 독립적으로 제어되거나, 하나의 프레임에 의하여 동시에 제어될 수 있다.Although the minutia
그리고, 모드 입력 프레임(230), 특징점 검출 설정 프레임(240) 및 마커 검출 설정 프레임(250)을 통칭하여 설정 정보를 입력 받기 위한 프레임이라 할 수 있다.The
시작/중지/종료 프레임(260)은 영상의 출력을 시작/중지/종료하도록 하는 프레임이다.The start / stop /
화면 전환 프레임(270)은 메인 프레임(200)과 서브 프레임(210)을 전환할 것을 지시 받는 프레임이다. 예를 들어, 메인 프레임(200)을 통하여 얼굴 촬영 영상이 표시되고, 서브 프레임(210)을 통하여 마커 촬영 영상이 표시되는 경우, 조작자가 화면 전환 프레임(270)을 통하여 화면 전환을 지시하면, 메인 프레임(200)은 마커 촬영 영상을 표시하고, 서브 프레임(210)은 얼굴 촬영 영상을 표시하는 것으로 전환될 수 있다. The
도 3은 본 발명의 한 실시예에 따른 진단 위치 추적 장치가 GUI를 제공하는 방법을 나타내는 순서도이고, 도 4 내지 도 7은 본 발명의 한 실시예에 따른 진단 위치 추적 장치가 제공하는 화면의 GUI를 나타낸다.FIG. 3 is a flowchart illustrating a method of providing a GUI according to an exemplary embodiment of the present invention. FIGS. 4 to 7 are flowcharts illustrating a method of providing a GUI of a screen provided by the diagnostic position tracking apparatus according to an exemplary embodiment of the present invention, .
도 3 내지 도 7을 참조하면, 진단 위치 추적 장치(100)는 환자 정보를 입력 받기 위한 프레임(220), 설정 정보를 입력 받기 위한 프레임(230, 240, 250), 환자의 얼굴 촬영 영상을 출력하기 위한 프레임(200), 환부를 관찰하는 진단기기에 부착된 마커(marker)의 마커 촬영 영상을 출력하기 위한 프레임(210)을 표시하기 위한 그래픽 유저 인터페이스(Graphic Uer Interface, GUI)를 제공한다(S300).3 to 7, the diagnostic
그리고, 진단 위치 추적 장치(100)는 조작자로부터 환자 정보를 입력 받기 위한 프레임(220) 및 설정 정보를 입력 받기 위한 프레임(230, 240, 250)을 통하여 환자 정보 및 설정 정보를 입력 받는다(S310). 여기서, 설정 정보는 환부의 위치를 등록하기 위한 초기 모드 및 환부를 추적 관찰하기 위한 추적 관찰 모드 중 하나를 선택하는 정보일 수 있다. 그리고, 설정 정보는 얼굴 촬영 영상으로부터의 특징점 또는 마커 촬영 영상으로부터의 마커를 자동으로 검출하는 자동 검출 모드 및 얼굴 촬영 영상으로부터의 특징점 또는 마커 촬영 영상으로부터의 마커를 수동으로 검출하는 수동 검출 모드 중 하나를 선택하는 정보일 수 있다. 조작자가 초기 모드를 선택한 경우, 진단 위치 추적 장치(100)는 조작자가 자동 검출 모드 또는 수동 검출 모드를 선택할 수 있도록 해당 프레임(240, 250)을 활성화시킬 수 있다. The diagnostic
조작자가 환자 정보 및 설정 정보를 입력한 후, 시작 프레임(260)을 클릭하면, 진단 위치 추적 장치(100)는 얼굴 촬영 영상을 출력하기 위한 프레임(200) 및 마커 촬영 영상을 출력하기 위한 프레임(210)을 통하여 얼굴 촬영 영상 및 마커 촬영 영상을 출력한다(S320).When the operator inputs the patient information and the setting information and then clicks the
단계 S310에서 초기 모드로 설정된 경우(S330), 진단 위치 추적 장치(100)는 얼굴의 특징점과 마커의 위치 및 방향을 얼굴 촬영 영상과 마커 촬영 영상에 각각 표시한다(S340). 얼굴의 특징점은, 예를 들어 눈 꼬리, 콧구멍, 입 꼬리 등일 수 있으나, 이에 한정되는 것은 아니다. 얼굴의 특징점은 조작자에 의하여 설정될 수 있다. 마커의 위치는 마커의 중심점이 속하는 영역으로 표시될 수 있다. 마커의 방향은 마커의 특정 영역의 방향을 의미할 수 있다. 예를 들어, 마커가 일직선으로 형성된 색깔 없는 영역을 포함하는 경우, 그 방향을 마커의 방향으로 표시할 수 있다. 이때, 얼굴의 특징점 및/또는 마커의 위치 및 방향은 자동 또는 수동으로 검출될 수 있다. 조작자가 단계 S310에서 자동 검출 모드로 설정한 경우, 진단 위치 추적 장치(100)는 얼굴 촬영 영상으로부터의 특징점 또는 마커 촬영 영상으로부터의 마커를 자동으로 검출할 수 있다. 조작자가 단계 S310에서 수동 검출 모드로 설정한 경우, 조작자는 얼굴 촬영 영상으로부터의 특징점 또는 마커 촬영 영상으로부터의 마커의 위치 및 방향을 수동으로 표시할 수 있다. 도 4는 진단 위치 추적 장치(100)가 자동으로 검출한 얼굴 촬영 영상으로부터의 특징점(401) 및 마커의 위치 및 방향(403)을 나타낸다. 도 5는 조작자가 수동으로 검출한 얼굴 촬영 영상으로부터의 특징점(501) 및 마커의 위치 및 방향(503)을 나타낸다.When the initial mode is set in step S310 (S330), the diagnostic
이후, 진단 위치 추적 장치(100)는 환자 별 얼굴의 특징점과 마커의 위치 관계를 저장한다(S350). 여기서, 얼굴의 특징점과 마커의 위치 관계는 얼굴의 특징점, 마커의 위치 및 마커의 방향 간의 상관 관계일 수 있다. 도 6과 같이, 환자 별 얼굴의 특징점과 마커의 위치 관계를 저장하면, 환자 정보가 등록되었음을 안내하는 화면(601)이 출력될 수 있다. Thereafter, the diagnostic
한편, 단계 S310에서 추적 관찰 모드로 설정된 경우, 진단 위치 추적 장치(100)는 단계 S350에서 미리 저장된 사용자 별 얼굴의 특징점과 마커의 위치 및 방향을 불러와서 화면에 표시한다(S360). 이때, 마커의 위치 및 방향에는 오차 범위가 반영될 수 있다. 도 7은 추적 관찰 모드 시, 미리 저장된 얼굴의 특징점과 마커의 위치 및 방향을 화면에 표시한 예를 나타낸다.If the tracking position is set to the tracking mode in step S310, the diagnostic
그리고, 진단 위치 추적 장치(100)는 얼굴의 특징점에 맞게 환자의 얼굴을 조정하며, 표시된 마커의 위치 및 방향과 일치하도록 진단기기를 이동시킴으로써 환부를 찾아낸다(S370). 진단기기에 부착된 마커의 위치 및 방향이 화면에 표시된, 즉 미리 저장된 마커의 위치 및 방향에 근접할수록, 진단 위치 추적 장치(100)는 식별 가능한 소리를 출력할 수 있다.The diagnostic
이와 같이, 진단 위치 추적 장치(100)는 얼굴 촬영 영상과 두피 촬영 영상을 동시에 출력하므로, 조작자는 얼굴의 특징점과 마커의 위치 및 방향에 따라 환부를 찾을 수 있다. 또한, 조작자는 초기/추적관찰 모드, 자동/수동 검출 모드, 화면 전환 등의 GUI를 통하여 용이하게 환부를 추적할 수 있다. Thus, the diagnostic
이상에서 설명한 본 발명의 실시예는 장치 및 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있다.The embodiments of the present invention described above are not implemented only by the apparatus and method, but may be implemented through a program for realizing the function corresponding to the configuration of the embodiment of the present invention or a recording medium on which the program is recorded.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the present invention as defined by the following claims It can be understood that
Claims (12)
조작자로부터 환자 정보 또는 설정 정보를 입력 받는 입력부,
얼굴 촬영 영상 또는 마커 촬영 영상을 처리하며, 상기 얼굴 촬영 영상의 특징점과 상기 마커의 위치 관계를 추출하는 제어부,
상기 얼굴 촬영 영상의 특징점, 상기 마커의 위치 관계 및 상기 환자 정보를 저장하는 저장부, 그리고
상기 환자 정보를 입력 받기 위한 프레임, 상기 설정 정보를 입력 받기 위한 프레임, 상기 얼굴 촬영 영상을 출력하기 위한 프레임 및 상기 마커 촬영 영상을 출력하기 위한 프레임을 표시하기 위한 그래픽 유저 인터페이스(Graphic User Interface, GUI)를 제공하는 출력부
를 포함하고,
상기 설정 정보를 입력 받기 위한 프레임은 환부의 위치를 등록하기 위한 초기 모드 및 환부를 추적 관찰하기 위한 추적 관찰 모드 중 하나를 선택하도록 하는 GUI를 제공하는 진단 위치 추적 장치.A photographing unit for photographing a face image of the woman or photographing a marker attached to a diagnostic device for observing a lesion,
An input unit for inputting patient information or setting information from an operator,
A controller for processing the facial imaged image or the marker imaged image and extracting the positional relationship between the feature point of the facial imaged image and the marker,
A storage unit for storing the feature points of the facial imaged image, the positional relationship of the markers, and the patient information,
A graphical user interface (GUI) for displaying a frame for receiving the patient information, a frame for inputting the setting information, a frame for outputting the face photographing image, and a frame for outputting the marker photographing image, ≪ / RTI >
Lt; / RTI >
Wherein the frame for receiving the setting information provides a GUI for selecting one of an initial mode for registering the position of the affected part and a tracking mode for tracking the affected part.
상기 초기 모드인 경우,
상기 얼굴 촬영 영상을 출력하기 위한 프레임은 상기 얼굴 촬영 영상과 함께 상기 얼굴 촬영 영상의 특징점을 표시하고,
상기 마커 촬영 영상을 출력하기 위한 프레임은 상기 마커 촬영 영상과 함께 상기 마커의 위치 및 방향을 표시하는 진단 위치 추적 장치.The method according to claim 1,
In the initial mode,
Wherein the frame for outputting the photographed image displays feature points of the photographed image together with the photographed image,
Wherein the frame for outputting the marker photographing image displays the position and direction of the marker together with the marker photographing image.
상기 추적 관찰 모드인 경우,
상기 얼굴 촬영 영상을 출력하기 위한 프레임은 상기 초기 모드 시에 미리 등록된 상기 얼굴 촬영 영상의 특징점을 표시하고,
상기 마커 촬영 영상을 출력하기 위한 프레임은 상기 초기 모드 시에 미리 등록된 상기 마커의 위치 및 방향을 표시하는 진단 위치 추적 장치.The method according to claim 1,
In the tracking mode,
Wherein the frame for outputting the face photographing image displays the feature points of the face photographing image registered in advance in the initial mode,
Wherein the frame for outputting the marker image displays the position and direction of the marker registered in advance in the initial mode.
상기 설정 정보를 입력 받기 위한 프레임은 상기 얼굴 촬영 영상으로부터의 특징점 또는 상기 마커 촬영 영상으로부터의 마커를 자동으로 검출하는 자동 검출 모드 및 상기 얼굴 촬영 영상으로부터의 특징점 또는 상기 마커 촬영 영상으로부터의 마커를 수동으로 검출하는 수동 검출 모드 중 하나를 선택하도록 하는 GUI를 제공하는 진단 위치 추적 장치.The method according to claim 1,
Wherein the frame for receiving the setting information includes an automatic detection mode for automatically detecting a feature point from the facial imaged image or a marker from the marker imaged image and a feature point from the facial imaged image or a marker from the marker imaged image manually And a manual detection mode for detecting the detected position of the object.
상기 설정 정보를 입력 받기 위한 프레임은 상기 특징점 및 상기 마커를 검출하는 방법을 동시에 제어하는 GUI를 제공하는 진단 위치 추적 장치.6. The method of claim 5,
Wherein the frame for receiving the setting information provides a GUI for simultaneously controlling the feature point and the method of detecting the marker.
상기 설정 정보를 입력 받기 위한 프레임은 상기 특징점 및 상기 마커를 검출하는 방법을 별개의 프레임에 의하여 제어하는 GUI를 제공하는 진단 위치 추적 장치.6. The method of claim 5,
Wherein the frame for receiving the setting information provides a GUI for controlling the feature points and the method of detecting the markers by a separate frame.
상기 설정 정보를 입력 받기 위한 프레임은 상기 특징점 및 상기 마커를 검출하기 위한 설정 값을 입력하는 GUI를 제공하는 진단 위치 추적 장치.The method according to claim 1,
Wherein the frame for receiving the setting information provides a GUI for inputting the minutiae and a set value for detecting the marker.
상기 출력부는 상기 얼굴 촬영 영상을 출력하기 위한 프레임 및 상기 마커 촬영 영상을 출력하기 위한 프레임의 위치를 바꾸기 위한 화면 전환 프레임을 표시하기 위한 GUI를 더 제공하는 진단 위치 추적 장치.The method according to claim 1,
Wherein the output unit further comprises a GUI for displaying a frame for outputting the facial image and a frame for changing a position of a frame for outputting the marker photographing image.
환자 정보를 입력 받기 위한 프레임, 환부의 위치를 등록하기 위한 초기 모드 및 환부를 추적 관찰하기 위한 추적 관찰 모드 중 하나를 선택하는 정보를 포함하는 설정 정보를 입력 받기 위한 프레임, 환자의 얼굴 촬영 영상을 출력하기 위한 프레임, 환부를 관잘하는 진단기기에 부착된 마커(marker)의 마커 촬영 영상을 출력하기 위한 프레임을 표시하기 위한 그래픽 유저 인터페이스(Graphic User Interface, GUI)를 제공하는 단계,
상기 환자 정보를 입력 받기 위한 프레임 및 상기 설정 정보를 입력 받기 위한 프레임을 통하여 상기 환자 정보 및 상기 설정 정보를 입력 받는 단계,
상기 얼굴 촬영 영상을 출력하기 위한 프레임 및 상기 마커 촬영 영상을 출력하기 위한 프레임을 통하여 상기 얼굴 촬영 영상 및 상기 마커 촬영 영상을 출력하는 단계, 그리고
상기 얼굴 촬영 영상을 출력하기 위한 프레임 및 상기 마커 촬영 영상을 출력하기 위한 프레임을 통하여 상기 얼굴 촬영 영상의 특징점과 상기 마커의 위치 및 방향을 표시하는 단계
를 포함하는 GUI 제공 방법.A method for providing a graphical user interface (GUI) of a diagnostic location tracking device,
A frame for receiving setting information including information for selecting one of a frame for receiving patient information, an initial mode for registering the position of the affected part, and a tracking observation mode for tracking the affected part, Providing a graphical user interface (GUI) for displaying a frame for outputting a marker photographed image of a marker attached to a diagnosing device that is well connected to the affected part,
Receiving the patient information and the setting information through a frame for receiving the patient information and a frame for receiving the setting information,
Outputting the face photographing image and the marker photographing image through a frame for outputting the face photographing image and a frame for outputting the marker photographing image, and
A step of displaying a feature point of the face photographing image and a position and a direction of the marker through a frame for outputting the face photographing image and a frame for outputting the marker photographing image
Gt; a < / RTI > GUI.
상기 얼굴 촬영 영상을 출력하기 위한 프레임 및 상기 마커 촬영 영상을 출력하기 위한 프레임의 위치를 바꾸기 위한 화면 전환 프레임을 표시하기 위한 GUI를 제공하는 단계를 더 포함하는 GUI 제공 방법.11. The method of claim 10,
Further comprising: providing a GUI for displaying a frame for outputting the face photographing image and a screen switching frame for changing a position of a frame for outputting the marker photographing image.
상기 환자 정보를 입력 받기 위한 프레임 및 상기 설정 정보를 입력 받기 위한 프레임을 통하여 상기 환자 정보 및 상기 설정 정보를 입력 받는 단계,
상기 얼굴 촬영 영상을 출력하기 위한 프레임 및 상기 마커 촬영 영상을 출력하기 위한 프레임을 통하여 상기 얼굴 촬영 영상 및 상기 마커 촬영 영상을 출력하는 단계, 그리고
상기 얼굴 촬영 영상을 출력하기 위한 프레임 및 상기 마커 촬영 영상을 출력하기 위한 프레임을 통하여 상기 얼굴 촬영 영상의 특징점과 상기 마커의 위치 및 방향을 표시하는 단계
를 포함하는 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록하는 컴퓨터 판독 가능한 기록매체.A frame for receiving setting information including information for selecting one of a frame for receiving patient information, an initial mode for registering the position of the affected part, and a tracking observation mode for tracking the affected part, Providing a graphic user interface (GUI) for displaying at least one of a frame for outputting a marker image and a frame for outputting a marker photographing image of a marker attached to a diagnostic device for observing the affected part,
Receiving the patient information and the setting information through a frame for receiving the patient information and a frame for receiving the setting information,
Outputting the face photographing image and the marker photographing image through a frame for outputting the face photographing image and a frame for outputting the marker photographing image, and
A step of displaying a feature point of the face photographing image and a position and a direction of the marker through a frame for outputting the face photographing image and a frame for outputting the marker photographing image
A computer-readable recording medium storing a program for executing a method in a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130009188A KR101442953B1 (en) | 2013-01-28 | 2013-01-28 | Method for providing gui for apparatus of tracking diagnosis site, and computer readable recording medium recording program for implementing the method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130009188A KR101442953B1 (en) | 2013-01-28 | 2013-01-28 | Method for providing gui for apparatus of tracking diagnosis site, and computer readable recording medium recording program for implementing the method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140096538A KR20140096538A (en) | 2014-08-06 |
KR101442953B1 true KR101442953B1 (en) | 2014-09-23 |
Family
ID=51744367
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130009188A KR101442953B1 (en) | 2013-01-28 | 2013-01-28 | Method for providing gui for apparatus of tracking diagnosis site, and computer readable recording medium recording program for implementing the method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101442953B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008532602A (en) * | 2005-03-11 | 2008-08-21 | ブラッコ・イメージング・ソシエタ・ペル・アチオニ | Surgical navigation and microscopy visualization method and apparatus |
KR20090112727A (en) * | 2007-01-25 | 2009-10-28 | 워쏘우 오르쏘페딕 인코포레이티드 | Integrated visualization of surgical navigational and neural monitoring information |
-
2013
- 2013-01-28 KR KR1020130009188A patent/KR101442953B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008532602A (en) * | 2005-03-11 | 2008-08-21 | ブラッコ・イメージング・ソシエタ・ペル・アチオニ | Surgical navigation and microscopy visualization method and apparatus |
KR20090112727A (en) * | 2007-01-25 | 2009-10-28 | 워쏘우 오르쏘페딕 인코포레이티드 | Integrated visualization of surgical navigational and neural monitoring information |
Also Published As
Publication number | Publication date |
---|---|
KR20140096538A (en) | 2014-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102013828B1 (en) | Method and apparatus for predicting surgical duration based on surgical video | |
EP3138526B1 (en) | Augmented surgical reality environment system | |
EP2348955B1 (en) | Method and apparatus for obtaining an image of an ocular feature | |
CN107485455B (en) | Efficient interactive bleeding detection in surgical systems | |
JP2016503667A5 (en) | ||
CN112822989A (en) | Surgical training apparatus, method and system | |
US11266294B2 (en) | Image processing device, endoscopic surgery system, and image processing method | |
JP2017153818A5 (en) | ||
CN110662476B (en) | Information processing apparatus, control method, and program | |
KR101978548B1 (en) | Server and method for diagnosing dizziness using eye movement measurement, and storage medium storin the same | |
US20200162664A1 (en) | Input control device, input control method, and operation system | |
US9877635B2 (en) | Image processing device, image processing method, and computer-readable recording medium | |
JPWO2016013252A1 (en) | Medical system | |
US20150356732A1 (en) | Image display device and method | |
JP2015533329A5 (en) | ||
JP2009291308A (en) | Medical device management system | |
JP6313913B2 (en) | Endoscopic image observation support system | |
US20220008161A1 (en) | Information processing device, presentation method, and surgical system | |
KR101442953B1 (en) | Method for providing gui for apparatus of tracking diagnosis site, and computer readable recording medium recording program for implementing the method | |
KR20160014470A (en) | Apparatus and method for supporting computer aided diagnosis based on providing non-visual information, and computer aided diagnosis system | |
KR101449830B1 (en) | Apparatus for tracing diagnosis site, device for tracing diagnosis site and diagnosis device | |
JP6096441B2 (en) | Medical image processing apparatus, medical image processing method, and medical image processing program | |
JP2017016347A (en) | Information processing device, information processing method, and program | |
US10049480B2 (en) | Image alignment device, method, and program | |
US20240095919A1 (en) | Image processing device, endoscope system, image processing method, and information storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20180918 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20190903 Year of fee payment: 6 |