WO2021177583A1 - Medical procedure image display device - Google Patents

Medical procedure image display device Download PDF

Info

Publication number
WO2021177583A1
WO2021177583A1 PCT/KR2020/095032 KR2020095032W WO2021177583A1 WO 2021177583 A1 WO2021177583 A1 WO 2021177583A1 KR 2020095032 W KR2020095032 W KR 2020095032W WO 2021177583 A1 WO2021177583 A1 WO 2021177583A1
Authority
WO
WIPO (PCT)
Prior art keywords
treatment
area
image
image display
computer
Prior art date
Application number
PCT/KR2020/095032
Other languages
French (fr)
Korean (ko)
Inventor
이근용
Original Assignee
(주)이끌레오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)이끌레오 filed Critical (주)이끌레오
Publication of WO2021177583A1 publication Critical patent/WO2021177583A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N7/00Ultrasound therapy
    • A61N7/02Localised ultrasound hyperthermia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/22Implements for squeezing-off ulcers or the like on the inside of inner organs of the body; Implements for scraping-out cavities of body organs, e.g. bones; Calculus removers; Calculus smashing apparatus; Apparatus for removing obstructions in blood vessels, not otherwise provided for
    • A61B17/22004Implements for squeezing-off ulcers or the like on the inside of inner organs of the body; Implements for scraping-out cavities of body organs, e.g. bones; Calculus removers; Calculus smashing apparatus; Apparatus for removing obstructions in blood vessels, not otherwise provided for using mechanical vibrations, e.g. ultrasonic shock waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/04Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M5/00Devices for bringing media into the body in a subcutaneous, intra-vascular or intramuscular way; Accessories therefor, e.g. filling or cleaning devices, arm-rests
    • A61M5/42Devices for bringing media into the body in a subcutaneous, intra-vascular or intramuscular way; Accessories therefor, e.g. filling or cleaning devices, arm-rests having means for desensitising skin, for protruding skin to facilitate piercing, or for locating point where body is to be pierced
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N7/00Ultrasound therapy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00115Electrical control of surgical instruments with audible or visual output
    • A61B2017/00119Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M5/00Devices for bringing media into the body in a subcutaneous, intra-vascular or intramuscular way; Accessories therefor, e.g. filling or cleaning devices, arm-rests
    • A61M5/178Syringes
    • A61M5/31Details
    • A61M2005/3125Details specific display means, e.g. to indicate dose setting
    • A61M2005/3126Specific display means related to dosing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/18General characteristics of the apparatus with alarm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/33Controlling, regulating or measuring
    • A61M2205/3306Optical measuring means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/50General characteristics of the apparatus with microprocessors or computers
    • A61M2205/502User interfaces, e.g. screens or keyboards
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/58Means for facilitating use, e.g. by people with impaired vision
    • A61M2205/581Means for facilitating use, e.g. by people with impaired vision by audible feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/58Means for facilitating use, e.g. by people with impaired vision
    • A61M2205/583Means for facilitating use, e.g. by people with impaired vision by visual feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/60General characteristics of the apparatus with identification means
    • A61M2205/6063Optical identification systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N7/00Ultrasound therapy
    • A61N2007/0004Applications of ultrasound therapy
    • A61N2007/0034Skin treatment

Definitions

  • the present disclosure relates to an apparatus for displaying a procedure image, and more particularly, to an apparatus for displaying a procedure image.
  • the area to which the ultrasound generated by the ultrasound generating device is irradiated may be rather narrow compared to the affected part of the patient. Therefore, the user (doctor or operator) had to distinguish between a region irradiated with ultrasound and a region not irradiated with ultrasound depending on the senses during ultrasound treatment.
  • the present disclosure has been devised in response to the above-described background technology, and an object of the present disclosure is to provide a device for displaying a surgical image that can distinguish a region where a user has performed a medical procedure from a region where the procedure has not been performed.
  • the present disclosure has been devised in response to the above-described background technology, and an object of the present disclosure is to provide an apparatus for displaying a surgical image.
  • the treatment image display device may include: a photographing unit configured to acquire an image including a treatment device and a treatment site of a patient; a control unit that analyzes the image and recognizes a first area in which the treatment is completed and a second area in which the treatment is not completed within the treatment area; and a display unit configured to display the first area and the second area differently on the image. may include.
  • a user input unit for receiving information about the treatment site may further include, and the controller may recognize the treatment site in the image by using the treatment area information.
  • the controller may control the sound output unit to output a preset first sound when it is recognized that the treatment device is located outside the treatment area by analyzing the image.
  • the controller may analyze the image to recognize location information on the location of the treatment device, and recognize the first area and the second area based on the location information and the treatment area information.
  • the controller may control the sound output unit to output a preset second sound when it is recognized that the surgical device exists on the first region by analyzing the image.
  • the treatment device may include a High Intensity Focused Ultrasonic device, an Ultrasonic Probe, or a medical injector.
  • the controller monitors an energy generation signal generated by the treatment device, and a region in which the treatment device is located at the time when the energy generation signal is generated can be recognized as the first region.
  • the photographing unit acquires at least one image information about the treatment site by photographing at least one of an axial plane, a sagittal plane, and a coronal plane of the treatment site, and the image is, It may be a stereoscopic image generated by the at least one piece of image information.
  • the computer program includes instructions for causing the control unit of the procedure image display device to perform the following steps, wherein the steps are: acquiring an image including a region; analyzing the image to recognize a first area in which the treatment is completed and a second area in which the treatment is not completed within the treatment area; and controlling the display unit to display the first area and the second area differently on the image.
  • the steps are: acquiring an image including a region; analyzing the image to recognize a first area in which the treatment is completed and a second area in which the treatment is not completed within the treatment area; and controlling the display unit to display the first area and the second area differently on the image.
  • recognizing the treatment site in the image using the treatment area information received from the user through the user input unit may further include.
  • controlling the sound output unit to output a preset first sound may further include.
  • the step of analyzing the image and recognizing the first area where the treatment is completed and the second area where the treatment is not completed within the treatment site may include analyzing the image to recognize location information on the location of the treatment device. to do; and recognizing the first region and the second region based on the location information and the treatment region information. may further include.
  • controlling the sound output unit to output a preset second sound may further include.
  • the treatment device may include a High Intensity Focused Ultrasonic device, an Ultrasonic Probe, or a medical injector.
  • the step of analyzing the image and recognizing the first area in which the treatment is completed and the second area in which the treatment is not completed within the treatment area includes the treatment device being a treatment device electrically connected to the treatment image display device. case, monitoring the energy generation signal generated by the treatment device; and recognizing a region in which the surgical device is located as the first region when the energy generation signal is generated. may include.
  • the step of acquiring an image including the treatment device and the patient's treatment site through the photographing unit includes at least one of an axial plane, a sagittal plane, and a coronal plane of the treatment site through the photographing unit.
  • a user may easily recognize an area in which the treatment is completed and an area in which the treatment is not completed.
  • FIG. 1 is a view for explaining an example of a treatment image display device according to some embodiments of the present disclosure.
  • FIG. 2 is a block diagram illustrating an example of an apparatus for displaying a procedure image according to some embodiments of the present disclosure.
  • FIG 3 is a view for explaining an example of a method for a controller to recognize a region in which a treatment device is located, according to some embodiments of the present disclosure.
  • FIG. 4 is a diagram for describing an example of a method in which a control unit displays a first area and a second area differently according to some embodiments of the present disclosure
  • FIG. 5 is a flowchart illustrating an example of a method in which the controller of the apparatus for displaying a procedure image according to some embodiments of the present disclosure controls the display unit to display a first area and a second area differently.
  • FIG. 6 is a flowchart illustrating an example of a method in which a controller of a treatment image display apparatus recognizes a first area and a second area according to some embodiments of the present disclosure.
  • FIG. 7 is a flowchart illustrating another example of a method in which a controller of a treatment image display apparatus recognizes a first area according to some embodiments of the present disclosure.
  • FIG. 8 depicts a general schematic diagram of an exemplary computing environment in which embodiments of the present disclosure may be implemented.
  • first, second, etc. are used to describe various elements or elements, these elements or elements are not limited by these terms, of course. These terms are only used to distinguish one element or component from another. Accordingly, it goes without saying that the first element or component mentioned below may be the second element or component within the spirit of the present invention.
  • the apparatus for displaying a procedure image may provide an image in which a first area in which the treatment is completed and a second area in which the treatment is not completed are divided for the affected part of the patient.
  • the treatment may be an ultrasound treatment using a High Intensity Focused Ultrasonic device, an ultrasound treatment using an ultrasound probe, or a treatment using a medical syringe. That is, the treatment image display apparatus may display the first area in which the treatment is completed and the second area in which the treatment is not completed for all medical treatments or treatments separately.
  • a procedure image display device will be described with reference to FIGS. 1 to 8 .
  • FIG. 1 is a view for explaining an example of a treatment image display device according to some embodiments of the present disclosure.
  • the treatment image display apparatus 1000 is controlled by the treatment apparatus 3000a according to a user's manipulation (eg, a user input for adjusting ultrasound intensity, etc.) as shown in FIG. 1A .
  • a user's manipulation eg, a user input for adjusting ultrasound intensity, etc.
  • It may be a device that may transmit a signal (eg, a signal for changing an ultrasound intensity, etc.) or may capture an image related to a procedure and provide it to the user. That is, the user may set a setting value of the treatment apparatus 3000a by using the treatment image display apparatus 1000 or may check an image related to the treatment.
  • the treatment image display apparatus 1000 may include a photographing unit 1100 and a display unit 1300 .
  • the treatment image display apparatus 1000 may acquire an image including the treatment apparatus 3000 and the treatment area of the patient through the photographing unit 1100 .
  • the treatment image display apparatus 1000 may analyze the image and display the first area in which the treatment is completed and the second area in which the treatment is not completed differently on the display unit 1300 .
  • a method in which the procedure image display apparatus 1000 displays the first region and the second region differently on an image will be described later with reference to FIGS. 3 to 7 .
  • the apparatus for displaying a procedure image 1000 may be a device for capturing an image related to a procedure as shown in FIG. 1B and providing it to the user.
  • the user may change the setting value of the treatment device 3000b by using the treatment device controller 3100 electrically connected to the treatment image display device 1000 .
  • the user may check the treatment image using the treatment image display device 1000 . That is, the treatment image display apparatus 1000 illustrated in FIG. 1B cannot provide a control signal to the treatment apparatus 3000b unlike the treatment image display apparatus described above with reference to FIG. 1A.
  • the treatment image display device 1000 includes a desktop computer, a digital signage, a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, personal digital assistants (PDA), and a portable multimedia player (PMP).
  • PDA personal digital assistants
  • PMP portable multimedia player
  • slate PC slate PC
  • tablet PC ultrabook
  • wearable device for example, watch-type terminal (smartwatch), glass-type terminal (smart glass), HMD ( head mounted display), etc. may be included.
  • the surgical device 3000 included in the image may be an extracorporeal shock wave therapy device capable of treating an affected part of a patient by irradiating ultrasonic waves to generate a shock wave outside the body according to a user's manipulation.
  • the surgical device 3000a may be a high-intensity focused ultrasound device capable of generating a skin cosmetic effect by irradiating high-intensity focused ultrasound to an affected part of a patient.
  • the surgical device 3000a may be an ultrasonic probe that transmits ultrasonic waves in a specific wavelength band to generate a thermal action, thereby enabling local deformation.
  • the present invention is not limited thereto.
  • the treatment image display apparatus 1000 of FIGS. 1A and 1B may be electrically connected to the treatment apparatus 3000 or the treatment apparatus controller 3100 .
  • the treatment image display apparatus 1000 may monitor the energy generation signal generated by the treatment apparatus 3000 .
  • the controller of the treatment image display apparatus 1000 may recognize a region in which the treatment apparatus 3000 is located, based on the time when the energy generation signal is generated.
  • a method for the treatment image display apparatus 1000 to recognize the position of the treatment apparatus 3000 will be described later with reference to FIG. 7 .
  • the treatment image display apparatus 1000 captures an image related to the treatment apparatus 3000c that is not physically or electrically connected as shown in FIG. 1(c) and provides it to the user. It may be a device that
  • the surgical device 3000c may be a medical syringe or other medical tool.
  • the treatment image display device 1000 since the treatment image display device 1000 does not generate a signal such as an energy generation signal from the treatment device 3000c, it analyzes the image acquired through the photographing unit 1100 and location can be recognized.
  • the present invention is not limited thereto.
  • the treatment image display device 1000 analyzes the image obtained through the photographing unit 1100 regardless of the type of the treatment device 3000 to determine the first area where the treatment is completed and the first area where the treatment is not completed. 2 areas can be recognized.
  • the treatment image display apparatus 1000 may display the first area and the second area differently through the display unit 1300 . Therefore, the user can conveniently perform the procedure on the affected part of the patient by using the procedure image display device 1000 irrespective of the type of procedure.
  • the apparatus for displaying a surgical image 1000 may further include components that can provide convenience to the user.
  • components constituting the treatment image display apparatus 1000 will be described with reference to FIG. 2 .
  • FIG. 2 is a block diagram illustrating an example of an apparatus for displaying a procedure image according to some embodiments of the present disclosure.
  • the treatment image display apparatus 1000 may include a photographing unit 1100 , a control unit 1200 , a display unit 1300 , a user input unit 1400 , and a sound output unit 1500 .
  • the procedure image display apparatus 1000 may have more or fewer components than those listed above.
  • each component may be configured as a separate chip, module, or device, or may be included in one device.
  • the photographing unit 1100 may include a treatment device and at least one camera capable of capturing an image including a treatment area of a patient.
  • the surgical device 3000 may include a High Intensity Focused Ultrasonic device, an Ultrasonic Probe, or a medical injector.
  • the present invention is not limited thereto.
  • the photographing unit 1100 may be connected to the operation image display apparatus 1000 by wire.
  • the photographing unit 1100 may transmit an image including the treatment device 3000 and the treatment site of the patient to the treatment image display apparatus 1000 .
  • the photographing unit 1100 may transmit the photographed image to the procedure image display apparatus 1000 through wireless communication.
  • the photographing unit 1100 may include a wireless LAN (WLAN), a wireless-fidelity (Wi-Fi), a wireless fidelity (Wi-Fi) Direct, a Digital Living Network Alliance (DLNA), a Wireless Broadband (WiBro), and a WiMAX (Wireless Broadband).
  • the image may be transmitted to the treatment image display device 1000 through World Interoperability for Microwave Access, or the like.
  • the photographing unit 1110 displays an image photographed using a wireless transmission technology used for short-range communication, such as infrared (IrDA) or Bluetooth (Bluetooth), the operation image display device 1000 ) can also be sent to a wireless transmission technology used for short-range communication, such as infrared (IrDA) or Bluetooth (Bluetooth), the operation image display device 1000 ) can also be sent to
  • the controller 1200 may typically process the overall operation of the treatment image display apparatus 1000 .
  • the control unit 1200 may provide or process appropriate information or functions to the user by processing signals, data, information, etc. input or output through the user input unit 1400 or driving an application program stored in the storage unit.
  • the controller 1200 may analyze an image acquired through the photographing unit 1100 to recognize a first area in which the treatment is completed and a second area in which the treatment is not completed.
  • the control unit 1200 may recognize the specific area as the first area where the treatment is completed. .
  • the control unit of the treatment image displays the first treatment completed in the specific area. area can be recognized.
  • the controller 1200 may recognize an area other than the first area within the treatment site as the second area.
  • the present invention is not limited thereto.
  • the preset time may be pre-stored in a storage unit (not shown).
  • the present invention is not limited thereto.
  • a method for the controller of the treatment image display apparatus 1000 to recognize the first region and the second region will be described later with reference to FIG. 5 .
  • the display unit 1300 may display (output) information (or at least one content) processed by the treatment image display apparatus 1000 .
  • the display unit 1300 may include information on an execution screen of an application program driven in the treatment image display device 1000, a user interface (UI), graphic user interface (GUI) information, or a photographing unit ( 1100) may be displayed.
  • UI user interface
  • GUI graphic user interface
  • 1100 photographing unit
  • an image displayed on the display unit 1300 may be a stereoscopic image.
  • the photographing unit 1100 captures at least one of an axial plane, a sagittal plane, and a coronal plane of the treatment site through at least one camera to obtain at least one image information about the treatment site. can be obtained
  • the controller 1200 may generate a stereoscopic image through at least one piece of image information.
  • the present invention is not limited thereto.
  • the display unit 1300 may differently display the first region and the second region included in the image under the control of the controller 1200 .
  • the display unit 1300 may display the first area in a preset color (eg, red).
  • the display unit 1300 may display the second area in a color different from that of the first area.
  • the present invention is not limited thereto, and the display unit 1300 may display only the border of the second region and no display inside.
  • the second area may be an area divided into a plurality of areas.
  • control unit 1200 of the treatment image display apparatus 1000 may acquire an image of the treatment site of the patient through the photographing unit 1100 before the user performs the treatment through the treatment apparatus 3000 .
  • the controller since the treatment device 3000 is not included in the image, the controller may recognize that all treatment areas of the patient are the second area.
  • the controller may control the display unit 1300 so that the second area is divided into a plurality of areas and displayed. In this way, when the second region is divided into a plurality of regions and displayed, the user can more clearly recognize a region to be treated.
  • the present invention is not limited thereto.
  • the user input unit 1400 is for receiving information from the user, and when information is input through the user input unit 1400 , the control unit 1200 controls the operation of the operation image display apparatus 1000 to correspond to the input information.
  • the user input unit 1400 is a mechanical input means (or a mechanical key, for example, a button located on the front, rear or side of the surgical image display device 1000, a dome switch, a jog). wheel, jog switch, etc.), touch input means, keyboard and mouse, and the like.
  • the user input unit 1400 may receive treatment site information from the user.
  • the controller 1200 of the treatment image display apparatus 1000 may recognize the treatment site in the image by using the treatment area information.
  • the image obtained by the control unit 1200 through the photographing unit 1100 may include a site other than the treatment site of the patient.
  • information on the treatment area input through the user input unit 1400 may include information that the area to be treated with the patient is the face.
  • the image acquired through the photographing unit 1100 may include a neck, an ear, etc. in addition to the face.
  • the controller 1200 may recognize the face as the treatment site in the image by using the treatment site information received through the user input unit 1400 .
  • the present invention is not limited thereto.
  • the control unit 1200 of the treatment image display apparatus 1000 analyzes the image obtained through the photographing unit 1100 to recognize location information on the location of the treatment apparatus 3000 . can do. Also, the controller 1200 may recognize the first region and the second region based on the location information and the treatment site information input through the user input unit 1400 . Hereinafter, a method for the controller 1200 to recognize the first region and the second region by using the treatment site information will be described later with reference to FIG. 6 .
  • the sound output unit 1500 may output a sound signal related to a function performed by the treatment image display apparatus 1000 .
  • the sound output unit 1500 may include a receiver, a speaker, a buzzer, and the like.
  • the present invention is not limited thereto.
  • the controller 1200 of the treatment image display apparatus 1000 may control the sound output unit 1500 to output a sound based on the position of the treatment apparatus 3000 .
  • the controller 1200 may control the sound output unit 1500 to output a preset first sound when it is recognized that the treatment apparatus 3000 is located outside the treatment site by analyzing the image. That is, the controller 1200 may control the sound output unit 1500 to output a first sound that can give attention to the user when the user is performing a procedure on a non-affected part of the patient.
  • the preset first sound may be pre-stored in the storage unit.
  • the present invention is not limited thereto.
  • the controller 1200 may control the sound output unit 1500 to output a preset second sound when it is recognized that the treatment apparatus 3000 exists on the first area where the treatment is completed by analyzing the image. can That is, the controller 1200 may control the sound output unit 1500 to output a second sound that can give attention to the user when the user performs a treatment on a site where the treatment has already been completed.
  • the present invention is not limited thereto.
  • control unit 1200 of the treatment image display apparatus 1000 may recognize the treatment site, the first area, and the second area of the patient.
  • the control unit 1200 is preset through the sound output unit 1500 so as to draw the user's attention when the user performs a procedure on a site other than the treatment site or overlaps the area where the treatment has been performed. It can output sound.
  • the controller 1200 of the treatment image display apparatus 1000 may recognize a region in which the treatment apparatus 3000 is located in the treatment area of the patient.
  • a method for the controller 1200 to recognize the region in which the treatment device 3000 is located will be described with reference to FIG. 3 .
  • FIG 3 is a view for explaining an example of a method for a controller to recognize a region in which a treatment device is located, according to some embodiments of the present disclosure.
  • the treatment device 3000 may be located in one region of the treatment site of the patient.
  • the controller 1200 may acquire an image including the treatment device 3000 and the treatment area of the patient through the photographing unit 1100 .
  • the controller 1200 may recognize the one area as the first area 100 in which the treatment has been completed.
  • the present invention is not limited thereto.
  • the controller 1200 may monitor an energy generation signal generated by the treatment device 3000 . Also, the controller 1200 may recognize the region in which the treatment apparatus 3000 is located as the first region 100 at the time when the energy generation signal is generated.
  • the controller 1200 may recognize the second region 200 before recognizing the first region 100 .
  • the controller 1200 may recognize the treatment site in the image based on the treatment area input information. In addition, the controller 1200 may recognize the entire area of the treatment area as the second area 200 . In this case, the controller 1200 may display the entire area of the treatment area as the second area 200 .
  • the present invention is not limited thereto.
  • the controller 1200 of the treatment image display apparatus 1000 outputs a preset first sound when recognizing that the treatment apparatus 3000 is located outside the treatment site.
  • the sound output unit 1500 may be controlled.
  • the treatment site may be a region other than the nose, eyes, mouth, and ears. Then, when the controller 1200 recognizes that the treatment device 3000 is located outside the treatment site, that is, the eye, nose, mouth, or ear, the control unit 1200 may control the sound output unit 1500 to output a preset first sound.
  • the controller 1200 analyzes the image and recognizes that the treatment device 3000 is located outside the treatment site, it sends a signal to stop the treatment to the treatment device 3000 or the treatment device controller. It may be transmitted to (3100).
  • the controller 1200 of the treatment image display apparatus 1000 recognizes that the treatment apparatus 3000 exists on the first area 100 , the controller 1200 generates a preset second sound. It is also possible to control the sound output unit 1500 to output.
  • the controller 1200 may control the sound output unit 1500 to output a preset second sound when it is recognized that the surgical device 3000 exists on the first region 100 by analyzing the image. have.
  • the controller 1200 monitors an energy generation signal generated by the treatment device 3000 and outputs a preset second sound when recognizing that the treatment device 3000 exists on the first area 100 .
  • the sound output unit 1500 may be controlled to do so.
  • the controller 1200 when the controller 1200 analyzes the image and recognizes that the treatment device 3000 is present on the first region 100, the controller 1200 sends a signal to stop the treatment to the treatment device 3000 or the treatment device controller ( 3100) may be transmitted.
  • FIG. 4 is a diagram for describing an example of a method in which a control unit displays a first area and a second area differently according to some embodiments of the present disclosure
  • the first region 100 and the second region 200 may be displayed differently in the image being displayed by the controller 1200 of the treatment image display device 1000 through the display unit 1300 . .
  • the display 130a may display the first area 100 in a preset color.
  • the display unit 1300 may display the second area 200 in a color different from that of the first area 100 .
  • the present invention is not limited thereto, and the display unit 1300 may display only the edge of the second region 200 and may not display any inside.
  • the controller 1200 may change the color of the first area 100 based on the time the treatment apparatus 3000 stays in the specific area within the treatment site.
  • control unit 1200 of the treatment image display apparatus 1000 may recognize the time at which the treatment apparatus 3000 is located in the treatment site. In addition, when recognizing that the treatment apparatus 3000 stayed within the first time within the treatment site, the controller 1200 may display the first area 100 in orange. Also, when recognizing that the treatment apparatus 3000 has stayed for more than the first time, the controller 1200 may display the first area 100 in red.
  • the method in which the control unit 1200 changes the first region 100 is not limited thereto.
  • the user may recognize whether the procedure has been performed for a sufficient time for the effect of the procedure to appear.
  • the present invention is not limited thereto.
  • the controller 1200 of the treatment image display apparatus 1000 controls the sound output unit 1500 to output a preset third sound when the treatment on the entire treatment area is completed. You may.
  • the controller 1200 may recognize whether the user has completed the treatment for the entire treatment area. In addition, when recognizing that the treatment for the entire treatment area has been completed, the controller 1200 may control the sound output unit 1500 to output a preset third sound. Accordingly, the user can easily recognize whether the procedure has been completed.
  • the controller 1200 of the treatment image display apparatus 1000 outputs a preset fourth sound when the treatment on the entire treatment area is not completed before the power is turned off.
  • the output unit 1500 may be controlled.
  • the controller 1200 may recognize whether the treatment for the entire treatment area has been completed. In addition, when the controller 1200 recognizes that the treatment on the entire treatment area is not completed (eg, when the second region 200 exists in the image), the control unit 1200 outputs a preset fourth sound to the sound output unit. (1500) may be controlled.
  • the present invention is not limited thereto.
  • the controller 1200 of the treatment image display apparatus 1000 may highlight at least a partial area of the second area 200 .
  • the controller 1200 may recognize whether the treatment for the entire treatment area has been completed. Then, when recognizing that the treatment on the entire treatment area is not completed (eg, when the second area 200 exists in the image), the controller 1200 displays a highlight on the second area 200 .
  • the display unit 1300 may be controlled to do so.
  • the present invention is not limited thereto, and the controller 1200 may perform a highlight display on the second region 200 in which the treatment is not completed in conjunction with outputting the third sound.
  • the controller 1200 of the treatment image display apparatus 1000 may display the first region 100 and the second region 200 differently in the image. Accordingly, the user can easily distinguish the area where the treatment is completed and the area where the treatment is not completed.
  • FIG. 5 is a flowchart illustrating an example of a method in which the controller of the apparatus for displaying a procedure image according to some embodiments of the present disclosure controls the display unit to display a first area and a second area differently.
  • control unit 1200 of the treatment image display apparatus 1000 may acquire an image including the treatment apparatus 3000 and the treatment area of the patient through the photographing unit 1100 ( S110 ).
  • the controller 1200 may acquire at least one image information including an axial plane, a sagittal plane, and a coronal plane through at least one camera included in the photographing unit 1100 . Also, the controller 1200 may generate a stereoscopic image based on at least one piece of image information.
  • the present invention is not limited thereto.
  • controller 1200 of the treatment image display apparatus 1000 may analyze the image to recognize the first area 100 where the treatment is completed and the second area 200 where the treatment is not completed within the treatment area ( S120).
  • the controller 1200 recognizes that the treatment apparatus 3000 is located in at least a partial area of the second area 200 for more than a preset time, the at least some area is the first area 100 in which the treatment is completed.
  • the present invention is not limited thereto.
  • controller 1200 of the treatment image display apparatus 1000 may control the display unit 1300 to display the first region 100 and the second region 200 differently on the image (S130).
  • control unit 1200 may display the first area 100 by shading through the display unit 1300 , and may display only the border of the second area 200 .
  • present invention is not limited thereto.
  • FIG. 6 is a flowchart illustrating an example of a method in which a controller of a treatment image display apparatus recognizes a first area and a second area according to some embodiments of the present disclosure.
  • the controller 1200 of the treatment image display apparatus 1000 may analyze the image to recognize location information on the location of the treatment apparatus 3000 ( S200 ).
  • the controller 1200 may analyze the image to recognize location information indicating that the treatment apparatus 3000 is located on at least a portion of the user's face.
  • the present invention is not limited thereto.
  • controller 1200 of the treatment image display apparatus 1000 may recognize the first area 100 and the second area 200 based on the location information and the treatment site information (S210).
  • the controller 1200 may recognize the area in which the treatment apparatus 3000 is located as the first area 100 based on the location information. Also, based on the location information, the controller 1200 may recognize that an area in which the treatment apparatus 3000 has stayed for more than a preset time is also the first area 100 . In addition, the controller 1200 may recognize that the area other than the first area 100 is the second area 200 .
  • the controller 1200 analyzes the image captured by the photographing unit 1100 and recognizes that the surgical device 3000 has passed through at least some of the portions recognized as the second area 200 (or the When it is recognized that the treatment apparatus 3000 stayed on at least a partial area for more than a preset time), the at least partial area is changed from the second area 200 in which the treatment is not completed to the first area 100 in which the treatment is completed can be
  • the present invention is not limited thereto.
  • FIG. 7 is a flowchart illustrating another example of a method in which a controller of a treatment image display apparatus recognizes a first area according to some embodiments of the present disclosure.
  • the controller 1200 of the treatment image display device 1000 generates energy generated in the treatment device 3000 when the treatment device 3000 is a treatment device electrically connected to the treatment image display device 1000 . It is possible to monitor the signal (S300).
  • an energy generation signal may be generated when the treatment is performed through the treatment device 3000 .
  • the control unit 1200 may monitor the energy generation signal generated by the treatment device 3000 to recognize whether the energy generation signal has been generated.
  • the present invention is not limited thereto.
  • the controller 1200 of the treatment image display apparatus 1000 may recognize the area in which the treatment apparatus 3000 is located as the first area 100 at the time when the energy generation signal is generated ( S310 ).
  • the controller 1200 may recognize an area in which the treatment apparatus 3000 is located by analyzing an image captured by the photographing unit 1100 at the time when the energy generation signal is generated. In addition, the controller 1200 may recognize the area in which the treatment apparatus 3000 is located at the time when the energy generation signal is generated as the first area 100 in which the treatment is completed.
  • the present invention is not limited thereto.
  • the control unit 1200 may analyze the image captured by the photographing unit 1100 at the time when the energy generation signal is generated to recognize the region in which the treatment apparatus 3000 is located.
  • the controller 1200 may store, in the storage unit, a point at which an energy generating signal is generated and the number of times at which an energy generating signal is generated at the corresponding point within the entire area within the treatment site.
  • the controller 1200 may recognize a point at which an energy generation signal is generated a preset number of times within the entire area within the treatment area as the first area 100 where the treatment is completed.
  • the present invention is not limited thereto.
  • the controller 1200 of the treatment image display apparatus 1000 may recognize a region in which the treatment apparatus 3000 is located within the treatment site of the patient, regardless of the type of the treatment apparatus 3000 . .
  • the controller 1200 may differently display an area in which the treatment is completed and an area in which the treatment is not completed through the display unit 1300 . Therefore, according to at least one of the several embodiments described above, it is possible to prevent the user from performing a procedure overlapping the treatment site of the patient, and it is also possible to prevent the user from omitting the treatment for a specific site.
  • FIG. 8 depicts a general schematic diagram of an exemplary computing environment in which embodiments of the present disclosure may be implemented.
  • modules herein include routines, procedures, programs, components, data structures, etc. that perform particular tasks or implement particular abstract data types.
  • modules herein include routines, procedures, programs, components, data structures, etc. that perform particular tasks or implement particular abstract data types.
  • modules herein include routines, procedures, programs, components, data structures, etc. that perform particular tasks or implement particular abstract data types.
  • modules herein include routines, procedures, programs, components, data structures, etc. that perform particular tasks or implement particular abstract data types.
  • modules herein include routines, procedures, programs, components, data structures, etc. that perform particular tasks or implement particular abstract data types.
  • modules herein include routines, procedures, programs, components, data structures, etc. that perform particular tasks or implement particular abstract data types.
  • modules herein include routines, procedures, programs, components, data structures, etc. that perform particular tasks or implement particular abstract data types.
  • modules herein include routines, procedures, programs, components, data structures, etc. that perform particular tasks or implement particular abstract data types.
  • modules herein include routines
  • the described embodiments of the present disclosure may also be practiced in distributed computing environments where certain tasks are performed by remote processing devices that are linked through a communications network.
  • program modules may be located in both local and remote memory storage devices.
  • Computers typically include a variety of computer-readable media.
  • Media accessible by a computer includes volatile and nonvolatile media, transitory and non-transitory media, removable and non-removable media.
  • computer-readable media may include computer-readable storage media and computer-readable transmission media.
  • Computer-readable storage media includes volatile and non-volatile media, transitory and non-transitory media, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. includes media.
  • a computer-readable storage medium may be RAM, ROM, EEPROM, flash memory or other memory technology, CD-ROM, digital video disk (DVD) or other optical disk storage device, magnetic cassette, magnetic tape, magnetic disk storage device, or other magnetic storage device. device, or any other medium that can be accessed by a computer and used to store the desired information.
  • Computer readable transmission media typically embodies computer readable instructions, data structures, program modules or other data in a modulated data signal, such as a carrier wave or other transport mechanism, and the like. Includes any information delivery medium.
  • modulated data signal means a signal in which one or more of the characteristics of the signal is set or changed so as to encode information in the signal.
  • computer-readable transmission media includes wired media such as a wired network or direct-wired connection, and wireless media such as acoustic, RF, infrared, and other wireless media. Combinations of any of the above are also intended to be included within the scope of computer-readable transmission media.
  • System bus 2008 connects system components, including but not limited to system memory 2006 , to processing device 2004 .
  • the processing device 2004 may be any of a variety of commercially available processors. Dual processor and other multiprocessor architectures may also be used as processing unit 2004 .
  • the system bus 2008 may be any of several types of bus structures that may be further interconnected to a memory bus, a peripheral bus, and a local bus using any of a variety of commercial bus architectures.
  • System memory 2006 includes read only memory (ROM) 2010 and random access memory (RAM) 2012 .
  • ROM read only memory
  • RAM random access memory
  • BIOS Basic Input/Output System
  • BIOS Basic Input/Output System
  • RAM 2012 may also include high-speed RAM, such as static RAM, for caching data.
  • the computer 2002 may also include an internal hard disk drive (HDD) 2014 (eg, EIDE, SATA) - this internal hard disk drive 2014 may also be configured for external use within a suitable chassis (not shown).
  • HDD hard disk drive
  • FDD magnetic floppy disk drive
  • optical disk drive 2020 eg CD-ROM
  • the hard disk drive 2014, the magnetic disk drive 2016, and the optical disk drive 2020 are connected to the system bus 2008 by the hard disk drive interface 2024, the magnetic disk drive interface 2026, and the optical drive interface 2028, respectively.
  • the interface 2024 for external drive implementation includes, for example, at least one or both of Universal Serial Bus (USB) and IEEE 1394 interface technologies.
  • drives and their associated computer-readable media provide non-volatile storage of data, data structures, computer-executable instructions, and the like.
  • drives and media correspond to storing any data in a suitable digital format.
  • computer readable storage media refers to HDDs, removable magnetic disks, and removable optical media such as CDs or DVDs, those skilled in the art will use zip drives, magnetic cassettes, flash memory cards, cartridges, It will be appreciated that other tangible computer-readable storage media and the like may also be used in the exemplary operating environment and any such media may include computer-executable instructions for performing the methods of the present disclosure. .
  • a number of program modules may be stored in drives and RAM 2012 , including operating system 2030 , one or more application programs 2032 , other program modules 2034 , and program data 2036 . All or portions of the operating system, applications, modules and/or data may also be cached in RAM 2012 . It will be appreciated that the present disclosure may be implemented in various commercially available operating systems or combinations of operating systems.
  • a user may enter commands and information into the computer 2002 through one or more wired/wireless input devices, for example, a pointing device such as a keyboard 2038 and a mouse 2040 .
  • Other input devices may include a microphone, IR remote control, joystick, game pad, stylus pen, touch screen, and the like.
  • input device interface 2042 is often connected to the system bus 2008, parallel ports, IEEE 1394 serial ports, game ports, USB ports, IR interfaces, It may be connected by other interfaces, etc.
  • a monitor 2044 or other type of display device is also coupled to the system bus 2008 via an interface, such as a video adapter 2046 .
  • the computer typically includes other peripheral output devices (not shown), such as speakers, printers, and the like.
  • Computer 2002 may operate in a networked environment using logical connections to one or more remote computers, such as remote computer(s) 2048 via wired and/or wireless communications.
  • Remote computer(s) 2048 may be workstations, server computers, routers, personal computers, portable computers, microprocessor-based entertainment devices, peer devices, or other common network nodes, and are generally Although including many or all of the components described, only the memory storage device 2050 is shown for simplicity.
  • the logical connections shown include wired/wireless connections to a local area network (LAN) 2052 and/or a larger network, eg, a wide area network (WAN) 2054 .
  • LAN and WAN networking environments are common in offices and companies, and facilitate enterprise-wide computer networks, such as intranets, all of which can be connected to a worldwide computer network, for example, the Internet.
  • the computer 2002 When used in a LAN networking environment, the computer 2002 is connected to the local network 2052 through a wired and/or wireless communication network interface or adapter 2056 .
  • Adapter 2056 may facilitate wired or wireless communication to LAN 2052 , which also includes a wireless access point installed therein for communicating with wireless adapter 2056 .
  • the computer 2002 When used in a WAN networking environment, the computer 2002 may include a modem 2058 , connected to a communication server on the WAN 2054 , or otherwise establishing communications over the WAN 2054 , such as over the Internet. have the means Modem 2058 , which may be internal or external and a wired or wireless device, is connected to system bus 2008 via serial port interface 2042 .
  • program modules described for computer 2002 may be stored in remote memory/storage device 2050 . It will be appreciated that the network connections shown are exemplary and other means of establishing a communication link between the computers may be used.
  • Computer 2002 may be associated with any wireless device or object that is deployed and operates in wireless communication, for example, printers, scanners, desktop and/or portable computers, portable data assistants (PDAs), communications satellites, wireless detectable tags. It operates to communicate with any device or place, and phone. This includes at least Wi-Fi and Bluetooth wireless technologies. Accordingly, the communication may be a predefined structure as in a conventional network or may simply be an ad hoc communication between at least two devices.
  • PDAs portable data assistants
  • communications satellites for example, printers, scanners, desktop and/or portable computers, portable data assistants (PDAs), communications satellites, wireless detectable tags. It operates to communicate with any device or place, and phone. This includes at least Wi-Fi and Bluetooth wireless technologies. Accordingly, the communication may be a predefined structure as in a conventional network or may simply be an ad hoc communication between at least two devices.
  • Wi-Fi Wireless Fidelity
  • Wi-Fi is a wireless technology such as cell phones that allows these devices, eg, computers, to transmit and receive data indoors and outdoors, ie anywhere within range of a base station.
  • Wi-Fi networks use a radio technology called IEEE 802.20 (a, b, g, etc.) to provide secure, reliable, and high-speed wireless connections.
  • Wi-Fi can be used to connect computers to each other, to the Internet, and to wired networks (using IEEE 802.3 or Ethernet).
  • Wi-Fi networks may operate in unlicensed 2.4 and 5 GHz radio bands, for example, at 20 Mbps (802.20a) or 54 Mbps (802.20b) data rates, or in products that include both bands (dual band). have.
  • the various embodiments presented herein may be implemented as methods, apparatus, or articles of manufacture using standard programming and/or engineering techniques.
  • article of manufacture includes a computer program or media accessible from any computer-readable device.
  • computer-readable storage media include magnetic storage devices (eg, hard disks, floppy disks, magnetic strips, etc.), optical disks (eg, CDs, DVDs, etc.), smart cards, and flash drives. memory devices (eg, EEPROMs, cards, sticks, key drives, etc.).
  • machine-readable medium includes, but is not limited to, wireless channels and various other media capable of storing, holding, and/or carrying instruction(s) and/or data.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Vascular Medicine (AREA)
  • Otolaryngology (AREA)
  • Robotics (AREA)
  • Gynecology & Obstetrics (AREA)
  • Plasma & Fusion (AREA)
  • Biophysics (AREA)
  • Mechanical Engineering (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Dermatology (AREA)
  • Anesthesiology (AREA)
  • Hematology (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Surgical Instruments (AREA)

Abstract

Disclosed is a medical procedure image display device according to some embodiments of the present disclosure. The medical procedure image display device may comprise: an image capturing unit which obtains an image including a medical procedure device and a medical procedure site of a patient; a control unit which analyzes the image to recognize, within the medical procedure site, a first area where a medical procedure has been completed and a second area where the medical procedure has not been completed; and a display unit which differently displays the first area and the second area on the image.

Description

시술 영상 표시 장치Treatment image display device
본 개시는 시술 영상 표시 장치에 관한 것으로, 구체적으로 시술 영상을 디스플레이하는 장치에 관한 것이다.The present disclosure relates to an apparatus for displaying a procedure image, and more particularly, to an apparatus for displaying a procedure image.
근래에는, 초음파 발생 기기를 통해 발생되는 초음파를 이용하여 피부 미용 및 치료 목적의 처치를 도모하는 초음파 발생 기기 관련 기술이 알려져 있다.In recent years, a technique related to an ultrasonic wave generating device is known that uses ultrasonic waves generated through the ultrasonic wave generating device to achieve treatment for skin care and treatment purposes.
이때 초음파 발생 기기에서 발생되는 초음파가 조사되는 영역은, 환자의 환부에 비하면 다소 많이 좁을 수 있다. 따라서, 사용자(의사 또는 시술자)는 초음파 시술 시 감각에 의존하여 초음파를 조사한 부위와 초음파를 조사하지 않은 부위를 구분해야 했다.In this case, the area to which the ultrasound generated by the ultrasound generating device is irradiated may be rather narrow compared to the affected part of the patient. Therefore, the user (doctor or operator) had to distinguish between a region irradiated with ultrasound and a region not irradiated with ultrasound depending on the senses during ultrasound treatment.
그러나, 이러한 방식으로 시술을 수행하는 경우, 초음파가 중복적으로 조사되는 부위가 발생할 수도 있고, 초음파가 조사되지 않은 부위가 발생할 수도 있다. 만약, 초음파가 동일한 부위에 중복적으로 조사된다면, 과다한 초음파가 환자의 환부에 조사되어 환자가 화상을 입는 등의 문제가 발생할 수 있다. 또한, 초음파가 조사되지 않는 부위가 발생되는 경우에는 시술의 효과가 저하될 수 있다.However, when the procedure is performed in this way, a region to which ultrasonic waves are repeatedly irradiated may occur, or a region to which ultrasonic waves are not irradiated may occur. If ultrasonic waves are repeatedly irradiated to the same area, problems such as excessive ultrasonic waves being irradiated to the affected part of the patient may result in burns. In addition, when a region not irradiated with ultrasound is generated, the effect of the procedure may be reduced.
한편, 몇몇 사용자는 펜으로 초음파가 조사된 부위를 마킹한다. 그러나, 시술이 완료된 후에 시술 부위에 대한 세정이 요구되기 때문에 이러한 방식은 불편함을 초래할 수가 있다.Meanwhile, some users mark a region irradiated with ultrasound with a pen. However, since cleaning of the treatment site is required after the treatment is completed, this method may cause inconvenience.
따라서, 환자의 환부에 대해 의료 시술을 수행한 부위와 시술을 수행하지 않은 부위를 구별할 수 있는 기술에 대한 개발이 필요하다.Therefore, there is a need to develop a technology capable of distinguishing between a site on which a medical treatment is performed and a site on which the treatment is not performed on the affected part of the patient.
본 개시는 전술한 배경기술에 대응하여 안출된 것으로, 사용자가 의료 시술을 수행한 부위와 시술을 수행하지 않은 부위를 구별할 수 있는 시술 영상 표시 장치를 제공하고자 한다.The present disclosure has been devised in response to the above-described background technology, and an object of the present disclosure is to provide a device for displaying a surgical image that can distinguish a region where a user has performed a medical procedure from a region where the procedure has not been performed.
본 개시의 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present disclosure are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.
본 개시는 전술한 배경기술에 대응하여 안출된 것으로, 시술 영상 표시 장치를 제공하고자 한다. 상기 시술 영상 표시 장치는, 시술 장치와 환자의 시술 부위가 포함된 영상을 획득하는 촬영부; 상기 영상을 분석하여 상기 시술 부위 내에서 시술이 완료된 제 1 영역과 상기 시술이 완료되지 않은 제 2 영역을 인식하는 제어부; 및 상기 영상에 상기 제 1 영역과 상기 제 2 영역을 다르게 표시하는 디스플레이부; 를 포함할 수 있다.The present disclosure has been devised in response to the above-described background technology, and an object of the present disclosure is to provide an apparatus for displaying a surgical image. The treatment image display device may include: a photographing unit configured to acquire an image including a treatment device and a treatment site of a patient; a control unit that analyzes the image and recognizes a first area in which the treatment is completed and a second area in which the treatment is not completed within the treatment area; and a display unit configured to display the first area and the second area differently on the image. may include.
또한, 시술 부위 정보를 입력 받는 사용자 입력부; 를 더 포함하고, 상기 제어부는, 상기 시술 부위 정보를 이용하여 상기 영상 내에서 상기 시술 부위를 인식할 수 있다.In addition, a user input unit for receiving information about the treatment site; The method may further include, and the controller may recognize the treatment site in the image by using the treatment area information.
또한, 상기 제어부는, 상기 영상을 분석하여 상기 시술 장치가 상기 시술 부위를 벗어난 부분에 위치한다고 인식한 경우, 기 설정된 제 1 음향을 출력하도록 음향 출력부를 제어할 수 있다.Also, the controller may control the sound output unit to output a preset first sound when it is recognized that the treatment device is located outside the treatment area by analyzing the image.
또한, 상기 제어부는, 상기 영상을 분석하여 상기 시술 장치의 위치에 대한 위치 정보를 인식하고, 상기 위치 정보 및 상기 시술 부위 정보에 기초하여 상기 제 1 영역과 상기 제 2 영역을 인식할 수 있다.Also, the controller may analyze the image to recognize location information on the location of the treatment device, and recognize the first area and the second area based on the location information and the treatment area information.
또한, 상기 제어부는, 상기 영상을 분석하여 상기 시술 장치가 상기 제 1 영역 상에 존재한다고 인식한 경우, 기 설정된 제 2 음향을 출력하도록 음향 출력부를 제어할 수 있다.Also, the controller may control the sound output unit to output a preset second sound when it is recognized that the surgical device exists on the first region by analyzing the image.
또한, 상기 시술 장치는, 고강도 집속형 초음파(High Intensity Focused Ultrasonic) 장치, 초음파 프로브(Ultrasonic Probe) 또는 의료용 주사기를 포함할 수 있다.In addition, the treatment device may include a High Intensity Focused Ultrasonic device, an Ultrasonic Probe, or a medical injector.
또한, 상기 제어부는, 상기 시술 장치가 상기 시술 영상 표시 장치와 전기적으로 연결된 시술 장치인 경우, 상기 시술 장치에서 발생한 에너지 발생 신호를 모니터링하고, 상기 에너지 발생 신호가 발생한 시점에 상기 시술 장치가 위치한 영역을 상기 제 1 영역으로 인식할 수 있다.In addition, when the treatment device is a treatment device electrically connected to the treatment image display device, the controller monitors an energy generation signal generated by the treatment device, and a region in which the treatment device is located at the time when the energy generation signal is generated can be recognized as the first region.
또한, 상기 촬영부는, 상기 시술 부위의 축면(Axial), 시상면(Sagittal) 및 관상면(Coronal) 중 적어도 하나를 촬영하여 상기 시술 부위에 대한 적어도 하나의 영상 정보를 획득하고, 상기 영상은, 상기 적어도 하나의 영상 정보에 의해 생성된 입체 영상일 수 있다.In addition, the photographing unit acquires at least one image information about the treatment site by photographing at least one of an axial plane, a sagittal plane, and a coronal plane of the treatment site, and the image is, It may be a stereoscopic image generated by the at least one piece of image information.
또한, 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 시술 영상 표시 장치의 제어부로 하여금 이하의 단계들을 수행하기 위한 명령들을 포함하며, 상기 단계들은: 촬영부를 통해 시술 장치와 환자의 시술 부위가 포함된 영상을 획득하는 단계; 상기 영상을 분석하여 상기 시술 부위 내에서 시술이 완료된 제 1 영역과 상기 시술이 완료되지 않은 제 2 영역을 인식하는 단계; 및 상기 영상에 상기 제 1 영역과 상기 제 2 영역을 다르게 표시하도록 디스플레이부를 제어하는 단계; 를 포함할 수 있다.In addition, as a computer program stored in a computer-readable storage medium, the computer program includes instructions for causing the control unit of the procedure image display device to perform the following steps, wherein the steps are: acquiring an image including a region; analyzing the image to recognize a first area in which the treatment is completed and a second area in which the treatment is not completed within the treatment area; and controlling the display unit to display the first area and the second area differently on the image. may include.
또한, 사용자 입력부를 통해 사용자로부터 입력 받은 시술 부위 정보를 이용하여 상기 영상 내에서 상기 시술 부위를 인식하는 단계; 를 더 포함할 수 있다.In addition, recognizing the treatment site in the image using the treatment area information received from the user through the user input unit; may further include.
또한, 상기 영상을 분석하여 상기 시술 장치가 상기 시술 부위를 벗어난 부분에 위치한다고 인식한 경우, 기 설정된 제 1 음향을 출력하도록 음향 출력부를 제어하는 단계; 를 더 포함할 수 있다.In addition, when analyzing the image and recognizing that the treatment device is located outside the treatment area, controlling the sound output unit to output a preset first sound; may further include.
또한, 상기 영상을 분석하여 상기 시술 부위 내에서 시술이 완료된 제 1 영역과 상기 시술이 완료되지 않은 제 2 영역을 인식하는 단계는, 상기 영상을 분석하여 상기 시술 장치의 위치에 대한 위치 정보를 인식하는 단계; 및 상기 위치 정보 및 상기 시술 부위 정보에 기초하여 상기 제 1 영역과 상기 제 2 영역을 인식하는 단계; 를 더 포함할 수 있다.In addition, the step of analyzing the image and recognizing the first area where the treatment is completed and the second area where the treatment is not completed within the treatment site may include analyzing the image to recognize location information on the location of the treatment device. to do; and recognizing the first region and the second region based on the location information and the treatment region information. may further include.
또한, 상기 영상을 분석하여 상기 시술 장치가 상기 제 1 영역 상에 존재한다고 인식한 경우, 기 설정된 제 2 음향을 출력하도록 음향 출력부를 제어하는 단계; 를 더 포함할 수 있다.In addition, when analyzing the image and recognizing that the treatment device exists on the first area, controlling the sound output unit to output a preset second sound; may further include.
또한, 상기 시술 장치는, 고강도 집속형 초음파(High Intensity Focused Ultrasonic) 장치, 초음파 프로브(Ultrasonic Probe) 또는 의료용 주사기를 포함할 수 있다.In addition, the treatment device may include a High Intensity Focused Ultrasonic device, an Ultrasonic Probe, or a medical injector.
또한, 상기 영상을 분석하여 상기 시술 부위 내에서 시술이 완료된 제 1 영역과 상기 시술이 완료되지 않은 제 2 영역을 인식하는 단계는, 상기 시술 장치가 상기 시술 영상 표시 장치와 전기적으로 연결된 시술 장치인 경우, 상기 시술 장치에서 발생한 에너지 발생 신호를 모니터링 단계; 및 상기 에너지 발생 신호가 발생한 시점에 상기 시술 장치가 위치한 영역을 상기 제 1 영역으로 인식하는 단계; 를 포함할 수 있다.In addition, the step of analyzing the image and recognizing the first area in which the treatment is completed and the second area in which the treatment is not completed within the treatment area includes the treatment device being a treatment device electrically connected to the treatment image display device. case, monitoring the energy generation signal generated by the treatment device; and recognizing a region in which the surgical device is located as the first region when the energy generation signal is generated. may include.
또한, 촬영부를 통해 시술 장치와 환자의 시술 부위가 포함된 영상을 획득하는 단계는, 상기 촬영부를 통해 상기 시술 부위의 축면(Axial), 시상면(Sagittal) 및 관상면(Coronal) 중 적어도 하나를 촬영하여 상기 시술 부위에 대한 적어도 하나의 영상 정보를 획득하는 단계; 를 포함하고, 상기 영상은, 상기 적어도 하나의 영상 정보에 의해 생성된 입체 영상일 수 있다.In addition, the step of acquiring an image including the treatment device and the patient's treatment site through the photographing unit includes at least one of an axial plane, a sagittal plane, and a coronal plane of the treatment site through the photographing unit. acquiring at least one image information about the treatment site by photographing; and, the image may be a stereoscopic image generated by the at least one piece of image information.
본 개시에서 얻을 수 있는 기술적 해결 수단은 이상에서 언급한 해결 수단들로 제한되지 않으며, 언급하지 않은 또 다른 해결 수단들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical solutions obtainable in the present disclosure are not limited to the above-mentioned solutions, and other solutions that are not mentioned are clearly to those of ordinary skill in the art to which the present disclosure belongs from the description below. can be understood
본 개시의 몇몇 실시예에 따르면, 사용자가 시술이 완료된 영역과 시술이 완료되지 않은 영역을 쉽게 인식할 수 있다.According to some embodiments of the present disclosure, a user may easily recognize an area in which the treatment is completed and an area in which the treatment is not completed.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable in the present disclosure are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present disclosure belongs from the description below. .
다양한 양상들이 이제 도면들을 참조로 기재되며, 여기서 유사한 참조 번호들은 총괄적으로 유사한 구성요소들을 지칭하는데 이용된다. 이하의 실시예에서, 설명 목적을 위해, 다수의 특정 세부사항들이 하나 이상의 양상들의 총체적 이해를 제공하기 위해 제시된다. 그러나, 그러한 양상(들)이 이러한 특정 세부사항들 없이 실시될 수 있음은 명백할 것이다. 다른 예시들에서, 공지의 구조들 및 장치들이 하나 이상의 양상들의 기재를 용이하게 하기 위해 블록도 형태로 도시된다.Various aspects are now described with reference to the drawings, in which like reference numbers are used to refer to like elements collectively. In the following examples, for purposes of explanation, numerous specific details are set forth in order to provide a thorough understanding of one or more aspects. It will be evident, however, that such aspect(s) may be practiced without these specific details. In other instances, well-known structures and devices are shown in block diagram form in order to facilitate describing one or more aspects.
도 1은 본 개시의 몇몇 실시예에 따른 시술 영상 표시 장치의 일례를 설명하기 위한 도면이다.1 is a view for explaining an example of a treatment image display device according to some embodiments of the present disclosure.
도 2는 본 개시의 몇몇 실시예에 따른 시술 영상 표시 장치의 일례를 설명하기 위한 블록 구성도이다.2 is a block diagram illustrating an example of an apparatus for displaying a procedure image according to some embodiments of the present disclosure.
도 3은 본 개시의 몇몇 실시예에 따른 제어부가 시술 장치가 위치하고 있는 영역을 인식하는 방법의 일례를 설명하기 위한 도면이다.3 is a view for explaining an example of a method for a controller to recognize a region in which a treatment device is located, according to some embodiments of the present disclosure.
도 4는 본 개시의 몇몇 실시예에 따른 제어부가 제 1 영역과 제 2 영역을 다르게 표시하는 방법의 일례를 설명하기 위한 도면이다.4 is a diagram for describing an example of a method in which a control unit displays a first area and a second area differently according to some embodiments of the present disclosure;
도 5는 본 개시의 몇몇 실시예에 따른 시술 영상 표시 장치의 제어부가 제 1 영역과 제 2 영역을 다르게 표시하도록 디스플레이부를 제어하는 방법의 일례를 설명하기 위한 흐름도이다.5 is a flowchart illustrating an example of a method in which the controller of the apparatus for displaying a procedure image according to some embodiments of the present disclosure controls the display unit to display a first area and a second area differently.
도 6은 본 개시의 몇몇 실시예에 따른 시술 영상 표시 장치의 제어부가 제 1 영역과 제 2 영역을 인식하는 방법의 일례를 설명하기 위한 흐름도이다.6 is a flowchart illustrating an example of a method in which a controller of a treatment image display apparatus recognizes a first area and a second area according to some embodiments of the present disclosure.
도 7은 본 개시의 몇몇 실시예에 따른 시술 영상 표시 장치의 제어부가 제 1 영역을 인식하는 방법의 다른 일례를 설명하기 위한 흐름도이다.7 is a flowchart illustrating another example of a method in which a controller of a treatment image display apparatus recognizes a first area according to some embodiments of the present disclosure.
도 8은 본 개시내용의 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 일반적인 개략도를 도시한다.8 depicts a general schematic diagram of an exemplary computing environment in which embodiments of the present disclosure may be implemented.
다양한 실시예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나 이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 감지될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다. 구체적으로, 본 명세서에서 사용되는 "실시예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다.Various embodiments and/or aspects are now disclosed with reference to the drawings. In the following description, for purposes of explanation, numerous specific details are set forth to provide a thorough understanding of one or more aspects. However, it will also be appreciated by one of ordinary skill in the art that such aspect(s) may be practiced without these specific details. The following description and accompanying drawings set forth in detail certain illustrative aspects of one or more aspects. These aspects are illustrative, however, and some of the various methods in principles of various aspects may be employed, and the descriptions set forth are intended to include all such aspects and their equivalents. Specifically, as used herein, “embodiment”, “example”, “aspect”, “exemplary”, etc. is not to be construed as an advantage or advantage of any aspect or design described over other aspects or designs. It may not be.
이하, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략한다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않는다.Hereinafter, the same or similar components are assigned the same reference numerals regardless of reference numerals, and overlapping descriptions thereof will be omitted. In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in the present specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical ideas disclosed in the present specification are not limited by the accompanying drawings.
비록 제 1, 제 2 등이 다양한 소자나 구성요소들을 서술하기 위해서 사용되나, 이들 소자나 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 소자나 구성요소를 다른 소자나 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제 1 소자나 구성요소는 본 발명의 기술적 사상 내에서 제 2 소자나 구성요소 일 수도 있음은 물론이다.Although first, second, etc. are used to describe various elements or elements, these elements or elements are not limited by these terms, of course. These terms are only used to distinguish one element or component from another. Accordingly, it goes without saying that the first element or component mentioned below may be the second element or component within the spirit of the present invention.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein may be used with the meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless clearly defined in particular.
더불어, 용어 "또는"은 배타적 "또는"이 아니라 내포적 "또는"을 의미하는 것으로 의도된다. 즉, 달리 특정되지 않거나 문맥상 명확하지 않은 경우에, "X는 A 또는 B를 이용한다"는 자연적인 내포적 치환 중 하나를 의미하는 것으로 의도된다. 즉, X가 A를 이용하거나; X가 B를 이용하거나; 또는 X가 A 및 B 모두를 이용하는 경우, "X는 A 또는 B를 이용한다"가 이들 경우들 어느 것으로도 적용될 수 있다. 또한, 본 명세서에 사용된 "및/또는"이라는 용어는 열거된 관련 아이템들 중 하나 이상의 아이템의 가능한 모든 조합을 지칭하고 포함하는 것으로 이해되어야 한다. In addition, the term “or” is intended to mean an inclusive “or” rather than an exclusive “or.” That is, unless otherwise specified or clear from context, "X employs A or B" is intended to mean one of the natural implicit substitutions. That is, X employs A; X employs B; or when X employs both A and B, "X employs A or B" may apply to either of these cases. It should also be understood that the term “and/or” as used herein refers to and includes all possible combinations of one or more of the listed related items.
또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다. 또한, 달리 특정되지 않거나 단수 형태를 지시하는 것으로 문맥상 명확하지 않은 경우에, 본 명세서와 청구범위에서 단수는 일반적으로 "하나 또는 그 이상"을 의미하는 것으로 해석되어야 한다.Also, the terms "comprises" and/or "comprising" mean that the feature and/or element is present, but excludes the presence or addition of one or more other features, elements, and/or groups thereof. should be understood as not Also, unless otherwise specified or unless the context is clear as to designating a singular form, the singular in the specification and claims should generally be construed to mean "one or more."
더불어, 본 명세서에서 사용되는 용어 "정보" 및 "데이터"는 종종 서로 상호교환 가능하도록 사용될 수 있다.In addition, as used herein, the terms “information” and “data” may often be used interchangeably.
어떤 구성 요소가 다른 구성 요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성 요소가 다른 구성 요소에 "직접 연결되어" 있다거나 "직접 접속되어"있다고 언급된 때에는, 중간에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it may be directly connected or connected to the other component, but it is understood that other components may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that no other element is present in the middle.
이하의 설명에서 사용되는 구성 요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.The suffixes "module" and "part" for the components used in the following description are given or used in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves.
본 개시의 목적 및 효과, 그리고 그것들을 달성하기 위한 기술적 구성들은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 본 개시를 설명하는데 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 개시에서의 기능을 고려하여 정의된 용어들로써 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다.Objects and effects of the present disclosure, and technical configurations for achieving them will become clear with reference to the embodiments described below in detail in conjunction with the accompanying drawings. In describing the present disclosure, if it is determined that a detailed description of a well-known function or configuration may unnecessarily obscure the subject matter of the present disclosure, the detailed description thereof will be omitted. In addition, the terms to be described later are terms defined in consideration of functions in the present disclosure, which may vary according to intentions or customs of users and operators.
그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있다. 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 개시의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시는 청구항의 범주에 의해 정의될 뿐이다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.However, the present disclosure is not limited to the embodiments disclosed below and may be implemented in various different forms. Only the present embodiments are provided so that the present disclosure is complete, and to fully inform those of ordinary skill in the art to which the present disclosure belongs, the scope of the disclosure, and the present disclosure is only defined by the scope of the claims . Therefore, the definition should be made based on the content throughout this specification.
본 개시에서 시술 영상 표시 장치는 환자의 환부에 대하여 시술이 완료된 제 1 영역과 시술이 완료되지 않은 제 2 영역을 구분한 영상을 제공할 수 있다. 여기서, 시술은 고강도 집속형 초음파(High Intensity Focused Ultrasonic) 기기를 이용하는 초음파 시술, 초음파 프로브(Ultrasonic Probe)를 이용하는 초음파 시술 또는 의료용 주사기를 이용한 시술 등일 수 있다. 즉, 시술 영상 표시 장치는 모든 의료 시술 또는 치료에 대하여 시술이 완료된 제 1 영역과 시술이 완료되지 않은 제 2 영역을 구분하여 디스플레이할 수 있다. 이하, 본 개시에 따른 시술 영상 표시 장치에 대해 도 1 내지 도 8을 통해 설명한다.In the present disclosure, the apparatus for displaying a procedure image may provide an image in which a first area in which the treatment is completed and a second area in which the treatment is not completed are divided for the affected part of the patient. Here, the treatment may be an ultrasound treatment using a High Intensity Focused Ultrasonic device, an ultrasound treatment using an ultrasound probe, or a treatment using a medical syringe. That is, the treatment image display apparatus may display the first area in which the treatment is completed and the second area in which the treatment is not completed for all medical treatments or treatments separately. Hereinafter, a procedure image display device according to the present disclosure will be described with reference to FIGS. 1 to 8 .
도 1은 본 개시의 몇몇 실시예에 따른 시술 영상 표시 장치의 일례를 설명하기 위한 도면이다.1 is a view for explaining an example of a treatment image display device according to some embodiments of the present disclosure.
본 개시에서, 시술 영상 표시 장치(1000)는 도 1의 (a)에 도시된 바와 같이 사용자의 조작(예를 들어, 초음파 강도를 조절하는 사용자 입력 등)에 따라, 시술 장치(3000a)에 제어 신호(예를 들어, 초음파 강도를 변경하는 신호 등)를 전달할 수도 있고, 시술과 관련된 영상을 촬영하여 사용자에게 제공할 수도 있는 장치일 수 있다. 즉, 사용자는 시술 영상 표시 장치(1000)를 이용해서 시술 장치(3000a)의 세팅 값을 설정할 수도 있고, 시술과 관련된 영상을 확인할 수도 있다.In the present disclosure, the treatment image display apparatus 1000 is controlled by the treatment apparatus 3000a according to a user's manipulation (eg, a user input for adjusting ultrasound intensity, etc.) as shown in FIG. 1A . It may be a device that may transmit a signal (eg, a signal for changing an ultrasound intensity, etc.) or may capture an image related to a procedure and provide it to the user. That is, the user may set a setting value of the treatment apparatus 3000a by using the treatment image display apparatus 1000 or may check an image related to the treatment.
한편, 시술 영상 표시 장치(1000)는 촬영부(1100) 및 디스플레이부(1300)를 포함할 수 있다. 이 경우, 시술 영상 표시 장치(1000)는 촬영부(1100)를 통해 시술 장치(3000) 및 환자의 시술 부위가 포함된 영상을 획득할 수 있다. 그리고, 시술 영상 표시 장치(1000)는 상기 영상을 분석하여, 시술이 완료된 제 1 영역과 시술이 완료되지 않은 제 2 영역을 다르게 디스플레이부(1300)에 표시할 수 있다. 이하, 시술 영상 표시 장치(1000)가 영상에 제 1 영역과 제 2 영역을 다르게 표시하는 방법은 도 3 내지 도 7을 통해 후술한다.Meanwhile, the treatment image display apparatus 1000 may include a photographing unit 1100 and a display unit 1300 . In this case, the treatment image display apparatus 1000 may acquire an image including the treatment apparatus 3000 and the treatment area of the patient through the photographing unit 1100 . In addition, the treatment image display apparatus 1000 may analyze the image and display the first area in which the treatment is completed and the second area in which the treatment is not completed differently on the display unit 1300 . Hereinafter, a method in which the procedure image display apparatus 1000 displays the first region and the second region differently on an image will be described later with reference to FIGS. 3 to 7 .
한편, 본 개시의 다른 몇몇 실시예에 따르면, 시술 영상 표시 장치(1000)는 도 1의 (b)와 같이 시술과 관련된 영상을 촬영하여 사용자에게 제공하는 장치일 수 있다. 여기서, 사용자는 시술 영상 표시 장치(1000)와 전기적으로 연결된 시술 장치 제어기(3100)를 이용하여 시술 장치(3000b)의 세팅 값을 변경할 수 있다. 그리고, 사용자는 시술 영상 표시 장치(1000)를 이용하여 시술 영상을 확인할 수 있다. 즉, 도 1의 (b)에 도시된 시술 영상 표시 장치(1000)는 도 1의 (a)에서 상술한 시술 영상 표시 장치와 다르게 제어 신호를 시술 장치(3000b)에 제공할 수 없다.Meanwhile, according to some other exemplary embodiments of the present disclosure, the apparatus for displaying a procedure image 1000 may be a device for capturing an image related to a procedure as shown in FIG. 1B and providing it to the user. Here, the user may change the setting value of the treatment device 3000b by using the treatment device controller 3100 electrically connected to the treatment image display device 1000 . In addition, the user may check the treatment image using the treatment image display device 1000 . That is, the treatment image display apparatus 1000 illustrated in FIG. 1B cannot provide a control signal to the treatment apparatus 3000b unlike the treatment image display apparatus described above with reference to FIG. 1A.
여기서, 시술 영상 표시 장치(1000)에는 데스크탑 컴퓨터, 디지털 사이니지, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다.Here, the treatment image display device 1000 includes a desktop computer, a digital signage, a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, personal digital assistants (PDA), and a portable multimedia player (PMP). , navigation, slate PC, tablet PC, ultrabook, wearable device, for example, watch-type terminal (smartwatch), glass-type terminal (smart glass), HMD ( head mounted display), etc. may be included.
한편, 도 1의 (a) 및 (b)의 시술 영상 표시 장치(1000)의 촬영부(1100)에 의해서 촬영되는 영상은 시술 장치(3000) 및 환자의 시술 부위를 포함할 수 있다. 여기서, 영상에 포함된 시술 장치(3000)는 사용자의 조작에 따라 체외에 충격파가 발생하도록 초음파를 조사하여 환자의 환부를 치료할 수 있는 체외 충격파 치료기일 수 있다. 다른 일례로, 시술 장치(3000a)는 고강도 집속형 초음파를 환자의 환부에 조사하여 피부 미용 효과를 발생시킬 수 있는 고강도 집속형 초음파(High Intensity Focused Ultrasonic) 장치일 수도 있다. 또 다른 일례로, 시술 장치(3000a)는 특정 파장대의 초음파를 전송하여 열적 작용이 발생되도록 하고, 그로 인하여 국소적 변형이 가능하도록 하는 초음파 프로브(Ultrasonic Probe)일 수도 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, the image photographed by the photographing unit 1100 of the operation image display apparatus 1000 of FIGS. Here, the surgical device 3000 included in the image may be an extracorporeal shock wave therapy device capable of treating an affected part of a patient by irradiating ultrasonic waves to generate a shock wave outside the body according to a user's manipulation. As another example, the surgical device 3000a may be a high-intensity focused ultrasound device capable of generating a skin cosmetic effect by irradiating high-intensity focused ultrasound to an affected part of a patient. As another example, the surgical device 3000a may be an ultrasonic probe that transmits ultrasonic waves in a specific wavelength band to generate a thermal action, thereby enabling local deformation. However, the present invention is not limited thereto.
한편, 도 1의 (a) 및 (b)의 시술 영상 표시 장치(1000)는 시술 장치(3000) 또는 시술 장치 제어기(3100)와 전기적으로 연결될 수 있다. 이 경우, 시술 영상 표시 장치(1000)는 시술 장치(3000)에서 발생한 에너지 발생 신호를 모니터링할 수 있다. 그리고, 시술 영상 표시 장치(1000)의 제어부는 에너지 발생 신호가 발생한 시점에 기초하여, 시술 장치(3000)가 위치한 영역을 인식할 수 있다. 이하, 시술 영상 표시 장치(1000)가 시술 장치(3000)의 위치를 인식하는 방법은 도 7을 통해 후술한다.Meanwhile, the treatment image display apparatus 1000 of FIGS. 1A and 1B may be electrically connected to the treatment apparatus 3000 or the treatment apparatus controller 3100 . In this case, the treatment image display apparatus 1000 may monitor the energy generation signal generated by the treatment apparatus 3000 . In addition, the controller of the treatment image display apparatus 1000 may recognize a region in which the treatment apparatus 3000 is located, based on the time when the energy generation signal is generated. Hereinafter, a method for the treatment image display apparatus 1000 to recognize the position of the treatment apparatus 3000 will be described later with reference to FIG. 7 .
한편, 본 개시의 또 다른 몇몇 실시예에 따르면, 시술 영상 표시 장치(1000)는 도 1의 (c)와 같이 물리적 또는 전기적 연결이 되지 않은 시술 장치(3000c)와 관련된 영상을 촬영하여 사용자에게 제공하는 장치일 수도 있다. 예를 들어, 시술 장치(3000c)는 의료용 주사기 또는 기타 의료 도구 등일 수 있다. 이 경우, 시술 영상 표시 장치(1000)는 시술 장치(3000c)에서 에너지 발생 신호와 같은 신호가 발생되는 것이 아니므로, 촬영부(1100)를 통해 획득된 영상을 분석하여, 시술 장치(3000c)의 위치를 인식할 수 있다. 다만, 이에 한정되는 것은 아니다.On the other hand, according to some other exemplary embodiments of the present disclosure, the treatment image display apparatus 1000 captures an image related to the treatment apparatus 3000c that is not physically or electrically connected as shown in FIG. 1(c) and provides it to the user. It may be a device that For example, the surgical device 3000c may be a medical syringe or other medical tool. In this case, since the treatment image display device 1000 does not generate a signal such as an energy generation signal from the treatment device 3000c, it analyzes the image acquired through the photographing unit 1100 and location can be recognized. However, the present invention is not limited thereto.
상술한 구성에 따르면, 시술 영상 표시 장치(1000)는 시술 장치(3000)의 종류와 관계없이 촬영부(1100)를 통해 획득된 영상을 분석하여 시술이 완료된 제 1 영역과 시술이 완료되지 않은 제 2 영역을 인식할 수 있다. 그리고, 시술 영상 표시 장치(1000)는 디스플레이부(1300)를 통해 제 1 영역과 제 2 영역을 다르게 표시할 수 있다. 따라서, 사용자는 시술의 종류와 관계없이 시술 영상 표시 장치(1000)를 이용하여 편리하게 환자의 환부에 시술을 수행할 수 있다.According to the above configuration, the treatment image display device 1000 analyzes the image obtained through the photographing unit 1100 regardless of the type of the treatment device 3000 to determine the first area where the treatment is completed and the first area where the treatment is not completed. 2 areas can be recognized. In addition, the treatment image display apparatus 1000 may display the first area and the second area differently through the display unit 1300 . Therefore, the user can conveniently perform the procedure on the affected part of the patient by using the procedure image display device 1000 irrespective of the type of procedure.
한편, 본 개시의 몇몇 실시예에 따르면, 시술 영상 표시 장치(1000)는 사용자에게 편의를 제공해줄 수 있는 구성 요소들을 더 포함할 수 있다. 이하, 도 2를 통해 시술 영상 표시 장치(1000)를 구성하는 구성 요소에 대해 설명한다.Meanwhile, according to some embodiments of the present disclosure, the apparatus for displaying a surgical image 1000 may further include components that can provide convenience to the user. Hereinafter, components constituting the treatment image display apparatus 1000 will be described with reference to FIG. 2 .
도 2는 본 개시의 몇몇 실시예에 따른 시술 영상 표시 장치의 일례를 설명하기 위한 블록 구성도이다.2 is a block diagram illustrating an example of an apparatus for displaying a procedure image according to some embodiments of the present disclosure.
도 2를 참조하면, 시술 영상 표시 장치(1000)는 촬영부(1100), 제어부(1200), 디스플레이부(1300), 사용자 입력부(1400) 및 음향 출력부(1500)를 포함할 수 있다. 다만, 상술한 구성 요소들은 시술 영상 표시 장치(1000)를 구현하는데 있어서 필수적인 것은 아니어서, 시술 영상 표시 장치(1000)는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. 여기서, 각각의 구성 요소들은 별개의 칩이나 모듈이나 장치로 구성될 수 있고, 하나의 장치 내에 포함될 수도 있다.Referring to FIG. 2 , the treatment image display apparatus 1000 may include a photographing unit 1100 , a control unit 1200 , a display unit 1300 , a user input unit 1400 , and a sound output unit 1500 . However, since the above-described components are not essential in implementing the procedure image display apparatus 1000 , the procedure image display apparatus 1000 may have more or fewer components than those listed above. Here, each component may be configured as a separate chip, module, or device, or may be included in one device.
촬영부(1100)는 시술 장치와 환자의 시술 부위가 포함된 영상을 촬영할 수 있는 적어도 하나의 카메라를 포함할 수 있다. 여기서, 시술 장치(3000)는 고강도 집속형 초음파(High Intensity Focused Ultrasonic) 장치, 초음파 프로브(Ultrasonic Probe) 또는 의료용 주사기를 포함할 수 있다. 다만, 이에 한정되는 것은 아니다.The photographing unit 1100 may include a treatment device and at least one camera capable of capturing an image including a treatment area of a patient. Here, the surgical device 3000 may include a High Intensity Focused Ultrasonic device, an Ultrasonic Probe, or a medical injector. However, the present invention is not limited thereto.
한편, 촬영부(1100)는 시술 영상 표시 장치(1000)와 유선 연결되어 있을 수 있다. 그리고, 촬영부(1100)는 시술 장치(3000) 및 환자의 시술 부위가 포함된 영상을 시술 영상 표시 장치(1000)에 전송할 수 있다.Meanwhile, the photographing unit 1100 may be connected to the operation image display apparatus 1000 by wire. In addition, the photographing unit 1100 may transmit an image including the treatment device 3000 and the treatment site of the patient to the treatment image display apparatus 1000 .
한편, 본 개시의 다른 몇몇 실시예에 따르면, 촬영부(1100)는 무선 통신을 통해 시술 영상 표시 장치(1000)에 촬영된 영상을 전송할 수도 있다.Meanwhile, according to some other exemplary embodiments of the present disclosure, the photographing unit 1100 may transmit the photographed image to the procedure image display apparatus 1000 through wireless communication.
예를 들어, 촬영부(1100)는 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access) 등을 통해 시술 영상 표시 장치(1000)에 영상을 송신할 수 있다. 다만, 이에 한정되는 것은 아니고, 촬영부(1110)는 적외선(IrDA: Infrared Data Association) 또는 블루투스(Bluetooth)와 같은 단거리 통신에 이용되는 무선 전송 기술을 이용하여 촬영된 영상을 시술 영상 표시 장치(1000)에 전송할 수도 있다.For example, the photographing unit 1100 may include a wireless LAN (WLAN), a wireless-fidelity (Wi-Fi), a wireless fidelity (Wi-Fi) Direct, a Digital Living Network Alliance (DLNA), a Wireless Broadband (WiBro), and a WiMAX (Wireless Broadband). The image may be transmitted to the treatment image display device 1000 through World Interoperability for Microwave Access, or the like. However, the present invention is not limited thereto, and the photographing unit 1110 displays an image photographed using a wireless transmission technology used for short-range communication, such as infrared (IrDA) or Bluetooth (Bluetooth), the operation image display device 1000 ) can also be sent to
제어부(1200)는 통상적으로 시술 영상 표시 장치(1000)의 전반적인 동작을 처리할 수 있다. 제어부(1200)는 사용자 입력부(1400)를 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 저장부에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.The controller 1200 may typically process the overall operation of the treatment image display apparatus 1000 . The control unit 1200 may provide or process appropriate information or functions to the user by processing signals, data, information, etc. input or output through the user input unit 1400 or driving an application program stored in the storage unit.
본 개시에서, 제어부(1200)는 촬영부(1100)를 통해 획득된 영상을 분석하여 시술이 완료된 제 1 영역과 시술이 완료되지 않은 제 2 영역을 인식할 수 있다.In the present disclosure, the controller 1200 may analyze an image acquired through the photographing unit 1100 to recognize a first area in which the treatment is completed and a second area in which the treatment is not completed.
일례로, 제어부(1200)는 영상을 분석하여 시술 장치(3000)가 시술 부위 내에서 기 설정된 시간 이상 특정 영역에 머무르고 있다고 인식한 경우, 상기 특정 영역을 시술이 완료된 제 1 영역이라고 인식할 수 있다.For example, when the controller 1200 analyzes the image and recognizes that the treatment apparatus 3000 stays in a specific area for more than a preset time within the treatment site, the control unit 1200 may recognize the specific area as the first area where the treatment is completed. .
다른 일례로, 시술 영상 표시 장치(1000)의 제어부는 영상을 분석하여 시술 장치(3000)가 시술 부위 내에서 기 설정된 시간 이상 특정 영역에 머물렀다고 인식한 경우, 상기 특정 영역을 시술이 완료된 제 1 영역이라고 인식할 수 있다. 그리고, 제어부(1200)는 시술 부위 내에서 제 1 영역을 제외한 영역을 제 2 영역이라고 인식할 수 있다. 다만, 이에 한정되는 것은 아니다.As another example, when the controller of the treatment image display device 1000 analyzes the image and recognizes that the treatment device 3000 has stayed in a specific area for more than a preset time within the treatment site, the control unit of the treatment image displays the first treatment completed in the specific area. area can be recognized. In addition, the controller 1200 may recognize an area other than the first area within the treatment site as the second area. However, the present invention is not limited thereto.
여기서, 기 설정된 시간은 저장부(미도시)에 사전 저장되어 있을 수 있다. 다만, 이에 한정되는 것은 아니다. 이하, 시술 영상 표시 장치(1000)의 제어부가 제 1 영역 및 제 2 영역을 인식하는 방법은 도 5를 통해 후술한다.Here, the preset time may be pre-stored in a storage unit (not shown). However, the present invention is not limited thereto. Hereinafter, a method for the controller of the treatment image display apparatus 1000 to recognize the first region and the second region will be described later with reference to FIG. 5 .
한편, 디스플레이부(1300)는 시술 영상 표시 장치(1000)에서 처리되는 정보(또는 적어도 하나의 컨텐츠)를 표시(출력)할 수 있다. 예를 들어, 디스플레이부(1300)는 시술 영상 표시 장치(1000)에서 구동되는 응용 프로그램의 실행화면 정보, 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보 또는 촬영부(1100)를 통해 획득된 영상 등을 표시할 수 있다.Meanwhile, the display unit 1300 may display (output) information (or at least one content) processed by the treatment image display apparatus 1000 . For example, the display unit 1300 may include information on an execution screen of an application program driven in the treatment image display device 1000, a user interface (UI), graphic user interface (GUI) information, or a photographing unit ( 1100) may be displayed.
한편, 본 개시의 몇몇 실시예에 따르면, 디스플레이부(1300)에 디스플레이되는 영상은 입체 영상일 수 있다.Meanwhile, according to some embodiments of the present disclosure, an image displayed on the display unit 1300 may be a stereoscopic image.
구체적으로, 촬영부(1100)는 적어도 하나의 카메라를 통해 시술 부위의 축면(Axial), 시상면(Sagittal) 및 관상면(Coronal) 중 적어도 하나를 촬영하여 시술 부위에 대한 적어도 하나의 영상 정보를 획득할 수 있다. 그리고, 제어부(1200)는 적어도 하나의 영상 정보를 통해 입체 영상을 생성할 수 있다. 다만, 이에 한정되는 것은 아니다.Specifically, the photographing unit 1100 captures at least one of an axial plane, a sagittal plane, and a coronal plane of the treatment site through at least one camera to obtain at least one image information about the treatment site. can be obtained In addition, the controller 1200 may generate a stereoscopic image through at least one piece of image information. However, the present invention is not limited thereto.
디스플레이부(1300)는 제어부(1200)의 제어하에서 영상에 포함된 제 1 영역과 제 2 영역을 다르게 표시할 수 있다.The display unit 1300 may differently display the first region and the second region included in the image under the control of the controller 1200 .
예를 들어, 디스플레이부(1300)는 제 1 영역을 기 설정된 색(예를 들어, 빨간색)으로 표시할 수 있다. 그리고, 디스플레이부(1300)는 제 2 영역을 상기 제 1 영역과 다른 색으로 표시할 수 있다. 다만, 이에 한정되는 것은 아니고, 디스플레이부(1300)는 제 2 영역의 테두리만 표시하고 내부에는 아무런 표시를 하지 않을 수도 있다.For example, the display unit 1300 may display the first area in a preset color (eg, red). In addition, the display unit 1300 may display the second area in a color different from that of the first area. However, the present invention is not limited thereto, and the display unit 1300 may display only the border of the second region and no display inside.
한편, 본 개시의 몇몇 실시예에 따르면, 제 2 영역은 복수 개의 영역으로 분할된 영역일 수 있다.Meanwhile, according to some embodiments of the present disclosure, the second area may be an area divided into a plurality of areas.
구체적으로, 시술 영상 표시 장치(1000)의 제어부(1200)는 사용자가 시술 장치(3000)를 통해 시술을 수행하기 전에 환자의 시술 부위에 대한 영상을 촬영부(1100)를 통해 획득할 수 있다. 이 경우, 제어부는 시술 장치(3000)가 영상에 포함되지 않았으므로, 환자의 모든 시술 부위가 제 2 영역이라고 인식할 수 있다. 그리고, 제어부는 제 2 영역을 복수개의 영역으로 분할하여 표시되도록 디스플레이부(1300)를 제어할 수 있다. 이와 같이 제 2 영역이 복수개의 영역으로 분할되어 표시되는 경우, 사용자는 시술을 수행할 부위를 좀더 명확하게 인식할 수 있다. 다만, 이에 한정되는 것은 아니다.Specifically, the control unit 1200 of the treatment image display apparatus 1000 may acquire an image of the treatment site of the patient through the photographing unit 1100 before the user performs the treatment through the treatment apparatus 3000 . In this case, since the treatment device 3000 is not included in the image, the controller may recognize that all treatment areas of the patient are the second area. In addition, the controller may control the display unit 1300 so that the second area is divided into a plurality of areas and displayed. In this way, when the second region is divided into a plurality of regions and displayed, the user can more clearly recognize a region to be treated. However, the present invention is not limited thereto.
사용자 입력부(1400)는 사용자로부터 정보를 입력받기 위한 것으로서, 사용자 입력부(1400)를 통해 정보가 입력되면, 제어부(1200)는 입력된 정보에 대응되도록 시술 영상 표시 장치(1000)의 동작을 제어할 수 있다. 이러한, 사용자 입력부(1400)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 시술 영상 표시 장치(1000)의 전·후면 또는 측면에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등), 터치식 입력수단, 키보드 및 마우스 등을 포함할 수 있다.The user input unit 1400 is for receiving information from the user, and when information is input through the user input unit 1400 , the control unit 1200 controls the operation of the operation image display apparatus 1000 to correspond to the input information. can The user input unit 1400 is a mechanical input means (or a mechanical key, for example, a button located on the front, rear or side of the surgical image display device 1000, a dome switch, a jog). wheel, jog switch, etc.), touch input means, keyboard and mouse, and the like.
본 개시에서, 사용자 입력부(1400)는 사용자로부터 시술 부위 정보를 입력 받을 수 있다. 이 경우, 시술 영상 표시 장치(1000)의 제어부(1200)는 시술 부위 정보를 이용하여 영상 내에서 시술 부위를 인식할 수 있다.In the present disclosure, the user input unit 1400 may receive treatment site information from the user. In this case, the controller 1200 of the treatment image display apparatus 1000 may recognize the treatment site in the image by using the treatment area information.
예를 들어, 제어부(1200)가 촬영부(1100)를 통해 획득한 영상에는 환자의 시술 부위가 아닌 부위도 포함될 수 있다. 예를 들어, 사용자 입력부(1400)를 통해 입력된 시술 부위 정보에는 환자에게 시술을 수행해야할 부위가 안면이라는 정보가 포함되어 있을 수 있다. 반면, 촬영부(1100)를 통해 획득된 영상에는 안면 외에도 목, 귀 등이 포함될 수 있다. 이 경우, 제어부(1200)는 사용자 입력부(1400)를 통해 입력 받은 시술 부위 정보를 이용하여 영상 내에서 안면이 시술 부위라고 인식할 수 있다. 다만, 이에 한정되는 것은 아니다.For example, the image obtained by the control unit 1200 through the photographing unit 1100 may include a site other than the treatment site of the patient. For example, information on the treatment area input through the user input unit 1400 may include information that the area to be treated with the patient is the face. On the other hand, the image acquired through the photographing unit 1100 may include a neck, an ear, etc. in addition to the face. In this case, the controller 1200 may recognize the face as the treatment site in the image by using the treatment site information received through the user input unit 1400 . However, the present invention is not limited thereto.
한편, 본 개시의 몇몇 실시예에 따르면, 시술 영상 표시 장치(1000)의 제어부(1200)는 촬영부(1100)를 통해 획득된 영상을 분석하여 시술 장치(3000)의 위치에 대한 위치 정보를 인식할 수 있다. 그리고, 제어부(1200)는 상기 위치 정보 및 사용자 입력부(1400)를 통해 입력된 시술 부위 정보에 기초하여 제 1 영역과 제 2 영역을 인식할 수도 있다. 이하, 제어부(1200)가 시술 부위 정보를 이용하여 제 1 영역과 제 2 영역을 인식하는 방법은 도 6을 통해 후술한다.Meanwhile, according to some embodiments of the present disclosure, the control unit 1200 of the treatment image display apparatus 1000 analyzes the image obtained through the photographing unit 1100 to recognize location information on the location of the treatment apparatus 3000 . can do. Also, the controller 1200 may recognize the first region and the second region based on the location information and the treatment site information input through the user input unit 1400 . Hereinafter, a method for the controller 1200 to recognize the first region and the second region by using the treatment site information will be described later with reference to FIG. 6 .
한편, 음향 출력부(1500)는 시술 영상 표시 장치(1000)에서 수행되는 기능과 관련된 음향 신호를 출력할 수 있다. 이러한 음향 출력부(1500)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, the sound output unit 1500 may output a sound signal related to a function performed by the treatment image display apparatus 1000 . The sound output unit 1500 may include a receiver, a speaker, a buzzer, and the like. However, the present invention is not limited thereto.
한편, 본 개시에서, 시술 영상 표시 장치(1000)의 제어부(1200)는 시술 장치(3000)의 위치에 기초하여 음향을 출력하도록 음향 출력부(1500)를 제어할 수 있다.Meanwhile, in the present disclosure, the controller 1200 of the treatment image display apparatus 1000 may control the sound output unit 1500 to output a sound based on the position of the treatment apparatus 3000 .
일례로, 제어부(1200)는 영상을 분석하여 시술 장치(3000)가 시술 부위를 벗어난 부분에 위치한다고 인식한 경우, 기 설정된 제 1 음향을 출력하도록 음향 출력부(1500)를 제어할 수 있다. 즉, 제어부(1200)는 사용자가 환자의 환부가 아닌 부위에 시술을 하고 있는 경우, 사용자에게 주의를 줄 수 있는 제 1 음향을 출력하도록 음향 출력부(1500)를 제어할 수 있다. 여기서, 기 설정된 제 1 음향은 저장부에 사전 저장되어 있을 수 있다. 다만, 이에 한정되는 것은 아니다.For example, the controller 1200 may control the sound output unit 1500 to output a preset first sound when it is recognized that the treatment apparatus 3000 is located outside the treatment site by analyzing the image. That is, the controller 1200 may control the sound output unit 1500 to output a first sound that can give attention to the user when the user is performing a procedure on a non-affected part of the patient. Here, the preset first sound may be pre-stored in the storage unit. However, the present invention is not limited thereto.
다른 일례로, 제어부(1200)는 영상을 분석하여 시술 장치(3000)가 시술이 완료된 제 1 영역 상에 존재한다고 인식한 경우, 기 설정된 제 2 음향을 출력하도록 음향 출력부(1500)를 제어할 수 있다. 즉, 제어부(1200)는 사용자가 이미 시술이 완료된 부위에 시술을 하는 경우, 사용자에게 주의를 줄 수 있는 제 2 음향을 출력하도록 음향 출력부(1500)를 제어할 수 있다. 다만, 이에 한정되는 것은 아니다.As another example, the controller 1200 may control the sound output unit 1500 to output a preset second sound when it is recognized that the treatment apparatus 3000 exists on the first area where the treatment is completed by analyzing the image. can That is, the controller 1200 may control the sound output unit 1500 to output a second sound that can give attention to the user when the user performs a treatment on a site where the treatment has already been completed. However, the present invention is not limited thereto.
상술한 구성에 따르면, 시술 영상 표시 장치(1000)의 제어부(1200)는 환자의 시술 부위, 제 1 영역 및 제 2 영역을 인식할 수 있다. 그리고, 제어부(1200)는 사용자가 시술 부위가 아닌 부위에 시술을 수행하거나 또는 이미 시술을 수행한 영역에 중복하여 시술하는 경우, 사용자의 주의를 환기시키도록 음향 출력부(1500)를 통해 기 설정된 음향을 출력할 수 있다.According to the above configuration, the control unit 1200 of the treatment image display apparatus 1000 may recognize the treatment site, the first area, and the second area of the patient. In addition, the control unit 1200 is preset through the sound output unit 1500 so as to draw the user's attention when the user performs a procedure on a site other than the treatment site or overlaps the area where the treatment has been performed. It can output sound.
한편, 본 개시에서 시술 영상 표시 장치(1000)의 제어부(1200)는 환자의 시술 부위에서 시술 장치(3000)가 위치하고 있는 영역을 인식할 수 있다. 이하, 도 3을 통해 제어부(1200)가 시술 장치(3000)가 위치하고 있는 영역을 인식하는 방법에 대해 설명한다.Meanwhile, in the present disclosure, the controller 1200 of the treatment image display apparatus 1000 may recognize a region in which the treatment apparatus 3000 is located in the treatment area of the patient. Hereinafter, a method for the controller 1200 to recognize the region in which the treatment device 3000 is located will be described with reference to FIG. 3 .
도 3은 본 개시의 몇몇 실시예에 따른 제어부가 시술 장치가 위치하고 있는 영역을 인식하는 방법의 일례를 설명하기 위한 도면이다.3 is a view for explaining an example of a method for a controller to recognize a region in which a treatment device is located, according to some embodiments of the present disclosure.
도 3을 참조하면, 시술 장치(3000)는 환자의 시술 부위의 일 영역에 위치할 수 있다. 이 경우, 제어부(1200)는 촬영부(1100)를 통해 시술 장치(3000)와 환자의 시술 부위가 포함된 영상을 획득할 수 있다. 그리고, 제어부(1200)는 시술 장치(3000)가 기 설정된 시간 이상 일 영역에 위치한다고 인식한 경우, 상기 일 영역을 시술이 완료된 제 1 영역(100)이라고 인식할 수 있다. 다만, 이에 한정되는 것은 아니다.Referring to FIG. 3 , the treatment device 3000 may be located in one region of the treatment site of the patient. In this case, the controller 1200 may acquire an image including the treatment device 3000 and the treatment area of the patient through the photographing unit 1100 . In addition, when recognizing that the treatment apparatus 3000 is located in one area for more than a preset time, the controller 1200 may recognize the one area as the first area 100 in which the treatment has been completed. However, the present invention is not limited thereto.
일례로, 제어부(1200)는 시술 장치(3000)가 시술 영상 표시 장치(1000)와 전기적으로 연결된 시술 장치(3000)인 경우, 시술 장치(3000)에서 발생한 에너지 발생 신호를 모니터링할 수 있다. 그리고, 제어부(1200)는 에너지 발생 신호가 발생한 시점에 시술 장치(3000)가 위치한 영역을 제 1 영역(100)으로 인식할 수도 있다.For example, when the treatment device 3000 is the treatment device 3000 electrically connected to the treatment image display device 1000 , the controller 1200 may monitor an energy generation signal generated by the treatment device 3000 . Also, the controller 1200 may recognize the region in which the treatment apparatus 3000 is located as the first region 100 at the time when the energy generation signal is generated.
한편, 제어부(1200)는 제 1 영역(100)을 인식하기 이전에 제 2 영역(200)을 인식할 수도 있다.Meanwhile, the controller 1200 may recognize the second region 200 before recognizing the first region 100 .
구체적으로, 제어부(1200)는 사용자 입력부(1400)를 통해 시술 부위 정보가 입력된 경우, 시술 부위 입력 정보에 기초하여 영상 내에서 시술 부위를 인식할 수 있다. 그리고, 제어부(1200)는 시술 부위 전체 영역을 제 2 영역(200)이라고 인식할 수 있다. 이 경우, 제어부(1200)는 시술 부위 전체 영역을 제 2 영역(200)으로 표시할 수 있다. 다만, 이에 한정되는 것은 아니다.Specifically, when information on the treatment area is input through the user input unit 1400 , the controller 1200 may recognize the treatment site in the image based on the treatment area input information. In addition, the controller 1200 may recognize the entire area of the treatment area as the second area 200 . In this case, the controller 1200 may display the entire area of the treatment area as the second area 200 . However, the present invention is not limited thereto.
한편, 본 개시의 몇몇 실시예에 따르면, 시술 영상 표시 장치(1000)의 제어부(1200)는 시술 장치(3000)가 시술 부위를 벗어난 부분에 위치한다고 인식한 경우, 기 설정된 제 1 음향을 출력하도록 음향 출력부(1500)를 제어할 수 있다.Meanwhile, according to some embodiments of the present disclosure, the controller 1200 of the treatment image display apparatus 1000 outputs a preset first sound when recognizing that the treatment apparatus 3000 is located outside the treatment site. The sound output unit 1500 may be controlled.
예를 들어, 시술 부위는 코, 눈, 입 및 귀를 제외한 부위일 수 있다. 그리고, 제어부(1200)는 시술 장치(3000)가 시술 부위를 벗어난 부분, 즉 눈, 코, 입 또는 귀에 위치한다고 인식한 경우, 기 설정된 제 1 음향을 출력하도록 음향 출력부(1500)를 제어할 수 있다.For example, the treatment site may be a region other than the nose, eyes, mouth, and ears. Then, when the controller 1200 recognizes that the treatment device 3000 is located outside the treatment site, that is, the eye, nose, mouth, or ear, the control unit 1200 may control the sound output unit 1500 to output a preset first sound. can
다만, 이에 한정되는 것은 아니고, 제어부(1200)는 영상을 분석하여 시술 장치(3000)가 시술 부위를 벗어난 부분에 위치한다고 인식한 경우, 시술을 중지시키는 신호를 시술 장치(3000) 또는 시술 장치 제어기(3100)에 전송할 수도 있다.However, the present invention is not limited thereto, and when the controller 1200 analyzes the image and recognizes that the treatment device 3000 is located outside the treatment site, it sends a signal to stop the treatment to the treatment device 3000 or the treatment device controller. It may be transmitted to (3100).
한편, 본 개시의 몇몇 실시예에 따르면, 시술 영상 표시 장치(1000)의 제어부(1200)는 시술 장치(3000)가 제 1 영역(100) 상에 존재한다고 인식한 경우, 기 설정된 제 2 음향을 출력하도록 음향 출력부(1500)를 제어할 수도 있다.Meanwhile, according to some embodiments of the present disclosure, when the controller 1200 of the treatment image display apparatus 1000 recognizes that the treatment apparatus 3000 exists on the first area 100 , the controller 1200 generates a preset second sound. It is also possible to control the sound output unit 1500 to output.
일례로, 제어부(1200)는 영상을 분석하여 시술 장치(3000)가 제 1 영역(100) 상에 존재한다고 인식한 경우, 기 설정된 제 2 음향을 출력하도록 음향 출력부(1500)를 제어할 수 있다.As an example, the controller 1200 may control the sound output unit 1500 to output a preset second sound when it is recognized that the surgical device 3000 exists on the first region 100 by analyzing the image. have.
다른 일례로, 제어부(1200)는 시술 장치(3000)에서 발생한 에너지 발생 신호를 모니터링하여, 시술 장치(3000)가 제 1 영역(100) 상에 존재한다고 인식한 경우, 기 설정된 제 2 음향을 출력하도록 음향 출력부(1500)를 제어할 수 있다.As another example, the controller 1200 monitors an energy generation signal generated by the treatment device 3000 and outputs a preset second sound when recognizing that the treatment device 3000 exists on the first area 100 . The sound output unit 1500 may be controlled to do so.
또 다른 일례로, 제어부(1200)는 영상을 분석하여 시술 장치(3000)가 제 1 영역(100) 상에 존재한다고 인식한 경우, 시술을 중지시키는 신호를 시술 장치(3000) 또는 시술 장치 제어기(3100)에 전송할 수도 있다.As another example, when the controller 1200 analyzes the image and recognizes that the treatment device 3000 is present on the first region 100, the controller 1200 sends a signal to stop the treatment to the treatment device 3000 or the treatment device controller ( 3100) may be transmitted.
도 4는 본 개시의 몇몇 실시예에 따른 제어부가 제 1 영역과 제 2 영역을 다르게 표시하는 방법의 일례를 설명하기 위한 도면이다.4 is a diagram for describing an example of a method in which a control unit displays a first area and a second area differently according to some embodiments of the present disclosure;
도 4를 참조하면, 시술 영상 표시 장치(1000)의 제어부(1200)가 디스플레이부(1300)를 통해 디스플레이중인 영상에는 제 1 영역(100)과 제 2 영역(200)이 다르게 표시되고 있을 수 있다.Referring to FIG. 4 , the first region 100 and the second region 200 may be displayed differently in the image being displayed by the controller 1200 of the treatment image display device 1000 through the display unit 1300 . .
예를 들어, 디스플레이부(130a)는 제 1 영역(100)을 기 설정된 색으로 표시할 수 있다. 그리고, 디스플레이부(1300)는 제 2 영역(200)을 제 1 영역(100)과 다른 색으로 표시할 수 있다. 다만, 이에 한정되는 것은 아니고, 디스플레이부(1300)는 제 2 영역(200)의 테두리만 표시하고 내부에는 아무런 표시를 하지 않을 수도 있다.For example, the display 130a may display the first area 100 in a preset color. Also, the display unit 1300 may display the second area 200 in a color different from that of the first area 100 . However, the present invention is not limited thereto, and the display unit 1300 may display only the edge of the second region 200 and may not display any inside.
한편, 본 개시의 몇몇 실시예에 따르면, 제어부(1200)는 시술 장치(3000)가 시술 부위 내에서 특정 영역에 머무른 시간에 기초하여, 제 1 영역(100)의 색상을 변화시킬 수 있다.Meanwhile, according to some embodiments of the present disclosure, the controller 1200 may change the color of the first area 100 based on the time the treatment apparatus 3000 stays in the specific area within the treatment site.
구체적으로, 시술 영상 표시 장치(1000)의 제어부(1200)는 시술 장치(3000)가 시술 부위 내에서 위치하고 있는 시간을 인식할 수 있다. 그리고, 제어부(1200)는 시술 장치(3000)가 시술 부위 내에서 제 1 시간 이내로 머물렀다고 인식한 경우, 제 1 영역(100)을 주황색으로 표시할 수 있다. 또한, 제어부(1200)는 시술 장치(3000)가 제 1 시간 이상 머물렀다고 인식한 경우, 제 1 영역(100)을 빨간색으로 표시할 수 있다. 다만, 제어부(1200)가 제 1 영역(100)에 변화를 주는 방법은 이에 한정되는 것은 아니다.Specifically, the control unit 1200 of the treatment image display apparatus 1000 may recognize the time at which the treatment apparatus 3000 is located in the treatment site. In addition, when recognizing that the treatment apparatus 3000 stayed within the first time within the treatment site, the controller 1200 may display the first area 100 in orange. Also, when recognizing that the treatment apparatus 3000 has stayed for more than the first time, the controller 1200 may display the first area 100 in red. However, the method in which the control unit 1200 changes the first region 100 is not limited thereto.
따라서, 사용자는 초음파 시술과 같이 일정 시간 이상 환자의 환부에 초음파를 조사해야 하는 시술에 있어서, 시술의 효과가 나타나기 충분한 시간 동안 시술이 진행되었는지 여부를 인식할 수 있다. 다만, 이에 한정되는 것은 아니다.Accordingly, in a procedure in which ultrasound is irradiated to the affected part of a patient for a certain period of time or more, such as an ultrasound procedure, the user may recognize whether the procedure has been performed for a sufficient time for the effect of the procedure to appear. However, the present invention is not limited thereto.
한편, 본 개시의 몇몇 실시예에 따르면, 시술 영상 표시 장치(1000)의 제어부(1200)는 시술 부위 전체에 대한 시술이 완료된 경우, 기 설정된 제 3 음향을 출력하도록 음향 출력부(1500)를 제어할 수도 있다.Meanwhile, according to some embodiments of the present disclosure, the controller 1200 of the treatment image display apparatus 1000 controls the sound output unit 1500 to output a preset third sound when the treatment on the entire treatment area is completed. You may.
구체적으로, 제어부(1200)는 사용자가 시술 부위 전체에 대한 시술을 완료했는지 여부를 인식할 수 있다. 그리고, 제어부(1200)는 시술 부위 전체에 대한 시술을 완료했다고 인식한 경우, 기 설정된 제 3 음향을 출력하도록 음향 출력부(1500)를 제어할 수 있다. 따라서, 사용자는 시술이 완료되었는지 여부를 쉽게 인지할 수 있다.Specifically, the controller 1200 may recognize whether the user has completed the treatment for the entire treatment area. In addition, when recognizing that the treatment for the entire treatment area has been completed, the controller 1200 may control the sound output unit 1500 to output a preset third sound. Accordingly, the user can easily recognize whether the procedure has been completed.
한편, 본 개시의 다른 몇몇 실시예에 따르면, 시술 영상 표시 장치(1000)의 제어부(1200)는 전원이 종료되기 전에 시술 부위 전체에 대한 시술이 완료되지 않은 경우 기 설정된 제 4 음향을 출력하도록 음향 출력부(1500)를 제어할 수도 있다.Meanwhile, according to some other exemplary embodiments of the present disclosure, the controller 1200 of the treatment image display apparatus 1000 outputs a preset fourth sound when the treatment on the entire treatment area is not completed before the power is turned off. The output unit 1500 may be controlled.
구체적으로, 제어부(1200)는 시술 장치(3000)의 전원을 종료하는 입력이 입력된 경우, 시술 부위 전체에 대한 시술이 완료되었는지 여부를 인식할 수 있다. 그리고, 제어부(1200)는 시술 부위 전체에 대한 시술이 완료되지 않았다고 인식한 경우(예를 들어, 영상에서 제 2 영역(200)이 존재하는 경우), 기 설정된 제 4 음향을 출력하도록 음향 출력부(1500)를 제어할 수도 있다. 다만, 이에 한정되는 것은 아니다.Specifically, when an input for terminating the power of the treatment apparatus 3000 is input, the controller 1200 may recognize whether the treatment for the entire treatment area has been completed. In addition, when the controller 1200 recognizes that the treatment on the entire treatment area is not completed (eg, when the second region 200 exists in the image), the control unit 1200 outputs a preset fourth sound to the sound output unit. (1500) may be controlled. However, the present invention is not limited thereto.
한편, 본 개시의 몇몇 실시예에 따르면, 시술 영상 표시 장치(1000)의 제어부(1200)는 제 2 영역(200)의 적어도 일부 영역에 하이라이트 표시를 할 수도 있다.On the other hand, according to some embodiments of the present disclosure, the controller 1200 of the treatment image display apparatus 1000 may highlight at least a partial area of the second area 200 .
구체적으로, 제어부(1200)는 시술 장치(3000)의 전원을 종료하는 입력이 입력된 경우, 시술 부위 전체에 대한 시술이 완료되었는지 여부를 인식할 수 있다. 그리고, 제어부(1200)는 시술 부위 전체에 대한 시술이 완료되지 않았다고 인식한 경우(예를 들어, 영상에서 제 2 영역(200)이 존재하는 경우), 제 2 영역(200) 상에 하이라이트를 표시하도록 디스플레이부(1300)를 제어할 수 있다. 다만, 이에 한정되는 것은 아니고, 제어부(1200)는 제 3 음향을 출력하는 것과 연동하여 시술이 완료되지 않은 제 2 영역(200) 상에 하이라이트 표시를 수행할 수도 있다.Specifically, when an input for terminating the power of the treatment apparatus 3000 is input, the controller 1200 may recognize whether the treatment for the entire treatment area has been completed. Then, when recognizing that the treatment on the entire treatment area is not completed (eg, when the second area 200 exists in the image), the controller 1200 displays a highlight on the second area 200 . The display unit 1300 may be controlled to do so. However, the present invention is not limited thereto, and the controller 1200 may perform a highlight display on the second region 200 in which the treatment is not completed in conjunction with outputting the third sound.
상술한 구성에 따르면, 시술 영상 표시 장치(1000)의 제어부(1200)는 영상에서 제 1 영역(100)과 제 2 영역(200)을 다르게 표시할 수 있다. 따라서, 사용자는 시술이 완료된 영역과 시술이 완료되지 않은 영역을 쉽게 구분할 수 있다.According to the above configuration, the controller 1200 of the treatment image display apparatus 1000 may display the first region 100 and the second region 200 differently in the image. Accordingly, the user can easily distinguish the area where the treatment is completed and the area where the treatment is not completed.
한편, 본 개시에서 제어부(1200)가 제 1 영역(100)과 제 2 영역(200)을 다르게 표시하는 방법의 일례를 도 5를 통해 설명한다.Meanwhile, in the present disclosure, an example of a method in which the controller 1200 displays the first region 100 and the second region 200 differently will be described with reference to FIG. 5 .
도 5는 본 개시의 몇몇 실시예에 따른 시술 영상 표시 장치의 제어부가 제 1 영역과 제 2 영역을 다르게 표시하도록 디스플레이부를 제어하는 방법의 일례를 설명하기 위한 흐름도이다.5 is a flowchart illustrating an example of a method in which the controller of the apparatus for displaying a procedure image according to some embodiments of the present disclosure controls the display unit to display a first area and a second area differently.
도 5를 참조하면, 시술 영상 표시 장치(1000)의 제어부(1200)는 촬영부(1100)를 통해 시술 장치(3000)와 환자의 시술 부위가 포함된 영상을 획득할 수 있다(S110).Referring to FIG. 5 , the control unit 1200 of the treatment image display apparatus 1000 may acquire an image including the treatment apparatus 3000 and the treatment area of the patient through the photographing unit 1100 ( S110 ).
이때, 제어부(1200)는 촬영부(1100)에 포함된 적어도 하나의 카메라를 통해 축면, 시상면 및 관상면이 포함된 적어도 하나의 영상 정보를 획득할 수 있다. 그리고, 제어부(1200)는 적어도 하나의 영상 정보에 기초하여, 입체 영상을 생성할 수 있다. 다만, 이에 한정되는 것은 아니다.In this case, the controller 1200 may acquire at least one image information including an axial plane, a sagittal plane, and a coronal plane through at least one camera included in the photographing unit 1100 . Also, the controller 1200 may generate a stereoscopic image based on at least one piece of image information. However, the present invention is not limited thereto.
한편, 시술 영상 표시 장치(1000)의 제어부(1200)는 영상을 분석하여 시술 부위 내에서 시술이 완료된 제 1 영역(100)과 시술이 완료되지 않은 제 2 영역(200)을 인식할 수 있다(S120).Meanwhile, the controller 1200 of the treatment image display apparatus 1000 may analyze the image to recognize the first area 100 where the treatment is completed and the second area 200 where the treatment is not completed within the treatment area ( S120).
예를 들어, 제어부(1200)는 시술 장치(3000)가 기 설정된 시간 이상 제 2 영역(200)의 적어도 일부 영역에 위치한다고 인식한 경우, 적어도 일부 영역은 시술이 완료된 제 1 영역(100)이라고 인식할 수 있다. 다만, 이에 한정되는 것은 아니다.For example, if the controller 1200 recognizes that the treatment apparatus 3000 is located in at least a partial area of the second area 200 for more than a preset time, the at least some area is the first area 100 in which the treatment is completed. can recognize However, the present invention is not limited thereto.
한편, 시술 영상 표시 장치(1000)의 제어부(1200)는 영상에 제 1 영역(100)과 제 2 영역(200)을 다르게 표시하도록 디스플레이부(1300)를 제어할 수 있다(S130).Meanwhile, the controller 1200 of the treatment image display apparatus 1000 may control the display unit 1300 to display the first region 100 and the second region 200 differently on the image (S130).
예를 들어, 제어부(1200)는 디스플레이부(1300)를 통해 제 1 영역(100)은 빗금 처리하여 표시할 수 있고, 제 2 영역(200)은 테두리만 표시할 수 있다. 다만, 이에 한정되는 것은 아니다.For example, the control unit 1200 may display the first area 100 by shading through the display unit 1300 , and may display only the border of the second area 200 . However, the present invention is not limited thereto.
도 6은 본 개시의 몇몇 실시예에 따른 시술 영상 표시 장치의 제어부가 제 1 영역과 제 2 영역을 인식하는 방법의 일례를 설명하기 위한 흐름도이다.6 is a flowchart illustrating an example of a method in which a controller of a treatment image display apparatus recognizes a first area and a second area according to some embodiments of the present disclosure.
도 6을 참조하면, 시술 영상 표시 장치(1000)의 제어부(1200)는 영상을 분석하여 시술 장치(3000)의 위치에 대한 위치 정보를 인식할 수 있다(S200).Referring to FIG. 6 , the controller 1200 of the treatment image display apparatus 1000 may analyze the image to recognize location information on the location of the treatment apparatus 3000 ( S200 ).
예를 들어, 제어부(1200)는 영상을 분석하여 시술 장치(3000)가 사용자의 안면의 적어도 일부분에 위치하고 있다는 위치 정보를 인식할 수 있다. 다만, 이에 한정되는 것은 아니다.For example, the controller 1200 may analyze the image to recognize location information indicating that the treatment apparatus 3000 is located on at least a portion of the user's face. However, the present invention is not limited thereto.
한편, 본 개시의 몇몇 실시예에 따르면, 시술 영상 표시 장치(1000)의 제어부(1200)는 시술 장치(3000)의 위치 정보를 인식하기 이전 또는 이후에, 사용자 입력부(1400)를 통해 사용자로부터 시술 부위 정보를 입력 받을 수 있다.On the other hand, according to some embodiments of the present disclosure, the control unit 1200 of the treatment image display device 1000 before or after recognizing the location information of the treatment device 3000, the user through the user input unit 1400 You can input part information.
그리고, 시술 영상 표시 장치(1000)의 제어부(1200)는 위치 정보 및 시술 부위 정보에 기초하여 상기 제 1 영역(100)과 상기 제 2 영역(200)을 인식할 수 있다(S210).In addition, the controller 1200 of the treatment image display apparatus 1000 may recognize the first area 100 and the second area 200 based on the location information and the treatment site information (S210).
일례로, 제어부(1200)는 위치 정보에 기초하여, 시술 장치(3000)가 위치한 영역을 제 1 영역(100)이라고 인식할 수 있다. 또한, 제어부(1200)는 위치 정보에 기초하여, 시술 장치(3000)가 기 설정된 시간 이상 머물렀던 영역도 제 1 영역(100)이라고 인식할 수 있다. 그리고, 제어부(1200)는 제 1 영역(100)을 제외한 영역은 제 2 영역(200)이라고 인식할 수 있다.For example, the controller 1200 may recognize the area in which the treatment apparatus 3000 is located as the first area 100 based on the location information. Also, based on the location information, the controller 1200 may recognize that an area in which the treatment apparatus 3000 has stayed for more than a preset time is also the first area 100 . In addition, the controller 1200 may recognize that the area other than the first area 100 is the second area 200 .
한편, 제어부(1200)는 촬영부(1100)를 통해 촬영된 영상을 분석하여, 제 2 영역(200)으로 인식된 부분 중 적어도 일부 영역에 시술 장치(3000)가 지나갔다고 인식한 경우(또는 상기 적어도 일부 영역 상에 시술 장치(3000)가 기 설정된 시간 이상 머물렀다고 인식한 경우), 상기 적어도 일부 영역이 시술이 완료되지 않은 제 2 영역(200)에서 시술이 완료된 제 1 영역(100)으로 변경될 수 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, when the controller 1200 analyzes the image captured by the photographing unit 1100 and recognizes that the surgical device 3000 has passed through at least some of the portions recognized as the second area 200 (or the When it is recognized that the treatment apparatus 3000 stayed on at least a partial area for more than a preset time), the at least partial area is changed from the second area 200 in which the treatment is not completed to the first area 100 in which the treatment is completed can be However, the present invention is not limited thereto.
도 7은 본 개시의 몇몇 실시예에 따른 시술 영상 표시 장치의 제어부가 제 1 영역을 인식하는 방법의 다른 일례를 설명하기 위한 흐름도이다.7 is a flowchart illustrating another example of a method in which a controller of a treatment image display apparatus recognizes a first area according to some embodiments of the present disclosure.
도 7을 참조하면, 시술 영상 표시 장치(1000)의 제어부(1200)는 시술 장치(3000)가 시술 영상 표시 장치(1000)와 전기적으로 연결된 시술 장치인 경우, 시술 장치(3000)에서 발생한 에너지 발생 신호를 모니터링할 수 있다(S300).Referring to FIG. 7 , the controller 1200 of the treatment image display device 1000 generates energy generated in the treatment device 3000 when the treatment device 3000 is a treatment device electrically connected to the treatment image display device 1000 . It is possible to monitor the signal (S300).
구체적으로, 시술 장치(3000)에 구비된 버튼을 통해 시술 장치(3000)가 동작되는 경우, 시술 장치(3000)를 통해 시술이 진행될 때 에너지 발생 신호가 발생될 수 있다. 그리고, 제어부(1200)는 시술 장치(3000)에서 발생하는 에너지 발생 신호를 모니터링 하여, 에너지 발생 신호가 발생했는지 여부를 인식할 수 있다. 다만, 이에 한정되는 것은 아니다.Specifically, when the treatment device 3000 is operated through a button provided in the treatment device 3000 , an energy generation signal may be generated when the treatment is performed through the treatment device 3000 . In addition, the control unit 1200 may monitor the energy generation signal generated by the treatment device 3000 to recognize whether the energy generation signal has been generated. However, the present invention is not limited thereto.
한편, 시술 영상 표시 장치(1000)의 제어부(1200)는 에너지 발생 신호가 발생한 시점에 시술 장치(3000)가 위치한 영역을 제 1 영역(100)으로 인식할 수 있다(S310).Meanwhile, the controller 1200 of the treatment image display apparatus 1000 may recognize the area in which the treatment apparatus 3000 is located as the first area 100 at the time when the energy generation signal is generated ( S310 ).
구체적으로, 제어부(1200)는 에너지 발생 신호가 발생한 시점에 촬영부(1100)를 통해 촬영된 영상을 분석하여 시술 장치(3000)가 위치하는 영역을 인식할 수 있다. 그리고, 제어부(1200)는 에너지 발생 신호가 발생한 시점에 시술 장치(3000)가 위치한 영역을 시술이 완료된 제 1 영역(100)으로 인식할 수 있다. 다만, 이에 한정되는 것은 아니다.Specifically, the controller 1200 may recognize an area in which the treatment apparatus 3000 is located by analyzing an image captured by the photographing unit 1100 at the time when the energy generation signal is generated. In addition, the controller 1200 may recognize the area in which the treatment apparatus 3000 is located at the time when the energy generation signal is generated as the first area 100 in which the treatment is completed. However, the present invention is not limited thereto.
한편, 초음파 시술의 경우, 같은 부위에 반복하여 시술이 수행되어야 할 수도 있다. 이 경우, 제어부(1200)는 에너지 발생 신호가 발생한 시점에 촬영부(1100)를 통해 촬영된 영상을 분석하여 시술 장치(3000)가 위치하는 영역을 인식할 수 있다. 제어부(1200)는 시술 부위 내의 전체 영역 내에서 에너지 발생 신호가 발생한 지점과 해당 지점에서 에너지 발생 신호가 발생한 횟수를 저장부에 저장할 수 있다. 그리고, 제어부(1200)는 시술 부위 내의 전체 영역 내에서 에너지 발생 신호가 기 설정된 횟수만큼 발생된 지점을 시술이 완료된 제 1 영역(100)이라고 인식할 수도 있다. 다만, 이에 한정되는 것은 아니다.On the other hand, in the case of ultrasound treatment, the procedure may have to be repeatedly performed on the same site. In this case, the control unit 1200 may analyze the image captured by the photographing unit 1100 at the time when the energy generation signal is generated to recognize the region in which the treatment apparatus 3000 is located. The controller 1200 may store, in the storage unit, a point at which an energy generating signal is generated and the number of times at which an energy generating signal is generated at the corresponding point within the entire area within the treatment site. Also, the controller 1200 may recognize a point at which an energy generation signal is generated a preset number of times within the entire area within the treatment area as the first area 100 where the treatment is completed. However, the present invention is not limited thereto.
상술한 구성에 따르면, 시술 영상 표시 장치(1000)의 제어부(1200)는 시술 장치(3000)의 종류와 관계없이, 환자의 시술 부위 내에서 시술 장치(3000)가 위치하는 영역을 인식할 수 있다. 그리고, 제어부(1200)는 디스플레이부(1300)를 통해 시술이 완료된 영역과 시술이 완료되지 않은 영역을 다르게 표시할 수 있다. 따라서, 상술한 몇몇 실시예 중 적어도 하나에 따르면, 사용자가 환자의 시술 부위에 중복하여 시술을 수행하는 것을 방지할 수 있고, 사용자가 특정 부위에 대한 시술을 누락하는 것도 방지할 수 있다.According to the above-described configuration, the controller 1200 of the treatment image display apparatus 1000 may recognize a region in which the treatment apparatus 3000 is located within the treatment site of the patient, regardless of the type of the treatment apparatus 3000 . . In addition, the controller 1200 may differently display an area in which the treatment is completed and an area in which the treatment is not completed through the display unit 1300 . Therefore, according to at least one of the several embodiments described above, it is possible to prevent the user from performing a procedure overlapping the treatment site of the patient, and it is also possible to prevent the user from omitting the treatment for a specific site.
도 8은 본 개시내용의 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 일반적인 개략도를 도시한다.8 depicts a general schematic diagram of an exemplary computing environment in which embodiments of the present disclosure may be implemented.
본 개시내용이 일반적으로 하나 이상의 컴퓨터 상에서 실행될 수 있는 컴퓨터 실행가능 명령어와 관련하여 전술되었지만, 당업자라면 본 개시내용 기타 프로그램 모듈들과 결합되어 및/또는 하드웨어와 소프트웨어의 조합으로서 구현될 수 있다는 것을 잘 알 것이다.Although the present disclosure has been described above generally in the context of computer-executable instructions that may be executed on one or more computers, those skilled in the art will appreciate that the present disclosure may be implemented as a combination of hardware and software and/or in combination with other program modules. you will know
일반적으로, 본 명세서에서의 모듈은 특정의 태스크를 수행하거나 특정의 추상 데이터 유형을 구현하는 루틴, 프로시져, 프로그램, 컴포넌트, 데이터 구조, 기타 등등을 포함한다. 또한, 당업자라면 본 개시의 방법이 단일-프로세서 또는 멀티프로세서 컴퓨터 시스템, 미니컴퓨터, 메인프레임 컴퓨터는 물론 퍼스널 컴퓨터, 핸드헬드 컴퓨팅 장치, 마이크로프로세서-기반 또는 프로그램가능 가전 제품, 기타 등등(이들 각각은 하나 이상의 연관된 장치와 연결되어 동작할 수 있음)을 비롯한 다른 컴퓨터 시스템 구성으로 실시될 수 있다는 것을 잘 알 것이다.Generally, modules herein include routines, procedures, programs, components, data structures, etc. that perform particular tasks or implement particular abstract data types. In addition, those skilled in the art will appreciate that the methods of the present disclosure are suitable for single-processor or multiprocessor computer systems, minicomputers, mainframe computers as well as personal computers, handheld computing devices, microprocessor-based or programmable consumer electronics, etc. (each of which is It will be appreciated that other computer system configurations may be implemented, including those that may operate in connection with one or more associated devices.
본 개시의 설명된 실시예들은 또한 어떤 태스크들이 통신 네트워크를 통해 연결되어 있는 원격 처리 장치들에 의해 수행되는 분산 컴퓨팅 환경에서 실시될 수 있다. 분산 컴퓨팅 환경에서, 프로그램 모듈은 로컬 및 원격 메모리 저장 장치 둘다에 위치할 수 있다.The described embodiments of the present disclosure may also be practiced in distributed computing environments where certain tasks are performed by remote processing devices that are linked through a communications network. In a distributed computing environment, program modules may be located in both local and remote memory storage devices.
컴퓨터는 통상적으로 다양한컴퓨터 판독가능 매체를 포함한다. 컴퓨터에 의해 액세스 가능한 매체 로서, 휘발성 및 비휘발성 매체, 일시적(transitory) 및 비일시적(non-transitory) 매체, 이동식 및 비-이동식 매체를 포함한다. 제한이 아닌 예로서, 컴퓨터 판독가능 매체는 컴퓨터 판독가능 저장 매체 및 컴퓨터 판독가능 전송 매체를 포함할 수 있다. Computers typically include a variety of computer-readable media. Media accessible by a computer includes volatile and nonvolatile media, transitory and non-transitory media, removable and non-removable media. By way of example, and not limitation, computer-readable media may include computer-readable storage media and computer-readable transmission media.
컴퓨터 판독가능 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보를 저장하는 임의의 방법 또는 기술로 구현되는 휘발성 및 비휘발성 매체, 일시적 및 비-일시적 매체, 이동식 및 비이동식 매체를 포함한다. 컴퓨터 판독가능 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 기타 메모리 기술, CD-ROM, DVD(digital video disk) 또는 기타 광 디스크 저장 장치, 자기 카세트, 자기 테이프, 자기 디스크 저장 장치 또는 기타 자기 저장 장치, 또는 컴퓨터에 의해 액세스될 수 있고 원하는 정보를 저장하는 데 사용될 수 있는 임의의 기타 매체를 포함하지만, 이에 한정되지 않는다.Computer-readable storage media includes volatile and non-volatile media, transitory and non-transitory media, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. includes media. A computer-readable storage medium may be RAM, ROM, EEPROM, flash memory or other memory technology, CD-ROM, digital video disk (DVD) or other optical disk storage device, magnetic cassette, magnetic tape, magnetic disk storage device, or other magnetic storage device. device, or any other medium that can be accessed by a computer and used to store the desired information.
컴퓨터 판독가능 전송 매체는 통상적으로 반송파(carrier wave) 또는 기타 전송 메커니즘(transport mechanism)과 같은 피변조 데이터 신호(modulated data signal)에 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터등을 구현하고 모든 정보 전달 매체를 포함한다. 피변조 데이터 신호라는 용어는 신호 내에 정보를 인코딩하도록 그 신호의 특성들 중 하나 이상을 설정 또는 변경시킨 신호를 의미한다. 제한이 아닌 예로서, 컴퓨터 판독가능 전송 매체는 유선 네트워크 또는 직접 배선 접속(direct-wired connection)과 같은 유선 매체, 그리고 음향, RF, 적외선, 기타 무선 매체와 같은 무선 매체를 포함한다. 상술된 매체들 중 임의의 것의 조합도 역시 컴퓨터 판독가능 전송 매체의 범위 안에 포함되는 것으로 한다.Computer readable transmission media typically embodies computer readable instructions, data structures, program modules or other data in a modulated data signal, such as a carrier wave or other transport mechanism, and the like. Includes any information delivery medium. The term modulated data signal means a signal in which one or more of the characteristics of the signal is set or changed so as to encode information in the signal. By way of example, and not limitation, computer-readable transmission media includes wired media such as a wired network or direct-wired connection, and wireless media such as acoustic, RF, infrared, and other wireless media. Combinations of any of the above are also intended to be included within the scope of computer-readable transmission media.
컴퓨터(2002)를 포함하는 본 개시의 여러가지 측면들을 구현하는 예시적인 환경이 나타내어져 있으며, 컴퓨터(2002)는 처리 장치(2004), 시스템 메모리(2006) 및 시스템 버스(2008)를 포함한다. 시스템 버스(2008)는 시스템 메모리(2006)(이에 한정되지 않음)를 비롯한 시스템 컴포넌트들을 처리 장치(2004)에 연결시킨다. 처리 장치(2004)는 다양한 상용 프로세서들 중 임의의 프로세서일 수 있다. 듀얼 프로세서 및 기타 멀티프로세서 아키텍처도 역시 처리 장치(2004)로서 이용될 수 있다.An exemplary environment for implementing various aspects of the present disclosure is shown including a computer 2002 , which includes a processing unit 2004 , a system memory 2006 , and a system bus 2008 . System bus 2008 connects system components, including but not limited to system memory 2006 , to processing device 2004 . The processing device 2004 may be any of a variety of commercially available processors. Dual processor and other multiprocessor architectures may also be used as processing unit 2004 .
시스템 버스(2008)는 메모리 버스, 주변장치 버스, 및 다양한 상용 버스 아키텍처 중 임의의 것을 사용하는 로컬 버스에 추가적으로 상호 연결될 수 있는 몇 가지 유형의 버스 구조 중 임의의 것일 수 있다. 시스템 메모리(2006)는 판독 전용 메모리(ROM)(2010) 및 랜덤 액세스 메모리(RAM)(2012)를 포함한다. 기본 입/출력 시스템(BIOS)은 ROM, EPROM, EEPROM 등의 비휘발성 메모리(2010)에 저장되며, 이 BIOS는 시동 중과 같은 때에 컴퓨터(2002) 내의 구성요소들 간에 정보를 전송하는 일을 돕는 기본적인 루틴을 포함한다. RAM(2012)은 또한 데이터를 캐싱하기 위한 정적 RAM 등의 고속 RAM을 포함할 수 있다.The system bus 2008 may be any of several types of bus structures that may be further interconnected to a memory bus, a peripheral bus, and a local bus using any of a variety of commercial bus architectures. System memory 2006 includes read only memory (ROM) 2010 and random access memory (RAM) 2012 . The Basic Input/Output System (BIOS) is stored in non-volatile memory 2010, such as ROM, EPROM, EEPROM, etc., which is the basic contains routines. RAM 2012 may also include high-speed RAM, such as static RAM, for caching data.
컴퓨터(2002)는 또한 내장형 하드 디스크 드라이브(HDD)(2014)(예를 들어, EIDE, SATA)-이 내장형 하드 디스크 드라이브(2014)는 또한 적당한 섀시(도시 생략) 내에서 외장형 용도로 구성될 수 있음-, 자기 플로피 디스크 드라이브(FDD)(2016)(예를 들어, 이동식 디스켓(2018)으로부터 판독을 하거나 그에 기록을 하기 위한 것임), 및 광 디스크 드라이브(2020)(예를 들어, CD-ROM 디스크(2022)를 판독하거나 DVD 등의 기타 고용량 광 매체로부터 판독을 하거나 그에 기록을 하기 위한 것임)를 포함한다. 하드 디스크 드라이브(2014), 자기 디스크 드라이브(2016) 및 광 디스크 드라이브(2020)는 각각 하드 디스크 드라이브 인터페이스(2024), 자기 디스크 드라이브 인터페이스(2026) 및 광 드라이브 인터페이스(2028)에 의해 시스템 버스(2008)에 연결될 수 있다. 외장형 드라이브 구현을 위한 인터페이스(2024)는 예를 들어, USB(Universal Serial Bus) 및 IEEE 1394 인터페이스 기술 중 적어도 하나 또는 그 둘 다를 포함한다.The computer 2002 may also include an internal hard disk drive (HDD) 2014 (eg, EIDE, SATA) - this internal hard disk drive 2014 may also be configured for external use within a suitable chassis (not shown). Yes-, magnetic floppy disk drive (FDD) 2016 (eg, for reading from or writing to removable diskette 2018), and optical disk drive 2020 (eg CD-ROM) for reading from, or writing to, disk 2022 or other high capacity optical media such as DVDs. The hard disk drive 2014, the magnetic disk drive 2016, and the optical disk drive 2020 are connected to the system bus 2008 by the hard disk drive interface 2024, the magnetic disk drive interface 2026, and the optical drive interface 2028, respectively. ) can be connected to The interface 2024 for external drive implementation includes, for example, at least one or both of Universal Serial Bus (USB) and IEEE 1394 interface technologies.
이들 드라이브 및 그와 연관된 컴퓨터 판독가능 매체는 데이터, 데이터 구조, 컴퓨터 실행가능 명령어, 기타 등등의 비휘발성 저장을 제공한다. 컴퓨터(2002)의 경우, 드라이브 및 매체는 임의의 데이터를 적당한 디지털 형식으로 저장하는 것에 대응한다. 상기에서의 컴퓨터 판독가능 저장 매체에 대한 설명이 HDD, 이동식 자기 디스크, 및 CD 또는 DVD 등의 이동식 광 매체를 언급하고 있지만, 당업자라면 집 드라이브(zip drive), 자기 카세트, 플래쉬 메모리 카드, 카트리지, 기타 등등의 컴퓨터에 의해 판독가능한 다른 유형의 저장 매체도 역시 예시적인 운영 환경에서 사용될 수 있으며 또 임의의 이러한 매체가 본 개시의 방법들을 수행하기 위한 컴퓨터 실행가능 명령어를 포함할 수 있다는 것을 잘 알 것이다.These drives and their associated computer-readable media provide non-volatile storage of data, data structures, computer-executable instructions, and the like. For computer 2002, drives and media correspond to storing any data in a suitable digital format. Although the description of computer readable storage media above refers to HDDs, removable magnetic disks, and removable optical media such as CDs or DVDs, those skilled in the art will use zip drives, magnetic cassettes, flash memory cards, cartridges, It will be appreciated that other tangible computer-readable storage media and the like may also be used in the exemplary operating environment and any such media may include computer-executable instructions for performing the methods of the present disclosure. .
운영 체제(2030), 하나 이상의 애플리케이션 프로그램(2032), 기타 프로그램 모듈(2034) 및 프로그램 데이터(2036)를 비롯한 다수의 프로그램 모듈이 드라이브 및 RAM(2012)에 저장될 수 있다. 운영 체제, 애플리케이션, 모듈 및/또는 데이터의 전부 또는 그 일부분이 또한 RAM(2012)에 캐싱될 수 있다. 본 개시가 여러가지 상업적으로 이용가능한 운영 체제 또는 운영 체제들의 조합에서 구현될 수 있다는 것을 잘 알 것이다.A number of program modules may be stored in drives and RAM 2012 , including operating system 2030 , one or more application programs 2032 , other program modules 2034 , and program data 2036 . All or portions of the operating system, applications, modules and/or data may also be cached in RAM 2012 . It will be appreciated that the present disclosure may be implemented in various commercially available operating systems or combinations of operating systems.
사용자는 하나 이상의 유선/무선 입력 장치, 예를 들어, 키보드(2038) 및 마우스(2040) 등의 포인팅 장치를 통해 컴퓨터(2002)에 명령 및 정보를 입력할 수 있다. 기타 입력 장치(도시 생략)로는 마이크, IR 리모콘, 조이스틱, 게임 패드, 스타일러스 펜, 터치 스크린, 기타 등등이 있을 수 있다. 이들 및 기타 입력 장치가 종종 시스템 버스(2008)에 연결되어 있는 입력 장치 인터페이스(2042)를 통해 처리 장치(2004)에 연결되지만, 병렬 포트, IEEE 1394 직렬 포트, 게임 포트, USB 포트, IR 인터페이스, 기타 등등의 기타 인터페이스에 의해 연결될 수 있다.A user may enter commands and information into the computer 2002 through one or more wired/wireless input devices, for example, a pointing device such as a keyboard 2038 and a mouse 2040 . Other input devices (not shown) may include a microphone, IR remote control, joystick, game pad, stylus pen, touch screen, and the like. Although these and other input devices are connected to the processing unit 2004 via an input device interface 2042 that is often connected to the system bus 2008, parallel ports, IEEE 1394 serial ports, game ports, USB ports, IR interfaces, It may be connected by other interfaces, etc.
모니터(2044) 또는 다른 유형의 디스플레이 장치도 역시 비디오 어댑터(2046) 등의 인터페이스를 통해 시스템 버스(2008)에 연결된다. 모니터(2044)에 부가하여, 컴퓨터는 일반적으로 스피커, 프린터, 기타 등등의 기타 주변 출력 장치(도시 생략)를 포함한다.A monitor 2044 or other type of display device is also coupled to the system bus 2008 via an interface, such as a video adapter 2046 . In addition to the monitor 2044, the computer typically includes other peripheral output devices (not shown), such as speakers, printers, and the like.
컴퓨터(2002)는 유선 및/또는 무선 통신을 통한 원격 컴퓨터(들)(2048) 등의 하나 이상의 원격 컴퓨터로의 논리적 연결을 사용하여 네트워크화된 환경에서 동작할 수 있다. 원격 컴퓨터(들)(2048)는 워크스테이션, 서버 컴퓨터, 라우터, 퍼스널 컴퓨터, 휴대용 컴퓨터, 마이크로프로세서-기반 오락 기기, 피어 장치 또는 기타 통상의 네트워크 노드일 수 있으며, 일반적으로 컴퓨터(2002)에 대해 기술된 구성요소들 중 다수 또는 그 전부를 포함하지만, 간략함을 위해, 메모리 저장 장치(2050)만이 도시되어 있다. 도시되어 있는 논리적 연결은 근거리 통신망(LAN)(2052) 및/또는 더 큰 네트워크, 예를 들어, 원거리 통신망(WAN)(2054)에의 유선/무선 연결을 포함한다. 이러한 LAN 및 WAN 네트워킹 환경은 사무실 및 회사에서 일반적인 것이며, 인트라넷 등의 전사적 컴퓨터 네트워크(enterprise-wide computer network)를 용이하게 해주며, 이들 모두는 전세계 컴퓨터 네트워크, 예를 들어, 인터넷에 연결될 수 있다. Computer 2002 may operate in a networked environment using logical connections to one or more remote computers, such as remote computer(s) 2048 via wired and/or wireless communications. Remote computer(s) 2048 may be workstations, server computers, routers, personal computers, portable computers, microprocessor-based entertainment devices, peer devices, or other common network nodes, and are generally Although including many or all of the components described, only the memory storage device 2050 is shown for simplicity. The logical connections shown include wired/wireless connections to a local area network (LAN) 2052 and/or a larger network, eg, a wide area network (WAN) 2054 . Such LAN and WAN networking environments are common in offices and companies, and facilitate enterprise-wide computer networks, such as intranets, all of which can be connected to a worldwide computer network, for example, the Internet.
LAN 네트워킹 환경에서 사용될 때, 컴퓨터(2002)는 유선 및/또는 무선 통신 네트워크 인터페이스 또는 어댑터(2056)를 통해 로컬 네트워크(2052)에 연결된다. 어댑터(2056)는 LAN(2052)에의 유선 또는 무선 통신을 용이하게 해줄 수 있으며, 이 LAN(2052)은 또한 무선 어댑터(2056)와 통신하기 위해 그에 설치되어 있는 무선 액세스 포인트를 포함하고 있다. WAN 네트워킹 환경에서 사용될 때, 컴퓨터(2002)는 모뎀(2058)을 포함할 수 있거나, WAN(2054) 상의 통신 서버에 연결되거나, 또는 인터넷을 통하는 등, WAN(2054)을 통해 통신을 설정하는 기타 수단을 갖는다. 내장형 또는 외장형 및 유선 또는 무선 장치일 수 있는 모뎀(2058)은 직렬 포트 인터페이스(2042)를 통해 시스템 버스(2008)에 연결된다. 네트워크화된 환경에서, 컴퓨터(2002)에 대해 설명된 프로그램 모듈들 또는 그의 일부분이 원격 메모리/저장 장치(2050)에 저장될 수 있다. 도시된 네트워크 연결이 예시적인 것이며 컴퓨터들 사이에 통신 링크를 설정하는 기타 수단이 사용될 수 있다는 것을 잘 알 것이다.When used in a LAN networking environment, the computer 2002 is connected to the local network 2052 through a wired and/or wireless communication network interface or adapter 2056 . Adapter 2056 may facilitate wired or wireless communication to LAN 2052 , which also includes a wireless access point installed therein for communicating with wireless adapter 2056 . When used in a WAN networking environment, the computer 2002 may include a modem 2058 , connected to a communication server on the WAN 2054 , or otherwise establishing communications over the WAN 2054 , such as over the Internet. have the means Modem 2058 , which may be internal or external and a wired or wireless device, is connected to system bus 2008 via serial port interface 2042 . In a networked environment, program modules described for computer 2002 , or portions thereof, may be stored in remote memory/storage device 2050 . It will be appreciated that the network connections shown are exemplary and other means of establishing a communication link between the computers may be used.
컴퓨터(2002)는 무선 통신으로 배치되어 동작하는 임의의 무선 장치 또는 개체, 예를 들어, 프린터, 스캐너, 데스크톱 및/또는 휴대용 컴퓨터, PDA(portable data assistant), 통신 위성, 무선 검출가능 태그와 연관된 임의의 장비 또는 장소, 및 전화와 통신을 하는 동작을 한다. 이것은 적어도 Wi-Fi 및 블루투스 무선 기술을 포함한다. 따라서, 통신은 종래의 네트워크에서와 같이 미리 정의된 구조이거나 단순하게 적어도 2개의 장치 사이의 애드혹 통신(ad hoc communication)일 수 있다. Computer 2002 may be associated with any wireless device or object that is deployed and operates in wireless communication, for example, printers, scanners, desktop and/or portable computers, portable data assistants (PDAs), communications satellites, wireless detectable tags. It operates to communicate with any device or place, and phone. This includes at least Wi-Fi and Bluetooth wireless technologies. Accordingly, the communication may be a predefined structure as in a conventional network or may simply be an ad hoc communication between at least two devices.
Wi-Fi(Wireless Fidelity)는 유선 없이도 인터넷 등으로의 연결을 가능하게 해준다. Wi-Fi는 이러한 장치, 예를 들어, 컴퓨터가 실내에서 및 실외에서, 즉 기지국의 통화권 내의 아무 곳에서나 데이터를 전송 및 수신할 수 있게 해주는 셀 전화와 같은 무선 기술이다. Wi-Fi 네트워크는 안전하고 신뢰성 있으며 고속인 무선 연결을 제공하기 위해 IEEE 802.20(a,b,g, 기타)이라고 하는 무선 기술을 사용한다. 컴퓨터를 서로에, 인터넷에 및 유선 네트워크(IEEE 802.3 또는 이더넷을 사용함)에 연결시키기 위해 Wi-Fi가 사용될 수 있다. Wi-Fi 네트워크는 비인가 2.4 및 5 GHz 무선 대역에서, 예를 들어, 20Mbps(802.20a) 또는 54 Mbps(802.20b) 데이터 레이트로 동작하거나, 양 대역(듀얼 대역)을 포함하는 제품에서 동작할 수 있다.Wi-Fi (Wireless Fidelity) makes it possible to connect to the Internet, etc. without a wire. Wi-Fi is a wireless technology such as cell phones that allows these devices, eg, computers, to transmit and receive data indoors and outdoors, ie anywhere within range of a base station. Wi-Fi networks use a radio technology called IEEE 802.20 (a, b, g, etc.) to provide secure, reliable, and high-speed wireless connections. Wi-Fi can be used to connect computers to each other, to the Internet, and to wired networks (using IEEE 802.3 or Ethernet). Wi-Fi networks may operate in unlicensed 2.4 and 5 GHz radio bands, for example, at 20 Mbps (802.20a) or 54 Mbps (802.20b) data rates, or in products that include both bands (dual band). have.
본 개시의 기술 분야에서 통상의 지식을 가진 자는 여기에 개시된 실시예들과 관련하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 프로세서들, 수단들, 회로들 및 알고리즘 단계들이 전자 하드웨어, (편의를 위해, 여기에서 "소프트웨어"로 지칭되는) 다양한 형태들의 프로그램 또는 설계 코드 또는 이들 모두의 결합에 의해 구현될 수 있다는 것을 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 호환성을 명확하게 설명하기 위해, 다양한 예시적인 컴포넌트들, 블록들, 모듈들, 회로들 및 단계들이 이들의 기능과 관련하여 위에서 일반적으로 설명되었다. 이러한 기능이 하드웨어 또는 소프트웨어로서 구현되는지 여부는 특정한 애플리케이션 및 전체 시스템에 대하여 부과되는 설계 제약들에 따라 좌우된다. 본 개시의 기술 분야에서 통상의 지식을 가진 자는 각각의 특정한 애플리케이션에 대하여 다양한 방식들로 설명된 기능을 구현할 수 있으나, 이러한 구현 결정들은 본 개시의 범위를 벗어나는 것으로 해석되어서는 안 될 것이다.Those of ordinary skill in the art of the present disclosure will recognize that the various illustrative logical blocks, modules, processors, means, circuits, and algorithm steps described in connection with the embodiments disclosed herein include electronic hardware, (convenience For this purpose, it will be understood that it may be implemented by various forms of program or design code (referred to herein as "software") or a combination of both. To clearly illustrate this interchangeability of hardware and software, various illustrative components, blocks, modules, circuits, and steps have been described above generally in terms of their functionality. Whether such functionality is implemented as hardware or software depends upon the particular application and design constraints imposed on the overall system. A person skilled in the art of the present disclosure may implement the described functionality in various ways for each specific application, but such implementation decisions should not be interpreted as a departure from the scope of the present disclosure.
여기서 제시된 다양한 실시예들은 방법, 장치, 또는 표준 프로그래밍 및/또는 엔지니어링 기술을 사용한 제조 물품(article)으로 구현될 수 있다. 용어 "제조 물품"은 임의의 컴퓨터-판독가능 장치로부터 액세스 가능한 컴퓨터 프로그램 또는 매체(media)를 포함한다. 예를 들어, 컴퓨터-판독가능 저장 매체는 자기 저장 장치(예를 들면, 하드 디스크, 플로피 디스크, 자기 스트립, 등), 광학 디스크(예를 들면, CD, DVD, 등), 스마트 카드, 및 플래쉬 메모리 장치(예를 들면, EEPROM, 카드, 스틱, 키 드라이브, 등)를 포함하지만, 이들로 제한되는 것은 아니다. 용어 "기계-판독가능 매체"는 명령(들) 및/또는 데이터를 저장, 보유, 및/또는 전달할 수 있는 무선 채널 및 다양한 다른 매체를 포함하지만, 이들로 제한되는 것은 아니다. The various embodiments presented herein may be implemented as methods, apparatus, or articles of manufacture using standard programming and/or engineering techniques. The term "article of manufacture" includes a computer program or media accessible from any computer-readable device. For example, computer-readable storage media include magnetic storage devices (eg, hard disks, floppy disks, magnetic strips, etc.), optical disks (eg, CDs, DVDs, etc.), smart cards, and flash drives. memory devices (eg, EEPROMs, cards, sticks, key drives, etc.). The term “machine-readable medium” includes, but is not limited to, wireless channels and various other media capable of storing, holding, and/or carrying instruction(s) and/or data.
제시된 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조는 예시적인 접근들의 일례임을 이해하도록 한다. 설계 우선순위들에 기반하여, 본 개시의 범위 내에서 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조가 재배열될 수 있다는 것을 이해하도록 한다. 첨부된 방법 청구항들은 샘플 순서로 다양한 단계들의 엘리먼트들을 제공하지만 제시된 특정한 순서 또는 계층 구조에 한정되는 것을 의미하지는 않는다.It is understood that the specific order or hierarchy of steps in the presented processes is an example of exemplary approaches. Based on design priorities, it is understood that the specific order or hierarchy of steps in the processes may be rearranged within the scope of the present disclosure. The appended method claims present elements of the various steps in a sample order, but are not meant to be limited to the specific order or hierarchy presented.
제시된 실시예들에 대한 설명은 임의의 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 개시를 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 개시는 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.The description of the presented embodiments is provided to enable any person skilled in the art to make or use the present disclosure. Various modifications to these embodiments will be readily apparent to those skilled in the art, and the generic principles defined herein may be applied to other embodiments without departing from the scope of the present disclosure. Thus, the present disclosure is not intended to be limited to the embodiments presented herein, but is to be construed in the widest scope consistent with the principles and novel features presented herein.

Claims (16)

  1. 시술 영상 표시 장치에 있어서,In the treatment image display device,
    시술 장치와 환자의 시술 부위가 포함된 영상을 획득하는 촬영부;a photographing unit which acquires an image including the treatment device and the treatment site of the patient;
    상기 영상을 분석하여 상기 시술 부위 내에서 시술이 완료된 제 1 영역과 상기 시술이 완료되지 않은 제 2 영역을 인식하는 제어부; 및a control unit that analyzes the image and recognizes a first area in which the treatment is completed and a second area in which the treatment is not completed within the treatment area; and
    상기 영상에 상기 제 1 영역과 상기 제 2 영역을 다르게 표시하는 디스플레이부;a display unit configured to display the first area and the second area differently on the image;
    를 포함하는,containing,
    시술 영상 표시 장치.Procedure image display device.
  2. 제 1 항에 있어서,The method of claim 1,
    시술 부위 정보를 입력 받는 사용자 입력부;a user input unit for receiving information about the treatment site;
    를 더 포함하고,further comprising,
    상기 제어부는,The control unit is
    상기 시술 부위 정보를 이용하여 상기 영상 내에서 상기 시술 부위를 인식하는,Recognizing the treatment site in the image using the treatment area information,
    시술 영상 표시 장치.Procedure image display device.
  3. 제 2 항에 있어서,3. The method of claim 2,
    상기 제어부는,The control unit is
    상기 영상을 분석하여 상기 시술 장치가 상기 시술 부위를 벗어난 부분에 위치한다고 인식한 경우, 기 설정된 제 1 음향을 출력하도록 음향 출력부를 제어하는,controlling the sound output unit to output a preset first sound when it is recognized that the treatment device is located outside the treatment site by analyzing the image,
    시술 영상 표시 장치.Procedure image display device.
  4. 제 2 항에 있어서,3. The method of claim 2,
    상기 제어부는,The control unit is
    상기 영상을 분석하여 상기 시술 장치의 위치에 대한 위치 정보를 인식하고,Analyze the image to recognize location information on the location of the treatment device,
    상기 위치 정보 및 상기 시술 부위 정보에 기초하여 상기 제 1 영역과 상기 제 2 영역을 인식하는,Recognizing the first area and the second area based on the location information and the treatment area information,
    시술 영상 표시 장치.Procedure image display device.
  5. 제 1 항에 있어서,The method of claim 1,
    상기 제어부는,The control unit is
    상기 영상을 분석하여 상기 시술 장치가 상기 제 1 영역 상에 존재한다고 인식한 경우, 기 설정된 제 2 음향을 출력하도록 음향 출력부를 제어하는,controlling the sound output unit to output a preset second sound when it is recognized that the surgical device exists on the first area by analyzing the image,
    시술 영상 표시 장치.Procedure image display device.
  6. 제 1 항에 있어서,The method of claim 1,
    상기 시술 장치는,The treatment device is
    고강도 집속형 초음파(High Intensity Focused Ultrasonic) 장치, 초음파 프로브(Ultrasonic Probe) 또는 의료용 주사기를 포함하는,including High Intensity Focused Ultrasonic devices, Ultrasonic Probes or medical syringes;
    시술 영상 표시 장치.Procedure image display device.
  7. 제 1 항에 있어서,The method of claim 1,
    상기 제어부는,The control unit is
    상기 시술 장치가 상기 시술 영상 표시 장치와 전기적으로 연결된 시술 장치인 경우, 상기 시술 장치에서 발생한 에너지 발생 신호를 모니터링하고,When the treatment device is a treatment device electrically connected to the treatment image display device, monitoring an energy generation signal generated by the treatment device,
    상기 에너지 발생 신호가 발생한 시점에 상기 시술 장치가 위치한 영역을 상기 제 1 영역으로 인식하는,Recognizing the region in which the surgical device is located at the time when the energy generation signal is generated as the first region,
    시술 영상 표시 장치.Procedure image display device.
  8. 제 1 항에 있어서,The method of claim 1,
    상기 촬영부는,The photographing unit,
    상기 시술 부위의 축면(Axial), 시상면(Sagittal) 및 관상면(Coronal) 중 적어도 하나를 촬영하여 상기 시술 부위에 대한 적어도 하나의 영상 정보를 획득하고,At least one of an axial plane, a sagittal plane, and a coronal plane of the treatment site is photographed to obtain at least one image information about the treatment site,
    상기 영상은,The video is
    상기 적어도 하나의 영상 정보에 의해 생성된 입체 영상인,A stereoscopic image generated by the at least one image information,
    시술 영상 표시 장치.Procedure image display device.
  9. 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램으로서,A computer program stored on a computer-readable storage medium, comprising:
    상기 컴퓨터 프로그램은 시술 영상 표시 장치의 제어부로 하여금 이하의 단계들을 수행하기 위한 명령들을 포함하며, 상기 단계들은:The computer program includes instructions for causing the control unit of the procedure image display device to perform the following steps, wherein the steps include:
    촬영부를 통해 시술 장치와 환자의 시술 부위가 포함된 영상을 획득하는 단계;acquiring an image including a treatment device and a treatment site of a patient through a photographing unit;
    상기 영상을 분석하여 상기 시술 부위 내에서 시술이 완료된 제 1 영역과 상기 시술이 완료되지 않은 제 2 영역을 인식하는 단계; 및analyzing the image to recognize a first area in which the treatment is completed and a second area in which the treatment is not completed within the treatment area; and
    상기 영상에 상기 제 1 영역과 상기 제 2 영역을 다르게 표시하도록 디스플레이부를 제어하는 단계;controlling a display unit to display the first area and the second area differently on the image;
    를 포함하는,containing,
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.A computer program stored on a computer-readable storage medium.
  10. 제 1 항에 있어서,The method of claim 1,
    사용자 입력부를 통해 사용자로부터 입력 받은 시술 부위 정보를 이용하여 상기 영상 내에서 상기 시술 부위를 인식하는 단계;recognizing the treatment site in the image using treatment area information received from a user through a user input unit;
    를 더 포함하는,further comprising,
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.A computer program stored on a computer-readable storage medium.
  11. 제 9 항에 있어서,10. The method of claim 9,
    상기 영상을 분석하여 상기 시술 장치가 상기 시술 부위를 벗어난 부분에 위치한다고 인식한 경우, 기 설정된 제 1 음향을 출력하도록 음향 출력부를 제어하는 단계;controlling the sound output unit to output a preset first sound when it is recognized that the treatment device is located outside the treatment area by analyzing the image;
    를 더 포함하는,further comprising,
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.A computer program stored on a computer-readable storage medium.
  12. 제 10 항에 있어서,11. The method of claim 10,
    상기 영상을 분석하여 상기 시술 부위 내에서 시술이 완료된 제 1 영역과 상기 시술이 완료되지 않은 제 2 영역을 인식하는 단계는,The step of analyzing the image and recognizing a first area in which the treatment is completed and a second area in which the treatment is not completed within the treatment area comprises:
    상기 영상을 분석하여 상기 시술 장치의 위치에 대한 위치 정보를 인식하는 단계; 및recognizing location information on the location of the treatment device by analyzing the image; and
    상기 위치 정보 및 상기 시술 부위 정보에 기초하여 상기 제 1 영역과 상기 제 2 영역을 인식하는 단계;recognizing the first area and the second area based on the location information and the treatment area information;
    를 더 포함하는,further comprising,
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.A computer program stored on a computer-readable storage medium.
  13. 제 9 항에 있어서,10. The method of claim 9,
    상기 영상을 분석하여 상기 시술 장치가 상기 제 1 영역 상에 존재한다고 인식한 경우, 기 설정된 제 2 음향을 출력하도록 음향 출력부를 제어하는 단계;controlling the sound output unit to output a preset second sound when it is recognized that the surgical device exists on the first area by analyzing the image;
    를 더 포함하는,further comprising,
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.A computer program stored on a computer-readable storage medium.
  14. 제 1 항에 있어서,The method of claim 1,
    상기 시술 장치는,The treatment device is
    고강도 집속형 초음파(High Intensity Focused Ultrasonic) 장치, 초음파 프로브(Ultrasonic Probe) 또는 의료용 주사기를 포함하는,including High Intensity Focused Ultrasonic devices, Ultrasonic Probes or medical syringes;
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.A computer program stored on a computer-readable storage medium.
  15. 제 1 항에 있어서,The method of claim 1,
    상기 영상을 분석하여 상기 시술 부위 내에서 시술이 완료된 제 1 영역과 상기 시술이 완료되지 않은 제 2 영역을 인식하는 단계는,The step of analyzing the image and recognizing a first area in which the treatment is completed and a second area in which the treatment is not completed within the treatment area comprises:
    상기 시술 장치가 상기 시술 영상 표시 장치와 전기적으로 연결된 시술 장치인 경우, 상기 시술 장치에서 발생한 에너지 발생 신호를 모니터링 단계; 및monitoring an energy generation signal generated by the treatment device when the treatment device is a treatment device electrically connected to the treatment image display device; and
    상기 에너지 발생 신호가 발생한 시점에 상기 시술 장치가 위치한 영역을 상기 제 1 영역으로 인식하는 단계;recognizing the region in which the surgical device is located at the time when the energy generation signal is generated as the first region;
    를 포함하는,containing,
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.A computer program stored on a computer-readable storage medium.
  16. 제 9 항에 있어서,10. The method of claim 9,
    촬영부를 통해 시술 장치와 환자의 시술 부위가 포함된 영상을 획득하는 단계는,The step of acquiring an image including the treatment device and the treatment area of the patient through the photographing unit,
    상기 촬영부를 통해 상기 시술 부위의 축면(Axial), 시상면(Sagittal) 및 관상면(Coronal) 중 적어도 하나를 촬영하여 상기 시술 부위에 대한 적어도 하나의 영상 정보를 획득하는 단계;acquiring at least one image information about the treatment site by photographing at least one of an axial plane, a sagittal plane, and a coronal plane of the treatment site through the photographing unit;
    를 포함하고,including,
    상기 영상은,The video is
    상기 적어도 하나의 영상 정보에 의해 생성된 입체 영상인,A stereoscopic image generated by the at least one image information,
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.A computer program stored on a computer-readable storage medium.
PCT/KR2020/095032 2020-03-04 2020-03-12 Medical procedure image display device WO2021177583A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200027299A KR20210112130A (en) 2020-03-04 2020-03-04 Treatment video display device
KR10-2020-0027299 2020-03-04

Publications (1)

Publication Number Publication Date
WO2021177583A1 true WO2021177583A1 (en) 2021-09-10

Family

ID=77613562

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/095032 WO2021177583A1 (en) 2020-03-04 2020-03-12 Medical procedure image display device

Country Status (2)

Country Link
KR (2) KR20210112130A (en)
WO (1) WO2021177583A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090059667A (en) * 2007-12-07 2009-06-11 (주) 디바이스이엔지 Automatic a therapeutic laser using image recognition and method forcontroling the same
JP2013128731A (en) * 2011-12-22 2013-07-04 Hitachi Medical Corp Ultrasound treatment apparatus and surgery assistance system
JP2013135738A (en) * 2011-12-28 2013-07-11 Hitachi Medical Corp Operation support system
JP2016136296A (en) * 2015-01-23 2016-07-28 公立大学法人首都大学東京 Medical information display system, server, and program
KR20180010721A (en) * 2016-07-22 2018-01-31 한국전자통신연구원 System for supporting intelligent surgery and method for using the same

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102053003B1 (en) 2018-08-10 2020-01-08 한국전광(주) System for automatic skin management based on 3d image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090059667A (en) * 2007-12-07 2009-06-11 (주) 디바이스이엔지 Automatic a therapeutic laser using image recognition and method forcontroling the same
JP2013128731A (en) * 2011-12-22 2013-07-04 Hitachi Medical Corp Ultrasound treatment apparatus and surgery assistance system
JP2013135738A (en) * 2011-12-28 2013-07-11 Hitachi Medical Corp Operation support system
JP2016136296A (en) * 2015-01-23 2016-07-28 公立大学法人首都大学東京 Medical information display system, server, and program
KR20180010721A (en) * 2016-07-22 2018-01-31 한국전자통신연구원 System for supporting intelligent surgery and method for using the same

Also Published As

Publication number Publication date
KR20210112130A (en) 2021-09-14
KR20220167261A (en) 2022-12-20

Similar Documents

Publication Publication Date Title
WO2016032124A1 (en) Rotary device and electronic device having the same
WO2015105320A1 (en) Sensor device and electronic device having the same
WO2018009029A1 (en) Electronic device and operating method thereof
WO2017155319A2 (en) Display comprising sensing function, and electronic device comprising same
WO2016137268A1 (en) Touch processing method and electronic device for supporting the same
WO2015111936A1 (en) Method for obtaining input in electronic device, electronic device, and storage medium
WO2015126091A1 (en) Controlling input/output devices
WO2015183033A1 (en) Data processing method and electronic device thereof
WO2016036074A1 (en) Electronic device, method for controlling the electronic device, and recording medium
WO2016108326A1 (en) Terminal device and method for controlling the same
WO2020017706A1 (en) Electronic device and method for controlling the same
WO2017061729A1 (en) Electronic device
WO2018221824A1 (en) Video communication device and video communication method
WO2018135796A1 (en) Electronic apparatus and controlling method thereof
WO2018072567A1 (en) Emergency call-for-help method and system based on fingerprint identification for mobile terminal, and mobile terminal
WO2015199505A1 (en) Apparatus and method for preventing malfunction in an electronic device
WO2016006734A1 (en) Method and device for recognizing biometric information
WO2018070624A2 (en) Mobile terminal and control method thereof
EP3129859A1 (en) Flexible glass display apparatus and method for controlling the same
WO2020141727A1 (en) Healthcare robot and control method therefor
WO2020226289A1 (en) Electronic apparatus, user terminal, and method of controlling the electronic apparatus and the user terminal
WO2018208093A1 (en) Method for providing haptic feedback, and electronic device for performing same
EP3092721A1 (en) Sensor device and electronic device having the same
WO2018093005A1 (en) Mobile terminal and method for controlling the same
WO2019160256A1 (en) Electronic apparatus and method for controlling thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20923076

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205N DATED 10.01.2023)

122 Ep: pct application non-entry in european phase

Ref document number: 20923076

Country of ref document: EP

Kind code of ref document: A1