KR20220061614A - A lighting control device and method, and smart galsses and method - Google Patents
A lighting control device and method, and smart galsses and method Download PDFInfo
- Publication number
- KR20220061614A KR20220061614A KR1020200147779A KR20200147779A KR20220061614A KR 20220061614 A KR20220061614 A KR 20220061614A KR 1020200147779 A KR1020200147779 A KR 1020200147779A KR 20200147779 A KR20200147779 A KR 20200147779A KR 20220061614 A KR20220061614 A KR 20220061614A
- Authority
- KR
- South Korea
- Prior art keywords
- unit
- lighting control
- lighting
- processor
- control device
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 239000004984 smart glass Substances 0.000 claims abstract description 77
- 238000001356 surgical procedure Methods 0.000 claims abstract description 36
- 238000004891 communication Methods 0.000 claims description 55
- 210000001747 pupil Anatomy 0.000 claims description 9
- 230000001678 irradiating effect Effects 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 3
- 230000005540 biological transmission Effects 0.000 claims 2
- 238000013473 artificial intelligence Methods 0.000 description 10
- 238000002591 computed tomography Methods 0.000 description 7
- 238000005286 illumination Methods 0.000 description 7
- 201000010099 disease Diseases 0.000 description 6
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 5
- 238000002595 magnetic resonance imaging Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 239000008280 blood Substances 0.000 description 3
- 210000004369 blood Anatomy 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/30—Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/0661—Endoscope light sources
- A61B1/0692—Endoscope light sources head mounted
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05B—ELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
- H05B47/00—Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
- H05B47/10—Controlling the light source
- H05B47/105—Controlling the light source in response to determined parameters
- H05B47/11—Controlling the light source in response to determined parameters by determining the brightness or colour temperature of ambient light
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00216—Electrical control of surgical instruments with eye tracking or head position tracking control
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/256—User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
- A61B2090/502—Headgear, e.g. helmet, spectacles
Abstract
Description
본 발명은 조명 제어 장치 및 방법과, 스마트 안경 및 방법에 관한 것이다.The present invention relates to a lighting control apparatus and method, and smart glasses and method.
일반적으로 병원의 수술실에는 환자의 수술에 필요한 다양한 장비들이 구비될 수 있다. 이러한 다양한 장비들은 환자의 수술에 이용될 수 있고, 환자의 체온, 심박수, 맥박수, 혈압, 심전도, 근전도, 및 뇌파 등의 생체 신호를 측정할 수 있다. 또한, 수술실에는 환자의 수술 부위로 빛을 조사하는 무영등이 배치될 수 있다. 이러한 무영등은 수술 부위로 빛을 조사함으로써, 집도의가 수술하는데 필요한 광원을 제공해준다. In general, an operating room of a hospital may be equipped with various equipment necessary for a patient's operation. These various devices may be used for a patient's surgery, and may measure a patient's body temperature, heart rate, pulse rate, blood pressure, electrocardiogram, electromyogram, and biosignals such as EEG. In addition, Muyeongdeung for irradiating light to the surgical site of the patient may be arranged in the operating room. These muyeongdeung provide a light source necessary for the surgeon to operate by irradiating light to the surgical site.
그런데, 수술실에는 집도의뿐만 아니라, 마취의, 보조의 및 간호사 등 많은 의료진들뿐만 아니라, 수술을 참관하는 사람들 역시 많을 수 있다. 이와 같이, 많은 사람들이 수술 부위를 보기 위해 환자에게 가까이 다가갈 경우, 무영등에 의해 조사되는 빛이 수술 부위로 잘 전달되지 않을 수 도 있을 뿐만 아니라, 집도의가 수술하는데 필요한 빛이 제공되지 못할 수도 있다.However, in the operating room, not only the operating surgeon, but also many medical staff such as anesthesiologists, assistant doctors, and nurses, as well as many people who observe the operation may also be present. As such, when many people approach the patient to see the surgical site, not only may the light irradiated by Muyeongdeung not be transmitted to the surgical site well, but also the light necessary for the surgeon to operate may not be provided. .
따라서, 집도의의 시선을 추적하여 무영등을 통해 수술 부위에 빛을 적절하게 조사할 수 있는 필요성이 제기된다.Therefore, there is a need to track the surgeon's gaze and properly irradiate the surgical site with light through the muyeongdeung.
또한, 집도의가 착용하고 있는 스마트 안경을 통해 무영등에 의한 빛이 전달되지 못하는 수술 부위를 식별하고, 수술 부위에 빛을 조사할 수 있는 필요성이 제기된다.In addition, there is a need to identify the surgical site where the light cannot be transmitted through the smart glasses worn by the surgeon and to irradiate the light to the surgical site.
종래에는 집도의가 직접 무영등을 수술 부위로 이동시키기 때문에 집도의의 손이 멸균 상태를 유지하지 못하는 문제점 있었다.In the prior art, there was a problem in that the surgeon's hands could not maintain a sterile state because the surgeon directly moved the muyeongdeung to the surgical site.
또한, 종래에는 집도의의 수술 환경에서 조명을 최적으로 유지시켜줄 수 있는 수술 시스템이 제공되지 못하였다.In addition, conventionally, a surgical system capable of optimally maintaining lighting in the operating environment of an operating surgeon has not been provided.
따라서, 본 발명은 집도의의 수술 환경을 최적화시켜 줄 수 있는 수술 시스템을 제공하는 것이다.Accordingly, the present invention is to provide a surgical system that can optimize the operating environment of the surgeon.
또한, 본 발명은 집도의가 무영등을 직접 만지지 않아도 집도의의 시선을 추적하여 무영등의 위치를 자동으로 조절하는 조명 제어 장치 및 방법을 제공하는 것이다.In addition, the present invention is to provide a lighting control device and method for automatically adjusting the position of the muyeongdeung by tracking the gaze of the surgeon even if the surgeon does not directly touch the muyeongdeung.
또한, 본 발명은 무영등에 의한 빛이 제공되지 못하는 수술 부위에 집도의가 착용하고 있는 스마트 안경을 통해 빛을 제공해 줌으로써 집도의의 수술 환경을 향상시키는 스마트 안경 및 방법을 제공하는 것이다.Another object of the present invention is to provide smart glasses and a method for improving the operating environment of an operating surgeon by providing light through the smart glasses worn by the operating surgeon to a surgical site where light cannot be provided by muyeongdeung.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시 예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the objects mentioned above, and other objects and advantages of the present invention not mentioned may be understood by the following description, and will be more clearly understood by the examples of the present invention. It will also be readily apparent that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the appended claims.
이러한 문제를 해결하기 위해, 본 발명은 수술에 관련된 영상 데이터에 기반하여 집도의의 시선을 추적하여 수술 부위에 적어도 하나의 발광 소자를 통해 적절한 조명을 제공할 수 있다.In order to solve this problem, the present invention may provide appropriate lighting through at least one light emitting device to the surgical site by tracking the surgeon's gaze based on image data related to surgery.
또한, 본 발명은 센서부 및 카메라를 통해 수술 부위에 대한 정확한 밝기를 감시하고, 적어도 하나의 발광 소자가 수술 부위로 향하도록 구동부를 제어하여 수술 부위를 밝게 유지시켜줄 수 있다.In addition, the present invention can monitor the precise brightness of the surgical site through the sensor unit and the camera, and control the driving unit so that at least one light emitting device is directed toward the surgical site to keep the surgical site bright.
또한, 본 발명은 무영등에 의한 빛이 제공되지 못하는 수술 부위에 스마트 안경을 통한 밝기를 제공하여 수술 부위의 조명을 최적으로 제어할 수 있다.In addition, the present invention can optimally control the lighting of the surgical site by providing the brightness through smart glasses to the surgical site to which the light cannot be provided by Muyeongdeung.
이를 위해, 본 발명에 따른 조명 제어 장치는 통신부, 조명부, 및 상기 통신부, 및 상기 조명부와 전기적으로 연결된 프로세서를 포함할 수 있다. 그리고, 상기 프로세서는 수술에 관련된 적어도 하나의 영상 데이터를 상기 통신부를 통해 수신하고, 상기 수신된 적어도 하나의 영상 데이터에 기반하여, 집도의의 시선에 대한 정보를 획득할 수 있다. 또한, 상기 프로세서는 상기 집도의 시선에 대응되는 영역에서의 밝기를 측정하고, 상기 측정된 밝기가 미리 결정된 밝기 이하인 경우, 상기 조명부에 포함된 적어도 하나의 발광 소자의 발광을 제어할 수 있다.To this end, the lighting control apparatus according to the present invention may include a communication unit, a lighting unit, and a processor electrically connected to the communication unit, and the lighting unit. In addition, the processor may receive at least one image data related to surgery through the communication unit, and acquire information about the surgeon's gaze based on the received at least one image data. In addition, the processor may measure the brightness in a region corresponding to the gaze of the operator, and when the measured brightness is less than or equal to a predetermined brightness, control the light emission of at least one light emitting device included in the lighting unit.
또한, 본 발명에 따른 조명 제어 장치는 수술에 관련된 적어도 하나의 영상 데이터를 수신하고, 상기 수신된 적어도 하나의 영상 데이터에 기반하여, 집도의의 시선에 대한 정보를 획득하고, 상기 집도의 시선에 대응되는 영역에서의 밝기를 측정하고, 상기 측정된 밝기가 미리 결정된 밝기 이하인 경우, 조명부에 포함된 적어도 하나의 발광 소자의 발광을 제어하는 동작을 수행할 수 있다.In addition, the lighting control device according to the present invention receives at least one image data related to surgery, and based on the received at least one image data, obtains information about the surgeon's gaze, and corresponds to the surgeon's gaze An operation of controlling the light emission of at least one light emitting device included in the lighting unit may be performed by measuring the brightness in the region to be used, and when the measured brightness is less than or equal to a predetermined brightness.
또한, 본 발명에 따른 스마트 안경은 수술을 진행하는 집도의의 시선, 및 상기 시선에 대응되는 수술 부위에서의 밝기를 식별하고, 상기 밝기가 미리 결정된 밝기 이하인 경우, 조명부에 포함된 적어도 하나의 발광 소자의 광을 상기 수술 부위에 조사시키는 동작을 수행할 수 있다.In addition, the smart glasses according to the present invention identify the eye of the surgeon performing the operation, and the brightness at the surgical site corresponding to the eye, and when the brightness is less than or equal to a predetermined brightness, at least one light emitting element included in the lighting unit It is possible to perform an operation of irradiating the light of the surgical site.
본 발명은 수술에 관련된 적어도 하나의 영상 데이터에 기반하여 집도의의 시선을 추적하고, 집도의의 시선에 대응되는 수술 부위에 적어도 하나의 발광 소자의 발광을 제어함으로써, 집도의에게 맞춤형 밝기를 제공할 수 있다.The present invention tracks the surgeon's gaze based on at least one image data related to surgery, and controls the light emission of at least one light emitting device at the surgical site corresponding to the surgeon's gaze, thereby providing customized brightness to the surgeon. .
또한, 본 발명은 집도의 시선에 대응되는 영역에서의 밝기가 미리 결정된 밝기 이하인 경우, 적어도 하나의 발광 소자를 발광시킴으로써, 수술 환경에 적응적인 밝기를 제공할 수 있다.In addition, the present invention can provide brightness adaptive to the surgical environment by emitting light at least one light emitting element when the brightness in the region corresponding to the operator's gaze is less than or equal to a predetermined brightness.
또한, 본 발명은 수술을 진행하는 집도의의 시선이 향하는 수술 부위의 위치 정보를 영상 데이터에 포함시킴으로써, 수술 중에 무영등의 능동적인 동작을 제공 할 수 있다. In addition, the present invention can provide active motion during surgery by including the location information of the surgical site toward which the surgeon's gaze is directed in the image data.
또한, 본 발명은 수술을 진행하는 집도의의 시선이 향하는 수술 부위의 위치 정보를 영상 데이터에 포함시킴으로써, 원격에서 집도의 관점의 영상을 시청할 수 있고, 교육 자료로 활용할 수 있다.In addition, according to the present invention, by including the location information of the surgical site to which the surgeon's gaze is directed in the image data, the image from the surgeon's point of view can be viewed remotely and can be used as educational materials.
또한, 본 발명은 스마트 안경과 페어링을 수행하여 스마트 안경과 신호 또는 데이터를 송수신할 수 있다.In addition, the present invention may perform pairing with the smart glasses to transmit/receive signals or data to and from the smart glasses.
또한, 본 발명은 스마트 안경을 통해 수술을 진행하는 집도의의 시선, 및 시선에 대응되는 수술 부위에서의 밝기를 식별하고, 상기 밝기가 미리 결정된 밝기 이하인 경우, 적어도 하나의 발광 소자의 광을 수술 부위에 조사시킴으로써, 집도의가 수술하는데 최적의 밝기를 제공해줄 수 있다.In addition, the present invention identifies the brightness of the surgical site corresponding to the gaze of the surgeon performing surgery through smart glasses, and, when the brightness is less than or equal to a predetermined brightness, emits light from at least one light emitting device to the surgical site By irradiating the light, it is possible to provide optimal brightness for the surgeon to operate.
상술한 효과와 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.In addition to the above-described effects, the specific effects of the present invention will be described together while describing specific details for carrying out the invention below.
도 1은 본 발명의 일 실시 예에 따른 수술실 환경을 나타낸 예시도이다.
도 2는 본 발명의 일 실시 예에 따른 수술실 내의 조명 제어 장치의 예시도이다.
도 3은 본 발명의 일 실시 예에 따른 조명 제어 장치의 블럭도이다.
도 4는 본 발명의 일 실시 예에 따른 조명 제어 장치의 동작을 나타낸 순서도이다.
도 5는 본 발명의 일 실시 예에 따른 조명 제어 장치의 조명부의 발광을 나타낸 예시도이다.
도 6은 본 발명의 일 실시 예에 따른 스마트 안경의 블록도이다.
도 7은 본 발명의 일 실시 예에 따른 스마트 안경의 동작을 나타낸 순서도이다.
도 8은 본 발명의 일 실시 예에 따른 스마트 안경의 발광을 나타낸 예시도이다.1 is an exemplary view showing an operating room environment according to an embodiment of the present invention.
2 is an exemplary view of a lighting control device in an operating room according to an embodiment of the present invention.
3 is a block diagram of a lighting control device according to an embodiment of the present invention.
4 is a flowchart illustrating an operation of a lighting control device according to an embodiment of the present invention.
5 is an exemplary view showing the light emission of the lighting unit of the lighting control device according to an embodiment of the present invention.
6 is a block diagram of smart glasses according to an embodiment of the present invention.
7 is a flowchart illustrating the operation of smart glasses according to an embodiment of the present invention.
8 is an exemplary view illustrating light emission of smart glasses according to an embodiment of the present invention.
전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다.The above-described objects, features and advantages will be described below in detail with reference to the accompanying drawings, and accordingly, those of ordinary skill in the art to which the present invention pertains will be able to easily implement the technical idea of the present invention. In describing the present invention, if it is determined that a detailed description of a known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to indicate the same or similar components.
비록 제1, 제2 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것으로, 특별히 반대되는 기재가 없는 한, 제1 구성요소는 제2 구성요소일 수도 있음은 물론이다.Although the first, second, etc. are used to describe various elements, these elements are not limited by these terms, of course. These terms are only used to distinguish one component from other components, and unless otherwise stated, it goes without saying that the first component may be the second component.
이하에서 구성요소의 "상부 (또는 하부)" 또는 구성요소의 "상 (또는 하)"에 임의의 구성이 배치된다는 것은, 임의의 구성이 상기 구성요소의 상면 (또는 하면)에 접하여 배치되는 것뿐만 아니라, 상기 구성요소와 상기 구성요소 상에 (또는 하에) 배치된 임의의 구성 사이에 다른 구성이 개재될 수 있음을 의미할 수 있다. In the following, that an arbitrary component is disposed on the "upper (or lower)" of a component or "upper (or below)" of a component means that any component is disposed in contact with the upper surface (or lower surface) of the component. Furthermore, it may mean that other components may be interposed between the component and any component disposed on (or under) the component.
또한 어떤 구성요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 상기 구성요소들은 서로 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성요소 사이에 다른 구성요소가 "개재"되거나, 각 구성요소가 다른 구성요소를 통해 "연결", "결합" 또는 "접속"될 수도 있는 것으로 이해되어야 할 것이다. In addition, when it is described that a component is “connected”, “coupled” or “connected” to another component, the components may be directly connected or connected to each other, but other components are “interposed” between each component. It should be understood that “or, each component may be “connected,” “coupled,” or “connected,” through another component.
명세서 전체에서, 특별히 반대되는 기재가 없는 한, 각 구성요소는 단수일수도 있고 복수일 수도 있다.Throughout the specification, unless otherwise stated, each element may be singular or plural.
본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.As used herein, the singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “consisting of” or “comprising” should not be construed as necessarily including all of the various components or various steps described in the specification, some of which components or some steps are It should be construed that it may not include, or may further include additional components or steps.
명세서 전체에서, "A 및/또는 B" 라고 할 때, 이는 특별한 반대되는 기재가 없는 한, A, B 또는 A 및 B 를 의미하며, "C 내지 D" 라고 할 때, 이는 특별한 반대되는 기재가 없는 한, C 이상이고 D 이하인 것을 의미한다Throughout the specification, when “A and/or B” is used, it means A, B or A and B, unless otherwise stated, and when “C to D” is used, it means that there is no specific opposite description. Unless otherwise specified, it means that it is greater than or equal to C and less than or equal to D.
이하에서는, 본 발명의 몇몇 실시 예에 따른 조명 제어 장치 및 방법과, 스마트 안경 및 방법을 설명하도록 한다.Hereinafter, a lighting control apparatus and method, and smart glasses and method according to some embodiments of the present invention will be described.
도 1은 본 발명의 일 실시 예에 따른 수술실 환경을 나타낸 예시도이다.1 is an exemplary view showing an operating room environment according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시 예에 따른 수술실(100)은 집도의(102), 및 보조의(101)와 같은 의료진과, 조명 제어 장치(110)가 배치될 수 있다. 상기 조명 제어 장치(110)의 각 암(Arm)에는 모니터(150, 160), 카메라(140), 또는 무영등(120, 130)이 장착될 수 있다. 상기 조명 제어 장치(110)의 각 암(Arm)은 의료진의 물리적 힘에 의해 상하좌우로 이동 가능한 구조를 갖는다. 상기 카메라(140)는 수술 부위에 대한 영상 데이터를 획득하고, 모니터(150, 160)는 상기 카메라(140)에 의해 획득된 영상이 표시되거나, 또는 의료진의 요청에 따른 데이터가 표시될 수 있다.Referring to FIG. 1 , in an
이와 같이, 조명 제어 장치(110)는 적어도 하나의 무영등(120, 130), 적어도 하나의 모니터(150, 160), 및 적어도 하나의 카메라(140)가 장착될 수 있다. 그리고, 각 무영등은 복수의 발광 소자들을 포함할 수 있고, 집도의(102)의 시선에 기반하여 발광부의 발광 각도가 제어될 수 있다. As such, the
또한, 상기 조명 제어 장치(110)는 집도의(102)가 착용하고 있는 스마트 안경(170)과 신호 또는 데이터를 송수신할 수 있다.In addition, the
일 실시 예에 따르면, 조명 제어 장치(110)는 수술에 관련된 적어도 하나의 영상 데이터를 스마트 안경(170)으로부터 수신하여 집도의의 시선에 대한 정보를 획득할 수 있다. 그리고, 상기 조명 제어 장치(110)는 집도의 시선에 대응되는 영역에서의 밝기를 측정하고, 상기 측정된 밝기, 및 미리 결정된 밝기를 비교하여 조명부에 포함된 적어도 하나의 발광 소자의 발광을 제어할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 스마트 안경(170)은 수술을 진행하는 집도의의 시선, 및 집도의의 시선에 대응되는 수술 부위에서의 밝기를 감지할 수 있다. 그리고, 상기 스마트 안경(170)은 상기 밝기와 미리 결정된 밝기를 비교하여, 조명부에 포함된 적어도 하나의 발광 소자의 광을 상기 수술 부위로 조사시킬 수 있다.According to an embodiment, the
도 2는 본 발명의 일 실시 예에 따른 수술실 내의 조명 제어 장치의 예시도이다.2 is an exemplary view of a lighting control device in an operating room according to an embodiment of the present invention.
도 2를 참조하면, 본 발명의 일 실시 예에 따른 수술실 내의 조명 제어 장치(200)의 조명부(120)는 복수의 발광 소자들로 이루어진 복수의 발광 소자 그룹과, 각 그룹의 발광 각도를 제어하는 구동부(381)를 포함할 수 있다. 예를 들면, 하나의 발광 소자 그룹(220)은 복수의 발광 소자들(220a, 220b, 220c, 220d)를 포함할 수 있다.Referring to Figure 2, the
일 실시 예에 따르면, 조명부(120)는 수술 중인 집도의(102), 또는 보조의(101)가 조명부(120)를 이동시키도록 하기 위한 파지부(210)를 포함할 수 있다. 상기 파지부(210)를 통해 수술 중인 집도의(102), 또는 보조의(101)는 자신이 원하는 부위로 조명부(120)를 이동시킬 수 있다. 그리고, 각 조명부(120)는 링크(110)에 의해 연결될 수 있다.According to an embodiment, the
도 3은 본 발명의 일 실시 예에 따른 조명 제어 장치의 블럭도이다.3 is a block diagram of a lighting control device according to an embodiment of the present invention.
도 3을 참조하면, 본 발명의 일 실시 예에 따른 조명 제어 장치(200)는 통신부(310), 인터페이스부(320), 입력부(330), 저장부(340), 카메라부(140), 스피커(350), 센서부(360), 링크부(370), 조명부(120), 및 프로세서(390)를 포함할 수 있다. 상기 조명 제어 장치(200)는 적어도 하나의 조명부(120)(예: 무영등)를 포함할 수 있다. 상기 조명부(120) 및 상기 카메라부(140)는 조명 제어 장치(200)의 링크부(370)의 어느 하나의 링크(예: 암(arm))에 장착될 수 있다. 상기 링크부(370) 내의 구동부의 제어 하에 링크는 상측 방향, 하측 방향, 좌측 방향 및 우측 방향 중 적어도 일부에 따라 움직일 수 있다.Referring to FIG. 3 , the
도 3에 도시된 조명 제어 장치(200)의 구성은 일 실시 예에 따른 것이고, 조명 제어 장치(200)의 구성 요소들이 도 3에 도시된 실시 예에 한정되는 것은 아니며, 필요에 따라 일부 구성 요소가 부가, 변경 또는 삭제될 수 있다.The configuration of the
일 실시 예에 따르면, 상기 통신부(310)는 조명 제어 장치(200)에 포함된 적어도 하나의 구성 요소(예: 인터페이스부(320), 입력부(330), 저장부(340), 카메라부(140), 스피커(350), 센서부(360), 링크부(370), 조명부(120), 및 프로세서(390))와 유선 통신 또는 무선 통신을 통해 적어도 하나의 신호 또는 정보를 송수신할 수 있는 적어도 하나의 회로를 포함할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 상기 통신부(310)는 병원 서버(예: 병원에서 환자 데이터를 저장 및 관리하는 서버)(미도시)의 구성 요소(예: 통신부(미도시))와 유선 통신 또는 무선 통신을 통해 적어도 하나의 신호 또는 정보를 송수신할 수 있는 적어도 하나의 회로를 포함할 수 있다. According to an embodiment, the
일 실시 예에 따르면, 상기 통신부(310)는 병원 서버(미도시)로부터 수술하고자 하는 적어도 한 명의 환자에 대한 정보(예: 이름, 성별, 나이, 혈액형, 체중, 수술 일자, 수술 시간, 기저질환 유무 또는 종류, 등), 및 각 환자의 수술 부위에 대한 정보(예: 수술 부위, 병명, 수술 부위에 대한 영상 데이터(예: CT, MRI, X-Ray 등))를 수신할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 상기 통신부(310)는 조명 제어 장치(200)가 위치한 수술실에서 수술 중인 환자에 대한 정보(예: 수술 부위에 대한 영상 데이터, 수술 시간 등)를 집도의(102)가 착용한 스마트 안경(170)으로부터 수신할 수 있다. 상기 통신부(310)는 스마트 안경(170)(예: 통신부)와 페어링을 수행한 후, 상기 정보를 수신할 수 있다. 상기 정보는 집도의(102)가 주시하고 있는 시선에 대한 정보(예: 시선이 향하는 위치에 대한 정보)를 포함할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 인터페이스부(320)는 수술실 내의 다양한 외부 전자 장치(예: X선(X-ray) 촬영 장치, CT(Computer Tomography) 촬영 장치, MRI(Magnetic Resonance Imaging) 촬영 장치 등)와 유선 또는 무선으로 연결할 수 있는 지정된 프로토콜을 지원할 수 있다. 상기 인터페이스부(320)는 HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다. According to an embodiment, the
일 실시 예에 따르면, 상기 인터페이스부(320)는 조명 제어 장치(200)와 외부 전자 장치(예: X선(X-ray) 촬영 장치, CT(Computer Tomography) 촬영 장치, MRI(Magnetic Resonance Imaging) 촬영 장치, 스마트 안경(170) 등)를 물리적으로 연결시킬 수 있는 커넥터, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 입력부(330)는 외부 장치(예: USB(Universal Serial Bus), 외장 하드(미도시) 등)로/로부터 수술할 환자에 대한 다양한 데이터를 송신/수신할 수 있는 인터페이스를 포함할 수 있다. 상기 입력부(330)는 입력된 환자에 대한 다양한 정보를 프로세서(390)로 제공할 수 있다. 이를 위해, 입력부(330)는 스위치, 버튼 등의 물리적인 조작부재를 포함하거나 터치 키, 터치 패드, 터치 스크린 등의 전기적인 조작부재를 포함할 수 있다. 또는, 상기 입력부(330)는 사용자(예: 집도의, 간호사, 마취의 등등)의 음성 신호를 입력 받을 수 있는 마이크를 더 포함할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 저장부(340)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. 예를 들면, 상기 저장부(340)는 조명 제어 장치(200)의 동작에 필요한 정보, 데이터, 프로그램 등이 저장될 수 있다. 이에 따라, 프로세서(390)는 저장부(340)에 저장된 정보를 참조하여 후술하는 제어 동작을 수행할 수 있다. 상기 저장부(340)는 다양한 플랫폼(platform)을 저장할 수도 있다. 상기 저장부(340)는, 예를 들어, 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM), 롬(EEPROM 등), USB 메모리 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 상기 저장부(340)는 조명 제어 장치(200)의 적어도 하나의 구성요소(예: 통신부(310), 인터페이스부(320), 입력부(330), 저장부(340), 카메라부(140), 스피커(350), 센서부(360), 링크부(370), 조명부(120), 및 프로세서(390))에 의해 획득되거나 또는 사용되는 다양한 데이터(예: 소프트웨어, 어플리케이션, 획득된 정보, 측정된 정보, 제어 신호 등), 및 이와 관련된 명령어들을 저장할 수 있다. 예를 들면, 상기 저장부(340)는 조명 제어 장치(200)로부터 수신된 제어 신호 또는 데이터를 저장할 수 있다. According to an embodiment, the
일 실시 예에 따르면, 상기 저장부(340)는 통신부(310)를 통해 획득된 적어도 한 명의 환자에 대한 정보(예: 이름, 성별, 나이, 혈액형, 체중, 기저질환 유무 또는 종류, 등), 및 각 환자의 수술 부위에 대한 정보(예: 수술 부위, 병명, 수술 부위에 대한 영상 데이터(예: CT, MRI, X-Ray 등))를 저장할 수 있다. 상기 저장부(340)는 통신부(310)를 통해 획득된 수술 예정인 복수의 환자들에 대한 정보, 수술 부위에 대한 정보를 저장할 수 있다. 예를 들면, 상기 저장부(340)는 수술이 종료된 환자에 대한 정보 및 수술 부위에 대한 정보를 자동으로 삭제할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 카메라부(140)는 적어도 하나의 카메라를 포함할 수 있다. 상기 카메라부(140)는 수술실 내부의 사람(예: 환자, 집도의, 간호사, 마취의 등)에 대한 이미지(또는 영상 데이터)를 획득할 수 있다. 상기 카메라부(140)는 수술 침대상의 환자에 대한 수술 부위의 이미지(또는 영상 데이터)를 획득할 수 있다. 상기 카메라부(140)는 인공지능 칩(예: DQ1)이 내장된 영상 지능 카메라(또는 스마트 영상 지능 카메라)를 포함할 수 있다. 이러한 영상 지능 카메라를 통해 수술 환자의 얼굴 및 수술 부위을 인식할 수 있고, 수술 부위에 대한 적어도 하나의 영상 데이터를 획득할 수 있다. According to an embodiment, the
일 실시 예에 따르면, 영상 지능 카메라는 인공지능 칩(예: DQ1)에서 동작 가능한 딥러닝 기반 알고리즘이 적용된 카메라로서, 수술 환자의 안면 또는 수술 부위 인식, 및 수술실 내의 사람(예: 집도의, 간호사, 마취의 등)을 구분할 수 있다. 이러한 영상 지능 카메라는 조명 제어 장치(200)의 카메라부(140)에 포함될 수 있다. According to an embodiment, the image intelligence camera is a camera to which a deep learning-based algorithm that can operate on an artificial intelligence chip (eg, DQ1) is applied, recognizes a surgical patient's face or a surgical site, and a person in the operating room (eg, an operating surgeon, a nurse). , anesthesiologists, etc.) can be distinguished. Such an intelligent image camera may be included in the
일 실시 예에 따르면, 상기 카메라부(140)는 조명에 의한 조도가 높은 상황에서도 수술 부위에 대한 영상 데이터를 획득할 수 있는 카메라(예: RGB(Red Green Blue) 카메라))를 포함할 수 있다. 상기 카메라부(140)는 이미지를 획득하는데 필요한 조명을 발광하는 소자(예: LED, IR 패턴 조명)를 포함할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 상기 스피커(350)는 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 상기 스피커(350)는 음향 출력 장치(예: 이어폰 또는 헤드폰)를 통해 소리를 출력할 수 있다. 상기 스피커(350)는 음향 신호를 조명 제어 장치(200)의 외부로 출력할 수 있다. 상기 스피커(350)는 수술실 내부에 존재하는 사람(예: 집도의, 간호사, 마취의)에게 제공될 정보를 음성으로 출력할 수 있다. According to an embodiment, the
일 실시 예에 따르면, 상기 스피커(350)는 조명 제어 장치(200)의 동작, 또는 밝기에 따른 음성 메시지를 출력할 수 있다. 예를 들면, 상기 스피커(350)는 발광부(382)의 적어도 하나의 발광 소자(예: LED)의 동작에 기반한 음향 신호(예: 경고음 등)를 출력할 수 있다. According to one embodiment, the
일 실시 예에 따르면, 상기 센서부(360)는 수술실 내의 밝기 세기를 감지할 수 있다. 상기 센서부(360)는 조명 제어 장치(200)의 링크부(370)의 일 측에 배치되어 환자의 수술 부위에 대한 밝기 세기를 감지하고, 감지 결과를 프로세서(390)로 전송할 수 있다. 상기 센서부(360)는 조명 제어 장치(200)의 일 측에 배치되는 적어도 하나의 센서를 포함할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 상기 링크부(370)는 조명 제어 장치(200)의 복수의 링크들(예: 암들(Arms))을 포함할 수 있다. 복수의 링크들 각각은 서로 동작 가능하도록 연결될 수 있으며, 카메라(140), 조명부(120), 또는 디스플레이 장치(미도시)와 같은 장치가 장착될 수 있도록 형성될 수 있다. 링크들 각각은 인체의 관절과 유사하며, 상하좌우 중 적어도 하나의 방향으로 움직일 수 있도록 연결될 수 있다. 그리고, 각각의 링크는 프로세서(390)의 제어 하에 각 구동부의 동작에 따라 물리적으로 움직일 수 있다.According to one embodiment, the
일 실시 예에 따르면, 상기 조명부(120)는 적어도 하나의 구동부(381)(예: 제2 구동부), 및 각 구동부(381)에 의해 동작되어 발광되는 적어도 하나의 발광 소자로 구성된 발광부(382)를 포함할 수 있다. 상기 발광부(382)는 적어도 하나의 발광 소자(예: LED)로 구성되거나, 또는 복수 개로 그룹핑될 수 있다. 예를 들면, 상기 조명부(120)는 수술 부위를 밝게 하기 위해 복수의 발광 소자들로 구성될 수 있다. 상기 복수의 발광 소자들 각각은 미리 결정된 거리(예: 1cm 또는 2cm) 단위로 이격되어 배치될 수 있다. According to an embodiment, the
일 실시 예에 따르면, 프로세서(390)는 소프트웨어를 구동하여 상기 프로세서(390)에 연결된 적어도 하나의 구성요소(예: 통신부(310), 인터페이스부(320), 입력부(330), 저장부(340), 카메라부(140), 스피커(350), 센서부(360), 링크부(370), 및 조명부(120))를 유선 통신 또는 무선 통신에 기반하여 제어할 수 있다. 상기 프로세서(390)는 유선 통신 또는 무선 통신에 기반하여 다양한 데이터 처리 및 연산을 수행할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 상기 프로세서(390)는 통신부(310), 인터페이스부(320), 입력부(330), 저장부(340), 카메라부(140), 스피커(350), 센서부(360), 링크부(370), 및 조명부(120 등으로부터 수신된 명령 또는 데이터를 상기 저장부(340)에 로드하여 처리하고, 처리된 데이터를 저장부(340)에 저장할 수 있다. According to an embodiment, the
일 실시 예에 따르면, 상기 프로세서(390)는 인공지능 칩(예: DQ1)(391)이 내장될 수 있다. 또는, 상기 인공지능 칩에 대한 알고리즘은 상기 프로세서(390)에 의해 구현될 수 있다. 상기 인공지능 칩은 인간의 뇌 신경망을 모방한 프로세서로서 다양한 데이터를 스스로 분석, 인지, 추론, 판단하는 딥러닝 알고리즘을 지원할 수 있다. According to an embodiment, the
일 실시 예에 따르면, 상기 프로세서(390)는 환자의 수술 부위에 대한 환자 정보, 및 상기 수술 부위를 집도하는 집도의에 대한 수술 정보를 통신부(310)(또는 저장부(340)를 통해 획득할 수 있다. 상기 프로세서(390)는 적어도 한 명의 환자에 대한 정보(예: 이름, 성별, 나이, 혈액형, 체중, 기저질환 유무 또는 종류, 등), 및 각 환자의 수술 부위에 대한 정보(예: 수술 부위, 병명, 수술 부위에 대한 영상 데이터(예: CT, MRI, X-Ray 등))를 통신부(310)(또는 저장부(340)를 통해 획득할 수 있다. 상기 프로세서(390)는 조명 제어 장치(200)의 카메라부(140)에서 촬영한 수술 부위에 대한 영상 데이터를 획득할 수 있다. 또는, 상기 프로세서(390)는 집도의(102)가 착용하고 있는 스마트 안경(170)에서 촬영한 수술 부위에 대한 영상 데이터를 획득할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 상기 프로세서(390)는 수술에 관련된 적어도 하나의 영상 데이터를 통신부(310)를 통해 수신하고, 상기 수신된 적어도 하나의 영상 데이터에 기반하여, 집도의의 시선에 대한 정보를 획득할 수 있다. 상기 프로세서(390)는 스마트 안경(170)으로부터 수술중인 환자에 대한 영상 데이터를 수신할 수 있다. 상기 프로세서(390)는 집도의가 착용하고 있는 스마트 안경(170)에 부착된 적어도 하나의 카메라를 통해 실시간으로 획득된 영상 데이터를 통신부(310)를 통해 실시간으로 획득할 수 있다. 상기 영상 데이터는 수술을 집도하는(또는 진행하는) 집도의의 시선이 향하는 수술 부위의 위치에 대한 정보를 포함할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 상기 프로세서(390)는 스마트 안경(170)과 페어링을 수행하고, 상기 페어링에 의해 연결된 채널을 통해 스마트 안경(170)으로부터 실시간으로 영상 데이터를 수신할 수 있다. 상기 영상 데이터는 집도의의 시선이 향하는 수술 부위에 대한 위치를 나타내는 정보를 포함할 수 있다. 상기 정보는 상기 스마트 안경(170)을 착용한 집도의가 현재 주시하고 있는 수술 부위가 어디인지를 나타내는 정보를 포함할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 상기 프로세서(390)는 수신된 영상 데이터를 통해 집도의의 시선 위치를 식별하고, 상기 집도의 시선에 대응되는 영역에서의 밝기를 측정할 수 있다. 상기 프로세서(390)는 적어도 하나의 영상 데이터에 포함된 시선 정보를 획득하고, 획득된 영상 데이터에 포함된 시선 위치에 기반하여 수술중인 집도의의 시선이 향하는 지점 또는 부위를 판단할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 상기 프로세서(390)는 측정된 밝기가 미리 결정된 밝기 이하인 경우, 조명부(120)에 포함된 적어도 하나의 발광 소자의 발광을 제어할 수 있다. 상기 프로세서(390)는 수술 부위의 위치 정보에 기반하여 적어도 하나의 발광 소자가 상기 수술 부위로 향하도록 구동부(381)의 물리적인 동작을 제어할 수 있다. 상기 프로세서(390)는 링크의 움직임을 제어하는 제어 신호를 구동부(381)로 전달함으로써, 적어도 하나의 발광 소자의 발광 각도를 제어할 수 있다.According to an embodiment, when the measured brightness is less than or equal to a predetermined brightness, the
도 4는 본 발명의 일 실시 예에 따른 조명 제어 장치의 동작을 나타낸 순서도이다. 도 5는 본 발명의 일 실시 예에 따른 조명 제어 장치의 조명부의 발광을 나타낸 예시도이다.4 is a flowchart illustrating an operation of a lighting control device according to an embodiment of the present invention. 5 is an exemplary view showing the light emission of the lighting unit of the lighting control device according to an embodiment of the present invention.
이하, 도 4 및 도 5를 참조하여, 본 발명의 일 실시 예에 따른 조명 제어 장치의 동작을 상세히 설명하면 다음과 같다.Hereinafter, an operation of the lighting control device according to an embodiment of the present invention will be described in detail with reference to FIGS. 4 and 5 .
일 실시 예에 따르면, 조명 제어 장치(200)(예: 프로세서(390))는 적어도 하나의 영상 데이터를 수신할 수 있다(S410). 상기 조명 제어 장치(200)(예: 프로세서(390))는 스마트 안경(170)으로부터 수술중인 환자에 대한 영상 데이터를 통신부(310)를 통해 수신할 수 있다. 상기 조명 제어 장치(200)(예: 프로세서(390))는 수술실 내의 집도의가 착용하고 있는 스마트 안경(170)에 부착된 적어도 하나의 카메라를 통해 실시간으로 획득되는 영상 데이터를 통신부(310)를 통해 실시간으로 획득할 수 있다. 상기 영상 데이터는 수술을 집도하는(또는 진행하는) 집도의의 시선이 향하는 수술 부위의 위치에 대한 정보를 포함할 수 있다.According to an embodiment, the lighting control device 200 (eg, the processor 390) may receive at least one image data (S410). The lighting control device 200 (eg, the processor 390 ) may receive image data for a patient undergoing surgery from the
일 실시 예에 따르면, 상기 조명 제어 장치(200)(예: 프로세서(390))는 스마트 안경(170)과 페어링을 수행하고, 상기 페어링에 의해 연결된 채널을 통해 스마트 안경(170)으로부터 실시간으로 영상 데이터를 수신할 수 있다. 상기 영상 데이터는 집도의의 시선이 향하는 수술 부위에 대한 위치를 나타내는 정보를 포함할 수 있다. 상기 정보는 상기 스마트 안경(170)을 착용한 집도의가 현재 주시하고 있는 수술 부위가 어디인지를 나타내는 정보를 포함할 수 있다. According to an embodiment, the lighting control device 200 (eg, the processor 390) performs pairing with the
일 실시 예에 따르면, 상기 조명 제어 장치(200)(예: 프로세서(390))는 수신된 영상 데이터를 통해 집도의의 시선 위치를 식별할 수 있다(S412). 상기 조명 제어 장치(200)(예: 프로세서(390))는 적어도 하나의 영상 데이터에 포함된 시선 정보를 획득할 수 있다. 상기 조명 제어 장치(200)(예: 프로세서(390))는 적어도 하나의 영상 데이터에 포함된 시선 위치에 기반하여 수술중인 집도의의 시선이 향하는 지점 또는 부위를 판단할 수 있다.According to one embodiment, the lighting control device 200 (eg, the processor 390) may identify the position of the surgeon's gaze through the received image data (S412). The lighting control device 200 (eg, the processor 390 ) may acquire gaze information included in at least one image data. The lighting control device 200 (eg, the processor 390 ) may determine a point or a region to which the gaze of the surgeon in operation is directed based on the gaze position included in the at least one image data.
일 실시 예에 따르면, 상기 조명 제어 장치(200)(예: 프로세서(390))는 식별된 시선 위치에서의 밝기를 측정할 수 있다(S414). 상기 조명 제어 장치(200)(예: 프로세서(390))는 적어도 하나의 영상 데이터에 포함된 위치 정보에 기반하여 수술 부위의 특정 영역에 대한 밝기를 측정할 수 있다. 상기 조명 제어 장치(200)(예: 프로세서(390))는 적어도 하나의 영상 데이터에 포함된 위치 정보에 기반하여 집도의가 보고 있는 수술 부위의 특정 영역을 식별하고, 센서부(360)(예: 광 센서)를 통해 상기 특정 영역에 대한 밝기의 세기를 감지할 수 있다. 상기 센서부(360)(예: 광 센서)는 조명 제어 장치(200)의 임의 링크에 부착될 수 있다. 상기 센서부(360)(예: 광 센서)는 수술 부위에 대한 밝기를 감지하는데 용이한 링크의 일부에 부착될 수 있다.According to an embodiment, the lighting control device 200 (eg, the processor 390) may measure the brightness at the identified gaze position (S414). The lighting control device 200 (eg, the processor 390 ) may measure the brightness of a specific region of the surgical site based on location information included in at least one image data. The lighting control device 200 (eg, processor 390) identifies a specific region of the surgical site that the surgeon is looking at based on location information included in at least one image data, and the sensor unit 360 (eg: light sensor) to detect the intensity of brightness for the specific area. The sensor unit 360 (eg, an optical sensor) may be attached to any link of the
도 5를 참조하면, 집도의(102)가 환자(510)의 수술 부위를 수술하는 중에, 집도의(102)가 착용하고 있는 스마트 안경(170)은 장착된 적어도 하나의 카메라를 통해 수술중인 장면에 대한 영상 데이터를 실시간으로 획득할 수 있다. 그리고, 상기 스마트 안경(170)은 획득된 영상을 조명 제어 장치(200)(예: 통신부)(310)로 실시간 또는 주기적으로 전송할 수 있다. 상기 스마트 안경(170)(예: 통신부)과 조명 제어 장치(200)(예: 통신부)(310)는 서로 페어링을 수행하고, 상기 페어링에 의한 통신 채널을 통해 신호 또는 데이터를 송수신할 수 있다.Referring to FIG. 5 , while the
일 실시 예에 따르면, 상기 조명 제어 장치(200)(예: 프로세서(390))는 식별된 시선 위치에 대응되는 특정 영역에 음영(예: 집도의에 의한 그림자)이 존재하는지 식별할 수 있다. 상기 조명 제어 장치(200)(예: 프로세서(390))는 링크(110)에 연결된 적어도 하나의 카메라(140)로부터 획득된 영상을 분석하여, 식별된 시선 위치에 대응되는 특정 영역에 음영이 존재하는지 식별할 수 있다. 상기 조명 제어 장치(200)(예: 프로세서(390))는 획득된 영상에서 특정 영역의 픽셀 컬러를 통해 상기 특정 영역에 음영이 존재하는지 식별할 수 있다.According to an embodiment, the lighting control device 200 (eg, the processor 390 ) may identify whether a shadow (eg, a shadow by a surgeon) exists in a specific area corresponding to the identified gaze position. The lighting control device 200 (eg, the processor 390 ) analyzes an image obtained from at least one
일 실시 예에 따르면, 상기 조명 제어 장치(200)(예: 프로세서(390))는 측정된 밝기가 미리 결정된 밝기 이하인지 판단할 수 있다(S416). 상기 조명 제어 장치(200)(예: 프로세서(390))는 상기 특정 영역에서의 빛의 세기와 미리 결정된 세기(예: 100,000 Lux)를 비교할 수 있다. 상기 조명 제어 장치(200)(예: 프로세서(390))는 상기 특정 영역에서의 빛의 세기가 상기 미리 결정된 세기(예: 100,000 Lux) 보다 작을 경우, 상기 수술 부위의 밝기가 수술하기에 어두운 것으로 판단할 수 있다. 또는, 상기 조명 제어 장치(200)(예: 프로세서(390))는 상기 특정 영역에서의 빛의 세기가 상기 미리 결정된 세기(예: 100,000 Lux) 보다 작지 않을 경우, 상기 수술 부위의 밝기가 수술하기에 어둡지 않은 것으로 판단할 수 있다.According to an embodiment, the lighting control device 200 (eg, the processor 390) may determine whether the measured brightness is less than or equal to a predetermined brightness (S416). The lighting control device 200 (eg, the processor 390 ) may compare the intensity of light in the specific area with a predetermined intensity (eg, 100,000 Lux). The lighting control device 200 (eg, the processor 390) determines that when the intensity of light in the specific area is less than the predetermined intensity (eg, 100,000 Lux), the brightness of the surgical site is dark for surgery. can judge Alternatively, if the lighting control device 200 (eg, the processor 390) is not less than the predetermined intensity (eg, 100,000 Lux) of the intensity of light in the specific area, the brightness of the surgical site to operate It can be judged that it is not dark in
일 실시 예에 따르면, 상기 조명 제어 장치(200)(예: 프로세서(390))는 적어도 하나의 발광 소자의 발광 각도를 제어할 수 있다(S418). 상기 조명 제어 장치(200)(예: 프로세서(390))는 상기 수술 부위의 밝기가 수술하기에 어두운 밝기인 것으로 판단되면, 적어도 하나의 발광 소자(예: LED)가 상기 수술 부위로 발광되도록, 구동부(예: 제2 구동부(381))의 동작을 제어할 수 있다. 상기 조명 제어 장치(200)(예: 프로세서(390))는 저장부(340)로부터 저장된 밝기 정보(예: 수술하기에 적합한 밝기에 대한 정보)를 획득하고, 상기 획득된 밝기 정보에 포함된 밝기와 상기 측정된 밝기를 비교할 수 있다. 이후, 상기 조명 제어 장치(200)(예: 프로세서(390))는 수술 부위의 밝기가 수술하기에 어두운 밝기인 것으로 판단되면, 조명부(120)의 적어도 하나의 발광 소자가 수술 부위를 향하도록 발광 소자의 발광 각도를 발광부(382)를 통해 제어할 수 있다.According to an embodiment, the lighting control device 200 (eg, the processor 390) may control the emission angle of at least one light emitting device (S418). When the lighting control device 200 (eg, processor 390) determines that the brightness of the surgical site is dark for surgery, at least one light emitting device (eg, LED) emits light to the surgical site, An operation of the driving unit (eg, the second driving unit 381) may be controlled. The lighting control device 200 (eg, the processor 390 ) acquires the stored brightness information (eg, information on brightness suitable for surgery) from the
일 실시 예에 따르면, 상기 조명부(120)는 적어도 하나의 발광 소자의 발광 각도를 제어하기 위한 적어도 하나의 구동부를 포함할 수 있다. 또는, 상기 조명부(120)는 복수의 발광 소자들로 이루어진 각 발광 소자 그룹 별로 각도를 제어하기 위한 하나의 구동부를 포함할 수 있다. 예를 들면, 상기 조명부(120)는 복수의 구동부들과, 각각의 구동부에 의해 발광 각도가 제어되는 복수의 발광 소자들로 이루어진 적어도 하나의 발광 소자 그룹을 포함할 수 있다. 예를 들면, 하나의 발광 소자 그룹은 복수의 발광 소자들(예: 4개 또는 6개)로 구성될 수 있다. 각 발광 소자 그룹은 고유의 식별자가 할당되어 있고, 이러한 식별자는 저장부(340)에 저장되어 있다. 프로세서(390)는 이러한 발광 하나의 발광 소자 그룹의 식별자를 통해 각 발광 소자 그룹(또는 각 발광 소자)이 조명부(120)의 어디에 장착되어 있는지를 판단할 수 있다. 그리고, 이러한 복수의 발광 소자들의 개수는 가변적으로 조절될 수 있다.According to an embodiment, the
도 5를 참조하면, 예를 들면, 제2 조명부(130)의 적어도 하나의 발광 소자의 발광(530)이 집도의(102)의 신체 일부(예: 머리)에 의해 환자의 수술 부위에 직접적으로 조사되지 못하는 경우, 제1 조명부(120)의 적어도 하나의 발광 소자는 프로세서(390)의 제어 하에 상기 수술 부위로 발광(520)되도록 제어될 수 있다.Referring to FIG. 5 , for example,
일 실시 예에 따르면, 상기 조명 제어 장치(200)(예: 프로세서(390))는 집도의(102)의 시선 위치에 기반하여 식별된 수술 부위에서의 제2 조명부(130)에 의한 밝기가 수술에 용이한 밝기 이하인 것으로 판단되면, 제1 조명부(120)의 물리적인 동작을 링크부(370)를 통해 제어할 수 있다. 그리고, 상기 조명 제어 장치(200)(예: 프로세서(390))는 제1 조명부(120)의 적어도 하나의 발광 소자의 발광 각도가 상기 수술 부위를 향하도록 해당 구동부(예: 제2 구동부(381))의 동작을 제어할 수 있다.According to one embodiment, the lighting control device 200 (eg, the processor 390) is the brightness by the
일 실시 예에 따르면, 상기 조명 제어 장치(200)(예: 프로세서(390))는 제어된 발광 각도에 기반하여 적어도 하나의 발광 소자를 발광시킬 수 있다(S420). 상기 조명 제어 장치(200)(예: 프로세서(390))는 링크부(370)의 적어도 하나의 제1 구동부(371)를 제어하여 링크의 동작을 제어함으로써, 적어도 하나의 조명부(120, 130)의 동작을 제어할 수 있다. 예를 들면, 상기 제1 구동부(371)는 상기 적어도 하나의 조명부(120, 130)의 물리적인 동작을 제어할 수 있다. 그리고, 상기 적어도 하나의 조명부(120, 130)에 포함된 적어도 하나의 발광 소자의 물리적인 동작은 각 조명부(120)에 포함된 제2 구동부(381)에 의해 동작이 제어될 수 있다.According to an embodiment, the lighting control device 200 (eg, the processor 390 ) may emit light based on the controlled light emission angle ( S420 ). The lighting control device 200 (eg, the processor 390 ) controls the at least one
도 5를 참조하면, 제2 조명부(130)의 적어도 하나의 발광 소자가 수술 부위로 발광하고 있는 상태에서, 제2 조명부(130)에 의한 밝기가 수술에 용이한 밝기 이하인 것으로 판단되면, 상기 조명 제어 장치(200)(예: 프로세서(390))는 제1 조명부(120)의 적어도 하나의 발광 소자를 수술 부위로 발광시킬 수 있다.Referring to FIG. 5 , in a state in which at least one light emitting element of the
도 6은 본 발명의 일 실시 예에 따른 스마트 안경의 블록도이다.6 is a block diagram of smart glasses according to an embodiment of the present invention.
도 6을 참조하면, 본 발명의 일 실시 예에 따른 스마트 안경(170)은 통신부(610), 입력부(620), 저장부(630), 전원부(640), 카메라부(650), 센서부(660), 조명부(670), 및 프로세서(680)를 포함할 수 있다. 상기 조명부(670)는 적어도 하나의 발광 소자를 포함하는 발광부(672) 및 상기 적어도 하나의 발광 소자의 발광 각도를 제어하는 구동부(671)를 포함할 수 있다. 상기 적어도 하나의 발광 소자는 구동부(671)의 제어 하에 상측 방향, 하측 방향, 좌측 방향 및 우측 방향 중 적어도 일부에 따라 움직일 수 있다.Referring to FIG. 6 , the
도 6에 도시된 조명 제어 장치(200)의 구성은 일 실시 예에 따른 것이고, 조명 제어 장치(200)의 구성 요소들이 도 3에 도시된 실시 예에 한정되는 것은 아니며, 필요에 따라 일부 구성 요소가 부가, 변경 또는 삭제될 수 있다.The configuration of the
일 실시 예에 따르면, 통신부(610)는 프로세서(680)의 제어 하에 조명 제어 장치(200)와 페어링을 수행하고, 상기 페어링을 통해 신호 또는 영상 데이터를 송신할 수 있는 적어도 하나의 회로를 포함할 수 있다. 또한, 상기 통신부(610)는 조명 제어 장치(200)로부터 수술에 관련된 적어도 일부의 정보를 수신할 수 있다. According to an embodiment, the
일 실시 예에 따르면, 상기 통신부(310)는 조명 제어 장치(200)가 위치한 수술실에서 수술 중인 환자에 대한 정보(예: 수술 부위에 대한 영상 데이터, 수술 시간 등)를 상기 조명 제어 장치(200)로 전송할 수 있다. 상기 통신부(310)는 조명 제어 장치(200)(예: 통신부(310))와 페어링을 수행한 후, 상기 정보를 송신할 수 있다. 상기 정보는 집도의(102)가 주시하고 있는 시선에 대한 정보(예: 시선이 향하는 위치에 대한 정보)를 포함할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 상기 입력부(620)는 외부 장치(예: USB(Universal Serial Bus), 외장 하드(미도시) 등)로/로부터 수술할 환자에 대한 다양한 데이터를 송신/수신할 수 있는 인터페이스를 포함할 수 있다. 상기 입력부(620)는 입력된 환자에 대한 다양한 정보를 프로세서(680)로 제공할 수 있다. 이를 위해, 입력부(620)는 스위치, 버튼 등의 물리적인 조작부재를 포함하거나 터치 키, 터치 패드, 터치 스크린 등의 전기적인 조작부재를 포함할 수 있다. 또는, 상기 입력부(620)는 사용자(예: 집도의, 간호사, 마취의 등등)의 음성 신호를 입력 받을 수 있는 마이크를 더 포함할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 상기 저장부(630)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. 예를 들면, 상기 저장부(630)는 스마트 안경(170)의 동작에 필요한 정보, 데이터, 프로그램 등이 저장될 수 있다. 이에 따라, 프로세서(680)는 저장부(630)에 저장된 정보를 참조하여 후술하는 제어 동작을 수행할 수 있다. 상기 저장부(630)는 다양한 플랫폼(platform)을 저장할 수도 있다. 상기 저장부(630)는, 예를 들어, 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM), 롬(EEPROM 등), USB 메모리 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 상기 저장부(630)는 조명 제어 장치(200)가 위치한 수술실에서 획득된 영상 데이터를 저장할 수 있다. 또한, 상기 저장부(630)는 수술 중인 환자에 대한 정보(예: 수술 부위에 대한 영상 데이터, 수술 시간 등)를 저장할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 상기 전원부(640)는 외부 전원과의 유선 연결 또는 무선 연결을 위한 인터페이스(미도시)를 포함할 수 있다. 상기 인터페이스(미도시)는 HDMI(high-definition multimedia interface), USB(universal serial bus), 광 인터페이스, 또는 D-sub(D-subminiature)를 포함할 수 있다. 상기 인터페이스(미도시)는 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure digital) 카드/MMC(multi-media card) 인터페이스, 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다. 상기 전원부(640)는 배터리(미도시)를 포함하며, 배터리에 충전된 전원에 기반하여 상기 스마트 안경(170)이 동작하는데 필요한 전원을 공급할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 상기 카메라부(650)는 적어도 하나의 카메라를 포함할 수 있다. 상기 카메라부(650)는 수술실 내부의 사람(예: 환자, 집도의, 간호사, 마취의 등)에 대한 이미지(또는 영상 데이터)를 획득할 수 있다. 상기 카메라부(650)는 수술 침대상의 환자에 대한 수술 부위의 이미지(또는 영상 데이터)를 획득할 수 있다. 상기 카메라부(650)는 인공지능 칩(예: DQ1)이 내장된 영상 지능 카메라(또는 스마트 영상 지능 카메라)를 포함할 수 있다. 이러한 영상 지능 카메라를 통해 수술 환자의 얼굴 및 수술 부위을 인식할 수 있고, 수술 부위에 대한 적어도 하나의 영상 데이터를 획득할 수 있다. According to an embodiment, the
일 실시 예에 따르면, 영상 지능 카메라는 인공지능 칩(예: DQ1)에서 동작 가능한 딥러닝 기반 알고리즘이 적용된 카메라로서, 수술 환자의 안면 또는 수술 부위 인식, 및 수술실 내의 사람(예: 집도의, 간호사, 마취의 등)을 구분할 수 있다. 이러한 영상 지능 카메라는 스마트 안경(170)의 카메라부(650)에 포함될 수 있다. According to an embodiment, the image intelligence camera is a camera to which a deep learning-based algorithm that can operate on an artificial intelligence chip (eg, DQ1) is applied, recognizes a surgical patient's face or a surgical site, and a person in the operating room (eg, an operating surgeon, a nurse). , anesthesiologists, etc.) can be distinguished. Such an intelligent image camera may be included in the
일 실시 예에 따르면, 상기 카메라부(650)는 조명에 의한 조도가 높은 상황에서도 수술 부위에 대한 영상 데이터를 획득할 수 있는 카메라(예: RGB(Red Green Blue) 카메라))를 포함할 수 있다. 상기 카메라부(650)는 이미지를 획득하는데 필요한 조명을 발광하는 소자(예: LED, IR 패턴 조명)를 포함할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 상기 센서부(660)는 수술실 내의 밝기 세기를 감지할 수 있다. 상기 센서부(660)는 스마트 안경(170)의 일 측에 배치되어 환자의 수술 부위에 대한 밝기 세기를 감지하고, 감지 결과를 프로세서(680)로 전송할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 상기 조명부(670)는 적어도 하나의 구동부(671), 및 각 구동부(671)에 의해 동작되어 발광되는 적어도 하나의 발광 소자로 구성된 발광부(672)를 포함할 수 있다. 상기 발광부(672)는 적어도 하나의 발광 소자(예: LED)로 구성되거나, 또는 복수 개로 그룹핑될 수 있다. According to an embodiment, the
일 실시 예에 따르면, 상기 프로세서(680)는 소프트웨어를 구동하여 상기 프로세서(680)에 연결된 적어도 하나의 구성요소(예: 통신부(610), 입력부(620), 저장부(630), 전원부(640), 카메라부(650), 센서부(660), 및 조명부(670))를 유선 통신 또는 무선 통신에 기반하여 제어할 수 있다. 상기 프로세서(680)는 유선 통신 또는 무선 통신에 기반하여 다양한 데이터 처리 및 연산을 수행할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 상기 프로세서(680)는 인공지능 칩(예: DQ1)(681)이 내장될 수 있다. 또는, 상기 인공지능 칩에 대한 알고리즘은 상기 프로세서(680)에 의해 구현될 수 있다. 상기 인공지능 칩은 인간의 뇌 신경망을 모방한 프로세서로서 다양한 데이터를 스스로 분석, 인지, 추론, 판단하는 딥러닝 알고리즘을 지원할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 상기 프로세서(680)는 조명 제어 장치(200)와 페어링을 수행할 수 있다. 상기 프로세서(680)는 수술실에서 수술 중인 환자에 대한 정보(예: 수술 부위에 대한 영상 데이터, 수술 시간 등)를 조명 제어 장치(200)로 전송하기 위해 조명 제어 장치(200)와 페어링을 수행할 수 있다. According to an embodiment, the
일 실시 예에 따르면, 상기 프로세서(680)는 수술을 진행하는 집도의의 시선, 및 상기 시선에 대응되는 수술 부위에서의 밝기를 센서부(660)를 통해 식별할 수 있다. 상기 프로세서(680)는 집도의의 눈동자에 대한 적어도 하나의 영상 데이터를 카메라부(650) 내의 적어도 하나의 카메라를 통해 획득하고, 상기 획득된 영상 데이터를 통해 집도의의 각 눈동자의 시선을 추적할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 상기 프로세서(680)는 집도의의 각 눈동자의 시선을 통해 수술 부위를 식별하고, 상기 식별된 수술 부위로 발광부(672) 내의 적어도 하나의 발광 소자를 발광시킬 수 있다. 예를 들면, 상기 프로세서(680)는 수술 부위에서의 밝기와 미리 결정된 밝기를 비교할 수 있다. 상기 프로세서(680)는 수술 부위에서의 빛의 세기와 미리 결정된 세기(예: 100,000 Lux)를 비교할 수 있다. 상기 프로세서(680)는 수술 부위에서의 빛의 세기가 상기 미리 결정된 세기(예: 100,000 Lux) 보다 작을 경우, 상기 수술 부위의 밝기가 수술하기에 어두운 것으로 판단할 수 있다. According to an embodiment, the
일 실시 예에 따르면, 상기 프로세서(680)는 조명 제어 장치(200)와 페어링을 수행하고, 상기 페어링에 의해 연결된 채널을 통해 수술실에서 수술 중인 환자에 대한 정보(예: 수술 부위에 대한 영상 데이터, 수술 시간 등)를 조명 제어 장치(200)로 전송할 수 있다. 상기 영상 데이터는 집도의의 시선이 향하는 수술 부위에 대한 위치를 나타내는 정보를 포함할 수 있다. 상기 정보는 상기 스마트 안경(170)을 착용한 집도의가 현재 주시하고 있는 수술 부위가 어디인지를 나타내는 정보를 포함할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 상기 프로세서(680)는 적어도 하나의 영상 데이터를 조명 제어 장치(200)로 전송한 것에 응답하여, 상기 조명 제어 장치(200)로부터 제어 신호를 통신부(610)를 통해 수신할 수 있다. 상기 프로세서(680)는 조명부(670)(예: 발광부(672))의 동작을 제어하기 위해 조명 제어 장치(200)가 전송하는 신호를 수신하고, 상기 수신된 신호에 기반하여 적어도 하나의 구동부(671)의 물리적인 동작을 제어할 수 있다. 또한, 상기 프로세서(680)는 상기 신호에 기반하여 적어도 하나의 발광부(672)의 발광을 제어할 수 있다. , According to an embodiment, the
도 7은 본 발명의 일 실시 예에 따른 스마트 안경의 동작을 나타낸 순서도이다. 도 8은 본 발명의 일 실시 예에 따른 스마트 안경의 발광을 나타낸 예시도이다.7 is a flowchart illustrating the operation of smart glasses according to an embodiment of the present invention. 8 is an exemplary view illustrating light emission of smart glasses according to an embodiment of the present invention.
이하, 도 7 및 도 8을 참조하여, 본 발명의 일 실시 예에 따른 스마트 안경의 동작을 상세히 설명하면 다음과 같다.Hereinafter, the operation of the smart glasses according to an embodiment of the present invention will be described in detail with reference to FIGS. 7 and 8 .
일 실시 예에 따르면, 스마트 안경(170)(예: 프로세서(680))은 집도의의 시선 위치를 식별할 수 있다(S710). 상기 스마트 안경(170)(예: 프로세서(680))은 수술을 진행하는 집도의의 시선, 및 시선에 대응되는 수술 부위에서의 밝기를 식별할 수 있다. 상기 스마트 안경(170)(예: 프로세서(680))은 카메라를 통해 식별된 집도의의 눈동자에 대한 적어도 하나의 영상 데이터를 통해 집도의의 각 눈동자의 시선을 추적할 수 있다.According to an embodiment, the smart glasses 170 (eg, the processor 680 ) may identify the position of the surgeon's gaze ( S710 ). The smart glasses 170 (eg, the processor 680 ) may identify the gaze of the surgeon performing the surgery, and the brightness of the surgical site corresponding to the gaze. The smart glasses 170 (eg, the processor 680 ) may track the gaze of each pupil of the surgeon through at least one image data of the pupil of the surgeon identified through the camera.
일 실시 예에 따르면, 스마트 안경(170)(예: 프로세서(680))은 적어도 하나의 카메라를 통해 영상 데이터를 획득하고, 획득된 영상 데이터를 통해 수술 중인 집도의의 시선이 향하는 지점 또는 부위를 판단할 수 있다. 스마트 안경(170)(예: 프로세서(680))은 잘 알려진 시선 추적 기술을 활용할 수 있다. According to an embodiment, the smart glasses 170 (eg, the processor 680) acquires image data through at least one camera, and determines a point or a region to which the gaze of the surgeon in operation is directed through the obtained image data. can do. The smart glasses 170 (eg, the processor 680 ) may utilize well-known eye tracking technology.
일 실시 예에 따르면, 상기 스마트 안경(170)(예: 프로세서(680))은 식별된 시선 위치에서의 발광부에 의한 밝기를 측정할 수 있다(S712). 상기 스마트 안경(170)(예: 프로세서(680))은 상기 스마트 안경(170)에 부착된 센서부(660)로부터 획득된 밝기 세기에 대한 정보를 통해 수술 부위의 밝기를 식별할 수 있다. 상기 센서부(660)는 상기 스마트 안경(170)의 일 측에 배치되어 환자의 수술 부위에 대한 밝기 세기를 감지하고, 감지 결과를 프로세서(680)로 전송할 수 있다.According to an embodiment, the smart glasses 170 (eg, the processor 680 ) may measure the brightness by the light emitting unit at the identified gaze position ( S712 ). The smart glasses 170 (eg, the processor 680 ) may identify the brightness of the surgical site through information about the brightness intensity obtained from the
일 실시 예에 따르면, 상기 스마트 안경(170)(예: 프로세서(680))은 측정된 밝기가 미리 결정된 밝기 이하인지 식별할 수 있다(S714). 상기 스마트 안경(170)(예: 프로세서(680))은 적어도 하나의 영상 데이터를 통해 수술중인 집도의의 시선이 향하는 지점 또는 부위를 판단할 수 있다. 그리고, 상기 스마트 안경(170)(예: 프로세서(680))은 수술 부위의 밝기가 미리 결정된 밝기(예: 100,000 Lux) 이하인 경우, 발광부(672)에 포함된 적어도 하나의 발광 소자의 발광을 제어할 수 있다. 상기 프로세서(680)는 적어도 하나의 발광 소자가 수술 부위로 향하도록 구동부(671)의 물리적인 동작을 제어할 수 있다. 상기 프로세서(680)는 링크의 움직임을 제어하는 제어 신호를 구동부(671)로 전달함으로써, 적어도 하나의 발광 소자의 발광 각도를 제어할 수 있다.According to an embodiment, the smart glasses 170 (eg, the processor 680) may identify whether the measured brightness is less than or equal to a predetermined brightness (S714). The smart glasses 170 (eg, the processor 680 ) may determine a point or a region toward which the eye of the surgeon undergoes surgery through at least one image data. In addition, the smart glasses 170 (eg, the processor 680) emits light of at least one light emitting device included in the
일 실시 예에 따르면, 상기 스마트 안경(170)(예: 프로세서(680))은 수술 부위의 빛의 세기가 상기 미리 결정된 밝기(예: 100,000 Lux) 보다 작지 않을 경우, 상기 수술 부위의 밝기가 수술하기에 어둡지 않은 것으로 판단할 수 있다.According to one embodiment, the smart glasses 170 (eg, the processor 680), when the intensity of the light of the surgical site is not less than the predetermined brightness (eg, 100,000 Lux), the brightness of the surgical site Therefore, it can be judged that it is not dark.
일 실시 예에 따르면, 상기 스마트 안경(170)(예: 프로세서(680))은 상기 식별된 시선 위치에 집도의의 클래스의 발광 소자를 발광시킬 수 있다(S716). 상기 스마트 안경(170)(예: 프로세서(680))은 수술 부위의 밝기가 수술하기에 어두운 밝기인 것으로 판단되면, 적어도 하나의 발광 소자(예: LED)가 상기 수술 부위로 발광되도록, 구동부(예: 구동부(671))의 동작을 제어할 수 있다. 상기 스마트 안경(170)(예: 프로세서(680))은 저장부(630)로부터 저장된 밝기 정보(예: 수술하기에 적합한 밝기에 대한 정보)를 획득하고, 상기 획득된 밝기 정보에 포함된 밝기와 상기 측정된 밝기를 비교할 수 있다. According to an embodiment, the smart glasses 170 (eg, the processor 680 ) may emit a light emitting device of the class of the surgeon at the identified gaze position ( S716 ). When it is determined that the brightness of the surgical site is dark for surgery, the smart glasses 170 (eg, the processor 680) include a driving unit ( For example, the operation of the driving unit 671) may be controlled. The smart glasses 170 (eg, the processor 680) acquires the stored brightness information (eg, information on brightness suitable for surgery) from the
일 실시 예에 따르면, 상기 스마트 안경(170)(예: 프로세서(680))은 수술 부위의 밝기가 수술하기에 어두운 밝기인 것으로 판단되면, 조명부(670)의 적어도 하나의 발광 소자가 수술 부위를 향하도록 발광 소자의 발광 각도를 발광부(672)를 통해 제어할 수 있다.According to an embodiment, when the smart glasses 170 (eg, the processor 680 ) determine that the brightness of the surgical site is dark for surgery, at least one light emitting element of the
도 8을 참조하면, 제1 조명부(120), 및 제2 조명부(130) 각각의 적어도 하나의 발광 소자가 수술 부위로 빛을 조사하고 있는 중에, 집도의(102)의 신체 일부(예: 머리)에 의해 조사되는 빛이 전달되지 못할 수 있다. 이러한 경우, 상기 스마트 안경(170)(예: 프로세서(680))은 센서부(660)를 통해 수술 부위에서의 음영(예: 집도의에 의한 그림자)이 존재하는지 식별할 수 있다. Referring to FIG. 8 , while at least one light emitting element of each of the
또는, 상기 스마트 안경(170)(예: 프로세서(680))은 적어도 하나의 카메라(650)로부터 획득된 영상을 분석하여, 식별된 시선 위치에 대응되는 수술 부위에 음영이 존재하는지 식별할 수 있다. 상기 스마트 안경(170)(예: 프로세서(680))은 획득된 영상에서 특정 영역의 픽셀 컬러를 통해 상기 특정 영역에 음영이 존재하는지 식별할 수 있다.Alternatively, the smart glasses 170 (eg, the processor 680 ) may analyze the image obtained from the at least one
그리고, 상기 스마트 안경(170)(예: 프로세서(680))은 수술 부위에 음영이 존재하는 것으로 식별되면, 발광부(672) 내의 적어도 하나의 발광 소자가 상기 수술 부위로 발광(810)되도록 조명부(670)를 제어할 수 있다.In addition, when the smart glasses 170 (eg, the processor 680 ) are identified as having a shadow in the surgical site, at least one light emitting device in the
이상에서 상술한 각각의 순서도에서의 각 단계는 도시된 순서에 무관하게 동작될 수 있거나, 또는 동시에 수행될 수 있다. 또한, 본 발명의 적어도 하나의 구성 요소와, 상기 적어도 하나의 구성 요소에서 수행되는 적어도 하나의 동작은 하드웨어 및/또는 소프트웨어로 구현 가능할 수 있다. Each step in each of the above-described flowcharts may be operated regardless of the illustrated order, or may be performed simultaneously. In addition, at least one component of the present invention and at least one operation performed by the at least one component may be implemented in hardware and/or software.
이상과 같이 본 발명에 대해서 예시한 도면을 참조로 하여 설명하였으나, 본 명세서에 개시된 실시 예와 도면에 의해 본 발명이 한정되는 것은 아니며, 본 발명의 기술사상의 범위 내에서 통상의 기술자에 의해 다양한 변형이 이루어질 수 있음은 자명하다. 아울러 앞서 본 발명의 실시 예를 설명하면서 본 발명의 구성에 따른 작용 효과를 명시적으로 기재하여 설명하지 않았을 지라도, 해당 구성에 의해 예측 가능한 효과 또한 인정되어야 함은 당연하다.As described above, the present invention has been described with reference to the illustrated drawings, but the present invention is not limited by the embodiments and drawings disclosed in the present specification. It is obvious that variations can be made. In addition, although the effects according to the configuration of the present invention have not been explicitly described and described while describing the embodiments of the present invention, it is natural that the effects predictable by the configuration should also be recognized.
120: 조명부
140: 카메라부
200: 조명 제어 장치
310: 통신부
320: 인터페이스부
330: 입력부
340: 저장부
350: 스피커
360: 센서부
370: 링크부
382: 발광부
390: 프로세서120: lighting unit 140: camera unit
200: lighting control device 310: communication unit
320: interface unit 330: input unit
340: storage 350: speaker
360: sensor unit 370: link unit
382: light emitting unit 390: processor
Claims (20)
통신부;
조명부; 및
상기 통신부, 및 상기 조명부와 전기적으로 연결된 프로세서를 포함하며,
상기 프로세서는,
수술에 관련된 적어도 하나의 영상 데이터를 상기 통신부를 통해 수신하고,
상기 수신된 적어도 하나의 영상 데이터에 기반하여, 집도의의 시선에 대한 정보를 획득하고,
상기 집도의 시선에 대응되는 영역에서의 밝기를 측정하고,
상기 측정된 밝기가 미리 결정된 밝기 이하인 경우, 상기 조명부에 포함된 적어도 하나의 발광 소자의 발광을 제어하도록 설정된 조명 제어 장치.
A lighting control device comprising:
communication department;
lighting unit; and
It includes a processor electrically connected to the communication unit, and the lighting unit,
The processor is
Receive at least one image data related to surgery through the communication unit,
Based on the received at least one image data, obtain information about the surgeon's gaze,
Measuring the brightness in the area corresponding to the gaze of the operator,
When the measured brightness is less than or equal to a predetermined brightness, a lighting control device set to control the light emission of at least one light emitting element included in the lighting unit.
상기 조명부는,
상기 적어도 하나의 발광 소자의 발광 각도를 제어하기 위한 적어도 하나의 구동부를 포함하는 조명 제어 장치.
According to claim 1,
The lighting unit,
Lighting control device comprising at least one driver for controlling the light emission angle of the at least one light emitting element.
상기 영상 데이터는,
상기 수술을 진행하는 상기 집도의의 시선이 향하는 수술 부위의 위치 정보를 포함하는 조명 제어 장치.
According to claim 1,
The video data is
Lighting control device including location information of the surgical site to which the gaze of the surgeon performing the operation is directed.
상기 프로세서는,
상기 수술 부위의 위치 정보에 기반하여, 상기 적어도 하나의 발광 소자가 상기 수술 부위로 향하도록 구동부를 동작시키는 조명 제어 장치.
4. The method of claim 3,
The processor is
Based on the location information of the surgical site, the lighting control device for operating the driving unit to direct the at least one light emitting element toward the surgical site.
상기 조명부는,
복수의 구동부들; 및
상기 복수의 구동부들 각각에 의해, 발광 각도가 제어되는 복수의 발광 소자들로 이루어진 적어도 하나의 발광 소자 그룹을 포함하는 조명 제어 장치.
According to claim 1,
The lighting unit,
a plurality of driving units; and
A lighting control apparatus comprising at least one light emitting element group comprising a plurality of light emitting elements whose light emission angle is controlled by each of the plurality of driving units.
링크부를 포함하며,
상기 프로세서는,
상기 링크부에 포함된 적어도 하나의 구동부를 제어하여 상기 조명부의 움직임을 제어하도록 설정된 조명 제어 장치.
According to claim 1,
including a link,
The processor is
A lighting control device set to control the movement of the lighting unit by controlling at least one driving unit included in the link unit.
상기 프로세서는,
스마트 안경과 페어링을 수행하고,
상기 페어링에 기반하여 상기 스마트 안경과 신호 또는 데이터를 상기 통신부를 통해 송수신 하도록 설정된 조명 제어 장치.
According to claim 1,
The processor is
Pairing with smart glasses,
A lighting control device set to transmit and receive signals or data to and from the smart glasses through the communication unit based on the pairing.
통신부;
센서부;
조명부; 및
상기 통신부, 상기 센서부, 및 상기 조명부와 전기적으로 연결된 프로세서를 포함하며,
상기 프로세서는,
수술을 진행하는 집도의의 시선, 및 상기 시선에 대응되는 수술 부위에서의 밝기를 상기 센서부를 통해 식별하고,
상기 밝기가 미리 결정된 밝기 이하인 경우, 상기 조명부에 포함된 적어도 하나의 발광 소자의 광을 상기 수술 부위에 조사시키도록 설정된 스마트 안경.
In smart glasses,
communication department;
sensor unit;
lighting unit; and
It includes a processor electrically connected to the communication unit, the sensor unit, and the lighting unit,
The processor is
Identifies the eye of the surgeon performing the operation, and the brightness at the surgical site corresponding to the eye through the sensor unit,
When the brightness is less than a predetermined brightness, smart glasses set to irradiate the light of at least one light emitting element included in the lighting unit to the surgical site.
상기 집도의의 눈동자에 대한 적어도 하나의 영상 데이터를 획득하는 적어도 하나의 카메라를 포함하며,
상기 프로세서는,
상기 획득된 적어도 하나의 영상 데이터를 통해 집도의의 각 눈동자의 시선을 추적하도록 설정된 스마트 안경.
9. The method of claim 8,
Comprising at least one camera for acquiring at least one image data for the pupil of the surgeon,
The processor is
Smart glasses set to track the gaze of each pupil of the surgeon through the obtained at least one image data.
상기 프로세서는,
상기 획득된 적어도 하나의 영상 데이터에 상기 추적된 시선의 위치에 대한 정보를 추가하고,
상기 추적된 시선의 위치에 대한 정보가 추가된 적어도 하나의 영상 데이터를 상기 통신부를 통해 조명 제어 장치로 전송하도록 설정된 스마트 안경.
10. The method of claim 9,
The processor is
adding information on the position of the tracked gaze to the at least one image data obtained,
Smart glasses set to transmit at least one image data to which information on the position of the tracked gaze is added to the lighting control device through the communication unit.
상기 프로세서는,
상기 적어도 하나의 영상 데이터의 전송에 응답하여, 상기 조명 제어 장치로부터 제어 신호를 상기 통신부를 통해 수신하고,
상기 수신된 제어 신호에 기반하여 상기 조명부에 포함된 적어도 하나의 발광 소자의 광을 상기 수술 부위에 조사시키도록 설정된 스마트 안경.
11. The method of claim 10,
The processor is
In response to the transmission of the at least one image data, receiving a control signal from the lighting control device through the communication unit,
Smart glasses set to irradiate the light of at least one light emitting device included in the lighting unit to the surgical site based on the received control signal.
상기 프로세서는,
상기 수술 부위에서 상기 추적된 시선에 대응되는 영역을 식별하고,
상기 적어도 하나의 발광 소자를 상기 식별된 영역으로 발광시키도록 설정된 스마트 안경.
11. The method of claim 10,
The processor is
Identifies an area corresponding to the tracked gaze in the surgical site,
Smart glasses configured to emit light to the at least one light emitting element into the identified area.
상기 프로세서는,
조명 제어 장치와 페어링을 수행하고,
상기 페어링에 기반하여 상기 조명 제어 장치와 신호 또는 데이터를 상기 통신부를 통해 송수신 하도록 설정된 조명 제어 장치.
9. The method of claim 8,
The processor is
perform pairing with the lighting control device;
A lighting control device set to transmit and receive signals or data through the communication unit with the lighting control device based on the pairing.
수술에 관련된 적어도 하나의 영상 데이터를 수신하는 과정;
상기 수신된 적어도 하나의 영상 데이터에 기반하여, 집도의의 시선에 대한 정보를 획득하는 과정;
상기 집도의 시선에 대응되는 영역에서의 밝기를 측정하는 과정; 및
상기 측정된 밝기가 미리 결정된 밝기 이하인 경우, 조명부에 포함된 적어도 하나의 발광 소자의 발광을 제어하는 과정을 포함하는 조명 제어 방법.
In the lighting control method of a lighting device,
receiving at least one image data related to surgery;
obtaining information on a gaze of a surgeon based on the received at least one image data;
measuring the brightness in an area corresponding to the gaze of the surgeon; and
and controlling light emission of at least one light emitting element included in the lighting unit when the measured brightness is less than or equal to a predetermined brightness.
상기 수술을 진행하는 상기 집도의의 시선이 향하는 수술 부위의 위치 정보에 기반하여, 상기 적어도 하나의 발광 소자가 상기 수술 부위로 향하도록 구동부를 동작시키는 과정을 더 포함하는 조명 제어 방법.
15. The method of claim 14,
The method further comprising: operating a driving unit to direct the at least one light emitting device to the surgical site based on the location information of the surgical site to which the surgeon's gaze is directed.
스마트 안경과 페어링을 수행하는 과정; 및
상기 페어링에 기반하여 상기 스마트 안경과 신호 또는 데이터를 송수신하는 과정을 더 포함하는 조명 제어 방법.
15. The method of claim 14,
the process of performing pairing with smart glasses; and
Lighting control method further comprising the step of transmitting and receiving a signal or data with the smart glasses based on the pairing.
수술을 진행하는 집도의의 시선, 및 상기 시선에 대응되는 수술 부위에서의 밝기를 식별하는 과정; 및
상기 밝기가 미리 결정된 밝기 이하인 경우, 조명부에 포함된 적어도 하나의 발광 소자의 광을 상기 수술 부위에 조사시키는 과정을 포함하는 조명 제어 방법.
In the lighting control method of smart glasses,
The process of identifying the gaze of the surgeon performing the operation, and the brightness of the surgical site corresponding to the gaze; and
When the brightness is less than a predetermined brightness, lighting control method comprising the step of irradiating the light of at least one light emitting device included in the lighting unit to the surgical site.
상기 집도의의 눈동자에 대한 적어도 하나의 영상 데이터를 획득하는 과정; 및
상기 획득된 적어도 하나의 영상 데이터를 통해 집도의의 각 눈동자의 시선을 추적하는 과정을 더 포함하는 조명 제어 방법.
18. The method of claim 17,
acquiring at least one image data of the pupil of the surgeon; and
The lighting control method further comprising the step of tracking the gaze of each pupil of the surgeon through the obtained at least one image data.
상기 획득된 적어도 하나의 영상 데이터에 상기 추적된 시선의 위치에 대한 정보를 추가하는 과정; 및
상기 추적된 시선의 위치에 대한 정보가 추가된 적어도 하나의 영상 데이터를 조명 제어 장치로 전송하는 과정을 더 포함하는 조명 제어 방법.
19. The method of claim 18,
adding information on the position of the tracked gaze to the at least one obtained image data; and
The lighting control method further comprising the step of transmitting at least one image data to which information on the position of the tracked gaze is added to a lighting control device.
상기 적어도 하나의 영상 데이터의 전송에 응답하여, 상기 조명 제어 장치로부터 제어 신호를 수신하는 과정; 및
상기 수신된 제어 신호에 기반하여 상기 조명부에 포함된 적어도 하나의 발광 소자의 광을 상기 수술 부위에 조사시키는 과정을 더 포함하는 조명 제어 방법.20. The method of claim 19,
In response to the transmission of the at least one image data, the process of receiving a control signal from the lighting control device; and
Lighting control method further comprising the step of irradiating light from at least one light emitting device included in the lighting unit to the surgical site based on the received control signal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200147779A KR20220061614A (en) | 2020-11-06 | 2020-11-06 | A lighting control device and method, and smart galsses and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200147779A KR20220061614A (en) | 2020-11-06 | 2020-11-06 | A lighting control device and method, and smart galsses and method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220061614A true KR20220061614A (en) | 2022-05-13 |
Family
ID=81583279
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200147779A KR20220061614A (en) | 2020-11-06 | 2020-11-06 | A lighting control device and method, and smart galsses and method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20220061614A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240051397A (en) | 2022-10-12 | 2024-04-22 | 주식회사 덴티스 | Shadowless Method and Apparatus for Surgical Lighting |
-
2020
- 2020-11-06 KR KR1020200147779A patent/KR20220061614A/en active Search and Examination
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240051397A (en) | 2022-10-12 | 2024-04-22 | 주식회사 덴티스 | Shadowless Method and Apparatus for Surgical Lighting |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11937900B2 (en) | Systems and methods for video-based monitoring of a patient | |
US20210306599A1 (en) | Dental and medical loupe system for lighting control, streaming, and augmented reality assisted procedures | |
US10805520B2 (en) | System and method using adjustments based on image quality to capture images of a user's eye | |
JP4296278B2 (en) | Medical cockpit system | |
CA2633047C (en) | Emergency facility video-conferencing system | |
WO2018205722A1 (en) | Rehabilitation robot, rehabilitation system, rehabilitation method and rehabilitation apparatus | |
KR102531976B1 (en) | Electronic apparatus, portable device, and the control method thereof | |
GB2521877A (en) | System and method for transcranial stimulation of a head region of a subject | |
CN107169309B (en) | Visual field detection method, system and detection device based on wear-type detection device | |
US20210235992A1 (en) | Attached sensor activation of additionally-streamed physiological parameters from non-contact monitoring systems and associated devices, systems, and methods | |
JP2004512058A (en) | Hospital bed remote control | |
CN113397503B (en) | Control method of household medical equipment and related device | |
KR20220061614A (en) | A lighting control device and method, and smart galsses and method | |
US10993608B2 (en) | Endoscope system and control method | |
CN107949313A (en) | System, method and processor for the vital sign of monitoring object | |
KR20200056492A (en) | Vein detection device | |
US20230037675A1 (en) | Patient transfer training system | |
US20220190524A1 (en) | Cable and notification method | |
KR20220076579A (en) | An electronic device and method for displaying stereoscopic images | |
KR20220069704A (en) | An electronic device and method for identifying patient condition | |
WO2019102693A1 (en) | Endoscope system, processor, control method, and program | |
KR20220051878A (en) | An apparatus and method, and a user terminal | |
CN204351799U (en) | Portable eye checkout facility and system | |
CN219895714U (en) | Intraoperative monitoring system | |
KR102597006B1 (en) | Physical therapy management system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination |