WO2016013252A1 - 医療システム - Google Patents

医療システム Download PDF

Info

Publication number
WO2016013252A1
WO2016013252A1 PCT/JP2015/057859 JP2015057859W WO2016013252A1 WO 2016013252 A1 WO2016013252 A1 WO 2016013252A1 JP 2015057859 W JP2015057859 W JP 2015057859W WO 2016013252 A1 WO2016013252 A1 WO 2016013252A1
Authority
WO
WIPO (PCT)
Prior art keywords
line
sight
measurement
unit
recognition
Prior art date
Application number
PCT/JP2015/057859
Other languages
English (en)
French (fr)
Inventor
頼人 前田
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2015552931A priority Critical patent/JP5911655B1/ja
Priority to CN201580003463.6A priority patent/CN105873539B/zh
Priority to EP15825327.8A priority patent/EP3078343A4/en
Publication of WO2016013252A1 publication Critical patent/WO2016013252A1/ja
Priority to US15/171,249 priority patent/US9483114B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00216Electrical control of surgical instruments with eye tracking or head position tracking control

Definitions

  • Embodiments of the present invention relate to a medical system, and more particularly, to a medical system that controls a device by eye recognition.
  • an object of the present invention is to provide a medical system in which the cause can be easily grasped when the line of sight is not recognized, and the operator can concentrate on the operation.
  • FIG. 3 is a diagram for explaining a detailed configuration of a system controller 6.
  • the figure explaining an example of the gaze operation screen 3a The figure which shows an example of the display content of the eyeball recognition condition display area.
  • FIG. 1 is a diagram illustrating an example of the overall configuration of a medical system 1 according to an embodiment of the present invention.
  • a medical system 1 includes a peripheral device 2 that is a controlled device including a plurality of medical devices, a monitor 3 that receives a line-of-sight operation by an operator such as an operator, and a monitor. 3, a line-of-sight measuring device 15 that recognizes the line of sight of an operator who performs a line-of-sight operation and measures line-of-sight coordinates, an operation panel 4 that receives an operation by an operator such as a nurse, a display panel 5, and a peripheral device 2 And a system controller 6 that performs centralized control.
  • the peripheral device 2 is composed of a plurality of medical devices that perform observation, inspection, treatment, and the like. Specifically, it is composed of an endoscope camera device 7, an insufflation device 8, a light source device 9, an electric scalpel device 10, a monitor (monitor 11a, monitor 11b), and the like.
  • the peripheral device 2 is not limited to these medical devices, and may include a video tape recorder (VTR), for example.
  • VTR video tape recorder
  • the monitor 3 displays a line-of-sight operation screen 3a that is a display unit for performing a batch operation of the peripheral devices 2 on, for example, a liquid crystal display.
  • a line-of-sight measurement device 15 as a line-of-sight detection unit is installed in the lower part of the monitor 3, and the eye-gaze position coordinate of the operator is measured by the line-of-sight measurement device 15.
  • FIG. 2 is a diagram illustrating the installation position of the line-of-sight measurement device 15.
  • the line-of-sight measurement device 15 includes a small camera 16 that photographs the eyeball from the front direction, and the position coordinates captured by the operator's line of sight on the line-of-sight operation screen 3a by tracking the position of the pupil of the eyeball of the surgeon. Is measured in real time. Information such as line-of-sight position coordinates measured by the line-of-sight measurement device 15 is input to the system controller 6.
  • the operation panel 4 is, for example, a touch panel display in which a liquid crystal display and a touch panel sensor arranged on the liquid crystal display are integrated. This is an operating device for a nurse or the like in a non-sterile area to operate the peripheral device 2, and the operation information is input to the system controller 6.
  • the display panel 5 is display means capable of selectively displaying all data during the operation.
  • the light source device 9 is connected to an endoscope (not shown) via a light guide cable that transmits illumination light. Illumination light from the light source device 9 is supplied to the endoscope, and illuminates the affected part in the abdomen of the patient into which the insertion part of the endoscope is inserted.
  • a camera head equipped with an image sensor is attached to the proximal end side of the insertion portion of the endoscope, and an optical image of the affected area is captured by the image sensor in the camera head.
  • An imaging signal imaged by this imaging element is transmitted to the endoscope camera device 7 via a cable.
  • the endoscope camera device 7 performs predetermined signal processing on the transmitted imaging signal to generate a video signal.
  • the endoscope camera device 7 outputs the generated video signal to the monitor 11a and the monitor 11b via the system controller 6.
  • an input video signal that is, an endoscopic image of the affected part or the like is displayed.
  • a carbon dioxide gas cylinder (not shown) is connected to the pneumoperitoneum device 8 so that carbon dioxide gas is supplied into the abdomen of the patient through a pneumothorax tube extending from the pneumoperitoneum device 8 to the patient.
  • the operation panel 4, the display panel 5, the system controller 6, the endoscope camera device 7, the pneumoperitoneum device 8, the light source device 9, and the electric knife device 10 are installed in a rack 12.
  • the system controller 6 is permanently installed in the operating room such as a patient bed 13 on which a patient lies, and a surgical light suspended from the ceiling (a surgical light 14a and a surgical light 14b). Facilities are also controlled as controlled devices.
  • the medical system 1 illustrates the medical system 1 provided in an operating room where endoscopic surgery is performed, the use of the medical system 1 is not limited to endoscopic surgery, and other operations and medical examinations. May be used for Moreover, the medical system 1 may be provided in places other than the operating room such as an examination room.
  • the medical system 1 may further include various devices and equipment not shown in FIG. For example, an operative field camera for observing the operative field may be included, and these may be controlled by the system controller 6.
  • FIG. 3 is a diagram for explaining the configuration of a device connected to the system controller 6.
  • a peripheral device 2 that is a controlled device
  • a monitor 3 that is an operation input device
  • a line-of-sight measurement device 15 are connected to the system controller 6.
  • the system controller 6 is connected to an operation panel 4 for a nurse or the like to operate the peripheral device 2 and a display panel 5 for displaying surgical data and the like.
  • the description is omitted in FIG.
  • the system controller 6 receives gaze measurement information from the gaze measurement device 15 such as an operator who operates peripheral devices by gaze operation.
  • the inputted line-of-sight measurement information is used for controlling the peripheral device 2 or displayed on the monitor 3.
  • the line-of-sight operation screen 3 a generated by the system controller 6 is displayed on the monitor 3.
  • the system controller 6 receives setting parameters of controlled devices such as an endoscope camera device 7, an insufflation device 8, a light source device 9, an electric knife device 10, and the like. In addition, new setting parameters are output from the system controller 6 to these devices in accordance with the line-of-sight operation content input from the monitor 3. Further, a video signal obtained by processing an optical image of an affected part or the like in a patient's body cavity is input to the system controller 6 from the endoscope camera device 7. The system controller 6 outputs the input video signal to the monitor 11a and the monitor 11b.
  • FIG. 4 is a diagram for explaining the detailed configuration of the system controller 6.
  • the system controller 6 stores a communication interface (hereinafter referred to as a communication I / F) 17 for communicating with the peripheral device 2 that is a controlled device, various parameters, and the like.
  • a communication I / F communication interface
  • the communication I / F 17 receives various data and setting parameters from the peripheral device 2 connected to the system controller 6 and capable of centralized control, and inputs these data and parameters to the control unit 19. In order to operate the peripheral device 2, a signal generated by the control unit 19 is output to the peripheral device 2.
  • the recording unit 18 stores, for example, a program for operating the system controller 6 and various data and parameters necessary for executing the program.
  • Various data and setting parameters are input to the control unit 19 from the peripheral device 2 via the communication I / F 17. Further, the line-of-sight measurement information of a person who performs a line-of-sight operation such as an operator is input from the line-of-sight measurement device 15. The control unit 19 reads a program, various data, parameters, and the like from the recording unit 18 and executes the program. Then, the line-of-sight measurement information and other necessary data are output to the GUI generation unit 20, and control is performed to generate the line-of-sight operation screen 3a. Further, setting parameters for controlling the peripheral device 2 are generated based on the data input from the GUI generation unit 20 and the line-of-sight measurement information, and are output to the peripheral device 2 via the communication I / F 17.
  • the GUI generation unit 20 includes a gaze recognition level calculation unit 23 including a gaze measurement level calculation unit 21 and an eyeball measurement level determination unit 22.
  • the line-of-sight measurement level calculation unit 21 calculates an index indicating how reliably the line of sight of the operator is measured based on the line-of-sight measurement information input from the line-of-sight measurement device 15.
  • the value and the value may be used as they are as an index, or a value converted into a percentage may be used.
  • the distance between the line-of-sight measurement device 15 and the operator is measured, and the index is calculated from the difference from the optimum distance for the line-of-sight measurement. It may be calculated.
  • a distance sensor such as a distance image sensor that senses the movement of a moving object and measures the distance between predetermined parts can be used.
  • the eyeball measurement level determination unit 22 determines whether or not the line-of-sight coordinates are measured for each of the right eye and the left eye of the surgeon based on the line-of-sight measurement information input from the line-of-sight measurement device 15.
  • GUI generation unit 20 is input from the control unit 19 and the recording unit 18 according to the instruction from the control unit 19, the index calculated by the eye gaze measurement level calculation unit 21, the determination result of the eyeball measurement level determination unit 22.
  • a line-of-sight operation screen 3a to be displayed on the monitor 3 is generated using various data and parameters.
  • the generated line-of-sight operation screen 3a is output and displayed on the monitor 3.
  • FIG. 5 is a diagram illustrating an example of the line-of-sight operation screen 3a.
  • command areas 31 a, 31 b as operation instruction areas for issuing commands when the operator's line of sight is watched for a certain period of time and instructing operations on the peripheral device 2
  • Command information display areas 32a, 32b, and 32c for displaying information related to the operation contents of the command areas 31a, 31b, and 31c are arranged.
  • a line-of-sight recognition level display area 38 as a line-of-sight recognition level display unit is arranged on the line-of-sight operation screen 3a.
  • the line-of-sight recognition level display area 38 includes an eyeball recognition state display area 33 as an eyeball recognition state display unit that displays the eyeball measurement state of the surgeon, and a line of sight as a line-of-sight measurement level display unit that displays the state of eyesight measurement of the operator.
  • a measurement level display area 34 is included.
  • the line-of-sight operation screen 3a displays a device status display area 35 for displaying the status (current setting state) of the peripheral device 2 that can be operated by line-of-sight recognition, and information on the currently performed operation such as the name of the operation.
  • An operation information display area 36 is also arranged.
  • command areas 31a to 31d when the operator's line of sight is continuously watched in each area for a certain period of time, a command set in advance for each area is issued, and a plurality of peripheral devices 2 are collectively displayed. It is configured so that it can be set and changed.
  • a measurement time display unit hereinafter referred to as a timer display
  • a specific configuration of each command area 31a to 31d is used as an example in a case where it is necessary to collectively set the peripheral devices 2 at the start of each scene in an operation in which a plurality of scenes are executed in a predetermined order. I will explain.
  • the command areas 31a, 31c, and 31d are used for selecting a scene to be operated (for example, the command area 31a is used for moving to a scene to be executed next to the currently selected scene, a command The area 31c is configured to move to the scene executed immediately before the currently selected scene, and the command area 31d is configured to move to the first scene.
  • the command area 31b is configured for batch setting of the peripheral devices 2 at the start of the currently selected scene.
  • command information display areas 32a, 32b, and 32c are in one-to-one correspondence with the command areas 31a, 31b, and 31c, respectively. Specifically, information representing the currently selected scene such as “Scene 1 (Port Formation)” is displayed in the command information display area 32b, and “Scene 2 (Action)” is displayed in the command information display area 32a. The information indicating the scene to be executed next to the currently selected scene is displayed. Note that the command information display area 32 corresponding to the command area 31 that cannot be selected, such as the scene that is currently selected is the first scene of the operation and there is no scene executed before that, is not displayed. I will not. (For example, the command information display area 32c in FIG.
  • the command areas 31a to 31d are not limited to the above-described configuration.
  • the command areas 31a to 31d may be associated with the operation of the peripheral device 2 in each scene on a one-to-one basis.
  • the command area 31a is used for batch setting of peripheral devices 2 at the start of scene 1 (port formation)
  • the command area 31b is used for batch setting of peripheral devices 2 at the start of scene 2 (treatment)
  • the areas 31a to 31d may be configured.
  • the number of command areas 31 arranged on the line-of-sight operation screen 3a is not limited to four, and a necessary number can be arranged.
  • FIG. 6 is a diagram illustrating an example of display contents of the eyeball recognition status display area 33.
  • the eyeball recognition status display area 33 is an image representing a state where both eyes are open, for example, as shown in the top row of FIG. Is displayed.
  • the eyeball recognition status display area 33 is displayed in the second stage from the top of FIG. An image representing a mirror image of the right eye open but the left eye collapsed is displayed.
  • the eyeball recognition status display area 33 has, for example, the third level from the top in FIG. An image representing a mirror image of the left eye open but the right eye collapsed is displayed. Furthermore, when neither the right eye nor the left eye of the surgeon is measured, an image representing a state in which both eyes are collapsed is displayed in the eyeball recognition status display area 33, for example, as shown in the lowermost part of FIG. Is displayed.
  • the surgeon can determine in real time whether or not his / her line of sight is reliably recognized in both eyes. I can grasp it. Therefore, when the line-of-sight operation cannot be performed against the operator's intention, the cause can be grasped relatively easily, and the user can concentrate on the operation without stress.
  • the index generated by the visual line measurement level calculation unit 21 is displayed as the visual line measurement level.
  • the indicator is displayed in the form of a level meter, for example, as shown in FIG.
  • the bar is extended to the right as the index value indicating the accuracy of the line of sight measurement increases.
  • the display format of the gaze measurement level in the gaze measurement level display area 34 is not limited to the format shown in FIG. 5, and may be displayed numerically, using a pie chart display, or any other desired format. However, it is desirable to use a display format that is easy for the surgeon to visually understand.
  • displaying the measurement level step by step has the effect of encouraging the surgeon to increase the eye measurement level before it becomes impossible to perform eye gaze measurement and becomes inoperable or causes an erroneous operation. Therefore, the line-of-sight operation can be performed more reliably.
  • the measuring unit 24 measures the time during which the operator's line-of-sight position coordinates are continuously gazing at a specific command area using a counter or the like.
  • the measurement result of the measurement unit 24 is output to the GUI generation unit 20 and displayed at a predetermined location on the line-of-sight operation screen 3a as a measurement time display unit 37 (hereinafter referred to as a timer display 37).
  • FIG. 7 is a flowchart for explaining a flow of command execution processing by line-of-sight recognition
  • FIG. 8 is a diagram for explaining an example of a timer display shown in a selected command area.
  • a time (hereinafter referred to as a command determination time [T]) from when the operator's line-of-sight coordinates enters a specific command area 31 and a gaze is started until a command is issued is set (step S1). .
  • the command determination time [T] is set to a time sufficient for the operator to mistakenly select the command area and notice the mistake and remove the line of sight. However, if it is too long, it will be necessary to keep an eye on the command area for a considerable time until the command is issued, which may stress the surgeon and make it impossible to concentrate on the operation. Therefore, it is necessary to set the command determination time [T] within a common sense range so as not to be too long. For example, it is desirable to set the command determination time [T] to about 2 to 3 seconds.
  • timer display start time [T1] a time for starting the timer display 37 in the command area (hereinafter referred to as timer display start time [T1]) is displayed.
  • the timer display start time [T1] needs to be set shorter than the command determination time [T]. For example, when the command determination time [T] is 2 seconds, a time shorter than 2 seconds (for example, 0.5 seconds) is set.
  • the timer display 37 for counting the gaze time in a specific command area will be described with reference to FIG.
  • the timer uses a display method in which the fan-shaped area increases in conjunction with the time for which a specific command area is continuously watched and becomes a perfect circle when the watch time reaches the command determination time. be able to.
  • the timer reaches the timer display start time [T1] set in this step, the timer is displayed in the command area selected by the line-of-sight recognition.
  • the display method of the timer is not limited to the display method illustrated in FIG. 8, and various displays such as a level bar display displayed in the line-of-sight measurement level display area 34 and an hourglass type display are possible.
  • the method can be used.
  • the display method illustrated in FIG. 8 uses a count-up method in which the fan-shaped area increases with the gaze time. However, the display disappears when the gaze time reaches the command determination time by decreasing the fan-shaped area.
  • a countdown method such as (only the outer circumference of the circle is displayed) may be used. Regardless of the display method used, it is desirable that the timer be transparently displayed so as not to hide the display contents in the selected command area.
  • the timer display 37 may be anxious and the operator may not be able to concentrate on the operation. Therefore, for example, as shown in FIG. 8, the time during which a specific command area is continuously watched is a set time (0.5 seconds, 0.67 seconds, 0.83 seconds) after the timer display start time [T1]. 1 second, 1.17 seconds, 1.33 seconds, 1.5 seconds, 1.83 seconds), the display may be switched to a sector corresponding to each time. That is, in the example shown in FIG. 8, the display is changed nine times after the command area is selected and the gaze time measurement is started.
  • the operator can easily visually grasp the remaining time until the command is determined, so the waiting time until the command is determined is uneasy. You can focus on the operation without feeling stress or feeling stressed.
  • step S4 the process proceeds to step S5, and the acquired position coordinates of the gaze and command areas 31a, 31b, 31c arranged on the gaze operation screen 3a. , 31d are compared with the internal position coordinates.
  • the command area for example, the command area
  • the frame color of the command area 31b is changed to a color different from the unselected command areas 31a, 31c, 31d (for example, yellow) (Step S6).
  • This step is to highlight the command area 31b so that it can be easily recognized by the surgeon. Therefore, instead of changing the frame color, the thickness of the outer frame is changed. Changes (such as thickening), changing the color in the command area 31b, etc. may be made, or a plurality of these changes may be combined. Further, in this step, the command information display area 32b that is one-to-one associated with the selected command area 31b is also highlighted, for example, by changing the frame color or the frame thickness. Also good.
  • the outer frame of the selected command area 31b and the outer frame of the command information display area 32b associated therewith are displayed in the other command areas 31a, 31c, 31d and the command information display.
  • the area may be highlighted by making it thicker than the outer frames of the areas 32a and 32c.
  • step S4 when the position coordinates of the line of sight cannot be measured for both eyes of the surgeon (step S4, NO), the position coordinates of the line of sight of the surgeon are included in any command area 31a, 31b, 31c, 31d. If not (step S5, NO), the current line-of-sight recognition level is displayed (step S14), and it is confirmed whether or not there is a highlighted command area, for example, the frame color has been changed (step S14). S15). If there is a highlighted command area (step S15, YES), the highlighted display is canceled (step S16) by returning the frame color to the same reference color as other command areas (step S3), and the process returns to the counter initialization (step S3). ).
  • the line-of-sight recognition level displayed in step S14 includes both the eye-ball recognition state displayed in the eye-ball recognition state display area 33 and the line-of-sight recognition level displayed in the line-of-sight measurement level display area 34. Accordingly, when the position coordinates of the line of sight cannot be measured for both eyes of the surgeon (step S4, NO), in this step, the display content shown in the bottom row of FIG. 6 is displayed in the eyeball recognition status display area 33.
  • the visual line measurement level display area 34 displays that the visual line recognition level is zero.
  • step S5 Even when the position coordinates of the operator's line of sight are not included in any of the internal areas of the command areas 31a, 31b, 31c, 31d (step S5, NO), the eyeball recognition at that time is displayed in the eyeball recognition status display area 33. A display corresponding to the situation is performed, and a display indicating the gaze recognition level at that time is displayed in the gaze measurement level display area 34.
  • step S6 when the highlight processing of the selected command area 31b is completed, the current line-of-sight recognition level is displayed (step S7), and the counter is incremented (step S8).
  • the process returns to the measurement of the position coordinates of the operator's line of sight by the line-of-sight measurement device 15 (step S4).
  • step S7 is both the eye-eye recognition status displayed in the eye-eye recognition status display area 33 and the eye-gaze recognition level displayed in the eye-gaze measurement level display area 34, as in step S14. included.
  • step S9 YES
  • step S10 a timer display 37 as shown in FIG. 8 is displayed in the selected command area 31b (step S10).
  • step S11, NO the process returns to the measurement of the position coordinates of the operator's line of sight by the line-of-sight measurement device 15 (step S4).
  • the frame color of the selected command area 31b and the color in the frame are changed.
  • the frame color is different from the frame color (reference color) of the other command areas 31a, 31c, 31d that has not been selected, or a color (for example, yellow) that has been set as the frame color of the command area 31b until then (for example, yellow) Change to red.
  • the colors in the frame are the colors (reference colors) in the other command areas 31a, 31c, and 31d that have not been selected, and the colors that have been set as the colors in the command area 31b until then.
  • the color is changed to a color that is difficult to read (for example, light blue) in the command area.
  • the purpose of this step is to highlight the command area 31b so that the operator can easily recognize that the command set in the command area 31b is executed. It may be changed (thickened). Further, a means that can be recognized other than sight, such as hearing, such as making a beep sound may be used in combination. Further, in this step, the command information display area 32b that is one-to-one associated with the selected command area 31b is also highlighted, for example, by changing the frame color or the frame thickness. Also good.
  • step S13 the command set in the command area 31b is executed (step S13), and the series of processing shown in FIG.
  • the eyeball recognition status display area 33 and the line-of-sight measurement level display area 34 for displaying the line-of-sight recognition level are provided on the line-of-sight operation screen 3a.
  • the eyeball recognition status display area 33 displays the eyeball recognition status
  • the line-of-sight measurement level display area 34 displays the line-of-sight recognition level. Therefore, even when the line of sight is not recognized, the cause of the line of sight not being recognized can be easily grasped by referring to the display in the eyeball recognition status display area 33 and the line-of-sight measurement level display area 34. Can concentrate on the operation without feeling stress.
  • each “unit” in this specification is a conceptual one corresponding to each function of the embodiment, and does not necessarily correspond to a specific hardware or software routine on a one-to-one basis. Therefore, in the present specification, the embodiment has been described assuming a virtual circuit block (unit) having each function of the embodiment.
  • each step of each procedure in the present embodiment may be executed in a different order for each execution by changing the execution order and performing a plurality of steps at the same time, as long as it does not contradict its nature.
  • all or part of each step of each procedure in the present embodiment may be realized by hardware.
  • the cause when the line of sight is not recognized, the cause can be easily grasped, and the operator can concentrate on the operation.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Animal Behavior & Ethology (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Robotics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Endoscopes (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

 視線が認識されていない場合にその原因を容易に把握することができ、術者が操作に集中することができる医療システムを提供する。医療システム1は、周辺機器2と、周辺機器2の操作を指示するためのコマンドエリア31が表示される視線操作画面3aと、操作者の視線位置座標を検出する視線計測装置15と、視線計測装置15による視線認識の程度を算出する視線認識レベル算出部23と、視線操作画面3a上に視線認識レベル算出部23の算出結果を表示する視線認識レベル表示エリア38とを有する。

Description

医療システム
 本発明の実施形態は、医療システムに関し、特に、視線認識により機器をコントロールする医療システムに関する。
 近年、技術の発展と共に、医療機器の種類は豊富となっており、また、その機能も充実してきている。また、手術室にはこれらの医療機器の他に、ルームライトや各種の表示装置、医療画像を撮像する内視鏡や、記録装置などの各種機器が配置されている。これらの装置を含む各種医療機器を、集中制御装置(システムコントローラ)で集中制御管理する医療システムも開発されている。
 この種の医療システムの集中制御装置では、タッチ信号を受信する操作パネルにより、被制御機器のパラメータ等を設定したり変更したりするのが一般的である。しかしながら、操作パネルは不潔域に設置されたラックやカートに載置されることが多く、術者が直接操作パネルを操作することができない場合が多い。このため、不潔域に常在する看護師などに指示を出して、術者に代わって看護師に操作パネルを操作させる方法が用いられるが、指示が伝わるまでに時間を要したり、指示の誤伝達・誤認識による操作ミスが発生したりするといった問題があった。
 そこで、カメラ付きヘッドマウントディスプレイなどを用いて術者の視線検知を行い、視線が対象機器の操作スイッチ上に一定時間停止した場合にコマンドを発行し、対象機器の操作を行う医療システムが提案されている(例えば、特開2009-279193号公報、特開2001-299691号公報参照)。
 しかしながら、視線認識により対象機器の操作を行う場合、術者は視線を認識可能領域に向けていると思っていても、なんらかの原因によって視線が認識されない状況があり得る。視線が認識されていない場合、コマンドが発行されないために対象機器の操作ができなくなってしまう。このような状況においては、術者は、視線認識が行われない原因が把握できないために余計なストレスがかかり、操作に集中できなくなってしまうという問題があった。
 そこで、本発明は、視線が認識されていない場合にその原因を容易に把握することができ、術者が操作に集中することができる医療システムを提供することを目的とする。
 本発明の一態様の医療システムは、複数の被制御機器と、前記被制御機器の操作を指示するための操作指示領域が表示される表示部と、前記表示部を介して前記被制御機器の操作を行う操作者の視線位置座標を検出する視線検出部と、前記視線検出部による前記操作者の視線認識の程度を算出する視線認識レベル算出部と、前記視線認識レベル算出部の算出結果を前記表示部上に表示する視線認識レベル表示部と、を有する。
本発明の実施形態に係わる医療システム1の全体構成の一例を説明する図。 視線計測装置15の設置位置を説明する図。 システムコントローラ6と接続されている機器の構成を説明する図。 システムコントローラ6の詳細な構成を説明する図。 視線操作画面3aの一例を説明する図 眼球認識状況表示エリア33の表示内容の一例を示す図。 視線認識によるコマンド実行までの一連の流れを説明するフローチャート。 選択されたコマンドエリアに示されるタイマ表示の一例を説明する図。
 以下、図面を参照して実施形態を説明する。
 図1は、本発明の実施形態に係わる医療システム1の全体構成の一例を説明する図である。図1に示すように、本実施形態の医療システム1は、複数の医療機器で構成される被制御機器である周辺機器2と、術者などの操作者による視線操作を受け付けるモニタ3と、モニタ3により視線操作を行う操作者の視線を認識して視線座標などを計測する視線計測装置15と、看護師などの操作者による操作を受け付ける操作パネル4と、表示パネル5と、周辺機器2などを集中制御するシステムコントローラ6とを備えている。
 周辺機器2は、観察、検査、及び処置等を行う複数の医療機器で構成されている。具体的には、内視鏡用カメラ装置7と、気腹装置8と、光源装置9と、電気メス装置10と、モニタ(モニタ11a、モニタ11b)などから構成される。なお、周辺機器2は、これらの医療機器に限定されるものではなく、例えば、ビデオテープレコーダ(VTR)などを備えていてもよい。
 モニタ3には、例えば液晶ディスプレイ上に、周辺機器2の一括操作を行うための表示部である視線操作画面3aが表示される。例えば図2に示すように、モニタ3の下部に、視線検出部としての視線計測装置15が設置されており、この視線計測装置15によって、術者の視線位置座標などが計測される。図2は、視線計測装置15の設置位置を説明する図である。視線計測装置15は、眼球を正面方向から撮影する小型カメラ16などを含み、術者の眼球の瞳孔の位置を追跡することにより、視線操作画面3a上における術者の視線が捉えている位置座標をリアルタイムに計測する。視線計測装置15によって計測された視線位置座標などの情報は、システムコントローラ6に入力される。
 操作パネル4は、例えば、液晶ディスプレイと、液晶ディスプレイに重ねて配置されたタッチパネルセンサとが一体となって構成された、タッチパネルディスプレイである。非滅菌域にいる看護師等が周辺機器2の操作を行うための操作装置であり、操作情報はシステムコントローラ6に入力される。表示パネル5は、手術中のあらゆるデータを選択的に表示させることが可能な表示手段である。
 光源装置9は、照明光を伝送するライトガイドケーブルを介して内視鏡(図示せず)に接続されている。光源装置9からの照明光は内視鏡に供給され、内視鏡の挿入部が挿入された患者の腹部内の患部等を照明する。
 内視鏡の挿入部の基端側には、撮像素子を備えたカメラヘッドが装着され、患部等の光学像をカメラヘッド内の撮像素子で撮像する。この撮像素子で撮像された撮像信号は、ケーブルを介して内視鏡用カメラ装置7に伝送される。
 内視鏡用カメラ装置7は、伝送された撮像信号に所定の信号処理を施し、映像信号を生成する。そして、内視鏡用カメラ装置7は、生成した映像信号を、システムコントローラ6を介してモニタ11aやモニタ11bに出力する。天井から吊り下げられたモニタ11a、11bには、入力された映像信号、すなわち患部等の内視鏡画像が表示される。
 気腹装置8には、図示しない炭酸ガスボンベが接続されており、気腹装置8から患者に伸びた気腹チューブを介して、患者の腹部内に炭酸ガスが供給されるようになっている。
 操作パネル4、表示パネル5、システムコントローラ6、内視鏡用カメラ装置7、気腹装置8、光源装置9、電気メス装置10は、ラック12に設置されている。システムコントローラ6は、上述した周辺機器2のほかに、患者が横たわる患者ベッド13、天井から吊り下げられた無影灯(無影灯14a、無影灯14b)などの、手術室に常設された設備も、被制御機器として制御する。
 なお、図1では、内視鏡下外科手術が行われる手術室に設けられた医療システム1を例示したが、医療システム1の用途は内視鏡下外科手術に限られず、他の手術や診察のために用いられてもよい。また、医療システム1は、診察室など手術室以外に設けられてもよい。医療システム1は、さらに、図1では図示しない種々の装置及び設備を含んでもよい。例えば、術野を観察する術野カメラなどを含んでもよく、これらをシステムコントローラ6で制御してもよい。
 次に、システムコントローラ6と、これに接続されている機器との関係について説明する。図3は、システムコントローラ6と接続されている機器の構成を説明する図である。図3に示すように、システムコントローラ6には、被制御機器である周辺機器2と、操作の入力装置であるモニタ3及び視線計測装置15とが接続されている。なお、図1に示すように、システムコントローラ6には、看護師などが周辺機器2の操作を行うための操作パネル4や、手術データなどを表示させるための表示パネル5に接続されているが、以下においては、視線操作を用いて周辺機器2を制御する場合について説明するため、図3では記載を省略する。
 システムコントローラ6には、視線操作により周辺機器の操作を行う術者等の視線計測情報が、視線計測装置15から入力される。入力された視線計測情報は、周辺機器2の制御に用いられたり、モニタ3に表示されたりする。また、モニタ3には、システムコントローラ6よって生成された視線操作画面3aが表示される。
 システムコントローラ6には、内視鏡用カメラ装置7、気腹装置8、光源装置9、電気メス装置10など、被制御機器の設定パラメータが入力される。また、システムコントローラ6からこれらの機器に対し、モニタ3から入力される視線操作内容に応じ、新たな設定パラメータが出力される。また、システムコントローラ6には、患者の体腔内における患部等の光学像を加工した映像信号が、内視鏡用カメラ装置7から入力される。システムコントローラ6は、入力された映像信号を、モニタ11aやモニタ11bに出力する。
 このように他の機器と接続されているシステムコントローラ6の詳細な構成について、図4を用いて説明する。図4は、システムコントローラ6の詳細な構成を説明する図である。図4に示すように、システムコントローラ6は、被制御機器である周辺機器2との間で通信を行う通信インタフェース(以下、通信I/Fと示す)17と、種々のパラメータなどが格納されている記録部18と、システムコントローラ6全体の動作を制御する制御部19と、モニタ3に表示させる視線操作画面3aを生成するGUI生成部20と、時間の計測を行う計測部24とを備えている。
 通信I/F17は、システムコントローラ6に接続されており集中制御が可能になされている周辺機器2から各種データや設定パラメータを受信し、これらのデータやパラメータなどを制御部19に入力したり、周辺機器2を操作するために制御部19で生成された信号を周辺機器2に出力したりする。
 記録部18には、例えば、システムコントローラ6を動作させるためのプログラムやその他プログラムの実行に必要な各種データやパラメータなどが格納されている。
 制御部19には、通信I/F17を介して周辺機器2から各種データや設定パラメータなどが入力される。また、視線計測装置15から、術者など視線操作を行う者の視線計測情報が入力される。制御部19は、記録部18からプログラムや各種データ、パラメータなどを読み出して、プログラムを実行する。そして、GUI生成部20に対して視線計測情報やその他必要なデータを出力し、視線操作画面3aを生成するよう制御を行う。また、GUI生成部20から入力されたデータや視線計測情報に基づき、周辺機器2を制御するための設定パラメータを生成し、通信I/F17を介して周辺機器2へ出力する。
 GUI生成部20は、視線計測レベル算出部21と眼球計測レベル判定部22とからなる、視線認識レベル算出部23を有している。
 視線計測レベル算出部21は、視線計測装置15から入力される視線計測情報などに基づき、術者の視線がどの程度確実に計測されているかを示す指標を算出する。視線計測装置15から計測レベルの値が出力される場合は、その値とそのまま指標として用いてもよいし、百分率に変換したものを用いてもよい。また例えば、視線計測装置15と術者との距離を計測し、視線計測に最適な距離との相違から指標を算出するなど、視線計測に影響を及ぼす要素を加味して独自の方法で指標を算出してもよい。なお、視線計測装置15と術者との距離から指標を算出する場合、距離画像センサなど、動体の動きを感知して所定の部位間の距離を計測する距離センサを用いることができる。
 眼球計測レベル判定部22は、視線計測装置15から入力される視線計測情報に基づき、術者の右目と左目のそれぞれについて、視線座標が計測されているか否かを判定する。
 また、GUI生成部20は、制御部19からの指示に従って、視線計測レベル算出部21で算出された指標と、眼球計測レベル判定部22の判定結果と、制御部19や記録部18から入力される各種データやパラメータなどを用い、モニタ3に表示させる視線操作画面3aを生成する。生成された視線操作画面3aは、モニタ3に出力されて表示される。
 視線操作画面3aの構成について、図5を用いて説明する。図5は、視線操作画面3aの一例を説明する図である。図5に示すように、視線操作画面3aには、術者の視線が一定時間注視された場合にコマンドを発行し、周辺機器2に対する操作を指示する操作指示領域としてのコマンドエリア31a、31b、31c、31dと、コマンドエリア31a、31b、31cの操作内容に関する情報などを表示するコマンド情報表示エリア32a、32b、32cが配置されている。また、視線操作画面3aには、視線認識レベル表示部としての視線認識レベル表示エリア38が配置されている。視線認識レベル表示エリア38には、術者の眼球計測状況について表示する眼球認識状況表示部としての眼球認識状況表示エリア33と、術者の視線計測状況について表示する視線計測レベル表示部としての視線計測レベル表示エリア34とが含まれる。
 更に、視線操作画面3aには、視線認識によって操作可能な周辺機器2の状況(現在の設定状態)について表示する機器状況表示エリア35と、手術の名称など現在行われている手術に関する情報を表示する手術情報表示エリア36とも配置されている。
 コマンドエリア31a~31dは、各エリア内に術者の視線が一定時間連続して注視された場合に、それぞれのエリアごとに予め設定されたコマンドが発行され、複数の周辺機器2を一括して設定、変更することができるように構成されている。術者が注視することにより特定のコマンドエリアが選択されると、当該コマンドエリアには、連続注視時間を表す計測時間表示部(以下、タイマ表示と示す)37が重畳して表示される。各コマンドエリア31a~31dの具体的な構成について、複数のシーンを決められた順序で実行する手術において、それぞれのシーンの開始時に周辺機器2を一括設定する必要がある場合を一例に挙げて用いて説明する。
 図5に示すように、コマンドエリア31a、31c、31dは、操作を行うシーンの選択用(例えば、コマンドエリア31aは、現在選択されているシーンの次に実行されるシーンへの移動用、コマンドエリア31cは、現在選択されているシーンの直前に実行されたシーンへ移動用、コマンドエリア31dは、最初のシーンへの移動用)として構成される。また、コマンドエリア31bは、現在選択されているシーンの開始時における周辺機器2の一括設定用として構成される。
 なお、コマンド情報表示エリア32a、32b、32cは、それぞれコマンドエリア31a、31b、31cと一対一で対応づけられている。具体的には、コマンド情報表示エリア32bには、「シーン1(ポート形成)」など、現在選択されているシーンを表す情報が表示され、コマンド情報表示エリア32aには、「シーン2(処置)」など、現在選択さえているシーンの次に実行されるシーンを表す情報が表示される。なお、現在選択されているシーンが手術の最初のシーンであり、それ以前に実行されたシーンが存在しないなど、選択不可のコマンドエリア31に対応するコマンド情報表示エリア32については、特に表示は行われない。(例えば、図5におけるコマンド情報表示エリア32c。)
 このように、周辺機器2の設定を操作するコマンドを発行するエリアをコマンドエリア31bのみに限定して構成することで、意図せずコマンドエリア31a、31c、31dを注視してしまった場合にも、周辺機器2の操作を指示するコマンドは発行されないため、周辺機器2の誤操作を防ぐことができる。
 なお、コマンドエリア31a~31dは上述した構成に限定されるものではなく、例えば、各コマンドエリア31a~31dと各シーンにおける周辺機器2の操作とを一対一に対応づけてもよい。例えば、コマンドエリア31aはシーン1(ポート形成)の開始時における周辺機器2の一括設定用、コマンドエリア31bはシーン2(処置)の開始時における周辺機器2の一括設定用、などのようにコマンドエリア31a~31dを構成してもよい。また、視線操作画面3aに配置するコマンドエリア31の数は、4つに限定されるものでなく、必要な個数を配置することができる。
 眼球認識状況表示エリア33には、眼球計測レベル判定部22での判定結果が表示される。図6は、眼球認識状況表示エリア33の表示内容の一例を示す図である。視線計測装置15において術者の両眼の位置座標が計測されている場合、眼球認識状況表示エリア33には、例えば図6の最上段に示すような、両眼が開いている様子を表す画像が表示される。また、操作者の右目の位置座標は計測されているが、左目の位置座標は計測されていない場合、眼球認識状況表示エリア33には、例えば図6の上から二段目に示すような、右目は開いているが左目はつぶっている様子を鏡像として表す画像が表示される。更に、術者の左目の位置座標は計測されているが、右目の位置座標は計測されていない場合、眼球認識状況表示エリア33には、例えば図6の上から三段目に示すような、左目は開いているが右目はつぶっている様子を鏡像として表す画像が表示される。更に、術者の右目も左目もどちらも位置座標が計測されていない場合、眼球認識状況表示エリア33には、例えば図6の最下段に示すような、両目ともつぶっている様子を表す画像が表示される。
 術者は両目とも特定のコマンドエリア31を注視しているつもりでも、目を細めていたり、まばたきが多かったり、顔の向きや体の位置が不適当で、視線が視線計測装置15の計測可能領域から外れていたりすることにより、片目または両目の視線が認識されない場合があり得る。そこで、本実施形態においては、視線操作画面3a上に視線の認識状況を視覚的にわかりやすく表示することで、術者は、自身の視線が両目とも確実に認識されているか否かをリアルタイムで把握することができる。従って、術者の意図に反して視線操作ができない場合に、その原因を比較的容易に把握することができ、ストレスなく操作に集中できる。
 なお、右目または左目のどちらか一方のみ認識されている場合には、視線操作を行うことは可能であるが、両目ともに認識されている場合に比べて操作不可になる可能性が高い。従って、片目のみが認識されている状態を表示することにより、術者に対し、認識されていないほうの目を認識される状態にさせるよう促す効果が得られるので、視線操作をより確実に行うことができるようになる。
 視線計測レベル表示エリア34には、視線計測レベル算出部21で生成された指標が、視線計測レベルとして表示される。指標は、例えば図5に示すように、レベルメーターの形式で表示される。視線が全く計測できない場合をゼロとし、視線計測の確度を表す指標の値が高くなるほど右方向にバーが延出していく。なお、視線計測レベル表示エリア34における視線計測レベルの表示形式は、図5に示す形式に限定されるものではなく、数値で表示したり、円グラフ表示を用いたり、その他所望の形式を用いることができるが、術者が視覚的にわかりやすい表示形式を用いることが望ましい。
 術者は視線操作画面3aとの距離を一定に保って施術や操作を行っているつもりでも、無意識に視線操作画面3aに顔を近づけていたり、頭をそらせていたり、意図せず体勢が変わってしまう場合があり得る。そこで、本実施形態においては、視線操作画面3a上に視線計測レベルを視覚的にわかりやすく表示することで、術者は、自身の視線がどの程度確実に計測されているかをリアルタイムで把握することができる。従って、術者の意図に反して視線操作ができない場合に、その原因を比較的容易に把握することができ、ストレスなく操作に集中できる。
 なお、視線の計測の確度が低くても視線操作を行うことは可能であるが、僅かな体勢のずれなどで操作不可になったり誤操作を引き起したりする可能性が高い。このように、段階的に計測レベルを表示することで、術者に対し、視線計測ができなくなって操作不可になったり誤操作を引き起こしたりする前に、視線計測レベルをあげるように促す効果が得られるので、視線操作をより確実に行うことができるようになる。
 計測部24は、術者の視線位置座標が特定のコマンドエリアを連続して注視している時間をカウンタなどによって計測する。計測部24の計測結果はGUI生成部20に出力され、計測時間表示部37(以下、タイマ表示37と示す)として視線操作画面3a上の所定の場所に表示される。
 次に、本実施形態における医療システム1の動作について、図7及び図8を用いて説明する。図7は、視線認識によるコマンド実行の処理の流れを説明するフローチャートであり、図8は、選択されたコマンドエリアに示されるタイマ表示の一例を説明する図である。
 まず、術者の視線座標が特定のコマンドエリア31内に入り、注視を開始してからコマンドが発行されるまでの時間(以下、コマンド決定時間[T]と示す)を設定する(ステップS1)。コマンド決定時間[T]は、術者がコマンドエリアを間違って選択してしまった場合に、間違いに気づいて視線を外すのに十分な時間を設定する。ただし、あまりに長すぎると、コマンドが発行されるまで相当時間コマンドエリアを注視し続ける必要が生じるために、術者にストレスがかかり操作に集中できなくなってしまう恐れがある。そのため、コマンド決定時間[T]は、いたずらに長すぎないよう常識的な範囲に設定する必要があり、例えば、2~3秒程度に設定することが望ましい。
 次に、術者の視線座標が特定のコマンドエリア内に入り、注視を開始してから、当該コマンドエリア内にタイマ表示37を開始する時間(以下、タイマ表示開始時間[T1]と示す)を設定する(ステップS2)。なお、タイマ表示開始時間[T1]は、コマンド決定時間[T]よりも短い時間を設定する必要がある。例えば、コマンド決定時間[T]が2秒の場合、2秒未満の時間(例えば0.5秒)を設定する。
 ここで、特定のコマンドエリアの注視時間をカウントするタイマ表示37について、図8を用いて説明する。タイマは、例えば図8に示すように、特定のコマンドエリアを連続注視する時間に連動して扇形の面積が増加し、注視時間がコマンド決定時間に達すると正円になるような表示方法を用いることができる。タイマは、本ステップで設定されたタイマ表示開始時間[T1]に到達すると、視線認識により選択されたコマンドエリア内に表示される。
 なお、タイマの表示方法は、図8に例示した表示方法に限定されるものでなく、例えば、視線計測レベル表示エリア34に表示しているレベルバー表示や、砂時計型の表示など、種々の表示方法を用いることができる。また、図8に例示した表示方法では、注視時間と共に扇形の面積を増加させるカウントアップ方式を用いているが、扇形の面積を減少させていき、注視時間がコマンド決定時間に達すると表示が消える(または円の外周だけの表示になる)ような、カウントダウン方式を用いてもよい。なお、いずれの表示方式を用いる場合においても、選択されたコマンドエリア内の表示内容を隠さないようにするために、タイマは透過表示させることが望ましい。
 視線操作画面3a上でタイマ表示37が連続的に変化していると、タイマ表示37が気になり術者が操作に集中できない場合があり得る。そこで、例えば図8に示すように、特定のコマンドエリア内を連続注視する時間が、タイマ表示開始時間[T1]以降、設定された時間(0.5秒、0.67秒、0.83秒、1秒、1.17秒、1.33秒、1.5秒、1.83秒)に到達したときに、それぞれの時間に応じた扇形に表示を切り替えるようにしてもよい。すなわち、図8に示す一例では、コマンドエリアが選択されて注視時間の計測が開始されてから、9回表示が変更される。
 このように、選択されたコマンドエリア内にタイマ表示37をすることで、コマンド決定までの残り時間を、術者が視覚的に容易に把握することができるため、コマンド決定までの待ち時間を不安に感じたり、ストレスを感じたりすることなく操作に集中できる。
 そして、術者が特定のコマンドエリア31内を注視している時間を計測するカウンタ[t]にゼロを設定し、カウンタを初期化する(ステップS3)。
 続いて、視線計測装置15により術者の視線の位置座標を計測する。少なくとも術者の片目の視線位置座標が計測できた場合(ステップS4、YES)、ステップS5に進み、取得した視線の位置座標と、視線操作画面3a上に配置されたコマンドエリア31a、31b、31c、31dの内部の位置座標とを比較する。視線の位置座標がコマンドエリア31a、31b、31c、31dのいずれかのエリアの内部座標に存在する場合(ステップS5、YES)、視線の位置座標がその内部領域に存在するコマンドエリア(例えばコマンドエリア31b)が、視線操作の対象として選択されていることを明確にするため、当該コマンドエリア31bの枠色を、選択されていないコマンドエリア31a、31c、31dとは異なる色(例えば黄色)に変更する(ステップS6)。
 なお、本ステップの目的は、コマンドエリア31bが選択されていることが術者に容易に認識できるように強調表示することであるので、枠色を変更するのではなく、外枠の太さを変更する(太くする)、コマンドエリア31b内の色を変更する、などの変更を行ってもよいし、これらの変更を複数組み合わせて行ってもよい。更に、本ステップにおいては、選択されたコマンドエリア31bと一対一で対応づけられているコマンド情報表示エリア32bも、枠色を変更したり枠の太さを変更したりするなど、強調表示してもよい。
 例えば図5に示すように、選択されたコマンドエリア31bの外枠と、これと対応づけられているコマンド情報表示エリア32bの外枠とを、他のコマンドエリア31a、31c、31dやコマンド情報表示エリア32a、32cの外枠よりも太くすることで、当該エリアを強調表示してもよい。
 一方、術者の両目とも視線の位置座標が計測できなかった場合(ステップS4、NO)や、術者の視線の位置座標がいずれのコマンドエリア31a、31b、31c、31dの内部領域にも含まれていない場合(ステップS5、NO)、現在の視線認識レベルを表示し(ステップS14)、枠色が変更されているなど、強調表示されているコマンドエリアがあるか否かを確認する(ステップS15)。強調表示されているコマンドエリアがあれば(ステップS15、YES)、枠色を他のコマンドエリアと同じ基準色に戻すなど強調表示を解除し(ステップS16)、カウンタの初期化に戻る(ステップS3)。
 なお、ステップS14において表示される視線認識レベルには、眼球認識状況表示エリア33に表示される眼球認識状況と、視線計測レベル表示エリア34に表示される視線認識レベルの両方が含まれる。従って、術者の両目とも視線の位置座標が計測できなかった場合(ステップS4、NO)、本ステップにおいては、図6の一番下の段に示す表示内容を眼球認識状況表示エリア33に表示し、視線計測レベル表示エリア34には視線認識レベルがゼロであることを示す表示をする。術者の視線の位置座標がいずれのコマンドエリア31a、31b、31c、31dの内部領域にも含まれていない場合(ステップS5、NO)も、眼球認識状況表示エリア33にその時点での眼球認識状況に応じた表示をし、視線計測レベル表示エリア34にその時点での視線認識レベルを示す表示をする。
 ステップS6において、選択されたコマンドエリア31bの強調処理が終了すると、現在の視線認識レベルを表示し(ステップS7)、カウンタをインクリメントする(ステップS8)。カウンタがタイマ表示開始時間に達していない、すなわちt<T1の場合(ステップS9、NO)、視線計測装置15による術者の視線の位置座標の計測に戻る(ステップS4)。
 なお、ステップS7において表示される視線認識レベルも、ステップS14と同様に、眼球認識状況表示エリア33に表示される眼球認識状況と、視線計測レベル表示エリア34に表示される視線認識レベルの両方が含まれる。
 一方、カウンタがタイマ表示開始時間に達している、すなわちt≧T1の場合(ステップS9、YES)、選択されているコマンドエリア31b内に、図8に示すようなタイマ表示37をする(ステップS10)。カウンタがコマンド決定時間に達していない、すなわちt<Tの場合(ステップS11、NO)、視線計測装置15による術者の視線の位置座標の計測に戻る(ステップS4)。
 カウンタがコマンド決定時間に達する(t=T)と(ステップS11、YES)、選択されているコマンドエリア31bの枠色と、枠内の色を変更する。枠色は、選択されていない他のコマンドエリア31a、31c、31dの枠色(基準色)や、それまでコマンドエリア31bの枠色として設定されていた色(例えば黄色)とは異なる色(例えば赤色)に変更する。また、枠内の色は、選択されていない他のコマンドエリア31a、31c、31dの枠内の色(基準色)や、それまでコマンドエリア31bの枠内の色として設定されていた色とは異なる色であって、コマンドエリア内の表示が読みづらくなりにくい色(例えば水色)に変更する。
 なお、本ステップの目的は、コマンドエリア31bに設定されているコマンドが実行されることが術者に容易に認識できるように強調表示することであるので、コマンドエリア31bの外枠の太さを変更したり(太くしたり)してもよい。また、ビープ音を鳴らすなど聴覚など視覚以外で認識可能な手段を併用して用いてもよい。更に、本ステップにおいては、選択されたコマンドエリア31bと一対一で対応づけられているコマンド情報表示エリア32bも、枠色を変更したり枠の太さを変更したりするなど、強調表示してもよい。
 最後に、コマンドエリア31bに設定されているコマンドを実行し(ステップS13)、図7に示す一連の処理を終了する。
 このように、本実施形態によれば、視線操作画面3a上に視線認識レベルを表示する眼球認識状況表示エリア33と視線計測レベル表示エリア34とを設けている。そして、眼球認識状況表示エリア33には眼球認識状況を表示し、視線計測レベル表示エリア34には視線認識レベルを表示している。従って、視線が認識されていない場合にも、眼球認識状況表示エリア33と視線計測レベル表示エリア34の表示を参照することで、視線が認識されない原因を容易に把握することができるため、術者はストレスを感じずに操作に集中することができる。
 本明細書における各「部」は、実施の形態の各機能に対応する概念的なもので、必ずしも特定のハードウェアやソフトウエア・ルーチンに1対1には対応しない。従って、本明細書では、実施の形態の各機能を有する仮想的回路ブロック(部)を想定して実施の形態を説明した。また、本実施の形態における各手順の各ステップは、その性質に反しない限り、実行順序を変更し、複数同時に実行し、あるいは実行毎に異なった順序で実行してもよい。さらに、本実施の形態における各手順の各ステップの全てあるいは一部をハードウェアにより実現してもよい。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として例示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
 本発明の医療システムによれば、視線が認識されていない場合にその原因を容易に把握することができ、術者が操作に集中することができる。
 本出願は、2014年7月22日に日本国に出願された特願2014-149009号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲に引用されるものとする。

Claims (10)

  1.  複数の被制御機器と、
     前記被制御機器の操作を指示するための操作指示領域が表示される表示部と、
     前記表示部を介して前記被制御機器の操作を行う操作者の視線位置座標を検出する視線検出部と、
     前記視線検出部による前記操作者の視線認識の程度を算出する視線認識レベル算出部と、
     前記視線認識レベル算出部の算出結果を前記表示部上に表示する視線認識レベル表示部と、
     を有することを特徴とする、医療システム。
  2.  前記視線認識レベル算出部は、前記視線検出部において前記操作者の左目と右目のそれぞれの前記視線位置座標が検出されているか否かを判定する眼球計測レベル判定部と、前記視線検出部において検出された前記視線位置座標の確度を示す指標を算出する視線計測レベル算出部とを有することを特徴とする、請求項1に記載の医療システム。
  3.  前記視線認識レベル表示部は、前記眼球計測レベル判定部による判定結果を表示する眼球認識状況表示部と、前記視線計測レベル算出部による算出結果を表示する視線計測レベル表示部とを有することを特徴とする、請求項2に記載の医療システム。
  4.  前記視線計測レベル算出部は、前記視線検出部と前記操作者との距離を用いて前記指標を算出することを特徴とする、請求項2に記載の医療システム。
  5.  前記視線計測レベル算出部は、前記視線検出部から出力される前記視線位置座標のレベル情報を用いて前記指標を算出することを特徴とする、請求項2に記載の医療システム。
  6.  前記眼球認識状況表示部は、左目の前記判定結果と右目の前記判定結果とを、それぞれ独立して表示することを特徴とする、請求項3に記載の医療システム。
  7.  前記視線計測レベル表示部は、前記指標をレベルメーターの形式で表示することを特徴とする、請求項3に記載の医療システム。
  8.  前記視線位置座標が前記操作指示領域内に連続して存在する時間を計測する計測部と、前記計測部の計測時間を前記操作指示領域に重畳して表示する計測時間表示部と、前記計測時間が所定の時間を超えた場合に前記被制御機器の操作を制御する制御部と、を更に有することを特徴とする、請求項1に記載の医療システム。
  9.  前記計測時間表示部は、時系列に変化するタイマ表示であることを特徴とする、請求項8に記載の医療システム。
  10.  前記計測時間表示部を透過して、前記操作指示領域の表示が識別可能であることを特徴とする、請求項8に記載の医療システム。
PCT/JP2015/057859 2014-07-22 2015-03-17 医療システム WO2016013252A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015552931A JP5911655B1 (ja) 2014-07-22 2015-03-17 医療システム
CN201580003463.6A CN105873539B (zh) 2014-07-22 2015-03-17 医疗系统
EP15825327.8A EP3078343A4 (en) 2014-07-22 2015-03-17 Medical system
US15/171,249 US9483114B2 (en) 2014-07-22 2016-06-02 Medical system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-149009 2014-07-22
JP2014149009 2014-07-22

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/171,249 Continuation US9483114B2 (en) 2014-07-22 2016-06-02 Medical system

Publications (1)

Publication Number Publication Date
WO2016013252A1 true WO2016013252A1 (ja) 2016-01-28

Family

ID=55162791

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/057859 WO2016013252A1 (ja) 2014-07-22 2015-03-17 医療システム

Country Status (5)

Country Link
US (1) US9483114B2 (ja)
EP (1) EP3078343A4 (ja)
JP (1) JP5911655B1 (ja)
CN (1) CN105873539B (ja)
WO (1) WO2016013252A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017182216A (ja) * 2016-03-28 2017-10-05 株式会社バンダイナムコエンターテインメント シミュレーション制御装置及びシミュレーション制御プログラム
JP2017182217A (ja) * 2016-03-28 2017-10-05 株式会社バンダイナムコエンターテインメント シミュレーション制御装置及びシミュレーション制御プログラム
JP2017182218A (ja) * 2016-03-28 2017-10-05 株式会社バンダイナムコエンターテインメント シミュレーション制御装置及びシミュレーション制御プログラム
GB2555296A (en) * 2015-05-27 2018-04-25 Licentia Group Ltd Encoding methods and systems
JP2020061186A (ja) * 2020-01-06 2020-04-16 株式会社バンダイナムコエンターテインメント シミュレーション制御装置及びシミュレーション制御プログラム
CN113453639A (zh) * 2019-02-25 2021-09-28 奥林巴斯株式会社 集中控制装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11806071B2 (en) 2016-12-22 2023-11-07 Aerin Medical Inc. Soft palate treatment
CN108392269B (zh) * 2017-12-29 2021-08-03 广州布莱医疗科技有限公司 一种手术辅助方法及手术辅助机器人
JP7116176B2 (ja) 2018-08-20 2022-08-09 富士フイルム株式会社 医療画像処理システム
US10770036B2 (en) * 2018-08-27 2020-09-08 Lenovo (Singapore) Pte. Ltd. Presentation of content on left and right eye portions of headset
CN114025674A (zh) * 2019-08-09 2022-02-08 富士胶片株式会社 内窥镜装置、控制方法、控制程序及内窥镜系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09212082A (ja) * 1996-01-30 1997-08-15 Nissan Motor Co Ltd 視線入力装置
JPH1085172A (ja) * 1996-09-11 1998-04-07 Asahi Optical Co Ltd 内視鏡装置
JPH10290392A (ja) * 1997-04-14 1998-10-27 Olympus Optical Co Ltd 画像処理装置
JP2001299691A (ja) * 2000-04-25 2001-10-30 Olympus Optical Co Ltd 内視鏡装置の操作システム
JP2009279193A (ja) * 2008-05-22 2009-12-03 Fujifilm Corp 医療機器管理システム
JP2013140540A (ja) * 2012-01-06 2013-07-18 Kyocera Corp 電子機器

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1740951A (zh) * 2004-08-25 2006-03-01 西门子公司 用于利用人眼进行设备控制的装置
CN101576771B (zh) * 2009-03-24 2010-12-01 山东大学 基于非均匀样本插值的眼动仪定标方法
JP5618686B2 (ja) * 2010-08-03 2014-11-05 キヤノン株式会社 視線検出装置、視線検出方法及びプログラム
WO2012137801A1 (ja) * 2011-04-07 2012-10-11 Necカシオモバイルコミュニケーションズ株式会社 入力装置及び入力方法並びにコンピュータプログラム
CN103164017B (zh) * 2011-12-12 2016-03-30 联想(北京)有限公司 一种眼控输入方法及电子设备
CN102662476B (zh) * 2012-04-20 2015-01-21 天津大学 一种视线估计方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09212082A (ja) * 1996-01-30 1997-08-15 Nissan Motor Co Ltd 視線入力装置
JPH1085172A (ja) * 1996-09-11 1998-04-07 Asahi Optical Co Ltd 内視鏡装置
JPH10290392A (ja) * 1997-04-14 1998-10-27 Olympus Optical Co Ltd 画像処理装置
JP2001299691A (ja) * 2000-04-25 2001-10-30 Olympus Optical Co Ltd 内視鏡装置の操作システム
JP2009279193A (ja) * 2008-05-22 2009-12-03 Fujifilm Corp 医療機器管理システム
JP2013140540A (ja) * 2012-01-06 2013-07-18 Kyocera Corp 電子機器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3078343A4 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2555296A (en) * 2015-05-27 2018-04-25 Licentia Group Ltd Encoding methods and systems
GB2555296B (en) * 2015-05-27 2021-11-03 Licentia Group Ltd Encoding methods and systems
JP2017182216A (ja) * 2016-03-28 2017-10-05 株式会社バンダイナムコエンターテインメント シミュレーション制御装置及びシミュレーション制御プログラム
JP2017182217A (ja) * 2016-03-28 2017-10-05 株式会社バンダイナムコエンターテインメント シミュレーション制御装置及びシミュレーション制御プログラム
JP2017182218A (ja) * 2016-03-28 2017-10-05 株式会社バンダイナムコエンターテインメント シミュレーション制御装置及びシミュレーション制御プログラム
US10350495B2 (en) 2016-03-28 2019-07-16 Bandai Namco Entertainment Inc. Simulation control device and information storage medium
US10761600B2 (en) 2016-03-28 2020-09-01 Bandai Namco Entertainment Inc. Simulation control device and information storage medium
CN113453639A (zh) * 2019-02-25 2021-09-28 奥林巴斯株式会社 集中控制装置
CN113453639B (zh) * 2019-02-25 2023-11-03 奥林巴斯株式会社 集中控制装置
JP2020061186A (ja) * 2020-01-06 2020-04-16 株式会社バンダイナムコエンターテインメント シミュレーション制御装置及びシミュレーション制御プログラム

Also Published As

Publication number Publication date
JPWO2016013252A1 (ja) 2017-04-27
EP3078343A1 (en) 2016-10-12
US9483114B2 (en) 2016-11-01
US20160274661A1 (en) 2016-09-22
CN105873539B (zh) 2018-06-29
EP3078343A4 (en) 2017-08-16
JP5911655B1 (ja) 2016-04-27
CN105873539A (zh) 2016-08-17

Similar Documents

Publication Publication Date Title
JP5911655B1 (ja) 医療システム
US20220331054A1 (en) Adaptation and adjustability or overlaid instrument information for surgical systems
JP7500667B2 (ja) インジケータシステム
JP6689203B2 (ja) 立体ビューワのための視線追跡を統合する医療システム
JP6693507B2 (ja) 情報処理装置、情報処理方法及び情報処理システム
JP5927366B1 (ja) 医療システム
US20180032130A1 (en) Operating room and surgical site awareness
JP5945644B1 (ja) 医療システム
US11348684B2 (en) Surgical support system, information processing method, and information processing apparatus
JP6411284B2 (ja) 医療システムおよび医療システムにおける表示制御方法
US10743743B2 (en) Medical observation apparatus
JP2019101293A (ja) 頭部装着型表示装置、表示システム及び表示方法
JP2024514884A (ja) 外科用システムのためのオーバーレイ器具情報の適合及び調整可能性
JP2024514640A (ja) 画面上及び画面外で発生する混合された要素及びアクションを表示するレンダリングされた要素で直接視覚化される混合
JP2024514638A (ja) 外科用システムのための術中ディスプレイ

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2015552931

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15825327

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2015825327

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015825327

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE