WO2021206153A1 - ロボットシステム及びその運転方法 - Google Patents

ロボットシステム及びその運転方法 Download PDF

Info

Publication number
WO2021206153A1
WO2021206153A1 PCT/JP2021/014954 JP2021014954W WO2021206153A1 WO 2021206153 A1 WO2021206153 A1 WO 2021206153A1 JP 2021014954 W JP2021014954 W JP 2021014954W WO 2021206153 A1 WO2021206153 A1 WO 2021206153A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
robot system
space
hand
display
Prior art date
Application number
PCT/JP2021/014954
Other languages
English (en)
French (fr)
Inventor
康彦 橋本
篤 亀山
掃部 雅幸
Original Assignee
川崎重工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 川崎重工業株式会社 filed Critical 川崎重工業株式会社
Priority to US17/995,591 priority Critical patent/US20230339115A1/en
Priority to EP21784024.8A priority patent/EP4134204A1/en
Priority to JP2022514124A priority patent/JPWO2021206153A1/ja
Priority to CN202180027299.8A priority patent/CN115379815A/zh
Publication of WO2021206153A1 publication Critical patent/WO2021206153A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/0045Devices for taking samples of body liquids
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/32Surgical robots operating autonomously
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/11Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints
    • A61B90/13Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints guided by light, e.g. laser pointers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • B25J13/065Control stands, e.g. consoles, switchboards comprising joy-sticks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/0058Means for cleaning manipulators, e.g. dust removing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0084Programme-controlled manipulators comprising a plurality of manipulators
    • B25J9/0087Dual arms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/0045Devices for taking samples of body liquids
    • A61B10/0051Devices for taking samples of body liquids for taking saliva or sputum samples
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/70Cleaning devices specially adapted for surgical instruments

Definitions

  • the present invention relates to a robot system and its operation method.
  • a self-propelled tray transfer robot that manages the presence or absence of a patient and supplies a blood collection tray for a patient in the room prepared in the blood collection room to the blood collection table by the robot. (See, for example, Patent Document 1).
  • a non-contact medium such as RF-ID is used for the inspection reception slip, and the reader of the non-contact medium is installed at the entrance gate of the blood collection chamber. The entry and exit of the patient is checked.
  • the tray automatically prepared by the blood collection tube preparation device is received by the self-propelled tray transfer robot and stocked in a predetermined stock section, and when the patient is in the blood collection room, the tray is stored.
  • Medical practice is assisted by self-propelled supply to the requested blood collection table.
  • samples such as mucous membranes are collected and tests such as PCR tests are performed to diagnose the presence or absence of infection. There was a risk that the workers themselves would be infected with viruses.
  • the present inventor can sufficiently reduce the infection of medical staff and the like in hospitals by remotely engaging the robot with examinations and medical examinations for patients suspected of being infected with a virus or the like. And came up with the present invention.
  • An object of the present invention is to provide a robot system and a method of operating the robot system, which can sufficiently reduce infections of medical staff and the like in a hospital.
  • the robot system is configured to include a robot and an arm having a hand for holding a medical examination instrument and / or a medical examination instrument, and to operate the robot.
  • the first space in which the robot is arranged and the second space in which the robot is arranged are separated from each other, and the control device is provided.
  • the robot is self-propelled to approach the patient (A)
  • the arm and / or the hand operation command information input from the actuator is used as the arm.
  • / or (B) to operate the hand is configured to execute.
  • the medical staff can suppress contact with a patient suspected of being infected with a virus or the like by operating the robot in a space isolated from the patient. Therefore, infection of medical workers such as viruses can be sufficiently suppressed.
  • the robot system includes a robot including an arm having a hand for holding a medical examination instrument and / or a medical examination instrument, and an actuator configured to operate the robot.
  • a control device is provided, and a first space in which the robot is arranged and a second space in which the operator is arranged are separated, and a first photographing device is arranged in the hand.
  • the control device is configured to execute ( ⁇ ) to operate the arm and / or the hand based on the operation command information of the arm and / or the hand input from the actuator. ing.
  • the medical staff can suppress contact with a patient suspected of being infected with a virus or the like by operating the robot in a space isolated from the patient. Therefore, infection of medical workers such as viruses can be sufficiently suppressed.
  • the operation method of the robot system is configured such that the robot system includes a robot and an arm having a hand for holding a medical examination instrument and / or a medical examination instrument, and operates the robot.
  • the first space in which the robot is arranged and the second space in which the operator is arranged are separated from each other so that the robot approaches the patient.
  • the self-propelled (A) and, after the execution of the (A), the arm and / or the hand operates based on the operation command information of the arm and / or the hand input from the actuator (B). ) And.
  • the medical staff can suppress contact with a patient suspected of being infected with a virus or the like by operating the robot in a space isolated from the patient. Therefore, infection of medical workers such as viruses can be sufficiently suppressed.
  • the operation method of the robot system is configured such that the robot system includes a robot and an arm having a hand for holding a medical examination instrument and / or a medical examination instrument, and operates the robot.
  • the first space in which the robot is arranged and the second space in which the robot is arranged are separated from each other, and the hand is subjected to the first photographing.
  • the device is arranged, and the arm and / or the hand operates ( ⁇ ) based on the operation command information of the arm and / or the hand input from the actuator.
  • the medical staff can suppress contact with a patient suspected of being infected with a virus or the like by operating the robot in a space isolated from the patient. Therefore, infection of medical workers such as viruses can be sufficiently suppressed.
  • FIG. 1 is a schematic diagram showing a schematic configuration of a robot system according to the first embodiment.
  • FIG. 2 is a schematic diagram showing a schematic configuration of the robot system according to the first embodiment.
  • FIG. 3 is a schematic diagram showing a schematic configuration of a robot in the robot system shown in FIGS. 1 and 2.
  • FIG. 4 is a schematic diagram showing a schematic configuration of a robot hand in the robot system according to the first embodiment.
  • FIG. 5 is a flowchart showing an example of the operation of the robot system according to the first embodiment.
  • FIG. 6 is a schematic view showing an example of the operation of the robot of the robot system according to the first embodiment.
  • FIG. 7 is a schematic diagram showing an example of image information and / or video information displayed on the first display device shown in FIG. FIG.
  • FIG. 8 is a schematic diagram showing another example of image information and / or video information displayed on the first display device shown in FIG.
  • FIG. 9 is a schematic diagram showing another example of image information and / or video information displayed on the first display device shown in FIG.
  • FIG. 10 is a schematic diagram showing another example of image information and / or video information displayed on the first display device shown in FIG.
  • FIG. 11 is a schematic diagram showing a schematic configuration of the robot system of the modified example 1 in the first embodiment.
  • FIG. 12 is a schematic diagram showing a schematic configuration of the robot system according to the second embodiment.
  • FIG. 13 is a schematic diagram showing a schematic configuration of the robot system according to the third embodiment.
  • FIG. 14 is a schematic diagram showing a schematic configuration of the robot system according to the fourth embodiment.
  • FIG. 15 is a flowchart showing an example of the operation of the robot system according to the fourth embodiment.
  • FIG. 16 is a schematic diagram showing a schematic configuration of the robot system of the first modification of the fourth embodiment.
  • FIG. 17 is a schematic diagram showing a schematic configuration of the robot system according to the fifth embodiment.
  • FIG. 18 is a flowchart showing an example of the operation of the robot system according to the fifth embodiment.
  • FIG. 19 is a schematic diagram showing a schematic configuration of the robot system according to the sixth embodiment.
  • FIG. 20 is a schematic diagram showing a schematic configuration of the robot system according to the sixth embodiment.
  • FIG. 21 is a schematic diagram showing a schematic configuration of the robot hand shown in FIG.
  • FIG. 22 is a flowchart showing an example of the operation of the robot system according to the sixth embodiment.
  • FIG. 23 is a schematic diagram showing a schematic configuration of the robot system of the first modification in the sixth embodiment.
  • FIG. 24 is a schematic diagram showing a schematic configuration of the robot system according to the seventh embodiment.
  • FIG. 25 is a schematic diagram showing a schematic configuration of the robot system according to the eighth embodiment.
  • FIG. 26 is a flowchart showing an example of the operation of the robot system according to the eighth embodiment.
  • the robot system includes a robot including an arm having a hand for holding a medical examination instrument and / or a medical examination instrument, and an actuator configured to operate the robot.
  • a control device is provided, and the first space in which the robot is arranged and the second space in which the actuator is arranged are isolated, and the control device makes the robot self-propelled so as to approach the patient.
  • the robot system is configured to display the first photographing device and the image information and / or the video information photographed by the first photographing device, the first display. Even if the control device is further provided with the device and the control device is configured to execute (B) in a state where the image information and / or the video information taken by the first photographing device is displayed on the first display device. good.
  • the robot and the operator may be configured by a master-slave system.
  • a pair of laser light indicators may be arranged on the hand so that the light emitted from the laser light indicators intersects with each other.
  • the first photographing device may be arranged on the robot or may be arranged on the hand of the robot.
  • the first display device may be configured to display a virtual model showing the position information of the medical examination instrument and / or the medical examination instrument.
  • the operating device may be provided with an operation switch configured to instruct the release of holding of the medical examination device and / or the medical examination device. ..
  • the operation method of the robot system according to the first embodiment is configured such that the robot system includes a robot and an arm having a hand for holding a medical examination instrument and / or a medical examination instrument, and operates the robot.
  • the first space in which the robot is arranged and the second space in which the operation device is arranged are separated from each other, and the position information of the patient input from the operation device is input.
  • the robot Based on (A), the robot automatically moves to the vicinity of the patient, and after the execution of (A), the arm and / or hand operates based on the operation command information of the arm and / or hand input from the actuator. (B) and.
  • the robot system is configured to display the first photographing device and the image information and / or the video information photographed by the first photographing device.
  • (B) may be performed in a state in which the first display device is further provided and the image information and / or video information captured by the first photographing device is displayed on the first display device.
  • the robot and the operator may be configured by a master-slave system.
  • a pair of laser light indicators may be arranged on the hand so that the light emitted from the laser light indicators intersects with each other.
  • the first photographing device may be arranged on the robot or may be arranged on the hand of the robot.
  • the first display device may be configured to display a virtual model showing the position information of the medical examination instrument and / or the medical examination instrument.
  • the first display device may be configured to display a virtual model of a medical practice target part of the patient.
  • the operating device is provided with an operation switch configured to instruct the release of holding of the medical examination device and / or the medical examination device. You may.
  • Robot system configuration 1 and 2 are schematic views showing a schematic configuration of a robot system according to the first embodiment.
  • the robot system 100 includes a robot 101, an actuator 102, a first display device 103, and a control device 110.
  • the robot 101 is arranged in the first space 201, and the actuator 102, the first display device 103, and the control device 110 are arranged in the second space 202.
  • the first space 201 and the second space 202 are spaces separated from each other.
  • the first space 201 and the second space 202 are separated by a partition member 210.
  • an imaging device for photographing the profile of the patient may be arranged in the first space 201.
  • the photographing device may be installed on the partition wall member 210 forming the first space 201, or may be gripped by a robot different from the robot 101.
  • an instrument for the robot 101 to perform a medical examination may be arranged.
  • the instrument include an autopipette, a tip used for the autopipette, a microtube, a centrifuge tube, and a centrifuge tube
  • the experimental device include a centrifuge, a PCR device, and the like.
  • a front room may be provided in the room (operation room) constituting the second space 202. Further, a fan filter unit may be installed in the anterior chamber so as to make the anterior chamber negative pressure and the second space 202 (internal space of the operation chamber) positive pressure.
  • a known fan filter unit can be used as the fan filter unit.
  • the partition wall member 210 may be provided with a shutter (door) 204 that permits / prohibits movement to the first space 201, and a shutter (door) 205 that permits / prohibits movement to the second space 202. You may have it.
  • partition wall member 210 is made of a transparent member such as a glass plate so that an operator (medical worker) or the like can see the inside of the first space 201 from the outside. good.
  • the actuator 102 is configured to operate the robot 101.
  • the operating device 102 for example, a known operating device such as a joystick, a keyboard, a numeric keypad, or a teach pendant can be used.
  • the operator 102 is provided with a device configured to transmit the force sensor or voice information detected by the force sensor provided on the hand 18 of the robot 101, which will be described later, to the operator. good.
  • the device include a vibration motor, a speaker, a mechanism for expanding and contracting a housing constituting a grip portion, and the like.
  • the actuator 102 may be configured to be portable by an operator (medical worker). Further, the robot 101 and the actuator 102 may be of a master-slave system.
  • the actuator 102 is provided with a release button 102A for releasing the medical examination instrument or the medical examination instrument held by the hand 18 in an emergency (for example, when the robot 101 malfunctions). May be good.
  • the control device 110 may operate the robot 101 so that the hand 18 is separated from the patient.
  • the first display device 103 is configured to display image information and / or video information captured by the first photographing device 20, which will be described later.
  • the first display device 103 may be configured by, for example, a stationary display that is used by being stationary on a desk, floor, or the like. Further, the first display device 103 may be composed of a head-mounted display or glasses worn and used by the operator.
  • the robot 101 can self-propell to the vicinity of the patient based on the patient's position information input from the operator 102 and / or the position information in the hospital (for example, the position information of the hospital room and the examination room). It is configured so that it can be done.
  • the robot 101 is configured to operate the arm and / or the hand based on the operation information of the arm and / or the hand input from the actuator 102. At this time, the robot 101 sets the distance between the robot 101 and the patient according to the work content of the medical treatment (for example, medical examination and / or examination) performed on the patient under the control of the control device 110. It may be configured to move automatically so as to maintain a predetermined first distance set in advance.
  • the medical treatment for example, medical examination and / or examination
  • the patient makes the back of the robot 101.
  • the robot 101 may automatically move backwards and then automatically move closer to the patient (maintaining the first distance).
  • the medical staff can operate the robot 101 by remote control, and can perform medical treatment for the patient.
  • the configuration of the robot 101 will be described in detail with reference to FIG.
  • the horizontal articulated dual-arm robot will be described as the robot 101, but other robots such as the horizontal articulated robot and the vertical articulated robot may be adopted as the robot 101.
  • FIG. 3 is a schematic diagram showing a schematic configuration of a robot in the robot system shown in FIGS. 1 and 2.
  • the vertical direction of the robot is represented as the vertical direction in the figure.
  • the robot 101 includes a carriage 12, a first arm 13A, a second arm 13B, a first hand 18A, a second hand 18B, and a controller 14 arranged in the carriage 12. And have.
  • first arm 13A and the second arm 13B are not distinguished, they are simply referred to as the arm 13.
  • first hand 18A and the second hand 18B are not distinguished, they are simply referred to as the hand 18.
  • the controller 14 is arranged inside the carriage 12
  • the present invention is not limited to this, and the controller 14 may be arranged outside the carriage 12. ..
  • the controller 14 will be described later.
  • Wheels 19 are arranged on the lower surface of the carriage 12. Appropriate gears and drive motors are connected to the wheels 19. As a result, the robot 101 can self-propell.
  • the base shaft 16 and the first photographing device 20 are fixed to the upper surface of the carriage 12.
  • the first photographing device 20 is configured to capture an image and / or a moving image and output the captured image information and / or the moving image information to the control device 110.
  • the first photographing device 20 may be, for example, a video camera or an X-ray photographing device.
  • the first photographing device 20 may be configured to output the photographed image information and / or video information to the first display device 103 without going through the control device 110. Further, the first imaging device 20 may be gripped by an arm other than the first arm 13A and the second arm 13B.
  • the base shaft 16 is provided with a first arm 13A and a second arm 13B rotatably around a rotation axis L1 passing through the axis of the base shaft 16.
  • the first arm 13A and the second arm 13B are provided so as to have a height difference in the vertical direction.
  • the first arm 13A and the second arm 13B are configured to be able to operate independently or in relation to each other.
  • the first arm 13A has a first arm portion 15A, a first wrist portion 17A, a first hand 18A, and a first mounting portion 2A.
  • the second arm 13B has a second arm portion 15B, a second wrist portion 17B, a second hand 18B, and a second mounting portion 2B. Since the second arm 13B is configured in the same manner as the first arm 13A, detailed description thereof will be omitted.
  • the first arm portion 15A is composed of a substantially rectangular parallelepiped first link 5a and a second link 5b.
  • the first link 5a is provided with a rotary joint J1 at the base end portion and a rotary joint J2 at the tip end portion.
  • the second link 5b is provided with a linear motion joint J3 at the tip end portion.
  • the base end of the first link 5a is connected to the base shaft 16 via the rotation joint J1, and the first link 5a can be rotated around the rotation axis L1 by the rotation joint J1.
  • the base end portion of the second link 5b is connected to the tip end portion of the first link 5a via the rotary joint J2, and the second link 5b can be rotated around the rotation axis L2 by the rotary joint J2.
  • the first wrist portion 17A is connected to the tip of the second link 5b via a linear motion joint J3 so as to be vertically movable with respect to the second link 5b.
  • a rotary joint J4 is provided at the lower end of the first wrist portion 17A, and a first mounting portion 2A is provided at the lower end of the rotary joint J4.
  • the first mounting portion 2A is configured so that the first hand 18A can be attached and detached.
  • the first mounting portion 2A has a pair of rod members whose intervals are adjustable, and the first hand 18A is sandwiched between the pair of rod members.
  • the first hand 18A can be attached to the first wrist unit 17A.
  • the first hand 18A can be rotated around the rotation axis L3 by the rotation joint J4.
  • the tip of the rod member may be bent.
  • the first hand 18A may be in any form as long as it is configured to hold a medical examination instrument or a medical examination instrument.
  • a medical examination instrument may be, for example, a sterile cotton swab, various tubes such as a tube with a screw cap, a syringe, a catheter, or an endoscopy. It may be an instrument.
  • the medical examination device may be, for example, a stethoscope or a tongue depressor.
  • the first hand 18A is configured to hold various workpieces such as medicines, meals, and test reagents, and to release the workpieces.
  • FIG. 4 is a schematic diagram showing a schematic configuration of a robot hand in the robot system according to the first embodiment.
  • the vertical direction and the front-back direction of the robot are represented as the up-down direction and the front-back direction in the figure.
  • the first hand 18A has a main body 31, an intermediate member 32, and a holding member 33.
  • the main body 31 and the intermediate member 32 are connected via a rotary joint J5.
  • the intermediate member 32 and the holding member 33 are connected via a rotary joint J6.
  • the holding member 33 can rotate around the rotation axis L4 and / or the rotation axis L5 with respect to the main body 31.
  • the main body 31 is provided with an actuator 34 for rotating the holding member 33.
  • the actuator 34 may be, for example, a servomotor that is servo-controlled by the controller 14.
  • the main body 31 is provided with a rotation sensor (not shown) for detecting the rotation position of the servomotor and a current sensor (not shown) for detecting the current for controlling the rotation of the servomotor.
  • the rotation sensor may be, for example, an encoder. The position information detected by the rotation sensor and the current information detected by the current sensor may be output to the control device 110 via the controller 14.
  • a support member 35 is provided at the lower end of the intermediate member 32.
  • a camera (first photographing device) 36 is attached to the support member 35.
  • the camera 36 is configured to capture an image and / or video and output the captured image information and / or video information to the control device 110.
  • the camera 36 may be, for example, a video camera or an X-ray imaging device.
  • the target to be photographed by the camera 36 may be the nostril of the patient, for example, when collecting the nasopharyngeal swab with a sterile cotton swab. Further, for example, when saliva or a sample derived from the lower respiratory tract (sputum, etc.) is collected by a suction catheter or the like, it may be the oral cavity of a patient.
  • the support member 35 and the camera 36 are arranged at the lower end of the intermediate member 32, but the present invention is not limited to this.
  • the support member 35 and the camera 36 may be arranged at the upper end portion of the intermediate member 32 or the like. Further, the support member 35 and the camera 36 may be arranged on the holding member 33.
  • a chuck mechanism 37 for holding / releasing a medical examination instrument or a medical examination instrument is attached to the holding member 33.
  • the chuck mechanism 37 may be composed of, for example, an air chuck.
  • the chuck mechanism 37 holds a sterile cotton swab 50 for collecting a sample for PCR test here.
  • a pair of laser pointers (laser light indicators) 38A and 38B are arranged on the holding member 33.
  • the laser pointers 38A and 38B are arranged so that the laser beams 39A and 39B checked from the respective laser pointers 38A and 38B intersect in front of the first hand 18A.
  • three or more laser light indicators may be arranged in the first hand 18A.
  • the distance between the laser light 39A and the laser light 39B that hit the patient becomes smaller. Further, when the first hand 18A approaches the patient, the laser beam that hits the patient becomes one point. Further, when the first hand 18A approaches the patient, the distance between the laser light 39A and the laser light 39B that hit the patient increases.
  • the operator uses the laser beams 39A and 39B emitted from the pair of laser pointers 38A and 38B to connect the patient and the tip of the medical examination instrument and / or the medical examination instrument (sterile cotton rod 50).
  • the distance can be easily understood.
  • each of the joints J1 to J4 of the first arm 13A and the second arm 13B is provided with a drive motor as an example of an actuator that relatively rotates or raises and lowers two members to which the joints are connected.
  • the drive motor may be, for example, a servomotor that is servo-controlled by the controller 14.
  • each of the joints J1 to J4 has a rotation sensor (not shown) that detects the rotation position of the drive motor, and a current sensor (not shown) that detects the current that controls the rotation of the drive motor. Is provided.
  • the rotation sensor may be, for example, an encoder. The position information detected by the rotation sensor and the current information detected by the current sensor may be output to the control device 110 via the controller 14.
  • the controller 14 includes an arithmetic processor and a storage device (not shown).
  • the arithmetic processor is composed of a microprocessor, a CPU, and the like, and controls various operations of the robot 101 by reading and executing software such as a basic program stored in the storage device.
  • the storage device stores information such as basic programs and various fixed data. For example, map information in the hospital may be stored in the storage device in advance.
  • the storage device does not have to be a single device, and may be configured as a plurality of storage devices (for example, a random access memory and a hard disk drive).
  • the arithmetic processing unit is composed of a microcomputer, at least a part of the storage device may be configured as the internal memory of the microcomputer or may be configured as an independent memory.
  • controller 14 may control various operations of the robot 101 based on various command information input from the control device 110.
  • the control device 110 includes an arithmetic processor 110a, a storage device 110b, and an input device (operator) 110c.
  • the arithmetic processor 110a is composed of a microprocessor, a CPU, and the like, and controls various operations of the robot system 100 by reading and executing software such as a basic program stored in the storage device 110b.
  • the storage device 110b stores information such as a basic program and various fixed data.
  • the storage device 110b does not have to be a single device, and may be configured as a plurality of storage devices (for example, a random access memory and a hard disk drive).
  • the arithmetic processing unit 110a is composed of a microcomputer, at least a part of the storage device 110b may be configured as an internal memory of the microcomputer or may be configured as an independent memory.
  • the input device 110c is capable of inputting various parameters related to the control of the robot system 100, other data, and the like to the arithmetic processing device 110a, and is a known input device such as a keyboard, a touch panel, and a button switch group. It is configured.
  • the position information of the patient may be input by the input device 110c. Further, the patient's position information may be input by the actuator 102.
  • the control device 110 may be composed of a single control device 110 for centralized control, or may be composed of a plurality of control devices 110 for distributed control in cooperation with each other. Further, the control device 110 may be composed of a microcomputer, an MPU, a PLC (Programmable Logic Controller), a logic circuit, or the like.
  • a microcomputer an MPU, a PLC (Programmable Logic Controller), a logic circuit, or the like.
  • FIG. 5 is a flowchart showing an example of the operation of the robot system according to the first embodiment.
  • FIG. 6 is a schematic view showing an example of the operation of the robot of the robot system according to the first embodiment.
  • the control device 110 acquires the patient's position information from the input device 110c (and / or the actuator 102) by the operator operating the input device 110c (and / or the actuator 102). (Step S101).
  • control device 110 self-propells (automatically moves) the robot 101 from the preset standby location to the vicinity of the patient based on the patient's position information acquired in step S101 (step S102). ..
  • control device 110 outputs the patient position information acquired in step S101 to the controller 14.
  • the controller 14 drives the drive motor based on the input patient position information and the map information in the hospital stored in the storage device to drive the robot 101 to the vicinity of the patient.
  • the waiting place may be a place (space) isolated from the first space 201 and the second space 202.
  • control device 110 acquires the image information and / or the video information taken by the first photographing device 20 and displays them on the first display device 103 (step S103).
  • the control device 110 may execute the process of step S103 before the process of step S101 or step S102.
  • FIG. 7 is a schematic diagram showing an example of image information and / or video information displayed on the first display device shown in FIG. 8 to 10 are schematic views showing other examples of image information and / or video information displayed on the first display device shown in FIG. 1. Note that in FIGS. 8 to 10, a part of the robot 101 and the first hand 18A is omitted.
  • the video information captured by the first imaging device 20 may be displayed on the first display device 103 as the first video information 103A. Further, the first display device 103 may display the video information captured by the imaging device (not shown) for photographing the profile of the patient as the second video information 103B.
  • the video information captured by the first imaging device 20 may be displayed on the first display device 103 as the first video information 103A. Further, the video information captured by the camera 36 provided in the first hand 18A may be displayed on the first display device 103 as the third video information 103C.
  • the video information captured by the first imaging device 20 may be displayed on the first display device 103 as the first video information 103A. Further, the video information captured by the camera 36 provided in the first hand 18A may be displayed on the first display device 103 as the third video information 103C.
  • a virtual model showing the position information of the medical examination instrument and / or the medical examination instrument may be displayed as the fourth video information 103D.
  • a virtual sterilized cotton swab 50A which is a virtual model of the sterilized cotton swab 50
  • a virtual patient 60 which is a virtual model of the medical target site of the patient
  • the control device 110 is based on the patient's position information, the position information detected by the rotation sensor that detects the rotation position of each drive motor, and / or the operation information input to the operator 102, and the fourth image is displayed.
  • the virtual sterile cotton swab 50A in the information 103D may be moved. This allows the operator to easily understand the distance between the patient and the tip of the medical examination instrument and / or the medical examination instrument (sterile cotton swab 50).
  • the video information captured by the first imaging device 20 may be displayed on the first display device 103 as the first video information 103A. Further, the video information captured by the camera 36 provided in the first hand 18A may be displayed on the first display device 103 as the third video information 103C.
  • a virtual model showing the position information of the medical examination instrument and / or the medical examination instrument may be displayed as the fourth video information 103D.
  • a virtual sterilized cotton swab 50A which is a virtual model of the sterilized cotton swab 50, is displayed.
  • the control device 110 is based on the patient's position information, the position information detected by the rotation sensor that detects the rotation position of each drive motor, and / or the operation information input to the operator 102, and is inside the patient's body.
  • the area of the sterile cotton swab 50 that has invaded the area may be displayed as the first area 50B in the fourth image information 103D.
  • the first region 50B may be indicated by hatching, for example, as shown in FIG. 10, or may be indicated by a color different from that of the virtual sterilized cotton swab 50A.
  • the control device 110 acquires the operation command information of the arm 13 and / or the hand 18 from the actuator 102 (step S104). Then, the control device 110 operates the arm 13 and / or the hand 18 based on the operation command information acquired in step S104 (step S105).
  • the operator can remotely operate the robot 101 to perform medical treatment (for example, medical examination and / or examination) for the patient.
  • medical treatment for example, medical examination and / or examination
  • the operator may perform a sample collection operation for the PCR test on the patient.
  • the robot 101 adopts a form having a second display device 24, which will be described later.
  • a shielding plate 221 is arranged between the robot 101 and the patient.
  • the shielding plate 221 may be installed on a base 220 such as a desk. Further, the shielding plate 221 is made of a transparent member such as a glass plate, and an opening 222 is provided in a substantially central portion.
  • the position and size of the opening 222 are appropriately set according to the type of medical practice. For example, when performing medical treatment for internal medicine, otolaryngology, etc., the position and size of the opening 222 are appropriately arranged so that the patient's mouth and nose (the part subject to medical treatment) are located at the opening 222. , Set. Further, when performing a medical practice related to ophthalmology, the arrangement position and size of the opening 222 are appropriately set so that the patient's eye (the portion subject to the medical practice) is located at the opening 222.
  • the positioning device 230 is installed between the shielding plate 221 and the patient.
  • the positioning device 230 includes a main body 231, a contacted portion 232, and a chin rest 233.
  • the body 231 may be configured to be graspable by the patient.
  • the chin rest 233 may be configured to move up and down.
  • the patient puts his / her forehead on the contacted portion 232 and puts his / her chin on the chin resting table 233, so that the medical practice target portion of the patient is set in a preset range (opening 222). ) Is configured to be located inside.
  • a preset range opening 222
  • control device 110 automatically sets the arm 13 and / / so that, for example, the tip of the medical examination instrument or medical examination instrument held by the hand 18 approaches the patient.
  • the hand 18 may be operated.
  • control device 110 may store the operation command information of the arm 13 and / or the hand 18 input from the operation device 102 in the storage device 110b. Further, the control device 110 operates the arm 13 and / or the hand 18 based on the operation command information stored in the storage device 110b, and causes the patient to perform medical treatment (for example, medical examination work and / or examination). Work) may be performed.
  • medical treatment for example, medical examination work and / or examination. Work
  • control device 110 may be configured to learn the medical examination work and the like. Specifically, for example, when the control device 110 causes the robot 101 to perform a medical examination work or the like, the operation of the arm 13 and / or the hand 18 is modified by the operator operating the actuator 102. If so, the modified arm 13 and / or hand 18 operation command information is stored in the storage device 110b.
  • the control device 110 operates the arm 13 and / or the hand 18 based on the corrected operation command information to perform medical treatment (for example, examination work and / or examination work) on the patient. .. Then, when the operation of the arm 13 and / or the hand 18 is corrected by the operator again, the operation command information of the corrected arm 13 and / or the hand 18 is stored in the storage device 110b to perform the medical examination work and the like. Let them learn.
  • control device 110 receives a medical practice end command.
  • the robot 101 is self-propelled to the standby place (step S106), and this program is terminated.
  • the control device 110 may control the robot 101 to be in the standby state after the robot 101 is self-propelled to the standby place and then disinfected by an appropriate means. Further, the robot 101 may be disinfected by an operator wearing a protective mask and protective clothing.
  • the robot 101 self-propells to the vicinity of the patient only by inputting the position information of the patient by the operator (medical worker). It is configured.
  • the operator can concentrate on the medical practice and can reduce the burden of the operator's operation.
  • the operator is configured to operate the robot 101 in the second space 202 isolated from the patient.
  • the robot 101 moves to the vicinity of the patient in each hospitalization room or the like, the operator does not need to move in the hospital. Therefore, infection to the operator can be sufficiently suppressed.
  • a pair of laser pointers 38A and 38B are arranged on the first hand 18A (hand 18) so that the laser beams 39A and 39B emitted from the respective laser pointers 38A and 38B intersect with each other. Has been done.
  • the distance between the laser light 39A and the laser light 39B that hit the patient becomes smaller. Further, when the first hand 18A approaches the patient, the laser beam that hits the patient becomes one point. Further, when the first hand 18A approaches the patient, the distance between the laser light 39A and the laser light 39B that hit the patient increases.
  • the operator uses the laser beams 39A and 39B emitted from the pair of laser pointers 38A and 38B to connect the patient and the tip of the medical examination instrument and / or the medical examination instrument (sterile cotton rod 50).
  • the distance can be easily understood.
  • a virtual model showing the position information of the medical examination instrument and / or the medical examination instrument is displayed on the first display device 103 as the fourth video information 103D. This allows the operator to easily understand the distance between the patient and the tip of the medical examination instrument and / or the medical examination instrument (sterile cotton swab 50).
  • the control device 110 displays the virtual patient 60, which is a virtual model of the medical target part of the patient, on the first display device 103, thereby displaying the patient and the medical examination instrument and / or the medical examination instrument (sterile cotton rod 50).
  • the distance to the tip of the can be more easily understood.
  • FIG. 11 is a schematic diagram showing a schematic configuration of the robot system of the modified example 1 in the first embodiment.
  • the robot system 100 of the present modification 1 has the same basic configuration as the robot system 100 according to the first embodiment, but the robot 101 is composed of a vertical articulated robot. Is different.
  • the robot in the robot system according to the first embodiment (including a modification), the robot further includes a first voice input device and a first voice output device, and the second A second voice input device and a second voice output device are further arranged in the space, and the control device outputs the voice information input to the first voice input device to the second voice output device. It is configured to output the voice information input to the second voice input device to the first voice output device.
  • the robot in the operation method of the robot system according to the first embodiment (including a modification), has a first voice input device, a first voice output device, and the like.
  • a second voice input device and a second voice output device are further arranged in the second space, and the control device uses the voice information input to the first voice input device as the second voice. It is configured to output to an output device and output the voice information input to the second voice input device to the first voice output device.
  • FIG. 12 is a schematic diagram showing a schematic configuration of the robot system according to the second embodiment.
  • the robot system 100 according to the second embodiment has the same basic configuration as the robot system 100 according to the first embodiment, but the robot 101 is the first voice input device 21 and the first.
  • the point that the voice output device 22 is provided and the point that the second voice input device 104 and the second voice output device 105 are arranged in the second space 202 are different.
  • the first voice input device 21 and the second voice input device 104 may be composed of, for example, a microphone. Further, the first audio output device 22 and the second audio output device 105 may be composed of speakers.
  • the second audio input device 104 and the second audio output device 105 may be composed of headphones (headsets) with a microphone.
  • the first display device 103 is composed of a head-mounted display
  • the second audio input device 104 and the second audio output device 105 are composed of a microphone and headphones attached to the head-mounted display. It may have been done.
  • the robot 101 is provided with the first voice input device 21 and the first voice output device 22, and the second space 202 is provided with the second voice input device 104 and the second voice. Since the output device 105 is arranged, communication can be performed between the patient and the operator.
  • the robot in the robot system according to the third embodiment, in the robot system according to the first embodiment (including a modified example) or the second embodiment, the robot is a drug, a meal, a test reagent, a sample, a medical test instrument, and a robot system.
  • a storage device for storing at least one of the medical examination instruments is further provided.
  • the operation method of the robot system according to the third embodiment is the operation method of the robot system according to the first embodiment (including a modified example) or the second embodiment, wherein the robot uses a medicine, a meal, a test reagent, and a sample.
  • FIG. 13 is a schematic diagram showing a schematic configuration of the robot system according to the third embodiment.
  • the robot system 100 according to the third embodiment has the same basic configuration as the robot system 100 according to the first embodiment, but the robot 101 has a medicine, a meal, a test reagent, and a sample. , A medical examination instrument, and a storage device 23 for accommodating at least one transported item among the medical examination instruments.
  • the storage device 23 various storage items such as a box with a lid and a tray can be used. Further, the storage device 23 may be made of metal (for example, stainless steel) so as to be capable of sterilization processing such as autoclave sterilization and dry heat sterilization. Further, the storage device 23 may be configured so that the internal space can be maintained at a predetermined temperature (for example, 0 ° C., ⁇ 20 ° C., ⁇ 80 ° C.) so that the sample can be transported.
  • a predetermined temperature for example, 0 ° C., ⁇ 20 ° C., ⁇ 80 ° C.
  • various instruments such as an auto pipette, a tip used for the auto pipette, a microtube, a centrifuge tube, a centrifuge, a PCR device, and / or an experimental device may be stored.
  • the robot 101 provides a storage device 23 for storing at least one of a medicine, a meal, a reagent for examination, a sample, a medical examination instrument, and a medical examination instrument. Further prepared.
  • a storage device 23 for storing at least one of a medicine, a meal, a reagent for examination, a sample, a medical examination instrument, and a medical examination instrument. Further prepared.
  • the work of medical practice assistants such as nurses can be reduced.
  • the robot system according to the fourth embodiment is a third space isolated from the first space and the second space in the robot system according to any one of the first (including modified examples) to three embodiments.
  • the space is further provided, and the robot is disinfected in the third space.
  • the robot may be configured to disinfect the robot itself.
  • control device is configured to further execute (C) in which the robot is self-propelled to the third space and the robot is disinfected after (B). You may.
  • the operation method of the robot system according to the fourth embodiment is described from the first space and the second space in the operation method of the robot system according to any one of the first (including modified examples) to three embodiments. It further comprises an isolated third space, in which the robot is disinfected.
  • the robot may be configured to disinfect the robot itself.
  • the robot may self-propell to the third space to disinfect the robot (C).
  • FIG. 14 is a schematic diagram showing a schematic configuration of the robot system according to the fourth embodiment.
  • the robot system 100 according to the fourth embodiment has the same basic configuration as the robot system 100 according to the first embodiment, but is isolated from the first space 201 and the second space 202. The difference is that the third space 203 is further provided.
  • the first space 201, the second space 202, and the third space 203 are spaces separated from each other.
  • the first space 201, the second space 202, and the third space 203 are separated by a partition wall member 210, respectively.
  • a front room may be provided in the room (sterilization room) constituting the third space 203. Further, a fan filter unit may be installed in the anterior chamber so as to make the anterior chamber negative pressure and the second space 202 (internal space of the sterilization chamber) positive pressure. A known fan filter unit can be used as the fan filter unit.
  • the partition member 210 may be provided with a shutter (door) 206 that permits / prohibits movement to the third space 203.
  • the robot 101 may be configured to disinfect the robot 101 itself. Specifically, for example, by holding a sprayer for spraying a solution such as an ethanol solution having a bactericidal and antiviral effect with the hand 18 and spraying the solution toward the robot 101, the robot 101 itself is sprayed. It may be disinfected.
  • a sprayer for spraying a solution such as an ethanol solution having a bactericidal and antiviral effect
  • a solution such as an ethanol solution having a bactericidal and antiviral effect
  • the robot 101 itself is sprayed. It may be disinfected.
  • the robot 101 itself may be disinfected by holding the irradiator that irradiates the ultraviolet rays with the hand 18 and irradiating the robot 101 with the ultraviolet rays.
  • a protective cover (surgical drape) may be arranged in the third space 203.
  • the robot 101 may be configured to maintain a sterilized / antiviral state by attaching / detaching a protective cover.
  • the robot 101 wears a protective cover in the third space 203, then moves to the first space 201 to perform medical treatment. After the medical practice is completed, the patient moves to another third space 203 in which the protective cover is not arranged, and removes the protective cover. After that, the user moves to the third space 203 where the protective cover is arranged and wears the protective cover.
  • FIG. 15 is a flowchart showing an example of the operation of the robot system according to the fourth embodiment.
  • the operation of the robot system 100 according to the fourth embodiment is basically the same as that of the robot system 100 according to the first embodiment, but the control device 110 performs the process of step S106. Instead, the point that the process of step S106A is executed and the point that the process of step S107 is executed after the process of step S106A are different.
  • control device 110 self-propells the robot 101 up to the third space 203 when the medical practice end command information is input from the actuator 102 (and / or the input device 110c) (step S106A).
  • control device 110 disinfects the robot 101 in the third space 203 (step S107), and ends this program.
  • the robot 101 is configured to disinfect the robot 101 itself. This eliminates the need for the operator wearing the protective mask and protective clothing to disinfect the robot 101. Therefore, it is possible to provide an easy-to-use robot system 100.
  • a disinfection device configured to disinfect the robot is arranged in the third space.
  • a disinfection device configured to disinfect the robot is arranged in the third space.
  • FIG. 16 is a schematic diagram showing a schematic configuration of the robot system of the first modification of the fourth embodiment.
  • the robot system 100 of the present modification 1 has the same basic configuration as the robot system 100 according to the fourth embodiment, but the disinfection device 300 is installed in the sterilization chamber constituting the third space 203. The point that they are arranged is different.
  • the disinfecting device 300 may be a sprayer that sprays a solution such as an ethanol solution that has sterilizing and antiviral effects. Further, the disinfecting device 300 may be an irradiator that irradiates ultraviolet rays. Further, a robot different from the robot 101 may be arranged in the sterilization chamber, and the robot may hold the atomizer or the irradiator to perform the disinfection work of the robot 101.
  • the robot system according to the fifth embodiment is the robot system according to the embodiment of any one of the first to fourth embodiments (including a modification), wherein the robot further includes a second display device and a second space.
  • a second photographing device is further arranged in the above, and the control device is configured to display the image information and / or the video information photographed by the second photographing device on the second display device in (B). There is.
  • the robot displays the second display device.
  • a second photographing device is further arranged in the second space, and in (B), the second display device displays the image information and / or the video information photographed by the second photographing device. It is configured.
  • FIG. 17 is a schematic diagram showing a schematic configuration of the robot system according to the fifth embodiment.
  • the robot system 100 according to the fifth embodiment has the same basic configuration as the robot system 100 according to the first embodiment, but the robot 101 further includes a second display device 24.
  • the point is different from the point where the second photographing apparatus 106 is further arranged in the second space 202.
  • the second display device 24 is configured to display image information and / or video information captured by the second photographing device 106.
  • the second display device 24 may be configured by, for example, a stationary display.
  • the second imaging device 106 is configured to capture an image and / or a video and output the captured image information and / or video information to the second display device 24 via the control device 110 and the controller 14. There is.
  • the second photographing device 106 may be, for example, a video camera.
  • FIG. 18 is a flowchart showing an example of the operation of the robot system according to the fifth embodiment.
  • the operation of the robot system 100 according to the fifth embodiment is basically the same as that of the robot system 100 according to the first embodiment, but the control device 110 performs the process of step S103. Instead, the process of step S103A is executed.
  • control device 110 self-propells from the standby place to the vicinity of the patient (step S102), and then executes the following processing.
  • the control device 110 acquires the image information and / or video information photographed by the first photographing device 20, displays the image information on the first display device 103, and acquires the image information and / or video information photographed by the second photographing device 106. Then, it is displayed on the second display device 24 (step S103A).
  • the control device 110 may execute the process of step S103A before the process of step S101 or step S102.
  • the robot 101 further includes a second display device 24, and a second photographing device 106 is further arranged in the second space 202.
  • the robot system includes a robot including an arm having a hand for holding a medical examination instrument and / or a medical examination instrument, and an actuator configured to operate the robot.
  • the first space in which the robot is arranged and the second space in which the robot is arranged and the control device is provided are separated from each other, and the first photographing device is arranged in the hand.
  • the control device is configured to execute ( ⁇ ) to operate the arm and / or the hand based on the operation command information of the arm and / or the hand input from the controller.
  • the first display is configured such that the robot system displays the first photographing device and the image information and / or the video information photographed by the first photographing device.
  • a device is further provided, and the control device is configured to execute ( ⁇ ) in a state where the image information and / or the video information taken by the first photographing device is displayed on the first display device. good.
  • the robot and the operator may be configured by a master-slave system.
  • the first photographing device may be arranged on the robot or may be arranged on the hand of the robot.
  • a pair of laser light indicators may be arranged on the hand so that the light emitted from the laser light indicators intersects with each other.
  • the first display device may be configured to display a virtual model showing the position information of the medical examination instrument and / or the medical examination instrument.
  • the first display device may be configured to display a virtual model of the medical practice target part of the patient.
  • the operating device may be provided with an operation switch configured to instruct the release of holding of the medical examination device and / or the medical examination device. ..
  • the method of operating the robot system according to the sixth embodiment is configured such that the robot system operates the robot and the robot including an arm having a hand for holding a medical examination instrument and / or a medical examination instrument.
  • the first space in which the robot is arranged and the second space in which the operator is arranged are separated from each other, and the first photographing device is arranged in the hand. It is provided ( ⁇ ) in which the arm and / or the hand operates based on the operation command information of the arm and / or the hand input from the actuator.
  • the robot system is configured to display the first photographing device and the image information and / or the video information photographed by the first photographing device.
  • ( ⁇ ) may be executed in a state in which the first display device is further provided and the image information and / or the video information taken by the first photographing device is displayed on the first display device.
  • the robot and the operator may be configured by a master-slave system.
  • the first photographing device may be arranged on the robot or may be arranged on the hand.
  • a pair of laser light indicators may be arranged on the hand so that the light emitted from the laser light indicators intersects with each other.
  • the first display device may be configured to display a virtual model showing the position information of the medical examination instrument and / or the medical examination instrument.
  • the first display device may be configured to display a virtual model of the medical practice target part of the patient.
  • the operating device is provided with an operation switch configured to instruct the release of holding of the medical examination device and / or the medical examination device. You may.
  • Robot system configuration 19 and 20 are schematic views showing a schematic configuration of the robot system according to the sixth embodiment.
  • the robot system 100 according to the sixth embodiment has the same basic configuration as the robot system 100 according to the first embodiment, but the robot 101 is located in the first space 201. The difference is that they are installed (the robot 101 is a stationary type). Further, the configuration of the first hand 18A of the robot 101 is different.
  • FIG. 21 is a schematic diagram showing a schematic configuration of the robot hand shown in FIG.
  • the vertical direction and the front-back direction of the robot are represented as the up-down direction and the front-back direction in the figure.
  • the first hand 18A has a main body 31, an intermediate member 32, and a holding member 33.
  • the main body 31 and the intermediate member 32 are connected via a rotary joint J5.
  • the intermediate member 32 and the holding member 33 are connected via a rotary joint J6.
  • the holding member 33 can rotate around the rotation axis L4 and / or the rotation axis L5 with respect to the main body 31.
  • the main body 31 is provided with an actuator 34 for rotating the holding member 33.
  • the actuator 34 may be, for example, a servomotor that is servo-controlled by the controller 14.
  • the main body 31 is provided with a rotation sensor (not shown) for detecting the rotation position of the servomotor and a current sensor (not shown) for detecting the current for controlling the rotation of the servomotor.
  • the rotation sensor may be, for example, an encoder. The position information detected by the rotation sensor and the current information detected by the current sensor may be output to the control device 110 via the controller 14.
  • a support member 35 is provided at the lower end of the intermediate member 32.
  • a camera (first photographing device) 36 is attached to the support member 35.
  • the camera 36 is configured to capture an image and / or video and output the captured image information and / or video information to the control device 110.
  • the camera 36 may be, for example, a video camera or an X-ray imaging device.
  • the target to be photographed by the camera 36 may be the nostril of the patient, for example, when collecting the nasopharyngeal swab with a sterile cotton swab. Further, for example, when saliva or a sample derived from the lower respiratory tract (sputum, etc.) is collected by a suction catheter or the like, it may be the oral cavity of a patient.
  • the support member 35 and the camera 36 are arranged at the lower end of the intermediate member 32, but the present invention is not limited to this.
  • the support member 35 and the camera 36 may be arranged at the upper end portion of the intermediate member 32 or the like. Further, the support member 35 and the camera 36 may be arranged on the holding member 33.
  • a chuck mechanism 37 for holding / releasing a medical examination instrument or a medical examination instrument is attached to the holding member 33.
  • the chuck mechanism 37 may be composed of, for example, an air chuck.
  • the chuck mechanism 37 holds a sterile cotton swab 50 for collecting a sample for PCR test here.
  • a pair of laser pointers (laser light indicators) 38A and 38B are arranged on the holding member 33.
  • the laser pointers 38A and 38B are arranged so that the laser beams 39A and 39B checked from the respective laser pointers 38A and 38B intersect in front of the first hand 18A.
  • three or more laser light indicators may be arranged in the first hand 18A.
  • the distance between the laser light 39A and the laser light 39B that hit the patient becomes smaller. Further, when the first hand 18A approaches the patient, the laser beam that hits the patient becomes one point. Further, when the first hand 18A approaches the patient, the distance between the laser light 39A and the laser light 39B that hit the patient increases.
  • the operator uses the laser beams 39A and 39B emitted from the pair of laser pointers 38A and 38B to connect the patient and the tip of the medical examination instrument and / or the medical examination instrument (sterile cotton rod 50).
  • the distance can be easily understood.
  • FIG. 22 is a flowchart showing an example of the operation of the robot system according to the sixth embodiment.
  • the control device 110 acquires the image information and / or the video information taken by the first photographing device 20 and displays them on the first display device 103 (step S201).
  • the image information and / or video information displayed on the first display device 103 may be the examples shown in FIGS. 6 to 10.
  • control device 110 acquires the operation command information of the arm 13 and / or the hand 18 from the controller 102 (step S202). Then, the control device 110 operates the arm 13 and / or the hand 18 based on the operation command information acquired in step S104 (step S203).
  • the operator can remotely control the robot 101 to perform medical treatment (for example, medical examination and / or examination) for the patient (see FIG. 6).
  • medical treatment for example, medical examination and / or examination
  • the operator may perform a sample collection operation for PCR testing.
  • control device 110 may store the operation command information of the arm 13 and / or the hand 18 input from the operation device 102 in the storage device 110b. Further, the control device 110 operates the arm 13 and / or the hand 18 based on the operation command information stored in the storage device 110b, and causes the patient to perform medical treatment (for example, medical examination work and / or examination). Work) may be performed.
  • medical treatment for example, medical examination work and / or examination. Work
  • control device 110 may be configured to learn the medical examination work and the like. Specifically, for example, when the control device 110 causes the robot 101 to perform a medical examination work or the like, the operation of the arm 13 and / or the hand 18 is modified by the operator operating the actuator 102. If so, the modified arm 13 and / or hand 18 operation command information is stored in the storage device 110b.
  • the control device 110 operates the arm 13 and / or the hand 18 based on the corrected operation command information to perform medical treatment (for example, examination work and / or examination work) on the patient. .. Then, when the operation of the arm 13 and / or the hand 18 is corrected by the operator again, the operation command information of the corrected arm 13 and / or the hand 18 is stored in the storage device 110b to perform the medical examination work and the like. Let them learn.
  • the control device 110 when the operator operates the operation device 102 (and / or the input device 110c), the medical practice end command information is input from the operation device 102 (and / or the input device 110c) ( Yes) in step S204, and the program ends.
  • control device 110 may control the robot 101 to be in a standby state after disinfecting the robot 101 by an appropriate means after completing this program. Further, the robot 101 may be disinfected by an operator wearing a protective mask and protective clothing.
  • the operator is configured to operate the robot 101 in the second space 202 isolated from the patient.
  • a pair of laser pointers 38A and 38B are arranged on the first hand 18A (hand 18) so that the laser beams 39A and 39B emitted from the respective laser pointers 38A and 38B intersect with each other. Has been done.
  • the distance between the laser light 39A and the laser light 39B that hit the patient becomes smaller. Further, when the first hand 18A approaches the patient, the laser beam that hits the patient becomes one point. Further, when the first hand 18A approaches the patient, the distance between the laser light 39A and the laser light 39B that hit the patient increases.
  • the operator uses the laser beams 39A and 39B emitted from the pair of laser pointers 38A and 38B to connect the patient and the tip of the medical examination instrument and / or the medical examination instrument (sterile cotton rod 50).
  • the distance can be easily understood.
  • a virtual model showing the position information of the medical examination instrument and / or the medical examination instrument is displayed on the first display device 103 as the fourth video information 103D. This allows the operator to easily understand the distance between the patient and the tip of the medical examination instrument and / or the medical examination instrument (sterile cotton swab 50).
  • the control device 110 displays the virtual patient 60, which is a virtual model of the medical target part of the patient, on the first display device 103, thereby displaying the patient and the medical examination instrument and / or the medical examination instrument (sterile cotton rod 50).
  • the distance to the tip of the can be more easily understood.
  • FIG. 23 is a schematic diagram showing a schematic configuration of the robot system of the modified example 1 in the sixth embodiment.
  • the robot system 100 of the present modification 1 has the same basic configuration as the robot system 100 according to the sixth embodiment, but the robot 101 is composed of a vertical articulated robot. Is different.
  • the robot system according to the seventh embodiment is the robot system according to the sixth embodiment (including a modification), wherein the robot further includes a first voice input device and a first voice output device, and the second A second voice input device and a second voice output device are further arranged in the space, and the control device outputs the voice information input to the first voice input device to the second voice output device. It is configured to output the voice information input to the second voice input device to the first voice output device.
  • FIG. 24 is a schematic diagram showing a schematic configuration of the robot system according to the seventh embodiment.
  • the robot system 100 according to the seventh embodiment has the same basic configuration as the robot system 100 according to the sixth embodiment, but the robot 101 is the first voice input device 21 and the first.
  • the point that the voice output device 22 is provided and the point that the second voice input device 104 and the second voice output device 105 are arranged in the second space 202 are different.
  • the first voice input device 21 and the second voice input device 104 may be composed of, for example, a microphone. Further, the first audio output device 22 and the second audio output device 105 may be composed of speakers.
  • the second audio input device 104 and the second audio output device 105 may be composed of headphones (headsets) with a microphone.
  • the first display device 103 is composed of a head-mounted display
  • the second audio input device 104 and the second audio output device 105 are composed of a microphone and headphones attached to the head-mounted display. It may have been done.
  • the robot 101 is provided with the first voice input device 21 and the first voice output device 22, and the second space 202 is provided with the second voice input device 104 and the second voice. Since the output device 105 is arranged, communication can be performed between the patient and the operator.
  • the robot system according to the eighth embodiment is the robot system according to the embodiment 6 (including a modification) or the seventh embodiment, wherein the robot further includes a second display device and is provided with a second space.
  • a second photographing device is further arranged, and the control device is configured to display the image information and / or the video information photographed by the second photographing device on the second display device in ( ⁇ ). There is.
  • the robot displays the second display device.
  • a second photographing device is further arranged in the second space, and in ( ⁇ ), the second display device displays the image information and / or the video information photographed by the second photographing device. It is configured.
  • FIG. 25 is a schematic diagram showing a schematic configuration of the robot system according to the eighth embodiment.
  • the robot system 100 according to the eighth embodiment has the same basic configuration as the robot system 100 according to the sixth embodiment, but the robot 101 further includes a second display device 24.
  • the point is different from the point where the second photographing apparatus 106 is further arranged in the second space 202.
  • the second display device 24 is configured to display image information and / or video information captured by the second photographing device 106.
  • the second display device 24 may be configured by, for example, a stationary display.
  • the second imaging device 106 is configured to capture an image and / or a video and output the captured image information and / or video information to the second display device 24 via the control device 110 and the controller 14. There is.
  • the second photographing device 106 may be, for example, a video camera.
  • FIG. 26 is a flowchart showing an example of the operation of the robot system according to the eighth embodiment.
  • the operation of the robot system 100 according to the eighth embodiment is basically the same as that of the robot system 100 according to the sixth embodiment, but the control device 110 performs the process of step S201. Instead, the process of step S201A is executed.
  • control device 110 acquires the image information and / or video information photographed by the first photographing device 20, displays the image information on the first display device 103, and displays the image information and / or the image information photographed by the second photographing device 106.
  • the video information is acquired and displayed on the second display device 24 (step S201A).
  • the robot 101 further includes a second display device 24, and a second photographing device 106 is further arranged in the second space 202.

Abstract

このロボットシステム(100)では、制御装置(110)は、ロボット(101)を患者に近づくように自走させることの実行後に、操作器(102)から入力されたアーム(13)及び/又はハンド(18)の操作指令情報に基づいて、アーム(13)及び/又はハンド(18)を動作させることを実行するように構成されている。

Description

ロボットシステム及びその運転方法
 本発明は、ロボットシステム及びその運転方法に関する。
 患者の在室、不在を管理し、採血管準備室で準備された在室患者の採血管収納トレイをロボットが自走して採血台へ供給する、自走式トレイ搬送ロボットが知られている(例えば、特許文献1参照)。
 特許文献1に開示されている自走式トレイ搬送ロボットでは、検査受付票にRF-IDなどの非接触式媒体を用い、採血室の入り口ゲートに、前記非接触式媒体のリーダを設置し、当該患者の入退室をチェックしている。
 そして、患者が不在の場合は、採血管準備装置で自動的に準備されたトレイを、自走式トレイ搬送ロボットが受け取って所定のストック部へストックし、採血室に患者が在室の場合は、要請を受けている採血台へ自走して供給することで、医療行為の補助が行われている。
特開2007-130282号公報
 ところで、近年、SARS、MERS、COVID-19といったコロナウィルスによる感染症が拡がっている。また、コロナウィルス以外のウィルス、または各種のバクテリアによる感染症もよく知られている。
 これらの感染症の疑いのある患者に対しては、粘膜等の検体を採取して、PCR検査等の検査を実行して、感染の有無の診断が行われているが、検体を採取する医療従事者自身がウィルス等に感染するおそれがあった。
 また、ウィルス等に感染した患者と接触した医療従事者が、検査を実行してから感染が確認されるまでの間に、病院内を移動することにより、病院内にいる他の疾患患者等が、ウィルス等に感染するおそれがあった。
 そこで、本発明者は、ウィルス等の感染の疑いのある患者に対する検査、診察行為を遠隔操作でロボットに従事させることにより、病院内にいる医療従事者等の感染を充分に低減することができることを見出し、本発明を想到した。
 本発明は、病院内にいる医療従事者等の感染を充分に低減することができる、ロボットシステム及びその運転方法を提供することを目的とする。
 上記従来の課題を解決するために、本発明に係るロボットシステムは、医療検査器具及び/又は医療診察器具を保持するハンドを有するアームと、を備える、ロボットと、前記ロボットを操作するように構成されている、操作器と、制御装置と、を備え、前記ロボットが配置されている第1空間と、前記操作器が配置されている第2空間と、は隔離されていて、前記制御装置は、前記ロボットを前記患者に近づくように自走させる(A)と、前記(A)の実行後に、前記操作器から入力された前記アーム及び/又は前記ハンドの操作指令情報に基づいて、前記アーム及び/又は前記ハンドを動作させる(B)と、を実行するように構成されている。
 これにより、医療従事者が、患者と隔離された空間で、ロボットを操作することにより、ウィルス等の感染の疑いのある患者との接触を抑制することができる。このため、医療従事者に対するウィルス等の感染を充分に抑制することができる。
 また、ロボットが各入院室等にいる患者近傍にまで移動することにより、病院内を医療従事者が移動する必要がない。このため、医療従事者に対する感染を充分に抑制することができる。
 さらに、感染症の疑いのある患者に対するロボットと、他の疾患患者に対するロボットと、を区別して使用することにより、他の疾患患者に対する感染を充分に抑制することができる。
 また、本発明に係るロボットシステムは、医療検査器具及び/又は医療診察器具を保持するハンドを有するアームと、を備える、ロボットと、前記ロボットを操作するように構成されている、操作器と、制御装置と、を備え、前記ロボットが配置されている第1空間と、前記操作器が配置されている第2空間と、は隔離されていて、前記ハンドには、第1撮影装置が配置されていて、前記制御装置は、前記操作器から入力された前記アーム及び/又は前記ハンドの操作指令情報に基づいて、前記アーム及び/又は前記ハンドを動作させる(α)を実行するように構成されている。
 これにより、医療従事者が、患者と隔離された空間で、ロボットを操作することにより、ウィルス等の感染の疑いのある患者との接触を抑制することができる。このため、医療従事者に対するウィルス等の感染を充分に抑制することができる。
 また、本発明に係るロボットシステムの運転方法は、ロボットシステムが、医療検査器具及び/又は医療診察器具を保持するハンドを有するアームと、を備える、ロボットと、前記ロボットを操作するように構成されている、操作器と、を備え、前記ロボットが配置されている第1空間と、前記操作器が配置されている第2空間と、は隔離されていて、前記ロボットが前記患者に近づくように自走する(A)と、前記(A)の実行後に、前記操作器から入力された前記アーム及び/又は前記ハンドの操作指令情報に基づいて、前記アーム及び/又は前記ハンドが動作する(B)と、を備える。
 これにより、医療従事者が、患者と隔離された空間で、ロボットを操作することにより、ウィルス等の感染の疑いのある患者との接触を抑制することができる。このため、医療従事者に対するウィルス等の感染を充分に抑制することができる。
 また、ロボットが各入院室等にいる患者近傍にまで移動することにより、病院内を医療従事者が移動する必要がない。このため、医療従事者に対する感染を充分に抑制することができる。
 さらに、感染症の疑いのある患者に対するロボットと、他の疾患患者に対するロボットと、を区別して使用することにより、他の疾患患者に対する感染を充分に抑制することができる。
 また、本発明に係るロボットシステムの運転方法は、前記ロボットシステムが、医療検査器具及び/又は医療診察器具を保持するハンドを有するアームと、を備える、ロボットと、前記ロボットを操作するように構成されている、操作器と、を備え、前記ロボットが配置されている第1空間と、前記操作器が配置されている第2空間と、は隔離されていて、前記ハンドには、第1撮影装置が配置されていて、前記操作器から入力された前記アーム及び/又は前記ハンドの操作指令情報に基づいて、前記アーム及び/又は前記ハンドが動作する(α)を備える。
 これにより、医療従事者が、患者と隔離された空間で、ロボットを操作することにより、ウィルス等の感染の疑いのある患者との接触を抑制することができる。このため、医療従事者に対するウィルス等の感染を充分に抑制することができる。
 本発明の上記目的、他の目的、特徴、及び利点は、添付図面参照の下、以下の好適な実施形態の詳細な説明から明らかにされる。
 本発明のロボットシステム及びその運転方法によれば、病院内にいる医療従事者等の感染を充分に低減することができる。
図1は、本実施の形態1に係るロボットシステムの概略構成を示す模式図である。 図2は、本実施の形態1に係るロボットシステムの概略構成を示す模式図である。 図3は、図1及び図2に示すロボットシステムにおけるロボットの概略構成を示す模式図である。 図4は、本実施の形態1に係るロボットシステムにおけるロボットのハンドの概略構成を示す模式図である。 図5は、本実施の形態1に係るロボットシステムの動作の一例を示すフローチャートである。 図6は、本実施の形態1に係るロボットシステムのロボットの動作の一例を示す模式図である。 図7は、図1に示す第1表示装置に表示されている画像情報及び/又は映像情報の一例を示す模式図である。 図8は、図1に示す第1表示装置に表示されている画像情報及び/又は映像情報の他の例を示す模式図である。 図9は、図1に示す第1表示装置に表示されている画像情報及び/又は映像情報の他の例を示す模式図である。 図10は、図1に示す第1表示装置に表示されている画像情報及び/又は映像情報の他の例を示す模式図である。 図11は、本実施の形態1における変形例1のロボットシステムの概略構成を示す模式図である。 図12は、本実施の形態2に係るロボットシステムの概略構成を示す模式図である。 図13は、本実施の形態3に係るロボットシステムの概略構成を示す模式図である。 図14は、本実施の形態4に係るロボットシステムの概略構成を示す模式図である。 図15は、本実施の形態4に係るロボットシステムの動作の一例を示すフローチャートである。 図16は、本実施の形態4における変形例1のロボットシステムの概略構成を示す模式図である。 図17は、本実施の形態5に係るロボットシステムの概略構成を示す模式図である。 図18は、本実施の形態5に係るロボットシステムの動作の一例を示すフローチャートである。 図19は、本実施の形態6に係るロボットシステムの概略構成を示す模式図である。 図20は、本実施の形態6に係るロボットシステムの概略構成を示す模式図である。 図21は、図19に示すロボットのハンドの概略構成を示す模式図である。 図22は、本実施の形態6に係るロボットシステムの動作の一例を示すフローチャートである。 図23は、本実施の形態6における変形例1のロボットシステムの概略構成を示す模式図である。 図24は、本実施の形態7に係るロボットシステムの概略構成を示す模式図である。 図25は、本実施の形態8に係るロボットシステムの概略構成を示す模式図である。 図26は、本実施の形態8に係るロボットシステムの動作の一例を示すフローチャートである。
 以下、本発明の実施の形態を、図面を参照しながら説明する。なお、全ての図面において、同一又は相当部分には同一符号を付し、重複する説明は省略する。また、全ての図面において、本発明を説明するための構成要素を抜粋して図示しており、その他の構成要素については図示を省略している場合がある。さらに、本発明は以下の実施の形態に限定されない。
 (実施の形態1)
 本実施の形態1に係るロボットシステムは、医療検査器具及び/又は医療診察器具を保持するハンドを有するアームと、を備える、ロボットと、ロボットを操作するように構成されている、操作器と、制御装置と、を備え、ロボットが配置されている第1空間と、操作器が配置されている第2空間と、は隔離されていて、制御装置は、ロボットを患者に近づくように自走させる(A)と、(A)の実行後に、操作器から入力されたアーム及び/又はハンドの操作指令情報に基づいて、アームを動作させる(B)と、を実行するように構成されている。
 また、本実施の形態1に係るロボットシステムでは、ロボットシステムが、第1撮影装置と、第1撮影装置が撮影した画像情報及び/又は映像情報を表示するように構成されている、第1表示装置と、をさらに備え、制御装置は、第1撮影装置が撮影した画像情報及び/又は映像情報を第1表示装置に表示させた状態で、(B)を実行するように構成されていてもよい。
 また、本実施の形態1に係るロボットシステムでは、ロボットと操作器は、マスタースレーブ方式で構成されていてもよい。
 また、本実施の形態1に係るロボットシステムでは、ハンドには、一対のレーザー光指示具が、当該レーザー光指示具から照射される光が交差するように配置されていてもよい。
 また、本実施の形態1に係るロボットシステムでは、第1撮影装置は、ロボットに配置されていてもよく、ロボットのハンドに配置されていてもよい。
 また、本実施の形態1に係るロボットシステムでは、第1表示装置は、医療検査器具及び/又は医療診察器具の位置情報を示す仮想モデルを表示するように構成されていてもよい。
 さらに、本実施の形態1に係るロボットシステムでは、操作器には、医療検査器具及び/又は医療診察器具の保持の解放を指示するように構成されている、操作スイッチが配置されていてもよい。
 本実施の形態1に係るロボットシステムの運転方法は、ロボットシステムが、医療検査器具及び/又は医療診察器具を保持するハンドを有するアームと、を備える、ロボットと、ロボットを操作するように構成されている、操作器と、を備え、ロボットが配置されている第1空間と、操作器が配置されている第2空間と、は隔離されていて、操作器から入力された患者の位置情報を基にロボットが患者近傍にまで自動で移動する(A)と、(A)の実行後に、操作器から入力されたアーム及び/又はハンドの操作指令情報に基づいて、アーム及び/又はハンドが動作する(B)と、を備える。
 また、本実施の形態1に係るロボットシステムの運転方法では、ロボットシステムが、第1撮影装置と、第1撮影装置が撮影した画像情報及び/又は映像情報を表示するように構成されている、第1表示装置と、をさらに備え、第1撮影装置が撮影した画像情報及び/又は映像情報を第1表示装置に表示させた状態で、(B)がされてもよい。
 また、本実施の形態1に係るロボットシステムの運転方法では、ロボットと操作器は、マスタースレーブ方式で構成されていてもよい。
 また、本実施の形態1に係るロボットシステムの運転方法では、ハンドには、一対のレーザー光指示具が、当該レーザー光指示具から照射される光が交差するように配置されていてもよい。
 また、本実施の形態1に係るロボットシステムの運転方法では、第1撮影装置は、ロボットに配置されていてもよく、ロボットのハンドに配置されていてもよい。
 また、本実施の形態1に係るロボットシステムの運転方法では、第1表示装置は、医療検査器具及び/又は医療診察器具の位置情報を示す仮想モデルを表示するように構成されていてもよい。
 また、本実施の形態1に係るロボットシステムの運転方法では、第1表示装置は、患者の医療行為対象部位の仮想モデルを表示するように構成されていてもよい。
 さらに、本実施の形態1に係るロボットシステムの運転方法では、操作器には、医療検査器具及び/又は医療診察器具の保持の解放を指示するように構成されている、操作スイッチが配置されていてもよい。
 以下、本実施の形態1に係るロボットシステムの一例について、図1~図10を参照しながら説明する。
 [ロボットシステムの構成]
 図1及び図2は、本実施の形態1に係るロボットシステムの概略構成を示す模式図である。
 図1に示すように、本実施の形態1に係るロボットシステム100は、ロボット101、操作器102、第1表示装置103、及び制御装置110を備えている。ロボット101は、第1空間201内に配置されていて、操作器102、第1表示装置103、及び制御装置110は、第2空間202内に配置されている。
 第1空間201と第2空間202は、互いに切り離された空間である。第1空間201と第2空間202は、隔壁部材210により、隔離されている。
 なお、第1空間201内には、患者の横顔を撮影するための撮影装置(第1撮影装置)が配置されていてもよい。当該撮影装置は、第1空間201を形成する隔壁部材210に設置されていてもよく、ロボット101とは異なるロボットが把持してもよい。
 また、第1空間201を構成する部屋(診察室/検査室)には、ロボット101が、医療検査行為を行うための器具、実験装置、又は各種の検査試薬等が配置されていてもよい。器具としては、例えば、オートピペット、オートピペットに用いられるチップ、マイクロチューブ、遠心管、遠沈管が挙げられ、実験装置としては、例えば、遠心分離機、PCR装置等が挙げられる。
 なお、第2空間202を構成する部屋(操作室)には、前室を設けてもよい。また、前室には、当該前室を陰圧にし、第2空間202(操作室の内部空間)を陽圧にするように構成されている、ファンフィルタユニットを設置してもよい。ファンフィルタユニットは公知のファンフィルタユニットを用いることができる。
 また、隔壁部材210には、第1空間201への移動を許可/禁止するシャッター(扉)204を備えていてもよく、第2空間202への移動を許可/禁止するシャッター(扉)205を備えていてもよい。
 さらに、隔壁部材210は、その一部が、ガラス板等の透明な部材で構成されていて、操作者(医療従事者)等が外部から第1空間201内を見るように構成されていてもよい。
 操作器102は、ロボット101を操作するように構成されている。操作器102としては、例えば、ジョイスティック、キーボード、テンキー、ティーチペンダント等の公知の操作器を用いることができる。
 また、操作器102には、後述するロボット101のハンド18に設けられた力覚センサが検知した力覚情報、又は音声情報を操作者に伝達するように構成されている機器を配置してもよい。当該機器としては、例えば、振動モータ、スピーカー、把持部を構成する筐体を伸縮させる機構等が挙げられる。
 なお、操作器102は、操作者(医療従事者)が携帯して、持ち運び可能に構成されていてもよい。また、ロボット101と操作器102は、マスタースレーブ方式であってもよい。
 また、操作器102には、緊急時(例えば、ロボット101が異常動作をした場合等)に、ハンド18が保持している医療検査器具又は医療診察器具を解放するための解除ボタン102Aを設けてもよい。操作者により、解除ボタン102Aが押された場合には、制御装置110は、ハンド18が患者から離れるように、ロボット101を動作させてもよい。
 第1表示装置103は、後述する第1撮影装置20が撮影した画像情報及び/又は映像情報を表示するように構成されている。第1表示装置103としては、例えば、机、床等に据え置いて使用する、据え置き型のディスプレイで構成されていてもよい。また、第1表示装置103は、操作者が身に着けて使用するヘッドマウントディスプレイ又はメガネで構成されていてもよい。
 ロボット101は、操作器102から入力された患者の位置情報、及び/又は病院内の位置情報(例えば、病室、診察室の位置情報)等を基にして、患者の近傍まで自走することができるように構成されている。
 また、ロボット101は、操作器102から入力されたアーム及び/又はハンドの操作情報に基づいて、アーム及び/又はハンドを動作させるように構成されている。このとき、ロボット101は、制御装置110の制御により、患者に対して、実行される医療行為(例えば、診察及び/又は検査)の作業内容に応じて、当該ロボット101と患者との距離が、予め設定されている所定の第1距離を保つように自動で移動するように構成されていてもよい。
 例えば、患者の正面を聴診器で聴診する作業(診察)が実行されたのち、患者の背面を聴診器で聴診する作業(診察)が実行される場合に、患者がロボット101に対して背面を向けるときに、ロボット101が後方に自動で移動し、その後、患者との距離を近づけるように(第1距離を保つように)自動で移動してもよい。
 これにより、医療従事者が、遠隔操作でロボット101を操作することができ、患者に対して、医療行為を実行することができる。
 ここで、図3を参照しながら、ロボット101の構成について、詳細に説明する。なお、以下においては、ロボット101として、水平多関節型の双腕ロボットを説明するが、ロボット101としては、水平多関節型又は垂直多関節型等の他のロボットを採用してもよい。
 図3は、図1及び図2に示すロボットシステムにおけるロボットの概略構成を示す模式図である。なお、図3においては、ロボットにおける上下方向を図における上下方向として表している。
 図3に示すように、ロボット101は、台車12と、第1アーム13Aと、第2アーム13Bと、第1ハンド18Aと、第2ハンド18Bと、台車12内に配置されている制御器14と、を備えている。
 なお、第1アーム13Aと第2アーム13Bを区別しない場合には、単に、アーム13と称する。同様に、第1ハンド18Aと第2ハンド18Bを区別しない場合には、単に、ハンド18と称する。
 また、本実施の形態1においては、台車12の内部に制御器14が配置されている形態を採用したが、これに限定されず、制御器14は、台車12外部に配置されていてもよい。制御器14については、後述する。
 台車12の下面には、車輪19が配置されている。車輪19には、適宜なギア及び駆動モータが接続されている。これにより、ロボット101は、自走することができる。
 また、台車12の上面には、基軸16及び第1撮影装置20が固定されている。第1撮影装置20は、画像及び/又は映像を撮影し、撮影した画像情報及び/又は映像情報を制御装置110に出力するように構成されている。第1撮影装置20としては、例えば、ビデオカメラであってもよく、X線撮影装置であってもよい。
 なお、第1撮影装置20は、撮影した画像情報及び/又は映像情報を、制御装置110を介さずに、第1表示装置103に出力するように構成されていてもよい。また、第1撮影装置20は、第1アーム13A及び第2アーム13B以外のアームに把持されていてもよい。
 基軸16には、第1アーム13A及び第2アーム13Bが、当該基軸16の軸心を通る回転軸線L1周りに回動可能に設けられている。具体的には、第1アーム13Aと第2アーム13Bとが上下に高低差を有するように設けられている。なお、第1アーム13A及び第2アーム13Bは、独立して動作したり、互いに関連して動作したりすることができるように構成されている。
 第1アーム13Aは、第1アーム部15A、第1リスト部17A、第1ハンド18A、及び第1装着部2Aを有している。同様に、第2アーム13Bは、第2アーム部15B、第2リスト部17B、第2ハンド18B、及び第2装着部2Bを有している。なお、第2アーム13Bは、第1アーム13Aと同様に構成されているので、その詳細な説明は省略する。
 第1アーム部15Aは、本実施の形態1においては、略直方体状の第1リンク5a及び第2リンク5bで構成されている。第1リンク5aは、基端部に回転関節J1が設けられていて、先端部に回転関節J2が設けられている。また、第2リンク5bは、先端部に直動関節J3が設けられている。
 そして、第1リンク5aは、回転関節J1を介して、その基端部が基軸16と連結されていて、回転関節J1により、回転軸線L1周りに回動することができる。また、第2リンク5bは、回転関節J2を介して、その基端部が第1リンク5aの先端部と連結されていて、回転関節J2により、回転軸線L2周りに回動することができる。
 第2リンク5bの先端部には、直動関節J3を介して、第1リスト部17Aが第2リンク5bに対し昇降移動可能に連結されている。第1リスト部17Aの下端部には、回転関節J4が設けられていて、回転関節J4の下端部には、第1装着部2Aが設けられている。
 第1装着部2Aは、第1ハンド18Aを着脱可能に構成されている。具体的には、例えば、第1装着部2Aは、その間隔が調整可能に構成されている、一対の棒部材を有していて、当該一対の棒部材により、第1ハンド18Aを挟み込むことにより、第1ハンド18Aを第1リスト部17Aに装着することができる。これにより、第1ハンド18Aは、回転関節J4により、回転軸線L3周りに回動することができる。なお、棒部材は先端部分が折れ曲がっていてもよい。
 第1ハンド18Aは、医療検査器具又は医療診察器具を保持するように構成されていれば、どのような形態であってもよい。例えば、図1及び図3に示すように、2本の爪により、医療検査器具又は医療診察器具を保持するように構成されていてもよい。医療検査器具としては、例えば、滅菌綿棒であってもよく、スクリューキャップ付きのチューブ等、各種のチューブであってもよく、注射器であってもよく、カテーテルであってもよく、内視鏡検査器具であってもよい。また、医療診察器具としては、例えば、聴診器であってもよく、舌圧子であってもよい。
 また、第1ハンド18Aは、薬、食事、検査用試薬等の各種のワークを保持し、ワークを解放することができるように構成されている。
 ここで、図4を参照しながら、第1ハンド18A(ハンド18)の他の例について、説明する。
 図4は、本実施の形態1に係るロボットシステムにおけるロボットのハンドの概略構成を示す模式図である。なお、図4においては、ロボットにおける上下方向及び前後方向を図における上下方向及び前後方向として表している。
 図4に示すように、第1ハンド18Aは、本体31、中間部材32、及び保持部材33を有している。本体31と中間部材32は、回転関節J5を介して、連結されている。また、中間部材32と保持部材33は、回転関節J6を介して、連結されている。これにより、保持部材33は、本体31に対して、回転軸線L4及び/又は回転軸線L5周りに回動することができる。
 本体31には、保持部材33を回動させるアクチュエータ34が設けられている。アクチュエータ34は、例えば、制御器14によってサーボ制御されるサーボモータであってもよい。また、本体31には、サーボモータの回転位置を検出する回転センサ(図示せず)と、サーボモータの回転を制御する電流を検出する電流センサ(図示せず)と、が設けられている。回転センサは、例えば、エンコーダであってもよい。回転センサが検出した位置情報、及び電流センサが検出した電流情報は、制御器14を介して、制御装置110に出力されてもよい。
 中間部材32の下端部には、支持部材35が設けられている。支持部材35には、カメラ(第1撮影装置)36が取り付けられている。カメラ36は、画像及び/又は映像を撮影し、撮影した画像情報及び/又は映像情報を制御装置110に出力するように構成されている。カメラ36としては、例えば、ビデオカメラであってもよく、X線撮影装置であってもよい。
 また、カメラ36が撮影する対象としては、例えば、滅菌綿棒により、鼻咽頭ぬぐい液を採取する場合には、患者の鼻孔であってもよい。また、例えば、唾液、下気道由来検体(喀痰等)を吸引カテーテル等で採取する場合には、患者の口腔であってもよい。
 なお、本実施の形態1においては、支持部材35及びカメラ36が、中間部材32の下端部に配置されている態様を採用したが、これに限定されない。支持部材35及びカメラ36は、中間部材32の上端部等に配置されていてもよい。また、支持部材35及びカメラ36は、保持部材33に配置されていてもよい。
 保持部材33には、医療検査器具又は医療診察器具を保持/解放するためのチャック機構37が取り付けられている。チャック機構37としては、例えば、エアチャックで構成されていてもよい。チャック機構37は、ここでは、PCR検査用の検体を採取するための滅菌綿棒50を保持している。
 また、保持部材33には、一対のレーザーポインタ(レーザー光指示具)38A、38Bが配設されている。レーザーポインタ38A、38Bは、それぞれから照査されたレーザー光39A、39Bが、第1ハンド18Aの前方で交差するように配置されている。なお、レーザー光指示具は、第1ハンド18Aに3つ以上配置していてもよい。
 これにより、第1ハンド18Aが患者に近づくと、患者に当たったレーザー光39Aとレーザー光39B間の距離が小さくなる。さらに、第1ハンド18Aが患者に近づくと、患者に当たったレーザー光が1点になる。そして、さらに、第1ハンド18Aが患者に近づくと、患者に当たったレーザー光39Aとレーザー光39B間の距離が大きくなる。
 このため、操作者(医療従事者)は、一対のレーザーポインタ38A、38Bから照射されるレーザー光39A、39Bにより、患者と医療検査器具及び/又は医療診察器具(滅菌綿棒50)の先端部との距離を容易に理解することができる。
 また、第1アーム13A及び第2アーム13Bの各関節J1~J4には、それぞれ、各関節が連結する2つの部材を相対的に回転又は昇降させるアクチュエータの一例としての駆動モータが設けられている(図示せず)。駆動モータは、例えば、制御器14によってサーボ制御されるサーボモータであってもよい。また、各関節J1~関節J4には、それぞれ、駆動モータの回転位置を検出する回転センサ(図示せず)と、駆動モータの回転を制御する電流を検出する電流センサ(図示せず)と、が設けられている。回転センサは、例えば、エンコーダであってもよい。回転センサが検出した位置情報、及び電流センサが検出した電流情報は、制御器14を介して、制御装置110に出力されてもよい。
 制御器14は、演算処理器及び記憶器を備えている(図示せず)。演算処理器は、マイクロプロセッサ、CPU等で構成されていて、記憶器に記憶されている基本プログラム等のソフトウェアを読み出して実行することにより、ロボット101の各種動作を制御する。
 記憶器は、基本プログラム、各種固定データ等の情報が記憶されている。記憶器には、例えば、病院内の地図情報があらかじめ記憶されていてもよい。
 記憶器は、単一である必要はなく、複数の記憶器(例えば、ランダムアクセスメモリ及びハードディスクドライブ)として構成されてもよい。演算処理器がマイクロコンピュータで構成されている場合には、記憶器の少なくとも一部がマイクロコンピュータの内部メモリとして構成されてもよいし、独立したメモリとして構成されてもよい。
 また、制御器14は、制御装置110から入力された各種の指令情報を基に、ロボット101の各種動作を制御してもよい。
 図1及び図2に示すように、制御装置110は、演算処理器110a、記憶器110b、及び入力器(操作器)110cを備えている。演算処理器110aは、マイクロプロセッサ、CPU等で構成されていて、記憶器110bに記憶されている基本プログラム等のソフトウェアを読み出して実行することにより、ロボットシステム100の各種動作を制御する。
 記憶器110bは、基本プログラム、各種固定データ等の情報が記憶されている。記憶器110bは、単一である必要はなく、複数の記憶器(例えば、ランダムアクセスメモリ及びハードディスクドライブ)として構成されてもよい。演算処理器110aがマイクロコンピュータで構成されている場合には、記憶器110bの少なくとも一部がマイクロコンピュータの内部メモリとして構成されてもよいし、独立したメモリとして構成されてもよい。
 入力器110cは、演算処理器110aに対して、ロボットシステム100の制御に関する各種パラメータ、あるいはその他のデータ等を入力可能とするものであり、キーボード、タッチパネル、ボタンスイッチ群等の公知の入力装置で構成されている。本実施の形態1では、例えば、入力器110cにより、患者の位置情報が入力可能となっていてもよい。また、患者の位置情報は、操作器102により、入力可能となっていてもよい。
 なお、制御装置110は、集中制御する単独の制御装置110によって構成されていてもよいし、互いに協働して分散制御する複数の制御装置110によって構成されていてもよい。また、制御装置110は、マイクロコンピュータで構成されていてもよく、MPU、PLC(Programmable Logic Controller)、論理回路等によって構成されていてもよい。
 [ロボットシステムの動作及び作用効果]
 次に、本実施の形態1に係るロボットシステム100の動作及び作用効果について、図1~図10を参照しながら、詳細に説明する。なお、以下の動作は、制御装置110の演算処理器110aが、記憶器110bに格納されているプログラムを読み出すことにより実行される。
 図5は、本実施の形態1に係るロボットシステムの動作の一例を示すフローチャートである。図6は、本実施の形態1に係るロボットシステムのロボットの動作の一例を示す模式図である。
 図5に示すように、制御装置110は、操作者が入力器110c(及び/又は操作器102)を操作することで、入力器110c(及び/又は操作器102)から患者の位置情報を取得する(ステップS101)。
 次に、制御装置110は、ステップS101で取得した患者の位置情報を基に、ロボット101を予め設定されている待機場所から患者の近傍にまで自走させる(自動で移動させる)(ステップS102)。
 具体的には、制御装置110は、ステップS101で取得した患者の位置情報を制御器14に出力する。制御器14は、入力された患者の位置情報と記憶器に記憶されている病院内の地図情報を基に、駆動モータを駆動させて、ロボット101を患者の近傍にまで自走させる。
 なお、待機場所としては、第1空間201及び第2空間202から隔離された場所(空間)であってもよい。
 次に、制御装置110は、第1撮影装置20が撮影した画像情報及び/又は映像情報を取得し、第1表示装置103に表示させる(ステップS103)。なお、制御装置110は、ステップS103の処理をステップS101又はステップS102の処理の前に実行してもよい。
 ここで、図7~図10を参照しながら、第1表示装置103に表示される画像情報及び/又は映像情報について、説明する。
 図7は、図1に示す第1表示装置に表示されている画像情報及び/又は映像情報の一例を示す模式図である。図8~図10は、図1に示す第1表示装置に表示されている画像情報及び/又は映像情報の他の例を示す模式図である。なお、図8~図10においては、ロボット101及び第1ハンド18Aの一部の記載を省略している。
 図7に示すように、第1表示装置103には、第1撮影装置20が撮影した映像情報(患者の正面を撮影した映像情報)を第1映像情報103Aとして、表示されてもよい。また、第1表示装置103には、患者の横顔を撮影するための撮影装置(図示せず)が撮影した映像情報を第2映像情報103Bとして、表示されてもよい。
 また、図8に示すように、第1表示装置103には、第1撮影装置20が撮影した映像情報を第1映像情報103Aとして、表示されてもよい。また、第1表示装置103には、第1ハンド18Aに設けられているカメラ36が撮影した映像情報を第3映像情報103Cとして、表示されてもよい。
 また、図9に示すように、第1表示装置103には、第1撮影装置20が撮影した映像情報を第1映像情報103Aとして、表示されてもよい。また、第1表示装置103には、第1ハンド18Aに設けられているカメラ36が撮影した映像情報を第3映像情報103Cとして、表示されてもよい。
 さらに、第1表示装置103には、医療検査器具及び/又は医療診察器具の位置情報を示す仮想モデルが第4映像情報103Dとして、表示されてもよい。具体的には、第4映像情報103Dとして、滅菌綿棒50の仮想モデルである、仮想滅菌綿棒50Aと、患者の医療対象部位の仮想モデルである、仮想患者60が表示される。
 このとき、制御装置110は、患者の位置情報と、各駆動モータの回転位置を検出する回転センサが検出した位置情報及び/又は操作器102に入力された操作情報を基にして、第4映像情報103D内の仮想滅菌綿棒50Aを移動させてもよい。これにより、操作者は、患者と医療検査器具及び/又は医療診察器具(滅菌綿棒50)の先端部との距離を容易に理解することができる。
 さらに、図10に示すように、第1表示装置103には、第1撮影装置20が撮影した映像情報を第1映像情報103Aとして、表示されてもよい。また、第1表示装置103には、第1ハンド18Aに設けられているカメラ36が撮影した映像情報を第3映像情報103Cとして、表示されてもよい。
 さらに、第1表示装置103には、医療検査器具及び/又は医療診察器具の位置情報を示す仮想モデルが第4映像情報103Dとして、表示されてもよい。具体的には、第4映像情報103Dとして、滅菌綿棒50の仮想モデルである、仮想滅菌綿棒50Aが表示される。
 このとき、制御装置110は、患者の位置情報と、各駆動モータの回転位置を検出する回転センサが検出した位置情報及び/又は操作器102に入力された操作情報を基にして、患者の体内に侵入した滅菌綿棒50の領域を第4映像情報103D内に第1領域50Bとして、表示してもよい。第1領域50Bは、例えば、図10に示すように、ハッチングで示してもよく、仮想滅菌綿棒50Aとは異なる色で示してもよい。
 これにより、操作者は、患者と医療検査器具及び/又は医療診察器具(滅菌綿棒50)の先端部との距離を容易に理解することができる。
 次に、図5に示すように、制御装置110は、操作器102からアーム13及び/又はハンド18の操作指令情報を取得する(ステップS104)。ついで、制御装置110は、ステップS104で取得した操作指令情報を基に、アーム13及び/又はハンド18を動作させる(ステップS105)。
 これにより、操作者は、患者に対して、遠隔操作でロボット101を動作させて、医療行為(例えば、診察及び/又は検査)を実行することができる。例えば、操作者は、患者に対して、PCR検査用の検体の採取作業を実行してもよい。
 ここで、図6を参照しながら、ロボット101による医療行為作業について説明する。なお、図6においては、ロボット101は、後述する第2表示装置24を有する形態を採用している。
 図6に示すように、ロボット101と患者との間には、遮蔽板221が配置されている。遮蔽板221は、机等の基台220に設置されていてもよい。また、遮蔽板221は、ガラス板等の透明な部材で構成されていて、略中央部分に開口部222が設けられている。
 なお、開口部222の位置、大きさは、医療行為の種類によって、適宜、設定される。例えば、内科、耳鼻科等についての医療行為を実行する場合には、患者の口及び鼻(医療行為対象部分)が開口部222に位置するように、開口部222の配置位置、大きさが適宜、設定される。また、眼科についての医療行為を実行する場合には、患者の目(医療行為対象部分)が開口部222に位置するように、開口部222の配置位置、大きさが適宜、設定される。
 これにより、患者が咳、くしゃみをすることで、飛沫がロボット101へ付着することを抑制できる。
 また、遮蔽板221と患者との間には、位置決め器230が設置されている。位置決め器230は、本体231と、被当接部232と、顎乗せ台233と、を備えている。本体231は、患者が把持できるように構成されていてもよい。また、顎乗せ台233は、上下に移動するように構成されていてもよい。
 位置決め器230は、患者が、被当接部232に額を当接させて、顎乗せ台233に顎を乗せることにより、患者の医療行為対象部分が、予め設定されている範囲(開口部222)内に位置させるように構成されている。これにより、患者の医療行為対象部分の位置決めが容易となり、操作者の操作の負担を低減することができる。
 なお、制御装置110は、ステップS105の処理を実行するときに、例えば、ハンド18で保持している医療検査器具又は医療診察器具の先端部が、患者に近づくように、自動でアーム13及び/又はハンド18を動作させてもよい。
 また、制御装置110は、操作器102から入力されたアーム13及び/又はハンド18の操作指令情報を記憶器110bに記憶させてもよい。また、制御装置110は、記憶器110bに記憶されている操作指令情報を基に、アーム13及び/又はハンド18を動作させて、患者に対して、医療行為(例えば、診察作業及び/又は検査作業)を実行してもよい。
 また、制御装置110は、診察作業等を学習するように構成されていてもよい。具体的には、例えば、制御装置110が、ロボット101に診察作業等を実行させているときに、操作者が操作器102を操作することにより、アーム13及び/又はハンド18の動作が修正された場合、修正されたアーム13及び/又はハンド18の操作指令情報を記憶器110bに記憶させる。
 ついで、制御装置110は、修正された操作指令情報を基に、アーム13及び/又はハンド18を動作させて、患者に対して、医療行為(例えば、診察作業及び/又は検査作業)を実行する。そして、再度、操作者により、アーム13及び/又はハンド18の動作が修正されると、修正されたアーム13及び/又はハンド18の操作指令情報を記憶器110bに記憶させて、診察作業等を学習させる。
 次に、制御装置110は、操作者が操作器102(及び/又は入力器110c)を操作することで、操作器102(及び/又は入力器110c)から医療行為終了指令が入力されると、ロボット101を待機場所にまで自走させて(ステップS106)、本プログラムを終了する。
 なお、制御装置110は、ロボット101を待機場所に自走させた後、ロボット101を適宜な手段により消毒させてから、ロボット101を待機状態にするように制御してもよい。また、防護マスク及び防護服を着用した作業者により、ロボット101を消毒させてもよい。
 このように構成された、本実施の形態1に係るロボットシステム100では、操作者(医療従事者)が、患者の位置情報を入力するだけで、ロボット101が患者の近傍まで自走するように構成されている。これにより、操作者は、医療行為に専念することができ、操作者の操作の負担を低減することができる。
 また、本実施の形態1に係るロボットシステム100では、操作者が、患者と隔離された第2空間202で、ロボット101を操作するように構成されている。
 これにより、ウィルス等の感染の疑いのある患者との接触を抑制することができる。このため、操作者に対するウィルス等の感染を充分に抑制することができる。
 また、ロボット101が各入院室等にいる患者近傍にまで移動することにより、病院内を操作者が移動する必要がない。このため、操作者に対する感染を充分に抑制することができる。
 さらに、ロボット101が移動することにより、ウィルス等に感染されている患者の病院内での移動回数及び/又は移動距離を低減することができる。これにより、ウィルス等の拡散を低減することができる。
 また、本実施の形態1に係るロボットシステム100では、第1ハンド18A(ハンド18)には、一対のレーザーポインタ38A、38Bが、それぞれから照射されるレーザー光39A、39Bが交差するように配置されている。
 これにより、第1ハンド18Aが患者に近づくと、患者に当たったレーザー光39Aとレーザー光39B間の距離が小さくなる。さらに、第1ハンド18Aが患者に近づくと、患者に当たったレーザー光が1点になる。そして、さらに、第1ハンド18Aが患者に近づくと、患者に当たったレーザー光39Aとレーザー光39B間の距離が大きくなる。
 このため、操作者(医療従事者)は、一対のレーザーポインタ38A、38Bから照射されるレーザー光39A、39Bにより、患者と医療検査器具及び/又は医療診察器具(滅菌綿棒50)の先端部との距離を容易に理解することができる。
 さらに、本実施の形態1に係るロボットシステム100では、医療検査器具及び/又は医療診察器具の位置情報を示す仮想モデルが第4映像情報103Dとして、第1表示装置103に表示される。これにより、操作者は、患者と医療検査器具及び/又は医療診察器具(滅菌綿棒50)の先端部との距離を容易に理解することができる。
 このとき、制御装置110が、第1表示装置103に患者の医療対象部位の仮想モデルである、仮想患者60を表示することにより、患者と医療検査器具及び/又は医療診察器具(滅菌綿棒50)の先端部との距離をより容易に理解することができる。
 [変形例1]
 次に、本実施の形態1に係るロボットシステム100の変形例について、図11を参照しながら説明する。
 図11は、本実施の形態1における変形例1のロボットシステムの概略構成を示す模式図である。
 図11に示すように、本変形例1のロボットシステム100は、実施の形態1に係るロボットシステム100と基本的構成は同じであるが、ロボット101が垂直多関節型ロボットで構成されている点が異なる。
 このように構成されている、本変形例1のロボットシステム100であっても、実施の形態1に係るロボットシステム100と同様の作用効果を奏する。
 (実施の形態2)
 本実施の形態2に係るロボットシステムは、実施の形態1(変形例を含む)に係るロボットシステムにおいて、ロボットが、第1音声入力装置と、第1音声出力装置と、をさらに備え、第2空間には、第2音声入力装置と、第2音声出力装置と、がさらに配置されていて、制御装置は、第1音声入力装置に入力された音声情報を第2音声出力装置に出力し、第2音声入力装置に入力された音声情報を第1音声出力装置に出力するように構成されている。
 本実施の形態2に係るロボットシステムの運転方法は、実施の形態1(変形例を含む)に係るロボットシステムの運転方法において、ロボットが、第1音声入力装置と、第1音声出力装置と、をさらに備え、第2空間には、第2音声入力装置と、第2音声出力装置と、がさらに配置されていて、制御装置は、第1音声入力装置に入力された音声情報を第2音声出力装置に出力し、第2音声入力装置に入力された音声情報を第1音声出力装置に出力するように構成されている。
 以下、本実施の形態2に係るロボットシステムの一例について、図12を参照しながら説明する。
 [ロボットシステムの構成]
 図12は、本実施の形態2に係るロボットシステムの概略構成を示す模式図である。
 図12に示すように、本実施の形態2に係るロボットシステム100は、実施の形態1に係るロボットシステム100と基本的構成は同じであるが、ロボット101が第1音声入力装置21及び第1音声出力装置22を有している点と、第2空間202に、第2音声入力装置104及び第2音声出力装置105が配置されている点と、が異なる。
 第1音声入力装置21及び第2音声入力装置104は、例えば、マイクで構成されていてもよい。また、第1音声出力装置22及び第2音声出力装置105は、スピーカーで構成されていてもよい。
 なお、第2音声入力装置104及び第2音声出力装置105は、マイク付きのヘッドフォン(ヘッドセット)で構成されていてもよい。また、第1表示装置103が、ヘッドマウントディスプレイで構成されている場合には、第2音声入力装置104及び第2音声出力装置105は、当該ヘッドマウントディスプレイに取り付けられているマイク及びヘッドフォンで構成されていてもよい。
 このように構成されている、本実施の形態2に係るロボットシステム100であっても、実施の形態1に係るロボットシステム100と同様の作用効果を奏する。
 また、本実施の形態2に係るロボットシステム100では、ロボット101に第1音声入力装置21及び第1音声出力装置22が設けていて、第2空間202に第2音声入力装置104及び第2音声出力装置105が配置されているので、患者と操作者との間でコミュニケーションを取ることができる。
 これにより、例えば、操作者が医療従事者である場合、又は操作者の傍らに医療従事者がいる場合には、患者に対して、問診、聴診、検査結果の伝達、治療方針の伝達等の医療行為を実行することができる。
 (実施の形態3)
 本実施の形態3に係るロボットシステムは、実施の形態1(変形例を含む)又は実施の形態2に係るロボットシステムにおいて、ロボットが、薬、食事、検査用試薬、検体、医療検査器具、及び医療診察器具のうち、少なくとも1つの搬送品を収納する収納装置をさらに備える。
 本実施の形態3に係るロボットシステムの運転方法は、実施の形態1(変形例を含む)又は実施の形態2に係るロボットシステムの運転方法において、ロボットが、薬、食事、検査用試薬、検体、医療検査器具、及び医療診察器具のうち、少なくとも1つの搬送品を収納する収納装置をさらに備える。
 以下、本実施の形態3に係るロボットシステムの一例について、図13を参照しながら説明する。
 [ロボットシステムの構成]
 図13は、本実施の形態3に係るロボットシステムの概略構成を示す模式図である。
 図13に示すように、本実施の形態3に係るロボットシステム100は、実施の形態1に係るロボットシステム100と基本的構成は同じであるが、ロボット101が薬、食事、検査用試薬、検体、医療検査器具、及び医療診察器具のうち、少なくとも1つの搬送品を収納する収納装置23をさらに備える点が異なる。
 収納装置23としては、例えば、蓋付きの箱、トレイ等、各種の収納用品を用いることができる。また、収納装置23は、オートクレーブ滅菌、乾熱滅菌等の滅菌処理に対応できるように、金属(例えば、ステンレス鋼)で構成されていてもよい。さらに、収納装置23は、検体を搬送できるように、内部空間を所定温度(例えば、0℃、-20℃、-80℃)に維持することができるように構成されていてもよい。
 また、収納装置23内には、例えば、オートピペット、オートピペットに用いられるチップ、マイクロチューブ、遠沈管、遠心分離機、PCR装置等の各種器具及び/又は実験装置が収納されていてもよい。
 このように構成されている、本実施の形態3に係るロボットシステム100であっても、実施の形態1に係るロボットシステム100と同様の作用効果を奏する。
 また、本実施の形態3に係るロボットシステム100では、ロボット101が薬、食事、検査用試薬、検体、医療検査器具、及び医療診察器具のうち、少なくとも1つの搬送品を収納する収納装置23をさらに備えている。これにより、看護師等の医療行為補助者の作業を低減することができる。また、医療行為補助者が、ウィルス等の感染症患者と接触する機会を低減することができ、医療行為補助者のウィルス等の感染を充分に抑制することができる。
 (実施の形態4)
 本実施の形態4に係るロボットシステムは、実施の形態1(変形例を含む)~3のいずれかの実施の形態に係るロボットシステムにおいて、第1空間及び第2空間から隔離されている第3空間をさらに備え、第3空間では、ロボットが消毒される。
 また、本実施の形態4に係るロボットシステムでは、ロボットは、当該ロボット自身を消毒するように構成されていてもよい。
 さらに、本実施の形態4に係るロボットシステムでは、制御装置が、(B)の後に、ロボットを第3空間まで自走させ、当該ロボットを消毒させる(C)をさらに実行するように構成されていてもよい。
 本実施の形態4に係るロボットシステムの運転方法は、実施の形態1(変形例を含む)~3のいずれかの実施の形態に係るロボットシステムの運転方法において、第1空間及び第2空間から隔離されている第3空間をさらに備え、第3空間では、ロボットが消毒される。
 また、本実施の形態4に係るロボットシステムの運転方法では、ロボットは、当該ロボット自身を消毒するように構成されていてもよい。
 さらに、本実施の形態4に係るロボットシステムの運転方法では、(B)の後に、ロボットが第3空間まで自走して、当該ロボットを消毒させる(C)をさらに備えていてもよい。
 以下、本実施の形態4に係るロボットシステムの一例について、図14及び図15を参照しながら説明する。
 [ロボットシステムの構成]
 図14は、本実施の形態4に係るロボットシステムの概略構成を示す模式図である。
 図14に示すように、本実施の形態4に係るロボットシステム100は、実施の形態1に係るロボットシステム100と基本的構成は同じであるが、第1空間201及び第2空間202から隔離されている第3空間203をさらに備える点が異なる。
 第1空間201と第2空間202と第3空間203は、互いに切り離された空間である。第1空間201と第2空間202と第3空間203は、それぞれ、隔壁部材210により、隔離されている。
 なお、第3空間203を構成する部屋(滅菌室)には、前室を設けてもよい。また、前室には、当該前室を陰圧にし、第2空間202(滅菌室の内部空間)を陽圧にするように構成されている、ファンフィルタユニットを設置してもよい。ファンフィルタユニットは公知のファンフィルタユニットを用いることができる。
 隔壁部材210には、第3空間203への移動を許可/禁止するシャッター(扉)206を備えていてもよい。
 ロボット101は、当該ロボット101自身を消毒するように構成されていてもよい。具体的には、例えば、殺菌、抗ウィルス作用を有する、エタノール溶液等の溶液を噴霧する噴霧器をハンド18で保持して、上記溶液をロボット101に向けて噴霧することにより、当該ロボット101自身を消毒してもよい。
 また、紫外線を照射する照射器をハンド18で保持して、紫外線をロボット101に向けて照射することにより、当該ロボット101自身を消毒してもよい。
 さらに、第3空間203には、防護カバー(サージカルドレープ)が配置されていてもよい。ロボット101は、防護カバーを着脱することにより、滅菌・抗ウィルス状態を維持するように構成されていてもよい。
 具体的には、ロボット101は、第3空間203で防護カバーを着用し、その後、第1空間201へ移動して、医療行為を実行する。医療行為が終了した後、防護カバーが配置されていない別の第3空間203に移動して、防護カバーを取外す。その後、防護カバーが配置されている第3空間203に移動して、防護カバーを着用する。
 [ロボットシステムの動作及び作用効果]
 次に、本実施の形態4に係るロボットシステム100の動作及び作用効果について、図14及び図15を参照しながら、詳細に説明する。なお、以下の動作は、制御装置110の演算処理器110aが、記憶器110bに格納されているプログラムを読み出すことにより実行される。
 図15は、本実施の形態4に係るロボットシステムの動作の一例を示すフローチャートである。
 図15に示すように、本実施の形態4に係るロボットシステム100の動作は、実施の形態1に係るロボットシステム100と基本的動作は同じであるが、制御装置110が、ステップS106の処理に代えて、ステップS106Aの処理を実行する点と、ステップS106Aの処理の後に、ステップS107の処理を実行する点と、が異なる。
 具体的には、制御装置110は、操作器102(及び/又は入力器110c)から医療行為終了指令情報が入力されると、第3空間203まで、ロボット101を自走させる(ステップS106A)。
 次に、制御装置110は、第3空間203でロボット101を消毒させ(ステップS107)、本プログラムを終了する。
 このように構成されている、本実施の形態4に係るロボットシステム100であっても、実施の形態1に係るロボットシステム100と同様の作用効果を奏する。
 また、本実施の形態4に係るロボットシステム100では、ロボット101は、当該ロボット101自身を消毒するように構成されている。これにより、防護マスク及び防護服を着用した作業者により、ロボット101を消毒させる必要がなくなる。このため、使い勝手の良いロボットシステム100を提供することができる。
 [変形例1]
 次に、本実施の形態4に係るロボットシステム100の変形例について、説明する。
 本実施の形態4における変形例1のロボットシステムは、第3空間に、ロボットを消毒するように構成されている消毒装置が配置されている。
 本実施の形態4における変形例1のロボットシステムの運転方法は、第3空間に、ロボットを消毒するように構成されている消毒装置が配置されている。
 以下、本実施の形態4における変形例1のロボットシステムの一例について、図16を参照しながら説明する。
 [ロボットシステムの構成]
 図16は、本実施の形態4における変形例1のロボットシステムの概略構成を示す模式図である。
 図16に示すように、本変形例1のロボットシステム100は、実施の形態4に係るロボットシステム100と基本的構成は同じであるが、第3空間203を構成する滅菌室に消毒装置300が配置されている点が異なる。
 消毒装置300としては、殺菌、抗ウィルス作用を有する、エタノール溶液等の溶液を噴霧する噴霧器であってもよい。また、消毒装置300としては、紫外線を照射する照射器であってもよい。さらに、滅菌室に、ロボット101とは異なるロボットを配置しておいて、当該ロボットが噴霧器又は照射器を保持して、ロボット101の消毒作業を実行してもよい。
 このように構成されている、本変形例1のロボットシステム100であっても、実施の形態4に係るロボットシステム100と同様の作用効果を奏する。
 (実施の形態5)
 本実施の形態5に係るロボットシステムは、実施の形態1~4(変形例を含む)のいずれかの実施の形態に係るロボットシステムにおいて、ロボットが、第2表示装置をさらに備え、第2空間には、第2撮影装置がさらに配置されていて、制御装置は、(B)において、第2撮影装置が撮影した画像情報及び/又は映像情報を第2表示装置に表示させるように構成されている。
 本実施の形態5に係るロボットシステムの運転方法は、実施の形態1~4(変形例を含む)のいずれかの実施の形態に係るロボットシステムの運転方法において、ロボットが、第2表示装置をさらに備え、第2空間には、第2撮影装置がさらに配置されていて、(B)において、第2表示装置は、第2撮影装置が撮影した画像情報及び/又は映像情報を表示させるように構成されている。
 以下、本実施の形態5に係るロボットシステムの一例について、図17及び図18を参照しながら説明する。
 [ロボットシステムの構成]
 図17は、本実施の形態5に係るロボットシステムの概略構成を示す模式図である。
 図17に示すように、本実施の形態5に係るロボットシステム100は、実施の形態1に係るロボットシステム100と基本的構成は同じであるが、ロボット101が、第2表示装置24をさらに備える点と、第2空間202には、第2撮影装置106がさらに配置されている点と、が異なる。
 第2表示装置24は、第2撮影装置106が撮影した画像情報及び/又は映像情報を表示するように構成されている。第2表示装置24としては、例えば、据え置き型のディスプレイで構成されていてもよい。
 第2撮影装置106は、画像及び/又は映像を撮影し、撮影した画像情報及び/又は映像情報を制御装置110及び制御器14を介して、第2表示装置24に出力するように構成されている。第2撮影装置106としては、例えば、ビデオカメラであってもよい。
 [ロボットシステムの動作及び作用効果]
 次に、本実施の形態5に係るロボットシステム100の動作及び作用効果について、図17及び図18を参照しながら、詳細に説明する。なお、以下の動作は、制御装置110の演算処理器110aが、記憶器110bに格納されているプログラムを読み出すことにより実行される。
 図18は、本実施の形態5に係るロボットシステムの動作の一例を示すフローチャートである。
 図18に示すように、本実施の形態5に係るロボットシステム100の動作は、実施の形態1に係るロボットシステム100と基本的動作は同じであるが、制御装置110が、ステップS103の処理に代えて、ステップS103Aの処理を実行する点が異なる。
 具体的には、制御装置110は、待機場所から患者の近傍にまで自走させた(ステップS102)後に、以下の処理を実行する。
 制御装置110は、第1撮影装置20が撮影した画像情報及び/又は映像情報を取得し、第1表示装置103に表示させ、第2撮影装置106が撮影した画像情報及び/又は映像情報を取得し、第2表示装置24に表示させる(ステップS103A)。なお、制御装置110は、ステップS103Aの処理をステップS101又はステップS102の処理の前に実行してもよい。
 このように構成されている、本実施の形態5に係るロボットシステム100であっても、実施の形態1に係るロボットシステム100と同様の作用効果を奏する。
 また、本実施の形態5に係るロボットシステム100では、ロボット101が、第2表示装置24をさらに備え、第2空間202には、第2撮影装置106がさらに配置されている。
 これにより、患者と操作者(医療従事者)との間でコミュニケーションを取ることができる。
 (実施の形態6)
 本実施の形態6に係るロボットシステムは、医療検査器具及び/又は医療診察器具を保持するハンドを有するアームと、を備える、ロボットと、ロボットを操作するように構成されている、操作器と、制御装置と、を備え、ロボットが配置されている第1空間と、操作器が配置されている第2空間と、は隔離されていて、ハンドには、第1撮影装置が配置されていて、制御装置は、操作器から入力されたアーム及び/又はハンドの操作指令情報に基づいて、アーム及び/又はハンドを動作させる(α)を実行するように構成されている。
 また、本実施の形態6に係るロボットシステムでは、ロボットシステムが、第1撮影装置と、第1撮影装置が撮影した画像情報及び/又は映像情報を表示するように構成されている、第1表示装置と、をさらに備え、制御装置は、第1撮影装置が撮影した画像情報及び/又は映像情報を第1表示装置に表示させた状態で、(α)を実行するように構成されていてもよい。
 また、本実施の形態6に係るロボットシステムでは、ロボットと操作器は、マスタースレーブ方式で構成されていてもよい。
 また、本実施の形態6に係るロボットシステムでは、第1撮影装置は、ロボットに配置されていてもよく、ロボットのハンドに配置されていてもよい。
 また、本実施の形態6に係るロボットシステムでは、ハンドには、一対のレーザー光指示具が、当該レーザー光指示具から照射される光が交差するように配置されていてもよい。
 また、本実施の形態6に係るロボットシステムでは、第1表示装置は、医療検査器具及び/又は医療診察器具の位置情報を示す仮想モデルを表示するように構成されていてもよい。
 また、本実施の形態6に係るロボットシステムでは、第1表示装置は、患者の医療行為対象部位の仮想モデルを表示するように構成されていてもよい。
 さらに、本実施の形態6に係るロボットシステムでは、操作器には、医療検査器具及び/又は医療診察器具の保持の解放を指示するように構成されている、操作スイッチが配置されていてもよい。
 本実施の形態6に係るロボットシステムの運転方法は、ロボットシステムが、医療検査器具及び/又は医療診察器具を保持するハンドを有するアームと、を備える、ロボットと、ロボットを操作するように構成されている、操作器と、を備え、ロボットが配置されている第1空間と、操作器が配置されている第2空間と、は隔離されていて、ハンドには、第1撮影装置が配置されていて、操作器から入力されたアーム及び/又はハンドの操作指令情報に基づいて、アーム及び/又はハンドが動作する(α)を備える。
 また、本実施の形態6に係るロボットシステムの運転方法では、ロボットシステムが、第1撮影装置と、第1撮影装置が撮影した画像情報及び/又は映像情報を表示するように構成されている、第1表示装置と、をさらに備え、第1撮影装置が撮影した画像情報及び/又は映像情報を第1表示装置に表示させた状態で、(α)が実行されてもよい。
 また、本実施の形態6に係るロボットシステムの運転方法では、ロボットと操作器は、マスタースレーブ方式で構成されていてもよい。
 また、本実施の形態6に係るロボットシステムの運転方法では、第1撮影装置は、ロボットに配置されていてもよく、ハンドに配置されていてもよい。
 また、本実施の形態6に係るロボットシステムの運転方法では、ハンドには、一対のレーザー光指示具が、当該レーザー光指示具から照射される光が交差するように配置されていてもよい。
 また、本実施の形態6に係るロボットシステムの運転方法では、第1表示装置は、医療検査器具及び/又は医療診察器具の位置情報を示す仮想モデルを表示するように構成されていてもよい。
 また、本実施の形態6に係るロボットシステムの運転方法では、第1表示装置は、患者の医療行為対象部位の仮想モデルを表示するように構成されていてもよい。
 さらに、本実施の形態6に係るロボットシステムの運転方法では、操作器には、医療検査器具及び/又は医療診察器具の保持の解放を指示するように構成されている、操作スイッチが配置されていてもよい。
 以下、本実施の形態6に係るロボットシステムの一例について、図19~図22を参照しながら説明する。
 [ロボットシステムの構成]
 図19及び図20は、本実施の形態6に係るロボットシステムの概略構成を示す模式図である。
 図19及び図20に示すように、本実施の形態6に係るロボットシステム100は、実施の形態1に係るロボットシステム100と基本的構成は同じであるが、ロボット101が、第1空間201に設置されている(ロボット101が、据え置き型である)点が異なる。また、ロボット101の第1ハンド18Aの構成が異なる。
 ここで、ロボット101の第1ハンド18Aの構成について、図21を参照しながら説明する。
 図21は、図19に示すロボットのハンドの概略構成を示す模式図である。なお、図21においては、ロボットにおける上下方向及び前後方向を図における上下方向及び前後方向として表している。
 図21に示すように、第1ハンド18Aは、本体31、中間部材32、及び保持部材33を有している。本体31と中間部材32は、回転関節J5を介して、連結されている。また、中間部材32と保持部材33は、回転関節J6を介して、連結されている。これにより、保持部材33は、本体31に対して、回転軸線L4及び/又は回転軸線L5周りに回動することができる。
 本体31には、保持部材33を回動させるアクチュエータ34が設けられている。アクチュエータ34は、例えば、制御器14によってサーボ制御されるサーボモータであってもよい。また、本体31には、サーボモータの回転位置を検出する回転センサ(図示せず)と、サーボモータの回転を制御する電流を検出する電流センサ(図示せず)と、が設けられている。回転センサは、例えば、エンコーダであってもよい。回転センサが検出した位置情報、及び電流センサが検出した電流情報は、制御器14を介して、制御装置110に出力されてもよい。
 中間部材32の下端部には、支持部材35が設けられている。支持部材35には、カメラ(第1撮影装置)36が取り付けられている。カメラ36は、画像及び/又は映像を撮影し、撮影した画像情報及び/又は映像情報を制御装置110に出力するように構成されている。カメラ36としては、例えば、ビデオカメラであってもよく、X線撮影装置であってもよい。
 また、カメラ36が撮影する対象としては、例えば、滅菌綿棒により、鼻咽頭ぬぐい液を採取する場合には、患者の鼻孔であってもよい。また、例えば、唾液、下気道由来検体(喀痰等)を吸引カテーテル等で採取する場合には、患者の口腔であってもよい。
 なお、本実施の形態1においては、支持部材35及びカメラ36が、中間部材32の下端部に配置されている態様を採用したが、これに限定されない。支持部材35及びカメラ36は、中間部材32の上端部等に配置されていてもよい。また、支持部材35及びカメラ36は、保持部材33に配置されていてもよい。
 保持部材33には、医療検査器具又は医療診察器具を保持/解放するためのチャック機構37が取り付けられている。チャック機構37としては、例えば、エアチャックで構成されていてもよい。チャック機構37は、ここでは、PCR検査用の検体を採取するための滅菌綿棒50を保持している。
 また、保持部材33には、一対のレーザーポインタ(レーザー光指示具)38A、38Bが配設されている。レーザーポインタ38A、38Bは、それぞれから照査されたレーザー光39A、39Bが、第1ハンド18Aの前方で交差するように配置されている。なお、レーザー光指示具は、第1ハンド18Aに3つ以上配置していてもよい。
 これにより、第1ハンド18Aが患者に近づくと、患者に当たったレーザー光39Aとレーザー光39B間の距離が小さくなる。さらに、第1ハンド18Aが患者に近づくと、患者に当たったレーザー光が1点になる。そして、さらに、第1ハンド18Aが患者に近づくと、患者に当たったレーザー光39Aとレーザー光39B間の距離が大きくなる。
 このため、操作者(医療従事者)は、一対のレーザーポインタ38A、38Bから照射されるレーザー光39A、39Bにより、患者と医療検査器具及び/又は医療診察器具(滅菌綿棒50)の先端部との距離を容易に理解することができる。
 [ロボットシステムの動作及び作用効果]
 次に、本実施の形態6に係るロボットシステム100の動作及び作用効果について、図19~図22を参照しながら、詳細に説明する。なお、以下の動作は、制御装置110の演算処理器110aが、記憶器110bに格納されているプログラムを読み出すことにより実行される。
 図22は、本実施の形態6に係るロボットシステムの動作の一例を示すフローチャートである。
 図22に示すように、制御装置110は、第1撮影装置20が撮影した画像情報及び/又は映像情報を取得し、第1表示装置103に表示させる(ステップS201)。なお、第1表示装置103に表示される画像情報及び/又は映像情報は、図6~図10に示した例であってもよい。
 次に、制御装置110は、操作器102からアーム13及び/又はハンド18の操作指令情報を取得する(ステップS202)。ついで、制御装置110は、ステップS104で取得した操作指令情報を基に、アーム13及び/又はハンド18を動作させる(ステップS203)。
 これにより、操作者は、患者に対して、遠隔操作でロボット101を動作させて、医療行為(例えば、診察及び/又は検査)を実行することができる(図6参照)。例えば、操作者は、PCR検査用の検体の採取作業を実行してもよい。
 なお、制御装置110は、操作器102から入力されたアーム13及び/又はハンド18の操作指令情報を記憶器110bに記憶させてもよい。また、制御装置110は、記憶器110bに記憶されている操作指令情報を基に、アーム13及び/又はハンド18を動作させて、患者に対して、医療行為(例えば、診察作業及び/又は検査作業)を実行してもよい。
 また、制御装置110は、診察作業等を学習するように構成されていてもよい。具体的には、例えば、制御装置110が、ロボット101に診察作業等を実行させているときに、操作者が操作器102を操作することにより、アーム13及び/又はハンド18の動作が修正された場合、修正されたアーム13及び/又はハンド18の操作指令情報を記憶器110bに記憶させる。
 ついで、制御装置110は、修正された操作指令情報を基に、アーム13及び/又はハンド18を動作させて、患者に対して、医療行為(例えば、診察作業及び/又は検査作業)を実行する。そして、再度、操作者により、アーム13及び/又はハンド18の動作が修正されると、修正されたアーム13及び/又はハンド18の操作指令情報を記憶器110bに記憶させて、診察作業等を学習させる。
 次に、制御装置110は、操作者が操作器102(及び/又は入力器110c)を操作することで、操作器102(及び/又は入力器110c)から医療行為終了指令情報が入力される(ステップS204でYes)と、本プログラムを終了する。
 なお、制御装置110は、本プログラムを終了した後に、ロボット101を適宜な手段により消毒させてから、ロボット101を待機状態にするように制御してもよい。また、防護マスク及び防護服を着用した作業者により、ロボット101を消毒させてもよい。
 このように構成された、本実施の形態6に係るロボットシステム100では、操作者が、患者と隔離された第2空間202で、ロボット101を操作するように構成されている。
 これにより、ウィルス等の感染の疑いのある患者との接触を抑制することができる。このため、操作者に対するウィルス等の感染を充分に抑制することができる。
 また、本実施の形態6に係るロボットシステム100では、第1ハンド18A(ハンド18)には、一対のレーザーポインタ38A、38Bが、それぞれから照射されるレーザー光39A、39Bが交差するように配置されている。
 これにより、第1ハンド18Aが患者に近づくと、患者に当たったレーザー光39Aとレーザー光39B間の距離が小さくなる。さらに、第1ハンド18Aが患者に近づくと、患者に当たったレーザー光が1点になる。そして、さらに、第1ハンド18Aが患者に近づくと、患者に当たったレーザー光39Aとレーザー光39B間の距離が大きくなる。
 このため、操作者(医療従事者)は、一対のレーザーポインタ38A、38Bから照射されるレーザー光39A、39Bにより、患者と医療検査器具及び/又は医療診察器具(滅菌綿棒50)の先端部との距離を容易に理解することができる。
 さらに、本実施の形態6に係るロボットシステム100では、医療検査器具及び/又は医療診察器具の位置情報を示す仮想モデルが第4映像情報103Dとして、第1表示装置103に表示される。これにより、操作者は、患者と医療検査器具及び/又は医療診察器具(滅菌綿棒50)の先端部との距離を容易に理解することができる。
 このとき、制御装置110が、第1表示装置103に患者の医療対象部位の仮想モデルである、仮想患者60を表示することにより、患者と医療検査器具及び/又は医療診察器具(滅菌綿棒50)の先端部との距離をより容易に理解することができる。
 [変形例1]
 次に、本実施の形態6に係るロボットシステムの変形例について、図23を参照しながら説明する。
 図23は、本実施の形態6における変形例1のロボットシステムの概略構成を示す模式図である。
 図23に示すように、本変形例1のロボットシステム100は、実施の形態6に係るロボットシステム100と基本的構成は同じであるが、ロボット101が垂直多関節型ロボットで構成されている点が異なる。
 このように構成されている、本変形例1のロボットシステム100であっても、実施の形態6に係るロボットシステム100と同様の作用効果を奏する。
(実施の形態7)
 本実施の形態7に係るロボットシステムは、実施の形態6(変形例を含む)に係るロボットシステムにおいて、ロボットは、第1音声入力装置と、第1音声出力装置と、をさらに備え、第2空間には、第2音声入力装置と、第2音声出力装置と、がさらに配置されていて、制御装置は、第1音声入力装置に入力された音声情報を第2音声出力装置に出力し、第2音声入力装置に入力された音声情報を第1音声出力装置に出力するように構成されている。
 以下、本実施の形態7に係るロボットシステムの一例について、図24を参照しながら説明する。
 [ロボットシステムの構成]
 図24は、本実施の形態7に係るロボットシステムの概略構成を示す模式図である。
 図24に示すように、本実施の形態7に係るロボットシステム100は、実施の形態6に係るロボットシステム100と基本的構成は同じであるが、ロボット101が第1音声入力装置21及び第1音声出力装置22を有している点と、第2空間202に、第2音声入力装置104及び第2音声出力装置105が配置されている点と、が異なる。
 第1音声入力装置21及び第2音声入力装置104は、例えば、マイクで構成されていてもよい。また、第1音声出力装置22及び第2音声出力装置105は、スピーカーで構成されていてもよい。
 なお、第2音声入力装置104及び第2音声出力装置105は、マイク付きのヘッドフォン(ヘッドセット)で構成されていてもよい。また、第1表示装置103が、ヘッドマウントディスプレイで構成されている場合には、第2音声入力装置104及び第2音声出力装置105は、当該ヘッドマウントディスプレイに取り付けられているマイク及びヘッドフォンで構成されていてもよい。
 このように構成されている、本実施の形態7に係るロボットシステム100であっても、実施の形態6に係るロボットシステム100と同様の作用効果を奏する。
 また、本実施の形態7に係るロボットシステム100では、ロボット101に第1音声入力装置21及び第1音声出力装置22が設けていて、第2空間202に第2音声入力装置104及び第2音声出力装置105が配置されているので、患者と操作者との間でコミュニケーションを取ることができる。
 これにより、例えば、操作者が医療従事者である場合、又は操作者の傍らに医療従事者がいる場合には、患者に対して、問診、聴診、検査結果の伝達、治療方針の伝達等の医療行為を実行することができる。
 (実施の形態8)
 本実施の形態8に係るロボットシステムは、実施の形態6(変形例を含む)又は7のいずれかの実施の形態に係るロボットシステムにおいて、ロボットが、第2表示装置をさらに備え、第2空間には、第2撮影装置がさらに配置されていて、制御装置は、(α)において、第2撮影装置が撮影した画像情報及び/又は映像情報を第2表示装置に表示させるように構成されている。
 本実施の形態8に係るロボットシステムの運転方法は、実施の形態6(変形例を含む)又は7のいずれかの実施の形態に係るロボットシステムの運転方法において、ロボットが、第2表示装置をさらに備え、第2空間には、第2撮影装置がさらに配置されていて、(α)において、第2表示装置は、第2撮影装置が撮影した画像情報及び/又は映像情報を表示させるように構成されている。
 以下、本実施の形態8に係るロボットシステムの一例について、図25及び図26を参照しながら説明する。
 [ロボットシステムの構成]
 図25は、本実施の形態8に係るロボットシステムの概略構成を示す模式図である。
 図25に示すように、本実施の形態8に係るロボットシステム100は、実施の形態6に係るロボットシステム100と基本的構成は同じであるが、ロボット101が、第2表示装置24をさらに備える点と、第2空間202には、第2撮影装置106がさらに配置されている点と、が異なる。
 第2表示装置24は、第2撮影装置106が撮影した画像情報及び/又は映像情報を表示するように構成されている。第2表示装置24としては、例えば、据え置き型のディスプレイで構成されていてもよい。
 第2撮影装置106は、画像及び/又は映像を撮影し、撮影した画像情報及び/又は映像情報を制御装置110及び制御器14を介して、第2表示装置24に出力するように構成されている。第2撮影装置106としては、例えば、ビデオカメラであってもよい。
 [ロボットシステムの動作及び作用効果]
 次に、本実施の形態8に係るロボットシステム100の動作及び作用効果について、図25及び図26を参照しながら、詳細に説明する。なお、以下の動作は、制御装置110の演算処理器110aが、記憶器110bに格納されているプログラムを読み出すことにより実行される。
 図26は、本実施の形態8に係るロボットシステムの動作の一例を示すフローチャートである。
 図26に示すように、本実施の形態8に係るロボットシステム100の動作は、実施の形態6に係るロボットシステム100と基本的動作は同じであるが、制御装置110が、ステップS201の処理に代えて、ステップS201Aの処理を実行する点が異なる。
 具体的には、制御装置110は、第1撮影装置20が撮影した画像情報及び/又は映像情報を取得し、第1表示装置103に表示させ、第2撮影装置106が撮影した画像情報及び/又は映像情報を取得し、第2表示装置24に表示させる(ステップS201A)。
 このように構成されている、本実施の形態8に係るロボットシステム100であっても、実施の形態6に係るロボットシステム100と同様の作用効果を奏する。
 また、本実施の形態8に係るロボットシステム100では、ロボット101が、第2表示装置24をさらに備え、第2空間202には、第2撮影装置106がさらに配置されている。
 これにより、患者と操作者(医療従事者)との間でコミュニケーションを取ることができる。
 上記説明から、当業者にとっては、本発明の多くの改良又は他の実施形態が明らかである。従って、上記説明は、例示としてのみ解釈されるべきであり、本発明を実行する最良の態様を当業者に教示する目的で提供されたものである。本発明を逸脱することなく、その構造及び/又は機能の詳細を実質的に変更できる。
 本発明のロボットシステム及びその運転方法によれば、病院内にいる医療従事者等の感染を充分に低減することができるため、ロボットの分野において有用である。
 2A 第1装着部
 2B 第2装着部
 5a 第1リンク
 5b 第2リンク
 12 台車
 13 アーム
 13A 第1アーム
 13B 第2アーム
 14 制御器
 15A 第1アーム部
 15B 第2アーム部
 16 基軸
 17A 第1リスト部
 17B 第2リスト部
 18 ハンド
 18A 第1ハンド
 18B 第2ハンド
 19 車輪
 20 第1撮影装置
 21 第1音声入力装置
 22 第1音声出力装置
 23 収納装置
 24 第2表示装置
 31 本体
 32 中間部材
 33 保持部材
 34 アクチュエータ
 35 支持部材
 36 カメラ
 37 チャック機構
 38A レーザーポインタ
 38B レーザーポインタ
 39B レーザー光
 39A レーザー光
 50 滅菌綿棒
 50A 仮想滅菌綿棒
 50B 第1領域
 60 仮想患者
 100 ロボットシステム
 101 ロボット
 102 操作器
 102A 解除ボタン
 103 第1表示装置
 103A 第1映像情報
 103B 第2映像情報
 103C 第3映像情報
 103D 第4映像情報
 104 第2音声入力装置
 105 第2音声出力装置
 106 第2撮影装置
 110 制御装置
 110a 演算処理器
 110b 記憶器
 110c 入力器
 201 第1空間
 202 第2空間
 203 第3空間
 204 シャッター
 205 シャッター
 206 シャッター
 210 隔壁部材
 220 基台
 221 遮蔽板
 222 開口部
 230 位置決め器
 231 本体
 232 被当接部
 233 顎乗せ台
 300 消毒装置
 J1 回転関節
 J2 回転関節
 J3 直動関節
 J4 回転関節
 J5 回転関節
 J6 回転関節
 L1 回転軸線
 L2 回転軸線
 L3 回転軸線
 L4 回転軸線
 L5 回転軸線
 

Claims (48)

  1.  医療検査器具及び/又は医療診察器具を保持するハンドを有するアームと、を備える、ロボットと、
     前記ロボットを操作するように構成されている、操作器と、
     制御装置と、を備え、
     前記ロボットが配置されている第1空間と、前記操作器が配置されている第2空間と、は隔離されていて、
     前記制御装置は、前記ロボットを前記患者に近づくように自走させる(A)と、
     前記(A)の実行後に、前記操作器から入力された前記アーム及び/又は前記ハンドの操作指令情報に基づいて、前記アーム及び/又は前記ハンドを動作させる(B)と、を実行するように構成されている、ロボットシステム。
  2.  前記ロボットシステムは、第1撮影装置と、前記第1撮影装置が撮影した画像情報及び/又は映像情報を表示するように構成されている、第1表示装置と、をさらに備え、
     前記制御装置は、前記第1撮影装置が撮影した画像情報及び/又は映像情報を前記第1表示装置に表示させた状態で、前記(B)を実行するように構成されている、請求項1に記載のロボットシステム。
  3.  前記ロボットは、第1音声入力装置と、第1音声出力装置と、をさらに備え、
     前記第2空間には、第2音声入力装置と、第2音声出力装置と、がさらに配置されていて、
     前記制御装置は、前記第1音声入力装置に入力された音声情報を前記第2音声出力装置に出力し、前記第2音声入力装置に入力された音声情報を前記第1音声出力装置に出力するように構成されている、請求項1又は2に記載のロボットシステム。
  4.  前記ロボットは、薬、食事、検査用試薬、検体、医療検査器具、及び医療診察器具のうち、少なくとも1つの搬送品を収納する収納装置をさらに備える、請求項1~3のいずれか1項に記載のロボットシステム。
  5.  前記第1空間及び前記第2空間から隔離されている第3空間をさらに備え、
     前記第3空間では、前記ロボットが消毒される、請求項1~4のいずれか1項に記載のロボットシステム。
  6.  前記ロボットは、当該ロボット自身を消毒するように構成されている、請求項5に記載のロボットシステム。
  7.  前記第3空間には、前記ロボットを消毒するように構成されている消毒装置が配置されている、請求項5に記載のロボットシステム。
  8.  前記制御装置は、前記(B)の後に、前記ロボットを前記第3空間まで自走させ、当該ロボットを消毒させる(C)をさらに実行するように構成されている、請求項5~7のいずれか1項に記載のロボットシステム。
  9.  前記ロボットは、第2表示装置をさらに備え、
     前記第2空間には、第2撮影装置がさらに配置されていて、
     前記制御装置は、前記(B)において、前記第2撮影装置が撮影した画像情報及び/又は映像情報を前記第2表示装置に表示させるように構成されている、請求項1~8のいずれか1項に記載のロボットシステム。
  10.  前記ロボットと前記操作器は、マスタースレーブ方式で構成されている、請求項1~9のいずれか1項に記載のロボットシステム。
  11.  前記ハンドには、一対のレーザー光指示具が、当該レーザー光指示具から照射される光が交差するように配置されている、請求項1~10のいずれか1項に記載のロボットシステム。
  12.  前記第1撮影装置は、前記ロボットに配置されている、請求項2~11のいずれか1項に記載のロボットシステム。
  13.  前記第1表示装置は、前記医療検査器具及び/又は前記医療診察器具の位置情報を示す仮想モデルを表示するように構成されている、請求項2~12のいずれか1項に記載のロボットシステム。
  14.  前記第1表示装置は、患者の医療行為対象部位の仮想モデルを表示するように構成されている、請求項2~13のいずれか1項に記載のロボットシステム。
  15.  前記操作器には、前記医療検査器具及び/又は前記医療診察器具の保持の解放を指示するように構成されている、操作スイッチが配置されている、請求項1~14のいずれか1項に記載のロボットシステム。
  16.  医療検査器具及び/又は医療診察器具を保持するハンドを有するアームと、を備える、ロボットと、
     前記ロボットを操作するように構成されている、操作器と、
     制御装置と、を備え、
     前記ロボットが配置されている第1空間と、前記操作器が配置されている第2空間と、は隔離されていて、
     前記ハンドには、第1撮影装置が配置されていて、
     前記制御装置は、前記操作器から入力された前記アーム及び/又は前記ハンドの操作指令情報に基づいて、前記アーム及び/又は前記ハンドを動作させる(α)を実行するように構成されている、ロボットシステム。
  17.  前記ロボットシステムは、前記第1撮影装置が撮影した画像情報及び/又は映像情報を表示するように構成されている、第1表示装置をさらに備え、
     前記制御装置は、前記第1撮影装置が撮影した画像情報及び/又は映像情報を前記第1表示装置に表示させた状態で、前記(α)を実行するように構成されている、請求項16に記載のロボットシステム。
  18.  前記ハンドには、一対のレーザー光指示具が、当該レーザー光指示具から照射される光が交差するように配置されている、請求項16又は17に記載のロボットシステム。
  19.  前記ロボットは、第1音声入力装置と、第1音声出力装置と、をさらに備え、
     前記第2空間には、第2音声入力装置と、第2音声出力装置と、がさらに配置されていて、
     前記制御装置は、前記第1音声入力装置に入力された音声情報を前記第2音声出力装置に出力し、前記第2音声入力装置に入力された音声情報を前記第1音声出力装置に出力するように構成されている、請求項16~18のいずれか1項に記載のロボットシステム。
  20.  前記ロボットは、第2表示装置をさらに備え、
     前記第2空間には、第2撮影装置がさらに配置されていて、
     前記制御装置は、前記(α)において、前記第2撮影装置が撮影した画像情報及び/又は映像情報を前記第2表示装置に表示させるように構成されている、請求項16~19のいずれか1項に記載のロボットシステム。
  21.  前記ロボットと前記操作器は、マスタースレーブ方式で構成されている、請求項16~20のいずれか1項に記載のロボットシステム。
  22.  前記第1表示装置は、前記医療検査器具及び/又は前記医療診察器具の位置情報を示す仮想モデルを表示するように構成されている、請求項17~21のいずれか1項に記載のロボットシステム。
  23.  前記第1表示装置は、患者の医療行為対象部位の仮想モデルを表示するように構成されている、請求項17~22のいずれか1項に記載のロボットシステム。
  24.  前記操作器には、前記医療検査器具及び/又は前記医療診察器具の保持の解放を指示するように構成されている、操作スイッチが配置されている、請求項16~23のいずれか1項に記載のロボットシステム。
  25.  ロボットシステムの運転方法であって、
     前記ロボットシステムは、
     医療検査器具及び/又は医療診察器具を保持するハンドを有するアームと、を備える、ロボットと、
     前記ロボットを操作するように構成されている、操作器と、を備え、
     前記ロボットが配置されている第1空間と、前記操作器が配置されている第2空間と、は隔離されていて、
     前記操作器から入力された患者の位置情報を基に前記ロボットが前記患者近傍にまで自動で移動する(A)と、
     前記(A)の実行後に、前記操作器から入力された前記アーム及び/又は前記ハンドの操作指令情報に基づいて、前記アーム及び/又は前記ハンドが動作する(B)と、を備える、ロボットシステムの運転方法。
  26.  前記ロボットシステムは、第1撮影装置と、前記第1撮影装置が撮影した画像情報及び/又は映像情報を表示するように構成されている、第1表示装置と、をさらに備え、
     前記第1撮影装置が撮影した画像情報及び/又は映像情報を前記第1表示装置に表示させた状態で、前記(B)が実行される、請求項25に記載のロボットシステムの運転方法。
  27.  前記ロボットは、第1音声入力装置と、第1音声出力装置と、をさらに備え、
     前記第2空間には、第2音声入力装置と、第2音声出力装置と、がさらに配置されていて、
     前記第1音声出力装置は、前記第2音声入力装置に入力された音声情報を出力するように構成されていて、
     前記第2音声出力装置は、前記第1音声入力装置に入力された音声情報を出力するように構成されている、請求項25又は26に記載のロボットシステムの運転方法。
  28.  前記ロボットは、薬、食事、検査用試薬、検体、医療検査器具、及び医療診察器具のうち、少なくとも1つの搬送品を収納する収納装置をさらに備える、請求項25~27のいずれか1項に記載のロボットシステムの運転方法。
  29.  前記第1空間及び前記第2空間から隔離されている第3空間をさらに備え、
     前記第3空間では、前記ロボットが消毒される、請求項25~28のいずれか1項に記載のロボットシステムの運転方法。
  30.  前記ロボットは、当該ロボット自身を消毒するように構成されている、請求項29に記載のロボットシステムの運転方法。
  31.  前記第3空間には、前記ロボットを消毒するように構成されている消毒装置が配置されている、請求項29に記載のロボットシステムの運転方法。
  32.  前記(B)の後に、前記ロボットが前記第3空間まで自走し、当該ロボットを消毒させる(C)をさらに備える、請求項29~31のいずれか1項に記載のロボットシステムの運転方法。
  33.  前記ロボットは、第2表示装置をさらに備え、
     前記第2空間には、第2撮影装置がさらに配置されていて、
     前記(B)において、前記第2表示装置は、前記第2撮影装置が撮影した画像情報及び/又は映像情報を表示させるように構成されている、請求項25~32のいずれか1項に記載のロボットシステムの運転方法。
  34.  前記ロボットと前記操作器は、マスタースレーブ方式で構成されている、請求項25~33のいずれか1項に記載のロボットシステムの運転方法。
  35.  前記ハンドには、一対のレーザー光指示具が、当該レーザー光指示具から照射される光が交差するように配置されている、請求項25~34のいずれか1項に記載のロボットシステムの運転方法。
  36.  前記第1撮影装置は、前記ロボットに配置されている、請求項26~35のいずれか1項に記載のロボットシステムの運転方法。
  37.  前記第1表示装置は、前記医療検査器具及び/又は前記医療診察器具の位置情報を示す仮想モデルを表示するように構成されている、請求項26~36のいずれか1項に記載のロボットシステムの運転方法。
  38.  前記第1表示装置は、患者の医療行為対象部位の仮想モデルを表示するように構成されている、請求項26~37のいずれか1項に記載のロボットシステムの運転方法。
  39.  前記操作器には、前記医療検査器具及び/又は前記医療診察器具の保持の解放を指示するように構成されている、操作スイッチが配置されている、請求項25~38のいずれか1項に記載のロボットシステムの運転方法。
  40.  ロボットシステムの運転方法であって、
     前記ロボットシステムは、
     医療検査器具及び/又は医療診察器具を保持するハンドを有するアームと、を備える、ロボットと、
     前記ロボットを操作するように構成されている、操作器と、を備え、
     前記ロボットが配置されている第1空間と、前記操作器が配置されている第2空間と、は隔離されていて、
     前記ハンドには、第1撮影装置が配置されていて、
     前記操作器から入力された前記アーム及び/又は前記ハンドの操作指令情報に基づいて、前記アーム及び/又は前記ハンドが動作する(α)を備える、ロボットシステムの運転方法。
  41.  前記ロボットシステムは、前記第1撮影装置が撮影した画像情報及び/又は映像情報を表示するように構成されている、第1表示装置をさらに備え、
     前記第1撮影装置が撮影した画像情報及び/又は映像情報を前記第1表示装置に表示させた状態で、前記(α)が実行される、請求項40に記載のロボットシステムの運転方法。
  42.  前記ハンドには、一対のレーザー光指示具が、当該レーザー光指示具から照射される光が交差するように配置されている、請求項40又は41に記載のロボットシステムの運転方法。
  43.  前記ロボットは、第1音声入力装置と、第1音声出力装置と、をさらに備え、
     前記第2空間には、第2音声入力装置と、第2音声出力装置と、がさらに配置されていて、
     前記第1音声出力装置は、前記第2音声入力装置に入力された音声情報を出力するように構成されていて、
     前記第2音声出力装置は、前記第1音声入力装置に入力された音声情報を出力するように構成されている、請求項40~42のいずれか1項に記載のロボットシステムの運転方法。
  44.  前記ロボットは、第2表示装置をさらに備え、
     前記第2空間には、第2撮影装置がさらに配置されていて、
     前記(α)において、前記第2表示装置は、前記第2撮影装置が撮影した画像情報及び/又は映像情報を表示させるように構成されている、請求項40~43のいずれか1項に記載のロボットシステムの運転方法。
  45.  前記ロボットと前記操作器は、マスタースレーブ方式で構成されている、請求項40~44のいずれか1項に記載のロボットシステムの運転方法。
  46.  前記第1表示装置は、前記医療検査器具及び/又は前記医療診察器具の位置情報を示す仮想モデルを表示するように構成されている、請求項41~45のいずれか1項に記載のロボットシステムの運転方法。
  47.  前記第1表示装置は、患者の医療行為対象部位の仮想モデルを表示するように構成されている、請求項41~46のいずれか1項に記載のロボットシステムの運転方法。
  48.  前記操作器には、前記医療検査器具及び/又は前記医療診察器具の保持の解放を指示するように構成されている、操作スイッチが配置されている、請求項40~47のいずれか1項に記載のロボットシステムの運転方法。
PCT/JP2021/014954 2020-04-10 2021-04-08 ロボットシステム及びその運転方法 WO2021206153A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US17/995,591 US20230339115A1 (en) 2020-04-10 2021-04-08 Robot system and method for operating same
EP21784024.8A EP4134204A1 (en) 2020-04-10 2021-04-08 Robot system and method for operating same
JP2022514124A JPWO2021206153A1 (ja) 2020-04-10 2021-04-08
CN202180027299.8A CN115379815A (zh) 2020-04-10 2021-04-08 机器人系统及其运转方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2020071340 2020-04-10
JP2020-071340 2020-04-10
JP2020-094589 2020-05-29
JP2020094589 2020-05-29

Publications (1)

Publication Number Publication Date
WO2021206153A1 true WO2021206153A1 (ja) 2021-10-14

Family

ID=78022557

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2021/014954 WO2021206153A1 (ja) 2020-04-10 2021-04-08 ロボットシステム及びその運転方法
PCT/JP2021/014930 WO2021206149A1 (ja) 2020-04-10 2021-04-08 ロボットシステムおよびロボットシステムの制御方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/014930 WO2021206149A1 (ja) 2020-04-10 2021-04-08 ロボットシステムおよびロボットシステムの制御方法

Country Status (6)

Country Link
US (1) US20230339115A1 (ja)
EP (1) EP4134204A1 (ja)
JP (2) JPWO2021206153A1 (ja)
CN (1) CN115379815A (ja)
TW (2) TWI801839B (ja)
WO (2) WO2021206153A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114505839A (zh) * 2022-02-25 2022-05-17 南京航空航天大学 一种面向核酸采样的主从式机器人系统
CN114833799A (zh) * 2022-04-26 2022-08-02 浙江大学 一种用于养殖场动物唾液样本无人化采集的机器人和方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115406706B (zh) * 2022-11-03 2023-05-09 君华高科集团有限公司 一种基于图像识别的全自动食材取样机器人

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10137173A (ja) * 1996-11-13 1998-05-26 Olympus Optical Co Ltd 医療機器カート
JP2005288628A (ja) * 2004-03-31 2005-10-20 Matsushita Electric Works Ltd 移動ロボットシステム
JP2007130282A (ja) 2005-11-11 2007-05-31 Astec Corp:Kk 自走式トレイ搬送ロボット及び採血システム
JP2007181670A (ja) * 2005-12-30 2007-07-19 Intuitive Surgical Inc 3次元テレストレーションを提供する医療ロボットシステム
JP2011194163A (ja) * 2010-03-23 2011-10-06 Olympus Corp 医療用マニピュレータシステム
WO2017002143A1 (ja) * 2015-06-29 2017-01-05 川崎重工業株式会社 手術ロボット
WO2019113389A1 (en) * 2017-12-08 2019-06-13 Auris Health, Inc. Directed fluidics

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014084408A1 (en) * 2012-11-30 2014-06-05 Olympus Corporation Operation support system and control method of operation support system
JP2015016300A (ja) * 2013-06-13 2015-01-29 キヤノン株式会社 生検支援装置及び生検支援方法
CN107848124A (zh) * 2015-07-23 2018-03-27 思想外科有限公司 用于机器人系统的防护披盖
WO2017082047A1 (ja) * 2015-11-13 2017-05-18 オリンパス株式会社 内視鏡システム
US10022192B1 (en) * 2017-06-23 2018-07-17 Auris Health, Inc. Automatically-initialized robotic systems for navigation of luminal networks
FR3076994B1 (fr) * 2018-01-25 2022-03-11 Keranova Dispositif et procede de controle du deplacement d'un appareil de therapie oculaire incluant un bras support articule
CN108942952A (zh) * 2018-04-23 2018-12-07 杨水祥 一种医疗机器人
CN109986530B (zh) * 2019-04-23 2021-04-23 江西泛爱众网络科技有限公司 一种用于临床手术的具有收纳和传递功能的医疗机器人

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10137173A (ja) * 1996-11-13 1998-05-26 Olympus Optical Co Ltd 医療機器カート
JP2005288628A (ja) * 2004-03-31 2005-10-20 Matsushita Electric Works Ltd 移動ロボットシステム
JP2007130282A (ja) 2005-11-11 2007-05-31 Astec Corp:Kk 自走式トレイ搬送ロボット及び採血システム
JP2007181670A (ja) * 2005-12-30 2007-07-19 Intuitive Surgical Inc 3次元テレストレーションを提供する医療ロボットシステム
JP2011194163A (ja) * 2010-03-23 2011-10-06 Olympus Corp 医療用マニピュレータシステム
WO2017002143A1 (ja) * 2015-06-29 2017-01-05 川崎重工業株式会社 手術ロボット
WO2019113389A1 (en) * 2017-12-08 2019-06-13 Auris Health, Inc. Directed fluidics

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KRUPA ALEXANDRE: "Autonomous 3-D positioning of surgical instruments in robotized laparoscopic surgery using visual servoing", IEEE TRANSACTIONS ON ROBOTICS AND AUTOMATION, vol. 19, no. 5, 2003, pages 842 - 853, XP011102058, Retrieved from the Internet <URL:https://ieeexplore.ieee.org/document/1236757> *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114505839A (zh) * 2022-02-25 2022-05-17 南京航空航天大学 一种面向核酸采样的主从式机器人系统
CN114505839B (zh) * 2022-02-25 2023-09-26 南京航空航天大学 一种面向核酸采样的主从式机器人系统
CN114833799A (zh) * 2022-04-26 2022-08-02 浙江大学 一种用于养殖场动物唾液样本无人化采集的机器人和方法
CN114833799B (zh) * 2022-04-26 2024-01-02 浙江大学 一种用于养殖场动物唾液样本无人化采集的机器人和方法

Also Published As

Publication number Publication date
TW202144145A (zh) 2021-12-01
JP2021184803A (ja) 2021-12-09
TWI801839B (zh) 2023-05-11
EP4134204A1 (en) 2023-02-15
TW202144146A (zh) 2021-12-01
CN115379815A (zh) 2022-11-22
TWI804847B (zh) 2023-06-11
US20230339115A1 (en) 2023-10-26
WO2021206149A1 (ja) 2021-10-14
JPWO2021206153A1 (ja) 2021-10-14

Similar Documents

Publication Publication Date Title
WO2021206153A1 (ja) ロボットシステム及びその運転方法
WO2021206124A1 (ja) 医療用移動体システム及びその運転方法
Zhong et al. Foot-controlled robot-enabled endoscope manipulator (freedom) for sinus surgery: Design, control, and evaluation
CN111820952A (zh) 一种移动式咽拭子取样机器人
JP2002500524A (ja) 多構成テレプレゼンスシステムおよびその方法
Li et al. A flexible transoral robot towards COVID-19 swab sampling
CN111839599A (zh) 一种高自由度柔性夹持咽拭子取样机器人
KR102619022B1 (ko) 상기도 검체 채취 장치
JP6920575B1 (ja) ロボットシステムおよびロボットシステムの制御方法
IT202000002548A1 (it) Assieme di chirurgia robotica, arena operatoria e metodo
Wang et al. A 5-DOFs robot for posterior segment eye microsurgery
Mohammed et al. 2019 novel coronavirus disease (Covid-19): toward a novel design for nasopharyngeal and oropharyngeal swabbing robot
US20230165650A1 (en) Diagnosis/treatment support robot, diagnosis/treatment support robot system, and diagnosis/treatment support method
Liu et al. A remotely controlled oropharyngeal swab sampling robot and its application in covid-19 prevention
Takeuchi et al. Intuitive remote robotic nasal sampling by orientation control with variable rcm in limited space
TWI803851B (zh) 醫療支援機器人及醫療支援機器人系統
Mallouh et al. Development of a Robotic Arm and End-Effector for COVID-19 Testing
JP2022168669A (ja) 検体採取ロボットシステムおよびロボットシステム
Shim et al. Robotic system for nasopharyngeal swab sampling based on remote center of motion mechanism
CN113164205A (zh) 用于已消毒的远程操作部件的消毒及存储的系统和方法
Wang¹⁴ et al. A 5-DOFs Robot for Posterior Segment Eye Microsurgery

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21784024

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022514124

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2021784024

Country of ref document: EP

Effective date: 20221110

NENP Non-entry into the national phase

Ref country code: DE