WO2019102693A1 - 内視鏡システム、プロセッサ、制御方法およびプログラム - Google Patents

内視鏡システム、プロセッサ、制御方法およびプログラム Download PDF

Info

Publication number
WO2019102693A1
WO2019102693A1 PCT/JP2018/034033 JP2018034033W WO2019102693A1 WO 2019102693 A1 WO2019102693 A1 WO 2019102693A1 JP 2018034033 W JP2018034033 W JP 2018034033W WO 2019102693 A1 WO2019102693 A1 WO 2019102693A1
Authority
WO
WIPO (PCT)
Prior art keywords
terminal device
processor
unit
communication
peripheral devices
Prior art date
Application number
PCT/JP2018/034033
Other languages
English (en)
French (fr)
Inventor
雄吾 小泉
秀和 信濃
秀之 釘宮
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2019556110A priority Critical patent/JP6946460B2/ja
Publication of WO2019102693A1 publication Critical patent/WO2019102693A1/ja
Priority to US16/883,111 priority patent/US20200387590A1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • A61B1/00016Operational features of endoscopes characterised by signal transmission using wireless means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00059Operational features of endoscopes provided with identification means for the endoscope
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4155Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/44Program or device authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/40ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management of medical equipment or devices, e.g. scheduling maintenance or upgrades
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/10Network architectures or network communication protocols for network security for controlling access to devices or network resources
    • H04L63/105Multiple levels of security
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/08Access security
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45118Endoscopic, laparoscopic manipulator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2111Location-sensitive, e.g. geographical location, GPS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Definitions

  • the present invention relates to an endoscope system, a processor, a control method, and a program for inserting an endoscope into a subject and displaying image data obtained by imaging the inside of the subject.
  • each of the endoscopic inspection schedules and cleaning schedules are set, and notification related to the schedule to medical personnel including doctors is performed on inspection-related operations and A technology for supporting cleaning related work is known (see Patent Document 1).
  • an action is performed at the notification timing determined based on the time designated by the examination start scheduled time information included in the examination schedule and the timing information for notifying the action content to be implemented by the medical worker before the examination starts. After notification of the content, by receiving a confirmation notice from the medical staff, the schedule of the endoscopic examination work is properly implemented.
  • the present invention has been made in view of the above, and it is an object of the present invention to provide an endoscope system, a processor, a control method, and a program capable of considering both efficiency and information security.
  • an endoscope system performs image processing on endoscope image data acquired by an endoscope that observes the inside of a subject
  • An endoscope system comprising: a processor connectable to a plurality of peripheral devices; and a terminal device capable of wirelessly communicating with the processor, wherein the terminal device identifies the terminal device Transmitting identification information and an authentication result indicating whether a user of the terminal device is a registered user registered in advance, the processor identifying, with respect to the terminal device, processor identification information for identifying the processor; A communication unit that transmits authentication information for permitting mutual wireless communication, and receives the terminal identification information and the authentication result from the terminal device, and the authentication result received by the communication unit A connection determination unit that determines whether or not the terminal device is a connection destination capable of mutual wireless communication, and based on the determination result of the connection determination unit and the authentication result, the terminal device and the plurality of peripherals And a communication control unit that permits communication with the device.
  • the processor is connected to a network to which a server for recording a software program regarding setting of each of the plurality of peripheral devices is connected, and the communication control
  • the unit permits communication between the terminal device and the plurality of peripheral devices, the unit causes the communication unit to transmit the software program to the terminal device.
  • the endoscope system further comprises a system controller connected to each of the processor and the plurality of peripheral devices to control driving of the plurality of peripheral devices;
  • the terminal device may further include a setting unit configured to set the plurality of peripheral devices operable by the terminal device via the system controller based on the level assigned to the registered user as the authentication result.
  • the processor further includes a drive control unit which controls driving of the plurality of peripheral devices via the system controller, and one of the plurality of peripheral devices
  • a wireless power feeding device for wirelessly feeding power to the terminal device
  • the drive control unit is configured to allow the communication control unit to allow communication between the terminal device and the plurality of peripheral devices. It is characterized in that the wireless power feeding device is supplied with power to the terminal device through a system controller.
  • the processor further includes a drive control unit configured to control the drive of the plurality of peripheral devices via the system controller, and the drive control unit
  • the communication control unit permits communication between the terminal device and the plurality of peripheral devices
  • the communication unit receives an operation signal for operating any one of the plurality of peripheral devices from the terminal device.
  • the peripheral device is driven according to the operation signal through the system controller.
  • the terminal device can receive an input of a voice command for operating the plurality of peripheral devices by voice input
  • the processor is configured to receive the system controller.
  • a drive control unit configured to control the drive of the plurality of peripheral devices via the communication control unit when the communication control unit permits communication between the terminal device and the plurality of peripheral devices.
  • the terminal device can transmit position information on the position of the terminal device to a predetermined distance, and the processor emits the position information
  • the communication control unit further releases the connection between the terminal device and the plurality of peripheral devices when the position information acquiring unit can not acquire the position information. It is characterized by
  • the terminal device and the processor further include a wireless unit capable of wireless mutual communication with the network, and the wireless unit transmits identification information from the terminal device. , And transmits to the processor connection information as to whether or not mutual wireless communication with the terminal device is possible.
  • the terminal device acquires any one or more of a face image of the user, biometric information of the user, and gesture information of the user Authentication is performed.
  • the terminal device or the wireless unit holds the connection availability determination information, and the terminal device based on the connection availability determination information after the power is turned on. And an automatic connection between the wireless unit and the wireless unit.
  • the processor further includes a notification unit notifying that the communication control unit enables mutual wireless communication between the processor and the terminal device. It is characterized by
  • a processor is a processor that can perform image processing on endoscope image data acquired by an endoscope that observes the inside of a subject, and can be connected to a plurality of peripheral devices,
  • a terminal identification that identifies the processor and authentication information that permits mutual wireless communications are transmitted to a terminal that can communicate wirelessly with the processor, and a terminal identification that identifies the terminal from the terminal
  • a communication unit configured to receive information and an authentication result indicating whether a user of the terminal device is a registered user registered in advance; and the terminal device mutually based on the authentication result received by the communication unit.
  • a connection determination unit that determines whether or not a wireless communication is possible, and the terminal device and the plurality of terminals based on the determination result of the connection determination unit and the authentication result. Characterized in that it comprises a communication control unit that allows communication with the side equipment.
  • an image processing is performed on endoscope image data acquired by an endoscope for observing the inside of a subject, and a processor connectable to a plurality of peripheral devices;
  • a control method executed by an endoscope system including a terminal device capable of wirelessly communicating with a processor, wherein processor identification information for identifying the processor and mutual wireless communication are permitted to the terminal device Transmission step of transmitting authentication information, terminal identification information for identifying the terminal device from the terminal device, and an authentication result indicating whether a user of the terminal device is a registered user registered in advance
  • a program according to the present invention is a processor capable of performing image processing on endoscope image data acquired by an endoscope for observing the inside of a subject, and being capable of connecting to a plurality of peripheral devices, the processor Transmitting, to the endoscope system, a terminal apparatus capable of wirelessly communicating with the terminal apparatus, to the terminal apparatus, processor identification information for identifying the processor and authentication information for permitting mutual wireless communication
  • a terminal identification information for identifying the terminal device from the terminal device and a receiving step of receiving an authentication result indicating whether a user of the terminal device is a registered user registered in advance
  • a connection determination step of determining whether or not the terminal device is a connection destination capable of mutual wireless communication based on the determination result of the connection determination step and the authentication Based on the result, characterized in that to execute a communication control step to allow communication between the terminal device and the plurality of peripheral devices.
  • FIG. 1 is a block diagram showing a functional configuration of an endoscope system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing a functional configuration of a terminal apparatus according to an embodiment of the present invention.
  • FIG. 3 is a flowchart showing an outline of processing executed by a processor according to an embodiment of the present invention.
  • FIG. 4 is a flowchart showing details of the connection process of FIG.
  • FIG. 5 is a flowchart showing the details of the communication driving process of FIG.
  • an endoscope system including an endoscope for imaging a body cavity of a subject such as a patient and displaying an image is taken as an example. explain. Further, the present invention is not limited by the embodiment. Furthermore, in the description of the drawings, the same parts are given the same reference numerals.
  • FIG. 1 is a block diagram showing a functional configuration of an endoscope system according to an embodiment of the present invention.
  • a medical worker including at least a doctor performs endoscopic surgery, endoscopic examination or endoscopic treatment on a subject such as a patient in an operating room 100 in a hospital. It is used when doing.
  • the endoscope system 1 includes an endoscope 2, a processor 3, a wireless unit 4, a terminal device 5, a display device 6, a system controller 7, a voice input unit 8, an ultrasound device 9,
  • the belly device 10, the electric scalpel device 11, the printer 12, the room light 13, the electric operating table 14, and the wireless power feeding device 15 are provided.
  • the endoscope 2 is inserted into a subject.
  • the endoscope 2 is configured using a rigid endoscope or a flexible endoscope.
  • the endoscope 2 emits illumination light to the inside of the subject under the control of the processor 3, and images an area inside the subject irradiated with the illumination light to generate endoscope image data.
  • the generated endoscopic image data is output to the processor 3.
  • the endoscope 2 includes an imaging element 21 that images the inside of a subject to generate image data.
  • the imaging device 21 is configured using an image sensor such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS), an A / D conversion circuit, or the like.
  • CCD charge coupled device
  • CMOS complementary metal oxide semiconductor
  • the endoscope 2 is communicably connected to the processor 3 bi-directionally by wire or wirelessly.
  • the endoscope image data generated by the endoscope 2 may be wirelessly transmitted to the endoscope image data may be sequentially transmitted to the processor 3 via the wireless unit 4 described later, or via the network N100.
  • the endoscope image data may be sequentially transmitted to the server 200 installed in the hospital outside the operating room 100.
  • the processor 3 controls the endoscope 2, performs predetermined image processing on endoscope image data sequentially input from the endoscope 2, and sequentially outputs the endoscope image data to the display device 6.
  • the processor 3 includes a video processing unit 31, a communication unit 32, a recording unit 33, an exchange device information recording unit 34, a position information acquisition unit 35, and a processor control unit 36.
  • the image processing unit 31 performs predetermined image processing on endoscope image data input from the endoscope 2 and outputs the processed image data to the display device 6.
  • the predetermined image processing includes synchronization processing, demosaicing processing (when the imaging device 21 has a Bayer arrangement), white balance adjustment processing, ⁇ correction processing, saturation adjustment processing, format conversion processing, and the like.
  • the video processing unit 31 is configured using a field programmable gate array (FPGA), an application specific integrated circuit (ASIC), a graphics processing unit (GPU), and the like.
  • the communication unit 32 is configured using a communication module, and bidirectionally communicates with the terminal device 5 according to a predetermined communication standard. Further, the communication unit 32 bidirectionally communicates with the server 200 installed in the hospital via the wireless unit 4 or the terminal device 5 or the network N100.
  • a predetermined communication standard Wi-Fi (Wireless Fidelity) (registered trademark) communication, Bluetooth (registered trademark) communication, Bluetooth Low Energy (registered trademark) communication (hereinafter referred to simply as "BLE communication"), etc. is there.
  • the station connects to a wireless network established by the access point It becomes a relationship.
  • the wireless unit 4 which is an access point establishes a wireless network and broadcasts its own network identifier (SSID).
  • the communication unit 32 of the processor 3 which is a station searches for a broadcasted network identifier (SSID), and connects to a desired network (access point). Since a network with many devices is assumed, the coverage is wide, and strict identification steps will be taken while considering the problem of interference. For this reason, connection establishment may take time.
  • data communication can transmit and receive data at the timing of each access point and station.
  • the communication unit 32 may employ communication using 4G wireless.
  • the communication unit 32 performs communication using 3G wireless, communication using 5G wireless, WiMAX (Worldwide Interoperability for Microwave Access (registered trademark) communication, infrared data communication (IrDA (Infrared Data Association) (registered trademark)), etc.
  • WiMAX Worldwide Interoperability for Microwave Access (registered trademark) communication
  • IrDA Infrared Data Association
  • Other communications may be employed.
  • the recording unit 33 records various programs executed by the processor 3, data being processed, endoscopic image data, and the like.
  • the recording unit 33 is configured using a flash memory, a synchronous dynamic random access memory (SDRAM), a memory card, a solid state drive (SSD), and the like.
  • the recording unit 33 stores an authentication information recording unit 331 that records the device address of the device that has authenticated mutual wireless communication and connection determination information, and a processor IP address recording unit 332 that records a processor IP address that identifies the processor 3. And.
  • the exchange device information recording unit 34 wirelessly transmits the exchange time of each device constituting the processor 3 to the device positioned within the predetermined range.
  • the exchange device information recording unit 34 is configured using a wireless tag, for example, an RFID (Radio Frequency Identifier).
  • the position information acquisition unit 35 acquires the position information issued by the terminal device 5.
  • the position information acquisition unit 35 is configured using, for example, an RFID reader or a communication module capable of Bluetooth communication.
  • the processor control unit 36 controls each unit of the processor 3 and each device constituting the endoscope system 1.
  • the processor control unit 36 is configured using a CPU (Central Processing Unit) or the like.
  • the processor control unit 36 includes a connection determination unit 361, a display control unit 362, a communication control unit 363, a setting unit 364, and a drive control unit 365.
  • the connection determination unit 361 determines, based on the terminal IP address transmitted from the terminal device 5 and the authentication result, whether the terminal device 5 is a connection destination capable of mutual wireless communication.
  • the display control unit 362 controls the display mode of the display device 6. Specifically, the display control unit 362 causes the display device 6 to display the endoscopic image corresponding to the endoscopic image data subjected to the image processing by the video processing unit 31. Further, when the mutual wireless communication between the processor 3 and the terminal device 5 is established, the display control unit 362 causes the display device 6 to display information indicating that the processor 3 and the terminal device 5 can communicate with each other wirelessly.
  • the communication control unit 363 permits communication between the terminal device 5 and the plurality of peripheral devices based on the determination result of the connection determination unit 361 and the authentication result transmitted from the terminal device 5.
  • the setting unit 364 sets a plurality of peripheral devices that can be operated by the terminal device 5 via the system controller 7 based on the level assigned to the registered user of the authentication result transmitted from the terminal device 5.
  • the drive control unit 365 controls the drive of the peripheral device by controlling the system controller 7 based on the request signal and the operation signal input from the terminal device 5 via the communication unit 32.
  • the wireless unit 4 is connected to the server 200 via the network N100, and is communicably connected to the processor 3 and the terminal 5 bi-directionally according to a predetermined communication standard.
  • the wireless unit 4 employs Wi-Fi communication.
  • the wireless unit 4 is installed on the periphery of the processor 3, a wall surface in the operating room 100, or the like.
  • the terminal device 5 bi-directionally communicates with the processor 3 according to a predetermined communication standard, and receives and displays the case image data from the server 200 via the endoscope image data generated by the endoscope 2 and the wireless unit 4 Do.
  • the terminal device 5 is a software program of each device constituting the endoscope system 1 from the server 3 connected to the processor 3 or the network N 100 and an endoscope set by a registrant user who can use the terminal device 5 At least one of setting information of each device constituting the system 1 is acquired.
  • the terminal device 5 receives an input of an operation signal or a request signal for operating the operation of each device configuring the endoscope system 1 via the processor 3 or the wireless unit 4. The detailed configuration of the terminal device 5 will be described later.
  • the display device 6 displays an image corresponding to the image data input from the video processing unit 31 and various information of the endoscope system 1 under the control of the display control unit 362.
  • the display device 6 is configured using a display monitor of liquid crystal or organic EL (Electro Luminescence), a speaker that externally outputs sound, or the like.
  • the system controller 7 is connected to the processor 3 by wire or wirelessly, and according to an instruction signal input from the processor 3, the voice input unit 8, the ultrasonic device 9, the insufflation device 10, the electrosurgical device 11, the printer 12, the room light 13.
  • the electric operating table 14 and the wireless power feeder 15 are individually controlled.
  • the system controller 7 is connected to each peripheral device by wire or wirelessly.
  • the system controller 7 is configured using a CPU, a flash memory, and the like.
  • the voice input unit 8 picks up a voice emitted from a sound source or a speaker, converts it into an analog voice signal (electric signal), and converts the voice signal into an A / D signal. Conversion processing and gain adjustment processing are performed to generate digital audio data, which is output to the processor 3 through the system controller 7.
  • the voice input unit 8 is configured using any one microphone of a unidirectional microphone, a nondirectional microphone, and a bidirectional microphone, an A / D conversion circuit, a signal processing circuit, and the like.
  • the ultrasound apparatus 9 is connected to the endoscope 2 and transmits and receives ultrasound via an ultrasound transducer provided at the tip of the endoscope 2 under the control of the system controller 7. In addition, the ultrasound apparatus 9 outputs ultrasound image data based on ultrasound received via the endoscope 2 to the system controller 7. The ultrasound apparatus 9 may generate ultrasound image data of the subject via a dedicated ultrasound probe.
  • the insufflation apparatus 10 delivers insufflation gas such as carbon dioxide into the subject.
  • the electric knife device 11 drives the electric knife by applying a predetermined voltage to the electric knife under the control of the system controller 7.
  • the printer 12 outputs an image corresponding to the image data input from the processor 3 under the control of the system controller 7.
  • a plurality of room lights 13 are provided in the operating room 100, and project light from the subject or the operating room 100 at a predetermined illuminance under the control of the system controller 7.
  • the room light 13 is configured using an LED (Light Emitting Diode) lamp, a light adjustment switch, and the like.
  • the electrically operated operating table 14 changes the position and posture of the subject by moving the operating table in the vertical direction and the horizontal direction under the control of the system controller 7.
  • the electrically operated operating table 14 is configured using a vertically and horizontally movable operating table and a drive unit such as a motor for driving the operating table.
  • the wireless power feeding device 15 wirelessly feeds power to the terminal device 5 under the control of the system controller 7.
  • the wireless power supply device 15 is configured using any one of an electromagnetic induction method, a magnetic field resonance method, an electrolytic coupling method, and a radio wave transmission and reception method.
  • the server 200 is installed in a hospital outside the operating room 100, associates and records endoscopic image data transmitted from the processor 3 or the terminal device 5 via the network N100 with a patient ID for identifying a patient.
  • server 200 receives an image request signal for requesting case image data and endoscopic image data via network N 100 or wireless unit 4, the case image is sent to processor 3 or terminal device 5 that issued the image request signal.
  • the endoscopic image data includes moving image data and still image data (captured image data).
  • FIG. 2 is a block diagram showing a functional configuration of the terminal device 5.
  • the terminal device 5 shown in FIG. 2 includes a battery unit 50, a communication unit 51, an imaging unit 52, a fingerprint information detection unit 53, a voice input unit 54, a display unit 55, a recording unit 56, and an operation unit 57. And an exchange device information acquisition unit 58, a position information transmission unit 59, and a terminal control unit 60.
  • the battery unit 50 includes a battery 501 for supplying power to each unit constituting the terminal device 5, and a receiving unit 502 for receiving the electromagnetic wave fed from the wireless power supply device 15, converting it into a current and supplying it to the battery 501.
  • a battery 501 for supplying power to each unit constituting the terminal device 5
  • a receiving unit 502 for receiving the electromagnetic wave fed from the wireless power supply device 15, converting it into a current and supplying it to the battery 501.
  • the communication unit 51 is configured using a communication module, and bidirectionally communicates with the processor 3 in accordance with a predetermined communication standard.
  • the communication unit 51 bidirectionally communicates with the server 200 via the wireless unit 4 and the in-hospital network N100.
  • Wi-Fi communication is assumed as the predetermined communication standard.
  • the communication unit 51 may adopt communication using 4G wireless.
  • the communication unit 51 may adopt other communication such as Bluetooth communication, BLE communication, communication using 3G wireless, communication using 5G wireless, WiMAX communication, infrared communication, and the like.
  • the imaging unit 52 captures an image of the user of the terminal device 5 under the control of the terminal control unit 60 to generate image data, and outputs the image data to the terminal control unit 60.
  • the imaging unit 52 is configured using an image sensor such as a CCD or a CMOS, an A / D conversion process, an image processing engine realized using an FPGA or a GPU, or the like.
  • the imaging unit 52 is provided with an infrared lamp capable of emitting infrared light and an image sensor provided with a pixel capable of capturing infrared light emitted by the infrared lamp, whereby the user's face surface is provided. You may make it acquire the unevenness of.
  • the fingerprint information detection unit 53 detects fingerprint information of the finger of the user touched from the outside, and outputs the detection result to the terminal control unit 60.
  • the fingerprint information detection unit 53 is configured using a fingerprint sensor.
  • the fingerprint information detection unit 53 may be, for example, a slide type other than the press type. Of course, the fingerprint information detection unit 53 may detect the vein of the user in addition to the fingerprint.
  • the voice input unit 54 picks up a voice emitted from a sound source or a speaker and converts it into an analog voice signal (electric signal). D-conversion processing and gain adjustment processing are performed to generate digital audio data and output to the terminal control unit 60.
  • the voice input unit 54 is configured using a microphone of any one of a unidirectional microphone, a nondirectional microphone and a bidirectional microphone, an A / D conversion circuit, a signal processing circuit, and the like.
  • the display unit 55 displays the image data and various information input from the terminal control unit 60.
  • the display unit 55 is configured using a display panel such as a liquid crystal or an organic EL.
  • the recording unit 56 records various programs executed by the terminal device 5, data being processed, image data, and the like.
  • the recording unit 56 is configured using a flash memory, an SSD, a memory card, and the like.
  • the recording unit 56 includes an authentication information recording unit 561 and a terminal IP address recording unit 562 that records a terminal IP address for identifying the terminal device 5.
  • the operation unit 57 receives an input of an instruction signal according to an operation from the user.
  • the operation unit 57 is configured using a touch panel, a button, a switch, and the like.
  • the switching device information acquisition unit 58 acquires the radio transmitted from the switching device information recording unit 34 provided in the processor 3 and outputs the radio to the terminal control unit 60.
  • the exchange device information acquisition unit 58 is configured using an RFID reader.
  • the position information transmitting unit 59 transmits position information on the position of the terminal device 5 up to a predetermined distance. Specifically, the position information transmitting unit 59 transmits the position information up to a reachable distance in the operating room 100.
  • the position information transmitting unit 59 is configured using, for example, a communication module capable of RFID or Bluetooth communication.
  • the terminal control unit 60 centrally controls the respective units constituting the terminal device 5.
  • the terminal control unit 60 also analyzes the voice data input from the voice input unit 54, generates a voice command based on the analysis result, and transmits the voice command to the processor 3.
  • the terminal control unit 60 is configured using a CPU or the like.
  • the terminal control unit 60 includes a connection determination unit 601, an authentication unit 602, a communication control unit 603, a display control unit 604, a recording control unit 605, and an imaging control unit 606.
  • the connection determination unit 601 determines, based on the authentication information received by the communication unit 51 from the processor 3, whether or not the processor 3 is a connection destination capable of mutual wireless communication.
  • the authentication unit 602 authenticates whether the user of the terminal device 5 is a registered user registered in advance. Specifically, the authentication unit 602 performs authentication by acquiring one or more of the face image of the user of the terminal device 5, the biometric information of the user, and the gesture information of the user. For example, the authentication unit 602 determines whether the feature of the user's face image shown in the image corresponding to the image data generated by the imaging unit 52 matches the feature of the registered user's face recorded by the recording unit 56 or not. judge.
  • Communication control unit 603 permits mutual wireless communication between processor 3 and terminal device 5 or mutual wireless communication between network N 100 and terminal device 5 based on the determination result of connection determination unit 601 and the authentication result of authentication unit 602. .
  • the display control unit 604 controls the display mode of the display unit 55. Specifically, the display control unit 604 causes the display unit 55 to display the endoscopic image corresponding to the endoscopic image data and the case image corresponding to the case image data in a comparable manner.
  • the recording control unit 605 causes the recording unit 56 to record the patient circulation time and the endoscopic image data included in the schedule information acquired by the communication control unit 603 in association with each other.
  • the imaging control unit 606 enables the imaging function of the imaging unit 52 by the user of the terminal device 5 when the authentication unit 602 authenticates that the user is a registered user.
  • FIG. 3 is a flowchart showing an outline of processing executed by the processor 3.
  • the processor 3 executes connection processing for making a connection for bi-directional communication with the terminal device 5 (step S101). After step S101, the processor 3 proceeds to step S102 described later.
  • FIG. 4 is a flowchart showing details of the connection process.
  • the communication control unit 363 transmits a processor IP address (SSID) and authentication information to the terminal device 5 via the communication unit 32 (step S201).
  • the authentication information is information for requesting an authentication result of the authentication unit 602 that functions as a password for performing the mutual wireless communication of the terminal device 5.
  • step S202: Yes when the terminal IP address and the authentication result authenticated by the authentication unit 602 are received from the terminal device 5 via the communication unit 32 (step S202: Yes), the processor 3 proceeds to step S203 described later.
  • step S202: No when the terminal IP address and the authentication result authenticated by the authentication unit 602 are not received from the terminal device 5 via the communication unit 32 (step S202: No), the processor 3 proceeds to the main routine of FIG. Return.
  • the connection determination unit 361 determines whether or not the terminal device 5 is a connection destination capable of mutual wireless communication based on the terminal IP address received by the communication unit 32 and the authentication result authenticated by the authentication unit 602. (Step S203). Specifically, the connection determination unit 361 determines whether the terminal IP address received by the communication unit 32, the authentication result authenticated by the authentication unit 602, and the authentication information recorded by the authentication information recording unit 331 match. When they match, it is determined that the terminal device 5 is a connection destination capable of mutual wireless communication, while when they do not match, it is determined that the terminal device 5 is not a connection destination capable of mutual wireless communication.
  • connection determination unit 361 determines that the terminal device 5 is a connection destination capable of mutual wireless communication (step S203: Yes)
  • the processor 3 proceeds to step S204 described later.
  • the connection determination unit 361 determines that the terminal device 5 is not a connection destination capable of mutual wireless communication (step S203: No)
  • the processor 3 proceeds to step S206 described later.
  • step S204 the communication control unit 363 connects the processor 3 and the terminal device 5 so as to allow mutual communication.
  • the processor 3 is in a state capable of communicating with the terminal device 5.
  • the display control unit 362 may cause the display device 6 to display that mutual wireless communication between the processor 3 and the terminal device 5 is possible. That is, the display control unit 362 functions as a notification unit.
  • the setting unit 364 causes each of the plurality of peripheral devices that can be operated by the terminal device 5 via the system controller 7. Communication connection is set (step S205). Specifically, when the level of the registered user is a doctor level, the setting unit 364 sets peripheral devices operable via the terminal device 5 to be operable by all peripheral devices, while the registered user If the level of nurses is the nurse level, peripheral devices that can be operated via the terminal device 5 are set to only predetermined peripheral devices, eg peripheral devices not related to surgery, more specifically printer 12, room light 13, wireless power supply The apparatus 15 and the like are set to be operable. Of course, the setting unit 364 may set peripheral devices that can be operated by the terminal device 5 in more detail based on the level of the registered user. After step S205, the processor 3 returns to the main routine of FIG.
  • step S206 the display control unit 362 causes the display device 6 to display a warning that the terminal device 5 is not a connection destination capable of mutual wireless communication.
  • the display control unit 362 causes the display device 6 to display a warning that the terminal device 5 is not a connection destination capable of mutual wireless communication, for example, connection where the terminal device 5 can mutually wirelessly communicate with a speaker (not shown) You may alert
  • the processor 3 returns to the main routine of FIG.
  • step S102 when the processor 3 and the terminal device 5 are in the mutual communication state (step S102: Yes), the processor 3 performs a communication driving process to drive the peripheral device according to the operation of the terminal device 5 receiving the input. Execute (step S103). After step S103, the processor 3 proceeds to step S104 described later. On the other hand, when the processor 3 and the terminal device 5 are not in the mutual communication state (step S102: No), the processor 3 ends the present process.
  • FIG. 5 is a flowchart for explaining the details of the communication driving process.
  • the communication control unit 363 causes the terminal device 5 to transmit the software program of the peripheral device and the processor 3 to the communication unit 32 (step S301).
  • the software program besides the update of the peripheral device and the program of the processor 3, the setting parameter of the initial value in the peripheral device and the setting parameter set by the user of the terminal device 5 in the peripheral device at the previous operation are stored. Configuration information is included.
  • the drive control unit 365 transmits a power supply permission signal to the wireless power supply apparatus 15 via the system controller 7 (step S302). Thereby, power can be supplied to the terminal device 5 located in the operating room 100.
  • step S303: Yes the processor 3 proceeds to step S304 described later.
  • step S303: No the processor 3 proceeds to step S307 described later.
  • step S304 when the operation signal received from the terminal device 5 is the peripheral device of the control permission by the setting of the setting unit 364 (step S304: Yes), the drive control unit 365 sends the peripheral device according to the operation signal. And control according to the operation signal (step S305). For example, when the operation signal is an operation signal for changing the illuminance of the room light 13, the drive control unit 365 changes the illuminance of the room light 13 via the system controller 7. After step S305, the processor 3 proceeds to step S307 described later.
  • step S304 when the operation signal received from the terminal device 5 is not a peripheral device permitted to be controlled by the setting of the setting unit 364 (step S304: No), the communication control unit 363 responds to the operation signal to the terminal device 5. An operation disable signal indicating that the peripheral device can not be operated is transmitted to the communication unit 32 (step S306). After step S306, the processor 3 proceeds to step S307 described later.
  • step S307 when the communication unit 32 receives a voice command for operating a peripheral device from the terminal device 5 (step S307: Yes), the processor 3 proceeds to step S308 described later. On the other hand, when the communication unit 32 has not received a voice command for operating the peripheral device from the terminal device 5 (step S307: No), the processor 3 returns to the main routine of FIG.
  • step S308 when the voice command received from the terminal device 5 is a peripheral device of the control permission by the setting of the setting unit 364 (step S308: Yes), the drive control unit 365 applies the peripheral device according to the voice command. And control according to the voice command (step S309).
  • the voice command is an instruction to change the illuminance of the room light 13
  • the drive control unit 365 changes the illuminance of the room light 13 via the system controller 7.
  • the processor 3 returns to the main routine of FIG.
  • step S308 when the voice command received from the terminal device 5 is not a peripheral device of control permission by the setting of the setting unit 364 (step S308: No), the communication control portion 363 responds to the voice command to the terminal device 5. An operation disable signal indicating that the peripheral device can not be operated is transmitted to the communication unit 32 (step S310). After step S310, the processor 3 returns to the main routine of FIG.
  • step S104 the position information acquisition unit 35 acquires the position information of the terminal device 5. Specifically, the positional information acquisition unit 35 acquires positional information of the terminal device 5 by receiving a radio wave emitted from the positional information transmission unit 59 of the terminal device 5.
  • the connection determination unit 361 determines whether the terminal device 5 is located within a predetermined distance from the processor 3 based on the position information of the terminal device 5 acquired by the position information acquisition unit 35 (step S105). ). Specifically, the connection determination unit 361 determines whether or not the position information acquisition unit 35 has acquired the position information of the terminal device 5. If the connection determination unit 361 determines that the terminal device 5 is located within the predetermined distance from the processor 3 (step S105: Yes), the processor 3 proceeds to step S106 described later. On the other hand, when the connection determination unit 361 determines that the terminal device 5 is not positioned within the predetermined distance from the processor 3 (step S105: No), the processor 3 proceeds to step S107 described later.
  • step S106 when the instruction
  • step S107 the communication control unit 363 cancels the connection of the communication state between the processor 3 and the terminal device 5. Thereby, even when the terminal device 5 moves out of the operating room 100, it is possible to prevent peripheral devices from being operated by remote control.
  • step S107 the processor 3 proceeds to step S108 described later.
  • step S108 the communication control unit 363 records the terminal IP address of the terminal device 5 in the recording unit 33. Thereby, when the terminal device 5 is powered on in the operating room 100, the communication state between the processor 3 and the terminal device 5 can be immediately connected. After step S108, the processor 3 ends the present process.
  • the processor 3 and the terminal device 5 Because it permits mutual wireless communication with, both efficiency and information security can be considered.
  • the communication control unit 363 when communication between the terminal device 5 and the plurality of peripheral devices is permitted, the communication control unit 363 causes the terminal device 5 to transmit the software program to the communication unit 32. Therefore, each time, it is possible to quickly operate the peripheral device using the terminal device 5 without setting the parameter of the peripheral device.
  • the terminal device 5 operates as a system controller based on the level assigned to the registered user of the authentication result of the authentication unit 602 transmitted from the terminal device 5 by the setting unit 364. Since a plurality of peripheral devices operable through 7 are set, security can be set according to the user.
  • the drive control unit 365 transmits the wireless power supply device via the system controller 7. Since power is supplied to the terminal device 5 at 15, it is possible to prevent power being supplied to the terminal device 5 whose security is not ensured.
  • the communication unit 32 transmits from the terminal device 5 to the plurality of peripheral devices.
  • the drive control unit 365 drives the peripheral device corresponding to the operation signal via the system controller 7, so security can be secured.
  • the communication unit 32 transmits from the terminal device 5 to the plurality of peripheral devices.
  • the drive control unit 365 drives the peripheral device corresponding to the voice command via the system controller 7, so security can be ensured.
  • the communication control unit 363 releases the connection between the terminal device 5 and the plurality of peripheral devices. Therefore, even when the terminal device 5 moves out of the operating room 100, it is possible to prevent remote control from the outside, so security can be ensured.
  • the wireless unit 4 when the wireless unit 4 receives terminal IP address information from the terminal device 5, the terminal device is connectability determination information indicating whether mutual wireless communication with the terminal device 5 is possible. May be sent to 5. Thereby, the endoscope system 1 can be operated by the terminal device 5 via the wireless unit 4.
  • the wireless unit 4 holds the connection availability determination information, and automatically connects the terminal device 5 to the wireless unit 4 based on the connection availability determination information after the terminal device 5 is powered on. You may This can improve the operability.
  • the terminal device 5 may automatically connect the terminal device 5 and the wireless unit 4 based on the connection availability determination information after the terminal device 5 is powered on.
  • the processor is provided with the light source device, but may be formed separately.
  • the endoscope system is used.
  • a capsule endoscope, a video microscope for imaging an object, a mobile phone having an imaging function, and a tablet type having an imaging function Even a terminal can be applied.
  • the endoscope system is provided with a medical endoscope.
  • the present invention can be applied to an endoscope system provided with an industrial endoscope. it can.
  • the “unit” described above can be read as “means”, “circuit” or the like.
  • the control unit can be read as control means or a control circuit.
  • the program to be executed in the embodiment of the present invention is file data of an installable format or an executable format, such as CD-ROM, flexible disk (FD), CD-R, DVD (Digital Versatile Disk), USB It is recorded and provided on a computer-readable recording medium such as a medium, flash memory, and the like.
  • a computer-readable recording medium such as a medium, flash memory, and the like.
  • the program to be executed in the embodiment of the present invention may be stored on a computer connected to a network such as the Internet, and may be provided by being downloaded via the network. Furthermore, the program to be executed by the embodiment of the present invention may be provided or distributed via a network such as the Internet.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computer Security & Cryptography (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Manufacturing & Machinery (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computing Systems (AREA)
  • Astronomy & Astrophysics (AREA)
  • Multimedia (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Stored Programmes (AREA)

Abstract

効率化と情報セキュリティの両者を考慮することができる内視鏡システム、プロセッサ、制御方法およびプログラムを提供する。プロセッサ3は、端末装置5に対して、プロセッサ3を識別するプロセッサ識別情報および相互無線通信を許可する認証情報を送信するとともに、端末装置5から端末識別情報および認証結果を受信する通信部32と、通信部32が受信した認証結果に基づいて、端末装置5が相互無線通信可能な接続先であるか否かを判定する接続判定部361と、接続判定部361の判定結果および認証結果に基づいて、端末装置5と複数の周辺機器との通信を許可する通信制御部363と、を備える。

Description

内視鏡システム、プロセッサ、制御方法およびプログラム
 本発明は、被検体内に内視鏡を挿入して該被検体の体内を撮像した画像データを表示する内視鏡システム、プロセッサ、制御方法およびプログラムに関する。
 近年、内視鏡の検査業務を支援するシステムにおいて、内視鏡の検査スケジュールおよび洗浄スケジュールの各々を設定し、医師を含む医療従事者に対して、そのスケジュールに通知することで検査関連業務および洗浄関連業務を支援する技術が知られている(特許文献1参照)。この技術では、検査スケジュールに含まれる検査開始予定時刻情報で指定される時刻と、医療従事者が検査開始前に実施する行為内容を通知するタイミング情報とに基づいて、決定された通知タイミングで行為内容を通知した後に、医療従事者から確認通知を受け取ることで、内視鏡検査業務のスケジュールを適切に実施させる。
特開2017-117295号公報
 ところで、従来の内視鏡システムでは、画像処理を行うプロセッサを中心として各システムの制御を行っているため、取り扱い性の面から効率が悪く、さらなる効率の改善が求められていた。さらに、近年の内視鏡システムでは、手術室内における情報セキュリティの面からの要求レベルも上がってきている。このため、さらなる効率化と情報セキュリティの両者を考慮した内視鏡システムを構築することができる技術が求められていた。
 本発明は、上記に鑑みてなされたものであって、効率化と情報セキュリティの両者を考慮することができる内視鏡システム、プロセッサ、制御方法およびプログラムを提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明に係る内視鏡システムは、被検体内を観察する内視鏡が取得した内視鏡画像データに対して画像処理を施すとともに、複数の周辺機器に対して接続可能なプロセッサと、前記プロセッサに対して無線で通信可能な端末装置と、を備えた内視鏡システムであって、前記端末装置は、当該端末装置を識別する端末識別情報および当該端末装置の使用者が予め登録された登録使用者であるか否かを示す認証結果を送信し、前記プロセッサは、前記端末装置に対して、当該プロセッサを識別するプロセッサ識別情報および相互無線通信を許可する認証情報を送信するとともに、前記端末装置から前記端末識別情報および前記認証結果を受信する通信部と、前記通信部が受信した前記認証結果に基づいて、前記端末装置が相互無線通信可能な接続先であるか否かを判定する接続判定部と、前記接続判定部の判定結果および前記認証結果に基づいて、前記端末装置と前記複数の周辺機器との通信を許可する通信制御部と、を備えることを特徴とする。
 また、本発明に係る内視鏡システムは、上記発明において、前記プロセッサは、前記複数の周辺機器の各々の設定に関するソフトウェアプログラムを記録するサーバが接続されたネットワークに対して接続され、前記通信制御部は、前記端末装置と前記複数の周辺機器との通信を許可した場合、前記端末装置に対して、前記ソフトウェアプログラムを前記通信部に送信させることを特徴とする。
 また、本発明に係る内視鏡システムは、上記発明において、前記プロセッサおよび前記複数の周辺機器の各々に接続され、前記複数の周辺機器の駆動を制御するシステムコントローラをさらに備え、前記プロセッサは、前記認証結果の前記登録使用者に割当てらたれたレベルに基づいて、前記端末装置が前記システムコントローラを介して操作可能な前記複数の周辺機器を設定する設定部をさらに備えることを特徴とする。
 また、本発明に係る内視鏡システムは、上記発明において、前記プロセッサは、前記システムコントローラを介して前記複数の周辺機器の駆動を制御する駆動制御部をさらに備え、前記複数の周辺機器の1つは、前記端末装置に対して無線で給電する無線給電装置であり、前記駆動制御部は、前記通信制御部が前記端末装置と前記複数の周辺機器との通信を許可している場合、前記システムコントローラを介して前記無線給電装置に前記端末装置へ給電させることを特徴とする。
 また、本発明に係る内視鏡システムは、上記発明において、前記プロセッサは、前記システムコントローラを介して前記複数の周辺機器の駆動を制御する駆動制御部をさらに備え、前記駆動制御部は、前記通信制御部が前記端末装置と前記複数の周辺機器との通信を許可している場合において、前記通信部が前記端末装置から前記複数の周辺機器のいずれか1つを操作する操作信号を受信したとき、前記システムコントローラを介して前記操作信号に応じた前記周辺機器を駆動することを特徴とする。
 また、本発明に係る内視鏡システムは、上記発明において、前記端末装置は、前記複数の周辺機器を音声入力によって操作する音声コマンドの入力を受け付け可能であり、前記プロセッサは、前記システムコントローラを介して前記複数の周辺機器の駆動を制御する駆動制御部をさらに備え、前記駆動制御部は、前記通信制御部が前記端末装置と前記複数の周辺機器との通信を許可している場合において、前記通信部が前記端末装置から前記音声コマンドを受信したとき、前記システムコントローラを介して前記音声コマンドに応じた前記周辺機器を駆動することを特徴とする。
 また、本発明に係る内視鏡システムは、上記発明において、前記端末装置は、当該端末装置の位置に関する位置情報を所定の距離まで発信可能であり、前記プロセッサは、前記端末装置が発した前記位置情報を取得可能な位置情報取得部をさらに備え、前記通信制御部は、前記位置情報取得部が前記位置情報を取得できなくなった場合、前記端末装置と前記複数の周辺機器との接続を解除することを特徴とする。
 また、本発明に係る内視鏡システムは、上記発明において、ネットワークに接続され、前記端末装置および前記プロセッサに無線相互通信可能なワイヤレスユニットをさらに備え、前記ワイヤレスユニットは、前記端末装置から識別情報を受信した場合、前記端末装置と相互無線通信可能であるか否かを示す接続可否判定情報を前記プロセッサへ送信することを特徴とする。
 また、本発明に係る内視鏡システムは、上記発明において、前記端末装置は、前記使用者の顔画像、前記使用者の生体情報および前記使用者のジェスチャ情報のいずれか1つ以上を取得して認証を行うことを特徴とする。
 また、本発明に係る内視鏡システムは、上記発明において、前記端末装置または前記ワイヤレスユニットは、前記接続可否判定情報を保持するとともに、電源投入後に前記接続可否判定情報に基づいて、前記端末装置と前記ワイヤレスユニットとの自動接続を行うことを特徴とする。
 また、本発明に係る内視鏡システムは、上記発明において、前記プロセッサは、前記通信制御部によって前記プロセッサと当該端末装置との相互無線通信が可能であることを報知する報知部をさらに備えることを特徴とする。
 また、本発明に係るプロセッサは、被検体内を観察する内視鏡が取得した内視鏡画像データに対して画像処理を施すとともに、複数の周辺機器に対して接続可能なプロセッサであって、当該プロセッサに対して無線で通信可能な端末装置に対して、当該プロセッサを識別するプロセッサ識別情報および相互無線通信を許可する認証情報を送信するとともに、前記端末装置から前記端末装置を識別する端末識別情報および前記端末装置の使用者が予め登録された登録使用者であるか否かを示す認証結果を受信する通信部と、前記通信部が受信した前記認証結果に基づいて、前記端末装置が相互無線通信可能な接続先であるか否かを判定する接続判定部と、前記接続判定部の判定結果および前記認証結果に基づいて、前記端末装置と前記複数の周辺機器との通信を許可する通信制御部と、を備えることを特徴とする。
 また、本発明に係る制御方法は、被検体内を観察する内視鏡が取得した内視鏡画像データに対して画像処理を施すとともに、複数の周辺機器に対して接続可能なプロセッサと、前記プロセッサに対して無線で通信可能な端末装置と、を備えた内視鏡システムが実行する制御方法であって、前記端末装置に対して、当該プロセッサを識別するプロセッサ識別情報および相互無線通信を許可する認証情報を送信する送信ステップと、前記端末装置から前記端末装置を識別する端末識別情報および前記端末装置の使用者が予め登録された登録使用者であるか否かを示す認証結果を受信する受信ステップと、前記認証結果に基づいて、前記端末装置が相互無線通信可能な接続先であるか否かを判定する接続判定ステップと、前記接続判定ステップの判定結果および前記認証結果に基づいて、前記端末装置と前記複数の周辺機器との通信を許可する通信制御ステップと、を含むことを特徴とする。
 また、本発明に係るプログラムは、被検体内を観察する内視鏡が取得した内視鏡画像データに対して画像処理を施すとともに、複数の周辺機器に対して接続可能なプロセッサと、前記プロセッサに対して無線で通信可能な端末装置と、を備えた内視鏡システムに、前記端末装置に対して、当該プロセッサを識別するプロセッサ識別情報および相互無線通信を許可する認証情報を送信する送信ステップと、前記端末装置から前記端末装置を識別する端末識別情報および前記端末装置の使用者が予め登録された登録使用者であるか否かを示す認証結果を受信する受信ステップと、前記認証結果に基づいて、前記端末装置が相互無線通信可能な接続先であるか否かを判定する接続判定ステップと、前記接続判定ステップの判定結果および前記認証結果に基づいて、前記端末装置と前記複数の周辺機器との通信を許可する通信制御ステップと、を実行させることを特徴とする。
 本発明によれば、効率化と情報セキュリティの両者を考慮することができるという効果を奏する。
図1は、本発明の一実施の形態に係る内視鏡システムの機能構成を示すブロック図である。 図2は、本発明の一実施の形態に係る端末装置の機能構成を示すブロック図である。 図3は、本発明の一実施の形態に係るプロセッサが実行する処理の概要を示すフローチャートである。 図4は、図3の接続処理の詳細を示すフローチャートである。 図5は、図3の通信駆動処理の詳細を示すフローチャートである。
 以下、本発明を実施するための形態(以下、「実施の形態」という)として、患者等の被検体の体腔内を撮像して画像を表示する内視鏡を備える内視鏡システムを例に説明する。また、この実施の形態により、この発明が限定されるものではない。さらに、図面の記載において、同一部分には同一の符号を付している。
 〔内視鏡システムの構成〕
 図1は、本発明の一実施の形態に係る内視鏡システムの機能構成を示すブロック図である。図1に示す内視鏡システム1は、病院内の手術室100内において、少なくとも医者を含む医療従事者が患者等の被検体に内視鏡外科手術、内視鏡検査または内視鏡治療を行う際に用いられる。内視鏡システム1は、内視鏡2と、プロセッサ3と、ワイヤレスユニット4と、端末装置5と、表示装置6と、システムコントローラ7と、音声入力部8と、超音波装置9と、気腹装置10と、電気メス装置11と、プリンタ12と、ルームライト13と、電動手術台14と、無線給電装置15と、を備える。
 まず、内視鏡2の構成について説明する。内視鏡2は、被検体に挿入される。内視鏡2は、硬性内視鏡または軟性内視鏡を用いて構成される。内視鏡2は、プロセッサ3の制御のもと、被検体内に対して照明光を照射するとともに、照明光が照射された被検体内の領域を撮像して内視鏡画像データを生成し、この生成した内視鏡画像データをプロセッサ3へ出力する。内視鏡2は、被検体内を撮像して画像データを生成する撮像素子21を備える。撮像素子21は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)のイメージセンサやA/D変換回路等を用いて構成される。なお、内視鏡2は、有線または無線によってプロセッサ3に双方向に通信可能に接続される。また、内視鏡2が生成した内視鏡画像データを無線によって送信する場合、後述するワイヤレスユニット4を介してプロセッサ3に内視鏡画像データを順次送信してもよいし、ネットワークN100を介して手術室100外の院内に設置されたサーバ200に内視鏡画像データを順次送信してもよい。
 次に、プロセッサ3の構成について説明する。プロセッサ3は、内視鏡2を制御するとともに、内視鏡2から順次入力された内視鏡画像データに対して所定の画像処理を行って表示装置6へ順次出力する。プロセッサ3は、映像処理部31と、通信部32と、記録部33と、交換デバイス情報記録部34と、位置情報取得部35と、プロセッサ制御部36と、を備える。
 映像処理部31は、内視鏡2から入力された内視鏡画像データに対して所定の画像処理を行って表示装置6へ出力する。ここで、所定の画像処理とは、同時化処理、デモザイキング処理(撮像素子21がベイヤー配列の場合)、ホワイトバランス調整処理、γ補正処理、彩度調整処理およびフォーマット変換処理等である。映像処理部31は、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)およびGPU(Graphics Processing Unit)等を用いて構成される。
 通信部32は、通信モジュールを用いて構成され、所定の通信規格に従って端末装置5と双方向に通信を行う。また、通信部32は、ワイヤレスユニット4を介して端末装置5またはネットワークN100を介して院内に設置されたサーバ200と双方向に通信を行う。ここで、所定の通信規格としては、Wi-Fi(Wireless Fidelity)(登録商標)通信、Bluetooth(登録商標)通信およびBluetooth Low Energy(登録商標)通信(以下、単に「BLE通信」という)等である。例えば、Wi-Fiの場合、ローカルネットワークを想定し、機器の役割として、アクセスポイント、ステーションの関係があり、概略の接続処理としては、アクセスポイントが構築している無線ネットワークに、ステーションが接続する関係となる。大まかな接続シーケンスとしては、まず、アクセスポイントであるワイヤレスユニット4は、無線ネットワークを構築し、自分のネットワーク識別子(SSID)を報知する。続いて、ステーションであるプロセッサ3の通信部32は、報知されているネットワーク識別子(SSID)を検索し、所望のネットワーク(アクセスポイント)に接続する。多くの機器とのネットワークを想定するので、カバー範囲も広く、干渉の問題を考慮しながら厳密な識別ステップを踏むことになる。このため、接続確立に時間がかかることがある。ただし、データ通信は、アクセスポイント、ステーションそれぞれのタイミングでデータの送受信が可能である。なお、通信部32は、Wi-Fi通信以外に、4G無線を利用した通信を採用してもよい。もちろん、通信部32は、3G無線を利用した通信、5G無線を利用した通信およびWiMAX(Worldwide Interoperability for Microwave Access)(登録商標)通信および赤外線通信(IrDA(Infrared Data Association)(登録商標))等、他の通信を採用してもよい。
 記録部33は、プロセッサ3が実行する各種プログラム、処理中のデータおよび内視鏡画像データ等を記録する。記録部33は、Flashメモリ、SDRAM(Synchronous Dynamic Random Access Memory)、メモリカードおよびSSD(Solid State Drive)等を用いて構成される。また、記録部33は、相互無線通信を認証した機器の機器アドレスと接続可否判定情報とを記録する認証情報記録部331と、プロセッサ3を識別するプロセッサIPアドレスを記録するプロセッサIPアドレス記録部332と、を有する。
 交換デバイス情報記録部34は、プロセッサ3を構成する各デバイスの交換時期を所定の範囲内に位置する機器に無線によって送信する。交換デバイス情報記録部34は、無線タグ、例えばRFID(Radio Frequency Identifier)を用いて構成される。
 位置情報取得部35は、端末装置5が発した位置情報を取得する。位置情報取得部35は、例えばRFIDリーダやBluetooth通信可能な通信モジュールを用いて構成される。
 プロセッサ制御部36は、プロセッサ3の各部および内視鏡システム1を構成する各装置を制御する。プロセッサ制御部36は、CPU(Central Processing Unit)等を用いて構成される。プロセッサ制御部36は、接続判定部361と、表示制御部362と、通信制御部363と、設定部364と、駆動制御部365と、を有する。
 接続判定部361は、端末装置5から送信された端末IPアドレスと認証結果とに基づいて、端末装置5が相互無線通信可能な接続先であるか否かを判定する。
 表示制御部362は、表示装置6の表示態様を制御する。具体的には、表示制御部362は、映像処理部31が画像処理を施した内視鏡画像データに対応する内視鏡画像を表示装置6に表示させる。また、表示制御部362は、プロセッサ3と端末装置5との相互無線通信が確立された場合、プロセッサ3と端末装置5とが相互無線通信可能である旨の情報を表示装置6に表示させる。
 通信制御部363は、接続判定部361の判定結果および端末装置5から送信された認証結果に基づいて、端末装置5と複数の周辺機器との通信を許可する。
 設定部364は、端末装置5から送信された認証結果の登録使用者に割当てらたれたレベルに基づいて、端末装置5がシステムコントローラ7を介して操作可能な複数の周辺機器を設定する。
 駆動制御部365は、通信部32を介して端末装置5から入力された要求信号や操作信号に基づいて、システムコントローラ7を制御することによって、周辺機器の駆動を制御する。
 次に、ワイヤレスユニット4の構成について説明する。ワイヤレスユニット4は、ネットワークN100を介してサーバ200に接続されるとともに、プロセッサ3および端末装置5と所定の通信規格に従って双方向に通信可能に接続される。ワイヤレスユニット4は、Wi-Fi通信を採用している。また、ワイヤレスユニット4は、プロセッサ3の周辺や手術室100内の壁面等に設置される。
 次に、端末装置5の構成について説明する。端末装置5は、プロセッサ3と所定の通信規格に従って双方向に通信するとともに、内視鏡2が生成した内視鏡画像データおよびワイヤレスユニット4を介してサーバ200から症例画像データを受信して表示する。また、端末装置5は、プロセッサ3またはネットワークN100に接続されたサーバ200から内視鏡システム1を構成する各機器のソフトウェアプログラムおよび端末装置5を使用可能な登録者使用者が設定した内視鏡システム1を構成する各機器の設定情報の少なくとも一方を取得する。さらに、端末装置5は、プロセッサ3またはワイヤレスユニット4を介して内視鏡システム1を構成する各機器の動作を操作するための操作信号や要求信号の入力を受け付ける。なお、端末装置5の詳細な構成は、後述する。
 次に、表示装置6の構成について説明する。表示装置6は、表示制御部362の制御のもと、映像処理部31から入力された画像データに対応する画像および内視鏡システム1の各種情報を表示する。表示装置6は、液晶または有機EL(Electro Luminescence)の表示モニタおよび音声を外部に出力するスピーカ等を用いて構成される。
 システムコントローラ7は、プロセッサ3に有線または無線によって接続され、プロセッサ3から入力された指示信号に従って、音声入力部8、超音波装置9、気腹装置10、電気メス装置11、プリンタ12、ルームライト13、電動手術台14および無線給電装置15の各々を個別に制御する。以下、音声入力部8、超音波装置9、気腹装置10、電気メス装置11、プリンタ12、ルームライト13、電動手術台14および無線給電装置15のいずれか1つを指す場合を単に「周辺機器」という。また、システムコントローラ7は、各周辺機器と有線または無線によって接続される。システムコントローラ7は、CPUおよびFlashメモリ等を用いて構成される。
 音声入力部8は、システムコントローラ7の制御のもと、音源や話者から発せられた音声を収音してアナログの音声信号(電気信号)に変換し、この音声信号に対してA/D変換処理やゲイン調整処理を行ってデジタルの音声データを生成してシステムコントローラ7を介してプロセッサ3へ出力する。音声入力部8は、単一指向性マイク、無指向性マイクおよび双指向性マイクのいずれか1つのマイクロホン、A/D変換回路および信号処理回路等を用いて構成される。
 超音波装置9は、内視鏡2と接続し、システムコントローラ7の制御のもと、内視鏡2の先端に設けられた超音波振動子を介して超音波を送受信する。また、超音波装置9は、内視鏡2を介して受信した超音波に基づく超音波画像データをシステムコントローラ7へ出力する。なお、超音波装置9は、専用の超音波プローブを介して被検体の超音波画像データを生成するものであってもよい。
 気腹装置10は、システムコントローラ7の制御のもと、被検体内に気腹ガス、例えば二酸化炭素を送出する。
 電気メス装置11は、システムコントローラ7の制御のもと、電気メスに対して所定の電圧を印加することによって電気メスを駆動する。
 プリンタ12は、システムコントローラ7の制御のもと、プロセッサ3から入力された画像データに対応する画像を出力する。
 ルームライト13は、手術室100内に複数設けられ、システムコントローラ7の制御のもと、所定の照度で被検体や手術室100を投光する。ルームライト13は、LED(Light Emitting Diode)ランプおよび調光スイッチ等を用いて構成される。
 電動手術台14は、被検体が手術台に配置される。電動手術台14は、システムコントローラ7の制御のもと、手術台を垂直方向および水平方向へ移動することによって、被検体の位置や姿勢を変更する。電動手術台14は、垂直方向および水平方向へ移動可能な手術台と、手術台を駆動するモータ等の駆動部を用いて構成される。
 無線給電装置15は、システムコントローラ7の制御のもと、端末装置5に無線で給電する。無線給電装置15は、電磁誘導方式、磁界共鳴方式、電解結合方式および電波送受信方式のいずれか1つを用いて構成される。
 サーバ200は、手術室100外の院内に設置され、ネットワークN100を介してプロセッサ3または端末装置5から送信された内視鏡画像データと患者を識別する患者IDとを対応付けて記録する。また、サーバ200は、ネットワークN100またはワイヤレスユニット4を介して症例画像データおよび内視鏡画像データを要求する画像要求信号を受信した場合、画像要求信号を発したプロセッサ3または端末装置5へ症例画像データおよび内視鏡画像データを送信する。なお、ここで、内視鏡画像データとは、動画データおよび静止画データ(キャプチャー画像データ)を含む。
 〔端末装置の構成〕
 次に、図1で説明した端末装置5の詳細な構成について説明する。図2は、端末装置5の機能構成を示すブロック図である。
 図2に示す端末装置5は、電池部50と、通信部51と、撮像部52と、指紋情報検出部53と、音声入力部54と、表示部55と、記録部56と、操作部57と、交換デバイス情報取得部58と、位置情報発信部59と、端末制御部60と、を備える。
 電池部50は、端末装置5を構成する各部に電力を供給する電池501と、無線給電装置15から給電された電磁波を受信して電流に変換して電池501へ供給する受信部502と、を有する。
 通信部51は、通信モジュールを用いて構成され、所定の通信規格に従ってプロセッサ3と双方向に通信を行う。また、通信部51は、ワイヤレスユニット4および院内のネットワークN100を介してサーバ200と双方向に通信を行う。ここで、所定の通信規格としては、Wi-Fi通信が想定される。なお、通信部51は、Wi-Fi通信以外に、4G無線を利用した通信を採用してもよい。もちろん、通信部51は、Bluetooth通信、BLE通信、3G無線を利用した通信、5G無線を利用した通信およびWiMAX通信および赤外線通信等、他の通信を採用してもよい。
 撮像部52は、端末制御部60の制御のもと、端末装置5の使用者を撮像して画像データを生成し、この画像データを端末制御部60へ出力する。撮像部52は、CCDやCMOS等のイメージセンサ、A/D変換処理およびFPGAやGPU等を用いて実現される画像処理エンジン等を用いて構成される。なお、撮像部52に、赤外光を照射可能な赤外ランプと、この赤外ランプが照射した赤外光を撮像可能な画素を設けたイメージセンサとを設けることによって、使用者の顔表面の凹凸を取得するようにしてもよい。
 指紋情報検出部53は、外部からタッチされた使用者の指の指紋情報を検出し、この検出結果を端末制御部60へ出力する。指紋情報検出部53は、指紋センサを用いて構成される。なお、指紋情報検出部53は、押圧式以外にも、例えばスライド式であってもよい。もちろん、指紋情報検出部53は、指紋以外にも、使用者の静脈を検出してもよい。
 音声入力部54は、端末制御部60の制御のもと、音源や話者から発せられた音声を収音してアナログの音声信号(電気信号)に変換し、この音声信号に対してA/D変換処理やゲイン調整処理を行ってデジタルの音声データを生成して端末制御部60へ出力する。音声入力部54は、単一指向性マイク、無指向性マイクおよび双指向性マイクのいずれか1つのマイクロホン、A/D変換回路および信号処理回路等を用いて構成される。
 表示部55は、端末制御部60から入力された画像データや各種情報を表示する。表示部55は、液晶や有機EL等の表示パネルを用いて構成される。
 記録部56は、端末装置5が実行する各種プログラム、処理中のデータおよび画像データ等を記録する。記録部56は、Flashメモリ、SSDおよびメモリカード等を用いて構成される。また、記録部56は、認証情報記録部561と、端末装置5を識別する端末IPアドレスを記録する端末IPアドレス記録部562と、を有する。
 操作部57は、使用者からの操作に応じた指示信号の入力を受け付ける。操作部57は、タッチパネル、ボタンおよびスイッチ等を用いて構成される。
 交換デバイス情報取得部58は、プロセッサ3に設けられた交換デバイス情報記録部34から送信された無線を取得して端末制御部60に出力する。交換デバイス情報取得部58は、RFIDリーダを用いて構成される。
 位置情報発信部59は、端末装置5の位置に関する位置情報を所定の距離まで発信する。具体的には、位置情報発信部59は、手術室100内で到達可能な距離まで位置情報を発信する。位置情報発信部59は、例えばRFIDやBluetooth通信可能な通信モジュールを用いて構成される。
 端末制御部60は、端末装置5を構成する各部を統括的に制御する。また、端末制御部60は、音声入力部54から入力された音声データを分析し、この分析結果に基づく音声コマンドを生成してプロセッサ3へ送信する。端末制御部60は、CPU等を用いて構成される。端末制御部60は、接続判定部601と、認証部602と、通信制御部603と、表示制御部604と、記録制御部605と、撮像制御部606と、を有する。
 接続判定部601は、通信部51がプロセッサ3から受信した認証情報に基づいて、プロセッサ3が相互無線通信可能な接続先であるか否かを判定する。
 認証部602は、端末装置5の使用者が予め登録された登録使用者であるか否かを認証する。具体的には、認証部602は、端末装置5の使用者の顔画像、使用者の生体情報および使用者のジェスチャ情報のいずれか1つ以上を取得した認証を行う。例えば、認証部602は、撮像部52が生成した画像データに対応する画像に写る使用者の顔画像の特徴と記録部56が記録する登録使用者の顔の特徴とが一致するか否かを判定する。
 通信制御部603は、接続判定部601の判定結果および認証部602の認証結果に基づいて、プロセッサ3と端末装置5との相互無線通信またはネットワークN100と端末装置5との相互無線通信を許可する。
 表示制御部604は、表示部55の表示態様を制御する。具体的には、表示制御部604は、内視鏡画像データに対応する内視鏡画像と症例画像データに対応する症例画像とを比較可能に表示部55に表示させる。
 記録制御部605は、通信制御部603が取得したスケジュール情報に含まれる患者回診時間と内視鏡画像データとを対応付けて記録部56に記録させる。
 撮像制御部606は、認証部602によって使用者が登録使用者であると認証された場合、端末装置5の使用者による撮像部52の撮像機能を有効とする。
 〔プロセッサの処理〕
 次に、プロセッサ3が実行する処理について説明する。図3は、プロセッサ3が実行する処理の概要を示すフローチャートである。
 図3に示すように、プロセッサ3は、端末装置5と双方向に通信を行うための接続を行う接続処理を実行する(ステップS101)。ステップS101の後、プロセッサ3は、後述するステップS102へ移行する。
 〔接続処理〕
 次に、図3のステップS101で説明した接続処理の詳細について説明する。図4は、接続処理の詳細を示すフローチャートである。
 図4に示すように、まず、通信制御部363は、通信部32を介して端末装置5にプロセッサIPアドレス(SSID)および認証情報を送信する(ステップS201)。ここで、認証情報とは、端末装置5の相互無線通信を行うためのパスワードとして機能する認証部602の認証結果を要求するための情報である。
 続いて、通信部32を介して端末装置5から端末IPアドレスおよび認証部602が認証した認証結果を受信した場合(ステップS202:Yes)、プロセッサ3は、後述するステップS203へ移行する。これに対して、通信部32を介して端末装置5から端末IPアドレスおよび認証部602が認証した認証結果を受信していない場合(ステップS202:No)、プロセッサ3は、図3のメインルーチンへ戻る。
 ステップS203において、接続判定部361は、通信部32が受信した端末IPアドレスおよび認証部602が認証した認証結果に基づいて、端末装置5が相互無線通信可能な接続先であるか否かを判定する(ステップS203)。具体的には、接続判定部361は、通信部32が受信した端末IPアドレスおよび認証部602が認証した認証結果と認証情報記録部331が記録する認証情報とが一致するか否かを判定し、一致する場合、端末装置5が相互無線通信可能な接続先であると判定する一方、一致しない場合、端末装置5が相互無線通信可能な接続先でないと判定する。接続判定部361によって端末装置5が相互無線通信可能な接続先であると判定された場合(ステップS203:Yes)、プロセッサ3は、後述するステップS204へ移行する。これに対して、接続判定部361によって端末装置5が相互無線通信可能な接続先でないと判定された場合(ステップS203:No)、プロセッサ3は、後述するステップS206へ移行する。
 ステップS204において、通信制御部363は、プロセッサ3と端末装置5とを相互通信可能に接続する。これにより、プロセッサ3は、端末装置5と相互通信可能な状態となる。この場合、表示制御部362は、プロセッサ3と端末装置5との相互無線通信が可能であることを表示装置6に表示させてもよい。即ち、表示制御部362が報知部として機能する。
 続いて、設定部364は、端末装置5から受信した認証結果の登録使用者に割当てらたれたレベルに基づいて、端末装置5がシステムコントローラ7を介して操作可能な複数の周辺機器の各々との通信接続を設定する(ステップS205)。具体的には、設定部364は、登録使用者のレベルが医師レベルの場合、端末装置5を介して操作可能な周辺機器を全ての周辺機器で操作可能なように設定する一方、登録使用者のレベルが看護師レベルの場合、端末装置5を介して操作可能な周辺機器を、所定の周辺機器のみに設定、例えば手術に関係ない周辺機器、より詳しくはプリンタ12、ルームライト13、無線給電装置15等を操作可能なように設定する。もちろん、設定部364は、登録使用者のレベルに基づいて、より細かく端末装置5で操作可能な周辺機器を設定できるようにしてもよい。ステップS205の後、プロセッサ3は、図3のメインルーチンへ戻る。
 ステップS206において、表示制御部362は、端末装置5が相互無線通信可能な接続先でない旨の警告を表示装置6に表示させる。なお、表示制御部362は、端末装置5が相互無線通信可能な接続先でない旨の警告を表示装置6に表示させていたが、例えば図示しないスピーカ等で端末装置5が相互無線通信可能な接続先でない旨の警告を報知してもよい。即ち、表示制御部362がプロセッサ3と端末装置5との相互無線通信が不可であることを報知する報知部として機能する。ステップS206の後、プロセッサ3は、図3のメインルーチンへ戻る。
 図3に戻り、ステップS102以降の説明を続ける。
 ステップS102において、プロセッサ3と端末装置5とが相互通信状態である場合(ステップS102:Yes)、プロセッサ3は、端末装置5が入力を受け付けた操作に応じて周辺機器を駆動させる通信駆動処理を実行する(ステップS103)。ステップS103の後、プロセッサ3は、後述するステップS104へ移行する。これに対して、プロセッサ3と端末装置5とが相互通信状態でない場合(ステップS102:No)、プロセッサ3は、本処理を終了する。
 〔通信駆動処理〕
 次に、図3のステップS103で説明した通信駆動処理の詳細について説明する。図5は、通信駆動処理の詳細を説明するフローチャートである。
 図5に示すように、通信制御部363は、端末装置5に対して、周辺機器およびプロセッサ3のソフトウェアプログラムを通信部32に送信させる(ステップS301)。ここで、ソフトウェアプログラムには、周辺機器およびプロセッサ3のプログラムの更新以外にも、周辺機器における初期値の設定パラメータや端末装置5の使用者が前回の手術時に周辺機器に設定した設定パラメータが格納された設定情報が含まれる。
 続いて、駆動制御部365は、システムコントローラ7を介して無線給電装置15に給電許可信号を送信する(ステップS302)。これにより、手術室100内に位置する端末装置5に対して電力を給電することができる。
 その後、通信部32が端末装置5から周辺機器を操作する操作信号を受信した場合(ステップS303:Yes)、プロセッサ3は、後述するステップS304へ移行する。これに対して、通信部32が端末装置5から周辺機器を操作する操作信号を受信していない場合(ステップS303:No)、プロセッサ3は、後述するステップS307へ移行する。
 ステップS304において、端末装置5から受信した操作信号が設定部364の設定によって制御許可の周辺機器である場合(ステップS304:Yes)、駆動制御部365は、操作信号に応じた周辺機器に対して、操作信号に応じた制御を行う(ステップS305)。例えば、駆動制御部365は、操作信号がルームライト13の照度を変更する操作信号であった場合、システムコントローラ7を介してルームライト13の照度を変更する。ステップS305の後、プロセッサ3は、後述するステップS307へ移行する。
 ステップS304において、端末装置5から受信した操作信号が設定部364の設定によって制御許可の周辺機器でない場合(ステップS304:No)、通信制御部363は、端末装置5に対して、操作信号に応じた周辺機器が操作不可である旨の操作不可信号を通信部32に送信させる(ステップS306)。ステップS306の後、プロセッサ3は、後述するステップS307へ移行する。
 ステップS307において、通信部32が端末装置5から周辺機器を操作する音声コマンドを受信した場合(ステップS307:Yes)、プロセッサ3は、後述するステップS308へ移行する。これに対して、通信部32が端末装置5から周辺機器を操作する音声コマンドを受信していない場合(ステップS307:No)、プロセッサ3は、図3のメインルーチンへ戻る。
 ステップS308において、端末装置5から受信した音声コマンドが設定部364の設定によって制御許可の周辺機器である場合(ステップS308:Yes)、駆動制御部365は、音声コマンドに応じた周辺機器に対して、音声コマンドに応じた制御を行う(ステップS309)。例えば、駆動制御部365は、音声コマンドがルームライト13の照度を変更する指示であった場合、システムコントローラ7を介してルームライト13の照度を変更する。ステップS309の後、プロセッサ3は、図3のメインルーチンへ戻る。
 ステップS308において、端末装置5から受信した音声コマンドが設定部364の設定によって制御許可の周辺機器でない場合(ステップS308:No)、通信制御部363は、端末装置5に対して、音声コマンドに応じた周辺機器が操作不可である旨の操作不可信号を通信部32に送信させる(ステップS310)。ステップS310の後、プロセッサ3は、図3のメインルーチンへ戻る。
 図3に戻り、ステップS104以降の説明を続ける。
 ステップS104において、位置情報取得部35は、端末装置5の位置情報を取得する。具体的には、位置情報取得部35は、端末装置5の位置情報発信部59から発せられた電波を受信することによって端末装置5の位置情報を取得する。
 続いて、接続判定部361は、位置情報取得部35が取得した端末装置5の位置情報に基づいて、端末装置5がプロセッサ3から所定距離内に位置しているか否かを判定する(ステップS105)。具体的には、接続判定部361は、位置情報取得部35が端末装置5の位置情報を取得できたか否かを判定する。接続判定部361によって端末装置5がプロセッサ3から所定距離内に位置していると判定された場合(ステップS105:Yes)、プロセッサ3は、後述するステップS106へ移行する。これに対して、接続判定部361によって端末装置5がプロセッサ3から所定距離内に位置していないと判定された場合(ステップS105:No)、プロセッサ3は、後述するステップS107へ移行する。
 ステップS106において、端末装置5から終了を指示する指示信号が入力された場合(ステップS106:Yes)、プロセッサ3は、後述するステップS108へ移行する。これに対して、端末装置5から終了を指示する指示信号が入力されていない場合(ステップS106:No)、プロセッサ3は、上述したステップS103へ戻る。
 ステップS107において、通信制御部363は、プロセッサ3と端末装置5との通信状態の接続を解除する。これにより、端末装置5が手術室100外へ移動した場合であっても、遠隔操作によって周辺機器が操作されてしまうことを防止することができる。ステップS107の後、プロセッサ3は、後述するステップS108へ移行する。
 ステップS108において、通信制御部363は、記録部33に端末装置5の端末IPアドレスを記録する。これにより、端末装置5が手術室100内で電源が投入された場合、即座にプロセッサ3と端末装置5との通信状態を接続させることができる。ステップS108の後、プロセッサ3は、本処理を終了する。
 以上説明した本発明の一実施の形態によれば、通信制御部363が接続判定部361の判定結果および端末装置5から送信された認証部602の認証結果に基づいて、プロセッサ3と端末装置5との相互無線通信を許可するので、効率化と情報セキュリティの両者を考慮することができる。
 また、本発明の一実施の形態によれば、端末装置5と複数の周辺機器との通信を許可した場合、通信制御部363が端末装置5に対して、ソフトウェアプログラムを通信部32に送信させるので、その都度、周辺機器のパラメータを設定することなく、端末装置5を用いて敏速に周辺機器の操作を行うことができる。
 また、本発明の一実施の形態によれば、設定部364が端末装置5から送信された認証部602の認証結果の登録使用者に割当てらたれたレベルに基づいて、端末装置5がシステムコントローラ7を介して操作可能な複数の周辺機器を設定するので、使用者に応じたセキュリティを設定することができる。
 また、本発明の一実施の形態によれば、通信制御部363が端末装置5と複数の周辺機器との通信を許可している場合、駆動制御部365がシステムコントローラ7を介して無線給電装置15に端末装置5へ給電させるので、セキュリティが確保されていない端末装置5へ給電されてしまうことを防止することができる。
 また、本発明の一実施の形態によれば、通信制御部363が端末装置5と複数の周辺機器との通信を許可している場合において、通信部32が端末装置5から複数の周辺機器のいずれか1つを操作する操作信号を受信したとき、駆動制御部365がシステムコントローラ7を介して操作信号に応じた周辺機器を駆動するので、セキュリティを確保することができる。
 また、本発明の一実施の形態によれば、通信制御部363が端末装置5と複数の周辺機器との通信を許可している場合において、通信部32が端末装置5から複数の周辺機器のいずれか1つを操作する操作信号を受信したとき、駆動制御部365がシステムコントローラ7を介して音声コマンドに応じた周辺機器を駆動するので、セキュリティを確保することができる。
 また、本発明の一実施の形態によれば、位置情報取得部35の端末装置5の位置情報を取得できなくなった場合、通信制御部363が端末装置5と複数の周辺機器との接続を解除するので、手術室100外に端末装置5が移動した場合であっても、外部から遠隔操作されることを防止することができるので、セキュリティを確保することができる。
 また、本発明の一実施の形態では、ワイヤレスユニット4が端末装置5から端末IPアドレス情報を受信した場合、端末装置5と相互無線通信可能であるか否かを示す接続可否判定情報を端末装置5へ送信してもよい。これにより、ワイヤレスユニット4を介して端末装置5による内視鏡システム1の操作を行うことができる。
 また、本発明の一実施の形態では、ワイヤレスユニット4が接続可否判定情報を保持するとともに、端末装置5の電源投入後に接続可否判定情報に基づいて、端末装置5とワイヤレスユニット4との自動接続を行ってもよい。これにより、操作性を上げることができる。もちろん、端末装置5も端末装置5の電源投入後に接続可否判定情報に基づいて、端末装置5とワイヤレスユニット4との自動接続を行ってもよい。
 また、本発明の一実施の形態では、ネットワークN100に接続されたサーバ200と端末装置5との相互無線通信を許可してもよい。これにより、効率化と情報セキュリティの両者を考慮することができる。
(その他の実施の形態)
 上述した本発明の一実施の形態に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、上述した本発明の一実施の形態に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、上述した本発明の一実施の形態で説明した構成要素を適宜組み合わせてもよい。
 また、本発明の一実施の形態では、プロセッサに光源装置が設けられていたが、別体に形成してもよい。
 また、本発明の一実施の形態では、内視鏡システムであったが、例えばカプセル型の内視鏡、被検体を撮像するビデオマイクロスコープ、撮像機能を有する携帯電話および撮像機能を有するタブレット型端末であっても適用することができる。
 また、本発明の一実施の形態では、医療用の内視鏡を備えた内視鏡システムであったが、工業用の内視鏡を備えた内視鏡システムであっても適用することができる。
 また、本発明の一実施の形態では、上述してきた「部」は、「手段」や「回路」などに読み替えることができる。例えば、制御部は、制御手段や制御回路に読み替えることができる。
 また、本発明の一実施の形態に実行させるプログラムは、インストール可能な形式または実行可能な形式のファイルデータでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)、USB媒体、フラッシュメモリ等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
 また、本発明の一実施の形態に実行させるプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。さらに、本発明の一実施の形態に実行させるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。
 なお、本明細書におけるフローチャートの説明では、「まず」、「その後」、「続いて」等の表現を用いてステップ間の処理の前後関係を明示していたが、本発明を実施するために必要な処理の順序は、それらの表現によって一意的に定められるわけではない。即ち、本明細書で記載したフローチャートにおける処理の順序は、矛盾のない範囲で変更することができる。また、こうした、単純な分岐処理からなるプログラムに限らず、より多くの判定項目を総合的に判定して分岐させてもよい。その場合、使用者にマニュアル操作を促して学習を繰り返すうちに機械学習するような人工知能の技術を併用しても良い。また、多くの専門家が行う操作パターンを学習させて、さらに複雑な条件を入れ込む形で深層学習をさせて実行してもよい。
 以上、本願の実施の形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、本発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
 1 内視鏡システム
 2 内視鏡
 3 プロセッサ
 4 ワイヤレスユニット
 5 端末装置
 6 表示装置
 7 システムコントローラ
 8 音声入力部
 9 超音波装置
 10 気腹装置
 11 電気メス装置
 12 プリンタ
 13 ルームライト
 14 電動手術台
 15 無線給電装置
 21 撮像素子
 31 映像処理部
 32 通信部
 33 記録部
 34 交換デバイス情報記録部
 35 位置情報取得部
 36 プロセッサ制御部
 50 電池部
 51 通信部
 52 撮像部
 53 指紋情報検出部
 54 音声入力部
 55 表示部
 56 記録部
 57 操作部
 58 交換デバイス情報取得部
 59 位置情報発信部
 60 端末制御部
 100 手術室
 200 サーバ
 331 認証情報記録部
 332 プロセッサIPアドレス記録部
 361 接続判定部
 362 表示制御部
 363 通信制御部
 364 設定部
 365 駆動制御部
 501 電池
 502 受信部
 561 認証情報記録部
 562 端末IPアドレス記録部
 601 接続判定部
 602 認証部
 603 通信制御部
 604 表示制御部
 605 記録制御部
 606 撮像制御部
 N100 ネットワーク

Claims (14)

  1.  被検体内を観察する内視鏡が取得した内視鏡画像データに対して画像処理を施すとともに、複数の周辺機器に対して接続可能なプロセッサと、前記プロセッサに対して無線で通信可能な端末装置と、を備えた内視鏡システムであって、
     前記端末装置は、
     当該端末装置を識別する端末識別情報および当該端末装置の使用者が予め登録された登録使用者であるか否かを示す認証結果を送信し、
     前記プロセッサは、
     前記端末装置に対して、当該プロセッサを識別するプロセッサ識別情報および相互無線通信を許可する認証情報を送信するとともに、前記端末装置から前記端末識別情報および前記認証結果を受信する通信部と、
     前記通信部が受信した前記認証結果に基づいて、前記端末装置が相互無線通信可能な接続先であるか否かを判定する接続判定部と、
     前記接続判定部の判定結果および前記認証結果に基づいて、前記端末装置と前記複数の周辺機器との通信を許可する通信制御部と、
     を備えることを特徴とする内視鏡システム。
  2.  前記プロセッサは、
     前記複数の周辺機器の各々の設定に関するソフトウェアプログラムを記録するサーバが接続されたネットワークに対して接続され、
     前記通信制御部は、前記端末装置と前記複数の周辺機器との通信を許可した場合、前記端末装置に対して、前記ソフトウェアプログラムを前記通信部に送信させることを特徴とする請求項1に記載の内視鏡システム。
  3.  前記プロセッサおよび前記複数の周辺機器の各々に接続され、前記複数の周辺機器の駆動を制御するシステムコントローラをさらに備え、
     前記プロセッサは、
     前記認証結果の前記登録使用者に割当てらたれたレベルに基づいて、前記端末装置が前記システムコントローラを介して操作可能な前記複数の周辺機器を設定する設定部をさらに備えることを特徴とする請求項1に記載の内視鏡システム。
  4.  前記プロセッサは、
     前記システムコントローラを介して前記複数の周辺機器の駆動を制御する駆動制御部をさらに備え、
     前記複数の周辺機器の1つは、
     前記端末装置に対して無線で給電する無線給電装置であり、
     前記駆動制御部は、
     前記通信制御部が前記端末装置と前記複数の周辺機器との通信を許可している場合、前記システムコントローラを介して前記無線給電装置に前記端末装置へ給電させることを特徴とする請求項3に記載の内視鏡システム。
  5.  前記プロセッサは、
     前記システムコントローラを介して前記複数の周辺機器の駆動を制御する駆動制御部をさらに備え、
     前記駆動制御部は、
     前記通信制御部が前記端末装置と前記複数の周辺機器との通信を許可している場合において、前記通信部が前記端末装置から前記複数の周辺機器のいずれか1つを操作する操作信号を受信したとき、前記システムコントローラを介して前記操作信号に応じた前記周辺機器を駆動することを特徴とする請求項3に記載の内視鏡システム。
  6.  前記端末装置は、
     前記複数の周辺機器を音声入力によって操作する音声コマンドの入力を受け付け可能であり、
     前記プロセッサは、
     前記システムコントローラを介して前記複数の周辺機器の駆動を制御する駆動制御部をさらに備え、
     前記駆動制御部は、前記通信制御部が前記端末装置と前記複数の周辺機器との通信を許可している場合において、前記通信部が前記端末装置から前記音声コマンドを受信したとき、前記システムコントローラを介して前記音声コマンドに応じた前記周辺機器を駆動することを特徴とする請求項3に記載の内視鏡システム。
  7.  前記端末装置は、
     当該端末装置の位置に関する位置情報を所定の距離まで発信可能であり、
     前記プロセッサは、
     前記端末装置が発した前記位置情報を取得可能な位置情報取得部をさらに備え、
     前記通信制御部は、前記位置情報取得部が前記位置情報を取得できなくなった場合、前記端末装置と前記複数の周辺機器との接続を解除することを特徴とする請求項1に記載の内視鏡システム。
  8.  前記端末装置は、前記使用者の顔画像、前記使用者の生体情報および前記使用者のジェスチャ情報のいずれか1つ以上を取得して認証を行うことを特徴とする請求項1に記載の内視鏡システム。
  9.  ネットワークに接続され、前記端末装置および前記プロセッサに無線相互通信可能なワイヤレスユニットをさらに備え、
     前記ワイヤレスユニットは、前記端末装置から識別情報を受信した場合、前記端末装置と相互無線通信可能であるか否かを示す接続可否判定情報を前記プロセッサへ送信することを特徴とする請求項1に記載の内視鏡システム。
  10.  前記端末装置または前記ワイヤレスユニットは、前記接続可否判定情報を保持するとともに、電源投入後に前記接続可否判定情報に基づいて、前記端末装置と前記ワイヤレスユニットとの自動接続を行うことを特徴とする請求項9に記載の内視鏡システム。
  11.  前記プロセッサは、
     前記通信制御部によって前記プロセッサと当該端末装置との相互無線通信が可能であることを報知する報知部をさらに備えることを特徴とする請求項1に記載の内視鏡システム。
  12.  被検体内を観察する内視鏡が取得した内視鏡画像データに対して画像処理を施すとともに、複数の周辺機器に対して接続可能なプロセッサであって、
     当該プロセッサに対して無線で通信可能な端末装置に対して、当該プロセッサを識別するプロセッサ識別情報および相互無線通信を許可する認証情報を送信するとともに、前記端末装置から前記端末装置を識別する端末識別情報および前記端末装置の使用者が予め登録された登録使用者であるか否かを示す認証結果を受信する通信部と、
     前記通信部が受信した前記認証結果に基づいて、前記端末装置が相互無線通信可能な接続先であるか否かを判定する接続判定部と、
     前記接続判定部の判定結果および前記認証結果に基づいて、前記端末装置と前記複数の周辺機器との通信を許可する通信制御部と、
     を備えることを特徴とするプロセッサ。
  13.  被検体内を観察する内視鏡が取得した内視鏡画像データに対して画像処理を施すとともに、複数の周辺機器に対して接続可能なプロセッサと、前記プロセッサに対して無線で通信可能な端末装置と、を備えた内視鏡システムが実行する制御方法であって、
     前記端末装置に対して、当該プロセッサを識別するプロセッサ識別情報および相互無線通信を許可する認証情報を送信する送信ステップと、
     前記端末装置から前記端末装置を識別する端末識別情報および前記端末装置の使用者が予め登録された登録使用者であるか否かを示す認証結果を受信する受信ステップと、
     前記認証結果に基づいて、前記端末装置が相互無線通信可能な接続先であるか否かを判定する接続判定ステップと、
     前記接続判定ステップの判定結果および前記認証結果に基づいて、前記端末装置と前記複数の周辺機器との通信を許可する通信制御ステップと、
     を含むことを特徴とする制御方法。
  14.  被検体内を観察する内視鏡が取得した内視鏡画像データに対して画像処理を施すとともに、複数の周辺機器に対して接続可能なプロセッサと、前記プロセッサに対して無線で通信可能な端末装置と、を備えた内視鏡システムに、
     前記端末装置に対して、当該プロセッサを識別するプロセッサ識別情報および相互無線通信を許可する認証情報を送信する送信ステップと、
     前記端末装置から前記端末装置を識別する端末識別情報および前記端末装置の使用者が予め登録された登録使用者であるか否かを示す認証結果を受信する受信ステップと、
     前記認証結果に基づいて、前記端末装置が相互無線通信可能な接続先であるか否かを判定する接続判定ステップと、
     前記接続判定ステップの判定結果および前記認証結果に基づいて、前記端末装置と前記複数の周辺機器との通信を許可する通信制御ステップと、
     を実行させることを特徴とするプログラム。
PCT/JP2018/034033 2017-11-27 2018-09-13 内視鏡システム、プロセッサ、制御方法およびプログラム WO2019102693A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019556110A JP6946460B2 (ja) 2017-11-27 2018-09-13 内視鏡システム、プロセッサ、制御方法およびプログラム
US16/883,111 US20200387590A1 (en) 2017-11-27 2020-05-26 Endoscope system, processor, control method, and computer-readable recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-227191 2017-11-27
JP2017227191 2017-11-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/883,111 Continuation US20200387590A1 (en) 2017-11-27 2020-05-26 Endoscope system, processor, control method, and computer-readable recording medium

Publications (1)

Publication Number Publication Date
WO2019102693A1 true WO2019102693A1 (ja) 2019-05-31

Family

ID=66630583

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/034033 WO2019102693A1 (ja) 2017-11-27 2018-09-13 内視鏡システム、プロセッサ、制御方法およびプログラム

Country Status (3)

Country Link
US (1) US20200387590A1 (ja)
JP (1) JP6946460B2 (ja)
WO (1) WO2019102693A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021029669A (ja) * 2019-08-26 2021-03-01 Hoya株式会社 内視鏡システム、データ処理装置、内視鏡、通信接続方法及びコンピュータプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007052800A (ja) * 2006-09-29 2007-03-01 Olympus Corp 情報処理装置
JP2009160312A (ja) * 2008-01-09 2009-07-23 Fujifilm Corp 内視鏡、内視鏡装置、内視鏡レンタル支援システム
JP2010187729A (ja) * 2009-02-16 2010-09-02 Olympus Medical Systems Corp 内視鏡システム
JP2014008126A (ja) * 2012-06-28 2014-01-20 Olympus Medical Systems Corp 内視鏡画像処理システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007052800A (ja) * 2006-09-29 2007-03-01 Olympus Corp 情報処理装置
JP2009160312A (ja) * 2008-01-09 2009-07-23 Fujifilm Corp 内視鏡、内視鏡装置、内視鏡レンタル支援システム
JP2010187729A (ja) * 2009-02-16 2010-09-02 Olympus Medical Systems Corp 内視鏡システム
JP2014008126A (ja) * 2012-06-28 2014-01-20 Olympus Medical Systems Corp 内視鏡画像処理システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021029669A (ja) * 2019-08-26 2021-03-01 Hoya株式会社 内視鏡システム、データ処理装置、内視鏡、通信接続方法及びコンピュータプログラム
JP7474571B2 (ja) 2019-08-26 2024-04-25 Hoya株式会社 内視鏡システム、データ処理装置、通信接続方法及びコンピュータプログラム

Also Published As

Publication number Publication date
JPWO2019102693A1 (ja) 2020-12-24
US20200387590A1 (en) 2020-12-10
JP6946460B2 (ja) 2021-10-06

Similar Documents

Publication Publication Date Title
US11496468B2 (en) Endoscope system, terminal device, and control method
JP5351360B2 (ja) 無線映像伝送システム及び送信装置
US9501430B2 (en) X-ray imaging system, information processing apparatus, methods for controlling x-ray imaging system and information processing apparatus, and recording medium
WO2016072147A1 (ja) 観察装置及び観察システム
WO2013183785A1 (ja) カプセル型内視鏡装置、受信装置およびカプセル型内視鏡システム
WO2013080960A1 (ja) ポータブル超音波診断装置
JP5144485B2 (ja) 無線通信端末
CN109475269B (zh) 无线内窥镜装置
US10917615B2 (en) Endoscope system, receiving device, workstation, setting method, and computer readable recording medium
US10993608B2 (en) Endoscope system and control method
US20180084996A1 (en) A wireless imaging apparatus and related methods
WO2019102693A1 (ja) 内視鏡システム、プロセッサ、制御方法およびプログラム
JP5816524B2 (ja) ワイヤレス内視鏡システム
JP2016101377A (ja) 内視鏡装置及び内視鏡画像伝送方法
JP2007080094A (ja) アプリケーション起動管理システム
CN105159099B (zh) 家用电器的控制系统和控制方法
KR20220061614A (ko) 조명 제어 장치 및 방법과, 스마트 안경 및 방법
JP7123245B2 (ja) ワイヤレス内視鏡、ワイヤレス内視鏡装置及び照明制御方法
JP6590562B2 (ja) 放射線撮影装置、放射線撮影システム、放射線撮影システムの制御方法およびプログラム
JP7474571B2 (ja) 内視鏡システム、データ処理装置、通信接続方法及びコンピュータプログラム
KR102171116B1 (ko) 초음파 진단 장치, 초음파 프로브, 초음파 진단 장치의 동작 방법, 및 초음파 프로브의 동작 방법
JP2020058789A (ja) 放射線撮影装置、放射線撮影システム、放射線撮影システムの制御方法およびプログラム
US20230263383A1 (en) System and method for pairing medical devices
KR20140143125A (ko) 스마트폰에 의한 제어가 가능한 초음파 프로브
KR20170082039A (ko) 이동 단말기 및 그것의 제어방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18881758

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019556110

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18881758

Country of ref document: EP

Kind code of ref document: A1