WO2022029954A1 - 医療システム、及び、処理プロトコル制御方法 - Google Patents

医療システム、及び、処理プロトコル制御方法 Download PDF

Info

Publication number
WO2022029954A1
WO2022029954A1 PCT/JP2020/030157 JP2020030157W WO2022029954A1 WO 2022029954 A1 WO2022029954 A1 WO 2022029954A1 JP 2020030157 W JP2020030157 W JP 2020030157W WO 2022029954 A1 WO2022029954 A1 WO 2022029954A1
Authority
WO
WIPO (PCT)
Prior art keywords
processing
image
frame rate
signal
image pickup
Prior art date
Application number
PCT/JP2020/030157
Other languages
English (en)
French (fr)
Inventor
伸介 谷
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to PCT/JP2020/030157 priority Critical patent/WO2022029954A1/ja
Publication of WO2022029954A1 publication Critical patent/WO2022029954A1/ja
Priority to US18/104,827 priority patent/US20230172426A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • A61B1/00016Operational features of endoscopes characterised by signal transmission using wireless means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00087Tools
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor

Definitions

  • An embodiment of the present invention relates to a medical system and a communication method, and more particularly to a medical system that processes an endoscopic image by cloud computing and a processing protocol control method.
  • An electronic endoscope (hereinafter referred to as an endoscope) has a built-in image sensor such as a CCD at the tip of an insertion portion inserted into a body cavity.
  • the image pickup signal acquired by the CCD is input to the processor and subjected to development processing. That is, the processor performs signal processing or the like on the input image pickup signal to generate an endoscopic image.
  • the endoscopic image generated by the processor is output and displayed on a display device such as a monitor. This makes it possible to observe images (endoscopic images) in the body cavity such as the stomach and intestines of the subject.
  • the endoscope and the processor are connected by a signal cable.
  • a signal cable becomes an obstacle when operating the endoscope and that it is inconvenient to carry.
  • a so-called wireless endoscope system has also been devised in which signals are transmitted and received wirelessly between the endoscope and the processor.
  • an endoscope system mainly composed of an endoscope, a processor, and a display device has been used and optimized as a stand-alone system that operates independently of the network.
  • the endoscope, the processor, and the display device are connected via a network.
  • a network system configuration in addition to the realization of telemedicine, there is an advantage that the system can be miniaturized and the cost can be reduced.
  • the processing protocols of the endoscope, processor, and display device operate independently, the synchronization delay becomes long, and the image pickup signal acquired by the endoscope is displayed on the display device as an endoscope image.
  • the delay time until the end was long.
  • a mismatch in processing and communication speed causes a part where a processing and communication load is applied more than necessary, resulting in unnecessary processing cost and communication cost.
  • the present invention provides a medical system capable of reducing the processing cost for processing and communication, shortening the processing time required from imaging to display, and improving real-time performance, and a processing protocol control method.
  • the purpose is.
  • the medical system of one aspect of the present invention includes an image pickup device that captures an image of a subject and outputs an image pickup signal, and an image processing circuit that generates an observation image from the image pickup signal acquired from the image pickup device via a wireless relay device.
  • a signal processing device comprising the above, and a display device for displaying the observation image acquired from the signal processing device via the relay device.
  • the signal processing device includes a first processing specification of the image pickup signal in the image pickup device, a second processing specification of the signal processing device, a third processing specification of the observation image in the display device, and a relay. It has a communication control circuit that controls at least one of the first to third processing specifications based on the communication protocol of the device.
  • the processing protocol control method of one aspect of the present invention includes an image pickup device that captures an image of a subject and outputs an image pickup signal, a signal processing device provided with an image processing circuit that generates an observation image from the image pickup signal, and the observation.
  • a display device that displays an image is paired with a communication line having a relay device. Then, in the signal processing device, the first processing specification of the image pickup signal in the image pickup device, the second processing specification of the signal processing device, and the third processing specification of the observation image in the display device.
  • the processing sequence is derived based on the communication protocol of the relay device. Further, the signal processing device instructs the imaging device of a fourth processing specification based on the processing sequence. Further, the signal processing device instructs the display device of a fifth processing specification based on the processing sequence.
  • the flowchart which shows the operation in this embodiment.
  • FIG. 1 is a diagram illustrating an example of an overall configuration of a medical system according to an embodiment of the present invention.
  • the medical system 100 of the present embodiment is mainly composed of an endoscope 2, an image processing server 3, and a display device 4.
  • the medical system 100 shown in FIG. 1 is, for example, a system constructed in a hospital, in which an endoscope 2 and a display device 4 are arranged in an examination room, and an image processing server 3 is arranged in a server room.
  • the endoscope 2, the image processing server 3, and the display device 4 can communicate with each other via an access point 5 as a relay device provided in the hospital.
  • the endoscope 2 and the access point 5 communicate with each other wirelessly or by wire.
  • the image processing server 3 and the access point 5 communicate wirelessly or by wire.
  • the display device 4 and the access point 5 communicate with each other wirelessly or by wire.
  • a communication method compliant with IEEE802.11 or the like which is a wireless LAN (Local Area Network) standard, or a communication method compliant with 5G or Local5G, which is a standard for mobile communication, can be used.
  • the communication method of wireless communication is not limited to these, and a communication method using a next-generation communication standard or the like can also be applied.
  • the endoscope 2 as an imaging device includes a long and slender insertion unit 9 and an operation unit 10.
  • the insertion portion 9 of the endoscope 2 is composed of a tip portion 6, a curved portion 7, and a flexible tube portion 8 in order from the tip.
  • An illumination window and an observation window are provided at the tip portion 6, and the illumination light is emitted from the illumination window to the subject, and the return light from the subject is incident on the observation window.
  • a solid-state image pickup device such as a CCD or CMOS is arranged at the tip portion 6 as a means for photographing a subject, and a subject image due to light incident from an observation window is photoelectrically converted and an image pickup signal is output.
  • the endoscope 2 wirelessly transmits the image pickup signal output from the solid-state image pickup element to the image processing server 3.
  • the image pickup signal may be subjected to image processing such as compression processing, and the signal with improved communication quality may be transmitted to the image processing server 3. More specifically, the image pickup signal transmitted from the endoscope 2 is transmitted to the image processing server 3 via the access point 5.
  • a bending operation unit 14 for performing a bending operation of the bending portion 7 of the insertion portion 9 is rotatably arranged, and switches for realizing various functions including a scope switch 15 are provided. It is provided.
  • the UD bending operation knob 12 for bending the curved portion 7 in the vertical direction and the RL bending operation knob 13 for bending the curved portion 7 in the left-right direction are overlapped with each other. It is arranged.
  • the scope switch 15 is, for example, a switch for controlling processing in the image processing server 3 such as recording start / stop, a light source switching to NBI (narrow band imaging: Narrow Band Imaging), and the like. A switch for controlling the processing at a predetermined part of the above is included.
  • the scope switch 15 can control various devices connected to the endoscope 2 via a network.
  • the connecting portion between the insertion portion 9 and the operation portion 10 is a folding stop portion provided between the grip portion 11 which also serves as a grip portion by the user and one end of the grip portion 11 and the flexible tube portion 8 of the insertion portion 9. It is configured to have a treatment tool channel insertion portion 18 which is an opening of a treatment tool channel for inserting various treatment portions arranged in the insertion portion 9.
  • the image processing server 3 develops the image pickup signal received from the endoscope 2 and generates an image signal.
  • the image processing server 3 receives a signal that has undergone image processing such as compression processing on the image pickup signal, the image processing server 3 performs processing based on the received signal (for example, decompression processing on the compressed signal). To generate an image signal.
  • the generated image signal is wirelessly transmitted to the display device 4 via the access point 5.
  • the image processing server 3 is a processing process based on the transmission / reception frame rate, the processing frame rate, and the communication protocol in the endoscope 2, the access point 5, and the display device 4 so that the delay time from imaging to display is minimized. Optimize.
  • the display device 4 is a display means in the medical system 100, and corresponds to an external display device when viewed from the endoscope 2 and the image processing server 3.
  • the display device 4 has a network function, and displays an image signal received from the image processing server 3 as an endoscopic image. Examples of the display device 4 include a notebook PC, a tablet, and a smartphone. Further, a display having no network function can also be used as the display device 4 by connecting a wireless device.
  • the medical system 100 of the present embodiment may be provided with a plurality of display devices such as the display devices 4 and 4a.
  • the endoscopic image may be displayed on all of the display devices 4 and 4a, or the endoscopic image may be displayed on one selected display device 4. Further, some of the display devices 4 and 4a may be installed in a room other than the examination room in which the endoscope 2 is arranged.
  • FIG. 2 is a block diagram showing an example of the hardware configuration of the medical system. Note that FIG. 2 shows the hardware configuration of the medical system 100 that performs processing related to the communication method according to the present embodiment.
  • the endoscope 2 has a light source 21 and an image pickup unit 22 at the tip portion 6. Further, the operation unit 10 includes a light source drive circuit 23, an image sensor drive circuit 24, a control circuit 25, a storage medium 26, a data compressor 27, a receiver 28, and a transmitter 29.
  • the light source 21 includes a light emitting element 21a and an illumination optical system 21b.
  • the light emitting element 21a is configured to have, for example, an LED. Further, the light emitting element 21a is configured to generate illumination light having an amount of light corresponding to the light emitting element drive signal supplied from the light source drive circuit 23.
  • the illumination optical system 21b is configured as, for example, an optical system including an illumination lens. Further, the illumination optical system 21b is configured to irradiate the external subject of the tip portion 6 with the illumination light emitted from the light emitting element 21a.
  • the image pickup unit 22 is configured as a camera having an observation optical system 22a and an image pickup element 22b.
  • the observation optical system 22a is configured as, for example, an optical system including an imaging lens. Further, in the observation optical system 22a, the return light (reflected light) emitted from the external subject of the tip portion 6 is incident in response to the irradiation of the illumination light from the light source unit 21, and the return light is transferred to the image pickup element 22b. It is configured to form an image on the image pickup surface.
  • the image sensor 22b is configured to have an image sensor such as a CCD or CMOS, for example. Further, the image sensor 22b is configured to be driven according to the image sensor drive signal supplied from the image sensor drive circuit 24. Further, the image pickup device 22b generates an image pickup signal by taking an image of the return light imaged by the observation optical system 22a. Then, the generated image pickup signal (RAW image data) is configured to be output to the data compressor 27. That is, the endoscope 2 images the inside of the subject by the image pickup unit 22 provided at the tip portion 6 of the elongated insertion portion 9, and acquires RAW image data.
  • the RAW image data refers to image data in which the light information at the time of imaging is not adjusted and is held as it is. That is, it is image data before processing that has not been subjected to demosaic processing or the like.
  • the light source drive circuit 23 is configured to generate and output a light emitting element drive signal for driving the light emitting element 21a according to the control of the control circuit 25.
  • the image sensor drive circuit 24 is configured to generate and output an image sensor drive signal for driving the image sensor 22b in response to the control of the control circuit 25.
  • the control circuit 25 includes, for example, one or more processors 25a such as a central processing unit (hereinafter referred to as a CPU).
  • the control circuit 25 controls the operation of the entire endoscope 2. That is, the operation of the endoscope 2 is controlled based on the instruction or the input given by the input device (not shown), and the control signal or the setting signal to each part is output. Further, the control circuit 25 instructs the image sensor drive circuit 24 and the data compressor 27 to operate based on the processing specifications (processing communication control data) transmitted from the image processing server 3.
  • the storage medium 26 is composed of, for example, a flash memory, a ROM (Read Only Memory), or the like.
  • the storage medium 26 stores, for example, a program used for controlling each part of the endoscope 2 and various programs corresponding to the operation of the control circuit 25.
  • the data compressor 27 compresses and encodes the RAW image data output from the image pickup device 22b according to the control of the control circuit 25.
  • the image pickup signal acquired by the endoscope 2 is wirelessly transmitted to the image processing server 3.
  • the advantages of transmitting RAW image data from the endoscope 2 to the image processing server 3 are as follows.
  • the first advantage is that the RAW image data has a smaller amount of data than the image data after general demosaic processing, so that the load of compression and transmission is small. As a result, transmission with low delay is realized.
  • the second advantage is that the RAW image data is data in which the light information at the time of imaging is held as it is without adjustment, and the image quality is not deteriorated. As a result, in the image processing server 3, adjustments such as color and brightness can be performed without deteriorating the image quality.
  • the receiver 28 receives the processing communication control data related to the processing specifications transmitted from the image processing server 3 via the access point 5.
  • the received processing communication control data is output to the control circuit 25.
  • the transmitter 29 wirelessly transmits the compression-encoded RAW image data output from the data compressor 27.
  • Some endoscopes 2 have an air supply / water supply function in order to remove fogging of the observation optical system 22a and remove adhering stains.
  • Such an endoscope 2 has an air supply / water supply unit 201 and an air supply / water supply drive circuit 202 so that a gas such as carbon dioxide can be supplied or a liquid such as water can be supplied.
  • the air supply / water supply unit 201 ejects a gas or liquid supplied from an air supply / water supply source (not shown) from the tip portion 6 under the control of the air supply / water supply drive circuit 202.
  • the air supply / water supply drive circuit 202 is configured to generate and output a drive signal for ejecting a liquid or gas from the air supply / water supply unit 201 according to the control of the control circuit 25.
  • the endoscope 2 is provided with an energy device (not shown) such as an electric knife for an endoscope in order to treat a subject near the tip 6 (hemostatic, cautery incision, marking, etc.). be.
  • Drive control of the energy device is performed by an energy device drive circuit (not shown).
  • the energy device drive circuit is configured to generate and output drive vibrations for operating the energy device in response to control from the control circuit 25.
  • the image processing server 3 as a signal processing device includes a signal processing circuit 31, a storage device 34, a receiver 35, and a transmitter 36.
  • the signal processing circuit 31 is a circuit that controls the operation of the entire image processing server 3 and performs various processing on the signal received from the outside.
  • the signal processing circuit 31 includes an image processing circuit 32 and a communication control circuit 33.
  • the image processing circuit 32 is composed of, for example, an integrated circuit such as an FPGA (Field Programmable Gate Array).
  • the signal processing circuit 31 generates an endoscopic image by performing predetermined signal processing such as demosaic processing on the RAW image data transmitted from the endoscope 2, and displays the generated endoscopic image. It is configured to sequentially transmit to 4. That is, the image processing circuit 32 is a circuit that develops RAW image data.
  • all or part of the processing of the image processing circuit 32 may be performed by a software program. That is, a processor (not shown) provided in the signal processing circuit 31 may perform the same processing and operation as the image processing circuit 32 by executing the program read from the storage device 34.
  • the communication control circuit 33 is composed of, for example, an integrated circuit such as an FPGA (Field Programmable Gate Array). Note that all or part of the processing of the communication control circuit 33 may be performed by a software program. That is, a processor (not shown) provided in the signal processing circuit 31 may perform the same processing and operation as the communication control circuit 33 by executing the program read from the storage device 34.
  • the communication control circuit 33 is a pairing between the endoscope 2 which is the source of the RAW image data processed by the image processing circuit 32 and the display device 4 which is the transmission destination of the endoscope image generated by the image processing circuit 32. To optimize a series of processing sequences from the acquisition of the image pickup signal (RAW image data) in the image pickup element 22b to the display of the endoscope image in the display device 4.
  • the processing sequence is optimized in consideration of the frame rate and communication protocol, the transmission / reception frame rate of the image processing server 3 itself, and the frame rate of signal processing of the image processing circuit 32. It should be noted that these frame rates and communication protocols are stored in advance in a storage medium (flash memory, ROM, etc.) or a storage device 34 (not shown) of the image processing circuit 32.
  • 3 to 6 and 8 to 11 are time charts illustrating a series of processing sequences related to endoscopic images.
  • the horizontal axis indicates the time t, and a plurality of lanes provided in the vertical direction are used in the display device 4 from the acquisition of the image pickup signal (RAW image data) in the image pickup element 22b. It shows a series of processes up to the display of the endoscopic image.
  • the image pickup process of the subject in the image pickup element 22b of the endoscope 2 (shown as “imaging (1)") and the compression process in the data compression circuit 26 of the endoscope 2 ("" “Compression (2)”), data transmission processing from the transmitter 29 of the endoscope 2 (shown as “transmission (3)”), data reception processing at the access point 5 (shown as “reception (4)") , Data transmission processing at the access point 5 (shown as “transmission (5)”), data reception processing at the receiver 35 of the image processing server 3 (shown as “reception (6)”), image processing circuit of the image processing server 3.
  • Image processing (development processing) in 32 shown as “image processing (7)"
  • data transmission processing in the transmitter 36 of the image processing server 3 shown as “transmission (8)”
  • data reception processing in the access point 5. Shown as “Receive (9)
  • Data transmission process at the access point 5 shown as “Transmission (10)”
  • Data reception process at the receiver 44 of the display device 4 shown as “Receive (11)”
  • display (12) Each process of the image display process (shown as “display (12)”) in the control circuit 42 of the display device 4 is shown.
  • FIGS. 3 and 4 are used. I will explain. For example, a case where the processing performance of the endoscope 2 is 30 fps and the processing performance of the image processing server 3 and the display device 4 is 60 fps will be described below.
  • FIG. 3 is an example of a processing sequence before optimization
  • FIG. 4 shows an example of a processing sequence in which the sequence shown in FIG. 3 is optimized.
  • the processing sequence shown in FIG. 3 will be described.
  • the subject is imaged by the image pickup element 22b of the endoscope 2. Since the processing performance of the endoscope 2 is 30 fps, the image pickup device 22b acquires an image pickup signal for 30 frames per second. That is, the image sensor 22b acquires an image pickup signal for one frame in 1/30 second.
  • the acquired image pickup signal (RAW image data) is output from the image pickup element 22b to the data compressor 27 without delay.
  • the data compressor 27 compresses the input RAW image data at a predetermined compression rate, and then outputs the compressed data to the transmitter 29.
  • the transmitter 29 wirelessly transmits the RAW image data input from the data compressor 27 to the access point 5.
  • the transmitter 29 transmits one frame of RAW image data to the access point 5 every 1/30 second.
  • the access point 5 has the ability to receive 60 frames of RAW image data per second. Therefore, the access point 5 receives one frame of RAW image data transmitted from the transmitter 29 within 1/60 second. The access point 5 transmits the received RAW image data to the image processing server 3.
  • FIG. 1 An example in which one access point 5 exists between the endoscope 2 and the image processing server 3 is shown, but in reality, it is transmitted from the endoscope 2.
  • the RAW image data often reaches the image processing server 3 via a plurality of access points. Therefore, in the time charts shown in FIGS. 3 to 10, the reception timing at the access point that directly receives the RAW image data from the endoscope 2 is shown in "reception (4)", and finally via the plurality of access points.
  • the transmission timing at the access point for transmitting RAW image data to the image processing server 3 is shown in "Transmission (5)". In this way, data delay occurs by passing through a plurality of access points. In FIGS. 3 to 10, this delay time is set to, for example, 2/30 seconds.
  • the receiver 35 of the image processing server 3 receives RAW image data from the access point 5.
  • the receiver 35 receives one frame of RAW image data transmitted from the access point 5 in 1/60 seconds.
  • the received RAW image data is input to the image processing circuit 32.
  • the image processing circuit 32 starts the development process after a preset waiting time (for example, 3/30 seconds) has elapsed after the RAW image is input.
  • the timing of starting processing may be defined not by the waiting time but by the number of accumulated frames. For example, it may be defined that processing starts when data for three frames is accumulated in the buffer.
  • the RAW image data is converted into an endoscopic image by the development process. Since the processing performance of the image processing server 3 is 60 fps, the image processing circuit 32 can develop RAW image data for 60 frames per second. However, since RAW image data for one frame is input at 1/30 second intervals, the image processing circuit 32 performs development processing 1/60 seconds after the RAW image data is input, followed by 1/60 seconds. Is in a state of waiting for input of the next RAW image data (so-called idle state).
  • the endoscopic image generated by the image processing circuit 32 is transmitted from the transmitter 36 to the access point 5.
  • the transmitter 36 transmits the endoscopic image input from the image processing circuit 32 to the access point 5 without delay. That is, the endoscopic image is input from the image processing circuit 32 in 1/60 second, and the input of the image is waited for the following 1/60 second. Therefore, as shown in "Transmission (10)", the transmitter is used. 36 performs a transmission operation at the processing timing of transmitting an image for one frame in 1/60 seconds ⁇ waiting for 1/60 seconds ⁇ transmitting an image for one frame in 1/60 seconds.
  • the access point 5 has the ability to receive 60 frames of endoscopic images per second. Therefore, the access point 5 receives one frame of endoscopic image transmitted from the transmitter 36 within 1/60 second. The access point 5 transmits the received endoscopic image to the display device 4. Just as there are a plurality of access points intervening between the endoscope 2 and the image processing server 3, the endoscopic image transmitted from the image processing server 3 passes through the plurality of access points. It often reaches the display device 4. Therefore, in the time charts shown in FIGS. 3 to 10, the reception timing at the access point that receives the endoscopic image from the image processing server 3 is shown in "reception (9)", and finally via the plurality of access points.
  • the transmission timing at the access point for transmitting the endoscopic image to the display device 4 is shown in "Transmission (10)". In this way, data delay occurs by passing through a plurality of access points. In FIGS. 3 to 10, this delay time is set to, for example, 2/30 seconds.
  • the receiver 44 of the display device 4 receives the endoscopic image from the access point 5.
  • the receiver 44 receives one frame of endoscopic image transmitted from the access point 5 in 1/60 second. That is, the receiver 44 performs the reception operation at the processing timing of receiving one frame of image in 1/60 second ⁇ waiting for 1/60 second ⁇ receiving one frame of image in 1/60 second.
  • the received endoscopic image is input to the display 41.
  • the display 41 displays the endoscopic image after a preset waiting time (for example, 2/30 seconds) has elapsed after the endoscopic image is input.
  • the timing of starting processing may be defined not by the waiting time but by the number of accumulated frames or the like. For example, it may be defined that processing starts when data for two frames is accumulated in the buffer.
  • the display 41 can display an endoscopic image for 60 frames per second. However, since the endoscope image for one frame is input at 1/30 second intervals, the endoscope image for one frame is displayed for 1/60 second on the display 41, and the next endoscope image is displayed. The currently displayed frame is repeatedly displayed for the following 1/60 second until it is input.
  • the image pickup signal (RAW image data) acquired by the image pickup element 22b by the above series of processing sequences is displayed as an endoscopic image on the display device 4. That is, the delay time, which is the time required from imaging to display, is 26/60 seconds.
  • each processing in the endoscope 2 (“imaging (1)”, “compression (2)”, “transmission (3)”) and each processing in the access point 5 (“reception (4)”).
  • "Transmission (5)” “Reception (9)” “Transmission (10)” is performed at the timing of the process shown in FIG.
  • What is different from FIG. 3 is the processing in the image processing server 3 and the processing in the display device 4.
  • the waiting time set between "reception (6)" and “image processing (7)" in the image processing server 3 is changed, and when one frame of RAW image is received, development is performed without delay.
  • the delay time can be shortened by 5/60 seconds as compared with the processing sequence of FIG.
  • the waiting time set between "reception (11)” and “display (12)” in the display device 4 is changed, and when one frame of the endoscopic image is received, the display on the display 41 is displayed without delay.
  • the processing timing to start As a result, the delay time can be shortened by 3/60 seconds as compared with the processing sequence of FIG.
  • the processing capacity of the image processing circuit 32 is adjusted to the input timing of the RAW image data.
  • the processing capacity is reduced from 60 fps to 30 fps.
  • the processing cost of the image processing circuit 32 can be reduced.
  • the reduction of processing cost is expressed as follows in the time chart.
  • the horizontal length of the rectangle representing the processing time for one frame of “image processing (7)” is the rectangle representing the processing time for one frame of “image processing (7)” in FIG. Is twice the lateral length of. That is, by increasing the lateral length of the rectangle, it is possible to reduce the processing capacity of the processing represented by the rectangle and reduce the processing cost.
  • the output timing of the endoscope image from the image processing circuit 32 is delayed by 1/60 second.
  • the delay time required from imaging to display is 19/60 seconds, and the delay time can be shortened by 7/60 seconds compared to before optimization. Further, by optimizing the processing capacity, the processing cost of the image processing circuit 32 can be reduced.
  • the medical system of FIG. 1 shows, as an example, a configuration in which an image processing server 3 and an endoscope 2 are connected on a one-to-one basis.
  • the image processing server 3 and the endoscope 2 are connected one-to-many, and the image pickup signals transmitted from the plurality of endoscopes 2 are combined into one unit. It is also possible to realize a configuration in which image processing is performed by the image processing server 3.
  • the image processing server 3 may receive a data amount exceeding the processing performance from the plurality of endoscopes 2. .. In such a case, the processing cost of the endoscope 2 may be reduced to reduce the amount of signals transmitted to the image processing server 3, or the processing cost of the image processing server 3 may be reduced to obtain data exceeding the processing performance. Optimize the processing sequence by not receiving it.
  • FIG. 5 shows an example of a processing sequence before optimization
  • FIG. 6 shows an example of a processing sequence in which the sequence shown in FIG. 5 is optimized. In the following, the processing sequence will be optimized with a focus on reducing the processing cost.
  • the following optimization method can be applied to the processing sequence in which the delay is minimized. (However, as in the case of (1) described above, it is possible to minimize the delay for the processing sequence in which the delay is not minimized.)
  • the processing sequence shown in FIG. 5 will be described.
  • the subject is imaged by the image pickup element 22b of the endoscope 2. Since the processing performance of the endoscope 2 is 60 fps, the image pickup device 22b acquires an image pickup signal for 60 frames per second. That is, the image sensor 22b acquires an image pickup signal for one frame in 1/60 second.
  • the acquired image pickup signal (RAW image data) is output from the image pickup element 22b to the data compressor 27 without delay.
  • the data compressor 27 compresses the input RAW image data at a predetermined compression rate, and then outputs the compressed data to the transmitter 29.
  • the transmitter 29 wirelessly transmits the RAW image data input from the data compressor 27 to the access point 5.
  • the transmitter 29 transmits one frame of RAW image data to the access point 5 every 1/60 second.
  • the access point 5 has the ability to receive 60 frames of RAW image data per second. Therefore, the access point 5 receives one frame of RAW image data transmitted from the transmitter 29 within 1/60 second. The access point 5 transmits the received RAW image data to the image processing server 3.
  • the receiver 35 of the image processing server 3 receives RAW image data from the access point 5.
  • the receiver 35 receives one frame of RAW image data transmitted from the access point 5 in 1/60 seconds.
  • the received RAW image data is input to the image processing circuit 32.
  • the image processing circuit 32 starts the development process after a preset waiting time (for example, 3/30 seconds) has elapsed after the RAW image is input.
  • the RAW image data is converted into an endoscopic image by the development process. Since the processing performance of the image processing server 3 is 30 fps, the image processing circuit 32 can develop RAW image data for 30 frames per second.
  • the image processing circuit 32 performs the development processing of the frame 1/30 second after the RAW image data for the first frame is input. Then, for the following 1/30 second, the RAW image data of the third frame is developed. That is, the RAW image data in the second frame is discarded without being developed due to a mismatch between the input speed and the developing process.
  • the 4th frame in which development processing is performed on odd-numbered frame RAW image data, but development processing cannot be performed on even-numbered frame RAW image data, and the data is discarded. ..
  • frames that have been received by the image processing server 3 in “reception (6)” but are discarded without performing “image processing (7)” are shaded.
  • the endoscopic image generated by the image processing circuit 32 is transmitted from the transmitter 36 to the access point 5.
  • the transmitter 36 transmits the endoscopic image input from the image processing circuit 32 to the access point 5 without delay. That is, as shown in "Transmission (10)", the transmitter 36 transmits an image for one frame in 1/60 seconds ⁇ waits for 1/60 seconds ⁇ transmits an image for one frame in 1/60 seconds ⁇ .
  • the transmission operation is performed at the processing timing of ...
  • the access point 5 has the ability to receive 60 frames of endoscopic images per second. Therefore, the access point 5 receives one frame of endoscopic image transmitted from the transmitter 36 within 1/60 second. The access point 5 transmits the received endoscopic image to the display device 4.
  • the receiver 44 of the display device 4 receives the endoscopic image from the access point 5.
  • the receiver 44 receives one frame of endoscopic image transmitted from the access point 5 in 1/60 second. That is, the receiver 44 performs the reception operation at the processing timing of receiving one frame of image in 1/60 second ⁇ waiting for 1/60 second ⁇ receiving one frame of image in 1/60 second.
  • the received endoscopic image is input to the display 41.
  • the display 41 displays the endoscopic image after a preset waiting time (for example, 2/30 seconds) has elapsed after the endoscopic image is input. Since the processing performance of the display device 4 is 60 fps, the display 41 can display an endoscopic image for 60 frames per second.
  • the endoscope image for one frame is input at 1/30 second intervals, the endoscope image for one frame is displayed for 1/60 second on the display 41, and the next endoscope image is displayed.
  • the currently displayed frame is repeatedly displayed for the following 1/60 second until it is input.
  • the image pickup signal (RAW image data) acquired by the image pickup element 22b by the above series of processing sequences is displayed as an endoscopic image on the display device 4. That is, the delay time, which is the time required from imaging to display, is 27/60 seconds. Further, of the image pickup signals acquired by the image pickup device 22b, half of the signals cannot be image-processed and are discarded.
  • each processing (“reception (4)”, “transmission (5)”, “reception (9)”, and “transmission (10)”) in the access point 5 is performed at the timing shown in FIG.
  • What is different from FIG. 5 is the processing in the endoscope 2, the processing in the image processing server 3, and the processing in the display device 4.
  • the waiting time set between "reception (6)" and “image processing (7)" in the image processing server 3 is changed, and when one frame of RAW image is received, development is performed without delay.
  • the delay time can be shortened by 5/60 seconds as compared with the processing sequence of FIG.
  • the waiting time set between "reception (11)” and “display (12)” in the display device 4 is changed, and when one frame of the endoscopic image is received, the display on the display 41 is displayed without delay.
  • the processing timing to start As a result, the delay time can be shortened by 3/60 seconds as compared with the processing sequence of FIG.
  • the processing capacity of the endoscope 2 is matched with the development processing capacity of the RAW image data in the image processing server 3. That is, the processing capacity of the endoscope 2 is reduced from 60 fps to 30 fps. By lowering the processing capacity, all the RAW image data captured by the image sensor 22b and transmitted to the image processing server 3 is developed by the image processing circuit 32. That is, the processing cost of the endoscope 2 can be reduced by preventing the acquisition of useless data that cannot be processed by the image processing server 3.
  • the reduction of processing cost is expressed as follows in the time chart.
  • the horizontal length of the rectangle representing the processing time for one frame in each lane of “imaging (1)”, “compression (2)”, and “transmission (3)” is the length of the corresponding lane in FIG. It is twice the horizontal length of the rectangle that represents the processing time for one frame. That is, by increasing the lateral length of the rectangle, it is possible to reduce the processing capacity of the processing represented by the rectangle and reduce the processing cost.
  • the number of rectangles shown in the lane of “reception (6)” is half the number of rectangles in the lane of “reception (6)” in FIG. That is, by reducing the number of rectangles shown in one lane, the processing cost of the lane can be reduced.
  • the delay time required from imaging to display is 19/60 seconds, and the delay time can be shortened by 8/60 seconds compared to before optimization. Further, by optimizing the processing capacity, the processing cost of the endoscope 2 can be reduced. Further, the power consumption can be reduced by reducing the processing cost of the endoscope 2. By reducing the power consumption, when the endoscope 2 is driven by a battery such as a battery, the driving time can be extended.
  • FIG. 7 is a diagram illustrating another example of the overall configuration of the medical system according to the embodiment of the present invention. As shown in FIG. 7, in the case where the image processing server 3 is installed outside the hospital and communicates with the endoscope 2 and the display device 4 installed in the hospital via the base station 5', the communication performance of the network is high. May be lower.
  • FIG. 8 shows an example of a processing sequence before optimization
  • FIG. 9 shows an example of a processing sequence in which the sequence shown in FIG. 8 is optimized.
  • the processing sequence shown in FIG. 8 will be described.
  • the subject is imaged by the image pickup element 22b of the endoscope 2. Since the processing performance of the endoscope 2 is 60 fps, the image pickup device 22b acquires an image pickup signal for 60 frames per second. That is, the image sensor 22b acquires an image pickup signal for one frame in 1/60 second.
  • the acquired image pickup signal (RAW image data) is output from the image pickup element 22b to the data compressor 27 without delay.
  • the data compressor 27 compresses the input RAW image data at a predetermined compression rate, and then outputs the compressed data to the transmitter 29.
  • the transmitter 29 wirelessly transmits the RAW image data input from the data compressor 27 to the access point 5.
  • the transmitter 29 transmits one frame of RAW image data to the access point 5 every 1/60 second.
  • the access point 5 has the ability to receive RAW image data for 30 frames per second. Therefore, the access point 5 receives one frame of RAW image data transmitted from the transmitter 29 within 1/30 second. However, one frame of RAW image data is input from the endoscope 2 at 1/60 second intervals. That is, while the access point 5 receives one frame of RAW image data, the endoscope 2 transmits two frames of RAW image data. Due to this mismatch, the access point 5 can receive only half of the transmitted RAW image data. For example, odd-numbered RAW image data such as 1st frame, 3rd frame, ... can be received, but even-numbered RAW image data such as 2nd frame, 4th frame, etc. cannot be received and is discarded. turn into.
  • the access point 5 transmits the received RAW image data to the image processing server 3 at a speed of 1/30 second per frame.
  • the frame transmitted from the endoscope 2 by “transmission (3)” but discarded without “reception (4)” at the access point is shaded.
  • the receiver 35 of the image processing server 3 receives RAW image data from the access point 5.
  • the receiver 35 receives one frame of RAW image data transmitted from the access point 5 in 1/60 seconds.
  • the received RAW image data is input to the image processing circuit 32.
  • the image processing circuit 32 starts the development process after a preset waiting time (for example, 3/30 seconds) has elapsed after the RAW image is input.
  • the RAW image data is converted into an endoscopic image by the development process. Since the processing performance of the image processing server 3 is 60 fps, the image processing circuit 32 can develop RAW image data for 60 frames per second.
  • the image processing circuit 32 performs development processing 1/60 seconds after the RAW image data is input, followed by 1/60 seconds. Is in a state of waiting for input of the next RAW image data (so-called idle state).
  • the endoscopic image generated by the image processing circuit 32 is transmitted from the transmitter 36 to the access point 5.
  • the transmitter 36 transmits the endoscopic image input from the image processing circuit 32 to the access point 5 without delay. That is, the endoscopic image is input from the image processing circuit 32 in 1/60 second, and the input of the image is waited for the following 1/60 second. Therefore, as shown in "Transmission (10)", the transmitter is used. 36 performs a transmission operation at the processing timing of transmitting an image for one frame in 1/60 seconds ⁇ waiting for 1/60 seconds ⁇ transmitting an image for one frame in 1/60 seconds.
  • the access point 5 has the ability to receive 30 frames of endoscopic images per second. Therefore, the access point 5 receives one frame of endoscopic image transmitted from the transmitter 36 within 1/30 second. The access point 5 transmits the received endoscopic image to the display device 4.
  • the receiver 44 of the display device 4 receives the endoscopic image from the access point 5.
  • the receiver 44 receives one frame of endoscopic image transmitted from the access point 5 in 1/60 second. That is, the receiver 44 performs the reception operation at the processing timing of receiving one frame of image in 1/60 second ⁇ waiting for 1/60 second ⁇ receiving one frame of image in 1/60 second.
  • the received endoscopic image is input to the display 41.
  • the display 41 displays the endoscopic image after a preset waiting time (for example, 2/30 seconds) has elapsed after the endoscopic image is input. Since the processing performance of the display device 4 is 60 fps, the display 41 can display an endoscopic image for 60 frames per second.
  • the endoscope image for one frame is input at 1/30 second intervals, the endoscope image for one frame is displayed for 1/60 second on the display 41, and the next endoscope image is displayed.
  • the currently displayed frame is repeatedly displayed for the following 1/60 second until it is input.
  • the image pickup signal (RAW image data) acquired by the image pickup element 22b by the above series of processing sequences is displayed as an endoscopic image on the display device 4. That is, the delay time, which is the time required from imaging to display, is 28/60 seconds. Further, of the image pickup signals acquired by the image pickup device 22b, half of the signals cannot be image-processed and are discarded.
  • each processing (“reception (4)”, “transmission (5)”, “reception (9)”, “transmission (10)”) in the access point 5 is performed at the timing of the processing shown in FIG. conduct.
  • What is different from FIG. 8 is the processing in the endoscope 2, the processing in the image processing server 3, and the processing in the display device 4.
  • the waiting time set between "reception (6)" and “image processing (7)" in the image processing server 3 is changed, and when one frame of RAW image is received, development is performed without delay.
  • the delay time can be shortened by 5/60 seconds as compared with the processing sequence of FIG.
  • the waiting time set between "reception (11)” and “display (12)” in the display device 4 is changed, and when one frame of the endoscopic image is received, the display on the display 41 is displayed without delay.
  • the processing timing to start As a result, the delay time can be shortened by 3/60 seconds as compared with the processing sequence of FIG.
  • the processing capacity of the endoscope 2 is matched with the communication performance of the RAW image data at the access point 5. That is, the processing capacity of the endoscope 2 is reduced from 60 fps to 30 fps. By lowering the processing capacity, all the RAW image data captured by the image sensor 22b and transmitted to the access point 5 is transmitted to the image processing circuit 32. That is, the processing cost of the endoscope 2 can be reduced by preventing the image pickup device 22b from acquiring useless data that cannot be received by the access point 5.
  • the delay time required from imaging to display is 20/60 seconds, and the delay time can be shortened by 8/60 seconds compared to before optimization. Further, by optimizing the processing capacity, the processing cost of the endoscope 2 can be reduced.
  • FIG. 10 shows an example of a processing sequence before optimization
  • FIG. 11 shows an example of a processing sequence in which the sequence shown in FIG. 10 is optimized.
  • the processing sequence shown in FIG. 10 will be described.
  • the subject is imaged by the image pickup element 22b of the endoscope 2. Since the processing performance of the endoscope 2 is 60 fps, the image pickup device 22b acquires an image pickup signal for 60 frames per second. That is, the image sensor 22b acquires an image pickup signal for one frame in 1/60 second.
  • the acquired image pickup signal (RAW image data) is output from the image pickup element 22b to the data compressor 27 without delay.
  • the data compressor 27 compresses the input RAW image data at a predetermined compression rate, and then outputs the compressed data to the transmitter 29.
  • the transmitter 29 wirelessly transmits the RAW image data input from the data compressor 27 to the access point 5.
  • the transmitter 29 transmits one frame of RAW image data to the access point 5 every 1/60 second.
  • the access point 5 has the ability to receive 60 frames of RAW image data per second. Therefore, the access point 5 receives one frame of RAW image data transmitted from the transmitter 29 within 1/60 second. The access point 5 transmits the received RAW image data to the image processing server 3.
  • the receiver 35 of the image processing server 3 receives RAW image data from the access point 5.
  • the receiver 35 receives one frame of RAW image data transmitted from the access point 5 in 1/60 seconds.
  • the received RAW image data is input to the image processing circuit 32.
  • the image processing circuit 32 starts the development process after a preset waiting time (for example, 3/30 seconds) has elapsed after the RAW image is input.
  • the RAW image data is converted into an endoscopic image by the development process. Since the processing performance of the image processing server 3 is 60 fps, the image processing circuit 32 can develop RAW image data for 60 frames per second.
  • the endoscopic image generated by the image processing circuit 32 is transmitted from the transmitter 36 to the access point 5.
  • the transmitter 36 transmits the endoscopic image input from the image processing circuit 32 to the access point 5 without delay.
  • the access point 5 has the ability to receive 60 frames of endoscopic images per second. Therefore, the access point 5 receives one frame of endoscopic image transmitted from the transmitter 36 within 1/60 second. The access point 5 transmits the received endoscopic image to the display device 4.
  • the receiver 44 of the display device 4 receives the endoscopic image from the access point 5.
  • the receiver 44 receives one frame of endoscopic image transmitted from the access point 5 in 1/30 second.
  • one frame of endoscopic images is transmitted from the access point 5 to the display device 4 at 1/60 second intervals. That is, while the display device 4 receives the endoscope image for one frame, the endoscope image for two frames is transmitted from the access point 5. Due to this mismatch, the display device 4 can receive only half of the transmitted endoscopic image. For example, an odd-numbered frame endoscope image such as the first frame, the third frame, and the like can be received, but an even-numbered frame endoscope image such as the second frame, the fourth frame, and the like cannot be received. It will be discarded.
  • the image pickup signal (RAW image data) acquired by the image pickup element 22b by the above series of processing sequences is displayed as an endoscopic image on the display device 4. That is, the delay time, which is the time required from imaging to display, is 26/60 seconds. Further, of the image pickup signals acquired by the image pickup device 22b, half of the signals are discarded without being received by the display device 4.
  • each processing (“reception (4)”, “transmission (5)”, “reception (9)”, and “transmission (10)”) in the access point 5 is performed at the timing of the processing shown in FIG. conduct.
  • What is different from FIG. 10 is the processing in the endoscope 2, the processing in the image processing server 3, and the processing in the display device 4.
  • the waiting time set between "reception (6)" and “image processing (7)" in the image processing server 3 is changed, and when one frame of RAW image is received, development is performed without delay.
  • the delay time can be shortened by 5/60 seconds as compared with the processing sequence of FIG.
  • the waiting time set between "reception (11)” and “display (12)” in the display device 4 is changed, and when one frame of the endoscopic image is received, the display on the display 41 is displayed without delay.
  • the processing timing to start As a result, the delay time can be shortened by 2/60 seconds as compared with the processing sequence of FIG.
  • the processing capacity of the endoscope 2 is matched with the development processing capacity of the RAW image data in the image processing server 3. That is, the processing capacity of the endoscope 2 is reduced from 60 fps to 30 fps. Further, the processing capacity of the image processing circuit 32 in the image processing server 3 is also reduced from 60 fps to 30 fps. By reducing these processing capacities, all the RAW image data captured by the image pickup element 22b is developed by the image processing circuit 32, and all the developed data (endoscopic images) are displayed on the display device 4. .. That is, the processing costs of the endoscope 2 and the image processing server 3 can be reduced by preventing the acquisition of useless data that cannot be processed by the display device 4. By reducing the processing capacity of the image processing circuit 32 to 30 fps, the output timing of the endoscope image from the image processing circuit 32 is delayed by 1/60 second.
  • the delay time required from imaging to display is 20/60 seconds, and the delay time can be shortened by 7/60 seconds compared to before optimization. Further, by optimizing the processing capacity, the processing cost of the endoscope 2 and the processing cost of the image processing server 3 can be reduced.
  • the communication control circuit 33 includes the endoscope 2 which is the transmission source of the RAW image data, the display device 4 which is the transmission destination of the developed endoscope image, and the relay existing in these communication paths. Identify the location (eg, access point 5). Then, the processing sequence is optimized based on the processing specifications of the endoscope 2, the processing specifications of the display device 4, the processing specifications of the image processing server 3 itself, and the communication specifications of the relay point. Then, the processing specifications based on the optimized processing sequence are transmitted to the endoscope 2 and the display device 4 as processing communication control data. The endoscope 2 and the display device 4 execute their respective processing sequences based on the processing specifications received from the communication control circuit 33. Further, the image processing server 3 itself also executes the processing sequence based on the processing specifications optimized by the communication control circuit 33. This makes it possible to reduce the processing cost required for processing and communication, shorten the processing time required from imaging to display, and improve real-time performance.
  • the frame is divided into a plurality of subframes, and each processing and communication is performed in subframe units. It may be configured.
  • all or part of the processing of the communication control circuit 33 may be performed by a software program. That is, a processor (not shown) provided in the signal processing circuit 31 may perform the same processing and operation as the communication control circuit 33 by executing the program read from the storage device 34.
  • the display device 4 includes a display 41, a communication control circuit 42, a recording medium 43, a receiver 44, and a transmitter 45.
  • the display 41 is a part that displays an endoscopic image received from the image processing server 3. Specific examples thereof include a liquid crystal display, an organic EL (Electro-Luminence) display, and a CRT (Cathode Ray Tube) display.
  • a liquid crystal display an organic EL (Electro-Luminence) display
  • a CRT Cathode Ray Tube
  • the communication control circuit 42 controls the operation of the entire display device 4 based on the processing specifications transmitted from the image processing server 3. For example, the communication control circuit 42 controls the display speed of the endoscope image on the display 41. Further, the communication control circuit 42 transmits the processing specifications of the display device 4 in response to the request from the image processing server 3.
  • the recording medium 43 records an endoscopic image transmitted from the image processing server 3 and stores various parameters necessary for setting the display device 4.
  • the receiver 44 receives the endoscopic image transmitted from the image processing server 3 and the processing communication control data related to the processing specifications via the access point 5.
  • the received endoscope image and processing communication control data are output to the communication control circuit 42.
  • the transmitter 45 wirelessly transmits the processing specifications of the display device 4 output from the communication control circuit 42.
  • FIG. 12 is a flowchart showing the operation in this embodiment.
  • the flowchart shown in FIG. 12 is a diagram illustrating a procedure for optimizing a series of processes from imaging a subject to displaying an endoscopic image in the medical system 100.
  • the image processing server 3 pairs an endoscope 2 that captures a subject and transmits RAW image data with a display device 4 that displays an endoscope image developed by the image processing server 3 (S1). ). Further, a relay point (access point 5, etc.) between the endoscope 2 and the image processing server 3 and a relay point between the image processing server 3 and the display device 4 are specified.
  • the processing specifications of the endoscope 2 and the display device 4 paired in S1 are extracted from the storage device 34 (S2).
  • the processing specifications include processing speed (frame rate), processing / communication unit (frame / subframe), processing start timing (time lag from data reception to processing start, processing start condition), and the like. It also acquires the communication protocol (communication speed, etc.) of the relay point.
  • the optimum processing sequence is derived based on the processing specifications and the communication protocol extracted in S2 (S3).
  • the image processing server 3 transmits the processing communication control data to the endoscope 2 and the display device 4, and instructs the processing specifications (S4).
  • the endoscope 2 and the display device 4 set and change the processing specifications as necessary based on the received processing communication control data (S5). For example, in the endoscope 2, the frame rate of the image pickup device 22b and the transmission rate of RAW image data are set / changed. Further, in S5, the processing specifications are set / changed as necessary in the image processing server 3.
  • imaging of the subject is started by the endoscope 2 according to the processing specifications set in S5 (S6).
  • the captured RAW image data is transmitted to the image processing server 3, developed, and displayed on the display device 4 as an endoscopic image.
  • a medical system capable of reducing the processing time required from imaging to display and improving real-time performance while reducing the cost for processing and communication. can do.
  • the medical system 100 of the present embodiment is not limited to the system constructed in the hospital, and for example, the image processing server 3 may be installed outside the hospital.
  • the image processing server 3 may be installed outside the hospital.
  • the display device 4 may be installed outside the hospital, and the endoscopic image taken by the inspector in the hospital may be displayed on the display device 4 outside the hospital via an internet line or the like.
  • Such a configuration is optimal for remote diagnosis. That is, the installation location is not particularly limited as long as the endoscope 2, the image processing system 3, and the display device 4 can transmit and receive data to and from each other via a wireless / wired network.
  • the endoscope 2 and the display device 4 may be connected by a wired cable, and communication between the endoscope 2 and the image processing system 3 may be performed via the display device 4.
  • the configuration of the portion related to the communication interface of the endoscope 2 can be simplified, and the cost can be reduced.
  • the image processing server 3 may be provided with a secondary service function such as an automatic diagnosis function using the developed endoscopic image as well as a function for developing the endoscopic image.
  • a secondary service function such as an automatic diagnosis function using the developed endoscopic image as well as a function for developing the endoscopic image.
  • the communication control circuit 33 derives an optimum processing sequence in consideration of the processing speed of the secondary service function.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Optics & Photonics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Endoscopes (AREA)

Abstract

被写体を撮像して取得したRAW画像データを出力する内視鏡2と、アクセスポイント5を介して内視鏡2から取得したRAW画像データから内視鏡画像を生成する画像処理回路32を備えた画像処理サーバ3と、アクセスポイント5を介して画像処理サーバ3から取得した内視鏡画像を表示する表示装置4とを含む。画像処理サーバ3は、内視鏡2におけるRAW画像データの第1の処理仕様と、画像処理サーバ3の第2の処理仕様と、表示装置4における内視鏡画像の第3の処理仕様と、アクセスポイント5の通信プロトコルに基づき、第1から第3の処理仕様の少なくともいずれか一つを制御する通信制御回路33を有する。

Description

医療システム、及び、処理プロトコル制御方法
 本発明の実施形態は医療システム、及び、通信方法に関し、特に、クラウドコンピューティングにより内視鏡画像を処理する医療システム、及び、処理プロトコル制御方法に関する。
 従来から、医療分野において、電子内視鏡を利用した医療診断が行われている。電子内視鏡(以下、内視鏡と示す)は、体腔内に挿入される挿入部の先端に、CCDなどの撮像素子を内蔵している。CCDで取得された撮像信号は、プロセッサに入力されて現像処理が施される。すなわち、プロセッサは、入力された撮像信号に対して信号処理などを施し、内視鏡画像を生成する。プロセッサで生成された内視鏡画像は、モニタなどの表示装置に出力されて表示される。これにより、被験者の胃や腸などといった体腔内の画像(内視鏡画像)を観察することができる。
 一般的に、内視鏡とプロセッサとは、信号ケーブルにより接続されている。こうした内視鏡システムでは、内視鏡を操作する際に信号ケーブルが邪魔になる、持ち運びが不便などといった問題がある。このため、内視鏡とプロセッサとの間の信号の送受信を無線で行うようにした、いわゆるワイヤレス内視鏡システムも考案されている。
 一般的に、内視鏡、プロセッサ、及び、表示装置から主に構成される内視鏡システムは、ネットワークから独立して動作するスタンドアロンのシステムとして用いられ、最適化されてきた。
 ところで、近年では、遠隔病理診断などの遠隔医療に対する需要が高まっている。これに対応すべく、撮像装置により取得された被検体の体腔内の撮像画像や病理検体の撮像画像などのいわゆる医用画像を、インターネットなどのネットワークを介して、診断装置や表示装置に送信する医療システムが提案されている(例えば、特開2005-182670号公報、特開2019-82815号公報参照)。
 上述の内視鏡システムでこのような医療システムを構築する場合、ネットワークを介して、内視鏡、プロセッサ、及び、表示装置が接続される。このようなネットワークシステム構成の場合、遠隔医療の実現に加えて、システムの小型化や低コスト化がはかれるという利点もある。しかしながら、内視鏡、プロセッサ、及び、表示装置は、それぞれ処理プロトコルが独立して動作するため、同期遅延が長くなり、内視鏡で取得した撮像信号が内視鏡画像として表示装置に表示されるまでの間の遅延時間が長くなってしまうという問題があった。また、処理や通信速度のミスマッチにより、必要以上に処理や通信の負荷がかかる部位が生じてしまい、無駄な処理コストや通信コストが発生してしまうという問題があった。
 そこで、本発明は、処理や通信にかかるコストを低減しつつ、撮像から表示までに要する処理時間を短縮し、リアルタイム性を向上させることが可能な医療システム、及び、処理プロトコル制御方法を提供することを目的とする。
 本発明の一態様の医療システムは、被写体を撮像して取得した撮像信号を出力する撮像機器と、無線中継装置を介して前記撮像機器から取得した前記撮像信号から観察画像を生成する画像処理回路を備えた信号処理装置と、前記中継装置を介して前記信号処理装置から取得した前記観察画像を表示する表示装置と、を含む。前記信号処理装置は、前記撮像機器における前記撮像信号の第1の処理仕様と、前記信号処理装置の第2の処理仕様と、前記表示装置における前記観察画像の第3の処理仕様と、前記中継装置の通信プロトコルに基づき、前記第1から第3の処理仕様の少なくともいずれか一つを制御する、通信制御回路を有する。
 本発明の一態様の処理プロトコル制御方法は、被写体を撮像して取得した撮像信号を出力する撮像機器と、前記撮像信号から観察画像を生成する画像処理回路を備えた信号処理装置と、前記観察画像を表示する表示装置とを、中継装置を有する通信回線を介してペアリングする。そして、前記信号処理装置において、前記撮像機器における前記撮像信号の第1の処理仕様と、前記信号処理装置の第2の処理仕様と、前記表示装置における前記観察画像の第3の処理仕様と、前記中継装置の通信プロトコルに基づき、処理シーケンスを導出する。更に、前記信号処理装置から前記撮像機器に対し、前記処理シーケンスに基づき第4の処理仕様を指示する。また、前記信号処理装置から前記表示装置に対し、前記処理シーケンスに基づき第5の処理仕様を指示する。
本発明の実施形態に係わる医療システムの全体構成の一例を説明する図。 医療システムのハードウェア構成の一例を示すブロック図。 内視鏡画像に係る一連の処理シーケンスを説明するタイムチャート。 内視鏡画像に係る一連の処理シーケンスを説明するタイムチャート。 内視鏡画像に係る一連の処理シーケンスを説明するタイムチャート。 内視鏡画像に係る一連の処理シーケンスを説明するタイムチャート。 本発明の実施形態に係わる医療システムの全体構成の別の一例を説明する図。 内視鏡画像に係る一連の処理シーケンスを説明するタイムチャート。 内視鏡画像に係る一連の処理シーケンスを説明するタイムチャート。 内視鏡画像に係る一連の処理シーケンスを説明するタイムチャート。 内視鏡画像に係る一連の処理シーケンスを説明するタイムチャート。 本実施形態における作用を示すフローチャート。
 以下、図面を参照して実施形態を説明する。
 図1は、本発明の実施形態に係わる医療システムの全体構成の一例を説明する図である。本実施形態の医療システム100は、内視鏡2と、画像処理サーバ3と、表示装置4と、から主に構成されている。図1に示す医療システム100は、例えば、病院内に構築されたシステムであり、内視鏡2と表示装置4とが診察室に配置され、画像処理サーバ3がサーバルームに配置されている。内視鏡2、画像処理サーバ3、表示装置4は、病院内に設けられた中継装置としてのアクセスポイント5を介して、互いに通信可能である。内視鏡2とアクセスポイント5は、無線または有線により通信を行う。画像処理サーバ3とアクセスポイント5は、無線または有線により通信を行う。表示装置4とアクセスポイント5は、無線または有線により通信を行う。無線通信は、無線LAN(Local Area Network)の規格であるIEEE802.11などに準拠した通信方式や、モバイル通信向けの規格である5G、Local5Gに準拠した通信方式などを用いることができる。なお、無線通信の通信方式は、これらに限定される趣旨のものではなく、次世代通信規格などを用いた通信方式も適用可能である。
 撮像機器としての内視鏡2は、長尺で細長な挿入部9と操作部10とを含んで構成されている。内視鏡2の挿入部9は、先端から順に、先端部6、湾曲部7、及び、可撓管部8から構成されている。先端部6には、図示しない照明窓及び観察窓が設けられており、照明光が照明窓から被検体へ出射され、被検体からの戻り光が観察窓へ入射される。先端部6には、被写体を撮像する手段として、CCD、CMOSなどの固体撮像素子が配置されおり、観察窓から入射した光による被写体像を光電変換して撮像信号を出力する。内視鏡2は、固体撮像素子から出力された撮像信号を、無線にて画像処理サーバ3へ送信する。内視鏡2において、撮像信号に対して圧縮処理などの画像処理を行い、通信品質を向上させた信号を、画像処理サーバ3へ送信してもよい。より具体的には、内視鏡2から送信された撮像信号は、アクセスポイント5を経由して画像処理サーバ3へ送信される。
 操作部10には、挿入部9の湾曲部7を湾曲操作するための湾曲操作部14が回転自在に配設されると共に、スコープスイッチ15を含む、各種機能を実現するためのスイッチ類などが設けられている。なお、湾曲操作部14は、湾曲部7を上下方向に湾曲操作するためのUD湾曲操作ノブ12と、湾曲部7を左右方向に湾曲操作するためのRL湾曲操作ノブ13とが重畳するように配設されている。また、スコープスイッチ15は、例えば、録画開始/停止など、画像処理サーバ3における処理を制御するためのスイッチや、NBI(狭帯域光観察:Narrow Band Imaging)への光源切替など、内視鏡2の所定部位における処理を制御するためのスイッチが含まれる。スコープスイッチ15により、内視鏡2にネットワーク接続された様々な機器の制御が可能である。
 また、挿入部9と操作部10の連結部は、ユーザによる把持部を兼ねる把持部11と、この把持部11及び挿入部9の可撓管部8の一端の間に設けられた折れ止め部に配設されて、挿入部9に配設された各種処置部を挿通する処置具チャネルの開口部となる処置具チャネル挿通部18とを有して構成されている。
 画像処理サーバ3は、内視鏡2から受信した撮像信号を現像処理し、画像信号を生成する。なお、画像処理サーバ3は、撮像信号に対して圧縮処理などの画像処理が施された信号を受信した場合、受信した信号に基づく処理(例えば、圧縮処理された信号に対する伸張処理など)を行って画像信号を生成する。生成された画像信号は、アクセスポイント5を経由して、表示装置4へ無線にて送信される。また、画像処理サーバ3は、内視鏡2、アクセスポイント5、及び、表示装置4における送受信フレームレートや処理フレームレート、通信プロトコルに基づき、撮像から表示までの遅延時間が最短になるよう処理プロセスを最適化する。
 表示装置4は、医療システム100における表示手段であり、内視鏡2、画像処理サーバ3からみて外部の表示デバイスに該当する。表示装置4は、ネットワーク機能を有しており、画像処理サーバ3から受信した画像信号を、内視鏡画像として表示する。表示装置4は、例えば、ノートPCやタブレット、スマートフォンなどがあげられる。また、ネットワーク機能を持たないディスプレイも、無線機器を接続することで、表示装置4として用いることができる。
 なお、本実施形態の医療システム100は、表示装置4、4aのように、複数の表示装置を具備してもよい。表示装置4、4aのすべてにおいて内視鏡画像を表示させるようにしてもよいし、選択された1台の表示装置4において内視鏡画像を表示させるようにしてもよい。また、表示装置4、4aのうちの幾つかは、内視鏡2が配置されている診察室以外の部屋に設置されていてもよい。
 図2は、医療システムのハードウェア構成の一例を示すブロック図である。なお、図2では、医療システム100のハードウェア構成のうち、本実施形態に係る通信方法に関する処理を行うハードウェア構成を示している。
 内視鏡2は、先端部6に、光源21と、撮像ユニット22とを有する。また、操作部10に、光源駆動回路23と、撮像素子駆動回路24と、制御回路25と、記憶媒体26と、データ圧縮器27と、受信器28と、送信器29とを有する。
 光源21は、発光素子21aと、照明光学系21bと、を有して構成されている。
  発光素子21aは、例えば、LEDを有して構成されている。また、発光素子21aは、光源駆動回路23から供給される発光素子駆動信号に応じた光量を有する照明光を発生するように構成されている。
  照明光学系21bは、例えば、照明レンズを含む光学系として構成されている。また、照明光学系21bは、発光素子21aから発せられた照明光を先端部6の外部の被写体へ照射するように構成されている。
 撮像ユニット22は、観察光学系22aと、撮像素子22bと、を有するカメラとして構成されている。
  観察光学系22aは、例えば、結像レンズを含む光学系として構成されている。また、観察光学系22aは、光源部21からの照明光の照射に応じて先端部6の外部の被写体から発せられる戻り光(反射光)が入射されるとともに、当該戻り光を撮像素子22bの撮像面上に結像するように構成されている。
 撮像素子22bは、例えば、CCDまたはCMOSのようなイメージセンサを有して構成されている。また、撮像素子22bは、撮像素子駆動回路24から供給される撮像素子駆動信号に応じて駆動するように構成されている。また、撮像素子22bは、観察光学系22aにより結像された戻り光を撮像することにより撮像信号を生成する。そして、当該生成した撮像信号(RAW画像データ)をデータ圧縮器27へ出力するように構成されている。すなわち、内視鏡2は、細長な挿入部9の先端部6に設けられた撮像ユニット22により被検体の内部を撮像し、RAW画像データを取得する。なお、RAW画像データとは、撮像時の光の情報が調整されずにそのまま保持されている画像データをいう。すなわち、デモザイク処理などが行われていない加工前の画像データである。
 光源駆動回路23は、制御回路25の制御に応じ、発光素子21aを駆動させるための発光素子駆動信号を生成して出力するように構成されている。
  撮像素子駆動回路24は、制御回路25の制御に応じ、撮像素子22bを駆動させるための撮像素子駆動信号を生成して出力するように構成されている。
 制御回路25は、例えば、中央処理装置(以下、CPUという)のような1つ以上のプロセッサ25aを有して構成されている。制御回路25は、内視鏡2全体の動作の制御を行う。すなわち、図示しない入力デバイスにおいてされた指示あるいは入力に基づいて、内視鏡2の動作を制御し、各部への制御信号あるいは設定信号を出力する。また、制御回路25は、画像処理サーバ3から送信された処理仕様(処理通信制御データ)に基づき、撮像素子駆動回路24やデータ圧縮器27に対して、動作を指示する。
 記憶媒体26は、例えば、フラッシュメモリやROM(Read Only Memоry)等で構成される。記憶媒体26には、例えば、内視鏡2の各部の制御に用いられるプログラム、及び、制御回路25の動作に対応する種々のプログラムが格納されている。
 データ圧縮器27は、制御回路25の制御に応じ、撮像素子22bから出力されたRAW画像データを圧縮符号化する。本実施形態の医療システム100では、内視鏡2で取得した撮像信号が、画像処理サーバ3に無線で送信される。内視鏡2から画像処理サーバ3へ送信されるデータ量が大きいほど送信時間が長くなるために、画像処理の遅延を引き起こす要因となりうる。故に、内視鏡2は、画像処理サーバ3における画像処理能力に見合ったデータ量になるようRAW画像データを圧縮し、適切なタイミングで送信することが望ましい。従って、データ圧縮器27は、撮像素子22bから入力されたRAW画像データに対して、制御回路25により指定された圧縮率で、圧縮符号化する。
 なお、内視鏡2から画像処理サーバ3にRAW画像データを送信する利点は、以下の通りである。まず、一つ目の利点としては、RAW画像データは、一般的なデモザイク処理後の画像データよりもデータ量が小さいため、圧縮や伝送の負荷が小さくなることがあげられる。その結果、低遅延での伝送が実現される。二つ目の利点としては、RAW画像データは、撮像時の光の情報が調整されずにそのまま保持されているデータであり、画質の劣化のないデータであることがあげられる。その結果、画像処理サーバ3において、色味や明るさなどの調整を、画質を劣化させることなく行うことができる。
 受信器28は、画像処理サーバ3から送信された処理仕様に関する処理通信制御データを、アクセスポイント5を介して受信する。受信した処理通信制御データは、制御回路25へ出力される。
  送信器29は、データ圧縮器27から出力される圧縮符号化されたRAW画像データを、無線で送信する。
 なお、内視鏡2は、観察光学系22aの曇りを除去したり付着した汚れを除去したりするために、送気送水機能を有するものもある。このような内視鏡2は、二酸化炭素などの気体を送気したり水などの液体を送水したりできるように、送気送水ユニット201と送気送水駆動回路202とを有する。送気送水ユニット201は、図示しない送気送水源から供給される気体や液体を、送気送水駆動回路202からの制御に従って、先端部6から噴出させる。送気送水駆動回路202は、制御回路25の制御に応じ、送気送水ユニット201から液体や気体を噴出させるための駆動信号を生成して出力するように構成されている。また、内視鏡2は、先端部6近傍の被検体の処置(止血、焼灼切開、マーキングなど)を行うために、内視鏡用電気メスなどのエネルギーデバイス(図示せず)を備えるものもある。エネルギーデバイスの駆動制御は、エネルギーデバイス駆動回路(図示せず)によって行われる。エネルギーデバイス駆動回路は、制御回路25からの制御に応じ、エネルギーデバイスを操作するための駆動振動を生成して出力するように構成されている。
 信号処理装置としての画像処理サーバ3は、信号処理回路31と、記憶装置34と、受信器35と、送信器36とを有する。
 信号処理回路31は、画像処理サーバ3全体の動作を制御するとともに、外部から受信した信号に対して各種の処理を施す回路である。信号処理回路31は、画像処理回路32と、通信制御回路33とを有する。
 画像処理回路32は、例えば、FPGA(Field Programmable Gate Array)等の集積回路により構成されている。信号処理回路31は、内視鏡2から送信されるRAW画像データに対し、デモザイク処理など所定の信号処理を施すことにより内視鏡画像を生成するとともに、当該生成した内視鏡画像を表示装置4へ順次送信するように構成されている。すなわち、画像処理回路32は、RAW画像データの現像処理を行う回路である。
 なお、画像処理回路32の処理の全部若しくは一部をソフトウエアプログラムで行うようにしてもよい。すなわち、信号処理回路31に設けられた図示しないプロセッサが、記憶装置34から読み込んだプログラムを実行することにより、画像処理回路32と同様の処理及び動作等を行うものであってもよい。
 通信制御回路33は、例えば、FPGA(Field Programmable Gate Array)等の集積回路により構成されている。なお、通信制御回路33の処理の全部若しくは一部をソフトウエアプログラムで行うようにしてもよい。すなわち、信号処理回路31に設けられた図示しないプロセッサが、記憶装置34から読み込んだプログラムを実行することにより、通信制御回路33と同様の処理及び動作等を行うものであってもよい。通信制御回路33は、画像処理回路32が処理するRAW画像データの送信元である内視鏡2と、画像処理回路32が生成した内視鏡画像の送信先である表示装置4とのペアリングを行い、撮像素子22bおける撮像信号(RAW画像データ)の取得から表示装置4における内視鏡画像の表示までの一連の処理シーケンスを最適化する。
 具体的には、内視鏡2におけるRAW画像データの送信フレームレート、表示装置4における内視鏡画像の表示フレームレート、内視鏡2と画像処理サーバ3との間の通信経路に存在する中継地(図1の場合、アクセスポイント5)の送受信フレームレートと通信プロトコル、画像処理サーバ3と表示装置4との間の通信経路に存在する中継地(図1の場合、アクセスポイント5)の送受信フレームレートと通信プロトコル、画像処理サーバ3自身の送受信フレームレート、及び、画像処理回路32の信号処理のフレームレートとを考慮して、処理シーケンスを最適化する。なお、これらのフレームレートや通信プロトコルは、予め画像処理回路32の図示しない記憶媒体(フラッシュメモリやROMなど)や記憶装置34に格納しておく。
 ここで、通信制御回路33における処理シーケンスの最適化について、具体的な処理シーケンスを幾つか例示して説明する。図3~6、図8~図11は、内視鏡画像に係る一連の処理シーケンスを説明するタイムチャートである。図3~6、図8~図11において、横軸は時間tを示しており、縦方向に複数設けられたレーンは、撮像素子22bおける撮像信号(RAW画像データ)の取得から表示装置4における内視鏡画像の表示までの一連の処理を示している。
 具体的には、最上段のレーンから順に、内視鏡2の撮像素子22bにおける被写体の撮像処理(「撮像(1)」と図示)、内視鏡2のデータ圧縮回路26における圧縮処理(「圧縮(2)」と図示)、内視鏡2の送信器29からのデータ送信処理(「送信(3)」と図示)、アクセスポイント5におけるデータ受信処理(「受信(4)」と図示)、アクセスポイント5におけるデータ送信処理(「送信(5)」と図示)、画像処理サーバ3の受信器35におけるデータ受信処理(「受信(6)」と図示)、画像処理サーバ3の画像処理回路32における画像処理(現像処理)(「画像処理(7)」と図示)、画像処理サーバ3の送信器36におけるデータ送信処理(「送信(8)」と図示)、アクセスポイント5におけるデータ受信処理(「受信(9)」と図示)、アクセスポイント5におけるデータ送信処理(「送信(10)」と図示)、表示装置4の受信器44におけるデータ受信処理(「受信(11)」と図示)、表示装置4の制御回路42における画像表示処理(「表示(12)」と図示)、の各処理を示している。
 なお、各レーンにおいて、1フレーム(=内視鏡画像1枚)分のデータが処理されている時間を四角で示している。また、図3~6、図8~図11には、撮像素子22bが被写体の撮像を開始後、最初に取得したフレーム(=1フレーム目)から、連続するnフレーム(例えば、n=3)についてのタイムチャートを示している。実際には、撮像を終了するまでの期間、n+1フレーム目以降のフレームについても連続して処理が行われる。また、図3~6、図8~図11において、1フレーム目の画像データの処理の流れを矢印で示している。
(1)内視鏡2の処理性能が低い場合
 まず、画像処理サーバ3の処理性能に比べて内視鏡2の処理性能が低い場合の処理シーケンスの最適化について、図3と図4を用いて説明する。例えば、内視鏡2の処理性能が30fps、画像処理サーバ3と表示装置4の処理性能が60fpsである場合について、以下に説明する。図3は、最適化される前の処理シーケンスの一例であり、図4は、図3に示すシーケンスを最適化した処理シーケンスの一例を示している。
 まず、図3に示す処理シーケンスについて説明する。まず、内視鏡2の撮像素子22bにおいて被写体が撮像される。内視鏡2の処理性能が30fpsであるので、撮像素子22bは、1秒間に30フレーム分の撮像信号を取得する。すなわち、撮像素子22bは、1/30秒に1フレーム分の撮像信号を取得する。取得した撮像信号(RAW画像データ)は、遅滞なく撮像素子22bからデータ圧縮器27に対して出力される。
 データ圧縮器27は、入力されたRAW画像データを所定の圧縮率で圧縮した後、圧縮後のデータを送信器29に出力する。送信器29は、データ圧縮器27から入力されたRAW画像データを、アクセスポイント5へ無線で送信する。送信器29は、アクセスポイント5に対し、1/30秒ごとに1フレーム分のRAW画像データを送信する。
 アクセスポイント5は、1秒間に60フレーム分のRAW画像データを受信できる性能を有する。故に、アクセスポイント5は、送信器29から送信された1フレーム分のRAW画像データを、1/60秒の間に受信する。アクセスポイント5は、受信したRAW画像データを、画像処理サーバ3に送信する。
 なお、図1に示す医療システムでは、内視鏡2と画像処理サーバ3との間に1つのアクセスポイント5が存在する一例を示しているが、現実的には、内視鏡2から送信されたRAW画像データは、複数のアクセスポイントを経由して画像処理サーバ3に到達する場合が多い。故に、図3~図10に示すタイムチャートでは、内視鏡2から直接RAW画像データを受信するアクセスポイントにおける受信タイミングを「受信(4)」に示し、複数のアクセスポイントを経由して最後に画像処理サーバ3へRAW画像データを送信するアクセスポイントにおける送信タイミングを「送信(5)」に示している。このように、複数のアクセスポイントを経由することによりデータの遅延が生じる。図3~図10では、この遅延時間を、例えば2/30秒とする。
 画像処理サーバ3の受信器35は、アクセスポイント5からRAW画像データを受信する。受信器35は、アクセスポイント5から送信された1フレーム分のRAW画像データを、1/60秒の間に受信する。受信されたRAW画像データは、画像処理回路32に入力される。画像処理回路32は、RAW画像が入力されてから、予め設定された待機時間(例えば、3/30秒)が経過した後に、現像処理を開始する。処理開始のタイミングは、待機時間でなく、蓄積フレーム数などで定義されている場合もある。例えば、3フレーム分のデータがバッファに蓄積されたら処理開始する、などのように定義されている場合もある。
 現像処理によって、RAW画像データは内視鏡画像に変換される。画像処理サーバ3の処理性能は60fpsであるので、画像処理回路32は、1秒間に60フレーム分のRAW画像データを現像することができる。しかしながら、1フレーム分のRAW画像データが1/30秒間隔で入力されるので、画像処理回路32は、RAW画像データが入力されてから1/60秒で現像処理を行い、続く1/60秒は、次のRAW画像データの入力を待機する状態(所謂、アイドル状態)となる。
 画像処理回路32で生成された内視鏡画像は、送信器36からアクセスポイント5へ送信される。送信器36は、画像処理回路32から入力された内視鏡画像を、遅滞なくアクセスポイント5に送信する。すなわち、画像処理回路32から1/60秒間に内視鏡画像が入力され、続く1/60秒間は画像の入力を待機する状態であるので、「送信(10)」に示すように、送信器36は、1/60秒間で1フレーム分の画像を送信→1/60秒間待機→1/60秒間で1フレーム分の画像を送信→…の処理タイミングで送信動作を行う。
 アクセスポイント5は、1秒間に60フレーム分の内視鏡画像を受信できる性能を有する。故に、アクセスポイント5は、送信器36から送信された1フレーム分の内視鏡画像を、1/60秒の間に受信する。アクセスポイント5は、受信した内視鏡画像を、表示装置4に送信する。なお、内視鏡2と画像処理サーバ3との間に介在するアクセスポイントが複数存在するのと同様に、画像処理サーバ3から送信された内視鏡画像は、複数のアクセスポイントを経由して表示装置4に到達する場合が多い。故に、図3~図10に示すタイムチャートでは、画像処理サーバ3から内視鏡画像を受信するアクセスポイントにおける受信タイミングを「受信(9)」に示し、複数のアクセスポイントを経由して最後に表示装置4へ内視鏡画像を送信するアクセスポイントにおける送信タイミングを「送信(10)」に示している。このように、複数のアクセスポイントを経由することによりデータの遅延が生じる。図3~図10では、この遅延時間を、例えば2/30秒とする。
 表示装置4の受信器44は、アクセスポイント5から内視鏡画像を受信する。受信器44は、アクセスポイント5から送信された1フレーム分の内視鏡画像を、1/60秒の間に受信する。すなわち、受信器44は、1/60秒間で1フレーム分の画像を受信→1/60秒間待機→1/60秒間で1フレーム分の画像を受信→…の処理タイミングで受信動作を行う。受信された内視鏡画像は、ディスプレイ41に入力される。ディスプレイ41は、内視鏡画像が入力されてから、予め設定された待機時間(例えば、2/30秒)が経過した後に、当該画像を表示する。なお、処理開始のタイミングは、待機時間でなく、蓄積フレーム数などで定義されている場合もある。例えば、2フレーム分のデータがバッファに蓄積されたら処理開始する、などのように定義されている場合もある。
 表示装置4の処理性能は60fpsであるので、ディスプレイ41は、1秒間に60フレーム分の内視鏡画像を表示することができる。しかしながら、1フレーム分の内視鏡画像が1/30秒間隔で入力されるので、ディスプレイ41には、1フレーム分の内視鏡画像が1/60秒間表示され、次の内視鏡画像が入力されるまでの間となる続く1/60秒は、現在表示中のフレームが繰り返し表示される。
 以上の一連の処理シーケンスにより、撮像素子22bにおいて取得された撮像信号(RAW画像データ)は、表示装置4に内視鏡画像として表示される。すなわち、撮像から表示までに要する時間である遅延時間は、26/60秒となる。
 次に、図4に示す最適化された処理シーケンスについて説明する。図4に示す処理シーケンスにおいて、内視鏡2における各処理(「撮像(1)」「圧縮(2)」「送信(3)」)、及び、アクセスポイント5における各処理(「受信(4)」「送信(5)」「受信(9)」「送信(10)」)は、図3に示す処理のタイミングで行う。図3と異なるのは、画像処理サーバ3における処理と、表示装置4における処理である。
 具体的には、まず、画像処理サーバ3における「受信(6)」から「画像処理(7)」の間に設定された待機時間を変更し、RAW画像を1フレーム分受信したら遅滞なく現像を開始するように処理タイミングを設定する。これにより、図3の処理シーケンスよりも遅延時間を5/60秒短縮することができる。次に、表示装置4における「受信(11)」から「表示(12)」の間に設定された待機時間を変更し、内視鏡画像を1フレーム分受信したら遅滞なくディスプレイ41への表示を開始するように処理タイミングを設定する。これにより、図3の処理シーケンスよりも遅延時間を3/60秒短縮することができる。
 そして、画像処理回路32における処理能力を、RAW画像データの入力タイミングに合わせる。次のRAW画像データの入力までのアイドル状態も使用して画像処理を行うことで、処理能力を60fpsから30fpsに下げる。処理能力を下げることで、画像処理回路32の処理コストを削減することができる。
 タイムチャートにおいて処理コストの削減は、以下のように表現される。図4において、「画像処理(7)」の1フレーム分の処理時間を表す矩形の横方向の長さは、図3において、「画像処理(7)」の1フレーム分の処理時間を表す矩形の横方向の長さの2倍である。すなわち、矩形の横方向の長さを長くすることで、該矩形が表す処理の処理能力を低下させ、処理コストを削減することができる。
なお、画像処理回路32における処理能力を30fpsに下げることで、画像処理回路32からの内視鏡画像の出力タイミングは、1/60秒遅延する。
 これら3つの処理タイミングの変更により、撮像から表示までに要する時間である遅延時間は19/60秒となり、最適化前よりも遅延時間を7/60秒短縮することができる。また、処理能力の適正化によって、画像処理回路32の処理コストを削減することができる。
(2)内視鏡2と画像処理サーバ3の処理コストを低減する場合
 次に、内視鏡2と画像処理サーバ3の処理コストが低減可能な場合における、処理シーケンスの最適化について、説明する。図1の医療システムは、画像処理サーバ3と内視鏡2とが1対1で接続されている構成を一例として示した。これに加え、画像処理サーバ3を効率よく使用する観点から、画像処理サーバ3と内視鏡2とを1対多で接続し、複数の内視鏡2から送信される撮像信号を1台の画像処理サーバ3で画像処理する構成も実現可能である。このように、画像処理サーバ3と内視鏡2が1対多の構成とする場合、画像処理サーバ3は、処理性能を超えるデータ量を、複数の内視鏡2から受信する可能性がある。このような場合において、内視鏡2の処理コストを低減して、画像処理サーバ3に送信する信号量を低減したり、画像処理サーバ3の処理コストを低減して、処理性能を超えるデータを受信しないようにしたりことで、処理シーケンスを最適化する。
 また、画像処理サーバ3と内視鏡2とが1対1で接続されている構成においても、内視鏡2の処理性能が画像処理サーバ3の処理性能より高い場合にも、同様にして処理シーケンスを最適化することができる。例えば、内視鏡2と表示装置4の処理性能が60fps、画像処理サーバ3の処理性能が30fpsである場合について、図5と図6を用いて以下に説明する。図5は、最適化される前の処理シーケンスの一例であり、図6は、図5に示すシーケンスを最適化した処理シーケンスの一例を示している。なお、以下においては、処理コストの低減に主眼をおいて処理シーケンスの最適化を行う。すなわち、遅延が最小化されている処理シーケンスに対して、以下の最適化の手法が適用可能である。(ただし、上述した(1)の場合と同様に、遅延が最小化されていない処理シーケンスに対しては、遅延の最小化も可能である。)
 まず、図5に示す処理シーケンスについて説明する。まず、内視鏡2の撮像素子22bにおいて被写体が撮像される。内視鏡2の処理性能が60fpsであるので、撮像素子22bは、1秒間に60フレーム分の撮像信号を取得する。すなわち、撮像素子22bは、1/60秒に1フレーム分の撮像信号を取得する。取得した撮像信号(RAW画像データ)は、遅滞なく撮像素子22bからデータ圧縮器27に対して出力される。
 データ圧縮器27は、入力されたRAW画像データを所定の圧縮率で圧縮した後、圧縮後のデータを送信器29に出力する。送信器29は、データ圧縮器27から入力されたRAW画像データを、アクセスポイント5へ無線で送信する。送信器29は、アクセスポイント5に対し、1/60秒ごとに1フレーム分のRAW画像データを送信する。
 アクセスポイント5は、1秒間に60フレーム分のRAW画像データを受信できる性能を有する。故に、アクセスポイント5は、送信器29から送信された1フレーム分のRAW画像データを、1/60秒の間に受信する。アクセスポイント5は、受信したRAW画像データを、画像処理サーバ3に送信する。
 画像処理サーバ3の受信器35は、アクセスポイント5からRAW画像データを受信する。受信器35は、アクセスポイント5から送信された1フレーム分のRAW画像データを、1/60秒の間に受信する。受信されたRAW画像データは、画像処理回路32に入力される。画像処理回路32は、RAW画像が入力されてから、予め設定された待機時間(例えば、3/30秒)が経過した後に、現像処理を開始する。現像処理によって、RAW画像データは内視鏡画像に変換される。画像処理サーバ3の処理性能は30fpsであるので、画像処理回路32は、1秒間に30フレーム分のRAW画像データを現像することができる。しかしながら、1フレーム分のRAW画像データが1/60秒間隔で入力されるので、画像処理回路32は、1フレーム目のRAW画像データが入力されてから1/30秒で当該フレームの現像処理を行い、続く1/30秒は、3フレーム目のRAW画像データの現像処理を行う。すなわち、2フレーム目のRAW画像データは、入力速度と現像処理のミスマッチにより、現像処理が行われずに廃棄データとなってしまう。4フレーム目も同様であり、奇数フレームのRAW画像データに対しては現像処理が行われるが、偶数フレームのRAW画像データに対しては現像処理を行うことができず、データが廃棄されてしまう。なお、図5において、「受信(6)」で画像処理サーバ3に受信されたが、「画像処理(7)」が行われずに廃棄されるフレームを網掛けで示す。
 画像処理回路32で生成された内視鏡画像は、送信器36からアクセスポイント5へ送信される。送信器36は、画像処理回路32から入力された内視鏡画像を、遅滞なくアクセスポイント5に送信する。すなわち、「送信(10)」に示すように、送信器36は、1/60秒間で1フレーム分の画像を送信→1/60秒間待機→1/60秒間で1フレーム分の画像を送信→…の処理タイミングで送信動作を行う。
 アクセスポイント5は、1秒間に60フレーム分の内視鏡画像を受信できる性能を有する。故に、アクセスポイント5は、送信器36から送信された1フレーム分の内視鏡画像を、1/60秒の間に受信する。アクセスポイント5は、受信した内視鏡画像を、表示装置4に送信する。
 表示装置4の受信器44は、アクセスポイント5から内視鏡画像を受信する。受信器44は、アクセスポイント5から送信された1フレーム分の内視鏡画像を、1/60秒の間に受信する。すなわち、受信器44は、1/60秒間で1フレーム分の画像を受信→1/60秒間待機→1/60秒間で1フレーム分の画像を受信→…の処理タイミングで受信動作を行う。受信された内視鏡画像は、ディスプレイ41に入力される。ディスプレイ41は、内視鏡画像が入力されてから、予め設定された待機時間(例えば、2/30秒)が経過した後に、当該画像を表示する。表示装置4の処理性能は60fpsであるので、ディスプレイ41は、1秒間に60フレーム分の内視鏡画像を表示することができる。しかしながら、1フレーム分の内視鏡画像が1/30秒間隔で入力されるので、ディスプレイ41には、1フレーム分の内視鏡画像が1/60秒間表示され、次の内視鏡画像が入力されるまでの間となる続く1/60秒は、現在表示中のフレームが繰り返し表示される。
 以上の一連の処理シーケンスにより、撮像素子22bにおいて取得された撮像信号(RAW画像データ)は、表示装置4に内視鏡画像として表示される。すなわち、撮像から表示までに要する時間である遅延時間は、27/60秒となる。また、撮像素子22bにおいて取得された撮像信号のうち、半数の信号は画像処理ができずに廃棄されてしまう。
 次に、図6に示す最適化された処理シーケンスについて説明する。図6に示す処理シーケンスにおいて、アクセスポイント5における各処理(「受信(4)」「送信(5)」「受信(9)」「送信(10)」)は、図5に示すタイミングで行う。図5と異なるのは、内視鏡2における処理と、画像処理サーバ3における処理と、表示装置4における処理である。
 具体的には、まず、画像処理サーバ3における「受信(6)」から「画像処理(7)」の間に設定された待機時間を変更し、RAW画像を1フレーム分受信したら遅滞なく現像を開始するように処理タイミングを設定する。これにより、図5の処理シーケンスよりも遅延時間を5/60秒短縮することができる。次に、表示装置4における「受信(11)」から「表示(12)」の間に設定された待機時間を変更し、内視鏡画像を1フレーム分受信したら遅滞なくディスプレイ41への表示を開始するように処理タイミングを設定する。これにより、図3の処理シーケンスよりも遅延時間を3/60秒短縮することができる。
 そして、内視鏡2における処理能力を、画像処理サーバ3におけるRAW画像データの現像処理能力に合わせる。すなわち、内視鏡2の処理能力を60fpsから30fpsに下げる。処理能力を下げることで、撮像素子22bで撮像され、画像処理サーバ3に送信されたRAW画像データが、画像処理回路32で全て現像される。すなわち、画像処理サーバ3で処理できない無駄なデータを取得しないようにすることで、内視鏡2の処理コストを削減することができる。
 タイムチャートにおいて処理コストの削減は、以下のように表現される。図6において、「撮像(1)」「圧縮(2)」「送信(3)」の各レーンにおける1フレーム分の処理時間を表す矩形の横方向の長さは、図5において対応するレーンの1フレーム分の処理時間を表す矩形の横方向の長さの2倍である。すなわち、矩形の横方向の長さを長くすることで、該矩形が表す処理の処理能力を低下させ、処理コストを削減することができる。また、図6において、「受信(6)」のレーンに示す矩形の数は、図5の「受信(6)」のレーンに矩形の数の半分である。すなわち、1つのレーンに示されている矩形の数を減ずることで、当該レーンの処理コストを削減することができる。
 これら3つの処理タイミングの変更により、撮像から表示までに要する時間である遅延時間は19/60秒となり、最適化前よりも遅延時間を8/60秒短縮することができる。また、処理能力の適正化によって、内視鏡2の処理コストを削減することができる。更に、内視鏡2の処理コストを削減することにより、消費電力を削減することもできる。消費電力の削減により、内視鏡2が電池などバッテリーで駆動されている場合には、駆動時間を延ばすことが可能となる。
(3)ネットワークの通信性能が低い場合
 次に、ネットワークの通信性能が低い場合の処理シーケンスの最適化について、説明する。ネットワークの通信性能が低い場合としては、例えば、アクセスポイント5自体の性能が低い場合や、アクセスポイント5に接続される無線機器が多く、アクセスポイント5の通信品質が劣化する場合などがあげられる。図7は、本発明の実施形態に係わる医療システムの全体構成の別の一例を説明する図である。図7に示すように、画像処理サーバ3が院外に設置され、院内に設置された内視鏡2や表示装置4と、基地局5´を介して通信する構成の場合、ネットワークの通信性能が低くなる場合がある。モバイル通信向けの規格である5Gに準拠した通信方式で、医療システム内全体のネットワークを統一することも可能であるし、院内にLocal5Gに準拠した通信方式などを用いてローカルなネットワーク(院内LAN)を構築し、院内LANと基地局5´、基地局5´と画像処理サーバ3とをそれぞれ別のネットワークで接続するように構成することも可能である。このように、ローカルに構築されたネットワークを接続して通信を行う場合、ネットワークの複雑さに起因して通信性能が低下する場合もありうる。
 ここでは、アクセスポイント5自体の性能が低い場合について、例えば、内視鏡2、画像処理サーバ3、及び、表示装置4の処理性能が60fpsであり、アクセスポイント5は1秒間に30フレーム分のRAW画像データを受信できる性能を有する場合について、以下に説明する。図8は、最適化される前の処理シーケンスの一例であり、図9は、図8に示すシーケンスを最適化した処理シーケンスの一例を示している。
 まず、図8に示す処理シーケンスについて説明する。まず、内視鏡2の撮像素子22bにおいて被写体が撮像される。内視鏡2の処理性能が60fpsであるので、撮像素子22bは、1秒間に60フレーム分の撮像信号を取得する。すなわち、撮像素子22bは、1/60秒に1フレーム分の撮像信号を取得する。取得した撮像信号(RAW画像データ)は、遅滞なく撮像素子22bからデータ圧縮器27に対して出力される。
 データ圧縮器27は、入力されたRAW画像データを所定の圧縮率で圧縮した後、圧縮後のデータを送信器29に出力する。送信器29は、データ圧縮器27から入力されたRAW画像データを、アクセスポイント5へ無線で送信する。送信器29は、アクセスポイント5に対し、1/60秒ごとに1フレーム分のRAW画像データを送信する。
 アクセスポイント5は、1秒間に30フレーム分のRAW画像データを受信できる性能を有する。故に、アクセスポイント5は、送信器29から送信された1フレーム分のRAW画像データを、1/30秒の間に受信する。しかしながら、内視鏡2から1フレーム分のRAW画像データが1/60秒間隔で入力される。すなわち、アクセスポイント5が1フレーム分のRAW画像データを受信する間に、内視鏡2からは2フレーム分のRAW画像データが送信される。このミスマッチにより、アクセスポイント5は、送信されるRAW画像データを半分しか受信できない。例えば、1フレーム目、3フレーム目、…のように奇数フレームのRAW画像データは受信できるが、2フレーム目、4フレーム目、…のように偶数フレームのRAW画像データは受信できず、廃棄となってしまう。アクセスポイント5は、受信したRAW画像データを、1フレームあたり1/30秒の速度で画像処理サーバ3に送信する。なお、図8において、「送信(3)」で内視鏡2から送信されたが、アクセスポイントにおいて「受信(4)」が行われずに廃棄されるフレームを網掛けで示す。
 画像処理サーバ3の受信器35は、アクセスポイント5からRAW画像データを受信する。受信器35は、アクセスポイント5から送信された1フレーム分のRAW画像データを、1/60秒の間に受信する。受信されたRAW画像データは、画像処理回路32に入力される。画像処理回路32は、RAW画像が入力されてから、予め設定された待機時間(例えば、3/30秒)が経過した後に、現像処理を開始する。現像処理によって、RAW画像データは内視鏡画像に変換される。画像処理サーバ3の処理性能は60fpsであるので、画像処理回路32は、1秒間に60フレーム分のRAW画像データを現像することができる。しかしながら、1フレーム分のRAW画像データが1/30秒間隔で入力されるので、画像処理回路32は、RAW画像データが入力されてから1/60秒で現像処理を行い、続く1/60秒は、次のRAW画像データの入力を待機する状態(所謂、アイドル状態)となる。
 画像処理回路32で生成された内視鏡画像は、送信器36からアクセスポイント5へ送信される。送信器36は、画像処理回路32から入力された内視鏡画像を、遅滞なくアクセスポイント5に送信する。すなわち、画像処理回路32から1/60秒間に内視鏡画像が入力され、続く1/60秒間は画像の入力を待機する状態であるので、「送信(10)」に示すように、送信器36は、1/60秒間で1フレーム分の画像を送信→1/60秒間待機→1/60秒間で1フレーム分の画像を送信→…の処理タイミングで送信動作を行う。
 アクセスポイント5は、1秒間に30フレーム分の内視鏡画像を受信できる性能を有する。故に、アクセスポイント5は、送信器36から送信された1フレーム分の内視鏡画像を、1/30秒の間に受信する。アクセスポイント5は、受信した内視鏡画像を、表示装置4に送信する。
 表示装置4の受信器44は、アクセスポイント5から内視鏡画像を受信する。受信器44は、アクセスポイント5から送信された1フレーム分の内視鏡画像を、1/60秒の間に受信する。すなわち、受信器44は、1/60秒間で1フレーム分の画像を受信→1/60秒間待機→1/60秒間で1フレーム分の画像を受信→…の処理タイミングで受信動作を行う。受信された内視鏡画像は、ディスプレイ41に入力される。ディスプレイ41は、内視鏡画像が入力されてから、予め設定された待機時間(例えば、2/30秒)が経過した後に、当該画像を表示する。表示装置4の処理性能は60fpsであるので、ディスプレイ41は、1秒間に60フレーム分の内視鏡画像を表示することができる。しかしながら、1フレーム分の内視鏡画像が1/30秒間隔で入力されるので、ディスプレイ41には、1フレーム分の内視鏡画像が1/60秒間表示され、次の内視鏡画像が入力されるまでの間となる続く1/60秒は、現在表示中のフレームが繰り返し表示される。
 以上の一連の処理シーケンスにより、撮像素子22bにおいて取得された撮像信号(RAW画像データ)は、表示装置4に内視鏡画像として表示される。すなわち、撮像から表示までに要する時間である遅延時間は、28/60秒となる。また、撮像素子22bにおいて取得された撮像信号のうち、半数の信号は画像処理ができずに廃棄されてしまう。
 次に、図9に示す最適化された処理シーケンスについて説明する。図9に示す処理シーケンスにおいて、アクセスポイント5における各処理(「受信(4)」「送信(5)」「受信(9)」「送信(10)」)は、図8に示す処理のタイミングで行う。図8と異なるのは、内視鏡2における処理と、画像処理サーバ3における処理と、表示装置4における処理である。
 具体的には、まず、画像処理サーバ3における「受信(6)」から「画像処理(7)」の間に設定された待機時間を変更し、RAW画像を1フレーム分受信したら遅滞なく現像を開始するように処理タイミングを設定する。これにより、図5の処理シーケンスよりも遅延時間を5/60秒短縮することができる。次に、表示装置4における「受信(11)」から「表示(12)」の間に設定された待機時間を変更し、内視鏡画像を1フレーム分受信したら遅滞なくディスプレイ41への表示を開始するように処理タイミングを設定する。これにより、図3の処理シーケンスよりも遅延時間を3/60秒短縮することができる。
 そして、内視鏡2における処理能力を、アクセスポイント5におけるRAW画像データの通信性能に合わせる。すなわち、内視鏡2の処理能力を60fpsから30fpsに下げる。処理能力を下げることで、撮像素子22bで撮像され、アクセスポイント5に送信されたRAW画像データが、全て画像処理回路32へ送信される。すなわち、アクセスポイント5で受信できない無駄なデータを撮像素子22bで取得しないようにすることで、内視鏡2の処理コストを削減することができる。
 これら3つの処理タイミングの変更により、撮像から表示までに要する時間である遅延時間は20/60秒となり、最適化前よりも遅延時間を8/60秒短縮することができる。また、処理能力の適正化によって、内視鏡2の処理コストを削減することができる。
(4)表示装置4の処理性能が低い場合
 次に、表示装置4の処理性能が低い場合の処理シーケンスの最適化について、図10と図11を用いて説明する。例えば、内視鏡2と画像処理サーバ3の処理性能が60fps、表示装置4の処理性能が30fpsである場合について、以下に説明する。図10は、最適化される前の処理シーケンスの一例であり、図11は、図10に示すシーケンスを最適化した処理シーケンスの一例を示している。
 まず、図10に示す処理シーケンスについて説明する。まず、内視鏡2の撮像素子22bにおいて被写体が撮像される。内視鏡2の処理性能が60fpsであるので、撮像素子22bは、1秒間に60フレーム分の撮像信号を取得する。すなわち、撮像素子22bは、1/60秒に1フレーム分の撮像信号を取得する。取得した撮像信号(RAW画像データ)は、遅滞なく撮像素子22bからデータ圧縮器27に対して出力される。
 データ圧縮器27は、入力されたRAW画像データを所定の圧縮率で圧縮した後、圧縮後のデータを送信器29に出力する。送信器29は、データ圧縮器27から入力されたRAW画像データを、アクセスポイント5へ無線で送信する。送信器29は、アクセスポイント5に対し、1/60秒ごとに1フレーム分のRAW画像データを送信する。
 アクセスポイント5は、1秒間に60フレーム分のRAW画像データを受信できる性能を有する。故に、アクセスポイント5は、送信器29から送信された1フレーム分のRAW画像データを、1/60秒の間に受信する。アクセスポイント5は、受信したRAW画像データを、画像処理サーバ3に送信する。
 画像処理サーバ3の受信器35は、アクセスポイント5からRAW画像データを受信する。受信器35は、アクセスポイント5から送信された1フレーム分のRAW画像データを、1/60秒の間に受信する。受信されたRAW画像データは、画像処理回路32に入力される。画像処理回路32は、RAW画像が入力されてから、予め設定された待機時間(例えば、3/30秒)が経過した後に、現像処理を開始する。現像処理によって、RAW画像データは内視鏡画像に変換される。画像処理サーバ3の処理性能は60fpsであるので、画像処理回路32は、1秒間に60フレーム分のRAW画像データを現像することができる。画像処理回路32で生成された内視鏡画像は、送信器36からアクセスポイント5へ送信される。送信器36は、画像処理回路32から入力された内視鏡画像を、遅滞なくアクセスポイント5に送信する。
 アクセスポイント5は、1秒間に60フレーム分の内視鏡画像を受信できる性能を有する。故に、アクセスポイント5は、送信器36から送信された1フレーム分の内視鏡画像を、1/60秒の間に受信する。アクセスポイント5は、受信した内視鏡画像を、表示装置4に送信する。
 表示装置4の受信器44は、アクセスポイント5から内視鏡画像を受信する。受信器44は、アクセスポイント5から送信された1フレーム分の内視鏡画像を、1/30秒の間に受信する。しかしながら、表示装置4には、アクセスポイント5から1フレーム分の内視鏡画像が1/60秒間隔で送信される。すなわち、表示装置4が1フレーム分の内視鏡画像を受信する間に、アクセスポイント5から2フレーム分の内視鏡画像が送信される。このミスマッチにより、表示装置4は、送信される内視鏡画像を半分しか受信できない。例えば、1フレーム目、3フレーム目、…のように奇数フレームの内視鏡画像は受信できるが、2フレーム目、4フレーム目、…のように偶数フレームの内視鏡画像は受信できず、廃棄となってしまう。従って、ディスプレイ41には、奇数フレーム目の内視鏡画像のみが表示される。なお、図10において、「送信(10)」でアクセスポイント5から送信されたが、表示装置4において「受信(11)」が行われずに廃棄されるフレームを網掛けで示す。
 以上の一連の処理シーケンスにより、撮像素子22bにおいて取得された撮像信号(RAW画像データ)は、表示装置4に内視鏡画像として表示される。すなわち、撮像から表示までに要する時間である遅延時間は、26/60秒となる。また、撮像素子22bにおいて取得された撮像信号のうち、半数の信号は表示装置4において受信されずに廃棄されてしまう。
 次に、図11に示す最適化された処理シーケンスについて説明する。図11に示す処理シーケンスにおいて、アクセスポイント5における各処理(「受信(4)」「送信(5)」「受信(9)」「送信(10)」)は、図10に示す処理のタイミングで行う。図10と異なるのは、内視鏡2における処理と、画像処理サーバ3における処理と、表示装置4における処理である。
 具体的には、まず、画像処理サーバ3における「受信(6)」から「画像処理(7)」の間に設定された待機時間を変更し、RAW画像を1フレーム分受信したら遅滞なく現像を開始するように処理タイミングを設定する。これにより、図5の処理シーケンスよりも遅延時間を5/60秒短縮することができる。次に、表示装置4における「受信(11)」から「表示(12)」の間に設定された待機時間を変更し、内視鏡画像を1フレーム分受信したら遅滞なくディスプレイ41への表示を開始するように処理タイミングを設定する。これにより、図10の処理シーケンスよりも遅延時間を2/60秒短縮することができる。
 そして、内視鏡2における処理能力を、画像処理サーバ3におけるRAW画像データの現像処理能力に合わせる。すなわち、内視鏡2の処理能力を60fpsから30fpsに下げる。また、画像処理サーバ3における画像処理回路32の処理能力も60fpsから30fpsに下げる。これらの処理能力を下げることで、撮像素子22bで撮像されたRAW画像データが、画像処理回路32で全て現像され、かつ、全ての現像データ(内視鏡画像)が表示装置4に表示される。すなわち、表示装置4で処理できない無駄なデータを取得しないようにすることで、内視鏡2及び画像処理サーバ3の処理コストを削減することができる。なお、画像処理回路32における処理能力を30fpsに下げることで、画像処理回路32からの内視鏡画像の出力タイミングは、1/60秒遅延する。
 これら3つの処理タイミングの変更により、撮像から表示までに要する時間である遅延時間は20/60秒となり、最適化前よりも遅延時間を7/60秒短縮することができる。また、処理能力の適正化によって、内視鏡2の処理コスト、及び、画像処理サーバ3の処理コストを削減することができる。
 以上のように、通信制御回路33は、RAW画像データの送信元である内視鏡2と、現像後の内視鏡画像の送信先である表示装置4と、これらの通信経路に存在する中継地(例えば、アクセスポイント5)を特定する。そして、内視鏡2の処理仕様、表示装置4の処理仕様、画像処理サーバ3自身の処理仕様、及び、中継地の通信仕様に基づいて、処理シーケンスを最適化する。そして、最適化した処理シーケンスに基づく処理仕様を、処理通信制御データとして内視鏡2と表示装置4とに送信する。内視鏡2と表示装置4とは、通信制御回路33から受信した処理仕様に基づいて、それぞれの処理シーケンスを実行する。また、画像処理サーバ3自身も、通信制御回路33で最適化された処理仕様に基づき処理シーケンスを実行する。これにより、処理や通信にかかるコストを低減しつつ、撮像から表示までに要する処理時間を短縮し、リアルタイム性を向上させることができる。
 なお、図3~図6、図8~図11では、フレーム単位で処理の最適化を行う例について説明したが、フレームを複数のサブフレームに分割し、サブフレーム単位で各処理や通信を行う構成にしてもよい。
 また、通信制御回路33の処理の全部若しくは一部をソフトウエアプログラムで行うようにしてもよい。すなわち、信号処理回路31に設けられた図示しないプロセッサが、記憶装置34から読み込んだプログラムを実行することにより、通信制御回路33と同様の処理及び動作等を行うものであってもよい。
 表示装置4は、ディスプレイ41と、通信制御回路42と、記録媒体43と、受信器44と、送信器45とを有する。
 ディスプレイ41は、画像処理サーバ3から受信した内視鏡画像を表示する部位である。具体的には、液晶ディスプレイ、有機EL(Electro-Luminesence)ディスプレイ、CRT(Cathod Ray Tube)ディスプレイなどがあげられる。
 通信制御回路42は、画像処理サーバ3から送信された処理仕様に基づき、表示装置4全体の動作を制御する。例えば、通信制御回路42は、ディスプレイ41への内視鏡画像の表示速度を制御する。また、通信制御回路42は、画像処理サーバ3からの要求に応じて、表示装置4の処理仕様を送信する。
 記録媒体43は、画像処理サーバ3から送信された内視鏡画像を記録したり、表示装置4の設定に必要な各種パラメータを格納したりする。
  受信器44は、画像処理サーバ3から送信された内視鏡画像や処理仕様に関する処理通信制御データを、アクセスポイント5を介して受信する。受信した内視鏡画像や処理通信制御データは、通信制御回路42へ出力される。
  送信器45は、通信制御回路42から出力される表示装置4の処理仕様などを、無線で送信する。
 図12は、本実施形態における作用を示すフローチャートである。図12に示すフローチャートは、医療システム100における被写体の撮像から内視鏡画像表示までの一連の処理の最適化手順を説明する図である。
 まず、画像処理サーバ3は、被写体を撮像してRAW画像データを送信する内視鏡2と、画像処理サーバ3で現像した内視鏡画像を表示する表示装置4とのペアリングを行う(S1)。また、内視鏡2と画像処理サーバ3との間の中継地(アクセスポイント5など)、及び、画像処理サーバ3と表示装置4との間の中継地を特定する。
 次に、S1でペアリングした内視鏡2と表示装置4の処理仕様を、記憶装置34から抽出する(S2)。処理仕様とは、処理速度(フレームレート)や処理・通信単位(フレーム/サブフレーム)、処理開始のタイミング(データの受信から処理開始までのタイムラグや、処理開始条件)などが含まれる。また、中継地の通信プロトコル(通信速度など)も取得する。
 続いて、通信制御回路42において、S2で抽出した処理仕様や通信プロトコルに基づき、最適な処理シーケンスが導出される(S3)。S3で導出された処理シーケンスに基づき、画像処理サーバ3は、内視鏡2と表示装置4に対して処理通信制御データを送信し、処理仕様を指示する(S4)。内視鏡2と表示装置4は、受信した処理通信制御データに基づき、必要に応じて処理仕様を設定・変更する(S5)。例えば、内視鏡2においては、撮像素子22bのフレームレートやRAW画像データの送信レートが設定・変更される。また、S5では、画像処理サーバ3においても、必要に応じて処理仕様が設定・変更される。最後に、S5で設定された処理仕様に従って、内視鏡2において被写体の撮像が開始される(S6)。撮像されたRAW画像データは、画像処理サーバ3に送信されて現像され、内視鏡画像として表示装置4に表示される。
 以上に示したように、本実施形態によれば、処理や通信にかかるコストを低減しつつ、撮像から表示までに要する処理時間を短縮し、リアルタイム性を向上させることが可能な医療システムを提供することができる。
 なお、本実施形態の医療システム100は、院内に構築されたシステムに限定されず、例えば、画像処理サーバ3が院外に設置されていてもよい。このような構成は、複数の病院の内視鏡2から送信されるRAW画像データを、1つの画像処理サーバ3で集中的に処理する場合に有効である。また、表示装置4が院外に設置されており、院内で検査者が撮像した内視鏡画像を、インターネット回線などを介して院外の表示装置4に表示させるような構成でもよい。このような構成は、遠隔診断に最適である。すなわち、内視鏡2と、画像処理システム3と、表示装置4とが、無線/有線を用いたネットワークで互いにデータ送受信が可能である環境であれば、設置場所は特に限定されない。更に、内視鏡2と表示装置4とを有線ケーブルで接続し、内視鏡2との画像処理システム3との間の通信を、表示装置4を介して行うように構成してもよい。このように構成することで、内視鏡2の通信インタフェースにかかる部位の構成を簡素化することができ、コストを削減することができる。
 また、本実施形態の医療システム100は、上述した(1)から(4)に示す処理シーケンス最適化の手法を単独で実施するだけでなく、2つ以上の手法を組み合わせて行ってもよい。
 更に、画像処理サーバ3は、内視鏡画像の現像機能だけでなく、現像した内視鏡画像を用いた自動診断機能などの二次サービス機能を具備していてもよい。このような場合、通信制御回路33は、二次サービス機能の処理速度も考慮して、最適な処理シーケンスを導出することが望ましい。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として例示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。

Claims (13)

  1.  被写体を撮像して取得した撮像信号を出力する撮像機器と、
     中継装置を介して前記撮像機器から取得した前記撮像信号から観察画像を生成する画像処理回路を備えた信号処理装置と、
     前記中継装置を介して前記信号処理装置から取得した前記観察画像を表示する表示装置と、
     を含む医療システムにおいて、
     前記信号処理装置は、前記撮像機器における前記撮像信号の第1の処理仕様と、前記信号処理装置の第2の処理仕様と、前記表示装置における前記観察画像の第3の処理仕様と、前記中継装置の通信プロトコルに基づき、前記第1から前記第3の処理仕様の少なくともいずれか一つを制御する、通信制御回路を有する、医療システム。
  2.  前記第1の処理仕様は、前記撮像信号を取得する第1のフレームレートであり、前記第2の処理仕様は、前記撮像信号から前記観察画像を生成する現像処理における第2のフレームレートであり、前記第3の処理仕様は、前記観察画像を表示する表示処理における第3のフレームレートであることを特徴とする、請求項1に記載の医療システム。
  3.  前記中継装置は、インターネット回線であることを特徴とする、請求項1に記載の医療システム。
  4.  前記撮像機器は、前記被写体に照射される照射光を調光する調光部と、送気送水を行う送気送水部と、エネルギー処置を行うエネルギー処置部の少なくともいずれか一つを更に備えており、前記調光部と、前記送気送水部と、前記エネルギー処置部は、前記撮像機器において駆動制御がなされることを特徴とする、請求項1に記載の医療システム。
  5.  前記撮像信号はRAW画像信号であることを特徴とする、請求項1に記載の医療システム。
  6.  前記表示装置を複数有することを特徴とする、請求項1に記載の医療システム。
  7.  前記第1の処理仕様は、前記第1のフレームレート、及び、前記撮像信号を送信する第1の送信単位であり、前記第2の処理仕様は、前記第2のフレームレート、及び、前記現像処理の開始条件であり、前記第3の処理仕様は、前記第3のフレームレート、及び、前記表示処理の開始条件であることを特徴とする、請求項2に記載の医療システム。
  8.  被写体を撮像して取得した撮像信号を出力する撮像機器と、前記撮像信号から観察画像を生成する画像処理回路を備えた信号処理装置と、前記観察画像を表示する表示装置とを、中継装置を有する通信回線を介してペアリングし、
     前記信号処理装置において、前記撮像機器における前記撮像信号の第1の処理仕様と、前記信号処理装置の第2の処理仕様と、前記表示装置における前記観察画像の第3の処理仕様と、前記中継装置の通信プロトコルに基づき、処理シーケンスを導出し、
     前記信号処理装置から前記撮像機器に対し、前記処理シーケンスに基づき第4の処理仕様を指示し、
     前記信号処理装置から前記表示装置に対し、前記処理シーケンスに基づき第5の処理仕様を指示する、処理プロトコル制御方法。
  9.  前記第1の処理仕様は、前記撮像信号を取得する第1のフレームレートであり、前記第2の処理仕様は、前記撮像信号から前記観察画像を生成する現像処理における第2のフレームレートであり、前記第3の処理仕様は、前記観察画像を表示する表示処理における第3のフレームレートであることを特徴とする、請求項8に記載の処理プロトコル制御方法。
  10.  前記第1のフレームレートが前記第2のフレームレートよりも低い場合、前記信号処理装置は、前記第2のフレームレートの値を前記第1のフレームレートの値に変更する、請求項9に記載の処理プロトコル制御方法。
  11.  前記第2のフレームレートが前記第1のフレームレートよりも低い場合、前記信号処理装置は、前記撮像機器に対し、前記第4の処理仕様として、前記第1のフレームレートの値を前記第2のフレームレートの値へ変更する指示を行う、請求項9に記載の処理プロトコル制御方法。
  12.  前記信号処理装置は、前記第1のフレームレート、前記第2のフレームレート、前記第3のフレームレートと、前記中継装置の通信速度である第4のフレームレートとを比較し、前記第4のフレームレートの値より高いものについては、前記第4のフレームレートの値へ変更する指示を行う、請求項9に記載の処理プロトコル制御方法。
  13.  前記第3のフレームレートが、前記第1のフレームレートより低い場合、前記信号処理装置は、前記第1のフレームレートの値を前記第3のフレームレートの値に変更し、前記第3のフレームレートが、前記第2のフレームレートより低い場合、前記第2のフレームレートの値を前記第3のフレームレートの値に変更する、請求項9に記載の処理プロトコル制御方法。
PCT/JP2020/030157 2020-08-06 2020-08-06 医療システム、及び、処理プロトコル制御方法 WO2022029954A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2020/030157 WO2022029954A1 (ja) 2020-08-06 2020-08-06 医療システム、及び、処理プロトコル制御方法
US18/104,827 US20230172426A1 (en) 2020-08-06 2023-02-02 Medical system, processing protocol control method, and signal processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/030157 WO2022029954A1 (ja) 2020-08-06 2020-08-06 医療システム、及び、処理プロトコル制御方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/104,827 Continuation US20230172426A1 (en) 2020-08-06 2023-02-02 Medical system, processing protocol control method, and signal processing device

Publications (1)

Publication Number Publication Date
WO2022029954A1 true WO2022029954A1 (ja) 2022-02-10

Family

ID=80117828

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/030157 WO2022029954A1 (ja) 2020-08-06 2020-08-06 医療システム、及び、処理プロトコル制御方法

Country Status (2)

Country Link
US (1) US20230172426A1 (ja)
WO (1) WO2022029954A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024043171A1 (ja) * 2022-08-23 2024-02-29 Hoya株式会社 光源装置、および内視鏡システム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005118159A (ja) * 2003-10-14 2005-05-12 Fujinon Corp 電子内視鏡装置
WO2005077250A1 (ja) * 2004-02-16 2005-08-25 Olympus Corporation 内視鏡システム
JP2008284037A (ja) * 2007-05-15 2008-11-27 Olympus Corp 内視鏡装置
US20130054467A1 (en) * 2006-07-19 2013-02-28 Mvisum, Inc. System for remote review of clinical data
JP2019023646A (ja) * 2012-10-19 2019-02-14 ハイパーメツド・イメージング・インコーポレイテツド 単一センサのハイパースペクトル撮像デバイス
JP2020504404A (ja) * 2016-10-18 2020-02-06 デックスコム・インコーポレーテッド 分析物データを通信するためのシステムおよび方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005118159A (ja) * 2003-10-14 2005-05-12 Fujinon Corp 電子内視鏡装置
WO2005077250A1 (ja) * 2004-02-16 2005-08-25 Olympus Corporation 内視鏡システム
US20130054467A1 (en) * 2006-07-19 2013-02-28 Mvisum, Inc. System for remote review of clinical data
JP2008284037A (ja) * 2007-05-15 2008-11-27 Olympus Corp 内視鏡装置
JP2019023646A (ja) * 2012-10-19 2019-02-14 ハイパーメツド・イメージング・インコーポレイテツド 単一センサのハイパースペクトル撮像デバイス
JP2020504404A (ja) * 2016-10-18 2020-02-06 デックスコム・インコーポレーテッド 分析物データを通信するためのシステムおよび方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024043171A1 (ja) * 2022-08-23 2024-02-29 Hoya株式会社 光源装置、および内視鏡システム

Also Published As

Publication number Publication date
US20230172426A1 (en) 2023-06-08

Similar Documents

Publication Publication Date Title
JP5364459B2 (ja) 画像送信装置、画像受信装置、画像送信方法、画像受信方法、及びプログラム
US8908022B2 (en) Imaging apparatus
US8866893B2 (en) Imaging apparatus
US9439554B2 (en) Endoscope having connector part with output selector
US20190246875A1 (en) Endoscope system and endoscope
JP5144485B2 (ja) 無線通信端末
US10441135B2 (en) Endoscope system
JP2015160098A (ja) 内視鏡システム
US20210307587A1 (en) Endoscope system, image processing device, total processing time detection method, and processing device
US8553996B2 (en) Image transmission terminal
US8878921B2 (en) Imaging system
JP5489444B2 (ja) 内視鏡装置の受像機と、その受像機の画像データ表示方法及び画像データ表示プログラム
US20230172426A1 (en) Medical system, processing protocol control method, and signal processing device
JP6368886B1 (ja) 内視鏡システム
JP6300708B2 (ja) 内視鏡装置及び内視鏡装置の画像伝送方法
JP6293392B1 (ja) 生体観察システム
US10188266B2 (en) Endoscopic imaging device for reducing data amount of image signal
US10863149B2 (en) Image processing apparatus, image processing method, and computer readable recording medium
US10462440B2 (en) Image processing apparatus
US20210218873A1 (en) Imaging device, gain setting method, and program
JP5932191B1 (ja) 伝送システムおよび処理装置
JP4477286B2 (ja) 電子内視鏡システム
JP7081597B2 (ja) 通信システムおよび送信装置
US12075982B2 (en) Light source device having illumination controller controlling multiple light sources in multiple states, control method of the light source, and endoscope system having the light source
US12035052B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20948636

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20948636

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP