WO2019049451A1 - ビデオプロセッサ、内視鏡システム、表示方法、及び表示プログラム - Google Patents

ビデオプロセッサ、内視鏡システム、表示方法、及び表示プログラム Download PDF

Info

Publication number
WO2019049451A1
WO2019049451A1 PCT/JP2018/022238 JP2018022238W WO2019049451A1 WO 2019049451 A1 WO2019049451 A1 WO 2019049451A1 JP 2018022238 W JP2018022238 W JP 2018022238W WO 2019049451 A1 WO2019049451 A1 WO 2019049451A1
Authority
WO
WIPO (PCT)
Prior art keywords
endoscopic
observation image
time
endoscopic observation
elapsed time
Prior art date
Application number
PCT/JP2018/022238
Other languages
English (en)
French (fr)
Inventor
翔太 田中
健一郎 松下
愛子 坂井
真一郎 佐伯
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Publication of WO2019049451A1 publication Critical patent/WO2019049451A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes

Definitions

  • the present invention relates to a video processor, an endoscope system, a display method, and a display program for displaying an endoscopic observation image acquired by endoscopic examination.
  • an endoscopy may be periodically performed on a patient for the purpose of follow-up observation and the like.
  • the second and subsequent endoscopic examinations for example, comparison between an endoscopic observation image acquired in the current endoscopic examination and an endoscopic observation image acquired in the past endoscopic examination, etc. According to the above, the follow-up observation of the observation target site is performed.
  • an image taken by the endoscope, the position of the endoscope at the time of shooting, and treatment history information that is one or more of shooting condition information, image processing information, and operation information In correspondence with each other and stored as endoscopic examination information.
  • the corresponding endoscopic examination information is read from the position of the endoscope, the imaging conditions and image processing are reproduced, and the current image is displayed.
  • An endoscope system is known which processes and displays a previous image and a current image side by side (see, for example, Patent Document 1).
  • the insertion length of the endoscope ie, the endoscope
  • the insertion length of the endoscope is obtained by reading an IC tag provided at a predetermined interval in the insertion portion of the endoscope with an IC tag reader provided on the mouthpiece.
  • Position is acquired.
  • an endoscopic observation image acquired in the present endoscopic inspection corresponds to an observation position acquired in the past endoscopic inspection while using a general endoscope It is an object of the present invention to provide a video processor, an endoscope system, a display method, and a display program capable of simultaneously displaying an endoscopic observation image.
  • a time measuring unit for measuring an elapsed time from a reference timing in endoscopic examination, a first endoscopic observation image acquired in a first endoscopic examination, and A storage unit in which an elapsed time from the reference timing in the first endoscopic examination at the time of obtaining the first endoscopic observation image is stored in association with each other, and the first endoscopic examination A second endoscopic observation image acquired in a second endoscopic inspection performed after the subject, and the reference timing in the second endoscopic inspection at the time of acquiring the second endoscopic observation image And a display control unit for performing control to simultaneously display the first endoscopic observation image stored in the storage unit in association with the same elapsed time as the elapsed time from the is there.
  • the second endoscopic observation image is acquired in real time.
  • the second endoscopic observation image is generated in response to the input operation signal.
  • the second endoscopic observation image acquired at a specific timing in the second endoscopic examination, and the second endoscopic observation is stored in the storage unit in association with each other.
  • the specific timing is timing when an imaging instruction from the operator is input. According to a sixth aspect of the present invention, in the fourth aspect, the specific timing is timing every predetermined time.
  • the storage unit includes the first endoscopic observation image, the elapsed time at the time of acquiring the first endoscopic observation image, and the reference
  • the timing is associated with and stored
  • the display control unit is identical to the elapsed time at the time of acquiring the second endoscope observation image and the second endoscope observation image and the reference timing. Control is performed to simultaneously display the first endoscopic observation image stored in the storage unit in association with the elapsed time and the reference timing.
  • An eighth aspect of the present invention is the seventh aspect, wherein the second endoscopic observation image acquired at a specific timing in the second endoscopic examination and the second endoscopic observation The elapsed time at the time of image acquisition and the reference timing are stored in the storage unit in association with each other.
  • a ninth aspect of the present invention is the seventh aspect, wherein the reference timing is changed according to an input from the operator.
  • a tenth aspect of the present invention is an endoscope system including a video processor to which an endoscope is connected, and an external device configured to be able to communicate with the video processor, the video processor including: The video processor includes a time measurement unit that measures an elapsed time from a reference timing in an endoscopic examination, and a display control unit that displays an endoscopic observation image acquired in an endoscopic examination, and the external device is the video processor.
  • the external device comprises an Internet server.
  • a twelfth aspect of the present invention is the display method executed in the video processor, wherein, in the first endoscopy, measurement of an elapsed time from the reference timing is started, and the first endoscopic observation image To store the first endoscopic observation image and the elapsed time at the time of acquiring the first endoscopic observation image in the storage unit in association with each other, In the second endoscopy performed after the endoscopy, measurement of an elapsed time from the reference timing is started, a second endoscopy image is acquired, and the second endoscopy is performed. Display simultaneously the image and the first endoscopic observation image stored in the storage section in association with the same elapsed time as the elapsed time at the time of acquisition of the second endoscopic observation image Execute the process of
  • a thirteenth aspect of the present invention in the computer of the video processor, in the first endoscopy, measurement of an elapsed time from a reference timing is started, and a first endoscopic observation image is acquired; A process of storing the endoscopic observation image of 1 and the elapsed time at the time of acquisition of the first endoscopic observation image in association with each other in the storage unit is performed, and after the first endoscopic examination In the second endoscopic examination to be performed, measurement of an elapsed time from the reference timing is started, a second endoscopic observation image is acquired, the second endoscopic observation image, and the second endoscopic observation image. Execute the process of simultaneously displaying the first endoscopic observation image stored in the storage unit in association with the same elapsed time as the elapsed time at the time of obtaining the endoscopic observation image of Display program.
  • an endoscope in which an endoscopic observation image acquired in the current endoscopic examination and an observation position acquired in the past endoscopic inspection correspond to each other using a general endoscope A mirror observation image can be displayed simultaneously.
  • FIG. 1 is a view showing a configuration example of an endoscope system according to the first embodiment.
  • FIG. 2 is a view schematically showing an example of endoscopic examination.
  • the endoscope system 1 includes a scope 2, a video processor 3, and a monitor 4.
  • the scope 2 and the video processor 3 are connected by the connectors 5 and 6, and the video processor 3 and the monitor 4 are connected by the connector 7.
  • the scope 2 is a general flexible electronic endoscope, and includes a light guide 21, a lens 22, an imaging device 23, and a signal line 24.
  • the light guide 21 has a configuration in which the end of the light guide 21 extends into the video processor 3 via the connector 6 when the scope 2 is connected to the video processor 3, and is supplied from the light source 31. Illumination light to the lens 22.
  • the lens 22 emits the illumination light guided by the light guide 21 to the subject.
  • the imaging device 23 performs imaging for converting an optical image of a subject into an electrical signal, and outputs the converted electrical signal to the imaging unit 344 via the signal line 24 and the connector 5.
  • the imaging device 23 is, for example, an image sensor of a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS).
  • CCD charge coupled device
  • CMOS complementary metal oxide semiconductor
  • the scope 2 includes an operation unit that receives an input operation of a user (operator), and outputs an operation signal corresponding to the input operation to the user operation acquisition unit 341 via the connector 5 Do.
  • the video processor 3 is a light source integrated video processor, and includes a light source 31, an audio input device 32, an operation panel 33, and a control unit 34.
  • the light source 31 supplies illumination light to the light guide 21 under the control of the light source control unit 342.
  • the light source 31 is a semiconductor light source, but may be a lamp light source.
  • the semiconductor light source is, for example, a white light emitting diode (LED) that emits white light.
  • the semiconductor light source is three LEDs that emit red light, green light, and blue light that constitute white light, that is, red light LED, green light LED, and blue light LED.
  • the voice input device 32 includes a microphone and a voice recognition circuit (not shown), converts voice uttered by the user into voice data by the microphone, converts the voice data into text data by the voice recognition circuit, and performs user operation Output to the acquisition unit 341.
  • Operation panel 33 receives an input operation of the user, and outputs an operation signal corresponding to the input operation to user operation acquisition unit 341.
  • the operation panel 33 is a display device with a touch panel.
  • the operation panel 33 may be configured to receive an input operation of the user by an operation on a physical button or key.
  • the control unit 34 includes a user operation acquisition unit 341, a light source control unit 342, a time measurement unit 343, a photographing unit 344, an insertion position information application unit 345, a storage unit 346, and a display control unit 347.
  • the control unit 34 is realized by, for example, an integrated circuit such as an application specific integrated circuit (ASIC) or a field-programmable gate array (FPGA).
  • ASIC application specific integrated circuit
  • FPGA field-programmable gate array
  • the user operation acquisition unit 341 acquires an operation signal input from the operation unit of the scope 2, text data input from the voice input device 32, or an operation signal input from the operation panel 33, and acquires the acquired operation signal or text For example, the following processing is performed according to the data.
  • the instruction signal corresponding to the instruction is output to the light source control unit 342.
  • the start instruction signal for starting the time measurement and the reference timing information indicating the reference timing at which the time measurement is started It is output to the time measurement unit 343.
  • the acquired operation signal or text data indicates a reference timing change instruction
  • the start instruction signal for starting the time measurement, and the reference timing information indicating the reference timing after the change when the time measurement starts. Are output to the time measurement unit 343.
  • the photographing instruction signal is output to the photographing unit 344.
  • the shooting instruction is also a release instruction.
  • the acquired operation signal or text data indicates a still image deletion instruction
  • the still image deletion instruction signal is output to the display control unit 347.
  • the still image deletion instruction is also a past image deletion instruction described later.
  • the light source control unit 342 controls the light source 31 according to the instruction signal. For example, in response to the instruction signal, the supply start or stop of the illumination light to the light guide 21 is performed.
  • the time measuring unit 343 includes a timer (not shown), and when the start instruction signal and the reference timing information are input from the user operation acquisition unit 341, the timer is reset according to the start instruction signal to start timer counting. Thus, the time measurement is started, and the input reference timing information is output to the insertion position information adding unit 345 and the display control unit 347. In addition, while measuring time, the time measuring unit 343 outputs a timer count value, which is a measuring time, to the insertion position information adding unit 345 and the display control unit 347 in real time.
  • the time measured by the time measuring unit 343 is also an elapsed time from the reference timing indicated by the reference timing information. This elapsed time also corresponds to the insertion position of the scope 2 in the subject.
  • the reference timing is, for example, the insertion start timing or the removal start timing of the scope 2. For example, as shown in FIG.
  • an endoscopic examination in which the insertion portion of the scope 2 is inserted from the patient's mouth and reaches the stomach via the esophagus entrance, the cervical esophagus, the thoracic esophagus, the abdominal esophagus, and the cardia
  • the time for the scope 2 to reach the esophagus entrance, the cervical esophagus, the thoracic esophagus, the abdominal esophagus, the cardia and the stomach after multiple insertions of the scope 2 is multiple times It becomes almost the same in the endoscopy. Therefore, it can be said that the insertion position of the scope 2 at that time will be substantially the same if the elapsed time from the reference timing is the same in the plurality of endoscopic examinations.
  • the photographing unit 344 performs predetermined signal processing on the electric signal input from the imaging element 23 to generate a video signal, and outputs the video signal to the display control unit 347. Further, when the photographing instruction signal is input from the user operation acquisition unit 341, the imaging unit 344 performs predetermined signal processing on the electric signal input from the imaging device 23 to generate still image data, and adds the insertion position information. Output to the part 345.
  • the insertion position information adding unit 345 receives the measurement time input from the time measurement unit 343 at that time and the reference timing information last input from the time measurement unit 343.
  • the insertion position information is stored in the storage unit 346 in association with the still image data.
  • associating with still image data as insertion position information also means adding to still image data as insertion position information.
  • the storage unit 346 is, for example, a non-volatile memory such as a flash memory, and still image data and insertion position information are stored in association with each other.
  • the display control unit 347 controls the display of the monitor 4 and the display of the operation panel 33. For example, the display control unit 347 performs the following display control.
  • An image corresponding to the video signal input from the photographing unit 344 is displayed on the monitor 4.
  • the image corresponding to the video signal input from the imaging unit 344 is also a live image of the subject acquired in real time.
  • still image data in which the same measurement time and reference timing information as the measurement time input in real time from the time measurement unit 343 and the reference timing information last input from the time measurement unit 343 are associated as insertion position information is
  • the still image data is read, and the still image related to the still image data is displayed on the monitor 4 together with the live image.
  • the live image and the still image in which the insertion position of the scope 2 in the subject is substantially the same, are simultaneously displayed on the monitor 4.
  • the insertion position of the scope 2 in the subject is also the observation position.
  • the live image and the still image are both endoscopic observation images.
  • the still image is erased.
  • whether or not the predetermined time has elapsed can be determined, for example, based on the measurement time input from the time measurement unit 343 in real time.
  • a still image deletion instruction signal is input from the user operation acquisition unit 341, the still image displayed on the monitor 4 is deleted.
  • the monitor 4 is, for example, a liquid crystal display device, and displays a live image, a still image, and the like under the control of the display control unit 347.
  • FIG. 3 is a flowchart showing an example of display processing performed in the endoscope system 1 according to the present embodiment.
  • FIGS. 4 and 5 are diagrams schematically showing an example of a display screen of the monitor 4 during the display processing shown in FIG. Note that the display screen examples shown in FIGS. 4 and 5 are also observation screen examples during the examination.
  • the display process shown in FIG. 3 is a process performed in an endoscopy performed for the purpose of follow-up observation, and starts when the power of the endoscope system 1 is turned on.
  • the still image data acquired in the previous endoscopy is stored in the storage unit 346 in association with the insertion position information. More specifically, in step 113 and 114 described later in the display process shown in FIG. 3 performed in the previous endoscopy, the imaging unit 344 generates the insertion position information according to the insertion position information adding unit 345. It is assumed that the associated still image data is stored in storage unit 346.
  • still image data acquired in the previous endoscopy is also referred to as “past image data”.
  • the last endoscopic examination and the present endoscopic examination to be performed from now on it is a matter of course that the user who operates the scope 2 is the same, and the subject (patient) is also the same.
  • the control unit 34 determines whether or not an endoscopic examination has started in step (hereinafter, referred to as “S”) 101.
  • S an endoscopic examination
  • the user operation acquisition unit 341 acquires an operation signal indicating a test start instruction or text data
  • the determination result is Yes, and otherwise is No.
  • the determination result of S101 is Yes, it progresses to S102, and, in the case of No, this determination is repeated.
  • imaging by the imaging device 23 generation of a video signal by the imaging unit 344 and display of a live image on the monitor 4 by the display control unit 347 are started.
  • a live image of the subject is displayed on the monitor 4.
  • the user operation acquisition unit 341 outputs the start instruction signal and the reference timing information to the time measurement unit 343.
  • the reference timing information at this time indicates the insertion start timing of the scope 2 as the reference timing.
  • step S103 the time measuring unit 343 resets the timer and starts the timer count according to the input start instruction signal, whereby the insertion start timing of scope 2 which is the reference timing indicated by the input reference timing information.
  • the time measurement unit 343 outputs the measurement time to the insertion position information giving unit 345 and the display control unit 347 in real time.
  • the time measuring unit 343 also outputs the input reference timing information to the insertion position information adding unit 345 and the display control unit 347.
  • step S104 the display control unit 347 sets, in the past image data stored in the storage unit 346, the measurement time that is input from the time measurement unit 343 in real time and the reference timing information that is last input from the time measurement unit 343. It is determined whether there is past image data in which the same measurement time and reference timing information are associated as insertion position information. If the determination result of S104 is Yes, the process proceeds to S105, and if No, the process proceeds to S108.
  • the display control unit 347 determines whether the monitor 4 is displaying a past image related to another past image data. When the determination result of S105 is Yes, it progresses to S106, and, in No, progresses to S107.
  • the display control unit 347 deletes the past image displayed on the monitor 4.
  • the display control unit 347 reads from the storage unit 346 the past image data when the determination in S104 is YES, and causes the monitor 4 to display the past image related to the past image data along with the live image. Accordingly, for example, as shown in FIG. 5, the live image which is the current endoscopic observation image in which the live image and the past image are simultaneously displayed on the monitor 4 and the insertion position of the scope 2 in the subject is substantially the same. And the past image which is the previous endoscopic observation image can be compared.
  • the sizes and positions of the live image and the still image to be displayed on the monitor 4 are not limited to those shown in FIG. 5, and for example, both images may be displayed in the same size, or both images may be arranged vertically May be displayed.
  • the display control unit 347 determines whether the display time of the past image has passed a predetermined time. When the determination result of S108 is Yes, it progresses to S109, and, in No, progresses to S110. In addition, if the past image is not displayed at the time of determination of S108, the determination result of S108 will be No.
  • the display control unit 347 deletes the past image displayed on the monitor 4.
  • the control unit 34 determines whether the deletion operation of the past image has been performed. In this determination, when the user operation acquisition unit 341 acquires an operation signal indicating a past image deletion instruction or text data, the determination result is Yes, and otherwise is No. When the determination result of S110 is Yes, it progresses to S111, and, in No, progresses to S112.
  • the display control unit 347 deletes the past image displayed on the monitor 4.
  • the control unit 34 determines whether a release operation has been performed. In this determination, when the user operation acquisition unit 341 acquires an operation signal indicating a photographing instruction or text data, the determination result is Yes, and otherwise is No. When the determination result of S112 is Yes, it progresses to S113, and, in No, progresses to S115.
  • the imaging unit 344 performs predetermined signal processing on the electric signal input from the imaging device 23, generates still image data, and outputs the still image data to the insertion position information addition unit 345.
  • the insertion position information addition unit 345 adds the measurement time input from the time measurement unit 343 and the reference timing information last input from the time measurement unit 343 to the still image data input from the imaging unit 344 at that time. And as the insertion position information, the information is stored (stored) in the storage unit 346.
  • the still image data saved at this time is treated as past image data, which is still image data acquired in the previous endoscopy, in the next endoscopy.
  • control unit 34 determines whether the reference timing has been changed. In this determination, when the user operation acquisition unit 341 acquires an operation signal or text data indicating a reference timing change instruction, the determination result is Yes, and otherwise is No. When the determination result of S115 is Yes, it progresses to S116, and, in No, progresses to S118.
  • the user operation acquisition unit 341 outputs the start instruction signal and the reference timing information to the time measurement unit 343.
  • the reference timing information at this time indicates the reference timing after the change.
  • the reference timing change instruction is an instruction to change the reference timing to the removal start timing of the scope 2
  • the reference timing information indicates the removal start timing of the scope 2 as the reference timing after the change. It is assumed that
  • the time measuring unit 343 resets the timer and starts the timer count in response to the input start instruction signal, thereby starting removal of the scope 2 at the reference timing indicated by the input reference timing information. Start measuring the elapsed time from Thereafter, during time measurement, the time measurement unit 343 outputs the measurement time to the insertion position information giving unit 345 and the display control unit 347 in real time. The time measuring unit 343 also outputs the input reference timing information to the insertion position information adding unit 345 and the display control unit 347.
  • control unit 34 determines whether or not the endoscopy is completed. In this determination, when the user operation acquisition unit 341 acquires an operation signal indicating a test end instruction or text data, the determination result is Yes, and otherwise is No. If the determination result in S118 is Yes, the display process ends, and if No, the process returns to S104.
  • FIG. 6 is a view schematically showing an example of reference timing during the display processing shown in FIG. 3 and an elapsed time (measurement time) from the reference timing.
  • the reference timing is set to “insertion start”, and the elapsed time from the reference timing is “0:00” due to the timer reset in the time measuring unit 343.
  • the measurement of the elapsed time from the reference timing is started by the start of the timer count in the time measurement unit 343.
  • “insertion start” indicates the insertion start timing of the scope 2.
  • reference timing information indicating “insertion start” and the measurement time of “4:30” are stored in the storage unit 346 in association with still image data as insertion position information.
  • the measurement time of “4:30” indicates that the elapsed time from the reference timing is 4 minutes and 30 seconds.
  • the reference timing is updated (changed) from “insertion start” to “extraction start”, and the elapsed time from the reference timing is "0:00" due to the timer reset in the time measurement unit 343.
  • the measurement of the elapsed time from the reference timing is started according to the start of the timer count in the time measurement unit 343.
  • extraction start indicates the extraction start timing of the scope 2.
  • the past image related to the past image data stored in the storage unit 346 the past image corresponding to the live image and the observation position Whenever there is an image, the past image is displayed on the monitor 4 together with the live image.
  • a live image which is an endoscopic observation image acquired in the current endoscopic examination and a past endoscopic examination are used while using a general endoscope. It is possible to simultaneously display the past image which is the endoscopic observation image corresponding to the observation position.
  • the user operation acquisition unit 341 further performs the following process according to the acquired operation signal or text data.
  • the freeze instruction signal is output to the display control unit 347, and the stop instruction signal for stopping the time measurement is output to the time measurement unit 343.
  • the freeze release instruction signal is output to the display control unit 347, and the restart instruction signal for restarting the time measurement is output to the time measurement unit 343.
  • the time measuring unit 343 further performs the following processing.
  • the stop instruction signal is input from the user operation acquisition unit 341
  • the timer count is stopped to stop time measurement.
  • the restart instruction signal is input from the user operation acquisition unit 341
  • the timer count is restarted to restart time measurement.
  • the time measuring unit 343 outputs the measurement time to the insertion position information giving unit 345 and the display control unit 347 in real time even while the time measurement is stopped.
  • the measurement time at the measurement stop time is output to the insertion position information adding unit 345 and the display control unit 347.
  • the display control unit 347 further performs the following control.
  • the freeze instruction signal is input from the user operation acquisition unit 341, the live image at that time is frozen and displayed.
  • freezing the live image also means to freeze or stop the live image.
  • the freeze release instruction signal is input from the user operation acquisition unit 341, the display of the live image on the monitor 4 is resumed.
  • FIG. 7 is a flowchart showing an example of display processing executed in the endoscope system 1 according to the present embodiment, and is a flowchart corresponding to the display processing shown in FIG. As shown in FIG. 7, in S201 to S203, the same processing as S101 to S103 shown in FIG. 3 is performed.
  • the control unit 34 determines whether a freeze operation has been performed. In this determination, when the user operation acquisition unit 341 acquires an operation signal indicating a freeze instruction or text data, the determination result is Yes, and otherwise is No. If the determination result of S204 is Yes, the process proceeds to S205, and if No, the process proceeds to S215.
  • the user operation acquisition unit 341 outputs a freeze instruction signal to the display control unit 347 and outputs a stop instruction signal to the time measurement unit 343.
  • the display control unit 347 freezes the live image at that time and causes the monitor 4 to display the freeze image.
  • the time measuring unit 343 stops the time measurement by stopping the timer count in response to the input stop instruction signal.
  • the display control unit 347 determines, among the past image data stored in the storage unit 346, the measurement time input in real time from the time measurement unit 343 and the reference timing information input last from the time measurement unit 343. It is determined whether there is past image data associated with the same measurement time and reference timing information as insertion position information.
  • the measurement time input in real time from the time measurement unit 343 is the measurement time at the measurement stop time.
  • the display control unit 347 reads from the storage unit 346 the past image data when the determination in S207 is YES, and causes the monitor 4 to display the past image related to the past image data along with the live image being frozen.
  • the live image and the past image are simultaneously displayed on the monitor 4.
  • the live image is a live image being frozen.
  • the control unit 34 determines whether or not the deletion operation of the past image has been performed. In this determination, when the user operation acquisition unit 341 acquires an operation signal indicating a past image deletion instruction or text data, the determination result is Yes, and otherwise is No. When the determination result of S209 is Yes, it progresses to S210, and, in No, progresses to S211.
  • the display control unit 347 deletes the past image displayed on the monitor 4.
  • the control unit 34 determines whether a freeze release operation has been performed. In this determination, when the user operation acquisition unit 341 acquires an operation signal indicating a freeze release instruction or text data, the determination result is Yes, and otherwise is No. When the determination result of S211 is Yes, it progresses to S212, and, in No, returns to S209.
  • the user operation acquisition unit 341 outputs a freeze release instruction signal to the display control unit 347 and outputs a restart instruction signal to the time measurement unit 343.
  • the display control unit 347 resumes the display of the live image on the monitor 4 in response to the input freeze release instruction signal.
  • the display control unit 347 deletes the past image.
  • the time measuring unit 343 restarts the time measurement by resuming the timer count in response to the input resumption instruction signal.
  • S215 to S221 the same processing as S112 to S118 shown in FIG. 3 is performed. However, when the determination result of S221 is No, it returns to S204.
  • the freeze is performed in the past image of the past image data stored in the storage unit 346. If there is a past image corresponding to the live image in the inside and the observation position, the past image is displayed on the monitor 4 together with the live image being frozen.
  • the freeze is a endoscopic observation image acquired in the current endoscopy.
  • the past image which is the endoscopic observation image to which the observation position acquired by the past endoscopic examination corresponds.
  • a monitor other than the monitor 4 can be further connected to the video processor 3, and the display control unit 347 displays a live image on one of the monitor 4 and another monitor, and displays a still image on the other. It is also good.
  • the video processor 3 is configured to be able to communicate with the server via the communication network, and the still image data associated with the insertion position information is stored in the server instead of being stored in the storage unit 346. It is also good.
  • the endoscope system 1 may further include an external device configured to be able to communicate with the video processor 3.
  • the video processor 3 may store the still image data associated with the insertion position information in the storage unit provided in the external device instead of storing the still image data in the storage unit 346.
  • the external device comprises, for example, an Internet server.
  • the insertion position information adding unit 345 may further associate information other than the insertion position information with the still image data.
  • associating information other than the insertion position information with the still image data also means adding information other than the insertion position information to the still image data.
  • information other than the insertion position information is input by, for example, an input operation to the operation unit of the scope 2, a voice input to the voice input device 32, or an input operation to the operation panel 33.
  • the display control unit 347 monitors the still image related to the still image data for a predetermined time. It may be displayed on 4. At this time, if there is past image data associated with the same insertion position information, the past image related to the past image data may be displayed on the monitor 4 together with the still image. According to this, it is also possible to simultaneously display the still image acquired in the present endoscopic examination and the still image which is the past image corresponding to the observation position acquired in the past endoscopic examination.
  • the imaging unit 344 may generate still image data at predetermined time intervals and output the still image data to the insertion position information adding unit 345.
  • the insertion position information adding unit 345 associates only the measurement time as the insertion position information with the still image data. May be stored in the storage unit 346.
  • the fixed timing is, for example, the insertion start timing of the scope 2.
  • Still image data may be read out and the still image according to the still image data may be displayed on the monitor 4 together with the live image.
  • control unit 34 may be realized by the hardware configuration illustrated in FIG. 8.
  • the control unit 34 includes a central processing unit (CPU) 3401, a memory 3402, an input / output device 3403, an external storage device 3404, and a portable recording medium drive 3405 in which a portable recording medium 3407 is accommodated. And a communication device 3406.
  • the CPU 3401, the memory 3402, the input / output unit 3403, the external storage unit 3404, the portable recording medium drive unit 3405, and the communication unit 3406 are mutually connected by a bus 3408.
  • the CPU 3401 is an arithmetic device that executes a program for processing performed by the control unit 34.
  • the memory 3402 is, for example, a random access memory (RAM) and a read only memory (ROM).
  • the RAM is used as a work area or the like of the CPU 3401.
  • the ROM stores programs and information necessary for executing the programs in a nonvolatile manner. .
  • the input / output device 3403 is an interface device that exchanges signals with the scope 2, the monitor 4, the light source 31, the voice input device 32, the operation panel 33, and the like.
  • the external storage device 3404 is a storage that stores, in a non-volatile manner, programs and information necessary for executing the programs, information acquired by executing the programs, and the like.
  • the information acquired by the execution of the program is, for example, still image data associated with insertion position information.
  • the external storage device 3404 is, for example, a hard disk device.
  • the portable recording medium drive device 3405 accommodates a portable recording medium 3407 such as an optical disk or Compact Flash (registered trademark). Similar to the external storage device 3404, the portable storage medium 3407 is also a storage that stores the program and information necessary to execute the program, information obtained by the execution of the program, and the like in a non-volatile manner.
  • the communication device 3406 is a communication interface device that transmits and receives information to and from another device such as a server via a communication network. Note that the program and information required to execute the program may be input from another device such as a server via the communication network and the communication device 3406.
  • the present invention is not limited as it is to the above-mentioned embodiment, and at the implementation stage, it can change and embody the component in the range which does not deviate from the gist.
  • various inventions can be formed according to appropriate combinations of a plurality of constituent elements disclosed in the above embodiments. For example, some components of all the components shown in the embodiment may be deleted. Furthermore, components in different embodiments may be combined as appropriate.

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Biomedical Technology (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Astronomy & Astrophysics (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Endoscopes (AREA)

Abstract

ビデオプロセッサは、内視鏡検査における基準タイミングからの経過時間を計測する時間計測部と、第1の内視鏡検査において取得された第1の内視鏡観察画像と、前記第1の内視鏡観察画像取得時の、前記第1の内視鏡検査における前記基準タイミングからの経過時間と、が対応付けられて記憶された記憶部と、前記第1の内視鏡検査の後に行われる第2の内視鏡検査において取得された第2の内視鏡観察画像と、前記第2の内視鏡観察画像取得時の、前記第2の内視鏡検査における前記基準タイミングからの経過時間と同一の経過時間が対応付けられて前記記憶部に記憶されている前記第1の内視鏡観察画像と、を同時に表示させる制御を行う表示制御部と、を備える。

Description

ビデオプロセッサ、内視鏡システム、表示方法、及び表示プログラム
 本発明は、内視鏡検査で取得された内視鏡観察画像を表示するビデオプロセッサ、内視鏡システム、表示方法、及び表示プログラムに関する。
 病院等の医療機関では、経過観察等を目的として、患者に対して定期的に内視鏡検査が行われる場合がある。この場合、2回目以降の内視鏡検査では、例えば、現在の内視鏡検査で取得された内視鏡観察画像と過去の内視鏡検査で取得された内視鏡観察画像との比較等に依り、観察対象部位の経過観察が行われる。
 この比較が行われる際に使用され得るシステムとして、内視鏡で撮影した画像と、撮影時における内視鏡の位置と、撮影条件情報、画像処理情報および操作情報の1以上である処置履歴情報を対応付けして、内視鏡診察情報として記憶しておき、再診察時には、内視鏡の位置から対応する内視鏡診察情報を読み出し、撮影条件および画像処理を再現して現在の画像を処理して、前回の画像と現在の画像を並べて表示する内視鏡システムが知られている(例えば特許文献1参照)。この内視鏡システムでは、内視鏡の挿入部に所定間隔で設けられたICタグを、マウスピースに設けられたICタグリーダで読み取ることに依って、内視鏡の挿入長、即ち内視鏡の位置(体内位置)が取得されている。
特開2009-77765号公報
 上述の内視鏡システムでは、ICタグが設けられた内視鏡が使用されることから、ICタグが設けられていない一般的な内視鏡が使用される場合に比べて、内視鏡の導入コストが高くなる。また、ICタグが設けられた内視鏡の使用に伴い、ICタグリーダが設けられたマウスピースが必要とされることから、使い捨てタイプのマウスピースを使用することができない。そのため、内視鏡検査毎にマウスピースの洗浄、消毒が必要になり、マウスピースの管理コストが新たに発生する。
 本発明は、上記実状に鑑み、一般的な内視鏡を使用しながら現在の内視鏡検査で取得された内視鏡観察画像と過去の内視鏡検査で取得された観察位置が対応する内視鏡観察画像とを同時に表示することができるビデオプロセッサ、内視鏡システム、表示方法、及び表示プログラムを提供することを目的とする。
 本発明の第1の態様は、内視鏡検査における基準タイミングからの経過時間を計測する時間計測部と、第1の内視鏡検査において取得された第1の内視鏡観察画像と、前記第1の内視鏡観察画像取得時の、前記第1の内視鏡検査における前記基準タイミングからの経過時間と、が対応付けられて記憶された記憶部と、前記第1の内視鏡検査の後に行われる第2の内視鏡検査において取得された第2の内視鏡観察画像と、前記第2の内視鏡観察画像取得時の、前記第2の内視鏡検査における前記基準タイミングからの経過時間と同一の経過時間が対応付けられて前記記憶部に記憶されている前記第1の内視鏡観察画像と、を同時に表示させる制御を行う表示制御部と、を備えるビデオプロセッサである。
 本発明の第2の態様は、第1の態様において、前記第2の内視鏡観察画像は、リアルタイムに取得される。
 本発明の第3の態様は、第1の態様において、前記第2の内視鏡観察画像は、入力された操作信号に応じて生成される。
 本発明の第4の態様は、第1の態様において、前記第2の内視鏡検査における特定のタイミングに取得された前記第2の内視鏡観察画像と、前記第2の内視鏡観察画像取得時の前記経過時間と、を対応付けて前記記憶部に記憶する。
 本発明の第5の態様は、第4の態様において、前記特定のタイミングは、操作者からの撮影指示が入力されたタイミングである。
 本発明の第6の態様は、第4の態様において、前記特定のタイミングは、所定時間毎のタイミングである。
 本発明の第7の態様は、第1の態様において、前記記憶部には、前記第1の内視鏡観察画像と、前記第1の内視鏡観察画像取得時の前記経過時間及び前記基準タイミングと、が対応付けられて記憶され、前記表示制御部は、前記第2の内視鏡観察画像と、前記第2の内視鏡観察画像取得時の前記経過時間及び前記基準タイミングと同一の経過時間及び基準タイミングが対応付けられて前記記憶部に記憶されている前記第1の内視鏡観察画像と、を同時に表示させる制御を行う。
 本発明の第8の態様は、第7の態様において、前記第2の内視鏡検査における特定のタイミングに取得された前記第2の内視鏡観察画像と、前記第2の内視鏡観察画像取得時の前記経過時間及び前記基準タイミングと、を対応付けて前記記憶部に記憶する。
 本発明の第9の態様は、第7の態様において、操作者からの入力に応じて前記基準タイミングを変更する。
 本発明の第10の態様は、内視鏡が接続されたビデオプロセッサと、前記ビデオプロセッサと通信可能に構成された外部装置と、を有する内視鏡システムであって、前記ビデオプロセッサは、内視鏡検査における基準タイミングからの経過時間を計測する時間計測部と、内視鏡検査において取得された内視鏡観察画像を表示させる表示制御部と、を備え、前記外部装置は、前記ビデオプロセッサから受信した、第1の内視鏡検査において取得された第1の内視鏡観察画像と、前記第1の内視鏡観察画像取得時の、前記第1の内視鏡検査における前記基準タイミングからの経過時間と、が対応付けられて記憶された記憶部、を備え、前記表示制御部は、前記第1の内視鏡検査の後に行われる第2の内視鏡検査において取得された第2の内視鏡観察画像と、前記第2の内視鏡観察画像取得時の、前記第2の内視鏡検査における前記基準タイミングからの経過時間と同一の経過時間が対応付けられて前記記憶部に記憶されている前記第1の内視鏡観察画像と、を同時に表示させる制御を行う。
 本発明の第11の態様は、第10の態様において、前記外部装置は、インターネットサーバから成る。
 本発明の第12の態様は、ビデオプロセッサにおいて実行される表示方法であって、第1の内視鏡検査において、基準タイミングからの経過時間の計測を開始し、第1の内視鏡観察画像を取得し、前記第1の内視鏡観察画像と前記第1の内視鏡観察画像取得時の前記経過時間とを対応付けて記憶部に記憶する、という処理を実行し、前記第1の内視鏡検査の後に行われる第2の内視鏡検査において、前記基準タイミングからの経過時間の計測を開始し、第2の内視鏡観察画像を取得し、前記第2の内視鏡観察画像と、前記第2の内視鏡観察画像取得時の前記経過時間と同一の経過時間が対応付けられて前記記憶部に記憶されている前記第1の内視鏡観察画像と、を同時に表示させる、という処理を実行する。
 本発明の第13の態様は、ビデオプロセッサのコンピュータに、第1の内視鏡検査において、基準タイミングからの経過時間の計測を開始し、第1の内視鏡観察画像を取得し、前記第1の内視鏡観察画像と前記第1の内視鏡観察画像取得時の前記経過時間とを対応付けて記憶部に記憶する、という処理を実行させ、前記第1の内視鏡検査の後に行われる第2の内視鏡検査において、前記基準タイミングからの経過時間の計測を開始し、第2の内視鏡観察画像を取得し、前記第2の内視鏡観察画像と、前記第2の内視鏡観察画像取得時の前記経過時間と同一の経過時間が対応付けられて前記記憶部に記憶されている前記第1の内視鏡観察画像と、を同時に表示させる、という処理を実行させる表示プログラムである。
 本発明に依れば、一般的な内視鏡を使用しながら現在の内視鏡検査で取得された内視鏡観察画像と過去の内視鏡検査で取得された観察位置が対応する内視鏡観察画像とを同時に表示することができる。
第1の実施形態に係る内視鏡システムの構成例を示す図である。 内視鏡検査の一例を模式的に示す図である。 第1の実施形態に係る内視鏡システムにおいて実行される表示処理の一例を示すフローチャートである。 表示処理中におけるモニタの表示画面例を模式的に示す図(その1)である。 表示処理中におけるモニタの表示画面例を模式的に示す図(その2)である。 表示処理中における基準タイミング及び基準タイミングからの経過時間の一例を模式的に示す図である。 第2の実施形態に係る内視鏡システムにおいて実行される表示処理の一例を示すフローチャートである。 制御部のハードウェア構成例を示す図である。
 以下、図面を参照しながら、本発明の実施の形態について説明する。
<第1の実施形態>
 図1は、第1の実施形態に係る内視鏡システムの構成例を示す図である。図2は、内視鏡検査の一例を模式的に示す図である。
 図1に示したとおり、本実施形態に係る内視鏡システム1は、スコープ2、ビデオプロセッサ3、及びモニタ4を備える。スコープ2とビデオプロセッサ3は、コネクタ5、6に依り接続され、ビデオプロセッサ3とモニタ4は、コネクタ7に依り接続される。
 スコープ2は、一般的な軟性の電子内視鏡であって、ライトガイド21、レンズ22、撮像素子23、及び信号線24を備える。
 ライトガイド21は、スコープ2がビデオプロセッサ3に接続されると、ライトガイド21の端部がコネクタ6を経由してビデオプロセッサ3内に延出する構成を有しており、光源31から供給される照明光をレンズ22へ導く。レンズ22は、ライトガイド21に依り導かれた照明光を被検体に射出する。
 撮像素子23は、被検体の光学像を電気信号に変換する撮像を行い、変換された電気信号を信号線24及びコネクタ5を経由して撮影部344へ出力する。なお、撮像素子23は、例えば、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)のイメージセンサである。
 なお、図示はしないが、スコープ2はユーザ(術者)の入力操作を受け付ける操作部を備えており、その入力操作に応じた操作信号を、コネクタ5を経由してユーザ操作取得部341へ出力する。
 ビデオプロセッサ3は、光源一体型のビデオプロセッサであって、光源31、音声入力装置32、操作パネル33、及び制御部34を備える。
 光源31は、光源制御部342の制御の下に、照明光をライトガイド21に供給する。本実施形態において、光源31は、半導体光源であるとするが、ランプ光源であってもよい。半導体光源は、例えば、白色光を放射する白色LED(Light Emitting Diode)である。又は、半導体光源は、白色光を構成する赤色光、緑色光、青色光を放射する3つのLED、即ち、赤色光LED、緑色光LED、青色光LEDである。
 音声入力装置32は、図示しないマイクロフォン及び音声認識回路を備えており、ユーザが発声した音声をマイクロフォンに依り音声データに変換し、その音声データを音声認識回路に依りテキストデータに変換してユーザ操作取得部341へ出力する。
 操作パネル33は、ユーザの入力操作を受け付け、その入力操作に応じた操作信号をユーザ操作取得部341へ出力する。本実施形態において、操作パネル33は、タッチパネル付きディスプレイ装置であるとするが、物理的なボタンやキー等に対する操作に依ってユーザの入力操作を受け付ける構成を有するものであってもよい。
 制御部34は、ユーザ操作取得部341、光源制御部342、時間計測部343、撮影部344、挿入位置情報付与部345、記憶部346、及び表示制御部347を備える。なお、制御部34は、例えば、ASIC(Application Specific Integrated Circuit)又はFPGA(Field-Programmable Gate Array)等の集積回路に依って実現される。
 ユーザ操作取得部341は、スコープ2の操作部から入力される操作信号、音声入力装置32から入力されるテキストデータ、又は操作パネル33から入力される操作信号を取得し、取得した操作信号又はテキストデータに応じて、例えば、次の処理を行う。
 取得した操作信号又はテキストデータが、光源31に対する指示を示すものである場合は、その指示に応じた指示信号を光源制御部342へ出力する。取得した操作信号又はテキストデータが、内視鏡検査開始指示を示すものである場合は、時間計測を開始させる開始指示信号と、その時間計測の開始タイミングとなる基準タイミングを示す基準タイミング情報とを時間計測部343へ出力する。取得した操作信号又はテキストデータが、基準タイミング変更指示を示すものである場合は、時間計測を開始させる開始指示信号と、その時間計測の開始タイミングとなる変更後の基準タイミングを示す基準タイミング情報とを時間計測部343へ出力する。取得した操作信号又はテキストデータが、撮影指示を示すものである場合は、撮影指示信号を撮影部344へ出力する。ここで、撮影指示は、レリーズ指示でもある。取得した操作信号又はテキストデータが、静止画像消去指示を示すものである場合は、静止画像消去指示信号を表示制御部347へ出力する。ここで、静止画像消去指示は、後述する過去画像消去指示でもある。
 光源制御部342は、ユーザ操作取得部341から指示信号が入力されると、その指示信号に応じて光源31を制御する。例えば、その指示信号に応じて、ライトガイド21への照明光の供給開始又は供給停止を行う。
 時間計測部343は、図示しないタイマーを備えており、ユーザ操作取得部341から開始指示信号及び基準タイミング情報が入力されると、その開始指示信号に応じてタイマーをリセットしてタイマーカウントを開始させることで時間計測を開始すると共に、入力された基準タイミング情報を挿入位置情報付与部345及び表示制御部347へ出力する。また、時間計測部343は、時間計測中において、計測時間であるタイマーカウント値をリアルタイムに挿入位置情報付与部345及び表示制御部347へ出力する。
 なお、時間計測部343に依り計測される時間は、基準タイミング情報が示す基準タイミングからの経過時間でもある。この経過時間は、被検体におけるスコープ2の挿入位置にも対応する。一般的に、経過観察等を目的として同一患者に対して複数回の内視鏡検査が行われた場合、スコープ2を操作していたユーザが同一であれば、基準タイミングからスコープ2が被検体の各部位へ至るまでの時間は、複数回の内視鏡検査において略同一になることが知られている。ここで、基準タイミングは、例えばスコープ2の挿入開始タイミング又は抜去開始タイミングである。例えば、図2に示したとおり、スコープ2の挿入部が患者の口から挿入されて食道入口部、頚部食道、胸部食道、腹部食道、噴門を経由して胃へ至るような内視鏡検査が複数回行われた場合は、スコープ2の挿入を開始してからスコープ2が食道入口部、頚部食道、胸部食道、腹部食道、噴門、胃の各部位へ至るまでの時間は、複数回の内視鏡検査において略同一になる。従って、複数回の内視鏡検査において、基準タイミングからの経過時間が同一であれば、その時のスコープ2の挿入位置が略同一になる、と言うことができる。
 撮影部344は、撮像素子23から入力される電気信号に所定の信号処理を施して映像信号を生成し、表示制御部347へ出力する。また、撮影部344は、ユーザ操作取得部341から撮影指示信号が入力されると、撮像素子23から入力される電気信号に所定の信号処理を施して静止画像データを生成し、挿入位置情報付与部345へ出力する。
 挿入位置情報付与部345は、撮影部344から静止画像データが入力されると、その時点に時間計測部343から入力された計測時間と時間計測部343から最後に入力された基準タイミング情報とを、挿入位置情報として、その静止画像データに対応付けて記憶部346へ記憶する。ここで、挿入位置情報として静止画像データに対応付けるとは、挿入位置情報として静止画像データに付与することでもある。
 記憶部346は、例えばフラッシュメモリ等の不揮発性メモリであって、静止画像データと挿入位置情報とが対応付けられて記憶される。
 表示制御部347は、モニタ4の表示と操作パネル33の表示を制御する。例えば、表示制御部347は、次の表示制御を行う。
 撮影部344から入力される映像信号に応じた画像をモニタ4に表示させる。なお、撮影部344から入力される映像信号に応じた画像は、リアルタイムに取得される被検体のライブ画像でもある。また、時間計測部343からリアルタイムに入力される計測時間及び時間計測部343から最後に入力された基準タイミング情報と同一の計測時間及び基準タイミング情報が挿入位置情報として対応付けられた静止画像データが記憶部346に記憶されている場合に、その静止画像データを読み出し、その静止画像データに係る静止画像をライブ画像と共にモニタ4に表示させる。これに依り、被検体におけるスコープ2の挿入位置が略同一のライブ画像と静止画像とが同時にモニタ4に表示される。なお、被検体におけるスコープ2の挿入位置は、観察位置でもある。ライブ画像と静止画像は、いずれも内視鏡観察画像である。また、モニタ4に静止画像を表示させてから所定時間が経過すると、その静止画像を消去させる。ここで、所定時間が経過したか否かは、例えば、時間計測部343からリアルタイムに入力される計測時間に基づいて判定することができる。また、ユーザ操作取得部341から静止画像消去指示信号が入力されると、モニタ4に表示させている静止画像を消去させる。
 モニタ4は、例えば液晶表示装置であり、表示制御部347の制御の下、ライブ画像や静止画像等を表示する。
 図3は、本実施形態に係る内視鏡システム1において実行される表示処理の一例を示すフローチャートである。図4及び図5は、図3に示した表示処理中におけるモニタ4の表示画面例を模式的に示す図である。なお、図4及び図5に示した表示画面例は、検査中の観察画面例でもある。
 図3に示した表示処理は、経過観察を目的として実施される内視鏡検査において実行される処理であって、内視鏡システム1の電源が投入されると開始する。この表示処理の開始時においては、前回の内視鏡検査で取得された静止画像データが挿入位置情報と対応付けられて記憶部346に記憶されているとする。より詳しくは、前回の内視鏡検査において実行された図3に示した表示処理における後述するステップ113及び114において、撮影部344に依り生成され、挿入位置情報付与部345に依り挿入位置情報が対応付けられた静止画像データが、記憶部346に記憶されているとする。以下では、前回の内視鏡検査で取得された静止画像データを「過去画像データ」とも言う。また、前回の内視鏡検査とこれから実施される今回の内視鏡検査において、スコープ2を操作するユーザは同一であるとし、被検体(患者)も同一であることは勿論である。
 図3に示したとおり、この表示処理が開始すると、ステップ(以下「S」と言う)101において、制御部34は、内視鏡検査が開始したか否かを判定する。この判定では、ユーザ操作取得部341が検査開始指示を示す操作信号又はテキストデータを取得した場合に判定結果がYesとなり、そうでない場合にはNoとなる。S101の判定結果がYesの場合はS102へ進み、Noの場合は本判定を繰り返す。
 なお、図示はしないが、この表示処理が開始すると、撮像素子23に依る撮像、撮影部344に依る映像信号の生成、及び表示制御部347に依るモニタ4へのライブ画像の表示が開始する。これに依り、モニタ4には、例えば図4に示したとおり、被検体のライブ画像が表示される。
 S102において、ユーザ操作取得部341は、開始指示信号と基準タイミング情報を時間計測部343へ出力する。この時の基準タイミング情報は、基準タイミングとして、スコープ2の挿入開始タイミングを示している。
 S103において、時間計測部343は、入力された開始指示信号に応じて、タイマーをリセットしてタイマーカウントを開始させることで、入力された基準タイミング情報が示す基準タイミングであるスコープ2の挿入開始タイミングからの経過時間の計測を開始する。以降、時間計測中において時間計測部343は、計測時間をリアルタイムに挿入位置情報付与部345及び表示制御部347へ出力する。また、時間計測部343は、入力された基準タイミング情報を挿入位置情報付与部345及び表示制御部347へ出力する。
 S104において、表示制御部347は、記憶部346に記憶されている過去画像データの中に、時間計測部343からリアルタイム入力される計測時間及び時間計測部343から最後に入力された基準タイミング情報と同一の計測時間及び基準タイミング情報が挿入位置情報として対応付けられた過去画像データが有るか否かを判定する。S104の判定結果がYesの場合はS105へ進み、Noの場合はS108へ進む。
 S105において、表示制御部347は、別の過去画像データに係る過去画像をモニタ4に表示させているか否かを判定する。S105の判定結果がYesの場合はS106へ進み、Noの場合にはS107へ進む。
 S106において、表示制御部347は、モニタ4に表示させている過去画像を消去させる。
 S107において、表示制御部347は、S104でYesと判定されたときの過去画像データを記憶部346から読み出し、その過去画像データに係る過去画像を、ライブ画像と共にモニタ4に表示させる。これに依り、例えば図5に示したとおり、ライブ画像と過去画像とが同時にモニタ4に表示され、被検体におけるスコープ2の挿入位置が略同一の、今回の内視鏡観察画像であるライブ画像と前回の内視鏡観察画像である過去画像との比較が可能になる。なお、モニタ4に表示させるライブ画像と静止画像のサイズ及び位置は、図5に示したものに限定されず、例えば、両画像を同じサイズで表示させてもよいし、両画像を上下に配置して表示させてもよい。
 S108において、表示制御部347は、モニタ4に過去画像を表示させている場合に、その過去画像の表示時間が所定時間を経過したか否かを判定する。S108の判定結果がYesの場合はS109へ進み、Noの場合はS110へ進む。なお、S108の判定時に過去画像が表示されていなければ、S108の判定結果がNoとなる。
 S109において、表示制御部347は、モニタ4に表示させている過去画像を消去させる。
 S110において、制御部34は、過去画像の消去操作が行われたか否かを判定する。この判定では、ユーザ操作取得部341が過去画像消去指示を示す操作信号又はテキストデータを取得した場合に判定結果がYesとなり、そうでない場合にはNoとなる。S110の判定結果がYesの場合はS111へ進み、Noの場合はS112へ進む。
 S111において、表示制御部347は、モニタ4に表示させている過去画像を消去させる。
 S112において、制御部34は、レリーズ操作が行われたか否かを判定する。この判定では、ユーザ操作取得部341が撮影指示を示す操作信号又はテキストデータを取得した場合に判定結果がYesとなり、そうでない場合にはNoとなる。S112の判定結果がYesの場合はS113へ進み、Noの場合はS115へ進む。
 S113において、撮影部344は、撮像素子23から入力される電気信号に所定の信号処理を施して静止画像データを生成し、挿入位置情報付与部345へ出力する。
 S114において、挿入位置情報付与部345は、撮影部344から入力された静止画像データに、その時点に時間計測部343から入力された計測時間と時間計測部343から最後に入力された基準タイミング情報とを挿入位置情報として対応付けて記憶部346に保存(記憶)する。なお、この時に保存された静止画像データは、次回の内視鏡検査では、前回の内視鏡検査で取得された静止画像データである過去画像データとして扱われる。
 S115において、制御部34は、基準タイミングが変更されたか否かを判定する。この判定では、ユーザ操作取得部341が基準タイミング変更指示を示す操作信号又はテキストデータを取得した場合に判定結果がYesとなり、そうでない場合にはNoとなる。S115の判定結果がYesの場合はS116へ進み、Noの場合はS118へ進む。
 S116において、ユーザ操作取得部341は、開始指示信号と基準タイミング情報を時間計測部343へ出力する。なお、この時の基準タイミング情報は、変更後の基準タイミングを示している。ここでは一例として、基準タイミング変更指示が、基準タイミングをスコープ2の抜去開始タイミングへ変更する指示であったとし、基準タイミング情報は、変更後の基準タイミングとして、スコープ2の抜去開始タイミングを示しているとする。
 S117において、時間計測部343は、入力された開始指示信号に応じて、タイマーをリセットしてタイマーカウントを開始させることで、入力された基準タイミング情報が示す基準タイミングであるスコープ2の抜去開始タイミングからの経過時間の計測を開始する。以降、時間計測中において時間計測部343は、計測時間をリアルタイムに挿入位置情報付与部345及び表示制御部347へ出力する。また、時間計測部343は、入力された基準タイミング情報を挿入位置情報付与部345及び表示制御部347へ出力する。
 S118において、制御部34は、内視鏡検査が終了したか否かを判定する。この判定では、ユーザ操作取得部341が検査終了指示を示す操作信号又はテキストデータを取得した場合に判定結果がYesとなり、そうでない場合にはNoとなる。S118の判定結果がYesの場合は表示処理が終了し、Noの場合はS104へ戻る。
 図6は、図3に示した表示処理中における基準タイミング及び基準タイミングからの経過時間(計測時間)の一例を模式的に示す図である。
 図6に示したとおり、表示処理中のS103においては、基準タイミングが「挿入開始」とされると共に、時間計測部343でのタイマーリセットに依り基準タイミングからの経過時間が「0:00」とされ、時間計測部343でのタイマーカウント開始に依り基準タイミングからの経過時間の計測が開始する。ここで、「挿入開始」は、スコープ2の挿入開始タイミングを示す。
 表示処理中のS114においては、「挿入開始」を示す基準タイミング情報及び「4:30」の計測時間が挿入位置情報として静止画像データに対応付けられて記憶部346に保存される。ここで、「4:30」の計測時間は、基準タイミングからの経過時間が4分30秒であることを示す。   
 表示処理中のS117においては、基準タイミングが「挿入開始」から「抜去開始」へ更新(変更)されると共に、時間計測部343でのタイマーリセットに依り基準タイミングからの経過時間が「0:00」とされ、時間計測部343でのタイマーカウント開始に依り基準タイミングからの経過時間の計測が開始する。ここで、「抜去開始」は、スコープ2の抜去開始タイミングを示す。
 このような図3に示した表示処理に依れば、内視鏡検査中において、記憶部346に記憶されている過去画像データに係る過去画像の中に、ライブ画像と観察位置が対応する過去画像が有れば、その都度、その過去画像がライブ画像と共にモニタ4に表示される。
 以上のとおり本実施形態に依れば、一般的な内視鏡を使用しながら現在の内視鏡検査で取得された内視鏡観察画像であるライブ画像と過去の内視鏡検査で取得された観察位置が対応する内視鏡観察画像である過去画像とを同時に表示することができる。
<第2の実施形態>
 次に、第2の実施形態について説明する。この説明では、第1の実施形態に対して異なる点のみを説明する。また、第1の実施形態と同一の構成要素については同一の符号を付して、その説明を省略する。
 本実施形態に係る内視鏡システム1において、ユーザ操作取得部341は、取得した操作信号又はテキストデータに応じて、更に、次の処理を行う。
 取得した操作信号又はテキストデータが、フリーズ指示を示すものである場合は、フリーズ指示信号を表示制御部347へ出力すると共に、時間計測を停止させる停止指示信号を時間計測部343へ出力する。取得した操作信号又はテキストデータが、フリーズ解除指示を示すものである場合は、フリーズ解除指示信号を表示制御部347へ出力すると共に、時間計測を再開させる再開指示信号を時間計測部343へ出力する。
 時間計測部343は、更に、次の処理を行う。
 ユーザ操作取得部341から停止指示信号が入力されると、タイマーカウントを停止させることで時間計測を停止する。また、ユーザ操作取得部341から再開指示信号が入力されると、タイマーカウントを再開させることで時間計測を再開する。なお、時間計測部343は、時間計測停止中も計測時間をリアルタイムに挿入位置情報付与部345及び表示制御部347へ出力する。この時間計測停止中の場合は、計測停止時点の計測時間が挿入位置情報付与部345及び表示制御部347へ出力されることになる。
 表示制御部347は、更に、次の制御を行う。
 ユーザ操作取得部341からフリーズ指示信号が入力されると、その時点のライブ画像をフリーズさせて表示させる。ここで、ライブ画像をフリーズさせるとは、ライブ画像を静止又は停止させることでもある。また、ユーザ操作取得部341からフリーズ解除指示信号が入力されると、モニタ4へのライブ画像の表示を再開させる。
 図7は、本実施形態に係る内視鏡システム1において実行される表示処理の一例を示すフローチャートであり、図3に示した表示処理に対応するフローチャートである。
 図7に示したとおり、S201乃至S203においては、図3に示したS101乃至S103と同じ処理が行われる。
 S204において、制御部34は、フリーズ操作が行われたか否かを判定する。この判定では、ユーザ操作取得部341がフリーズ指示を示す操作信号又はテキストデータを取得した場合に判定結果がYesとなり、そうでない場合にはNoとなる。S204の判定結果がYesの場合はS205へ進み、Noの場合はS215へ進む。
 S205において、ユーザ操作取得部341は、フリーズ指示信号を表示制御部347へ出力すると共に、停止指示信号を時間計測部343へ出力する。
 図示はしないが、表示制御部347は、ユーザ操作取得部341からフリーズ指示信号が入力されると、その時点のライブ画像をフリーズさせてモニタ4に表示させる。
 S206において、時間計測部343は、入力された停止指示信号に応じてタイマーカウントを停止させることで時間計測を停止する。
 S207において、表示制御部347は、記憶部346に記憶されている過去画像データの中に、時間計測部343からリアルタイムに入力される計測時間及び時間計測部343から最後に入力された基準タイミング情報と同一の計測時間及び基準タイミング情報が挿入位置情報として対応付けられた過去画像データが有るか否かを判定する。なお、ここでは、時間計測部343からリアルタイムに入力される計測時間が、計測停止時点の計測時間となる。S207の判定結果がYesの場合はS208へ進み、Noの場合はS211へ進む。
 S208において、表示制御部347は、S207でYesと判定されたときの過去画像データを記憶部346から読み出し、その過去画像データに係る過去画像を、フリーズ中のライブ画像と共にモニタ4に表示させる。これに依り、例えば図5に示したとおり、ライブ画像と過去画像とが同時にモニタ4に表示される。但し、ここでは、ライブ画像がフリーズ中のライブ画像となる。これに依り、被検体におけるスコープ2の挿入位置が略同一の、今回の内視鏡観察画像であるフリーズ中のライブ画像と前回の内視鏡観察画像である過去画像との比較が可能になる。
 S209において、制御部34は、過去画像の消去操作が行われたか否かを判定する。この判定では、ユーザ操作取得部341が過去画像消去指示を示す操作信号又はテキストデータを取得した場合に判定結果がYesとなり、そうでない場合にはNoとなる。S209の判定結果がYesの場合はS210へ進み、Noの場合はS211へ進む。
 S210において、表示制御部347は、モニタ4に表示させている過去画像を消去させる。
 S211において、制御部34は、フリーズ解除操作が行われたか否かを判定する。この判定では、ユーザ操作取得部341がフリーズ解除指示を示す操作信号又はテキストデータを取得した場合に判定結果がYesとなり、そうでない場合にはNoとなる。S211の判定結果がYesの場合はS212へ進み、Noの場合はS209へ戻る。
 S212において、ユーザ操作取得部341は、フリーズ解除指示信号を表示制御部347へ出力すると共に、再開指示信号を時間計測部343へ出力する。
 S213において、表示制御部347は、入力されたフリーズ解除指示信号に応じて、モニタ4へのライブ画像の表示を再開させる。また、表示制御部347は、モニタ4に過去画像を表示させていれば、その過去画像を消去させる。
 S214において、時間計測部343は、入力された再開指示信号に応じてタイマーカウントを再開させることで時間計測を再開する。
 S215乃至S221においては、図3に示したS112乃至S118と同じ処理が行われる。但し、S221の判定結果がNoの場合はS204へ戻る。
 このような図7に示した表示処理に依れば、内視鏡検査中において、フリーズ操作が行われた時に、記憶部346に記憶されている過去画像データに係る過去画像の中に、フリーズ中のライブ画像と観察位置が対応する過去画像が有れば、その過去画像がフリーズ中のライブ画像と共にモニタ4に表示される。
 以上のとおり本実施形態に依れば、一般的な内視鏡を使用しながら、フリーズ操作が行われた場合に、現在の内視鏡検査で取得された内視鏡観察画像であるフリーズ中のライブ画像と過去の内視鏡検査で取得された観察位置が対応する内視鏡観察画像である過去画像とを同時に表示することができる。
 以上、第1及び第2の実施形態について説明してきたが、各実施形態においては、例えば、次の変形をしてもよい。
 ビデオプロセッサ3にモニタ4とは別のモニタを更に接続可能に構成し、表示制御部347が、モニタ4及び別のモニタのいずれか一方にライブ画像を表示させ、他方に静止画像を表示させてもよい。
 また、ビデオプロセッサ3を、通信ネットワークを経由してサーバと通信可能に構成し、挿入位置情報が対応付けられた静止画像データを、記憶部346に記憶する代わりに、サーバに記憶するようにしてもよい。
 また、内視鏡システム1は、ビデオプロセッサ3と通信可能に構成された外部装置を更に備えてもよい。この場合、ビデオプロセッサ3は、挿入位置情報が対応付けられた静止画像データを、記憶部346に記憶する代わりに、外部装置が備える記憶部に記憶してもよい。外部装置は、例えば、インターネットサーバから成る。
 また、挿入位置情報付与部345は、更に、挿入位置情報以外の情報を静止画像データに対応付けるようにしてもよい。ここで、挿入位置情報以外の情報を静止画像データに対応付けるとは、挿入位置情報以外の情報を静止画像データに付与することでもある。この場合、挿入位置情報以外の情報は、例えば、スコープ2の操作部に対する入力操作、音声入力装置32に対する音声入力、又は操作パネル33に対する入力操作に依り入力される。
 また、挿入位置情報付与部345が静止画像データに挿入位置情報を対応付けて記憶部346に記憶した時に、表示制御部347が、その静止画像データに係る静止画像を、所定時間の間、モニタ4に表示させてもよい。また、この時に、同一の挿入位置情報が対応付けられた過去画像データがある場合には、その過去画像データに係る過去画像を、静止画像と共にモニタ4に表示させてもよい。これに依り、今回の内視鏡検査で取得された静止画像と過去の内視鏡検査で取得された観察位置が対応する過去画像である静止画像とを同時に表示させることもできる。
 また、撮影部344は、所定時間毎に、静止画像データを生成し、挿入位置情報付与部345へ出力してもよい。
 また、基準タイミングが予め固定されたタイミングに決められていて、基準タイミングの変更が行われない場合には、挿入位置情報付与部345が、挿入位置情報として計測時間のみを静止画像データに対応付けて記憶部346に記憶してもよい。ここで、固定されたタイミングとは、例えば、スコープ2の挿入開始タイミングである。そして、表示制御部347が、時間計測部343からリアルタイムに入力される計測時間と同一の計測時間が挿入位置情報として対応付けられた静止画像データが記憶部346に記憶されている場合に、その静止画像データを読み出し、その静止画像データに係る静止画像をライブ画像と共にモニタ4に表示させてもよい。
 また、制御部34は、図8に例示するハードウェア構成に依り実現されてもよい。
 図8に示したとおり、制御部34は、CPU(Central Processing Unit)3401、メモリ3402、入出力装置3403、外部記憶装置3404、可搬記録媒体3407が収納される可搬記録媒体駆動装置3405、及び通信装置3406を備える。CPU3401、メモリ3402、入出力装置3403、外部記憶装置3404、可搬記録媒体駆動装置3405、及び通信装置3406は、バス3408に依り互いに接続される。
 CPU3401は、制御部34が行う処理のためのプログラムを実行する演算装置である。メモリ3402は、例えば、RAM(Random Access Memory)及びROM(Read Only Memory)であり、RAMはCPU3401のワークエリア等として使用され、ROMはプログラムやプログラムの実行に必要な情報を不揮発的に記憶する。
 入出力装置3403は、スコープ2、モニタ4、光源31、音声入力装置32、及び操作パネル33等との間で信号をやり取りするインターフェース装置である。
 外部記憶装置3404は、プログラム及びプログラムの実行に必要な情報や、プログラムの実行に依り取得された情報等を不揮発的に記憶するストレージである。ここで、プログラムの実行に依り取得された情報とは、例えば、挿入位置情報が対応付けられた静止画像データである。外部記憶装置3404は、例えば、ハードディスク装置である。可搬記録媒体駆動装置3405は、光ディスクやコンパクトフラッシュ(登録商標)等の可搬記録媒体3407を収容するものである。可搬記録媒体3407も外部記憶装置3404と同様に、プログラム及びプログラムの実行に必要な情報や、プログラムの実行に依り取得された情報等を不揮発的に記憶するストレージである。
 通信装置3406は、通信ネットワークを経由して、サーバ等の他の装置との間で情報の送受を行う通信インターフェース装置である。なお、プログラム及びプログラムの実行に必要な情報は、サーバ等の他の装置から通信ネットワーク及び通信装置3406を経由して入力されてもよい。
 以上、本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせに依り、様々の発明を形成できる。例えば、実施形態に示される全構成要素のいくつかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
1       内視鏡システム
2       スコープ
3       ビデオプロセッサ
4       モニタ
5、6、7   コネクタ
21      ライトガイド
22      レンズ
23      撮像素子
24      信号線
31      光源
32      音声入力装置
33      操作パネル
34      制御部
341     ユーザ操作取得部
342     光源制御部
343     時間計測部
344     撮影部
345     挿入位置情報付与部
346     記憶部
347     表示制御部
3401    CPU
3402    メモリ
3403    入出力装置
3404    外部記憶装置
3405    可搬記録媒体駆動装置
3406    通信装置
3407    可搬記録媒体
3408    バス

Claims (13)

  1.  内視鏡検査における基準タイミングからの経過時間を計測する時間計測部と、
     第1の内視鏡検査において取得された第1の内視鏡観察画像と、前記第1の内視鏡観察画像取得時の、前記第1の内視鏡検査における前記基準タイミングからの経過時間と、が対応付けられて記憶された記憶部と、
     前記第1の内視鏡検査の後に行われる第2の内視鏡検査において取得された第2の内視鏡観察画像と、前記第2の内視鏡観察画像取得時の、前記第2の内視鏡検査における前記基準タイミングからの経過時間と同一の経過時間が対応付けられて前記記憶部に記憶されている前記第1の内視鏡観察画像と、を同時に表示させる制御を行う表示制御部と、
     を備えることを特徴とするビデオプロセッサ。
  2.  前記第2の内視鏡観察画像は、リアルタイムに取得されることを特徴とする請求項1に記載のビデオプロセッサ。
  3.  前記第2の内視鏡観察画像は、入力された操作信号に応じて生成されることを特徴とする請求項1に記載のビデオプロセッサ。
  4.  前記第2の内視鏡検査における特定のタイミングに取得された前記第2の内視鏡観察画像と、前記第2の内視鏡観察画像取得時の前記経過時間と、を対応付けて前記記憶部に記憶することを特徴とする請求項1に記載のビデオプロセッサ。
  5.  前記特定のタイミングは、操作者からの撮影指示が入力されたタイミングであることを特徴とする請求項4に記載のビデオプロセッサ。
  6.  前記特定のタイミングは、所定時間毎のタイミングであることを特徴とする請求項4に記載のビデオプロセッサ。
  7.  前記記憶部には、前記第1の内視鏡観察画像と、前記第1の内視鏡観察画像取得時の前記経過時間及び前記基準タイミングと、が対応付けられて記憶され、
     前記表示制御部は、前記第2の内視鏡観察画像と、前記第2の内視鏡観察画像取得時の前記経過時間及び前記基準タイミングと同一の経過時間及び基準タイミングが対応付けられて前記記憶部に記憶されている前記第1の内視鏡観察画像と、を同時に表示させる制御を行うことを特徴とする請求項1に記載のビデオプロセッサ。
  8.  前記第2の内視鏡検査における特定のタイミングに取得された前記第2の内視鏡観察画像と、前記第2の内視鏡観察画像取得時の前記経過時間及び前記基準タイミングと、を対応付けて前記記憶部に記憶することを特徴とする請求項7に記載のビデオプロセッサ。
  9.  操作者からの入力に応じて前記基準タイミングを変更することを特徴とする請求項7に記載のビデオプロセッサ。
  10.  内視鏡が接続されたビデオプロセッサと、前記ビデオプロセッサと通信可能に構成された外部装置と、を有する内視鏡システムであって、
     前記ビデオプロセッサは、
      内視鏡検査における基準タイミングからの経過時間を計測する時間計測部と、
      内視鏡検査において取得された内視鏡観察画像を表示させる表示制御部と、
     を備え、
     前記外部装置は、
      前記ビデオプロセッサから受信した、第1の内視鏡検査において取得された第1の内視鏡観察画像と、前記第1の内視鏡観察画像取得時の、前記第1の内視鏡検査における前記基準タイミングからの経過時間と、が対応付けられて記憶された記憶部、
     を備え、
     前記表示制御部は、前記第1の内視鏡検査の後に行われる第2の内視鏡検査において取得された第2の内視鏡観察画像と、前記第2の内視鏡観察画像取得時の、前記第2の内視鏡検査における前記基準タイミングからの経過時間と同一の経過時間が対応付けられて前記記憶部に記憶されている前記第1の内視鏡観察画像と、を同時に表示させる制御を行う、
     ことを特徴とする内視鏡システム。
  11.  前記外部装置は、インターネットサーバから成ることを特徴とする請求項10に記載の内視鏡システム。
  12.  ビデオプロセッサにおいて実行される表示方法であって、
     第1の内視鏡検査において、
      基準タイミングからの経過時間の計測を開始し、
      第1の内視鏡観察画像を取得し、
      前記第1の内視鏡観察画像と前記第1の内視鏡観察画像取得時の前記経過時間とを対応付けて記憶部に記憶する、
     という処理を実行し、
     前記第1の内視鏡検査の後に行われる第2の内視鏡検査において、
      前記基準タイミングからの経過時間の計測を開始し、
      第2の内視鏡観察画像を取得し、
      前記第2の内視鏡観察画像と、前記第2の内視鏡観察画像取得時の前記経過時間と同一の経過時間が対応付けられて前記記憶部に記憶されている前記第1の内視鏡観察画像と、を同時に表示させる、
     という処理を実行することを特徴とする表示方法。
  13.  ビデオプロセッサのコンピュータに、
     第1の内視鏡検査において、
      基準タイミングからの経過時間の計測を開始し、
      第1の内視鏡観察画像を取得し、
      前記第1の内視鏡観察画像と前記第1の内視鏡観察画像取得時の前記経過時間とを対応付けて記憶部に記憶する、
     という処理を実行させ、
     前記第1の内視鏡検査の後に行われる第2の内視鏡検査において、
      前記基準タイミングからの経過時間の計測を開始し、
      第2の内視鏡観察画像を取得し、
      前記第2の内視鏡観察画像と、前記第2の内視鏡観察画像取得時の前記経過時間と同一の経過時間が対応付けられて前記記憶部に記憶されている前記第1の内視鏡観察画像と、を同時に表示させる、
     という処理を実行させることを特徴とする表示プログラム。
PCT/JP2018/022238 2017-09-05 2018-06-11 ビデオプロセッサ、内視鏡システム、表示方法、及び表示プログラム WO2019049451A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017170084 2017-09-05
JP2017-170084 2017-09-05

Publications (1)

Publication Number Publication Date
WO2019049451A1 true WO2019049451A1 (ja) 2019-03-14

Family

ID=65633639

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/022238 WO2019049451A1 (ja) 2017-09-05 2018-06-11 ビデオプロセッサ、内視鏡システム、表示方法、及び表示プログラム

Country Status (1)

Country Link
WO (1) WO2019049451A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113288007A (zh) * 2019-12-06 2021-08-24 腾讯科技(深圳)有限公司 内窥镜移动时间确定方法、装置和计算机设备
WO2022163514A1 (ja) * 2021-01-27 2022-08-04 富士フイルム株式会社 医療画像処理装置、方法及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011102161A1 (ja) * 2010-02-18 2011-08-25 オリンパスメディカルシステムズ株式会社 位置検出システムおよび位置検出方法
JP2012170774A (ja) * 2011-02-24 2012-09-10 Fujifilm Corp 内視鏡システム
WO2014061553A1 (ja) * 2012-10-18 2014-04-24 オリンパスメディカルシステムズ株式会社 画像処理装置及び画像処理方法
JP2015112431A (ja) * 2013-12-13 2015-06-22 オリンパスメディカルシステムズ株式会社 画像表示装置、画像表示方法、及び画像表示プログラム
WO2015114901A1 (ja) * 2014-01-30 2015-08-06 オリンパス株式会社 医療用動画記録再生システム及び医療用動画記録再生装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011102161A1 (ja) * 2010-02-18 2011-08-25 オリンパスメディカルシステムズ株式会社 位置検出システムおよび位置検出方法
JP2012170774A (ja) * 2011-02-24 2012-09-10 Fujifilm Corp 内視鏡システム
WO2014061553A1 (ja) * 2012-10-18 2014-04-24 オリンパスメディカルシステムズ株式会社 画像処理装置及び画像処理方法
JP2015112431A (ja) * 2013-12-13 2015-06-22 オリンパスメディカルシステムズ株式会社 画像表示装置、画像表示方法、及び画像表示プログラム
WO2015114901A1 (ja) * 2014-01-30 2015-08-06 オリンパス株式会社 医療用動画記録再生システム及び医療用動画記録再生装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113288007A (zh) * 2019-12-06 2021-08-24 腾讯科技(深圳)有限公司 内窥镜移动时间确定方法、装置和计算机设备
WO2022163514A1 (ja) * 2021-01-27 2022-08-04 富士フイルム株式会社 医療画像処理装置、方法及びプログラム

Similar Documents

Publication Publication Date Title
JP3938722B2 (ja) 内視鏡装置
US8908022B2 (en) Imaging apparatus
JP5981052B2 (ja) 処理装置、内視鏡システム、内視鏡装置、画像処理装置の作動方法および画像処理プログラム
US10149609B2 (en) Signal processing device and endoscope system
JP6774552B2 (ja) プロセッサ装置、内視鏡システム及びプロセッサ装置の作動方法
JP5933868B1 (ja) 制御装置および内視鏡システム
WO2016084504A1 (ja) 診断支援装置及び診断支援情報表示方法
CN114945314A (zh) 医疗图像处理装置、内窥镜系统、诊断辅助方法及程序
US20090167849A1 (en) Endoscope apparatus
WO2019049451A1 (ja) ビデオプロセッサ、内視鏡システム、表示方法、及び表示プログラム
WO2014061554A1 (ja) 画像処理装置及び画像処理方法
JP6594727B2 (ja) 内視鏡
JP6072382B2 (ja) 信号処理装置及び信号処理方法
WO2020070818A1 (ja) 内視鏡装置及び観察時間計測方法
WO2017026323A1 (ja) 内視鏡システム
JP5815162B2 (ja) 撮像装置
JP4855987B2 (ja) 内視鏡システム
CN116744834A (zh) 医疗图像处理装置、方法及程序
WO2012165299A1 (ja) 受信装置及びカプセル型内視鏡システム
JP2019130049A (ja) 電子内視鏡システム、プロセッサ及び制御方法
JP2015047459A (ja) 内視鏡システム
JP2001000386A (ja) 内視鏡装置
CN117409943A (zh) 内窥镜的认证方法、内窥镜、内窥镜观测装置及记录介质
JP2009077859A (ja) 内視鏡
JP6218315B2 (ja) 内視鏡システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18854463

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18854463

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP