WO2018105351A1 - 内視鏡装置、内視鏡システム及び検査支援方法 - Google Patents

内視鏡装置、内視鏡システム及び検査支援方法 Download PDF

Info

Publication number
WO2018105351A1
WO2018105351A1 PCT/JP2017/041243 JP2017041243W WO2018105351A1 WO 2018105351 A1 WO2018105351 A1 WO 2018105351A1 JP 2017041243 W JP2017041243 W JP 2017041243W WO 2018105351 A1 WO2018105351 A1 WO 2018105351A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
endoscope
inspection
setting information
image
Prior art date
Application number
PCT/JP2017/041243
Other languages
English (en)
French (fr)
Inventor
高澤 英明
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Publication of WO2018105351A1 publication Critical patent/WO2018105351A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes

Definitions

  • the present invention relates to an endoscope apparatus, an endoscope system, and an inspection support method suitable for inspection.
  • endoscopes in which elongated endoscopes are inserted into body cavities and the like to observe a test site and perform various treatments have been widely used. Also in the industrial field, industrial endoscopes that can observe and inspect internal scratches and corrosion of boilers, turbines, engines, chemical plants, and the like are widely used.
  • the endoscope has an elongated insertion portion, and a subject image taken from the distal end portion of the insertion portion can be observed on the proximal end side of the insertion portion.
  • An image sensor such as a CCD is provided at the distal end of the insertion portion, or a camera is attached to the eyepiece on the proximal end side to convert the subject image into a video signal and connected to the proximal side of the endoscope It can also be transmitted to the processor.
  • the processor generates an endoscopic image based on the transmitted video signal and supplies the endoscopic image to a monitor for display.
  • the operator when performing an internal inspection of an aircraft engine, piping, etc., the operator needs to insert the insertion portion with the imaging element attached while performing the insertion operation while observing the endoscope image in real time. It is designed to move to the correct examination site.
  • the operation of positioning the distal end of the insertion portion at such a site to be observed requires skill, and if an unskilled observer performs an insertion operation, the target examination site may not be reached. is there.
  • Japanese Patent Laid-Open No. 11-197159 discloses a surgical support system in which intervention guidance is advanced based on surgical plan data.
  • An object of the present invention is to provide an endoscope apparatus, an endoscope system, and an inspection support method that can efficiently support an inspection based on inspection support information.
  • An endoscope apparatus includes an extraction unit that extracts setting information of an endoscope from examination support information, a current setting of the endoscope, and a content of setting information extracted by the extraction unit.
  • a comparison unit for comparing; and a control unit for presenting a comparison result by the comparison unit.
  • An endoscope apparatus includes an extraction unit that extracts setting information of an endoscope from examination support information, and a control unit that sets the setting information extracted by the extraction unit for the endoscope And.
  • An endoscope system is provided in an endoscope, and performs communication between a first communication unit that transmits a current setting of the endoscope and the first communication unit.
  • a second communication unit an extraction unit for extracting setting information of the endoscope from examination support information, a current setting of the endoscope received by the second communication unit, and a setting information extracted by the extraction unit
  • a comparison unit that compares the content; and an external device that includes a control unit that presents a comparison result by the comparison unit.
  • An endoscope system includes a first communication unit that is provided in an endoscope and communicates with the outside, an extraction unit that extracts setting information of the endoscope from examination support information, An external device having a second communication unit that transmits the setting information extracted by the extraction unit to the first communication unit, and the setting information that is provided in the endoscope and received by the first communication unit And a control unit for setting each part of the endoscope.
  • An examination support method extracts endoscope setting information from examination support information, compares the current setting of the endoscope with the content of the extracted setting information, and compares the result. And present the comparison result.
  • endoscope setting information is extracted from examination support information, and the extracted setting information is set for the endoscope.
  • FIG. 1 is a block diagram showing an endoscope apparatus according to a first embodiment of the present invention.
  • movement of 2nd Embodiment. The flowchart which shows the operation
  • FIG. 1 is a block diagram showing an endoscope apparatus according to a first embodiment of the present invention.
  • the endoscope apparatus according to the present embodiment improves the reliability of the inspection and performs inspection by executing inspection support processing using inspection support information such as an inspection manual in various inspections using the endoscope. It is intended to improve efficiency.
  • an endoscope apparatus 1 is an elongated and flexible insertion section 10, and the insertion section 10 is detachably connected and output from an image sensor 15 mounted on the insertion section 10.
  • the main body unit 20 performs signal processing on the captured image signal.
  • the optical adapter unit 11 is attached to the distal end of the insertion unit 10.
  • the optical adapter unit 11 includes an optical lens 12, and an imaging element 15 is disposed at the distal end portion of the insertion unit 10 at the imaging position of the optical lens 12.
  • an illumination LED 16 that illuminates the subject
  • a wire fixing portion 17 that fixes the bending wire 18 are provided at the distal end portion of the insertion portion 10.
  • the main body 20 is provided with a CPU 21.
  • the CPU 21 operates according to a program stored in the memory unit 32 to control each unit of the endoscope apparatus 1. Further, the main body part 20 is provided with a bending control part 24.
  • the bending control unit 24 is controlled by the CPU 21 and can drive the bending motor 25.
  • One end of a bending wire 18 inserted into the insertion portion 10 is attached to the bending motor 25.
  • the other end of the bending wire 18 is fixed to the wire fixing portion 17 at the distal end portion of the insertion portion 10 as described above.
  • the bending control unit 24 can bend the distal end portion of the insertion unit 10 by rotating the bending motor 25 and pulling the bending wire 18. For example, when four wires are used as the bending wires 18 and each wire is pulled and controlled independently by the bending motor 25, the tip portion is bent in the left-right direction by using two wires, It is also possible to curve the tip portion in the vertical direction with two wires.
  • the main body portion 20 is provided with an LED driving portion 22.
  • the LED drive unit 22 is controlled by the CPU 21 to supply a drive signal to the LED 16 disposed at the distal end portion of the insertion unit 10 via a cable (not shown) inserted into the insertion unit 10 to control illumination of the LED 16. It is like that.
  • the main body unit 20 is provided with an image sensor driving unit 23.
  • the image sensor driving unit 23 is controlled by the CPU 21 to supply a drive signal to the image sensor 15 disposed at the distal end of the insertion unit 10 via a cable (not shown) inserted into the insertion unit 10. Fifteen imaging is controlled.
  • the subject is illuminated by the LED 16, and the subject optical image from the subject enters the imaging element 15 via the optical lens 12 on the imaging surface.
  • the imaging element 15 converts the subject optical image into an imaging signal, and supplies the imaging signal to the imaging signal processing unit 27 of the main body unit 20 via a cable (not shown) in the insertion unit 10.
  • the imaging signal processing unit 27 is controlled by the CPU 21 to perform predetermined signal processing on the input imaging signal, such as amplification processing, CDS (correlated double sampling) processing, AGC (auto gain control) processing, A / D conversion processing or the like can be performed. Further, the imaging signal processing unit 27 is controlled by the CPU 21 to perform predetermined image signal processing, for example, white balance adjustment processing, electronic zoom processing, color correction processing, contrast correction, on the imaging signal after the A / D conversion processing. An image signal is obtained by performing various camera signal processes such as processing, exposure control processing, and freeze processing.
  • the main body unit 20 is provided with an input unit 33.
  • the input unit 33 includes operation units such as keys, buttons, and switches (not shown).
  • the input unit 33 receives operations performed on these operation units by the user, generates operation signals based on user operations, and outputs the operation signals to the CPU 21. Yes.
  • an operation signal corresponding to the zoom operation is supplied to the CPU 21.
  • the CPU 21 controls the imaging signal processing unit 27 to output an image subjected to zoom processing.
  • an operation signal corresponding to the input operation is supplied to the CPU 21.
  • the CPU 21 controls the imaging signal processing unit 27 to set various parameters in the image processing to set values based on user operations.
  • various signal processing parameters including image signal processing in the imaging signal processing unit 27 are stored in the memory unit 32.
  • the memory unit 32 may also store parameters in the image sensor driving unit 23 that drives the image sensor 15. Further, the memory unit 32 may store parameters in the LED driving unit 22 that drives the LED 16.
  • the CPU 21 can read out the parameters stored in the memory unit 32 and set them in the LED driving unit 22, the imaging element driving unit 23, and the imaging signal processing unit 27.
  • the CPU 21 can output the image signal output by the imaging signal processing unit 27 to the LCD 31.
  • the CPU 21 can perform predetermined image signal processing such as gamma correction processing, contour correction processing, scaling processing, and RGB conversion processing.
  • the LCD 31 displays an image based on the input image signal on the display screen. Further, the CPU 21 can display various menu displays on the display screen of the LCD 31.
  • a touch panel disposed on the display screen of the LCD 31 may be employed as the input unit 33.
  • the touch panel can generate an operation signal corresponding to the position on the display screen pointed by the user with a finger. This operation signal is supplied to the CPU 21.
  • the CPU 21 can detect the operation.
  • the image recording unit 34 is controlled by the CPU 21 to control still image recording and moving image recording on a recording medium (not shown).
  • the image recording unit 34 compresses it by an encoder (not shown) in the image recording unit 34 and records it as a still image or a moving image on a recording medium.
  • the image recording unit 34 can read out a still image or a moving image recorded on the recording medium, and can output it after being decompressed by a decoder (not shown) in the image recording unit 34.
  • the CPU 21 can output the reproduced image from the image recording unit 34 to the LCD 31.
  • the LCD 31 can display a reproduced image from the image recording unit 34 on a display screen.
  • the optical adapter unit 11 is provided with a storage unit 13 for storing an adapter identifier.
  • the main body unit 20 is provided with an optical adapter identification unit 26.
  • the optical adapter identification unit 26 reads the adapter identifier stored in the storage unit 13 and outputs it to the CPU 21.
  • the main body unit 40 is provided with a wireless communication unit 35.
  • the wireless communication unit 35 can exchange information with an external device via predetermined wireless transmission.
  • the wireless communication unit 35 can perform communication using various wireless transmission paths such as WiFi (registered trademark) and Bluetooth (registered trademark).
  • the wireless communication unit 35 may be able to exchange information with a computer (not shown) on the cloud via a predetermined communication line.
  • the main body 20 is provided with an inspection support information memory 28 in which inspection support information is stored.
  • the inspection support information is information for supporting an inspection when a predetermined inspection is performed by an endoscope.
  • an inspection support image For example, a manual for a predetermined inspection or an image to be acquired in a predetermined inspection (hereinafter referred to as an inspection support image). Information).
  • the inspection support information memory 28 stores a manual and an inspection support image as inspection support information.
  • the CPU 21 can read the inspection support information stored in the inspection support information memory 28, generate an image based on the read inspection support information, and supply the image to the LCD 31.
  • the CPU 21 can read an inspection manual from the inspection support information memory 28 and display an image (manual image) based on the inspection manual on the display screen of the LCD 31.
  • the CPU 21 can extract various setting information necessary for the examination using the endoscope apparatus 1 from the examination support information.
  • the setting information includes adapter information for specifying the type of optical adapter corresponding to the inspection, probe diameter information for defining the probe diameter, image quality setting information for setting the image quality suitable for the inspection, and brightness suitable for the inspection.
  • Illumination setting information for setting an image imaging setting information for setting an imaging rate suitable for inspection, inspection object setting information for setting an object to be inspected, and the like.
  • the CPU 21 can extract character information in the manual or extract various setting information by character recognition processing or the like.
  • the inspection it may be necessary to obtain a captured image (inspection image) under the same inspection conditions for comparison, and the image quality at the time of inspection needs to be the same for each inspection. Therefore, various settings at the time of imaging such as illumination light quantity, resolution, imaging rate, and characteristics of the optical lens 12 that determine the image quality are determined for each type of inspection.
  • various setting information of the endoscope at the time of imaging is described.
  • the inspection manual may also describe setting information regarding signal processing for the acquired captured image.
  • the CPU 21 can extract these various setting information.
  • an image acquired in the past examination may be adopted as the examination support information.
  • the inspection image file generally includes various setting information at the time of imaging as metadata.
  • the CPU 21 can acquire various setting information from the metadata in the past inspection image file.
  • the user manually sets each part of the endoscope according to the inspection manual with reference to the inspection manual. For this reason, a relatively long time is required for the setting operation, and an erroneous setting may be performed.
  • the CPU 21 when the CPU 21 extracts various setting information from the inspection support information, the CPU 21 sets the extracted setting information in each part of the main body unit 20.
  • the CPU 21 may automatically set the extracted various setting information in each circuit of the endoscope apparatus 1, for example, based on the user operation by the input unit 33, the extracted various setting information is stored in the endoscope apparatus 1. You may set to each circuit. Further, the CPU 21 may perform processing for each piece of setting information separately for those that are automatically set and those that are set according to user operations.
  • an optical adapter an optical adapter that can be used for both observation and measurement may be adopted by changing the setting.
  • the CPU 21 extracts adapter setting information for changing the setting of the optical adapter used for the inspection as the setting information.
  • the CPU 21 can automatically change the characteristics of the optical adapter by setting the adapter setting information extracted from the inspection manual or the like in the optical adapter.
  • an optical adapter for measurement may have an LED at the tip.
  • the CPU 21 changes the setting to turn off the tip LED in the observation mode and turn on the tip LED in the measurement mode based on the setting information. Also good.
  • the CPU 21 of the main unit 20 displays various menus on the display screen of the LCD 31 by executing a program stored in the memory unit 32.
  • a program stored in the memory unit 32 it is assumed that the user performs an operation for specifying the type of examination.
  • FIG. 2 shows a flow when setting information based on examination support information is automatically set in each part of the endoscope.
  • the CPU 21 reads the inspection manual designated by the user from the inspection support information memory 28 (step S1).
  • the CPU 21 extracts setting information from the read inspection manual (step S2). For example, when the inspection manual is text data, the CPU 21 can easily extract setting information by searching for a character string corresponding to a setting item in the inspection manual.
  • step S3 stores the extracted setting information in the memory part 32 (step S3), and sets setting information to each part of the endoscope apparatus 1 (step S4). Thereby, optimal setting information suitable for the type of examination designated by the user is set in each part of the endoscope apparatus 1. In this way, an imaged (inspected) image having an image quality corresponding to the type of inspection can be acquired.
  • FIG. 3 shows a flow when setting information based on the examination support information is set in each part of the endoscope after the setting permission operation by the user.
  • FIG. 3 the same steps as those in FIG.
  • step S5 it is determined whether or not a setting permission operation has been performed by the user.
  • the CPU 21 stores the extracted setting information in the memory unit 32 (step S3) and sets the setting information in each unit of the endoscope apparatus 1 (step S4).
  • step S5 of FIG. 3 by making a user's determination for each setting information, only the setting information desired by the user can be stored in the memory unit 32 and set in each unit of the endoscope apparatus 1. Is possible.
  • various setting information can be extracted from inspection support information such as an inspection manual and automatically set in each part of the endoscope.
  • inspection support information such as an inspection manual and automatically set in each part of the endoscope.
  • the user does not need to manually set each part of the endoscope, and settings suitable for each inspection can be performed in a very short time and accurately, and the inspection can be efficiently supported.
  • FIG. 4 and 5 are block diagrams showing a second embodiment of the present invention.
  • setting information extraction processing from examination support information is executed by a device external to the endoscope.
  • the main body 40 is different from the main body 20 of FIG. 1 in that the inspection support information memory 28 is omitted.
  • the external device 41 includes a wireless communication unit 45 that can perform wireless communication with the wireless communication unit 35 of the main body 40 via a wireless transmission path 45 a.
  • the external device 41 may be configured by a mobile terminal such as a smartphone or a tablet PC, for example.
  • the external device 41 has a CPU 47, and the CPU 47 can control each unit of the external device 41 by executing a program stored in the memory unit 43.
  • the external device 41 is provided with an LCD 42.
  • the LCD 42 includes a display screen 42a, and is controlled by the CPU 47 so that an image can be displayed on the display screen 42a.
  • the external device 41 is provided with an input unit 44.
  • the input unit 44 includes operation units such as keys, buttons, and switches (not shown).
  • the input unit 44 receives operations on these operation units by the user, generates operation signals based on user operations, and outputs them to the CPU 47. Yes.
  • a touch panel disposed on the display screen of the LCD 42 may be employed as the input unit 44.
  • the touch panel can generate an operation signal according to the position on the display screen 42a pointed to by the user with the finger or the stylus pen 42b. This operation signal is supplied to the CPU 47.
  • the CPU 47 can detect the operation.
  • the external device 41 is provided with an inspection support information memory 46 in which inspection support information is stored.
  • the inspection support information memory 46 stores a manual and an inspection support image as inspection support information.
  • the CPU 47 can read out the inspection support information stored in the inspection support information memory 46, generate an image based on the read out inspection support information, and supply it to the LCD 42.
  • the CPU 47 can read a manual from the examination support information memory 46 and display an image (manual image) based on the manual on the display screen 42 a of the LCD 42.
  • the CPU 47 can extract various setting information necessary for the examination using the endoscope from the examination support information. Further, when the CPU 47 extracts various setting information from the examination support information, the CPU 47 can supply the extracted setting information to the wireless communication unit 45 and transmit it to the main body unit 40.
  • the CPU 47 may automatically transmit the extracted various setting information to the main body unit 40, for example, based on a user operation by the input unit 44.
  • the setting information may be transmitted to the main body unit 40.
  • the CPU 47 may perform processing for each setting information separately for setting information to be automatically transmitted and setting information to be transmitted in response to a user operation.
  • the CPU 21 of the main body unit 40 can receive setting information from the external device 41 and set the setting information in each unit of the main body unit 40 by executing a program stored in the memory unit 32. .
  • the CPU 21 controls the wireless communication unit 35 to establish communication with the wireless communication unit 45 of the external device 41.
  • the CPU 21 shifts to a setting information reception standby state. Also good.
  • the wireless communication unit 35 receives the setting information from the wireless communication unit 45 of the external device 41, the CPU 21 stores the received setting information in the memory unit 32 and sets it in each unit of the main body unit 40. It may be.
  • a computer 49 on the cloud 48 is used instead of the external device 41, and the setting information is extracted from the inspection support information in the computer 49, and the wireless communication unit 35 of the main unit 40 is connected to the wireless communication unit 35 via a predetermined communication path 48a. Obviously, it may be transferred.
  • FIG. 6 is a flowchart for explaining the operation of the embodiment, showing the operation of the endoscope on the left side and the operation of the external device on the right side, and communication is performed for the line segment connecting Steps S25 and S13. Is shown.
  • the wireless communication unit 35 of the main body unit 40 attempts to establish communication with the wireless communication unit 45 of the external device 41 in step S11 of FIG. 6, and the wireless communication unit 45 of the external device 41 determines in step S21 of FIG. Attempts to establish communication with the wireless communication unit 35 of the main body 40.
  • step S12 When the communication is established, the CPU 21 of the main body 40 is in a standby state until setting information is received from the external device 41 in step S13 (step S12).
  • the CPU 47 of the external device 41 executes the inspection support application and displays a display for selecting the inspection manual by the user on the display screen 42a of the LCD 42.
  • the CPU 47 reads an examination manual corresponding to the designated examination from the examination support information memory 46 (step S22).
  • the CPU 47 extracts setting information from the read inspection manual (step S23). For example, when the inspection manual is text data, the CPU 47 can easily extract setting information by searching for a character string corresponding to a setting item in the inspection manual.
  • the CPU 47 stores the extracted setting information in the memory unit 43 (step S24) and transmits the setting information to the main body unit 40 (step S25).
  • the CPU 21 shifts the processing from step S13 to step S14, stores the received setting information in the memory unit 43 (step S14), and stores the setting information. It sets to each part of the main-body part 40 (step S15).
  • FIG. 7 is a flowchart showing an operation flow employed in the third embodiment of the present invention.
  • the hardware configuration in this embodiment is the same as that in the first embodiment.
  • Embodiment showed the example which sets automatically the setting information extracted from the test
  • This embodiment shows an example of this case, and an optical adapter suitable for inspection is attached.
  • the CPU 21 reads out the inspection manual designated by the user from the inspection support information memory 28.
  • the CPU 21 extracts setting information from the read inspection manual (step S32). For example, it is assumed that information on an optical adapter suitable for inspection is described in an inspection manual.
  • CPU21 extracts the setting information regarding the suitable optical adapter from an inspection manual.
  • the CPU 21 stores the extracted setting information in the memory unit 32 (step S33).
  • the optical adapter identification unit 26 acquires an adapter identifier (optical adapter information) for the optical adapter unit 11 currently mounted, and the CPU 21 acquires the optical adapter information in step S34.
  • the CPU 21 determines whether or not the currently installed optical adapter is an optical adapter that conforms to the inspection described in the inspection manual. That is, the CPU 21 compares the setting information extracted from the inspection support information with the actual setting.
  • the CPU 21 shifts the process to step S36 and issues a warning for prompting the correct adapter to be mounted.
  • the CPU 21 displays on the display screen of the LCD 31 a display indicating that the currently installed optical adapter is not suitable for inspection, and a name, adapter identifier, image, etc. for identifying the optical adapter that is suitable for inspection, and further conformity.
  • a message prompting you to replace the optical adapter is displayed.
  • the CPU 21 may present this warning to the user by voice output. That is, the CPU 21 presents a comparison result between the setting information extracted from the inspection support information and the actual setting.
  • the CPU 21 returns the process from step S36 to step S34, acquires information on the adapter identifier of the mounted optical adapter, and determines in step S35 whether an optical adapter suitable for inspection is mounted.
  • the CPU 21 proceeds from step S35 to step S37, and displays a message on the display screen of the LCD 31 indicating that the optical adapter suitable for inspection is attached. Display. The user recognizes that the examination may be started by confirming this display.
  • this embodiment can be applied not only to an example of mounting an optical adapter, but also to various settings that cannot be automated.
  • whether or not a correct setting has been made is determined based on the setting information extracted from the inspection support information and a warning is issued, thereby reliably preventing a user from making an error. Can do.
  • the present embodiment even when the setting information extracted from the examination support information cannot be automatically set in each part of the endoscope, it is determined whether or not the correct setting is performed. If the correct setting is not performed, a warning can be given to the user. Thereby, it is possible to prevent the user from making an incorrect setting and to effectively support the user's setting work.
  • the present embodiment can be applied to the second embodiment, and setting information can be extracted, compared, and a comparison result displayed on an external device.
  • FIG. 8 is a flowchart showing an operation flow employed in the fourth embodiment of the present invention.
  • the hardware configuration in this embodiment is the same as that in the first embodiment.
  • the setting information extracted from the inspection support information is compared with the actual setting, and the comparison result is presented.
  • setting information extracted from the inspection support information at the time of inspection is used. That is, in the present embodiment, the setting information at the time of inspection extracted from the inspection support information is compared with the actual inspection result and the comparison result is presented.
  • an image to be acquired at the time of inspection (inspection support image) is displayed as setting information, thereby improving inspection efficiency.
  • the CPU 21 reads out the inspection manual designated by the user from the inspection support information memory 28.
  • the CPU 21 extracts setting information from the read inspection manual (step S42). For example, it is assumed that an image to be acquired at the time of inspection is described in the inspection manual.
  • the CPU 21 searches the inspection manual for an image to be acquired at the time of inspection, and extracts it as setting information (inspection support image).
  • the CPU 21 stores the extracted setting information in the memory unit 32 (step S43).
  • an image acquired in the past examination may be recorded in the examination support information memory 28 as examination support information.
  • the CPU 21 may read a past inspection image as an inspection support image.
  • the CPU 21 gives the extracted setting information (inspection support image) to the LCD 31 for display (step S44).
  • FIG. 9 is an explanatory diagram showing a display example in this case.
  • FIG. 9 shows that an image of a predetermined examination site to be acquired is displayed as an examination support image 51 on the display screen 31 a of the LCD 31.
  • a guide display 52 for defining the position and size of an image to be acquired when an image of the examination site is acquired is displayed.
  • the guide display 52 may be a guide display described in the inspection manual as it is. If the guide manual is not included in the inspection manual, the CPU 21 checks the inspection display.
  • the guide display 52 may be generated and displayed by image analysis such as contour extraction on the inspection image in the manual.
  • the user adjusts the position and orientation of the insertion portion tip and the image quality so that an inspection image having substantially the same contour as the inspection support image 51 shown in FIG. 9 is obtained.
  • the captured image obtained by the imaging device 15 of the endoscope apparatus 1 is given to the imaging signal processing unit 27 and subjected to predetermined signal processing, and then given to the LCD 31 by the CPU 21.
  • the CPU 21 displays the actual examination image acquired by the image sensor 15 and the examination support image 51 of the examination site to be obtained shown in FIG. 9 side by side or superimposed (step S45).
  • the CPU 21 may display one of the images in a translucent manner.
  • the CPU 21 may display only the outline of the image 51. Further, the CPU 21 may display only the guide display 52 as the examination support image.
  • the user adjusts the position and orientation of the distal end of the insertion portion while viewing the display on the display screen 31a of the LCD 31. For example, the user performs various adjustments so that the contour of the inspection image matches the guide display 52 in the guide display 52 portion.
  • the CPU 21 performs image analysis on the actual inspection image, the inspection support image 51, and the guide display 52 (step S46), and determines whether or not both are identical or similar (step S47). That is, the CPU 21 compares the inspection support image with the actual inspection image. In this comparison, the CPU 21 may determine whether or not the focus is achieved by detecting the contrast of each part of the inspection image.
  • step S47 the process proceeds from step S47 to step S48 to display a mismatch, and the process returns to step S45.
  • the CPU 21 may display the guide display 52 with a broken line as shown in FIG. 9, or may set the color different from that at the time of coincidence, for example, red. That is, the CPU 21 presents a comparison result between the setting information (inspection support image) extracted from the inspection support information and the actually acquired inspection image.
  • the CPU 21 shifts the processing from step S47 to step S49, and displays on the display screen of the LCD 31 that the inspection image that matches the inspection support image has been acquired, that is, the inspection is OK (coincidence display). It is displayed on 31a.
  • the CPU 21 may change the guide display 52 from a broken line in FIG. 9 to a solid line, or may set a color different from that at the time of mismatch, for example, green. By confirming this display, the user can grasp that an image to be acquired in the examination has been obtained.
  • the CPU 21 can determine the shift between the inspection image and the inspection support image by image analysis, and can automatically move the distal end portion of the insertion portion by controlling the bending control unit 24 so as to eliminate the shift. .
  • FIG. 10 is a flowchart showing the operation in this case.
  • the same steps as those in FIG. FIG. 10 employs step S51 instead of step S48 in FIG.
  • the CPU 21 controls the electric bending and moves the distal end portion of the insertion portion, thereby matching the inspection image with the inspection support image. Thereby, it is possible to automate a complicated adjustment work of the visual field range by the user.
  • the inspection image to be acquired at the time of inspection is correctly obtained using the setting information extracted from the inspection support information, and the inspection image to be acquired is obtained. If not, a warning can be given to the user. As a result, it is possible to prevent the inspection from being ended by mistake when the image to be acquired by the user is not obtained, but to effectively support the user's inspection. Is possible.
  • the present embodiment can be applied to the second embodiment, and setting information can be extracted, compared, and a comparison result displayed on an external device.
  • FIG. 11 is an explanatory diagram showing a display example of an inspection manual application adopted in the modification.
  • the inspection support information memory 28 can be omitted.
  • the CPU 21 reads and executes an inspection manual application instead of the inspection support information.
  • This inspection manual application has a function of automatically performing setting in addition to the function of the inspection manual.
  • the CPU 21 displays the inspection manual image on the display screen of the LCD 31 by executing the inspection manual application.
  • FIG. 11 shows a display example in this case.
  • an inspection manual image 61 is displayed on the display screen 31 a of the LCD 31.
  • the inspection manual image 61 shows that setting information regarding the probe diameter, the type of optical adapter, and the setting value of brightness is registered for each of the inspection ports A, B, C,... Provided in the subject. Yes. Further, a setting button 62 for designating which of the inspection ports A, B, C... Is to be set is displayed.
  • an endoscope with a probe diameter of 4 mm is used, a model number of AT120D / NF is used as an optical adapter, and the brightness setting value is set to 3. You can see that it should be set.
  • the CPU 21 extracts the setting information from the inspection manual and performs processing for setting the extracted setting information in each unit.
  • the inspection manual executed by the CPU 21 is performed. It is automatically set by the application. For example, when the user inspects the inspection port B, a touch operation may be performed on the setting button 62 corresponding to the inspection port B. Then, the CPU 21 sets each part of the endoscope using each setting information registered for the examination port B.
  • this modification may be applied to the second embodiment to execute an inspection manual application in an external device and transmit setting information to the main body.
  • the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying constituent elements without departing from the scope of the invention in the implementation stage.
  • various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, you may delete some components of all the components shown by embodiment.
  • constituent elements over different embodiments may be appropriately combined.
  • the controls and functions mainly described in the flowcharts can be set by a program, and the above-described controls and functions can be realized by a computer reading and executing the program. it can.
  • the program may be recorded or stored in whole or in part on a portable medium such as a non-volatile memory such as a flexible disk or a CD-ROM, or a storage medium such as a hard disk or a volatile memory. It can be distributed or provided at the time of product shipment or via a portable medium or communication line.
  • the user can easily realize the exemplary embodiment by downloading the program via a communication network and installing the program on a computer, or installing the program on a computer from a recording medium.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

内視鏡装置は、検査支援情報から内視鏡の設定情報を抽出する抽出部と、前記内視鏡の現在の設定と前記抽出部が抽出した設定情報の内容とを比較する比較部と、前記比較部による比較結果を提示する制御部と、を具備し、検査支援情報に基づいて、間違いのない確実な検査を可能にすると共に、検査を効率的に支援することができるという効果を有する。

Description

内視鏡装置、内視鏡システム及び検査支援方法
 本発明は、検査用として好適な内視鏡装置、内視鏡システム及び検査支援方法に関する。
 従来より、体腔内等へ細長の内視鏡を挿入して被検部位の観察や各種処置を行うようにした内視鏡が広く用いられている。また、工業分野においても、ボイラ、タービン、エンジン、化学プラントなどの内部の傷や腐蝕などを観察したり検査することのできる工業用内視鏡が広く利用されている。
 内視鏡は細長の挿入部を有しており、挿入部の先端部から取り込んだ被写体像を挿入部の基端側において観察可能である。挿入部先端部にCCD等の撮像素子を設けたり、基端側の接眼部にカメラを取り付けたりすることで、被写体像を映像信号に変換して、内視鏡の手元側に接続されたプロセッサに伝送することもできる。プロセッサは、伝送された映像信号に基づいて内視鏡画像を生成し、この内視鏡画像をモニタに供給して表示を行う。
 ところで、航空機エンジンや配管等の内部検査を行う場合においては、作業者は、内視鏡画像をリアルタイムに観察しながら挿入部の挿入作業を行い、撮像素子が取り付けられた挿入部先端部を必要な検査部位に移動させるようになっている。このような観察すべき部位に挿入部先端部を位置させる作業は熟練を要し、熟練していない観察者が挿入操作を行った場合には、目標とする検査部位に達することができない場合もある。
 なお、日本国特開平11-197159号公報においては、手術計画データを元に介入誘導を高度化した手術支援システムが開示されている。
 しかしながら、日本国特開平11-197159号公報の提案を利用したとしても、介入誘導の結果に従って、正しく検査が行われるとは限らない。
 本発明は、検査支援情報に基づいて、検査を効率的に支援することができる内視鏡装置、内視鏡システム及び検査支援方法を提供することを目的とする。
 本発明の一態様による内視鏡装置は、検査支援情報から内視鏡の設定情報を抽出する抽出部と、前記内視鏡の現在の設定と前記抽出部が抽出した設定情報の内容とを比較する比較部と、前記比較部による比較結果を提示する制御部と、を具備する。
 本発明の他の態様による内視鏡装置は、検査支援情報から内視鏡の設定情報を抽出する抽出部と、前記抽出部が抽出した設定情報を前記内視鏡に対して設定する制御部と、を具備する。
 本発明の一態様による内視鏡システムは、内視鏡に設けられ、前記内視鏡の現在の設定を送信する第1の通信部と、前記第1の通信部との間で通信を行う第2の通信部、検査支援情報から前記内視鏡の設定情報を抽出する抽出部、前記第2の通信部において受信した前記内視鏡の現在の設定と前記抽出部が抽出した設定情報の内容とを比較する比較部、及び、前記比較部による比較結果を提示する制御部を有する外部機器と、を具備する。
 本発明の他の態様による内視鏡システムは、内視鏡に設けられ外部との通信を行う第1の通信部と、検査支援情報から前記内視鏡の設定情報を抽出する抽出部、前記抽出部が抽出した設定情報を前記第1の通信部に送信する第2の通信部と、を有する外部機器と、前記内視鏡に設けられ、前記第1の通信部によって受信した前記設定情報によって前記内視鏡の各部を設定する制御部と、を具備する。
 本発明の一態様による検査支援方法は、検査支援情報から内視鏡の設定情報を抽出し、前記内視鏡の現在の設定と前記抽出された設定情報の内容とを比較して比較結果を得、前記比較結果を提示する。
 本発明の他の態様の検査支援方法は、検査支援情報から内視鏡の設定情報を抽出し、前記抽出された設定情報を前記内視鏡に対して設定する。
本発明の第1の実施の形態に係る内視鏡装置を示すブロック。 第1の実施の形態の動作を説明するためのフローチャート。 第1の実施の形態の動作を説明するためのフローチャート。 本発明の第2の実施の形態を示すブロック図。 本発明の第2の実施の形態を示すブロック図。 第2の実施の形態の動作を説明するためのフローチャート。 本発明の第3の実施の形態において採用される動作フローを示すフローチャート。 本発明の第4の実施の形態において採用される動作フローを示すフローチャート。 第4の実施の形態における表示例を示す説明図。 第4の実施の形態における動作を示すフローチャート。 変形例において採用される検査マニュアルアプリケーションの表示例を示す説明図。
 以下、図面を参照して本発明の実施の形態について詳細に説明する。
(第1の実施の形態)
 図1は本発明の第1の実施の形態に係る内視鏡装置を示すブロック図である。本実施の形態における内視鏡装置は、内視鏡を用いた各種検査において、検査マニュアル等の検査支援情報を利用した検査支援処理を実行することで、検査の確実性を向上させると共に検査の効率化を図るものである。
 図1に示すように、内視鏡装置1は、細長で可撓性を有する挿入部10と、この挿入部10が着脱自在に接続され、挿入部10に搭載された撮像素子15から出力された撮像信号に対して信号処理を行う本体部20とによって構成されている。
 挿入部10の先端部には、光学アダプタ部11が取り付けられている。光学アダプタ部11は、光学レンズ12を有しており、光学レンズ12の結像位置には、挿入部10の先端部において撮像素子15が配設されている。また、挿入部10の先端部には、被検体を照明する照明用のLED16と、湾曲用ワイヤ18を固定するワイヤ固定部17とが設けられている。
 本体部20には、CPU21が設けられている。CPU21は、メモリ部32に格納されたプログラムに従って動作して、内視鏡装置1の各部を制御するようになっている。また、本体部20には、湾曲制御部24が設けられている。湾曲制御部24は、CPU21に制御されて、湾曲用モータ25を駆動することができるようになっている。湾曲用モータ25には、挿入部10内に挿通された湾曲用ワイヤ18の一端が取り付けられている。
 湾曲用ワイヤ18の他端は、上述したように、挿入部10の先端部のワイヤ固定部17に固定されている。湾曲制御部24が、湾曲用モータ25を回転させて湾曲用ワイヤ18を牽引することで、挿入部10の先端部を湾曲させることができるようになっている。例えば、湾曲用ワイヤ18として4本のワイヤを採用し、湾曲用モータ25によって各ワイヤを独立して牽引制御した場合には、そのうち2本のワイヤによって先端部を左右方向に湾曲させ、他の2本のワイヤによって先端部を上下方向に湾曲させることも可能である。
 本体部20には、LED駆動部22が設けられている。LED駆動部22は、CPU21に制御されて、挿入部10内に挿通された図示しないケーブルを介して挿入部10の先端部に配置されたLED16に駆動信号を供給して、LED16を照明制御するようになっている。
 また、本体部20には、撮像素子駆動部23が設けられている。撮像素子駆動部23は、CPU21に制御されて、挿入部10内に挿通された図示しないケーブルを介して挿入部10の先端部に配置された撮像素子15に駆動信号を供給して、撮像素子15の撮像を制御するようになっている。
 LED16によって被写体が照明され、被写体からの被写体光学像が光学レンズ12を介して撮像素子15に撮像面に入射するようになっている。撮像素子15は、被写体光学像を撮像信号に変換し、この撮像信号を挿入部10内の図示しないケーブルを介して本体部20の撮像信号処理部27に供給するようになっている。
 撮像信号処理部27は、CPU21に制御されて、入力された撮像信号に対して所定の信号処理、例えば、増幅処理、CDS(相関2重サンプリング)処理、AGC(オートゲインコントロール)処理、A/D変換処理等を施すことが可能である。更に、撮像信号処理部27は、CPU21に制御されて、A/D変換処理後の撮像信号に対して所定の画像信号処理、例えば、ホワイトバランス調整処理、電子ズーム処理、色補正処理、コントラスト補正処理、露出制御処理、フリーズ処理等の各種カメラ信号処理を施して、画像信号を得るようになっている。
 本体部20には、入力部33が設けられている。入力部33は、図示しないキー、ボタン、スイッチ等の操作部を備えており、ユーザによるこれらの操作部に対する操作を受け付け、ユーザ操作に基づく操作信号を発生してCPU21に出力するようになっている。
 例えば、ユーザが入力部33によってズーム操作を行うと、このズーム操作に応じた操作信号がCPU21に供給される。CPU21はこの操作信号が入力されると、撮像信号処理部27を制御して、ズーム処理を行った画像を出力するようになっている。また、例えば、ユーザが入力部33によって画質調整のための各種パラメータの入力操作を行うと、この入力操作に応じた操作信号がCPU21に供給される。CPU21はこの操作信号が入力されると、撮像信号処理部27を制御して、画像処理における各種パラメータをユーザ操作に基づく設定値に設定するようになっている。
 なお、撮像信号処理部27における画像信号処理を含む各種信号処理のパラメータは、メモリ部32に記憶されるようになっている。また、メモリ部32は、撮像素子15を駆動する撮像素子駆動部23におけるパラメータについても、記憶するようになっていてもよい。更に、メモリ部32は、LED16を駆動するLED駆動部22におけるパラメータについても、記憶するようになっていてもよい。CPU21はメモリ部32に記憶されたパラメータを読出して、LED駆動部22,撮像素子駆動部23、撮像信号処理部27に設定することができるようになっている。
 CPU21は、撮像信号処理部27が出力した画像信号をLCD31に出力することができる。CPU21は、LCD31への画像出力に際して、ガンマ補正処理、輪郭補正処理、スケーリング処理、RGB変換処理等の所定の画像信号処理を施すことができるようになっている。LCD31は、入力された画像信号に基づく画像を表示画面上に表示する。また、CPU21は、LCD31の表示画面上に、各種メニュー表示を表示させることもできるようになっている。
 なお、入力部33として、LCD31の表示画面上に配設するタッチパネルを採用してもよい。タッチパネルは、ユーザが指で指し示した表示画面上の位置に応じた操作信号を発生することができる。この操作信号は、CPU21に供給される。CPU21は、ユーザが表示画面上をタッチしたりスライドさせたりした場合には、その操作を検出することができる。
 画像記録部34は、CPU21に制御されて、図示しない記録媒体に対して、静止画記録、動画記録の制御を行うようになっている。画像記録部34は、撮像信号処理部27からの画像信号が与えられると、画像記録部34内の図示しないエンコーダにより圧縮し、静止画又は動画として記録媒体に記録する。また、画像記録部34は、記録媒体に記録されている静止画又は動画を読み出して、画像記録部34内の図示しないデコーダにより伸張した後出力することができる。CPU21は、画像記録部34からの再生画像をLCD31に出力することができる。LCD31は表示画面上に、画像記録部34からの再生画像を表示することができるようになっている。
 また、光学アダプタ部11にはアダプタ識別子を記憶する記憶部13が設けられている。一方、本体部20には光学アダプタ識別部26が設けられている。光学アダプタ識別部26は、本体部20に挿入部10が装着されると、記憶部13に格納されているアダプタ識別子を読み出してCPU21に出力するようになっている。
 本体部40には、無線通信部35が設けられている。無線通信部35は所定の無線伝送を介して外部機器との間で情報の授受を行うことができるようになっている。例えば、無線通信部35は、Wifi(登録商標)やブルートゥース(登録商標)等の各種無線伝送路を利用した通信を行うことができる。また、無線通信部35は、所定の通信回線を介して、クラウド上のコンピュータ(図示省略)との間で情報の授受を行うことができるようになっていてもよい。
 本実施の形態においては、本体部20には、検査支援情報が記憶される検査支援情報メモリ28が設けられている。検査支援情報は、内視鏡によって所定の検査を行う場合において検査を支援するための情報であり、例えば、所定の検査のマニュアルや、所定の検査において取得すべき画像(以下、検査支援画像ともいう)等の情報を含む。
 例えば、検査支援情報メモリ28には、検査支援情報としてマニュアルや検査支援画像が記憶されている。CPU21は、検査支援情報メモリ28に記憶されている検査支援情報を読み出して、読み出した検査支援情報に基づく画像を生成してLCD31に供給することができるようになっている。例えば、CPU21は、検査支援情報メモリ28から検査マニュアルを読み出して、この検査マニュアルに基づく画像(マニュアル画像)をLCD31の表示画面に表示させることができる。
 更に、本実施の形態においては、CPU21は、検査支援情報から内視鏡装置1を用いた検査に必要な各種設定情報を抽出することができるようになっている。例えば、設定情報としては、検査に応じた光学アダプタの種類を特定するアダプタ情報、プローブ径を規定したプローブ径情報、検査に適した画質を設定するための画質設定情報、検査に適した明るさを設定するための照明設定情報、検査に適した撮像レートを設定するための撮像設定情報、検査すべき対象物を設定するための検査対象物設定情報等がある。
 例えば、CPU21は、検査支援情報が検査マニュアルである場合には、当該マニュアル中の文字情報を取り出したり、文字認識処理等によって、各種設定情報を抽出することができる。
 検査によっては、比較のために、同一の検査条件での撮像画像(検査画像)を取得する必要がある場合があり、検査時の画質は検査毎に同一にする必要がある。そこで、画質を決定する照明光量、解像度、撮像レート、光学レンズ12の特性等の撮像時の各種設定が検査の種類毎に決まっており、検査マニュアルには、画質を一定にするために、これらの撮像時における内視鏡の各種設定情報が記述されている。また、検査マニュアルには、取得した撮像画像についての信号処理に関する設定情報も記述される場合もある。CPU21はこれらの各種設定情報を抽出可能である。
 また、検査支援情報として過去の検査において取得された画像(過去の検査画像)が採用される場合もある。例えば、検査画像のファイルには、撮像時における各種設定情報がメタデータとして含まれるのが一般的である。この場合には、CPU21は、過去の検査画像のファイル中のメタデータから各種設定情報を取得することができる。
 従来、ユーザは、検査マニュアルを参照して、検査マニュアルに従って、内視鏡の各部の設定を手作業にて行っていた。このため、設定作業に比較的長い時間を要すると共に、誤った設定を行ってしまう可能性があった。
 本実施の形態においては、CPU21は、検査支援情報から各種設定情報を抽出すると、抽出した設定情報を本体部20の各部に設定するようになっている。CPU21は、抽出した各種設定情報を自動的に内視鏡装置1の各回路に設定してもよく、例えば入力部33によるユーザ操作に基づいて、抽出した各種設定情報を内視鏡装置1の各回路に設定してもよい。また、CPU21は、各設定情報毎に、自動的に設定するものとユーザ操作に応じて設定するものとに分けて処理を行ってもよい。
 なお、光学アダプタとして、設定を変更することによって観察時と計測時の両方で使用可能な光学アダプタが採用されることがある。この場合には、CPU21は、設定情報として、検査に用いる光学アダプタの設定を変更するアダプタ設定情報を抽出する。CPU21は、検査マニュアル等から抽出したアダプタ設定情報を光学アダプタに設定することで、光学アダプタの特性を自動的に変更することも可能である。
 例えば、計測用の光学アダプタには、先端にLEDが設けられている場合がある。このような光学アダプタを採用している場合には、CPU21は、設定情報に基づいて、観察モードでは先端LEDをオフにし、計測モードでは先端LEDをオンにする設定変更を行うようになっていてもよい。
 次に、このように構成された実施の形態の動作について図2及び図3のフローチャートを参照して説明する。図2及び図3の例は検査支援情報から抽出した設定情報を自動的に各回路部に設定するものである。
 本体部20に電源が投入されると、本体部20のCPU21は、メモリ部32に格納されているプログラムを実行することで、LCD31の表示画面上に各種メニュー表示を表示する。ここでユーザが検査の種類を特定するための操作を行うものとする。
(自動設定の例)
 図2は検査支援情報に基づく設定情報を内視鏡の各部に自動設定する場合のフローを示している。
 CPU21は、ユーザが指定した検査マニュアルを検査支援情報メモリ28から読み出す(ステップS1)。CPU21は、読み出した検査マニュアルから設定情報を抽出する(ステップS2)。例えば、検査マニュアルがテキストデータである場合には、CPU21は、検査マニュアル中の設定項目に対応する文字列検索等によって、簡単に設定情報を抽出することができる。
 CPU21は、抽出した設定情報をメモリ部32に記憶させる(ステップS3)と共に、設定情報を内視鏡装置1の各部に設定する(ステップS4)。これにより、内視鏡装置1の各部には、ユーザが指定した検査の種類に適した最適な設定情報が設定される。こうして、検査の種類に応じた画質の撮像(検査)画像を取得することができる。
(許可後の自動設定)
 図3は検査支援情報に基づく設定情報を、ユーザによる設定の許可操作後に、内視鏡の各部に設定する場合のフローを示している。図3において図2と同一の手順には同一符号を付して説明を省略する。
 CPU21は、図3のステップS2において、検査マニュアルから設定情報を抽出すると。次のステップS5において、ユーザによる設定許可操作が行われたか否かを判定する。ユーザが設定許可操作を行った場合には、CPU21は、抽出した設定情報をメモリ部32に記憶させる(ステップS3)と共に、設定情報を内視鏡装置1の各部に設定する(ステップS4)。
 一方、ユーザが設定を許可しない場合には、CPU21は、抽出した設定情報を内視鏡装置1の各部に設定することなく、処理を終了する。なお、図3のステップS5において、各設定情報毎にユーザの判定を行うことによって、ユーザが希望する設定情報のみを、メモリ部32に記憶させると共に内視鏡装置1の各部に設定することも可能である。
 このように本実施の形態においては、検査マニュアル等の検査支援情報から各種設定情報を抽出して、内視鏡の各部に自動設定することができる。ユーザは内視鏡の各部の設定を手作業で行う必要がなく、各検査に適した設定が極めて短時間で且つ正確に行われることになり、検査を効率的に支援することができる。
(第2の実施の形態)
 図4及び図5は本発明の第2の実施の形態を示すブロック図である。図4において図1と同一の構成要素には同一符号を付して説明を省略する。本実施の形態は検査支援情報からの設定情報の抽出処理を内視鏡の外部の機器によって実行するものである。
 図4に示すように、本体部40は、検査支援情報メモリ28を省略した点が図1の本体部20と異なる。
 図5に示すように、外部機器41は、本体部40の無線通信部35との間で無線伝送路45aを介して無線通信が可能な無線通信部45を備えている。外部機器41は、例えば、スマートフォンやタブレットPC等の携帯端末によって構成してもよい。外部機器41は、CPU47を有しており、CPU47はメモリ部43に格納されたプログラムを実行することで、外部機器41の各部を制御することができるようになっている。
 外部機器41には、LCD42が設けられている。LCD42は表示画面42aを備えており、CPU47に制御されて、表示画面42a上に画像表示を行うことができるようになっている。
 外部機器41には、入力部44が設けられている。入力部44は、図示しないキー、ボタン、スイッチ等の操作部を備えており、ユーザによるこれらの操作部に対する操作を受け付け、ユーザ操作に基づく操作信号を発生してCPU47に出力するようになっている。
 なお、入力部44として、LCD42の表示画面上に配設するタッチパネルを採用してもよい。タッチパネルは、ユーザが指やスタイラスペン42bで指し示した表示画面42a上の位置に応じた操作信号を発生することができる。この操作信号は、CPU47に供給される。CPU47は、ユーザが表示画面42a上をタッチしたりスライドさせたりした場合には、その操作を検出することができる。
 外部機器41には、検査支援情報が記憶された検査支援情報メモリ46が設けられている。例えば、検査支援情報メモリ46には、検査支援情報としてマニュアルや検査支援画像が記憶されている。CPU47は、検査支援情報メモリ46に記憶されている検査支援情報を読み出して、読み出した検査支援情報に基づく画像を生成してLCD42に供給することができるようになっている。例えば、CPU47は、検査支援情報メモリ46からマニュアルを読み出して、このマニュアルに基づく画像(マニュアル画像)をLCD42の表示画面42aに表示させることができる。
 本実施の形態においては、CPU47は、検査支援情報から内視鏡を用いた検査に必要な各種設定情報を抽出することができるようになっている。更に、CPU47は、検査支援情報から各種設定情報を抽出すると、抽出した設定情報を無線通信部45に与えて、本体部40に送信することができるようになっている。
 なお、CPU47は、検査支援情報に基づく各種設定情報を抽出すると、抽出した各種設定情報を自動的に本体部40に送信してもよく、例えば入力部44によるユーザ操作に基づいて、抽出した各種設定情報を本体部40に送信してもよい。また、CPU47は、各設定情報毎に、自動的に送信する設定情報とユーザ操作に応じて送信する設定情報とに分けて処理を行ってもよい。
 本体部40のCPU21は、メモリ部32に格納されたプログラムを実行することによって、外部機器41から設定情報を受信して本体部40の各部に設定情報を設定することができるようになっている。例えば、CPU21は、無線通信部35を制御して、外部機器41の無線通信部45との間で通信を確立させ、通信が確立すると、設定情報の受信待機状態に移行するようになっていてもよい。更に、CPU21は、外部機器41の無線通信部45からの設定情報を無線通信部35において受信すると、受信した設定情報をメモリ部32に記憶させると共に、本体部40の各部に設定するようになっていてもよい。
 なお、外部機器41に代えて、クラウド48上のコンピュータ49を利用し、このコンピュータ49において検査支援情報から設定情報を抽出して、本体部40の無線通信部35に所定の通信路48aを介して転送するようになっていてもよいことは明らかである。
 次に、このように構成された実施の形態の動作について図6を参照して説明する。図6は実施の形態の動作を説明するためのフローチャートであり、左側に内視鏡の動作、右側に外部機器の動作を示しており、ステップS25,S13を結ぶ線分は通信が行われることを示している。
 本体部40の無線通信部35は、図6のステップS11において外部機器41の無線通信部45との間で通信の確立を試み、外部機器41の無線通信部45は、図6のステップS21において、本体部40の無線通信部35との間で通信の確立を試みる。
 本体部40のCPU21は、通信が確立すると、ステップS13において外部機器41から設定情報を受信するまで待機状態となる(ステップS12)。
 外部機器41のCPU47は、本体部40との間で通信が確立すると、検査支援アプリケーションを実行して、ユーザによる検査マニュアル選択のための表示をLCD42の表示画面42a上に表示する。CPU47は、ユーザが例えばスタイラスペン42b等を用いて検査の種類を指定すると、指定された検査に対応する検査マニュアルを検査支援情報メモリ46から読み出す(ステップS22)。CPU47は、読み出した検査マニュアルから設定情報を抽出する(ステップS23)。例えば、検査マニュアルがテキストデータである場合には、CPU47は、検査マニュアル中の設定項目に対応する文字列検索等によって、簡単に設定情報を抽出することができる。CPU47は、抽出した設定情報をメモリ部43に記憶させる(ステップS24)と共に、設定情報を本体部40に送信する(ステップS25)。
 本体部40の無線通信部35が設定情報を受信すると、CPU21は、ステップS13からステップS14に処理を移行して、受信した設定情報をメモリ部43に記憶させる(ステップS14)と共に、設定情報を本体部40の各部に設定する(ステップS15)。
 他の作用は第1の実施の形態と同様である。
 このように、本実施の形態においても、第1の実施の形態と同様の効果を得ることができる。また、設定情報の抽出処理を外部機器が行っていることから、本体部40のCPU21における処理の負荷を低減することができるという利点がある。
(第3の実施の形態)
 図7は本発明の第3の実施の形態において採用される動作フローを示すフローチャートである。本実施の形態におけるハードウェア構成は第1の実施の形態と同様である。
 第1の実施の形態は、検査支援情報から抽出した設定情報を内視鏡の各部に自動設定する例を示した。しかし、全ての設定を自動化できる訳ではなく、ユーザが手作業にて設定変更を行う必要があるものもある。本実施の形態はこの場合の一例を示すものであり、検査に適した光学アダプタを装着させるものである。
 図7のステップS31において、CPU21は、ユーザが指定した検査マニュアルを検査支援情報メモリ28から読み出す。CPU21は、読み出した検査マニュアルから設定情報を抽出する(ステップS32)。例えば、検査マニュアル中に検査に適合する光学アダプタの情報が記載されているものとする。CPU21は、検査マニュアルから適合する光学アダプタに関する設定情報を抽出する。CPU21は、抽出した設定情報をメモリ部32に記憶させる(ステップS33)。
 光学アダプタ識別部26は、現在装着されている光学アダプタ部11についてのアダプタ識別子(光学アダプタ情報)を取得しており、CPU21は、ステップS34において、この光学アダプタ情報を取得する。CPU21は、ステップS35において、現在装着されている光学アダプタが検査マニュアルに記述された検査に適合する光学アダプタであるか否かを判定する。即ち、CPU21は、検査支援情報から抽出した設定情報と実際の設定との比較を行う。
 CPU21は、検査に適合する光学アダプタが現在装着されていない場合には、処理をステップS36に移行して、正しいアダプタの装着を促すための警告を発する。例えば、CPU21は、LCD31の表示画面上に、現在装着されている光学アダプタが検査に適合しないこと及び検査に適合する光学アダプタを特定する名称やアダプタ識別子や画像等の表示を表示させ、更に適合する光学アダプタに交換するように促すメッセージを表示させる。また、CPU21はこの警告を音声出力によってユーザに提示してもよい。即ち、CPU21は、検査支援情報から抽出した設定情報と実際の設定との比較結果の提示を行う。
 CPU21は、ステップS36から処理をステップS34に戻して、装着されている光学アダプタのアダプタ識別子の情報を取得し、ステップS35において、検査に適合する光学アダプタが装着されているか否かを判定する。
 ユーザが検査に適合する光学アダプタを装着した場合には、CPU21はステップS35から処理をステップS37に移行して、検査に適合した光学アダプタが装着されたことを示すメッセージをLCD31の表示画面上に表示させる。ユーザはこの表示を確認することで、検査を開始してもよいことを認識する。
 なお、本実施の形態は、光学アダプタの装着の例だけでなく、設定を自動化することができない各種設定に適用することができる。本実施の形態では、正しい設定が行われているか否かを検査支援情報から抽出した設定情報に基づいて判定して警告を発することで、ユーザの設定に間違いが生じることを確実に防止することができる。
 このように本実施の形態においては、検査支援情報から抽出した設定情報を、内視鏡の各部に自動的に設定することができない場合においても、正しい設定が行われているか否かを判定して、正しい設定が行われていない場合にはユーザに警告を与えることができる。これにより、ユーザが間違った設定を行うことを防止して、ユーザの設定作業を効果的に支援することが可能である。
 なお、本実施の形態を第2の実施の形態に適用して、外部機器において、設定情報の抽出、比較及び比較結果の表示をすることができることは明らかである。
(第4の実施の形態)
 図8は本発明の第4の実施の形態において採用される動作フローを示すフローチャートである。本実施の形態におけるハードウェア構成は第1の実施の形態と同様である。
 第3の実施の形態においては、検査支援情報から抽出した設定情報と実際の設定との比較及び比較結果の提示を行うものであった。これに対し、本実施の形態においては、検査時に検査支援情報から抽出した設定情報を用いるものである。即ち、本実施の形態においては、検査支援情報から抽出した検査時の設定情報と実際の検査結果との比較及び比較結果の提示を行うものである。
 例えば、図8は、設定情報として検査時に取得すべき画像(検査支援画像)を表示することで、検査の効率化を図っている。
 図8のステップS41において、CPU21は、ユーザが指定した検査マニュアルを検査支援情報メモリ28から読み出す。CPU21は、読み出した検査マニュアルから設定情報を抽出する(ステップS42)。例えば、検査マニュアル中に検査時に取得すべき画像が記載されているものとする。CPU21は、検査マニュアルから検査時に取得すべき画像を検索して、設定情報(検査支援画像)として抽出する。CPU21は、抽出した設定情報をメモリ部32に記憶させる(ステップS43)。
 なお、検査支援情報メモリ28中に、過去の検査において取得した画像が検査支援情報として記録されている場合もある。この場合には、CPU21は、過去の検査画像を検査支援画像として読み出してもよい。CPU21は、抽出した設定情報(検査支援画像)をLCD31に与えて表示させる(ステップS44)。
 図9はこの場合の表示例を示す説明図である。図9はLCD31の表示画面31a上に、取得すべき所定の検査部位の画像が検査支援画像51として表示されていることを示している。図9の例では、当該検査部位の画像取得に際して、取得すべき画像の位置及びサイズを規定するためのガイド表示52が表示されている。なお、このガイド表示52は、検査マニュアル中に記載されているガイド表示をそのまま表示したものでもよく、また、検査マニュアル中にこのようなガイド表示が含まれていない場合には、CPU21は、検査マニュアル中の検査画像に対する輪郭抽出等の画像解析によって、ガイド表示52を生成して表示するようになっていてもよい。
 ユーザは図9に示す検査支援画像51と略同一の輪郭の検査画像が得られるように、挿入部先端部の位置や向き及び画質調整等を行う。内視鏡装置1の撮像素子15によって得られた撮像画像は、撮像信号処理部27に与えられて所定の信号処理が施された後、CPU21によってLCD31に与えられる。この場合には、CPU21は、撮像素子15によって取得した実際の検査画像と、図9に示す取得すべき検査部位の検査支援画像51とを並べて又は重ねて同時に表示させる(ステップS45)。例えば、CPU21は、実際の検査画像と検査支援画像51とを重ねて表示する場合には、一方の画像を半透明で表示してもよい。また、CPU21は、画像51については、輪郭のみを表示させてもよい。また、CPU21は、検査支援画像として、ガイド表示52のみを表示させてもよい。
 ユーザは、LCD31の表示画面31a上の表示を見ながら、挿入部先端部の位置や向きの調整を行う。例えば、ユーザは、ガイド表示52部分において、検査画像の輪郭をガイド表示52に一致させるように各種調整を行う。
 CPU21は、実際の検査画像及び検査支援画像51やガイド表示52に対する画像解析を行って(ステップS46)、両者が一致又は類似しているか否かを判定する(ステップS47)。即ち、CPU21は、検査支援画像と実際の検査画像との比較を行う。なお、CPU21は、この比較において、検査画像の各部のコントラストを検出することでピントが合っているか否かの判定を行ってもよい。
 CPU21は、検査画像が検査支援画像に一致していないと判定した場合には、処理をステップS47からステップS48に移行して不一致の表示を行い、処理をステップS45に戻す。例えば、CPU21は、ガイド表示52を図9のように破線で表示したり、一致時と異なる色、例えば赤色に設定してもよい。即ち、CPU21は、検査支援情報から抽出した設定情報(検査支援画像)と実際に取得した検査画像との比較結果の提示を行う。
 ユーザはこのような不一致の表示によって、取得すべき検査画像が得られていないことを確実に認識することができる。ユーザが更に各種調整を行うことによって、検査画像が検査支援画像に一致するものとする。そうすると、CPU21は、処理をステップS47からステップS49に移行して、検査支援画像に一致した検査画像が取得できたこと、即ち、検査OKであることを示す表示(一致表示)をLCD31の表示画面31aに表示させる。例えば、CPU21は、ガイド表示52を図9の破線から実線に変更したり、不一致時と異なる色、例えば緑色に設定してもよい。ユーザはこの表示を確認することで、検査において取得すべき画像が得られたことを把握することができる。
 なお、検査すべき検査部位近傍においては、検査画像と検査支援画像とは一致する部分が生じる。CPU21は、画像解析によって、検査画像と検査支援画像とのずれを判定し、このずれが無くなるように、湾曲制御部24を制御して挿入部先端部を自動的に移動させることが可能である。
 図10はこの場合の動作を示すフローチャートである。図10において図8と同一の手順には同一符号を付して説明を省略する。図10は図8のステップS48に代えてステップS51を採用したものである。ステップS51において、CPU21は、電動湾曲を制御して、挿入部先端部を移動させることで、検査画像を検査支援画像に一致させる。これにより、ユーザによる煩雑な視野範囲の調整作業を自動化することができる。
 このように本実施の形態においては、検査支援情報から抽出した設定情報を用いて検査時に取得すべき検査画像が正しく得られているか否かを判定して、取得すべき検査画像が得られていない場合にはユーザに警告を与えることができる。これにより、ユーザが取得すべき画像が得られていないにも拘わらず得られていると間違って検査を終了してしまうことを防止することができ、ユーザの検査を効果的に支援することが可能である。
 なお、本実施の形態を第2の実施の形態に適用して、外部機器において、設定情報の抽出、比較及び比較結果の表示をすることができることは明らかである。
(変形例)
 図11は変形例において採用される検査マニュアルアプリケーションの表示例を示す説明図である。
 上記各実施の形態においては、検査支援情報が検査マニュアルである場合において、この検査マニュアルから設定情報を抽出する例について説明した。検査マニュアルとしては、テキストデータのみによって構成されるものだけではなく、例えばHTML等用いたハイパーリンク機能等の各種機能を実現可能なものもある。更に、検査マニュアルとして、設定を自動に行う機能を与える検査マニュアルアプリケーションを採用してもよい。本変形例はこのような検査マニュアルアプリケーションを採用するものである。
 なお、メモリ部32に検査マニュアルアプリケーションを記憶させ、この検査マニュアルアプリケーションを利用する場合には、検査支援情報メモリ28は省略可能である。
 本変形例では、CPU21は、検査支援情報に代えて検査マニュアルアプリケーションを読み出して実行する。この検査マニュアルアプリケーションは、検査マニュアルの機能の他に設定を自動に行う機能を備えている。CPU21は、検査マニュアルアプリケーションを実行することで、LCD31の表示画面上に、検査マニュアル画像を表示させる。図11はこの場合の表示例を示している。
 図11の例では、LCD31の表示画面31a上には、検査マニュアル画像61が表示されている。検査マニュアル画像61は、被検体に設けられている検査ポートA,B,C,…毎に、プローブ径、光学アダプタの種類及びブライトネスの設定値についての設定情報が登録されていることを示している。また、各検査ポートA,B,C…のいずれの設定を行うかを指定するための設定ボタン62が表示されている。
 例えば、図11の例では、検査ポートBを利用した検査を行う場合には、プローブ径4mmの内視鏡を用い、光学アダプタとして型番AT120D/NFの機種を用い、ブライトネスの設定値を3に設定すべきであることが分かる。
 上記各実施の形態においては、CPU21において、検査マニュアルからこれらの設定情報を抽出し、抽出した設定情報を各部に設定する処理を行ったのに対し、本変形例では、CPU21が実行する検査マニュアルアプリケーションによって自動的に設定が行われる。例えば、ユーザが検査ポートBの検査を行う場合には、この検査ポートBに対応した設定ボタン62に対してタッチ操作を行えばよい。そうすると、CPU21は、検査ポートBに対して登録されている各設定情報を用いて、内視鏡の各部を設定する。
 他の構成及び作用は第1実施の形態と同様である。
 本変形例では、検査マニュアルを元に検査マニュアルアプリケーションを作成する必要があるが、高度な設定作業を自動化することができるという利点がある。
 なお、本変形例を上記第2の実施の形態に適用して、外部機器において、検査マニュアルアプリケーションを実行し、設定情報を本体部に送信するようにしてもよい。
 本発明は、上記各実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
 また、ここで説明した技術のうち、主にフローチャートで説明した制御や機能は、多くがプログラムにより設定可能であり、そのプログラムをコンピュータが読み取り実行することで上述した制御や機能を実現することができる。そのプログラムは、コンピュータプログラム製品として、フレキシブルディスク、CD-ROM等、不揮発性メモリ等の可搬媒体や、ハードディスク、揮発性メモリ等の記憶媒体に、その全体あるいは一部を記録又は記憶することができ、製品出荷時又は可搬媒体或いは通信回線を介して流通又は提供可能である。利用者は、通信ネットワークを介してそのプログラムをダウンロードしてコンピュータにインストールしたり、あるいは記録媒体からコンピュータにインストールすることで、容易に本実施の形態を実現することができる。
 本出願は、2016年12月6日に日本国に出願された特願2016-237005号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲に引用されるものとする。

Claims (17)

  1.  検査支援情報から内視鏡の設定情報を抽出する抽出部と、
     前記内視鏡の現在の設定と前記抽出部が抽出した設定情報の内容とを比較する比較部と、
     前記比較部による比較結果を提示する制御部と、
     を具備したことを特徴とする内視鏡装置。
  2.  検査支援情報から内視鏡の設定情報を抽出する抽出部と、
     前記抽出部が抽出した設定情報を前記内視鏡に対して設定する制御部と、
     を具備したことを特徴とする内視鏡装置。
  3.  前記抽出部は、前記検査支援情報から検査に適した検査画像の画質を設定するためのパラメータを前記設定情報として抽出し、
     前記制御部は、前記検査画像の撮像に際して前記パラメータを用いて前記内視鏡の設定を変更する
     ことを特徴とする請求項2に記載の内視鏡装置。
  4.  前記抽出部は、前記検査支援情報から検査に適した検査画像の画質を設定するためのパラメータを前記設定情報として抽出し、
     前記制御部は、前記検査画像に対する信号処理に際して前記パラメータを用いて前記内視鏡の設定を変更する
     ことを特徴とする請求項2に記載の内視鏡装置。
  5.  前記検査支援情報は、検査マニュアルであり、
     前記抽出部は、前記検査マニュアルを解析して、前記設定情報を抽出する。
     ことを特徴とする請求項1又は2に記載の内視鏡装置。
  6.  前記検査支援情報は、前記内視鏡によって過去に撮像されて得られた検査画像を含む検査画像ファイルであり、
     前記抽出部は、前記検査画像ファイルに含まれるメタデータに基づいて前記設定情報を取得する
     ことを特徴とする請求項1又は2に記載の内視鏡装置。
  7.  表示部を具備し、
     前記制御部は、前記比較結果を前記表示部に表示させる
     ことを特徴とする請求項1に記載の内視鏡装置。
  8.  前記内視鏡の挿入部の先端に装着可能な光学アダプタと、
     前記光学アダプタの種類を識別するアダプタ識別部と、を更に有し、
     前記抽出部は、前記検査支援情報から検査に適した光学アダプタ情報を抽出し、
     前記比較部は、前記アダプタ識別部が識別した光学アダプタの種類と光学アダプタ情報に基づく光学アダプタの種類とを比較し、
     前記制御部は、前記比較部が比較した光学アダプタの種類が異なる場合には、前記比較結果として警告表示を前記表示部に表示させる
     ことを特徴とする請求項7に記載の内視鏡装置。
  9.  前記内視鏡に設けられて検査画像を取得する撮像部を具備し、
     前記抽出部は、前記検査支援情報から検査すべき部位の画像を前記設定情報として抽出し、
     前記比較部は、前記撮像部が取得した検査画像と前記設定情報である検査すべき部位の画像とを比較し、
     前記制御部は、前記比較部が比較した画像が一致しているか否かを示す比較結果を前記表示部に表示させる
     ことを特徴とする請求項7に記載の内視鏡装置。
  10.  前記検査支援情報は、前記撮像部が過去に撮像して取得した検査画像であり、
     前記抽出部は、前記撮像部によって過去に撮像されて取得された検査画像を前記設定情報として取得する
     ことを特徴とする請求項9に記載の内視鏡装置。
  11.  前記抽出部は、前記過去に撮像されて取得された検査画像に対する輪郭抽出による線分のガイド画像を含む前記設定情報を取得する
     ことを特徴とする請求項9に記載の内視鏡装置。
  12.  前記検査支援情報は、前記抽出部及び制御部の機能を有するプログラムにより構成される
     請求項2に記載の内視鏡装置。
  13.  前記検査支援情報は、前記抽出部、比較部及び制御部の機能を有するプログラムにより構成される
     ことを特徴とする請求項1に記載の内視鏡装置。
  14.  内視鏡に設けられ、前記内視鏡の現在の設定を送信する第1の通信部と、
     前記第1の通信部との間で通信を行う第2の通信部、検査支援情報から前記内視鏡の設定情報を抽出する抽出部、前記第2の通信部において受信した前記内視鏡の現在の設定と前記抽出部が抽出した設定情報の内容とを比較する比較部、及び、前記比較部による比較結果を提示する制御部を有する外部機器と、
     を具備したことを特徴とする内視鏡システム。
  15.  内視鏡に設けられ外部との通信を行う第1の通信部と、
     検査支援情報から前記内視鏡の設定情報を抽出する抽出部、前記抽出部が抽出した設定情報を前記第1の通信部に送信する第2の通信部と、を有する外部機器と、
     前記内視鏡に設けられ、前記第1の通信部によって受信した前記設定情報によって前記内視鏡の各部を設定する制御部と、
     を具備したことを特徴とする内視鏡システム。
  16.  検査支援情報から内視鏡の設定情報を抽出し、
     前記内視鏡の現在の設定と前記抽出された設定情報の内容とを比較して比較結果を得、
     前記比較結果を提示する
     ことを特徴とする検査支援方法。
  17.  検査支援情報から内視鏡の設定情報を抽出し、
     前記抽出された設定情報を前記内視鏡に対して設定する
     ことを特徴とする検査支援方法。
PCT/JP2017/041243 2016-12-06 2017-11-16 内視鏡装置、内視鏡システム及び検査支援方法 WO2018105351A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-237005 2016-12-06
JP2016237005 2016-12-06

Publications (1)

Publication Number Publication Date
WO2018105351A1 true WO2018105351A1 (ja) 2018-06-14

Family

ID=62490930

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/041243 WO2018105351A1 (ja) 2016-12-06 2017-11-16 内視鏡装置、内視鏡システム及び検査支援方法

Country Status (1)

Country Link
WO (1) WO2018105351A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5969725A (ja) * 1982-10-15 1984-04-20 Olympus Optical Co Ltd 内視鏡装置
JPH10248802A (ja) * 1997-03-13 1998-09-22 Olympus Optical Co Ltd ビデオ内視鏡装置
JP2004033487A (ja) * 2002-07-03 2004-02-05 Olympus Corp 内視鏡装置
JP2011010998A (ja) * 2009-07-06 2011-01-20 Fujifilm Corp 内視鏡用照明装置および内視鏡装置
WO2014002565A1 (ja) * 2012-06-26 2014-01-03 ソニー株式会社 撮像制御装置、記憶システムおよび記憶媒体
WO2015025697A1 (ja) * 2013-08-20 2015-02-26 オリンパスメディカルシステムズ株式会社 内視鏡システム、内視鏡システムの作動方法
WO2016076314A1 (ja) * 2014-11-13 2016-05-19 オリンパス株式会社 内視鏡システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5969725A (ja) * 1982-10-15 1984-04-20 Olympus Optical Co Ltd 内視鏡装置
JPH10248802A (ja) * 1997-03-13 1998-09-22 Olympus Optical Co Ltd ビデオ内視鏡装置
JP2004033487A (ja) * 2002-07-03 2004-02-05 Olympus Corp 内視鏡装置
JP2011010998A (ja) * 2009-07-06 2011-01-20 Fujifilm Corp 内視鏡用照明装置および内視鏡装置
WO2014002565A1 (ja) * 2012-06-26 2014-01-03 ソニー株式会社 撮像制御装置、記憶システムおよび記憶媒体
WO2015025697A1 (ja) * 2013-08-20 2015-02-26 オリンパスメディカルシステムズ株式会社 内視鏡システム、内視鏡システムの作動方法
WO2016076314A1 (ja) * 2014-11-13 2016-05-19 オリンパス株式会社 内視鏡システム

Similar Documents

Publication Publication Date Title
US20160179305A1 (en) Inspection image display apparatus, inspection image display method and storage medium
US6890296B2 (en) Measuring endoscope apparatus
JP4468544B2 (ja) 内視鏡装置
JP4078409B2 (ja) 多数源データ処理方法および多数源データ処理装置
US10102643B2 (en) Endoscope apparatus and inspection method using endoscope
JP7007139B2 (ja) 内視鏡装置、内視鏡システム及び検査方法
US20140024891A1 (en) Endoscope system and image playback method in endoscope system
US20120130168A1 (en) Endoscope apparatus
US20060176321A1 (en) Endoscope apparatus
JP6017198B2 (ja) 内視鏡装置およびプログラム
JP2005338551A (ja) 工業用内視鏡装置
JP5307407B2 (ja) 内視鏡装置およびプログラム
JP2006329684A (ja) 画像計測装置及び方法
US20180296063A1 (en) Endoscope apparatus, endoscope system and endoscope image display control method
JP6635680B2 (ja) 内視鏡装置及び内視鏡装置の設定方法
JP6238618B2 (ja) 内視鏡画像処理装置及び内視鏡装置
WO2018105351A1 (ja) 内視鏡装置、内視鏡システム及び検査支援方法
JP5153381B2 (ja) 内視鏡装置
JPWO2018158815A1 (ja) 点検支援装置、点検支援方法およびプログラム
JP4464641B2 (ja) 工業用内視鏡システム
JP6242075B2 (ja) 内視鏡装置及び内視鏡画像記録用フォルダの表示方法
JP6168849B2 (ja) 内視鏡装置及び内視鏡画像の撮影方法
JP6680538B2 (ja) 撮像装置
US20120131667A1 (en) Nondestructive testing system
JP2009169244A (ja) 画像記録装置、内視鏡検査システム、検査方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17878621

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17878621

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP