WO2021166074A1 - 内視鏡配置状態判定方法 - Google Patents

内視鏡配置状態判定方法 Download PDF

Info

Publication number
WO2021166074A1
WO2021166074A1 PCT/JP2020/006308 JP2020006308W WO2021166074A1 WO 2021166074 A1 WO2021166074 A1 WO 2021166074A1 JP 2020006308 W JP2020006308 W JP 2020006308W WO 2021166074 A1 WO2021166074 A1 WO 2021166074A1
Authority
WO
WIPO (PCT)
Prior art keywords
endoscope
observation
determination
arrangement state
unit
Prior art date
Application number
PCT/JP2020/006308
Other languages
English (en)
French (fr)
Inventor
仁 大原
祐一朗 橋本
啓吾 高橋
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2022501440A priority Critical patent/JP7423739B2/ja
Priority to CN202080096754.5A priority patent/CN115103623A/zh
Priority to PCT/JP2020/006308 priority patent/WO2021166074A1/ja
Publication of WO2021166074A1 publication Critical patent/WO2021166074A1/ja
Priority to US17/888,682 priority patent/US20220392102A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00059Operational features of endoscopes provided with identification means for the endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/12Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with cooling or rinsing arrangements
    • A61B1/121Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with cooling or rinsing arrangements provided with means for cleaning post-use
    • A61B1/123Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with cooling or rinsing arrangements provided with means for cleaning post-use using washing machines
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/70Cleaning devices specially adapted for surgical instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/70Cleaning devices specially adapted for surgical instruments
    • A61B2090/701Cleaning devices specially adapted for surgical instruments for flexible tubular instruments, e.g. endoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Definitions

  • the present invention relates to an endoscope arrangement state determination method for determining whether or not an endoscope is appropriately arranged with respect to a processing tank of an endoscope reprocessor.
  • the endoscope used for the subject has an endoscope reprocessor that performs regeneration processing such as cleaning and disinfection.
  • the endoscope is arranged inside the processing tank in a wound state.
  • the setting state of the endoscope such as the winding state of the insertion part
  • the chemical solution can be spread over the surface of the endoscope, and an appropriate regeneration process can be performed. Is guaranteed. Therefore, the endoscope reprocessor is required to have a technique for determining whether or not the endoscope is used according to an appropriate arrangement state of the endoscope so that the reproduction process can be performed correctly.
  • Japanese Patent Application Laid-Open No. 2006-230492 describes an endoscope endoscope sensor for detecting that an endoscope is housed and arranged at a predetermined position. Is disclosed as an endoscope cleaning device provided at a predetermined position on the side surface of the tank body.
  • the endoscope detection sensor is composed of a pair of optical sensors including a light emitting unit that emits light and a light receiving unit that receives light from the light emitting unit. There is.
  • the present invention has been made in view of the above circumstances, and it is possible to accurately determine whether or not the endoscope is arranged in an appropriate arrangement state with respect to the processing tank of the endoscope reprocessor.
  • An object of the present invention is to provide a method for determining a mirror arrangement state.
  • the arrangement state of the endoscope arranged in the processing tank of the endoscope reprocessor is observed according to the movement of the top cover that opens and closes the processing tank. Then, based on the observation step in which the observation unit acquires the observation image and the observation image, the predetermined part of the endoscope is within a predetermined range defined by the predetermined part in the processing tank. It includes at least a determination step including a first determination method for determining whether the arrangement state is appropriate or inappropriate, and a notification step in which the notification unit notifies the result of the determination, using whether or not it is included as a determination criterion.
  • FIG. 1 Perspective view of the endoscope reprocessor Top view of the endoscope reprocessor Explanatory drawing showing a state in which an endoscope is arranged in a processing tank of an endoscope reprocessor.
  • Explanatory drawing for explaining arrangement of terminal holding part of endoscope reprocessor
  • Rear view of the observation terminal of the endoscope reprocessor Explanatory drawing of a reading device that can be attached to and detached from the observation terminal
  • Flowchart showing the placement state determination routine of the endoscope Flowchart showing the placement state determination routine of the endoscope
  • FIG. 1 A flowchart showing a subroutine for determining the placement state of an endoscope based on the ratio of a specific color.
  • a flowchart showing a subroutine for determining the placement state of an endoscope based on the placement of a specific part Explanatory drawing showing an example of the relationship between the state in the process of closing the top cover and the observed image. Explanatory drawing showing an example of the relationship between the state in the process of closing the top cover and the observed image. Explanatory drawing showing an example of the relationship between the state where the top cover is fully closed and the observed image. Explanatory diagram showing an example of an evaluation area set based on two index pins Explanatory drawing showing an example of a specific part of an endoscope existing in the evaluation area Perspective view of the endoscope reprocessor according to the first modification Concerning the second modification, the configuration diagram of the judgment system including the neural network
  • FIG. 1 is a perspective view of an endoscope reprocessor 1 according to an embodiment of the present invention.
  • FIG. 2 is a top view of the endoscope reprocessor 1 according to the embodiment of the present invention.
  • FIG. 3 is an explanatory diagram for explaining a state in which the endoscope E is arranged in the processing tank 31 of the endoscope reprocessor 1 according to the embodiment of the present invention.
  • the endoscope reprocessor 1 is a device that regenerates a contaminated endoscope E and parts or accessories of the endoscope E.
  • the regeneration treatment referred to here is not particularly limited, and is rinsed with water, washed to remove stains such as organic substances, disinfected to nullify predetermined microorganisms, sterilized to eliminate or kill all microorganisms, or , Any combination of these may be used.
  • the endoscope reprocessor 1 can also be used for a regeneration process such as a dilator which is a tubular medical device or an endoscope sheath.
  • the downward direction indicates the direction of gravity
  • the upward direction indicates the direction opposite to the direction of gravity
  • the height indicates the height relationship along the direction of gravity
  • the endoscope reprocessor 1 has a top cover 11 as a cover having a cover panel 13 which is a transmissive portion, a reprocessor main body 21, and a terminal holding portion 111 provided on the top cover 11.
  • the terminal holding unit 111 holds the observation terminal D that receives the observation wave.
  • the terminal holding portion 111 holds the observation terminal D so as to be arranged on the surface of the top cover 11, but the present invention is not limited to this.
  • the observation terminal D can be attached to the end of the top cover 11 so that the observation terminal D is exposed from the top cover 11.
  • the terminal holding portion 111 for holding the observation terminal D is provided, for example, on the end face of the other end of the top cover 11 at a predetermined angle.
  • the back surface of the top cover 11 is arranged so as to face the processing tank 31 of the reprocessor main body 21.
  • the top cover 11 opens and closes the processing tank 31 by rotating around the hinge 11a. That is, one end of the top cover 11 is connected to the reprocessor main body 21 by the hinge 11a, and the other end rotates about one end. In the closed state, the top cover 11 covers the processing tank 31.
  • the top cover 11 has a cover frame 12, a cover panel 13 which is a transmissive portion, a gas filter 14, and a finger hook portion 15.
  • the top cover 11 may be provided with a gyro sensor so that the angular velocity information can be transmitted to the observation terminal E.
  • the cover frame 12 is provided so as to circulate around the peripheral edge of the top cover 11.
  • the material of the cover frame 12 is not particularly limited, and examples thereof include metal and resin.
  • the cover frame 12 has a packing 12a provided on the back surface so as to orbit along the upper edge portion of the processing tank 31. When the top cover 11 is closed, the packing 12a comes into close contact with the upper edge of the processing tank 31.
  • the cover panel 13 has translucency.
  • Examples of the transparent material constituting the cover panel 13 include resin or ceramics.
  • Examples of the resin include polycarbonate having chemical resistance and visible light transmission.
  • the cover panel 13 is provided inside the cover frame 12.
  • the cover panel 13 is not particularly limited, but may have a cover exhaust port 13a at a dome-shaped bulging portion on one end side.
  • the gas filter 14 is composed of a filter medium storage container and a filter medium housed in the filter medium storage container, and is detachably attached to the cover exhaust port 13a.
  • the gas filter 14 has a filter exhaust port 14a at the top (FIG. 2).
  • the gas filter 14 takes in the gas in the processing tank 31 from the cover exhaust port 13a, and discharges the gas that has been filtered such as deodorization from the filter exhaust port 14a.
  • the finger hook portion 15 is continuously provided on the other end side of the cover frame 12 so that the user can hang his or her fingers.
  • a fastener 15a is provided inside the finger hook portion 15.
  • the reprocessor main body 21 has a lock unit 22, a display unit 23 as a notification unit, an operation unit 24, a water supply hose connection port 25, a communication unit 26, a control unit 27, and a processing tank 31.
  • the lock portion 22 is provided on the other end side of the upper portion of the reprocessor main body 21. Under the control of the control unit 27, the lock unit 22 locks the fastener 15a or releases the lock of the fastener 15a. When the locking portion 22 locks the fastener 15a, the top cover 11 is locked in the closed state. By connecting the lock portion 22 to the foot panel 28, the fastener 15a may be unlocked by the foot panel.
  • the display unit 23 is provided at the corner on the other end side of the upper part of the reprocessor main body 21.
  • the display unit 23 has a display panel and gives various notifications to the user under the control of the control unit 27.
  • the operation unit 24 has an instruction input button, and various instructions can be input to the endoscope reprocessor 1.
  • the water supply hose connection port 25 is connected to the water tap via the water supply tube W.
  • the communication unit 26 is connected to the control unit 27 and is configured to be able to communicate with the observation terminal D by wire or wirelessly under the control of the control unit 27.
  • the communication unit 26 may be configured so that it can communicate with an external device via a network.
  • the control unit 27 controls each unit in the endoscope reprocessor 1.
  • the control unit 27 has a processor and a memory, and can execute various programs stored in the memory.
  • the function of the control unit 27 is realized by reading and executing a program stored in the memory.
  • the control unit 27 connects to the observation terminal D via the communication unit 26.
  • the control unit 27 When a determination result indicating an abnormality is input from the observation terminal D, the control unit 27 notifies the user of the abnormality.
  • the abnormality notification may be a warning display by the display unit 23, or may be an output of a warning sound by a speaker (not shown). Further, when a determination result indicating an abnormality is input from the observation terminal D, the control unit 27 may control to stop the reproduction process.
  • control unit 27 is connected to the RFID (Radio Frequency IDentification) reading device 27a.
  • the reading device 27a is provided, for example, on the other end side of the upper part of the reprocessor main body 21 at the corner on the opposite side of the display unit 23 with the processing tank 31 interposed therebetween.
  • This reading device 27a can communicate with an RFID tag (not shown) provided on the scope connector E4 or the like of the endoscope E in a non-contact manner using radio waves or electromagnetic waves.
  • the processing tank 31 is provided above the reprocessor main body 21. As shown in FIG. 3, when the top cover 11 is opened, the processing tank 31 is exposed to the outside.
  • the treatment tank 31 has a concave shape so as to accommodate the endoscope E to be regenerated and to store liquids such as a cleaning liquid, a disinfectant liquid, and a rinsing liquid. As shown in FIGS. It has a mouth 39.
  • the cleaning tube T connects the reprocessor main body 21 and the endoscope E.
  • the cleaning tube T has an endoscope-side connector T1 connected to the endoscope E and a processor-side connector T2 connected to the reprocessor main body 21.
  • the reprocessor-side connector T2 has an outlet T3 from which a liquid is ejected in a liquid passing state.
  • the endoscope E is, for example, an endoscope operation unit E1, an insertion unit E2 having an elongated shape extending from the endoscope operation unit E1 to the tip side, and a universal cord extending from the endoscope operation unit E1. It has an E3 and a scope connector E4 extending to the tip end side of the universal cord E3.
  • the endoscope side connector T1 is connected to the endoscope operation unit E1 and the scope connector E4.
  • the air supply / water supply connector 32 is provided on the wall of the treatment tank 31.
  • the reprocessor side connector T2 is connected to the air supply / water supply connector 32.
  • eight air supply / water supply connectors 32 are represented, but the number is not limited to eight.
  • the air supply / water supply connector 32 is connected to the circulation port 38 via a pipeline.
  • the control unit 27 drives the circulation pump, the air supply / water supply connector 32 sends the liquid taken in from the circulation port 38 to the endoscope E. Further, when the control unit 27 drives the air compressor, the air supply / water supply connector 32 sends the air taken in from the atmosphere to the endoscope E.
  • the holding net 33 is attached to the bottom of the processing tank 31.
  • the material of the holding net is not particularly limited, and examples thereof include metal and resin.
  • the holding net 33 includes an index pin 33a having a mark indicating the height of the disinfecting water level, an operation unit receiving unit 33b for arranging the endoscope operation unit E1, and a scope connector receiving unit for arranging the scope connector E4. It has a 33c and a hook 33d for hanging the insertion portion E2 and the universal cord E3.
  • the user arranges the endoscope operation unit E1 on the operation unit receiving unit 33b, arranges the scope connector E4 on the scope connector receiving unit 33c, and winds the insertion unit E2 and the universal cord E3 so as to pass through the inside of the hook 33d. ..
  • the user holds the endoscope E on the holding net 33 so as to be below the mark of the index pin 33a so as not to exceed the disinfecting water level.
  • Such a setting state of the endoscope E is instructed for each model of the endoscope E in the instruction manual of the endoscope E or the instruction manual of the endoscope reprocessor 1. That is, in order to perform appropriate regeneration processing of the endoscope E, each portion (particularly, the insertion portion E2, etc.) wound around the holding net 33 or the like is arranged so as not to be in close contact with each other in the various endoscopes E.
  • the appropriate arrangement state of is predetermined.
  • the cleaning case 34 is attached to the central portion of the holding net 33.
  • the cleaning case 34 houses accessories such as an air supply / water supply button, a suction button, or a cap that have been removed from the endoscope E.
  • the lower portion of the cleaning case 34 is connected to a bottom connector provided at the bottom of the reprocessor main body 21.
  • the cleaning case 34 is supplied with air or water from the bottom connector under the control of the control unit 27.
  • the accessories are not particularly limited, and are, for example, a suction button, an air supply / water supply button, or a tip that covers the tip of the endoscope E, which is attached to the endoscope E during use and removed from the endoscope E during the regeneration process. Examples include covers.
  • the water level gauge 35 confirms the water level of the liquid in the washing tank and outputs the confirmation result to the control unit 27.
  • the chemical solution nozzle 36 is provided on a terrace portion provided at a higher position on the peripheral edge portion in the processing tank 31.
  • the chemical solution nozzle 36 is connected to the chemical solution tank in the reprocessor main body 21, and the chemical solution in the chemical solution tank is discharged to the processing tank 31 by driving the chemical solution pump of the control unit 27.
  • the water supply circulation nozzle 37 is provided on the terrace portion.
  • the water supply circulation nozzle 37 is connected to the circulation port 38 via a pipeline.
  • the control unit 27 drives the circulation pump, the water supply circulation nozzle 37 discharges the liquid taken in from the circulation port 38 to the processing tank 31. Further, the water supply circulation nozzle 37 discharges the water supplied from the water supply tube W to the treatment tank 31 via the water supply hose connection port 25 under the control of the control unit 27.
  • Each of the circulation port 38 and the drainage port 39 is provided at the bottom of the processing tank 31 and is equipped with a mesh filter (FIG. 2).
  • the circulation port 38 takes in the liquid of the processing tank 31.
  • the drainage port 39 is connected to the external drainage means and discharges the liquid in the treatment tank 31 to the outside. Further, the drainage port 39 can be connected to the chemical solution tank under the control of the control unit 27. When the drainage port 39 is connected to the chemical solution tank, the chemical solution used in the treatment tank 31 is collected in the chemical solution tank.
  • the chemical solution used in the endoscope reprocessor 1 is, for example, a peracetic acid solution.
  • the peracetic acid solution is prepared in a predetermined concentration by diluting the stock solution with water supplied from the water supply tube W in the endoscope reprocessor 1.
  • the chemical solution is stored in the chemical solution tank and is discharged from the chemical solution nozzle 36 to the treatment tank 31 when the endoscope E is disinfected. After being used to disinfect endoscope E, the drug solution is collected in a drug solution tank for use in the next regeneration process.
  • the concentration of the chemical solution decreases depending on the number of days and the number of times it has been used.
  • the terminal holding portion 111 is provided on the front surface side of the top cover 11 opposite to the back surface side (FIG. 2).
  • the material of the terminal holding portion is not particularly limited, and examples thereof include metal and resin.
  • the terminal holding unit 111 is configured to hold the observation terminal D at a position where the inside of the processing tank 31 can be observed via the cover panel 13. That is, the terminal holding portion 111 is arranged on the outer surface of the top cover 11.
  • FIG. 4 is a front view of the observation terminal D of the endoscope reprocessor 1 according to the first embodiment of the present invention.
  • FIG. 5 is a rear view of the observation terminal D of the endoscope reprocessor 1 according to the first embodiment of the present invention.
  • the observation terminal D is, for example, a tablet-type mobile information terminal.
  • the observation terminal D includes an observation unit D1, a control unit D3, and a notification unit D5.
  • the observation terminal D has an observation unit D2, a communication unit D4, an external connector D6 or a gyro sensor D7.
  • the observation unit D1 is provided on the front surface of the observation terminal D.
  • the observation unit D2 is provided on the rear surface of the observation terminal D.
  • a camera configuration known as the detection units D1 and D2 can be applied.
  • the observation units D1 and D2 have an image pickup device composed of CMOS, a CCD, or the like, image an outside image, and output the captured image as an observation image P to the control unit D3.
  • the observation units D1 and D2 may have a wide-angle lens. The wide-angle lens may be fixed to the observation terminal D or may be detachable from the observation terminal D.
  • the observation unit D1 which is the receiving unit, receives the light reflected in the processing tank 31 and transmitted through the cover panel 13.
  • the light referred to here is not limited to visible light, and may be far infrared rays, infrared rays, or ultraviolet rays.
  • the control unit D3 has a processor and a memory, and controls the operation of each unit in the observation terminal D.
  • the control unit D3 may determine the endoscope arrangement state based on the captured image or the moving image, or the observation terminal D may make a determination without making the determination.
  • the external device makes a determination, the captured image is output to the external device through the communication unit D4 or the external connector D6 described later.
  • Examples of the external device referred to here include a smartphone, a tablet, a personal computer, a reprocessor, a cloud, and the like.
  • the determination result by the control unit D3 or the external device may be output to the display unit D3 of the observation terminal D or may be output to the external device.
  • the external device to which the determination result is output include a smartphone, a tablet, a personal computer, a reprocessor, and an alarm device.
  • the communication unit D4 communicates with the communication unit 26 and outputs the determination result to the control unit 27 of the reprocessor main body 21.
  • the control unit 27 displays a warning on the display unit 23 of the reprocessor main body 21, or locks the operation unit 24 to perform the reprocess. You can run a program that prevents you from starting.
  • the display unit D5 can display various information on the display panel under the control of the control unit D3.
  • the display unit D5 may display the determination result.
  • the display unit D5 has a touch panel superimposed on the display panel, and various instructions can be input by touch operation.
  • the external connection connector D6 electrically connects the observation terminal D to the external device.
  • Examples of the external connection connector D6 include a USB outlet.
  • the external connection connector D6 can connect the detachable RFID reading device 40 as an external device.
  • the gyro sensor D7 is composed of a piezoelectric element, a silicon vibrator, or the like, and detects an angular velocity generated in response to a change in the posture of the observation terminal D or the like. Then, the gyro sensor D7 outputs the detected angular velocity to the control unit D3.
  • the placement state determination of the endoscope E is executed, for example, according to the flowchart of the placement state determination routine shown in FIG.
  • This arrangement state determination routine is executed, for example, by the control unit D3 of the observation terminal D after the endoscope E is set in the processing tank 31 by the user.
  • the present invention is not limited to this, and the arrangement state determination may be executed by an external device as described above.
  • the determination unit in the present invention may be integrated with the observation terminal D or may be a separate body.
  • the observation unit acquires image information (S103, observation step).
  • the determination unit that determines the arrangement state of the control unit D3 and the like is performed endoscopically within a predetermined range A including a predetermined portion 33a in the processing tank based on the image information, as illustrated in FIG. Using whether or not a predetermined portion E2a of the mirror is included as an index, it is determined whether or not the arrangement state is appropriate (S108, determination step).
  • the pin 33a of the holding net is illustrated as a predetermined portion in the processing tank, but the present invention is not limited to this and can be used as long as it is in a fixed position in the processing tank 31.
  • a predetermined portion in the treatment tank for example, a holding net pin 33a, a holding net hook 33d, a cleaning case 34, a water level gauge 35, a chemical solution nozzle 36, a thermometer (not shown), and the like can be used.
  • the predetermined range A is illustrated by a circle, but the present invention is not limited to this, and other shapes such as an ellipse and a polygon may be used, and as illustrated in FIG. 15, two figures are overlapped. It may be a part. Further, the size and shape of the predetermined range A may be changed according to the endoscopic information such as the type. Details of the method of acquiring endoscopic information will be described in Modification 1 of Example 1.
  • the predetermined range A may be 1 or more, and may be provided at a plurality of locations as illustrated in FIG.
  • the scale line of the endoscope is illustrated as a predetermined portion E2a of the endoscope, but the present invention is not limited to this, and any part constituting the endoscope such as the tip of the endoscope can be used. Can also be used.
  • the notification unit After the determination step, the notification unit notifies the result of the determination (S111, notification step).
  • the notification unit may notify both of the cases of “appropriate arrangement” and “inappropriate arrangement”, or may notify only in the case of "inappropriate arrangement”. In the latter case, if the result of the determination is "appropriate arrangement", the reprocessor 1 permits the reprocess (S110).
  • the permission referred to here may mean that the reprocessor automatically starts the reprocess, or that the operation unit 24 of the reprocessor can perform the reprocess start operation.
  • Any device that can communicate with the judgment function as a notification unit and has a notification function can be used as appropriate.
  • the display unit 23 provided on the reprocessor 21 or the display unit D5 of the observation terminal D can be used.
  • the notification by the notification unit may be notification by visual information, notification by auditory information, or notification by another method.
  • the control unit D3 may acquire the endoscope information of the endoscope E in step S101 before acquiring the image information (S103, observation step), and further, the endoscope of the endoscope E. You may check whether the information has been acquired.
  • the endoscope information can be acquired by, for example, reading the RFID tag provided on the scope connector E4 or the like of the endoscope E by the reading device 27a provided on the reprocessor main body 21. That is, when the user brings the scope connector E4 or the like close to the reading device 27a, the control unit 27 acquires information (endoscope information) regarding the endoscope E through the reading device 27a. The control unit 27 transmits the acquired endoscope information to the observation terminal D through wireless communication between the communication unit 26 and the communication unit D4. As a result, the control unit D3 acquires the endoscopic information.
  • the reading device 27a is arranged outside the processing tank 31, but the present invention is not limited to this, and the reading device 27a may be arranged inside the processing tank 31.
  • the control unit D3 directly acquires information about the endoscope E by bringing the scope connector E4 or the like close to the reading device 40.
  • the reading device can also be built in the observation terminal D in advance.
  • control unit D3 can perform the imaging of a specific part of the endoscope E by the observation unit D1 or the observation unit D2, and specify the model of the endoscope E from the shape and the identification number recognized by image recognition or the like. , It is also possible to acquire endoscopic information.
  • control unit D3 can acquire the endoscope information by the user manually inputting the endoscope information or inputting the endoscope information by voice.
  • control unit D3 can acquire the endoscopic information by obtaining the information input to the medical record of the external device at the time of endoscopic diagnosis.
  • step S101 If it is determined in step S101 that the endoscopic information has not been acquired, the control unit D3 stands by as it is. On the other hand, if it is determined in step S101 that the endoscopic information has been acquired, the control unit D3 proceeds to the next step.
  • step 102 the control unit D3 checks whether or not a trigger for starting imaging of the arrangement state of the endoscope E has occurred. However, instead of performing S102, imaging and determination may always be performed.
  • the posture of the observation terminal D calculated based on the angle from the gyro sensor D7 or the like can be used. ..
  • control unit D3 can use a predetermined command recognized by voice recognition as a trigger for starting shooting.
  • control unit D3 can receive the signal from the switch provided on the hinge 11a by wire or wirelessly.
  • control unit D can be triggered by a user provided in the reprocessor main body 21 performing a predetermined operation on various switches such as the foot panel 28.
  • control unit D3 can receive a predetermined signal generated on the reprocessor main body 21 side by the user's operation by wireless communication or wired communication between the communication unit 26 and the communication unit D4.
  • control unit D3 can be triggered by the user pressing the image pickup button displayed on the display unit D5 of the observation terminal D.
  • step S102 If it is determined in step S102 that the trigger for starting imaging has not occurred, the control unit D3 stands by as it is. On the other hand, when it is determined in step S102 that the trigger for starting imaging has occurred, the control unit D3 proceeds to step S103 and changes the arrangement state of the endoscope E arranged in the processing tank 31 to the observation unit D1 or the observation unit D2. (Observation step).
  • the number of observation images may be one or more, and the observation terminal D may capture a plurality of different types of observation images.
  • Various imaging methods can be used for acquiring a plurality of observation images P.
  • imaging may be performed using light of predetermined wavelengths (first and second wavelengths) different from each other.
  • the wavelength referred to here is not limited to visible light, but also includes far infrared rays, infrared rays, or ultraviolet rays.
  • the inside of the processing tank 31 may be imaged from different angles.
  • images in the processing tank 31 taken from different angles by acquiring observation images two or more times between before closing the top cover 11 and after closing the top cover 11.
  • the control unit D3 uses the observation terminal D at each timing when the observation terminal D changes to a preset predetermined angle according to the movement of the top cover 11. , It is possible to generate a trigger to start imaging.
  • the observation terminal D or the endoscope reprocessor 1 may be used to guide the user by voice so that the speed of closing the top cover does not become too fast, or a known mechanism for preventing the top cover from closing too quickly is provided on the hinge 11a. It may be installed.
  • the process for obtaining a plurality of observation images P of different types can be realized, for example, based on the flowchart shown in FIG. In FIG. 9, the same step numbers are assigned to the same processes as those in FIG. Proceeding from step S103 to step S104, the control unit D3 checks whether or not the observation image P captured in step S103 is the final image.
  • the final image is an image taken with the top cover 11 fully closed (see FIG. 14). In the present embodiment, the final image is an image taken in a state where the processing tank 31 is facing directly.
  • step S104 when it is determined that the observation image P captured this time is not the final image, the control unit D3 returns to step S102. On the other hand, if it is determined in step S104 that the observation image P captured this time is the final image, the control unit D3 proceeds to step S105. It should be noted that the determination as to whether or not it is the final image can also be made by detecting the state of the hinge 11a on the endoscope reprocessor 1 side and transmitting the detected signal to the observation terminal D.
  • control unit D3 captures a plurality of observation images P captured under different conditions from before the top cover 11 is closed to after the top cover 11 is closed. At least 2) to get.
  • the control unit D3 When proceeding from step S104 to step S105, the control unit D3 either removes the defective image or selects one image for determination by comparing the acquired plurality of observation images P. That is, when the processing tank 31 is made of a material such as stainless steel, the insertion portion E2 or the like of the endoscope E is reflected on the surface of the processing tank 31 depending on the angle at which the observation image P is imaged, and is displayed on the observation image P. May appear as a virtual image. In addition, since the light of the interior light is reflected by the processing tank, halation may be reflected in the image and a part of the endoscopic image may be missing. Therefore, the control unit D3 can exclude the defective image on the observation image P from the determination target by comparing the observation images P captured from each angle.
  • step S108 of the first embodiment can be executed according to, for example, the subroutine shown in FIG.
  • control unit D3 extracts the last acquired image from the acquired plurality of observation images P (S301).
  • control unit D3 sets a predetermined range A of 1 or 2 or more according to the type of the endoscope E or the like as an evaluation region on the extracted image (S302). Next, the control unit D3 evaluates within the predetermined range A as shown in the above-described embodiment (S303).
  • control unit D determines that the endoscope E is in an appropriate arrangement state (S307), and exits the subroutine.
  • control unit D extracts the image acquired one before the currently extracted image (S306), and returns to the process of step S302. ..
  • control unit D is inappropriate for the endoscope E arranged in the processing tank 31. It is determined that it is in the placement state, and the subroutine is exited.
  • Example 2 In addition to the determination (S108) based on the arrangement of the specific portion illustrated in Example 1, a determination method different from that of S108 may be implemented.
  • control unit D3 determines whether or not the endoscope E is appropriately arranged in the processing tank 31 based on the ratio of the specific color in the observation image. May be performed (S106).
  • the placement state determination of the endoscope based on the ratio of the specific color is performed according to, for example, the subroutine shown in FIG.
  • the control unit D3 extracts the observation image P acquired by the process of step S103.
  • the control unit D3 compares each evaluation value with each threshold value. Therefore, it is possible to evaluate whether or not the endoscope E is appropriately arranged in each evaluation region A (S203).
  • the color of the endoscope on the image and the color other than the endoscope can be appropriately selected. For example, it is possible to set to display black above the threshold value and white below the threshold value by binarization treatment.
  • the determination by binarization may be performed on the entire captured image, or may be performed within a predetermined range of the images.
  • the binarization may be carried out in a predetermined range from the center of the image toward the outer circumference, or may be carried out in a region in a predetermined range from a specific index.
  • the control unit D3 checks whether or not the evaluation value is appropriate.
  • the method of determining whether or not it is appropriate can be appropriately set depending on the type of endoscope, the threshold value for binarization, and the like. For example, if the color ratio of the endoscope is equal to or less than a predetermined ratio, it is determined that the endoscope is properly arranged.
  • control unit D3 proceeds to step S207 as illustrated in FIG. 10, and the endoscope E is properly arranged in the processing tank 31.
  • the flow may be such that the subroutine is exited.
  • the present invention is not limited to this, and even in a flow in which S108 is executed after determining that the arrangement of the endoscope is appropriate in S106, and the results of S106 and S108 are combined to make a final judgment. good.
  • step S106 when proceeding from step S106 to step S107, the control unit D3 checks in step S106 whether or not it is determined that the endoscope E is properly arranged in the processing tank 31.
  • step S106 determines whether the arrangement is not appropriate. If it is determined by the process of step S106 that the arrangement is not appropriate, the control unit D3 proceeds from step S107 to step S111, and passes through the display unit 23 of the reprocessor main body 21 or the display unit D5 of the observation terminal D. Exit the routine after issuing a warning.
  • control unit D3 determines whether the control unit D3 is determined to be in an appropriate arrangement by the process of step S106, the control unit D3 proceeds from step S107 to step S108 described in the first embodiment.
  • the notification unit may notify the information for making the arrangement state appropriate after the first or second embodiment.
  • the information for optimizing the arrangement state may be a notification by visual information, a notification by auditory information, or a notification by another method.
  • Examples of the notification by visual information include a method of showing the correct arrangement form on the notification unit, a method of displaying an actual misplaced part and a sample image of the correct arrangement form side by side.
  • As the notification by auditory information there is a method of guiding the user to the correct arrangement while guiding the position of the hand.
  • Example 4 It is also possible to determine the arrangement state of the endoscope E by using the determination system 50 including the trained neural network.
  • FIG. 18 shows an example of a determination system using a neural network.
  • This determination system 50 is built in, for example, the control unit D3.
  • the determination system 50 includes a variable acquisition unit 51, a determination parameter acquisition unit 52, and a plurality of neural networks 53 as determination units.
  • the variable acquisition unit 51 may be, for example, the type of endoscope E, the type of endoscope reprocessor 1, the type of observation terminal D, the position of the observation unit when the observation terminal D is arranged, the type of observation unit, or A variable group consisting of the number of endoscopes E arranged in the processing tank 31 and the like is input. It is not necessary that all the variables constituting this variable group are input to the variable acquisition unit 51, and at least one type selected from the variable group is input as the variables input to the variable acquisition unit 51. May be.
  • the determination parameter acquisition unit 52 generates, for example, a determination parameter associated with the variable input to the variable acquisition unit 51, and outputs the determination parameter to the corresponding neural network 53. That is, the determination parameter acquisition unit 52 identifies, for example, one or two or more corresponding neural networks 53 based on the variable group, and outputs the determination parameters to the neural network 53.
  • the determination parameter to be output to the neural network 53 for example, the pixel data of the detection range A set on the observation image P based on the variable group can be used.
  • Each neural network 53 outputs the calculation results of the input layer 53a into which the judgment parameter input from the judgment parameter acquisition unit 52 is input, the intermediate layer 53b that performs the calculation on the judgment parameter input to the input layer 53a, and the intermediate layer 53b. It is configured to have an output layer 53c and the like.
  • the intermediate layer 53b is composed of an array of a plurality of artificial neurons.
  • a rule of calculation performed between input and output, a plurality of weighting coefficients used for the calculation, and the like are set by machine learning or the like performed in advance.
  • the intermediate layer 53b performs an operation in each artificial neuron, for example, for the detection range A, the probability of matching is 90% (that is, the arrangement of the endoscope E). Is appropriate (90% probability), or a match probability of 10% (that is, an improper placement of the endoscope E is 10%) is obtained. Then, this calculation result is output by the output layer 53c.
  • control unit D3 of the observation terminal D performs the first and second determinations and the like
  • the present invention is not limited to this, and for example, endoscopy. It can also be performed by a control unit 27 or the like provided in the mirror reprocessor 1.
  • the control unit may be realized by a computer including one or more processors, a logic circuit, a memory, an input / output interface, a computer-readable recording medium, and the like. In that case, a program for realizing the functions of each component or the entire main body may be recorded on a recording medium, and the recorded program may be read into a computer system and executed.
  • the processor is at least one of a CPU (Central Processing Unit), a DSP (Digital Signal Processor), and a GPU (Graphics Processing Unit).
  • the logic circuit is at least one of an ASIC (Application Specific Integrated Circuit) and an FPGA (Field-Programmable Gate Array).

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Quality & Reliability (AREA)
  • Endoscopes (AREA)

Abstract

内視鏡配置状態判定方法は、内視鏡リプロセッサ1の処理槽31に配置された内視鏡Eの配置状態を、処理槽31を開閉するトップカバー11の動きに応じて観察し、観察部D1または観察部D2が観察画像を取得する観察ステップと、観察画像を基に、制御部D3が処理槽31の所定の部位(指標ピン33a)によって定義される所定領域(検知範囲A)内に、内視鏡の所定の部位(目盛り線E2a等)が含まれるか否かを判断基準として、配置状態が適正か不適かを判定する判定ステップと、報知部(表示部23,D5等)が判定の結果を報知するステップと、を含む。

Description

内視鏡配置状態判定方法
 本発明は、内視鏡リプロセッサの処理槽に対して内視鏡が適切に配置されているか否かを判定するための内視鏡配置状態判定方法に関する。
 従来、被検体に使用された内視鏡に、洗浄消毒等の再生処理を行う内視鏡リプロセッサがある。この種の内視鏡リプロセッサを用いて再生処理を行う場合、内視鏡は、巻回した状態にて処理槽の内部に配置される。この場合において、取扱い説明書等によって指示されている内視鏡のセッティング状態(挿入部の巻き回し状態等)を守れば、内視鏡の表面に薬液を行き渡らせることができ、適切な再生処理が保証される。従って、内視鏡リプロセッサは、正しく再生処理が行われるように、適切な内視鏡の配置状態によって使用されているか否かを判定する技術が求められている。
 内視鏡のセッティング状態を判定するための技術として、例えば、日本国特開2006-230492号公報には、内視鏡が所定位置に収納配置されたことを検知する内視鏡内視鏡センサを、槽本体の側面の所定位置に設けた内視鏡洗浄装置が開示されている。日本国特開2006-230492号公報の技術において、内視鏡検知センサは、光を発する発光部と、この発光部からの光を受光する受光部とを備えた一対の光学センサによって構成されている。
 しかしながら、上述の日本国特開2006-230492号公報の技術は、判定精度が低い。
 本発明は上記事情に鑑みてなされたもので、内視鏡リプロセッサの処理槽に対し、内視鏡が適切な配置状態によって配置されているか否かの判定を的確に行うことができる内視鏡配置状態判定方法を提供することを目的とする。
 本発明の一態様による内視鏡配置状態判定方法は、内視鏡リプロセッサの処理槽に配置された内視鏡の配置状態を、前記処理槽を開閉するトップカバーの動きに応じて観察して、観察部が、観察画像を取得する観察ステップと、前記観察画像を基に、判定部が前記処理槽内の所定の部位によって定義される所定範囲内に、内視鏡の所定の部位が含まれるか否かを判断基準として、前記配置状態が適正か不適かを判定する第1判定方法を少なくとも含む判定ステップと、報知部が前記判定の結果を報知する報知ステップと、を含むものである。
内視鏡リプロセッサの斜視図 内視鏡リプロセッサの上面図 内視鏡リプロセッサの処理槽に内視鏡を配置した状態を示す説明図 内視鏡リプロセッサの端末保持部の配置を説明するための説明図 内視鏡リプロセッサの観察端末の前面図 内視鏡リプロセッサの観察端末の後面図 観察端末に着脱自在な読み取り装置の説明図 内視鏡の配置状態判定ルーチンを示すフローチャート 内視鏡の配置状態判定ルーチンを示すフローチャート 特定色の割合に基づく内視鏡の配置状態判定サブルーチンを示すフローチャート 特定部位の配置に基づく内視鏡の配置状態判定サブルーチンを示すフローチャート トップカバーを閉じる途中の状態と観察画像との関係の一例を示す説明図 トップカバーを閉じる途中の状態と観察画像との関係の一例を示す説明図 トップカバーを全閉した状態と観察画像との関係の一例を示す説明図 2つの指標ピンに基づいて設定される評価領域の一例を示す説明図 評価領域内に存在する内視鏡の特定部位の一例を示す説明図 第1の変形例に係り、内視鏡リプロセッサの斜視図 第2の変形例に係り、ニューラルネットワークを含む判定システムの構成図
 以下、図面を参照しながら、本発明の実施形態を説明する。
 図1は、本発明の実施形態に係わる、内視鏡リプロセッサ1の斜視図である。図2は、本発明の実施形態に係わる、内視鏡リプロセッサ1の上面図である。図3は、本発明の実施形態に係わる、内視鏡リプロセッサ1の処理槽31に内視鏡Eを配置した状態を説明するための説明図である。
 内視鏡リプロセッサ1は、汚染された内視鏡E、及び、内視鏡Eの部品又は付属品等の再生処理を行う装置である。ここでいう再生処理とは、特に限定されるものではなく、水によるすすぎ、有機物等の汚れを落とす洗浄、所定の微生物を無効化する消毒、全ての微生物を排除、もしくは、死滅させる滅菌、又は、これらの組み合わせのいずれであってもよい。また、内視鏡リプロセッサ1を管状の医療機器であるダイレータ、または内視鏡シースなどの再生処理に用いることもできる。
 なお、以下の説明において、下方向が重力方向を示し、上方向が重力方向とは反対方向を示し、高低が重力方向に沿った高さ関係を示す。
 本実施形態では、内視鏡リプロセッサ1は、透過部であるカバーパネル13を有するカバーとしてのトップカバー11、リプロセッサ本体21及びトップカバー11に設けられた端末保持部111を有する。端末保持部111は、観察波を受信する観察端末Dを保持する。
 図1、2では、端末保持部111はトップカバー11の表面に配置されるように観察端末Dを保持しているが本発明はこれに限定されない。例えば、図17に示すように、観察端末Dはがトップカバー11から露出するようにトップカバー11の端に取り付けることも可能である。この場合、観察端末Dを保持するための端末保持部111は、例えば、トップカバー11の他端の端面に所定の角度を有して設けられる。
 トップカバー11は、裏面がリプロセッサ本体21の処理槽31に対向するように配置される。トップカバー11は、ヒンジ11aを中心とした回動によって処理槽31の開閉可能を行う。すなわち、トップカバー11は、一端がヒンジ11aによりリプロセッサ本体21に接続され、他端が一端を中心に回動する。閉状態になると、トップカバー11は、処理槽31を覆う。トップカバー11は、カバー枠12、透過部であるカバーパネル13、ガスフィルタ14、及び、指掛け部15を有する。トップカバー11にはジャイロセンサが設けられており、観察端末Eに角速度情報を送信できるようになっていてもよい。
 カバー枠12はトップカバー11の周縁部に周回するように設けられる。カバー枠12の材質は特に限定されないが、例えば金属または樹脂が挙げられる。カバー枠12は、裏面に、処理槽31の上縁部に沿って周回するように設けられたパッキン12aを有する。トップカバー11が閉状態になると、パッキン12aは、処理槽31の上縁部に密着する。
 カバーパネル13は、透光性を有する。カバーパネル13を構成する透過材としては、例えば樹脂またはセラミクス等が挙げられる。樹脂としては、耐薬性および可視光透過性を有するポリカーボネートが挙げられる。カバーパネル13は、カバー枠12の内側に設けられる。カバーパネル13は、特に限定されないが、一端側のドーム状に膨出した部位にカバー排気口13aを有していてもよい。
 ガスフィルタ14は、濾材収容容器と、濾材収容容器に収容された濾材とによって構成され、カバー排気口13aに着脱自在に取り付けられる。ガスフィルタ14は、上部にフィルタ排気口14aを有する(図2)。ガスフィルタ14は、カバー排気口13aから処理槽31内の気体を取り込み、脱臭等のフィルタリングが行われた気体を、フィルタ排気口14aから排出する。
 指掛け部15は、ユーザーが手指を掛けることができるように、カバー枠12の他端側に連設される。指掛け部15の内側には、留め具15aが設けられる。
 リプロセッサ本体21は、ロック部22、報知部としての表示部23、操作部24、給水ホース接続口25、通信部26、制御部27及び処理槽31を有する。
 ロック部22は、リプロセッサ本体21の上部の他端側に設けられる。ロック部22は、制御部27の制御の下、留め具15aを係止し、又は、留め具15aの係止を解除する。ロック部22が留め具15aを係止すると、トップカバー11は、閉状態でロックされる。ロック部22をフットパネル28に連結することで、フットパネルによって、留め具15aの係止を解除できるようにしてもよい。
 表示部23は、リプロセッサ本体21上部の他端側の隅部に設けられる。表示部23は、表示パネルを有し、制御部27の制御の下、ユーザーに各種の通知を行う。
 操作部24は、指示入力ボタンを有し、内視鏡リプロセッサ1に各種の指示入力が可能である。
 給水ホース接続口25は、給水チューブWを介して水道栓と接続される。
 通信部26は、制御部27と接続され、制御部27の制御の下、有線又は無線によって観察端末Dと通信できるように構成される。通信部26は、外部装置とネットワークを介して通信できるように構成してもよい。
 制御部27は、内視鏡リプロセッサ1内の各部を制御する。制御部27は、プロセッサ及びメモリを有し、メモリに記憶された各種プログラムを実行可能である。制御部27の機能は、メモリに記憶されたプログラムを読み込んで実行することによって実現される。
 制御部27は、通信部26を介して観察端末Dと接続する。観察端末Dから異常を示す判定結果が入力されたとき、制御部27は、ユーザーに異常を通知する。異常通知は、表示部23による警告表示であってもよいし、図示しないスピーカによる警告音の出力であってもよい。また、観察端末Dから異常を示す判定結果が入力されたとき、制御部27は、再生処理を停止するように制御してもよい。
 ここで、制御部27は、RFID(Radio Frequency IDentification)の読み取り装置27aに接続されている。読み取り装置27aは、例えば、リプロセッサ本体21上部の他端側において、処理槽31を挟んで表示部23の反対側の隅部に設けられている。
 この読み取り装置27aは、内視鏡EのスコープコネクタE4等に設けられたRFIDタグ(図示せず)との間で、電波や電磁波を用いて非接触で交信することが可能となっている。
 図3に示すように、処理槽31は、リプロセッサ本体21の上部に設けられる。図3に示すように、トップカバー11を開状態にすると、処理槽31は外部に露出する。処理槽31は、再生処理を行う内視鏡Eを収容し、洗浄液、消毒液、濯ぎ液等の液体を貯留することができるように、凹形状を有する。図2,3に示すように、処理槽31には、送気送水コネクタ32、保持網33、洗浄ケース34、水位計35、薬液ノズル36、給水循環ノズル37、循環口38、及び、排液口39を有する。
 処理槽31において、洗浄チューブTは、リプロセッサ本体21と内視鏡Eを接続する。洗浄チューブTは、内視鏡Eと接続される内視鏡側コネクタT1と、リプロセッサ本体21と接続されるプロセッサ側コネクタT2を有する。リプロセッサ側コネクタT2には、通液状態において液体が噴出する噴出口T3を有する。
 内視鏡Eは、例えば、内視鏡操作部E1と、内視鏡操作部E1から先端側に延出した細長形状を有する挿入部E2と、内視鏡操作部E1から延出するユニバーサルコードE3と、ユニバーサルコードE3の先端側に延設されたスコープコネクタE4を有する。内視鏡操作部E1及びスコープコネクタE4には、内視鏡側コネクタT1が接続される。
 送気送水コネクタ32は、処理槽31の壁に設けられる。送気送水コネクタ32には、リプロセッサ側コネクタT2が接続される。図3では、送気送水コネクタ32は、8つ表されるが、8つに限定されない。送気送水コネクタ32は、管路を介して循環口38と接続される。制御部27が循環ポンプを駆動すると、送気送水コネクタ32は、循環口38から取り込んだ液体を内視鏡Eに送水する。また、制御部27がエアコンプレッサを駆動すると、送気送水コネクタ32は、大気から取り込んだ空気を内視鏡Eに送気する。
 保持網33は、処理槽31の底部に取り付けられる。保持網の材質は特に限定されないが、例えば例えば金属又は樹脂が挙げられる。保持網33は、消毒水位の高さを示すマークを有する指標ピン33aと、内視鏡操作部E1を配置するための操作部受け部33bと、スコープコネクタE4を配置するためのスコープコネクタ受け部33cと、挿入部E2及びユニバーサルコードE3を掛けるためのフック33dとを有する。ユーザーは、内視鏡操作部E1を操作部受け部33bに配置し、スコープコネクタE4をスコープコネクタ受け部33cに配置し、挿入部E2及びユニバーサルコードE3をフック33dの内側を通るように巻き回す。ユーザーは、消毒水位を超えないように、指標ピン33aのマークよりも下方になるように、内視鏡Eを保持網33に保持させる。
 このような内視鏡Eのセッティング状態は、内視鏡Eの取扱い説明書或いは内視鏡リプロセッサ1の取扱い説明書等において、内視鏡Eの機種毎に指示されている。すなわち、内視鏡Eの適切な再生処理を行うため、各種内視鏡Eには、保持網33等に巻き回された各部(特に、挿入部E2等)を互いに密着させないように配置するための適切な配置状態が予め定められている。
 洗浄ケース34は、保持網33の中央部に取り付けられる。洗浄ケース34には、内視鏡Eから取り外された、送気送水ボタン、吸引ボタン、又は、キャップ等の付属品が収容される。洗浄ケース34の下部は、リプロセッサ本体21の底部に設けられた底部コネクタと接続される。洗浄ケース34は、制御部27の制御の下、底部コネクタから送気又は送水される。付属品は、特に限定されず、例えば、使用時に内視鏡Eに装着されて再生処理時に内視鏡Eから取り外される吸引ボタン、送気送水ボタン、または内視鏡Eの先端部を覆う先端カバーなどが挙げられる。
 水位計35は、洗浄槽内の液体の水位を確認し、確認結果を制御部27に出力する。
 薬液ノズル36は、処理槽31内の周縁部において一段高い位置に設けられたテラス部に設けられる。薬液ノズル36は、リプロセッサ本体21内の薬液タンクと接続し、制御部27の薬液ポンプの駆動によって薬液タンク内の薬液を処理槽31に吐出する。
 給水循環ノズル37は、テラス部に設けられる。給水循環ノズル37は、管路を介して循環口38と接続される。制御部27が循環ポンプを駆動すると、給水循環ノズル37は、循環口38から取り込んだ液体を処理槽31に吐出する。また、給水循環ノズル37は、制御部27の制御の下、給水ホース接続口25を介し、給水チューブWから供給された水を処理槽31に吐出する。
 循環口38及び排液口39の各々は、処理槽31の底部に設けられ、メッシュフィルタが装着される(図2)。循環口38は、処理槽31の液体を取り込む。排液口39は、外部排液手段と接続され、処理槽31の液体を外部に排出する。また、排液口39は、制御部27の制御の下、薬液タンクと接続可能である。排液口39を薬液タンクに接続すると、処理槽31において使用された薬液は、薬液タンクに回収される。
 内視鏡リプロセッサ1で使用される薬液は、例えば、過酢酸溶液である。過酢酸溶液は、内視鏡リプロセッサ1内において、給水チューブWから供給された水によって原液を希釈し、所定濃度に調製される。薬液は、薬液タンクに貯留され、内視鏡Eを消毒する際に、薬液ノズル36から処理槽31に吐出される。内視鏡Eの消毒に使用された後、薬液は、次回の再生処理に使用できるように、薬液タンクに回収される。薬液は、使用された日数及び回数に応じ濃度が低下する。
 端末保持部111は、トップカバー11における裏面側とは反対の表面側に設けられる(図2)。端末保持部の材質は特に限定されないが、例えば金属又は樹脂等が挙げられる。端末保持部111は、カバーパネル13を介して処理槽31内を観察可能な位置に観察端末Dを保持できるように構成される。すなわち、端末保持部111は、トップカバー11の外表面に配置される。
 図4は、本発明の第1実施形態に係わる、内視鏡リプロセッサ1の観察端末Dの前面図である。図5は、本発明の第1実施形態に係わる、内視鏡リプロセッサ1の観察端末Dの後面図である。
 図4及び図5に示すように、観察端末Dは、例えば、タブレット型の携帯情報端末である。観察端末Dは、観察部D1、制御部D3、および報知部D5を有する。好ましくは、観察端末Dは、観察部D2、通信部D4、外部接続コネクタD6またはジャイロセンサD7を有する。
 観察部D1は、観察端末Dの前面に設けられる。観察部D2は、観察端末Dの後面に設けられる。察部D1、D2として公知のカメラの構成を適用することができる。観察部D1、D2は、CMOS又はCCD等によって構成された撮像素子を有し、外部を撮像し、撮像画像を観察画像Pとして制御部D3に出力する。観察部D1、D2は、広角レンズを有してもよい。前記広角レンズは観察端末Dに固定されたものであってもよいし、観察端末Dに着脱可能なものであってもよい。
 すなわち、受信部である観察部D1は、処理槽31内で反射し、カバーパネル13を透過した光を受信する。ここでいう光は可視光に限定されず、遠赤外線、赤外線、または紫外線であってもよい。
 制御部D3は、プロセッサ及びメモリを有し、観察端末D内の各部の動作を制御する。
 制御部D3は、撮像画像または動画に基づいて内視鏡配置状態を判定してもよいし、観察端末Dは判定を行わず外部装置が判定をしてもよい。外部装置が判定を行う場合、後述の通信部D4または外部接続コネクタD6を通じて外部装置に撮像画像を出力する。ここでいう外部装置としては、スマートフォン、タブレット、パソコン、リプロセッサ、またはクラウドなどが挙げられる。
 また、制御部D3または外部装置による判定結果は、観察端末Dの表示部D3に出力してもよいし、外部装置に出力してもよい。判定結果の出力先の外部装置としては、スマートフォン、タブレット、パソコン、リプロセッサ、または警報装置が挙げられる。
 外部の装置に出力する例として、例えば、通信部D4は、通信部26と通信を行い、判定結果をリプロセッサ本体21の制御部27に出力する。制御部27は入力された判定結果の結果が「正しくない配置」であった場合、例えば、リプロセッサ本体21の表示部23に警告を表示する、または、操作部24をロックしてリプロセスを開始できないようにするなどのプログラムを実行することができる。
 表示部D5は、制御部D3の制御の下、表示パネルに各種情報を表示可能である。表示部D5は、判定結果を表示してもよい。表示部D5は、表示パネルにタッチパネルが重畳され、タッチ操作によって各種指示入力が可能である。
 外部接続コネクタD6は、観察端末Dを外部装置と電気的に接続する。外部接続コネクタD6としては例えばUSBコンセントが挙げられる。例えば、図7に示すように、外部接続コネクタD6は、着脱式のRFID読み取り装置40を、外部装置として接続することが可能である。
 ジャイロセンサD7は、圧電素子やシリコン振動子等によって構成され、観察端末Dの姿勢の変化等に応じて生ずる角速度を検出する。そして、ジャイロセンサD7は、検出した角速度を制御部D3に出力する。
 次に、このような構成の内視鏡リプロセッサ1における、内視鏡Eの配置状態判定方法について説明する。この内視鏡Eの配置状態判定は、例えば、図8に示す配置状態判定ルーチンのフローチャートに従って実行される。この配置状態判定ルーチンは、ユーザーによって処理槽31に内視鏡Eがセットされた後に、例えば、観察端末Dの制御部D3によって実行される。だたし、本発明はこれに限定されず、上述のとおり配置状態判定を外部の装置で実行してもよい。言い換えると本発明における判定部は、観察端末Dと一体であってもよいし、別体であってもよい。
 (実施例1)
 ルーチンがスタートすると、観察部は画像情報を取得する(S103、観察ステップ)。
 観察ステップの後に、制御部D3などの配置状態を判定する判定部は、図16に例示するように、画像情報を基に処理槽内の所定の部位33aを含む所定範囲A内に、内視鏡の所定の部位E2aが含まれるか否かを指標として、配置状態が適正か不適かを判定する(S108、判定ステップ)。
 図16では、処理槽内の所定の部位として保持網のピン33aを例示したが、本発明はこれに限定されず処理槽31内で定位置にあるものであれば利用可能である。処理槽内の所定の部位として、例えば、保持網のピン33a、保持網のフック33d、洗浄ケース34、水位計35、薬液ノズル36、図示されていない温度計などを用いることができる。
 図16では、所定範囲Aを円形で例示したが本発明はこれに限定されず、楕円、多角形などの他の形状であってもよいし、図15に例示するように二つの図形の重なり部分であってもよい。また所定範囲Aの大きさ、および形状は種類などの内視鏡情報に合わせて変更してもよい。内視鏡情報の取得方法については実施例1の変形例1に詳細を記す。所定範囲Aは1以上であればよく、図16に例示するように複数個所に設けてもよい。
 図16では、内視鏡の所定の部位E2aとして内視鏡の目盛線を例示したが、本発明はこれに限定されず、内視鏡先端などの内視鏡を構成するパーツであればいずれも用いることができる。
 判定ステップの後に、報知部が前記判定の結果を報知する(S111、報知ステップ)。報知部は、「適切な配置である」場合および「適切な配置でない」場合の両方を報知してもよいし、「適切な配置でない」場合のみ報知してもよい。後者の場合、判定の結果が「適切な配置である」場合はリプロセッサ1がリプロセスを許可する(S110)。ここでいう許可とは、リプロセッサが自動でリプロセスを開始することであってもよいし、リプロセッサの操作部24でリプロセススタートの操作ができるようになることであってもよい。
 報知部として判定機能と通信可能であり報知機能を有する装置であれば適宜用いることができる。例えば、リプロセッサ21に設けられた表示部23、または観察端末Dの表示部D5を用いることができる。
 報知部による報知は、視覚情報による報知であってもよいし、聴覚情報による報知であってもよいし、他の方法による報知であってもよい。
 (実施例1の変形例1)
 制御部D3は、画像情報を取得する(S103、観察ステップ)前に、ステップS101において、内視鏡Eの内視鏡情報を取得してもよいし、さらに、内視鏡Eの内視鏡情報が取得されているか否かを調べてもよい。
 ここで、内視鏡情報は、例えば、内視鏡EのスコープコネクタE4等に設けられたRFIDタグを、リプロセッサ本体21に設けられた読み取り装置27aによって読み取らせることにより、取得可能である。すなわち、ユーザーが読み取り装置27aにスコープコネクタE4等を近づけると、制御部27は、読み取り装置27aを通じて、内視鏡Eに関する情報(内視鏡情報)を取得する。制御部27は、取得した内視鏡情報を、通信部26と通信部D4との無線通信を通じて、観察端末Dに伝送する。これにより、制御部D3は、内視鏡情報を取得する。
 図1、2では処理槽31の外に読み取り装置27aが配置されているが本発明はこれに限定されず、読み取り装置27aは処理槽31内に配置されていてもよい。
 或いは、外部接続コネクタD6に読み取り装置40が接続されている場合、ユーザーが読み取り装置40にスコープコネクタE4等を近づけることにより、内視鏡Eに関する情報を、制御部D3が直接的に取得することも可能である。なお、読み取り装置は、観察端末Dに予め内蔵させることも可能である。
 或いは、内視鏡Eの特定の部位を観察部D1或いは観察部D2により撮像し、画像認識等によって認識した形状や識別番号から内視鏡Eの機種等を特定することにより、制御部D3は、内視鏡情報を取得することも可能である。
 或いは、制御部D3は、ユーザーが内視鏡情報を手入力または音声入力することにより内視鏡情報を取得することも可能である。
 或いは、制御部D3は、内視鏡診断時に外部装置のカルテに入力された情報を入手することにより内視鏡情報を取得することも可能である。
 ステップS101において、内視鏡情報が取得されていないと判定した場合、制御部D3は、そのまま待機する。一方、ステップS101において、内視鏡情報が取得されていると判定した場合、制御部D3は次のステップに進む。
 (実施例1の変形例2)
 ステップS101からステップS102に進んでもよい。ステップ102は、制御部D3は、内視鏡Eの配置状態の撮像を開始するためのトリガーが発生したか否かを調べる。ただし、S102を実施する代わりに常に撮像および判定を実施していてもよい。
 このトリガーとしては、例えば、ユーザーがトップカバー11を全開状態から閉方向に移動させた際に、ジャイロセンサD7からの角度等に基づいて算出される観察端末Dの姿勢を用いることが可能である。
 或いは、ユーザーが観察端末Dに対して音声入力を行った場合、制御部D3は、音声認識によって認識した所定のコマンドを、撮影開始のトリガーとすることも可能である。
 或いは、トップカバー11が所定角度回転する毎にオンとなるスイッチ(図示せず)をヒンジ11aに設け、このスイッチで発生するオン信号を撮影開始のトリガーとすることも可能である。この場合、制御部D3は、ヒンジ11aに設けたスイッチからの信号を、有線或いは無線によって受信することが可能である。
 或いは、制御部Dは、リプロセッサ本体21に設けられたユーザーがフットパネル28等の各種スイッチ類に所定の操作を行ったことをトリガーとすることも可能である。この場合、制御部D3は、ユーザーの操作によってリプロセッサ本体21側で発生した所定の信号を、通信部26と通信部D4との無線通信、または、有線通信によって受信することが可能である。
 或いは、制御部D3は、観察端末Dの表示部D5に表示された撮像ボタンをユーザーが押圧操作したことをトリガーとすることも可能である。
 ステップS102において、撮像開始のトリガーが発生していないと判定した場合、制御部D3は、そのまま待機する。一方、ステップS102において、撮像開始のトリガーが発生した判定した場合、制御部D3は、ステップS103に進み、処理槽31内に配置された内視鏡Eの配置状態を観察部D1または観察部D2によって撮像し、観察画像Pを取得する(観察ステップ)。
 (実施例1の変形例3)
 実施例1において、観察画像は1種以上であればよく、観察端末Dは異なる種類の複数の観察画像を撮像してもよい。複数の観察画像Pの取得については、各種撮像方法を用いることが可能である。
 異なる種類の複数の観察画像を撮像する方法として例えば、互いに異なる所定の波長(第1,第2の波長)の光を用いた撮像を行っても良い。ここでいう波長とは上述のとおり可視光性に限定されず、遠赤外線、赤外線、または紫外線も含む。波長を異ならせることにより、被写体および被写体周辺からの反射量、反射の位置が異なるので、波長違いの観察画像を対比することでハレーションによる不良画像を判定の対象から外すことができる。
 異なる種類の複数の観察画像Pを得る方法として例えば、異なる角度から処理槽31内を撮像しても良い。例えば、内視鏡Eを処理槽31にセットした後、トップカバー11を閉じる前から閉じた後までの間に2回以上観察画像を取得することで異なる角度から撮像した処理槽31内の画像を得ることができる。例えば、上述の観察端末Dまたはトップカバー11に配置されたジャイロセンサを利用し、制御部D3は、観察端末Dがトップカバー11の動きに応じて予め設定された所定角度に変化するタイミング毎に、撮像開始のトリガーを発生させることが可能である。この場合、トップカバーを閉じる速度が速くなりすぎないように観察端末Dまたは内視鏡リプロセッサ1でユーザーを音声誘導してもよいし、ヒンジ11aに早く閉じ過ぎない様にする公知の機構を搭載しておいてもよい。
 このように異なる種類の複数の観察画像Pを得るための処理は、例えば、図9に示すフローチャートに基づいて実現することが可能である。なお、図9において、図8と同様の処理については、同一のステップ番号を付している。ステップS103からステップS104に進むと、制御部D3は、ステップS103において撮像した観察画像Pが最終画像であるか否かを調べる。この最終画像とは、トップカバー11が全閉した状態において撮像した画像である(図14参照)。なお、本実施形態において、最終画像は、処理槽31を正対した状態にて撮像した画像である。
 そして、ステップS104において、今回撮像した観察画像Pが最終画像でないと判定した場合、制御部D3は、ステップS102に戻る。一方、ステップS104において、今回撮像した観察画像Pが最終画像であると判定した場合、制御部D3は、ステップS105に進む。なお、最終画像かどうかの判定はヒンジ11aの状態を内視鏡リプロセッサ1側で検知し、検知した信号を観察端末Dに送信することによっても判定することでも可能である。
 このようなステップS102からステップS104の処理が繰り返されることにより、制御部D3は、トップカバー11が閉じられる前から閉じられた後までの間に、異なる条件で撮像した観察画像Pを複数枚(少なくとも2以上)取得する。
 ステップS104からステップS105に進むと、制御部D3は、取得した複数の観察画像Pを比較することで、不良画像の除去を行うか、または判定用の画像を一つ選出する。すなわち、処理槽31がステンレス等の材料によって構成されている場合、観察画像Pを撮像した角度によっては、内視鏡Eの挿入部E2等が処理槽31の表面に映り込み、観察画像P上に虚像として現れる場合がある。また、室内灯の光などが処理槽で反射することより画像にハレーションが映り込み内視鏡像の一部が欠けることがある。そこで、制御部D3は、各角度から撮像した観察画像Pを比較することで、観察画像P上の不良画像を判定対象から外すことができる。
 (実施例1の変形例4)
 実施例1のステップS108の処理は、具体的には、例えば図11に示すサブルーチンに従って実行することが可能である。
 すなわち、制御部D3は、取得した複数の観察画像Pの中から、最後に取得した画像を抽出する(S301)。
 画像を抽出すると、制御部D3は抽出した画像上に、内視鏡Eの種類等に応じた1または2以上の所定範囲Aを評価領域として設定する(S302)。
 次に、制御部D3は、上述の実施例において示したように、所定範囲A内の評価を行う(S303)。
 その結果、全ての所定範囲Aにおける評価値が適正である場合、制御部Dは、内視鏡Eが適正な配置状態にあると判定して(S307)、サブルーチンを抜ける。
 一方、少なくとも何れかの所定範囲Aにおける評価値が適正でない場合、制御部Dは、現在抽出されている画像よりも1つ前に取得した画像を抽出し(S306)、ステップS302の処理に戻る。
 但し、現在抽出されている画像が最初に取得した画像である場合(S305の判定において「YES」の場合)、制御部Dは、処理槽31に配置されている内視鏡Eは不適切な配置状態にあると判定して、サブルーチンを抜ける。
 (実施例2)
 実施例1に例示する特定部位の配置に基づく判定(S108)に加えて、S108とは異なる判定方法を実施してもよい。
 例えば図9に例示するように、ステップS105の後に、制御部D3は、観察画像における特定色の割合に基づいて、処理槽31内に内視鏡Eが適切に配置されているか否かの判定を行ってもよい(S106)。
 この特定色の割合に基づく内視鏡の配置状態判定は、例えば、図10に示すサブルーチンに従って行われる。サブルーチンがスタートすると、制御部D3は、ステップS103の処理により取得した観察画像Pを抽出する。
 例えば、内視鏡Eの挿入部E2等が黒色であり、処理槽31などのその他の色が黒以外である場合、挿入部E2と処理槽31が映し出された評価領域A内の観察画像Pを2値化すれば(S202)、各評価領域A内において挿入部E2と処理槽31が占める割合は、画像中の二色の比を評価値として評価することによって大まかに把握することができる。従って、各種の内視鏡E(挿入部E2)が適切に配置されているときの二色の比を閾値としてそれぞれ求めておけば、制御部D3は、各閾値との各評価値との比較により、各評価領域A内において内視鏡Eが適切に配置されているか否かを評価することができる(S203)。画像上の内視鏡の色、および内視鏡以外の色については適宜選択することができ、例えば2値化処置により閾値以上は黒、閾値未満は白で表示するといった設定が可能である。
 二値化による判定は撮影した画像全体に対して実施してもよいし、画像のうち所定範囲に実施してもよい。所定範囲に実施する場合、2値化は、例えば画像の中心から外周に向けて所定の範囲に実施してもよいし、特定の指標から所定範囲の領域に対して実施してもよい。
 ステップS203からステップS204に進むと、制御部D3は、評価値が適正であったか否かを調べる。適正か否かの判定方法は内視鏡の種類、2値化の閾値などにより適宜設定することができる。例えば、内視鏡の色の割合が所定の割合以下であれば適正に配置されていると判定する。
 そして内視鏡の配置が適正であると判定した場合、図10に例示するように制御部D3は、ステップS207に進み、内視鏡Eは処理槽31内において適切な配置がなされていると判断した後、サブルーチンを抜けるフローにしてもよい。ただし、本発明はこれに限定されず、S106で内視鏡の配置が適正であると判定した後にS108を実行し、S106とS108との結果を複合して最終判断を行うフローであってもよい。
 図8のメインルーチンにおいて、ステップS106からステップS107に進むと、制御部D3は、ステップS106において、処理槽31内に内視鏡Eが適切に配置されていると判定されたか否かを調べる。
 そして、制御部D3は、ステップS106の処理により適切な配置でないと判定されていた場合には、ステップS107からステップS111に進み、リプロセッサ本体21の表示部23或いは観察端末Dの表示部D5を通じて警告を行った後、ルーチンを抜ける。
 一方、制御部D3は、ステップS106の処理により適切な配置であると判定されていた場合には、ステップS107から実施例1に記載のステップS108に進む。
(実施例3)
 配置状態が不適の場合、実施例1または実施例2の後に、報知部は、配置状態を適正にするための情報を報知してもよい。
 配置状態を適正にするための情報は視覚情報による報知であってもよいし、聴覚情報による報知であってもよいし、他の方法による報知であってもよい。視覚情報による報知として例えば、報知部上に正しい配置形態を示す方法や、実際の誤配置の部位と正しい配置形態のサンプル画像とを並べて示す方法などが挙げられる。聴覚情報による報知としては、ユーザーに手の位置を誘導しながら正しい配置に導く方法が挙げられる。
 (実施例4)
 内視鏡Eの配置状態の判定を、学習済みのニューラルネットワークを含む判定システム50を用いて行うことも可能である。ニューラルネットワークを用いた判定システムの例を図18に示す。
 この判定システム50は、例えば、制御部D3に構築されるものである。判定システム50は、変数取得部51と、判定パラメータ取得部52と、判定部としての複数のニューラルネットワーク53と、を有して構成されている。
 変数取得部51は、例えば、内視鏡Eの種類、内視鏡リプロセッサ1の種類、観察端末Dの種類、観察端末Dを配置した際の観察部の位置、観察部の種類、または、処理槽31内に配置される内視鏡Eの本数等からなる変数群が入力される。なお、この変数群を構成する全ての変数が変数取得部51に入力される必要はなく、変数取得部51に入力される変数としては、変数群から選択される少なくとも1種が入力されるものであってもよい。
 判定パラメータ取得部52は、例えば、変数取得部51に入力された変数に紐づく判定パラメータを生成し、該当するニューラルネットワーク53に出力する。すなわち、判定パラメータ取得部52は、例えば、変数群に基づいて1または2以上の該当するニューラルネットワーク53を特定し、当該ニューラルネットワーク53に対し、判定パラメータを出力する。ここで、ニューラルネットワーク53に出力する判定パラメータとしては、例えば、変数群に基づいて観察画像P上に設定された検知範囲Aの画素データを用いることができる。
 各ニューラルネットワーク53は、判定パラメータ取得部52からの判定パラメータが入力される入力層53aと、入力層53aに入力された判定パラメータに対する演算を行う中間層53bと、中間層53bの演算結果を出力する出力層53cと、を有して構成されている。
 ここで、中間層53bは、複数の人工ニューロンの配列を有して構成されている。各人工ニューロンには、予め行われた機械学習等によって、入力から出力の間に行われる演算の規則、及び、当該演算に用いられる複数の重み付け係数等が設定されている。
 そして、入力層53aに判定パラメータが入力されると、中間層53bは、各人工ニューロンにおいて演算を行うことにより、例えば、検知範囲Aについて、一致の確率90%(すなわち、内視鏡Eの配置が適正である確率90%)、或いは、一致の確率10%(すなわち、内視鏡Eの配置が不適正である確率10%)を得る。そして、この演算結果は、出力層53cにより出力される。
 このような構成においても、内視鏡リプロセッサ1の処理槽31に対し、内視鏡Eが適切な配置状態によって配置されているか否かの判定を的確に行うことができる。
 なお、述の実施形態においては、観察端末Dの制御部D3において、第1,第2の判定等を行う構成について説明したが、本発明はこれに限定されるものでなく、例えば、内視鏡リプロセッサ1に設けられた制御部27等によって行うことも可能である。
 また、制御部は、1個又は複数のプロセッサ、論理回路、メモリ、入出力インタフェース及びコンピュータ読み取り可能な記録媒体などからなるコンピュータで実現するようにしてもよい。その場合、各構成要素もしくは本体部全体の機能を実現するためのプログラムを記録媒体に記録しておき、記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。例えば、 プロセッサは、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、およびGPU(Graphics Processing Unit)の少なくとも1つである。例えば、論理回路は、ASIC(Application Specific Integrated Circuit)およびFPGA(Field-Programmable Gate Array)の少なくとも1つである。
 また、本発明は、以上説明した実施形態に限定されることなく、種々の変形や変更が可能であることは勿論である。

Claims (14)

  1.  内視鏡リプロセッサの処理槽に配置された内視鏡の配置状態の観察画像を観察部が取得する観察ステップと、
     前記観察画像を基に、判定部が前記処理槽内の所定の部位によって定義される所定範囲内に、内視鏡の所定の部位が含まれるか否かを判断基準として、前記配置状態が適正か不適かを判定する第1判定方法を少なくとも含む判定ステップと、
     少なくとも前記配置状態が不適であると判定された場合に報知部が前記判定の結果を報知する報知ステップと、
    を含むことを特徴とする内視鏡配置状態判定方法。
  2.  前記処理槽内の特定の部位は前記内視鏡を保持する保持網のピンであり、
     前記内視鏡の所定の部位は、挿入部の目盛線である
    ことを特徴とする請求項1に記載の内視鏡配置状態判定方法。
  3.  内視鏡情報読み取り部が内視鏡情報を取得する内視鏡情報取得ステップを含み、
     前記判定部は、前記所定の部位および前記所定範囲のうち
    少なくとも一方を前記内視鏡情報に基づいて変更する
    ことを特徴とする請求項1に記載の内視鏡配置状態判定方法。
  4.  前記観察ステップは、少なくとも二種の観察方法を含む
    ことを特徴とする請求項1に記載の内視鏡配置状態判定方法。
  5.  前記観察ステップは、
     前記観察部が第1の角度から前記被洗浄物の配置状態を観察する第1観察方法と、
     前記観察部が前記第1の角度とは異なる第2の角度から前記被洗浄物の配置状態を観察する第2観察方法と、を含む
    ことを特徴とする請求項4に記載の内視鏡配置状態判定方法。
  6.  前記内視鏡リプロセッサ本体に対して、前記カバーは一端が回転可能となるよう他端が固定されており、
     前記観察ステップは、
     前記カバー表面に前記観察部を配置し、
     前記カバーの開閉角度を変えることにより前記第1観察方法および前記第2観察方法を実施する
    ことを特徴とする請求項5に記載の内視鏡配置状態判定方法。
  7.  前記観察ステップは、
     第1波長の光を照射しつつ前記観察部が前記被洗浄物の配置状態を観察する第3観察方法と、
     前記第1波長とは異なる第2波長の光を照射しつつ前記観察部が前記被洗浄物の配置状態を観察する第4観察方法と、を含む
    ことを特徴とする請求項4に記載の内視鏡配置状態判定方法。
  8.  前記判定ステップは、少なくとも前記第1判定方法とは異なる第2判定方法を含む
    ことを特徴とする請求項1に記載の内視鏡配置状態判定方法。
  9.  前記第2判定方法は、
     前記観察情報から、少なくとも一部の特定の色の割合を算出し、
     前記特定の色の割合を閾値と比較する方法である、
    ことを特徴とする請求項8に記載の内視鏡配置状態判定方法。
  10.  内視鏡情報読み取り部が内視鏡情報を取得する内視鏡情報取得ステップを含み、
     前記判定部は、前記閾値を前記内視鏡情報に基づいて変更する
    ことを特徴とする請求項9に記載の内視鏡配置状態判定方法。
  11.  前記配置状態が不適の場合、
     前記報知部は、配置状態を適正にするための情報を報知する
    ことを特徴とする請求項1に記載の内視鏡配置状態判定方法。
  12.  変数を取得する変数取得部と、
     前記判定部が、前記変数に紐づく判定パラメータに基づいて前記判定を実行する
    ことを特徴とする請求項1に記載の内視鏡配置状態判定方法。
  13.  前記変数は、
     前記内視鏡の種類、前記内視鏡リプロセッサの種類、前記観察部の種類、および前記処理槽に配置される前記内視鏡の本数
     からなる群より選択される少なくとも1種である
    ことを特徴とする請求項12に記載の内視鏡配置状態判定方法。
  14.  機械学習された前記判定部に対して入力する前記判定パラメータを取得する判定パラメータ取得部を含む
    ことを特徴とする請求項12に記載の内視鏡配置状態判定方法。
PCT/JP2020/006308 2020-02-18 2020-02-18 内視鏡配置状態判定方法 WO2021166074A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022501440A JP7423739B2 (ja) 2020-02-18 2020-02-18 制御装置、内視鏡の配置状態判定方法、及び、プログラム
CN202080096754.5A CN115103623A (zh) 2020-02-18 2020-02-18 内窥镜配置状态判定方法
PCT/JP2020/006308 WO2021166074A1 (ja) 2020-02-18 2020-02-18 内視鏡配置状態判定方法
US17/888,682 US20220392102A1 (en) 2020-02-18 2022-08-16 Control apparatus, endoscope positioning state determination method, and non-transitory recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/006308 WO2021166074A1 (ja) 2020-02-18 2020-02-18 内視鏡配置状態判定方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/888,682 Continuation US20220392102A1 (en) 2020-02-18 2022-08-16 Control apparatus, endoscope positioning state determination method, and non-transitory recording medium

Publications (1)

Publication Number Publication Date
WO2021166074A1 true WO2021166074A1 (ja) 2021-08-26

Family

ID=77390689

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/006308 WO2021166074A1 (ja) 2020-02-18 2020-02-18 内視鏡配置状態判定方法

Country Status (4)

Country Link
US (1) US20220392102A1 (ja)
JP (1) JP7423739B2 (ja)
CN (1) CN115103623A (ja)
WO (1) WO2021166074A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114173700A (zh) * 2019-06-20 2022-03-11 美涤威公司 具有孔口的内窥镜储存托盘和使用方法
CN114126530A (zh) 2019-06-20 2022-03-01 美涤威公司 内窥镜储存推车、系统和方法
EP4110225A4 (en) 2020-02-25 2024-03-13 Medivators Inc STACKABLE ENDOSCOPE TRAY AND METHOD OF USE
CN116350153B (zh) * 2023-05-04 2023-09-01 字节医云(北京)科技应用有限公司 一种rfid内窥镜跟踪建议系统及方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS649603U (ja) * 1987-07-04 1989-01-19
JPH10296194A (ja) * 1997-04-25 1998-11-10 Mitsubishi Kakoki Kaisha Ltd ノズル噴射式洗浄装置及びノズル噴射式洗浄方法
JP2002272684A (ja) * 2001-03-16 2002-09-24 Olympus Optical Co Ltd 内視鏡洗滌装置と洗滌情報付き内視鏡
JP2009066291A (ja) * 2007-09-14 2009-04-02 Fujifilm Corp 内視鏡洗浄システム
JP2011193982A (ja) * 2010-03-18 2011-10-06 Fujifilm Corp 内視鏡リプロセス装置の履歴管理システム
JP2013106790A (ja) * 2011-11-21 2013-06-06 Olympus Medical Systems Corp 内視鏡洗浄消毒装置
JP2014226153A (ja) * 2013-05-17 2014-12-08 オリンパスメディカルシステムズ株式会社 内視鏡用保持網、及びそれを備える内視鏡用リプロセス装置
WO2017188044A1 (ja) * 2016-04-25 2017-11-02 オリンパス株式会社 内視鏡再生処理具
JP2018153872A (ja) * 2017-03-15 2018-10-04 ファナック株式会社 洗浄工程最適化装置及び機械学習装置
WO2019087599A1 (ja) * 2017-10-31 2019-05-09 オリンパス株式会社 内視鏡洗浄作業支援装置、内視鏡洗浄作業支援装置の作動方法、及び内視鏡洗浄作業支援プログラム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS649603U (ja) * 1987-07-04 1989-01-19
JPH10296194A (ja) * 1997-04-25 1998-11-10 Mitsubishi Kakoki Kaisha Ltd ノズル噴射式洗浄装置及びノズル噴射式洗浄方法
JP2002272684A (ja) * 2001-03-16 2002-09-24 Olympus Optical Co Ltd 内視鏡洗滌装置と洗滌情報付き内視鏡
JP2009066291A (ja) * 2007-09-14 2009-04-02 Fujifilm Corp 内視鏡洗浄システム
JP2011193982A (ja) * 2010-03-18 2011-10-06 Fujifilm Corp 内視鏡リプロセス装置の履歴管理システム
JP2013106790A (ja) * 2011-11-21 2013-06-06 Olympus Medical Systems Corp 内視鏡洗浄消毒装置
JP2014226153A (ja) * 2013-05-17 2014-12-08 オリンパスメディカルシステムズ株式会社 内視鏡用保持網、及びそれを備える内視鏡用リプロセス装置
WO2017188044A1 (ja) * 2016-04-25 2017-11-02 オリンパス株式会社 内視鏡再生処理具
JP2018153872A (ja) * 2017-03-15 2018-10-04 ファナック株式会社 洗浄工程最適化装置及び機械学習装置
WO2019087599A1 (ja) * 2017-10-31 2019-05-09 オリンパス株式会社 内視鏡洗浄作業支援装置、内視鏡洗浄作業支援装置の作動方法、及び内視鏡洗浄作業支援プログラム

Also Published As

Publication number Publication date
US20220392102A1 (en) 2022-12-08
JPWO2021166074A1 (ja) 2021-08-26
JP7423739B2 (ja) 2024-01-29
CN115103623A (zh) 2022-09-23

Similar Documents

Publication Publication Date Title
WO2021166074A1 (ja) 内視鏡配置状態判定方法
EP3555869B1 (en) Method for the disinfection and the quality control of the disinfection of the hands of a user and apparatus for carrying out the method
JP2020513279A5 (ja)
JP6898869B2 (ja) 口臭を検出するためのシステムおよび方法
TW200939134A (en) Imaging apparatus and method for authentication of user
KR102287364B1 (ko) 인공신경망을 이용하여 캡슐형 내시경 영상에서 병변을 감지하는 시스템 및 방법
US11074690B2 (en) Method for enhancing the visibility of blood vessels in color images and visualization systems implementing the method
CN111265683A (zh) 一种具备检测消毒功能的通道及检测消毒方法
CN109074421A (zh) 自动人员识别和定位以及自动流程监视
JP6929448B2 (ja) 内視鏡リプロセッサ
CN107847147A (zh) 用于获取个人健康信息的装置及其方法
CN109922705A (zh) 内窥镜、内窥镜的线材安装方法以及内窥镜的线材拆卸方法
JP2010017411A (ja) 内視鏡洗浄機管理システム
JP2013039224A (ja) 煙検出方法および装置並びに画像撮像装置
TWI764315B (zh) 舌象檢測裝置
US20210137357A1 (en) Digital device facilitating body cavity screening and diagnosis
JP7386966B2 (ja) 内視鏡汚れ検知装置、制御装置及び内視鏡汚れ検知方法
JP7335157B2 (ja) 学習データ作成装置、学習データ作成装置の作動方法及び学習データ作成プログラム並びに医療画像認識装置
JP2023540579A (ja) ポリープの画像を識別するためのシステム及び方法
JP2010042206A (ja) 医療機器管理システム
JP7486385B2 (ja) 内視鏡使用支援システム
WO2023218523A1 (ja) 第2の内視鏡システム、第1の内視鏡システム、および内視鏡検査方法
JP4464526B2 (ja) 内視鏡装置の操作システム
WO2023038004A1 (ja) 内視鏡システム、医療情報処理装置、医療情報処理方法、医療情報処理プログラム、及び記録媒体
CN105899123B (zh) 用于内窥镜的视频处理器和具有该视频处理器的内窥镜系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20919885

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022501440

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20919885

Country of ref document: EP

Kind code of ref document: A1