WO2023148857A1 - 情報出力方法および情報出力装置 - Google Patents

情報出力方法および情報出力装置 Download PDF

Info

Publication number
WO2023148857A1
WO2023148857A1 PCT/JP2022/004106 JP2022004106W WO2023148857A1 WO 2023148857 A1 WO2023148857 A1 WO 2023148857A1 JP 2022004106 W JP2022004106 W JP 2022004106W WO 2023148857 A1 WO2023148857 A1 WO 2023148857A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
image
inference
unit
image frame
Prior art date
Application number
PCT/JP2022/004106
Other languages
English (en)
French (fr)
Inventor
大 伊藤
浩一 新谷
優 齋藤
祐介 山本
貴行 清水
修 野中
賢一 森島
学 市川
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to PCT/JP2022/004106 priority Critical patent/WO2023148857A1/ja
Publication of WO2023148857A1 publication Critical patent/WO2023148857A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof

Definitions

  • the present invention relates to an information output method and an information output device for outputting information by associating relevant information with image frames sequentially obtained from an imaging device in a medical device such as an endoscope having an imaging device.
  • Patent Literature 1 describes an acquisition unit that acquires a first medical image, a second medical image that is reduced in information amount from the first medical image, and an auxiliary information that is acquired from the first medical image. is extracted, a second medical image and auxiliary information are input, and a diagnosis support apparatus is proposed that includes a processing unit that infers a disease. According to this diagnostic support apparatus, anomalies can be efficiently detected based on high-resolution three-dimensional images such as X-ray CT images using techniques such as machine learning.
  • Patent Document 1 it is known to extract auxiliary information from image information and perform processing using the image information and the auxiliary information.
  • image information and auxiliary information are used together. has not been disclosed.
  • the present invention has been made in view of such circumstances, and is an information output method capable of distinguishing between outputting only image information and outputting image information and related information (auxiliary information) together. and an information output device.
  • an information output method for achieving the above object comprising the steps of acquiring image data constituting image frames from an imaging unit in time series; and outputting to an inference unit to infer a particular object imaged in the corresponding image frame; and outputting the inference result of the object for display and/or recording; and outputting the related information obtained at the timing of acquiring the image frame, and outputting the related information corresponding to the image data of the image frame by communication between the imaging unit and the processing unit. to the inference unit.
  • An information output method is the information output method according to the first invention, wherein the determination as to whether or not to input the related information to the inference section is determined according to the ID information of the inference section.
  • An information output method is the information output method according to the first invention, wherein the related information is parameter information used when the image data is processed into displayable and/or recordable image frame information.
  • An information output method comprises an image frame information acquisition step of sequentially acquiring image frame information from an imaging device provided in an endoscope, and image processing the image frame information into visible display information. an image output step of outputting the image-processed visible display information to the outside; a related information acquisition step of sequentially acquiring related information corresponding to the sequentially acquired image frame information; a request signal acquiring step of acquiring a request signal relating to acquisition of the related information from an inference unit that performs inference using the image frame information; display information corresponding to the image frame information according to pass/fail judgment of the request signal; and a related information output step of outputting related information together with the frame.
  • An information output method is the information output method according to the fourth aspect, wherein the related information includes information on the number of the image frame, information on the position in the image frame, and information on the object detected in the image frame. , at least one of information on an object not shown in the image frame.
  • An information output method is the method according to the fourth aspect, wherein the related information includes RAW image information of the image sensor, image information not used in the image processing, and image pickup lens for the image sensor. At least one of optical information and operation information of the endoscope.
  • An information output method is the information output method according to the fourth aspect, wherein the ID information of the inference unit is further acquired in the request signal acquisition step, and information related to the ID information is acquired in the related information output step. is output together with the display information.
  • An information output method is the information output method according to the fourth invention, wherein the pass/fail determination of the request signal includes determining an output partner of the image frame and related information of the image frame, and determining whether the output partner has a contractual relationship with the output partner. and, based on the results of this check, decide whether to accept the request.
  • An information output method is the information output method according to the fourth aspect, in which, as a result of the pass/fail judgment, if there is a contractual relationship with the output partner, the image frame and the image frame are output according to the request signal. , and when there is no contractual relationship with the output partner, only the image frame is output.
  • An information output method according to a tenth aspect of the present invention is the fourth aspect, further comprising the steps of: outputting presence/absence of additional related information; and inputting a request for additional related information.
  • An information output device comprises an image frame information acquisition unit for sequentially acquiring image frame information from an imaging element provided in an endoscope, and image processing the image frame information into visible display information. an image output unit for outputting the image-processed visible display information to the outside; a related information acquisition unit for sequentially acquiring related information corresponding to the sequentially acquired image frame information; a request signal acquisition unit that acquires a request signal relating to acquisition of the related information from an inference unit that performs inference using the image frame information; display information corresponding to the image frame information according to pass/fail determination of the request signal; and an output unit for outputting related information together with the image frame.
  • An information output method comprises a step of sequentially acquiring image frame data from an imaging device provided in an imaging device, a step of image processing the image frame data into visible display information, and an image processing.
  • an image output step of outputting the obtained visible display information for display on an external display; a step of sequentially acquiring related information corresponding to the image frame information sequentially acquired from the imaging device; a step of acquiring a request signal relating to acquisition of the related information from an inference device that performs inference using the information; and a step of outputting the image frame and the related information together with the image frame according to pass/fail judgment of the request signal.
  • An information output method is an information output method for inferring information included in image data and displaying the inference result, wherein the step of sequentially acquiring image data from an imaging device provided in an imaging device; an image data output step of outputting the image data for display and/or recording on an external display; and a step of obtaining a request signal for obtaining the image data from an inference device that performs inference using the image data.
  • the request signal includes ID information of the inference device, and the image data output step outputs the image data together with the ID information of the inference device inferred using the image data.
  • An information output method comprises the step of acquiring image data constituting image frames from an imaging unit in time series, and a processing unit receiving the image data through communication with the imaging unit, and inferring a specific object captured in the corresponding image frame; and outputting the inference result of the object for display and/or recording. and inputting the related information corresponding to the image data of the image frame to the inference unit through communication between the imaging unit and the processing unit. and determining whether to display and/or record the inference results obtained by the method.
  • An information output method is, in the fourteenth aspect, in which the inference result obtained by inputting the related information and the inference result obtained without inputting the related information are displayed and displayed separately. / or record.
  • an information output method and an information output device capable of separately outputting when only image information is output and when outputting image information and related information together.
  • FIG. 1 is a block diagram mainly showing an electrical configuration of an endoscope system according to a first embodiment of the present invention
  • FIG. It is a flow chart which shows the imaging operation of the endoscope system concerning a 1st embodiment of the present invention. It is a figure explaining inference using image information and related information in the endoscope system concerning a 1st embodiment of the present invention.
  • FIG. 4 is a block diagram mainly showing an electrical configuration of an endoscope system according to a second embodiment of the present invention; It is a flow chart which shows the imaging operation of the endoscope system concerning a 2nd embodiment of the present invention. It is a flowchart which shows the 2nd inference operation
  • FIG. 11 is a block diagram mainly showing an electrical configuration of an endoscope system according to a third embodiment of the present invention; It is a flow chart which shows the imaging operation of the endoscope system concerning a 3rd embodiment of the present invention.
  • FIG. 11 is a block diagram mainly showing an electrical configuration of an endoscope system according to a fourth embodiment of the present invention; It is a flow chart which shows the imaging operation of the endoscope system concerning a 4th embodiment of the present invention.
  • This endoscope system comprises an endoscope apparatus 10 having an imaging section provided in an insertion section inserted into a human body, and a processing apparatus 20 which receives image information output from the imaging section and performs image processing. Configured.
  • the endoscope device 10 when the endoscope device 10 outputs image information to the processing device 20, it is possible to output related information related to this image information. Whether or not to output the related information is determined based on the authentication signal recorded in the recording unit of the endoscope device 10 and/or the processing device 20 . That is, the endoscope device 10 can output the relevant information to the processing device 20 only when it is authenticated in advance. Alternatively, even if the endoscope device 10 outputs image information with related information, if the processing device 20 is not authenticated in advance, the related information cannot be extracted from the image information with related information.
  • the related information is used by the processing device 20 when performing inference, image processing, and the like.
  • Related information is a type of information that, when acquired in addition to an image, enables AI to perform more sophisticated and high-performance processing.
  • Related information is information that is related to image data for image display but does not particularly affect the reproduction of the image itself.
  • the related information may be parameter information used when image data is processed into displayable or recordable image frame information.
  • the related information may be information about the number of the image frame, information about the position in the image frame, information about the object detected in the image frame, or information about the object not shown in the image frame.
  • the related information may include RAW image information of an image pickup device, image pickup information not used for image processing, optical information of an image pickup lens in an image pickup unit, operation information of an endoscope, and the like.
  • the related information may be acquired from another device instead of the endoscope device 10 itself, as long as it is related to the image data of the image frame. That is, the related information may originate from other than the endoscope apparatus 10 .
  • the processing device 20 can perform more accurate inference and image processing.
  • the related information it is determined whether or not the related information can be used based on the authentication signal (also called request signal). This is because outputting unnecessary related information in the processing device 20 imposes a processing load, so that the related information is output based on the authentication signal when necessary. Further, in providing related information, there are cases where a contractual relationship is required, and an authentication signal (request signal) may be output when it is confirmed that there is a contractual relationship.
  • the authentication signal also called request signal
  • FIG. 1 This endoscope system comprises an endoscope device 10 and a processing device 20 .
  • the endoscope apparatus 10 has a control section 11 , an imaging section 12 , an image processing section 13 , a communication section 14 , a recording section 15 , a related information section 16 and a clock section 17 .
  • Each block and the like in the endoscope device 10 is equipped with the same hardware as the terminal device, assuming that it can be separated from the endoscope device 10 and used as another device, so to speak, as an IoT device. example. However, if the endoscope apparatus 10 cooperates with the processing apparatus 20 to share roles, some functional blocks can be omitted.
  • the endoscope device 10 has a portion for an insertion section made of a long cylindrical tube for observing the inside by inserting it into a cavity or a tubular object, and this insertion section has flexibility. There are things and things that don't have. Further, an imaging section 12 is often provided at the distal end of the insertion section.
  • the imaging section 12 is assumed to be a portion having an imaging section, a light source section, an operation section, and a treatment section.
  • the imaging unit includes an imaging optical lens, an imaging element, an imaging control circuit, and the like.
  • an optical lens forms an optical image of an object.
  • the imaging device is arranged near a position where an optical image is formed, converts the optical image into an image signal, and outputs the image signal to the image processing unit 13 after AD conversion.
  • the imaging control circuit Upon receiving an imaging start instruction from the control unit 11, the imaging control circuit performs readout control of image signals from the imaging element at a predetermined rate.
  • the imaging unit 12 functions as an image frame information acquisition unit (acquisition circuit) that sequentially acquires image frame information from an imaging device provided in the endoscope.
  • the imaging element in the imaging unit 12 functions as an imaging element that is provided in the endoscope and sequentially acquires image frame information.
  • the light source unit in the imaging unit 12 provides illumination for illuminating the gastrointestinal tract wall and the like in the body cavity in order to facilitate observation.
  • the light source section includes light sources such as a laser light source, an LED light source, a xenon lamp, and a halogen lamp, and has an optical lens for illumination. Since the tissue detection characteristics change according to the wavelength of the illumination light, it may have a function of changing the wavelength of the light source, and a method of changing the image processing according to the change of the wavelength is also known. Detection does not necessarily have to be done visually by a physician.
  • the operation unit in the imaging unit 12 includes operation members for instructing imaging of endoscopic still images, and instructions for starting and ending imaging of endoscopic moving images, operation units that operate in relation to operations, and treatment devices. part, function execution part, etc. It also has an operation member for giving an instruction to switch the focus of the endoscopic image.
  • the operation section in the imaging section 12 has an operation angle knob for bending the distal end of the insertion section of the endoscope. It also has a function execution unit for executing a function of supplying air/water into the body cavity through the flexible tube and a function of sucking air or liquid.
  • the treatment section has a function execution section such as a treatment tool such as a biopsy forceps for performing a biopsy to take a part of the tissue, and a snare, a high-frequency scalpel, etc. for removing an affected part such as a polyp. have treatment tools.
  • a function execution unit (which may be broadly classified as an operation unit) such as these treatment tools can be operated by an operation member that operates the function execution unit.
  • the image processing unit 13 has an image processing circuit, receives an image signal from the image pickup unit 12, performs various image processing such as development processing according to instructions from the control unit 11, and outputs the image signal to the communication unit 14 and the recording unit. Output to 15.
  • the image processing in the image processing unit 13 includes adjustment of the color and brightness of the image, enhancement processing such as contrast enhancement and edge enhancement for improving visibility, and gradation processing for natural gradation. Furthermore, processing such as multiple-frame synthesis such as HDR (High Dynamic Range) processing and super-resolution processing for improving image quality using a plurality of image frames may be performed.
  • the image processing unit 13 functions as an image processing unit (image processing circuit) that processes image frame information into visible information.
  • the image processing unit 13 may be omitted from the endoscope apparatus 10 by entrusting the above functions to the image processing unit 23 in the processing device 20 .
  • the endoscope device 10 requires independence as an IoT device, providing the image processing unit 13 in the endoscope device 10 increases the degree of freedom, such as enabling image transmission to the outside. be able to.
  • the communication section 14 has a communication circuit and performs various communications with the communication section 22 in the processing device 20 .
  • Various types of communication include, for example, SDI (Serial Digital Interface), which can transmit uncompressed digital video signals with a single coaxial cable, and high-quality video and audio exchange between digital home appliances and AV equipment.
  • HDMI registered trademark
  • High-Definition Multimedia Interface High-Definition Multimedia Interface
  • the endoscope apparatus 10 does not include the image processing unit 13
  • the LVDS system that transmits data at high speed using a low-amplitude differential signal and supports a long transmission distance can be used.
  • (Low voltage differential signaling) or other serial interface communication method may be used to transmit the signal of the imaging unit 12 to the subsequent device.
  • the communication unit 14 transmits image data representing an observation image of the inside of the body cavity processed by the image processing unit 13 to the processing device 20 (see S5 in FIG. 2 described later).
  • the processing device 20 displays an image of the inside of the body cavity on the display unit 24 based on this image data.
  • related information auxiliary information
  • the related information is associated with the image data and transmitted to the processing device 20 .
  • image data of a moving image is transmitted, information indicating the frame of the moving image is attached and transmitted, and if there is related information, it may be associated with the frame information.
  • the frame information may be information indicating the order of image frames (capture frames), or information indicating time such as date and time information at the time of imaging.
  • the communication unit 14 receives a request signal or the like from the processing device 20 (see S7 and S9 in FIG. 2 described later).
  • the communication unit 14 is connected so as to communicate only with the communication unit 22 of the processing device 20; information such as image data may be transmitted to the box 40).
  • a device other than the processing device 20 can receive the image data and display an image based on this image data on the display.
  • the external device makes an inference or the like that is different from the intention at the time of development of the endoscope device 10, the result cannot be explained. For example, if an inference model obtained by deep learning becomes a black box, the problem of not knowing the basis of the inference may arise.
  • the communication destination of the communication unit 14 may be a mobile terminal such as a smartphone or an information terminal such as a PC.
  • the information terminal which is the device or device of the communication destination, uses its own application to process the endoscopic image, reason using the endoscopic image, control, operation assistance, and control and assistance of the treatment section and the function execution section. Since it is possible that responsibility for compliance in these cases lies ambiguous, it is desirable to deal with such ambiguity.
  • the communication unit 14 functions as an image output unit (image output circuit) that outputs image-processed visible information to the outside.
  • the communication unit 14 functions as a request signal acquisition unit (input circuit, acquisition circuit) that acquires a request signal regarding acquisition of related information from the inference device.
  • the communication unit 14 functions as an output unit (information output circuit) that outputs image frame information and information related to the image frame in accordance with the acceptance/rejection determination of the request signal.
  • the recording unit 15 has an electrically rewritable nonvolatile memory. This recording unit 15 records the image data output by the image processing unit 13 . Further, the recording unit 15 can record authentication data 15a. This authentication data 15a is used for authentication when the endoscope apparatus 10 or the processing apparatus 20 is permitted to output image data in association with related information (auxiliary information) to an external apparatus. The data 15 a for use is recorded in the recording unit 15 . For example, when there is a contractual relationship between the owner or manufacturer of the endoscope device 10 or the processing device 20 and the owner or manufacturer of the external device, the authentication data 15a is recorded. You may make it record on the part 15. FIG. Moreover, in order not to impose an unnecessary load on the processing, if it is desired not to output the related information, the authentication data 15a may not be recorded. Further, information for controlling the control unit 11 may be recorded in the recording unit 15 .
  • the related information unit 16 acquires related information (auxiliary information) and outputs the acquired related information to the communication unit 14 and the control unit 11 .
  • the related information includes, for example, RAW image information of an image pickup device, image pickup information not used for image processing, optical information of an image pickup lens in an image pickup unit, endoscope operation information, and the like.
  • Related information is associated with the image data processed by the image processing unit 13 . In this case, the related information is associated with the image data for each image frame.
  • the related information unit 16 functions as a related information acquisition unit (acquisition circuit) that sequentially acquires related information from the endoscope, corresponding to the sequentially acquired image frame information.
  • the clock unit 17 generates a clock signal and outputs time information such as date and time information.
  • This time information is used as information indicating when each frame of the image data output from the imaging unit 12 is captured. For example, if date and time information is attached to an image frame, it can be known when the image frame was captured.
  • the control unit 11 is a processor having a CPU (Central Processing Unit), etc., its peripheral circuits, memory, etc. This processor may be one or may be composed of multiple chips.
  • the CPU executes the entire endoscope apparatus 10 by controlling each section in the endoscope apparatus 10 according to the programs stored in the memory.
  • Each unit in the endoscope apparatus 10 is implemented by software control by the CPU. Further, the control unit 11 may operate in cooperation with the control unit 21 in the processing device 20 so that the endoscope device 10 and the processing device 20 operate together.
  • the control unit 11 has an imaging start readout control unit 11a and a frame information unit 11b.
  • the functions of the imaging start readout control section 11a and/or the frame information section 11b may be implemented in software by a program, or may be implemented in hardware.
  • the imaging start readout control unit 11a instructs the imaging unit 12 to start imaging, and starts image readout control.
  • the frame information section 11b generates frame information indicating the position of the frame in the moving image data output from the imaging section 12 . Since the image data is read out at a predetermined rate, the frame information may be the frame number from the start of imaging or the frame number from the end of imaging. A frame number from the reference time point may be used. Further, frame information may be generated not for each frame, but may be generated for a plurality of frames.
  • the processing device 20 receives image data and the like acquired by the endoscope device 10, displays an observation image on the display unit 24 based on the image data, and displays advice for medical examination/diagnosis support. .
  • the processing device 20 also records these image data and the like.
  • the display unit itself may not be provided in the processing device 20 but may be performed by an external device, and the recording unit may also be provided in the external device for recording. In this case, the processing device 20 may control these display processing and recording processing.
  • the processing device 20 has a control unit 21 , a communication unit 22 , an image processing unit 23 , a display unit 24 , a recording unit 25 , an inference unit 26 and a clock unit 27 .
  • the communication section 22 has a communication circuit and performs various communications with the communication section 14 in the endoscope device 10 .
  • the communication unit 22 receives image data representing an observation image of the inside of the body cavity processed by the image processing unit 13 from the endoscope apparatus 10, outputs the image data to the image processing unit 23, and performs image processing.
  • the unit 23 performs image processing so that the image data can be displayed on the display unit 24 , and transmits this image data to the display unit 24 .
  • the display unit 24 is provided inside the processing device 20 in FIG. 1, it may be provided outside the processing device 20 and hung on a wall or placed on a desk according to user convenience. may be used as In this case, a communication section may be interposed between the image processing section 23 and the display section 24 in the same manner as the communication section 14 and the communication section 22 .
  • the description is omitted for the sake of simplicity of explanation.
  • the communication unit As a communication method used by the communication unit provided between the image processing unit 23 and the display unit 24 (not shown), for example, SDI (Serial Digital Interface) capable of transmitting an uncompressed digital video signal with a single coaxial cable, , HDMI (registered trademark) (High-Definition Multimedia Interface) known as an interface for exchanging high-quality video and audio between digital home appliances and AV equipment, etc., as described above.
  • SDI Serial Digital Interface
  • HDMI registered trademark
  • High-Definition Multimedia Interface High-Definition Multimedia Interface
  • the CAD box 40 which is an external device, may use the communication data (image data) to perform some processing or determination. may be displayed on the display unit 24 .
  • This display unit may be a television for consumer use, a monitor for a personal computer, or the like. It is also possible that the CAD box has similar displays and warnings.
  • the communication unit 22 outputs the received image data to the inference unit 26 .
  • the inference unit 26 makes an inference for giving advice based on the image data, and the inference result is transmitted to the image processing unit 23 through the control unit 21, and the advice is superimposed on the image.
  • the communication unit 22 transmits a request signal to the endoscope apparatus 10 when using related information (auxiliary information). (see S7 in FIG. 2 to be described later).
  • the image processing unit 23 performs image processing on the image data acquired by the communication unit 22.
  • the image processing here may be, for example, image processing for superimposing the inference result on the image of the inside of the body cavity, as described above. Further, image processing for displaying on the display unit 24 is performed.
  • the display unit 24 has a display for display, a display control circuit, etc., and displays the image processed by the image processing unit 23 . As described above, the display unit 24 may not be provided in the processing device 20, and the observation image may be displayed by an external display device. In addition, the display unit 24 may display an image of the inside of the body cavity recorded in the recording unit 25 . In addition, the display unit 24 may display the inference result of the inference unit 26, for example, advice for examination/diagnosis support.
  • the recording unit 25 has an electrically rewritable nonvolatile memory. This recording unit 25 records the image data output by the image processing unit 23 . Also, the recording unit 25 can record authentication data 25a.
  • the processing device 20 is capable of outputting image data to an external device (for example, the CAD box 40) and is permitted to output related information (auxiliary information) in association with the image data. In this case, the permission may be recorded in the authentication data 25a.
  • the processing device 20 is capable of outputting image data to an external device (for example, the CAD box 40) and is permitted to output related information (auxiliary information) in association with the image data.
  • the permission may be recorded in the authentication data 25a.
  • the external device for example, the CAD box 40
  • the fact that it is permitted may be recorded in the authentication data 25a.
  • the recording unit 25 may record related information (auxiliary information) in association with the image data of the image frames.
  • Teacher data may be created using this recorded image data with associated information, and learning may be performed using this teacher data to generate an inference model.
  • the relevant information is embedded in the image data and the relevant information can be read out, it is possible to generate an inference model with high reliability and high performance that incorporates the relevant information.
  • the recording unit 25 may record the inference result of the inference unit 26 .
  • the inference result may be recorded in association with the image data of the image frame.
  • the recording unit 25 may record it together with the inference source (ID information).
  • ID information When an inference result is input from the second inference unit 36, which will be described later, it may be recorded in the same manner. That is, when recording the inference result, it is preferable to record as evidence which inference part is the inference source (ID information).
  • the recording unit 25 clarifies and records the relationship between what kind of inference result was inferred by which inference model.
  • the information of the result of inference using the image frame corresponding to the image data and the information of the inference model used for the inference may be recorded in association with the image data.
  • the inference result may be displayed, for example, in a frame display that is superimposed on the screen (can be converted into data with on-screen position information, on-screen coordinate information, etc.) , In this case as well, it is better to display together which inference model made the inference.
  • each inference unit may function for a different purpose. It is better to be able to distinguish between which model the results are displayed or recorded. For that purpose, for example, position information and inference results in the screen are recorded in a plurality of specific recording areas provided for metadata of image data files, and each recording area is associated with ID information such as the name of the inference model that performed the inference may be written in separate recording areas.
  • ID information such as the name of the inference model that performed the inference may be written in separate recording areas.
  • the version information, inference date, etc. may also be recorded.
  • the amount of information becomes too large, the data will become large and the burden on handling will increase. The method works well even under these circumstances.
  • the image data constituting the image frame is acquired in time series from the imaging unit, the processing unit receives the image data through communication with the imaging unit, outputs it to the inference unit, and responds.
  • the image of the image frame is output by communication between the imaging unit and the processing unit. and determining whether or not to display together with the image frame or record together with the image data the inference result obtained by inputting the related information corresponding to the data into the inference unit.
  • An output method can also be provided.
  • the authentication data can be recorded in the recording unit 15 and the recording unit 25, respectively.
  • the device for example, the CAD box 40
  • related information auxiliary information
  • the inference unit 26 has an inference engine, inputs image data of image frames from the endoscope apparatus 10, and infers, for example, advice for assisting a doctor in diagnosis.
  • the inference engine is set with an inference model for inferring this advice.
  • the inference engine may be configured by hardware or may be configured by software.
  • Data to be input to the inference engine is not limited to image data of image frames, and related information (auxiliary information) transmitted together with image data from the endoscope apparatus 10 may be input and inferred. .
  • the inference unit 26 may input, for example, image data generated by the image processing unit 23 in addition to the image data and related information (auxiliary information) from the endoscope 10 for inference.
  • the inference unit 26 inputs image data and infers using an inference model to determine what the target object (eg, organ) is in the image captured by the imaging unit 12 of the endoscope apparatus 10.
  • the image may be specified, the image may be segmented (segmentation), classified, or an inference such as pass/fail judgment may be performed.
  • the clock unit 27 generates a clock signal and outputs time information such as date and time information. As described above, when the information indicating the time when each image frame of the image data output from the imaging section 12 is added, the information may be synchronized with the time information from the clock section 27 .
  • the control unit 21 is a processor having a CPU (Central Processing Unit), etc., its peripheral circuits, memory, etc. This processor may be one or may be composed of multiple chips.
  • the CPU executes the entire processing device 20 by controlling each part in the processing device 20 according to the programs stored in the memory. Further, the control unit 21 may operate in cooperation with the control unit 11 in the endoscope device 10 so that the endoscope device 10 and the processing device 20 operate together.
  • CPU Central Processing Unit
  • the control unit 21 uses related information (auxiliary information) together with the image data corresponding to the image frame in the inference unit 26. If so, a request signal is transmitted to the endoscope apparatus 10 (see S7 in FIG. 2, which will be described later). This request signal is issued based on the authentication data 25a, and if the endoscope is permitted as a result of acceptance/rejection determination, related information (auxiliary information) is transmitted (see S15 in FIG. 2, which will be described later).
  • the request signal based on the authentication data 25a may be transmitted when the endoscope device 10 and the processing device 20 communicate with each other. That is, permission may be obtained in advance from the endoscope apparatus 10 before receiving image data.
  • the CAD box 40 shown in FIG. 1 may be able to input image data image-processed by the image processing unit 23 of the processing device 20 .
  • This CAD box 40 has a communication section, a control section, an inference section, and the like.
  • the inference unit receives image data acquired from the processing unit 20, performs inference, displays the inference result, and can output the result to the processing device 20 or the like.
  • the communication unit 14 of the endoscope device 10 communicates with the communication unit of the CAD box 40 so that the endoscope device 10 can directly transmit image data to the CAD box 40 good.
  • a pass/fail judgment is made based on the authentication data and related information (auxiliary information) is transmitted to the CAD box 40 .
  • the reasoning section within the CAD box 40 functions as an external reasoning device.
  • an imaging unit acquisition circuit
  • an imaging unit 12 that acquires image data constituting an image frame from an imaging device in time series, and a specific object captured in the corresponding image frame is inferred (for example, , object identification, segmentation, classification, quality judgment, etc.)
  • an output unit e.g., communication unit 14
  • an output unit e.g., output circuit
  • output circuit output circuit
  • output circuit output circuit
  • An image frame information acquisition unit (information acquisition circuit) (for example, an imaging unit 12) that sequentially acquires image frame information from an imaging device provided in the endoscope, and an image that processes the image frame information into visible information.
  • a processing unit image processing circuit
  • image output unit image output circuit
  • communication unit 14 image output circuit
  • a related information acquisition unit (related information acquisition circuit) (for example, a related information unit 16) that sequentially acquires related information from the endoscope corresponding to image frame information, and acquires a request signal related to acquisition of related information from the inference unit.
  • a request signal acquisition unit (request signal acquisition circuit) (e.g., communication unit 14), and an output unit (output circuit) (output circuit) (for example, it has a communication unit 14).
  • imaging control is first started (S1).
  • the imaging start read control section 11a in the control section 11 instructs the imaging device and the imaging control circuit in the imaging section 12 to start the imaging operation.
  • imaging signals for one screen are read out at time intervals of a predetermined frame rate.
  • the imaging operation continues repeatedly until it is determined in step S17 that the imaging operation has ended.
  • imaging and image processing are performed (S3).
  • the imaging unit 12 performs an imaging operation
  • the image processing unit 13 performs image processing on the image signal from the imaging element in the imaging unit 12 so that it becomes visible information.
  • image processing may be omitted and the image signal may be simply acquired by imaging.
  • the image frame is grasped and the processing result is output (S5).
  • An image signal for one frame is read out from the imaging element at a predetermined time interval (rate). Therefore, in step S5, image processing is performed for each image data corresponding to one image frame, and the image data subjected to image processing is output to the communication section 14 and the recording section 15.
  • the related information unit 16 acquires related information for each image frame when grasping the image frame.
  • the request signal is determined (S7).
  • the processing device 20 may use related information (auxiliary information) associated with the image data of the image frame.
  • the processing device 20 sends a request signal to the endoscope device 10 to associate related information (auxiliary information) with the image data and send it.
  • the request signal may be an analog signal, a digital signal, or digital data.
  • the ID information of the reasoning unit may be acquired. Since the image data from the endoscope apparatus 10 may be inferred by a plurality of inference units, it is possible to recognize which inference unit the image data (and related information) has been sent to. For this purpose, the ID information of the inference unit may be acquired prior to transmitting the image data or the like.
  • the processing device 20 may request related information (auxiliary information), so the request signal from the CAD box 40 is determined.
  • auxiliary information since the related information (auxiliary information) related to the image frame is used for inference in the inference device, it is possible to determine the request signal received from the device that is external to the endoscope device 10 and has the inference device.
  • the request for related data may be a request for image data.
  • step S7 determination is made based on the detection result of the presence or absence of the request signal.
  • step S11 If the result of determination in step S9 is that there is a request signal, a pass/fail determination is made (S11).
  • a pass/fail determination is made (S11).
  • Authentication data 15a and/or authentication data 25a are recorded in the recording unit. Therefore, in step S11, it is detected whether or not authentication data is recorded in the recording unit.
  • the authentication data 25a is recorded in the recording unit 25 in the processing device 20
  • the endoscope device 10 and the processing device 20 are connected, the authentication data 25a is transmitted to the endoscope device 10 through the communication unit. Alternatively, it may be confirmed by communicating with the processing device 20 when step S7 is executed.
  • the acceptance/rejection determination of the request signal is performed by determining the output destination for outputting the image data of the image frame and related information of this image frame, confirming whether or not there is a contractual relationship with the output destination, and based on the result of this confirmation. to decide whether to accept the request. That is, if the result of pass/fail judgment is that there is a contractual relationship with the output destination, the image data of the image frame and related information related to this image frame are output together in response to the request signal. If there is no relation, only the image data of the image frame is output. In addition, acceptance/rejection determination may be made according to circumstances other than the contract relationship.
  • step S11 if the authentication data is recorded, the result is "accept”, and if not, the result is "no".
  • pass/fail judgment other than confirming whether or not the authentication data match, and these methods will be described collectively after this flow is described.
  • step S13 If the result of determination in step S13 is not "deny (not permitted)", that is, if it is "passed (permitted)", related information corresponding to the image frame is output (S15).
  • the image data of the shot frame associated with the related information is output to the processing device 20 .
  • the image data associated with this related information can be output to the CAD box 40, which is an external device, through the processing device 20.
  • FIG. On the other hand, if there is no request signal and/or if the answer is "no", only image data not associated with related information is output to the processing device 20.
  • step S15 If the image data with related information is output in step S15, or if the result of determination in step S13 is "No", or if the result of determination in step S9 is that there is no request signal, then the process ends. It is determined whether or not (S17). If the doctor performs an operation to end the endoscopy, etc., it is determined that the endoscopy is finished. As a result of this determination, if it is not finished, the process returns to step S1, and if it is decided to be finished, this flow is finished after executing the finishing process.
  • the processing device 20 when the processing device 20 requests related information, it transmits a request signal to the endoscope device 10 (see S7 and S9).
  • the endoscope apparatus 10 determines whether or not transmission of image data with related information is permitted (see S11 and S13). , image data with associated information corresponding to the image frame is transmitted to the processing device 20 (see S15).
  • the flow shown in FIG. 2 includes an image frame information acquisition step (see S1) for sequentially acquiring image frame information from the imaging device of the endoscope, and an image frame information acquisition step (see S1) for converting the image frame information into visible information.
  • An image processing step for processing (see S3), an image output step for outputting visible display information to the outside (see S5), and related information for acquiring sequentially obtained related information corresponding to the sequentially acquired image frames.
  • a request signal acquisition step see S7 and S9; and an output step (see S15) of outputting display information corresponding to the image frame information according to the acceptance/rejection determination of the request signal and information related to the image frame. have.
  • the related information request signal is acquired from the inference unit that performs inference using the image frame information.
  • the ID information of the inference unit may be obtained, and in step S16, when the display information is output to the outside, information related to the ID information is displayed. It may be output together with the usage information. That is, the request signal acquisition step further acquires the ID information of the inference unit, and the output step outputs information related to the ID information together with the display information.
  • a pass/fail determination is made (S11), and when permitted, image data with related information is transmitted (S15).
  • the present invention is not limited to this.
  • encrypted image data with related information may be transmitted, and the image processing apparatus 20 may decrypt the data if permitted.
  • the image processing device 20 holds the encryption key.
  • the related information and the image data may be transmitted separately.
  • the related information may be transmitted only when permitted, and the image processing apparatus 20 may associate each image frame with the image data.
  • the image processing device 20 (or the CAD box 40 in some cases) should be allowed to acquire the related information only when it is permitted.
  • the control unit 11 determines to which device the information is output and to which device it is not output. can't In the pass/fail judgment in step S11, the authentication data 15a recorded in the recording unit 15 is referred to, and in step S15, the auxiliary information is transmitted only to the device that outputs the signal corresponding to this authentication data. good too.
  • a method of confirming the content of the authentication data 25a recorded in the recording unit 25 of the processing device 20 by communication and outputting the auxiliary information if it can be compared with the authentication data 15a recorded in the recording unit 15 may be adopted. good.
  • a device that can access information recorded in the endoscope device 10 can receive the auxiliary information.
  • a method may be adopted in which if the information in the endoscope apparatus 10 can be accessed, the control unit 21 of the processing apparatus 20 can read and decode the data.
  • the information is uniform or regular, it will not be possible to make arrangements for each individual model, and it will be lumped together. Therefore, it is better to have unique authentication information for each device. is good.
  • the endoscope apparatus 10 and the processing apparatus 20 are manufactured substantially at the same time and paired in the manufacturing process, or the corresponding items are recorded and shipped from information managed in a database at the time of shipment to the market. There is a way.
  • the processing unit 20 can It may be possible to selectively receive the required information.
  • the control unit (not shown) in the CAD box 40 should preferably cooperate with the control unit 21 in the processing unit 20 to output information that determines the display method and the like. Further, whether or not such agreements are consistent in terms of specifications may be confirmed based on whether or not authentication between devices is successful. In the case of system equipment, where the total performance and specifications are determined by the combination of specific equipment, users may get confused if they do not know how to check information and share functions with each other. It is good to keep
  • the presence of related information collected by the frame information unit 11b and the related information unit 16 of the endoscope device 10 should not be notified to the outside of the endoscope device 10, such as the processing device 20. not present.
  • the presence of related information (the type of related information depending on the case) may be notified to an external device such as the processing device 20 or the like.
  • an external device such as the processing device 20 may request the endoscope device 10 to output the relevant information in order to use the relevant information in an internal inference unit or the like.
  • step S5 the presence of related information may be notified to the external device, and in step S7, the request signal from the external device may be determined.
  • This modification includes the steps of outputting the presence or absence of additional related information and inputting a request for additional related information.
  • step S15 the endoscope apparatus 10 outputs related information corresponding to image frames.
  • the related information may be output from a device other than the endoscope device 10 .
  • an image captured by an external camera may be output as the relevant information at the timing of the image frame, showing the state of the doctor viewing the result inferred by the inference unit in the processing device 20 or in the CAD box 40 as a reference. .
  • the processing device 20 performs a step of inputting image data constituting an image frame, a step of outputting a request signal for inputting related information, and a step of acquiring the image frame in chronological order from the imaging unit of the endoscope device 10. inputting the timed related information; causing the image data and related information to be input to an inference unit for inferring the particular object imaged in the corresponding image frame; and inferring the object. and outputting the results for display or recording.
  • a request signal is transmitted to the endoscope apparatus 10 based on the authentication data 25a.
  • control unit 21 transmits to the control unit 11 of the endoscope device 10 information as to whether the processing device 20 has the right to receive the auxiliary information.
  • Various methods such as the authentication method of the authentication data 15a described above can be used to determine whether or not reception of this auxiliary information is permitted.
  • FIG. 3 shows image data P1 to P9 of image frames obtained in time series at times T1 to T9. Further, when acquiring each of the image data P1 to P9, the frame information section 11b also acquires related information in association with the image data of each image frame.
  • the related information consists of auxiliary information 1 and auxiliary information.
  • Auxiliary information 1 indicates the distance from the distal end of the endoscope apparatus to the observation target (for example, the wall of the gastrointestinal tract).
  • the example of FIG. 3 indicates that the distance to the observed object is 1 cm at times T5 and T6. At timings other than this, the distance to the observed object cannot be measured. It should be noted that the doctor has discovered an affected area such as a tumor at the timing when the image P6 is acquired at the time T6.
  • Auxiliary information 2 is information indicating operation information of the endoscope device, and times T1 and T2 are when the endoscope device is inserted, and times T4 to T6 are when the observation object is approached. , and times T8 and T9 indicate that the endoscope device is removed. These pieces of auxiliary information 1 and 2 can be recorded in association with the corresponding image data of each frame.
  • FIG. 3 shows a configuration for outputting image data P1 to P9, inputting image data to the input layers of inference engines 100a and 100b, and outputting inference results (discrimination results) 101a and 101b.
  • the inference engines 100a and 100b are set with an inference model for inferring advice to be presented to a doctor or the like.
  • the inference engine may be configured by hardware or may be configured by software.
  • images corresponding to an affected area such as a tumor see image P6 at time T6) discovered by a doctor during endoscopic examination are output as inference results (discrimination results) 101a and 101b.
  • auxiliary information 1 and 2 are not input to the inference engine 100a, but the image data P1 to P9 are input, and the inference engine 100a outputs the inference result 101a.
  • auxiliary information 1 and 2 are input to the inference engine 100b in addition to the image data P1 to P9, and the inference engine 100b outputs an inference result 101b.
  • the auxiliary information 1 and 2 are associated with the auxiliary information 1 and 2 corresponding to each image frame of the image data P1 to P6.
  • Auxiliary information 1 indicating distance information and auxiliary information 2 indicating operation information contain important hints when inferring advice to be output to a doctor or the like, so they are associated with the image data of each image frame. It is possible to improve the reliability of the inference result when making an inference using the auxiliary information 1 and 2 provided.
  • auxiliary information 1 and 2 corresponding to the image frames of the image data P1 to P9 is to be output in association with each other is determined, for example, by the endoscope apparatus 10 or the processing apparatus 20. Since the authentication data 15a is recorded in the recording unit 15 when a contractual relationship is established between the external device owner, manufacturer, etc., and the external device owner, manufacturer, etc., this recording is performed. The decision should be based on whether or not
  • Deep learning is a multilayer structure of the process of "machine learning” using neural networks.
  • a typical example is a "forward propagation neural network” that sends information from front to back and makes decisions.
  • the simplest forward propagation neural network consists of an input layer composed of N1 neurons, an intermediate layer composed of N2 neurons given by parameters, and N3 neurons corresponding to the number of classes to be discriminated. It suffices if there are three output layers composed of neurons.
  • the neurons of the input layer and the intermediate layer, and the intermediate layer and the output layer are connected by connection weights, respectively, and the intermediate layer and the output layer are added with bias values, so that logic gates can be easily formed.
  • the neural network may have three layers for simple discrimination, but by increasing the number of intermediate layers, it is also possible to learn how to combine multiple feature values in the process of machine learning. In recent years, 9 to 152 layers have become practical from the viewpoint of the time required for learning, judgment accuracy, and energy consumption.
  • a process called “convolution” that compresses the feature amount of an image may be performed, and a “convolution neural network” that operates with minimal processing and is strong in pattern recognition may be used.
  • a "recurrent neural network” fully-connected recurrent neural network
  • which can handle more complicated information and can handle information analysis whose meaning changes depending on the order and order, may be used in which information flows in both directions.
  • NPU neural network processing unit
  • machine learning such as support vector machines and support vector regression.
  • the learning involves calculation of classifier weights, filter coefficients, and offsets, and there is also a method using logistic regression processing. If you want a machine to judge something, you have to teach the machine how to judge.
  • a method of deriving image determination by machine learning is used.
  • a rule-based method that applies rules acquired by humans through empirical rules and heuristics may be used.
  • the processing device 20 performs inference for outputting advice based on image data.
  • a second processing device 30 is further arranged, and the second processing device 30 performs a second inference for giving special advice. That is, the first reasoning section can give general endoscopy advice, while the second reasoning section can make higher-level inferences based on the inference results of the first reasoning section. can be done. Also, the second inference section can make special inferences and give special advice that cannot be inferred by the first inference section.
  • the internal configuration of the endoscope device 10 is the same as that of the endoscope device 10 shown in FIG.
  • the internal configuration of 10 is omitted.
  • the internal configuration of the processing device 20 is the same as that of the processing device 20 of FIG. 1 except that the second communication unit 28 is added to the processing device 20 shown in FIG.
  • the section 28 will be described, and detailed descriptions of other configurations will be omitted.
  • the second communication section 28 has a communication circuit and performs various communications with the processing device 20 and the communication section 32 in the processing device 30 . Since the image processing unit 23 performs image processing on the image data from the endoscope device 10 , the communication unit 28 transmits the image data that has undergone image processing to the communication unit 32 in the second processing device 30 . Send to The second communication unit 28 may directly transmit/receive data from the control unit 21 or the like to/from the communication unit 32 .
  • the control unit 21 determines whether or not transmission of the image data with related information is permitted. Image data with information may be sent to the second processing device 30, while only image data without related information may be sent to the second processing device 30 if this is not permitted. Further, the control unit 21 performs image processing when transmission of the inference result of the inference unit 26 to the second processing unit 30 is permitted based on the authentication data 35a in the second processing unit 30. You may transmit to the 2nd processing apparatus 30 through the part 23 and the 2nd communication part 28. FIG. Therefore, the control unit 21 can transmit a request signal to the second processing device 30 and acquire the authentication data 35a.
  • the inference model of the inference unit 26 in the second embodiment is for giving general advice in endoscopy.
  • image data that has undergone image processing in the image processing unit 23 is output to the communication unit 32 within the second processing device 30 .
  • the image processing unit 23 outputs to the communication unit 32 in FIG.
  • control unit 21 is a processor having a CPU (Central Processing Unit), etc., its peripheral circuits, memory, etc.
  • This processor may be one, or may be composed of a plurality of chips, as in the first embodiment.
  • the CPU executes the entire processing device 20 by controlling each part in the processing device 20 according to the programs stored in the memory.
  • control unit 21 operates in cooperation with the control unit 11 in the endoscope device 10 and the control unit 31 in the second processing device 30 to control the endoscope device 10, the processing device 20, and the second processing.
  • the devices 30 may operate in unison.
  • the second processing device 30 like the processing device 20, receives image data and auxiliary information, inputs this information to the second inference unit 36, and provides more specific advice when compared with the inference unit 26. can be done. Also in the second processing device 30, the display unit itself may not be provided in the processing device 30, but may be performed by an external device. The processing device 30 may control these display processing and recording processing.
  • the second processing device 30 has a control section 31 , a communication section 32 , an image processing section 33 , a display section 34 , a recording section 35 , a second inference section 36 and a clock section 37 .
  • the communication unit 32 has a communication circuit and performs various communications with the communication unit 14 within the endoscope device 10 and the communication unit 22 within the processing device 20 .
  • the communication unit 32 receives image data representing an observation image of the inside of the body cavity from the endoscope apparatus 10 and displays the image on the display unit 34 after applying image processing to the image data.
  • the communication unit 32 also outputs the image data received from the endoscope device 10 and the processing device 20 to the inference unit 36 .
  • the inference result of the inference section 36 is image-processed in the image processing section 33 and then superimposed on the endoscopic image and displayed on the display section 34 .
  • the second inference unit 36 has an inference engine, inputs image data and related information from the endoscope apparatus 10, and is used to assist the doctor in making a diagnosis. Infer advice.
  • the inference engine is set with an inference model for inferring this advice.
  • the inference model set in the second inference unit 26 can give special (specialized) advice, for example, specialized advice for special symptoms.
  • the inference engine may be configured by hardware or may be configured by software.
  • the data to be input to the inference engine of the second inference unit 36 is not limited to image data, and related information (auxiliary information) transmitted together with the image data from the endoscope apparatus 10 is input and inferred. may By making inferences using related information, it is possible to obtain more reliable inference results. In addition, by making inferences using related information, it is possible to give advice that can demonstrate expertise in the above-described special symptoms and the like.
  • Related information (auxiliary information) input to the inference unit 36 is transmitted to the communication unit 32 in the second processing device 30 through the communication unit 10 . When requesting related information from the endoscope apparatus 10 , a request signal is output through the communication section 32 and the communication section 14 .
  • the image processing unit 33 performs image processing on the image data acquired by the communication unit 32 in the same manner as the image processing unit 23 .
  • the image processing here, for example, as described above, the inference result is superimposed on the image of the inside of the body cavity. Since the display section 34 and the clock section 37 are the same as the display section 24 and the clock section 27 in the first embodiment, detailed description thereof will be omitted.
  • the recording unit 35 has an electrically rewritable nonvolatile memory. This recording unit 35 records the image data output by the image processing unit 33 . Also, the recording unit 35 can record authentication data 35a. This authentication data 35a is used when the endoscope apparatus 10 is permitted to output image data in association with related information (auxiliary information) when outputting the image data to the second processing apparatus 30. 35 a is recorded in the recording unit 35 . Similarly, when the processing device 20 outputs the image data to the second processing device 30, if the related information (auxiliary information) is permitted to be output, the authentication data 35a is stored in the recording unit 35. recorded in For example, when a contractual relationship is established between the owner or manufacturer of the processing device 20 (or the endoscope device 10) and the owner or manufacturer of the second processing device 30, The authentication data 35 a may be recorded in the recording section 35 .
  • the authentication data can be recorded in the recording unit 15 (shown in FIG. 1) and the recording unit 25, respectively.
  • the related information auxiliary information
  • the related information may be associated with the image data and output.
  • the control unit 31 is a processor having a CPU (Central Processing Unit), etc., its peripheral circuits, memory, etc.
  • This processor may be one, or may be composed of a plurality of chips, as in the first embodiment.
  • the CPU executes the entire processing device 30 by controlling each part in the processing device 30 according to the programs stored in the memory. Further, the control unit 31 operates in cooperation with the control unit 11 in the endoscope device 10 and the control unit 21 in the processing device 20 to control the endoscope device 10, the processing device 20, and the second processing device 30. may operate together.
  • CPU Central Processing Unit
  • steps S3, S5 and S15 in FIG. 2 are changed to steps S4, S6 and S16 in comparison with the imaging operation in the first embodiment shown in FIG. Other than that, they are the same, so differences will be mainly described.
  • imaging control is performed (S1). Subsequently, imaging, image processing, and first image inference are performed (S4).
  • the imaging and image processing are the same as the imaging and image processing in step S3 of the first embodiment shown in FIG.
  • a first image inference is performed in step S4.
  • the image data of the image frames acquired by the endoscope apparatus 10 and related information are input to the input layer of the inference section 26 to infer advice to doctors and the like.
  • step S6 After imaging, image processing, and first image inference are performed in step S4, next, image frames are grasped, processing results, and inference results are output (S6).
  • image frame recognition and processing result output are performed in the same manner as image frame recognition and processing result output in step S5 of the first embodiment shown in FIG.
  • the related information unit 16 acquires related information for each image frame.
  • an inference result is output. The output of this inference result is to output the result of the first image inference performed in step S4.
  • step S6 when the image frames are grasped, the processing results, and the inference results are output, request signal determination is performed (S7) as in the first embodiment, and it is determined whether or not there is a request signal (S9). . As a result of this determination, if there is a request signal, a pass/fail determination is performed (S11), and it is determined whether or not the result of this determination is "no" (S13). In step S7, ID information for identifying the inference unit 26 is acquired when acquiring the request signal.
  • step S16 related information (image processing, inference results) corresponding to the image frame is output (S16).
  • related information (auxiliary information) associated with the image data corresponding to the image frame is output to the second processing device 30 .
  • the image data obtained by subjecting the image data of the image frame to image processing by the image processing unit 23 may be output to the second processing unit 30, and the inference result of the inference unit 26 may be output to the second processing unit 30.
  • the second processing device 30 may output.
  • the ID information for identifying the inference unit 16 is acquired, when the image data of the image frame and the related information corresponding to the image frame are output, the ID information is also associated and output. do.
  • the image data and/or the ID information indicating the related information used for the inference are associated with each other and output.
  • step S16 when the related information (image processing, inference result) corresponding to the image frame is output, or when the result of determination in step S13 is "no", or when the result of determination in step S9 is that there is no request signal If so, it is next determined whether or not it is finished (S17). If the doctor performs an operation to end the endoscopy, etc., it is determined that the endoscopy is finished. As a result of this determination, if it is not finished, the process returns to step S1, and if it is decided to be finished, this flow is finished after executing the finishing process.
  • an image is acquired first (S21).
  • the image data of the image frame acquired by the imaging unit 12 in the endoscope device 10 is acquired through the communication unit 32 .
  • a request signal (S23).
  • the second processing device 30 requests related information (auxiliary information) from the endoscope device 10 (and/or the processing device 20).
  • the relevant information (auxiliary information) is requested when input of the relevant information (auxiliary information) enables highly reliable inference.
  • the authentication data 35 a is recorded in the recording unit 35 . Therefore, when the authentication data 35a is not recorded, the request signal is not transmitted. Therefore, in this step, determination may be made based on this authentication data 35a.
  • the contractual relationship with the second processing unit 30 is recorded in the recording unit 25 in the processing unit 20 and/or the recording unit 15 in the endoscope apparatus 10 as authentication data.
  • the endoscope device 10 and/or the processing device 20 may make this determination.
  • step S23 If the result of determination in step S23 is that there is a request signal, then the request signal is output (S25).
  • a request signal is output to the endoscope device 10 and/or the processing device 20 through the communication section 32 .
  • the endoscope device 10 and/or the processing device 20 After outputting the request signal, the endoscope device 10 and/or the processing device 20 performs request signal determination in step S5 of FIG.
  • step S23 when the request signal is output to the endoscope device 10 and/or the processing device 20, the endoscope device 10 and/or the processing device 20 transmit related information (auxiliary information) corresponding to the image frame in step S16. is output to the second processing device 30, the related information is acquired (S27).
  • auxiliary information related information
  • a second inference is made using the image and image frame related information (S29).
  • the second inference unit 36 inputs the image data input in chronological order and the related information associated with the image frame to the second inference unit 36, and infers advice to be given to the doctor.
  • the related information (auxiliary information) can only be obtained when transmission of the related information (auxiliary information) to the second processing device 30 is permitted by the authentication data 35a (or 25a, 15a).
  • the second inference unit 36 can input the relevant information to the second inference unit 36 to make a second inference.
  • the image data and/or the related information are transmitted together with the ID information indicating the inference source, they are output together with the ID information when outputting the inference result. That is, the determination of whether or not to input related information to the inference unit is determined according to the ID information of the inference unit.
  • step S31 if the result of determination in step S23 is that there is no request signal, a second inference is made using the image (S31).
  • related information auxiliary information
  • the second inference unit 36 receives only image data and performs inference using the image data.
  • step S31 it is preferable to input image data together with ID information for identifying the inference source so that the inference source can be identified.
  • step S33 it is next determined whether or not the process is finished. If the doctor or the like performs an operation to end the endoscopy, it is determined that the endoscopy is finished. As a result of this determination, if it is not finished, the process returns to step S21, and if it is decided to be finished, this flow is finished after executing the finishing process.
  • the endoscope system has the second processing device 30 for inferring special advice using the image data acquired by the endoscope device 10. are doing. 5 and 6, when the processing device 20 and/or the second processing device 20 requests related information, it transmits a request signal to the endoscope device 10 (S7 , S9, S23, S25). When there is a request signal, the endoscope device 10 (and/or the processing device 20) determines whether transmission of image data with related information is permitted (see S11 and S13). If permitted, image data with associated information corresponding to the image frame is transmitted to the processing device 20 (see S16, S25 and S27).
  • the flow shown in FIGS. 5 and 6 is a step (see S1) of acquiring image data constituting an image frame from an imaging unit (imaging device) in time series, and a processing unit (processing processor). receives image data through communication with an imaging unit (imaging device) and sends it to an inference unit (inference engine) (for example, the inference unit 26 in FIG. 1, the inference unit in the CAD box 40, the inference unit 26 in FIG.
  • an inference unit inference engine
  • FIGS. 5 and 6 can be described as a step of sequentially acquiring image frame information from the imaging device of the endoscope (see S1, S4, and S21), and a step of visually recognizing the image frame information.
  • a step of performing image processing on information see S3, an image output step of outputting visible information to the outside (see S6), and acquiring related information sequentially obtained from the endoscope corresponding to the sequentially acquired image frames.
  • S5 and S27 obtaining a request signal for related information from the inference device (inference engine) (see S7, S9 and S27); (see S16 and S29).
  • FIG. 7 a scope with focus function 50A, a scope without focus function 50B, and the like can be connected to the image processor 53 as endoscope devices.
  • the image processor switches whether to output related information (auxiliary information) such as focus based on whether focus lens position information is output from the scope (endoscope apparatus).
  • FIG. 7(a) shows the configuration of an endoscope system combined with a scope 50A with focus function as an endoscope device
  • FIG. 7(b) shows the configuration of the endoscope system combined with a scope 50B without focus function. Show configuration.
  • a scope 50A with a focus function has various configurations such as a control section, an imaging section, an image processing section, a communication section, etc., like the endoscope apparatus 10 shown in FIG. .
  • the imaging unit has a focus lens, a focus lens driving unit, an imaging device, an imaging control circuit, and the like, and converts an image of the body cavity to be observed into an imaging signal and outputs the imaging signal.
  • the focus lens driving section outputs focus lens position information. That is, in the procedure using this scope with focus function 50A, the doctor adjusts the position of the focus lens, or the focus lens driving unit has an autofocus function and adjusts the position of the focus lens.
  • the scope with focus function 50A detects focus lens position information, and outputs the detected focus lens position information to the synchronization processing section 53b. This focus lens position information can be said to be equivalent to distance information from the endoscope apparatus to the observed object.
  • the image processor 53 has a development processing section 53a, a synchronization processing section 53b, and a selector 53c. These units may be implemented wholly or partially by hardware (for example, development processing circuit, synchronous processing circuit, selector circuit), or may be implemented wholly or partially by software.
  • the development processing unit 53a inputs the imaging signal in time series generated by the imaging unit in the scope 50A with focus function, and performs various development processing on the imaging signal.
  • processing such as conversion from raw data (imaging signal, RAW data) generated by the imaging device to an image format such as JPEG or TIFF is performed. These developing processes are performed in units of image frames (in units of one frame).
  • the synchronization processing unit 53b performs synchronization processing for adding focus lens position information corresponding to each image frame to related information (auxiliary information) for the developed image data. That is, the synchronization processing unit 53b receives focus lens position information corresponding to each image frame from the scope with focus function 50A, and stores the image data of one image frame corresponding to the focus lens position information. Associate the focus lens position information to be used.
  • the selector 53 c receives image data that has undergone development processing from the development processing section 53 a and image data with focus lens position information added from the synchronization processing section 53 b , and outputs either one to the recording device 55 .
  • Select information is input to the selector 53c, and based on this select information, it is switched between outputting only image data and outputting image data to which focus lens position information is added.
  • the select information is, for example, information indicating whether or not the scope (endoscopic device) outputs focus lens position information. Data is output to the recording device 55 .
  • the monitor 54 has a display or the like, receives image data developed by the development processor 53a, and displays an image acquired by the scope 50A with a focus function.
  • the recording device 55 has an electrically rewritable non-volatile memory, and records data selected and output by the selector 53c. For example, the recording device 55 records the image data with the focus lens position information when the focus lens position information is output from the scope (endoscope device), and when the focus lens position information is output. If not, record only the image data. Image data with focus lens position information or image data without focus lens position information recorded by the recording device 55 is stored as learning data 55a.
  • This learning data 55a can be used to create teacher data by annotating the learning data 55a when performing machine learning such as deep learning. That is, if teacher data is created based on image data with focus lens position information, and an inference model is created using this teacher data, the subject and object will be more accurate than when image data without focus lens position information is used. By matching the specs of the optical system, the amount of information increases, such as knowing the size of the object, making it possible to generate a highly reliable inference model.
  • the endoscope device is a scope 50B without focus function, and the image processor 53, monitor 54, recording device 55, and learning data 55a are the same as in FIG. 7(a). A detailed description of the configuration similar to that of FIG. 7A is omitted.
  • the scope without focus function 50B has various configurations such as a control section, an imaging section, a communication section, and a recording section, like the endoscope device 10 shown in FIG.
  • the imaging unit has a focus lens, an imaging element, an imaging control circuit, etc., but does not have a focus lens driving unit.
  • the non-focusing scope 50B converts an image of the body cavity to be observed into an imaging signal and outputs it, but does not output focus lens position information.
  • a doctor performs a procedure, he/she adjusts the position of the scope and observes the observation target at a position in which it is in focus.
  • the pan-focus scope 50C is used instead of the scope without focus function 50B, it is possible to observe an image that is in focus over a wide range.
  • the selector 53b selects the image data without the focus lens position information output from the development processing unit 53a, and outputs the selected image data without the focus lens position information to the recording device 55. (see thick line between 53a and 53c in FIG. 7(b)).
  • the scope 50A with a focus function, the scope 50B without a focus function, etc. can be connected to the image processing processor 53.
  • the focus lens position information is associated with the image data.
  • the focus lens position information is not output, the image data without the focus lens position information is output.
  • the absence of lens position information has the advantage of reducing the amount of recorded data and enabling learning in many cases.
  • the relationship between focus lens position information and the like is determined.
  • Information auxiliary information
  • the select information is information indicating whether or not a contractual relationship has been established between the recording apparatus and the scope.
  • Data may be output to the recording device 55 . If there is focus lens position information, it is possible to make an inference with an increased amount of information as described above.
  • a system that can distinguish and record learning data can provide inference models that meet various requirements with that learning data.
  • the required specifications of the required inference model change depending on the environment, facilities, and equipment in which the inference model is used, it is possible to prepare learning data that enables suitable learning for that.
  • Selectors can distinguish and record multiple learning data, so various models can be handled when learning to create an inference model, optimizing the load during learning (model size, learning time, required computer power), etc. can do
  • the scope (scope with focus function 50A, scope without focus function 50B, pan focus scope 50C) and imaging operation in the image processor 53 will be described.
  • This flow is realized by operating the scope and the image processor cooperatively according to a program by the CPU provided in the scope and the image processor.
  • the flow shown in FIG. 8 may be realized by providing a CPU in either the scope or the image processor and controlling the overall scope and the image processor.
  • focusing is performed (S41). Since the scope with focus function 50A has an autofocus function, the position of the focus lens is adjusted so that the object to be observed is automatically brought into focus. Since the non-focusing scope 50B does not have an auto-focusing function, the doctor adjusts the position of the distal end of the scope (endoscopic device) while focusing. Also, in this step, focus information is acquired as related information for each image frame.
  • imaging is performed by the imaging units of the scopes 50A and 50B, and imaging signals are output to the image processor 53.
  • FIG. In imaging imaging signals are sequentially acquired in units of image frames (one frame).
  • the image processing processor 53 performs image processing such as development processing on the sequentially acquired imaging signals in units of image frames (one frame) so that the signals become visible information.
  • This image-processed image data is output to the monitor 54, and the monitor 54 displays an image based on the image data.
  • the scope with focus function 50A has a focus adjustment function, and the scope without focus function 50B and the pan focus scope 50C do not have a focus adjustment function.
  • the model of the scope (endoscope device) connected to the image processor 53 it is determined whether or not there is a focus adjustment function. In addition to this method, determination may be made according to the presence or absence of input of focus lens position information.
  • step S45 If the result of determination in step S45 is that there is a focus adjustment function, focus information corresponding to the image frame is output according to the pass/fail determination (S47).
  • the selector 53c associates focus lens position information (focus information) with the image data of the image frame and outputs the data to the recording device 55 when the focus state determination result is in-focus.
  • focus lens position information focus information
  • the image data of the image frame and the related information (auxiliary information) output in this step can be used as teacher data for inferring the distance and the like.
  • the pass/fail determination may be performed by appropriately selecting from among various determination methods in relation to step S11 in FIG.
  • step S47 may be made to be "pass" when the data for use is recorded in the recording unit. Focus information corresponding to image frames may be output.
  • step S49 If focus information is output in step S47, or if the result of determination in step S45 is that there is no focus adjustment function, it is determined whether or not to end (S49). As described above, when the doctor performs an operation to end the endoscopy, it is determined that the endoscopy is finished. As a result of this determination, if it is not finished, the process returns to step S41, and if it is decided to be finished, this flow is finished after executing the finishing process.
  • auxiliary information such as focus lens position information
  • auxiliary information is not output as learning data. Therefore, it is possible to store the minimum required amount of data.
  • the flow shown in FIG. 8 includes a step of sequentially acquiring image frame information from the imaging element of the endoscope (see S43), a step of image processing the image frame information into visible information (see S43), and a step of visual recognition.
  • an image output step of outputting possible information to the outside see S43
  • a step of acquiring related information sequentially obtained from the endoscope corresponding to the sequentially acquired image frames see S41
  • FIG. 9 the doctor can observe while adjusting parameters for image processing.
  • image data with image adjustment parameters added as related information is output. parameter is not added as related information.
  • FIG. 9(a) shows the endoscope system when parameter recording is permitted
  • FIG. 9(b) shows the configuration of the endoscope system when parameter recording is not permitted.
  • the scope 60 has various configurations such as a control section, an imaging section, an image processing section, and a communication section, like the endoscope apparatus 10 shown in FIG. .
  • the imaging unit has a focus lens, a focus lens driving unit, an imaging device, an imaging control circuit, and the like, and converts an image of the body cavity to be observed into an imaging signal and outputs the imaging signal.
  • the image processor 53 has a development processing section 53a, a synchronization processing section 53b, a selector 53c, and a parameter section 53d. All or part of these units may be implemented by hardware (e.g., development processing circuit, synchronization processing circuit, selector circuit, parameter processing circuit), or may be implemented entirely or partially by software. may
  • the development processing unit 53a inputs the imaging signal in time series generated by the imaging unit in the scope 60, and performs various development processing on the imaging signal.
  • processing such as conversion from raw data (imaging signal, RAW data) generated by the imaging device to an image format such as JPEG or TIFF is performed. These developing processes are performed in units of image frames (in units of one frame).
  • the development processing unit 53a performs various image processing on the developed image data so that an affected area such as cancer can be easily recognized.
  • This image processing includes, for example, narrow band imaging (NBI: Narrow Band Imaging, registered trademark), fluorescence observation (AFI: Auto Fluorescence Imaging), infrared light observation (IRI: Infra Red Imaging), blood vessel enhancement, and brightness adjustment. etc., there are various kinds of processing.
  • the doctor performs observation while adjusting parameters using the parameter section 53d.
  • the parameter section 53d outputs parameters according to the doctor's operation to the development processing section 53a, and the development processing section 53a performs image processing on the image data from the scope 60 according to the parameters.
  • the parameter section 53d also outputs parameter information to the synchronization processing section 53c.
  • the synchronization processing unit 53b performs synchronization processing for adding parameter information as related information (auxiliary information) to the developed image data. That is, the synchronization processing section 53b associates the image data processed by the development processing section 53a with the parameter information corresponding to each image frame.
  • the selector 53c receives image data that has undergone basic development processing from the development processing section 53a and image data with parameter information added from the synchronization processing section 53b, and outputs either one to the recording device 55. .
  • the selector 53c receives a request signal from the recording device 55, and based on this request signal (ID authentication and contract relationship determination may be performed here), basic development processing is performed by the development processing unit 53a. It is switched whether to output the image data that has been processed or to output the image data to which parameter information such as various image processing is added as related information. That is, when the request signal indicates permission to record the parameters (this may be determined by the above-mentioned authentication or the like), the image data with the parameter information is output, while the request signal indicates permission to record the parameters.
  • a system that can distinguish and record learning data can provide inference models that meet various requirements with that learning data.
  • the required specifications of the required inference model change depending on the environment, facilities, and equipment in which the inference model is used, it is possible to prepare learning data that enables suitable learning for that.
  • Selectors can distinguish and record multiple learning data, so various models can be handled when learning to create an inference model, optimizing the load during learning (model size, learning time, required computer power), etc. can do
  • the monitor 54 has a display or the like, receives image data developed by the development processor 53a, and displays an image acquired by the scope 60.
  • the recording device 55 has an electrically rewritable non-volatile memory, and records data selected and output by the selector 53c. For example, if the image data with parameter information is output from the selector 53, the recording device 55 records the image data with parameter information. records image data only. Image data with parameter information recorded by the recording device 55 or image data without parameter information is stored as learning data 55a.
  • This learning data 55a can be used as teacher data when performing machine learning such as deep learning.
  • By creating training data based on image data with parameter information and creating an inference model using this training data it is possible to generate a more reliable inference model than when image data without parameter information is used. It becomes possible.
  • FIG. 9(a) shows a case where the recording device 55 has a license that permits parameter recording
  • FIG. 9(b) shows a case where the recording device 55 permits parameter recording. Indicates that the license is not recorded. Therefore, in the example shown in FIG. 9A, the selector 53c outputs image data with parameter information in response to the request signal, and the image data with parameter information is recorded in the recording device 55.
  • FIG. 9B the selector 53 c outputs basic image data without parameter information, and only this basic para image data is recorded in the recording device 55 .
  • FIG. 10 the flowchart shown in FIG. 10 may be realized by providing a CPU in either the scope or the image processor and controlling the overall scope and image processor by this CPU.
  • a doctor operates the operating portion of the scope 60 to perform an endoscopic examination to check for the presence or absence of an affected area. For example, the doctor manipulates the bending direction of the distal end portion to insert the insertion portion of the scope 60 into the body cavity. Also, when a special inspection such as NBI is performed, an operation for that purpose is performed. In this step, it is determined whether or not a special inspection operation has been performed.
  • step S53 If the result of determination in step S51 is that no operation has been performed, imaging and image processing are performed (S53).
  • the image signal from the imaging device in the imaging unit in the scope 60 is image-processed by the development processing unit 53a.
  • inference may be performed in the same manner as in step S4 of FIG.
  • step S51 if the result of determination in step S51 is that an operation has been performed, special observation is performed as necessary (S55). narrow-band light and green narrow-band light, and the inside of the body cavity is observed in this irradiation state.
  • the parameter section 53d also outputs various parameters set by the doctor at the time of the special examination to the development processing section 53a, and the development processing section 53a performs image processing using the set parameters.
  • the parameter section 53d also outputs the parameters output to the development processing section 53a to the synchronization processing section 53c.
  • step S55 the image signal from the imaging element in the imaging unit in the scope 60 is image-processed by the development processing unit 53a in the same manner as in step S53.
  • the request signal is next determined (S57).
  • the request signal output when the recording device 55 requests image data with parameters is determined.
  • the request signal for example, information regarding the presence or absence of a license is recorded in the recording device 55, and the request signal is transmitted when there is a license.
  • the request signal may be output based on other conditions, not limited to the presence or absence of a license agreement.
  • Information such as the presence or absence of a license may be recorded in a device other than the recording device 55, such as the image processor 53 and the scope 60, and the image processor 53 may collate the information.
  • step S59 it is determined whether or not there is a request signal (S59).
  • the selector 53b outputs only the image data to which the auxiliary information (related information) is not added to the recording device 55, so that the recording device 55 learns only the image data. is recorded as data 55a for use. This is also a step of not only requesting but also performing authentication and the like.
  • step S61 If the result of determination in step S59 is that there is a request signal, a pass/fail determination is made (S61).
  • the recording device 55 records information on the presence or absence of a license between the recording device 55 and the scope 60 and/or image processor. Therefore, in this step, whether or not there is license information or the like is detected based on the request signal. If information such as the existence of a license is recorded, the result is "Yes", and if not recorded, the result is "No". Subsequently, it is determined whether or not the pass/fail determination result is "fail" (S63).
  • the selector 53b outputs only the image data to which the related information (auxiliary information) is not added to the recording device 55, and the recording device 55 stores only the image data as learning data. Record as 55a.
  • Such authentication makes it possible to provide optimal data to parties who have devices with appropriate rights and capabilities.
  • step S63 If the result of pass/fail judgment in step S63 is not "fail", that is, if "pass”, information on special observation specifications corresponding to image frames is output according to the pass/fail judgment (S65). In this case, the selector 53c outputs to the recording device 55 data in which the parameters used in the special observation are associated with the image data of the corresponding image frames.
  • the recording device 55 creates teacher data using the input image data to which the related information is added or only the image data, and records this teacher data.
  • the data should be sorted, such as by classification. If training data is created only from the results of special observations, there is a possibility that an appropriate inference model cannot be generated.
  • Image data to which related information is added also has parameters for special observation, so this image data is learned as teacher data, and the generated inference model is better than the inference model generated using only image data. Also, reliability can be enhanced, including in the case of special observation.
  • step S67 If the teacher data is recorded in step S67, or if the result of determination in step S63 is "No", or if the result of determination in step S69 is that there is no request signal, then it is determined whether or not to end. Determine (S17). If the doctor performs an operation to end the endoscopy, etc., it is determined that the endoscopy is finished. As a result of this determination, if it is not finished, the process returns to step S51, and if it is decided to be finished, this flow is finished after executing the finishing process.
  • the flow shown in FIG. 10 includes a step of sequentially acquiring image frame information from the imaging device of the endoscope (see S53 and S55), and a step of image processing the image frame information into visible information (see S53 and S55).
  • an image output step of outputting visible information to the outside see S53 and S55
  • a step of acquiring related information sequentially obtained from the endoscope corresponding to the sequentially acquired image frames see S55
  • a step of acquiring a request signal for related information from the apparatus see S57 and S59
  • a step of outputting an image frame and related information together with the image frame in accordance with pass/fail judgment of the request signal see S65.
  • a doctor when a doctor performs an endoscopy, observation is performed while adjusting image processing parameters such as NBI and vessel enhancement.
  • image processing parameters such as NBI and vessel enhancement.
  • a request signal is input to the selector 53c (see S57 and S59).
  • the selector 53c selects and outputs data obtained by adding image adjustment parameters as related information (auxiliary information) to image data.
  • the recording of the parameter is not permitted to the recording apparatus (see FIG. 9B)
  • no request signal is input to the selector 53c. Similar image data without associated information is selected and output.
  • the recording device 55 records the data without the related information, so that the minimum required amount of data can be saved.
  • related information when related information is required, teacher data with related information can be created, and a highly reliable inference model can be generated.
  • the information output method comprises steps of sequentially acquiring image frame information from an imaging device provided in the endoscope (see, for example, S1 and S3 in FIG. 2); a step of image-processing image frame information into visible information (see, for example, S3 in FIG. 2); and an image output step of outputting the image-processed visible information to the outside (see, for example, S5 in FIG. 2).
  • a step of sequentially acquiring related information corresponding to the sequentially acquired image frame information see, for example, S5 in FIG. 2
  • S7 and S9 a step of outputting the image frame information and related information together with the image frame according to the pass/fail judgment of the request signal (for example, see S15 in FIG. 2).
  • the light intensity distribution information of the light source as related information (for example, information on whether the image is uneven due to shadow distribution due to directivity or parallax) and use it when creating an inference model.
  • this light quantity distribution information any one of spatial light quantity distribution information, wavelength information, parallax information (which may include stereoscopic effect information), and the like may be used.
  • the frame sequential information may be recorded as related information and used when creating an inference model.
  • the parameters are determined dynamically, the parameter information in that case may be used.
  • blur amount information obtained by feature point matching may be recorded as related information and used when creating an inference model. Also, these related information may be used for the color misregistration correction process.
  • Sensor information such as camera shake, temperature, vertical/horizontal sensors, and acceleration sensors may be recorded as related information and used when creating an inference model.
  • information sensed by the forceps may be recorded as related information, used as a trigger for a signal for a specific phase, or recorded as teacher data. It can also be used when creating an inference model.
  • trocars and forceps are detected by NFC (Near Field Communication), recorded as related information, and an inference model is generated. In this case, it is possible to infer the scene with a trocar, forceps, etc., which are used only at the time of gallbladder incision.
  • relevant information is collected in this phase to generate a second inference model. In this case, the quality of inference is improved because learning and inference can be performed only in necessary phases.
  • image information before synthesis is recorded as related information. For example, if halation occurs when depth stacking image processing (HDR) is performed, inference may be performed using an image before synthesis. Also, an inference model can be created that, when inferred using a dark image, advises the doctor to stop imaging with HDR if a tumor is found in that image. (9) Information is embedded in image data for each frame, and the information is encrypted. In this case, only AI-PFs that have decoding capabilities for image data can make inferences using the information.
  • HDR depth stacking image processing
  • authentication data is recorded in the recording unit to determine whether or not to output related information.
  • Dongle also referred to as software protection
  • output of related information may be permitted.
  • encryption can be performed by using either NFC (Near Field Communication), operator's fingerprint, face It may be possible to obtain the decryption key of the , and obtain related information.
  • teacher data can be created using the various related information described above.
  • related data may also be included in learning, and related information may be used to classify learning data.
  • a step of acquiring image data constituting an image frame from the imaging unit in chronological order a step of outputting related information obtained at the timing of acquiring the image frame, the image data corresponding to the image frame.
  • the teaching data creating method may also include a step of creating teaching data using the related information.
  • the display unit 24 (display unit 34) and/or the recording unit 25 (recording unit 35) may be arranged outside the processing device 20 (second processing device 30).
  • a communication unit may be provided between the processing device 20 (processing device 30).
  • the information output method in this case may be performed by the following steps. That is, the information output method includes steps of sequentially acquiring image frame data from an image pickup device provided in an image pickup device, image processing the image frame data into visible display information, and image-processed visual display information. an image output step of outputting possible display information for display on an external display; a step of sequentially acquiring related information corresponding to the image frame information sequentially acquired from the imaging device; and using the display information. obtaining a request signal for obtaining the related information from the inference device that performs the inference; and outputting the image frame and the related information together with the image frame in accordance with the acceptance/rejection determination of the request signal.
  • the information output method may be executed in the following steps.
  • the information output method is an information output method for inferring information contained in image data and displaying the inference result, wherein the step of sequentially acquiring image data from an imaging device provided in an imaging device; a step of outputting image data for display and/or recording on an external display; and a step of obtaining a request signal for obtaining the image data from an inference device that performs inference using the image data;
  • the request signal includes ID information of the inference device
  • the image data output step outputs the image data together with the ID information of the inference device inferred using the image data.
  • image data is output together with ID information for identifying an inference device inferred using image data, so the source of an inference model or the like can be known.
  • the controllers 11, 21, and 31 have been described as devices configured from CPUs, memories, and the like.
  • part or all of each part may be configured as a hardware circuit, and is described in Verilog, VHDL (Verilog Hardware Description Language), etc.
  • a hardware configuration such as a gate circuit generated based on a program language may be used, or a hardware configuration using software such as a DSP (Digital Signal Processor) may be used. Of course, these may be combined as appropriate.
  • control units 11, 21, and 31 are not limited to CPUs, and may be elements that function as controllers. , may be performed by one or more processors configured as hardware.
  • each unit may be a processor configured as an electronic circuit, or may be each circuit unit in a processor configured with an integrated circuit such as an FPGA (Field Programmable Gate Array).
  • FPGA Field Programmable Gate Array
  • a processor composed of one or more CPUs may read and execute a computer program recorded on a recording medium, thereby executing the function of each unit.
  • the endoscope device 10 the processing device 20, the second processing device 30, the CAD box 40, the image processing processor 53, etc. each have a block that performs each function. described as a thing. However, they do not need to be provided in an integrated device, and the above-described units may be distributed as long as they are connected by a communication network such as the Internet.
  • logic-based determination was mainly explained, and determination was made by inference using machine learning in part. Either logic-based determination or inference-based determination may be appropriately selected and used in this embodiment. In addition, in the process of judgment, a hybrid judgment may be made by partially utilizing the merits of each.
  • control described mainly in the flowcharts can often be set by a program, and may be stored in a recording medium or recording unit.
  • the method of recording in the recording medium and the recording unit may be recorded at the time of product shipment, using a distributed recording medium, or downloading via the Internet.
  • the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the spirit of the present invention at the implementation stage. Also, various inventions can be formed by appropriate combinations of the plurality of constituent elements disclosed in the above embodiments. For example, some components of all components shown in the embodiments may be omitted. Furthermore, components across different embodiments may be combined as appropriate.
  • SYMBOLS 10 ... Endoscope apparatus, 11... Control part, 11a... Imaging start read-out control part, 11b... Frame information part, 12... Imaging part, 13... Image processing part, 14 ... communication section, 15 ... recording section, 15a ... authentication data, 16 ... related information section, 17 ... clock section, 20 ... processing section, 21 ... control section, 22... communication unit, 23... image processing unit, 24... display unit, 25... recording unit, 25a... authentication data, 26... inference unit, 27... clock unit , 30... second processing device, 31... control section, 32... communication section, 33... image processing section, 34... display section, 35... recording section, 35a...
  • Authentication data 36 Second reasoning unit 37 Clock unit 40 CAD box 50A Scope with focus function 50B Scope without focus function 50C Pan Focus scope 53 Image processing processor 53a Current processing unit 53b Synchronization processing unit 53c Selector 53d Parameter unit 54 Monitor 55 Recording device 55a Learning data 60 Scope 100a Inference engine 100b Inference engine 101a Inference result (discrimination result) 101b Inference result (discrimination result)

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Endoscopes (AREA)

Abstract

画像情報のみを出力する場合と、画像情報と関連情報(補助情報)を一緒に出力する場合に切り分けて出力することが可能な情報出力方法および情報出力装置を提供する。撮像部から時系列で、画像コマを構成する画像データを取得するステップ(S1)と、処理部が撮像部との通信によって画像データを受信して推論部に出力し、対応する画像コマの中に撮像された特定の対象物を推論させるステップ(S4)と、対象物の推論結果を表示用または記録用に出力する出力ステップ(S6)と、画像コマ取得のタイミングで得られた関連情報を出力するステップ(S16)と、撮像部と処理部との通信によって、画像コマの画像データに対応する関連情報を推論部に入力するかどうかを判定するステップ(S4、S13)と、を有している。

Description

情報出力方法および情報出力装置
 本発明は、内視鏡等の撮像装置を有する医療機器において、撮像装置から順次得られる画像コマに関連情報を関連付けて情報を出力する情報出力方法および情報出力装置に関する。
 従来から、X線CT画像を用いて異常検出を行っている。X線CT画像は、解像度の高さと3次元情報が得られるという特徴から、異常を詳細に評価する際に好適である。例えば、特許文献1には、第1の医用画像を取得する取得部と、第1の医用画像から、情報量を削減した第2の医用画像を生成する一方、第1の医用画像から補助情報を抽出し、第2の医用画像と補助情報を入力として、疾患の推論を行う処理部を備えた診断支援装置が提案されている。この診断支援装置によれば、機械学習等の技術を用いて、X線CT画像等の高解像度3次元画像に基づいて、異常を効率的に検出できる。
特開2020-192006号公報
 特許文献1に示されるように、画像情報から補助情報を抽出し、画像情報と補助情報を用いて処理することが知られている。しかし、特許文献1には、画像情報と補助情報を一緒に使用することを前提としており、画像情報のみを出力する場合と、画像情報と補助情報を一緒に出力する場合に切り分けて出力することについては何ら開示されていない。
 本発明は、このような事情を鑑みてなされたものであり、画像情報のみを出力する場合と、画像情報と関連情報(補助情報)を一緒に出力する場合に切り分けることが可能な情報出力方法および情報出力装置を提供することを目的とする。
 上記目的を達成するため第1の発明に係る情報出力方法は、撮像部から時系列で、画像コマを構成する画像データを取得するステップと、処理部が上記撮像部との通信によって上記画像データを受信して推論部に出力し、対応する画像コマの中に撮像された特定の対象物を推論させるステップと、上記対象物の推論結果を表示用および/または記録用に出力するステップと、からなる情報出力方法において、上記画像コマの取得のタイミングで得られた関連情報を出力するステップと、上記撮像部と上記処理部との通信によって、上記画像コマの画像データに対応する上記関連情報を上記推論部に入力するかどうかを判定するステップと、を具備する。
 第2の発明に係る情報出力方法は、上記第1の発明において、上記関連情報を上記推論部に入力するかどうかの判定は、上記推論部のID情報に従って決定される。
 第3の発明に係る情報出力方法は、上記第1の発明において、上記関連情報は、上記画像データが、表示および/または記録可能な画像コマ情報に処理した時に用いたパラメータ情報である。
 第4の発明に係る情報出力方法は、内視鏡内に設けられた撮像素子から画像コマ情報を順次取得する画像コマ情報取得ステップと、上記画像コマ情報を視認可能な表示用情報に画像処理する画像処理ステップと、画像処理された上記視認可能な表示用情報を外部に出力する画像出力ステップと、順次取得した上記画像コマ情報に対応した関連情報を順次取得する関連情報取得ステップと、上記画像コマ情報を用いた推論を行う推論部から上記関連情報の取得に関する要求信号を取得する要求信号取得ステップと、上記要求信号の合否判定に従って上記画像コマ情報に対応した表示用情報と、当該画像コマに関連情報を併わせて出力する関連情報出力ステップと、を有する。
 第5の発明に係る情報出力方法は、上記第4の発明において、上記関連情報は、画像コマの番号に関する情報、上記画像コマの中の位置に関する情報、上記画像コマにおいて検出された物に関する情報、上記画像コマには写っていない物に関する情報の内の少なくとも1つである。
 第6の発明に係る情報出力方法は、上記第4の発明において、上記関連情報は、上記撮像素子のRAW画像情報、上記画像処理に使用されなかった撮像情報、上記撮像素子用の撮像レンズの光学情報、および上記内視鏡の操作情報の内の少なくとも1つである。 第7の発明に係る情報出力方法は、上記第4の発明において、上記要求信号取得ステップにおいて、さらに上記推論部のID情報を取得し、上記関連情報出力ステップにおいて、上記ID情報に関連した情報を上記表示用情報と併せて出力する。
 第8の発明に係る情報出力方法は、上記第4の発明において、上記要求信号の合否判定は、上記画像コマと当該画像コマの関連情報の出力相手を判定し、上記出力相手と契約関係にあることを確認し、この確認結果に基づいて、要求を受け入れるかどうかを決定する。
 第9の発明に係る情報出力方法は、上記第4の発明において、上記合否判定の結果、上記出力相手と契約関係にある場合には、上記要求信号に応じて、上記画像コマと当該画像コマに関連情報を合わせて出力し、一方、上記出力相手と契約関係にない場合には、上記画像コマのみを出力する。
 第10の発明に係る情報出力方法は、上記第4の発明において、追加関連情報の有無を出力するステップと、追加関連情報の要求を入力するステップと、をさらに有する。
 第11の発明に係る情報出力装置は、内視鏡内に設けられた撮像素子から画像コマ情報を順次取得する画像コマ情報取得部と、上記画像コマ情報を視認可能な表示用情報に画像処理する画像処理部と、画像処理された上記視認可能な表示用情報を外部に出力する画像出力部と、順次取得した上記画像コマ情報に対応した関連情報を順次取得する関連情報取得部と、上記画像コマ情報を用いた推論を行う推論部から上記関連情報の取得に関する要求信号を取得する要求信号取得部と、上記要求信号の合否判定に従って上記画像コマ情報に対応して表示用情報と、当該画像コマに関連情報を併わせて出力する出力部と、を有する。
 第12の発明に係る情報出力方法は、撮像装置に設けられた撮像素子から画像コマデータを順次取得するステップと、上記画像コマデータを視認可能な表示用情報に画像処理するステップと、画像処理された上記視認可能な表示用情報を外部ディスプレイに表示するために出力する画像出力ステップと、上記撮像装置から順次取得した上記画像コマ情報に対応し、関連情報を順次取得するステップと、上記表示用情報を用いた推論を行う推論装置から上記関連情報の取得に関する要求信号を取得するステップと、上記要求信号の合否判定に従って上記画像コマと、当該画像コマに関連情報を併せて出力するステップと、を有する。
 第13の発明に係る情報出力方法は、画像データに含まれる情報を推論して、推論結果を表示する情報出力方法において、撮像装置に設けられた撮像素子から画像データを順次取得するステップと、上記画像データを外部ディスプレイに表示および/または記録するために出力する画像データ出力ステップと、上記画像データを用いた推論を行う推論装置から上記画像データの取得に関する要求信号を取得するステップと、を有し、上記要求信号は、上記推論装置のID情報を含み、上記画像データ出力ステップは、上記画像データに、当該画像データを用いて推論した推論装置のID情報を併せて出力する。
 第14の発明に係る情報出力方法は、撮像部から時系列で、画像コマを構成する画像データを取得するステップと、処理部が上記撮像部との通信によって上記画像データを受信して推論部に出力し、対応する画像コマの中に撮像された特定の対象物を推論させるステップと、上記対象物の推論結果を表示用および/または記録用に出力するステップと、からなる情報出力方法において、上記画像コマの取得のタイミングで得られた関連情報を出力するステップと、上記撮像部と上記処理部との通信によって、上記画像コマの画像データに対応する上記関連情報を上記推論部に入力して得られた推論結果を表示および/または記録するかどうかを判定するステップと、を具備する。
 第15の発明に係る情報出力方法は、上記第14の発明において、上記関連情報を入力して得られた推論結果と、上記関連情報を入力せずに得られた推論結果を区別して表示および/または記録する。
 本発明によれば、画像情報のみを出力する場合と、画像情報と関連情報を一緒に出力する場合に切り分けて出力することが可能な情報出力方法および情報出力装置を提供することができる。
本発明の第1実施形態に係る内視鏡システムの主として電気的構成を示すブロック図である。 本発明の第1実施形態に係る内視鏡システムの撮像動作を示すフローチャートである。 本発明の第1実施形態に係る内視鏡システムにおける画像情報と関連情報を用いた推論を説明する図である。 本発明の第2実施形態に係る内視鏡システムの主として電気的構成を示すブロック図である。 本発明の第2実施形態に係る内視鏡システムの撮像動作を示すフローチャートである。 本発明の第2実施形態に係る内視鏡システムの第2推論動作を示すフローチャートである。 本発明の第3実施形態に係る内視鏡システムの主として電気的構成を示すブロック図である。 本発明の第3実施形態に係る内視鏡システムの撮像動作を示すフローチャートである。 本発明の第4実施形態に係る内視鏡システムの主として電気的構成を示すブロック図である。 本発明の第4実施形態に係る内視鏡システムの撮像動作を示すフローチャートである。
 以下、本発明の好ましい実施形態として、本発明を内視鏡システムに適用した例について説明する。この内視鏡システムは、人体に挿入する挿入部に、撮像部が設けられている内視鏡装置10と、撮像部から出力される画像情報を入力し、画像処理を行う処理装置20とから構成される。
 前述したように、内視鏡装置10は画像情報を処理装置20に出力する際に、この画像情報に関連する関連情報を出力することが可能である。関連情報を出力するか否かは、内視鏡装置10および/または処理装置20の記録部に記録されている認証用信号に基づいて決定される。すなわち、内視鏡装置10は、予め認証されている場合に限り、関連情報を処理装置20に出力することができる。または、内視鏡装置10が関連情報付きの画像情報を出力しても、処理装置20が予め認証されていない場合には、関連情報付きの画像情報から関連情報を抽出することができない。
 関連情報は、処理装置20において、推論や画像処理等を行う際に使用される。関連情報(補助情報)は、画像に加えて取得することによって、AIがより高機能・高性能な処理ができるようになる種類の情報である。関連情報は、画像表示用の画像データに関連しながら、当該画像の再生そのものには特に影響を与えないような情報である。例えば、関連情報としては、画像データが、表示、または記録可能な画像コマ情報に処理した時に用いたパラメータ情報であってもよい。また、関連情報としては、画像コマの番号に関する情報、画像コマの中の位置に関する情報、画像コマにおいて検出された物に関する情報、画像コマには写っていない物に関する情報であってもよい。また、関連情報としては、撮像素子のRAW画像情報、画像処理に使用されなかった撮像情報、撮像部における撮像レンズの光学情報、内視鏡の操作情報等があってもよい。また、関連情報は、画像コマの画像データに関連する関連情報であれば、内視鏡装置10そのものではなく、別の装置から取得してもよい。すなわち、関連情報の起源は内視鏡装置10以外にあってもよい。処理装置20は、関連情報を用いることによって、より精度の高い推論を行ったり、画像処理を行ったりすることができる。
 このように、本発明の好ましい実施形態においては、認証用信号(要求信号ともいう)に基づいて、関連情報を利用できるか否かを決定している。これは、処理装置20において、不必要な関連情報を出力すると処理に負荷がかかることから、必要な場合に認証用信号に基づいて関連情報を出力するようにしている。また、関連情報の提供にあたって、契約関係を必要とする場合があり、契約関係があることが確認された場合に認証用信号(要求信号)を出力するようにしてもよい。
 次に、図1ないし図3を用いて本発明の第1実施形態に係る内視鏡システムについて説明する。この内視鏡システムは、内視鏡装置10、処理装置20から構成されている。内視鏡装置10は、制御部11、撮像部12、画像処理部13、通信部14、記録部15、関連情報部16、時計部17を有している。
 内視鏡装置10内の各ブロック等は、内視鏡装置10から分離して他の装置としても使用できる、いわばIoT機器として発展することを想定して、端末機器と同様のハードウエアを搭載した例を示している。しかし、内視鏡装置10が処理装置20と連携する等によって、役割を分担すれば、省略が可能な機能ブロックもある。内視鏡装置10は、空洞や管状物の中に挿入して内部を観察するために、長い円筒状チューブからなる挿入部用の部分を備えているが、この挿入部は可撓性を有するものや有しないものがある。また挿入部の先端に撮像部12が設けられていることが多い。
 撮像部12は、撮像部、光源部、操作部および処置部を有する部分を想定している。撮像部は、撮像用の光学レンズ、撮像素子、撮像制御回路等を有する。また、自動焦点調節機能を有する場合には、焦点検出回路、自動焦点調節装置等を有する。光学レンズは対象物の光学像を形成する。撮像素子は光学像が形成される位置付近に配置され、光学像を画像信号に変換し、この画像信号をAD変換した後に、画像処理部13に出力する。撮像制御回路は、制御部11から撮像開始指示を受けると、撮像素子から所定のレートで画像信号の読み出し制御等を行う。撮像部12は、内視鏡内に設けられた撮像素子から画像コマ情報を順次取得する画像コマ情報取得部(取得回路)として機能する。撮像部12内の撮像素子は、内視鏡内に設けられ画像コマ情報を順次取得する撮像素子として機能する。
 また、撮像部12内の光源部は、観察を容易にするために、体腔内の消化管壁等を明るくするための照明を行う。光源部は、レーザ光源、LED光源、キセノンランプ、ハロゲンランプ等の光源を含み、また照明用の光学レンズを有する。照明光の波長に応じて組織の検出特性が変わるので、光源の波長を変える機能を有してもよく、波長変更に応じて、画像処理を変える手法なども知られている。検出は必ずしも医師が目視で行う必要はない。また撮像部12内の操作部は、内視鏡静止画像の撮影指示、内視鏡動画像の撮影開始と撮影終了指示を行うための操作部材や、操作に関連して動作する動作部、処置部、機能実行部等を有する。また内視鏡画像のフォーカスの切替指示を行うための操作部材を有している。
 さらに、撮像部12内の操作部は、内視鏡の挿入部の先端を湾曲させるための操作用アングルノブを有する。また、可撓管を通じて体腔内に送気・送水する機能や、空気や液体を吸引する機能を実行するための機能実行部を有する。また、処置部は、組織の一部をとる生体検査を行うための生検鉗子等の処置具等の機能実行部を有し、また、ポリープ等の患部を除去するためのスネア、高周波メス等の処置具を有する。これらの処置具等の機能実行部(大括りには操作部に分類してもよい)は、機能実行部を動作させる操作部材によって操作することができる。
 画像処理部13は、画像処理回路を有し、撮像部12から画像信号を入力し、制御部11からの指示に応じて、現像処理等、種々の画像処理を施し、通信部14および記録部15に出力する。画像処理部13における画像処理としては、画像の色味や明るさ調節の他、視認性を向上させるコントラスト強調やエッジ強調等の強調処理や、自然な階調にするための階調処理を行ってもよく、さらには、複数の画像コマを用いて画質を向上させるHDR(High Dynamic Range)処理や超解像処理等の複数枚合成等の処理を行ってもよい。画像処理部13は、画像コマ情報を視認可能な情報に画像処理する画像処理部(画像処理回路)として機能する。なお、画像処理部13は、処理装置20内の画像処理部23に上述した機能を委ね、内視鏡装置10から省略してもよい。しかし、内視鏡装置10がIoT機器として独立性を求める場合は、内視鏡装置10内に画像処理部13を設けておけば、外部へ画像送信を行うことができるなど、自由度を増すことができる。
 通信部14は、通信回路を有し、処理装置20内の通信部22と、各種通信を行う。各種通信としては、例えば、非圧縮のデジタルビデオ信号を同軸ケーブル1本で伝送することができるSDI(Serial Digital Interface)や、デジタル家電やAV機器間で高品位な映像や音声をやり取りするためのインターフェースとして知られるHDMI(登録商標)(High-Definition Multimedia Interface)などがある。ただし、前述したように、内視鏡装置10が画像処理部13を備えていない構成の場合には、低振幅な差動信号を使って高速にデータを伝送し、長い伝送距離に対応したLVDS(Low voltage differential signaling)等のシリアル・インタフェースの通信方式を用いて、撮像部12の信号を後段機器に送信してもよい。
 通信部14は、例えば、画像処理部13によって処理された体腔内の観察画像を示す画像データを処理装置20に送信する(後述する図2のS5参照)。処理装置20は、この画像データに基づいて表示部24に体腔内の画像を表示する。また、契約等に基づいて関連情報(補助情報)を送信することが許可されている場合には、画像データに関連情報を関連付けて処理装置20に送信する。動画の画像データを送信する際には、動画のコマを示す情報を付して送信し、関連情報が有る場合には、コマ情報にも関連付けてもよい。コマ情報としては、画像コマ(撮像コマ)の順番を示す情報でもよく、また撮像時点における日時情報等の時間を表す情報でもよい。また、通信部14は、処理装置20から要求信号等を受信する(後述する図2のS7、S9参照)
 また、図1では通信部14は、処理装置20の通信部22とのみ通信を行うように接続されているが、処理装置20以外の装置、例えばコンピュータ診断支援装置(CAD)40(以下、CADボックス40と称す)に画像データ等の情報を送信するようにしてもよい。この場合には、処理装置20以外の他の装置が画像データを受信し、この画像データに基づく画像をディスプレイに表示することが可能である。
 つまり、内視鏡装置10の仕様環境下で想定した処理装置20が接続されていない場合に、CADボックス40等の外部機器が画像データ等を受信して、この外部機器が、処理装置20における想定された処理以外の処理を実行し、何らかの結果を出力する可能性がある。処理装置20を想定して検査を行う場合には、推論部26の推論結果を表示することや、推論結果に基づいてガイドや制御することなどが前提となっている。しかし、CADボックス40等の外部機器が内視鏡装置10からの画像データに基づいて何らかの処理を行った場合には、処理装置20が想定している検査の場合と異なる結果が得られる可能性がある。外部装置が、内視鏡装置10の開発時の意図とは異なる推論等を行うと、説明可能な結果ではなくなってしまう。例えば、ディープラーニングで得られた推論モデルがブラックボックスになってしまうと、その推論の根拠がわからなくなってしまう問題が生じうる。
 通信部14の通信先が、スマートフォンなどの携帯端末やPCなどの情報端末になる場合も想定される。この場合には、通信先の装置・機器である情報端末が、独自のアプリケーションを用いて、内視鏡画像の加工や、内視鏡画像を用いた推論、さらには、内視鏡の操作部の制御や、操作の補助や、処置部や機能実行部の制御や補助をする可能性がある。これらの場合の適合性に対する責任の所在があいまいになる可能性があるので、曖昧にならないように対処することが望ましい。
 また、表示用の画像データを用いて推論する以外にも、記録された画像データを用いて推論を行ったり、推論モデルを作成したりする場合にも、同様の問題が発生する可能性がある。そこで、上述したように表示用に通信部から出力される画像データのみならず、記録部15や記録部25に記録された画像データについても、本願の技術思想が適用されることを想定している。
 通信部14は、画像処理された視認可能な情報を外部に出力する画像出力部(画像出力回路)として機能する。通信部14は、推論装置から関連情報の取得に関する要求信号を取得する要求信号取得部(入力回路、取得回路)ととして機能する。また、通信部14は、要求信号の合否判定に従って画像コマ情報と、当該画像コマに関連情報を合わせて出力する出力部(情報出力回路)として機能する。
 記録部15は、電気的に書き換え可能な不揮発性メモリを有する。この記録部15は、画像処理部13によって出力された画像データを記録する。また、記録部15は、認証用データ15aを記録可能である。この認証用データ15aは、内視鏡装置10や処理装置20が、外部装置に画像データを出力する際に、関連情報(補助情報)を関連付けて出力することが許可されている場合に、認証用データ15aが記録部15に記録される。例えば、内視鏡装置10や処理装置20の所有者や製造メーカ等と、外部装置の所有者や製造メーカ等との間に、契約関係が成立している場合に、認証用データ15aを記録部15に記録するようにしてもよい。また、処理に不必要な負荷をかけないために、関連情報を出力しないようにしたい場合には、認証用データ15aを記録しないようにしてもよい。また、記録部15に制御部11の制御のための情報を記録しておいてもよい。
 関連情報部16は、関連情報(補助情報)を取得し、取得した関連情報を通信部14および制御部11に出力する。関連情報としては、例えば、撮像素子のRAW画像情報、画像処理に使用されなかった撮像情報、撮像部における撮像レンズの光学情報、内視鏡の操作情報等がある。画像処理部13が処理した画像データに、関連情報が関連付けられる。この場合、画像コマ単位で関連情報が画像データに関連付けられる。関連情報部16は、順次取得した画像コマ情報に対応し、内視鏡鏡から関連情報を順次取得する関連情報取得部(取得回路)として機能する。
 時計部17は、クロック信号を発生し、また日時情報等の時間に関する時間情報を出力する。この時間情報は、撮像部12から出力される画像データの各コマの撮像時を示す情報として使用される。例えば、画像コマに日時情報を付随させれば、いつ撮像された画像コマであるかが分かる。
 制御部11は、CPU(Central Processing Unit)等とその周辺回路およびメモリ等を有するプロセッサである。このプロセッサは1つであってもよく、また複数のチップから構成されてもよい。CPUはメモリに記憶されたプログラムに従って、内視鏡装置10内の各部を制御することによって内視鏡装置10の全体を実行する。内視鏡装置10内の各部は、CPUによってソフトウエア的に制御することによって実現される。また、制御部11は、処理装置20内の制御部21と協調して動作し、内視鏡装置10と処理装置20が一体となって動作するようにしてもよい。
 制御部11内には、撮像開始読出制御部11aと、コマ情報部11bを有する。撮像開始読出制御部11aおよび/またはコマ情報部11bの機能は、プログラムによってソフトウエア的に実現されてもよく、またハードウエアによって実現されてもよい。撮像開始読出制御部11aは、医師が内視鏡装置10の操作開始を指示した際に、撮像部12に撮像開始を指示し、画像の読み出し制御を開始させる。コマ情報部11bは、撮像部12から出力される動画の画像データにコマの位置を示すコマ情報を生成する。画像データは所定のレートで読み出されるので、コマ情報としては撮像開始からのコマ番号でもよいし、撮像終了コマからのコマ番号でもよいし、適当なシーン検出が行われた時点を基準にし、この基準時点からのコマの番号でもよい。また、1コマごとでなくともよく、複数コマごとでもよく、また時計部17から出力された時間情報に基づいてコマ情報を生成してもよい。
 処理装置20は、内視鏡装置10によって取得された画像データ等を受信し、画像データに基づいて観察画像を表示部24に表示したり、また診察・診断支援用のアドバイス表示をしたりする。また、処理装置20は、これらの画像データ等を記録する。なお、表示部そのものは、処理装置20に設けずに、外部機器で行ってもよく、また、記録部も外部機器に設けて記録するようにしてもよい。この場合には、処理装置20は、これらの表示処理や記録処理の制御を行えればよい。
 処理装置20は、制御部21、通信部22、画像処理部23、表示部24、記録部25、推論部26、および時計部27を有する。
 通信部22は、通信回路を有し、内視鏡装置10内の通信部14と、各種通信を行う。この通信部22は、前述したように、例えば、画像処理部13によって処理された体腔内の観察画像を示す画像データを内視鏡装置10から受信し、画像処理部23に出力し、画像処理部23は、表示部24において表示可能な画像データとなるように画像処理を施し、この画像データを表示部24に送信する。この表示部24は、図1においては、処理装置20の内部に設けられているが、処理装置20の外部に設け、利用者の使い勝手に応じて、壁に掛けたり、机上に設置したりして使用してもよい。この場合には、画像処理部23と表示部24の間に、通信部14と通信部22と同様に、通信部を介在させればよい。但し、図1においては、説明を簡単にするために記載を省略している。
 この図示しない画像処理部23と表示部24の間に設ける通信部が用いる通信方式としては、例えば、非圧縮のデジタルビデオ信号を同軸ケーブル1本で伝送することができるSDI(Serial Digital Interface)や、デジタル家電やAV機器間で高品位な映像や音声をやり取りするためのインターフェースとして知られるHDMI(登録商標)(High-Definition Multimedia Interface)などがあることは前述のとおりである。この不図示の通信部でも、通信を行えるので、外部装置であるCADボックス40が、通信データ(画像データ)を利用して、何らかの処理や判定を行う可能性があり、この処理結果や判定結果が表示部24に表示されることもある。この表示部は民生用のテレビやパソコン用のモニタなどが使用される場合もある。また、CADボックスが類似の表示や警告を行う機能を有する可能性もある。
 また、通信部22は、受信した画像データを推論部26に出力する。推論部26は、後述するように、画像データに基づいてアドバイスするための推論を行い、推論結果は、制御部21を通じて画像処理部23に送信され、画像にアドバイスが重畳される。また、通信部22は、通信部14を通じて、画像コマに対応する画像データを入力した際に、関連情報(補助情報)を利用する場合には、内視鏡装置10に対して要求信号を送信する(後述する図2のS7参照)。
 画像処理部23は、通信部22によって取得された画像データに画像処理を施す。ここでの画像処理としては、例えば、前述したように、推論結果を体腔内の画像に重畳させるための画像処理等であってもよい。また、表示部24における表示を行うための画像処理を行う。
 表示部24は、表示用のディスプレイや表示制御回路等を有し、画像処理部23によって画像処理された画像を表示する。なお、前述したように、表示部24は、処理装置20内に設けなくてもよく、外部の表示装置によって観察画像の表示を行うようにしてもよい。また、表示部24は、記録部25に記録されている体腔内の画像を表示してもよい。また、表示部24は、推論部26における推論結果、例えば、診察・診断支援用のアドバイスを表示してもよい。
 記録部25は、電気的に書き換え可能な不揮発性メモリを有する。この記録部25は、画像処理部23によって出力された画像データを記録する。また、記録部25は、認証用データ25aを記録可能である。処理装置20が、外部装置(例えば、CADボックス40)に画像データを出力することが可能な場合であって、かつ関連情報(補助情報)を画像データに関連付けて出力することが許可されている場合に、許可されている旨を認証用データ25aに記録しておいてもよい。例えば、処理装置20の所有者や製造メーカ等と、外部装置(例えば、CADボックス40)の所有者や製造メーカ等との間に、契約関係が成立している場合に、許可されている旨を認証用データ25aに記録するようにしてもよい。なお、内視鏡装置10と処理装置20の間、あるいは、処理装置20とCADボックス40の間における認証を想定した説明を行ったが、内視鏡装置10とCADボックス40が直接、通信を行う場合もあり、その場合は、この認証用データ25aが内視鏡装置10の記録部15の認証用データ15aに記録されているものとする。
 また、記録部25は、画像処理部23によって出力された画像データを記録する以外にも、画像コマの画像データに関連情報(補助情報)を関連付けて記録してもよい。この記録された関連情報付きの画像データを用いて教師データを作成し、この教師データを用いて学習し、推論モデルを生成してもよい。この場合、関連情報を画像データに埋め込んでおき、関連情報を読み出すことができれば、関連情報が加味された信頼性や性能の高い推論モデルを生成できる。
 また、記録部25は、推論部26における推論結果を記録してもよい。この場合、画像コマの画像データに関連付けて推論結果を記録するようにしてもよい。さらに、CADボックス40内の推論部から推論結果を入力できた場合には、推論元(ID情報)と共に記録部25が記録してもよい。後述する第2推論部36から推論結果を入力した場合も、同様に記録しても良い。すなわち、推論結果を記録する場合に、推論元(ID情報)がいずれの推論部であるかをエビデンスとして記録しておくとよい。
 上述したように、記録部25に、どのような推論結果をどの推論モデルで推論したかの関係を明確にして記録することについて述べた。この記録にあたっては、画像データに対し、その画像データに対応する画像コマを利用して推論した結果の情報や、それを推論した推論モデルの情報を、関連づけて記録すればよい。また、各画像コマを表示する際にも、推論結果が、例えば、画面内に重畳される枠表示その他で表示される場合があり(画面内位置情報、画面内座標情報などでデータ化可能)、この場合にも、どの推論モデルが推論したかを併せて表示した方が良い。
 特に、図1に示すように、処理装置20に内蔵の推論モデル26に加えて外付けのCADボックス40が推論する場合には、それぞれの推論部が異なる目的で機能する可能性もあり、推論結果の表示や記録が、どちらのモデルに起因するかを区別できるようにした方が良い。そのためには、画像データのファイルのメタデータ用に設けられた特定の複数の記録領域に、例えば、画面内の位置情報や推論結果を記録し、また、それぞれの記録領域ごとに対応させた、それぞれ別の記録領域に推論を行った推論モデル名等のID情報を記載するようにしてもよい。推論モデルがバージョンアップする場合は、そのバージョン情報や推論日等も合わせて記録するようにすればよい。また、情報量が多くなりすぎると、データが大型化し、取り扱い上の負担が増加するので、特定の推論モデルの推論結果を記録したり、表示したり選択可能にする本実施形態に示すような手法は、このような状況下でも効力を発揮する。
 上述したような工夫を行うことによって、撮像部から時系列で、画像コマを構成する画像データを取得し、処理部が撮像部との通信によって画像データを受信して推論部に出力し、対応する画像コマの中に撮像された特定の対象物を推論させ、対象物の推論結果を表示用または記録用に出力させる情報出力方法において、撮像部と処理部との通信によって、画像コマの画像データに対応する関連情報を推論部に入力して得られた推論結果を画像コマと併せて表示、または画像データと併せて記録するかどうかを判定するステップとを具備することを特徴とする情報出力方法も提供可能になる。また、関連情報を入力して得られた推論結果と、関連情報を入力せずに得られた推論結果を区別して表示したり、記録したりする方法も提供可能となる。
 なお、図1においては、記録部15と記録部25にそれぞれ認証用データを記録可能としているが、いずれか一方に記録可能とし、いずれか一方に認証用データが記録されている場合に、外部装置(例えば、CADボックス40)に、画像データを出力する際に、関連情報(補助情報)を関連付けて出力するようにしてもよい。
 推論部26は、推論エンジンを備えており、内視鏡装置10からの画像コマの画像データ等を入力し、例えば、医師に診断の際の支援を行うためのアドバイスを推論する。推論エンジンには、このアドバイスを推論するための推論モデルが設定されている。推論エンジンは、ハードウエアによって構成されていてもよく、またソフトウエアによって構成されていてもよい。推論エンジンに入力するデータとしては、画像コマの画像データに限らず、内視鏡装置10から画像データと一緒に送信されてきた関連情報(補助情報)を入力し、推論するようにしてもよい。関連情報を用いて推論することによって、より信頼性の高い推論結果を得ることができる。そのため、関連情報を用いて推論した方が、信頼性が向上する場合には、内視鏡装置10に対して、関連情報の送信を要求する要求信号を、通信部22を通じて出力する。
 また、推論部26は、内視鏡10からの画像データや関連情報(補助情報)以外にも、例えば、画像処理部23が生成する画像データを入力して推論してもよい。推論部26は、画像データを入力し、推論モデルを用いて推論することによって、内視鏡装置10の撮像部12によって取得された画像の中に写っている対象物(臓器等)が何であるかを特定したり、その画像を区分けしたり(セグメンテーション)、分類したり、良否判定等の推論を行ってもよい。
 時計部27は、クロック信号を発生し、また日時情報等の時間に関する時間情報を出力する。前述したように、撮像部12から出力される画像データの各画像コマの撮像時を示す情報が付与されている場合には、時計部27からの時間情報と同調させればよい。
 制御部21は、CPU(Central Processing Unit)等とその周辺回路およびメモリ等を有するプロセッサである。このプロセッサは1つであってもよく、また複数のチップから構成されてもよい。CPUはメモリに記憶されたプログラムに従って、処理装置20内の各部を制御することによって処理装置20の全体を実行する。また、制御部21は、内視鏡装置10内の制御部11と協調して動作し、内視鏡装置10と処理装置20が一体となって動作するようにしてもよい。
 また、制御部21は、通信部22を通じて、処理装置20が画像コマに対応する画像データを入力した際に、推論部26において、画像コマに対応する画像データと共に関連情報(補助情報)を利用する場合には、内視鏡装置10に対して要求信号を送信する(後述する図2のS7参照)。この要求信号は、認証用データ25aに基づいて行い、内視鏡は合否判定の結果、許可されれば、関連情報(補助情報)が送信されてくる(後述する図2のS15参照)。なお、認証用データ25aに基づく要求信号は、内視鏡装置10と処理装置20の間で、通信を行った際に、送信してもよい。すなわち、画像データの受信前に内視鏡装置10から許可を事前に取得できるようにしてもよい。
 図1に記載されたCADボックス40は、処理装置20の画像処理部23が画像処理した画像データを入力できる場合がある。このCADボックス40内には、通信部、制御部、推論部等を有する。推論部は、処理部20から取得した画像データを入力し、推論を行い、推論結果を表示したり、処理装置20等に出力したりすることができる。なお、前述したように、内視鏡装置10の通信部14が、CADボックス40の通信部と通信を行い、内視鏡装置10が直接、CADボックス40に画像データを送信できるようにしてもよい。この場合、内視鏡装置10とCADボックス40の間で契約関係等が成立した際に、認証用データ等に基づいて合否判定を行い、関連情報(補助情報)をCADボックス40に送信するようにしてもよい。この場合、CADボックス40内の推論部は、外部の推論装置として機能する。
 図1に記載された内視鏡システムは、下記のような構成を有しているといえる。撮像素子から時系列で、画像コマを構成する画像データを取得する撮像部(取得回路)(例えば、撮像部12)と、対応する画像コマの中に撮像された特定の対象物を推論(例えば、対象物の特定、セグメンテーション、分類、良否判定等の推論)させるために、画像データを、推論部(推論エンジン)(例えば、推論部26)を有する処理部(プロセッサ)に出力する出力部(出力回路)(例えば、通信部14)と、対象物の推論結果を表示用および/または記録用に出力する出力部(出力回路)(例えば、表示部24や記録部25への出力部)と、を具備しており、画像コマ取得のタイミングで得られた関連情報を出力し(例えば、後述する図2のS5参照)、撮像部(取得回路)と処理部(プロセッサ)との通信によって、画像コマの画像データに対応する関連情報を推論部(推論エンジン)に入力するかどうかを判定している(例えば、後述する図2のS11~S13参照)。
 また、図1に記載された内視鏡システムは、下記のような構成を有しているともいえる。内視鏡内に設けられた撮像素子から画像コマ情報を順次取得する画像コマ情報取得部(情報取得回路)(例えば、撮像部12)と、画像コマ情報を視認可能な情報に画像処理する画像処理部(画像処理回路)(例えば、画像処理部13)と、画像処理された視認可能な情報を外部に出力する画像出力部(画像出力回路)(例えば、通信部14)と、順次取得した画像コマ情報に対応し、内視鏡鏡から関連情報を順次取得する関連情報取得部(関連情報取得回路)(例えば、関連情報部16)と、推論部から関連情報の取得に関する要求信号を取得する要求信号取得部(要求信号取得回路)(例えば、通信部14)と、要求信号の合否判定に従って画像コマ情報と、当該画像コマに関連情報を併わせて出力する出力部(出力回路)(例えば、通信部14)と、を有している。
 次に、図2に示すフローチャートを用いて、内視鏡システムにおける撮像動作について説明する。このフローは、制御部11および制御部21内の各CPUがプログラムに従って、内視鏡装置10と処理装置20を協働させることによって実現する。
 図2に示すフローの動作が開始すると、まず、撮像制御を開始する(S1)。ここでは、制御部11内の撮像開始読出制御部11aが、撮像部12内の撮像素子および撮像制御回路に対して、撮像動作の開始を指示する。撮像動作は、予め決められたフレームレートの時間間隔で1画面(1フレーム)分の撮像信号を読み出す。撮像動作はステップS17において、撮像動作が終了と判定されるまで繰り返し続行する。
 次に、撮像および画像処理を行う(S3)。ここでは、撮像部12が撮像動作を行い、画像処理部13は、撮像部12内の撮像素子からの画像信号を、視認可能な情報となるように、画像処理する。なお、このステップにおいて、画像処理を行っているが、画像処理を省略し、撮像によって画像信号を取得するだけでもよい。続いて、画像コマを把握し、処理結果を出力する(S5)。撮像素子からは、所定の時間間隔(レート)で1コマ分の画像信号が読み出される。そこで、このステップS5では、1コマ分の画像コマに対応する画像データ単位で、画像処理を行い、画像処理が施された画像データを通信部14および記録部15に出力する。また、関連情報部16は、画像コマを把握する際に、画像コマ毎に関連情報を取得する。
 次に、要求信号を判定する(S7)。処理装置20は、内視鏡装置10からの画像データを用いて推論する場合に、画像コマの画像データに関連付けられている関連情報(補助情報)を利用する場合がある。この場合に、処理装置20は、画像データに関連情報(補助情報)を関連付けて送信することを要求信号として、内視鏡装置10に送信して来る。要求信号は、アナログ信号でもよく、デジタル信号でもよく、またデジタルデータであってもよい。このステップS7では、処理装置20からの要求信号の有無を検出する。要求信号として、さらに推論部のID情報を取得してもよい。内視鏡装置10からの画像データは、複数の推論部において、それぞれ推論される場合があることから、いずれの推論部に送信した画像データ(および関連情報)であるかを認識できるようにするために、画像データ等を送信するに先立って推論部のID情報を取得しておいてもよい。
 なお、処理装置20に限らず、処理装置20と接続しているCADボックス40が、関連情報(補助情報)を要求してくる場合があるので、CADボックス40からの要求信号を判定するようにしてもよい。すなわち、画像コマに関連する関連情報(補助情報)は推論装置における推論に使用されるので、内視鏡装置10の外部装置であって、推論装置を有する装置から受信した要求信号を判定できるようにしてもよい。また、関連データに対する要求は、画像データに対する要求でもよい。
 次に、要求信号があったか否かを判定する(S9)。ここでは、ステップS7において、要求信号の有無の検出結果に基づいて判定する。
 ステップS9における判定の結果、要求信号があった場合には、合否判定を行う(S11)。本実施形態においては、例えば、内視鏡装置10や処理装置20の所有者や製造メーカ等と、外部装置の所有者や製造メーカ等との間に、契約関係が成立している場合に、認証用データ15aおよび/または認証用データ25aが記録部に記録されている。そこで、ステップS11においては、認証用データが記録部に記録されているか否かを検出する。処理装置20内の記録部25に認証用データ25aが記録されている場合には、内視鏡装置10と処理装置20を接続した際に、通信部を通じて認証用データ25aを内視鏡装置10内に転送しておいてもよく、また、ステップS7を実行する際に、処理装置20と通信によって確認するようにしてもよい。
 言い換えると、要求信号の合否判定は、画像コマの画像データとこの画像コマの関連情報を出力する出力先を判定し、出力先と契約関係にあるか否かを確認し、この確認結果に基づいて、要求を受け入れるかどうかを決定する。すなわち、合否判定の結果、出力先と契約関係にある場合には、要求信号に応じて、画像コマの画像データとこの画像コマに関連する関連情報を合わせて出力し、一方、出力先と契約関係にない場合には、画像コマの画像データのみを出力する。また、契約関係以外にも他の事情に応じて、合否判定を行ってもよい。ステップS11においては、認証用データが記録されていれば、「合」であり、記録されていなければ、「否」である。合否判定には、認証用データの合致を確認する以外にも、種々のやり方があり、これらについては、本フローを説明した後にまとめて説明する。
 ステップS13における判定の結果、「否(不許可)」でなければ、すなわち、「合(許可)」であれば、画像コマ対応の関連情報を出力する(S15)。ここでは、契約関係が成立していることから、関連情報を関連付けた撮像コマの画像データを、処理装置20に出力する。この関連情報が関連付けられた画像データは、処理装置20を通じて、外部装置であるCADボックス40に出力可能となる。一方、要求信号がなかった場合および/または「否」であった場合には、関連情報が関連付けられていない画像データのみが、処理装置20に出力される。
 ステップS15において関連情報付きの画像データを出力すると、またはステップS13における判定の結果が「否」であった場合、またはステップS9における判定の結果、要求信号がなかった場合には、次に、終了か否かを判定する(S17)。医師が内視鏡検査の終了操作等を行った場合には、終了と判定する。この判定の結果、終了でない場合には、ステップS1に戻り、一方、終了であった場合には、終了処理を行った後、本フローを終了する。
 このように、図2に示すフローにおいては、処理装置20が関連情報を要求する場合には、内視鏡装置10に要求信号を送信してくる(S7、S9参照)。要求信号があった場合には、内視鏡装置10は、関連情報付きの画像データを送信することが許可されているか否かを判定し(S11、S13参照)、許可されている場合には、画像コマに対応する関連情報付きの画像データを処理装置20に送信する(S15参照)。
 図2に示すフローは、さらに別の見方をすると、内視鏡の撮像素子からの画像コマ情報を順次取得する画像コマ情報取得ステップと(S1参照)、画像コマ情報を視認可能な情報に画像処理する画像処理ステップと(S3参照)、視認可能な表示用情報を外部に出力する画像出力ステップと(S5参照)、順次取得した画像コマに対応し、順次得られる関連情報を取得する関連情報取得ステップと(S5参照)、画像コマ情報を用いた推論を行う推論部(専用の推論装置である必要はなく、推論機能を有していればよい)からの関連情報の要求信号を取得する要求信号取得ステップと(S7、S9参照)、要求信号の合否判定に従って画像コマ情報に対応した表示用情報と、当該画像コマに関連情報を併わせて出力する出力ステップと(S15参照)、を有している。
 上述したように、図2のステップS7、S9において、画像コマ情報を用いた推論を行う推論部からの関連情報の要求信号を取得している。具体的には、これらのステップにおいては、推論部のID情報を取得しておいてもよく、さらに、ステップS16において、表示用情報を外部に出力する際に、ID情報に関連した情報を表示用情報と併せて出力してもよい。すなわち、要求信号取得ステップにおいて、さらに推論部のID情報を取得し、出力ステップにおいて、ID情報に関連した情報を表示用情報と併せて出力している。
 なお、本実施形態においては、要求信号があった場合に合否判定を行い(S11)、許可されている場合に、関連情報付きの画像データを送信していた(S15)。しかし、これに限らず、例えば、合否に関わりなく、暗号化した関連情報付きの画像データを送信し、画像処理装置20において、許可されている場合に、復号化するようにしてもよい。この場合には、画像処理装置20において暗号キーを保持しておく。また、関連情報と画像データを別々に送信するようにしてもよい。すなわち、許可されている場合にのみ、関連情報を送信し、画像処理装置20において、画像コマ毎に画像データに関連付けるようにしてもよい。いずれにしても、許可されている場合にのみ、画像処理装置20(場合によっては、CADボックス40)が、関連情報を取得できるようにすればよい。
 前述したように、内視鏡装置10内に記録されている認証用データ15aが記録されていないと、どの装置に情報を出力し、どの装置に出力しないかについて、制御部11が決定することができない。ステップS11における合否判定においては、記録部15に記録された認証用データ15aを参照し、この認証用データに対応する信号を出力する機器にのみ、ステップS15において、補助情報を送信するようにしてもよい。また、処理装置20記録部25に記録された認証用データ25aの内容を通信で確認し、記録部15に記録された認証用データ15aと照合できれば補助情報を出力するという方法を採用してもよい。また、内視鏡装置10(処理装置20でもよい)に記録された情報にアクセスできる機器だけが、補助情報を受け取れるような構成でもよい。内視鏡装置10にある情報にアクセスできれば、処理装置20の制御部21が、データの読み出しや解読が出来るという方法を採用してもよい。
 また、情報が画一的であったり規則的であったりすると、個々の機種ごとの取り決めが出来ず、一括になってしまうので、認証情報は、機器ごとにユニークなものを持つようにした方が良い。例えば、内視鏡装置10と処理装置20を略同時に製造して、製造工程でペアリングする方法もあれば、市場に出荷する際にデータベース管理した情報から、対応するものを記録して出荷する方法もある。また、インターネット等を通じて、両方の機器に対応する情報を割り振って送信し、この情報を各機器に記録させる方法もある。また、接続状態で、どちらかの機器に送信すれば、機器同士で認証の方法を確立するような工夫を行うことも可能である。
 また、内視鏡装置10の記録部15に、どのような補助情報が、どのような規則で出力されるかなどを示す情報を記録しておけば、この情報に応じて処理装置20側が、必要とする情報を選択的に受け取ることを可能としてもよい。
 また、CADボックス40は、上述したような内視鏡装置10と処理装置20の間で相互の認証などが確立している状況下で、異なる推論などを行って表示等をすると、利用者が混乱してしまう。そこで、CADボックス40を利用する時には、処理部20の推論部26の推論結果と、CADボックス40による推論結果を、分けて表示できるようにすることが好ましい。そのためにも、CADボックス40内の制御部(不図示)は、処理部20内の制御部21と連携して、表示の仕方等を取り決めた情報を出力する方がよい。また、このような取り決めを仕様的に整合してあるか否かは、機器間の認証が出来たか否かに基づいて、確認できるようにしてもよい。特定の機器の組合せでトータルな性能や仕様が決まるシステム機器の場合、情報の突き合わせやお互いの機能分担などの確認方法が分からないと、ユーザが混乱してしまうおそれがあるので、確認方法を取り決めておくとよい。
 また、本実施形態においては、内視鏡装置10のコマ情報部11bや関連情報部16が収集した関連情報があることを、処理装置20等、内視鏡装置10の外部に通知してはいない。しかし、関連情報があること(場合によっては、その関連情報の種類)を、処理装置20等の外部装置に通知するようにしてもよい。そして、処理装置20等の外部装置は、内部の推論部等において関連情報を利用するために、内視鏡装置10に関連情報の出力を要求するようにしてもよい。この場合には、ステップS5において、関連情報があることを外部装置に通知し、ステップS7において外部装置からの要求信号を判定するようにしてもよい。この変形例では、追加関連情報の有無を出力するステップと、 追加関連情報の要求を入力するステップと、を有する。
 なお、図2においては、ステップS15において、内視鏡装置10が、画像コマ対応の関連情報を出力している。しかし、内視鏡装置10以外の装置から関連情報を出力するようにしてもよい。例えば、処理装置20内やCADボックス40内の推論部が推論した結果を参考に閲覧する医師の様子を、外部のカメラで撮像した画像を、画像コマのタイミングで関連情報として出力してもよい。
 また、図2に示した撮像のフローにおいては、内視鏡装置10と処理装置20の全体的な動作が記載されており、処理装置20の単独の動作について直接の記載がない。処理装置20は、内視鏡装置10の撮像部から時系列で、画像コマを構成する画像データを入力するステップと、関連情報を入力するために要求信号を出力するステップと、画像コマ取得のタイミング得られた関連情報を入力するステップと、対応する画像コマの中に撮像された特定の対象物を推論するために、画像データと関連情報を推論部に入力させるステップと、対象物の推論結果を表示用または記録用に出力するステップと、を実行する。具体的には、内視鏡装置10に対して、認証用データ25aに基づいて、要求信号を送信する。すなわち、制御部21が、内視鏡装置10の制御部11に対して、処理装置20が補助情報を受け取る権利があるかないかの情報を伝達する。この補助情報の受信が許可されているか否かの方法については、上述した認証用データ15aの認証方法等、種々の方法を利用することができる。
 次に、図3を用いて、画像コマ毎に関連付けられた関連情報(補助情報)の出力タイミングと、AIを用いた推論結果の出力について説明する。図3の左側には、各時刻T1~T9において、時系列的に取得した画像コマの画像データP1~P9を示す。また、各画像データP1~P9を取得する際に、併せてコマ情報部11bは、各画像コマの画像データに関連付けて関連情報を取得する。
 この例では、関連情報は、補助情報1、補助情報とからなる。補助情報1は、内視鏡装置の先端部から観察対象物(例えば、消化管壁)までの距離を示す。図3の例では、時刻T5、T6において観察対象物までの距離がそれぞれ1cmであることを示している。これ以外のタイミングでは、観察対象物までの距離が計測不能である。なお、時刻T6において画像P6を取得するタイミングにおいて、医師が腫瘍等の患部を発見している。また、補助情報2は、内視鏡装置の操作情報を示す情報であり時刻T1、T2は内視鏡装置の挿入時であり、時刻T4~T6は、観察対象物へのアプローチ時であることを示す、時刻T8、T9は内視鏡装置の抜去時であることを示す。これらの補助情報1、2は、対応する各コマの画像データに関連付けて記録することができる。
 図3の右側には、画像データP1~P9を出力し、推論エンジン100a、100bの入力層に画像データを入力し、推論結果(鑑別結果)101a、101bを出力する構成を示す。推論エンジン100a、100bは、推論エンジン26と同様に、医師等に提示するアドバイスを推論するための推論モデルが設定されている。推論エンジンは、ハードウエアによって構成されていてもよく、またソフトウエアによって構成されていてもよい。図3に示す例では、内視鏡検査時に医師が発見した腫瘍等の患部(時刻T6の画像P6参照)に対応する画像が推論結果(鑑別結果)101a、101bとして出力される。
 推論エンジン100aには、補助情報1、2は入力されず、画像データP1~P9が入力され、推論エンジン100aは推論結果101aを出力する。一方、推論エンジン100bには、画像データP1~P9に加えて、補助情報1、2が入力され、推論エンジン100bは推論結果101bを出力する。補助情報1、2は、前述したように、画像データP1~P6の像コマ毎に対応する補助情報1、2が関連付けられている。距離情報を示す補助情報1と、操作情報を示す補助情報2は、医師等に出力するアドバイスを推論する際に、重要なヒントが含まれていることから、各画像コマの画像データに関連付けられている補助情報1、2を使用して推論する際に、推論結果の信頼性を向上させることができる。
 なお、画像データP1~P9の画像コマに対応する関連情報(補助情報1、2)を関連付けて出力するか否かは、前述したように、例えば、内視鏡装置10や処理装置20の所有者や製造メーカ等と、外部装置の所有者や製造メーカ等との間に、契約関係が成立している場合に、認証用データ15aが記録部15に記録されているので、この記録がなされているか否かに基づいて決定すればよい。
 ここで、推論エンジンが行う深層学習について、説明する。「深層学習(ディープ・ラーニング)」は、ニューラル・ネットワークを用いた「機械学習」の過程を多層構造化したものである。情報を前から後ろに送って判定を行う「順伝搬型ニューラル・ネットワーク」が代表的なものである。順伝搬型ニューラル・ネットワークは、最も単純なものでは、N1個のニューロンで構成される入力層、パラメータで与えられるN2個のニューロンで構成される中間層、判別するクラスの数に対応するN3個のニューロンで構成される出力層の3層があればよい。入力層と中間層、中間層と出力層の各ニューロンはそれぞれが結合加重で結ばれ、中間層と出力層はバイアス値が加えられることによって、論理ゲートを容易に形成できる。
 ニューラル・ネットワークは、簡単な判別を行うのであれば3層でもよいが、中間層を多数にすることによって、機械学習の過程において複数の特徴量の組み合わせ方を学習することも可能となる。近年では、9層~152層のものが、学習にかかる時間や判定精度、消費エネルギーの観点から実用的になっている。また、画像の特徴量を圧縮する、「畳み込み」と呼ばれる処理を行い、最小限の処理で動作し、パターン認識に強い「畳み込み型ニューラル・ネットワーク」を利用してもよい。また、より複雑な情報を扱え、順番や順序によって意味合いが変わる情報分析に対応して、情報を双方向に流れる「再帰型ニューラル・ネットワーク」(全結合リカレントニューラルネット)を利用してもよい。
 これらの技術を実現するために、CPUやFPGA(Field Programmable Gate Array)等の従来からある汎用的な演算処理回路を使用してもよい。しかし、これに限らず、ニューラル・ネットワークの処理の多くが行列の掛け算であることから、行列計算に特化したGPU(Graphic Processing Unit)やTensor Processing Unit(TPU)と呼ばれるプロセッサを利用してもよい。近年ではこのような人工知能(AI)専用ハードの「ニューラル・ネットワーク・プロセッシング・ユニット(NPU)」がCPU等その他の回路とともに集積して組み込み可能に設計され、処理回路の一部になっている場合もある。
 その他、機械学習の方法としては、例えば、サポートベクトルマシン、サポートベクトル回帰という手法もある。ここでの学習は、識別器の重み、フィルター係数、オフセットを算出するものあり、これ以外にも、ロジスティック回帰処理を利用する手法もある。機械に何かを判定させる場合、人間が機械に判定の仕方を教える必要がある。本実施形態においては、画像の判定を、機械学習によって導出する手法を採用したが、そのほか、人間が経験則・ヒューリスティクスによって獲得したルールを適応するルールベースの手法を用いてもよい。
 次に、図4ないし図6を用いて、本発明の第2実施形態について説明する。第1実施形態においては、処理装置20において、画像データに基づいてアドバイスを出力するための推論を行っていた。この第2実施形態においては、更に、第2処理装置30を配置し、この第2処理装置30において、特殊なアドバイスを行うための第2推論を行っている。すなわち、第1推論部は一般的な内視鏡検査のアドバイスを行うことができるのに対して、第2推論部は第1推論部における推論結果に基づいて、さらにレベルの高い推論を行うことができる。また、第2推論部は、特殊な推論を行い、第1推論部では推論できないような特別のアドバイスを行うことができる。
 第2実施形態に係る内視鏡システムの構成において、内視鏡装置10の内部構成は、図1に示した内視鏡装置10と同様であることから、図4においては、内視鏡装置10の内部構成は省略してある。また、処理装置20の内部構成も図1に示した処理装置20に、第2通信部28が追加されている以外は、図1の処理装置20と同様の構成であることから、第2通信部28について説明し、他の構成についての詳しい説明を省略する。
 第2通信部28は、通信回路を有し、処理装置20と、処理装置30内の通信部32と各種通信を行う。この通信部28は、画像処理部23が内視鏡装置10からの画像データの画像処理を行うので、通信部28は、画像処理された画像データを、第2処理装置30内の通信部32に送信する。第2通信部28は、直接、制御部21等からのデータ等を通信部32に送受信できるようにしてもよい。
 なお、制御部21は、第2処理部装置30内の認証用データ35aに基づいて、関連情報付きの画像データの送信が許可されているか否かを判定し、許可されている場合のみ、関連情報付き画像データを第2処理装置30に送信し、一方、許可されていない場合には、関連情報なしの画像データのみを第2処理装置30に送信するようにしてもよい。また、制御部21は、第2処理部装置30内の認証用データ35aに基づいて、推論部26の推論結果を第2処理装置30に送信することが許可されている場合には、画像処理部23、第2通信部28を通じて第2処理装置30に送信してもよい。このために、制御部21は、第2処理装置30に要求信号を送信し、認証用データ35aを取得することができる。 
 また、第2実施形態における推論部26の推論モデルは、内視鏡検査において、一般的なアドバイスを行うためのものである。また、本実施形態においては、画像処理部23において画像処理が施された画像データは、第2処理装置30内の通信部32に出力される。図4においては、画像処理部23から通信部32に出力しているが、処理装置20内の通信部22を通じて、通信部32に出力するようにしてもよい。
 また、制御部21は、CPU(Central Processing Unit)等とその周辺回路およびメモリ等を有するプロセッサである。このプロセッサは、第1実施形態の場合と同様に、1つであってもよく、また複数のチップから構成されてもよい。CPUはメモリに記憶されたプログラムに従って、処理装置20内の各部を制御することによって処理装置20の全体を実行する。また、制御部21は、内視鏡装置10内の制御部11と、第2処理装置30内の制御部31と協調して動作し、内視鏡装置10、処理装置20、および第2処理装置30が一体となって動作するようにしてもよい。
 第2処理装置30は、処理装置20と同様に、画像データと補助情報を受信し、これらの情報を第2推論部36に入力し、推論部26と比較すると、より特殊なアドバイスを行うことができる。なお、第2処理装置30においても、表示部そのものは、処理装置30に設けずに、外部機器で行ってもよく、また、記録部も外部機器に設けて記録するようにしてもよい。処理装置30は、これらの表示処理や記録処理の制御を行えればよい。
 第2処理装置30は、制御部31、通信部32、画像処理部33、表示部34、記録部35、第2推論部36、および時計部37を有する。
 通信部32は、通信回路を有し、内視鏡装置10内の通信部14と、処理装置20内の通信部22と各種通信を行う。この通信部32は、内視鏡装置10から体腔内の観察画像を示す画像データを受信し、この画像データに画像処理を施した後に表示部34に画像を表示する。また、通信部32は、内視鏡装置10および処理装置20から受信した画像データを推論部36に出力する。推論部36における推論結果は、画像処理部33において画像処理された後に、内視鏡画像に重畳して表示部34に表示される。
  第2推論部36は、第1実施形態と同様に、推論エンジンを備えており、内視鏡装置10からの画像データや関連情報等を入力し、医師に診断の際の支援を行うためのアドバイスを推論する。推論エンジンには、このアドバイスを推論するための推論モデルが設定されている。第2推論部26に設定されている推論モデルは、特殊な(専門化)アドバイス、例えば、特殊な症状に対して特化したアドバイスを行うことができる。推論エンジンは、ハードウエアによって構成されていてもよく、またソフトウエアによって構成されていてもよい。
 第2推論部36の推論エンジンに入力するデータとしては、画像データに限らず、内視鏡装置10から画像データと一緒に送信されてきた関連情報(補助情報)を入力し、推論するようにしてもよい。関連情報を用いて推論することによって、より信頼性の高い推論結果を得ることができる。また、関連情報を用いて推論することによって、前述した特殊な症状等に専門性を発揮できるアドバイスを行うことができる。なお、推論部36に入力される関連情報(補助情報)は、通信部10を通じて、第2処理装置30内の通信部32に送信される。関連情報を内視鏡装置10に要求する場合には、通信部32および通信部14を通じて、要求信号を出力する。
 画像処理部33は、画像処理部23と同様に、通信部32によって取得された画像データに画像処理を施す。ここでの画像処理としては、例えば、前述したように、推論結果を体腔内の画像に重畳させた画像となるようにする。表示部34および時計部37は、第1実施形態における表示部24および時計部27と同様であることから、詳しい説明を省略する。
 記録部35は、電気的に書き換え可能な不揮発性メモリを有する。この記録部35は、画像処理部33によって出力された画像データを記録する。また、記録部35は、認証用データ35aを記録可能である。この認証用データ35aは、内視鏡装置10が第2処理装置30に画像データを出力する際に、関連情報(補助情報)を関連付けて出力することが許可されている場合に、認証用データ35aが記録部35に記録される。同様に、処理装置20が、第2処理装置30に画像データを出力する際に、関連情報(補助情報)を関連付けて出力することが許可されている場合に、認証用データ35aが記録部35に記録される。例えば、処理装置20(内視鏡装置10でもよい)の所有者や製造メーカ等と、第2処理装置30の所有者や製造メーカ等との間に、契約関係が成立している場合に、認証用データ35aを記録部35に記録するようにしてもよい。
 なお、図4においても、記録部15(図1に図示)と記録部25にそれぞれ認証用データを記録可能としているが、いずれか一方に記録可能とし、いずれか一方に認証用データが記録されている場合に、第2処理装置30に、画像データを出力する際に、関連情報(補助情報)を関連付けて出力するようにしてもよい。
 制御部31は、CPU(Central Processing Unit)等とその周辺回路およびメモリ等を有するプロセッサである。このプロセッサは、第1実施形態の場合と同様に、1つであってもよく、また複数のチップから構成されてもよい。CPUはメモリに記憶されたプログラムに従って、処理装置30内の各部を制御することによって処理装置30の全体を実行する。また、制御部31は、内視鏡装置10内の制御部11と、処理装置20内の制御部21と協調して動作し、内視鏡装置10、処理装置20、および第2処理装置30が一体となって動作するようにしてもよい。
 次に、図5に示すフローチャートを用いて、処理装置20における撮像動作について説明する。このフローは、制御部11および制御部21内の各CPUがプログラムに従って、内視鏡装置10と処理装置20を協働させることによって実現する。なお、第2処理装置30における撮像動作については、図6に示すフローチャートを用いて後述する。
 この図5に示す撮像動作のフローは、図2に示した第1実施形態における撮像動作と比較し、図2におけるステップS3、S5およびS15における処理がステップS4、S6およびS16に変更されている以外は、同じであるので、相違点を中心に説明する。
 図5に示す撮像動作のフローが開始すると、撮像制御を行う(S1)。続いて、撮像、画像処理および第1画像推論を行う(S4)。ここで撮像および画像処理は、図2に示した第1実施形態のステップS3における撮像および画像処理と同様の処理を行う。これらの処理に加えて、ステップS4では、第1画像推論を行う。この第1画像推論は、内視鏡装置10によって取得された画像コマの画像データおよび関連情報(補助情報)を、推論部26の入力層に入力し、医師等へのアドバイスを推論する。 
 ステップS4において、撮像、画像処理、第1画像推論を行うと、次に、画像コマ把握、処理結果、推論結果を出力する(S6)。ここで、画像コマ把握、処理結果の出力は、図2に示した第1実施形態のステップS5における画像コマ把握および処理結果の出力と同様の処理を行う。また、画像コマを把握する際に、関連情報部16は画像コマ毎に関連情報を取得する。これらの処理に加えて、ステップS6では、推論結果を出力する。この推論結果の出力は、ステップS4において行われた第1画像推論の結果を出力することである。
 ステップS6において、画像コマの把握、処理結果、推論結果の出力を行うと、第1実施形態と同様に、要求信号判定を行い(S7)、要求信号があるか否かを判定する(S9)。この判定の結果、要求信号がある場合には、合否判定を行い(S11)、この判定の結果が、「否」であるか否かを判定する(S13)。なお、ステップS7において、要求信号を取得する際に、推論部26を識別するためのID情報を取得しておく。
 ステップS13における判定の結果、「否」でなかった場合には、画像コマ対応の関連情報(画像処理、推論結果)を出力する(S16)。ここでは、画像コマに対応する画像データに関連付けられた関連情報(補助情報)を第2処理装置30に出力する。また関連情報を出力する際に、画像コマの画像データ対して画像処理部23によって画像処理が施された画像データを第2処理装置30に出力してもよく、また推論部26における推論結果を第2処理装置30出力してもよい。なお、前述したように、推論部16を識別するためのID情報を取得しているので、画像コマの画像データと画像コマに対応する関連情報を出力する際には、ID情報も関連付けて出力する。また、推論結果を出力する際にも、推論を行う際に使用した画像データおよび/または関連情報を示すID情報を関連付けて出力する。
 ステップS16において、画像コマ対応の関連情報(画像処理、推論結果)を出力すると、またはステップS13における判定の結果、「否」であった場合、またはステップS9における判定の結果、要求信号がなかった場合には、次に、終了か否かを判定する(S17)。医師が内視鏡検査の終了操作等を行った場合には、終了と判定する。この判定の結果、終了でない場合には、ステップS1に戻り、一方、終了であった場合には、終了処理を行った後、本フローを終了する。
 次に、図6に示すフローチャートを用いて、処理装置30における第2推論動作について説明する。このフローは、第2処理装置30の制御部31内のCPUがプログラムに従って、内視鏡装置10と処理装置20と協働して動作することによって実現する。
 図6に示すフローの動作が開始すると、まず、画像を取得する(S21)。ここでは、内視鏡装置10内の撮像部12が取得した画像コマの画像データを、通信部32を通じて取得する。 
 続いて、要求信号があるか否かを判定する(S23)。ここでは、第2処理装置30が関連情報(補助情報)を内視鏡装置10(および/または処理装置20)に要求するか否かを判定する。第2推論部36が推論を行うにあたって、関連情報(補助情報)を入力すると信頼性の高い推論ができる場合には、関連情報(補助情報)を要求する。なお、内視鏡装置10や処理装置20の所有者や製造メーカ等と、第2処理装置30の所有者や製造メーカ等との間に、契約関係が成立している場合に、認証用データ35aを記録部35に記録されている。従って、認証用データ35aが記録されていない場合には、要求信号を送信しない。そのため、このステップでは、この認証用データ35aに基づいて判定してもよい。なお、認証用データとしては、記録部35以外にも、処理装置20内の記録部25および/または内視鏡装置10内の記録部15に、第2処理装置30との契約関係を記録しておき、内視鏡装置10および/または処理装置20が、この判定を行うようにしてもよい。
 ステップS23における判定の結果、要求信号がある場合には、次に、要求信号を出力する(S25)。ここでは、通信部32を通じて、内視鏡装置10および/または処理装置20に要求信号を出力する。要求信号を出力すると、図5のステップS5において、内視鏡装置10および/または処理装置20は、要求信号判定を行う。
 次に、関連情報を取得する(S25)。ステップS23において、要求信号を内視鏡装置10および/または処理装置20に出力すると、内視鏡装置10および/または処理装置20は、ステップS16において、画像コマに対応する関連情報(補助情報)を第2処理装置30に出力するので、この関連情報を取得する(S27)。
 次に、画像、画像コマ関連情報を用いて、第2推論を行う(S29)。ここでは、第2推論部36が、時系列で入力した画像データと、画像コマに関連付けられた関連情報を、第2推論部36に入力し、医師に行うアドバイスを推論することによって求める。上述したように、関連情報(補助情報)は、認証用データ35a(または25a、15a)によって、関連情報(補助情報)が第2処理装置30に送信することが許可されている場合のみ取得でき、この場合、第2推論部36が関連情報を第2推論部36に入力し、第2推論を行うことができる。また、画像データおよび/または関連情報は、推論元を示すID情報と共に送信されてくるので、推論結果を出力する際には、ID情報と共に出力する。すなわち、関連情報を推論部に入力するかどうかの判定は、推論部のID情報に従って決定される。
 一方、ステップS23における判定の結果、要求信号なしの場合には、画像を利用して第2推論を行う(S31)。この場合には、内視鏡装置10および/または処理装置20から関連情報(補助情報)を取得することができず、画像データしか取得できない。そこで、第2推論部36は、画像データのみを入力し、画像データを利用して推論を行う。ステップS31においても、推論を行う際に、推論元を識別するためのID情報と共に、画像データを入力し、推論元を識別できるようにしておくとよい。
 ステップS29またはS31において、第2推論を行うと、次に、終了か否かを判定する(S33)。医師等が内視鏡検査の終了操作等を行った場合には、終了と判定する。この判定の結果、終了でない場合には、ステップS21に戻り、一方、終了であった場合には、終了処理を行った後、本フローを終了する。
 このように、本発明の第2実施形態における内視鏡システムおいては、内視鏡装置10によって取得された画像データを用いて、特殊なアドバイスを推論するための第2処理装置30を有している。そして、図5および図6に示すフローにおいては、処理装置20および/または第2処理装置20が、関連情報を要求する場合には、内視鏡装置10に要求信号を送信してくる(S7、S9、S23、S25参照)。要求信号があった場合には、内視鏡装置10(および/または処理装置20)は、関連情報付きの画像データを送信することが許可されているか否かを判定し(S11、S13参照)、許可されている場合には、画像コマに対応する関連情報付きの画像データを処理装置20に送信する(S16、S25、S27参照)。
 図5および図6に示すフローは、別の見方をすると、撮像部(撮像素子)から時系列で、画像コマを構成する画像データを取得するステップ(S1参照)と、処理部(処理プロセッサ)が撮像部(撮像素子)との通信によって画像データを受信して推論部(推論エンジン)(例えば、図1の推論部26、CADボックス40内の推論部、図4の推論部26、第2推論部36等)に出力し、対応する画像コマの中に撮像された特定の対象物を推論させるステップ(S4参照)と、対象物の推論結果を表示用および/または記録用に出力する出力ステップ(S6参照)と、画像コマ取得のタイミングで得られた関連情報を出力するステップ(S16参照)と、撮像部(撮像素子)と処理部(処理プロセッサ)との通信によって、画像コマの画像データに対応する関連情報を推論部に入力するかどうかを判定するステップ(S4、S13、S23~S27参照)と、を有している。また、関連情報を推論部(推論エンジン)に入力するかどうかの判定は、推論部(推論エンジン)のID情報に従って決定される。
 図5および図6に示すフローは、さらに別の見方をすると、内視鏡の撮像素子からの画像コマ情報を順次取得するステップと(S1、S4、S21参照)、画像コマ情報を視認可能な情報に画像処理するステップと(S3参照)、視認可能な情報を外部に出力する画像出力ステップと(S6参照)、順次取得した画像コマに対応し、内視鏡から順次得られる関連情報を取得するステップと(S5、S27参照)、推論装置(推論エンジン)からの関連情報の要求信号を取得するステップと(S7、S9、S27参照)、要求信号の合否判定に従って画像コマと、当該画像コマに関連情報を合わせて出力するステップと(S16、S29参照)、を有している。
 次に、図7および図8を用いて、本発明の第3実施形態について説明する。第3実施形態に係る内視鏡システムでは、内視鏡装置としては、フォーカス機能付きスコープ50Aとフォーカス機能なしスコープ50B等が、画像処理プロセッサ53に接続可能である。画像処理プロセッサは、スコープ(内視鏡装置)からフォーカスレンズ位置情報が出力されているか等に基づいて、フォーカス等の関連情報(補助情報)を出力するか否かを切り替えるようにしている。
 図7(a)は、内視鏡装置として、フォーカス機能付きスコープ50Aと組み合わせた内視鏡システムの構成を示し、図7(b)は、フォーカス機能なしスコープ50Bと組み合わせた内視鏡システムの構成を示す。
 図7(a)において、フォーカス機能付きスコープ50Aは、図1に示した内視鏡装置10と同様に、制御部、撮像部、画像処理部、通信部等の種々の構成を有している。撮像部はフォーカスレンズ、フォーカスレンズ駆動部、撮像素子、撮像制御回路等を有し、観察対象である体腔内の画像を撮像信号に変換して出力する。また、フォーカスレンズ駆動部は、フォーカスレンズ位置情報を出力する。すなわち、このフォーカス機能付きスコープ50Aを用いた手技では、医師がフォーカスレンズ位置を調整するか、またはフォーカスレンズ駆動部がオートフォーカス機能を有し、フォーカスレンズ位置を調整している。フォーカス機能付きスコープ50Aは、フォーカスレンズ位置情報を検出し、検出したフォーカスレンズ位置情報を同期処理部53bに出力する。このフォーカスレンズ位置情報は、内視鏡装置から観察対象物までの距離情報に等しいといえる。
 画像処理プロセッサ53は、現像処理部53a、同期処理部53b、セレクタ53cを有する。これらの各部は、全部または一部をハードウエア(例えば、現像処理回路、同期処理回路、セレクタ回路)によって構成してもよく、また全部または一部をソフトウエアによって実現するようにしてもよい。
 現像処理部53aは、フォーカス機能付きスコープ50A内の撮像部によって生成された時系列的に撮像信号を入力し、撮像信号に対して種々の現像処理を施す。現像処理において、撮像素子で生成された生のデータ(撮像信号、RAWデータ)からJPEG、TIFF等の画像フォーマットに変換する等の処理を施す。これらの現像処理は、画像コマ単位(1フレーム単位)で行う。
 同期処理部53bは、現像処理された画像データに対して、各画像コマに対応するフォーカスレンズ位置情報を、関連情報(補助情報)に付加する同期処理を行う。すなわち、同期処理部53bは、フォーカス機能付きスコープ50Aから、各画像コマに対応してフォーカスレンズ位置情報を入力し、このフォーカスレンズ位置情報に対応する1コマ分の画像コマの画像データに、対応するフォーカスレンズ位置情報を関連付ける。
 セレクタ53cは、現像処理部53aから現像処理が施された画像データと、同期処理部53bからフォーカスレンズ位置情報が付加された画像データを入力し、いずれか一方を、記録装置55に出力する。セレクタ53cには、セレクト情報が入力され、このセレクト情報に基づいて、画像データのみを出力するか、フォーカスレンズ位置情報が付加された画像データを出力するかを切り替える。セレクト情報は、例えば、スコープ(内視鏡装置)がフォーカスレンズ位置情報を出力するか否か等を示す情報であり、スコープがこの位置情報を出力する場合には、フォーカスレンズ位置情報付きの画像データを記録装置55に出力する。
 モニタ54は、ディスプレイ等を有し、現像処理部53aによって現像処理された画像データを入力し、フォーカス機能付きスコープ50Aによって取得された画像を表示する。
 記録装置55は、電気的に書き換え可能な不揮発性メモリを有し、セレクタ53cが選択し、出力したデータを記録する。例えば、記録装置55は、スコープ(内視鏡装置)からフォーカスレンズ位置情報が出力されている場合には、フォーカスレンズ位置情報付きの画像データを記録し、一方、フォーカスレンズ位置情報が出力されていない場合には画像データのみを記録する。記録装置55が記録したフォーカスレンズ位置情報付きの画像データ、またはフォーカスレンズ位置情報なしの画像データは、学習用データ55aとして蓄積される。
 この学習用データ55aは、深層学習等の機械学習を行う際に、学習用データ55aにアノテーションを行って、教師データを作成することができる。すなわち、フォーカスレンズ位置情報付きの画像データに基づいて教師データを作成し、この教師データを用いて推論モデルを作成すると、フォーカスレンズ位置情報無しの画像データを用いる場合よりも、被写体、対象物までの距離の情報も含むこととなり、光学系のスペックも合わせることによって、対象物の大きさが分かるなど、情報量が増加し、信頼性の高い推論モデルを生成することが可能となる。
  図7(b)では、内視鏡装置は、フォーカス機能なしスコープ50Bであり、画像処理プロセッサ53、モニタ54、記録装置55、および学習用データ55aは、図7(a)と同じである。図7(a)と同様の構成については詳しい説明を省略する。
 フォーカス機能なしスコープ50Bは、図1に示した内視鏡装置10と同様に、制御部、撮像部、通信部、記録部等の種々の構成を有している。撮像部はフォーカスレンズ、撮像素子、撮像制御回路等を有するが、フォーカスレンズ駆動部を有していない。フォーカス機能なしスコープ50Bは、図7(a)の場合と同様に、観察対象である体腔内の画像を撮像信号に変換して出力するが、フォーカスレンズ位置情報を出力しない。医師が手技する際には、スコープの位置を調整し、観察対象にピントが合う位置で観察する。なお、フォーカス機能なしスコープ50Bに代えて、パンフォーカススコープ50Cを使用する場合には、広範囲に亘ってピントを合った画像で観察することができる。
 図7(b)に示すようなフォーカス機能なしスコープ50Bが画像処理プロセッサ53に接続されている場合には、同期処理部53bにフォーカスレンズ位置情報が入力されない。このため、同期処理は行われず、セレクタ53bは、現像処理部53aから出力されたフォーカスレンズ位置情報なしの画像データを選択し、この選択したフォーカスレンズ位置情報なしの画像データを記録装置55に出力する(図7(b)の53aから53c間の太線を参照)。
 このように、本実施形態に係る内視鏡システムにおいては、画像処理プロセッサ53に、フォーカス機能付きスコープ50A、フォーカス機能なしスコープ50B等が接続可能であり、スコープ(内視鏡装置)からフォーカスレンズ位置情報が出力される場合には、画像データにフォーカスレンズ位置情報を関連付け、一方、フォーカスレンズ位置情報が出力されない場合には、フォーカスレンズ位置情報なしの画像データを出力する。レンズ位置情報がない方が、記録されるデータ量が少なくなり、多くの症例で学習が可能になるといった利点がある。
 なお、第1実施形態や第2実施形態と同様に、記録装置等とスコープ(内視鏡装置)等の間で契約情報が成立しているか否かに応じて、フォーカスレンズ位置情報等の関連情報(補助情報)を画像データに関連付けるようにしてもよい。この場合には、セレクト情報を、記録装置とスコープ間で契約関係が成立しているか否か等を示す情報とし、例えば、契約関係が成立している場合には、フォーカスレンズ位置情報付きの画像データを記録装置55に出力するようにすればよい。フォーカスレンズ位置情報があれば、上述したように情報量を増やした推論が可能になる。
 以上説明したように、学習データを区別して記録可能なシステムであれば、その学習データで様々な要求に見合った推論モデルが提供できる。つまり、要求される推論モデルは、その推論モデルが使用される環境や設備、機器によって要求仕様が変わるが、それに対して好適な学習が可能な学習データを用意することができる。セレクタによって、複数の学習データを区別して記録できるので、推論モデル作成の学習時に多様なモデルに対応でき、学習時の負荷(モデルサイズ、学習時間、必要となる計算機の能力)等を最適にすることが出来る。
 次に、図8に示すフローチャートを用いて、スコープ(フォーカス機能付きスコープ50A、フォーカス機能なしスコープ50B、パンフォーカススコープ50C)と、画像処理プロセッサ53における撮像動作について説明する。このフローは、スコープと画像処理プロセッサ内に設けられたCPUがプログラムに従って、スコープと画像処理プロセッサを協働して動作することによって実現する。または、スコープまたは画像処理プロセッサのいずれか一方にCPUを設け、このCPUがスコープおよび画像処理プロセッサの全体を制御することによって、図8に示すフローを実現してもよい。
 図8に示す撮像動作のフローが開始すると、ピント合わせを行う(S41)。フォーカス機能付きスコープ50Aはオートフォーカス機能を有しているので、自動的に観察対象にピント合うようにフォーカスレンズの位置が調整される。フォーカス機能なしスコープ50Bの場合には、オートフォーカス機能を備えていないので、医師がスコープ(内視鏡装置)の先端部の位置を調整しながら、ピント合わせを行う。また、このステップにおいて、画像コマ毎に関連情報としてピント情報を取得する。
 次に、撮像および画像処理結果を出力する(S43)。ここでは、スコープ50A、50Bの撮像部によって撮像を行い、撮像信号を画像処理プロセッサ53に出力する。撮像にあたっては、画像コマ(1フレーム)単位で撮像信号を順次取得する。画像処理プロセッサ53は、順次取得した画像コマ(1フレーム)単位の撮像信号を、視認可能な情報となるように、現像処理等の画像処理を行う。この画像処理された画像データは、モニタ54に出力され、モニタ54は画像データに基づいて画像を表示する。
 次に、ピント調整機能が有るか否を判定する(S45)。フォーカス機能付きスコープ50Aの場合には、ピント調整機能があり、フォーカス機能なしスコープ50Bおよびパンフォーカススコープ50Cの場合にはピント調整機能を有していない。このステップでは、画像処理プロセッサ53に接続されているスコープ(内視鏡装置)の機種に基づいて、ピント調整機能の有無を判定する。また、この方法以外にも、フォーカスレンズ位置情報の入力の有無に応じて判定してもよい。
 ステップS45における判定の結果、ピント調整機能が有る場合には、合否判定に従って、画像コマ対応のピント情報を出力する(S47)。フォーカスレンズのピント合わせをオートフォーカスによって行う場合には、フォーカス状態が合焦状態にあるか非合焦状態にあるかが判定され、このときの合否判定結果がフォーカス機能付きスコープ50Aから画像処理プロセッサ53に送信される。そこで、このステップでは、セレクタ53cが、フォーカス状態の判定結果が合焦の場合に、画像コマの画像データに、フォーカスレンズ位置情報(ピント情報)を関連付けて、記録装置55に出力する。なお、非合焦状態の場合には、その旨をフォーカスレンズ位置情報として関連付けるようにしてもよい。このステップで出力した、画像コマの画像データ+関連情報(補助情報)が、距離等を推論する教師データとして利用できる。また、合否判定は、図2のステップS11に関連して、種々の判定方法の中から適宜選択して行えばよい。
 なお、例えば、フォーカス機能付きスコープ50A、フォーカス機能なしスコープ50Bの所有者や製造メーカ等と、記録装置55の所有者や製造メーカ等との間に、契約関係が成立している場合に、認証用データが記録部に記録されている場合に、ステップS47における合否判定を「合」と判定するようにしてもよい。画像コマ対応のピント情報を出力するようにしてもよい。
 ステップS47においてピント情報を出力すると、またはステップS45における判定の結果、ピント調整機能がない場合には、終了か否かを判定する(S49)。前述したように、医師が内視鏡検査の終了操作等を行った場合には、終了と判定する。この判定の結果、終了でない場合には、ステップS41に戻り、一方、終了であった場合には、終了処理を行った後、本フローを終了する。
 このように、本実施形態においては、フォーカスレンズ位置情報等の補助情報が不要な場合には、補助情報を学習用データとして出力していない。このため、必要最低限の量のデータを保存することが出来る。
 また、図8に示すフローは、内視鏡撮像素子からの画像コマ情報を順次取得するステップと(S43参照)、画像コマ情報を視認可能な情報に画像処理するステップと(S43参照)、視認可能な情報を外部に出力する画像出力ステップと(S43参照)、順次取得した画像コマに対応し、内視鏡から順次得られる関連情報を取得するステップと(S41参照)、  推論装置からの関連情報の要求信号を取得するステップと(S47参照)、要求信号の合否判定に従って画像コマと、当該画像コマに関連情報を合わせて出力するステップと(S47参照)を有している。
 次に、図9および図10を用いて、本発明の第4実施形態について説明する。第4実施形態に係る内視鏡システムでは、医師が画像処理のためのパラメータを調整しながら、観察を行うことができる。この実施形態においては、パラメータの記録が許可されている場合に、画像調整用のパラメータを関連情報として付加した画像データを出力し、一方、パラメータの記録が許可されていない場合に、画像調整用のパラメータを関連情報として付加していない画像データを出力する。
 図9(a)は、パラメータの記録が許可されている場合の内視鏡システムを示し、図9(b)は、パラメータの記録が許可されていない場合の内視鏡システムの構成を示す。
 図9(a)(b)において、スコープ60は、図1に示した内視鏡装置10と同様に、制御部、撮像部、画像処理部、通信部等の種々の構成を有している。撮像部はフォーカスレンズ、フォーカスレンズ駆動部、撮像素子、撮像制御回路等を有し、観察対象である体腔内の画像を撮像信号に変換して出力する。
 画像処理プロセッサ53は、現像処理部53a、同期処理部53b、セレクタ53c、およびパラメータ部53dを有する。これらの各部は、全部または一部をハードウエア(例えば、現像処理回路、同期処理回路、セレクタ回路、パラメータ処理回路)によって構成してもよく、また全部または一部をソフトウエアによって実現するようにしてもよい。
 現像処理部53aは、スコープ60内の撮像部によって生成された時系列的に撮像信号を入力し、撮像信号に対して種々の現像処理を施す。現像処理において、撮像素子で生成された生のデータ(撮像信号、RAWデータ)からJPEG、TIFF等の画像フォーマットに変換する等の処理を施す。これらの現像処理は、画像コマ単位(1フレーム単位)で行う。
 また、現像処理部53aは、現像処理された画像データに対して、癌等の患部を容易に認識できるように、種々の画像処理を施す。この画像処理としては、例えば、狭帯域光観察( NBI:Narrow Band Imaging、登録商標)、蛍光観察(AFI:Auto Fluorescence Imaging)、赤外光観察(IRI:Infra Red Imaging)血管強調、明るさ調整等、種々の処理がある。この場合、医師は、パラメータ部53dによって、パラメータを調整しながら、観察を行う。パラメータ部53dは、医師の操作に応じたパラメータを現像処理部53aに出力し、現像処理部53aは、パラメータに応じて、スコープ60からの画像データに対して、画像処理を施す。また、パラメータ部53dは、同期処理部53cにパラメータ情報を出力する。
 同期処理部53bは、現像処理された画像データに対して、パラメータ情報を、関連情報(補助情報)として付加する同期処理を行う。すなわち、同期処理部53bは、現像処理部53aによって処理された画像データに対して、各画像コマに対応したパラメータ情報を関連付ける。
 セレクタ53cは、現像処理部53aから基本的な現像処理が施された画像データと、同期処理部53bからパラメータ情報が付加された画像データを入力し、いずれか一方を、記録装置55に出力する。セレクタ53cには、記録装置55から要求信号を受信し、この要求信号に基づいて(ここでID認証や契約関係の判定を行ってもよい)、現像処理部53aによる基本的な現像処理がなされた画像データを出力するか、または各種画像処理等のパラメータ情報が関連情報として付加された画像データを出力するか切り替える。すなわち、要求信号にパラメータの記録許可が示されている場合(上記認証などによって判断してもよい)には、パラメータ情報付きの画像データが出力され、一方、要求信号にパラメータの記録許可が示されていない場合には、基本的な画像データのみを出力する。例えば、記録装置55にライセンスの有無の情報が記録されている場合に、このライセンス情報に基づいて、要求信号にパラメータの記録許可または不許可の情報を重畳して送信する。関連情報があれば、上述したように情報量を増やした推論が可能になる。
 以上説明したように、学習データを区別して記録可能なシステムであれば、その学習データで様々な要求に見合った推論モデルが提供できる。つまり、要求される推論モデルは、その推論モデルが使用される環境や設備、機器によって要求仕様が変わるが、それに対して好適な学習が可能な学習データを用意することができる。セレクタによって、複数の学習データを区別して記録できるので、推論モデル作成の学習時に多様なモデルに対応でき、学習時の負荷(モデルサイズ、学習時間、必要となる計算機の能力)等を最適にすることが出来る。また、推論モデル作成時の様々な仕様や要求に相応しいデータを選択的に提供可能となり、推論モデルを学習する時の効率を向上させられる。
 モニタ54は、ディスプレイ等を有し、現像処理部53aによって現像処理された画像データを入力し、スコープ60によって取得された画像を表示する。
 記録装置55は、電気的に書き換え可能な不揮発性メモリを有し、セレクタ53cが選択し、出力したデータを記録する。例えば、記録装置55は、セレクタ53からパラメータ情報付きの画像データが出力されている場合には、パラメータ情報付きの画像データを記録し、一方、パラメータ情報付きの画像データが出力されていない場合には画像データのみを記録する。記録装置55が記録したパラメータ情報付きの画像データ、またはパラメータ情報なしの画像データは、学習用データ55aとして蓄積される。
 この学習用データ55aは、深層学習等の機械学習を行う際に、教師データとして使用することができる。パラメータ情報付きの画像データに基づいて教師データを作成し、この教師データを用いて推論モデルを作成すると、パラメータ情報無しの画像データを用いる場合よりも、信頼性の高い推論モデルを生成することが可能となる。
 図9(a)は、記録装置55には、パラメータの記録を許可するライセンスが記録されている場合を示し、一方、図9(b)は、記録装置55には、パラメータの記録を許可するライセンスが記録されていない場合を示している。このため、図9(a)に示す例では、セレクタ53cは、要求信号に応じて、パラメータ情報付きの画像データが出力され、このパラメータ情報付きの画像データは記録装置55に記録される。一方、図9(b)に示す例では、セレクタ53cは、パラメータ情報なしの基本的な画像データが出力され、この基本的なパラ画像データのみが記録装置55に記録される。上述したようにまた、推論モデル作成時の様々な仕様や要求に相応しいデータを選択的に提供可能となり、推論モデルを学習する時の効率を向上させられる。
 次に、図10に示すフローチャートを用いて、内視鏡システムにおける撮像動作について説明する。このフローは、スコープと画像処理プロセッサ内に設けられたCPUがプログラムに従って、スコープと画像処理プロセッサを協働して動作することによって実現する。または、スコープまたは画像処理プロセッサのいずれか一方にCPUを設け、このCPUがスコープおよび画像処理プロセッサの全体を制御することによって、図10に示すフローを実現してもよい。
 図10に示す撮像動作のフローが開始すると、まず、操作がなされたか否かを判定する(S51)。医師は、スコープ60の操作部を操作し、患部の有無等、内視鏡検査を行う。例えば、医師は先端部の曲げ方向を操作し、スコープ60の挿入部を体腔内に挿入していく。また、NBI等の特殊検査を行う際には、そのための操作を行う。このステップでは、特殊検査の操作がなされたか否かを判定する。
 ステップS51における判定の結果、操作がなされていない場合には、撮像および画像処理を行う(S53)。ここでは、図2のステップS3と同様に、スコープ60内の撮像部内の撮像素子からの画像信号を現像処理部53aによって画像処理する。このとき、推論エンジンを備えていれば、図5のステップS4と同様に推論を行ってもよい。
 一方、ステップS51における判定の結果、操作がなされた場合には、必要に応じた特殊観察を行う(S55)医師が、例えば、NBIによる検査を行う場合には、2つの波長の光、すなわち青色の狭帯域光と緑色の狭帯域光を照射し、この照射状態で体腔内を観察する。また、パラメータ部53dは、特殊検査の際に医師が設定した種々のパラメータを現像処理部53aに出力し、現像処理部53aは設定パラメータを用いて画像処理する。また、パラメータ部53dは、現像処理部53aに出力したパラメータを、同期処理部53cにも出力する。なお、ステップS55においても、ステップS53と同様に、スコープ60内の撮像部内の撮像素子からの画像信号を現像処理部53aによって画像処理する。
 ステップS53またはS55において、画像処理を行うと、次に、要求信号を判定する(S57)。このステップでは、記録装置55がパラメータ付きの画像データを要求する際に出力する要求信号について、判定する。要求信号は、例えば、記録装置55にライセンスの有無に関する情報が記録されており、ライセンスが有る場合には、要求信号が送信されてくる。また、単にライセンスの有無だけではなく、補助情報(関連情報)を細かく分類し、いずれかの分類に属する補助情報のみについてライセンスが与えられているようにしてもよい。また要求信号は、ライセンス契約の有無に限らず、他の条件に基づいて、要求信号を出力できるようにしてもよい。なお、ライセンスの有無等の情報は、記録装置55以外の、例えば、画像処理プロセッサ53、スコープ60等の装置に記録しておき、画像処理プロセッサ53が照合するようにしてもよい。
 続いて、要求信号があったか否かを判定する(S59)。ここでは、ステップS57における判定結果に基づいて、要求信号があったか否かを判定する。この判定の結果、要求信号がなかった場合には、セレクタ53bは、補助情報(関連情報)が付加されていない画像データのみを記録装置55に出力するので、記録装置55は画像データのみを学習用データ55aとして記録される。これも要求のみならず、認証なども行うステップである。
 ステップS59における判定の結果、要求信号があった場合には、合否判定を行う(S61)。前述したように、記録装置55と、スコープ60および/または画像処理プロセッサの間でのライセンスの有無の情報が、記録装置55に記録されている。そこで、このステップにおいて、要求信号に基づいてライセンス情報等が有るか否かを検出する。ライセンス有等の情報が記録されていれば、「合」であり、記録されていなければ、「否」である。続いて、合否判定の結果が、「否」であるか否かを判定する(S63)。この判定の結果、「否」であれば、セレクタ53bは、関連情報(補助情報)が付加されていない画像データのみを記録装置55に出力し、記録装置55は、画像データのみを学習用データ55aとして記録する。このような認証によって、適切な権利や性能の装置を有する相手に、最適なデータを提供可能となる。
 ステップS63における合否判定の結果、「否」でなければ、すなわち、「合」であれば、合否判定に従って、画像コマ対応の特殊観察仕様の情報を出力する(S65)。この場合には、セレクタ53cは、特殊観察の際に使用したパラメータを、対応する画像コマの画像データに関連付けたデータを記録装置55に出力する。
 次に、教師データを整理して記録する(S67)。ここでは、記録装置55は、入力した関連情報が付加された画像データを、または画像データのみを用いて、教師データを作成し、この教師データを記録する。記録にあたっては、分類付け等、データを整理しておく。特殊観察の結果だけで教師データを作成すると、適正な推論モデルを生成できない可能性があるので、データ整理することによって、信頼性の高い推論モデルを生成するようにする。関連情報が付加された画像データは、特殊観察の際のパラメータも付加されているので、この画像データを教師データとして学習し、生成した推論モデルは、画像データのみを用いて生成した推論モデルよりも、特殊観察の場合も含めて信頼性を高くすることができる。
 ステップS67において教師データを記録すると、またはステップS63における判定の結果が「否」であった場合、またはステップS69における判定の結果、要求信号がなかった場合には、次に、終了か否かを判定する(S17)。医師が内視鏡検査の終了操作等を行った場合には、終了と判定する。この判定の結果、終了でない場合には、ステップS51に戻り、一方、終了であった場合には、終了処理を行った後、本フローを終了する。
 図10に示すフローは、内視鏡撮像素子からの画像コマ情報を順次取得するステップと(S53、S55参照)、画像コマ情報を視認可能な情報に画像処理するステップと(S53、S55参照)、視認可能な情報を外部に出力する画像出力ステップと(S53、S55参照)、順次取得した画像コマに対応し、内視鏡から順次得られる関連情報を取得するステップと(S55参照)、推論装置からの関連情報の要求信号を取得するステップと(S57、S59参照)、要求信号の合否判定に従って画像コマと、当該画像コマに関連情報を合わせて出力するステップと(S65参照)を、有している。
 このように、本実施形態においては、医師が内視鏡検査を行う際に、NBI、血管強調等の画像処理のパラメータを調整しながら観察を行う。記録装置55に対して当該パラメータの記録が許可されている場合には(図9(a)参照)、セレクタ53cに要求信号が入力される(S57、S59参照)。この場合には、セレクタ53cは画像データに画像調整パラメータを関連情報(補助情報)として付加したデータを選択して出力する。一方、記録装置に対して当該パラメータの記録が許可されていない場合には(図9(b)参照)、セレクタ53cに要求信号が入力されないため、セレクタ53cはモニタ54に出力される画像データと同様の関連情報なしの画像データを選択して、出力する。したがって、本実施形態においては、関連情報(補助情報)が不要な場合には、関連情報なしのデータを記録装置55が記録することによって、必要最低限の量のデータを保存することができる。一方、関連情報が必要な場合には、関連情報付きの教師データを作成することができ、信頼性の高い推論モデルを生成することが可能となる。
 以上説明したように、本発明の各実施形態における情報出力方法は、内視鏡内に設けられた撮像素子から画像コマ情報を順次取得するステップと(例えば、図2のS1、S3参照)、画像コマ情報を視認可能な情報に画像処理するステップと(例えば、図2のS3参照)、画像処理された視認可能な情報を外部に出力する画像出力ステップと(例えば、図2のS5参照)、順次取得した画像コマ情報に対応し、関連情報を順次取得するステップと(例えば、図2のS5参照)、推論部から関連情報の取得に関する要求信号を取得するステップと(例えば、図2のS7、S9参照)、要求信号の合否判定に従って画像コマ情報と、当該画像コマに関連情報を合わせて出力するステップと(例えば、図2のS15参照)とからなる。
 上述の本発明の各実施形態は、種々の変形やまた応用することが可能である。下記に変形例や応用例について列記する。(1)光源の光量分布情報を関連情報(例えば、指向性やパララックスによる影の分布で、画像が不均一になっているかどうかの情報等)として記録し、推論モデル作成の際に利用する。この光量分布情報として、空間的な光量分布情報、波長情報、パララックス情報(立体感情報を含めてもよい)等のいずれかを利用してもよい。
 (2)撮像方式が面順次方式の場合、面順次情報を関連情報として記録し、推論モデル作成の際に利用してもよい。この場合、動的にパラメータを決めている場合には、その場合のパラメータ情報を利用してもよい。また、撮像方式が面順次の場合、特徴点マッチによるブレ量情報を関連情報として記録し、推論モデル作成の際に利用してもよい。また、これらの関連情報を、色ずれ補正処理に利用してもよい。(3)手ブレ、温度、縦横センサ、加速度センサ等のセンサ情報を関連情報として記録し、推論モデル作成の際に利用してもよい。
 (4)注水操作を行った場合の注水情報を関連情報として記録しておき、注水時の画像は、注水時の教師データにはなっても、患部の教師データにはふさわしくないなどが考えられるので、その旨を情報として記録し、推論モデル作成の際に利用してもよい。(5)電気メスを使用した場合のオン・オフ情報を記録しておき、推論モデル作成の際に利用してもよい。たとえば、電気メス使用中はAIを停止し、誤表示をさせないようにする推論モデルを作成することができる。電気メスの判定で手術のフェーズのタイミング信号やトラックの信号にしてもよく、煙が出るシーンの判定や教師データ化に役立てることができる。
 また、下記のような変形例や応用例もある。(5)高周波メス等を使用した際に発生する煙情報を関連情報として記録しておき、煙シーンを避ける推論モデルを作成する際に利用する。(6)手技のフェーズ情報を関連情報として記録し、推論モデルを作成する際に利用しても良い。手術の最初から最後まで必要な手技はないので、フェーズに応じた手技をアドバイスする。
 (7)特定のフェーズでしか使用しない鉗子があることから、鉗子の感知情報を関連情報として記録し、特定のフェーズ用の信号のトリガとして使ったり、教師データとして記録したりしてもよい。また、推論モデルを作成する際に利用してもよい。例えば、トロッカーと鉗子をNFC(近距離無線:Near Field Communication)によって検知し、関連情報として記録し、推論モデルを生成する。この場合には、胆のう切開時にのみ使用するトロッカー、鉗子等によってシーンを推論することが可能となる。また、腹腔鏡下胆嚢切除術の内、胆管を切るフェーズを検出した場合、このフェーズで関連情報を収集し、第二の推論モデルを生成する。この場合には、必要なフェーズでのみ学習し、推論できるため、推論の品質が向上する。
 (8)画像合成している場合、合成前の画像情報を関連情報として記録しておく。例えば、深度合成画像処理(HDR)を行った際に、ハレーションとなっている場合には、合成前の画像を用いて推論を行うようにしてもよい。また、暗い画像を用いて推論した場合に、その画像で腫瘍を見つけた場合に、HDRによる画像を停止するように、医師にアドバイスする推論モデルを作成することができる。(9)フレーム毎の画像データに情報を埋め込んでおき、その情報を暗号化しておく。この場合には、画像データに対して復号機能を有しているAI―PFのみが、情報を用いて推論できる。
 更に下記のような変形例や応用例もある。(10)扁平な腫瘍に対してえぐる手技(ESD(内視鏡的粘膜下層はく離術:Endoscopic Submucosal Dissection))を行う際に応用するようにしてもよい。ESD用の処置具を使われているかを画像で判定して、動画のインデックスにするようにしてもよい。(11)認証付きのシングルユースの場合に、要求した情報を取得できるようにする。(12)染色したフレームに染色したことを示すフラグをコンピュータ上に立てる。また処置具のガイドに染色処置具が入ったフラグをコンピュータ上で立てる。
 (13)AIによって推論を行い、このAI結果を出力する。(14)出血有無の情報に基づいて推論モデルを生成し、この推論モデルを用いて、出血の有無を推論する。さらに、大量の出血となるか否かを推論する。出血判定の結果の結果によって、出血シーンの教師データ化や、出血で隠れた部分を省いての教師データ化等を行う際に関連情報とすることができる。出血検知から任意コマ前までの画像を教師データとして、出血を予告する推論モデルができる。
 更に、下記のような変形例や応用例もある。(15)上述の実施形態において、記録部に認証用データを記録し、関連情報の出力の合否を決めていたが、記録部に認証用データを記録する以外にも、ハードウェアキー(ドングル(Dongle)、ソフトウエアプロテクトともいう)が内視鏡装置や処理装置(PC等を含む)の端子に挿入された場合に、関連情報の出力を許可するようにしてもよい。また、関連情報を暗号化しておき、認証付きのスコープを使用する場合、NFC(近距離無線:Near Field Communication)の利用、操作者の指紋、顔認証等のいずれかを利用することによって、暗号の復号化キーを取得し、関連情報を取得できるようにしてもよい。
 また、上述の種々の関連情報を用いて教師データを作成することができる。例えば、関連データも含めて学習を行っても良く、また関連情報を用いて、学習用データの取捨選択等の分類を行ってよい。たとえば、撮像部から時系列で、画像コマを構成する画像データを取得するステップと、上記画像コマ取得のタイミングで得られた関連情報を出力するステップと、上記画像データと、上記画像コマに対応する関連情報を用いて、教師データを作成するステップと有する教師データ作成方法であってもよい。
 また、図1、図4において、表示部24(表示部34)および/または記録部25(記録部35)は、処理装置20(第2処理装置30)の外部に配置してもよく、その場合には、処理装置20(処理装置30)との間に通信部を設ければよいことを述べた。この場合の情報出力方法は、以下のステップによって行ってもよい。すなわち、情報出力方法は、撮像装置に設けられた撮像素子から画像コマデータを順次取得するステップと、上記画像コマデータを視認可能な表示用情報に画像処理するステップと、画像処理された上記視認可能な表示用情報を外部ディスプレイに表示するために出力する画像出力ステップと、上記撮像装置から順次取得した上記画像コマ情報に対応し、関連情報を順次取得するステップと、上記表示用情報を用いた推論を行う推論装置から上記関連情報の取得に関する要求信号を取得するステップと、上記要求信号の合否判定に従って上記画像コマと、当該画像コマに関連情報を併せて出力するステップを備える。
 また、表示部24(表示部34)および/または記録部25(記録部35)を、処理装置20(第2処理装置30)の外部に設け、これらの間に通信部を設けた場合に、下記のように、以下のステップに情報出力方法を実行するようにしてもよい。すなわち、情報出力方法は、画像データに含まれる情報を推論して、推論結果を表示する情報出力方法において、撮像装置に設けられた撮像素子から画像データを順次取得するステップと、上記画像データを外部ディスプレイに表示および/または記録するために出力する画像データ出力ステップと、上記画像データを用いた推論を行う推論装置から上記画像データの取得に関する要求信号を取得するステップと、を有し、上記要求信号は、上記推論装置のID情報を含み、上記画像データ出力ステップは、上記画像データに、当該画像データを用いて推論した推論装置のID情報を併せて出力する。この情報出力方法によれば、画像データを用いて推論した推論装置を識別するID情報と共に画像データを出力するので、推論モデル等の出所が分かる。
 また、本発明の各実施形態においては、制御部11、21、31(図7および図9における制御部(不図示)も含む)は、CPUやメモリ等から構成されている機器として説明した。しかし、CPUとプログラムによってソフトウエア的に構成する以外にも、各部の一部または全部をハードウエア回路で構成してもよく、ヴェリログ(Verilog)やVHDL(Verilog Hardware Description Language)等によって記述されたプログラム言語に基づいて生成されたゲート回路等のハードウエア構成でもよく、またDSP(Digital Signal Processor)等のソフトを利用したハードウエア構成を利用してもよい。これらは適宜組み合わせてもよいことは勿論である。
 また、制御部11、21、31(図7および図9における制御部(不図示)も含む)は、CPUに限らず、コントローラとしての機能を果たす素子であればよく、上述した各部の処理は、ハードウエアとして構成された1つ以上のプロセッサが行ってもよい。例えば、各部は、それぞれが電子回路として構成されたプロセッサであっても構わないし、FPGA(Field Programmable Gate Array)等の集積回路で構成されたプロセッサにおける各回路部であってもよい。または、1つ以上のCPUで構成されるプロセッサが、記録媒体に記録されたコンピュータプログラムを読み込んで実行することによって、各部としての機能を実行しても構わない。
 また、本発明の各実施形態においては、内視鏡装置10、処理装置20、第2処理処理装置30、CADボックス40、画像処理プロセッサ53等は、それぞれ各機能を果たすブロックを有しているものとして説明した。しかし、これらは一体の装置内に設けられている必要はなく、例えば、インターネット等の通信網によって接続されていれば、上述の各部は分散されていても構わない。
 また、本発明の各実施形態においては、ロジックベースの判定を主として説明し、一部に機械学習を使用した推論による判定を行っていた。ロジックベースによる判定を行うか推論による判定を行うかは、本実施形態においては適宜いずれかを選択して使用するようにしてもよい。また、判定の過程で、部分的にそれぞれの良さを利用してハイブリッド式の判定をしてもよい。
 また、近年は、様々な判断基準を一括して判定できるような人工知能が用いられる事が多く、ここで示したフローチャートの各分岐などを一括して行うような改良もまた、本発明の範疇に入るものであることは言うまでもない。そうした制御に対して、ユーザが善し悪しを入力可能であれば、ユーザの嗜好を学習して、そのユーザにふさわしい方向に、本願で示した実施形態はカスタマイズすることが可能である。
 また、本明細書において説明した技術のうち、主にフローチャートで説明した制御に関しては、プログラムで設定可能であることが多く、記録媒体や記録部に収められる場合もある。この記録媒体、記録部への記録の仕方は、製品出荷時に記録してもよく、配布された記録媒体を利用してもよく、インターネットを通じてダウンロードしたものでもよい。
 また、本発明の一実施形態においては、フローチャートを用いて、本実施形態における動作を説明したが、処理手順は、順番を変えてもよく、また、いずれかのステップを省略してもよく、ステップを追加してもよく、さらに各ステップ内における具体的な処理内容を変更してもよい。
 また、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず」、「次に」等の順番を表現する言葉を用いて説明したとしても、特に説明していない箇所では、この順で実施することが必須であることを意味するものではない。
 本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせによって、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
10・・・内視鏡装置、11・・・制御部、11a・・・撮像開始読出制御部、11b・・・コマ情報部、12・・・撮像部、13・・・画像処理部、14・・・通信部、15・・・記録部、15a・・・認証用データ、16・・・関連情報部、17・・・時計部、20・・・処理部、21・・・制御部、22・・・通信部、23・・・画像処理部、24・・・表示部、25・・・記録部、25a・・・認証用データ、26・・・推論部、27・・・時計部、30・・・第2処理装置、31・・・制御部、32・・・通信部、33・・・画像処理部、34・・・表示部、35・・・記録部、35a・・・認証用データ、36・・・第2推論部、37・・・時計部、40・・・CADボックス、50A・・・フォーカス機能付きスコープ、50B・・・フォーカス機能なしスコープ、50C・・・パンフォーカススコープ、53・・・画像処理プロセッサ、53a・・・現処理部、53b・・・同期処理部、53c・・・セレクタ、53d・・・パラメータ部、54・・・モニタ、55・・・記録装置、55a・・・学習用データ、60・・・スコープ、100a・・・推論エンジン、100b・・・推論エンジン、101a・・・推論結果(鑑別結果)、101b・・・推論結果(鑑別結果)

Claims (15)

  1.  撮像部から時系列で、画像コマを構成する画像データを取得するステップと、
     処理部が上記撮像部との通信によって上記画像データを受信して推論部に出力し、対応する画像コマの中に撮像された特定の対象物を推論させるステップと、
     上記対象物の推論結果を表示用および/または記録用に出力するステップと、
     からなる情報出力方法において、
     上記画像コマの取得のタイミングで得られた関連情報を出力するステップと、
     上記撮像部と上記処理部との通信によって、上記画像コマの画像データに対応する上記関連情報を上記推論部に入力するかどうかを判定するステップと、
     を具備することを特徴とする情報出力方法。
  2.  上記関連情報を上記推論部に入力するかどうかの判定は、上記推論部のID情報に従って決定されることを特徴とする請求項1に記載の情報出力方法。
  3.  上記関連情報は、上記画像データが、表示および/または記録可能な画像コマ情報に処理した時に用いたパラメータ情報であることを特徴とする請求項1に記載の情報出力方法。
  4.  内視鏡内に設けられた撮像素子から画像コマ情報を順次取得する画像コマ情報取得ステップと、
     上記画像コマ情報を視認可能な表示用情報に画像処理する画像処理ステップと、
     画像処理された上記視認可能な表示用情報を外部に出力する画像出力ステップと、
     順次取得した上記画像コマ情報に対応した関連情報を順次取得する関連情報取得ステップと、
     上記画像コマ情報を用いた推論を行う推論部から上記関連情報の取得に関する要求信号を取得する要求信号取得ステップと、
     上記要求信号の合否判定に従って上記画像コマ情報に対応した表示用情報と、当該画像コマに関連情報を併わせて出力する関連情報出力ステップと、
     を有することを特徴とする情報出力方法。
  5.  上記関連情報は、画像コマの番号に関する情報、上記画像コマの中の位置に関する情報、上記画像コマにおいて検出された物に関する情報、上記画像コマには写っていない物に関する情報の内の少なくとも1つであることを特徴とする請求項4に記載の情報出力方法。
  6.  上記関連情報は、上記撮像素子のRAW画像情報、上記画像処理に使用されなかった撮像情報、上記撮像素子用の撮像レンズの光学情報、および上記内視鏡の操作情報の内の少なくとも1つであることを特徴とする請求項4に記載の情報出力方法。
  7.  上記要求信号取得ステップにおいて、さらに上記推論部のID情報を取得し、
     上記関連情報出力ステップにおいて、上記ID情報に関連した情報を上記表示用情報と併せて出力する、
     ことを特徴とする請求項4に記載の情報出力方法。
  8.  上記要求信号の合否判定は、上記画像コマと当該画像コマの関連情報の出力相手を判定し、上記出力相手と契約関係にあることを確認し、この確認結果に基づいて、要求を受け入れるかどうかを決定することを特徴とする請求項4に記載の情報出力方法。
  9.  上記合否判定の結果、上記出力相手と契約関係にある場合には、上記要求信号に応じて、上記画像コマと当該画像コマに関連情報を合わせて出力し、一方、上記出力相手と契約関係にない場合には、上記画像コマのみを出力することを特徴とする請求項8に記載の情報出力方法。
  10.  追加関連情報の有無を出力するステップと、
     追加関連情報の要求を入力するステップと、
     をさらに有することを特徴とする請求項4に記載の情報出力方法。
  11.  内視鏡内に設けられた撮像素子から画像コマ情報を順次取得する画像コマ情報取得部と、
     上記画像コマ情報を視認可能な表示用情報に画像処理する画像処理部と、
     画像処理された上記視認可能な表示用情報を外部に出力する画像出力部と、
     順次取得した上記画像コマ情報に対応した関連情報を順次取得する関連情報取得部と、
     上記画像コマ情報を用いた推論を行う推論部から上記関連情報の取得に関する要求信号を取得する要求信号取得部と、
     上記要求信号の合否判定に従って上記画像コマ情報に対応して表示用情報と、当該画像コマに関連情報を併わせて出力する出力部と、
     を有することを特徴とする情報出力装置。
  12.  撮像装置に設けられた撮像素子から画像コマデータを順次取得するステップと、
     上記画像コマデータを視認可能な表示用情報に画像処理するステップと、
     画像処理された上記視認可能な表示用情報を外部ディスプレイに表示するために出力する画像出力ステップと、
     上記撮像装置から順次取得した上記画像コマ情報に対応し、関連情報を順次取得するステップと、
     上記表示用情報を用いた推論を行う推論装置から上記関連情報の取得に関する要求信号を取得するステップと、
     上記要求信号の合否判定に従って上記画像コマと、当該画像コマに関連情報を併せて出力するステップと、
     を有することを特徴とする情報出力方法。
  13.  画像データに含まれる情報を推論して、推論結果を表示する情報出力方法において、
     撮像装置に設けられた撮像素子から画像データを順次取得するステップと、
     上記画像データを外部ディスプレイに表示および/または記録するために出力する画像データ出力ステップと、
     上記画像データを用いた推論を行う推論装置から上記画像データの取得に関する要求信号を取得するステップと、
     を有し、
     上記要求信号は、上記推論装置のID情報を含み、
     上記画像データ出力ステップは、上記画像データに、当該画像データを用いて推論した推論装置のID情報を併せて出力することを特徴とする情報出力方法。
  14.  撮像部から時系列で、画像コマを構成する画像データを取得するステップと、
     処理部が上記撮像部との通信によって上記画像データを受信して推論部に出力し、対応する画像コマの中に撮像された特定の対象物を推論させるステップと、
     上記対象物の推論結果を表示用および/または記録用に出力するステップと、
     からなる情報出力方法において、
     上記画像コマの取得のタイミングで得られた関連情報を出力するステップと、
     上記撮像部と上記処理部との通信によって、上記画像コマの画像データに対応する上記関連情報を上記推論部に入力して得られた推論結果を表示および/または記録するかどうかを判定するステップと、
     を具備することを特徴とする情報出力方法。 
  15.  上記関連情報を入力して得られた推論結果と、上記関連情報を入力せずに得られた推論結果を区別して表示および/または記録する請求項14に記載の情報出力方法。
PCT/JP2022/004106 2022-02-02 2022-02-02 情報出力方法および情報出力装置 WO2023148857A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/004106 WO2023148857A1 (ja) 2022-02-02 2022-02-02 情報出力方法および情報出力装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/004106 WO2023148857A1 (ja) 2022-02-02 2022-02-02 情報出力方法および情報出力装置

Publications (1)

Publication Number Publication Date
WO2023148857A1 true WO2023148857A1 (ja) 2023-08-10

Family

ID=87553360

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/004106 WO2023148857A1 (ja) 2022-02-02 2022-02-02 情報出力方法および情報出力装置

Country Status (1)

Country Link
WO (1) WO2023148857A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007215850A (ja) * 2006-02-17 2007-08-30 Pentax Corp 内視鏡装置
WO2020036121A1 (ja) * 2018-08-17 2020-02-20 富士フイルム株式会社 内視鏡システム
JP2020175051A (ja) * 2019-04-23 2020-10-29 学校法人慈恵大学 診断支援システム、及び診断支援用プログラム
JP2021029669A (ja) * 2019-08-26 2021-03-01 Hoya株式会社 内視鏡システム、データ処理装置、内視鏡、通信接続方法及びコンピュータプログラム
WO2021235468A1 (ja) * 2020-05-19 2021-11-25 ニプロ株式会社 内視鏡システムおよび制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007215850A (ja) * 2006-02-17 2007-08-30 Pentax Corp 内視鏡装置
WO2020036121A1 (ja) * 2018-08-17 2020-02-20 富士フイルム株式会社 内視鏡システム
JP2020175051A (ja) * 2019-04-23 2020-10-29 学校法人慈恵大学 診断支援システム、及び診断支援用プログラム
JP2021029669A (ja) * 2019-08-26 2021-03-01 Hoya株式会社 内視鏡システム、データ処理装置、内視鏡、通信接続方法及びコンピュータプログラム
WO2021235468A1 (ja) * 2020-05-19 2021-11-25 ニプロ株式会社 内視鏡システムおよび制御方法

Similar Documents

Publication Publication Date Title
JP4418400B2 (ja) 画像表示装置
CN111295127B (zh) 检查支持装置、内窥镜装置及记录介质
EP1849402A1 (en) Medical image processing device, lumen image processing device, lumen image processing method, and programs for them
JP6949999B2 (ja) 画像処理装置、内視鏡システム、画像処理方法、プログラム及び記録媒体
JP7166430B2 (ja) 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法及びプログラム
WO2020003607A1 (ja) 情報処理装置、モデル学習方法、データ認識方法および学習済みモデル
EP3932290B1 (en) Medical image processing device, processor device, endoscope system, medical image processing method, and program
JPWO2019230302A1 (ja) 学習データ収集装置、学習データ収集方法及びプログラム、学習システム、学習済みモデル、並びに内視鏡画像処理装置
EP3994702B1 (en) Surgery support system, surgery support method, information processing apparatus, and information processing program
JP7031925B1 (ja) コンピュータプログラム、手術支援装置、及び情報処理方法
JPWO2019130868A1 (ja) 画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラム
JP6807869B2 (ja) 画像処理装置、画像処理方法およびプログラム
US9392230B2 (en) Endoscopic apparatus and measuring method
US20220007942A1 (en) Medical imaging systems and methods that facilitate use of different fluorescence imaging agents
JP2010069208A (ja) 画像処理装置、画像処理方法および画像処理用プログラム
WO2023148857A1 (ja) 情報出力方法および情報出力装置
US20220361739A1 (en) Image processing apparatus, image processing method, and endoscope apparatus
US20220007925A1 (en) Medical imaging systems and methods
JPWO2019039252A1 (ja) 医療画像処理装置及び医療画像処理方法
WO2020090002A1 (ja) 内視鏡システム及び内視鏡システムに用いる画像処理装置及び画像処理方法
WO2023188169A1 (ja) 内視鏡、教師データ候補画像取得装置、教師データ候補画像取得方法、およびプログラム
WO2023013080A1 (ja) アノテーション支援方法、アノテーション支援プログラム及びアノテーション支援装置
JP2023166258A (ja) 画像評価装置、画像評価方法及び画像評価プログラム
CN117119942A (zh) 处理器装置、医疗图像处理装置、医疗图像处理系统及内窥镜系统
CN115023171A (zh) 学习用医疗图像数据生成装置、学习用医疗图像数据生成方法以及程序

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22924769

Country of ref document: EP

Kind code of ref document: A1