WO2023095208A1 - Endoscope insertion guide device, endoscope insertion guide method, endoscope information acquisition method, guide server device, and image inference model learning method - Google Patents

Endoscope insertion guide device, endoscope insertion guide method, endoscope information acquisition method, guide server device, and image inference model learning method Download PDF

Info

Publication number
WO2023095208A1
WO2023095208A1 PCT/JP2021/043003 JP2021043003W WO2023095208A1 WO 2023095208 A1 WO2023095208 A1 WO 2023095208A1 JP 2021043003 W JP2021043003 W JP 2021043003W WO 2023095208 A1 WO2023095208 A1 WO 2023095208A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
endoscope
information
inference
inference model
Prior art date
Application number
PCT/JP2021/043003
Other languages
French (fr)
Japanese (ja)
Inventor
浩一 新谷
憲 谷
学 市川
智子 後町
修 野中
暁 吉田
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to PCT/JP2021/043003 priority Critical patent/WO2023095208A1/en
Publication of WO2023095208A1 publication Critical patent/WO2023095208A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof

Abstract

Provided are an endoscope insertion guide device, an endoscope insertion guide method, an endoscope information acquisition method, a guide server device, and an image inference model learning method that make it possible for a position observed by an endoscope or the like to be easily detected again. The present invention includes: a similar image inference unit (an inference engine 36) having a similar image inference model learned by means of the same legion image or similar legion images obtained by a plurality of different observation methods on the basis of legion images of a legion obtained by examination of a specific subject by means of a first endoscope; and a reinsertion auxiliary information generation unit (an auxiliary device 30, the inference engine 36, and the like) that generates insertion auxiliary information for performing guidance to a reconfirmation position in accordance with a result obtained by inputting an image at the time of re-examination of the specific subject by means of a second endoscope into the similar image inference unit in order to observe the position of the legion again at the time of re-examination.

Description

内視鏡挿入ガイド装置、内視鏡挿入ガイド方法、内視鏡情報取得方法、ガイドサーバ装置、および画像推論モデル学習方法Endoscope insertion guide device, endoscope insertion guide method, endoscope information acquisition method, guide server device, and image inference model learning method
 本発明は、内視鏡等の医療機器を用いて体内等に挿入して患部・病変部等の部位を観察した後に、再度、その部位を簡単に探し出せるようにした内視鏡挿入ガイド装置、内視鏡挿入ガイド方法、内視鏡情報取得方法、ガイドサーバ装置、および画像推論モデル学習方法に関する。 The present invention provides an endoscope insertion guide device that allows a medical device such as an endoscope to be inserted into the body or the like to observe a site such as an affected or lesioned site, and then to easily search for the site again. The present invention relates to an endoscope insertion guide method, an endoscope information acquisition method, a guide server device, and an image inference model learning method.
 医師等の専門家や医療従事者は、内視鏡を被検者の体内等に挿入することによって、体内等を直接観察することができ、病変部を容易に発見することができる。しかし、内視鏡が体内等に挿入されているため、どこの部分を観察しているかは直ちには分からない。そこで、体内における内視鏡の位置等を簡単に検出するようにした手術システムが提案されている(特許文献1参照)。この手術システムは、軟性導体内視鏡の位置を特定する磁気トラッキング装置及び/ 又は光学式の位置センサを備え、内視鏡の位置をメインワークステーションに伝送し、内視鏡の位置を画像によって確認し、処置できるようにしている。 By inserting an endoscope into the subject's body, etc., doctors and other specialists and medical personnel can directly observe the inside of the subject's body, etc., and easily find lesions. However, since the endoscope is inserted into the body or the like, it is not immediately clear what part is being observed. Therefore, a surgical system has been proposed in which the position of the endoscope inside the body and the like can be easily detected (see Patent Document 1). The surgical system includes a magnetic tracking device and/or optical position sensor for locating the flexible conductor endoscope, transmits the position of the endoscope to the main workstation, and imagewise identifies the position of the endoscope. We will check and take action.
特開2013-063158号公報JP 2013-063158 A
 特許文献1に開示の手術システムでは、内視鏡等の位置を検出するために、磁気トラッキング装置等を備える必要があり、部位を特定するために、大掛かりな装置となっている。また、一度、観察した位置を再度探し出すことについてまでは記載されていない。また、一度観察した位置や発見した病変部等の関心部位を、再検査時等にもう一度観察した場合や、管腔外からその部位を特定したい場合や、カルテ等に関心部位がどこにあるかを記録した場合等については何ら記載されていない。 The surgical system disclosed in Patent Document 1 needs to be equipped with a magnetic tracking device or the like in order to detect the position of the endoscope or the like, and is a large-scale device in order to specify the site. In addition, there is no description of re-searching for a position that has been observed once. In addition, if you want to observe the site of interest such as a previously observed position or a discovered lesion again at the time of reexamination, or if you want to specify the site from outside the lumen, or if you want to identify the site of interest in a medical chart, etc. There is no description about the case of recording.
 本発明は、このような事情を鑑みてなされたものであり、内視鏡等の医療機器によって観察した位置を、再度、容易に検出することができる内視鏡挿入ガイド装置、内視鏡挿入ガイド方法、内視鏡情報取得方法、ガイドサーバ装置、および画像推論モデル学習方法を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of such circumstances, and provides an endoscope insertion guide device capable of easily re-detecting a position observed by a medical device such as an endoscope. An object of the present invention is to provide a guide method, an endoscope information acquisition method, a guide server device, and an image inference model learning method.
 上記目的を達成するため第1の発明に係る内視鏡挿入ガイド装置は、特定被検者の第1の内視鏡による検査で得られた患部が撮影された患部画像をもとに、異なる複数の観察方法で得られた同一若しくは類似の患部画像で学習された類似画像推論モデルを有する類似画像推論部と、上記特定被検者に対する第2の内視鏡による再検査時に上記患部の位置を再度観察するために、再検査時の画像を上記類似画像推論部に入力して得られた結果に従って、再確認位置をガイドする挿入補助情報を生成する再挿入補助情報生成部と、を有する。 In order to achieve the above object, an endoscope insertion guide apparatus according to a first aspect of the present invention provides different A similar image inference unit having a similar image inference model trained with the same or similar affected area images obtained by a plurality of observation methods, and a position of the affected area during reexamination of the specific subject with a second endoscope a re-insertion auxiliary information generating unit for generating insertion auxiliary information for guiding the reconfirmation position according to the result obtained by inputting the image at the time of re-examination to the similar image inference unit in order to re-observe the .
 第2の発明に係る内視鏡挿入ガイド装置は、上記第1の発明において、上記類似画像推論モデルは、観察対象臓器の変形による患部画像の変化をキャンセルして推論する。
 第3の発明に係る内視鏡挿入ガイド装置は、上記第1の発明において、上記類似画像推論モデルは、内視鏡挿入時と抜去時、送気操作、送水操作、吸引操作、操作速度の変化、姿勢の変化の少なくとも1つによって変形した観察対象臓器の画像の対応関係から学習した推論モデルを利用する。
 第4の発明に係る内視鏡挿入ガイド装置は、上記第1の発明において、上記類似画像推論モデルは、上記第1の内視鏡による検査時に得られた観察対象臓器の連続画像の変化を推論する。
 第5の発明に係る内視鏡挿入ガイド装置は、上記第2ないし第4の発明において、上記観察対象臓器は大腸または小腸である。
An endoscope insertion guide apparatus according to a second invention is the endoscope insertion guide apparatus according to the first invention, wherein the similar image inference model makes an inference by canceling changes in the diseased part image due to deformation of the observation target organ.
An endoscope insertion guide device according to a third aspect of the invention is the endoscope insertion guide device according to the first aspect, wherein the similar image inference model is an insufflation operation, a water supply operation, a suction operation, and an operation speed during insertion and withdrawal of the endoscope. An inference model learned from the correspondence relationship between images of observation target organs deformed by at least one of change and posture change is used.
A fourth aspect of the invention is directed to an endoscope insertion guide apparatus according to the first aspect, wherein the similar image inference model is adapted to detect changes in continuous images of the observation target organ obtained during inspection by the first endoscope. infer.
A fifth aspect of the present invention provides an endoscope insertion guide apparatus according to any one of the second to fourth aspects, wherein the observation target organ is the large intestine or the small intestine.
 第6の発明に係る内視鏡情報取得方法は、第1のタイミングにおいて、特定対象物までの内視鏡センサ部の位置変更動作を含む検査を行い、該検査時における連続画像の少なくとも一部を、上記第1のタイミングより後の第2のタイミングにおいて行う検査の際に使用する内視鏡位置変更用ガイドを生成するためのガイド用情報として取得する取得ステップと、上記第1のタイミングにおいて取得した上記連続画像の少なくとも一部に基づいて、上記ガイド用情報を決定するガイド用情報決定ステップと、を有する。 An endoscope information acquisition method according to a sixth aspect of the present invention performs an inspection including a position change operation of an endoscope sensor unit up to a specific target at a first timing, and performs at least a part of continuous images during the inspection. as guide information for generating a guide for changing the position of the endoscope to be used in an examination performed at a second timing after the first timing; and at the first timing, and a guide information determining step of determining the guide information based on at least part of the acquired continuous images.
 第7の発明に係る内視鏡情報取得方法は、上記第6の発明において、上記ガイド用情報は、上記第2のタイミングで行われる内視鏡センサ部の挿入時に、上記特定対象物に対応する画像を取得可能な位置にまで位置変更動作が行われるように、上記特定対象物を特定可能にする情報である。
 第8の発明に係る内視鏡情報取得方法は、上記第7の発明において、上記特定対象物を特定可能にする情報は、AIを用いて推論される類似画像判定用の情報である。
 第9の発明に係る内視鏡情報取得方法は、上記第7の発明において、上記特定対象物を特定可能にする情報は、AIを用いて推論される画像の変化の類似性判定用の情報である。
An endoscope information acquiring method according to a seventh aspect is the method according to the sixth aspect, wherein the guiding information corresponds to the specific object when the endoscope sensor section is inserted at the second timing. This is information that enables the specific object to be specified so that the position change operation is performed to a position where the image to be acquired can be acquired.
An endoscope information acquisition method according to an eighth invention is the endoscope information acquisition method according to the seventh invention, wherein the information enabling the identification of the specific object is information for similar image determination inferred using AI.
An endoscopic information acquisition method according to a ninth aspect is characterized in that, in the seventh aspect, the information enabling identification of the specific object is information for determining similarity of changes in images inferred using AI. is.
 第10の発明に係る内視鏡情報取得方法は、上記第6の発明において、上記ガイド用情報は内視鏡位置変更情報に基づいて決定し、上記内視鏡位置変更情報は、上記第1のタイミングにおいて得られた挿入方向と抜去方向の内視鏡画像情報の相互参照によって、または、上記第2のタイミングにおいて得られた内視鏡画像変化と内視鏡操作情報の相互参照によって得られる情報である。
 第11の発明に係る内視鏡情報取得方法は、上記第6の発明において、上記第1のタイミングにおいて取得した上記連続画像の少なくとも一部に基づく引用情報を記録しておき、該引用情報は、インフォームド・コンセントに関する確認結果を含んでいる。
A tenth aspect of the present invention is an endoscope information acquiring method according to the sixth aspect, wherein the guide information is determined based on the endoscope position change information, and the endoscope position change information is the first endoscope position change information. Obtained by cross-referencing the endoscopic image information in the insertion direction and the withdrawal direction obtained at the timing of , or by cross-referencing the endoscopic image change and the endoscopic operation information obtained at the second timing Information.
An endoscopic information acquiring method according to an eleventh aspect is, in the sixth aspect, recording citation information based on at least a part of the continuous images acquired at the first timing, wherein the citation information is , contains confirmation results regarding informed consent.
 第12の発明に係る内視鏡情報取得方法は、上記第6の発明において、上記取得ステップは、特定被検者の内視鏡検査の際に、上記内視鏡の操作に関する操作情報をさらに取得する。
 第13の発明に係る内視鏡情報取得方法は、上記第12の発明において、上記取得ステップは、上記内視鏡検査時において、第1の観察方法および第2の観察方法において、上記操作情報を取得する。
An endoscope information acquisition method according to a twelfth aspect of the invention is the sixth aspect, wherein the acquisition step further obtains operation information related to operation of the endoscope during an endoscopy of the specific subject. get.
An endoscopic information acquiring method according to a thirteenth aspect is the twelfth aspect, wherein the acquiring step includes, in the first observation method and the second observation method, the operation information to get
 第14の発明に係る内視鏡情報取得方法は、上記第13の発明において、さらに、上記連続画像の少なくとも一部および/または上記操作情報を用いて、上記第1の観察方法および第2の観察方法のいずれか一方を行う際に見出される患部位置を、他方の観察方法を行う際に、上記患部位置を見出すための補助情報を出力する補助情報取得ステップを有する。
 第15発明に係る内視鏡情報取得方法は、上記第14の発明において、上記補助情報取得ステップは、上記内視鏡検査の際に第1の観察方法および第2の観察方法によって取得した上記患部画像および/または上記操作情報を用いて、上記患部位置を見出すための補助情報を推論によって出力するための推論モデルを生成する。
An endoscopic information acquisition method according to a fourteenth aspect of the present invention is the thirteenth aspect, further comprising the steps of performing the first observation method and the second observation method using at least a part of the continuous images and/or the operation information. It has an auxiliary information obtaining step of outputting auxiliary information for finding the position of the affected part found when performing one of the observation methods, and for finding the position of the affected part when performing the other observation method.
An endoscopic information acquisition method according to a fifteenth aspect of the invention is the fourteenth aspect of the invention, wherein the auxiliary information acquisition step comprises the above-mentioned information acquired by the first observation method and the second observation method during the endoscopy. Using the affected area image and/or the operation information, an inference model is generated for outputting auxiliary information for finding the affected area position by reasoning.
 第16の発明に係る内視鏡挿入ガイド装置は、特定被検者について第1の内視鏡による検査で内視鏡画像を取得する第1の画像取得部と、内視鏡検査の画像に基づき画像の類似度を推定する類似度推定モデルを有する類似画像推定部と、上記特定被検者に対する第2の内視鏡による再検査において、上記第1の内視鏡検査で発見された病変に対する画像と第2の内視鏡による検査の内視鏡画像とを上記類似画像推定部に入力して画像の類似度を推定し、上記類似度が所定よりも高い画像であるか否かを判定する類似画像判定部と、を具備し、上記第2の内視鏡による検査において、上記病変と類似する画像の位置までガイドする。 An endoscope insertion guide apparatus according to a sixteenth invention comprises: a first image acquiring unit for acquiring an endoscopic image of a specific subject in an examination with a first endoscope; a similar image estimating unit having a similarity estimation model for estimating the similarity of an image based on the above; and the endoscopic image obtained by the examination by the second endoscope are input to the similar image estimating unit to estimate the similarity of the images, and determine whether or not the similarity is higher than a predetermined level. and a similar image determination unit for determining, and guides to the position of an image similar to the lesion in the examination by the second endoscope.
 第17の発明に係る内視鏡挿入ガイド装置は、上記第16の発明において、上記類似画像推論モデルは、観察対象臓器の変形による患部画像の変化をキャンセルして推論する。
 第18の発明に係る内視鏡挿入ガイド装置は、上記第16の発明において、上記類似画像推論モデルは、内視鏡挿入時と抜去時、送気操作、送水操作、吸引操作、操作速度の変化、姿勢の変化の少なくとも1つによって変形した観察対象臓器の画像の対応関係から学習した推論モデルを利用する。
A seventeenth aspect of the present invention is an endoscope insertion guide apparatus according to the sixteenth aspect, wherein the similar image inference model makes an inference by canceling changes in the diseased part image due to deformation of the observation target organ.
An endoscope insertion guide device according to an eighteenth aspect is the endoscope insertion guide device according to the sixteenth aspect, wherein the similar image inference model includes, at the time of inserting and removing the endoscope, an air supply operation, a water supply operation, a suction operation, and an operation speed. An inference model learned from the correspondence relationship between images of observation target organs deformed by at least one of change and posture change is used.
 第19の発明に係る内視鏡挿入ガイド方法は、特定被検者の内視鏡検査で得られた検査結果動画のコマに基づいて、処置が必要とされる患部が撮影された患部位置コマを動画内コマ中における位置として判定するステップと、上記動画中コマ中の患部コマ位置に従って、上記特定被検者に対する内視鏡再検査時に上記患部の位置を再度観察するために挿入位置をガイドする挿入補助情報を生成する再挿入補助情報生成ステップと、を有する。 An endoscope insertion guide method according to a nineteenth aspect of the present invention provides an affected part position frame in which an affected part requiring treatment is photographed based on the frames of an inspection result moving image obtained in an endoscopy of a specific subject. as a position in the frame of the moving image, and guiding the insertion position for re-observing the position of the affected part during re-examination of the specific subject according to the position of the affected part frame in the frame of the moving image. and a re-insertion auxiliary information generating step of generating insertion auxiliary information to be inserted.
 第20の発明に係る内視鏡挿入ガイド方法は、上記第19の発明において、上記再挿入補助情報生成ステップは、さらに類似画像を推論する類似画像推論ステップを有する。
 第21の発明に係る内視鏡挿入ガイド方法は、上記第20の発明において、上記類似画像推論ステップは、観察対象臓器の変形による患部画像の変化を推論する。
 第22の発明に係る内視鏡挿入ガイド方法は、上記第20の発明において、上記類似画像推論ステップは、内視鏡挿入時と抜去時、送気操作、送水操作、吸引操作、操作速度の変化、姿勢の変化の少なくとも1つによって変形した観察対象臓器の画像の対応関係から学習した推論モデルを利用する。
A twentieth aspect of the present invention is an endoscope insertion guide method according to the nineteenth aspect, wherein the reinsertion auxiliary information generation step further includes a similar image inference step of inferring a similar image.
A twenty-first aspect of the present invention is an endoscope insertion guide method according to the twentieth aspect, wherein the similar image inference step infers a change in the diseased part image due to deformation of the observed organ.
An endoscope insertion guide method according to a twenty-second aspect of the present invention is the method according to the twentieth aspect, wherein the similar image inference step includes, at the time of inserting and removing the endoscope, an air supply operation, a water supply operation, a suction operation, and an operation speed. An inference model learned from the correspondence relationship between images of observation target organs deformed by at least one of change and posture change is used.
 第23の発明に係るガイドサーバは、特定被検者の内視鏡検査で得られた患部が撮影された患部画像を取得する患部画像取得部と、異なる複数の観察方法で得られた同一若しくは類似の患部画像で学習された画像変換推論モデルを有する類似画像推論部と、上記特定被検者に対する第2の内視鏡による再検査時に上記患部の位置を再度観察するために、上記画像変換推論モデルで上記第2の内視鏡用に変換されたターゲット画像情報を上記第2の内視鏡に送信する送信部と、を有する。 A guide server according to a twenty-third invention includes an affected area image acquisition unit that acquires an affected area image obtained by an endoscopy of a specific subject and an affected area image obtained by a plurality of different observation methods. a similar image inference unit having an image transformation inference model trained with similar affected area images; a transmitting unit configured to transmit target image information converted for the second endoscope by the inference model to the second endoscope.
 第24の発明に係る画像推論モデル学習方法は、複数の観察方法で撮像された特定対象物の画像を取得する画像取得ステップと、上記複数の観察方法で得られた画像のそれぞれに、上記特定対象物の画像の特徴をアノテーションするステップと、上記一方のアノテーション部位に相当する画像を入力とし、他方のアノテーション部位に相当する画像を出力するように学習するステップと、を有する。 An image inference model learning method according to a twenty-fourth invention includes an image acquisition step of acquiring images of a specific target object imaged by a plurality of observation methods, and adding the specified object to each of the images obtained by the plurality of observation methods. It has a step of annotating a feature of an image of an object, and a step of learning so as to input an image corresponding to one of the annotation regions and output an image corresponding to the other annotation region.
 第25の発明に係る推論モデルの作成方法は、第1の観察方法で撮影された特定対象物画像に対し、第1の観察方法とは異なる第2の観察方法によって撮影された上記特定対象物の画像をアノテーションデータとすることによって教師データを作成し、この教師データを用いて学習することによって、上記第1の観察方法で撮影した対象物の画像を入力した時に、上記第2の観察方法で撮影した対象物画像を推論可能にする推論モデルを作成する。 A method for creating an inference model according to a twenty-fifth aspect of the present invention provides an image of the specific object photographed by a second observation method different from the first observation method with respect to the image of the specific object photographed by the first observation method. By using the image as annotation data, teacher data is created, and learning is performed using this teacher data, so that when the image of the object photographed by the first observation method is input, the second observation method Create an inference model that makes it possible to infer the object image captured by
 第26の発明に係る内視鏡挿入ガイド方法は、請求項25に記載の推論モデルの作成方法によって作成された類似画像推論モデルに、特定被検者の第1の内視鏡による検査で得られた特定対象物が撮影された特定対象物画像を入力することによって、ターゲット画像を推論するステップと、上記特定被検者に対する第2の内視鏡による再検査時に上記特定対象物の位置を再度観察するために、上記ターゲット画像に従って、再度確認するための位置をガイドする挿入補助情報を生成する再挿入補助情報生成ステップと、を有する。 An endoscope insertion guide method according to a twenty-sixth aspect of the invention provides a similar image inference model created by the inference model creation method according to claim 25, and inferring a target image by inputting a specific object image obtained by photographing the specific object; a re-insertion auxiliary information generating step for generating insertion auxiliary information for guiding a position for re-confirmation according to the target image for re-observation.
 第27の発明に係る内視鏡挿入ガイド方法は、特定被検者の第1の内視鏡による検査で得られた特定対象物が撮影された特定対象物画像をターゲット画像とするステップと、 上記特定被検者に対する第2の内視鏡による再検査時に上記患部の位置を再度観察するために、請求項25に記載の推論モデルの作成方法によって作成された類似画像推論モデルに、再検査時の画像を入力して推論画像を得るステップと、上記推論画像を上記ターゲット画像と比較することにより、再確認位置をガイドする挿入補助情報を生成する再挿入補助情報生成ステップと、を有する。 An endoscope insertion guiding method according to a twenty-seventh aspect of the present invention provides a step of using as a target image a specific object image obtained by photographing the specific object obtained by an examination of a specific subject with a first endoscope; In order to re-observe the position of the affected part when re-examining the specific subject with the second endoscope, the similar image inference model created by the inference model creation method according to claim 25 is re-examined. A step of obtaining an inference image by inputting a time image, and a reinsertion assistance information generating step of generating insertion assistance information for guiding a reconfirmation position by comparing the inference image with the target image.
 第28の発明に係る推論モデル作成方法は、上記第25の発明において、上記第1の観察方法と第2の観察方法は、内視鏡先端の撮影部を被検物に挿入する方向に動かした時の撮影による観察方法と、当該内視鏡先端の撮影部を抜去する方向に動かした時の撮影による観察方法である。
 第29の発明に係る推論モデル作成方法は、上記第25の発明において、上記第1の観察方法と第2の観察方法は、内視鏡先端の撮影部を被検物に挿入または抜去する方向に動かした時の撮影による観察において、上記内視鏡の屈曲や挿入または抜去の制御が異なる場合における撮影による観察方法である。
An inference model creation method according to a twenty-eighth invention is the inference model creation method according to the twenty-fifth invention, wherein the first observation method and the second observation method move the imaging unit at the distal end of the endoscope in a direction of insertion into the subject. and an observation method by photographing when the photographing unit at the distal end of the endoscope is moved in the withdrawal direction.
An inference model creation method according to a twenty-ninth invention is the inference model creation method according to the twenty-fifth invention, wherein the first observation method and the second observation method are performed in a direction in which the imaging unit at the distal end of the endoscope is inserted into or removed from the object. This is an observation method by photography when the endoscope is bent, inserted, or removed under different control in the observation by photography when the endoscope is moved to the left.
 第30の発明に係る推論モデルを利用したガイド方法は、第1の観察方法で撮影した対象物の画像の前後のタイミングで撮影された時系列画像コマ群について、時間的な変化が検出可能なように時系列コマ群の各コマを推論モデルに入力し、第2の観察方法で撮影した時の画像コマ群の時系列変化を得るステップと、上記第2の観察方法で撮影した時に得られるであろう画像変化を基準として、取得中の画像変化がそれに適合するように、上記対象物の画像を撮影するまで内視鏡操作ガイドを出力するステップと、を有する。 A guide method using an inference model according to a thirtieth aspect of the invention is capable of detecting a temporal change in a group of time-series image frames captured before and after an image of an object captured by the first observation method. a step of inputting each frame of a group of time-series frames into an inference model to obtain a time-series change of the group of image frames when photographed by the second observation method; and outputting an endoscope navigation guide until an image of the object is captured, such that the image change during acquisition is adapted to the image change that may occur.
 本発明によれば、内視鏡等の医療機器によって観察した位置を、再度、容易に検出することができる内視鏡挿入ガイド装置、内視鏡挿入ガイド方法、内視鏡情報取得方法、ガイドサーバ装置、および画像推論モデル学習方法を提供することができる。 INDUSTRIAL APPLICABILITY According to the present invention, an endoscope insertion guide device, an endoscope insertion guide method, an endoscope information acquisition method, and a guide that can easily detect again a position observed by a medical device such as an endoscope. A server device and an image inference model learning method can be provided.
本発明の第1実施形態に係る内視鏡システムの主として電気的構成を示すブロック図である。1 is a block diagram mainly showing an electrical configuration of an endoscope system according to a first embodiment of the present invention; FIG. 本発明の第1実施形態に係る内視鏡システムの主として電気的構成を示すブロック図である。1 is a block diagram mainly showing an electrical configuration of an endoscope system according to a first embodiment of the present invention; FIG. 本発明の第1実施形態に係る内視鏡システムを体内に挿入している状態を示し、(a)は内視鏡を奥の方向へ挿入した後に抜き抜きながら観察する様子を示し、(b)は内視鏡を取り出し後、再度、体内に挿入しながら観察する様子を示す図である。1A shows a state in which the endoscope system according to the first embodiment of the present invention is inserted into the body, FIG. ) shows how the endoscope is taken out and then observed while being reinserted into the body. 本発明の第1実施形態に係る内視鏡システムにおける推論モデルの生成と推論を説明する図であり、(a)は推論モデルを生成する様子を示す図であり、(b)は生成された推論モデルを用いて推論する様子を示す図である。FIG. 4A is a diagram illustrating generation of an inference model and inference in the endoscope system according to the first embodiment of the present invention, FIG. It is a figure which shows a mode that inference is carried out using an inference model. 本発明の第1実施形態に係る内視鏡システムにおいて、機器(内視鏡)の動作を示すフローチャートである。4 is a flow chart showing the operation of a device (endoscope) in the endoscope system according to the first embodiment of the present invention; 本発明の第1実施形態における内視鏡システムにおいいて、補助装置の動作を示すフローチャートである。4 is a flow chart showing the operation of the auxiliary device in the endoscope system according to the first embodiment of the present invention; 本発明の第1実施形態における内視鏡システムにおいいて、推論モデル作成と、推論の動作を示すフローチャートである。4 is a flow chart showing inference model creation and inference operations in the endoscope system according to the first embodiment of the present invention. 本発明の第1実施形態における内視鏡システムにおいいて、推論モデル作成と、推論の動作を示すフローチャートである。4 is a flow chart showing inference model creation and inference operations in the endoscope system according to the first embodiment of the present invention. 本発明の第2実施形態に係る内視鏡システムの主として電気的構成を示すブロック図である。FIG. 4 is a block diagram mainly showing an electrical configuration of an endoscope system according to a second embodiment of the present invention; 本発明の第2実施形態に係る内視鏡システムの主として電気的構成を示すブロック図である。FIG. 4 is a block diagram mainly showing an electrical configuration of an endoscope system according to a second embodiment of the present invention; 本発明の第2実施形態に係る内視鏡システムにおいて、機器(内視鏡)の動作を示すフローチャートである。9 is a flow chart showing the operation of a device (endoscope) in the endoscope system according to the second embodiment of the present invention; 本発明の第2実施形態に係る内視鏡システムにおいて、ロボット内視鏡の動作を示すフローチャートである。9 is a flow chart showing the operation of the robot endoscope in the endoscope system according to the second embodiment of the present invention; 本発明の第2実施形態に係る内視鏡システムを体内に挿入している状態を示し、(a)は内視鏡を挿入しながら観察する様子を示す図であり、(b)はロボット内視鏡を挿入しながら観察する様子を示す図である。FIG. 8 shows a state in which an endoscope system according to a second embodiment of the present invention is inserted into the body, (a) showing observation while inserting the endoscope, and (b) showing a state inside a robot. It is a figure which shows a mode that it observes, inserting a scope. 本発明の第2実施形態に係る内視鏡システムにおいて、内視鏡を挿入している時の画像変化と撮像タイミングを示す図である。FIG. 10 is a diagram showing image changes and imaging timings during insertion of the endoscope in the endoscope system according to the second embodiment of the present invention;
 以下、本発明の好ましい実施形態として本発明を内視鏡システムに適用した例について説明する。内視鏡等の医療機器は体内に挿入し、体内を観察し、また処置等を行うことができる。挿入の際には、一旦、体内の奥の方向に向けて挿入した後、内視鏡を引き抜きながら、体内の観察等が行われることが多い。 An example in which the present invention is applied to an endoscope system will be described below as a preferred embodiment of the present invention. A medical device such as an endoscope can be inserted into the body to observe the inside of the body and perform treatment. When inserting the endoscope, it is often the case that the inside of the body is observed, etc., while the endoscope is once inserted toward the back of the body and then pulled out.
 ただし、内視鏡を体内等に挿入した際に、先端の位置や向きを制御することは簡単ではなく、また体内等の形状や組織が複雑であり、さらに両者が影響しあうことから、特定の場所を観察することは簡単ではない。また、一度、観察すれば終わりということではなく、定期的な検査や、経過観察等のために、同じような場所を再度確認したいことは多々ある。一度、観察した位置等を再度探し出すことは簡単ではない。一度観察した病変等の関心部位にもう一度たどり着きたい場合に、内視鏡の操作を簡単にすることや、例えば、管腔内から見た部位が管腔外からも特定しやすくすることや、カルテ等の記録に関心部位がどこにあるかをエビデンスとして残すこと等、種々のニーズが改善したいポイントとして残されていた。この背景に鑑みて、本発明の実施形態はこれらのニーズを解決するようにしている。 However, when an endoscope is inserted into the body, it is not easy to control the position and orientation of the tip, and the shapes and tissues of the body are complex. It is not easy to observe the location of In addition, it is not the case that one observation is the end, and there are many times when it is desired to check the same place again for regular examinations, follow-up observations, and the like. It is not easy to search again for a position or the like that has been observed once. When you want to go back to the site of interest such as a lesion that you have observed once, you can simplify the operation of the endoscope, for example, make it easier to identify the site seen from the inside of the lumen from outside the lumen. Various needs were left as points to be improved, such as recording where the area of interest is located as evidence. Against this background, embodiments of the present invention seek to address these needs.
 また、例えば消化器など管状の器官の内部に挿入して行う内視鏡検査において取得される、特定の病変等の対象物の画像は、空洞の中に突如現れるのではない。内視鏡は、特定の表面形状や血管などが観察可能な管の中を進み、その際の変化が動画として逐次取得される。この時の画像を表示すると共に、隣接した画像コマを比較することによって、進行(挿入)、後退(引き抜き)や方向変化などを検出することができ、画像情報を有効利用することが可能となる。したがって、この状況を背景にして、内視鏡検査時の画像を、さらに活用しようとしている。もちろん、体腔内や管内を照明し、反射光が十分で、比較的広角のカメラによって画像を取得できるといった技術的条件が揃えば、消化管にこだわるものではなく、また生体内にこだわる技術でもなく、工業用内視鏡にも応用は可能である。また、観察状況によって、様々な検査方法があるが、挿入によって対象部位を探す用途であれば様々なシーンにおいて、本実施形態の応用が可能である。 In addition, images of objects such as specific lesions that are acquired in endoscopy performed by inserting them into a tubular organ such as the digestive tract do not suddenly appear in the cavity. The endoscope moves through a tube in which a specific surface shape and blood vessels can be observed, and the changes at that time are sequentially captured as moving images. By displaying the image at this time and comparing adjacent image frames, it is possible to detect advance (insertion), retreat (extraction), change in direction, etc., making it possible to make effective use of image information. . Against this backdrop, therefore, efforts are being made to make further use of the images obtained during endoscopy. Of course, if the technical conditions are met, such as illuminating the inside of body cavities and ducts, sufficient reflected light, and being able to acquire images with a relatively wide-angle camera, it is not a technique that is particular about the gastrointestinal tract, nor is it a technique that is particular about the inside of the body. , and can also be applied to industrial endoscopes. In addition, although there are various examination methods depending on the observation situation, the present embodiment can be applied in various scenes as long as it is used to search for a target site by insertion.
 例えば、大腸内視鏡等による定期的検診であって、大腸内視鏡を体内に挿入した時には、内視鏡等が体内の消化管内の壁面を押すために、内視鏡先端と消化管内の壁面(観察対象の臓器)の間に十分な距離を確保できず、また内視鏡と観察対象の臓器の接し方や術者の押す力の関係等によって変形するため、腫瘍やポリープ等の患部が内視鏡と臓器の距離や観察対象の臓器の変形等によって隠れてしまう。それに対して、内視鏡等の引抜時には、内視鏡等によって消化管内の壁面が引き延ばされ、また送気操作を行うこと等によって、襞等が解消し、腫瘍やポリープ等の患部が見やすくなる。このような挿入と引抜を繰り返し行えば、患部を観察することができるが、このような操作を行わずに、必要な患部のみ確認したいというニーズがある。 For example, in a regular check-up using a colonoscope, etc., when the colonoscope is inserted into the body, the tip of the endoscope and the inside of the digestive tract may not fit together because the endoscope etc. pushes against the walls of the digestive tract inside the body. It is not possible to secure a sufficient distance between the walls (organs to be observed), and deformation occurs depending on how the endoscope and the organ to be observed are in contact with each other, and the relationship between the pressure of the operator and other factors. is hidden due to the distance between the endoscope and the organ or the deformation of the organ to be observed. On the other hand, when the endoscope is withdrawn, the walls of the gastrointestinal tract are stretched by the endoscope. easier to see. The affected area can be observed by repeating such insertion and withdrawal, but there is a need to check only the necessary affected area without performing such an operation.
 例えば、このような場合、内視鏡等によって体内を観察する際には、体内に挿入するときと、引き抜くときの2度、同じ部位を通過することになる。しかし、実際には、前述したように、挿入時と引抜時では、消化管内に生ずる皺等によって、消化管内の形状が大きく変化し、挿入時と引抜時では、同じ部位であっても、見え方が異なる。この消化管形状の変化の要因は、例えば、体位変換や臓器の弾性、経過観察であれば患者が痩せる等での体形変化、臓器の除去手術の影響、肥大した腫瘍の影響、腹水やむくみの影響等がある。この点について、図2を用いて説明する。 For example, in such a case, when observing the inside of the body with an endoscope, etc., the same site will be passed twice, once when it is inserted into the body and when it is withdrawn. However, in reality, as described above, the shape of the gastrointestinal tract changes greatly due to wrinkles and the like that occur in the gastrointestinal tract during insertion and withdrawal, and even the same site can be seen at the time of insertion and withdrawal. is different. Factors that cause changes in the shape of the gastrointestinal tract include, for example, postural changes, elasticity of organs, changes in body shape due to the patient losing weight in the case of follow-up observation, effects of surgery to remove organs, effects of enlarged tumors, ascites and swelling. influence, etc. This point will be described with reference to FIG.
 図2(a)は、医師が内視鏡10を肛門から大腸Co内に挿入し、先端部を奥まで移動させた後、大腸Co内に送気し、引き抜きながら検査を行っている様子を示す。内視鏡10の引抜時には、内視鏡10を大腸Co内に挿入して奥まで先端部分を進めたことによって、内視鏡10の先端面よりも肛門側の壁面には皺が寄っているが、先端面よりも奥側(肛門とは反対側)の壁面は皺が延びた状態となっている。大腸Co内の腫瘍やポリープ等の部位(患部)Reは、壁面が延びた位置にあるため、内視鏡10によって観察し易くなっている。すなわち、内視鏡10を最初挿入し、奥の方向に向けて移動しているときには、部位Reは、壁面の皺等に隠れており、見やすくはない。つまり、内視鏡10を大腸Coに挿入し、奥まで移動させているときには、部位Reは見えにくいのに対して、奥から引き抜くときには、図2(a)に示すように、発見し易くなる。 FIG. 2(a) shows a state in which a doctor inserts the endoscope 10 into the large intestine Co from the anus, moves the distal end to the far end, injects air into the large intestine Co, and performs an examination while pulling out the endoscope. show. When the endoscope 10 is pulled out, the endoscope 10 is inserted into the large intestine Co and the tip portion is advanced to the back, so that the wall surface on the anus side is wrinkled from the tip surface of the endoscope 10. - 特許庁However, the wall surface on the back side (opposite side to the anus) of the tip surface is wrinkled. A site (affected site) Re such as a tumor or polyp in the large intestine Co is located at a position where the wall surface extends, so that it is easy to observe with the endoscope 10 . That is, when the endoscope 10 is first inserted and moved inward, the portion Re is hidden by the wrinkles of the wall surface and is not easy to see. That is, when the endoscope 10 is inserted into the large intestine Co and moved all the way to the back, the part Re is difficult to see, but when it is pulled out from the back, it becomes easy to find, as shown in FIG. 2(a). .
 但し、内視鏡が挿入操作されているか、引抜操作されているかは、医師自身は自覚しているとしても、内視鏡自体は認識することができない。しかし、内視鏡の進退に伴って、画像が移り変わるので、取得画像の変化を判定することによって、内視鏡自体において、どのような操作がなされたかがわかる。例えば、取得画像を時系列に並べ、あるいは隣接タイミングで取得した画像で取得された対象物の変化を見ると、右に曲げた場合には、真ん中の対象物が左に移動する。同様に左を向けた場合、上下に向けた場合も向いた方向と逆の方向に画像が変化していく。また、管腔内に挿入し内視鏡が進行すると、中央部に検出されていた対処画像が撮像素子の四辺に向かって流れていくような画像変化となる。引き抜く時には逆の画像変化となる。 However, even if the doctor himself is aware of whether the endoscope is being inserted or withdrawn, the endoscope itself cannot recognize it. However, since the image changes as the endoscope advances and retreats, it is possible to know what kind of operation was performed on the endoscope itself by determining the change in the acquired image. For example, if the acquired images are arranged in chronological order or the change in the object acquired in the images acquired at adjacent timings is observed, when the object is bent to the right, the object in the middle moves to the left. Similarly, the image changes in the direction opposite to the facing direction when facing left or up or down. Further, when the endoscope is advanced after being inserted into the lumen, the image changes such that the target image detected in the central portion flows toward the four sides of the imaging device. When pulled out, the image changes in the opposite direction.
 また、得られた画像の変化のスピードなども重要なガイド用の情報となる。つまり、ゆっくりと画像が変化する場合、医師は慎重に操作をしているし、高速に画像が変化する場合は、医師は迅速な操作を心がけているおり、これらのスピード情報は、次に検査する際に参考にすることは有意義である。このような連続した時系列画像の変化判定を有効利用することについては、図11を用いて詳述する。図11では、中央部の管腔の空洞部画像がだんだん大きくなって画面周辺に流れており、管腔に沿って進んでいることが分かる。また、管腔の空洞部がだんだん右にずれる時には、医師は左の方に、内視鏡先端を曲げたことが分かる。もちろん、その操作情報を合わせてデータ化して取得して、実際にそうした操作があったかをより正確に把握する方法もある。しかし、画像からだけでも操作(方向や、必要に応じてスピード等)が、推測可能な場合もある。なお、単に操作が手間取って遅れている場合は、その状況までを引き継ぐ必要はないので、手間取って遅くなったのか慎重に操作したのかを、医師がマニュアル入力してもらうようにしてもよい。 In addition, the speed of change in the obtained image is also important guide information. In other words, if the image changes slowly, the doctor is operating carefully, and if the image changes quickly, the doctor is trying to operate quickly. It is meaningful to refer to it when doing so. Effective use of such determination of changes in continuous time-series images will be described in detail with reference to FIG. In FIG. 11, it can be seen that the image of the hollow portion of the lumen in the central portion gradually becomes larger and flows around the screen, advancing along the lumen. Also, when the luminal cavity drifts more and more to the right, the physician knows that he has bent the tip of the endoscope to the left. Of course, there is also a method of acquiring the operation information together in the form of data to more accurately ascertain whether such an operation has actually occurred. However, there are cases where the operation (direction, speed if necessary, etc.) can be guessed only from the image. It should be noted that if the operation is simply delayed, there is no need to take over the situation, so the doctor may manually input whether the operation was delayed due to delay or the operation was performed carefully.
 なお、このようなガイドは、次回検査時に医師に伝達するガイド(あるいは技術伝承、医療格差の解消)として有効であると共に、ロボットに操作を伝える時にも有効である。このようなガイド情報は、省人化や自動化にもつながる技術ともなっている。引継情報にすることは、予め、担当医師、内視鏡操作者に伝えておき、補足事項を追記してもらうようなシステムにしてもよい。 In addition, such a guide is effective as a guide to be communicated to the doctor at the next examination (or to pass on technology or eliminate medical disparities), and is also effective when communicating operations to the robot. Such guide information is also a technology that leads to labor saving and automation. A system may be used in which the doctor in charge and the endoscope operator are informed in advance that the information is to be handed over, and additional items are added.
 また、患者にもその意図を伝えて、インフォームド・コンセント(IC)を取っておくようにしてもよい。このICも引き継いで良いかを患者の意志を確認してもよいし、ひきつぐかどうかを次回決めるようにしてもよい。あるいは、スマートフォン等の携帯端末、情報端末にて、確認して回答してもらう、といった応用も可能である。このスマートフォン等による返答によって、データの活用を変えるようにすればよい。 In addition, the intention may be communicated to the patient and informed consent (IC) may be obtained. The patient's will may be confirmed as to whether or not this IC may be taken over, or it may be decided next time whether or not to take over. Alternatively, it is also possible to use a mobile terminal such as a smart phone or an information terminal to confirm and answer. It is only necessary to change the utilization of the data based on the reply by the smartphone or the like.
 図2(b)は、部位Reにある腫瘍やポリープ等に対して処置や手術等を行った後、処置・術後の経過を観察するため、再度、内視鏡10を大腸Coに挿入している様子を示す。このとき、通常の検査方法では、図2(a)の場合と同様に、内視鏡10を奥まで挿入し、引き抜き時に送気して消化器官内に空洞をつくり、大腸Co内の壁面の観察を行う。しかし、この通常の検査方法では、内視鏡10を奥まで挿入するには、高度の技術を要し、また奥まで挿入した後に、引き抜きながら観察するために時間がかかってしまう。したがって、経過観察を行う場合や、部位(患部)Reを予め見つけておき、この部位(患部)に対して手術を行う場合に、上述の通常の検査方法は、1回目の検査と同程度の技量のある医師が操作することが望まれる。また、手術を行う場合に、通常の検査方法によって部位(患部)Reまで到達させようとすると、手術担当の医師に手間がかかってしまう。 FIG. 2(b) shows that after treatment, surgery, or the like has been performed on a tumor, polyp, or the like at the site Re, the endoscope 10 is reinserted into the colon Co in order to observe the progress after the treatment/surgery. to show how it is. At this time, in a normal examination method, similarly to the case of FIG. Observe. However, in this normal examination method, a high degree of skill is required to insert the endoscope 10 to the end, and after the endoscope 10 has been inserted to the end, it takes time to observe the endoscope while pulling it out. Therefore, in the case of follow-up observation, or in the case of finding a site (affected site) Re in advance and performing surgery on this site (affected site), the above-described normal examination method can be performed at the same level as the first examination. It is desired that a skilled doctor operate it. In addition, when performing surgery, if an attempt is made to reach the site (affected part) Re by a normal examination method, the doctor in charge of the surgery will have to take time and effort.
 そこで、本実施形態に係る内視鏡システムは、2回目以降の検査時には、内視鏡10の引抜時ではなく、挿入時に、部位(患部)Reを見つけ出すことができるようにしている。すなわち、1回目の検査の際に、内視鏡10を最初に大腸等の消化管への挿入開始から引抜終了までの間に撮影した画像を記録しておき、引抜時に発見した部位(患部)Reの画像に対応する、挿入時の画像をターゲット情報として記憶する。 Therefore, in the endoscope system according to the present embodiment, the site (affected area) Re can be found when the endoscope 10 is inserted, not when it is withdrawn, during the second and subsequent examinations. That is, at the time of the first examination, the images taken from the start of insertion of the endoscope 10 into the digestive tract such as the large intestine until the end of withdrawal are recorded, and the site (affected area) discovered at the time of withdrawal is recorded. An image at the time of insertion corresponding to the image of Re is stored as target information.
 そして、1回目の検査と同一被検者(患者)について、2回目以降の検査を行う際に、内視鏡10を奥まで挿入することなく、部位(患部)Reを発見できるように、操作者に対して、部位(患部)Reのガイドを行い、近傍に近づいている場合にはその旨を伝えたり、到達した場合には、その旨を伝えるたりする。2回目以降の検査の場合には、挿入時における部位(患部)Reの画像が、2回目以降の検査画像と、類似していれば、その検査画像を撮影した位置近傍が、部位(患部)Reの位置といえる。 Then, when performing the second and subsequent examinations on the same subject (patient) as the first examination, the operation is performed so that the site (affected area) Re can be found without inserting the endoscope 10 all the way. The patient is guided to the part (affected part) Re, and when the patient is approaching the vicinity, the fact is reported, and when the patient has reached the vicinity, the fact is reported. In the case of the second and subsequent inspections, if the image of the site (affected area) Re at the time of insertion is similar to the inspection image of the second and subsequent times, the vicinity of the position where the inspection image was taken is the site (affected area). It can be said that this is the position of Re.
 また、画像の類似度を算出する以外にも、推論モデルを用いて、部位(患部)Reの位置を推論してもよい。この場合には、挿入時および引抜時の画像等から教師データを作成して推論モデルを生成しておく。2回目以降の検査にあたっては、内視鏡10を大腸等に挿入する際に、推論モデルを用いて、部位(患部)ReへのAIガイドを行うようにしてもよい。 In addition to calculating the degree of similarity between images, an inference model may be used to infer the position of the site (affected area) Re. In this case, an inference model is generated by creating teacher data from images and the like at the time of insertion and extraction. For the second and subsequent examinations, when the endoscope 10 is inserted into the large intestine or the like, an inference model may be used to perform AI guidance to the site (affected area) Re.
 なお、奥に向けて押し込んでいる際には、内視鏡10の表示部に部位(患部)Reの近傍であることが表示されたとしても、消化管内の襞等によって見にくいことがあるので、その場合には、少し引き抜きながら、部位(患部)Reを探すようにしてもよい。また、再検査の場合について説明したが、再検査以外にも、予め手術する部位を確認するために、1回目の検査を行い、2回目に内視鏡を挿入して手術を行う場合にも、同様の方法によって部位(患部)Reを探し出すようにしてもよい。 When the endoscope 10 is pushed inward, even if the display unit of the endoscope 10 displays that the endoscope 10 is in the vicinity of the site (affected site) Re, it may be difficult to see due to folds or the like in the digestive tract. In that case, the part (affected part) Re may be searched for while pulling it out a little. In addition, the case of reexamination was explained, but in addition to reexamination, in order to confirm the site to be operated on in advance, it is possible to perform the first examination and insert the endoscope for the second surgery. , the site (affected area) Re may be found by a similar method.
 図1Aおよび図1Bは、第1実施形態に係る内視鏡システムの構成を示すブロック図である。この内視鏡システムは、内視鏡10A、院内システム、サーバ等に設けられた補助装置30、第2の内視鏡10Bから構成される。ここでは、内視鏡10A、第2の内視鏡10Bは、説明を容易にするために、例えば肛門から直腸を経て挿入して小腸までの距離が長い領域の検査がイメージしやすい大腸内視鏡であり、被検者(患者)に対して大腸内視鏡検査を行う場合を例に挙げて説明する。内視鏡10Aは、被検者(患者)の1回目の検査に使用する内視鏡であり、第2の内視鏡10Bは、被検者(患者)の2回目以降の検査に使用する内視鏡として説明する。内視鏡10Aと第2の内視鏡10Bは、同一機種の内視鏡であってもよいが、ここでは異なる機種として説明する。 1A and 1B are block diagrams showing the configuration of the endoscope system according to the first embodiment. This endoscope system comprises an endoscope 10A, an in-hospital system, an auxiliary device 30 provided in a server or the like, and a second endoscope 10B. Here, for ease of explanation, the endoscope 10A and the second endoscope 10B are inserted from the anus through the rectum, for example, to examine a region with a long distance to the small intestine. It is a mirror, and a case where a colonoscopy is performed on a subject (patient) will be described as an example. The endoscope 10A is used for the first examination of the subject (patient), and the second endoscope 10B is used for the second and subsequent examinations of the subject (patient). Described as an endoscope. The endoscope 10A and the second endoscope 10B may be endoscopes of the same model, but are described here as different models.
 なお、第2の内視鏡10Bが同じ機種の場合、同じ装置であってもよい。つまり、異なるタイミングで検査が行われると、状況(患者の患部など身体、健康の状態でも医師の交代や疲労や慣れなど身体的、精神的制約や余裕の変化、あるいは補助者や周辺機器、環境など周辺の状況を含む)の変化によって、まったく同じような検査にならない場合がある。したがって、この異なるタイミング(多くの場合、期日が異なるが、時としてあり得る即日再検査を想定してもよい)で検査が複数行われる場合に、情報が受け継げるようにすればよい。 Note that if the second endoscope 10B is of the same model, it may be the same device. In other words, if examinations are performed at different times, the situation (physical and health conditions such as the patient's affected area, changes in doctors, changes in physical and mental constraints and leeway such as fatigue and habituation, or changes in assistants, peripheral devices, and environments) (including surrounding conditions, etc.), the examination may not be exactly the same. Therefore, when a plurality of examinations are performed at different timings (in many cases, the dates are different, but reexaminations on the same day may sometimes be assumed), the information may be inherited.
 内視鏡10Aは、医師が大腸内を観察し、処置、手術等を行う際に使用する。この内視鏡10Aは、制御部11A、撮像部12A、光源部13A、表示部14A、ID管理部15A、記録部16A、操作部17A、推論エンジン19Aを有している。 The endoscope 10A is used by a doctor to observe the inside of the large intestine and perform treatment, surgery, and the like. This endoscope 10A has a control section 11A, an imaging section 12A, a light source section 13A, a display section 14A, an ID management section 15A, a recording section 16A, an operation section 17A, and an inference engine 19A.
 制御部11Aは、CPU(Central Processing Unit)等の処理装置、プログラムを記憶したメモリ(プログラムは記録部16Aに記憶してもよい)等を有する1つ又は複数のプロセッサから構成され、プログラムを実行し、内視鏡10A内の各部を制御する。制御部11Aは、内視鏡10Aが被検者(患者)の大腸検査を行う際の種々の制御を行い、また検査時に取得した画像データP1を院内システムやサーバ等に設けられている補助装置30に送信するための制御を行う。 The control unit 11A is composed of one or more processors having a processing device such as a CPU (Central Processing Unit), a memory storing a program (the program may be stored in the recording unit 16A), etc., and executes the program. and controls each part in the endoscope 10A. The control unit 11A performs various controls when the endoscope 10A performs a colon examination of a subject (patient), and transfers image data P1 acquired during the examination to an auxiliary device provided in an in-hospital system, server, or the like. 30 is controlled.
 撮像部12Aは、内視鏡10Aの挿入部の先端に設けられており、光学レンズ、撮像素子、撮像回路等を有する。撮像部12Aは、小型撮像素子とそこに対象物画像の像を結ぶ撮像光学系からなり、ピント位置や撮像部の焦点距離などの仕様が決められているものを想定している。また、撮像部12Aは、オートフォーカスを設けていてもよく、対象物距離や対象物の大きさなどを判定可能である。撮像部12Aの撮影画角φ(図2(a)参照)は140度~170度程度あり、広範囲にわたって撮影することができる。撮像部12Aは、フレームレートで決まる所定時間間隔で画像データを取得し、記録部16Aに記録する。また、撮像部12Aは、操作部17A内のレリーズ釦が操作されると、静止画データを取得し、この静止画データは記録部16Aに記録される。 The imaging section 12A is provided at the distal end of the insertion section of the endoscope 10A, and has an optical lens, an imaging element, an imaging circuit, and the like. The imaging unit 12A is composed of a small imaging element and an imaging optical system for forming an image of an object thereon, and is assumed to have predetermined specifications such as a focus position and a focal length of the imaging unit. Further, the imaging unit 12A may be provided with autofocus, and can determine the object distance, the size of the object, and the like. The imaging field angle φ (see FIG. 2(a)) of the imaging unit 12A is about 140 degrees to 170 degrees, and can photograph over a wide range. The imaging unit 12A acquires image data at predetermined time intervals determined by the frame rate, and records the data in the recording unit 16A. Further, when the release button in the operation section 17A is operated, the imaging section 12A acquires still image data, and the still image data is recorded in the recording section 16A.
 画像P1は、撮像部12Aが取得した画像データであり、補助装置30の入力部32に送信される。画像P1は、時系列データであり、画像P11は内視鏡10Aの先端部を肛門に挿入した直後に取得した画像であり、画像P17は内視鏡10Aを肛門から抜き出す直前に取得した画像である。画像P11と画像P17は、同じ位置を撮影した画像である。画像P13は内視鏡10Aを大腸の奥まで挿入していく際に、部位(患部)Re(図2(a)参照)の位置で撮影した画像であり、画像P16は内視鏡10Aを大腸の奥から引き抜いている際に、部位(患部)Reを撮影した画像である。図2を用いて説明したように、内視鏡10Aを大腸に挿入して奥まで移動させながら観察する場合には、部位(患部)Reを見つけることは容易ではないが、一方、内視鏡10Aを大腸の奥まで挿入した後、引き抜きながら観察する場合には、部位(患部)Reを発見することは比較的容易にできる。 The image P1 is image data acquired by the imaging unit 12A, and is transmitted to the input unit 32 of the auxiliary device 30. The image P1 is time-series data, the image P11 is an image acquired immediately after the tip of the endoscope 10A is inserted into the anus, and the image P17 is an image acquired immediately before the endoscope 10A is extracted from the anus. be. The image P11 and the image P17 are images taken at the same position. Image P13 is an image taken at the position of the site (affected area) Re (see FIG. 2A) when the endoscope 10A is inserted deep into the large intestine. This is an image of the site (affected part) Re taken when the endoscopic device is being pulled out from the back of the body. As described with reference to FIG. 2, when the endoscope 10A is inserted into the large intestine and observed while moving to the back, it is not easy to find the site (affected area) Re. After inserting 10A deep into the large intestine and observing it while pulling it out, it is relatively easy to find the site (affected area) Re.
 内視鏡10Aの撮像部12Aは、特定被検者について第1の内視鏡による検査で内視鏡画像を取得する第1の画像取得部として機能する。撮像部12Aは、特定被検者の内視鏡検査で得られた患部が撮影された患部画像を取得する患部画像取得部として機能する。 The imaging unit 12A of the endoscope 10A functions as a first image acquisition unit that acquires an endoscopic image of a specific subject through examination with the first endoscope. The imaging unit 12A functions as an affected area image acquiring unit that acquires an affected area image of an affected area obtained by endoscopy of a specific subject.
 光源部13Aは、光源と光源制御部等を有している。光源部13Aは、対象物を適正な明るさで照らすもので、その明るさ調整によって、対象物の距離を測定可能である。光源は、内視鏡10Aの先端部に、患部等の体内を照明するために配置されており、光源制御部が光源による照明の制御を行う。 The light source section 13A has a light source, a light source control section, and the like. The light source unit 13A illuminates the object with proper brightness, and the distance to the object can be measured by adjusting the brightness. A light source is arranged at the distal end of the endoscope 10A to illuminate the inside of the body, such as an affected area, and a light source control section controls illumination by the light source.
 表示部14Aは、撮像部12Aによって取得された画像データに基づいて、体内の画像を表示する。また、表示部14Aは、検査画像に重畳して操作ガイドを表示できる。例えば、部位(患部)Reがある付近を指し示すような表示を行う。さらに、内視鏡10Aの操作や表示等のメニュー画面も表示可能である。 The display unit 14A displays an image inside the body based on the image data acquired by the imaging unit 12A. Further, the display unit 14A can display an operation guide superimposed on the inspection image. For example, the display is performed so as to indicate the vicinity of the site (affected part) Re. Furthermore, a menu screen for operation and display of the endoscope 10A can also be displayed.
 ID管理部15Aは、医師が内視鏡10Aを用いて検査する際に、被検者(患者)を特定するためのID管理を行う。例えば、医師が内視鏡10Aの操作部17Aを通じて、被検者(患者)のIDを入力してもよい。また、ID管理部15Aが、撮像部12Aによって取得した画像データにIDを関連付けてもよい。 The ID management unit 15A performs ID management for identifying subjects (patients) when a doctor performs an examination using the endoscope 10A. For example, a doctor may input the subject's (patient's) ID through the operation unit 17A of the endoscope 10A. Also, the ID management unit 15A may associate an ID with the image data acquired by the imaging unit 12A.
 記録部16Aは、電気的書き換え可能な不揮発性メモリを有し、内視鏡10Aを動作させるための調整値や、制御部11Aにおいて使用するプログラム等を記録する。また、撮像部12Aによって取得した画像データを記録する。操作部17Aは、内視鏡10Aの先端部を任意の方向に屈曲させるための操作部や、光源の操作部や、画像の撮影用の操作部や、処置具等の操作部等、種々の操作部を有する。操作部17Aを通じて、被検者(患者)のIDを入力するようにしてもよい。 The recording unit 16A has an electrically rewritable nonvolatile memory, and records adjustment values for operating the endoscope 10A, programs used in the control unit 11A, and the like. Also, the image data acquired by the imaging unit 12A is recorded. The operation unit 17A includes various operation units such as an operation unit for bending the distal end of the endoscope 10A in an arbitrary direction, an operation unit for a light source, an operation unit for capturing an image, an operation unit for a treatment tool, and the like. It has an operation part. The subject's (patient's) ID may be input through the operation unit 17A.
 推論モデルは、推論エンジン19A内に配置される。この推論モデルは、撮像部12Aによって取得された画像の中で腫瘍やポリープ等の患部の可能性のある部位を推論する推論モデルや、内視鏡10Aを操作する際の操作ガイド等、種々の推論モデルから構成されていてもよい。推論エンジン19Aは、ハードウエアによって構成れていてもよく、またソフトウエア(プログラム)によって構成されていてもよく、またハードウエアとソフトウエアの組み合わせであってもよい。 The inference model is placed in the inference engine 19A. This inference model includes a variety of inference models such as an inference model for inferring a possible diseased part such as a tumor or polyp in an image acquired by the imaging unit 12A, an operation guide for operating the endoscope 10A, and the like. It may consist of an inference model. The inference engine 19A may be configured by hardware, may be configured by software (program), or may be a combination of hardware and software.
 補助装置30は、院内システムやサーバ等に設けられる。院内システムは、1つまたは複数の病院内の、内視鏡等の機器や、パーソナルコンピュータ(PC)や、スマートフォン等の携帯機器等と、有線通信や無線通信によって接続されている。サーバは、インターネット等の通信網を通じて、内視鏡等の機器や院内システム等と接続されている。内視鏡10Aは、院内システム内の補助装置30と接続してもよく、またサーバ内の補助装置30と直接に接続、または院内システムを通じて補助装置30と接続してもよい。 The auxiliary device 30 is provided in an in-hospital system, server, or the like. The in-hospital system is connected to devices such as endoscopes, personal computers (PCs), mobile devices such as smartphones, and the like in one or more hospitals by wired communication or wireless communication. The server is connected to equipment such as an endoscope, an in-hospital system, and the like through a communication network such as the Internet. The endoscope 10A may be connected to the auxiliary device 30 within the hospital system, directly connected to the auxiliary device 30 within the server, or connected to the auxiliary device 30 through the hospital system.
 補助装置30は、制御部31、入力部32、ID管理部33、通信部34、記録部35、推論モデルが設定された推論エンジン36、およびIC確認部37を有する。 The auxiliary device 30 has a control unit 31, an input unit 32, an ID management unit 33, a communication unit 34, a recording unit 35, an inference engine 36 in which an inference model is set, and an IC confirmation unit 37.
 制御部31は、CPU(Central Processing Unit)等の処理装置、プログラムを記憶したメモリ(プログラムは記録部35に記録してもよい)等を有する1つ又は複数のプロセッサから構成され、プログラムを実行し、補助装置30内の各部を制御する。制御部31は、内視鏡10Aが被検者(患者)の大腸検査を行った後、同一の被検者(患者)が内視鏡10B(内視鏡10Aでもよい)を用いて、同一または類似の検査を行う際に、被検者(患者)の患部に当たる部位を探し出すための操作ガイドを出力できるように、補助装置30内の全体制御を行う。 The control unit 31 is composed of one or more processors having a processing device such as a CPU (Central Processing Unit), a memory storing a program (the program may be recorded in the recording unit 35), etc., and executes the program. and controls each part in the auxiliary device 30 . After the endoscope 10A performs a large intestine examination of a subject (patient), the control unit 31 controls the same subject (patient) to use the endoscope 10B (or the endoscope 10A) to perform the same examination. Or, when performing a similar examination, it performs overall control within the auxiliary device 30 so as to output an operation guide for searching for the affected part of the subject (patient).
 入力部32は、撮像部12Aが取得した入力画像P1を入力する。この入力部32が入力した画像P1は、推論エンジン36に出力され、推論モデルを用いて、部位(患部)Reの位置に相当するターゲット情報が出力される。 The input unit 32 inputs the input image P1 acquired by the imaging unit 12A. The image P1 input by the input unit 32 is output to the inference engine 36, and target information corresponding to the position of the site (affected area) Re is output using the inference model.
 ID管理部33は、被検者(患者)のIDを管理する。前述したように、医師が内視鏡10Aを用いて検査する際に、被検者(患者)のIDが入力されており、このIDが関連付けられた画像P1が、内視鏡10Aから送信されてくる。ID管理部33は、この画像P1に関連付けられたIDと、記録部35等に記録されている被検者(患者)のID情報を関連付けする。 The ID management unit 33 manages IDs of subjects (patients). As described above, when a doctor performs an examination using the endoscope 10A, the ID of a subject (patient) is input, and an image P1 associated with this ID is transmitted from the endoscope 10A. come. The ID management unit 33 associates the ID associated with this image P1 with the ID information of the subject (patient) recorded in the recording unit 35 or the like.
 通信部34は、通信回路を有し、内視鏡10A、第2の内視鏡10Bと情報のやり取りを行う。なお、内視鏡10A、第2の内視鏡10Bには、通信部が描かれていないが、補助装置30と同様に、これらの内視鏡も通信部を有している。また、通信部34は、他のサーバや院内システムと通信を行うようにしてもよく、この場合には、他のサーバや院内システムから情報を収集し、また情報を提供することができる。推論部36において生成されたターゲット情報Itaや、補助装置30において生成された再検査時補助画像群P4は、通信部34を通じて第2の内視鏡10Bに送信される。通信部34は、特定被検者に対する第2の内視鏡による再検査時に患部の位置を再度観察するために、画像変換推論モデルで第2の内視鏡用に変換されたターゲット画像情報を第2の内視鏡に送信する送信部として機能する(例えば、図4のS1、図5のS59参照)。 The communication unit 34 has a communication circuit and exchanges information with the endoscope 10A and the second endoscope 10B. Although the endoscope 10A and the second endoscope 10B do not have a communication unit, these endoscopes also have a communication unit like the auxiliary device 30 . The communication unit 34 may also communicate with other servers or hospital systems. In this case, information can be collected from other servers or hospital systems and information can be provided. The target information Ita generated by the inference unit 36 and the group of reexamination auxiliary images P4 generated by the auxiliary device 30 are transmitted through the communication unit 34 to the second endoscope 10B. The communication unit 34 receives the target image information converted for the second endoscope by the image conversion inference model in order to re-observe the position of the affected part when re-examining the specific subject with the second endoscope. It functions as a transmission unit that transmits to the second endoscope (see, for example, S1 in FIG. 4 and S59 in FIG. 5).
 記録部35は、電気的書き換え可能な不揮発性メモリを有し、入力部32が撮像部12Aから入力した画像データや、被検者(患者)のプロフィール・検査履歴・検査結果等の情報や、制御部31において使用するプログラム等を記録することができる。また、被検者(患者)が内視鏡10A、第2の内視鏡10Bを用いて検査した場合に、記録部35は、その時の画像P1に基づく画像データを記録し、また推論エンジン36が推論出力したターゲット情報Itaも記録する。 The recording unit 35 has an electrically rewritable non-volatile memory, and includes image data input by the input unit 32 from the imaging unit 12A, information such as the subject (patient) profile, examination history, and examination results, Programs and the like used in the control unit 31 can be recorded. Further, when a subject (patient) performs an examination using the endoscope 10A and the second endoscope 10B, the recording unit 35 records image data based on the image P1 at that time, and the inference engine 36 Also records the target information Ita output by inference.
 推論エンジン36は、ハードウエアによって構成れていてもよく、またソフトウエア(プログラム)によって構成されていてもよく、またハードウエアとソフトウエアの組み合わせであってもよい。この推論エンジン36には、推論モデルが設定されている。なお、本実施形態においては、推論エンジン36は、補助装置30内に設けているが、内視鏡等の機器に設け、機器内において推論をおこなってもよい。 The inference engine 36 may be configured by hardware, may be configured by software (program), or may be a combination of hardware and software. An inference model is set in the inference engine 36 . In the present embodiment, the inference engine 36 is provided in the auxiliary device 30, but may be provided in a device such as an endoscope to perform inference within the device.
 推論モデルを備えた推論エンジン36は、推論エンジン36の入力層に画像P1の画像データを入力すると、推論を行い、出力層から部位(患部)Reに対応するターゲット情報Itaを出力する。このターゲット情報Itaは、内視鏡10Aを大腸の奥まで挿入した後、引き抜く際に、部位(患部)Re(画像P16(画像P1、図2(a)参照)に写っている)と同じ位置を示す情報である。このターゲット情報Itaは、内視鏡を大腸の奥まで挿入した後に引き抜かなくても、内視鏡を大腸の奥に向けて挿入していく際に、部位(患部)Reを見つけるための情報である。推論モデルの生成と、この推論モデルを用いて行う推論については、図3を用いて後述する。 When the image data of the image P1 is input to the input layer of the inference engine 36, the inference engine 36 equipped with the inference model performs inference and outputs target information Ita corresponding to the site (affected area) Re from the output layer. This target information Ita is the same position as the site (affected site) Re (image P16 (image P1, see FIG. 2A)) when the endoscope 10A is inserted deep into the large intestine and then pulled out. is information indicating This target information Ita is information for finding the site (affected area) Re when inserting the endoscope toward the back of the large intestine, even if the endoscope is not pulled out after being inserted all the way into the large intestine. be. Generation of an inference model and inference performed using this inference model will be described later with reference to FIG.
 推論エンジン36は、特定被検者の第1の内視鏡による検査で得られた患部が撮影された患部画像(例えば、画像P1参照)をもとに、異なる複数の観察方法で得られた同一若しくは類似の患部画像(例えば、画像P2、P3参照)で学習された類似画像推論モデルを作成する(図5のS59、図6A)。 The inference engine 36 uses a plurality of different observation methods based on an affected area image (for example, see image P1) of an affected area obtained by a first endoscope examination of a specific subject. A similar image inference model trained with the same or similar affected area images (see images P2 and P3, for example) is created (S59 in FIG. 5, FIG. 6A).
 上述の類似画像推論モデルは、観察対象臓器の変形による患部画像の変化をキャンセルして推論する(例えば、図2、図5のS59参照)。すなわち、大腸等の観察対象臓器が、挿入操作、抜去操作、送気操作、送水操作、吸引操作、操作速度の変更操作、姿勢の変化等によって、変形した場合であっても、この変形が除去(キャンセル)するように、類似画像推論モデルによって推論を行う。類似画像推論モデルは、大腸内視鏡挿入時と抜去時、送気操作、送水操作、吸引操作、操作速度の変更操作、姿勢の変化等によって変形した観察対象臓器の画像の対応関係から学習した推論モデルを利用する(例えば、図2、図5のS59参照)。図2を用いて説明したように、大腸内視鏡の挿入時と抜去時では、部位(患部)Reが変形しており、両者は異なって見えるが、両者の画像を用いて推論することによって、挿入時に部位(患部)Reの位置を推論することができる。同様に、送気時と非送気時、送水時と非送水時等、対応する状態における画像を用いて推論すればよい。類似画像推論モデルは、第1の内視鏡による検査時に得られた観察対象臓器の連続画像の変化を推論する(例えば、図8のS17、図11参照)。なお、観察対象臓器は、大腸または小腸である。すなわち、観察対象臓器は、大腸に限られず、小腸であってもよい。 The similar image inference model described above performs inference by canceling changes in the affected area image due to deformation of the observation target organ (for example, see S59 in FIGS. 2 and 5). That is, even if the observation target organ such as the large intestine is deformed due to an insertion operation, removal operation, air supply operation, water supply operation, suction operation, operation speed change operation, posture change, etc., this deformation is removed. Inference is performed by a similar image inference model so as to (cancel). The similar image inference model was learned from the corresponding relationship between the images of the observed organs deformed by insertion and removal of the colonoscope, air supply, water supply, suction, operation speed change, and posture change. An inference model is used (for example, see S59 in FIGS. 2 and 5). As described with reference to FIG. 2, the site (affected area) Re is deformed when the colonoscope is inserted and when it is removed, and the two look different. , the position of the site (affected area) Re can be inferred at the time of insertion. Similarly, inference can be made using images in corresponding states such as when air is being supplied and when air is not being supplied, and when water is being supplied and when water is not being supplied. The similar image inference model infers changes in successive images of the observation target organ obtained during inspection with the first endoscope (for example, see S17 in FIG. 8 and FIG. 11). The organ to be observed is the large intestine or the small intestine. That is, the organ to be observed is not limited to the large intestine, and may be the small intestine.
 IC確認部37は、インフォームド・コンセント(informed consent、IC)、つまり「説明を受け納得したうえでの同意」を有効に活用するための情報の入出力や記録を行う。インフォームド・コンセントICは、医師が病気や容態、体の中でどのようなことが起こっているかということや、検査、治療の内容、処方される薬について十分な説明をしたことや、患者がそれに対して理解、納得、反応、応答した内容を記録し、同意したことを示すエビデンスを残したり、確認した文書の保管や同意記録等の入出力を可能としている。内視鏡10A、10Bに音声再生、音声認識機能を持たせておき、この機能と連携するようにしてもよい。本実施形態において、内視鏡の情報を引き継ぎする点に特徴があり、これらの情報も合わせて引継ぎが出来ると効率化が可能となる。つまり、内視鏡画像を教師データとして使用する場合等において必要となる同意を、IC確認部37が取得、管理することができ、さらに次に検査する場合も同様の同意を得ることができれば、特定症例の経過の研究に役立てることが可能となる。 The IC confirmation unit 37 inputs, outputs, and records information for effectively utilizing informed consent (IC), that is, "agreement after receiving an explanation and understanding". Informed consent IC refers to the fact that the doctor has fully explained the disease, condition, what is happening in the body, the contents of the examination and treatment, and the medicine prescribed, It is possible to record the contents of understanding, consent, reaction, and response to it, leave evidence showing consent, store confirmed documents, and input and output such as consent records. The endoscopes 10A and 10B may be provided with voice reproduction and voice recognition functions so as to cooperate with these functions. This embodiment is characterized in that endoscope information is handed over, and efficiency can be improved if this information can also be handed over. In other words, if the IC confirmation unit 37 can acquire and manage the consent required when using an endoscopic image as teaching data, and if the same consent can be obtained for the next examination, It will be possible to use it for research on the progress of specific cases.
 図1Bに示す第2の内視鏡10Bは、前述したように、内視鏡10Aを用いて検査を受けた被検者(患者)が、2回目以降に検査を受ける際に使用する内視鏡である。この第2の内視鏡10Bは、内視鏡10Aと同一の機種、または全く同一の機器であってもよいが、本実施形態においては、異なる機種の内視鏡として示す。 As described above, the second endoscope 10B shown in FIG. 1B is an endoscope used by a subject (patient) who has undergone an examination using the endoscope 10A for the second and subsequent examinations. is a mirror. The second endoscope 10B may be the same model as the endoscope 10A, or may be the same device as the endoscope 10A, but is shown as a different model endoscope in this embodiment.
 補助装置30は、再検査時補助画像群P4を第2の内視鏡10Bに出力する。再検査時補助画像群P4は、第2の内視鏡10Bを用いて再検査する際に、肛門に挿入直後の位置における画像P41から部位(患部)Reの位置に相当する画像P43に至るまでの時系列的画像である。再検査時補助画像群P4は、1回目の検査の際に取得した画像P1の内の画像P11~P13等を基にして作成してもよい。再検査時補助画像群P4の内の画像P43は、推論エンジン36による推論結果であるターゲット情報Itaを含んでいる。 The auxiliary device 30 outputs the reexamination auxiliary image group P4 to the second endoscope 10B. The reexamination auxiliary image group P4 is from the image P41 at the position immediately after insertion into the anus to the image P43 corresponding to the position of the site (affected part) Re when reexamination is performed using the second endoscope 10B. It is a time-series image of The re-inspection auxiliary image group P4 may be created based on the images P11 to P13 among the images P1 acquired in the first inspection. An image P43 in the reexamination-time auxiliary image group P4 includes target information Ita, which is the inference result of the inference engine .
 第2の内視鏡10Bは、制御部11B、撮像部12B、光源部13B、表示部14B、ID管理部15B、記録部16B、操作部17B、推論モデル19Bを有する。これらは、内視鏡10Aの制御部11A、撮像部12A、光源部13A、表示部14A、ID管理部15A、記録部16A、操作部17A、推論モデル19Aと同様であるので、第2の内視鏡10Bとして有する追加的な構成・機能を補足的に記載し、詳しい説明は省略する。 The second endoscope 10B has a control section 11B, an imaging section 12B, a light source section 13B, a display section 14B, an ID management section 15B, a recording section 16B, an operation section 17B, and an inference model 19B. These are the same as the control unit 11A, imaging unit 12A, light source unit 13A, display unit 14A, ID management unit 15A, recording unit 16A, operation unit 17A, and inference model 19A of the endoscope 10A. Additional configurations and functions of the endoscope 10B are described supplementarily, and detailed descriptions thereof are omitted.
 制御部11Bは、CPU(Central Processing Unit)等の処理装置、プログラムを記憶したメモリ(プログラムは記録部16Bに記憶してもよい)等を有する1つ又は複数のプロセッサから構成され、プログラムを実行し、内視鏡10B内の各部を制御する。制御部11Bは、内視鏡10Bが被検者(患者)の再検査を行う際の種々の制御を行う。 The control unit 11B is composed of one or more processors having a processing device such as a CPU (Central Processing Unit), a memory storing a program (the program may be stored in the recording unit 16B), etc., and executes the program. and controls each part in the endoscope 10B. The control unit 11B performs various controls when the endoscope 10B reexamines a subject (patient).
 制また、御部11Bは、撮像部12Bが取得した再検査時の画像と、補助装置30から出力された再検査時補助画像群P4を用いて、部位(患部)Reへ到達するための操作ガイドおよび/または部位(患部)Re付近にあるか否かを判定する。操作ガイドの作成や、第2の内視鏡19Bの先端部が部位(患部)Re付近あるか否かの判定を行うために、推論モデルが設定された推論エンジン19Bによって推論を行ってもよいし、後述する類似画像判定部22Bによって類似画像判定を行ってもよい。制御部11Bが作成した操作ガイドは表示部14Bにおいて表示してもよく、また内視鏡の先端部が部位(患部)Re付近にあることを表示部14Bにおいて表示してもよい。 The control unit 11B uses the reexamination image acquired by the imaging unit 12B and the reexamination auxiliary image group P4 output from the auxiliary device 30 to perform an operation to reach the site (affected area) Re. It is determined whether or not it is near the guide and/or site (affected area) Re. Inference may be performed by the inference engine 19B in which an inference model is set in order to create an operation guide and determine whether or not the distal end of the second endoscope 19B is in the vicinity of the site (affected area) Re. However, similar image determination may be performed by a similar image determination unit 22B, which will be described later. The operation guide created by the control unit 11B may be displayed on the display unit 14B, and the display unit 14B may display that the distal end of the endoscope is in the vicinity of the site (affected area) Re.
 制御部11Bは、特定被検者に対する第2の内視鏡による再検査時に患部の位置を再度観察するために、再検査時の画像を類似画像推論部(例えば、推論エンジン19B)に入力して得られた結果に従って、再確認位置をガイドする挿入補助情報を生成する再挿入補助情報生成部として機能する(例えば、図4のS15参照)。 The control unit 11B inputs the reexamination image to the similar image inference unit (for example, the inference engine 19B) in order to re-observe the position of the affected area when the specific subject is reexamined with the second endoscope. It functions as a re-insertion auxiliary information generating section that generates insertion auxiliary information for guiding the reconfirmation position according to the result obtained by the above (for example, see S15 in FIG. 4).
 推論エンジン19Bは、推論モデルが設定されている。推論エンジン19Bは、ハードウエアによって構成れていてもよく、またソフトウエア(プログラム)によって構成されていてもよく、またハードウエアとソフトウエアの組み合わせであってもよい。推論モデルは、補助装置30内の推論エンジン36によって作成された推論モデルであり、内視鏡を体内に挿入する時と抜去する時の画像(例えば、画像P2、P3)を用いて、学習することによって作成される。すなわち、異なる複数の観察方法(例えば、挿入時の観察と、抜去時の観察)によって得られた患部画像を用いて推論モデルが作成される。 An inference model is set for the inference engine 19B. The inference engine 19B may be configured by hardware, may be configured by software (program), or may be a combination of hardware and software. The inference model is an inference model created by the inference engine 36 in the auxiliary device 30, and is learned using images (for example, images P2 and P3) when the endoscope is inserted into and removed from the body. Created by That is, an inference model is created using affected area images obtained by a plurality of different observation methods (for example, observation during insertion and observation during withdrawal).
 推論エンジン19Bに設定された推論モデルは、特定被検者の第1の内視鏡による検査で得られた患部が撮影された患部画像をもとに、異なる複数の観察方法で得られた同一若しくは類似の患部画像で学習された類似画像推論モデルとしての機能を果たす。推論エンジン19Bは、上述の類似画像推論モデルを有する類似画像推論部としての機能を果たす。推論エンジン19Bは、異なる複数の観察方法で得られた同一若しくは類似の患部画像で学習された画像変換推論モデルを有する類似画像推論部として機能する。 The inference model set in the inference engine 19B is based on the affected area image of the affected area obtained by the inspection with the first endoscope of the specific subject, and the same model obtained by a plurality of different observation methods. Alternatively, it functions as a similar image inference model learned from similar affected area images. The inference engine 19B functions as a similar image inference unit having the similar image inference model described above. The inference engine 19B functions as a similar image inference unit having an image transformation inference model trained with the same or similar affected area images obtained by a plurality of different observation methods.
 第2の内視鏡10Bは、さらに信号出力部21Bと類似画像判定部22Bを有する。信号出力部21Bは、第2の内視鏡10Bの先端部が部位(患部)Re付近に達したときに、その旨を表示する信号を出力する。例えば、光源部13Bによって光源を照射することによって、消化管壁の外側から照射光が見える等によって、医師等にその位置を知らせるようにしてもよい(例えば、図10(b)の矢印H方向の光照射参照)。 The second endoscope 10B further has a signal output section 21B and a similar image determination section 22B. When the distal end of the second endoscope 10B reaches the vicinity of the site (affected site) Re, the signal output section 21B outputs a signal indicating that fact. For example, by irradiating the light source from the light source unit 13B, the irradiated light can be seen from the outside of the wall of the gastrointestinal tract, thereby informing the doctor or the like of the position (for example, in the direction of arrow H in FIG. 10B). ).
 類似画像判定部22Bは、撮像像12Bによって取得した画像データと、再検査時補助画像群P4を比較し、類似度を判定する。画像の類似度の判定方法は種々あるので、これらの方法の中から本実施形態に適した方法を適宜利用すればよい。医師が第2の内視鏡10Bを被検者(患者)の肛門から挿入した際に、類似画像判定部22Bは画像P41と類似の画像が有るか否かを判定する。この画像P41と類似の画像が出現した後、類似画像判定部22Bは、ターゲット情報Itaを含む画像P43と類似画像があるか否を判定する。 The similar image determination unit 22B compares the image data acquired by the captured image 12B with the re-examination auxiliary image group P4 to determine the degree of similarity. Since there are various methods for determining the degree of similarity between images, a method suitable for the present embodiment may be appropriately used from among these methods. When the doctor inserts the second endoscope 10B through the subject's (patient's) anus, the similar image determination unit 22B determines whether or not there is an image similar to the image P41. After an image similar to the image P41 appears, the similar image determination unit 22B determines whether or not there is an image P43 including the target information Ita and a similar image.
 類似画像判定部22Bが、画像P43と類似度の高い画像を発見すると、この位置付近に、部位(患部)Reがあることから、表示部14Bは部位(患部)Re付近であることを表示する。医師は、この付近を丹念に検査することによって、部位(患部)Reを探すことができる。直ぐに見つからない場合には、送気を行ってもよく、また、内視鏡を少し引き抜いて空間を作って観察してもよい。部位(患部)Reが見つかれば、患部等の経過観察を行うことができる。また、患部の状態によっては、手術等の処置が必要な場合もある。 When the similar image determination unit 22B finds an image with a high degree of similarity to the image P43, the display unit 14B displays that it is near the site (affected area) Re because the site (affected area) Re is present near this position. . The doctor can find the site (affected part) Re by carefully examining this vicinity. If it cannot be found immediately, air may be supplied, or the endoscope may be slightly pulled out to create a space for observation. If the site (affected part) Re is found, the progress of the affected part, etc. can be observed. In addition, depending on the condition of the affected area, treatment such as surgery may be required.
 類似画像判定は、類似画像判定部22が行う以外にも、推論エンジン19Bに類似画像判定用の推論モデルを設定しておき、推論エンジン19Bにおいて行ってもよい。この場合には、推論エンジン19Bは、内視鏡検査の画像に基づき画像の類似度を推定する類似度推定モデルを有する類似画像推定部として機能する。また、制御部11B、または類似画像判定部22B、または推論エンジン19Bは、特定被検者に対する第2の内視鏡を用いて行う再検査において、第1の内視鏡検査で発見された病変に対する画像と第2の内視鏡検査の内視鏡画像とを類似画像推定部に入力して画像の類似度を推定し、類似度が所定よりも高い画像であるか否かを判定する類似画像判定部として機能する。この類似画像判定部における判定結果を用いることによって、第2の内視鏡による検査において、病変と類似する画像の位置までガイドすることができる(例えば、図4のS15参照)。 In addition to performing similar image determination by the similar image determination unit 22, an inference model for similar image determination may be set in the inference engine 19B and performed in the inference engine 19B. In this case, the inference engine 19B functions as a similar image estimator having a similarity estimation model for estimating the similarity of images based on endoscopic images. In addition, the control unit 11B, the similar image determination unit 22B, or the inference engine 19B determines whether the lesion found in the first endoscopy is reexamined using the second endoscope for the specific subject. The image for the second endoscopic examination and the endoscopic image of the second endoscopic examination are input to the similar image estimating unit to estimate the similarity of the images, and it is determined whether or not the image has a higher similarity than a predetermined similarity. It functions as an image judgment section. By using the determination result of this similar image determining unit, it is possible to guide the position of the image similar to the lesion in the examination with the second endoscope (see S15 in FIG. 4, for example).
 上述の類似画像推論モデルは、大腸の変形による患部画像の変化をキャンセルして推論する。また、類似画像推論モデルは、内視鏡挿入時と抜去時、送気動作、送水動作、吸引動作、操作速度の変化、姿勢の変化等のいずれかによって変形した観察対象臓器の画像の対応関係から学習した推論モデルを利用する。上述したように、大腸内視鏡を大腸への挿入時と抜去時、送気動作、送水動作、吸引動作、操作速度の変化、姿勢の変化によって、腫瘍やポリープ等の患部(部位)は変形しているが、挿入時および抜去時等、変形時と非変形時の画像を用いることによって、この変形を除去(キャンセル)して推論モデルを生成することができる。 The similar image inference model described above makes inferences by canceling changes in the image of the affected area due to deformation of the large intestine. In addition, the similar image inference model is a correspondence relationship between the images of the observed organs that are deformed by any of the insertion and withdrawal of the endoscope, air supply, water supply, suction, change in operation speed, change in posture, etc. Use an inference model learned from As described above, affected areas (regions) such as tumors and polyps are deformed due to changes in the insertion and removal of the colonoscope into and out of the large intestine, air supply, water supply, suction, operation speed changes, and posture changes. However, by using images during deformation and non-deformation, such as during insertion and withdrawal, it is possible to remove (cancel) this deformation and generate an inference model.
 つまり、第1の観察方法で撮影された特定対象物画像を、第1の観察方法とは異なる第2の観察方法によって撮影された特定対象物の画像をアノテーションデータとすることによって得られた教師データを大量に用意して学習させれば、第1の観察方法で撮影した対象物の画像を入力した時に、第2の観察方法で撮影した対象物画像を推論可能にした推論モデルができる。この推論モデルに画像を入力し、推論すれば、観察が困難な状況でも観察が容易であった状況と同様の画像に、入力画像を変換(改善)することができる。この変換した画像を表示させることによって、視認性を向上させたり、改善された画像データを使用することによって、他の用途(例えば、ガイド等)の機能の性能を向上させることができる。なお、第1の観察方法と第2の観察方法は、内視鏡先端の撮影部を被検物に挿入する方向に動かした時の撮影による観察方法と、この内視鏡先端の撮影部を抜去する方向に動かした時の撮影による観察方法である。また、第1の観察方法と第2の観察方法は、内視鏡先端の撮影部を被検物に挿入または抜去する方向に動かした時の撮影による観察において、内視鏡の屈曲や挿入または抜去の制御が異なる場合における撮影による観察方法であってもよい。 That is, the teacher obtained by using the image of the specific object captured by the first observation method as the annotation data is the image of the specific object captured by the second observation method different from the first observation method. If a large amount of data is prepared and learned, an inference model can be made that can infer the object image photographed by the second observation method when the object image photographed by the first observation method is input. By inputting an image into this inference model and inferring it, it is possible to transform (improve) the input image into an image similar to the one in which observation was easy, even in a situation where observation is difficult. By displaying this converted image, the visibility can be improved, and by using the improved image data, it is possible to improve the performance of functions for other purposes (for example, guides, etc.). Note that the first observation method and the second observation method are an observation method in which the imaging unit at the tip of the endoscope is moved in the direction of insertion into the subject, and an observation method in which imaging is performed when the imaging unit at the tip of the endoscope is inserted. This is an observation method by photographing when moving in the withdrawal direction. In addition, the first observation method and the second observation method are when the imaging unit at the tip of the endoscope is moved in the direction of inserting or withdrawing from the object to be inspected, and when the endoscope is bent, inserted or removed. It may be an observation method by photographing when control of removal is different.
 このように、2回目以降の検査は、図2(b)を用いて説明したように、1回目の検査の際に、部位(患部)Reに対して処置や手術等を行った後に、処置・術後の経過を観察するために行う検査である。この2回目以降の検査では、第2の内視鏡10Bの引抜時ではなく、挿入時に部位Reを見つけて経過観察することができる。 In this way, in the second and subsequent examinations, as described with reference to FIG.・This is an examination to observe the progress after surgery. In the second and subsequent examinations, the site Re can be found and followed up when the second endoscope 10B is inserted, not when it is withdrawn.
 なお、推論エンジン19Bの構成は、推論エンジン19Aと同様であるが、補助装置30に生成された部位(患部)Re検出用の推論モデルを備えていてもよい。この場合には、推論エンジン19Bに、撮像部12Bによって取得した画像データを入力すると、ターゲット情報Itaに相当するコマ画像であるか否かを推論する。推論の結果、このコマ画像を見つけると、出力層からその旨が出力され、表示部14Bに部位(患部)Re付近であることが表示される。 The configuration of the inference engine 19B is similar to that of the inference engine 19A, but may include an inference model for detection of the site (affected area) Re generated in the auxiliary device 30. In this case, when the image data acquired by the imaging unit 12B is input to the inference engine 19B, it is inferred whether or not it is a frame image corresponding to the target information Ita. As a result of inference, when this frame image is found, a message to that effect is output from the output layer, and the fact that the area (affected area) is near Re is displayed on the display section 14B.
 次に、図3(a)(b)を用いて、推論モデルの生成と、この推論モデルを用いて行う推論について説明する。まず、推論モデルの生成方法について図3(a)を用いて説明する。本実施形態においては、補助装置30内の推論エンジン36において推論モデルを生成するが、補助装置30以外の学習装置において生成してもよく、また補助装置30内に推論モデル生成用の学習装置を設け、この学習装置において推論モデルを生成してもよい。 Next, generation of an inference model and inference performed using this inference model will be described using FIGS. 3(a) and 3(b). First, a method of generating an inference model will be described with reference to FIG. In this embodiment, the inference model is generated in the inference engine 36 in the auxiliary device 30, but it may be generated in a learning device other than the auxiliary device 30, and a learning device for generating the inference model is provided in the auxiliary device 30. may be provided and an inference model may be generated in this learning device.
 まず、推論モデル生成用の検査画像P2、P3を収集する。なお、図1Aおよび図3(a)では、検査画像は2つのしか記載されていないが、実際には、多数の検査画像を収集する。推論モデル生成用の画像P2、P3は、内視鏡を肛門から挿入し、奥まで挿入した後に、引き抜きながら、すなわち往路と復路の両方で取得する(図2(a)、P21~P27、P31~P37参照)。医師等の専門家が、これらの検査画像の中で、部位(患部)Reのある画像対(P23とP26、P33とP36)に対してアノテーションを付して、教師データを作成する。この作成された教師データを推論エンジン(学習装置)36の入力層に入力し、奥まで挿入する際に部位(患部)Reがあるとされた画像(例えば、画像P23、P33)を、出力層からターゲット情報Itaとして出力できるように、中間層の重み付けを行う。このターゲット情報Itaは、奥の方向に向けて移動している際の画像の中において、問題のある部位(患部)に関係するコマを探し出すことができる。この深層学習を行うことによって、重み付けられた中間層を持つニューラル・ネットワークが推論モデルとして生成される。 First, inspection images P2 and P3 for inference model generation are collected. Although only two inspection images are shown in FIGS. 1A and 3A, a large number of inspection images are actually collected. The images P2 and P3 for inference model generation are obtained by inserting the endoscope through the anus, inserting it to the end, and then pulling it out, that is, on both the outward and return trips (Fig. 2(a), P21 to P27, P31 ~ see page 37). An expert such as a doctor annotates a pair of images (P23 and P26, P33 and P36) having a site (affected part) Re among these examination images to create teacher data. The created teacher data is input to the input layer of the inference engine (learning device) 36, and the image (for example, images P23 and P33) in which the site (affected area) Re is present when the insertion is performed to the back is transferred to the output layer. The intermediate layer is weighted so that it can be output as target information Ita from . With this target information Ita, it is possible to find a frame related to a problematic site (affected area) in the image when moving inward. By performing this deep learning, a neural network with weighted hidden layers is generated as an inference model.
 このように、内視鏡先端の撮影部を被検物に挿入する方向に動かした時の撮影によって第1の観察方法を行う場合と、当該内視鏡先端の撮影部を抜去する方向に動かした時の撮影によって第2の観察方法を行う場合に(第1と第2が逆でも良い)、第1の観察方法の際に撮影された特定対象物画像に対し、第1の観察方法とは異なる第2の観察方法によって撮影された特定対象物の画像をアノテーションデータとすることによって得られた教師データを用いて学習すると、第1の観察方法で撮影した対象物の画像を入力した時に、第2の観察方法で撮影した対象物画像を推論することのできる推論モデルを生成することができる。この推論モデルは、挿入方向の画像に基づいて抜去方向の画像を推論したり、抜去方向画像に基づいて挿入方向画像を推論することができる。 In this way, the first observation method is performed by photographing when the imaging unit at the distal end of the endoscope is moved in the direction of insertion into the subject, and the imaging unit at the distal end of the endoscope is moved in the direction of removal. When the second observation method is performed by photographing when the first observation method is performed (the first and second may be reversed), the specific object image photographed during the first observation method is processed by the first observation method and is learned using teacher data obtained by using images of specific objects photographed by a different second observation method as annotation data, when an object image photographed by the first observation method is input, , an inference model capable of inferring the object image captured by the second observation method can be generated. This inference model can infer an image in the removal direction based on the image in the insertion direction, or infer an image in the insertion direction based on the image in the removal direction.
 また、上述の観察方法によって画像が変わることをキャンセルする技術を使えば、一方の観察方法であっても、他方の観察方法で見えるであろう画像を推論することが出来る。この場合には、一方の観察方法で事足りるので、手間のかかる他方の観察方法を省くことが出来る。 Also, by using the technology that cancels out the changes in the image due to the observation method described above, even if one observation method is used, it is possible to infer the image that would be seen by the other observation method. In this case, one observation method is sufficient, and the other observation method, which requires time and effort, can be omitted.
 したがって、特定被検者の第1の内視鏡による検査で得られた特定対象物が撮影された特定対象物画像があれば、前述の推論モデルの作成方法で作られた類似画像推論モデルによってある観察方法(例えば抜去方向での画像取得)によって得られる画像を推論できる(例えば、挿入方向観察画像がターゲット画像として推論できる)。次回(特定被検者に対する第2の内視鏡による)再検査時に、特定対象物の位置を再度観察するために、挿入方向における取得画像をターゲット画像と比較することによって、前回、抜去時に検出された対象物を見つけることができる。つまり、再度確認するための位置をガイドする挿入補助情報を生成する内視鏡挿入ガイド方法が提供できる。 Therefore, if there is a specific object image in which the specific object is photographed by the first endoscope inspection of the specific subject, the similar image inference model created by the above-described inference model creation method An image obtained by a certain viewing method (eg image acquisition in the withdrawal direction) can be inferred (eg the insertion direction view image can be inferred as the target image). At the next re-examination (with a second endoscope for a particular subject), in order to re-observe the position of the particular object, by comparing the acquired image in the insertion direction with the target image, the detection at the previous withdrawal can find objects that have been In other words, it is possible to provide an endoscope insertion guide method for generating insertion auxiliary information for guiding a position for reconfirmation.
 また、挿入時画像を推論して、この画像なら抜去時にはこう見えるはずだという推論が出来る。そこで、前述のように、特定被検者の第1の内視鏡による検査時において、例えば抜去時の撮像で得られた特定対象物が撮影された特定対象物画像をターゲット画像として、それが見つかるであろう位置のガイドをするようにしてもよい。すなわち、特定被検者に対する第2の内視鏡による再検査時に、第2の内視鏡を体内に挿入するだけで、対象物(患部)の位置を再度観察できるようなガイドが出来る。つまり、この場合は、再検査時の画像を上述の推論モデルの作成方法で作られた類似画像推論モデルに入力して推論画像を取得し、この推論画像とターゲットを比較して再確認位置をガイドする挿入補助情報を生成すればよい。内視鏡先端の撮影部を被検物に挿入する方向に動かした時の撮影による観察方法(例えば、第1の観察方法)と、当該内視鏡先端の撮影部を抜去する方向に動かした時の撮影による観察方法(例えば、第2の観察方法)によって、得られた画像を用いて推論モデルを作成してもよい。なお、ここで、「撮影による観察方法」は、例えば、撮像部によって画像データを取得し、この画像データに基づいて表示部に画像を表示し、医師等がこの画像を観察することをいう。 In addition, by inferring the image at the time of insertion, it is possible to infer that this image should look like this at the time of removal. Therefore, as described above, when the specific subject is examined by the first endoscope, the specific object image obtained by imaging the specific object, for example, when the specific object is removed is used as the target image. You may also try to guide the location where it will be found. That is, when a specific subject is re-examined using the second endoscope, guidance can be provided so that the position of the object (affected area) can be observed again simply by inserting the second endoscope into the body. In other words, in this case, the image at the time of re-examination is input to the similar image inference model created by the method of creating an inference model described above to obtain an inference image, and this inference image is compared with the target to determine the reconfirmation position. It suffices to generate insertion auxiliary information for guiding. An observation method (e.g., a first observation method) in which the imaging unit at the distal end of the endoscope is moved in the direction of insertion into the subject, and a method in which the imaging unit at the distal end of the endoscope is moved in the direction of removal. An inference model may be created using an image obtained by an observation method based on time photography (for example, the second observation method). Here, the “observation method by photographing” means, for example, obtaining image data by the imaging unit, displaying an image on the display unit based on the image data, and observing the image by a doctor or the like.
 ここでは説明の単純化のために、特定の一コマの画像を比較して類似するか判断する例を説明した。しかし、その特定の一コマに隣接する連続画像の中の各コマに対しても同様の考え方を適用してもよい。この場合には、その対象物画像の前後がどのような画像コマとして捉えられていたか、また画像の遷移が分かるので、その特定画像コマに近づいているかどうかを判定することができ、この判定に従ってガイドすることが出来る。すなわち、第1の観察方法で撮影した対象物の画像の前後のタイミングで時系列画像コマ群を取得し、この時系列画像コマ群を推論モデルに入力する。この推論モデルによって、時系列画像コマ群の時間的変化に基づいて、第2の観察方法で撮影した時の画像コマ群の時系列変化を推論するステップを設ける。さらに、第2の観察方法で撮影した時に得られるであろう画像変化を基準として、取得中の画像変化がそれに適合するように、対象物画像撮影までの内視鏡操作ガイドを出力するステップを設けると、前回の検査に倣った簡単な検査が可能となる内視鏡操作ガイド方法を提供することができる。 Here, for the sake of simplicity, I explained an example of comparing images of a specific frame to determine if they are similar. However, similar considerations may be applied to each frame in a sequence of images adjacent to that particular frame. In this case, since what kind of image frame was captured before and after the object image and the transition of the image can be known, it is possible to determine whether or not the specific image frame is approaching. can guide. That is, a group of time-series image frames are obtained before and after the image of the object photographed by the first observation method, and the group of time-series image frames are input to the inference model. Using this inference model, a step is provided for inferring the time-series change of the image frame group when photographed by the second observation method based on the time-series change of the time-series image frame group. Further, a step of outputting an endoscope operation guide up to photographing of the object image so that the image change during acquisition conforms to the image change that would be obtained when the image is taken by the second observation method as a reference. When provided, it is possible to provide an endoscope operation guide method that enables a simple examination following the previous examination.
 なお、検査画像P2、P3を取得する際に、操作部によってなされた操作情報Iopも併せて収集してもよい。この場合、各画像データに関連付けて収集してもよく、また、画像データおよび操作情報Iopにそれぞれ日時情報を記録しておいてもよい。操作情報Iopを記録しておくことによって、推論モデルを生成する際に、併せて操作ガイドを行うための推論モデルを生成することができる。 Note that operation information Iop performed by the operation unit may also be collected when acquiring the inspection images P2 and P3. In this case, the information may be collected in association with each image data, or the date and time information may be recorded in the image data and the operation information Iop respectively. By recording the operation information Iop, an inference model for performing operation guidance can be generated together with the generation of the inference model.
 ここで、深層学習について、説明する。「深層学習(ディープ・ラーニング)」は、ニューラル・ネットワークを用いた「機械学習」の過程を多層構造化したものである。情報を前から後ろに送って判定を行う「順伝搬型ニューラル・ネットワーク」が代表的なものである。順伝搬型ニューラル・ネットワークは、最も単純なものでは、N1個のニューロンで構成される入力層、パラメータで与えられるN2個のニューロンで構成される中間層、判別するクラスの数に対応するN3個のニューロンで構成される出力層の3層があればよい。入力層と中間層、中間層と出力層の各ニューロンはそれぞれが結合加重で結ばれ、中間層と出力層はバイアス値が加えられることによって、論理ゲートを容易に形成できる。 Here, deep learning will be explained. "Deep learning" is a multilayer structure of the process of "machine learning" using neural networks. A typical example is a "forward propagation neural network" that sends information from front to back and makes decisions. The simplest forward propagation neural network consists of an input layer composed of N1 neurons, an intermediate layer composed of N2 neurons given by parameters, and N3 neurons corresponding to the number of classes to be discriminated. It suffices if there are three output layers composed of neurons. The neurons of the input layer and the intermediate layer, and the intermediate layer and the output layer are connected by connection weights, respectively, and the intermediate layer and the output layer are added with bias values, so that logic gates can be easily formed.
 ニューラル・ネットワークは、簡単な判別を行うのであれば3層でもよいが、中間層を多数にすることによって、機械学習の過程において複数の特徴量の組み合わせ方を学習することも可能となる。近年では、9層~152層のものが、学習にかかる時間や判定精度、消費エネルギーの観点から実用的になっている。また、画像の特徴量を圧縮する、「畳み込み」と呼ばれる処理を行い、最小限の処理で動作し、パターン認識に強い「畳み込み型ニューラル・ネットワーク」を利用してもよい。また、より複雑な情報を扱え、順番や順序によって意味合いが変わる情報分析に対応して、情報を双方向に流れる「再帰型ニューラル・ネットワーク」(全結合リカレントニューラルネット)を利用してもよい。 The neural network may have three layers for simple discrimination, but by increasing the number of intermediate layers, it is also possible to learn how to combine multiple feature values in the process of machine learning. In recent years, 9 to 152 layers have become practical from the viewpoint of the time required for learning, judgment accuracy, and energy consumption. In addition, a process called "convolution" that compresses the feature amount of an image may be performed, and a "convolution neural network" that operates with minimal processing and is strong in pattern recognition may be used. In addition, a "recurrent neural network" (fully-connected recurrent neural network), which can handle more complicated information and can handle information analysis whose meaning changes depending on the order and order, may be used in which information flows in both directions.
 これらの技術を実現するために、CPUやFPGA(Field Programmable Gate Array)等の従来からある汎用的な演算処理回路を使用してもよい。しかし、これに限らず、ニューラル・ネットワークの処理の多くが行列の掛け算であることから、行列計算に特化したGPU(Graphic Processing Unit)やTensor Processing Unit(TPU)と呼ばれるプロセッサを利用してもよい。近年ではこのような人工知能(AI)専用ハードの「ニューラル・ネットワーク・プロセッシング・ユニット(NPU)」がCPU等その他の回路とともに集積して組み込み可能に設計され、処理回路の一部になっている場合もある。 In order to realize these technologies, conventional general-purpose arithmetic processing circuits such as CPUs and FPGAs (Field Programmable Gate Arrays) may be used. However, not limited to this, since most neural network processing is matrix multiplication, it is possible to use a processor called a GPU (Graphic Processing Unit) or a Tensor Processing Unit (TPU) that specializes in matrix calculations. good. In recent years, such artificial intelligence (AI) dedicated hardware "neural network processing unit (NPU)" is designed to be integrated and embedded with other circuits such as CPU, and has become a part of the processing circuit. In some cases.
 その他、機械学習の方法としては、例えば、サポートベクトルマシン、サポートベクトル回帰という手法もある。ここでの学習は、識別器の重み、フィルター係数、オフセットを算出するものあり、これ以外にも、ロジスティック回帰処理を利用する手法もある。機械に何かを判定させる場合、人間が機械に判定の仕方を教える必要がある。本実施形態においては、画像の判定を、機械学習によって導出する手法を採用したが、そのほか、人間が経験則・ヒューリスティクスによって獲得したルールを適応するルールベースの手法を用いてもよい。 In addition, there are other methods of machine learning, such as support vector machines and support vector regression. The learning here involves calculation of classifier weights, filter coefficients, and offsets, and there is also a method using logistic regression processing. If you want a machine to judge something, you have to teach the machine how to judge. In the present embodiment, a method of deriving image determination by machine learning is used. In addition, a rule-based method that applies rules acquired by humans through empirical rules and heuristics may be used.
 図3(a)に示すような方法によって、推論モデルを生成すると、次に、図3(b)に示すように、生成した推論モデルを推論エンジン36に設定する。勿論、推論エンジン36は、推論モデル作成用の推論エンジンと異なっていてもよい。推論エンジン36の入力層に、再検査時や手術時の画像P5を入力する。推論エンジン36は、画像P53が入力されると、部位(患部)Reが写っている画像として、推論によって探し出し、部位情報Iout を出力する。この情報Ioutは、再検査や手術の対象位置であることを示す。 After the inference model is generated by the method shown in FIG. 3(a), the generated inference model is set in the inference engine 36 as shown in FIG. 3(b). Of course, the inference engine 36 may be different from the inference engine for creating the inference model. An image P5 at the time of reexamination or surgery is input to the input layer of the inference engine 36 . When the image P53 is input, the inference engine 36 searches for the part (affected part) Re as an image showing it by inference, and outputs the part information Iout. This information Iout indicates a target position for reexamination or surgery.
 このように、本実施形態においては、1回目の内視鏡検査を受ける際に、そのときの画像P1を記録しておき、この画像P1を用いて、内視鏡を奥に向け挿入する際に部位(患部)Reに対応する位置に関する情報ターゲット情報Itaを含む再検査時補助画像群P4を作成している。このため、同一患者について内視鏡を2回目で使用する場合には、再検査時補助画像群P4を用いることによって、内視鏡を奥に向けて移動する際に、容易に部位(患部)Reを発見することができる。 As described above, in this embodiment, when the first endoscopy is performed, the image P1 at that time is recorded, and this image P1 is used when inserting the endoscope toward the back. , a reexamination auxiliary image group P4 including information target information Ita regarding the position corresponding to the site (affected part) Re is created. Therefore, when the endoscope is used for the second time for the same patient, by using the reexamination auxiliary image group P4, the site (affected part) can be easily detected when moving the endoscope toward the back. Re can be found.
 また、本実施形態においては、過去に検査を受けた他の人の検査画像、すなわち大腸内視鏡を奥まで挿入する時の検査画像を用いて、奥から抜き抜く時の画像で見つかる部位(患部)Reの位置を推論する推論モデルを作成しておくことによって、この被検者(患者)の挿入時の検査画像を用いて、抜き抜く時の画像と同様に部位(患部)Reの位置を推論することができる。 In addition, in the present embodiment, an examination image of another person who has undergone an examination in the past, that is, an examination image obtained when the colonoscope is inserted all the way is used, and a part ( By creating an inference model for inferring the position of the diseased part Re, the position of the site (affected part) Re can be estimated in the same manner as the image when the subject (patient) is pulled out using the inspection image when the subject (patient) is inserted. can be inferred.
 なお、本実施形態においては、1回目と2回目の検査が同一人であることを前提にして説明していた。しかし、過去に検査を受けた他の人の検査画像を用いて、奥に向けて挿入するときの画像から引き抜くときの画像を推論する推論モデルを作成しておけば、検査画像とは別の人(今回の検査対象者)の挿入時の画像を推論モデルに入力するだけで、引き抜くときの画像を推論することが可能となる。また、過去に検査を受けた他の人の検査画像を用いて、転移学習を利用して推論モデルを作成するようにしてもよい。1回目の挿入画像を入力することによって、どこが部位(患部)であるかを発見することが可能となる。また、過去に検査を受けた他の人の検査画像を用いて推論しておけば、今回の検査対象者の1回目の挿入画像に基づいて特徴のヒントを得て(この時、引抜時での診断を反映)、このヒントに基づいて、どこに部位(患部)があるかを版権することが可能となる。 It should be noted that the present embodiment has been described on the assumption that the first and second examinations are performed by the same person. However, if an inference model is created for inferring an image for extraction from an image for insertion toward the back using an inspection image of another person who has undergone an inspection in the past, it will be possible to create an inference model that is different from the inspection image. It is possible to infer the image when the person (the person being inspected this time) is pulled out simply by inputting the image when the person (the person being inspected this time) is inserted into the inference model. Also, an inference model may be created using transfer learning using test images of other people who have undergone tests in the past. By inputting the first insertion image, it is possible to discover where the part (affected part) is. In addition, if inference is made using the inspection images of other people who have undergone inspection in the past, hints of features can be obtained based on the first inserted image of the person to be inspected this time (at this time, at the time of withdrawal) based on this hint), it is possible to copyright where the site (affected area) is.
 次に、図4に示すフローチャートを用いて、機器(内視鏡)における動作を説明する。このフローは、内視鏡10A、10B内の制御部11A、11Bが記録部16A、16B等に記憶されているプログラムに基づいて、内視鏡10A、10B内の各部を制御することによって実現する。なお、このフローは、同一被検者(患者)について、1回目の検査の場合と、2回目以降の検査の場合の両方を含んでいる。 Next, the operation of the device (endoscope) will be described using the flowchart shown in FIG. This flow is realized by controlling each unit in the endoscopes 10A and 10B based on the programs stored in the recording units 16A and 16B by the control units 11A and 11B in the endoscopes 10A and 10B. . This flow includes both the first examination and the second and subsequent examinations for the same subject (patient).
 図4に示すフローの動作が開始すると、まず、院内システム等と連携し、情報の共有等を開始する(S1)。内視鏡10Aまたは第2の内視鏡10Bは、院内システムやサーバ等内に設けられた補助装置30と、通信部を通じて接続可能である。このステップでは、内視鏡10Aまたは第2の内視鏡10Bは、補助装置30と通信を行い、互いに連携できるようにし、両者の情報を共有できるように設定する。  When the operation of the flow shown in Fig. 4 starts, first, it cooperates with the hospital system, etc., and starts sharing information, etc. (S1). The endoscope 10A or the second endoscope 10B can be connected through a communication unit to an auxiliary device 30 provided in an in-hospital system, server, or the like. In this step, the endoscope 10A or the second endoscope 10B is set to communicate with the auxiliary device 30 so that they can cooperate with each other and share information between them.
 次に、患者情報等を入力する(S3)。ここでは、医師が、内視鏡10Aまたは第2の内視鏡10Bを用いて行う検査対象者(被検者・患者)の情報、例えば、氏名、ID、検査種別等を、操作部17A、17B等を用いて入力する。 Next, enter patient information, etc. (S3). Here, a doctor inputs information of a person (examinee/patient) to be examined using the endoscope 10A or the second endoscope 10B, such as name, ID, examination type, etc. 17B or the like.
 次に、検査の準備や設定等を行う(S5)。ここでは、医師等が、検査種別に応じた検査の準備や設定等を行う。例えば、検査用の内視鏡等を用意し、また被検者(患者)に麻酔をかける等、の準備を行う。 Next, make preparations and settings for the inspection (S5). Here, a doctor or the like prepares, sets, etc. for the examination according to the examination type. For example, preparations such as preparing an endoscope for examination and anesthetizing a subject (patient) are performed.
 次に、引き継いだ情報があるか否かを判定する(S7)。図1Aおよび図1Bを用いて説明したように、被検者(患者)が内視鏡10Aを用いて、1回目の検査した場合に、その時の画像P1に基づく画像データが記録部35に記録され、さらに、推論エンジン36が推論出力したターゲット情報Itaを記録部35に記録している。この引継情報は、図2を用いて説明したように、1回目の検査で大腸の奥まで挿入した後、引き抜きながら観察すると、部位(患部)Reを発見し易いことを利用し、この引き抜きながら観察した際に発見した部位(患部)Reと同じ位置を、大腸の奥まで挿入する際に見つけ出す際に使用することができる。この引継情報に基づいて、補助装置30は、再検査時補助画像群P4を作成する。このステップS7では、被検者(患者)のID情報等に基づいて、被検者が既に1回目の検査を行って引継用の情報が記録部35に記録されているか否を判定する。 Next, it is determined whether or not there is inherited information (S7). As described with reference to FIGS. 1A and 1B, when the subject (patient) uses the endoscope 10A for the first examination, image data based on the image P1 at that time is recorded in the recording unit 35. Furthermore, the target information Ita inferred and output by the inference engine 36 is recorded in the recording unit 35 . As described with reference to FIG. 2, this inherited information is obtained by utilizing the fact that the site (affected area) Re can be easily found if observed while withdrawing the large intestine after it is inserted all the way in the first examination. The same position as the site (affected site) Re found during observation can be used when finding the same position when inserting the probe into the deep part of the large intestine. Based on this handover information, the auxiliary device 30 creates a group of re-examination auxiliary images P4. In this step S7, based on the ID information of the subject (patient), it is determined whether or not the subject has already performed the first examination and the information for taking over is recorded in the recording unit 35 .
 すなわち、本実施形態においては、第1のタイミングで行う、特定対象物までの内視鏡センサ部の位置変更動作を含む検査時に取得された連続画像の少なくとも一部を、第1のタイミングより後の第2のタイミングで行う特定対象物までの内視鏡センサ部位置変更を含む検査時の内視鏡位置変更用ガイドを生成するためのガイド用情報として取得している。言い換えると、第1のタイミングで取得した連続画像の少なくとも一部を、引継情報として記憶しておき、第2のタイミングにおいてガイド用情報として使用する。 That is, in the present embodiment, at least a part of the continuous images acquired during the inspection including the position change operation of the endoscope sensor unit up to the specific target, which is performed at the first timing, is transferred after the first timing. It is acquired as guide information for generating a guide for changing the position of the endoscope during examination including changing the position of the endoscope sensor unit up to the specific object at the second timing of . In other words, at least part of the continuous images acquired at the first timing is stored as handover information, and used as guide information at the second timing.
 また、本実施形態においては、第1のタイミングにおける内視鏡の挿入時取得画像と引き抜き時取得画像を得るための位置変更情報に基づいてガイド用情報を決定している((ガイド用情報決定ステップを有している)。第1のタイミングの内視鏡挿入時に得られた画像(例えば、管に沿って進行する様子や向きの変化が記録されている)と、引き抜き時に得られた画像(例えば、管に沿って引き抜かれる時の様子や向きの変化が記録されている)を比較して、その一方における画像で検出した特定対象物を他方でも検出可能とすることによって、第2のタイミングの内視鏡検査時に、挿入時でも引き抜き時でも簡単に特定対象物を検出可能としている。 In addition, in the present embodiment, guide information is determined based on the position change information for obtaining the image obtained when the endoscope is inserted and the image obtained when the endoscope is withdrawn at the first timing ((guide information determination image obtained during insertion of the endoscope at the first timing (for example, the movement along the tube and changes in direction are recorded) and the image obtained during withdrawal (For example, changes in the state and orientation when being pulled out along the tube are recorded), and by making it possible to detect a specific object detected in one image in the other, the second During endoscopic examination at the timing, it is possible to easily detect a specific object during insertion or withdrawal.
 このようなガイドを提示するための情報が引継情報となるが、それは、ガイドの仕様に従って、様々な形態があり得る。単に、顔検出による人物認証を行う場合のように、ここに特定人物の顔がある、というような感じで、対象物画画像の情報を引き継いでもよいし、挿入から、特定部位にまでのナビゲーション情報を引継情報としてもよい。後者は、単に、どのくらいの長さを挿入したかという情報でもよいし、その挿入時に行った内視鏡の曲げ方、挿入スピードまでをガイドできるような情報でもよい。いずれの場合も第1のタイミングに合わせればよいという考え方でもよい。 The information for presenting such a guide becomes the inherited information, but it can take various forms according to the specifications of the guide. Just like when performing person authentication by face detection, it is possible to take over the information of the target image image with the feeling that there is a specific person's face here, or navigation from insertion to specific parts The information may be taken over information. The latter may simply be information about how long the endoscope has been inserted, or information that can guide how to bend the endoscope at the time of insertion and insertion speed. In either case, it may be considered that the timing should be matched with the first timing.
 つまり、連続画像の一部としては、特定対象物を検出した前後の画像を想定しており、引き抜き時画像はその特定対象物の位置から、引き抜かれるまでの過程が画像で記録されていることを想定している。このため、挿入時画像に画像変化の情報を対応させると、逆に挿入時から、特定対象物までの画像変化を判定でき、第2タイミングでは、第1タイミング時における結果を使用して、挿入時の操作ガイドすることが可能となる。画像の変化のスピードや、画面の外側に画像パターンが動く場合に特有のピント位置や撮像部の焦点距離の変化に基づいて、内視鏡がゆっくり挿入されているとか、そこでいったん停止して向きを変えた等の操作情報を伝えることも出来る。 In other words, as part of the continuous images, images before and after the specific object is detected are assumed, and the extracted image records the process from the position of the specific object until it is extracted. is assumed. Therefore, by associating the image change information with the image at the time of insertion, it is possible to determine the image change from the time of insertion to the specific object. It is possible to guide the operation of time. Based on the speed of image change and the change in the focus position and focal length of the imaging unit, which is peculiar when the image pattern moves outside the screen, it is possible to detect whether the endoscope is being inserted slowly, stop there and turn. It is also possible to transmit operation information such as changing the
 また、内視鏡の向きを変える時の情報も、第1タイミングの画像に残っているので、それを利用すればよい。この引継情報は、ガイドをそのまま提示できるような情報に加工されたものでもよいし、ガイドを出すための元となる情報を出力して、第2のタイミングにおいて使用する装置に、そのガイドそのものは任せるようにしてもよい。第2のタイミングでの動作と比較してガイドを出す場合には、後者のような引継情報が好ましい。 Also, since the information when changing the orientation of the endoscope remains in the image at the first timing, it should be used. This handover information may be processed into information that can present the guide as it is, or the information that is the basis for issuing the guide is output, and the guide itself is sent to the device used at the second timing. You can let it go. The latter type of handover information is preferable when providing a guide in comparison with the operation at the second timing.
 また、情報を引き継ぐ場合には、単に操作の情報のみならず、インフォームド・コンセントの結果を引き継げるようにしてもよい。つまり、毎回、同様の承諾を取るのは医療機関や患者にとっては大変なので、前回と同じ扱いで良いかを確認するだけで済ませられるような工夫をすればよい。この場合には、双方にとって手間を省きながら、有効な経過観察データが取得でき、医療分野の状況改善、知見拡大、深化に相応しい状況とすることが出来る。具体的には、前回承諾の結果を覚えているかを確認し、同じで良いというスイッチ操作や音声入力等によって、ICを引き継げるようにしてもよい。 Also, when handing over information, it may be possible to hand over not only operation information but also the results of informed consent. In other words, it is difficult for medical institutions and patients to obtain the same consent every time, so it is better to devise a way to make it possible only to confirm whether the same treatment as the previous time is acceptable. In this case, it is possible to acquire effective follow-up observation data while saving time and effort for both parties, and to create a situation suitable for improving the situation in the medical field and expanding and deepening knowledge. Specifically, it is possible to confirm whether or not the user remembers the result of the previous acceptance, and to take over the IC by operating a switch or inputting a voice to say that the same is acceptable.
 ステップS7における判定の結果、引継情報がある場合には、引き継いだ情報を取得し、ガイド時の参照にする(S9)。ここでは、記録部35に記録されている引継情報を読み出し、検査の際にガイド(S15参照)を行う場合に、引継情報を使用できるようにする。 If the result of determination in step S7 is that there is handover information, the handed-over information is acquired and used as a reference when guiding (S9). Here, the takeover information recorded in the recording unit 35 is read out so that the takeover information can be used when performing guidance (see S15) during inspection.
 ステップS9において引継情報の取得等を行うと、またはステップS7における判定の結果、引継情報がない場合には、次に、検査を開始し、画像を記録し、計時を開始し、情報を取得する(S11)。ここでは、医師が内視鏡検査を開始し、このとき撮像部12A、12Bによって取得した画像データを記録部16A、16Bに記録する。また、検査開始後の時間情報を取得するために、計時を開始し、この取得した時間情報は画像データに関連付ける。さらに、医師が操作部17A、17B等を操作したときの操作情報Iop等や、その他、検査に関係する情報を取得する。操作情報Iopは、取得した画像に関連付けてもよく、また計時情報に関連付けてもよい。 If the takeover information is acquired in step S9, or if the result of determination in step S7 is that there is no takeover information, then the inspection is started, the image is recorded, the timing is started, and the information is acquired. (S11). Here, the doctor starts the endoscopy, and records the image data acquired by the imaging units 12A and 12B at this time in the recording units 16A and 16B. Also, in order to acquire time information after the start of the examination, clocking is started, and the acquired time information is associated with the image data. Further, it acquires operation information Iop when the doctor operates the operation units 17A and 17B, etc., and other information related to the examination. The operation information Iop may be associated with the acquired image, or may be associated with the timing information.
 次に、診断ガイド、診断補助判定等を行い、またエビデンスの記録を行う(S13)。ここでは、医師が内視鏡10A、10Bを用いて行う一般的な診断を行う際の診断ガイドや、診断補助判定を行う。例えば、診断ガイドとしては、内視鏡10A、10Bの操作方法を表示しても良く、診断補助判定としては、取得画像の中に腫瘍等の病変部が有るか否か等を表示してもよい。診断ガイドや診断補助判定を行うに当たって、推論エンジン19A、19Bを用いた推論によって行ってもよい。また、エビデンスとして記録しておくデータ(検査時の静止画や動画等)があれば、このデータを記録部16A、16Bに記録する。 Next, a diagnosis guide, diagnostic assistance judgment, etc. are performed, and evidence is recorded (S13). Here, diagnostic guides and diagnostic assistance determinations are performed when a doctor makes a general diagnosis using the endoscopes 10A and 10B. For example, as a diagnostic guide, the operation method of the endoscopes 10A and 10B may be displayed. good. Inferences using the inference engines 19A and 19B may be used to perform diagnostic guidance and diagnostic assistance determination. Also, if there is data to be recorded as evidence (still images, moving images, etc. during examination), this data is recorded in the recording units 16A and 16B.
 次に、引き継いだ情報によるガイド、類似画像判定等を行う(S15)。前述したように、引継情報があれば、第2の内視鏡10Bを大腸等の消化管の奥の方向に向けて移動させていく際に、なかなか見つけることのできない部位(患部)Reを容易に探し出すことができる。このステップでは、引継情報を用いながら、部位(患部)Reを探し出せるように、ガイドを行う。このガイドを行うにあたって、類似画像判定部22Bは、引継情報として提供される部位(患部)Reまでの画像と類似であるか否かを判定する。すなわち、部位(患部)Reの写っている画像と、撮像部10Bが取得している画像が類似しているか否かを判定し、類似している場合には、部位(患部)Re付近と判定してもよい。また、引継情報として、操作部17Aによる操作情報が含まれている場合には、操作情報に基づいて、ガイド表示を行ってもよく、また部位(患部)Re付近であるか否かを判定するようにしてもよい。 Next, guidance based on the inherited information, similar image determination, etc. are performed (S15). As described above, if there is handover information, when the second endoscope 10B is moved toward the back of the gastrointestinal tract such as the large intestine, it is possible to easily find the hard-to-find site (affected site) Re. can be found in In this step, guidance is provided so that the site (affected area) Re can be found using the handover information. In performing this guidance, the similar image determination unit 22B determines whether or not the image is similar to the image up to the site (affected area) Re provided as handover information. That is, it is determined whether or not the image showing the part (affected part) Re and the image acquired by the imaging unit 10B are similar. You may Further, when operation information by the operation unit 17A is included as the handover information, a guide display may be performed based on the operation information, and it is determined whether or not the area (affected area) is in the vicinity of Re. You may do so.
 また、引継情報を用いながら、部位(患部)Reを探し出すには、対象物を探すための挿入時操作、抜去時操作のガイドがあればよい。例えば、こんな画像を取得した時には、次はこんな画像になるように操作せよ、というガイドでもよく、あるいは、これと同様の画像を探せといったガイドでもよく、その両方を含むガイドでも良い。操作部17B中の対応する操作部を表示部14Bに表示すると共に、動かす方向を図示したり、また内視鏡の持ち方や、挿入の様子をイラストや動画で表示したり、内視鏡をどのように扱うかについて具体的な情報が表示されるようにしたり、音声で伝えるものであってもよい。 In addition, in order to search for the site (affected part) Re while using the handover information, it is sufficient if there is a guide for the operation at the time of insertion and the operation at the time of removal to search for the target object. For example, when such an image is acquired, the guide may be such that the next image should be manipulated, or the guide may be such as to search for an image similar to this, or the guide may include both. The corresponding operation part in the operation part 17B is displayed on the display part 14B, the direction of movement is illustrated, how to hold the endoscope and the state of insertion are displayed by illustrations and animations, and the endoscope is displayed. Concrete information about how to handle it may be displayed or given by voice.
 また、ステップS15では、類似画像判定に代えて、推論エンジン19Bが推論モデルを用いて、引き継いだ情報によるガイドを行ってもよい。この場合には、推論によって部位(患部)Reを探し出す。すなわち、医師は第2の内視鏡10Bを大腸の奥の方向に向けて移動させていく際に、推論によるガイドを見ながら、部位(患部)Reを探し出すことができる。 Also, in step S15, instead of similar image determination, the inference engine 19B may use the inference model to provide guidance based on inherited information. In this case, the part (affected part) Re is found by reasoning. That is, when moving the second endoscope 10B toward the back of the large intestine, the doctor can find the site (affected area) Re while looking at the inference-based guide.
 次に、重要イベント時であれば、画像とタイミング等を記録する(S17)。医師が検査を行っている際に、特徴的な動作・操作を行ったか、すなわち重要イベント時であるかを判定し、重要イベント時であれば、そのときの画像とタイミング(計時情報)を、記録部16A、16Bに記録する。重要イベントとしては、例えば、送気、吸水、注水等の操作を行った場合がある。また、丁寧に繰り返し内視鏡の先端部を動かしながら観察するような場合は、腫瘍等の患部を発見した場合等であり、重要イベントといえる。重要イベントをインデックスとして付与しておくことによって、後から画像を探し出す際の指標となる。重要イベントかどうかは、操作部17A、17Bの操作状態や、撮像部12A、12Bから取得した画像等に基づいて判定すればよい。また、内視鏡を奥まで挿入時であるか、また抜き出し時であるか等のイベントも記録しておく(図6AのS63、S67参照)。 Next, if it is an important event, the image and timing are recorded (S17). When the doctor is performing the examination, it determines whether a characteristic action or operation was performed, that is, whether it is an important event, and if it is an important event, the image and timing (timekeeping information) Record in the recording units 16A and 16B. Important events include, for example, operations such as air supply, water absorption, and water injection. In addition, when observation is carefully and repeatedly performed while moving the distal end of the endoscope, such as when an affected area such as a tumor is found, it can be said to be an important event. By assigning the important event as an index, it becomes an index when searching for the image later. Whether or not the event is an important event may be determined based on the operation states of the operation units 17A and 17B, the images acquired from the imaging units 12A and 12B, and the like. Also, events such as whether the endoscope is fully inserted or withdrawn are recorded (see S63 and S67 in FIG. 6A).
 次に、検査終了か否かを判定する(S23)。医師が内視鏡検査を終了する場合には、内視鏡10A、10Bの操作部17A、17Bによって終了操作を行う。ここでは、この終了操作がなされたか否かに基づいて判定する。この判定の結果、検査が終了していない場合には、ステップS13に戻り、検査を続行する。 Next, it is determined whether or not the inspection has ended (S23). When the doctor ends the endoscopy, the end operation is performed by the operation sections 17A and 17B of the endoscopes 10A and 10B. Here, determination is made based on whether or not this termination operation has been performed. As a result of this determination, if the inspection has not been completed, the process returns to step S13 to continue the inspection.
 ステップS23における判定の結果、検査終了の場合には、画像転送、その他情報転送を行う(S25)。ここでは、ステップS13において記録したエビデンス、ステップS17において記録した重要イベント時における画像およびタイミング、およびその他の情報を、補助装置30内の記録部35に転送する。この転送処理が終わると、このフローを終了する。 If the result of determination in step S23 is that the inspection is completed, image transfer and other information transfer are performed (S25). Here, the evidence recorded in step S<b>13 , the image and timing at the time of the important event recorded in step S<b>17 , and other information are transferred to the recording unit 35 in the auxiliary device 30 . When this transfer process ends, this flow ends.
 このように、図4の機器(内視鏡)のフローにおいては、1回目の検査を行った際に、画像を内視鏡10A内の記録部16Aに記録しておき(S11、S17参照)、検査終了後に、記録された画像を補助装置30内の記録部35に転送している。被検者(患者)が同種の検査を2回目以降で受ける場合には、引継情報として第2の内視鏡10Bに転送され(S7、S9参照)、第2の内視鏡10Bは、引継情報を用いて、部位(患部)Reの位置が分かるようにガイドする(S15参照)。このため、医師は大腸に挿入して奥まで移動させていく途中で、その位置を容易に見出すことができる。 As described above, in the flow of the device (endoscope) in FIG. 4, when the first examination is performed, the image is recorded in the recording unit 16A in the endoscope 10A (see S11 and S17). , the recorded image is transferred to the recording unit 35 in the auxiliary device 30 after the inspection is completed. When the subject (patient) undergoes the same type of examination for the second time or later, the information is transferred to the second endoscope 10B as takeover information (see S7 and S9), and the second endoscope 10B receives the takeover information. The information is used to guide the position of the site (affected area) Re (see S15). Therefore, the doctor can easily find the position while inserting it into the large intestine and moving it to the back.
 また、第1実施形態に係る機器のフローは、第1のタイミングにおいて、特定対象物までの内視鏡センサ部の位置変更動作を含む検査を行い、この検査時における連続画像の少なくとも一部を、第1のタイミングより後の第2のタイミングにおいて行う検査の際に使用する内視鏡位置変更用ガイドを生成するためのガイド用情報として取得する取得ステップと、第1のタイミングにおいて取得した挿入時取得画像と引き抜き時取得画像に基づいてガイド用情報を決定するガイド用情報決定ステップを有している。具体的には、第1のタイミングの内視鏡挿入時に得られた画像(例えば、管に沿って進行する様子や向きの変化が記録されている画像)と、引き抜き時に得られた画像(例えば、管に沿って引き抜かれる時の様子や向きの変化が記録されている画像)を比較して、その一方における画像で検出した特定対象物を他方でも検出可能として、第2のタイミングの内視鏡検査時に、挿入時でも引き抜き時でも簡単に特定対象物を検出可能としている。連続画像の一部としては、特定対象物を検出した前後の画像を想定しており、引き抜き時画像はその特定対象物の位置から、引き抜かれるまでの過程が画像で記録されている。そこで、挿入時画像にその画像変化の情報を対応させると、逆に挿入時から、特定対象物までの画像変化を判定でき、第2タイミングでは、挿入時にその結果を使用して、操作ガイドを行うことが可能となる。 Further, in the flow of the equipment according to the first embodiment, at the first timing, an inspection including a position change operation of the endoscope sensor unit up to the specific object is performed, and at least a part of the continuous images during this inspection is captured. an acquisition step of acquiring guide information for generating a guide for changing the position of the endoscope to be used in an examination performed at a second timing after the first timing; and an insertion acquired at the first timing. It has a guide information determination step of determining guide information based on the acquired image and the acquired image at the time of extraction. Specifically, an image obtained when the endoscope is inserted at the first timing (for example, an image that records the progress along the tube and changes in direction) and an image obtained when the endoscope is withdrawn (for example, , images recording changes in the state and orientation when being pulled out along the tube), and the specific object detected in one of the images is made detectable in the other, and the endoscopy at the second timing is performed. During the microscopic examination, it is possible to easily detect a specific object whether it is inserted or pulled out. Images before and after detection of the specific object are assumed as part of the continuous images, and the pull-out image records the process from the position of the specific object until it is pulled out. Therefore, by associating the information of the image change with the image at the time of insertion, it is possible to judge the image change from the time of insertion to the specific object. can be done.
 上述の説明を図4のフローに沿って説明すると、最初に内視鏡検査を行う際に(第1のタイミング)、ステップS11において、検査を開始すると、検査中の動画像(連続画像)が記録される。この連続画像の少なくとも一部(生でデータに限らず、加工されていてもよい)が、引継情報として記録される。この引継情報が、次回以降の検査時(第2のタイミング)におけるガイド用情報として使用される。すなわち、引継情報が記録されていれば、ステップS7、S9において引継情報を取得し、ステップS15において引継情報を用いてガイドを行う。なお、連続画像を取得する際に、併せて操作情報を取得し、記録しておき、引継情報として使用してもよい。また、引継情報がインフォームド・コンセントの確認結果を含むようにしてもよい。 The above explanation will be explained along the flow of FIG. 4. When the endoscopy is first performed (first timing), in step S11, when the examination is started, the moving image (continuous image) during the examination is displayed. Recorded. At least part of this continuous image (not limited to raw data, but may be processed) is recorded as handover information. This handover information is used as guide information at the next and subsequent examinations (second timing). That is, if the takeover information is recorded, the takeover information is acquired in steps S7 and S9, and guidance is performed using the takeover information in step S15. It should be noted that operation information may be acquired and recorded at the time of acquiring the continuous images, and used as handover information. Also, the handover information may include the confirmation result of informed consent.
 このように、図4に示すフローにおいては、医師が検査を行う際に、部位(患部)Reに到達するまでの道筋を示す連続画像の少なくとも一部(操作情報を追加してもよい)を記録している。この連続画像は、医師が意識しなくても記録されているものであって、この時点では特に利用されるものではない。しかし、2回目以降の検査の際には、記録されている連続画像を用いて、操作ガイドを行うようにしている。このため、2回目以降の検査では、操作に熟練していなくても、容易に部位(患部)Reに到達することができ、またガイドを利用すれば、ロボットであっても自動的に部位(患部)Reに到達することができる。 As described above, in the flow shown in FIG. 4, when a doctor performs an examination, at least a part of the continuous images (operation information may be added) showing the path to reach the site (affected area) Re is displayed. I am recording. The continuous images are recorded without the doctor's awareness, and are not particularly used at this point. However, for the second and subsequent examinations, operation guidance is performed using the recorded continuous images. Therefore, in the second and subsequent examinations, even an unskilled operator can easily reach the site (affected site) Re. Affected area) Re can be reached.
 次に、図5に示すフローチャートを用いて、院内システムやサーバやクラウド等に設けられた補助装置における動作を説明する。このフローは、補助装置30に設けられた制御部31が記録部35B等に記憶されているプログラムに基づいて、補助装置30内の各部を制御することによって実現する。 Next, using the flowchart shown in FIG. 5, the operation of auxiliary devices provided in the hospital system, server, cloud, etc. will be described. This flow is realized by the control unit 31 provided in the auxiliary device 30 controlling each unit in the auxiliary device 30 based on a program stored in the recording unit 35B or the like.
 図5に示すフローの動作が開始すると、まず、患者情報を入力する(S41)。ここでは、院内システムに患者を登録する場合に、患者の情報を入力する。患者の情報としては、例えば、氏名、性別、年齢、患者のID情報等、診察・検査情報、その他の患者に関する種々の情報を入力する。初診でなければ、診察・検査の終了後に、過去の過去の診察・検査履歴に、今回の診察・検査情報を、患者情報として追加してもよい。 When the operation of the flow shown in FIG. 5 starts, first, patient information is input (S41). Here, the patient information is entered when the patient is registered in the hospital system. As patient information, for example, name, sex, age, patient ID information, etc., examination/examination information, and other various information related to the patient are input. If it is not the first visit, the current medical examination/examination information may be added as patient information to the past medical examination/examination history after the medical examination/examination is completed.
 次に、機器連携を図り、情報を共有できるようにし、また記録等を行う(S43)。機器連携は、病院(複数の病院から構成されていてもよい)内で使用する各種機器と、補助装置30との連携を行う。すなわち、各機器と補助装置30との間で通信を行い、相互に情報を交換できるようにし、情報を共有できるようにする。また、各機器と補助装置30の間で共有した情報を記録できるようにする。 Next, the devices are coordinated so that information can be shared, and recording is performed (S43). In the device linkage, various devices used in a hospital (which may be composed of a plurality of hospitals) are linked with the auxiliary device 30 . That is, communication is performed between each device and the auxiliary device 30 so that information can be exchanged with each other and information can be shared. Also, information shared between each device and the auxiliary device 30 can be recorded.
 続いて、医師の所見等の入力があったか否かを判定する(S45)。医師は、診察や検査にあたって、まず、カルテ等に記載の過去の検査・診療履歴等を見たり、また被検者(患者)から症状等について聞いた後に、所見等をカルテに書き込んだり、また電子カルテに入力する。このステップでは、カルテに書き込む場合には、院内システムに接続されている音声入力や画像入力等に基づいて判定してもよい。また電子カルテに入力する場合には、PC端末等に入力操作がなされたか否かに基づいて判定してもよい。 Then, it is determined whether or not the doctor's findings have been input (S45). When conducting examinations and examinations, the doctor first looks at the history of past examinations and medical care described in the medical record, etc., and after asking the subject (patient) about the symptoms, etc., writes down the findings, etc. Enter in the electronic medical record. In this step, when writing to the chart, determination may be made based on voice input, image input, etc. connected to the hospital system. Further, when inputting data into an electronic medical record, determination may be made based on whether or not an input operation has been performed on a PC terminal or the like.
 ステップS45における判定の結果、医師の所見等の入力が有る場合には、入力をカルテに反映する(S49)。ここでは、医師の所見等を院内システム(補助装置30)における電子カルテに反映する。例えば、医師が書面のカルテに書き込んだ場合には、書面をスキャナ等によって読み込んでもよく、写真撮影によって入力内容を電子カルテに反映する。医師がPC端末で入力した場合には、院内システムの電子カルテに蓄積する。 As a result of the determination in step S45, if there is an input such as the doctor's findings, the input is reflected in the chart (S49). Here, the doctor's findings and the like are reflected in the electronic chart in the hospital system (auxiliary device 30). For example, when a doctor writes in a written medical chart, the written document may be read by a scanner or the like, and the input contents are reflected in the electronic medical chart by photographing. When the doctor inputs the information on the PC terminal, it is stored in the electronic chart of the hospital system.
 次に、IC(Informed Consent)や治療、処方等を行う(S51)。ここでは、医師が治療や検査を行うにあたって、IC(Informed Consent)を行う。すなわち、医師が検査や治療の内容や処方される薬について十分説明を行い、患者や被検者が良く理解し納得した上で、治療や検査を受けられるようにする。ICを行った後、医師は、治療や処方等を行う。このステップでは、例えば、内視鏡検査等の検査を行う場合もある。また、患者や被検者の画像をAIの開発等に使用できるように、診療目的以外にも使用することについて患者や被検者に説明し、同意を得る(研究開発目的で使用することに対するIC)ようにしてもよい。 Next, perform IC (Informed Consent), treatment, prescription, etc. (S51). Here, when a doctor performs treatment or examination, IC (Informed Consent) is given. In other words, the doctor should fully explain the contents of the examination and treatment and the medicines to be prescribed so that the patient and the subject can understand and consent to the treatment and examination. After performing IC, the doctor performs treatment, prescription, and the like. In this step, for example, an examination such as an endoscopy may be performed. In addition, in order to use the images of patients and subjects for AI development, etc., we will explain to patients and subjects about using them for purposes other than medical treatment and obtain their consent. IC).
 続いて、所見から引継情報を設定する(S51)。医師の所見や、治療、処方等に基づいて、引継情報を設定する。ここでは、次回、治療や検査を行う場合に、引き継いておくべき情報(引継情報)があれば、その情報を設定する。例えば、引継情報としては、大腸内視鏡を用いて、検査を行う等がある。引継情報を設定する際に、インフォームドコンセント(IC)を患者・被検者から得ていてもよく、またステップS51において、必要なICがとっておき、処理を簡略化してもよい。 Next, the handover information is set from the findings (S51). The handover information is set based on the doctor's findings, treatment, prescription, and the like. Here, if there is information to be handed over (handover information) when treatment or examination is performed next time, the information is set. For example, the handover information includes performing an examination using a colonoscope. Informed consent (IC) may be obtained from the patient/examinee when setting the handover information, and necessary IC may be saved in step S51 to simplify the process.
 ステップS51において引継情報を設定すると、またはステップS45における判定の結果、医師の所見等がない場合には、次に、診察が終了か否かを判定する(S53)。医師は診察が終了すると、院内システムに診察や検査が終了したことを入力する。 If the handover information is set in step S51, or if the result of determination in step S45 is that there are no doctor's findings, etc., it is next determined whether or not the medical examination has ended (S53). When the medical examination is completed, the doctor inputs the completion of the medical examination and examination to the hospital system.
 ステップS53における判定の結果、診察が終了した場合には、会計、予約、処方の案内等を行う(S55)。ここでは、診察が終了していることから、会計処理(費用の支払い)を行い、また次回の診察の予約が必要な場合には予約処理を行う。また患者が薬の服用が必要の場合には、処方箋が出される。また、取得画像が、研究用等に最適であるから使用に同意して貰えるか(インフォームド・コンセント)等、会計時に確認するようにしてもよい。また、会計時に確認する以外にも、スマートフォンによって同意文書を送信し、本人認証して、承諾がえられたものを電子的に記録するようにしてもよい。会計時の会計端末の操作時に承諾を得るようにしてもよい。 If the result of the determination in step S53 is that the medical examination has ended, accounting, reservation, prescription guidance, etc. are performed (S55). Here, since the medical examination has been completed, accounting processing (payment of expenses) is performed, and if a reservation for the next medical examination is required, reservation processing is performed. Also, if the patient needs to take medicine, a prescription will be issued. In addition, it may be possible to confirm at the time of payment whether the acquired image is suitable for research purposes and the like, and whether the user agrees to use it (informed consent). In addition to confirmation at the time of accounting, a consent document may be sent by a smartphone, identity authentication may be performed, and consent obtained may be electronically recorded. Consent may be obtained when operating the accounting terminal at the time of accounting.
 ステップS55において会計等を行うと、またはステップS53における判定の結果、診察が終了していない場合には、次に、推論モデル作成要求、推論要求があるか否かを判定する(S57)。ここでは、図2、図3を用いて説明したような推論モデル、すなわち、内視鏡を挿入する際でも部位(患部)Reを探し出すことができるように、操作ガイドを行うことができる推論モデル等の作成を、学習装置に要求するか否かを判定する。この学習装置は、院内システムまたはサーバに設けられた補助装置30内に設けられていてもよく、補助装置30が設けられている院内システムやサーバ以外に設けられている学習装置であってもよい。推論モデルに改良の必要性がある場合や、新たな推論モデルが必要な場合等には、推論モデルの作成を学習装置に要求する。補助装置30内の推論エンジン36において推論モデルを作成してもよく、また補助装置30の外部に設けられている学習装置に要求してもよい。 If accounting has been done in step S55, or if the result of determination in step S53 is that the examination has not been completed, then it is determined whether or not there is an inference model creation request or an inference request (S57). Here, an inference model such as that described with reference to FIGS. 2 and 3, that is, an inference model capable of performing operation guidance so as to locate the site (affected area) Re even when inserting the endoscope It is determined whether or not to request the learning device to create such as. This learning device may be provided in an auxiliary device 30 provided in an in-hospital system or server, or may be a learning device provided in addition to the in-hospital system or server in which the auxiliary device 30 is provided. . When the inference model needs to be improved, or when a new inference model is required, etc., the learning device is requested to create the inference model. An inference model may be created in the inference engine 36 within the auxiliary device 30 or may be requested from a learning device provided outside the auxiliary device 30 .
 また、ステップS57においては、推論要求を行うか否かについても判定する。ここでは、ステップS53において診察が終了していないと判定された場合であって、内視鏡検査が続行中の場合であって、図2(b)、図3(b)を用いて説明したように、操作ガイドを行うための推論を行うか否かを判定する。この判定の結果、推論モデル作成要求がなく、また推論要求がない場合には、ステップS41に戻る。 Also, in step S57, it is determined whether or not to make an inference request. Here, the case where it is determined in step S53 that the medical examination has not been completed and the endoscopy is being continued has been described with reference to FIGS. , it is determined whether or not to perform inference for operation guidance. As a result of this determination, if there is no inference model creation request and there is no inference request, the process returns to step S41.
 ステップS57における判定の結果、推論モデル作成要求があった場合、または推論要求があった場合には、推論モデルを作成し、または推論を行う(S59)。ここでは、補助装置30内の推論エンジン36等の学習装置が、記録部35に記録されている画像データに基づいて作成された教師データを用いて、推論モデルを作成する。画像データが不足する場合には、他のサーバ等から画像データを収集してもよい。補助装置30内の推論エンジン36は、入力部32に入力された画像P1を用いてターゲット情報Itaの推論を行う。なお、操作ガイドを行うための推論は、第2の内視鏡10B内の推論エンジン19Bが行う。第2の内視鏡10Bが推論エンジンを備えていない場合には、補助装置30に推論を依頼してもよい。 As a result of the determination in step S57, if there is an inference model creation request or if there is an inference request, an inference model is created or inference is performed (S59). Here, a learning device such as the inference engine 36 in the auxiliary device 30 creates an inference model using teacher data created based on image data recorded in the recording unit 35 . If image data is insufficient, image data may be collected from another server or the like. The inference engine 36 in the auxiliary device 30 uses the image P1 input to the input unit 32 to infer the target information Ita. Inference for performing operation guidance is performed by the inference engine 19B in the second endoscope 10B. If the second endoscope 10B does not have an inference engine, the auxiliary device 30 may be requested to make an inference.
 また、推論エンジン36等の学習装置は、上述のターゲット情報Itaを推論するための推論モデルに限らず、第2の内視鏡10B内の推論エンジン19Bが、検査画像と、再検査時補助画像群P4と類似しているか否かを判定するための推論モデルを生成してもよい。この場合、部位(患部)Reの位置を推論できる推論モデルを生成してもよい。ここで作成された推論モデルは、通信部34を通じて、第2の内視鏡10Bに送信される。この推論モデル作成、および推論の詳しい動作は図6を用いて後述する。推論モデルの作成または推論を行うと、ステップS41に戻る。 In addition, the learning device such as the inference engine 36 is not limited to the inference model for inferring the target information Ita described above. An inference model may be generated for determining similarity to group P4. In this case, an inference model that can infer the position of the site (affected area) Re may be generated. The inference model created here is transmitted to the second endoscope 10B through the communication unit 34 . Detailed operation of this inference model creation and inference will be described later with reference to FIG. Once the inference model is created or inferred, the process returns to step S41.
 このように、院内システム等のフローでは、医師の行う所見等から引継情報の設定を行っている(S51参照)。また、図2(b)を用いて説明したような操作ガイドを行う際に使用する推論モデルの作成を行い、またターゲット情報Itaの推論を行っている(S59)。 In this way, in the flow of the hospital system, etc., the handover information is set based on the doctor's findings (see S51). In addition, an inference model to be used for operation guidance as described with reference to FIG. 2B is created, and target information Ita is inferred (S59).
 次に、図6Aおよび図6Bに示すフローチャートを用いて、ステップS59(図5参照)の推論モデル作成、推論における動作を説明する。このフローは、院内システムやサーバ等に設けられた補助装置30内の制御部31が記録部35B等に記憶されているプログラムに基づいて、補助装置30内の各部を制御することによって実現する。 Next, using the flow charts shown in FIGS. 6A and 6B, the operations in inference model creation and inference in step S59 (see FIG. 5) will be described. This flow is realized by controlling each part in the auxiliary device 30 based on the program stored in the recording unit 35B or the like by the control unit 31 in the auxiliary device 30 provided in the hospital system, server, or the like.
 図6A、図6Bに示すフローの動作が開始すると、まず、推論モデル作成用のイベント付きの画像コマがあるか否かを判定する(S61)。本実施形態における推論モデルの作成にあたっては、イベントがあった場合には、画像コマにそのイベントが関連付けて記録されている(図4のS17参照)。イベントは、例えば、部位(患部)Reが見いだされた場合や、内視鏡において送気操作、注水操作等の操作が行われた場合である。本実施形態においては、図2(a)(b)を用いて説明したように、内視鏡挿入時には部位(患部)Reを見出し難い場合であっても、内視鏡引抜時には、部位(患部)Reを簡単に見出すことができる場合がある。そこで、このような場合にも、画像にイベントを関連付けておく。 When the operation of the flow shown in FIGS. 6A and 6B starts, it is first determined whether or not there is an image frame with an event for creating an inference model (S61). When creating an inference model in this embodiment, if there is an event, the event is recorded in association with the image frame (see S17 in FIG. 4). The event is, for example, when a site (affected part) Re is found, or when an operation such as an air supply operation or a water injection operation is performed using an endoscope. In the present embodiment, as described with reference to FIGS. 2A and 2B, even if it is difficult to find the site (affected site) Re when the endoscope is inserted, the site (affected site) Re can be detected when the endoscope is withdrawn. ) Re can be easily found. Therefore, even in such a case, an event is associated with the image.
 また、上述の場合と逆に、挿入時に部位(患部)Reを見出す等、イベントが発生する場合があり、このイベントに対応する画像を引抜時に見出す場合もある。さらに、内視鏡の挿入時および引抜時に限らず、内視鏡を使用している際に、イベントが発生する場合があり、この場合も画像にイベントを関連付けておく。これらの場合において、対応する画像を推論できるようにするために、イベントが関連付けられている画像コマを探し出せるようにもしている。なお、イベントを関連付ける際に、内視鏡を奥の方向に挿入する挿入時か、または内視鏡を奥の方から引き出す抜去時であるかを記録しておく。 In addition, contrary to the above case, an event may occur such as finding the site (affected part) Re during insertion, and an image corresponding to this event may be found during withdrawal. Furthermore, an event may occur not only when the endoscope is inserted and withdrawn, but also when the endoscope is used. In this case as well, the event is associated with the image. In these cases, it is also possible to locate the image frame with which the event is associated in order to be able to infer the corresponding image. When associating the event, it is recorded whether the endoscope is inserted in the depth direction or the endoscope is pulled out from the depth direction.
 ステップS61における判定の結果、イベント付きの画像コマがあった場合には、イベントが抜去時に検出したか否か判定する(S63)。ここでは、画像コマに添付されているイベント情報に基づいて、すなわち内視鏡を奥の方向へ挿入した後、引き抜く際にイベントを検出した画像コマであるか否かを判定する。 If the result of determination in step S61 is that there is an image frame with an event, it is determined whether or not the event was detected at the time of removal (S63). Here, based on the event information attached to the image frame, that is, after inserting the endoscope in the depth direction, it is determined whether or not the event is detected in the image frame when the endoscope is pulled out.
 ステップS63における判定の結果、イベントが抜去時であった場合には、次に、挿入過程画像で対応画像コマを判定し、アノテーションし教師データ化する(S65)。内視鏡を抜き出す際に部位等を示すイベントがあったことから、内視鏡を挿入する過程において、イベント(例えば、腫瘍等の部位(患部)Re)が記録された画像コマに対応する画像を探し出す。画像コマは、記録部35に記録されていることから、制御部31は、この記録されている画像の中から対応する画像コマを検索する。前述したように、抜去時にイベントを発見し易いが、挿入時にはイベントを発見し難い場合がある。この発見し難い状況においても、イベントを発見するための推論モデルを作成できるようにする。このため、挿入過程画像の中において、画像コマが見つかれば、イベントに対応する画像であることをアノテーションし、教師データとする。 If the result of determination in step S63 is that the event is the time of removal, then the corresponding image frame is determined from the insertion process image, annotated, and converted into teacher data (S65). Since there was an event indicating the site when the endoscope was pulled out, the image corresponding to the image frame in which the event (for example, the site (affected area) Re, such as a tumor) was recorded in the process of inserting the endoscope find out Since the image frame is recorded in the recording unit 35, the control unit 31 searches for the corresponding image frame from the recorded images. As described above, it is easy to find an event during removal, but it may be difficult to find an event during insertion. To create an inference model for discovering an event even in this difficult-to-find situation. Therefore, if an image frame is found in the insertion process image, it is annotated to indicate that it is an image corresponding to an event, and is used as teacher data.
 ステップS63における判定の結果、イベントが抜去時に検出されていない場合には、次に、イベントが挿入時に検出されたか否か判定する(S67)。ここでは、画像コマに添付されているイベント情報に基づいて、挿入時、すなわち内視鏡を奥の方向へ挿入している際に取得した画像コマの中において、イベントが関連付けられた画像であるか否かを判定する。 If the result of determination in step S63 is that the event was not detected during removal, it is next determined whether or not the event was detected during insertion (S67). Here, based on the event information attached to the image frame, it is an image associated with an event among the image frames acquired at the time of insertion, that is, when the endoscope is being inserted in the depth direction. Determine whether or not
 ステップS67における判定の結果、イベントが挿入時に検出された場合には、抜去時画像で対応画像コマ判定を行い、アノテーションを付与し、教師データを作成する(S69)。内視鏡を挿入時の画像に部位等を示すイベントがあったことから、内視鏡を抜去する過程の画像の中において、イベント(例えば、腫瘍等の部位(患部)Reの発見)が記録された画像コマに対応する画像を探し出す。画像コマは、記録部35に記録されていることから、制御部31は、この記録されている画像の中から対応する画像コマを検索する。このケースは、ステップS63、S65の場合と逆である。抜去時の過程画像の中において、画像コマが見つかれば、イベントに対応する画像であることをアノテーションし、教師データとする。 As a result of the determination in step S67, if an event is detected at the time of insertion, corresponding image frame determination is performed with the image at the time of removal, annotation is added, and teacher data is created (S69). Since there was an event indicating the site, etc. in the image when the endoscope was inserted, an event (for example, the discovery of a site such as a tumor (affected area) Re) was recorded in the images during the process of removing the endoscope. Search for an image corresponding to the image frame that has been detected. Since the image frame is recorded in the recording unit 35, the control unit 31 searches for the corresponding image frame from the recorded images. This case is opposite to the case of steps S63 and S65. If an image frame is found in the process images at the time of extraction, it is annotated to indicate that it is an image corresponding to an event, and is used as teacher data.
 ステップS67における判定の結果、イベントが挿入時に検出されていない場合には、同様のイベントが記録されたはずの別のコマを教師データ化する(S71)。内視鏡を体内に挿入して検査する場合には、奥の方向へ挿入するときと、奥の方から引き抜くとき以外に、挿入するのでもなく、引き抜くのでもない場合がある。例えば、胃の中の様子を観察する等の場合である。この場合には、同様のイベント(例えば、腫瘍等の部位(患部)Reの発見)が記録されるコマを探しだすための推論モデル作成用の教師データを作成する。このために、イベントが付された画像と同様の画像を検索し、この画像を教師データ化する。 If the result of determination in step S67 is that no event has been detected at the time of insertion, another frame in which a similar event should have been recorded is turned into teacher data (S71). When an endoscope is inserted into the body for inspection, there are cases where the endoscope is neither inserted nor withdrawn, except when it is inserted inwards and when it is withdrawn from the inside. For example, it is a case of observing the inside of the stomach. In this case, teacher data for creating an inference model for finding frames in which a similar event (for example, discovery of a site (affected area) Re such as a tumor) is recorded is created. For this purpose, an image similar to the image to which the event is attached is retrieved, and this image is converted into training data.
 ステップS65、S69、S71において教師データを作成すると、次に、「対応画像コマ」を入力すると、「イベント」の推論出力ができる推論モデルを作成する(S73)。ここでは、ステップS65、S69、S71において作成した教師データを用いて、推論エンジン36が推論モデルを生成する。推論モデルの一般的な生成方法は図3(a)を用いて説明した通りであり、対応画像のコマを入力すると、イベントの推論結果が出力される。この推論モデルは、具体的には、例えば、内視鏡の挿入時の画像を入力すると、抜去時(引抜時)に発見される部位(患部)Reに対応する画像を、推論出力する。 After creating the teacher data in steps S65, S69, and S71, next, when the "corresponding image frame" is input, an inference model capable of inferring an "event" is created (S73). Here, the inference engine 36 generates an inference model using the teacher data created in steps S65, S69, and S71. A general method of generating an inference model is as described with reference to FIG. Specifically, for example, when an image at the time of insertion of the endoscope is input, this inference model outputs an image corresponding to the site (affected part) Re found at the time of withdrawal (at the time of withdrawal).
 ステップS73において推論モデルを生成すると、次に、信頼性が所定値より高いかどうか、すなわち信頼性がOKか否かを判定する(S75)。この判定は、予め推論結果が分かっている画像を入力した場合に、予め分かっている推論結果と一致する割合が所定より高いかどうかに基づいて判定する。 After generating the inference model in step S73, it is next determined whether or not the reliability is higher than a predetermined value, that is, whether or not the reliability is OK (S75). This determination is made based on whether, when an image whose inference result is known in advance is input, the rate of matching with the inference result known in advance is higher than a predetermined value.
 ステップS75における判定の結果、信頼性がOKでない場合には、教師データの取捨選択等を行う(S77)。信頼性が低いことから、ステップS73において生成された推論モデルは不完全であり、信頼性が高くなるように、教師データの母集団を変更する。例えば、信頼性を低下させている教師データを排除してもよく、また信頼性が向上するように、別の教師データを追加してもよい。また、教師データを変更する方法以外にも、例えば、ニューラル・ネットワークの中間層の配置や結合度を変更する等の処理を行ってよい。教師データの取捨選択等を行うと、ステップS63に戻り、推論モデルの生成を続行する。 If the result of determination in step S75 is that the reliability is not OK, selection of teacher data is performed (S77). Since the reliability is low, the inference model generated in step S73 is incomplete, and the population of teacher data is changed so as to increase the reliability. For example, teacher data that reduces reliability may be removed, and other teacher data may be added to improve reliability. In addition to the method of changing the training data, for example, processing such as changing the arrangement and degree of coupling of the intermediate layers of the neural network may be performed. After selecting the teacher data, etc., the process returns to step S63 to continue the generation of the inference model.
 ステップS75における判定の結果、信頼性がOKの場合には、推論モデルの送信等を行う(S79)。ここでは、内視鏡10A、第2の内視鏡10B等の内視鏡の推論エンジン19A、19Bに推論モデルを送信する。推論モデルを設定した推論エンジン19A、19Bは、撮像部12A、12Bによって取得した画像を入力することによって、部位(患部)Re等に対応する位置を容易に見出すことができる。また、補助装置30は、この推論モデルを保持し、通信部等を通じて入力した画像に対して推論を行ってもよい。推論モデルの送信等を行うち、ステップS63に戻る。 If the result of determination in step S75 is that the reliability is OK, the inference model is transmitted (S79). Here, the inference model is transmitted to the inference engines 19A and 19B of endoscopes such as the endoscope 10A and the second endoscope 10B. The inference engines 19A and 19B that have set the inference model can easily find the position corresponding to the site (affected area) Re and the like by inputting the images acquired by the imaging units 12A and 12B. Also, the auxiliary device 30 may hold this inference model and perform inference on the image input through the communication unit or the like. After transmitting the inference model, etc., the process returns to step S63.
 ステップS61に戻り、このステップでの判定の結果、推論モデル作成用のイベント付の画像コマがない場合には、次に、推論を行うか否かを判定する(S81)。例えば、内視鏡10Aが画像P1を取得し、入力部32が画像P1を入力すると、この画像P1を用いて推論し、ターゲット情報Itaを推論し、出力する。このターゲット情報Itaを用いて、再検査時補助画像群P4が作成され、第2の内視鏡10Bは検査を行うことができる。このステップでは、ターゲット情報Itaの推論等、補助装置30の推論エンジン36が推論を行うか否かを判定する。 Returning to step S61, if the result of determination in this step is that there is no image frame with an event for creating an inference model, then it is determined whether or not to perform inference (S81). For example, when the endoscope 10A acquires the image P1 and the input unit 32 inputs the image P1, the image P1 is used to infer and output the target information Ita. Using this target information Ita, a reexamination auxiliary image group P4 is created, and the second endoscope 10B can perform an examination. In this step, it is determined whether or not the inference engine 36 of the auxiliary device 30 performs inference such as inference of the target information Ita.
 ステップS81における判定の結果、推論を行う場合には、画像を取得し、推論結果を出力する(S83)。推論は、一般的には図3(b)を用いて説明した通りであり、このステップでは、補助装置30は、内視鏡10Aから出力される画像P1を入力し、この画像P1を推論エンジン36の入力層に入力する。推論エンジン36は推論結果を出力層から出力する。 As a result of the determination in step S81, if inference is to be performed, an image is acquired and the inference result is output (S83). The inference is generally as described with reference to FIG. Input to 36 input layers. The inference engine 36 outputs inference results from the output layer.
 次に、推論結果を送信する(S85)。ここでは、推論エンジン36の出力層から出力された推論結果(ターゲット情報Ita)を含む推論補助画像群P4を、第2の内視鏡10Bに送信する。前述したように、第2の内視鏡10Bは、推論補助画像群P4を用いて、部位(患部)Reを見出す。 Next, the inference result is sent (S85). Here, an inference auxiliary image group P4 including the inference result (target information Ita) output from the output layer of the inference engine 36 is transmitted to the second endoscope 10B. As described above, the second endoscope 10B uses the inference auxiliary image group P4 to find the site (affected site) Re.
 ステップS85において推論結果の送信等を行うと、またはステップS81における判定の結果、推論でない場合には、ステップS61に戻る。 If the inference result is transmitted in step S85, or if the result of determination in step S81 is not inference, the process returns to step S61.
 このように推論モデル作成、推論のフローにおいては、内視鏡を引き抜く(抜去)方向に向けて移動させる際にイベント(例えば、腫瘍等の部位(患部)Reの発見)があると、このときの画像にイベントを関連付けておく(図4のS17参照)。そして、内視鏡を奥に向けて挿入する方向に移動させるときの画像の中に、イベントが関連付けられた画像に対応する画像を検索し、この画像にアノテーションを施して教師データとしている(S65参照)。この教師データを多数用いて推論モデルを生成している(S73参照)。本実施形態においては、抜去時に限らず、挿入時にイベントを検出した画像を用いて推論モデルを作成しており、さらに、抜去時および挿入時でもないときにイベントを検出した画像を用いて推論モデルを作成するようにしている(S67、S69、S71参照)。 In this way, in the flow of inference model creation and inference, when an event (for example, discovery of a site (affected area) Re such as a tumor) occurs when the endoscope is moved in the direction of withdrawal (extraction), at this time image is associated with an event (see S17 in FIG. 4). Then, an image corresponding to the image associated with the event is searched among the images when the endoscope is moved in the insertion direction toward the back, and this image is annotated and used as teacher data (S65). reference). An inference model is generated using a large amount of this teacher data (see S73). In the present embodiment, an inference model is created using an image in which an event is detected not only at the time of removal but also at the time of insertion. is created (see S67, S69, and S71).
 作成された推論モデルを用いて、内視鏡10Aによって取得された画像P1を推論エンジン36に出力して推論することによって、例えば、引抜時には簡単に見出すことのできが、挿入時には簡単に見出すことのできない部位(患部)Reを、挿入時に簡単に見出すことができるようになる。 Using the created inference model, the image P1 acquired by the endoscope 10A is output to the inference engine 36 for inference. It becomes possible to easily find the site (affected area) Re where the injection cannot be performed.
 図4ないし図6のフローは、第1のタイミングにおいて、特定対象物までの内視鏡センサ部の位置変更動作を含む検査を行い、この検査時における連続画像の少なくとも一部を、第1のタイミングより後の第2のタイミングにおいて行う検査の際に使用する内視鏡位置変更用ガイドを生成するためのガイド用情報として取得する取得ステップ(例えば、図4のS11参照)と、第1のタイミングにおいて取得した連続画像の少なくとも一部に基づいて、ガイド用情報を決定するガイド用情報決定ステップ(例えば、図4のS15参照)を有している。すなわち、1回目(第1のタイミング)の内視鏡検査において、撮像素子等を含む内視鏡センサ部が体内に挿入されている間に、その位置が変更され、撮像素子等のセンサ部から連続画像を取得する。この取得した連続画像に基づいて、次回の検査の際(第2のタイミング)に、目的とする部位に到達できるように、内視鏡の位置変更を行うためのガイド用情報を生成することができる。 In the flow of FIGS. 4 to 6, at a first timing, an inspection including a position change operation of the endoscope sensor unit up to a specific object is performed, and at least a part of the continuous images during this inspection is transferred to the first timing. an acquisition step (see, for example, S11 in FIG. 4) of acquiring guide information for generating a guide for changing the position of an endoscope to be used in an examination performed at a second timing after the timing; It has a guide information determination step (for example, see S15 in FIG. 4) for determining guide information based on at least part of the consecutive images acquired at the timing. That is, in the first (first timing) endoscopic examination, the position of the endoscope sensor unit including the image pickup device is changed while the endoscope sensor unit including the image pickup device and the like is inserted into the body. Acquire sequential images. Guide information for changing the position of the endoscope so that the target site can be reached at the next examination (second timing) can be generated based on the acquired continuous images. can.
 上述のガイド用情報は、第2のタイミングで行われる内視鏡センサ部の挿入時に、特定対象物に対応する画像を取得可能な位置にまで位置変更動作が行われるように、特定対象物を特定可能にする情報である。すなわち、ガイド用情報は、2回目以降の検査の際(第2のタイミング)において、1回目の検査の際に到達した特定対象物の画像を取得した位置に移動させることのできる情報である。また、上述の特定対象物を特定可能にする情報は、AIを用いて推論される類似画像判定用の情報である(例えば、図1Aの画像P1等)。本実施形態においては、撮像部12Aにおいて取得した画像P1が類似画像判定のために推論に使用される。 The above-mentioned guide information is such that when the endoscope sensor section is inserted at the second timing, the specific target is moved to a position where an image corresponding to the specific target can be acquired. Identifiable information. That is, the guide information is information that can move the image of the specific object reached during the first inspection to the acquired position during the second and subsequent inspections (second timing). Further, the information that enables the above-described specific object to be specified is information for similar image determination that is inferred using AI (for example, image P1 in FIG. 1A, etc.). In this embodiment, the image P1 acquired by the imaging unit 12A is used for inference for similar image determination.
 上述のガイド用情報は内視鏡位置変更情報に基づいて決定し、この内視鏡位置変更情報は、第1のタイミングにおいて得られた挿入方向と抜去方向の内視鏡画像情報の相互参照によって得られる情報である。例えば、本実施形態においては、抜去時に発見できる部位(患部)Reに対応する位置を、挿入時の画像の中から、相互参照することによって取得するようにしている(例えば、図1Aの画像P13とP17、図2(a)(b)参照)。また、第1のタイミングにおいて取得した連続画像の少なくとも一部に基づく引用情報を記録しておき(例えば、図4のS11参照)、この引用情報は、インフォームド・コンセントに関する確認結果を含むようにしてもよい(例えば、図5のS49参照)。 The guide information described above is determined based on the endoscope position change information, and this endoscope position change information is obtained by cross-referencing endoscope image information in the insertion direction and the withdrawal direction obtained at the first timing. It is information that can be obtained. For example, in the present embodiment, the position corresponding to the site (affected site) Re that can be found at the time of removal is acquired from the images at the time of insertion by cross-referencing (for example, image P13 in FIG. 1A). and P17, see FIGS. 2(a) and 2(b)). In addition, citation information based on at least part of the continuous images acquired at the first timing is recorded (see, for example, S11 in FIG. 4), and this citation information includes confirmation results regarding informed consent. (See S49 in FIG. 5, for example).
 図4ないし図6のフローでは、内視鏡検査時に、次回の内視鏡の挿入時のガイドとなる情報を取得する取得ステップを有している。すなわち、1回目の内視鏡検査の際に、挿入時から抜去時までの画像を記録している(例えば、図1Aの画像P1、図4のS11、S17参照)。この画像は、部位(患部)Reへのガイド情報を作成するための推論モデルの生成の際に使用される(図5のS59、図6参照)。上述の取得ステップは、特定被検者の内視鏡検査の際に、内視鏡の操作に関する操作情報(後述する図7Aの画像P5、操作情報Iop等参照)をさらに取得する。また、取得ステップは、内視鏡検査時において、第1の観察方法(例えば、内視鏡の挿入時)および第2の観察方法(例えば、内視鏡の抜去時)において、操作情報を取得する。 The flow of FIGS. 4 to 6 has an acquisition step for acquiring information that will serve as a guide when inserting the endoscope next time during the endoscopy. That is, during the first endoscopic examination, images from the time of insertion to the time of withdrawal are recorded (see, for example, image P1 in FIG. 1A and S11 and S17 in FIG. 4). This image is used when generating an inference model for creating guide information to the site (affected area) Re (see S59 in FIG. 5 and FIG. 6). The acquisition step described above further acquires operation information (see image P5 in FIG. 7A, operation information Iop, etc., which will be described later) regarding the operation of the endoscope during the endoscopy of the specific subject. Also, the acquiring step acquires operation information in a first observation method (for example, when inserting an endoscope) and a second observation method (for example, when removing an endoscope) during an endoscopy. do.
 また、図4ないし図6のフローでは、連続画像の少なくとも一部および/または操作情報を用いて、第1の観察方法および第2の観察方法のいずれか一方を行う際に見出される患部位置を、他方の観察方法を行う際に、患部位置を見出すための補助情報を出力する補助情報取得ステップを有している(例えば、図1Aのターゲット情報Ita、図1Bの再検査時補助画像群P4、図4のS15、図5のS59等参照)。この補助情報取得ステップは、内視鏡検査時に第1の観察方法および第2の観察方法によって取得した患部画像および/または操作情報を用いて、患部位置を見出すための補助情報を推論によって出力するための推論モデルを生成する(例えば、図1Aの推論エンジン36、図5のS59等参照)。 In addition, in the flow of FIGS. 4 to 6, at least part of the continuous images and/or the operation information are used to determine the position of the affected part found when performing either the first observation method or the second observation method. , has an auxiliary information acquisition step of outputting auxiliary information for finding the position of the affected area when performing the other observation method (for example, the target information Ita in FIG. 1A, the reexamination auxiliary image group P4 in FIG. 1B , S15 in FIG. 4, S59 in FIG. 5, etc.). This auxiliary information acquisition step uses the affected area image and/or operation information acquired by the first observation method and the second observation method during endoscopy to output auxiliary information for finding the affected area position by reasoning. (See, for example, the inference engine 36 in FIG. 1A, S59 in FIG. 5, etc.).
 また、図4ないし図6のフローでは、特定被検者の内視鏡検査で得られた検査結果動画のコマに基づいて、処置が必要とされる患部が撮影された患部位置コマを動画内コマ中における位置として判定する判定ステップを有している(例えば、図1Bの再検査時補助画像群P4、図4のS15等参照)。また、動画中コマ中の患部コマ位置に従って、特定被検者に対する内視鏡再検査時に患部の位置を再度観察するために挿入位置をガイドする挿入補助情報を生成する再挿入補助情報生成ステップを有している(例えば、図1Bの再検査時補助画像群P4、図4のS15等参照)。 In addition, in the flow of FIGS. 4 to 6, based on the frames of the inspection result video obtained by the endoscopy of a specific subject, the affected part position frame in which the affected part requiring treatment is photographed is included in the video. It has a determination step of determining the position in the frame (see, for example, the group of supplementary images P4 for reexamination in FIG. 1B, S15 in FIG. 4, etc.). A re-insertion auxiliary information generating step for generating insertion auxiliary information for guiding the insertion position in order to re-observe the position of the affected part during re-examination of the specific subject according to the position of the affected part frame in the frame of the moving image. (See, for example, the reexamination auxiliary image group P4 in FIG. 1B and S15 in FIG. 4).
 上述の再挿入補助情報生成ステップは、さらに類似画像を推論する類似画像推論ステップを有している(例えば、図1Bの再検査時補助画像群P4、推論エンジン19B、図4のS15等参照)。この類似画像推論ステップは、観察対象臓器の変形による患部画像の変化を推論する(例えば、図1Bの再検査時補助画像群P4、推論エンジン19B、図4のS15等参照)。類似画像推論ステップは、内視鏡挿入時と抜去時、送気動作、送水動作、吸引動作、操作速度の変化、姿勢の変化によって変形した観察対象臓器の画像の対応関係から学習した推論モデルを利用する(例えば、図1Bの再検査時補助画像群P4、推論エンジン19B、図4のS15、図5のS59、図6等参照)。 The reinsertion auxiliary information generation step further has a similar image inference step for inferring similar images (for example, refer to the reexamination auxiliary image group P4 in FIG. 1B, the inference engine 19B, S15 in FIG. 4, etc.). . This similar image inference step infers a change in the diseased part image due to deformation of the observed organ (see, for example, the reexamination auxiliary image group P4 in FIG. 1B, the inference engine 19B, S15 in FIG. 4, etc.). In the similar image inference step, an inference model learned from the corresponding relationships of images of the observed organ deformed due to insertion and withdrawal of the endoscope, air supply, water supply, suction, changes in operation speed, and changes in posture is generated. (See, for example, the reexamination auxiliary image group P4 in FIG. 1B, the inference engine 19B, S15 in FIG. 4, S59 in FIG. 5, and FIG. 6).
 また、図4ないし図6のフローでは、複数の観察方法で撮像された特定対象物の画像を取得する画像取得ステップを有している(例えば、図1Aの画像P1、図4のS11、S17等参照)。複数の観察方法で得られた画像のそれぞれに、特定対象物の画像の特徴をアノテーションするステップを有している(例えば、図6AのS65、S69、S71等参照)。一方のアノテーション部位に相当する画像を入力とし、他方のアノテーション部位に相当する画像を出力するように学習するステップを有している(例えば、図3(a)、図6AのS73等参照)。 4 to 6 has an image acquisition step of acquiring images of a specific object captured by a plurality of observation methods (for example, image P1 in FIG. 1A, S11 and S17 in FIG. 4). etc.). Each image obtained by a plurality of observation methods has a step of annotating the characteristics of the image of the specific object (for example, see S65, S69, S71, etc. in FIG. 6A). It has a step of learning so that an image corresponding to one annotation site is input and an image corresponding to the other annotation site is output (for example, see FIG. 3A, S73 in FIG. 6A, etc.).
 以上、説明したように、第1実施形態に係る内視鏡システムは、特定被検者の第1の内視鏡による検査で得られた患部が撮影された患部画像をもとに、異なる複数の観察方法で得られた同一若しくは類似の患部画像で学習された類似画像推論モデルを有する類似画像推論部(例えば、推論エンジン19B)を有している。具体的には、推論エンジン19Bに設定される推論モデルは、異なる複数の観察方法(例えば、挿入時と抜去時における観察)において得られた患部画像(例えば、画像P2における患部画像P23とP26、画像P3における患部画像P33とP36)を用いて学習することによって生成されている。この内視鏡システムでは、特定被検者の患部画像を用いて学習して推論モデルを生成してもよく、または、特定被検者の患部画像に限らず、特定被検者以外の患部画像を用いて、学習を行い、推論モデルを生成してもよい。後者の場合には、多数の患部画像を収集することができる。また、第1実施形態に係る内視鏡システムは、特定被検者に対する第2の内視鏡による再検査時に患部の位置を再度観察するために、再検査時の画像を類似画像推論部(例えば、推論エンジン19B)に入力して得られた結果に従って、再確認位置をガイドする挿入補助情報を生成する再挿入補助情報生成部(例えば、制御部19B)を有している。 As described above, the endoscope system according to the first embodiment generates a plurality of different images based on an affected area image of the affected area obtained by an examination of a specific subject using a first endoscope. has a similar image inference unit (for example, inference engine 19B) having a similar image inference model learned with the same or similar affected area images obtained by the observation method of . Specifically, the inference model set in the inference engine 19B includes affected area images (eg, affected area images P23 and P26 in image P2, It is generated by learning using the diseased part images P33 and P36) in the image P3. In this endoscope system, an inference model may be generated by learning using the affected area image of the specific subject, or not only the affected area image of the specified subject but also the affected area image of other than the specified subject. may be used to train and generate an inference model. In the latter case, multiple lesion images can be collected. In addition, the endoscope system according to the first embodiment uses the similar image inference unit ( For example, it has a reinsertion auxiliary information generation unit (for example, the control unit 19B) that generates insertion auxiliary information that guides the reconfirmation position according to the result obtained by inputting to the inference engine 19B).
 次に、図7Aないし図11を用いて、本発明の第2実施形態について説明する。第1実施形態に係る内視鏡システムでは、内視鏡を体内に挿入して観察する際に、奥の方から引き抜きながら移動させるときには見つけやすいが、奥の方に向けて移動させるときには見つけ難い部位(患部)Reを、奥の方に向けて移動させるときでも見つけやすくなるようにしている。このために、第1実施形態では、奥に向けて挿入し、奥から引き抜くときの画像を記録しておき、奥に向けて挿入する際に部位(患部)Reに対応する位置を見出すためのターゲット情報Ita出力できるようにしていた。これに対して、第2実施形態に係る内視鏡システムでは、奥に向けて挿入したときの画像に加えて操作情報を記録しておき、奥に向けて挿入する際に部位(患部)Reに対応する位置を見出すための操作情報Iopfを出力できるようにしている。なお、本実施形態においても、内視鏡検査時に、次回の内視鏡挿入時のガイドとなる情報を取得するようにしている。 Next, a second embodiment of the present invention will be described using FIGS. 7A to 11. FIG. In the endoscope system according to the first embodiment, when the endoscope is inserted into the body for observation, it is easy to find when the endoscope is moved while pulling it out from the back, but it is difficult to find when it is moved toward the back. The part (affected part) Re is made easy to find even when it is moved toward the back. For this reason, in the first embodiment, an image is recorded when the patient is inserted toward the back and pulled out from the back, and a position corresponding to the site (affected part) Re is found when the body is inserted toward the back. Target information Ita can be output. In contrast, in the endoscope system according to the second embodiment, operation information is recorded in addition to the image when the endoscope is inserted toward the back, and when the endoscope system is inserted toward the back, the site (affected area) Re The operation information Iopf for finding the position corresponding to is output. Also in the present embodiment, information that serves as a guide for the next insertion of the endoscope is acquired during the endoscopy.
 また、本実施形態においても、実際には、その時の検査そのものには利用しないかもしれないが、その内視鏡検査時に、次回の内視鏡の検査のことを見越して情報を取得している。すなわち、次回の挿入時のガイドとなるであろう情報を取得しておく取得ステップを有している。言い換えると、従来の内視鏡検査においては、目的とする部位(患部)Reを観察できれば十分であり、その部位に至るまでの途中の画像は取得したとしても利用されることはなかった。しかし、本実施形態においても、次回の検査時にガイド用として取得し、記録するようにしている。 Also in the present embodiment, information may not actually be used for the examination itself at that time, but information is acquired at the time of the endoscopic examination in anticipation of the next endoscopic examination. . That is, it has an acquisition step for acquiring information that will serve as a guide for the next insertion. In other words, in the conventional endoscopic examination, it is sufficient to observe the target site (affected site) Re, and even if images were acquired on the way to that site, they were not used. However, even in this embodiment, it is acquired and recorded as a guide at the time of the next examination.
 図7Aおよび図7Bは、第2実施形態に係る内視鏡システムの構成を示すブロック図である。この内視鏡システムは、第1実施形態と同様に、内視鏡10A、院内システム、サーバ等に設けられた補助装置30、第2の内視鏡10Bから構成される。第2実施形態においても、内視鏡10A、第2の内視鏡10Bは、大腸内視鏡であり、被検者(患者)に対して大腸内視鏡検査を行う場合を例に挙げて説明する。内視鏡10Aは、被検者(患者)の1回目の検査に使用する内視鏡であり、第2の内視鏡10Bは、被検者(患者)の2回目以降の検査に使用する内視鏡として説明する。内視鏡10Aと第2の内視鏡10Bは、同一機種の内視鏡、または全く同一の機器であってもよいが、ここでも異なる機種として説明する。 7A and 7B are block diagrams showing the configuration of the endoscope system according to the second embodiment. As in the first embodiment, this endoscope system comprises an endoscope 10A, an in-hospital system, an auxiliary device 30 provided in a server or the like, and a second endoscope 10B. Also in the second embodiment, the endoscope 10A and the second endoscope 10B are colonoscopes, and a case where a subject (patient) undergoes colonoscopy is taken as an example. explain. The endoscope 10A is used for the first examination of the subject (patient), and the second endoscope 10B is used for the second and subsequent examinations of the subject (patient). Described as an endoscope. The endoscope 10A and the second endoscope 10B may be endoscopes of the same model or completely the same device, but are explained as different models here.
 内視鏡10Aは、第1実施形態と同様に、医師が大腸内を観察し、処置、手術等を行う際に使用する。この内視鏡10Aは、制御部11A、撮像部12A、光源部13A、表示部14A、ID管理部15A、記録部16A、操作部17A、推論エンジン19Aを有しており、これらの各部は、図1Aに示した第1実施形態と同様の構成を有しているので、詳しい説明を省略する。 The endoscope 10A is used when a doctor observes the inside of the large intestine and performs treatment, surgery, etc., as in the first embodiment. This endoscope 10A has a control section 11A, an imaging section 12A, a light source section 13A, a display section 14A, an ID management section 15A, a recording section 16A, an operation section 17A, and an inference engine 19A. Since it has the same configuration as the first embodiment shown in FIG. 1A, detailed description is omitted.
 内視鏡10Aは、上述の各部に加えて操作判定部18Aを有している。この操作判定部18Aは、医師が操作部17Aを操作して、内視鏡10Aをどのように移動させたかを判定し、操作情報Iopを取得する。内視鏡には、先端部分を曲げるためのアングルノブや、また吸引ボタン、送気・送水ボタン等の操作部が設けられている。医師は、内視鏡を体内の奥の方へ移動させたり、奥から引き抜く方向へ移動させる場合にはアングルノブ等を操作しながら、内視鏡を奥の方向へ移動させたり、引き抜く方向へ移動させる。操作判定部18Aは、上述した医師による操作部17Aの操作状態を判定し、操作情報Iopを取得する。 The endoscope 10A has an operation determination section 18A in addition to the above sections. The operation determination unit 18A determines how the endoscope 10A is moved by the operation of the operation unit 17A by the doctor, and acquires operation information Iop. The endoscope is provided with an angle knob for bending the distal end portion, and operation portions such as a suction button, an air/water supply button, and the like. When moving the endoscope to the back of the body, or moving it in the direction of withdrawal from the back, the doctor operates the angle knob, etc., to move the endoscope in the direction of the back or in the direction of withdrawal. move. The operation determination unit 18A determines the operation state of the operation unit 17A by the doctor described above, and acquires the operation information Iop.
 画像P5は、撮像部12Aが取得した画像データであり、補助装置30の入力部32に送信される。図3では抜去時画像も含んでいたが、ここでは、挿入時の情報による情報伝達を説明するべく、抜去時(引き抜く時の)画像の図示は省略している。これは、本実施形態が内視鏡の挿入と抜去の差異による画像取得の問題を解決するのみならず、様々な観察方法に幅広く対応できる内容となっているからでもある。ただし、画像P5も第1実施形態における画像P1と同様に、時系列データであり、画像P51は内視鏡10Aを肛門に挿入した直後に取得した画像であり、画像P53は内視鏡10Aを大腸の奥まで挿入していく際に、部位(患部)Re(図2(a)参照)を撮影した画像である。なお、挿入時に取得した連続画像を、推論モデルに入力することによって、部位(患部)Reの位置を推論できるのであれば、抜去時の画像を取得しなくてもよい。 The image P5 is image data acquired by the imaging unit 12A and is transmitted to the input unit 32 of the auxiliary device 30. Although the image at the time of removal is also included in FIG. 3, the illustration of the image at the time of removal (at the time of pulling out) is omitted here in order to explain information transmission by information at the time of insertion. This is because the present embodiment not only solves the problem of image acquisition due to the difference between insertion and withdrawal of the endoscope, but is also capable of supporting a wide variety of observation methods. However, like the image P1 in the first embodiment, the image P5 is also time-series data, the image P51 is an image acquired immediately after the endoscope 10A is inserted into the anus, and the image P53 is an image captured by the endoscope 10A. It is the image which image|photographed site|part (affected part) Re (refer Fig.2 (a)), when inserting deeply into a large intestine. If the position of the site (affected part) Re can be inferred by inputting the continuous images acquired at the time of insertion into the inference model, it is not necessary to acquire the images at the time of withdrawal.
 画像P5に併せて、操作判定部18Aが取得した操作情報Iopが、入力部21に送信される。画像P51a~P54aと操作情報Iop1~Iop3は、内視鏡システム10A入力部32から入力部32に送信される画像および操作情報の例を示す。画像P51a~P54aは、内視鏡10Aが奥の方向に向かって移動する際に取得した時系列的画像である。画像P51a~P54aにおいて、各画像の中心付近の黒色の部分は、消化管の中の空洞を示し、その周辺の白色部分は筋肉や消化管壁の襞であり、照明光を反射して白色となっている。また筋肉や消化管壁の襞の外側の黒色部分は、襞等の影の部分である。 The operation information Iop acquired by the operation determination unit 18A is transmitted to the input unit 21 together with the image P5. Images P51a to P54a and operation information Iop1 to Iop3 show examples of images and operation information transmitted from the input unit 32 of the endoscope system 10A to the input unit 32. FIG. Images P51a to P54a are time-series images acquired when the endoscope 10A moves inward. In the images P51a to P54a, the black part near the center of each image indicates the cavity in the digestive tract, and the white part around it is the muscle and folds of the digestive tract wall, which reflect the illumination light and appear white. It's becoming In addition, the black portions outside the folds of the muscle and the wall of the gastrointestinal tract are the shadow portions of the folds.
 医師は、画像P51aを見て、内視鏡10Aの先端を、中心付近の黒色部分の方向に移動するように操作部17Aを操作する。この時、操作判定部18Aは医師の操作状態を判定し、操作情報Iop1を取得する。次に、画像P52aの状態となると、医師が内視鏡10Aを操作し、内視鏡10Aの先端を、中心付近の黒色部分の方向に移動させ、このときの操作情報Iop2が取得される。以後、画像P53aが取得され、これに応じて操作した時の操作情報Iop3が取得され、この操作に応じて画像P54aが取得される。このように、医師は消化管の空洞部分に内視鏡10Aの先端部を進め、この時の操作情報Iop1~Iop3と、画像P51a~54aが取得されて、補助装置30の入力部32に送信される。 The doctor sees the image P51a and operates the operation section 17A so as to move the tip of the endoscope 10A in the direction of the black portion near the center. At this time, the operation determination unit 18A determines the operation state of the doctor and acquires the operation information Iop1. Next, in the state of image P52a, the doctor operates the endoscope 10A to move the tip of the endoscope 10A in the direction of the black portion near the center, and the operation information Iop2 at this time is acquired. After that, the image P53a is acquired, the operation information Iop3 at the time of operation is acquired accordingly, and the image P54a is acquired according to this operation. In this way, the doctor advances the distal end of the endoscope 10A into the hollow portion of the gastrointestinal tract, and the operation information Iop1 to Iop3 and the images P51a to 54a at this time are acquired and transmitted to the input unit 32 of the auxiliary device 30. be done.
 補助装置30は、制御部31、入力部32、ID管理部33、通信部34、記録部35、推論エンジン36、およびIC確認部37を有している。これらの各部の構成は、第1実施形態に係る図1Aにおける各部と同様であるので、詳しい説明を省略する。但し、前述したように、入力部32は、画像に加えて、操作情報Iopを入力し、推論エンジン36は、操作情報Iopも用いて推論を行っている。 The auxiliary device 30 has a control unit 31 , an input unit 32 , an ID management unit 33 , a communication unit 34 , a recording unit 35 , an inference engine 36 and an IC confirmation unit 37 . Since the configuration of each of these units is the same as that of each unit in FIG. 1A according to the first embodiment, detailed description thereof will be omitted. However, as described above, the input unit 32 inputs the operation information Iop in addition to the image, and the inference engine 36 also uses the operation information Iop to perform inference.
 すなわち、推論エンジン36に設定される推論モデルは、画像および操作情報が入力された際に、部位(患部)Reの位置情報に関する操作情報Iopfを出力する。すなわち、推論エンジン36は、医師が、内視鏡を操作する際に、部位(患部)Reを簡単に探し出すことができるように、操作情報Iopfを出力する。また、図示してないが、推論エンジン36も、図1Aの場合と同様にターゲット情報Itaを出力してもよい。 That is, the inference model set in the inference engine 36 outputs the operation information Iopf regarding the position information of the site (affected area) Re when the image and the operation information are input. That is, the inference engine 36 outputs the operation information Iopf so that the doctor can easily find the site (affected area) Re when operating the endoscope. Also, although not shown, the inference engine 36 may also output the target information Ita as in the case of FIG. 1A.
 補助装置30は、第2の内視鏡10Bに対して、再検査時補助画像群P6を出力する。この再検査時補助画像群P6は、第1実施形態に係る図1Bにおける再検査時補助画像群P4と同様に、第2の内視鏡10Bを操作する医師が部位(患部)Reを容易に発見できるようにするための画像群である。この画像群は、内視鏡10Aを使用して検査した際に取得した画像P5に基づいて作成したものであり、同一の患者であれば、略同じ付近に部位(患部)Reが存在することに基づいて、作成している。この再検査時補助画像群P6は、第2の内視鏡10Bを用いて再検査する際に、肛門に挿入直後の位置における画像P61から部位(患部)Reの位置に相当する画像P63に至るまでの時系列的画像である。再検査時補助画像群P6の内の画像P63は、推論エンジン36による推論結果であるターゲット情報Itaに相当する。 The auxiliary device 30 outputs the reexamination auxiliary image group P6 to the second endoscope 10B. This group of reexamination auxiliary images P6, like the group of reexamination auxiliary images P4 in FIG. A group of images to make discoverable. This group of images is created based on the image P5 acquired during examination using the endoscope 10A. is created on the basis of This reexamination auxiliary image group P6 extends from the image P61 at the position immediately after insertion into the anus to the image P63 corresponding to the position of the site (affected part) Re when reexamination is performed using the second endoscope 10B. It is a time-series image up to. An image P63 in the reexamination-time auxiliary image group P6 corresponds to the target information Ita, which is the inference result of the inference engine .
 また、再検査時補助画像群P61~P63の時系列的画像の間で、第2の内視鏡10Bの操作情報Iopfを、各画像に併せて表示できるようにする。すなわち、再検査時補助画像群P6は、部位(患部)Reに到達するまでの、操作に関する情報を含んでいる。 In addition, the operation information Iopf of the second endoscope 10B can be displayed together with each image among the time-series images of the group of reexamination auxiliary images P61 to P63. In other words, the group of reexamination auxiliary images P6 includes information on operations until reaching the site (affected area) Re.
 第2の内視鏡10Bは、制御部11B、撮像部12B、光源部13B、ID管理部15B、記録部16B、推論エンジン19B、信号出力部21B、類似画像判定部22Bを有している。これらの各部の構成は、第1実施形態に係る図1Aにおける各部と同様であるので、詳しい説明を省略する。 The second endoscope 10B has a control section 11B, an imaging section 12B, a light source section 13B, an ID management section 15B, a recording section 16B, an inference engine 19B, a signal output section 21B, and a similar image determination section 22B. Since the configuration of each of these units is the same as that of each unit in FIG. 1A according to the first embodiment, detailed description thereof will be omitted.
 また、第2の内視鏡10Bは、操作反映制御部23Bを有している。操作反映制御部23Bは、例えば、ロボット内視鏡のように、医師が操作しなくても、第2の内視鏡10Bが機械的に自動操作を行い、目的とする部位(患部)Reに到達させるために、第2の内視鏡10Bの操作を制御する。このために、操作反映制御部23Bは、曲げ制御部23aBおよび挿入制御部23bBを有する。 Also, the second endoscope 10B has an operation reflection control section 23B. The operation reflection control unit 23B performs mechanical automatic operation of the second endoscope 10B, for example, like a robot endoscope without the need for a doctor's operation, and the target site (affected site) Re. In order to reach, the operation of the second endoscope 10B is controlled. For this reason, the operation reflection control section 23B has a bending control section 23aB and an insertion control section 23bB.
 曲げ制御部23aBは、第2の内視鏡10Bの先端部の曲げを制御する。一般に、内視鏡の先端は、医師が複数のワイヤのいずれかを引いたり延ばしたりする操作によって向きを変えることができる。そこで、曲げ制御部23aBは、各ワイヤに接続されたアクチュエータ(図10(b)参照)を、再検査時補助画像群P6と一緒に出力される操作情報Iopfに応じて制御することによって、先端部の曲げ方向の制御を行う。 The bending control section 23aB controls bending of the distal end portion of the second endoscope 10B. Generally, the tip of an endoscope can be redirected by a physician pulling or extending any of a plurality of wires. Therefore, the bending control unit 23aB controls the actuator (see FIG. 10B) connected to each wire according to the operation information Iopf output together with the group of re-examination auxiliary images P6, thereby Controls the bending direction of the part.
 挿入制御部23bBは、駆動源と駆動制御回路を有し、第2の内視鏡10Bを体内の奥の方向へ移動させる。一般医、内視鏡の先端は、医師が体内に押し込んだり引き出したりする操作によって、挿入・抜去動作を行うことができる。そこで、挿入制御部23bBは、第2の内視鏡10Bの進退を行うためのレバー等(図10(a)参照)を、再検査時補助画像群P6と一緒に出力される操作情報Iopfに応じて制御することによって、先端部の挿入・抜去の制御を行う。 The insertion control section 23bB has a drive source and a drive control circuit, and moves the second endoscope 10B in the deep direction inside the body. General practitioners and endoscopes can be inserted and withdrawn by the operation of pushing and pulling them into and out of the body by a doctor. Therefore, the insertion control unit 23bB controls the lever or the like (see FIG. 10A) for moving the second endoscope 10B forward and backward according to the operation information Iopf output together with the group of reexamination auxiliary images P6. Insertion/removal of the distal end portion is controlled by performing control according to this.
 次に、図8に示すフローチャートを用いて、機器(内視鏡)における動作を説明する。このフローは、内視鏡10A、第2の内視鏡10B内の制御部11A、11Bが記録部16A、16B等に記憶されているプログラムに基づいて、内視鏡10A、第2の内視鏡10B内の各部を制御することによって実現する。なお、このフローは、同一被検者(患者)について、1回目の検査の場合と、2回目以降の検査の場合の両方を含んでいる。 Next, the operation of the device (endoscope) will be described using the flowchart shown in FIG. In this flow, controllers 11A and 11B in endoscope 10A and second endoscope 10B operate endoscope 10A and second endoscope 10B based on programs stored in recording units 16A and 16B. It is realized by controlling each part in the mirror 10B. This flow includes both the first examination and the second and subsequent examinations for the same subject (patient).
 図8に示すフローの動作が開始すると、まず、院内システム等と連携し、情報の共有等を開始する(S1)。この図8に示す機器(内視鏡)のフローチャートにおいて、ステップS1~S17と、S23~S25は、第1実施形態に係る図4に示すフローチャートのステップS1~S17とS23~S25と同様の処理を実行する。  When the operation of the flow shown in Fig. 8 starts, first, it cooperates with the hospital system, etc., and starts sharing information, etc. (S1). In the flowchart of the device (endoscope) shown in FIG. 8, steps S1 to S17 and S23 to S25 are the same processes as steps S1 to S17 and S23 to S25 of the flowchart shown in FIG. 4 according to the first embodiment. to run.
 但し、第1実施形態に係る図4のステップS11においては、検査開始すると、画像の記録等を行っていたが、第2実施形態においては、ステップS11において、さらに操作情報も記録するようにしている。すなわち、医師が操作部17A、17Bを操作した場合には、このときの操作情報Iop1~Iop3を画像等と共に記録するようにしている。この操作情報Iop1等は、補助装置30に送信され、記録部35に記録される。 However, in step S11 of FIG. 4 according to the first embodiment, the image is recorded when the inspection is started. there is That is, when the doctor operates the operation sections 17A and 17B, the operation information Iop1 to Iop3 at this time is recorded together with the images. The operation information Iop1 and the like are transmitted to the auxiliary device 30 and recorded in the recording unit 35 .
 また、ステップS11において、検査が開始すると、撮像部12A、12Bは、図7Aの画像P5(P51a~P54a)に示す連続画像を出力する。図11は、このときの連続画像であり、前後の操作状態の変化を追跡できるような引継情報である。図11における画像の変化については、後述する。 Also, in step S11, when the examination starts, the imaging units 12A and 12B output continuous images shown in image P5 (P51a to P54a) in FIG. 7A. FIG. 11 shows continuous images at this time, and is handover information that can track changes in the operation state before and after. Changes in the image in FIG. 11 will be described later.
 また、再検査等、2回目以降の内視鏡検査の際には、ステップS15において、引き継いだ情報によるガイドを行う。この場合、前後の操作状態の変化を追跡できるような連続画像を用いて、ガイドを行う。詳しくは、図11を用いて説明するが、連続画像は追跡可能な画像であり、さらに操作情報を加味することによって、目的とする部位(患部)Reに到達できるように、ガイド表示を行う。 Also, at the time of the second and subsequent endoscopic examinations, such as reexaminations, guidance is provided in step S15 using the inherited information. In this case, guidance is provided using continuous images that can track changes in the operating state before and after. Details will be described with reference to FIG. 11, but the continuous images are images that can be traced, and by adding operation information, guide display is performed so that the target site (affected area) Re can be reached.
 本実施形態における第1の観察方法と第2の観察方法は、内視鏡先端の撮影部を被検物に挿入または抜去する方向に動かした時の撮影による観察において、内視鏡の屈曲や挿入または抜去の制御が異なる場合における撮影によって、観察方法が変化することに対応している。例えば、第1の観察方法(特定位置からの観察)で撮影された特定対象物画像に対して、第1の観察方法とは異なる第2の観察方法(例えば、特定の挿入方法、抜去方向や屈曲などの内視鏡先端位置制御を行うことによる状況が変化するために異なった観察方法となる)によって撮影された特定対象物の画像をアノテーションデータとすることによって教師データを作成する。この教師データを用いて学習を行い、推論モデルを生成する。この推論モデルが、第1の観察方法で撮影した対象物の画像を入力した時に、第2の観察方法で撮影した対象物画像を推論できるようにすれば、次にどのような画像が得られるべきかを提示でき、この画像を使ったガイドが可能となる。アノテーションの情報に操作情報も加えて教師データを作成すれば、どのような操作をすれば、どのような画像が見えてくるか、といったガイドも可能となる。このように、内視鏡の屈曲や挿入または抜去の制御が異なる場合における撮影による観察方法の変化に対応し、ガイド用情報を出力可能な推論モデルを作成する方法を提供することもできる。 The first observation method and the second observation method according to the present embodiment are the bending of the endoscope, the It corresponds to the change in the observation method due to imaging in the case where the control of insertion or withdrawal is different. For example, for a specific object image captured by a first observation method (observation from a specific position), a second observation method different from the first observation method (for example, a specific insertion method, withdrawal direction, The teacher data is created by using the image of the specific object photographed by using the annotation data as the annotation data. Learning is performed using this teacher data to generate an inference model. If this inference model can infer the image of the object photographed by the second observation method when the image of the object photographed by the first observation method is input, what kind of image will be obtained next? It is possible to present what to do and guide using this image. By adding operation information to annotation information to create training data, it becomes possible to provide guidance on what kind of image will be seen by what kind of operation. In this way, it is also possible to provide a method of creating an inference model capable of outputting guide information in response to changes in observation methods due to imaging when the bending, insertion, or withdrawal of the endoscope is controlled differently.
 ステップS17において、重要イベント時に、画像とタイミング等を記録すると、次に、引き継ぐ情報があるか否かを判定する(S19)。ステップS7においては、過去に引き継いだ情報があったか否かを判定しているが、このステップS19においては、制御部11A、11Bが、検査を開始した後イベント時と判定された際の情報の中で、引き継いでおけば、次回以降の検査の際に役立つ情報があるか否かを判定する。例えば、次に、ロボット内視鏡によって検査を予定している場合に、制御部11A、11Bは、手術する部位(患部)Reの方向へ自動で移動させるために、ロボット内視鏡に引き継ぎさせるべき情報があるか否かを、制御部11A、11Bが判定する。また、次に、部位(患部)Re対して手術等を行った後に、経過観察するために、熟練度の高くない医師でも目的とする部位(患部)Reに容易に到達できるように、内視鏡に引き継ぎさせるべき情報があるか否かを、制御部11A、11Bが判定する。 In step S17, when the image, timing, etc. are recorded at the time of the important event, it is next determined whether or not there is information to be handed over (S19). In step S7, it is determined whether or not there was information taken over in the past. Then, if it is handed over, it is determined whether or not there is information that will be useful in subsequent examinations. For example, when next examination by a robot endoscope is scheduled, the control units 11A and 11B cause the robot endoscope to take over in order to automatically move in the direction of the surgical site (affected site) Re. The control units 11A and 11B determine whether or not there is information to be processed. Next, after surgery or the like is performed on the site (affected area) Re, in order to observe the progress, an endoscopy is performed so that even an unskilled doctor can easily reach the target site (affected area) Re. The control units 11A and 11B determine whether or not there is information to be handed over to the mirror.
 ステップS19における判定の結果、引き継ぐ情報が有る場合には、挿入スピードや画像変化記録等において、変化が不適当であれば、やり直しガイドを行う(S17)。この検査の後に、再度、部位(患部)Reに内視鏡が到達するまでの操作ガイドを提供するにあたって、内視鏡の挿入スピードが速すぎた場合や、画像変化が急すぎるために、追跡することができないような場合には、その旨を表示し、医師にやり直してもらうようにする。例えば、ロボット内視鏡によって部位(患部)Reに自動的に移動させる場合に、ロボット内視鏡内の機構が追従できる程度の変化となるようにする。 As a result of the determination in step S19, if there is information to be handed over, if the change in the insertion speed, image change record, etc. is inappropriate, redo guidance is performed (S17). After this examination, when providing an operation guide until the endoscope reaches the site (affected area) Re again, if the insertion speed of the endoscope is too fast or if the image changes too quickly, tracking If it is impossible to do so, a message to that effect should be displayed and the doctor should try again. For example, when the robot endoscope automatically moves to the site (affected part) Re, the change is such that the mechanism in the robot endoscope can follow.
 ステップS21における処理を実行すると、またはステップS19における判定の結果、引き継ぐ情報がない場合には、ステップS23に進む。ステップS23、S25は、前述したように、図4におけるS23、S25と同様であるので、詳しい説明は省略する。 If the process in step S21 is executed, or if the result of determination in step S19 is that there is no information to take over, the process proceeds to step S23. As described above, steps S23 and S25 are the same as S23 and S25 in FIG. 4, so detailed description thereof will be omitted.
 このように、図8におけるフローでは、次回、検査等において内視鏡を使用する場合に引き継ぐ情報があるか否かを判定し(S19)、引き継ぐ情報があれば、次回の検査等において使用できるように、変化が不適当な場合にやり直しをガイドするようにしている(S21)。すなわち、内視鏡検査時に、次回の内視鏡挿入時のガイドとなる情報を取得している。このため、内視鏡検査に慣れた医師が初回の検査を行っておけば、経過観察のために訪れた検査機関が、再検査が不慣れな施設であっても簡単に内視鏡を使用して部位(患部)Reを観察することが可能となる。また、消化管内の部位(患部)Reを手術する場合に、医師が予め内視鏡検査を行って部位(患部)Reを見つけておけば、実際の手術の際にはロボット内視鏡の先端部が目的とする部位(患部)Reまで自動的に移動することができ、医師が内視鏡操作と手術の両方を掛け持ちしなくても済む。 As described above, in the flow in FIG. 8, it is determined whether or not there is information to be handed over when the endoscope is used in the next examination or the like (S19). Thus, if the change is inappropriate, redoing is guided (S21). That is, at the time of endoscopy, information is acquired as a guide for the next insertion of the endoscope. Therefore, if a doctor who is familiar with endoscopy performs the initial examination, the endoscope can be easily used even if the institution visited for follow-up is unfamiliar with re-examination. It becomes possible to observe the part (affected part) Re by using the Also, when performing surgery on a site (affected area) Re in the gastrointestinal tract, if a doctor finds the site (affected area) Re by conducting an endoscopy in advance, the tip of the robot endoscope can be used during the actual surgery. The part can be automatically moved to the target part (affected part) Re, and the doctor does not have to handle both endoscope operation and surgery.
 また、第2実施形態に係る機器のフローは、第1のタイミングにおいて、特定対象物までの内視鏡センサ部の位置変更動作を含む検査を行い、この検査時における連続画像の少なくとも一部を、第1のタイミングより後の第2のタイミングにおいて行う検査の際に使用する内視鏡位置変更用ガイドを生成するためのガイド用情報として取得する取得ステップと、第1のタイミングにおいて取得した連続画像の少なくとも一部に基づいてガイド用情報を決定するガイド用情報決定ステップを有している。第2実施形態においては、第1のタイミングの内視鏡挿入時に得られた画像の変化と、画像が変化した時に(例えば、管に沿って進行する様子や向きの変化が記録されている)、内視鏡の先端部を曲げたり、さらに押し込んだりした時の操作の情報が、図7Aを用いて説明したように、データとして記録されているので、この情報を有効利用し、活用する。 Further, in the flow of the equipment according to the second embodiment, at the first timing, an inspection including a position change operation of the endoscope sensor unit up to the specific object is performed, and at least a part of the continuous images during this inspection is captured. an acquisition step of acquiring guide information for generating a guide for changing the position of the endoscope to be used in an examination performed at a second timing after the first timing; A guiding information determination step of determining guiding information based on at least a portion of the image. In the second embodiment, the change in the image obtained when the endoscope is inserted at the first timing and the change in the image (for example, the progress along the tube and the change in direction are recorded). Since the information on the operation when the tip of the endoscope is bent or further pushed is recorded as data as described with reference to FIG. 7A, this information is effectively utilized.
 上述のガイド用情報は、第2のタイミングで行われる内視鏡センサ部の挿入時に、特定対象物に対応する画像を取得可能な位置にまで位置変更動作が行われるように、特定対象物を特定可能にする情報である。また、特定対象物を特定可能にする情報は、AIを用いて推論される画像の変化の類似性判定用の情報である。すなわち、特定の位置に到達するまでに、医師の操作に応じて画像が変化するので、この変化する画像を用いて推論する。また、ガイド用情報は内視鏡位置変更情報に基づいて決定し、この内視鏡位置変更情報は、第2のタイミングにおいて得られた内視鏡画像変化と内視鏡操作情報の相互参照によって得られる情報である。 The above-mentioned guide information is such that when the endoscope sensor section is inserted at the second timing, the specific target is moved to a position where an image corresponding to the specific target can be acquired. Identifiable information. Information that enables identification of a specific object is information for similarity determination of changes in images inferred using AI. That is, since the image changes according to the doctor's operation until reaching a specific position, the reasoning is made using this changing image. Further, the guide information is determined based on the endoscope position change information, and this endoscope position change information is obtained by cross-referencing the endoscope image change obtained at the second timing and the endoscope operation information. It is information that can be obtained.
 上述の説明を図8のフローに沿って説明すると、最初に内視鏡検査を行う際に(第1のタイミング)、ステップS11において、検査を開始すると(第1のタイミング)、検査中の動画像(連続画像)が記録される。この連続画像の少なくとも一部(生でデータに限らず、加工されていてもよい)が、引継情報として記録される。この引継情報が、次回以降の検査時(第2のタイミング)におけるガイド用情報として使用される。すなわち、引継情報が記録されていれば、ステップS7、S9において引継情報を取得し、ステップS15において引継情報を用いてガイドを行う。このガイドにあたっては、第1のタイミングにおける連続する画像の変化と、第2のタイミングにおける連続する画像の変化が同じようなるように、操作をガイドしていけば、目的とする部位(患部)Reに到達することができる。なお、連続画像を取得する際に、併せて操作情報を取得し、記録しておき、引継情報として使用してもよい。 The above explanation will be explained along the flow of FIG. Images (successive images) are recorded. At least part of this continuous image (not limited to raw data, but may be processed) is recorded as handover information. This handover information is used as guide information at the next and subsequent examinations (second timing). That is, if the takeover information is recorded, the takeover information is acquired in steps S7 and S9, and guidance is performed using the takeover information in step S15. In this guidance, if the operation is guided so that the continuous image change at the first timing and the continuous image change at the second timing are similar, the target site (affected area) Re can be reached. It should be noted that operation information may be acquired and recorded at the time of acquiring the continuous images, and used as handover information.
 内視鏡の画像の変化とその時の操作の関係を利用して、第2のタイミングの内視鏡検査時においても同様の画像変化をさせれば、目標とする部位に達することができるので、その時の操作情報を参考にして、ガイドを提示するようにする。例えば、第1のタイミングにおける検査では、このような画像の後には、このような画像が撮像されて、患部等の部位に到達できたので、その時と同様の操作をすればよいと、操作ガイドを表示したり音声ガイドを行ったりしてもよい。すなわち、ある画像が得られた時に、第1のタイミングにおける検査時の医師がこうした画像になるように、こうした操作をした、といったガイドを行うことによって、簡単に特定対象物を検出することが可能となる。 Using the relationship between the change in the image of the endoscope and the operation at that time, if the same image change is made during the endoscopy at the second timing, the target site can be reached. A guide is presented with reference to the operation information at that time. For example, in the examination at the first timing, after such an image, such an image is captured, and since the site such as the affected area can be reached, the operation guide indicates that the same operation as at that time should be performed. may be displayed or voice guidance may be provided. That is, when a certain image is obtained, it is possible to easily detect the specific object by guiding the doctor at the time of the examination at the first timing to perform such operations so as to obtain such an image. becomes.
 次に、図9に示すフローチャートを用いて、ロボット内視鏡における動作を説明する。このフローは、ロボット内視鏡として機能する第2の内視鏡10B内の制御部11Bが記録部16B等に記憶されているプログラムに基づいて、第2の内視鏡10B内の各部を制御することによって実現する。このフローは、同一被検者(患者)について、1回目の内視鏡検査において引継情報を記録しておき、2回目以降の内視鏡検査を実行する場合の動作を示す。 Next, the operation of the robot endoscope will be described using the flowchart shown in FIG. In this flow, the control unit 11B in the second endoscope 10B functioning as a robot endoscope controls each unit in the second endoscope 10B based on a program stored in the recording unit 16B or the like. It will be realized by This flow shows the operation when handover information is recorded in the first endoscopic examination for the same subject (patient), and the second and subsequent endoscopic examinations are performed.
 図9に示すフローは、ステップS1~S7、S9、S11は、図8に示すフローのステップS1~S7、S9、S11と同様の処理を実行するので、詳しい説明は省略し、相違するステップについて説明する。 In the flow shown in FIG. 9, steps S1 to S7, S9, and S11 execute the same processes as steps S1 to S7, S9, and S11 in the flow shown in FIG. explain.
 ステップS7における判定の結果、引き継いだ情報があった場合には、引き継いだ情報を取得し、この情報を参照してガイドを行う(S9)。しかし、引継情報がない場合であっても、内視鏡として使用する場合もあることから、引継情報がない場合には、操作や汎用プログラムに従う(S10)。この場合には、引継情報がないことからロボット走行することなく、医師が手動で内視鏡を操作するか、または引継情報を使用しなくても操作可能な汎用プログラムに従うことにする。 If the result of determination in step S7 is that there is inherited information, the inherited information is acquired, and guidance is provided by referring to this information (S9). However, even if there is no takeover information, it may be used as an endoscope, so if there is no takeover information, it follows the operation and general-purpose program (S10). In this case, since there is no handover information, the doctor will either operate the endoscope manually without the robot traveling, or follow a general-purpose program that can be operated without using the handover information.
 ステップS9またはS10における処理を実行すると、図8の場合と同様に、検査を開始し、画像を記録し、計時動作を開始し、情報を取得する(S11)。この処理を実行すると、次に、引継画像と類似しているか否かを判定する(S31)。引継画像は、前述の再検査時補助画像P6(図7B参照)と同様に、部位(患部)Reに到達するために参照する画像であり、この引継画像の類似する方向に、第2の内視鏡10Bの先端部を移動させていけば、部位(患部)Reに到達することができる。このステップS31では、類似画像判定部22Bが、引継画像と類似しているか否かを判定する。 When the processing in step S9 or S10 is executed, the inspection is started, the image is recorded, the timing operation is started, and information is acquired (S11), as in the case of FIG. Once this process has been executed, it is next determined whether or not the image is similar to the transferred image (S31). The handover image is an image to be referred to reach the site (affected part) Re, similar to the reexamination auxiliary image P6 (see FIG. 7B) described above. By moving the tip of the endoscope 10B, the site (affected area) Re can be reached. In this step S31, the similar image determination unit 22B determines whether or not the image is similar to the handover image.
 ステップS31における判定の結果、引継画像と類似していなかった場合には、回転やトリミングや画像処理を行う(S33)。消化器官内では、撮像部による撮影が常に一定の方向を向いていないので、引継情報としての画像が、撮像部12Bによって現在取得されている画像の向きと同じでない場合がある。また、引継情報としての画像の画角と、撮像部12Bによって現在取得されている画像の画角と同じでない場合がある。また、画像の明暗等の画質も異なっている場合がある。そこで、引継情報として画像または現在取得している画像に対して、回転、トリミング、画像処理を施し、両者が同様の条件の画像にする。 If the result of determination in step S31 is that the image is not similar to the transferred image, rotation, trimming, and image processing are performed (S33). In the digestive tract, the image captured by the imaging unit is not always oriented in a fixed direction, so the image as handover information may not be in the same orientation as the image currently acquired by the imaging unit 12B. Also, the angle of view of the image as handover information may not be the same as the angle of view of the image currently acquired by the imaging unit 12B. In addition, the image quality such as the brightness of the image may also be different. Therefore, rotation, trimming, and image processing are performed on the image as the handover information or the currently acquired image, so that both are images with the same conditions.
 ステップS33における処理を行うと、またはステップS31における判定の結果、引継画像と類似している場合には、次に、前回挿入と同様の画像変化となるように、先端部を制御しつつ挿入する(S35)。前回、内視鏡を体内に挿入したときと同様に内視鏡を移動させていけば、部位(患部)Reに到達することから、操作反映制御部23Bは、第2内視鏡10B内の操作の制御を行う。 If the process in step S33 is performed, or if the result of determination in step S31 is that the image is similar to the transferred image, then the tip is inserted while controlling it so that the image change is the same as that of the previous insertion. (S35). If the endoscope is moved in the same manner as when the endoscope was inserted into the body last time, the site (affected part) Re is reached. Control operations.
 次に、患部画像に到達したか否かを判定する(S37)。引継画像(再検査時補助画像群P6)の中に、部位(患部)Reにおける画像(P63)があることから、類似画像判定部22Bは、この画像を参照して、部位(患部)Reに類似しているか否かを判定し、類似していれば、患部に到達したと判定する。なお、患部画像に到達したか否かは、類似画像判定部22Bによる類似判定以外にも、推論エンジン19Bによって、推論によって判定してもよい。この判定の結果、患部に到達していないと判定された場合には、ステップS31に戻る。 Next, it is determined whether or not the affected area image has been reached (S37). Since there is an image (P63) of the region (affected region) Re in the handover images (group of reexamination auxiliary images P6), the similar image determination unit 22B refers to this image to determine the region (affected region) Re. It is determined whether or not they are similar, and if they are similar, it is determined that they have reached the affected area. In addition to the similarity determination by the similar image determination unit 22B, whether or not the affected part image has been reached may be determined by inference by the inference engine 19B. As a result of this determination, when it is determined that the target has not reached the affected area, the process returns to step S31.
 一方、ステップS37における判定の結果、患部に到達した場合には、光照射、範囲切替等を行う(S39)。例えば、ロボット内視鏡を用いて、部位(患部)Reまでロボット内視鏡を自動的に移動させた場合、部位(患部)Reがどこであるかを、消化器官の外部から簡単には認識できない。そこで、本実施形態においては、信号出力部21Bが、内視鏡先端部に配置されている光源部13Bを照射させることによって、消化器官の外部からでも視認できるようにしている。医師は、部位(患部)Reの位置が分かれば、その位置において手術すればよい。 ステップS39における処理を実行すると、ロボット内視鏡のフローを終了する。 On the other hand, if the affected area is reached as a result of the determination in step S37, light irradiation, range switching, etc. are performed (S39). For example, when the robot endoscope is automatically moved to the site (affected area) Re, it is not possible to easily recognize where the site (affected area) Re is from the outside of the digestive organ. . Therefore, in the present embodiment, the signal output unit 21B illuminates the light source unit 13B arranged at the distal end of the endoscope so that the gastrointestinal tract can be visually recognized even from the outside. If the position of the site (affected part) Re is known, the doctor can operate at that position. When the process in step S39 is executed, the flow of the robot endoscope ends.
 このように、図9に示すロボット内視鏡のフローにおいては、引継情報を用いて、ロボット内視鏡が、部位(患部)Reまで、自動的に移動することができる(S31~S37参照)。このため、医師が手術する場合に、部位(患部)Reの位置まで内視鏡を手動操作しなくても済む。部位(患部)Reに到達すると、光照射等によって消化器官の外部から視認することができるので、その位置に対して処置すればよい。また、再検査の場合には、高度な操作技術がなくても、目的とする部位(患部)Reに到達することが簡単にでき、医師は経過観察に集中することができる。 As described above, in the flow of the robot endoscope shown in FIG. 9, the robot endoscope can automatically move to the site (affected part) Re using the handover information (see S31 to S37). . Therefore, when a doctor performs an operation, there is no need to manually operate the endoscope to the position of the site (affected area) Re. When the site (affected site) Re is reached, it can be visually recognized from the outside of the digestive organ by light irradiation or the like, so treatment can be performed on that position. Further, in the case of reexamination, the target site (affected area) Re can be easily reached without advanced operation techniques, and the doctor can concentrate on follow-up observation.
 次に、図10(a)(b)を用いて、1回目の内視鏡検査において、手術すべき部位(患部)Reに関する引継情報を記録しておき、その後に、ロボット内視鏡を用いて部位(患部)Reまで自動的に移動させ、手術する方法について説明する。 Next, using FIGS. 10(a) and 10(b), in the first endoscopic examination, handover information regarding the site to be operated on (affected area) Re is recorded, and then the robot endoscope is used to record handover information. A method of automatically moving the patient to the site (affected part) Re and performing an operation will be described.
 図10(a)は、内視鏡10Aの先端部10Aaを大腸Coに肛門から挿入し、奥の方向に移動させている様子を示す。この内視鏡10Aは、先端側から順に、先端部10Aa、湾曲部10Ab、軟性部10Ac、操作部17Aから構成されている。先端部10Aaには、撮像部12Aが備えられ、画像を取得し、表示部14Aや補助装置30の入力部32等に出力する。湾曲部10Abは、操作部17Aの複数のレバー17Aaとの間で複数のワイヤで結ばれている。医師は、レバー17Aa等を操作することによって、湾曲部10Abを曲げることによって、先端部10Aaの向きを自在に変えることができる。湾曲部10Abと操作部17は、軟性部10Acで結ばれている。 FIG. 10(a) shows how the distal end 10Aa of the endoscope 10A is inserted into the large intestine Co from the anus and moved inward. This endoscope 10A is composed of a distal end portion 10Aa, a bending portion 10Ab, a flexible portion 10Ac, and an operating portion 17A in order from the distal end side. The distal end portion 10Aa is provided with an imaging portion 12A, which acquires an image and outputs it to the display portion 14A, the input portion 32 of the auxiliary device 30, and the like. The bending portion 10Ab is connected by a plurality of wires to a plurality of levers 17Aa of the operating portion 17A. The doctor can freely change the orientation of the distal end portion 10Aa by bending the bending portion 10Ab by operating the lever 17Aa or the like. The bending portion 10Ab and the operating portion 17 are connected by a flexible portion 10Ac.
 医師は、内視鏡10Aを肛門に挿入し、矢印Dの方向に押し込みながら、大腸Coの奥の方向に進める。このとき、撮像部12Aによって取得された画像P71~P73を見ながら、操作部17Aのレバー17Aaを操作する。画像P71~P73は、画像P51a~P54a(図7A参照)と同様に、内視鏡10Aが大腸Coの奥の方向に向かって移動する際に取得した時系列的画像である。画像P71~P73において、各画像の中心付近の黒色の部分は、消化管の中の空洞を示し、その周辺の白色部分は筋肉や消化管壁の襞であり、照明光を反射して白色となっている。また筋肉や消化管壁の襞の外側の黒色部分は、襞等の影の部分である。 The doctor inserts the endoscope 10A into the anus, pushes it in the direction of arrow D, and advances it toward the back of the large intestine Co. At this time, the user operates the lever 17Aa of the operation section 17A while looking at the images P71 to P73 acquired by the imaging section 12A. Images P71 to P73, like images P51a to P54a (see FIG. 7A), are time-series images acquired when the endoscope 10A moves toward the back of the large intestine Co. In the images P71 to P73, the black part near the center of each image indicates the cavity in the gastrointestinal tract, and the surrounding white part is the muscle and the folds of the gastrointestinal tract wall, which reflect the illumination light and appear white. It's becoming In addition, the black portions outside the folds of the muscle and the wall of the gastrointestinal tract are the shadow portions of the folds.
 医師は、画像P71を見て、内視鏡10Aの先端部10Aaを、中心付近の黒色部分の方向に移動するように操作部17Aのレバー17Aa等を操作する。以後、図7Aにおける説明と同様に、医師は、画像P72、P73を見ながら、操作部17Aのレバー17Aa等を操作しながら、部位(患部)Reに向けて、内視鏡10Aの先端部10Aaを移動させる。また、このとき、操作判定部18Aは医師の操作状態を判定し、操作情報Iopを取得し、記録しておく。このように、医師は消化管の空洞部分に内視鏡10Aの先端部10Aaを進め、この時の操作情報Iopと、画像P71~P73が取得されて、補助装置30の入力部32に送信され、記録部35に記録される。 The doctor sees the image P71 and operates the lever 17Aa of the operation section 17A so as to move the distal end portion 10Aa of the endoscope 10A in the direction of the black portion near the center. 7A, while viewing images P72 and P73, the doctor operates the lever 17Aa of the operation unit 17A, etc., and points the distal end portion 10Aa of the endoscope 10A toward the site (affected area) Re. to move. Also, at this time, the operation determination unit 18A determines the operation state of the doctor, acquires the operation information Iop, and records it. In this way, the doctor advances the distal end portion 10Aa of the endoscope 10A into the cavity of the gastrointestinal tract, and the operation information Iop and the images P71 to P73 at this time are acquired and transmitted to the input unit 32 of the auxiliary device 30. , is recorded in the recording unit 35 .
 図10(b)は、ロボット内視鏡として機能する第2の内視鏡10Bを患者の大腸に挿入し、部位(患部)Reに自動的に移動させる様子を示す。第2の内視鏡10Bも、先端側から順に、先端部10Ba、湾曲部10Bb、軟性部10Bc、操作部17Bから構成されている。先端部10Baには、撮像部12Bが備えられ、画像を取得し、表示部14Aや補助装置30の入力部32等に出力する。 FIG. 10(b) shows how the second endoscope 10B functioning as a robot endoscope is inserted into the patient's large intestine and automatically moved to the site (affected site) Re. The second endoscope 10B also includes, in order from the distal end side, a distal end portion 10Ba, a bending portion 10Bb, a flexible portion 10Bc, and an operating portion 17B. The distal end portion 10Ba is provided with an imaging portion 12B, which acquires an image and outputs it to the display portion 14A, the input portion 32 of the auxiliary device 30, and the like.
 湾曲部10Bbは、操作部17Bの複数のレバー17Baとの間で複数のワイヤで結ばれている。こられのワイヤは、操作部17B内には、各ワイヤにアクチュエータが設けられており、操作反映制御部23B内の曲げ制御部23aBが各アクチュエータを制御することによって、湾曲部10Bbを曲げ、先端部10Baの向きを自在に変えることができる。また、挿入制御部23bBは、第2の内視鏡10Bを矢印Gの方向、すなわち、大腸Coの奥の方向へ移動させる。 The bending portion 10Bb is connected with a plurality of levers 17Ba of the operation portion 17B with a plurality of wires. Each of these wires is provided with an actuator in the operation section 17B, and the bend control section 23aB in the operation reflection control section 23B controls each actuator to bend the bending section 10Bb and bend the tip of the wire. The orientation of the portion 10Ba can be freely changed. The insertion control unit 23bB also moves the second endoscope 10B in the direction of arrow G, that is, in the direction of the back of the large intestine Co.
 制御部11Bまたは操作反映制御部23Bは、第2の内視鏡10Bの先端部10Baが、部位(患部)Re付近まで、自動的に移動できるように制御する。前述したように、図10(a)に示したように、医師が部位(患部)Re付近に移動するまでの画像および操作情報は、補助装置30の記録部35に記録されている。そこで、制御部11Bまたは操作反映制御部23Bは、記録情報に基づいて操作反映制御部23B内のアクチュエータを制御する。 The control unit 11B or the operation reflection control unit 23B controls so that the distal end portion 10Ba of the second endoscope 10B can automatically move to the vicinity of the site (affected site) Re. As described above, as shown in FIG. 10A, images and operation information until the doctor moves to the vicinity of the site (affected area) Re are recorded in the recording unit 35 of the auxiliary device 30 . Therefore, the control section 11B or the operation reflection control section 23B controls the actuator in the operation reflection control section 23B based on the recorded information.
 部位(患部)Reまで移動するにあたって、記録部35に記録されている画像P71~P73等の画像と、先端部10Baに設けられている撮像部12Bによって取得された画像の類似度を算出しながら、または推論エンジン36による推論によって、アクチュエータの駆動制御を行う。画像の類似度や画像を用いた推論を行う際に、撮像部12Bが取得した画像P80が回転している場合があれば、画像P71~P73等の画像と一致するように回転処理を施す。また、画角が一致していない場合があれば、トリミング処理を施す。また、輝度(露出)が揃っていなければ、明度補正等を行う。その他、医師が部位(患部)Reを見つけたときに取得した画像と、同様の条件となるように画像補正処理を行う。画像P81~P83は、補正後の画像である。 When moving to the site (affected part) Re, while calculating the similarity between images such as images P71 to P73 recorded in the recording unit 35 and the image acquired by the imaging unit 12B provided at the distal end portion 10Ba. , or the inference by the inference engine 36, the drive control of the actuator is performed. If the image P80 acquired by the imaging unit 12B is rotated when the similarity of the images and the reasoning using the images are performed, rotation processing is performed so that the images P71 to P73 and the like match. Also, if there is a case where the angles of view do not match, a trimming process is performed. Also, if the luminance (exposure) is not uniform, brightness correction or the like is performed. In addition, image correction processing is performed so that the conditions are the same as those of the image obtained when the doctor finds the site (affected area) Re. Images P81 to P83 are images after correction.
 第2の内視鏡10Bが再検査に使用される場合に、制御部11Bまたは操作反映制御部23Bがアクチュエータ等の駆動制御を行って、第2の内視鏡10Bの先端部10Baが、部位(患部)Re付近に到達すると、制御部11B等は、その旨を表示部14Bに表示する。この表示を再検査担当の医師が見ると、部位(患部)Reの経過状態を観察することができる。 When the second endoscope 10B is used for reexamination, the control unit 11B or the operation reflection control unit 23B controls the driving of the actuator or the like so that the distal end portion 10Ba of the second endoscope 10B moves to the site. When reaching the vicinity of (affected part) Re, the control unit 11B or the like displays a message to that effect on the display unit 14B. When the doctor in charge of reexamination sees this display, the progress of the site (affected area) Re can be observed.
 また、第2の内視鏡10Bが手術の際に部位(患部)Reまで自走する場合には、制御部11Bまたは操作反映制御部23Bがアクチュエータ等の駆動制御を行って、第2の内視鏡10Bの先端部10Baが、部位(患部)Re付近に到達すると、信号出力部21Bが、先端部10Baに設けれた光源部13Bを照射させる。医師は、患者を開腹して消化管を手術する場合に、光源部13Bが照射すると、矢印Hの方向が手術の対象位置であることが分かる。そこで、矢印J方向で大腸Co等の消化管の切除を行うことができる。 Further, when the second endoscope 10B is self-propelled to the region (affected region) Re during surgery, the control unit 11B or the operation reflection control unit 23B controls the driving of the actuators, etc. When the distal end portion 10Ba of the endoscope 10B reaches the vicinity of the region (affected part) Re, the signal output portion 21B causes the light source portion 13B provided at the distal end portion 10Ba to emit light. When the patient's abdomen is opened and the gastrointestinal tract is operated, the doctor can recognize that the direction of the arrow H is the target position of the operation when the light source unit 13B emits light. Therefore, the gastrointestinal tract such as the large intestine Co can be excised in the direction of the arrow J.
 このように、ロボット内視鏡として機能する第2の内視鏡10Bを再検査に使用する場合には目的とする部位(患部)Reまで自走してくれるので、担当医師の負担が軽減される。また内視鏡操作に熟練していなくても経過観察を行うことができる。また、手術の際に補助として使用する場合には、担当の外科医は内視鏡操作に係れなくてもよいので、手術に集中することができ、負担が軽減される。 In this way, when the second endoscope 10B that functions as a robot endoscope is used for reexamination, it travels by itself to the target site (affected site) Re, thereby reducing the burden on the doctor in charge. be. In addition, follow-up observation can be performed even if the patient is not skilled in endoscope operation. Also, when used as an aid during surgery, the surgeon in charge does not need to be involved in the operation of the endoscope, so the surgeon can concentrate on the surgery and reduce the burden.
 次に、図11を用いて、画像を引き継ぎ情報として使用できるように、撮影する方法について説明する(図8のS19、S21参照)。図11において、画像P91~P94は、撮像部12Aにおいて、引継画像として取得された時系列的に画像である。撮像タイミングとして描かれているグラフのHレベルの間に露光され、Lレベルの間に画像データが撮像素子から読み出されている。上述の画像P91~P94は、タイミングT1~T4において、撮像部12Bにおいて取得されている。 Next, with reference to FIG. 11, a method of capturing an image so that it can be used as handover information will be described (see S19 and S21 in FIG. 8). In FIG. 11, images P91 to P94 are images in time series obtained as handover images in the imaging unit 12A. Exposure is performed during the H level of the graph drawn as imaging timing, and image data is read out from the image sensor during the L level. The images P91 to P94 described above are acquired by the imaging unit 12B at timings T1 to T4.
 画像P91~P94の中で各画像の中心付近の黒色の部分は、消化管の中の空洞を示し、その周辺の白色部分A~Dは筋肉や消化管壁の襞であり、照明光を反射して白色となっている。また筋肉や消化管壁の襞の外側の黒色部分は、襞等の影の部分である。 Among the images P91 to P94, the black part near the center of each image indicates the cavity in the digestive tract, and the surrounding white parts A to D are muscles and folds of the digestive tract wall that reflect the illumination light. and white. In addition, the black portions outside the folds of the muscle and the wall of the gastrointestinal tract are the shadow portions of the folds.
 医師は、図7Aにおける説明と同様に、画像P91を見て、内視鏡10Aの先端を、中心付近の黒色部分の方向に移動するように操作部17Aを操作する。次に、画像P92の状態となった際に、制御部11A(または制御部31A)は、画像P91と画像P92の画像に基づいて、操作がどのようになされたか追跡できるか否かを判定する。そして、挿入スピードが速すぎる場合や、急に変化する操作を行った等によって、2つの画像P91、P92の間で、変化が不適当の場合には、操作をやり直す等のガイドを表示する(図8のS21参照)。この場合は、やり直し等の表示は、表示部14Aに視認できるように表示してもよく、また聴覚できるように音声で表示してもよい。 The doctor sees the image P91 and operates the operation section 17A so as to move the tip of the endoscope 10A toward the black portion near the center in the same manner as described in FIG. 7A. Next, when the state of the image P92 is reached, the control unit 11A (or the control unit 31A) determines whether or not it is possible to track how the operation is performed based on the images of the image P91 and the image P92. . If the change between the two images P91 and P92 is inappropriate because the insertion speed is too fast or if an operation that suddenly changes is performed, a guide such as redoing the operation is displayed ( See S21 in FIG. 8). In this case, the redo display may be visually displayed on the display unit 14A, or may be audibly displayed.
 以後、画像P92からP93に変化する際、画像P93からP94に変化する際等、画像が変化するたびに、画像間の変化が不適当か否かを判定し、不適当な場合にはやり直しのガイド表示を行う。なお、図11におけて引継画像は、撮像タイミングの2周期に1回の割合で取得しているが、このタイミングは一定周期となる必要はなく、画像の変化に応じて決めればよい。画像P91と画像P92の間で、同一部分(例えば、筋肉や消化管壁の襞A~D)の位置関係を追跡できる程度のタイミングとすればよい。 Thereafter, each time the image changes, such as when the image P92 changes to P93 or when the image P93 changes to P94, it is determined whether or not the change between the images is inappropriate. Display the guide. In FIG. 11, the handover image is acquired once every two cycles of the imaging timing, but this timing does not have to be a constant cycle, and may be determined according to changes in the image. The timing may be such that the positional relationship between the images P91 and P92 can be traced between the same portions (for example, muscles and folds A to D of the wall of the gastrointestinal tract).
 このように、時系列画像によって、どのような挿入、抜去が、どのような順番や操作で行われたかが、画像に時間に従った情報として記録されている。そこで、必要に応じて操作がどのように行われたかの情報を、画像に追記しておけば、同様の操作を行う内視鏡挿入や内視鏡観察時の参考にすることが出来る。 In this way, the time-series images record what kind of insertions and withdrawals were performed, and in what order and in what kind of operations, as information according to time. Therefore, if information on how the operation was performed is added to the image as necessary, it can be used as a reference when inserting the endoscope or observing the endoscope in which the same operation is performed.
 また、ここで得られた画像の変化のスピードなどもガイド用の情報となる。つまり、ゆっくりと画像が変化する場合には、医師は慎重に操作をしているし、高速に画像が変化する場合には、医師は迅速な操作を心がけているので、次に検査する場合に参考にすることは有意義である。内視鏡の挿入・抜去のスピードのみならず、観察時の時間や観察角度、距離なども参考になるので、これらの情報も引継情報としてもよい。 In addition, the speed of change in the image obtained here will also serve as guide information. In other words, if the image changes slowly, the doctor is doing the operation carefully, and if the image changes quickly, the doctor is trying to operate quickly. It is meaningful to refer to them. Not only the speed of inserting and removing the endoscope, but also the observation time, observation angle, distance, etc. are helpful, and these information may also be taken over information.
 以上説明したように、本発明の各実施形態における内視鏡システムは、特定被検者の第1の内視鏡による検査で得られた患部が撮影された患部画像をもとに、異なる複数の観察方法で得られた同一若しくは類似の患部画像で学習された類似画像推論モデルを有する類似画像推論部(例えば、推論エンジン36)と、特定被検者に対する第2の内視鏡による再検査時に患部の位置を再度観察するために、再検査時の画像を類似画像推論部に入力して得られた結果に従って、再確認位置をガイドする挿入補助情報を生成する再挿入補助情報生成部(例えば、補助装置30、推論エンジン36等)を有している。このため、内視鏡等によって観察した位置を、再度、容易に検出することができる。 As described above, the endoscope system according to each embodiment of the present invention generates a plurality of different images based on an affected area image of the affected area obtained by an examination of a specific subject using a first endoscope. A similar image inference unit (e.g., an inference engine 36) having a similar image inference model learned with the same or similar affected area image obtained by the observation method of 1, and a second endoscope reexamination for a specific subject Sometimes, in order to re-observe the position of the affected area, the re-insertion auxiliary information generation unit ( For example, auxiliary device 30, inference engine 36, etc.). Therefore, the position observed by an endoscope or the like can be easily detected again.
 また、本発明の各実施形態における内視鏡情報取得方法は、内視鏡検査時に、次回の内視鏡の挿入時のガイドとなる情報を取得する取得ステップを有している。すなわち、1回目の内視鏡検査の際に、挿入時から抜去時までの画像を記録しており、この記録された画像は次回の内視鏡の挿入時のガイド情報として利用される(例えば、図1Aの画像P1、図4のS11、S17参照)。 Further, the endoscope information acquisition method according to each embodiment of the present invention has an acquisition step of acquiring information that serves as a guide for the next insertion of the endoscope during the endoscopy. That is, during the first endoscopic examination, images from the time of insertion to the time of withdrawal are recorded, and the recorded images are used as guide information when inserting the next endoscope (for example, , image P1 in FIG. 1A and S11 and S17 in FIG. 4).
 なお、本発明の各実施形態においては、補助装置30はサーバや院内システムにもうけられているとして説明したが、サービスサーバは複数のサーバによってサービスを提供するようにしてもよく、院内システムも同様に、複数のシステムによってサービスを提供するようにしてもよい。また、補助装置30と接続する内視鏡として、内視鏡10A、10Bの2つの内視鏡を示したが、これは例示に過ぎず、これよりも多い数の内視鏡と接続するようにしてもよい。また、内視鏡検査として大腸検査を主に説明したが、これに限らず、例えば、十二指腸検査等、他の内視鏡検査にも本発明を適用することができる。さらに、内視鏡検査に限らず、臨床検査を受ける場合には、種々の準備・前処理等が必要であり、その場合にも、本実施形態を適用することができる。 In each embodiment of the present invention, the auxiliary device 30 has been described as provided in a server or an in-hospital system. In addition, services may be provided by multiple systems. Also, although two endoscopes, ie, the endoscopes 10A and 10B are shown as the endoscopes to be connected to the auxiliary device 30, this is merely an example, and a greater number of endoscopes may be connected. can be Also, although colonoscopy has been mainly described as an endoscopy, the present invention is not limited to this, and can be applied to other endoscopy such as duodenum examination. Furthermore, not only endoscopic examinations but also clinical examinations require various preparations and pretreatments, and the present embodiment can be applied to such cases as well.
 また、本発明の各実施形態においては、内視鏡として大腸内視鏡を使用する場合を例に挙げて説明した。しかし、大腸内視鏡に限らず、他の内視鏡に本発明を適用することができる。例えば、喉頭内視鏡、気管支鏡、膀胱鏡、胆道鏡、血管内視鏡、上部消化管内視鏡、十二指腸内視鏡、小腸内視鏡、カプセル内視鏡、胸腔鏡、腹腔鏡、関節鏡、脊椎内視鏡、硬膜外腔内視鏡等の内視鏡であってもよい。 Also, in each embodiment of the present invention, the case of using a large intestine endoscope as an endoscope has been described as an example. However, the present invention can be applied not only to colonoscopes but also to other endoscopes. For example, laryngoscope, bronchoscope, cystoscope, biliary scope, angioscope, upper gastrointestinal endoscope, duodenoscope, small intestine endoscope, capsule endoscope, thoracoscope, laparoscope, arthroscope , a spinal endoscope, an epidural endoscope, and the like.
 また、本発明の各実施形態においては、管状の内視鏡における挿入とか抜去といった操作と共に説明したが、この例に限らず、例えば、カプセル内視鏡のように一方向に抜けていく内視鏡にも応用が可能である。一度、患部を見つけた場合、再検査時に、その部分に近づいた際に、撮像のフレームレートを変更するなどのガイドにも応用できる。カプセル内視鏡は、特定の方向に向けて移動しながら、撮像して状況を確認する装置であるから、ロボットや車載用の機器など、移動して確認を行うシステムや機器にも、本発明は応用して活用可能である。 In addition, in each embodiment of the present invention, the operation of inserting and removing a tubular endoscope has been described, but the present invention is not limited to this example. It can also be applied to mirrors. Once an affected area is found, it can also be applied to guidance such as changing the imaging frame rate when approaching that area during re-examination. Since the capsule endoscope is a device that captures images while moving in a specific direction and confirms the situation, the present invention can also be applied to systems and equipment that perform confirmation while moving, such as robots and in-vehicle equipment. can be applied and utilized.
 また、本発明の各実施形態においては、内視鏡の撮像素子を用いて取得した画像を利用する例について説明したが、この例に限らず、例えば、超音波を利用した画像を利用するようにしてもよい。例えば、上部消化管であれば、膵臓、膵管、胆嚢、胆管、肝臓等、内視鏡の光学画像では観察できない病変部に対して、超音波画像での診断に使用しても良い。また、下部消化管であれば、痔瘻や、前立腺がん、大腸内視鏡の光学画像では見えない病変部(例えば、癒着等)、小腸等の観察があれば、光学画像で見えない病変部に対して、超音波画像での診断に使用しても良い。超音波診断においても病変部をフォローアップ等で描出することが必要になる場合があり、この場合、再度描出する時の位置調整は、通常内視鏡の光学画像で内視鏡先端位置・管腔壁との距離・アングル・内視鏡軸転を前回と同じように調整するという同じような作業になる。超音波観測装置側での画像調整として、輝度やコントラストの調整等もあるので、これらも自動で前回と同様にしてもよく、病変部の変化に応じて自動調整するようにしてもよい。 Further, in each embodiment of the present invention, an example of using an image acquired using an imaging element of an endoscope has been described, but the present invention is not limited to this example, and for example, an image using ultrasound may be used. can be For example, in the case of the upper gastrointestinal tract, ultrasound images may be used for diagnosis of lesions that cannot be observed with optical images of an endoscope, such as the pancreas, pancreatic duct, gallbladder, bile duct, and liver. In the case of the lower gastrointestinal tract, if there is an anal fistula, prostate cancer, lesions that cannot be seen in the optical image of colonoscopy (for example, adhesions, etc.), and observation of the small intestine, etc., lesions that cannot be seen in the optical image However, it may be used for diagnosis using ultrasound images. Even in ultrasound diagnosis, it may be necessary to visualize the lesion as a follow-up, etc. In this case, the position adjustment for re-imaging is usually done using the optical image of the endoscope. It will be the same work as before, adjusting the distance from the cavity wall, the angle, and the rotation of the endoscope. Image adjustment on the ultrasound observation apparatus side includes adjustment of brightness and contrast, and these may be automatically adjusted in the same manner as the previous time, or may be automatically adjusted in accordance with changes in lesions.
 超音波を利用する場合には、反射してきた、あるいは透過してきた音波の一別の特徴を判定することによって、目視できない部位について、超音波を投射した方向の内部の状態の差異が観察可能となる。観測対象である生体組織または材料の特性を観測するために、超音波を利用するようにしてもよい。具体的には、超音波観測装置が、超音波を送受信する超音波振動子から受信した超音波エコーに対して所定の信号処理を施すことによって、観測対象の特性に関する情報を取得することが可能となる。 When ultrasonic waves are used, it is possible to observe differences in the internal state of invisible parts in the direction in which the ultrasonic waves are projected by judging another characteristic of the reflected or transmitted sound waves. Become. Ultrasound may be used to observe the properties of the biological tissue or material that is the object of observation. Specifically, the ultrasonic observation device can acquire information about the characteristics of the observation target by performing predetermined signal processing on the ultrasonic echo received from the ultrasonic transducer that transmits and receives ultrasonic waves. becomes.
 また、本発明の各実施形態においては、ロジックベースの判定と推論ベースによる判定について説明したが、ロジックベースによる判定を行うか推論による判定を行うかは、本実施形態においては適宜いずれかを選択して使用するようにしてもよい。また、判定の過程で、部分的にそれぞれの良さを利用してハイブリッド式の判定をしてもよい。 In each embodiment of the present invention, logic-based determination and inference-based determination have been described. may be used as In addition, in the process of judgment, a hybrid judgment may be made by partially utilizing the merits of each.
 また、本発明の各実施形態においては、制御部11A、11B、31は、CPUやメモリ等から構成されている機器として説明した。しかし、CPUとプログラムによってソフトウエア的に構成する以外にも、各部の一部または全部をハードウエア回路で構成してもよく、ヴェリログ(Verilog)やVHDL(Verilog Hardware Description Language)等によって記述されたプログラム言語に基づいて生成されたゲート回路等のハードウエア構成でもよく、またDSP(Digital Signal Processor)等のソフトを利用したハードウエア構成を利用してもよい。これらは適宜組み合わせてもよいことは勿論である。 Also, in each embodiment of the present invention, the controllers 11A, 11B, and 31 have been described as devices configured from CPUs, memories, and the like. However, in addition to being configured as software by a CPU and a program, part or all of each part may be configured as a hardware circuit, and is described in Verilog, VHDL (Verilog Hardware Description Language), etc. A hardware configuration such as a gate circuit generated based on a program language may be used, or a hardware configuration using software such as a DSP (Digital Signal Processor) may be used. Of course, these may be combined as appropriate.
 また、制御部11A、11B、31は、CPUに限らず、コントローラとしての機能を果たす素子であればよく、上述した各部の処理は、ハードウエアとして構成された1つ以上のプロセッサが行ってもよい。例えば、各部は、それぞれが電子回路として構成されたプロセッサであっても構わないし、FPGA(Field Programmable Gate Array)等の集積回路で構成されたプロセッサにおける各回路部であってもよい。または、1つ以上のCPUで構成されるプロセッサが、記録媒体に記録されたコンピュータプログラムを読み込んで実行することによって、各部としての機能を実行しても構わない。 Moreover, the control units 11A, 11B, and 31 are not limited to CPUs, and may be elements that function as controllers. good. For example, each unit may be a processor configured as an electronic circuit, or may be each circuit unit in a processor configured with an integrated circuit such as an FPGA (Field Programmable Gate Array). Alternatively, a processor composed of one or more CPUs may read and execute a computer program recorded on a recording medium, thereby executing the function of each unit.
 また、本発明の各実施形態においては、補助装置30は、制御部31、入力部32、ID管理部33、通信部34、記録部35、推論エンジン36を有しているものとして説明した。しかし、これらは一体の装置内に設けられている必要はなく、例えば、インターネット等の通信網によって接続されていれば、上述の各部は分散されていても構わない。 Also, in each embodiment of the present invention, the auxiliary device 30 has been described as having the control unit 31, the input unit 32, the ID management unit 33, the communication unit 34, the recording unit 35, and the inference engine 36. However, they do not need to be provided in an integrated device, and the above-described units may be distributed as long as they are connected by a communication network such as the Internet.
 同様に、内視鏡10A、10Bは、制御部11A、11B、撮像部12A、12B、光源部13A、13B、表示部14A、14B、ID管理部15A、15B、記録部16A、16B、操作部17A、17B、操作判定部18A、推論エンジン19A、19B、信号出力部21B、類似画像判定部22B、操作反映制御部23Bを有しているものとして説明した。しかし、これらは一体の装置内に設けられている必要はなく、各部は分散されていても構わない。 Similarly, the endoscopes 10A and 10B include control units 11A and 11B, imaging units 12A and 12B, light source units 13A and 13B, display units 14A and 14B, ID management units 15A and 15B, recording units 16A and 16B, operation units 17A and 17B, operation determination section 18A, inference engines 19A and 19B, signal output section 21B, similar image determination section 22B, and operation reflection control section 23B. However, these need not be provided in an integrated device, and each part may be distributed.
 また、近年は、様々な判断基準を一括して判定できるような人工知能が用いられる事が多く、ここで示したフローチャートの各分岐などを一括して行うような改良もまた、本発明の範疇に入るものであることは言うまでもない。そうした制御に対して、ユーザが善し悪しを入力可能であれば、ユーザの嗜好を学習して、そのユーザにふさわしい方向に、本願で示した実施形態はカスタマイズすることが可能である。 In addition, in recent years, artificial intelligence that can collectively determine various judgment criteria is often used, and improvements such as collectively performing each branch of the flow chart shown here are also within the scope of the present invention. It goes without saying that the If the user can input good or bad for such control, it is possible to learn the user's preference and customize the embodiment shown in the present application in a direction suitable for the user.
 さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。特に、音声認識を含む生体反応を利用した操作などはそれぞれにふさわしいセンサやインターフェースや判定回路が必要になるが煩雑になるのを避けて特に記載していないが、これらのユーザの手動操作を代用しうる様々な改良技術、代替技術によってもまた、本発明は達成が可能であることを付記しておく。 Furthermore, the constituent elements of different embodiments may be combined as appropriate. In particular, operations that use biological reactions, including voice recognition, require appropriate sensors, interfaces, and judgment circuits, but are not specifically described to avoid complication, but these manual operations by the user are substituted. It should be noted that the present invention can also be achieved by various possible improved techniques and alternative techniques.
 また、本明細書において説明した技術のうち、主にフローチャートで説明した制御に関しては、プログラムで設定可能であることが多く、記録媒体や記録部に収められる場合もある。この記録媒体、記録部への記録の仕方は、製品出荷時に記録してもよく、配布された記録媒体を利用してもよく、インターネットを通じてダウンロードしたものでもよい。 In addition, among the techniques described in this specification, the control described mainly in the flowcharts can often be set by a program, and may be stored in a recording medium or recording unit. The method of recording in the recording medium and the recording unit may be recorded at the time of product shipment, using a distributed recording medium, or downloading via the Internet.
 また、本発明の一実施形態においては、フローチャートを用いて、本実施形態における動作を説明したが、処理手順は、順番を変えてもよく、また、いずれかのステップを省略してもよく、ステップを追加してもよく、さらに各ステップ内における具体的な処理内容を変更してもよい。 In addition, in one embodiment of the present invention, the operation in this embodiment was explained using a flowchart, but the order of the processing procedure may be changed, or any step may be omitted. Steps may be added, and specific processing contents within each step may be changed.
 また、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず」、「次に」等の順番を表現する言葉を用いて説明したとしても、特に説明していない箇所では、この順で実施することが必須であることを意味するものではない。 In addition, even if the operation flow in the claims, the specification, and the drawings is explained using words expressing the order such as "first" and "next" for convenience, in places not specifically explained, It does not mean that it is essential to carry out in this order.
 本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせによって、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 The present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the spirit of the present invention at the implementation stage. Also, various inventions can be formed by appropriate combinations of the plurality of constituent elements disclosed in the above embodiments. For example, some components of all components shown in the embodiments may be deleted. Furthermore, components across different embodiments may be combined as appropriate.
10・・・内視鏡、10A・・・内視鏡、10B・・・第2の内視鏡、11A・・・制御部、11B・・・制御部、12A・・・撮像部、12B・・・撮像部、13A・・・光源部、13B・・・光源部、14A・・・表示部、14B・・・表示部、15A・・・ID管理部、15B・・・ID管理部、16A・・・記録部、16B・・・記録部、17A・・・操作部、17B・・・操作部、18A・・・操作判定部、19A・・・推論エンジン、21B・・・信号出力部、22B・・・類似画像判定部、23B・・・操作反映制御部、23aB・・・曲げ制御部、32bB・・・挿入制御部、30・・・補助装置、31・・・制御部、32・・・入力部、33・・・ID管理部、34・・・通信部、35・・・記録部、36・・・推論エンジン 10 endoscope 10A endoscope 10B second endoscope 11A control unit 11B control unit 12A imaging unit 12B Imaging unit 13A Light source unit 13B Light source unit 14A Display unit 14B Display unit 15A ID management unit 15B ID management unit 16A Recording unit 16B Recording unit 17A Operation unit 17B Operation unit 18A Operation determination unit 19A Inference engine 21B Signal output unit 22B... similar image determination section, 23B... operation reflection control section, 23aB... bending control section, 32bB... insertion control section, 30... auxiliary device, 31... control section, 32. Input unit 33 ID management unit 34 communication unit 35 recording unit 36 inference engine

Claims (30)

  1.  特定被検者の第1の内視鏡による検査で得られた患部が撮影された患部画像をもとに、異なる複数の観察方法で得られた同一若しくは類似の患部画像で学習された類似画像推論モデルを有する類似画像推論部と、
     上記特定被検者に対する第2の内視鏡による再検査時に上記患部の位置を再度観察するために、再検査時の画像を上記類似画像推論部に入力して得られた結果に従って、再確認位置をガイドする挿入補助情報を生成する再挿入補助情報生成部と、
     を有することを特徴とする内視鏡挿入ガイド装置。
    A similar image learned from the same or similar images of the affected part obtained by a plurality of different observation methods, based on the affected part image of the affected part obtained by the examination with the first endoscope of the specific subject. a similar image inference unit having an inference model;
    Reconfirmation according to the result obtained by inputting the image at the time of reexamination to the similar image inference unit in order to re-observe the position of the affected part during reexamination of the specific subject with the second endoscope a reinsertion auxiliary information generating unit that generates insertion auxiliary information that guides a position;
    An endoscope insertion guide device comprising:
  2.  上記類似画像推論モデルは、観察対象臓器の変形による患部画像の変化をキャンセルして推論することを特徴とする請求項1に記載の内視鏡挿入ガイド装置。 The endoscope insertion guide device according to claim 1, wherein the similar image inference model is inferred by canceling changes in the affected area image due to deformation of the observed organ.
  3.  上記類似画像推論モデルは、内視鏡挿入時と抜去時、送気操作、送水操作、吸引操作、操作速度の変化、姿勢の変化の少なくとも1つによって変形した観察対象臓器の画像の対応関係から学習した推論モデルを利用することを特徴とする請求項1に記載の内視鏡挿入ガイド装置。 The above-mentioned similar image inference model is based on the correspondence relationship of the image of the observed organ deformed by at least one of the insertion and withdrawal of the endoscope, air supply operation, water supply operation, suction operation, change in operation speed, and change in posture. 2. The endoscope insertion guide device according to claim 1, wherein a learned inference model is used.
  4.  上記類似画像推論モデルは、上記第1の内視鏡による検査時に得られた観察対象臓器の連続画像の変化を推論することを特徴とする請求項1に記載の内視鏡挿入ガイド装置。 The endoscope insertion guide device according to claim 1, wherein the similar image inference model infers changes in successive images of the observation target organ obtained during inspection by the first endoscope.
  5.  上記観察対象臓器は大腸または小腸であることを特徴とする、請求項2乃至4に記載の内視鏡挿入ガイド装置。 The endoscope insertion guide device according to any one of claims 2 to 4, characterized in that the organ to be observed is the large intestine or the small intestine.
  6.  第1のタイミングにおいて、特定対象物までの内視鏡センサ部の位置変更動作を含む検査を行い、該検査時における連続画像の少なくとも一部を、上記第1のタイミングより後の第2のタイミングにおいて行う検査の際に使用する内視鏡位置変更用ガイドを生成するためのガイド用情報として取得する取得ステップと、
     上記第1のタイミングにおいて取得した上記連続画像の少なくとも一部に基づいて、上記ガイド用情報を決定するガイド用情報決定ステップと、
     を有することを特徴とする内視鏡情報取得方法。
    At a first timing, an inspection including an operation of changing the position of the endoscope sensor unit up to a specific object is performed, and at least a part of the continuous images during the inspection is captured at a second timing after the first timing. an acquisition step of acquiring as guide information for generating a guide for changing the position of the endoscope to be used in the examination performed in
    a guide information determining step of determining the guide information based on at least part of the continuous images acquired at the first timing;
    An endoscopic information acquisition method characterized by comprising:
  7.  上記ガイド用情報は、上記第2のタイミングで行われる内視鏡センサ部の挿入時に、上記特定対象物に対応する画像を取得可能な位置にまで位置変更動作が行われるように、上記特定対象物を特定可能にする情報であることを特徴とする請求項6に記載の内視鏡情報取得方法。 The guide information is such that when the endoscope sensor section is inserted at the second timing, the position change operation is performed to a position where an image corresponding to the specific target object can be obtained. 7. The endoscope information acquisition method according to claim 6, wherein the information is information that enables identification of an object.
  8.  上記特定対象物を特定可能にする情報は、AIを用いて推論される類似画像判定用の情報であることを特徴とする請求項7に記載の内視鏡情報取得方法。 The endoscope information acquisition method according to claim 7, wherein the information that enables the identification of the specific object is information for similar image determination that is inferred using AI.
  9.  上記特定対象物を特定可能にする情報は、AIを用いて推論される画像の変化の類似性判定用の情報であることを特徴とする請求項7に記載の内視鏡情報取得方法。  The endoscope information acquisition method according to claim 7, wherein the information that enables the specific object to be specified is information for similarity determination of image changes inferred using AI.
  10.  上記ガイド用情報は内視鏡位置変更情報に基づいて決定し、上記内視鏡位置変更情報は、上記第1のタイミングにおいて得られた挿入方向と抜去方向の内視鏡画像情報の相互参照によって、または、上記第2のタイミングにおいて得られた内視鏡画像変化と内視鏡操作情報の相互参照によって得られる情報であることを特徴とする請求項6に記載の内視鏡情報取得方法。 The guide information is determined based on the endoscope position change information, and the endoscope position change information is obtained by cross-referencing endoscope image information in the insertion direction and the withdrawal direction obtained at the first timing. 7. The endoscope information obtaining method according to claim 6, wherein the information is obtained by cross-referencing the endoscope image change and the endoscope operation information obtained at the second timing.
  11.  上記第1のタイミングにおいて取得した上記連続画像の少なくとも一部に基づく引用情報を記録しておき、該引用情報は、インフォームド・コンセントに関する確認結果を含んでいることを特徴とする請求項6に記載の内視鏡情報取得方法。 6. Citation information based on at least a part of said continuous images acquired at said first timing is recorded, said citation information including confirmation results regarding informed consent. 2. The endoscope information acquisition method described in .
  12.  上記取得ステップは、特定被検者の内視鏡検査の際に、上記内視鏡の操作に関する操作情報をさらに取得することを特徴とする請求項6に記載の内視鏡情報取得方法。 The endoscope information acquisition method according to claim 6, wherein the acquisition step further acquires operation information related to the operation of the endoscope during an endoscopy of the specific subject.
  13.  上記取得ステップは、上記内視鏡検査時において、第1の観察方法および第2の観察方法において、上記操作情報を取得することを特徴とする請求項12に記載の内視鏡情報取得方法。 The endoscope information acquisition method according to claim 12, wherein the acquisition step acquires the operation information in the first observation method and the second observation method during the endoscopy.
  14.  さらに、上記連続画像の少なくとも一部および/または上記操作情報を用いて、上記第1の観察方法および第2の観察方法のいずれか一方を行う際に見出される患部位置を、他方の観察方法を行う際に、上記患部位置を見出すための補助情報を出力する補助情報取得ステップを有することを特徴とする請求項13に記載の内視鏡情報取得方法。 Furthermore, using at least a part of the continuous images and/or the operation information, the position of the affected part found when performing one of the first observation method and the second observation method is compared with the other observation method. 14. The endoscopic information acquisition method according to claim 13, further comprising an auxiliary information acquisition step of outputting auxiliary information for finding the position of the affected part.
  15.  上記補助情報取得ステップは、上記内視鏡検査の際に第1の観察方法および第2の観察方法によって取得した上記患部画像および/または上記操作情報を用いて、上記患部位置を見出すための補助情報を推論によって出力するための推論モデルを生成することを特徴とする請求項14に記載の内視鏡情報取得方法。 The auxiliary information acquiring step uses the affected area image and/or the operation information acquired by the first observation method and the second observation method during the endoscopy to provide assistance for finding the affected area position. 15. The endoscope information acquisition method according to claim 14, wherein an inference model for outputting information by inference is generated.
  16.  特定被検者について第1の内視鏡による検査で内視鏡画像を取得する第1の画像取得部と、
     内視鏡検査の画像に基づき画像の類似度を推定する類似度推定モデルを有する類似画像推定部と、
     上記特定被検者に対する第2の内視鏡による再検査において、上記第1の内視鏡検査で発見された病変に対する画像と第2の内視鏡による検査の内視鏡画像とを上記類似画像推定部に入力して画像の類似度を推定し、上記類似度が所定よりも高い画像であるか否かを判定する類似画像判定部と、
     を具備し、
     上記第2の内視鏡による検査において、上記病変と類似する画像の位置までガイドすることを特徴とする内視鏡挿入ガイド装置。
    a first image acquisition unit that acquires an endoscopic image of a specific subject in an examination using a first endoscope;
    a similar image estimating unit having a similarity estimation model for estimating the similarity of an image based on an endoscopy image;
    In the re-examination of the specific subject with the second endoscope, the image of the lesion discovered in the first endoscopy and the endoscopic image of the examination with the second endoscope are compared to the above-mentioned similarity. a similar image determination unit for inputting to an image estimation unit, estimating the degree of similarity of an image, and determining whether or not the image has a higher degree of similarity than a predetermined value;
    and
    An endoscope insertion guide device for guiding to a position of an image similar to the lesion in the examination by the second endoscope.
  17.  上記類似画像推論モデルは、観察対象臓器の変形による患部画像の変化をキャンセルして推論することを特徴とする請求項16に記載の内視鏡挿入ガイド装置。 The endoscope insertion guide device according to claim 16, wherein the similar image inference model is inferred by canceling changes in the affected area image due to deformation of the observed organ.
  18.  上記類似画像推論モデルは、内視鏡挿入時と抜去時、送気操作、送水操作、吸引操作、操作速度の変化、姿勢の変化の少なくとも1つによって変形した観察対象臓器の画像の対応関係から学習した推論モデルを利用することを特徴とする。請求項16に記載の内視鏡挿入ガイド装置。 The above-mentioned similar image inference model is based on the correspondence relationship of the image of the observed organ deformed by at least one of the insertion and withdrawal of the endoscope, air supply operation, water supply operation, suction operation, change in operation speed, and change in posture. It is characterized by using a learned inference model. The endoscope insertion guide device according to claim 16.
  19.  特定被検者の内視鏡検査で得られた検査結果動画のコマに基づいて、処置が必要とされる患部が撮影された患部位置コマを動画内コマ中における位置として判定するステップと、
     上記動画中コマ中の患部コマ位置に従って、上記特定被検者に対する内視鏡再検査時に上記患部の位置を再度観察するために挿入位置をガイドする挿入補助情報を生成する再挿入補助情報生成ステップと、
     を有することを特徴とする内視鏡挿入ガイド方法。
    a step of determining an affected part position frame in which an affected part requiring treatment is photographed as a position in the moving image, based on the frames of the inspection result video obtained by the endoscopy of the specific subject;
    A re-insertion auxiliary information generating step of generating insertion auxiliary information for guiding an insertion position for re-observing the position of the affected area during re-examination of the specific subject according to the position of the affected area frame in the moving image. and,
    An endoscope insertion guide method comprising:
  20.  上記再挿入補助情報生成ステップは、さらに類似画像を推論する類似画像推論ステップを有することを特徴とする請求項19に記載の内視鏡挿入ガイド方法。 The endoscope insertion guide method according to claim 19, wherein the reinsertion auxiliary information generation step further has a similar image inference step of inferring a similar image.
  21.  上記類似画像推論ステップは、観察対象臓器の変形による患部画像の変化を推論することを特徴とする請求項20に記載の内視鏡挿入ガイド方法。 The endoscope insertion guide method according to claim 20, wherein the similar image inference step infers a change in the affected area image due to deformation of the observed organ.
  22.  上記類似画像推論ステップは、内視鏡挿入時と抜去時、送気操作、送水操作、吸引操作、操作速度の変化、姿勢の変化の少なくとも1つによって変形した観察対象臓器の画像の対応関係から学習した推論モデルを利用することを特徴とする請求項20に記載の内視鏡挿入ガイド方法。 The similar image inference step is based on the correspondence relationship of the image of the observation target organ deformed by at least one of the insertion and withdrawal of the endoscope, air supply operation, water supply operation, suction operation, change in operation speed, and change in posture. 21. The endoscope insertion guiding method according to claim 20, wherein a learned inference model is used.
  23.  特定被検者の内視鏡検査で得られた患部が撮影された患部画像を取得する患部画像取得部と、
     異なる複数の観察方法で得られた同一若しくは類似の患部画像で学習された画像変換推論モデルを有する類似画像推論部と、
     上記特定被検者に対する第2の内視鏡による再検査時に上記患部の位置を再度観察するために、上記画像変換推論モデルで上記第2の内視鏡用に変換されたターゲット画像情報を上記第2の内視鏡に送信する送信部と、
     を有することを特徴とするガイドサーバ装置。
    an affected area image acquiring unit that acquires an affected area image of an affected area obtained by endoscopy of a specific subject;
    a similar image inference unit having an image transformation inference model trained with the same or similar affected area images obtained by a plurality of different observation methods;
    In order to re-observe the position of the affected area when the specific subject is reexamined by the second endoscope, the target image information converted for the second endoscope by the image conversion inference model is used as the target image information. a transmitter that transmits to the second endoscope;
    A guide server device comprising:
  24.  複数の観察方法で撮像された特定対象物の画像を取得する画像取得ステップと、
     上記複数の観察方法で得られた画像のそれぞれに、上記特定対象物の画像の特徴をアノテーションするステップと、
     上記一方のアノテーション部位に相当する画像を入力とし、他方のアノテーション部位に相当する画像を出力するように学習するステップと、
     を有することを特徴とする画像推論モデル学習方法。
    an image acquisition step of acquiring images of a specific object captured by a plurality of observation methods;
    a step of annotating features of the image of the specific object to each of the images obtained by the plurality of observation methods;
    a learning step in which an image corresponding to one of the annotation regions is input and an image corresponding to the other annotation region is output;
    An image inference model learning method characterized by comprising:
  25.  第1の観察方法で撮影された特定対象物画像に対し、第1の観察方法とは異なる第2の観察方法によって撮影された上記特定対象物の画像をアノテーションデータとすることによって教師データを作成し、この教師データを用いて学習することによって、上記第1の観察方法で撮影した対象物の画像を入力した時に、上記第2の観察方法で撮影した対象物画像を推論可能にする推論モデルを作成することを特徴とする推論モデルの作成方法。 Teacher data is created by using annotation data for the image of the specific object captured by the second observation method different from the first observation method for the image of the specific object captured by the first observation method. Then, by learning using this teacher data, an inference model that makes it possible to infer the image of the object photographed by the second observation method when the image of the object photographed by the first observation method is input. A method of creating an inference model, characterized by creating
  26.  請求項25に記載の推論モデルの作成方法によって作成された類似画像推論モデルに、特定被検者の第1の内視鏡による検査で得られた特定対象物が撮影された特定対象物画像を入力することによって、ターゲット画像を推論するステップと、
     上記特定被検者に対する第2の内視鏡による再検査時に上記特定対象物の位置を再度観察するために、上記ターゲット画像に従って、再度確認するための位置をガイドする挿入補助情報を生成する再挿入補助情報生成ステップと、
     を有することを特徴とする内視鏡挿入ガイド方法。
    The similar image inference model created by the method of creating an inference model according to claim 25 is provided with a specific object image obtained by photographing the specific object obtained by the first endoscope inspection of the specific subject. inferring a target image by inputting;
    In order to re-observe the position of the specific object at the time of re-examination of the specific subject with the second endoscope, re-generating insertion auxiliary information for guiding the position for re-confirmation according to the target image. an insertion auxiliary information generating step;
    An endoscope insertion guide method comprising:
  27.  特定被検者の第1の内視鏡による検査で得られた特定対象物が撮影された特定対象物画像をターゲット画像とするステップと、 上記特定被検者に対する第2の内視鏡による再検査時に上記患部の位置を再度観察するために、請求項25に記載の推論モデルの作成方法によって作成された類似画像推論モデルに、再検査時の画像を入力して推論画像を得るステップと、
     上記推論画像を上記ターゲット画像と比較することにより、再確認位置をガイドする挿入補助情報を生成する再挿入補助情報生成ステップと、
     を有することを特徴とする内視鏡挿入ガイド方法。
    a step of using as a target image a specific object image obtained by photographing the specific object obtained by inspection with a first endoscope of a specific subject; obtaining an inference image by inputting the image at the time of reexamination into the similar image inference model created by the inference model creation method according to claim 25, in order to re-observe the position of the affected area during the examination;
    a reinsertion auxiliary information generating step of generating insertion auxiliary information for guiding a reconfirmation position by comparing the inference image with the target image;
    An endoscope insertion guide method comprising:
  28.  上記第1の観察方法と第2の観察方法は、内視鏡先端の撮影部を被検物に挿入する方向に動かした時の撮影による観察方法と、当該内視鏡先端の撮影部を抜去する方向に動かした時の撮影による観察方法であることを特徴とする請求項25に記載の推論モデルの作成方法。 The first observation method and the second observation method are the observation method by photographing when the imaging unit at the tip of the endoscope is moved in the direction of insertion into the object, and the observation method by removing the imaging unit at the tip of the endoscope. 26. The method of creating an inference model according to claim 25, wherein the observation method is a photographing when the object is moved in a direction to which the inference model is created.
  29.  上記第1の観察方法と第2の観察方法は、内視鏡先端の撮影部を被検物に挿入または抜去する方向に動かした時の撮影による観察において、上記内視鏡の屈曲や挿入または抜去の制御が異なる場合における撮影による観察方法であることを特徴とする請求項25に記載の推論モデルの作成方法。 In the first observation method and the second observation method, when the imaging unit at the distal end of the endoscope is moved in the direction of inserting or withdrawing from the object to be inspected, the endoscope is bent, inserted or removed. 26. The method for creating an inference model according to claim 25, wherein the method is an observation method by photographing when control of withdrawal is different.
  30.  第1の観察方法で撮影した対象物の画像の前後のタイミングで撮影された時系列画像コマ群について、時間的な変化が検出可能なように時系列コマ群の各コマを推論モデルに入力し、第2の観察方法で撮影した時の画像コマ群の時系列変化を得るステップと、
     上記第2の観察方法で撮影した時に得られるであろう画像変化を基準として、取得中の画像変化がそれに適合するように、上記対象物の画像を撮影するまで内視鏡操作ガイドを出力するステップと、
     を有することを特徴とする推論モデルを利用したガイド方法。
    Each frame of the time-series image frames captured before and after the image of the object captured by the first observation method is input to the inference model so that temporal changes can be detected. , a step of obtaining time-series changes in the group of image frames taken by the second observation method;
    An endoscope operation guide is output until the image of the object is photographed so that the image change during acquisition conforms to the image change that will be obtained when the image is captured by the second observation method. a step;
    A guiding method using an inference model characterized by having
PCT/JP2021/043003 2021-11-24 2021-11-24 Endoscope insertion guide device, endoscope insertion guide method, endoscope information acquisition method, guide server device, and image inference model learning method WO2023095208A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/043003 WO2023095208A1 (en) 2021-11-24 2021-11-24 Endoscope insertion guide device, endoscope insertion guide method, endoscope information acquisition method, guide server device, and image inference model learning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/043003 WO2023095208A1 (en) 2021-11-24 2021-11-24 Endoscope insertion guide device, endoscope insertion guide method, endoscope information acquisition method, guide server device, and image inference model learning method

Publications (1)

Publication Number Publication Date
WO2023095208A1 true WO2023095208A1 (en) 2023-06-01

Family

ID=86539072

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/043003 WO2023095208A1 (en) 2021-11-24 2021-11-24 Endoscope insertion guide device, endoscope insertion guide method, endoscope information acquisition method, guide server device, and image inference model learning method

Country Status (1)

Country Link
WO (1) WO2023095208A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024042895A1 (en) * 2022-08-24 2024-02-29 富士フイルム株式会社 Image processing device, endoscope, image processing method, and program

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012170774A (en) * 2011-02-24 2012-09-10 Fujifilm Corp Endoscopic system
WO2018159347A1 (en) * 2017-02-28 2018-09-07 富士フイルム株式会社 Processor device, endoscope system, and method of operating processor device
WO2018180631A1 (en) * 2017-03-30 2018-10-04 富士フイルム株式会社 Medical image processing device, endoscope system, and method for operating medical image processing device
WO2019106712A1 (en) * 2017-11-28 2019-06-06 オリンパス株式会社 Endoscope image processing device and endoscope image processing method
JP2019097661A (en) * 2017-11-29 2019-06-24 水野 裕子 Endoscope navigation device
WO2020017213A1 (en) * 2018-07-20 2020-01-23 富士フイルム株式会社 Endoscope image recognition apparatus, endoscope image learning apparatus, endoscope image learning method and program
WO2020039931A1 (en) * 2018-08-20 2020-02-27 富士フイルム株式会社 Endoscopic system and medical image processing system
US20210177524A1 (en) * 2019-12-12 2021-06-17 Koninklijke Philips N.V. Guided anatomical visualization for endoscopic procedures
WO2021229684A1 (en) * 2020-05-12 2021-11-18 オリンパス株式会社 Image processing system, endoscope system, image processing method, and learning method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012170774A (en) * 2011-02-24 2012-09-10 Fujifilm Corp Endoscopic system
WO2018159347A1 (en) * 2017-02-28 2018-09-07 富士フイルム株式会社 Processor device, endoscope system, and method of operating processor device
WO2018180631A1 (en) * 2017-03-30 2018-10-04 富士フイルム株式会社 Medical image processing device, endoscope system, and method for operating medical image processing device
WO2019106712A1 (en) * 2017-11-28 2019-06-06 オリンパス株式会社 Endoscope image processing device and endoscope image processing method
JP2019097661A (en) * 2017-11-29 2019-06-24 水野 裕子 Endoscope navigation device
WO2020017213A1 (en) * 2018-07-20 2020-01-23 富士フイルム株式会社 Endoscope image recognition apparatus, endoscope image learning apparatus, endoscope image learning method and program
WO2020039931A1 (en) * 2018-08-20 2020-02-27 富士フイルム株式会社 Endoscopic system and medical image processing system
US20210177524A1 (en) * 2019-12-12 2021-06-17 Koninklijke Philips N.V. Guided anatomical visualization for endoscopic procedures
WO2021229684A1 (en) * 2020-05-12 2021-11-18 オリンパス株式会社 Image processing system, endoscope system, image processing method, and learning method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024042895A1 (en) * 2022-08-24 2024-02-29 富士フイルム株式会社 Image processing device, endoscope, image processing method, and program

Similar Documents

Publication Publication Date Title
JP6641172B2 (en) Endoscope business support system
US20180263568A1 (en) Systems and Methods for Clinical Image Classification
JP3820244B2 (en) Insertion support system
JP5368668B2 (en) MEDICAL IMAGE DISPLAY DEVICE, MEDICAL IMAGE DISPLAY SYSTEM, AND METHOD FOR OPERATING MEDICAL IMAGE DISPLAY SYSTEM
JP7127785B2 (en) Information processing system, endoscope system, trained model, information storage medium, and information processing method
Chadebecq et al. Computer vision in the surgical operating room
WO2023124876A1 (en) Endoscope image detection auxiliary system and method, medium and electronic device
US20220254017A1 (en) Systems and methods for video-based positioning and navigation in gastroenterological procedures
JP2010517632A (en) System for continuous guidance of endoscope
JP2017534322A (en) Diagnostic mapping method and system for bladder
JP2009022446A (en) System and method for combined display in medicine
CN111588464A (en) Operation navigation method and system
JP2012024518A (en) Device, method, and program for assisting endoscopic observation
WO2021075418A1 (en) Image processing method, teacher data generation method, trained model generation method, illness development prediction method, image processing device, image processing program, and recording medium on which program is recorded
CN114913173B (en) Endoscope auxiliary inspection system, method, device and storage medium
US20220409030A1 (en) Processing device, endoscope system, and method for processing captured image
KR20220130855A (en) Artificial intelligence-based colonoscopy diagnosis supporting system and method
WO2023095208A1 (en) Endoscope insertion guide device, endoscope insertion guide method, endoscope information acquisition method, guide server device, and image inference model learning method
JP6644530B2 (en) Endoscope business support system
JP2023509075A (en) Medical support operating method, device and computer program product
JP2012045419A (en) Medical image display device, medical image display system, medical image display method, and endoscope apparatus
US20220361739A1 (en) Image processing apparatus, image processing method, and endoscope apparatus
JP7314394B2 (en) Endoscopy support device, endoscopy support method, and endoscopy support program
Patel et al. Deep learning in gastrointestinal endoscopy
WO2023218523A1 (en) Second endoscopic system, first endoscopic system, and endoscopic inspection method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21965582

Country of ref document: EP

Kind code of ref document: A1