JPWO2019088008A1 - Image processing equipment, image processing methods, programs, and endoscopic systems - Google Patents

Image processing equipment, image processing methods, programs, and endoscopic systems Download PDF

Info

Publication number
JPWO2019088008A1
JPWO2019088008A1 JP2019550364A JP2019550364A JPWO2019088008A1 JP WO2019088008 A1 JPWO2019088008 A1 JP WO2019088008A1 JP 2019550364 A JP2019550364 A JP 2019550364A JP 2019550364 A JP2019550364 A JP 2019550364A JP WO2019088008 A1 JPWO2019088008 A1 JP WO2019088008A1
Authority
JP
Japan
Prior art keywords
image
feature region
endoscopic image
region
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019550364A
Other languages
Japanese (ja)
Other versions
JP7148534B2 (en
Inventor
加來 俊彦
俊彦 加來
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2019088008A1 publication Critical patent/JPWO2019088008A1/en
Application granted granted Critical
Publication of JP7148534B2 publication Critical patent/JP7148534B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)

Abstract

仮想内視鏡検査が苦手とする病変等の効率的な情報収集を可能とする画像処理装置、画像処理方法、プログラム、及び内視鏡システムを提供する。仮想内視鏡画像を入力する第1画像入力部、実内視鏡画像を入力する第2画像入力部、仮想内視鏡画像と実内視鏡画像とを対応付けする対応付け部(57)、仮想内視鏡画像から第1特徴領域を抽出する第1特徴領域抽出部(51)、実想内視鏡画像から第2特徴領域を抽出する第2特徴領域抽出部(54)、第2特徴領域に対応付けされ、且つ第1特徴領域として抽出されていない非抽出領域の情報、及び非抽出領域に対応付けられた第2特徴領域の情報の少なくともいずれか一方を保存する保存部(61)を備える。Provided are an image processing device, an image processing method, a program, and an endoscopy system that enable efficient information collection of lesions and the like that virtual endoscopy is not good at. A first image input unit for inputting a virtual endoscopic image, a second image input unit for inputting a real endoscopic image, and an associating unit (57) for associating a virtual endoscopic image with a real endoscopic image. , The first feature region extraction unit (51) that extracts the first feature region from the virtual endoscopic image, the second feature region extraction unit (54) that extracts the second feature region from the real endoscopic image, the second A storage unit (61) that stores at least one of the information of the non-extracted area associated with the feature area and not extracted as the first feature area and the information of the second feature area associated with the non-extracted area. ) Is provided.

Description

本発明は画像処理装置、画像処理方法、プログラム、及び内視鏡システムに係り、特に仮想内視鏡画像の解析に関する。 The present invention relates to an image processing apparatus, an image processing method, a program, and an endoscopic system, and particularly to an analysis of a virtual endoscopic image.

近年、内視鏡を用いて患者の大腸等の管状構造物を観察又は処置を行う技術が注目されている。内視鏡画像はCCD(Charge Coupled Device)等の撮像素子を用いて撮影された画像である。そして、内視鏡画像は管状構造物内部の色、及び質感が鮮明に表現された画像である。一方、内視鏡画像は、管状構造物の内部を表す2次元画像である。このため、内視鏡画像が管状構造物内のどの位置を表しているものかを把握することが困難である。 In recent years, attention has been paid to a technique for observing or treating a tubular structure such as a patient's large intestine using an endoscope. The endoscopic image is an image taken by using an image sensor such as a CCD (Charge Coupled Device). The endoscopic image is an image in which the color and texture inside the tubular structure are clearly expressed. On the other hand, the endoscopic image is a two-dimensional image showing the inside of a tubular structure. For this reason, it is difficult to grasp which position in the tubular structure the endoscopic image represents.

そこで、CT装置又はMRI装置等のモダリティを用いた断層撮影をして取得された3次元検査画像を用いて、実際に内視鏡を用いて撮影した画像と類似した仮想内視鏡画像を生成する手法が提案されている。 Therefore, a virtual endoscopic image similar to the image actually taken by the endoscope is generated by using the three-dimensional inspection image obtained by tomography using a modality such as a CT device or an MRI device. The method to do is proposed.

仮想内視鏡画像は、内視鏡を管状構造物内の目標とする位置まで導くためのナビゲーション画像として用いられる場合がある。なお、CTはComputed Tomographyの省略語である。また、MRIはMagnetic Resonance Imagingの省略語である。 The virtual endoscopic image may be used as a navigation image to guide the endoscope to a target position in a tubular structure. CT is an abbreviation for Computed Tomography. MRI is an abbreviation for Magnetic Resonance Imaging.

このため、3次元検査画像から管状構造物の画像を抽出し、管状構造物の画像と内視鏡を用いて撮影を行い取得した実際の内視鏡画像である実内視鏡画像との対応付けを行い、内視鏡の現在位置における仮想内視鏡画像を管状構造物の3次元検査画像から生成して表示する手法が提案されている。 Therefore, an image of the tubular structure is extracted from the three-dimensional inspection image, and the image of the tubular structure is photographed using an endoscope to correspond to the actual endoscopic image obtained. A method has been proposed in which a virtual endoscopic image at the current position of the endoscope is generated from a three-dimensional inspection image of a tubular structure and displayed.

特許文献1は、内視鏡装置より得られる内視鏡画像を入力として、仮想空間内に3次元の臓器のモデルを形成し、よりリアルな画像を提供する医療支援システムが記載されている。 Patent Document 1 describes a medical support system that forms a three-dimensional organ model in a virtual space by inputting an endoscopic image obtained from an endoscopic device and provides a more realistic image.

特許文献2は、カラー内視鏡実画像と仮想内視鏡画像との相対的な位置関係を表す構図が合致するように仮想内視鏡画像を生成し、内視鏡画像を患部が見え易い態様で表示させる内視鏡システムが記載されている。 Patent Document 2 generates a virtual endoscopic image so that the composition representing the relative positional relationship between the color endoscopic real image and the virtual endoscopic image matches, and the affected portion can be easily seen from the endoscopic image. An endoscopic system to be displayed in an aspect is described.

特許文献3は、医用画像データの特定部の座標データを当該医用画像データと関連付けて記憶する医用画像観察装置が記載されている。特許文献3に記載の医用画像観察装置は、画質を落したくない所見部の画質を保持し、且つ画像表示に使用する画像データ量を低減させて画像表示の効率を向上させている。 Patent Document 3 describes a medical image observation device that stores coordinate data of a specific portion of medical image data in association with the medical image data. The medical image observing apparatus described in Patent Document 3 maintains the image quality of the findings portion for which the image quality is not desired to be deteriorated, and reduces the amount of image data used for image display to improve the efficiency of image display.

特許文献4は、3次元医療用画像から対象物を検出する画像処理方法が記載されている。特許文献4に記載の画像処理方法は、3次元医療画像から対象物を検出する際に学習が適用されている。 Patent Document 4 describes an image processing method for detecting an object from a three-dimensional medical image. Learning is applied to the image processing method described in Patent Document 4 when detecting an object from a three-dimensional medical image.

特開平11−104072号公報Japanese Unexamined Patent Publication No. 11-104072 特開2006−61274号公報Japanese Unexamined Patent Publication No. 2006-61274 特開2009−254690号公報JP-A-2009-254690 特開2011−177517号公報Japanese Unexamined Patent Publication No. 2011-177517

仮想大腸内視鏡画像に基づく仮想大腸内視鏡検査は、凸形状ポリープ等の突起の検出は得意であるが、平坦な病変などの検出が苦手である。仮想大腸内視鏡検査の性能の向上を図る上で、仮想大腸内視鏡検査が苦手とする病変の情報収集が望まれている。なお、上述した仮想大腸内視鏡検査における課題は、気管等の大腸以外の被観察部位に適用される仮想内視鏡検査についても同様である。 Virtual colonoscopy based on virtual colonoscopy is good at detecting protrusions such as convex polyps, but is not good at detecting flat lesions. In order to improve the performance of virtual colonoscopy, it is desired to collect information on lesions that virtual colonoscopy is not good at. The above-mentioned problems in the virtual colonoscopy are the same for the virtual colonoscopy applied to the observed site other than the large intestine such as the trachea.

特許文献1から特許文献4に記載の発明は、いずれも、仮想内視鏡検査が苦手とする病変の情報収集という技術課題に着目するものではなく、上述した技術課題を解決するものではない。 None of the inventions described in Patent Documents 1 to 4 focus on the technical problem of collecting information on lesions, which is difficult for virtual endoscopy, and do not solve the above-mentioned technical problem.

本発明はこのような事情に鑑みてなされたもので、仮想内視鏡検査が苦手とする病変等の効率的な情報収集を可能とする画像処理装置、画像処理方法、プログラム、及び内視鏡システムを提供することを目的とする。 The present invention has been made in view of such circumstances, and is an image processing device, an image processing method, a program, and an endoscope that enable efficient information collection of lesions, etc., which virtual endoscopy is not good at. The purpose is to provide a system.

上記目的を達成するために、次の発明態様を提供する。 In order to achieve the above object, the following aspects of the invention are provided.

第1態様に係る画像処理装置は、被検体の3次元検査画像から生成された仮想内視鏡画像を入力する第1画像入力部と、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力部と、仮想内視鏡画像と実内視鏡画像とを対応付けする対応付け部と、仮想内視鏡画像から第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出部と、実内視鏡画像から、第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出部と、実内視鏡画像の第2特徴領域に対応付けされ、且つ仮想内視鏡画像から第1特徴領域として抽出されていない非抽出領域の情報、及び非抽出領域に対応付けられた第2特徴領域の情報の少なくともいずれか一方を保存する保存部と、を備えた画像処理装置である。 The image processing apparatus according to the first aspect uses a first image input unit for inputting a virtual endoscopic image generated from a three-dimensional inspection image of the subject and an endoscope to image an observation target of the subject. A second image input unit for inputting the obtained real endoscopic image, an associating unit for associating the virtual endoscopic image with the real endoscopic image, and the virtual endoscopic image as the first condition. A first feature region extraction unit that extracts a matching first feature region, and a second feature region extraction unit that extracts a second feature region that matches the second condition corresponding to the first condition from a real endoscopic image. , Information on the non-extracted region that is associated with the second feature region of the real endoscopic image and is not extracted as the first feature region from the virtual endoscopic image, and the second feature associated with the non-extracted region. It is an image processing apparatus including a storage unit for storing at least one of the information of the area.

第1態様によれば、実内視鏡画像の第2特徴領域に対応付けられた仮想内視鏡画像の非抽出領域の情報、及び非抽出領域に対応付けられた第2特徴領域の情報の少なくともいずれか一方が保存される。これにより、実内視鏡画像から抽出される一方、仮想内視鏡画像から抽出されない特徴領域の情報の効率的な収集が可能である。 According to the first aspect, the information of the non-extracted region of the virtual endoscopic image associated with the second feature region of the real endoscopic image and the information of the second feature region associated with the non-extracted region At least one is preserved. This makes it possible to efficiently collect information on feature regions that are extracted from the real endoscopic image but not extracted from the virtual endoscopic image.

3次元検査画像の例として、CT装置を用いて被検体を断層撮影して得られた3次元検査画像が挙げられる。仮想内視鏡の一例として、大腸を被検体とする仮想大腸内視鏡が挙げられる。 An example of a three-dimensional inspection image is a three-dimensional inspection image obtained by tomography of a subject using a CT device. An example of a virtual colonoscope is a virtual colonoscope whose subject is the large intestine.

第1特徴領域の抽出に適用される第1条件を設定する第1条件設定部を備える態様が好ましい。また、第2特徴領域の抽出に適用される第2条件を設定する第2条件設定部を備える態様が好ましい。 It is preferable to include a first condition setting unit for setting the first condition applied to the extraction of the first feature region. Further, it is preferable to include a second condition setting unit for setting a second condition applied to the extraction of the second feature region.

第2画像入力部は、実内視鏡画像として動画像が逐次入力されてもよいし、実内視鏡画像として動画像がファイル形式で一括して入力されてもよい。 In the second image input unit, moving images may be sequentially input as real endoscopic images, or moving images may be collectively input as real endoscopic images in a file format.

第2態様は、第1態様の画像処理装置において、実内視鏡画像に対して、仮想内視鏡画像から第1特徴領域を抽出した抽出結果を付与する抽出結果付与部を備えた構成としてもよい。 The second aspect is the configuration in which the image processing apparatus of the first aspect includes an extraction result giving unit that gives an extraction result of extracting the first feature region from the virtual endoscopic image to the real endoscopic image. May be good.

第2態様によれば、実内視鏡画像に付与された仮想内視鏡画像の抽出結果を用いて、仮想内視鏡画像の第2特徴領域が非抽出領域に対応付けられているか否かの特定、及び実内視鏡画像の非対象領域に対応付けられた第2特徴領域を含む実内視鏡画像であるか否かの特定が可能である。 According to the second aspect, whether or not the second feature region of the virtual endoscopic image is associated with the non-extracted region by using the extraction result of the virtual endoscopic image given to the real endoscopic image. It is possible to specify whether or not the image is a real endoscopic image including a second feature region associated with a non-target region of the real endoscopic image.

仮想内視鏡画像から第1特徴領域を抽出した抽出結果の例として、第1特徴領域として抽出されていない非抽出領域を特定する情報が挙げられる。非抽出領域を特定する情報の例として、非抽出領域の位置の情報、及び非抽出領域の画像が挙げられる。 As an example of the extraction result of extracting the first feature region from the virtual endoscopic image, there is information for identifying a non-extracted region that has not been extracted as the first feature region. Examples of the information for identifying the non-extracted region include information on the position of the non-extracted region and an image of the non-extracted region.

第3態様は、第1態様又は第2態様の画像処理装置において、仮想内視鏡画像から第1特徴領域を抽出した抽出結果と、実内視鏡画像から第2特徴領域を抽出した抽出結果とを比較する比較部を備えた構成としてもよい。 The third aspect is the extraction result of extracting the first feature region from the virtual endoscopic image and the extraction result of extracting the second feature region from the real endoscopic image in the image processing apparatus of the first aspect or the second aspect. It may be configured to include a comparison unit for comparing with.

第3態様によれば、比較部を用いた比較に基づき、仮想内視鏡画像の第1特徴領域と、実内視鏡画像の第2特徴領域との効率的な対応付けが可能となる。 According to the third aspect, it is possible to efficiently associate the first feature region of the virtual endoscopic image with the second feature region of the real endoscopic image based on the comparison using the comparison unit.

第4態様は、第3態様の画像処理装置において、比較部は、仮想内視鏡画像と実内視鏡画像との対応する位置同士を比較する構成としてもよい。 The fourth aspect may be the image processing apparatus of the third aspect, in which the comparison unit may be configured to compare the corresponding positions of the virtual endoscopic image and the real endoscopic image.

第4態様によれば、仮想内視鏡画像と実内視鏡画像との対応する位置における比較が可能である。 According to the fourth aspect, it is possible to compare the virtual endoscopic image and the real endoscopic image at the corresponding positions.

第5態様は、第1態様から第4態様のいずれか一態様の画像処理装置において、実内視鏡画像の第2特徴領域について、仮想内視鏡画像の非抽出領域に対応付けされた領域であるか否かを判定した判定結果を入力する判定結果入力部を備えた構成としてもよい。 In the fifth aspect, in the image processing apparatus of any one of the first to fourth aspects, the second characteristic region of the real endoscopic image is associated with the non-extracted region of the virtual endoscopic image. The configuration may include a determination result input unit for inputting a determination result for determining whether or not.

第5態様によれば、ユーザの手動判定の判定結果の取得が可能である。 According to the fifth aspect, it is possible to acquire the determination result of the manual determination of the user.

第6態様は、第1態様から第5態様のいずれか一態様の画像処理装置において、仮想内視鏡画像の抽出結果、及び実内視鏡画像の抽出結果を表示する表示部を備えた構成としてもよい。 The sixth aspect is a configuration in which the image processing apparatus according to any one of the first to fifth aspects includes a display unit for displaying the extraction result of the virtual endoscopic image and the extraction result of the real endoscopic image. May be.

第6態様によれば、ユーザが仮想内視鏡画像の抽出結果、及び実内視鏡画像の抽出結果を確認し得る。 According to the sixth aspect, the user can confirm the extraction result of the virtual endoscopic image and the extraction result of the real endoscopic image.

第7態様は、第1態様から第6態様のいずれか一態様の画像処理装置において、実内視鏡画像から第2特徴領域を抽出した抽出結果を入力する抽出結果入力部を備えた構成としてもよい。 A seventh aspect is a configuration in which the image processing apparatus according to any one of the first to sixth aspects includes an extraction result input unit for inputting an extraction result obtained by extracting a second feature region from an actual endoscopic image. May be good.

第7態様によれば、ユーザの手動抽出の抽出結果の取得が可能である。 According to the seventh aspect, it is possible to acquire the extraction result of the manual extraction by the user.

第8態様は、第1態様から第6態様のいずれか一態様の画像処理装置において、第2特徴領域抽出部は、実内視鏡画像から第2特徴領域を自動的に抽出する構成としてもよい。 The eighth aspect is the image processing apparatus according to any one of the first to sixth aspects, wherein the second feature region extraction unit automatically extracts the second feature region from the actual endoscopic image. Good.

第8態様によれば、実内視鏡画像から第2特徴領域の自動抽出が可能である。 According to the eighth aspect, the second feature region can be automatically extracted from the actual endoscopic image.

第9態様は、第1態様から第8態様のいずれか一態様の画像処理装置において、第2特徴領域抽出部は、実内視鏡画像から第2特徴領域として病変を抽出する構成としてもよい。 A ninth aspect is the image processing apparatus according to any one of the first to eighth aspects, wherein the second feature region extraction unit may be configured to extract a lesion as a second feature region from a real endoscopic image. ..

第9態様によれば、病変に対応する仮想内視鏡画像の非抽出領域の特定が可能である。 According to the ninth aspect, it is possible to identify the non-extracted region of the virtual endoscopic image corresponding to the lesion.

第10態様は、第1態様から第9態様のいずれか一態様の画像処理装置において、保存部は、非抽出領域の仮想内視鏡画像における3次元座標値、及び非抽出領域に対応する第2特徴領域を含む実内視鏡画像の少なくともいずれか一方を保存する構成としてもよい。 A tenth aspect is the image processing apparatus according to any one of the first to ninth aspects, wherein the storage unit corresponds to a three-dimensional coordinate value in a virtual endoscopic image of a non-extracted area and a non-extracted area. The configuration may be such that at least one of the actual endoscopic images including the two feature regions is stored.

第10態様によれば、保存部は、非抽出領域の仮想内視鏡画像における座標値、非抽出領域に対応する第2特徴領域を含む実内視鏡画像の保存が可能である。 According to the tenth aspect, the storage unit can store the coordinate values in the virtual endoscopic image of the non-extracted region and the real endoscopic image including the second feature region corresponding to the non-extracted region.

保存部は、非抽出領域を特定する座標値として、非抽出領域の代表位置の座標値を保存してもよい。非抽出領域の代表位置の例として、非抽出領域の重心位置が挙げられる。 The storage unit may store the coordinate value of the representative position of the non-extracted area as the coordinate value for specifying the non-extracted area. An example of the representative position of the non-extracted region is the position of the center of gravity of the non-extracted region.

保存部は、非抽出領域を特定する座標値として、非抽出領域に含まれる複数の座標値を記憶してもよい。非抽出領域に含まれる複数の座標値の例として、非抽出領域の縁を特定する複数の座標値が挙げられる。 The storage unit may store a plurality of coordinate values included in the non-extracted area as coordinate values for specifying the non-extracted area. An example of a plurality of coordinate values included in the non-extracted region is a plurality of coordinate values that specify the edge of the non-extracted region.

保存部は、非抽出領域の仮想内視鏡画像における座標値と、非抽出領域に対応する第2特徴領域を含む実内視鏡画像とを関連付けして記憶してもよい。 The storage unit may store the coordinate values in the virtual endoscopic image of the non-extracted region in association with the real endoscopic image including the second feature region corresponding to the non-extracted region.

第11態様は、第1態様から第10態様のいずれか一態様の画像処理装置において、第1特徴領域抽出部は、仮想内視鏡画像から第1特徴領域として病変を抽出する構成としてもよい。 The eleventh aspect may be the image processing apparatus of any one of the first to tenth aspects, wherein the first feature region extraction unit may be configured to extract a lesion as a first feature region from a virtual endoscopic image. ..

第11態様によれば、仮想内視鏡画像から抽出されず、実内視鏡画像から抽出された病変の情報の効率的な収集が可能である。 According to the eleventh aspect, it is possible to efficiently collect information on lesions extracted from a real endoscopic image without being extracted from a virtual endoscopic image.

病変の例として、色、及びテクスチャ等を用いて視認され得る、二次元的な特徴を有する病変が挙げられる。 Examples of lesions include lesions having two-dimensional features that can be visually recognized using color, texture, and the like.

第12態様は、第1態様から第11態様のいずれか一態様の画像処理装置において、第1特徴領域抽出部は、保存部に保存されている第2特徴領域の情報と非抽出領域との対応関係を用いて、仮想内視鏡画像から第1特徴領域を抽出する抽出規則を更新する構成としてもよい。 A twelfth aspect is the image processing apparatus according to any one of the first to eleventh aspects, wherein the first feature area extraction unit includes information on the second feature area stored in the storage unit and a non-extraction area. The extraction rule for extracting the first feature region from the virtual endoscopic image may be updated by using the correspondence.

第12態様によれば、仮想内視鏡画像から抽出されない特徴領域の情報を用いて、第1特徴領域を抽出する抽出規則の更新が可能となる。これにより、仮想内視鏡検査の性能が向上し得る。 According to the twelfth aspect, it is possible to update the extraction rule for extracting the first feature region by using the information of the feature region not extracted from the virtual endoscopic image. This can improve the performance of virtual endoscopy.

第13態様は、第1態様から第12態様のいずれか一態様の画像処理装置において、第1特徴領域抽出部は、機械学習を用いて生成された抽出規則を適用して、仮想内視鏡画像から第1特徴領域を抽出する構成としてもよい。 A thirteenth aspect is an image processing apparatus according to any one of the first to twelfth aspects, wherein the first feature region extraction unit applies an extraction rule generated by using machine learning to a virtual endoscope. The first feature region may be extracted from the image.

第13態様によれば、機械学習を用いた効率的な仮想内視鏡検査の性能向上が可能となる。 According to the thirteenth aspect, it is possible to improve the performance of efficient virtual endoscopy using machine learning.

第14態様に係る画像処理方法は、被検体の3次元検査画像から生成された仮想内視鏡画像を入力する第1画像入力工程と、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力工程と、仮想内視鏡画像から生成される仮想内視鏡画像と実内視鏡画像とを対応付けする対応付け工程と、仮想内視鏡画像から第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出工程と、実内視鏡画像から、第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出工程と、実内視鏡画像の第2特徴領域に対応付けされ、且つ仮想内視鏡画像から第1特徴領域として抽出されていない非抽出領域の情報、及び非抽出領域に対応付けられた第2特徴領域の情報の少なくともいずれか一方を保存する保存工程と、を含む画像処理方法である。 The image processing method according to the fourteenth aspect includes a first image input step of inputting a virtual endoscope image generated from a three-dimensional inspection image of a subject, and an image of an observation target of the subject using an endoscope. A second image input step for inputting the obtained real endoscope image, a matching step for associating the virtual endoscope image generated from the virtual endoscope image with the real endoscope image, and a virtual The first feature region extraction step of extracting the first feature region that matches the first condition from the endoscopic image, and the second feature region that matches the second condition corresponding to the first condition from the actual endoscopic image. Information on the second feature region to be extracted and the non-extracted region that is associated with the second feature region of the real endoscope image and is not extracted as the first feature region from the virtual endoscope image, and non-extraction This is an image processing method including a storage step of storing at least one of the information of the second feature area associated with the area.

第14態様によれば、第1態様と同様の効果を得ることができる。 According to the fourteenth aspect, the same effect as that of the first aspect can be obtained.

第14態様において、第2態様から第13態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、画像処理装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担う画像処理方法の構成要素として把握することができる。 In the 14th aspect, the same items as those specified in the 2nd to 13th aspects can be appropriately combined. In that case, the component responsible for the processing or function specified in the image processing apparatus can be grasped as the component of the image processing method responsible for the corresponding processing or function.

第15態様に係るプログラムは、コンピュータに、被検体の3次元検査画像から生成された仮想内視鏡画像を入力する第1画像入力機能、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力機能、仮想内視鏡画像から生成される仮想内視鏡画像と実内視鏡画像とを対応付けする対応付け機能、仮想内視鏡画像から第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出機能、実内視鏡画像から、第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出機能、及び実内視鏡画像の第2特徴領域に対応付けされ、且つ仮想内視鏡画像から第1特徴領域として抽出されていない非抽出領域の情報、及び非抽出領域に対応付けられた第2特徴領域の情報の少なくともいずれか一方を保存する保存機能を実現させるプログラムある。 The program according to the fifteenth aspect is a first image input function for inputting a virtual endoscope image generated from a three-dimensional examination image of a subject into a computer, and an image of an observation target of the subject is imaged using an endoscope. Second image input function for inputting the obtained real endoscope image, matching function for associating the virtual endoscope image generated from the virtual endoscope image with the real endoscope image, virtual endoscopy The first feature area extraction function that extracts the first feature region that matches the first condition from the mirror image, and the second feature region that matches the second condition corresponding to the first condition are extracted from the actual endoscopic image. 2 Feature area extraction function, information on non-extracted area that is associated with the second feature area of the real endoscope image and is not extracted as the first feature area from the virtual endoscope image, and corresponds to the non-extracted area There is a program that realizes a storage function that stores at least one of the information in the attached second feature area.

第15態様によれば、第1態様と同様の効果を得ることができる。 According to the fifteenth aspect, the same effect as that of the first aspect can be obtained.

第15態様において、第2態様から第13態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、画像処理装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担うプログラムの構成要素として把握することができる。 In the fifteenth aspect, the same items as those specified in the second to thirteenth aspects can be appropriately combined. In that case, the component responsible for the processing or function specified in the image processing apparatus can be grasped as the component of the program responsible for the corresponding processing or function.

第15態様は、少なくとも一つ以上のプロセッサと、少なくとも一つ以上のメモリとを有するシステムであって、被検体の3次元検査画像から生成された仮想内視鏡画像を入力する第1画像入力機能、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力機能、仮想内視鏡画像から生成される仮想内視鏡画像と実内視鏡画像とを対応付けする対応付け機能、仮想内視鏡画像から第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出機能、実内視鏡画像から、第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出機能、及び実内視鏡画像の第2特徴領域に対応付けされ、且つ仮想内視鏡画像から第1特徴領域として抽出されていない非抽出領域の情報、及び非抽出領域に対応付けられた第2特徴領域の情報の少なくともいずれか一方を保存する保存機能を実現させるシステムとして構成し得る。 A fifteenth aspect is a system having at least one or more processors and at least one or more memories, and a first image input for inputting a virtual endoscopic image generated from a three-dimensional examination image of a subject. Function, second image input function to input the real endoscope image obtained by imaging the observation target of the subject using the endoscope, the virtual endoscope image generated from the virtual endoscope image and the actual A matching function that associates with an endoscopic image, a first feature area extraction function that extracts a first feature area that matches the first condition from a virtual endoscopic image, and a first condition from a real endoscopic image. The second feature area extraction function that extracts the second feature area that matches the corresponding second condition, and the second feature area of the real endoscope image are associated with the virtual endoscopy image as the first feature area. It can be configured as a system that realizes a storage function for storing at least one of the information of the non-extracted region and the information of the second feature region associated with the non-extracted region.

第16態様に係る内視鏡システムは、内視鏡と、被検体の3次元検査画像から生成された仮想内視鏡画像を入力する第1画像入力部と、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力部と、仮想内視鏡画像から生成される仮想内視鏡画像と実内視鏡画像とを対応付けする対応付け部と、仮想内視鏡画像から第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出部と、実内視鏡画像から、第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出部と、実内視鏡画像の第2特徴領域に対応付けされ、且つ仮想内視鏡画像から第1特徴領域として抽出されていない非抽出領域の情報、及び非抽出領域に対応付けられた第2特徴領域の情報の少なくともいずれか一方を保存する保存部と、を備えた内視鏡システムである。 The endoscope system according to the 16th aspect uses an endoscope, a first image input unit for inputting a virtual endoscope image generated from a three-dimensional inspection image of the subject, and an endoscope. The second image input unit for inputting the real endoscopic image obtained by imaging the observation target of the above is associated with the virtual endoscopic image generated from the virtual endoscopic image and the real endoscopic image. The association unit, the first feature area extraction unit that extracts the first feature area that matches the first condition from the virtual endoscope image, and the second condition that matches the first condition from the real endoscope image. A non-extracted region that is associated with the second feature region of the real endoscope image and is not extracted as the first feature region from the virtual endoscope image and the second feature region extraction unit that extracts the second feature region. This is an endoscope system including a storage unit for storing at least one of the information of the second feature region and the information of the second feature region associated with the non-extracted region.

第16態様によれば、第1態様と同様の効果を得ることができる。 According to the 16th aspect, the same effect as that of the 1st aspect can be obtained.

第16態様において、第2態様から第13態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、画像処理装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担う内視鏡システムの構成要素として把握することができる。 In the 16th aspect, the same items as those specified in the 2nd to 13th aspects can be appropriately combined. In that case, the component responsible for the process or function specified in the image processing apparatus can be grasped as the component of the endoscope system responsible for the corresponding process or function.

第17態様に係る内視鏡システムは、内視鏡、画像処理装置、及び保存装置を備えた内視鏡システムであって、画像処理装置は、被検体の3次元検査画像から生成された仮想内視鏡画像を入力する第1画像入力部と、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力部と、仮想内視鏡画像から生成される仮想内視鏡画像と実内視鏡画像とを対応付けする対応付け部と、仮想内視鏡画像から第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出部と、実内視鏡画像から、第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出部と、を備え、保存装置は、実内視鏡画像の第2特徴領域に対応付けされ、且つ仮想内視鏡画像から第1特徴領域として抽出されていない非抽出領域の情報、及び非抽出領域に対応付けられた第2特徴領域の情報の少なくともいずれか一方を保存する保存部を備えた内視鏡システムである。 The endoscope system according to the seventeenth aspect is an endoscope system including an endoscope, an image processing device, and a storage device, and the image processing device is a virtual one generated from a three-dimensional inspection image of a subject. A first image input unit for inputting an endoscopic image, a second image input unit for inputting a real endoscopic image obtained by imaging an observation target of a subject using an endoscope, and virtual endoscopy. A matching unit that associates a virtual endoscope image generated from a mirror image with a real endoscope image, and a first feature region that extracts a first feature region that matches the first condition from the virtual endoscope image. The storage device includes an extraction unit and a second feature region extraction unit that extracts a second feature region that matches the second condition corresponding to the first condition from the real endoscope image, and the storage device is a real endoscope image. At least one of the information of the non-extracted area associated with the second feature area of the above and not extracted as the first feature area from the virtual endoscopic image and the information of the second feature area associated with the non-extracted area. It is an endoscope system equipped with a storage unit that stores one of them.

第17態様によれば、第1態様と同様の効果を得ることができる。 According to the 17th aspect, the same effect as that of the 1st aspect can be obtained.

第17態様において、第2態様から第13態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、画像処理装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担う内視鏡システムの構成要素として把握することができる。 In the 17th aspect, the same items as those specified in the 2nd to 13th aspects can be appropriately combined. In that case, the component responsible for the processing or function specified in the image processing apparatus can be grasped as the component of the endoscope system responsible for the corresponding processing or function.

第18態様は、第17態様の内視鏡システムにおいて、保存装置は、ネットワークを介して画像処理装置と通信可能に接続される構成としてもよい。 The eighteenth aspect may be a configuration in which the storage device is communicably connected to the image processing device via a network in the endoscope system of the seventeenth aspect.

第18態様によれば、ネットワーク接続された保存装置を用いて、実内視鏡画像から抽出される一方、仮想内視鏡画像から抽出されない特徴領域の情報の効率的な収集が可能である。 According to the eighteenth aspect, it is possible to efficiently collect information on a feature region that is extracted from a real endoscopic image but not extracted from a virtual endoscopic image by using a storage device connected to a network.

本発明によれば、実内視鏡画像の第2特徴領域に対応付けられた仮想内視鏡画像の非抽出領域の情報、及び非抽出領域に対応付けられた第2特徴領域の情報の少なくともいずれか一方が保存される。これにより、実内視鏡画像から抽出される一方、仮想内視鏡画像から抽出されない特徴領域の情報の効率的な収集が可能である。 According to the present invention, at least the information of the non-extracted region of the virtual endoscopic image associated with the second feature region of the real endoscopic image and the information of the second feature region associated with the non-extracted region Either one is saved. This makes it possible to efficiently collect information on feature regions that are extracted from the real endoscopic image but not extracted from the virtual endoscopic image.

図1は内視鏡システムの全体構成を示す概略図である。FIG. 1 is a schematic view showing the overall configuration of an endoscopic system. 図2は医療画像処理装置の機能を示す機能ブロック図である。FIG. 2 is a functional block diagram showing the functions of the medical image processing apparatus. 図3は医療画像解析処理部の機能を示す機能ブロック図である。FIG. 3 is a functional block diagram showing the functions of the medical image analysis processing unit. 図4はCTC画像の模式図である。FIG. 4 is a schematic diagram of a CTC image. 図5は内視鏡画像の模式図である。FIG. 5 is a schematic view of an endoscopic image. 図6は第1特徴領域抽出の説明図である。FIG. 6 is an explanatory diagram of the first feature region extraction. 図7は第2特徴領域抽出の説明図である。FIG. 7 is an explanatory diagram of the second feature region extraction. 図8は第2特徴領域抽出の他の例の説明図である。FIG. 8 is an explanatory diagram of another example of the second feature region extraction. 図9は病変の対応付けの例を示す模式図である。FIG. 9 is a schematic diagram showing an example of associating lesions. 図10はひだの対応付けの例を示す模式図である。FIG. 10 is a schematic diagram showing an example of associating folds. 図11はひだの番号を用いたひだの対応付けの例を示す模式図である。FIG. 11 is a schematic diagram showing an example of associating folds using fold numbers. 図12は病変を用いたCTC画像と内視鏡画像との比較処理の一例の説明図ある。FIG. 12 is an explanatory diagram of an example of a comparison process between a CTC image using a lesion and an endoscopic image. 図13は画像処理方法の手順を示すフローチャートである。FIG. 13 is a flowchart showing the procedure of the image processing method.

以下、添付図面に従って本発明の好ましい実施の形態について詳説する。本明細書では、同一の構成要素には同一の参照符号を付して、重複する説明を省略する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the present specification, the same components are designated by the same reference numerals, and duplicate description is omitted.

[内視鏡システムの全体構成]
図1は内視鏡システムの全体構成を示す概略図である。図1に示した内視鏡システム9は、内視鏡10と、光源装置11と、プロセッサ12と、表示装置13と、医療画像処理装置14と、操作装置15と、モニタ装置16と、を備える。内視鏡システム9は、ネットワーク17を介して画像記憶装置18と通信可能に接続される。
[Overall configuration of the endoscope system]
FIG. 1 is a schematic view showing the overall configuration of an endoscopic system. The endoscope system 9 shown in FIG. 1 includes an endoscope 10, a light source device 11, a processor 12, a display device 13, a medical image processing device 14, an operating device 15, and a monitoring device 16. Be prepared. The endoscope system 9 is communicably connected to the image storage device 18 via the network 17.

内視鏡10は電子内視鏡である。また、内視鏡10は軟性内視鏡である。内視鏡10は挿入部20と、操作部21と、ユニバーサルコード22と、を備える。挿入部20は先端と基端とを備える。挿入部20は被検体内に挿入される。操作部21は術者が把持して各種操作を行う。操作部21は挿入部20の基端側に連設される。挿入部20は、全体が細径で長尺状に形成されている。 The endoscope 10 is an electronic endoscope. Further, the endoscope 10 is a flexible endoscope. The endoscope 10 includes an insertion unit 20, an operation unit 21, and a universal cord 22. The insertion portion 20 includes a tip end and a base end. The insertion portion 20 is inserted into the subject. The operating unit 21 is gripped by the operator to perform various operations. The operation unit 21 is continuously provided on the base end side of the insertion unit 20. The entire insertion portion 20 has a small diameter and is formed in a long shape.

挿入部20は、軟性部25と、湾曲部26と、先端部27と、を備える。挿入部20は、軟性部25と、湾曲部26と、先端部27とが連設されて構成される。軟性部25は、挿入部20の基端側から先端側に向けて順に可撓性を有する。湾曲部26は、操作部21が操作された場合に湾曲可能な構造を有する。先端部27は、図示しない撮影光学系及び撮像素子28等が内蔵される。 The insertion portion 20 includes a soft portion 25, a curved portion 26, and a tip portion 27. The insertion portion 20 is configured by connecting the soft portion 25, the curved portion 26, and the tip portion 27 in series. The soft portion 25 has flexibility in order from the proximal end side to the distal end side of the insertion portion 20. The curved portion 26 has a structure that can be curved when the operating portion 21 is operated. The tip 27 includes a photographing optical system (not shown), an image sensor 28, and the like.

撮像素子28は、CMOS型撮像素子又はCCD型撮像素子である。CMOSは、相補型金属酸化膜半導体を表す英語表記である、Complementary Metal Oxide Semiconductorの省略語である。CCDは、電荷結合素子を表す英語表記である、Charge Coupled Deviceの省略語である。 The image sensor 28 is a CMOS image sensor or a CCD image sensor. CMOS is an abbreviation for Complementary Metal Oxide Semiconductor, which is an English notation for complementary metal oxide semiconductors. CCD is an abbreviation for Charge Coupled Device, which is an English notation for a charge-coupled device.

先端部27の先端面27aは、図示しない観察窓が配置される。観察窓は、先端部27の先端面27aに形成された開口である。観察窓の後方には、図示しない撮影光学系が配置される。撮像素子28の撮像面は、観察窓、及び撮影光学系等を介して、被観察部位の像光が入射する。撮像素子28は、撮像素子28の撮像面に入射した被観察部位の像光を撮像して、撮像信号を出力する。ここでいう撮像は、像光を電気信号へ変換するという意味が含まれる。 An observation window (not shown) is arranged on the tip surface 27a of the tip portion 27. The observation window is an opening formed on the tip surface 27a of the tip portion 27. A photographing optical system (not shown) is arranged behind the observation window. The image light of the observed portion is incident on the image pickup surface of the image pickup element 28 through the observation window, the photographing optical system, and the like. The image sensor 28 captures the image light of the observed portion incident on the image pickup surface of the image sensor 28 and outputs an image pickup signal. Imaging here includes the meaning of converting image light into an electrical signal.

操作部21は、各種操作部材を備える。各種操作部材は術者により操作される。具体的には、操作部21は、2種類の湾曲操作ノブ29を備える。湾曲操作ノブ29は、湾曲部26の湾曲操作の際に用いられる。 The operation unit 21 includes various operation members. Various operating members are operated by the operator. Specifically, the operation unit 21 includes two types of bending operation knobs 29. The bending operation knob 29 is used when the bending operation of the bending portion 26 is performed.

操作部21は、送気送水ボタン30と、吸引ボタン31と、を備える。送気送水ボタン30は、送気送水操作の際に用いられる。吸引ボタン31は、吸引操作の際に用いられる。 The operation unit 21 includes an air supply / water supply button 30 and a suction button 31. The air supply / water supply button 30 is used in the air supply / water supply operation. The suction button 31 is used during a suction operation.

操作部21は、静止画像撮影指示部32と、処置具導入口33と、を備える。静止画像撮影指示部32は、被観察部位の静止画像39の撮影指示を行う際に用いられる。処置具導入口33は、挿入部20の内部を挿通している処置具挿通路の内部に処置具を挿入する開口である。なお、処置具挿通路、及び処置具の図示は省略する。 The operation unit 21 includes a still image capturing instruction unit 32 and a treatment tool introduction port 33. The still image shooting instruction unit 32 is used when giving a shooting instruction for the still image 39 of the observed portion. The treatment tool introduction port 33 is an opening for inserting the treatment tool into the inside of the treatment tool insertion passage through which the inside of the insertion portion 20 is inserted. The treatment tool insertion passage and the treatment tool are not shown.

ユニバーサルコード22は、内視鏡10を光源装置11に接続する接続コードである。ユニバーサルコード22は、挿入部20の内部を挿通しているライトガイド35、信号ケーブル36、及び図示しない流体チューブを内包している。 The universal cord 22 is a connection cord for connecting the endoscope 10 to the light source device 11. The universal cord 22 includes a light guide 35, a signal cable 36, and a fluid tube (not shown) that are inserted through the inside of the insertion portion 20.

また、ユニバーサルコード22の端部は、光源装置11に接続されるコネクタ37aと、コネクタ37aから分岐され、且つプロセッサ12に接続されるコネクタ37bと、を備える。 Further, the end of the universal cord 22 includes a connector 37a connected to the light source device 11 and a connector 37b branched from the connector 37a and connected to the processor 12.

コネクタ37aを光源装置11に接続した場合、ライトガイド35及び図示しない流体チューブが光源装置11に挿入される。これにより、ライトガイド35及び図示しない流体チューブを介して、光源装置11から内視鏡10に対して必要な照明光と水と気体とが供給される。 When the connector 37a is connected to the light source device 11, a light guide 35 and a fluid tube (not shown) are inserted into the light source device 11. As a result, necessary illumination light, water, and gas are supplied from the light source device 11 to the endoscope 10 via the light guide 35 and a fluid tube (not shown).

その結果、先端部27の先端面27aの図示しない照明窓から被観察部位に向けて照明光が照射される。また、送気送水ボタン30の押下操作に応じて、先端部27の先端面27aの図示しない送気送水ノズルから先端面27aの図示しない観察窓に向けて気体又は水が噴射される。 As a result, the illumination light is emitted from the illumination window (not shown) of the tip surface 27a of the tip portion 27 toward the observed portion. Further, in response to the pressing operation of the air supply / water supply button 30, gas or water is injected from the air supply / water supply nozzle (not shown) on the tip surface 27a of the tip portion 27 toward the observation window (not shown) on the tip surface 27a.

コネクタ37bをプロセッサ12に接続した場合、信号ケーブル36とプロセッサ12とが電気的に接続される。これにより、信号ケーブル36を介して、内視鏡10の撮像素子28からプロセッサ12へ被観察部位の撮像信号が出力され、且つプロセッサ12から内視鏡10へ制御信号が出力される。 When the connector 37b is connected to the processor 12, the signal cable 36 and the processor 12 are electrically connected. As a result, the image pickup element 28 of the endoscope 10 outputs the image pickup signal of the observed portion to the processor 12 and the control signal is output from the processor 12 to the endoscope 10 via the signal cable 36.

本実施形態では、内視鏡10として軟性内視鏡を例に挙げて説明を行ったが、内視鏡10として、硬性内視鏡等の被観察部位の動画撮影を可能な各種の電子内視鏡を用いてもよい。 In the present embodiment, a flexible endoscope has been described as an example of the endoscope 10, but as the endoscope 10, various types of electrons capable of capturing moving images of an observed portion such as a rigid endoscope are used. An endoscope may be used.

光源装置11は、コネクタ37aを介して、内視鏡10のライトガイド35へ照明光を供給する。照明光は、白色光、又は特定の波長帯域の光を適用可能である。照明光は、白色光、及び特定の波長帯域の光を組み合わせてもよい。光源装置11は、観察目的に応じた波長帯域の光を、照明光として適宜選択可能に構成される。 The light source device 11 supplies illumination light to the light guide 35 of the endoscope 10 via the connector 37a. As the illumination light, white light or light in a specific wavelength band can be applied. The illumination light may be a combination of white light and light in a specific wavelength band. The light source device 11 is configured so that light in a wavelength band according to the purpose of observation can be appropriately selected as illumination light.

白色光は、白色の波長帯域の光又は複数の波長帯域の光のいずれでもよい。特定の波長帯域は、白色の波長帯域よりも狭い帯域である。特定の波長帯域の光は、1種類の波長帯域の光を適用してもよいし、複数の波長帯域の光を適用してもよい。特定の波長帯域は、特殊光と呼ばれる場合がある。 The white light may be either light in a white wavelength band or light in a plurality of wavelength bands. The specific wavelength band is narrower than the white wavelength band. As the light of a specific wavelength band, light of one kind of wavelength band may be applied, or light of a plurality of wavelength bands may be applied. A particular wavelength band is sometimes referred to as special light.

プロセッサ12は、コネクタ37b及び信号ケーブル36を介して、内視鏡10の動作を制御する。また、プロセッサ12は、コネクタ37b及び信号ケーブル36を介して、内視鏡10の撮像素子28から撮像信号を取得する。プロセッサ12は規定のフレームレートを適用して内視鏡10から出力された撮像信号を取得する。 The processor 12 controls the operation of the endoscope 10 via the connector 37b and the signal cable 36. Further, the processor 12 acquires an image pickup signal from the image pickup element 28 of the endoscope 10 via the connector 37b and the signal cable 36. The processor 12 applies a predetermined frame rate to acquire an image pickup signal output from the endoscope 10.

プロセッサ12は、内視鏡10から取得した撮像信号に基づき、被観察部位の動画像38を生成する。更に、プロセッサ12は、内視鏡10の操作部21にて静止画像撮影指示部32が操作された場合、動画像38の生成と並行して、撮像素子28から取得した撮像信号に基づき被観察部位の静止画像39を生成する。この静止画像39は、動画像38の解像度に対して高解像度に生成されていてもよい。 The processor 12 generates a moving image 38 of the observed portion based on the imaging signal acquired from the endoscope 10. Further, when the still image shooting instruction unit 32 is operated by the operation unit 21 of the endoscope 10, the processor 12 is observed based on the image pickup signal acquired from the image pickup element 28 in parallel with the generation of the moving image 38. A still image 39 of the part is generated. The still image 39 may be generated at a higher resolution than the resolution of the moving image 38.

動画像38及び静止画像39の生成の際に、プロセッサ12はホワイトバランス調整、及びシェーディング補正等のデジタル信号処理を適用した画質の補正を行う。プロセッサ12はDICOM(Digital Imaging and Communications in Medicine)規格で規定された付帯情報を動画像38及び静止画像39へ付加してもよい。 When generating the moving image 38 and the still image 39, the processor 12 corrects the image quality by applying digital signal processing such as white balance adjustment and shading correction. The processor 12 may add incidental information defined by the DICOM (Digital Imaging and Communications in Medicine) standard to the moving image 38 and the still image 39.

動画像38及び静止画像39は、被検体内、すなわち生体内を撮影した生体内画像である。更に、動画像38及び静止画像39が、特定の波長帯域の光を用いて撮像して得られた画像である場合、両者は特殊光画像である。そして、プロセッサ12は、生成した動画像38及び静止画像39を、表示装置13と医療画像処理装置14とのそれぞれに出力する。プロセッサ12は、DICOM規格に準拠した通信プロトコルに従って、ネットワーク17を介して動画像38及び静止画像39を画像記憶装置18へ出力してもよい。 The moving image 38 and the still image 39 are in-vivo images taken in the subject, that is, in the living body. Further, when the moving image 38 and the still image 39 are images obtained by imaging using light in a specific wavelength band, both are special optical images. Then, the processor 12 outputs the generated moving image 38 and the still image 39 to the display device 13 and the medical image processing device 14, respectively. The processor 12 may output the moving image 38 and the still image 39 to the image storage device 18 via the network 17 according to the communication protocol conforming to the DICOM standard.

表示装置13は、プロセッサ12に接続されている。表示装置13は、プロセッサ12から入力された動画像38及び静止画像39を表示する。医師等のユーザは、表示装置13に表示される動画像38を確認しながら、挿入部20の進退操作等を行い、被観察部位に病変等を検出した場合には静止画像撮影指示部32を操作して被観察部位の静止画撮影を実行し得る。 The display device 13 is connected to the processor 12. The display device 13 displays the moving image 38 and the still image 39 input from the processor 12. A user such as a doctor performs an advance / retreat operation of the insertion unit 20 while checking the moving image 38 displayed on the display device 13, and when a lesion or the like is detected at the observed site, the still image photographing instruction unit 32 is used. It can be operated to take a still image of the observed part.

医療画像処理装置14は、コンピュータが用いられる。操作装置15はコンピュータに接続可能なキーボード及びマウス等が用いられる。操作装置15とコンピュータとの接続は有線接続、又は無線接続のいずれでもよい。モニタ装置16は、コンピュータに接続可能な各種モニタが用いられる。 A computer is used as the medical image processing device 14. As the operation device 15, a keyboard, a mouse, or the like that can be connected to a computer is used. The connection between the operating device 15 and the computer may be either a wired connection or a wireless connection. As the monitor device 16, various monitors that can be connected to a computer are used.

医療画像処理装置14として、ワークステーション及びサーバ装置等の診断支援装置を用いてもよい。この場合、操作装置15及びモニタ装置16は、それぞれワークステーション等に接続した複数の端末ごとに設けられる。更に、医療画像処理装置14として、医療レポート等の作成支援を行う診療業務支援装置を用いてもよい。 As the medical image processing device 14, a diagnostic support device such as a workstation or a server device may be used. In this case, the operating device 15 and the monitoring device 16 are provided for each of a plurality of terminals connected to a workstation or the like. Further, as the medical image processing device 14, a medical service support device that supports the creation of a medical report or the like may be used.

医療画像処理装置14は、動画像38の取得、及び動画像38の記憶を行う。医療画像処理装置14は、静止画像39の取得、及び静止画像39の記憶を行う。医療画像処理装置14は、動画像38の再生制御、及び静止画像39の再生制御を行う。 The medical image processing device 14 acquires the moving image 38 and stores the moving image 38. The medical image processing device 14 acquires the still image 39 and stores the still image 39. The medical image processing device 14 controls the reproduction of the moving image 38 and the reproduction of the still image 39.

操作装置15は、医療画像処理装置14に対する操作指示の入力に用いられる。モニタ装置16は、医療画像処理装置14の制御の下、動画像38及び静止画像39の表示を行う。モニタ装置16は、医療画像処理装置14における各種情報の表示部として機能する。モニタ装置16は、仮想内視鏡画像の抽出結果を表示する表示部の一例である。モニタ装置16は、実内視鏡画像の抽出結果を表示する表示部の一例である。 The operation device 15 is used for inputting an operation instruction to the medical image processing device 14. The monitoring device 16 displays the moving image 38 and the still image 39 under the control of the medical image processing device 14. The monitor device 16 functions as a display unit for various information in the medical image processing device 14. The monitor device 16 is an example of a display unit that displays the extraction result of the virtual endoscopic image. The monitor device 16 is an example of a display unit that displays the extraction result of the actual endoscopic image.

ネットワーク17を介して、医療画像処理装置14と接続される画像記憶装置18は、CTC画像19が記憶される。CTC画像19は図示しないCTC画像生成装置を用いて生成される。なお、CTCは大腸3次元CT検査を表すCTコロノグラフィ(colonography)を表す省略表記である。 The image storage device 18 connected to the medical image processing device 14 via the network 17 stores the CTC image 19. The CTC image 19 is generated using a CTC image generator (not shown). CTC is an abbreviation for CT colonography, which represents a three-dimensional CT examination of the large intestine.

図示しないCTC画像生成装置は、3次元検査画像からCTC画像を生成する。3次元検査画像は、3次元画像撮像装置を用いて検査対象部位を撮像して得られた撮像信号から生成される。3次元画像撮像装置の例として、CT装置、MRI装置、PET(Positron Emission Tomography)、及び超音波診断装置等が挙げられる。本実施形態では、大腸を撮影して得られた3次元検査画像からCTC画像19が生成される例を示す。 A CTC image generator (not shown) generates a CTC image from a three-dimensional inspection image. The three-dimensional inspection image is generated from an imaging signal obtained by imaging the inspection target site using a three-dimensional image imaging device. Examples of the three-dimensional image imaging device include a CT device, an MRI device, a PET (Positron Emission Tomography), an ultrasonic diagnostic device, and the like. In this embodiment, an example is shown in which a CTC image 19 is generated from a three-dimensional inspection image obtained by photographing the large intestine.

内視鏡システム9は、ネットワーク17を介してサーバ装置と通信可能に接続されてもよい。サーバ装置は、各種データを記憶して管理するコンピュータを適用可能である。図1に示した画像記憶装置18に記憶される情報は、サーバ装置を用いて管理されてもよい。なお、画像データの格納形式、及びネットワーク17を経由した各装置間の通信は、DICOM規格、及びDICOM規格に準拠したプロトコル等を適用可能である。 The endoscope system 9 may be communicably connected to the server device via the network 17. The server device can be applied to a computer that stores and manages various data. The information stored in the image storage device 18 shown in FIG. 1 may be managed by using a server device. Note that the DICOM standard, a protocol compliant with the DICOM standard, and the like can be applied to the storage format of the image data and the communication between the devices via the network 17.

[医療画像処理装置の機能]
図2は医療画像処理装置の機能を示す機能ブロック図である。図2に示した医療画像処理装置14は、図示しないコンピュータを備える。コンピュータは、プログラムの実行に基づき、画像取得部41、情報取得部42、医療画像解析処理部43、及び表示制御部44として機能する。医療画像処理装置14は、医療画像処理装置14の各種制御に用いる情報を記憶する記憶部47を備える。
[Functions of medical image processing equipment]
FIG. 2 is a functional block diagram showing the functions of the medical image processing apparatus. The medical image processing apparatus 14 shown in FIG. 2 includes a computer (not shown). The computer functions as an image acquisition unit 41, an information acquisition unit 42, a medical image analysis processing unit 43, and a display control unit 44 based on the execution of the program. The medical image processing device 14 includes a storage unit 47 that stores information used for various controls of the medical image processing device 14.

〔画像取得部〕
画像取得部41は、CTC画像取得部41a、及び内視鏡画像取得部41bを備える。CTC画像取得部41aは、図示しない画像入出力インターフェースを介して、CTC画像を取得する。内視鏡画像取得部41bは、図示しない画像入出力インターフェースを介して、内視鏡画像37を取得する。画像入出力インターフェースの接続形態は有線でもよいし、無線でもよい。以下に、CTC画像取得部41a、及び内視鏡画像取得部41bについて詳細に説明する。
[Image acquisition section]
The image acquisition unit 41 includes a CTC image acquisition unit 41a and an endoscopic image acquisition unit 41b. The CTC image acquisition unit 41a acquires a CTC image via an image input / output interface (not shown). The endoscope image acquisition unit 41b acquires the endoscope image 37 via an image input / output interface (not shown). The connection form of the image input / output interface may be wired or wireless. The CTC image acquisition unit 41a and the endoscopic image acquisition unit 41b will be described in detail below.

《CTC画像取得部》
CTC画像取得部41aは、図1に示した画像記憶装置18に記憶されているCTC画像19を取得する。図2に示したCTC画像取得部41aを用いて取得したCTC画像19は、画像記憶部48に記憶される。CTC画像取得部41aは、後述する内視鏡画像取得部41bと同様の構成を適用可能である。符号19bは視点画像を表す。視点画像19bはCTC画像19に設定される視点における視野の画像である。視点は符号Pを付して図4に図示する。視点画像、及び視点の詳細は後述する。
<< CTC image acquisition unit >>
The CTC image acquisition unit 41a acquires the CTC image 19 stored in the image storage device 18 shown in FIG. The CTC image 19 acquired by using the CTC image acquisition unit 41a shown in FIG. 2 is stored in the image storage unit 48. The CTC image acquisition unit 41a can be applied with the same configuration as the endoscopic image acquisition unit 41b described later. Reference numeral 19b represents a viewpoint image. The viewpoint image 19b is an image of the field of view at the viewpoint set in the CTC image 19. The viewpoint is illustrated with reference numeral P in FIG. The viewpoint image and the details of the viewpoint will be described later.

ここで、本実施形態における画像という用語は、画像を表すデータの概念、又は信号の概念が含まれる。CTC画像は仮想内視鏡画像の一例である。CTC画像は仮想大腸内視鏡画像に相当する。CTC画像取得部41aは仮想内視鏡画像を入力する第1画像入力部の一例である。 Here, the term image in the present embodiment includes the concept of data representing an image or the concept of a signal. The CTC image is an example of a virtual endoscopic image. The CTC image corresponds to a virtual colonoscopic image. The CTC image acquisition unit 41a is an example of a first image input unit for inputting a virtual endoscopic image.

《内視鏡画像取得部》
内視鏡画像取得部41bは、図1に示したプロセッサ12を用いて生成された内視鏡画像37を取得する。内視鏡画像37は図2に示した動画像38及び静止画像39が含まれる。本実施形態では、図1に示したプロセッサ12を用いて生成された内視鏡画像37を取得したが、外部の記憶装置に記憶されている内視鏡画像37を取得してもよい。図2に示した内視鏡画像取得部41bは、メモリーカード等の各種情報記憶媒体を介して内視鏡画像37を取得してもよい。
《Endoscopic image acquisition section》
The endoscopic image acquisition unit 41b acquires the endoscopic image 37 generated by using the processor 12 shown in FIG. The endoscopic image 37 includes a moving image 38 and a still image 39 shown in FIG. In the present embodiment, the endoscope image 37 generated by using the processor 12 shown in FIG. 1 is acquired, but the endoscope image 37 stored in the external storage device may be acquired. The endoscopic image acquisition unit 41b shown in FIG. 2 may acquire the endoscopic image 37 via various information storage media such as a memory card.

動画像38の撮影途中に静止画像39の撮影が行われた場合、内視鏡画像取得部41bは、図1に示したプロセッサ12から動画像38及び静止画像39を取得する。医療画像処理装置14は、内視鏡画像取得部41bを用いて取得した動画像38及び静止画像39を画像記憶部48に記憶する。符号38aは、動画像38を構成する複数のフレーム画像を表す。 When the still image 39 is taken during the shooting of the moving image 38, the endoscopic image acquisition unit 41b acquires the moving image 38 and the still image 39 from the processor 12 shown in FIG. The medical image processing device 14 stores the moving image 38 and the still image 39 acquired by using the endoscopic image acquisition unit 41b in the image storage unit 48. Reference numeral 38a represents a plurality of frame images constituting the moving image 38.

医療画像処理装置14は、プロセッサ12等から入力される内視鏡画像37の動画像38の全てを画像記憶部48に記憶させる必要はなく、図1に示した静止画像撮影指示部3
2の操作に応じて被観察部位の静止画撮影が行われた場合、その前後の1分間の動画像38を、図2に示した画像記憶部48に記憶させてもよい。前後の1分間は、撮影前1分間から撮影後1分間までの期間を表す。
The medical image processing device 14 does not need to store all the moving images 38 of the endoscopic image 37 input from the processor 12 or the like in the image storage unit 48, and the still image capturing instruction unit 3 shown in FIG.
When a still image of the observed portion is taken in response to the operation of 2, the moving image 38 for 1 minute before and after that may be stored in the image storage unit 48 shown in FIG. The 1 minute before and after the shooting represents a period from 1 minute before shooting to 1 minute after shooting.

内視鏡画像取得部41bは、実内視鏡画像を入力する第2画像入力部の一例である。内視鏡画像37は実内視鏡画像に相当する。 The endoscopic image acquisition unit 41b is an example of a second image input unit that inputs an actual endoscopic image. The endoscopic image 37 corresponds to a real endoscopic image.

〔情報取得部〕
情報取得部42は、操作装置15等を介して外部から入力された情報を取得する。例えば、操作装置15を用いてユーザが判定した判定結果、及び抽出結果等が入力された場合に、情報取得部42はユーザの判定情報、及び抽出情報等を取得する。
[Information acquisition department]
The information acquisition unit 42 acquires information input from the outside via the operation device 15 or the like. For example, when the determination result and the extraction result determined by the user are input using the operation device 15, the information acquisition unit 42 acquires the determination information and the extraction information of the user.

情報取得部42は、判定結果入力部の一例である。また、情報取得部42は、抽出結果入力部の一例である。 The information acquisition unit 42 is an example of a determination result input unit. The information acquisition unit 42 is an example of an extraction result input unit.

〔医療画像解析処理部〕
医療画像解析処理部43は、内視鏡画像37を用いた検査において検出され、且つCTC画像19を用いた検査において検出されない病変の情報を収集する。病変の情報の収集の詳細は後述する。また、医療画像解析処理部43の詳細は後述する。
[Medical image analysis processing department]
The medical image analysis processing unit 43 collects information on lesions that are detected in the examination using the endoscopic image 37 and not detected in the examination using the CTC image 19. Details of collecting lesion information will be described later. The details of the medical image analysis processing unit 43 will be described later.

〔深層学習アルゴリズム〕
医療画像解析処理部43は、深層学習アルゴリズム65に基づき、深層学習を用いた画像解析処理を実施する。深層学習アルゴリズム65は、公知のコンボリューションニューラルネットワークの手法と、全結合層と、出力層とを含むアルゴリズムである。
[Deep learning algorithm]
The medical image analysis processing unit 43 performs image analysis processing using deep learning based on the deep learning algorithm 65. The deep learning algorithm 65 is an algorithm including a known convolution neural network method, a fully connected layer, and an output layer.

なお、深層学習はディープラーニングと呼ばれることがある。コンボリューションニューラルネットワークは、畳み込み層及びプーリング層の繰り返し処理である。コンボリューションニューラルネットワークは、畳み込みニューラルネットワークと呼ばれる場合がある。なお、深層学習を用いた画像解析処理は公知技術であるので、具体的な説明は省略する。深層学習は機械学習の一例である。 Deep learning is sometimes called deep learning. The convolution neural network is an iterative process of the convolution layer and the pooling layer. Convolutional neural networks are sometimes referred to as convolutional neural networks. Since the image analysis process using deep learning is a known technique, a specific description thereof will be omitted. Deep learning is an example of machine learning.

〔表示制御部〕
表示制御部44は、モニタ装置16の画像表示を制御する。表示制御部44は、再生制御部44a及び情報表示制御部44bとして機能する。
[Display control unit]
The display control unit 44 controls the image display of the monitor device 16. The display control unit 44 functions as a reproduction control unit 44a and an information display control unit 44b.

《再生制御部》
再生制御部44aは、CTC画像取得部41aを用いて取得したCTC画像19、及び内視鏡画像取得部41bを用いて取得した内視鏡画像37の再生制御を行う。再生制御部44aは、操作装置15を用いて画像を再生する操作がされた場合、表示制御プログラムを実行してモニタ装置16を制御する。表示制御プログラムはプログラム記憶部49に記憶されるプログラムに含まれる。
<< Playback control unit >>
The reproduction control unit 44a controls the reproduction of the CTC image 19 acquired by using the CTC image acquisition unit 41a and the endoscopic image 37 acquired by using the endoscopic image acquisition unit 41b. When the operation device 15 is used to reproduce an image, the reproduction control unit 44a executes a display control program to control the monitor device 16. The display control program is included in the program stored in the program storage unit 49.

CTC画像19、及び内視鏡画像37の表示制御例として、CTC画像19、又は内視鏡画像37のいずれか一方を全画面表示する例が挙げられる。CTC画像19、及び内視鏡画像37の他の表示制御例として、CTC画像19、及び内視鏡画像37を一画面内に並列表示する例が挙げられる。再生制御部44aは、上述した2つの表示を切り替えてもよい。 As an example of display control of the CTC image 19 and the endoscopic image 37, an example of displaying either the CTC image 19 or the endoscopic image 37 in full screen can be mentioned. As another display control example of the CTC image 19 and the endoscope image 37, an example of displaying the CTC image 19 and the endoscope image 37 in parallel on one screen can be mentioned. The reproduction control unit 44a may switch between the two displays described above.

内視鏡画像37の表示制御例として、動画像38、又は静止画像39のいずれか一方を全画面表示する形態が挙げられる。内視鏡画像37の他の表示例として、動画像38、及び静止画像39を1画面内に並列表示する形態が挙げられる。再生制御部44aは、上述した2つの表示を切り替えてもよい。 As an example of display control of the endoscopic image 37, there is a form in which either the moving image 38 or the still image 39 is displayed in full screen. As another display example of the endoscopic image 37, there is a form in which the moving image 38 and the still image 39 are displayed in parallel on one screen. The reproduction control unit 44a may switch between the two displays described above.

《情報表示制御部》
情報表示制御部44bは、CTC画像19の付帯情報の表示制御、及び内視鏡画像37の付帯情報の表示制御を行う。CTC画像19の付帯情報の一例として、CTC画像19を構成する各領域の座標値が挙げられる。CTC画像19の付帯情報の他の例として、特徴領域を表す情報が挙げられる。特徴領域の詳細後述する。
<< Information display control unit >>
The information display control unit 44b controls the display of the incidental information of the CTC image 19 and the display control of the incidental information of the endoscopic image 37. As an example of the incidental information of the CTC image 19, the coordinate values of each region constituting the CTC image 19 can be mentioned. As another example of the incidental information of the CTC image 19, information representing a feature region can be mentioned. Details of the feature area will be described later.

内視鏡画像37の付帯情報の例として、動画像38を構成するフレーム画像38aのフレーム番号、及び動画像38の撮像時刻が挙げられる。内視鏡画像37の付帯情報の例として、静止画像39の撮像条件、静止画像39の撮像時刻、及び静止画像39のサムネイル画像が挙げられる。 Examples of incidental information of the endoscopic image 37 include the frame number of the frame image 38a constituting the moving image 38 and the imaging time of the moving image 38. Examples of incidental information of the endoscopic image 37 include the imaging conditions of the still image 39, the imaging time of the still image 39, and the thumbnail image of the still image 39.

情報表示制御部44bは、医療画像解析処理部43における各種処理の際に必要な情報の表示制御を行う。医療画像解析処理部43における各種処理の例として、CTC画像19と内視鏡画像37との対応付け処理、CTC画像19の特徴領域抽出処理、及び内視鏡画像37の特徴領域抽出処理が挙げられる。 The information display control unit 44b controls the display of information necessary for various processes in the medical image analysis processing unit 43. Examples of various processes in the medical image analysis processing unit 43 include a correspondence process between the CTC image 19 and the endoscope image 37, a feature area extraction process of the CTC image 19, and a feature area extraction process of the endoscope image 37. Be done.

医療画像解析処理部43における各種処理の他の例として、CTC画像19と内視鏡画像37との比較処理、内視鏡画像37の特徴領域へのCTC画像19の抽出結果の付与処理、CTC画像19の抽出結果に基づく内視鏡画像37の特徴領域の記憶処理等が挙げられる。ここに列挙した医療画像解析処理部43における各種処理の詳細は後述する。 As another example of various processes in the medical image analysis processing unit 43, a comparison process between the CTC image 19 and the endoscope image 37, a process of imparting the extraction result of the CTC image 19 to the characteristic region of the endoscope image 37, and a CTC Examples include storage processing of a characteristic area of the endoscopic image 37 based on the extraction result of the image 19. Details of various processes in the medical image analysis processing unit 43 listed here will be described later.

〔記憶部〕
記憶部47は、画像記憶部48を備える。画像記憶部48は、医療画像処理装置14が取得したCTC画像19、及び内視鏡画像37を記憶する。図2には、医療画像処理装置14が記憶部47を備える態様を例示したが、医療画像処理装置14とネットワークを介して通信可能に接続される記憶装置等が記憶部47を備えてもよい。上述した記憶装置の例として、図1に示したネットワーク17を介して通信可能に接続される画像記憶装置18が挙げられる。
[Memory]
The storage unit 47 includes an image storage unit 48. The image storage unit 48 stores the CTC image 19 acquired by the medical image processing device 14 and the endoscopic image 37. Although FIG. 2 illustrates an embodiment in which the medical image processing device 14 includes a storage unit 47, a storage device or the like that is communicably connected to the medical image processing device 14 via a network may include the storage unit 47. .. An example of the above-mentioned storage device is an image storage device 18 which is communicably connected via the network 17 shown in FIG.

記憶部47は、プログラム記憶部49を備える。プログラム記憶部49を用いて記憶されるプログラムは、動画像38の再生制御を医療画像処理装置14に実行させるためのアプリケーションプログラムが含まれる。また、プログラム記憶部49を用いて記憶されるプログラムは、医療画像解析処理部43の処理を医療画像処理装置14に実行させるためのプログラムが含まれる。 The storage unit 47 includes a program storage unit 49. The program stored using the program storage unit 49 includes an application program for causing the medical image processing device 14 to execute the reproduction control of the moving image 38. Further, the program stored using the program storage unit 49 includes a program for causing the medical image processing device 14 to execute the processing of the medical image analysis processing unit 43.

医療画像処理装置14は、複数のコンピュータ等を用いて構成してもよい。複数のコンピュータ等は、ネットワークを介して通信可能に接続されてもよい。ここでいう複数のコンピュータは、ハードウェア的に分離していてもよいし、ハードウェア的に一体に構成され、且つ機能的に分離されていてもよい。 The medical image processing device 14 may be configured by using a plurality of computers or the like. A plurality of computers and the like may be connected so as to be able to communicate with each other via a network. The plurality of computers referred to here may be separated in terms of hardware, or may be integrally configured in terms of hardware and may be functionally separated.

〔各種制御部のハードウェア構成〕
図2に示した医療画像処理装置14の各種制御を実行する制御部のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。図3に示す医療画像解析処理部43についても同様である。
[Hardware configuration of various control units]
The hardware-like structure of the control unit that executes various controls of the medical image processing apparatus 14 shown in FIG. 2 is various processors as shown below. The same applies to the medical image analysis processing unit 43 shown in FIG.

各種のプロセッサには、ソフトウェアを実行して各種の制御部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるPLD(Programmable Logic Device)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。なお、ここでいうソフトウェアはプログラムと同義である。 For various processors, CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), which is a general-purpose processor that executes software and functions as various control units, is a processor whose circuit configuration can be changed after manufacturing. A dedicated electric circuit, which is a processor having a circuit configuration specially designed for executing a specific process such as a certain PLD (Programmable Logic Device) or ASIC (Application Specific Integrated Circuit), is included. The software here is synonymous with a program.

1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサを用いて構成されてもよい。2つ以上のプロセッサの例として、複数のFPGA、或いはCPUとFPGAとの組み合わせが挙げられる。また、複数の制御部を1つのプロセッサで構成してもよい。複数の制御部を1つのプロセッサで構成する例としては、第1に、クライアント装置、及びサーバ装置等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組合せを用いて1つのプロセッサを構成し、このプロセッサが複数の制御部として機能する形態がある。第2に、SoC(System On Chip)などに代表されるように、複数の制御部を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、各種の制御部は、ハードウェア的な構造として、上述した各種のプロセッサを1つ以上用いて構成される。なお、ICは集積回路の英語表記であるIntegrated Circuitの省略語である。 One processing unit may be configured by one of these various processors, or may be configured by using two or more processors of the same type or different types. Examples of two or more processors include a plurality of FPGAs or a combination of a CPU and an FPGA. Further, a plurality of control units may be configured by one processor. As an example in which a plurality of control units are configured by one processor, first, as represented by a computer such as a client device and a server device, one combination of one or more CPUs and software is used. There is a form in which a processor is configured and this processor functions as a plurality of control units. Secondly, as typified by SoC (System On Chip), there is a form in which a processor that realizes the functions of the entire system including a plurality of control units with one IC chip is used. As described above, the various control units are configured by using one or more of the various processors described above as a hardware structure. IC is an abbreviation for Integrated Circuit, which is an English notation for integrated circuits.

〔医療画像解析処理部の詳細な説明〕
図3は医療画像解析処理部の機能を示す機能ブロック図である。以下の説明における内視鏡10は図1に図示されている。また、CTC画像19、視点画像19b、内視鏡画像37、及びフレーム画像38aは図2に図示されている。
[Detailed explanation of medical image analysis processing unit]
FIG. 3 is a functional block diagram showing the functions of the medical image analysis processing unit. The endoscope 10 in the following description is illustrated in FIG. The CTC image 19, the viewpoint image 19b, the endoscope image 37, and the frame image 38a are shown in FIG.

図3に示した医療画像解析処理部43は、第1特徴領域抽出部51と、第1条件設定部52と、第2特徴領域抽出部54と、第2条件設定部56と、対応付け部57と、比較部58と、比較結果付与部60と、保存部61と、抽出規則更新部62と、を備える。 The medical image analysis processing unit 43 shown in FIG. 3 includes a first feature area extraction unit 51, a first condition setting unit 52, a second feature area extraction unit 54, a second condition setting unit 56, and an association unit. It includes 57, a comparison unit 58, a comparison result giving unit 60, a storage unit 61, and an extraction rule updating unit 62.

《第1特徴領域抽出部》
第1特徴領域抽出部51は、CTC画像19から、規定の第1条件に合致する特徴領域である第1特徴領域を抽出する。CTC画像19の第1特徴領域の例として、病変、ひだ、各結腸間の変化点、及び血管が挙げられる。なお、血管は血管の走行パターンが含まれる。
<< First feature area extraction unit >>
The first feature region extraction unit 51 extracts the first feature region, which is a feature region that meets the specified first condition, from the CTC image 19. Examples of first feature regions of CTC image 19 include lesions, folds, points of change between colons, and blood vessels. The blood vessel includes a running pattern of the blood vessel.

《第1条件設定部》
第1条件設定部52は第1条件を設定する。第1条件は、第1特徴領域抽出部51を用いた抽出処理に適用される抽出条件である。第1条件設定部52は、図2に示した操作装置15を用いて入力された情報を第1条件として設定し得る。上述した第1特徴領域の例示は、第1条件の例示として把握される。
<< First condition setting unit >>
The first condition setting unit 52 sets the first condition. The first condition is an extraction condition applied to the extraction process using the first feature region extraction unit 51. The first condition setting unit 52 can set the information input by using the operation device 15 shown in FIG. 2 as the first condition. The above-mentioned example of the first feature region is grasped as an example of the first condition.

《第2特徴領域抽出部》
第2特徴領域抽出部54は、図2に示した内視鏡画像37から、規定の第2条件に合致する特徴領域である第2特徴領域を抽出する。内視鏡画像37の第2特徴領域の例として、CTC画像19の第1特徴領域と同様に、病変、ひだ、各結腸間の変化点、及び血管が挙げられる。
<< Second feature area extraction unit >>
The second feature region extraction unit 54 extracts a second feature region, which is a feature region that meets the specified second condition, from the endoscopic image 37 shown in FIG. Examples of the second feature region of the endoscopic image 37 include lesions, folds, change points between colons, and blood vessels, as in the first feature region of the CTC image 19.

第2特徴領域抽出部54は、第2条件に合致する第2特徴領域を内視鏡画像37から自動的に抽出してもよい。第2特徴領域抽出部54は、第2条件に合致する第2特徴領域を、ユーザが内視鏡画像37から手動抽出した抽出結果を取得してもよい。ユーザは、図2に示した情報取得部42を用いて手動抽出した抽出結果を入力してもよい。 The second feature region extraction unit 54 may automatically extract the second feature region that matches the second condition from the endoscopic image 37. The second feature region extraction unit 54 may acquire an extraction result in which the user manually extracts the second feature region that matches the second condition from the endoscopic image 37. The user may input the extraction result manually extracted using the information acquisition unit 42 shown in FIG.

《第2条件設定部》
第2条件設定部56は、内視鏡画像37の第2特徴領域の抽出条件として、第1条件に対応する第2条件を設定する。第1条件に対応する第2条件には、第1条件と同一の第2条件が含まれる。例えば、第1条件として病変が設定された場合、第2条件として病変が設定され得る。
<< Second condition setting unit >>
The second condition setting unit 56 sets a second condition corresponding to the first condition as an extraction condition of the second feature region of the endoscopic image 37. The second condition corresponding to the first condition includes the same second condition as the first condition. For example, when a lesion is set as the first condition, the lesion may be set as the second condition.

第1条件、及び第2条件は、病変という包括概念に代わり、ポリープ、及び炎症等の具体的な病変が設定されてもよい。また、第1条件、及び第2条件は、複数の条件を組み合わせてもよい。 In the first condition and the second condition, specific lesions such as polyps and inflammation may be set instead of the comprehensive concept of lesions. Further, the first condition and the second condition may be a combination of a plurality of conditions.

第2条件として病変が設定され、且つ第2特徴領域として内視鏡画像37から病変を抽出する場合は、内視鏡検査における病変の検出に相当する。上述した第2特徴領域の例示は、第2条件の例示として把握される。 When a lesion is set as the second condition and the lesion is extracted from the endoscopic image 37 as the second characteristic region, it corresponds to the detection of the lesion in the endoscopy. The above-mentioned example of the second characteristic region is grasped as an example of the second condition.

《対応付け部》
対応付け部57は、図2に示したCTC画像19と内視鏡画像37との対応付けを行う。CTC画像19と内視鏡画像37との対応付けの例として、CTC画像19の第1特徴領域と内視鏡画像37の第2特徴領域との対応付けが挙げられる。例えば、内視鏡画像37の第2特徴領域として病変が検出された場合、検出された病変に対応するCTC画像19の第1特徴領域を内視鏡画像37の第2特徴領域に対応付けする。
<< Correspondence part >>
The association unit 57 associates the CTC image 19 shown in FIG. 2 with the endoscopic image 37. An example of the association between the CTC image 19 and the endoscopic image 37 is the association between the first feature region of the CTC image 19 and the second feature region of the endoscopic image 37. For example, when a lesion is detected as the second feature region of the endoscopic image 37, the first feature region of the CTC image 19 corresponding to the detected lesion is associated with the second feature region of the endoscopic image 37. ..

CTC画像19と内視鏡画像37との対応付けは、CTC画像19の非抽出領域と内視鏡画像37の第2特徴領域との対応付けが含まれる。 The association between the CTC image 19 and the endoscopic image 37 includes the association between the non-extracted region of the CTC image 19 and the second feature region of the endoscopic image 37.

《比較部》
比較部58は、CTC画像19と内視鏡画像37とを比較する。そして、内視鏡画像37の第2特徴領域のうち、CTC画像19の非抽出領域に対応付けされている第2特徴領域を特定する。
《Comparison part》
The comparison unit 58 compares the CTC image 19 with the endoscopic image 37. Then, among the second feature regions of the endoscopic image 37, the second feature region associated with the non-extracted region of the CTC image 19 is specified.

換言すると、比較部58は、内視鏡画像37の第2特徴領域がCTC画像19の非抽出領域と対応付けされているか否かを判定する。比較部58は、自動判定を実行してもよい。比較部58は、ユーザの判定結果を入力する判定結果入力部を備えてもよい。比較部58の比較結果は、保存部61を用いて保存される。比較結果の詳細は後述する。 In other words, the comparison unit 58 determines whether or not the second feature region of the endoscopic image 37 is associated with the non-extracted region of the CTC image 19. The comparison unit 58 may execute the automatic determination. The comparison unit 58 may include a determination result input unit for inputting a user's determination result. The comparison result of the comparison unit 58 is stored using the storage unit 61. Details of the comparison results will be described later.

《比較結果付与部》
図3に示した比較結果付与部60は、比較部58の比較結果を内視鏡画像37に付与する。比較結果付与部60の機能を比較部58が担う態様も可能である。比較部58の比較結果が付与された内視鏡画像37は、保存部61を用いて保存される。
《Comparison result giving section》
The comparison result giving unit 60 shown in FIG. 3 gives the comparison result of the comparison unit 58 to the endoscopic image 37. It is also possible that the comparison unit 58 takes on the function of the comparison result giving unit 60. The endoscopic image 37 to which the comparison result of the comparison unit 58 is given is stored by using the storage unit 61.

比較部58の比較結果は、第1特徴領域の抽出結果として把握し得る。比較結果付与部60は抽出結果付与部の一例である。 The comparison result of the comparison unit 58 can be grasped as the extraction result of the first feature region. The comparison result giving unit 60 is an example of the extraction result giving unit.

《保存部》
保存部61は、比較部58の比較結果を保存する。保存部61は他の記憶部と兼用してもよい。保存部61を用いて記憶された比較結果は、第1特徴領域抽出部51に適用される抽出規則の更新に用いられる。なお、抽出規則の更新は抽出規則の変更を含む概念である。なお、ここでいう比較結果の保存は、比較結果の記憶と同義である。本明細書では、保存と記憶とを区別せずに同義として取り扱うこととする。
《Preservation part》
The storage unit 61 stores the comparison result of the comparison unit 58. The storage unit 61 may also be used as another storage unit. The comparison result stored using the storage unit 61 is used for updating the extraction rule applied to the first feature region extraction unit 51. Note that updating the extraction rule is a concept that includes changing the extraction rule. The storage of the comparison result here is synonymous with the memory of the comparison result. In the present specification, preservation and memory are treated as synonymous without distinction.

《抽出規則更新部》
抽出規則更新部62は、内視鏡画像37の第2特徴領域に対応付けされた非抽出領域の座標値を用いて第1特徴領域抽出部51に適用される抽出規則を更新する。第1特徴領域抽出部51に適用される抽出規則の更新は、深層学習アルゴリズム65を用いて実行される。更新後の抽出規則は、図示しない更新規則記憶部を用いて記憶される。
<< Extraction rule update section >>
The extraction rule update unit 62 updates the extraction rule applied to the first feature area extraction unit 51 by using the coordinate values of the non-extraction area associated with the second feature area of the endoscopic image 37. The update of the extraction rule applied to the first feature region extraction unit 51 is executed by using the deep learning algorithm 65. The extraction rule after the update is stored using an update rule storage unit (not shown).

[医療用画像解析方法の説明]
次に、大腸検査における医療用画像解析方法について説明する。なお、大腸検査は例示であり、以下に説明する医療用画像解析方法は、気管支等の他の部位の検査に適用可能である。
[Explanation of medical image analysis method]
Next, a medical image analysis method in a large intestine examination will be described. The large intestine examination is an example, and the medical image analysis method described below can be applied to an examination of other parts such as the bronchi.

以下に説明する医療用画像解析方法は、図2に示した内視鏡画像37を用いた内視鏡検査において検出され、且つCTC画像19を用いた仮想大腸内視鏡検査において検出されない病変等の情報を収集する画像処理方法の一例である。 The medical image analysis method described below is a lesion or the like that is detected in the endoscopy using the endoscopic image 37 shown in FIG. 2 and is not detected in the virtual colonoscopy using the CTC image 19. This is an example of an image processing method for collecting information on the above.

〔CTC画像〕
図4はCTC画像の模式図である。図4に示した全体画像19aは、被観察部位である大腸の全体を表すCTC画像19の一形態である。被観察部位は、被検体、及び被検体の観察対象と同義である。
[CTC image]
FIG. 4 is a schematic diagram of a CTC image. The overall image 19a shown in FIG. 4 is a form of the CTC image 19 showing the entire large intestine, which is the observed site. The observed site is synonymous with the subject and the observation target of the subject.

全体画像19aは、設定されたパス19cの上に1つ以上の視点Pを置き、スタート地点Pから、図示しないエンド地点まで順次に視点Pを変更しつつ、各視点Pから管腔の内部を見たことを想定した画像である。パス19cは、全体画像19aに対して細線化を施して生成し得る。細線化処理は公知の細線化手法を適用可能である。図4には、複数の視点Pを図示したが、視点Pの配置、及び数量は検査条件等に応じて、適宜決定し得る。Entire image 19a is placed one or more viewpoints P on the path 19c that is set from the start point P 0, while changing the sequentially viewpoint P to the end point, not shown, inside of the lumen from the viewpoint P It is an image assuming that you have seen it. The path 19c can be generated by thinning the entire image 19a. A known thinning method can be applied to the thinning process. Although a plurality of viewpoints P are shown in FIG. 4, the arrangement and quantity of the viewpoints P can be appropriately determined according to inspection conditions and the like.

全体画像19aの各視点Pを指定した場合、指定された視点Pにおける視野の画像を表す視点画像を表示可能である。なお、各視点Pにおける視点画像は符号19b、及び符号19bを付して図6に図示する。When each viewpoint P of the entire image 19a is specified, it is possible to display a viewpoint image representing an image of the field of view at the designated viewpoint P. The viewpoint image at each viewpoint P is shown in FIG. 6 with reference numerals 19b 1 and 19b 2 .

各視点Pにおいて、内視鏡10の撮像方向を反映させた視点画像を生成してもよい。内視鏡10の撮像方向を反映させた視点画像は、複数の撮像方向のそれぞれについて生成されてもよい。図4に示した全体画像19a、及び図4に図示しない視点画像は、図2に示したCTC画像19の概念に含まれる。 At each viewpoint P, a viewpoint image reflecting the imaging direction of the endoscope 10 may be generated. The viewpoint image reflecting the imaging direction of the endoscope 10 may be generated for each of the plurality of imaging directions. The overall image 19a shown in FIG. 4 and the viewpoint image (not shown in FIG. 4) are included in the concept of the CTC image 19 shown in FIG.

全体画像19aを図4に示した内視鏡画像37は、図示しない3次元座標が設定される。内視鏡画像37に設定される3次元座標は、内視鏡画像37の任意の基準位置を原点とする3次元座標を適用可能である。3次元座標は、直交座標、極座標、及び円筒座標など、任意の3次元座標を適用可能である。 The endoscopic image 37 whose overall image 19a is shown in FIG. 4 is set with three-dimensional coordinates (not shown). As the three-dimensional coordinates set in the endoscope image 37, the three-dimensional coordinates having an arbitrary reference position of the endoscope image 37 as the origin can be applied. As the three-dimensional coordinates, any three-dimensional coordinates such as Cartesian coordinates, polar coordinates, and cylindrical coordinates can be applied.

〔仮想大腸内視鏡検査〕
仮想大腸内視鏡検査は、CT装置を用いて大腸を撮像して大腸のCT画像を取得し、大腸のCT画像に画像処理を施して生成されたCTC画像19を用いて病変等を検出する。仮想大腸内視鏡検査は、内視鏡10の移動と連動して、内視鏡10に見立てたポインタ19dをパス19cに沿って移動させる。ポインタ19dの位置は、内視鏡10の移動条件から導出される。
[Virtual colonoscopy]
In virtual colonoscopy, a CT device is used to image the large intestine, a CT image of the large intestine is acquired, and a CTC image 19 generated by performing image processing on the CT image of the large intestine is used to detect a lesion or the like. .. In the virtual colonoscopy, the pointer 19d, which looks like an endoscope 10, is moved along the path 19c in conjunction with the movement of the endoscope 10. The position of the pointer 19d is derived from the movement condition of the endoscope 10.

例えば、内視鏡10の移動始点であるスタート地点Pに対応するポインタ19dの開始視点を設定する。内視鏡10のスタート地点Pは、図4に示した内視鏡10の挿入開始位置を適用可能である。内視鏡10のスタート地点Pは、図示しない内視鏡10の移動開始位置を適用してもよい。内視鏡10の挿入開始位置の例として肛門に対応する位置が挙げられる。内視鏡10の移動開始位置の例として盲腸に対応する位置が挙げられる。For example, to set the start point of view corresponding pointer 19d to the start point P 0 is the moving start point of the endoscope 10. Start point P 0 of the endoscope 10 is applicable to insertion start position of the endoscope 10 shown in FIG. Start point P 0 of the endoscope 10, may be applied to the movement start position of the endoscope 10 (not shown). An example of the insertion start position of the endoscope 10 is a position corresponding to the anus. An example of the movement start position of the endoscope 10 is a position corresponding to the cecum.

内視鏡10は図示しないセンサを用いて被観察部位の内部における位置を把握することが可能である。また、内視鏡10は図示しないセンサを用いて内視鏡10の移動速度、及び移動方向を表す移動ベクトルの導出が可能である。 The endoscope 10 can grasp the position inside the observed portion by using a sensor (not shown). Further, the endoscope 10 can derive a movement vector representing the movement speed and the movement direction of the endoscope 10 by using a sensor (not shown).

内視鏡10の被観察部位の内部における位置、及び内視鏡10の移動ベクトルを用いて、内視鏡10の移動に連動した、ポインタ19dの移動が可能である。全体画像19aにおけるポインタ19dの位置は、座標値を用いて特定し得る。 The pointer 19d can be moved in conjunction with the movement of the endoscope 10 by using the position inside the observed portion of the endoscope 10 and the movement vector of the endoscope 10. The position of the pointer 19d in the whole image 19a can be specified by using the coordinate values.

CTC画像19は3次元情報を有しているために、仮想大腸内視鏡検査はポリープ等の凸形状の検出に強い。また、ひだの裏に隠れているポリープ等の検出にも強い。一方、CTC画像19は色情報、及びテクスチャ情報を有していないために、仮想大腸内視鏡検査は平坦な病変、及び表面状態の違い等の検出が苦手である。 Since the CTC image 19 has three-dimensional information, the virtual colonoscopy is strong in detecting convex shapes such as polyps. It is also strong in detecting polyps hidden behind folds. On the other hand, since the CTC image 19 does not have color information and texture information, virtual colonoscopy is not good at detecting flat lesions and differences in surface conditions.

〔内視鏡画像〕
内視鏡検査は、内視鏡画像37を用いて病変等を検出する。すなわち、内視鏡検査は、内視鏡10を用いて、リアルタイムに生成される動画像38を見て、病変の位置、及び形状等を特定する。内視鏡検査は、内視鏡画像37の再生画像を用いてもよい。
[Endoscopic image]
In endoscopy, lesions and the like are detected using the endoscopic image 37. That is, in the endoscopy, the position, shape, and the like of the lesion are specified by observing the moving image 38 generated in real time using the endoscope 10. For the endoscopy, a reproduced image of the endoscopic image 37 may be used.

図5は内視鏡画像の模式図である。内視鏡画像37の一例として、動画像38を構成する任意のフレーム画像38aを図5に示す。図5に示したフレーム画像38aは2次元画像である。フレーム画像38aは色情報、及びテクスチャ情報を有している。 FIG. 5 is a schematic view of an endoscopic image. As an example of the endoscopic image 37, an arbitrary frame image 38a constituting the moving image 38 is shown in FIG. The frame image 38a shown in FIG. 5 is a two-dimensional image. The frame image 38a has color information and texture information.

内視鏡画像37は色情報、及びテクスチャ情報を有しているために、内視鏡検査は平坦な病変、及び表面状態の違い等の検出に強い。内視鏡検査は、仮想大腸内視鏡検査によって検出ができなかった病変の検出が可能である。したがって、内視鏡検査の検査結果を用いた仮想大腸内視鏡検査を補間する情報の生成が可能である。 Since the endoscopic image 37 has color information and texture information, endoscopy is strong in detecting flat lesions, differences in surface conditions, and the like. Endoscopy can detect lesions that could not be detected by virtual colonoscopy. Therefore, it is possible to generate information that interpolates the virtual colonoscopy using the test results of the endoscopy.

以下に、内視鏡検査の検査結果を用いた仮想大腸内視鏡検査を補間する情報の収集に用いられる医療用画像解析方法を構成する処理について説明する。本実施形態では、仮想大腸内視鏡検査が苦手とする病変の情報を収集する例を示す。 The processing that constitutes the medical image analysis method used for collecting information that interpolates the virtual colonoscopy using the examination results of the endoscopy will be described below. In this embodiment, an example of collecting information on lesions that virtual colonoscopy is not good at is shown.

本実施形態では、フレーム画像38aを用いて内視鏡画像37の位置を特定している。内視鏡画像37の位置はフレーム画像38aを用いずに特定してもよい。 In the present embodiment, the position of the endoscopic image 37 is specified by using the frame image 38a. The position of the endoscopic image 37 may be specified without using the frame image 38a.

〔特徴領域抽出処理〕
図6は第1特徴領域抽出の説明図である。図6には、CTC画像19のうち、任意の視点Pにおける視点画像19b、及び視点画像19bを図示する。図6に示した視点画像19b、及び視点画像19bを包括する概念が視点画像19bである。
[Feature area extraction process]
FIG. 6 is an explanatory diagram of the first feature region extraction. FIG. 6 illustrates the viewpoint image 19b 1 and the viewpoint image 19b 2 at an arbitrary viewpoint P among the CTC images 19. The concept that includes the viewpoint image 19b 1 and the viewpoint image 19b 2 shown in FIG. 6 is the viewpoint image 19b.

第1特徴領域抽出処理は、図3に示した第1特徴領域抽出部51を用いて、図6に示したCTC画像19から第1特徴領域80を抽出する。CTC画像19から第1特徴領域80を抽出する処理は、公知の特徴領域抽出技術を適用可能である。後述する第2特徴領域抽出も同様である。 In the first feature region extraction process, the first feature region 80 is extracted from the CTC image 19 shown in FIG. 6 by using the first feature region extraction unit 51 shown in FIG. A known feature region extraction technique can be applied to the process of extracting the first feature region 80 from the CTC image 19. The same applies to the second feature region extraction described later.

図6に示した視点画像19bは、第1特徴領域80として凸形状のポリープが抽出されている。一方、図6では図示を省略するが、CTC画像19は第1特徴領域が抽出されない領域がある。CTC画像19のうち、第1特徴領域が抽出されない領域を非抽出領域とする。In the viewpoint image 19b 1 shown in FIG. 6, a convex polyp is extracted as the first feature region 80. On the other hand, although not shown in FIG. 6, the CTC image 19 has a region in which the first feature region is not extracted. In the CTC image 19, a region in which the first feature region is not extracted is defined as a non-extracted region.

CTC画像19の第1特徴領域80、及び図示しない非抽出領域はいずれも、CTC画像19に設定されている3次元座標における座標値の特定が可能である。 In both the first feature region 80 of the CTC image 19 and the non-extracted region (not shown), the coordinate values in the three-dimensional coordinates set in the CTC image 19 can be specified.

図7は第2特徴領域抽出の説明図である。図7には、内視鏡画像37のうち、任意のフレーム画像38aを図示する。第2特徴領域の抽出結果は内視鏡検査の結果として取り扱うことが可能である。FIG. 7 is an explanatory diagram of the second feature region extraction. FIG. 7 shows an arbitrary frame image 38a 1 of the endoscopic images 37. The extraction result of the second characteristic region can be treated as the result of endoscopy.

第2特徴領域抽出処理は、図3に示した第2特徴領域抽出部54を用いて内視鏡画像37から第2特徴領域70を抽出する。図6に示したフレーム画像38aは、第2特徴領域70として凸形状のポリープが抽出されている。図7に示した第2特徴領域70である凸形状のポリープは、CTC画像19から抽出可能である。In the second feature region extraction process, the second feature region 70 is extracted from the endoscopic image 37 using the second feature region extraction unit 54 shown in FIG. In the frame image 38a 1 shown in FIG. 6, a convex polyp is extracted as the second feature region 70. The convex polyp, which is the second feature region 70 shown in FIG. 7, can be extracted from the CTC image 19.

図8は第2特徴領域抽出の他の例の説明図である。図8に示したフレーム画像38a31は、第2特徴領域76として炎症している病変が抽出されている。図8に示したフレーム画像38a31の第2特徴領域76は、内視鏡検査では検出可能な特徴領域である一方、仮想大腸内視鏡検査が検出を苦手とする特徴領域の一例である。FIG. 8 is an explanatory diagram of another example of the second feature region extraction. In the frame image 38a 31 shown in FIG. 8, an inflamed lesion is extracted as the second characteristic region 76. The second feature region 76 of the frame image 38a 31 shown in FIG. 8 is an example of a feature region that can be detected by endoscopy, but is difficult to detect by virtual colonoscopy.

図6に示した第1特徴領域80の情報、及び図示しない非抽出領域の情報は、第1特徴領域の抽出結果として、図2に示した保存部61に保存される。また、図7に示した第2特徴領域70の情報、及び図8に示した第2特徴領域76の情報は、第2特徴領域の抽出結果、又は内視鏡検査結果として、図2に示した保存部61に保存される。 The information of the first feature region 80 shown in FIG. 6 and the information of the non-extracted region (not shown) are stored in the storage unit 61 shown in FIG. 2 as the extraction result of the first feature region. Further, the information of the second feature region 70 shown in FIG. 7 and the information of the second feature region 76 shown in FIG. 8 are shown in FIG. 2 as the extraction result of the second feature region or the endoscopy result. It is stored in the storage unit 61.

〔対応付け処理〕
図9から図11を用いて対応付け処理について説明する。図9は病変の対応付けの例を示す模式図である。図9には内視鏡画像37のフレーム画像38aにおいて凸形状のポリープである第2特徴領域70が検出された場合の例を示す。
[Association processing]
The association processing will be described with reference to FIGS. 9 to 11. FIG. 9 is a schematic diagram showing an example of associating lesions. FIG. 9 shows an example in which the second feature region 70, which is a convex polyp, is detected in the frame image 38a 1 of the endoscopic image 37.

なお、図9に示した視点画像19bは図6に示した視点画像19bである。図9に示した視点画像19bは図6に示した視点画像19bである。図9に示した第1特徴領域80は、図6に示した第1特徴領域80である。Note that the viewpoint image 19b 1 shown in FIG. 9 is a viewpoint image 19b 1 shown in FIG. Viewpoint image 19b 2 as shown in FIG. 9 is a viewpoint image 19b 2 shown in FIG. The first feature region 80 shown in FIG. 9 is the first feature region 80 shown in FIG.

また、図9に示したフレーム画像38aは、図7に示したフレーム画像38aである。図9に示した第2特徴領域70は、図7に示した第2特徴領域70である。The frame image 38a 1 shown in FIG. 9 is a frame image 38a 1 shown in FIG. The second feature region 70 shown in FIG. 9 is the second feature region 70 shown in FIG. 7.

以下に、内視鏡10の移動に対応して、全体画像19aのパス19cに沿って、内視鏡10の位置を表すポインタ19dを移動させながら、内視鏡検査を行う場合について説明する。内視鏡10の位置は、内視鏡10が備えるセンサを用いて既知である。また、各視点Pにおける内視鏡10の向きは、図4に示したパス19cの各視点Pにおける接線方向とする。 Hereinafter, a case where endoscopy is performed while moving the pointer 19d indicating the position of the endoscope 10 along the path 19c of the entire image 19a corresponding to the movement of the endoscope 10 will be described. The position of the endoscope 10 is known by using the sensor included in the endoscope 10. Further, the orientation of the endoscope 10 at each viewpoint P is the tangential direction at each viewpoint P of the path 19c shown in FIG.

図3に示した対応付け部57は、内視鏡画像37から第2特徴領域70が抽出された場合に、第2特徴領域70に対応する第1特徴領域80をCTC画像19から検索する。内視鏡画像37の第2特徴領域70に対応するCTC画像19の第1特徴領域80が検出された場合、CTC画像19の第1特徴領域80と、内視鏡画像37の第2特徴領域70とを対応付ける。 When the second feature region 70 is extracted from the endoscopic image 37, the association unit 57 shown in FIG. 3 searches the CTC image 19 for the first feature region 80 corresponding to the second feature region 70. When the first feature region 80 of the CTC image 19 corresponding to the second feature region 70 of the endoscopic image 37 is detected, the first feature region 80 of the CTC image 19 and the second feature region 80 of the endoscopic image 37 Corresponds to 70.

換言すると、CTC画像19と内視鏡画像37との対応付けという概念は、CTC画像19の構成要素と、内視鏡画像37の構成要素との組を構成するという概念が含まれる。CTC画像19と内視鏡画像37との対応付けという概念には、内視鏡画像37の構成要素に対応するCTC画像19の構成要素を検索して、特定するという概念が含まれてもよい。 In other words, the concept of associating the CTC image 19 with the endoscopic image 37 includes the concept of forming a pair of the components of the CTC image 19 and the components of the endoscopic image 37. The concept of associating the CTC image 19 with the endoscope image 37 may include the concept of searching for and specifying the component of the CTC image 19 corresponding to the component of the endoscope image 37. ..

図10はひだの対応付けの例を示す模式図である。図10に示したフレーム画像38a11は、第2特徴領域72としてひだが抽出されている。視点画像19b11は、第1特徴領域82としてひだが抽出されている。図10には、視点画像19b11の視点Pに対して連続する視点Pにおける視点画像19b12、及び視点画像19b13が図示されている。図3に示した対応付け部57は、図10に示した第1特徴領域82と第2特徴領域72とを対応付ける。FIG. 10 is a schematic diagram showing an example of associating folds. The frame image 38a 11 shown in FIG. 10 has folds extracted as the second feature region 72. The viewpoint image 19b 11 has folds extracted as the first feature region 82. Figure 10 is a perspective image 19b 12 at the viewpoint P successive relative view point P of the viewpoint image 19b 11 and the viewpoint image 19b 13, is illustrated. The association unit 57 shown in FIG. 3 associates the first feature area 82 shown in FIG. 10 with the second feature area 72.

図11はひだの番号を用いたひだの対応付けの例を示す模式図である。CTC画像19、及び内視鏡画像37のいずれにおいても、ひだの数は変わらない。そこで、基準とするひだを定めて、ひだの番号を用いてCTC画像19と内視鏡画像37との対応付けが可能である。 FIG. 11 is a schematic diagram showing an example of associating folds using fold numbers. The number of folds does not change in either the CTC image 19 or the endoscopic image 37. Therefore, it is possible to determine the reference folds and associate the CTC image 19 with the endoscopic image 37 using the fold numbers.

図11に示したフレーム画像38a21は、第2特徴領域74としてひだが抽出されている。視点画像19b21は、第1特徴領域84としてひだが抽出されている。図11に示した視点画像19b22、及び視点画像19b23もまた、第2特徴領域としてひだが抽出されている。なお、視点画像19b22、及び視点画像19b23の第2特徴領域の図示は省略する。The frame image 38a 21 shown in FIG. 11 has folds extracted as the second feature region 74. The viewpoint image 19b 21 has folds extracted as the first feature region 84. The viewpoint image 19b 22 and the viewpoint image 19b 23 shown in FIG. 11 are also pleated as the second feature region. The illustration of the second feature region of the viewpoint image 19b 22 and the viewpoint image 19b 23 is omitted.

視点画像19b21に付されたnはひだの番号を表す整数である。視点画像19b22に付されたn、視点画像19b23に付されたn、及びフレーム画像38a21に付されたnも同様である。N 1 attached to the viewpoint image 19b 21 is an integer representing the number of folds. The same applies to n 2 attached to the viewpoint image 19b 22 , n 3 attached to the viewpoint image 19b 23 , and n 1 attached to the frame image 38a 21 .

フレーム画像38a21におけるひだの番号nと、視点画像19b21におけるひだの番号nとが一致する場合、図3に示した対応付け部57は、図11に示した第2特徴領域74と第1特徴領域84とを対応付けする。The number n 1 of folds in the frame image 38a 21, if the number n 1 of folds in the viewpoint image 19b 21 matches, mapping unit 57 shown in FIG. 3, a second characteristic region 74 shown in FIG. 11 It is associated with the first feature area 84.

図示は省略するが、各結腸間の変換点、及び血管についても、図9から図11を用いて説明した例と同様に、対応付けが可能である。 Although not shown, the conversion points between the colons and the blood vessels can be associated with each other in the same manner as in the examples described with reference to FIGS. 9 to 11.

〔比較処理〕
次に、図12を用いて比較処理について説明する。図12は病変を用いたCTC画像と内視鏡画像との比較処理の一例の説明図である。比較処理は、図3に示した比較部58を用いて実行される。
[Comparison processing]
Next, the comparison process will be described with reference to FIG. FIG. 12 is an explanatory diagram of an example of a comparison process between a CTC image using a lesion and an endoscopic image. The comparison process is executed using the comparison unit 58 shown in FIG.

比較処理は、第1特徴領域80等の第1特徴領域が抽出されたCTC画像19と、第2特徴領域70、及び第2特徴領域76等の第2特徴領域が抽出された内視鏡画像37とを比較する。比較処理は、CTC画像19と内視鏡画像37との対応する位置同士を比較する。 In the comparison process, the CTC image 19 from which the first feature region such as the first feature region 80 is extracted and the endoscopic image from which the second feature region such as the second feature region 70 and the second feature region 76 are extracted are extracted. Compare with 37. The comparison process compares the corresponding positions of the CTC image 19 and the endoscopic image 37 with each other.

具体的には、内視鏡画像37の第2特徴領域のうち、CTC画像19の第1特徴領域と対応付けされていない内視鏡画像37の第2特徴領域76を特定する。換言すると、CTC画像19の非抽出領域86と対応付けされている内視鏡画像37の第2特徴領域76を特定する。比較処理の比較結果は、図3に示した保存部61に保存される。 Specifically, among the second feature regions of the endoscope image 37, the second feature region 76 of the endoscope image 37 that is not associated with the first feature region of the CTC image 19 is specified. In other words, the second feature region 76 of the endoscopic image 37 associated with the non-extracted region 86 of the CTC image 19 is specified. The comparison result of the comparison process is stored in the storage unit 61 shown in FIG.

図12に示したフレーム画像38aは、第2特徴領域70として凸形状のポリープが抽出されている。そして、フレーム画像38aの第2特徴領域70は、視点画像19bの第1特徴領域80に対応付けがされている。したがって、フレーム画像38aは特定対象外である。In the frame image 38a 1 shown in FIG. 12, a convex polyp is extracted as the second feature region 70. The second feature region 70 of the frame image 38a 1 is associated with the first feature region 80 of the viewpoint image 19b 1 . Therefore, the frame image 38a 1 is not a specific target.

一方、図12に示したフレーム画像38a31は、第2特徴領域76として炎症している病変が抽出されている。しかし、フレーム画像38a31の第2特徴領域76は、CTC画像19の第1特徴領域80等と対応付けがされていない。On the other hand, in the frame image 38a 31 shown in FIG. 12, an inflamed lesion is extracted as the second characteristic region 76. However, the second feature region 76 of the frame image 38a 31 is not associated with the first feature region 80 or the like of the CTC image 19.

仮想大腸内視鏡検査は、平坦な病変、及び表面状態の違い等の検出が苦手であるので、CTC画像19は、第2特徴領域76に対応する第1特徴領域が抽出されていない。したがって、フレーム画像38a31は特定対象である。Since the virtual colonoscopy is not good at detecting flat lesions and differences in surface conditions, the first feature region corresponding to the second feature region 76 is not extracted from the CTC image 19. Therefore, the frame image 38a 31 is a specific target.

フレーム画像38a31が特定された場合、フレーム画像38a31の第2特徴領域76に対応するCTC画像19の非抽出領域86の座標値が特定される。When the frame image 38a 31 is specified, the coordinate value of the non-extracted area 86 of the CTC image 19 corresponding to the second feature area 76 of the frame image 38a 31 is specified.

図12に示した視点画像19b31は、フレーム画像38a31の撮像位置に対応する視点Pにおける視点画像である。視点画像19b31の非抽出領域86の位置は、フレーム画像38a31の第2特徴領域76の位置に対応している。The viewpoint image 19b 31 shown in FIG. 12 is a viewpoint image at the viewpoint P corresponding to the imaging position of the frame image 38a 31 . The position of the non-extracted region 86 of the viewpoint image 19b 31 corresponds to the position of the second feature region 76 of the frame image 38a 31 .

〔比較結果付与処理〕
比較結果付与処理は、図3に示した比較結果付与部60を用いて実行される。比較結果付与処理は、非抽出領域に対応付けされた第2特徴領域が抽出されたフレーム画像38aに対して、比較処理の比較結果を付与する。
[Comparison result granting process]
The comparison result giving process is executed by using the comparison result giving unit 60 shown in FIG. In the comparison result giving process, the comparison result of the comparison process is given to the frame image 38a from which the second feature area associated with the non-extracted area is extracted.

例えば、図12に示した第2特徴領域76が抽出されたフレーム画像38a31に対して、比較処理の比較結果として、視点画像19b31における非抽出領域86の座標値を付与する。For example, the coordinate values of the non-extracted region 86 in the viewpoint image 19b 31 are given to the frame image 38a 31 from which the second feature region 76 shown in FIG. 12 is extracted as a comparison result of the comparison process.

〔保存処理〕
保存処理は、図3に示した保存部61を用いて実行される。保存処理は、比較結果が付与された内視鏡画像37が保存される。具体的には、保存部61は非抽出領域86の座標値が付与された内視鏡画像37を保存する。
[Preservation process]
The storage process is executed using the storage unit 61 shown in FIG. In the storage process, the endoscopic image 37 to which the comparison result is given is stored. Specifically, the storage unit 61 stores the endoscopic image 37 to which the coordinate values of the non-extracted region 86 are assigned.

保存部61を用いて保存された情報は、内視鏡画像37から抽出された病変のうち、CTC画像19から抽出されない病変の情報である。したがって、内視鏡画像37から抽出された病変のうち、CTC画像19から抽出されない病変の情報収集が可能となる。 The information stored using the storage unit 61 is information on lesions extracted from the endoscopic image 37 that are not extracted from the CTC image 19. Therefore, among the lesions extracted from the endoscopic image 37, information on the lesions not extracted from the CTC image 19 can be collected.

〔抽出規則更新処理〕
抽出規則更新処理は、図3に示した抽出規則更新部62を用いて実行される。具体的には、抽出規則更新部62は、内視鏡画像37から抽出された病変に対応するCTC画像19の非抽出領域の情報に対して深層学習アルゴリズム65を実行し、CTC画像19から第1条件に合致する第1特徴領域を抽出する抽出規則を更新する。
[Extraction rule update process]
The extraction rule update process is executed using the extraction rule update unit 62 shown in FIG. Specifically, the extraction rule updating unit 62 executes the deep learning algorithm 65 on the information in the non-extracted region of the CTC image 19 corresponding to the lesion extracted from the endoscopic image 37, and the CTC image 19 to the first. The extraction rule for extracting the first feature region that matches one condition is updated.

更新後の抽出規則を用いた第1特徴領域の抽出処理では、更新前の抽出規則を用いた場合の非抽出領域に対応するCTC画像19の位置に第1特徴領域が抽出され得る。 In the extraction process of the first feature region using the extraction rule after the update, the first feature region can be extracted at the position of the CTC image 19 corresponding to the non-extraction region when the extraction rule before the update is used.

[画像処理方法の手順]
図13は画像処理方法の手順を示すフローチャートである。画像処理方法が開始されると、まず、CTC画像入力工程S10が実行される。CTC画像入力工程S10は、図1に示した画像記憶装置18から、ネットワーク17、及び図2に示したCTC画像取得部41aを介してCTC画像19が入力される。CTC画像19は、図2に示した画像記憶部48を用いて記憶される。CTC画像入力工程S10は第1画像入力工程の一例である。
[Procedure of image processing method]
FIG. 13 is a flowchart showing the procedure of the image processing method. When the image processing method is started, first, the CTC image input step S10 is executed. In the CTC image input step S10, the CTC image 19 is input from the image storage device 18 shown in FIG. 1 via the network 17 and the CTC image acquisition unit 41a shown in FIG. The CTC image 19 is stored using the image storage unit 48 shown in FIG. The CTC image input step S10 is an example of the first image input step.

図13に示したCTC画像入力工程S10においてCTC画像19が入力された後に、第1特徴領域抽出工程S12が実行される。第1特徴領域抽出工程S12では、図3に示した第1特徴領域抽出部51を用いて、CTC画像19から第1特徴領域が抽出される。第1特徴領域の一例は、符号80を付して図12に図示する。 After the CTC image 19 is input in the CTC image input step S10 shown in FIG. 13, the first feature region extraction step S12 is executed. In the first feature region extraction step S12, the first feature region is extracted from the CTC image 19 by using the first feature region extraction unit 51 shown in FIG. An example of the first feature region is illustrated with reference numeral 80 in FIG.

図13に示した内視鏡画像入力工程S14では、図2に示した内視鏡画像取得部41bを介して内視鏡画像37が入力される。図13に示した内視鏡画像入力工程S14では、図1に示した内視鏡10を用いて撮像された動画像38をリアルタイムで取得する。なお、動画像38は図2に図示する。動画像38は、画像記憶部48を用いて記憶される。以下の説明において、動画像38は内視鏡画像37と読み替えが可能である。内視鏡画像入力工程S14は第2画像入力工程の一例である。 In the endoscope image input step S14 shown in FIG. 13, the endoscope image 37 is input via the endoscope image acquisition unit 41b shown in FIG. In the endoscope image input step S14 shown in FIG. 13, the moving image 38 captured by the endoscope 10 shown in FIG. 1 is acquired in real time. The moving image 38 is shown in FIG. The moving image 38 is stored using the image storage unit 48. In the following description, the moving image 38 can be read as an endoscopic image 37. The endoscopic image input step S14 is an example of the second image input step.

内視鏡画像入力工程S14において入力された動画像38は、図1に示したモニタ装置16に表示される。また、モニタ装置16は図4に示した全体画像19aを表示し、内視鏡10の位置に対応するポインタを全体画像19aに表示させる。また、全体画像19aのポインタは、内視鏡10と連動してパス19c上を移動する。 The moving image 38 input in the endoscopic image input step S14 is displayed on the monitor device 16 shown in FIG. Further, the monitoring device 16 displays the whole image 19a shown in FIG. 4, and causes the pointer corresponding to the position of the endoscope 10 to be displayed on the whole image 19a. Further, the pointer of the whole image 19a moves on the path 19c in conjunction with the endoscope 10.

内視鏡画像入力工程S14において動画像38が入力された場合、第2特徴領域抽出工程S16が実行される。第2特徴領域抽出工程S16では、図3に示した第2特徴領域抽出部54を用いて、図2に示した動画像38から第2特徴領域が抽出される。第2特徴領域の一例は、図12に符号70、及び符号76を付して図示する。 When the moving image 38 is input in the endoscopic image input step S14, the second feature region extraction step S16 is executed. In the second feature region extraction step S16, the second feature region is extracted from the moving image 38 shown in FIG. 2 by using the second feature region extraction unit 54 shown in FIG. An example of the second feature region is shown in FIG. 12 with reference numerals 70 and 76.

図13に示した第2特徴領域抽出工程S16は、動画像38が入力される期間において、規定のサンプリング周期を適用して実行される。第2特徴領域抽出工程S16は、内視鏡検査における病変検出に相当する。 The second feature region extraction step S16 shown in FIG. 13 is executed by applying a predetermined sampling cycle during the period in which the moving image 38 is input. The second feature region extraction step S16 corresponds to lesion detection in endoscopy.

第2特徴領域抽出工程S16において、動画像38から第2特徴領域がされるたびに、対応付け工程S18が実行される。対応付け工程S18は、図3に示した対応付け部57を用いて、第1特徴領域抽出工程S12において抽出されたCTC画像19の第1特徴領域と、第2特徴領域抽出工程S16において抽出された動画像38の第2特徴領域との対応付けが実行される。対応付けの結果は、図2に示した画像記憶部48に記憶される。 In the second feature region extraction step S16, the association step S18 is executed each time the second feature region is created from the moving image 38. The association step S18 is extracted in the first feature region of the CTC image 19 extracted in the first feature region extraction step S12 and in the second feature region extraction step S16 by using the association unit 57 shown in FIG. The association with the second feature area of the moving image 38 is executed. The result of the association is stored in the image storage unit 48 shown in FIG.

図13に示した対応付け工程S18において、CTC画像19の第1特徴領域と動画像38の第2特徴領域との対応付けの結果が記憶された後に、比較工程S20が実行される。比較工程S20では、CTC画像19と動画像38が比較され、動画像38の第2特徴領域に対応付けされるCTC画像19の非抽出領域を特定する。 In the associating step S18 shown in FIG. 13, the comparison step S20 is executed after the result of associating the first feature area of the CTC image 19 with the second feature area of the moving image 38 is stored. In the comparison step S20, the CTC image 19 and the moving image 38 are compared, and the non-extracted region of the CTC image 19 associated with the second feature region of the moving image 38 is specified.

すなわち、比較工程S20では、CTC画像19から、本来は第1特徴領域として抽出されるべき非抽出領域を検索する。比較工程S20において特定された非抽出領域の一例を、図12に符号86を付して図示する。 That is, in the comparison step S20, a non-extracted region that should be originally extracted as the first feature region is searched from the CTC image 19. An example of the non-extracted region identified in the comparative step S20 is illustrated with reference numeral 86 in FIG.

また、図13に示した比較工程S20では、特定された非抽出領域の座標値を特定する。非抽出領域の座標値は、非抽出領域の重心位置等の、非抽出領域の代表位置の座標値を適用可能である。非抽出領域の座標値は、非抽出領域の縁を表す複数の座標値を適用してもよい。比較工程S20において特定された非抽出領域の座標値は、動画像38とCTC画像19との比較結果として、図3に示した保存部61に記憶される。 Further, in the comparison step S20 shown in FIG. 13, the coordinate values of the specified non-extracted region are specified. As the coordinate value of the non-extracted region, the coordinate value of the representative position of the non-extracted region such as the position of the center of gravity of the non-extracted region can be applied. As the coordinate values of the non-extracted region, a plurality of coordinate values representing the edges of the non-extracted region may be applied. The coordinate values of the non-extracted region identified in the comparison step S20 are stored in the storage unit 61 shown in FIG. 3 as a comparison result between the moving image 38 and the CTC image 19.

比較工程S20において、動画像38とCTC画像19との比較結果が導出された後に、比較結果付与工程S22へ進む。比較結果付与工程S22では、動画像38の第2特徴領域のうち、CTC画像19の非抽出領域に対応するものに対して、比較工程S20において導出された比較結果が付与される。 In the comparison step S20, after the comparison result between the moving image 38 and the CTC image 19 is derived, the process proceeds to the comparison result giving step S22. In the comparison result giving step S22, the comparison result derived in the comparison step S20 is given to the second feature region of the moving image 38 corresponding to the non-extracted region of the CTC image 19.

保存工程S24において、比較結果が付与された動画像38は、図3に示した保存部61に保存される。保存工程S24の後に画像処理方法は終了される。保存部61に保存された情報は、CTC画像19から第1特徴領域を抽出する際に適用される抽出規則の更新に用いることが可能である。 In the storage step S24, the moving image 38 to which the comparison result is given is stored in the storage unit 61 shown in FIG. The image processing method is terminated after the storage step S24. The information stored in the storage unit 61 can be used to update the extraction rules applied when extracting the first feature region from the CTC image 19.

[作用効果]
〔1〕
上記の如く構成された内視鏡システム9、及び画像処理方法によれば、内視鏡画像37の第2特徴領域のうち、CTC画像19の第1特徴領域に対応付けされず、非抽出領域86に対応する第2特徴領域76が特定される。非抽出領域86に対応する第2特徴領域76が特定された場合、特定された第2特徴領域76に対応する非抽出領域86の座標値が特定される。
[Action effect]
[1]
According to the endoscope system 9 and the image processing method configured as described above, among the second feature regions of the endoscope image 37, the non-extracted regions are not associated with the first feature region of the CTC image 19. A second feature region 76 corresponding to 86 is identified. When the second feature region 76 corresponding to the non-extracted region 86 is specified, the coordinate value of the non-extracted region 86 corresponding to the specified second feature region 76 is specified.

これにより、内視鏡画像37において特定される一方、CTC画像19において特定されない第1特徴領域の情報の効率的な収集が可能である。 This makes it possible to efficiently collect information on the first feature region, which is specified in the endoscopic image 37 but not specified in the CTC image 19.

〔2〕
内視鏡画像37において特定される一方、CTC画像19において特定されない第1特徴領域の情報を用いて、第1特徴領域の抽出規則の更新が可能である。
[2]
The extraction rule of the first feature region can be updated by using the information of the first feature region specified in the endoscopic image 37 but not specified in the CTC image 19.

〔3〕
非抽出領域に対応する第2特徴領域が抽出された内視鏡画像37に対して、非抽出領域の座標値の情報を付加する。これにより、第2特徴領域が抽出された内視鏡画像37と非抽出領域の座標値との対応付けが可能である。
[3]
Information on the coordinate values of the non-extracted region is added to the endoscopic image 37 from which the second feature region corresponding to the non-extracted region is extracted. As a result, it is possible to associate the endoscopic image 37 from which the second feature region has been extracted with the coordinate values of the non-extracted region.

また、内視鏡画像37の第2特徴領域と非抽出領域との対応関係を用いて、第1特徴領域の抽出規則の更新が可能である。 Further, the extraction rule of the first feature region can be updated by using the correspondence between the second feature region and the non-extraction region of the endoscopic image 37.

[変形例]
〔CTC画像の変形例〕
《第1例》
図2に示した医療画像処理装置14は、CT画像等の3次元検査画像からCTC画像19を生成するCTC画像生成部を備えてもよい。医療画像処理装置14は、CTC画像取得部41aを介して3次元検査画像を取得し、CTC画像生成部を用いてCTC画像19を生成してもよい。
[Modification example]
[Modification example of CTC image]
<< First example >>
The medical image processing apparatus 14 shown in FIG. 2 may include a CTC image generation unit that generates a CTC image 19 from a three-dimensional inspection image such as a CT image. The medical image processing apparatus 14 may acquire a three-dimensional inspection image via the CTC image acquisition unit 41a and generate a CTC image 19 using the CTC image generation unit.

《第2例》
図4に示した視点Pは、パス19cの上に限定されない。視点Pは任意の位置に設定可能である。視点画像19bの視野方向は、内視鏡10の撮像方向に対応して任意に設定し得る。
<< Second example >>
The viewpoint P shown in FIG. 4 is not limited to the path 19c. The viewpoint P can be set at any position. The visual field direction of the viewpoint image 19b can be arbitrarily set according to the imaging direction of the endoscope 10.

《第3例》
視点画像19bは、全体画像19aの任意の断面における3次元検査画像を2次元画像に変換した2次元検査画像としてもよい。
<< Third example >>
The viewpoint image 19b may be a two-dimensional inspection image obtained by converting a three-dimensional inspection image in an arbitrary cross section of the entire image 19a into a two-dimensional image.

〔第1特徴領域抽出の変形例〕
《第1例》
第1特徴領域の抽出は、CTC画像の生成に用いられる3次元検査画像を用いてもよい。
[Modified example of first feature region extraction]
<< First example >>
The three-dimensional inspection image used for generating the CTC image may be used for the extraction of the first feature region.

《第2例》
第1特徴領域の抽出は、内視鏡画像37の第2特徴領域の抽出と連動してもよい。例えば、内視鏡画像37から第2特徴領域が抽出された際に、第2特徴領域が抽出されている内視鏡画像37のフレーム画像38aに対応するCTC画像19の位置を特定し、特定されたCTC画像19の位置において第1特徴領域を抽出してもよい。第1特徴領域が抽出されない場合は、特定されたCTC画像19の位置の座標値を、図3に示した保存部61に保存してもよい。
<< Second example >>
The extraction of the first feature region may be linked with the extraction of the second feature region of the endoscopic image 37. For example, when the second feature region is extracted from the endoscope image 37, the position of the CTC image 19 corresponding to the frame image 38a of the endoscope image 37 from which the second feature region is extracted is specified and specified. The first feature region may be extracted at the position of the CTC image 19 obtained. When the first feature region is not extracted, the coordinate value of the position of the specified CTC image 19 may be stored in the storage unit 61 shown in FIG.

《第3例》
第1特徴領域と第1特徴領域の座表値との関係、及び非抽出領域と非抽出領域の座標値との関係をデータベース化してもよい。第2特徴領域70に対応する第1特徴領域80、又は第2特徴領域76に対応する非抽出領域86を特定する際に、上述したデータベースを用いてもよい。データベースは、図3に示した保存部61を用いて記憶してもよいし、医療画像処理装置14の外部の記憶装置を用いて記憶してもよい。
<< Third example >>
The relationship between the sitting table values of the first feature area and the first feature area and the relationship between the coordinate values of the non-extracted area and the non-extracted area may be stored in a database. The above-mentioned database may be used when specifying the first feature area 80 corresponding to the second feature area 70 or the non-extracted area 86 corresponding to the second feature area 76. The database may be stored using the storage unit 61 shown in FIG. 3, or may be stored using a storage device external to the medical image processing device 14.

〔第2特徴領域抽出の変形例〕
《第1例》
第2特徴領域抽出の第2条件は病変に限定されない。仮想大腸内視鏡検査の精度を向上させることが可能な第2特徴領域の抽出を可能とする第2条件であればよい。
[Modification of second feature region extraction]
<< First example >>
The second condition for extracting the second characteristic region is not limited to the lesion. It may be a second condition that enables extraction of a second characteristic region that can improve the accuracy of virtual colonoscopy.

《第2例》
第2特徴領域の抽出は、動画像38を再生して実行してもよい。
<< Second example >>
The extraction of the second feature region may be performed by reproducing the moving image 38.

〔保存部を用いて保存される情報の変形例〕
図3に示した保存部61は、内視鏡画像37の第2特徴領域に対応する非抽出領域の情報として、第1特徴領域を抽出した際の第1条件が含まれていてもよい。
[Modification example of information stored using the storage unit]
The storage unit 61 shown in FIG. 3 may include the first condition when the first feature region is extracted as the information of the non-extracted region corresponding to the second feature region of the endoscopic image 37.

〔比較処理の変形例〕
《第1例》
比較処理において、ユーザが内視鏡画像37の第2特徴領域に対応するCTC画像19の非抽出領域を特定してもよい。例えば、図1に示したモニタ装置16に、内視鏡画像37の第2特徴領域とCTC画像19の非抽出領域とを表示させる。
[Variation example of comparison processing]
<< First example >>
In the comparison process, the user may specify the non-extracted region of the CTC image 19 corresponding to the second feature region of the endoscopic image 37. For example, the monitor device 16 shown in FIG. 1 displays the second feature region of the endoscopic image 37 and the non-extracted region of the CTC image 19.

モニタ装置16に表示された内視鏡画像37の第2特徴領域、及びCTC画像19の非抽出領域に基づいて、ユーザが内視鏡画像37の第2特徴領域に対応するCTC画像19の非抽出領域を特定する。 Based on the second feature region of the endoscope image 37 displayed on the monitor device 16 and the non-extracted region of the CTC image 19, the user can use the non-extracted region of the CTC image 19 corresponding to the second feature region of the endoscope image 37. Identify the extraction area.

ユーザの特定情報を入力する特定情報入力部を備え、特定情報入力部を介して入力された特定情報に基づいて、第2特徴領域に対応するCTC画像19の非抽出領域の特定が可能である。特定情報入力部として、図2に示した情報取得部42を用いることが可能である。 A specific information input unit for inputting specific information of the user is provided, and a non-extracted area of the CTC image 19 corresponding to the second feature area can be specified based on the specific information input via the specific information input unit. .. As the specific information input unit, the information acquisition unit 42 shown in FIG. 2 can be used.

《第2例》
CTC画像19の第1特徴領域と、内視鏡画像37の第2特徴領域との対応付け処理を省略してもよい。すなわち、内視鏡画像37から病変として第2特徴領域が抽出された場合に、CTC画像19を検索して第2特徴領域と類似する特徴領域を特定してもよい。
<< Second example >>
The process of associating the first feature region of the CTC image 19 with the second feature region of the endoscopic image 37 may be omitted. That is, when the second characteristic region is extracted as a lesion from the endoscopic image 37, the CTC image 19 may be searched to identify a characteristic region similar to the second characteristic region.

例えば、CTC画像19の第1特徴領域の中から、内視鏡画像37の第2特徴領域の特徴量評価値との差分値が、規定の閾値以下の特徴量評価値を有する第1特徴領域を特定してもよい。CTC画像19の検索には、図4に示したポインタ19dの位置の情報を用いてもよい。 For example, from the first feature region of the CTC image 19, the difference value from the feature quantity evaluation value of the second feature region of the endoscopic image 37 has a feature quantity evaluation value equal to or less than a specified threshold value. May be specified. The information on the position of the pointer 19d shown in FIG. 4 may be used for searching the CTC image 19.

〔保存部の変形例〕
図3に示した保存部61は、図2に示した医療画像処理装置14とネットワークを介して通信可能に接続される保存装置を適用してもよい。
[Modification example of storage unit]
The storage unit 61 shown in FIG. 3 may apply a storage device that is communicably connected to the medical image processing device 14 shown in FIG. 2 via a network.

〔保存部を用いて保存される情報の変形例〕
《第1例》
図3に示した保存部61は、CTC画像19の非抽出領域86と対応付けされた内視鏡画像37を保存してもよい。ここでいう内視鏡画像37は、図12に示したフレーム画像38a31を示す。
[Modification example of information stored using the storage unit]
<< First example >>
The storage unit 61 shown in FIG. 3 may store the endoscopic image 37 associated with the non-extracted region 86 of the CTC image 19. The endoscopic image 37 referred to here shows the frame image 38a 31 shown in FIG.

《第2例》
図3に示した保存部61は、内視鏡画像37の第2特徴領域76に対応付けされた非抽出領域86の座標値を保存してもよい。非抽出領域86の特定の際に複数の座標値が用いられる場合、非抽出領域86の座標値として、複数の座標値を保存してもよい。
<< Second example >>
The storage unit 61 shown in FIG. 3 may store the coordinate values of the non-extracted area 86 associated with the second feature area 76 of the endoscopic image 37. When a plurality of coordinate values are used when specifying the non-extracted area 86, a plurality of coordinate values may be stored as the coordinate values of the non-extracted area 86.

すなわち、保存部61は、非抽出領域86の座標値が付加されたフレーム画像38a31、フレーム画像38a31、及び非抽出領域86の座標値の少なくもといずれかを保存する。That is, the storage unit 61 stores the frame image 38a 31 to which the coordinate values of the non-extracted area 86 are added, the frame image 38a 31 , and at least one of the coordinate values of the non-extracted area 86.

〔照明光の変形例〕
特定の波長領域は、以下の変形例の適用が可能である。
[Modification of illumination light]
The following modifications can be applied to a specific wavelength region.

《第1例》
特定の波長帯域の第1例は、可視域の青色帯域又は緑色帯域である。第1例の波長帯域は、390ナノメートル以上450ナノメートル以下、又は530ナノメートル以上550ナノメートル以下の波長帯域を含み、且つ第1例の光は、390ナノメートル以上450ナノメートル以下、又は530ナノメートル以上550ナノメートル以下の波長帯域内にピーク波長を有する。
<< First example >>
A first example of a particular wavelength band is the blue or green band in the visible range. The wavelength band of the first example includes a wavelength band of 390 nanometers or more and 450 nanometers or less, or 530 nanometers or more and 550 nanometers or less, and the light of the first example is 390 nanometers or more and 450 nanometers or less, or It has a peak wavelength in the wavelength band of 530 nanometers or more and 550 nanometers or less.

《第2例》
特定の波長帯域の第2例は、可視域の赤色帯域である。第2例の波長帯域は、585ナノメートル以上615ナノメートル以下、又は610ナノメートル以上730ナノメートル以下の波長帯域を含み、且つ第2例の光は、585ナノメートル以上615ナノメートル以下、又は610ナノメートル以上730ナノメートル以下の波長帯域内にピーク波長を有する。
<< Second example >>
A second example of a particular wavelength band is the red band in the visible range. The wavelength band of the second example includes a wavelength band of 585 nanometers or more and 615 nanometers or less, or 610 nanometers or more and 730 nanometers or less, and the light of the second example is 585 nanometers or more and 615 nanometers or less, or It has a peak wavelength in the wavelength band of 610 nanometers or more and 730 nanometers or less.

《第3例》
特定の波長帯域の第3例は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、且つ第3例の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する。この第3例の波長帯域は、400±10ナノメートル、440±10ナノメートル、470±10ナノメートル、又は600ナノメートル以上750ナノメートル以下の波長帯域を含み、且つ第3例の光は、400±10ナノメートル、440±10ナノメートル、470±10ナノメートル、又は600ナノメートル以上750ナノメートル以下の波長帯域にピーク波長を有する。
<< Third example >>
The third example of a specific wavelength band includes a wavelength band in which the absorption coefficient differs between oxidized hemoglobin and reduced hemoglobin, and the light in the third example has a peak wavelength in a wavelength band in which the absorption coefficient differs between oxidized hemoglobin and reduced hemoglobin. Has. The wavelength band of this third example includes a wavelength band of 400 ± 10 nanometers, 440 ± 10 nanometers, 470 ± 10 nanometers, or 600 nanometers or more and 750 nanometers or less, and the light of the third example is It has a peak wavelength in the wavelength band of 400 ± 10 nanometers, 440 ± 10 nanometers, 470 ± 10 nanometers, or 600 nanometers or more and 750 nanometers or less.

《第4例》
特定の波長帯域の第4例は、生体内の蛍光物質が発する蛍光の観察に用いられ且つこの蛍光物質を励起させる励起光の波長帯域である。例えば、390ナノメートル以上470ナノメートル以下の波長帯域である。なお、蛍光の観察は蛍光観察と呼ばれる場合がある。
<< 4th example >>
The fourth example of the specific wavelength band is the wavelength band of the excitation light used for observing the fluorescence emitted by the fluorescent substance in the living body and exciting the fluorescent substance. For example, it is a wavelength band of 390 nanometers or more and 470 nanometers or less. The observation of fluorescence may be referred to as fluorescence observation.

《第5例》
特定の波長帯域の第5例は、赤外光の波長帯域である。この第5例の波長帯域は、790ナノメートル以上820ナノメートル以下、又は905ナノメートル以上970ナノメートル以下の波長帯域を含み、且つ第5例の光は、790ナノメートル以上820ナノメートル以下、又は905ナノメートル以上970ナノメートル以下の波長帯域にピーク波長を有する。
<< Example 5 >>
A fifth example of a specific wavelength band is the wavelength band of infrared light. The wavelength band of the fifth example includes a wavelength band of 790 nanometers or more and 820 nanometers or less, or 905 nanometers or more and 970 nanometers or less, and the light of the fifth example is 790 nanometers or more and 820 nanometers or less. Alternatively, it has a peak wavelength in a wavelength band of 905 nanometers or more and 970 nanometers or less.

〔特殊光画像の生成例〕
プロセッサ12は、白色光を用いて撮像して得られた通常光画像に基づいて、特定の波長帯域の情報を有する特殊光画像を生成してもよい。なお、ここでいう生成は取得が含まれる。この場合、プロセッサ12は、特殊光画像取得部として機能する。そして、プロセッサ12は、特定の波長帯域の信号を、通常光画像に含まれる赤、緑、及び青、或いはシアン、マゼンタ、及びイエローの色情報に基づく演算を行うことで得る。
[Example of generating a special light image]
The processor 12 may generate a special optical image having information in a specific wavelength band based on a normal optical image obtained by imaging with white light. Note that the generation here includes acquisition. In this case, the processor 12 functions as a special optical image acquisition unit. Then, the processor 12 obtains a signal in a specific wavelength band by performing an operation based on color information of red, green, and blue, or cyan, magenta, and yellow contained in a normal optical image.

なお、赤、緑、及び青は、RGB(Red,Green,Blue)と表されることがある。また、シアン、マゼンタ、及びイエローは、CMY(Cyan,Magenta,Yellow)と表されることがある。 In addition, red, green, and blue may be expressed as RGB (Red, Green, Blue). In addition, cyan, magenta, and yellow may be expressed as CMY (Cyan, Magenta, Yellow).

〔特徴量画像の生成例〕
プロセッサ12は、通常光画像、及び特殊光画像の少なくともいずれか一方に基づいて、公知の酸素飽和度画像等の特徴量画像を生成してもよい。
[Example of generating a feature image]
The processor 12 may generate a feature image such as a known oxygen saturation image based on at least one of a normal optical image and a special optical image.

[画像処理装置への適用例]
上述した内視鏡システムの一部の構成を用いて、画像処理装置を構成し得る。例えば、図2に示した医療画像処理装置14は、画像処理装置として機能し得る。
[Example of application to image processing equipment]
An image processing apparatus can be configured using some of the configurations of the endoscopic system described above. For example, the medical image processing device 14 shown in FIG. 2 can function as an image processing device.

[コンピュータを画像処理装置として機能させるプログラムへの適用例]
上述した画像処理方法は、コンピュータを用いて、画像処理方法における各工程に対応する機能を実現させるプログラムとして構成可能である。例えば、コンピュータに、CTC画像入力機能、第1特徴領域抽出機能、内視鏡画像入力機能、第2特徴領域抽出機能、対応付け機能、比較機能、及び保存機能を実現させるプログラムを構成し得る。
[Example of application to a program that makes a computer function as an image processing device]
The above-mentioned image processing method can be configured as a program that realizes a function corresponding to each step in the image processing method by using a computer. For example, a computer may be configured to implement a CTC image input function, a first feature area extraction function, an endoscopic image input function, a second feature area extraction function, a mapping function, a comparison function, and a storage function.

CTC画像入力機能は第1画像入力機能に相当する。内視鏡画像入力機能は第2画像入力機能に相当する。 The CTC image input function corresponds to the first image input function. The endoscopic image input function corresponds to the second image input function.

上述した画像処理機能をコンピュータに実現させるプログラムを、有体物である非一時的な情報記憶媒体である、コンピュータが読取可能な情報記憶媒体に記憶し、情報記憶媒体を通じてプログラムを提供することが可能である。 It is possible to store the program that realizes the above-mentioned image processing function on a computer in a computer-readable information storage medium, which is a tangible non-temporary information storage medium, and provide the program through the information storage medium. is there.

また、非一時的な情報記憶媒体にプログラムを記憶して提供する態様に代えて、ネットワークを介してプログラム信号を提供する態様も可能である。 Further, instead of the mode in which the program is stored and provided in the non-temporary information storage medium, the mode in which the program signal is provided via the network is also possible.

[実施形態及び変形例等の組み合わせについて]
上述した実施形態で説明した構成要素、及び変形例で説明した構成要素は、適宜組み合わせて用いることができ、また、一部の構成要素を置き換えることもできる。
[Combination of Embodiments and Modifications]
The components described in the above-described embodiment and the components described in the modified examples can be used in combination as appropriate, or some components can be replaced.

以上説明した本発明の実施形態は、本発明の趣旨を逸脱しない範囲で、適宜構成要件を変更、追加、削除することが可能である。本発明は以上説明した実施形態に限定されるものではなく、本発明の技術的思想内で当該分野の通常の知識を有する者により、多くの変形が可能である。 In the embodiment of the present invention described above, the constituent requirements can be appropriately changed, added, or deleted without departing from the spirit of the present invention. The present invention is not limited to the embodiments described above, and many modifications can be made by a person having ordinary knowledge in the art within the technical idea of the present invention.

9 内視鏡システム
10 内視鏡
11 光源装置
12 プロセッサ
13 表示装置
14 医療画像処理装置
15 入力操作部
16 表示装置
17 ネットワーク
18 画像記憶装置
19 CTC画像
19a 全体画像
19b、19b、19b、19b、19b11、19b12、19b13、19b21、19b22、19b23、19b31 視点画像
19c パス
19d ポインタ
20 挿入部
21 操作部
22 ユニバーサルコード
25 軟性部
26 湾曲部
27 先端部
28 撮像素子
29 湾曲操作ノブ
30 送気送水ボタン
31 吸引ボタン
32 静止画像撮影指示部
33 処置具導入口
35 ライトガイド
36 信号ケーブル
37 内視鏡画像
37a、37b コネクタ
38 動画像
38a、38a、38a11、38a21、38a31 フレーム画像
39 静止画像
41 画像取得部
41a CTC画像取得部
41b 内視鏡画像取得部
42 情報取得部
43 医療画像解析処理部
44 表示制御部
44a 再生制御部
44b 情報表示制御部
47 記憶部
48 画像記憶部
49 プログラム記憶部
51 第1特徴領域抽出部
52 第1条件設定部
54 第2特徴領域抽出部
56 第2条件設定部
57 対応付け部
58 比較部
60 比較結果付与部
61 保存部
62 抽出規則更新部
65 深層学習アルゴリズム
70、72、76 第2特徴領域
80、82、84、86 第1特徴領域
86 非抽出領域
P 視点
スタート地点
、n、n ひだの番号
S10からS22 画像処理方法の各工程
9 Endoscope system 10 Endoscope 11 Light source device 12 Processor 13 Display device 14 Medical image processing device 15 Input operation unit 16 Display device 17 Network 18 Image storage device 19 CTC image 19a Overall image 19b, 19b 1 , 19b 2 , 19b 3 , 19b 11 , 19b 12 , 19b 13 , 19b 21 , 19b 22 , 19b 23 , 19b 31 Viewpoint image 19c Path 19d Pointer 20 Insertion 21 Operation unit 22 Universal cord 25 Flexible part 26 Curved part 27 Tip part 28 Imaging element 29 Curved operation knob 30 Air supply / water supply button 31 Suction button 32 Still image shooting instruction unit 33 Treatment tool introduction port 35 Light guide 36 Signal cable 37 Endoscopic image 37a, 37b Connector 38 Moving image 38a, 38a 1 , 38a 11 , 38a 21 , 38a 31 Frame image 39 Still image 41 Image acquisition unit 41a CTC image acquisition unit 41b Endoscopic image acquisition unit 42 Information acquisition unit 43 Medical image analysis processing unit 44 Display control unit 44a Playback control unit 44b Information display control unit 47 Storage unit 48 Image storage unit 49 Program storage unit 51 First feature area extraction unit 52 First condition setting unit 54 Second feature area extraction unit 56 Second condition setting unit 57 Correspondence unit 58 Comparison unit 60 Comparison result giving unit 61 Storage unit 62 Extraction rule updater 65 Deep learning algorithm 70, 72, 76 Second feature area 80, 82, 84, 86 First feature area 86 Non-extraction area P Viewpoint P 0 Start point n 1 , n 2 , n 3 Fold number S10 From S22 Each step of the image processing method

Claims (18)

被検体の3次元検査画像から生成された仮想内視鏡画像を入力する第1画像入力部と、
内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力部と、
前記仮想内視鏡画像と前記実内視鏡画像とを対応付けする対応付け部と、
前記仮想内視鏡画像から第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出部と、
前記実内視鏡画像から、前記第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出部と、
前記実内視鏡画像の前記第2特徴領域に対応付けされ、且つ前記仮想内視鏡画像から前記第1特徴領域として抽出されていない非抽出領域の情報、及び前記非抽出領域に対応付けられた前記第2特徴領域の情報の少なくともいずれか一方を保存する保存部と、
を備えた画像処理装置。
A first image input unit for inputting a virtual endoscopic image generated from a three-dimensional examination image of a subject, and
A second image input unit that inputs an actual endoscopic image obtained by imaging the observation target of the subject using an endoscope, and
An associating unit that associates the virtual endoscopic image with the real endoscopic image,
A first feature region extraction unit that extracts a first feature region that matches the first condition from the virtual endoscopic image, and a first feature region extraction unit.
A second feature region extraction unit that extracts a second feature region that meets the second condition corresponding to the first condition from the actual endoscopic image, and a second feature region extraction unit.
Information on a non-extracted region that is associated with the second feature region of the real endoscopic image and is not extracted as the first feature region from the virtual endoscopic image, and is associated with the non-extracted region. A storage unit that stores at least one of the information in the second feature area, and
Image processing device equipped with.
前記実内視鏡画像に対して、前記仮想内視鏡画像から前記第1特徴領域を抽出した抽出結果を付与する抽出結果付与部を備えた請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising an extraction result imparting unit that imparts an extraction result obtained by extracting the first characteristic region from the virtual endoscopic image to the real endoscopic image. 前記仮想内視鏡画像から前記第1特徴領域を抽出した抽出結果と、前記実内視鏡画像から前記第2特徴領域を抽出した抽出結果とを比較する比較部を備えた請求項1又は2に記載の画像処理装置。 Claim 1 or 2 including a comparison unit for comparing the extraction result of extracting the first feature region from the virtual endoscopic image with the extraction result of extracting the second feature region from the real endoscopic image. The image processing apparatus according to. 前記比較部は、前記仮想内視鏡画像と前記実内視鏡画像との対応する位置同士を比較する請求項3に記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the comparison unit compares the corresponding positions of the virtual endoscopic image and the real endoscopic image with each other. 前記実内視鏡画像の前記第2特徴領域について、前記仮想内視鏡画像の前記非抽出領域に対応付けされた領域であるか否かを判定した判定結果を入力する判定結果入力部を備えた請求項1から4のいずれか一項に記載の画像処理装置。 A determination result input unit for inputting a determination result for determining whether or not the second feature region of the real endoscopic image is a region associated with the non-extracted region of the virtual endoscopic image is provided. The image processing apparatus according to any one of claims 1 to 4. 前記仮想内視鏡画像の抽出結果、及び前記実内視鏡画像の抽出結果を表示する表示部を備えた請求項1から5のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 5, further comprising a display unit for displaying the extraction result of the virtual endoscopic image and the extraction result of the real endoscopic image. 前記実内視鏡画像から前記第2特徴領域を抽出した抽出結果を入力する抽出結果入力部を備えた請求項1から6のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 6, further comprising an extraction result input unit for inputting an extraction result obtained by extracting the second characteristic region from the actual endoscopic image. 前記第2特徴領域抽出部は、前記実内視鏡画像から前記第2特徴領域を自動的に抽出する請求項1から6のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 6, wherein the second feature region extraction unit automatically extracts the second feature region from the actual endoscopic image. 前記第2特徴領域抽出部は、前記実内視鏡画像から前記第2特徴領域として病変を抽出する請求項1から8のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 8, wherein the second feature region extraction unit extracts a lesion as the second feature region from the actual endoscopic image. 前記保存部は、前記非抽出領域の前記仮想内視鏡画像における3次元座標値、及び前記非抽出領域に対応する前記第2特徴領域を含む前記実内視鏡画像の少なくともいずれか一方を保存する請求項1から9のいずれか一項に記載の画像処理装置。 The storage unit stores at least one of the three-dimensional coordinate values of the non-extracted region in the virtual endoscopic image and the real endoscopic image including the second feature region corresponding to the non-extracted region. The image processing apparatus according to any one of claims 1 to 9. 前記第1特徴領域抽出部は、前記仮想内視鏡画像から前記第1特徴領域として病変を抽出する請求項1から10のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 10, wherein the first feature region extraction unit extracts a lesion as the first feature region from the virtual endoscopic image. 前記第1特徴領域抽出部は、前記保存部に保存されている前記第2特徴領域の情報と前記非抽出領域との対応関係を用いて、前記仮想内視鏡画像から前記第1特徴領域を抽出する抽出規則を更新する請求項1から11のいずれか一項に記載の画像処理装置。 The first feature region extraction unit uses the correspondence between the information of the second feature region stored in the storage unit and the non-extracted region to obtain the first feature region from the virtual endoscopic image. The image processing apparatus according to any one of claims 1 to 11, wherein the extraction rule to be extracted is updated. 前記第1特徴領域抽出部は、機械学習を用いて生成された抽出規則を適用して、前記仮想内視鏡画像から前記第1特徴領域を抽出する請求項1から12のいずれか一項に記載の画像処理装置。 The first feature region extraction unit applies an extraction rule generated by using machine learning to extract the first feature region from the virtual endoscopic image according to any one of claims 1 to 12. The image processing apparatus described. 被検体の3次元検査画像から生成された仮想内視鏡画像を入力する第1画像入力工程と、
内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力工程と、
前記仮想内視鏡画像から生成される仮想内視鏡画像と前記実内視鏡画像とを対応付けする対応付け工程と、
前記仮想内視鏡画像から第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出工程と、
前記実内視鏡画像から、前記第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出工程と、
前記実内視鏡画像の前記第2特徴領域に対応付けされ、且つ前記仮想内視鏡画像から前記第1特徴領域として抽出されていない非抽出領域の情報、及び前記非抽出領域に対応付けられた前記第2特徴領域の情報の少なくともいずれか一方を保存する保存工程と、
を含む画像処理方法。
The first image input step of inputting a virtual endoscopic image generated from a three-dimensional examination image of a subject, and
A second image input step of inputting an actual endoscopic image obtained by imaging an observation target of a subject using an endoscope, and
A matching step of associating a virtual endoscopic image generated from the virtual endoscopic image with the real endoscopic image,
A first feature region extraction step of extracting a first feature region that matches the first condition from the virtual endoscopic image, and a first feature region extraction step.
A second feature region extraction step of extracting a second feature region that meets the second condition corresponding to the first condition from the actual endoscopic image, and a second feature region extraction step.
Information on a non-extracted region that is associated with the second feature region of the real endoscopic image and is not extracted as the first feature region from the virtual endoscopic image, and is associated with the non-extracted region. A storage step of storing at least one of the information in the second characteristic region, and
Image processing method including.
コンピュータに、
被検体の3次元検査画像から生成された仮想内視鏡画像を入力する第1画像入力機能、
内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力機能、
前記仮想内視鏡画像から生成される仮想内視鏡画像と前記実内視鏡画像とを対応付けする対応付け機能、
前記仮想内視鏡画像から第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出機能、
前記実内視鏡画像から、前記第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出機能、及び
前記実内視鏡画像の前記第2特徴領域に対応付けされ、且つ前記仮想内視鏡画像から前記第1特徴領域として抽出されていない非抽出領域の情報、及び前記非抽出領域に対応付けられた前記第2特徴領域の情報の少なくともいずれか一方を保存する保存機能を実現させるプログラム。
On the computer
First image input function for inputting a virtual endoscopic image generated from a three-dimensional examination image of a subject,
A second image input function that inputs an actual endoscopic image obtained by imaging the observation target of the subject using an endoscope,
An associating function for associating a virtual endoscopic image generated from the virtual endoscopic image with the real endoscopic image.
A first feature area extraction function that extracts a first feature area that matches the first condition from the virtual endoscopic image.
Corresponds to the second feature region extraction function that extracts the second feature region that matches the second condition corresponding to the first condition from the real endoscopic image, and the second feature region of the real endoscopic image. At least one of the information of the non-extracted region attached and not extracted as the first feature region from the virtual endoscopic image and the information of the second feature region associated with the non-extracted region A program that realizes the save function.
内視鏡と、
被検体の3次元検査画像から生成された仮想内視鏡画像を入力する第1画像入力部と、
前記内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力部と、
前記仮想内視鏡画像から生成される仮想内視鏡画像と前記実内視鏡画像とを対応付けする対応付け部と、
前記仮想内視鏡画像から第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出部と、
前記実内視鏡画像から、前記第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出部と、
前記実内視鏡画像の前記第2特徴領域に対応付けされ、且つ前記仮想内視鏡画像から前記第1特徴領域として抽出されていない非抽出領域の情報、及び前記非抽出領域に対応付けられた前記第2特徴領域の情報の少なくともいずれか一方を保存する保存部と、
を備えた内視鏡システム。
With an endoscope
A first image input unit for inputting a virtual endoscopic image generated from a three-dimensional examination image of a subject, and
A second image input unit for inputting an actual endoscopic image obtained by imaging an observation target of a subject using the endoscope, and
An association unit that associates the virtual endoscope image generated from the virtual endoscope image with the real endoscope image, and
A first feature region extraction unit that extracts a first feature region that matches the first condition from the virtual endoscopic image, and a first feature region extraction unit.
A second feature region extraction unit that extracts a second feature region that meets the second condition corresponding to the first condition from the actual endoscopic image, and a second feature region extraction unit.
Information on a non-extracted region that is associated with the second feature region of the real endoscopic image and is not extracted as the first feature region from the virtual endoscopic image, and is associated with the non-extracted region. A storage unit that stores at least one of the information in the second feature area, and
Endoscope system equipped with.
内視鏡、画像処理装置、及び保存装置を備えた内視鏡システムであって、
前記画像処理装置は、
被検体の3次元検査画像から生成された仮想内視鏡画像を入力する第1画像入力部と、
前記内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力部と、
前記仮想内視鏡画像から生成される仮想内視鏡画像と前記実内視鏡画像とを対応付けする対応付け部と、
前記仮想内視鏡画像から第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出部と、
前記実内視鏡画像から、前記第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出部と、
を備え、
前記保存装置は、
前記実内視鏡画像の前記第2特徴領域に対応付けされ、且つ前記仮想内視鏡画像から前記第1特徴領域として抽出されていない非抽出領域の情報、及び前記非抽出領域に対応付けられた前記第2特徴領域の情報の少なくともいずれか一方を保存する保存部を備えた内視鏡システム。
An endoscope system equipped with an endoscope, an image processing device, and a storage device.
The image processing device is
A first image input unit for inputting a virtual endoscopic image generated from a three-dimensional examination image of a subject, and
A second image input unit for inputting an actual endoscopic image obtained by imaging an observation target of a subject using the endoscope, and
An association unit that associates the virtual endoscope image generated from the virtual endoscope image with the real endoscope image, and
A first feature region extraction unit that extracts a first feature region that matches the first condition from the virtual endoscopic image, and a first feature region extraction unit.
A second feature region extraction unit that extracts a second feature region that meets the second condition corresponding to the first condition from the actual endoscopic image, and a second feature region extraction unit.
With
The storage device is
Information on a non-extracted region that is associated with the second feature region of the real endoscopic image and is not extracted as the first feature region from the virtual endoscopic image, and is associated with the non-extracted region. An endoscope system including a storage unit that stores at least one of the information in the second feature region.
前記保存装置は、ネットワークを介して前記画像処理装置と通信可能に接続される請求項17に記載の内視鏡システム。 The endoscope system according to claim 17, wherein the storage device is communicably connected to the image processing device via a network.
JP2019550364A 2017-10-31 2018-10-29 Image processing device, program, and endoscope system Active JP7148534B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017210249 2017-10-31
JP2017210249 2017-10-31
PCT/JP2018/040051 WO2019088008A1 (en) 2017-10-31 2018-10-29 Image processing apparatus, image processing method, program, and endoscope system

Publications (2)

Publication Number Publication Date
JPWO2019088008A1 true JPWO2019088008A1 (en) 2020-11-12
JP7148534B2 JP7148534B2 (en) 2022-10-05

Family

ID=66331900

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019550364A Active JP7148534B2 (en) 2017-10-31 2018-10-29 Image processing device, program, and endoscope system

Country Status (2)

Country Link
JP (1) JP7148534B2 (en)
WO (1) WO2019088008A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021199152A1 (en) * 2020-03-30 2021-10-07 日本電気株式会社 Information processing device, display method, and non-transitory computer-readable medium having program stored therein
JP2023176613A (en) 2022-05-31 2023-12-13 富士フイルム株式会社 Information processing device, ultrasonic endoscope, information processing method and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004089484A (en) * 2002-08-30 2004-03-25 Olympus Corp Endoscope
JP2006061274A (en) * 2004-08-25 2006-03-09 Konica Minolta Medical & Graphic Inc Program and endoscope system
JP2008054763A (en) * 2006-08-29 2008-03-13 Hitachi Medical Corp Medical image diagnostic apparatus
JP2011000173A (en) * 2009-06-16 2011-01-06 Toshiba Corp Endoscopic examination supporting system
JP2012050606A (en) * 2010-08-31 2012-03-15 Fujifilm Corp Endoscopic image processing device, method and program
JP2013031660A (en) * 2011-08-02 2013-02-14 Samsung Electronics Co Ltd Method and apparatus for processing medical image, and robotic surgery system using image guidance
JP2014230612A (en) * 2013-05-28 2014-12-11 国立大学法人名古屋大学 Endoscopic observation support device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004089484A (en) * 2002-08-30 2004-03-25 Olympus Corp Endoscope
JP2006061274A (en) * 2004-08-25 2006-03-09 Konica Minolta Medical & Graphic Inc Program and endoscope system
JP2008054763A (en) * 2006-08-29 2008-03-13 Hitachi Medical Corp Medical image diagnostic apparatus
JP2011000173A (en) * 2009-06-16 2011-01-06 Toshiba Corp Endoscopic examination supporting system
JP2012050606A (en) * 2010-08-31 2012-03-15 Fujifilm Corp Endoscopic image processing device, method and program
JP2013031660A (en) * 2011-08-02 2013-02-14 Samsung Electronics Co Ltd Method and apparatus for processing medical image, and robotic surgery system using image guidance
JP2014230612A (en) * 2013-05-28 2014-12-11 国立大学法人名古屋大学 Endoscopic observation support device

Also Published As

Publication number Publication date
JP7148534B2 (en) 2022-10-05
WO2019088008A1 (en) 2019-05-09

Similar Documents

Publication Publication Date Title
US11734820B2 (en) Medical image processing device, medical image processing method, and medical image processing program
JP5675227B2 (en) Endoscopic image processing apparatus, operation method, and program
JP7096445B2 (en) Endoscope processor, program, information processing method and information processing device
JP6967602B2 (en) Inspection support device, endoscope device, operation method of endoscope device, and inspection support program
JP7050817B2 (en) Image processing device, processor device, endoscope system, operation method and program of image processing device
JP7166430B2 (en) Medical image processing device, processor device, endoscope system, operating method and program for medical image processing device
WO2020012872A1 (en) Medical image processing device, medical image processing system, medical image processing method, and program
JP7125479B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, METHOD OF OPERATION OF MEDICAL IMAGE PROCESSING APPARATUS, AND ENDOSCOPE SYSTEM
EP3936027A1 (en) Apparatus and method for processing medical image
JP7148534B2 (en) Image processing device, program, and endoscope system
JP6840263B2 (en) Endoscope system and program
US20200184644A1 (en) Medical image processing device and medical image processing method
JP7289241B2 (en) Filing device, filing method and program
JP7122328B2 (en) Image processing device, processor device, image processing method, and program
JP2011024913A (en) Medical image processor, medical image processing program, and x-ray ct apparatus
JP7335157B2 (en) LEARNING DATA GENERATION DEVICE, OPERATION METHOD OF LEARNING DATA GENERATION DEVICE, LEARNING DATA GENERATION PROGRAM, AND MEDICAL IMAGE RECOGNITION DEVICE
JP2020010734A (en) Inspection support device, method, and program
US20230206445A1 (en) Learning apparatus, learning method, program, trained model, and endoscope system
Regef et al. Laryngeal surface reconstructions from monocular endoscopic videos: a structure from motion pipeline for periodic deformations

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220922

R150 Certificate of patent or registration of utility model

Ref document number: 7148534

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150