JP2021074321A - 学習装置、学習方法および学習済みモデル - Google Patents

学習装置、学習方法および学習済みモデル Download PDF

Info

Publication number
JP2021074321A
JP2021074321A JP2019203965A JP2019203965A JP2021074321A JP 2021074321 A JP2021074321 A JP 2021074321A JP 2019203965 A JP2019203965 A JP 2019203965A JP 2019203965 A JP2019203965 A JP 2019203965A JP 2021074321 A JP2021074321 A JP 2021074321A
Authority
JP
Japan
Prior art keywords
observation
ultrasonic
image
prediction
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019203965A
Other languages
English (en)
Other versions
JP7292184B2 (ja
Inventor
稔宏 臼田
Toshihiro Usuda
稔宏 臼田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2019203965A priority Critical patent/JP7292184B2/ja
Priority to US17/082,028 priority patent/US20210142901A1/en
Publication of JP2021074321A publication Critical patent/JP2021074321A/ja
Application granted granted Critical
Publication of JP7292184B2 publication Critical patent/JP7292184B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/54Control of the diagnostic device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Physiology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)

Abstract

【課題】医療機器による検査の最中に、被検体の体内のどの部位を観察しているのかを術者に把握させることができる学習装置、学習方法および学習済みモデルを提供する。【解決手段】本発明の学習装置、学習方法および学習済みモデルにおいては、画像取得部が、観察対象部位の観察順序が定められている複数の観察ステップの各々において、被検体の体内の観察対象部位の医用画像を取得し、ステップ予測部が、各々の観察ステップにおいて、学習結果に基づいて、医用画像から、医用画像に対応する観察ステップを予測した予測ステップを出力し、ステップ比較部が、各々の観察ステップにおいて、予測ステップと予測ステップに対応する正解ステップとを比較し、学習制御部が、各々の観察ステップにおいて、ステップ比較部による比較の結果に基づいて、予測ステップが正解ステップに近づくように、医用画像と予測ステップとの関係をステップ予測部に学習させる。【選択図】 図5

Description

本発明は、医用画像と予測ステップとの関係を複数の医用画像について学習し、その学習結果に基づいて、医用画像から、この医用画像に対応する観察ステップを予測した予測ステップを出力する学習装置、学習方法および学習済みモデルに関する。
例えば、超音波内視鏡システムは、経消化管による膵臓又は胆嚢等の観察を主な目的として、内視鏡観察部および超音波観察部を先端に有する超音波内視鏡を被検体の消化管内へ挿入し、消化管内の内視鏡画像、および消化管壁の外側にある部位の超音波画像を撮像する。
超音波内視鏡システムでは、超音波内視鏡の先端に有する照明部から消化管内の観察対象隣接部位に照明光を照射し、その反射光を超音波内視鏡の先端に有する撮像部によって受信し、反射光の撮像信号から内視鏡画像が生成される。また、超音波内視鏡の先端に有する複数の超音波振動子により、消化管壁の外側にある臓器等の観察対象部位に超音波を送受信し、超音波の受信信号から超音波画像が生成される。
ここで、本発明に関連性のある先行技術文献として、特許文献1,2がある。
特許文献1には、被検体内の診断部位の画像中の目的部位を大まかに抽出し、ニューラルネットワークを用いて目的部位を認識するための大局情報を予測し、大局情報を用いて目的部位の輪郭を認識し、原画像と共にその認識結果を表示することが記載されている。
特許文献2には、コイルからの電気信号に基づいて、超音波内視鏡の先端部の位置・配向データを生成し、この位置・配向データから、超音波内視鏡の挿入形状を示すための挿入形状データを生成し、被検者の臓器群等の組織構造の3次元生体組織モデルデータと組み合わせることによりガイド画像を生成し、超音波画像とガイド画像とを合成した合成画像の映像信号を生成してモニタに表示することが記載されている。
特開平06−233761号公報 特開2010−069018号公報
体外超音波機器、内視鏡、超音波内視鏡等の医療機器を扱う術者(ユーザ)は、これらの医療機器によって撮像された画像を見て、今現在、被検体の体内のどの部位を観察しているのかを推測しながら、医療機器の操作を行う。しかし、これらの医療機器を用いて検査を行っている最中に、臓器等の目的とする部位を観察できているか、もしくは、今現在、どこから観察しているのかを把握するのは困難である。
例えば、内視鏡の場合、被検体の体内に挿入されたスコープの先端部に撮像系があるため、スコープの先端部が被検体の体内のどの位置にあるのかは分からない。また、超音波内視鏡の場合、超音波振動子を有する撮像部を目視で確認できない上に、撮像された超音波画像の解釈が難しい医療機器であるため、目的とする部位を見失ったり、目的とする部位にたどり着けなかったりすることが多々ある。
従って、術者が、定められた観察順序をたどりながら検査を行い、目的とする部位を網羅的に観察できるように考案された一連の観察ステップを利用することが有効である。しかし、目的とする多数の部位にわたる一連の観察ステップの全てを暗記し、かつ集中力の必要な検査中に思い出しながら全ての観察ステップをたどっていくのは困難である。そのため、画像認識による観察ステップの認識技術が求められている。
本発明の目的は、上記従来技術の問題を解消し、医療機器による検査の最中に、被検体の体内のどの部位を観察しているのかを術者に把握させることができる学習装置、学習方法および学習済みモデルを提供することにある。
上記目的を達成するために、本発明は、観察対象部位の観察順序が定められている複数の観察ステップの各々において、被検体の体内の観察対象部位の医用画像を取得する画像取得部と、
各々の観察ステップにおいて、学習結果に基づいて、医用画像から、医用画像に対応する観察ステップを予測した予測ステップを出力するステップ予測部と、
各々の観察ステップに対応する各々の正解ステップを保持する正解ステップ保持部と、
各々の観察ステップにおいて、予測ステップと予測ステップに対応する正解ステップとを比較するステップ比較部と、
各々の観察ステップにおいて、ステップ比較部による比較の結果に基づいて、予測ステップが正解ステップに近づくように、医用画像と予測ステップとの関係をステップ予測部に学習させる学習制御部と、を備える、学習装置を提供する。
ここで、観察ステップ、予測ステップおよび正解ステップは、ラベル番号で表されることが好ましい。
また、ラベル番号は、観察対象部位の観察順序に基づいて設定されることが好ましい。
また、ステップ予測部は、損失関数を用いる畳み込みニューラルネットワークであり、
学習制御部は、予測ステップのラベル番号と正解ステップのラベル番号との差分に基づいて計算される損失関数の出力を最小化するように、医用画像と予測ステップとの関係を畳み込みニューラルネットワークに学習させることが好ましい。
また、畳み込みニューラルネットワークは、予測ステップとして、医用画像が各々の観察ステップに対応する医用画像である確率を表す複数の要素を含む離散確率分布ベクトルを出力し、
正解ステップは、正解の観察ステップに対応する要素の確率が1であり、正解ではない観察ステップに対応する要素の確率が0である離散確率分布ベクトルであり、
損失関数は、予測ステップの離散確率分布ベクトルと正解ステップの離散確率分布ベクトルとの差分を表すことが好ましい。
また、畳み込みニューラルネットワークは、ソフトマックス関数を用いて、複数の要素の確率の合計が1になる離散確率分布ベクトルを出力することが好ましい。
また、畳み込みニューラルネットワークは、シグモイド関数を用いて、複数の要素の各々が、各々の観察ステップである確率を表す離散確率分布ベクトルを出力することが好ましい。
また、畳み込みニューラルネットワークは、予測ステップとして、ラベル番号を予測したスカラーを出力し、
正解ステップは、ラベル番号を表すスカラーであり、
損失関数は、予測ステップのスカラーと正解ステップのスカラーとの差分を表すことが好ましい。
また、損失関数は、差分が閾値より大きい場合に、差分が閾値より小さい場合よりも、損失関数の出力が大きくなるように調整することが好ましい。
また、複数の観察ステップは、いずれの観察対象部位も観察していない状態を表す観察ステップを含むことが好ましい。
また、観察ステップは、観察対象部位の観察順序に従って被検体の体内の観察対象部位の医用画像を観察する場合に、観察対象部位の観察順序に基づいて設定された順番を表すことが好ましい。
また、画像取得部は、被検体の体腔内に挿入され、被検体の体内から撮像された被検体の体内の医用画像を取得する機器であることが好ましい。
また、医用画像は超音波画像であることが好ましい。
また、医用画像は、超音波内視鏡により被検体の体内の観察対象部位が撮像された超音波画像であることが好ましい。
また、本発明は、画像取得部が、観察対象部位の観察順序が定められている複数の観察ステップの各々において、被検体の体内の観察対象部位の医用画像を取得し、
ステップ予測部が、各々の観察ステップにおいて、学習結果に基づいて、医用画像から、医用画像に対応する観察ステップを予測した予測ステップを出力し、
ステップ比較部が、各々の観察ステップにおいて、予測ステップと予測ステップに対応する正解ステップとを比較し、
学習制御部が、各々の観察ステップにおいて、ステップ比較部による比較の結果に基づいて、予測ステップが正解ステップに近づくように、医用画像と予測ステップとの関係をステップ予測部に学習させる、学習方法を提供する。
また、本発明は、上記の学習方法により医用画像と予測ステップとの関係を複数の医用画像について学習し、学習結果に基づいて、画像取得部によって取得された医用画像から、画像取得部によって取得された医用画像に対応する観察ステップを予測した予測ステップを出力する、学習済みモデルを提供する。
また、ステップ予測部、ステップ比較部および学習制御部は、ハードウェア、または、プログラムを実行するプロセッサであることが好ましく、正解ステップ保持部は、ハードウェア、または、メモリであるのが好ましい。
本発明においては、医療機器による検査の最中に、予測ステップに関する情報を表示させることができるため、今現在、被検体の体内のどの部位を観察しているのかを術者に確実に把握させることができる。
本発明の一実施形態に係る超音波内視鏡システムの概略構成を示す図である。 超音波内視鏡の挿入部の先端部及びその周辺を示す平面図である。 超音波内視鏡の挿入部の先端部を図2に図示のI−I断面にて切断したときの断面を示す図である。 超音波観測装置の構成を示すブロック図である。 超音波画像認識部の構成を表す一実施形態のブロック図である。 超音波内視鏡システムを用いた診断処理の流れを示す図である。 診断処理中の診断ステップの手順を示す図である。 超音波内視鏡システムによる超音波診断の検査開始から検査終了までの流れを表す概念図である。 ソフトマックス関数を用いる畳み込みニューラルネットワークの出力を表す概念図である。 シグモイド関数を用いる畳み込みニューラルネットワークの出力を表す概念図である。
本発明の学習装置を適用する一実施形態の超音波内視鏡システムについて、添付の図面に示す好適な実施形態を参照しながら、以下に詳細に説明する。
なお、本実施形態は、本発明の代表的な実施態様であるが、あくまでも一例に過ぎず、本発明を限定するものではない。
<<超音波内視鏡システムの概要>>
本実施形態に係る超音波内視鏡システム10について、図1を参照しながら、その概要を説明する。図1は、超音波内視鏡システム10の概略構成を示す図である。
超音波内視鏡システム10は、超音波を用いて、被検体である患者の体内の観察対象部位の状態を観察(以下、超音波診断ともいう)するために用いられる。ここで、観察対象部位は、患者の体表側からは検査が困難な部位であり、例えば膵臓又は胆嚢等を含む部位である。超音波内視鏡システム10を用いることにより、患者の体腔である食道、胃、十二指腸、小腸、及び大腸等の消化管を経由して、観察対象部位の状態及び異常の有無を超音波診断することが可能である。
超音波内視鏡システム10は、超音波画像および内視鏡画像を取得するものであり、図1に示すように、超音波内視鏡12と、超音波観測装置14と、内視鏡プロセッサ16と、光源装置18と、モニタ20と、送水タンク21aと、吸引ポンプ21bと、操作卓100と、を有する。
超音波内視鏡12は、患者の体腔内に挿入される挿入部22と、医師又は技師等の術者(ユーザ)によって操作される操作部24と、挿入部22の先端部40に取り付けられた超音波振動子ユニット46(図2および図3を参照)と、を備える。超音波内視鏡12は、超音波観察部36として、超音波振動子ユニット46が備える複数の超音波振動子48を先端に有する(図2および図3参照)。また、超音波内視鏡12は、内視鏡観察部38として、照明窓88等を含む照明部と、観察窓82、対物レンズ84および固体撮像素子86等を含む撮像部と、を先端に有する(図2および図3参照)。術者は、超音波内視鏡12の機能によって、内視鏡画像および超音波画像を取得する。
ここで、「内視鏡画像」は、患者の体腔内壁を光学的手法によって撮影することで得られる画像である。また、「超音波画像」は、患者の体腔内から観察対象部位に向かって送信された超音波の反射波(エコー)を受信し、その受信信号を画像化することで得られる画像である。
なお、超音波内視鏡12については、後の項で詳しく説明する。
超音波観測装置14は、ユニバーサルコード26及びその端部に設けられた超音波用コネクタ32aを介して超音波内視鏡12に接続される。超音波観測装置14は、超音波内視鏡12の超音波振動子ユニット46を制御して超音波を送信させる。また、超音波観測装置14は、送信された超音波の反射波(エコー)を超音波振動子ユニット46が受信したときの受信信号を画像化して超音波画像を生成する。言い換えると、超音波観測装置14は、超音波振動子ユニット46が備える複数の超音波振動子48により超音波を送受信させ、超音波の受信信号から超音波画像を生成する。
なお、超音波観測装置14については、後の項で詳しく説明する。
内視鏡プロセッサ16は、ユニバーサルコード26及びその端部に設けられた内視鏡用コネクタ32bを介して超音波内視鏡12に接続される。内視鏡プロセッサ16は、超音波内視鏡12(詳しくは、後述する固体撮像素子86)によって撮像された観察対象隣接部位の画像データを取得し、取得した画像データに対して所定の画像処理を施して内視鏡画像を生成する。言い換えると、内視鏡プロセッサ16は、超音波内視鏡12の先端に有する照明部から照射される照明光の反射光を、同じく超音波内視鏡12の先端に有する撮像部によって受信させ、反射光の撮像信号から内視鏡画像を生成する。
ここで、「観察対象隣接部位」とは、患者の体腔内壁のうち、観察対象部位と隣り合う位置にある部分である。
なお、本実施形態では、超音波観測装置14及び内視鏡プロセッサ16が、別々に設けられた2台の装置(コンピュータ)によって構成されている。ただし、これに限定されるものではなく、1台の装置によって超音波観測装置14及び内視鏡プロセッサ16の双方が構成されてもよい。
光源装置18は、ユニバーサルコード26及びその端部に設けられた光源用コネクタ32cを介して超音波内視鏡12に接続される。光源装置18は、超音波内視鏡12を用いて観察対象隣接部位を撮像する際に、赤光、緑光及び青光の3原色光からなる白色光又は特定波長光を照射する。光源装置18が照射した光は、ユニバーサルコード26に内包されたライトガイド(不図示)を通じて超音波内視鏡12内を伝搬し、超音波内視鏡12(詳しくは、後述する照明窓88)から出射される。これにより、観察対象隣接部位が光源装置18からの光によって照らされる。
モニタ20は、超音波観測装置14に接続されており、超音波観測装置14により生成された超音波画像、内視鏡プロセッサ16により生成された内視鏡画像等を表示する。
超音波画像及び内視鏡画像の表示方式としては、1の画像を他の画像のうちの1つに切り替えてモニタ20に表示する方式でもよく、2以上の画像を同時に並べて表示する方式でもよい。
なお、本実施形態では、一台のモニタ20に超音波画像及び内視鏡画像を表示するが、超音波画像表示用のモニタと、内視鏡画像表示用のモニタと、が別々に設けられてもよい。また、モニタ20以外の表示形態、例えば、術者が携帯する端末のディスプレイに表示する形態にて超音波画像及び内視鏡画像を表示してもよい。
操作卓(指示取得部)100は、術者(ユーザ)から入力される指示を取得する指示取得部の一例であり、超音波診断に際して術者が必要な情報を入力したり、超音波観測装置14に対して超音波診断の開始指示を行ったりするためなどに設けられた装置である。操作卓100は、例えば、キーボード、マウス、トラックボール、タッチパッド及びタッチパネル等によって構成されている。操作卓100が操作されると、その操作内容に応じて超音波観測装置14のCPU(制御回路)152(図4参照)が装置各部(例えば、後述の受信回路142及び送信回路144)を制御する。
具体的に説明すると、術者は、超音波診断を開始する前段階で、検査情報(例えば、年月日及びオーダ番号等を含む検査オーダ情報、及び、患者ID及び患者名等を含む患者情報)を操作卓100にて入力する。検査情報の入力完了後、術者が操作卓100を通じて超音波診断の開始を指示すると、超音波観測装置14のCPU152が、入力された検査情報に基づいて超音波診断が実施されるように超音波観測装置14各部を制御する。
また、術者は、超音波診断の実施に際して、各種の制御パラメータを操作卓100にて設定することが可能である。制御パラメータとしては、例えば、ライブモード及びフリーズモードの選択結果、表示深さ(深度)の設定値、及び、超音波画像生成モードの選択結果等が挙げられる。
ここで、「ライブモード」は、所定のフレームレートにて得られる超音波画像(動画像)を逐次表示(リアルタイム表示)するモードである。「フリーズモード」は、過去に生成された超音波画像(動画像)の1フレームの画像(静止画像)を、後述のシネメモリ150から読み出して表示するモードである。
本実施形態において選択可能な超音波画像生成モードは、複数存在し、具体的には、B(Brightness)モード、CF(Color Flow)モード及びPW(Pulse Wave)モードである。Bモードは、超音波エコーの振幅を輝度に変換して断層画像を表示するモードである。CFモードは、平均血流速度、フロー変動、フロー信号の強さ又はフローパワー等を様々な色にマッピングしてBモード画像に重ねて表示するモードである。PWモードは、パルス波の送受信に基づいて検出される超音波エコー源の速度(例えば、血流の速度)を表示するモードである。
なお、上述した超音波画像生成モードは、あくまでも一例であり、上述した3種類のモード以外のモード、例えば、A(Amplitude)モード、M(Motion)モード及び造影モード等が更に含まれてもよい。
<<超音波内視鏡12の構成>>
次に、超音波内視鏡12の構成について、既出の図1、および図2、図3および図4を参照しながら説明する。図2は、超音波内視鏡12の挿入部22の先端部40及びその周辺を拡大して示した平面図である。図3は、超音波内視鏡12の挿入部22の先端部40を図2に図示のI−I断面にて切断したときの断面を示す断面図である。図4は、超音波観測装置14の構成を示すブロック図である。
超音波内視鏡12は、前述したように挿入部22及び操作部24を有する。挿入部22は、図1に示すように先端側(自由端側)から順に、先端部40、湾曲部42及び軟性部43を備える。先端部40には、図2に示すように超音波観察部36及び内視鏡観察部38が設けられている。超音波観察部36には、図3に示すように、複数の超音波振動子48を備える超音波振動子ユニット46が配置されている。
また、図2に示すように先端部40には処置具導出口44が設けられている。処置具導出口44は、鉗子、穿刺針、若しくは高周波メス等の処置具(不図示)の出口となる。また、処置具導出口44は、血液及び体内汚物等の吸引物を吸引する際の吸引口にもなる。
湾曲部42は、先端部40よりも基端側(超音波振動子ユニット46が設けられている側とは反対側)に連設された部分であり、湾曲自在である。軟性部43は、湾曲部42と操作部24との間を連結している部分であり、可撓性を有し、細長く延びた状態で設けられている。
挿入部22及び操作部24の各々の内部には、送気送水用の管路及び吸引用の管路が、それぞれ複数形成されている。さらに、挿入部22及び操作部24の各々の内部には、一端が処置具導出口44に通じる処置具チャンネル45が形成されている。
次に、超音波内視鏡12の構成要素のうち、超音波観察部36、内視鏡観察部38、送水タンク21a及び吸引ポンプ21b、並びに操作部24に関して詳しく説明する。
(超音波観察部36)
超音波観察部36は、超音波画像を取得するために設けられた部分であり、挿入部22の先端部40において先端側に配置されている。超音波観察部36は、図3に示すように超音波振動子ユニット46と、複数の同軸ケーブル56と、FPC(Flexible Printed Circuit)60とを備える。
超音波振動子ユニット46は、超音波探触子(プローブ)に相当し、患者の体腔内において、後述する複数の超音波振動子48が配列された超音波振動子アレイ50を用いて超音波を送信し、且つ、観察対象部位にて反射した超音波の反射波(エコー)を受信して受信信号を出力する。本実施形態に係る超音波振動子ユニット46は、コンベックス型であり、放射状(円弧状)に超音波を送信する。ただし、超音波振動子ユニット46の種類(型式)については特にこれに限定されるものではなく、超音波を送受信できるものであれば他の種類でもよく、例えば、ラジアル型、リニア型等であってもよい。
超音波振動子ユニット46は、図3に示すようにバッキング材層54と、超音波振動子アレイ50と、音響整合層74と、音響レンズ76とを積層させることで構成されている。
超音波振動子アレイ50は、一次元アレイ状に配列された複数の超音波振動子48(超音波トランスデューサ)からなる。より詳しく説明すると、超音波振動子アレイ50は、N個(例えばN=128)の超音波振動子48が先端部40の軸線方向(挿入部22の長手軸方向)に沿って凸湾曲状に等間隔で配列されることで構成されている。なお、超音波振動子アレイ50は、複数の超音波振動子48を二次元アレイ状に配置して構成されたものであってもよい。
N個の超音波振動子48の各々は、圧電素子(圧電体)の両面に電極を配置することで構成されている。圧電素子としては、チタン酸バリウム(BaTiO3)、チタン酸ジルコン酸鉛(PZT)、ニオブ酸カリウム(KNbO3)等が用いられる。
電極は、複数の超音波振動子48の各々に対して個別に設けられた個別電極(不図示)と、複数の超音波振動子48に共通の振動子グランド(不図示)とからなる。また、電極は、同軸ケーブル56及びFPC60を介して超音波観測装置14と電気的に接続される。
各超音波振動子48には、パルス状の駆動電圧が、入力信号(送信信号)として超音波観測装置14から同軸ケーブル56を通じて供給される。この駆動電圧が超音波振動子48の電極に印加されると、圧電素子が伸縮して超音波振動子48が駆動(振動)する。この結果、超音波振動子48からパルス状の超音波が出力される。このとき、超音波振動子48から出力される超音波の振幅は、その超音波振動子48が超音波を出力した際の強度(出力強度)に応じた大きさとなっている。ここで、出力強度は、超音波振動子48から出力された超音波の音圧の大きさとして定義される。
また、各超音波振動子48は、超音波の反射波(エコー)を受信すると、これに伴って振動(駆動)し、各超音波振動子48の圧電素子が電気信号を発生する。この電気信号は、超音波の受信信号として各超音波振動子48から超音波観測装置14に向けて出力される。このとき、超音波振動子48から出力される電気信号の大きさ(電圧値)は、その超音波振動子48が超音波を受信した際の受信感度に応じた大きさとなっている。ここで、受信感度は、超音波振動子48が送信する超音波の振幅に対する、その超音波振動子48が超音波を受信して出力した電気信号の振幅の比として定義される。
本実施形態では、N個の超音波振動子48をマルチプレクサ140(図4参照)などの電子スイッチで順次駆動させることで、超音波振動子アレイ50が配された曲面に沿った走査範囲、例えば曲面の曲率中心から数十mm程度の範囲で超音波が走査される。より詳しく説明すると、超音波画像としてBモード画像(断層画像)を取得する場合には、マルチプレクサ140の開口チャンネル選択により、N個の超音波振動子48のうち、連続して並ぶm個(例えば、m=N/2)の超音波振動子48(以下では、駆動対象振動子と言う)に駆動電圧が供給される。これにより、m個の駆動対象振動子が駆動され、開口チャンネルの各駆動対象振動子から超音波が出力される。m個の駆動対象振動子から出力された超音波は、直後に合成され、その合成波(超音波ビーム)が観察対象部位に向けて送信される。その後、m個の駆動対象振動子の各々は、観察対象部位にて反射された超音波(エコー)を受信し、その時点での受信感度に応じた電気信号(受信信号)を出力する。
そして、上記一連の工程(すなわち、駆動電圧の供給、超音波の送受信、及び電気信号の出力)は、N個の超音波振動子48における駆動対象振動子の位置を1つずつ(1個の超音波振動子48ずつ)ずらして繰り返し行われる。具体的に説明すると、上記一連の工程は、N個の超音波振動子48のうち、一方の端に位置する超音波振動子48を中心とする、その両側のm個の駆動対象振動子から開始される。そして、上記一連の工程は、マルチプレクサ140による開口チャンネルの切り替えによって駆動対象振動子の位置がずれる度に繰り返される。最終的に、上記一連の工程は、N個の超音波振動子48のうち、他端に位置する超音波振動子48を中心とする、その両側のm個の駆動対象振動子に至るまで、計N回繰り返して実施される。
バッキング材層54は、超音波振動子アレイ50の各超音波振動子48を裏面側から支持する。また、バッキング材層54は、超音波振動子48から発せられた超音波、若しくは観察対象部位にて反射された超音波(エコー)のうち、バッキング材層54側に伝播した超音波を減衰させる機能を有する。なお、バッキング材は、硬質ゴム等の剛性を有する材料からなり、超音波減衰材(フェライト及びセラミックス等)が必要に応じて添加されている。
音響整合層74は、超音波振動子アレイ50の上に重ねられており、患者の人体と超音波振動子48との間の音響インピーダンス整合をとるために設けられている。音響整合層74が設けられていることにより、超音波の透過率を高めることが可能となる。音響整合層74の材料としては、音響インピーダンスの値が超音波振動子48の圧電素子に比して、より患者の人体のものの値に近い様々な有機材料を用いることができる。音響整合層74の材料としては、具体的にはエポキシ系樹脂、シリコンゴム、ポリイミド及びポリエチレン等が挙げられる。
音響整合層74上に重ねられた音響レンズ76は、超音波振動子アレイ50から発せられる超音波を観察対象部位に向けて収束させるためのものである。なお、音響レンズ76は、例えば、シリコン系樹脂(ミラブル型シリコンゴム(HTVゴム)、液状シリコンゴム(RTVゴム)等)、ブタジエン系樹脂、及びポリウレタン系樹脂等からなり、必要に応じて酸化チタン、アルミナ若しくはシリカ等の粉末が混合される。
FPC60は、各超音波振動子48が備える電極と電気的に接続される。複数の同軸ケーブル56の各々は、その一端にてFPC60に配線されている。そして、超音波内視鏡12が超音波用コネクタ32aを介して超音波観測装置14に接続されると、複数の同軸ケーブル56の各々は、その他端(FPC60側とは反対側)にて超音波観測装置14と電気的に接続される。
(内視鏡観察部38)
内視鏡観察部38は、内視鏡画像を取得するために設けられた部分であり、挿入部22の先端部40において超音波観察部36よりも基端側に配置されている。内視鏡観察部38は、図2および図3に示すように観察窓82、対物レンズ84、固体撮像素子86、照明窓88、洗浄ノズル90及び配線ケーブル92等によって構成されている。
観察窓82は、挿入部22の先端部40において軸線方向(挿入部22の長手軸方向)に対して斜めに傾けられた状態で取り付けられている。観察対象隣接部位にて反射されて観察窓82から入射された光は、対物レンズ84で固体撮像素子86の撮像面に結像される。
固体撮像素子86は、観察窓82及び対物レンズ84を透過して撮像面に結像された観察対象隣接部位の反射光を光電変換して、撮像信号を出力する。固体撮像素子86としては、CCD(Charge Coupled Device:電荷結合素子)、及びCMOS(Complementary MetalOxide Semiconductor:相補形金属酸化膜半導体)等が利用可能である。固体撮像素子86で出力された撮像画像信号は、挿入部22から操作部24まで延設された配線ケーブル92を経由して、ユニバーサルコード26により内視鏡プロセッサ16に伝送される。
照明窓88は、観察窓82の両脇位置に設けられている。照明窓88には、ライトガイド(不図示)の出射端が接続されている。ライトガイドは、挿入部22から操作部24まで延設され、その入射端は、ユニバーサルコード26を介して接続された光源装置18に接続されている。光源装置18で発せられた照明光は、ライトガイドを伝わり、照明窓88から観察対象隣接部位に向けて照射される。
洗浄ノズル90は、観察窓82及び照明窓88の表面を洗浄するために挿入部22の先端部40に形成された噴出孔であり、洗浄ノズル90からは、空気又は洗浄用液体が観察窓82及び照明窓88に向けて噴出される。なお、本実施形態において、洗浄ノズル90から噴出される洗浄用液体は、水、特に脱気水である。ただし、洗浄用液体については、特に限定されるものではなく、他の液体、例えば、通常の水(脱気されていない水)であってもよい。
(送水タンク21a及び吸引ポンプ21b)
送水タンク21aは、脱気水を貯留するタンクであり、送気送水用チューブ34aにより光源用コネクタ32cに接続されている。なお、脱気水は、洗浄ノズル90から噴出される洗浄用液体として用いられる。
吸引ポンプ21bは、処置具導出口44を通じて体腔内の吸引物(洗浄用に供給された脱気水を含む)を吸引する。吸引ポンプ21bは、吸引用チューブ34bにより光源用コネクタ32cに接続されている。なお、超音波内視鏡システム10は、所定の送気先に空気を送気する送気ポンプなどを備えていてもよい。
挿入部22及び操作部24内には、処置具チャンネル45と送気送水管路(不図示)が設けられている。
処置具チャンネル45は、操作部24に設けられた処置具挿入口30と処置具導出口44との間を連絡している。また、処置具チャンネル45は、操作部24に設けられた吸引ボタン28bに接続している。吸引ボタン28bは、処置具チャンネル45のほかに、吸引ポンプ21bに接続されている。
送気送水管路は、その一端側で洗浄ノズル90に通じており、他端側では、操作部24に設けられた送気送水ボタン28aに接続している。送気送水ボタン28aは、送気送水管路のほかに、送水タンク21aに接続されている。
(操作部24)
操作部24は、超音波診断の開始時、診断中及び診断終了時等において術者によって操作される部分であり、その一端にはユニバーサルコード26の一端が接続されている。また、操作部24は、図1に示すように、送気送水ボタン28a、吸引ボタン28b、一対のアングルノブ29、並びに処置具挿入口(鉗子口)30を有する。
一対のアングルノブ29の各々を回動すると、湾曲部42が遠隔的に操作されて湾曲変形する。この変形操作により、超音波観察部36及び内視鏡観察部38が設けられた挿入部22の先端部40を所望の方向に向けることが可能となる。
処置具挿入口30は、鉗子等の処置具(不図示)を挿通するために形成された孔であり、処置具チャンネル45を介して処置具導出口44と連絡している。処置具挿入口30に挿入された処置具は、処置具チャンネル45を通過した後に処置具導出口44から体腔内に導入される。
送気送水ボタン28a及び吸引ボタン28bは、2段切り替え式の押しボタンであり、挿入部22及び操作部24の各々の内部に設けられた管路の開閉を切り替えるために操作される。
<<内視鏡プロセッサ16の概略構成>>
ここでは、内視鏡プロセッサ16の詳細構成の説明は省略するが、内視鏡プロセッサ16は、内視鏡画像を撮像する従来公知の一般的な構成要素を備えている。内視鏡プロセッサ16によって生成される内視鏡画像は、後述する超音波観測装置14の表示制御部172へ転送される。
<<超音波観測装置14の構成>>
超音波観測装置14は、超音波振動子ユニット46に超音波を送受信させ、且つ、超音波受信時に超音波振動子48(詳しくは駆動対象素子)が出力した受信信号を画像化して超音波画像を生成する。また、超音波観測装置14は、生成した超音波画像に加え、内視鏡プロセッサ16から転送される内視鏡画像等をモニタ20に表示する。
超音波観測装置14は、図4に示すように、マルチプレクサ140、受信回路142、送信回路144、A/Dコンバータ146、ASIC(Application Specific Integrated Circuit)148、シネメモリ150、CPU(Central Processing Unit)152、DSC(Digital Scan Converter)154、超音波画像認識部168、及び表示制御部172を有する。
受信回路142及び送信回路144は、超音波内視鏡12の超音波振動子アレイ50と電気的に接続する。マルチプレクサ140は、N個の超音波振動子48の中から最大m個の駆動対象振動子を選択し、そのチャンネルを開口させる。
送信回路144は、FPGA(フィールドプログラマブルゲートアレイ)、パルサー(パルス発生回路158)、及びSW(スイッチ)等からなり、MUX(マルチプレクサ140)に接続される。なお、FPGAの代わりにASIC(特定用途向け集積回路)を用いても良い。
送信回路144は、超音波振動子ユニット46から超音波を送信するために、CPU152から送られてくる制御信号に従って、マルチプレクサ140により選択された駆動対象振動子に対して超音波送信用の駆動電圧を供給する回路である。駆動電圧は、パルス状の電圧信号(送信信号)であり、ユニバーサルコード26及び同軸ケーブル56を介して駆動対象振動子の電極に印加される。
送信回路144は、制御信号に基づいて送信信号を生成するパルス発生回路158を有しており、CPU152の制御により、パルス発生回路158を用いて、複数の超音波振動子48を駆動して超音波を発生させる送信信号を生成して複数の超音波振動子48に供給する。より詳しくは、送信回路144は、CPU152の制御により、超音波診断を行う場合に、パルス発生回路158を用いて、超音波診断を行うための駆動電圧を有する送信信号を生成する。
受信回路142は、超音波(エコー)を受信した駆動対象振動子から出力される電気信号、すなわち受信信号を受信する回路である。また、受信回路142は、CPU152から送られてくる制御信号に従って、超音波振動子48から受信した受信信号を増幅し、増幅後の信号をA/Dコンバータ146に引き渡す。A/Dコンバータ146は、受信回路142と接続しており、受信回路142から受け取った受信信号をアナログ信号からデジタル信号に変換し、変換後のデジタル信号をASIC148に出力する。
ASIC148は、A/Dコンバータ146と接続しており、図4に示すように、位相整合部160、Bモード画像生成部162、PWモード画像生成部164、CFモード画像生成部166及びメモリコントローラ151を構成している。
なお、本実施形態では、ASIC148のようなハードウェア回路によって上述の機能(具体的には、位相整合部160、Bモード画像生成部162、PWモード画像生成部164、CFモード画像生成部166及びメモリコントローラ151)を実現しているが、これに限定されるものではない。中央演算装置(CPU)と各種データ処理を実行させるためのソフトウェア(コンピュータプログラム)とを協働させることで上記の機能を実現させてもよい。
位相整合部160は、A/Dコンバータ146によりデジタル信号化された受信信号(受信データ)に対して遅延時間を与えて整相加算する(受信データの位相を合わせてから加算する)処理を実行する。整相加算処理により、超音波エコーの焦点が絞り込まれた音線信号が生成される。
Bモード画像生成部162、PWモード画像生成部164及びCFモード画像生成部166は、超音波振動子ユニット46が超音波を受信した際に複数の超音波振動子48のうちの駆動対象振動子が出力する電気信号(厳密には、受信データを整相加算することで生成された音線信号)に基づいて、超音波画像を生成する。
Bモード画像生成部162は、患者の内部(体腔内)の断層画像であるBモード画像を生成する画像生成部である。Bモード画像生成部162は、順次生成される音線信号に対し、STC(Sensitivity Time gain Control)によって、超音波の反射位置の深度に応じて伝搬距離に起因する減衰の補正を施す。また、Bモード画像生成部162は、補正後の音線信号に対して包絡線検波処理及びLog(対数)圧縮処理を施して、Bモード画像(画像信号)を生成する。
PWモード画像生成部164は、所定方向における血流の速度を表示する画像を生成する画像生成部である。PWモード画像生成部164は、位相整合部160によって順次生成される音線信号のうち、同一方向における複数の音線信号に対して高速フーリエ変換を施すことで周波数成分を抽出する。その後、PWモード画像生成部164は、抽出した周波数成分から血流の速度を算出し、算出した血流の速度を表示するPWモード画像(画像信号)を生成する。
CFモード画像生成部166は、所定方向における血流の情報を表示する画像を生成する画像生成部である。CFモード画像生成部166は、位相整合部160によって順次生成される音線信号のうち、同一方向における複数の音線信号の自己相関を求めることで、血流に関する情報を示す画像信号を生成する。その後、CFモード画像生成部166は、上記の画像信号に基づき、Bモード画像生成部162によって生成されるBモード画像信号に血流に関する情報を重畳させたカラー画像としてのCFモード画像(画像信号)を生成する。
メモリコントローラ151は、Bモード画像生成部162、PWモード画像生成部164又はCFモード画像生成部166が生成した画像信号をシネメモリ150に格納する。
DSC154は、ASIC148に接続されており、Bモード画像生成部162、PWモード画像生成部164又はCFモード画像生成部166が生成した画像の信号を通常のテレビジョン信号の走査方式に従う画像信号に変換(ラスター変換)し、画像信号に階調処理等の各種の必要な画像処理を施した後に超音波画像認識部168および表示制御部172に出力する。
ここで、図1に示す超音波内視鏡システム10において、超音波内視鏡12、超音波観測装置14および内視鏡プロセッサ16によって生成される内視鏡画像および超音波画像を取得する部位は、本発明の画像取得部を構成する。
画像取得部は、観察対象部位の観察順序が定められている複数の観察ステップの各々において、被検体の体内の観察対象部位の医用画像(内視鏡画像および超音波画像)を取得する。
超音波画像認識部168は、観察対象部位の観察順序が定められている複数の観察ステップの各々において、超音波画像(医用画像)に対応する予測ステップが、その正解ステップに近づくように、超音波画像と超音波画像に対応する予測ステップとの関係を複数の超音波画像について学習し、この学習結果に基づいて、DSC154によってラスター変換された超音波画像を認識し、つまり、画像取得部によって取得された患者の体内の観察対象部位の超音波画像から、この超音波画像に対応する観察ステップを予測した予測ステップを出力する。超音波画像認識部168から出力される予測ステップは、後述する表示制御部172(図4参照)に出力される。
観察対象部位の観察順序とは、患者の体腔内において超音波画像を撮像(観察)する観察対象部位の順番である。観察対象部位の観察順序は、臓器等の体内での位置等に基づいて、超音波診断において、主に、病変部位等を見つけるためのスクリーニング時に、目的とする臓器等を含む、複数の観察対象部位を網羅的に順次観察できるように決定されている。観察対象部位の観察順序については、後に一例を挙げて説明する。
観察ステップは、観察対象部位の観察順序に従って患者の体内の観察対象部位の超音波画像を撮像(観察)する場合に、観察対象部位の観察順序に基づいて設定された順番を表す。例えば、1番目の観察対象部位1に対応する観察ステップ1の順番は1番、2番目の観察対象部位2に対応する観察ステップ2の順番は2番、3番目の観察対象部位3に対応する観察ステップ3の順番は3番、…である。つまり、観察ステップの順番は、例えば観察対象部位の観察順序に等しくなるように設定することができる。
また、観察ステップは、観察対象部位の観察順序に従って患者の体内の観察対象部位の超音波画像を撮像する全体の撮像期間において、観察対象部位の観察順序に基づいて設定された部分的な撮像期間(区間または時間帯)であるとも言える。例えば、1番目の観察ステップ1の撮像期間は、1番目の観察対象部位1において超音波画像1を撮像している期間、2番目の観察ステップ2の撮像期間は、2番目の観察対象部位2において超音波画像2を撮像している期間、3番目の観察ステップ3の撮像期間は、3番目の観察対象部位3において超音波画像3を撮像している期間、…である。つまり、観察ステップの撮像期間は、例えばその観察ステップに対応する観察対象部位において超音波画像を撮像している期間に等しくなるように設定することができる。
予測ステップは、前述の学習結果に基づいて、画像取得部によって取得された超音波画像から、超音波画像認識部168によって予測された観察ステップである。例えば、画像取得部によって取得された超音波画像が、1番目の観察ステップ1において撮像された超音波画像1であると予測された場合、予測ステップは観察ステップ1、2番目の観察ステップ2において撮像された超音波画像2であると予測された場合、予測ステップは観察ステップ2、3番目の観察ステップ3において撮像された超音波画像3であると予測された場合、予測ステップは観察ステップ3、…である。
正解ステップは、各々の観察ステップにおいて、画像取得部によって取得された超音波画像に対応する正解の観察ステップを表す。例えば、1番目の観察ステップ1において撮像された超音波画像1に対応する正解ステップ1は1番目の観察ステップ1、2番目の観察ステップ2において撮像された超音波画像2に対応する正解ステップ2は2番目の観察ステップ2、3番目の観察ステップ3において撮像された超音波画像3に対応する正解ステップ3は3番目の観察ステップ3、…である。つまり、各々の観察ステップにおいて、正解ステップは、例えば観察ステップに等しくなるように設定することができる。
観察ステップ、予測ステップおよび正解ステップは、例えばラベル番号で表すことができる。また、ラベル番号は、観察対象部位の観察順序に基づいて設定することができる。例えば、1番目の観察対象部位1に対応する観察ステップ1のラベル番号を‘0’、2番目の観察対象部位2に対応する観察ステップ2のラベル番号を‘1’、3番目の観察対象部位3に対応する観察ステップ3のラベル番号を‘2’、…とすることができる。つまり、ラベル番号は、例えば観察対象部位の観察順序に等しくなるように設定することができる。
なお、ラベル番号は、予測ステップと正解ステップとの対応付けが分かるものであれば特に限定されず、観察対象部位の観察順序に基づいて設定することは必須ではない。
超音波画像認識部168は、図5に示すように、ステップ予測部112と、正解ステップ保持部114と、ステップ比較部116と、学習制御部118と、を備えている。超音波画像認識部168および前述の画像取得部は、本発明の学習装置を構成する。
ステップ予測部112は、各々の観察ステップにおいて、超音波画像とこの超音波画像に対応する予測ステップとの関係の学習結果に基づいて、画像取得部によって取得された超音波画像から、この超音波画像に対応する観察ステップを予測した予測ステップを出力する。ステップ予測部112から出力される予測ステップは、ステップ比較部116および表示制御部172へ入力される。
ステップ予測部112は、患者のそれぞれ異なる観察対象部位を撮像した複数の超音波画像からなるデータセットを用いて、本発明の学習方法により超音波画像とこの超音波画像に対応する予測ステップとの関係を複数の超音波画像(学習用超音波画像)について学習し、学習結果に基づいて、画像取得部によって取得された超音波画像(診断用超音波画像)から、画像取得部によって取得された超音波画像に対応する観察ステップを予測した予測ステップを出力する学習済みモデルである。この学習済みモデルは、画像取得部によって取得された超音波画像を使用して、超音波画像とこの超音波画像に対応する予測ステップとの関係を学習することにより、随時更新され、最適化されていく。
なお、ステップ予測部112は、超音波画像として、静止画像、あるいは、動画像(1フレームの超音波画像または複数フレームの超音波画像)を受け取って、この超音波画像に対応する予測ステップを予測することができる。
正解ステップ保持部114は、各々の観察ステップに対応する各々の正解ステップを保持する。正解ステップ保持部114に保持されている正解ステップは、ステップ比較部116および学習制御部118へ入力される。
例えば、観察ステップ1,2,3,…に対応する正解ステップは、観察ステップ1,2,3,…である。つまり、各々の観察ステップに対応する正解ステップは、各々の観察ステップに等しい。従って、正解ステップ保持部114は、例えば、観察ステップ1,2,3,…に対応する正解ステップ1,2,3,…として、観察ステップ1,2,3,…を保持する。
ステップ比較部116は、各々の観察ステップにおいて、ステップ予測部112から出力された予測ステップと、正解ステップ保持部114に保持されている正解ステップのうちのこの予測ステップに対応する正解ステップとを比較する。
ステップ比較部116による比較の結果、ステップ比較部116からは、予測ステップと正解ステップとが一致しているのか否か、および、予測ステップと正解ステップとが一致していない場合に、予測ステップと正解ステップとの差分がいくつなのか等の結果が出力される。ステップ比較部116から出力される比較の結果は、学習制御部118へ入力される。
学習制御部118は、各々の観察ステップにおいて、ステップ比較部116による比較の結果に基づいて、予測ステップが正解ステップに近づくように、超音波画像と予測ステップとの関係をステップ予測部112に学習させる。学習制御部118からは、超音波画像と予測ステップとの関係をステップ予測部112に学習させるための制御信号が出力される。この制御信号はステップ予測部112へ入力される。
学習方法は、超音波画像と予測ステップとの関係を複数の超音波画像について学習し、学習済みモデルを生成することができるものであれば特に限定されない。
学習方法としては、例えば人工知能(AI:Artificial Intelligence)の技術の1つである機械学習(マシンラーニング)の一例である階層構造型のニューラルネットワークを用いるディープラーニング(深層学習)等を利用することができる。
なお、ディープラーニング以外の機械学習を利用してもよいし、機械学習以外の人工知能の技術を利用してもよいし、人工知能の技術以外の学習方法を利用してもよい。
例えば、ステップ予測部112は、損失関数を用いる畳み込みニューラルネットワーク(NN:Neural Network)を用いて構成することができる。この場合、学習制御部118は、観察ステップ、予測ステップおよび正解ステップがラベル番号で表される場合に、予測ステップのラベル番号と正解ステップのラベル番号との差分に基づいて計算される損失関数の出力を最小化するように、超音波画像と予測ステップとの関係を畳み込みニューラルネットワークに学習させる。
患者の体内において超音波画像を撮像する場合の観察対象部位の観察順序、および代表的な観察ステップは大体決められている。そのため、学習制御部118は、各々の観察ステップにおいて、画像取得部によって取得された患者の観察対象部位の超音波画像と、この超音波画像に対応する観察ステップを予測した予測ステップと、を関連付けてステップ予測部112に学習させることができる。
以下、観察順序に従って患者の体内の観察対象部位の超音波画像を撮像する場合の代表的な観察ステップについて説明する。
代表的な観察ステップとしては、例えば下記表1に示す観察ステップ1〜12がある。
Figure 2021074321
表1において、観察ステップ1〜12は、ラベル番号0〜11で表されている。
ラベル番号0で表される観察ステップ1の肝左葉、ラベル番号1で表される観察ステップ2の大動脈、腹腔動脈、上腸間膜動脈の合流部、ラベル番号2で表される観察ステップ3の膵体部、ラベル番号3で表される観察ステップ4の膵尾部、ラベル番号4で表される観察ステップ5の脾静脈、上腸間膜静脈、及び門脈の合流部、ラベル番号5で表される観察ステップ6の膵頭部およびラベル番号6で表される観察ステップ7の胆嚢は、胃内からの代表的な観察ポイントである。また、ラベル番号7で表される観察ステップ8の門脈、ラベル番号8で表される観察ステップ9の総胆管およびラベル番号9で表される観察ステップ10の胆嚢は、十二指腸球部からの代表的な観察ポイントであり、ラベル番号10で表される観察ステップ11の膵鉤部およびラベル番号11で表される観察ステップ12の乳頭は、十二指腸下行部からの代表的な観察ポイントである。
なお、上記の観察対象部位の観察順序は一例であり、術者によって、観察対象部位の観察順序は多少異なる場合もある。このため、術者に応じて、それぞれ異なる観察対象部位の観察順序のリストを複数用意し、術者によって、使用するリスト、つまり、観察対象部位の観察順序を切り替えるようにしてもよい。あるいは、術者が、所望のリストを登録できるようにしてもよい。
超音波画像認識部168においては、ステップ予測部112により、各々の観察ステップにおいて、学習結果に基づいて、画像取得部によって取得された超音波画像から、この超音波画像に対応する観察ステップを予測した予測ステップが出力される。
続いて、ステップ比較部116により、各々の観察ステップにおいて、予測ステップとこの予測ステップに対応する正解ステップとが比較される。
続いて、学習制御部118は、各々の観察ステップにおいて、ステップ比較部116による比較の結果に基づいて、予測ステップが正解ステップに近づくように、超音波画像と予測ステップとの関係をステップ予測部112に学習させる。
以後同様に、画像取得部によって超音波画像が取得される毎に、上記の動作が繰り返し行われる。
続いて、表示制御部172は、内視鏡画像および超音波画像をモニタ20に表示させる。また、表示制御部172は、超音波画像認識部168によって認識された予測ステップに関する情報をモニタ20に表示させる。
表示制御部172は、予測ステップに関する情報として、例えば予測ステップそのもの(予測ステップ1,2,3,…)、予測ステップのラベル番号、および、このラベル番号に対応する観察対象部位の名称等をモニタ20に表示させることができる。
シネメモリ150は、1フレーム分又は数フレーム分の画像信号を蓄積するための容量を有する。ASIC148が生成した画像信号は、DSC154に出力される一方で、メモリコントローラ151によってシネメモリ150にも格納される。フリーズモード時には、メモリコントローラ151がシネメモリ150に格納された画像信号を読み出し、DSC154に出力する。これにより、モニタ20には、シネメモリ150から読み出された画像信号に基づく超音波画像(静止画像)が表示されるようになる。
CPU152は、超音波観測装置14の各部を制御する制御部として機能し、受信回路142、送信回路144、A/Dコンバータ146、及びASIC148等と接続しており、これらの機器を制御する。具体的に説明すると、CPU152は、操作卓100と接続しており、操作卓100にて入力された検査情報および制御パラメータ等に従って超音波観測装置14各部を制御する。
また、CPU152は、超音波内視鏡12が超音波用コネクタ32aを介して超音波観測装置14に接続されると、PnP(Plug and Play)等の方式により超音波内視鏡12を自動認識する。
<<超音波内視鏡システム10の動作例>>
次に、超音波内視鏡システム10の動作例として、超音波診断に関する一連の処理(以下、診断処理とも言う)の流れを、図6および図7を参照しながら説明する。図6は、超音波内視鏡システム10を用いた診断処理の流れを示す図である。図7は、診断処理中の診断ステップの手順を示す図である。
超音波内視鏡12が超音波観測装置14、内視鏡プロセッサ16及び光源装置18に接続された状態で超音波内視鏡システム10各部の電源が投入されると、それをトリガとして診断処理が開始される。診断処理では、図6に示すように、先ず入力ステップが実施される(S001)。入力ステップでは、術者が操作卓100を通じて検査情報及び制御パラメータ等を入力する。入力ステップが完了すると、診断開始の指示があるまで、待機ステップが実施される(S002)。
続いて、術者からの診断開始指示があると(S003でYes)、CPU152が超音波観測装置14各部を制御して診断ステップを実施する(S004)。診断ステップは、図7に図示の流れに沿って進行し、指定された画像生成モードがBモードである場合には(S031でYes)、Bモード画像を生成するように超音波観測装置14各部を制御する(S032)。また、指定された画像生成モードがBモードではなく(S031でNo)CFモードである場合には(S033でYes)、CFモード画像を生成するように超音波観測装置14各部を制御する(S034)。さらに、指定された画像生成モードがCFモードではなく(S033でNo)PWモードである場合には(S035でYes)、PWモード画像を生成するように超音波観測装置14各部を制御する(S036)。なお、指定された画像生成モードがPWモードではない場合には(S035でNo)、ステップS037へ進む。
続いて、CPU152は、超音波診断が終了したか否かを判定する(S037)。超音波診断が終了していない場合(S037でNo)、診断ステップS031へ戻り、各画像生成モードによる超音波画像の生成は、診断終了条件が成立するまで繰り返し実施される。診断終了条件としては、例えば、術者が操作卓100を通じて診断終了を指示すること等が挙げられる。
一方、診断終了条件が成立して超音波診断が終了すると(S037でYes)、診断ステップが終了する。
続いて、図6に戻って、超音波内視鏡システム10各部の電源がオフとなると(S005でYes)、診断処理が終了する。一方で、超音波内視鏡システム10各部の電源がオン状態で維持される場合には(S005でNo)、入力ステップS001に戻り、上述した診断処理の各ステップを繰り返すことになる。
<<本発明の学習装置の動作例>>
次に、本発明の学習装置、つまり、画像取得部および超音波画像認識部168の動作例について説明する。
超音波内視鏡システム10では、超音波内視鏡12の挿入部22の先端部40の位置、および超音波のスキャン方向が目視できないため、超音波画像から、今現在、患者の体内のどの部位を観察しているのかを判断する。従って、術者は、各々の観察ステップにおいて、その観察ステップの代表的な超音波画像が撮像されるように超音波内視鏡12を操作し、目的とする観察対象部位を観察していく。
図8は、超音波内視鏡システム10による超音波診断の検査開始から検査終了までの流れを表す概念図である。図8には、検査開始から検査終了へ向かって、(N+1)個の観察ステップ1,2,…,N(Nは整数)が示されている。観察ステップ1,2,…,Nは、超音波診断の検査開始から検査終了までの順番を表し、観察ステップ1,2,…,Nに対応する正解ステップは、ラベル番号0,1,…,N−1で表されている。
観察ステップ1においては、画像取得部により、観察対象部位1の超音波画像1が取得される。超音波画像1は、表示制御部172の制御により、モニタ20に表示される。
続いて、ステップ予測部(NN)112により、学習結果に基づいて、超音波画像1から、この超音波画像1に対応する観察ステップを予測した予測ステップ1として、ラベル番号0が出力される。予測ステップ1のラベル番号0は、表示制御部172の制御により、モニタ20に表示される。
続いて、ステップ比較部116により、予測ステップ1のラベル番号0とこの予測ステップ1に対応する正解ステップ1のラベル番号0とが比較される。
その結果、予測ステップ1のラベル番号0と正解ステップ1のラベル番号0との差分は0であるため、ステップ予測部112による学習は行われない。
観察ステップ2においては、画像取得部により、観察対象部位2の超音波画像2が取得される。超音波画像2は、表示制御部172の制御により、モニタ20に表示される。
続いて、ステップ予測部112により、学習結果に基づいて、超音波画像2から、この超音波画像2に対応する観察ステップを予測した予測ステップ2として、ラベル番号2が出力される。予測ステップ2のラベル番号2は、表示制御部172の制御により、モニタ20に表示される。
続いて、ステップ比較部116により、予測ステップ2のラベル番号2とこの予測ステップ2に対応する正解ステップ2のラベル番号1とが比較される。
その結果、予測ステップ2のラベル番号2と正解ステップ2のラベル番号1との差分は1であるため、学習制御部118は、比較の結果に基づいて、差分の1が0に近づくように、超音波画像と予測ステップとの関係をステップ予測部112に学習させる。
以後同様に、観察ステップNまで、上記の動作が繰り返される。
学習の初期段階においては、学習済みモデルの最適化が進んでおらず、予測ステップが正解ステップから大きく離れている場合もあると予想されるが、学習によって学習済みモデルの最適化が進むにつれて、予測ステップが正解ステップに次第に近づくことが期待できる。
超音波内視鏡システム10においては、超音波診断の検査の最中に、予測ステップに関する情報をモニタ20に表示させることができるため、今現在、患者の体内のどの部位を観察しているのかを術者に確実に把握させることができる。
従来技術として、超音波画像から特定の臓器の領域等を認識する技術(セグメンテーションまたはディテクション)は存在するが、超音波内視鏡システム10において、このような臓器の領域等の認識は行われず、特定の観察対象部位を撮像(観察)する検査の順番または撮像期間(区間、時間帯)を観察ステップとして定義し、各々の超音波画像が、複数の観察ステップのうちのどの観察ステップに分類されるのかという予測のみが行われる。
従来技術によるセグメンテーション等の臓器認識は、超音波画像の中の臓器の位置および領域を認識できる一方、一枚の超音波画像に対して正解ステップの作成に多くの労力を必要とする。これに対し、超音波内視鏡システム10による観察ステップの分類は、各々の超音波画像がどの観察ステップに属するのかを、例えばラベル付けするだけで実現できるため、僅かな労力のみで実現できる。
ステップ予測部112が、前述の畳み込みニューラルネットワークを用いて構成される場合、この畳み込みニューラルネットワークは、予測ステップとして、超音波画像が各々の観察ステップに対応する超音波画像である確率を表す複数の要素を含む離散確率分布ベクトル(以下、単にベクトルともいう)を出力してもよいし、あるいは、ラベル番号を予測したスカラーを出力してもよい。
畳み込みニューラルネットワークは、ベクトルを出力する場合、各々の観察ステップにおいて、複数の観察ステップに対応する複数の要素を出力する。畳み込みニューラルネットワークは、1番目の観察ステップ1において、超音波画像が、1〜N番目の観察ステップ1〜Nの各々に対応する超音波画像である確率を表すN個の要素を含むベクトルを出力する。2〜N番目の観察ステップ2〜Nにおいても同様である。
また、正解ステップは、正解の観察ステップに対応する要素の確率が1であり、正解ではない観察ステップに対応する要素の確率が0である離散確率分布ベクトルとする。
この場合、損失関数は、予測ステップの離散確率分布ベクトルと正解ステップの離散確率分布ベクトルとの差分を表す。損失関数としては、ソフトマックス・クロス・エントロピー(Softmax Cross Entropy)およびシグモイド・クロス・エントロピー(Sigmoid Cross Entropy)等がよく用いられる。
また、畳み込みニューラルネットワークは、ベクトルを出力する場合、その出力最終段において適用される活性化関数としてソフトマックス関数(Softmax関数)を用いて、複数の要素の確率の合計が1になる離散確率分布ベクトルを出力してもよいし、シグモイド関数(Sigmoid関数)を用いて、複数の要素の各々が、各々の観察ステップである確率を表す離散確率分布ベクトルを出力してもよい。
ソフトマックス関数は、複数の要素の確率の合計が、1.0=100%になるベクトルを出力する。つまり、全ての要素の確率の合計が100%になるため、超音波画像は、必ずいずれかの観察ステップに分類されることになる。畳み込みニューラルネットワークは、ソフトマックス関数を使用する場合、複数の要素の中から、例えば確率が最も高い要素に対応する観察ステップを、予測ステップとして出力することができる。
続いて、シグモイド関数は、各々の要素が、それぞれ単独で、各々の観察ステップである確率を表すベクトルを出力する。従って、シグモイド関数の出力は、ソフトマックス関数の出力のように、全ての要素の確率の合計が100%になるとは限らず、例えば全ての要素の確率が0%になる場合もあり得る。これにより、例えば今までに学習したことがない超音波画像が畳み込みニューラルネットワークに入力された場合に、この超音波画像がいずれの観察ステップにも分類されないという判断を下すことが可能である。また、確率が比較的高い要素が複数ある場合も、「認識の信頼度が低い結果である」というような判断をすることも可能である。さらに、3番目および4番目の観察ステップ3,4に対応する要素の確率が高い場合、観察ステップ3,4に対応する観察対象部位3と観察対象部位4との間の位置を観察していると判断することもできる。
図9は、ソフトマックス関数を用いる畳み込みニューラルネットワークの出力を表す概念図である。図9の下部に示すグラフの横軸は、ベクトルに含まれる複数の要素に対応する観察ステップ1〜11のラベル番号0〜10を表し、縦軸は、複数の要素の各々が、ラベル番号0〜10で表される各々の観察ステップ1〜11である確率を表す。
図9のグラフにおいて、ラベル番号0で表される1番目の観察ステップ1に対応する要素1の確率は、0.06=6%、ラベル番号1で表される2番目の観察ステップ2に対応する要素2の確率は、0.71=71%、…である。このグラフに示すように、ソフトマックス関数を用いる畳み込みニューラルネットワークからは、全ての要素の確率の合計が1になるベクトルが出力される。
続いて、図10は、シグモイド関数を用いる畳み込みニューラルネットワークの出力を表す概念図である。図10の下部に示すグラフの横軸および縦軸は、図9のグラフの場合と同じである。
図10のグラフにおいて、ラベル番号0で表される1番目の観察ステップ1に対応する要素1の確率は、0.33=33%、ラベル番号1で表される2番目の観察ステップ2に対応する要素2の確率は、0.12=12%、…である。このグラフに示すように、シグモイド関数を用いる畳み込みニューラルネットワークからは、複数の要素の各々が、各々の観察ステップである確率を表すベクトルが出力される。
一方、畳み込みニューラルネットワークは、スカラーを出力する場合、各々の観察ステップにおいて、その観察ステップに対応するラベル番号を予測した1つの予測ステップを出力する。畳み込みニューラルネットワークは、1番目の観察ステップ1において、予測ステップ1として、1番目の観察ステップ1に対応するラベル番号を予測したスカラーを出力する。2〜N番目の観察ステップ2〜Nにおいても同様である。
また、正解ステップは、ラベル番号を表すスカラーとする。
この場合、損失関数は、予測ステップのスカラーと正解ステップのスカラーとの差分を表す。これにより、予測ステップのラベル番号と正解ステップのラベル番号との差分に連動した損失関数にすることができる。損失関数としては、平均二乗誤差(MSE:Mean Squared Error)および平均絶対値誤差(MAE:Mean Absolute Error)等が用いられることが多い。
畳み込みニューラルネットワークがスカラーを出力する場合、観察ステップに対応するラベル番号を予測した予測ステップのラベル番号は、0,1,2,…等の整数値だけではなく、例えば、2.1とか2.2等の小数点以下の値を含む数値が出力される場合がある。この場合、小数点以下の値を四捨五入することにより、予測ステップのラベル番号を整数値にすることができる。また、2.1から2.2というように、2から3へ向かって変化している場合、観察ステップ2に対応する観察対象部位2から観察ステップ3に対応する観察対象部位3へ向かって移動していると判断することもできる。
例えば、動物の種類の分類のように、通常の画像分類の場合、犬が正解であるのに対し、猫であると予測した場合と、車であると予測した場合とにおいて、畳み込みニューラルネットワークの学習は同様に行われる。
これに対し、観察ステップ分類の場合、観察ステップ1が正解であるのに対して、観察ステップ2であると予測した場合と、観察ステップ3であると予測した場合とでは、前者の方が「惜しい」(正解に近い)間違え方であり、後者のほうは「惜しくない」(正解から遠い)間違え方であるため、後者の場合は、前者の場合よりも、畳み込みニューラルネットワークの学習量(調整量)を大きく扱う必要がある。
これに応じて、損失関数は、下記式1に示すように、予測ラベルのラベル番号と正解ラベルのラベル番号との差分Dに基づいて、損失関数の出力Lに重み付けを行って、重み付けが行われた出力L’を出力してもよい。つまり、損失関数は、差分Dが閾値Dthより大きい場合(惜しくない)に、差分Dが閾値Dthより小さい場合(惜しい)よりも、損失関数の出力Lが大きくなるように調整する。損失関数の出力L’が大きくなるほど、畳み込みニューラルネットワークの学習量(調整量)が大きくなる。
(式1)
Dth>Dの場合、L’=αL
Dth≦Dの場合、L’=βL
ただし、α<βである。
このように、観察ステップ、予測ステップおよび正解ステップをラベル番号で表し、かつ、ラベル番号を、観察対象部位の観察順序に基づいて設定することにより、予測ステップのラベル番号が正解ステップのラベル番号に近い(惜しい)、および、予測ステップのラベル番号が正解ステップのラベル番号から遠い(惜しくない)という情報を損失関数の出力に含めることができる。そのため、この情報を畳み込みニューラルネットワークの学習に反映させることができ、より効率的に学習を行うことができる。
なお、複数の観察ステップは、いずれの観察対象部位も撮像(観察)していない状態を表す観察ステップを含んでいてもよい。このように、いずれの観察対象部位も撮像(観察)していない状態を表す観察ステップを設けることにより、例えば超音波診断の検査開始前もしくは検査終了後の状態を表す観察ステップも認識することができる。また、予期していない部位の超音波画像および全面が黒い超音波画像等が撮像された場合に、観察ステップが不明であることを表す警告等を発するようにすることができる。
なお、本発明は、上記実施形態の超音波内視鏡システム10に限らず、観察対象部位の観察順序が定められている複数の観察ステップの各々において、被検体の体内の観察対象部位の医用画像を取得する医療機器に適用可能である。
画像取得部は、被検体の体外から撮像された被検体の体内の医用画像を取得する機器、例えば体外超音波装置等でもよいし、あるいは、被検体の体腔内に挿入され、被検体の体内から撮像された被検体の体内の医用画像を取得する機器、例えば内視鏡画像を撮像する内視鏡装置、および、内視鏡画像および超音波画像を撮像する超音波内視鏡装置等を例示することができる。または、画像取得部は、こうした体外超音波装置、内視鏡装置および超音波内視鏡装置等の医療機器、あるいは、各種の医療機器により撮像された被検体の医用画像を保管・管理する医療画像管理システム(PACS:Picture Archiving and Communication Systems)等から、医用画像を受け取る部位であってもよい。
本発明の学習装置を超音波内視鏡システムに組み込んだ場合の例を挙げて説明したが、本発明の学習装置は、超音波内視鏡システム以外の各種の医療機器においても同様に組み込むことが可能である。あるいは、本発明の学習装置を医療機器に組み込むことなく、医療機器とは別に設けてもよい。
また、医用画像は、医療機器によって撮像される画像であれば特に限定されず、例えば内視鏡画像および超音波画像等を例示することができる。また、超音波画像として、超音波内視鏡により被検体の体内の観察対象部位が撮像された超音波画像等を例示することができる。
本発明の装置において、例えば、ステップ予測部112、ステップ比較部116、学習制御部118、表示制御部172および操作卓100等の各種の処理を実行する処理部(Processing Unit)のハードウェア的な構成は、専用のハードウェアであってもよいし、プログラムを実行する各種のプロセッサまたはコンピュータであってもよい。また、正解ステップ保持部114のハードウェア的な構成は、専用のハードウェアであってもよいし、あるいは半導体メモリ等のメモリであってもよい。
各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理をさせるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部を、これら各種のプロセッサのうちの1つで構成してもよいし、同種または異種の2つ以上のプロセッサの組み合わせ、例えば、複数のFPGAの組み合わせ、または、FPGAおよびCPUの組み合わせ等によって構成してもよい。また、複数の処理部を、各種のプロセッサのうちの1つで構成してもよいし、複数の処理部のうちの2以上をまとめて1つのプロセッサを用いて構成してもよい。
例えば、サーバおよびクライアント等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。また、システムオンチップ(System on Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。
さらに、これらの各種のプロセッサのハードウェア的な構成は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(Circuitry)である。
また、本発明の方法は、例えば、その各々のステップをコンピュータに実行させるためのプログラムにより実施することができる。また、このプログラムが記録されたコンピュータ読み取り可能な記録媒体を提供することもできる。
以上、本発明について詳細に説明したが、本発明は上記実施形態に限定されず、本発明の主旨を逸脱しない範囲において、種々の改良および変更をしてもよいのはもちろんである。
10 超音波内視鏡システム
12 超音波内視鏡
14 超音波観測装置
16 内視鏡プロセッサ
18 光源装置
20 モニタ
21a 送水タンク
21b 吸引ポンプ
22 挿入部
24 操作部
26 ユニバーサルコード
28a 送気送水ボタン
28b 吸引ボタン
29 アングルノブ
30 処置具挿入口
32a 超音波用コネクタ
32b 内視鏡用コネクタ
32c 光源用コネクタ
34a 送気送水用チューブ
34b 吸引用チューブ
36 超音波観察部
38 内視鏡観察部
40 先端部
42 湾曲部
43 軟性部
44 処置具導出口
45 処置具チャンネル
46 超音波振動子ユニット
48 超音波振動子
50 超音波振動子アレイ
54 バッキング材層
56 同軸ケーブル
60 FPC
74 音響整合層
76 音響レンズ
82 観察窓
84 対物レンズ
86 固体撮像素子
88 照明窓
90 洗浄ノズル
92 配線ケーブル
100 操作卓
112 ステップ予測部
114 正解ステップ保持部
116 ステップ比較部
118 学習制御部
140 マルチプレクサ
142 受信回路
144 送信回路
146 A/Dコンバータ
148 ASIC
150 シネメモリ
151 メモリコントローラ
152 CPU
154 DSC
158 パルス発生回路
160 位相整合部
162 Bモード画像生成部
164 PWモード画像生成部
166 CFモード画像生成部
168 超音波画像認識部
172 表示制御部

Claims (16)

  1. 観察対象部位の観察順序が定められている複数の観察ステップの各々において、被検体の体内の前記観察対象部位の医用画像を取得する画像取得部と、
    前記各々の観察ステップにおいて、学習結果に基づいて、前記医用画像から、前記医用画像に対応する観察ステップを予測した予測ステップを出力するステップ予測部と、
    前記各々の観察ステップに対応する各々の正解ステップを保持する正解ステップ保持部と、
    前記各々の観察ステップにおいて、前記予測ステップと前記予測ステップに対応する正解ステップとを比較するステップ比較部と、
    前記各々の観察ステップにおいて、前記ステップ比較部による比較の結果に基づいて、前記予測ステップが前記正解ステップに近づくように、前記医用画像と前記予測ステップとの関係を前記ステップ予測部に学習させる学習制御部と、を備える、学習装置。
  2. 前記観察ステップ、前記予測ステップおよび前記正解ステップは、ラベル番号で表される、請求項1に記載の学習装置。
  3. 前記ラベル番号は、前記観察対象部位の観察順序に基づいて設定される、請求項2に記載の学習装置。
  4. ステップ予測部は、損失関数を用いる畳み込みニューラルネットワークであり、
    前記学習制御部は、前記予測ステップのラベル番号と前記正解ステップのラベル番号との差分に基づいて計算される前記損失関数の出力を最小化するように、前記医用画像と前記予測ステップとの関係を前記畳み込みニューラルネットワークに学習させる、請求項2または3に記載の学習装置。
  5. 前記畳み込みニューラルネットワークは、前記予測ステップとして、前記医用画像が前記各々の観察ステップに対応する医用画像である確率を表す複数の要素を含む離散確率分布ベクトルを出力し、
    前記正解ステップは、正解の前記観察ステップに対応する要素の確率が1であり、正解ではない前記観察ステップに対応する要素の確率が0である離散確率分布ベクトルであり、
    前記損失関数は、前記予測ステップの離散確率分布ベクトルと前記正解ステップの離散確率分布ベクトルとの差分を表す、請求項4に記載の学習装置。
  6. 前記畳み込みニューラルネットワークは、ソフトマックス関数を用いて、前記複数の要素の確率の合計が1になる離散確率分布ベクトルを出力する、請求項5に記載の学習装置。
  7. 前記畳み込みニューラルネットワークは、シグモイド関数を用いて、前記複数の要素の各々が、前記各々の観察ステップである確率を表す離散確率分布ベクトルを出力する、請求項5に記載の学習装置。
  8. 前記畳み込みニューラルネットワークは、前記予測ステップとして、前記ラベル番号を予測したスカラーを出力し、
    前記正解ステップは、前記ラベル番号を表すスカラーであり、
    前記損失関数は、前記予測ステップのスカラーと前記正解ステップのスカラーとの差分を表す、請求項4に記載の学習装置。
  9. 前記損失関数は、前記差分が閾値より大きい場合に、前記差分が前記閾値より小さい場合よりも、前記損失関数の出力が大きくなるように調整する、請求項8に記載の学習装置。
  10. 前記複数の観察ステップは、いずれの観察対象部位も観察していない状態を表す観察ステップを含む、請求項1ないし9のいずれか一項に記載の学習装置。
  11. 前記観察ステップは、前記観察対象部位の観察順序に従って前記被検体の体内の観察対象部位の医用画像を観察する場合に、前記観察対象部位の観察順序に基づいて設定された順番を表す、請求項1ないし10のいずれか一項に記載の学習装置。
  12. 前記画像取得部は、前記被検体の体腔内に挿入され、前記被検体の体内から撮像された前記被検体の体内の医用画像を取得する機器である、請求項1ないし11のいずれか一項に記載の学習装置。
  13. 前記医用画像は超音波画像である、請求項1ないし12のいずれか一項に記載の学習装置。
  14. 前記医用画像は、超音波内視鏡により前記被検体の体内の観察対象部位が撮像された超音波画像である、請求項13に記載の学習装置。
  15. 画像取得部が、観察対象部位の観察順序が定められている複数の観察ステップの各々において、被検体の体内の前記観察対象部位の医用画像を取得し、
    ステップ予測部が、前記各々の観察ステップにおいて、学習結果に基づいて、前記医用画像から、前記医用画像に対応する観察ステップを予測した予測ステップを出力し、
    ステップ比較部が、前記各々の観察ステップにおいて、前記予測ステップと前記予測ステップに対応する正解ステップとを比較し、
    学習制御部が、前記各々の観察ステップにおいて、前記ステップ比較部による比較の結果に基づいて、前記予測ステップが前記正解ステップに近づくように、前記医用画像と前記予測ステップとの関係を前記ステップ予測部に学習させる、学習方法。
  16. 請求項15に記載の学習方法により前記医用画像と前記予測ステップとの関係を複数の前記医用画像について学習し、前記学習結果に基づいて、前記画像取得部によって取得された医用画像から、前記画像取得部によって取得された医用画像に対応する観察ステップを予測した予測ステップを出力する、学習済みモデル。
JP2019203965A 2019-11-11 2019-11-11 学習装置、学習方法および学習済みモデル Active JP7292184B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019203965A JP7292184B2 (ja) 2019-11-11 2019-11-11 学習装置、学習方法および学習済みモデル
US17/082,028 US20210142901A1 (en) 2019-11-11 2020-10-28 Learning device, learning method, and learned model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019203965A JP7292184B2 (ja) 2019-11-11 2019-11-11 学習装置、学習方法および学習済みモデル

Publications (2)

Publication Number Publication Date
JP2021074321A true JP2021074321A (ja) 2021-05-20
JP7292184B2 JP7292184B2 (ja) 2023-06-16

Family

ID=75847632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019203965A Active JP7292184B2 (ja) 2019-11-11 2019-11-11 学習装置、学習方法および学習済みモデル

Country Status (2)

Country Link
US (1) US20210142901A1 (ja)
JP (1) JP7292184B2 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010069018A (ja) * 2008-09-18 2010-04-02 Olympus Medical Systems Corp 医用ガイドシステム
US20170086785A1 (en) * 2015-09-30 2017-03-30 General Electric Company System and method for providing tactile feedback via a probe of a medical imaging system
WO2017175282A1 (ja) * 2016-04-04 2017-10-12 オリンパス株式会社 学習方法、画像認識装置およびプログラム
JP2018139848A (ja) * 2017-02-28 2018-09-13 富士フイルム株式会社 内視鏡システム及びその作動方法
WO2019156706A1 (en) * 2018-02-12 2019-08-15 Oracle International Corporation Automated code generation
JP2019159654A (ja) * 2018-03-12 2019-09-19 国立研究開発法人情報通信研究機構 時系列情報の学習システム、方法およびニューラルネットワークモデル
WO2019176806A1 (ja) * 2018-03-16 2019-09-19 富士フイルム株式会社 機械学習装置および方法
JP2019180866A (ja) * 2018-04-10 2019-10-24 キヤノンメディカルシステムズ株式会社 医用画像処理装置、教師データ作成プログラム及び教師データ作成方法
WO2019208793A1 (ja) * 2018-04-26 2019-10-31 日本電信電話株式会社 移動状況認識モデル学習装置、移動状況認識装置、方法、及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008110013A1 (en) * 2007-03-15 2008-09-18 Centre Hospitalier De L'universite De Montreal Image segmentation
WO2019190968A1 (en) * 2018-03-26 2019-10-03 Pediametrix Llc. Systems and methods of measuring the body based on image analysis
US11176428B2 (en) * 2019-04-01 2021-11-16 Canon Medical Systems Corporation Apparatus and method for sinogram restoration in computed tomography (CT) using adaptive filtering with deep learning (DL)
US10769502B1 (en) * 2019-04-08 2020-09-08 Dropbox, Inc. Semantic image retrieval

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010069018A (ja) * 2008-09-18 2010-04-02 Olympus Medical Systems Corp 医用ガイドシステム
US20170086785A1 (en) * 2015-09-30 2017-03-30 General Electric Company System and method for providing tactile feedback via a probe of a medical imaging system
WO2017175282A1 (ja) * 2016-04-04 2017-10-12 オリンパス株式会社 学習方法、画像認識装置およびプログラム
JP2018139848A (ja) * 2017-02-28 2018-09-13 富士フイルム株式会社 内視鏡システム及びその作動方法
WO2019156706A1 (en) * 2018-02-12 2019-08-15 Oracle International Corporation Automated code generation
JP2019159654A (ja) * 2018-03-12 2019-09-19 国立研究開発法人情報通信研究機構 時系列情報の学習システム、方法およびニューラルネットワークモデル
WO2019176806A1 (ja) * 2018-03-16 2019-09-19 富士フイルム株式会社 機械学習装置および方法
JP2019180866A (ja) * 2018-04-10 2019-10-24 キヤノンメディカルシステムズ株式会社 医用画像処理装置、教師データ作成プログラム及び教師データ作成方法
WO2019208793A1 (ja) * 2018-04-26 2019-10-31 日本電信電話株式会社 移動状況認識モデル学習装置、移動状況認識装置、方法、及びプログラム

Also Published As

Publication number Publication date
JP7292184B2 (ja) 2023-06-16
US20210142901A1 (en) 2021-05-13

Similar Documents

Publication Publication Date Title
JP6899804B2 (ja) 超音波診断装置および超音波診断装置の作動方法
JP7218425B2 (ja) 超音波内視鏡システムおよび超音波内視鏡システムの作動方法
JP7265593B2 (ja) 超音波システム、及び、超音波画像生成方法
JP2022040175A (ja) 超音波診断装置および超音波診断装置の作動方法
JP2021035442A (ja) 超音波診断システムおよび超音波診断システムの作動方法
US20200245978A1 (en) Failure diagnosis system of ultrasonic endoscope apparatus, failure diagnosis method of ultrasonic endoscope apparatus, and failure diagnosis program of ultrasonic endoscope apparatus
WO2021039101A1 (ja) 超音波内視鏡システムおよび超音波内視鏡システムの作動方法
JP7094237B2 (ja) 超音波診断システムおよび超音波診断システムの作動方法
US20200305834A1 (en) Ultrasound observation apparatus and ultrasonic endoscope system
CN107106141B (zh) 医疗诊断装置及其工作方法以及存储介质
JP7292184B2 (ja) 学習装置、学習方法および学習済みモデル
JP7041014B2 (ja) 超音波診断装置、及び、超音波診断装置の作動方法
JP6987029B2 (ja) 超音波診断装置、及び、超音波診断装置の作動方法
JP7300029B2 (ja) 超音波診断装置、及び、超音波診断装置の作動方法
WO2021019851A1 (ja) 計測装置、超音波診断装置、計測方法、計測プログラム
JP2022016647A (ja) 超音波診断装置、及び、超音波診断装置の作動方法
CN117915838A (zh) 超声波内窥镜系统及超声波内窥镜系统的工作方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230606

R150 Certificate of patent or registration of utility model

Ref document number: 7292184

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150