JP2021074321A - 学習装置、学習方法および学習済みモデル - Google Patents
学習装置、学習方法および学習済みモデル Download PDFInfo
- Publication number
- JP2021074321A JP2021074321A JP2019203965A JP2019203965A JP2021074321A JP 2021074321 A JP2021074321 A JP 2021074321A JP 2019203965 A JP2019203965 A JP 2019203965A JP 2019203965 A JP2019203965 A JP 2019203965A JP 2021074321 A JP2021074321 A JP 2021074321A
- Authority
- JP
- Japan
- Prior art keywords
- observation
- ultrasonic
- image
- prediction
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/12—Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5207—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
- A61B8/5223—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/54—Control of the diagnostic device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Physics & Mathematics (AREA)
- Radiology & Medical Imaging (AREA)
- Pathology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Theoretical Computer Science (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Biodiversity & Conservation Biology (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Physiology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Endoscopes (AREA)
- Image Analysis (AREA)
Abstract
Description
各々の観察ステップにおいて、学習結果に基づいて、医用画像から、医用画像に対応する観察ステップを予測した予測ステップを出力するステップ予測部と、
各々の観察ステップに対応する各々の正解ステップを保持する正解ステップ保持部と、
各々の観察ステップにおいて、予測ステップと予測ステップに対応する正解ステップとを比較するステップ比較部と、
各々の観察ステップにおいて、ステップ比較部による比較の結果に基づいて、予測ステップが正解ステップに近づくように、医用画像と予測ステップとの関係をステップ予測部に学習させる学習制御部と、を備える、学習装置を提供する。
学習制御部は、予測ステップのラベル番号と正解ステップのラベル番号との差分に基づいて計算される損失関数の出力を最小化するように、医用画像と予測ステップとの関係を畳み込みニューラルネットワークに学習させることが好ましい。
正解ステップは、正解の観察ステップに対応する要素の確率が1であり、正解ではない観察ステップに対応する要素の確率が0である離散確率分布ベクトルであり、
損失関数は、予測ステップの離散確率分布ベクトルと正解ステップの離散確率分布ベクトルとの差分を表すことが好ましい。
正解ステップは、ラベル番号を表すスカラーであり、
損失関数は、予測ステップのスカラーと正解ステップのスカラーとの差分を表すことが好ましい。
ステップ予測部が、各々の観察ステップにおいて、学習結果に基づいて、医用画像から、医用画像に対応する観察ステップを予測した予測ステップを出力し、
ステップ比較部が、各々の観察ステップにおいて、予測ステップと予測ステップに対応する正解ステップとを比較し、
学習制御部が、各々の観察ステップにおいて、ステップ比較部による比較の結果に基づいて、予測ステップが正解ステップに近づくように、医用画像と予測ステップとの関係をステップ予測部に学習させる、学習方法を提供する。
なお、本実施形態は、本発明の代表的な実施態様であるが、あくまでも一例に過ぎず、本発明を限定するものではない。
本実施形態に係る超音波内視鏡システム10について、図1を参照しながら、その概要を説明する。図1は、超音波内視鏡システム10の概略構成を示す図である。
なお、超音波内視鏡12については、後の項で詳しく説明する。
なお、超音波観測装置14については、後の項で詳しく説明する。
ここで、「観察対象隣接部位」とは、患者の体腔内壁のうち、観察対象部位と隣り合う位置にある部分である。
超音波画像及び内視鏡画像の表示方式としては、1の画像を他の画像のうちの1つに切り替えてモニタ20に表示する方式でもよく、2以上の画像を同時に並べて表示する方式でもよい。
なお、本実施形態では、一台のモニタ20に超音波画像及び内視鏡画像を表示するが、超音波画像表示用のモニタと、内視鏡画像表示用のモニタと、が別々に設けられてもよい。また、モニタ20以外の表示形態、例えば、術者が携帯する端末のディスプレイに表示する形態にて超音波画像及び内視鏡画像を表示してもよい。
ここで、「ライブモード」は、所定のフレームレートにて得られる超音波画像(動画像)を逐次表示(リアルタイム表示)するモードである。「フリーズモード」は、過去に生成された超音波画像(動画像)の1フレームの画像(静止画像)を、後述のシネメモリ150から読み出して表示するモードである。
なお、上述した超音波画像生成モードは、あくまでも一例であり、上述した3種類のモード以外のモード、例えば、A(Amplitude)モード、M(Motion)モード及び造影モード等が更に含まれてもよい。
次に、超音波内視鏡12の構成について、既出の図1、および図2、図3および図4を参照しながら説明する。図2は、超音波内視鏡12の挿入部22の先端部40及びその周辺を拡大して示した平面図である。図3は、超音波内視鏡12の挿入部22の先端部40を図2に図示のI−I断面にて切断したときの断面を示す断面図である。図4は、超音波観測装置14の構成を示すブロック図である。
超音波観察部36は、超音波画像を取得するために設けられた部分であり、挿入部22の先端部40において先端側に配置されている。超音波観察部36は、図3に示すように超音波振動子ユニット46と、複数の同軸ケーブル56と、FPC(Flexible Printed Circuit)60とを備える。
電極は、複数の超音波振動子48の各々に対して個別に設けられた個別電極(不図示)と、複数の超音波振動子48に共通の振動子グランド(不図示)とからなる。また、電極は、同軸ケーブル56及びFPC60を介して超音波観測装置14と電気的に接続される。
内視鏡観察部38は、内視鏡画像を取得するために設けられた部分であり、挿入部22の先端部40において超音波観察部36よりも基端側に配置されている。内視鏡観察部38は、図2および図3に示すように観察窓82、対物レンズ84、固体撮像素子86、照明窓88、洗浄ノズル90及び配線ケーブル92等によって構成されている。
送水タンク21aは、脱気水を貯留するタンクであり、送気送水用チューブ34aにより光源用コネクタ32cに接続されている。なお、脱気水は、洗浄ノズル90から噴出される洗浄用液体として用いられる。
送気送水管路は、その一端側で洗浄ノズル90に通じており、他端側では、操作部24に設けられた送気送水ボタン28aに接続している。送気送水ボタン28aは、送気送水管路のほかに、送水タンク21aに接続されている。
操作部24は、超音波診断の開始時、診断中及び診断終了時等において術者によって操作される部分であり、その一端にはユニバーサルコード26の一端が接続されている。また、操作部24は、図1に示すように、送気送水ボタン28a、吸引ボタン28b、一対のアングルノブ29、並びに処置具挿入口(鉗子口)30を有する。
処置具挿入口30は、鉗子等の処置具(不図示)を挿通するために形成された孔であり、処置具チャンネル45を介して処置具導出口44と連絡している。処置具挿入口30に挿入された処置具は、処置具チャンネル45を通過した後に処置具導出口44から体腔内に導入される。
ここでは、内視鏡プロセッサ16の詳細構成の説明は省略するが、内視鏡プロセッサ16は、内視鏡画像を撮像する従来公知の一般的な構成要素を備えている。内視鏡プロセッサ16によって生成される内視鏡画像は、後述する超音波観測装置14の表示制御部172へ転送される。
超音波観測装置14は、超音波振動子ユニット46に超音波を送受信させ、且つ、超音波受信時に超音波振動子48(詳しくは駆動対象素子)が出力した受信信号を画像化して超音波画像を生成する。また、超音波観測装置14は、生成した超音波画像に加え、内視鏡プロセッサ16から転送される内視鏡画像等をモニタ20に表示する。
送信回路144は、FPGA(フィールドプログラマブルゲートアレイ)、パルサー(パルス発生回路158)、及びSW(スイッチ)等からなり、MUX(マルチプレクサ140)に接続される。なお、FPGAの代わりにASIC(特定用途向け集積回路)を用いても良い。
なお、本実施形態では、ASIC148のようなハードウェア回路によって上述の機能(具体的には、位相整合部160、Bモード画像生成部162、PWモード画像生成部164、CFモード画像生成部166及びメモリコントローラ151)を実現しているが、これに限定されるものではない。中央演算装置(CPU)と各種データ処理を実行させるためのソフトウェア(コンピュータプログラム)とを協働させることで上記の機能を実現させてもよい。
画像取得部は、観察対象部位の観察順序が定められている複数の観察ステップの各々において、被検体の体内の観察対象部位の医用画像(内視鏡画像および超音波画像)を取得する。
なお、ラベル番号は、予測ステップと正解ステップとの対応付けが分かるものであれば特に限定されず、観察対象部位の観察順序に基づいて設定することは必須ではない。
学習方法としては、例えば人工知能(AI:Artificial Intelligence)の技術の1つである機械学習(マシンラーニング)の一例である階層構造型のニューラルネットワークを用いるディープラーニング(深層学習)等を利用することができる。
なお、ディープラーニング以外の機械学習を利用してもよいし、機械学習以外の人工知能の技術を利用してもよいし、人工知能の技術以外の学習方法を利用してもよい。
ラベル番号0で表される観察ステップ1の肝左葉、ラベル番号1で表される観察ステップ2の大動脈、腹腔動脈、上腸間膜動脈の合流部、ラベル番号2で表される観察ステップ3の膵体部、ラベル番号3で表される観察ステップ4の膵尾部、ラベル番号4で表される観察ステップ5の脾静脈、上腸間膜静脈、及び門脈の合流部、ラベル番号5で表される観察ステップ6の膵頭部およびラベル番号6で表される観察ステップ7の胆嚢は、胃内からの代表的な観察ポイントである。また、ラベル番号7で表される観察ステップ8の門脈、ラベル番号8で表される観察ステップ9の総胆管およびラベル番号9で表される観察ステップ10の胆嚢は、十二指腸球部からの代表的な観察ポイントであり、ラベル番号10で表される観察ステップ11の膵鉤部およびラベル番号11で表される観察ステップ12の乳頭は、十二指腸下行部からの代表的な観察ポイントである。
続いて、ステップ比較部116により、各々の観察ステップにおいて、予測ステップとこの予測ステップに対応する正解ステップとが比較される。
続いて、学習制御部118は、各々の観察ステップにおいて、ステップ比較部116による比較の結果に基づいて、予測ステップが正解ステップに近づくように、超音波画像と予測ステップとの関係をステップ予測部112に学習させる。
以後同様に、画像取得部によって超音波画像が取得される毎に、上記の動作が繰り返し行われる。
表示制御部172は、予測ステップに関する情報として、例えば予測ステップそのもの(予測ステップ1,2,3,…)、予測ステップのラベル番号、および、このラベル番号に対応する観察対象部位の名称等をモニタ20に表示させることができる。
次に、超音波内視鏡システム10の動作例として、超音波診断に関する一連の処理(以下、診断処理とも言う)の流れを、図6および図7を参照しながら説明する。図6は、超音波内視鏡システム10を用いた診断処理の流れを示す図である。図7は、診断処理中の診断ステップの手順を示す図である。
続いて、図6に戻って、超音波内視鏡システム10各部の電源がオフとなると(S005でYes)、診断処理が終了する。一方で、超音波内視鏡システム10各部の電源がオン状態で維持される場合には(S005でNo)、入力ステップS001に戻り、上述した診断処理の各ステップを繰り返すことになる。
次に、本発明の学習装置、つまり、画像取得部および超音波画像認識部168の動作例について説明する。
続いて、ステップ予測部(NN)112により、学習結果に基づいて、超音波画像1から、この超音波画像1に対応する観察ステップを予測した予測ステップ1として、ラベル番号0が出力される。予測ステップ1のラベル番号0は、表示制御部172の制御により、モニタ20に表示される。
続いて、ステップ比較部116により、予測ステップ1のラベル番号0とこの予測ステップ1に対応する正解ステップ1のラベル番号0とが比較される。
その結果、予測ステップ1のラベル番号0と正解ステップ1のラベル番号0との差分は0であるため、ステップ予測部112による学習は行われない。
続いて、ステップ予測部112により、学習結果に基づいて、超音波画像2から、この超音波画像2に対応する観察ステップを予測した予測ステップ2として、ラベル番号2が出力される。予測ステップ2のラベル番号2は、表示制御部172の制御により、モニタ20に表示される。
続いて、ステップ比較部116により、予測ステップ2のラベル番号2とこの予測ステップ2に対応する正解ステップ2のラベル番号1とが比較される。
その結果、予測ステップ2のラベル番号2と正解ステップ2のラベル番号1との差分は1であるため、学習制御部118は、比較の結果に基づいて、差分の1が0に近づくように、超音波画像と予測ステップとの関係をステップ予測部112に学習させる。
学習の初期段階においては、学習済みモデルの最適化が進んでおらず、予測ステップが正解ステップから大きく離れている場合もあると予想されるが、学習によって学習済みモデルの最適化が進むにつれて、予測ステップが正解ステップに次第に近づくことが期待できる。
超音波内視鏡システム10においては、超音波診断の検査の最中に、予測ステップに関する情報をモニタ20に表示させることができるため、今現在、患者の体内のどの部位を観察しているのかを術者に確実に把握させることができる。
従来技術によるセグメンテーション等の臓器認識は、超音波画像の中の臓器の位置および領域を認識できる一方、一枚の超音波画像に対して正解ステップの作成に多くの労力を必要とする。これに対し、超音波内視鏡システム10による観察ステップの分類は、各々の超音波画像がどの観察ステップに属するのかを、例えばラベル付けするだけで実現できるため、僅かな労力のみで実現できる。
また、正解ステップは、正解の観察ステップに対応する要素の確率が1であり、正解ではない観察ステップに対応する要素の確率が0である離散確率分布ベクトルとする。
この場合、損失関数は、予測ステップの離散確率分布ベクトルと正解ステップの離散確率分布ベクトルとの差分を表す。損失関数としては、ソフトマックス・クロス・エントロピー(Softmax Cross Entropy)およびシグモイド・クロス・エントロピー(Sigmoid Cross Entropy)等がよく用いられる。
また、正解ステップは、ラベル番号を表すスカラーとする。
この場合、損失関数は、予測ステップのスカラーと正解ステップのスカラーとの差分を表す。これにより、予測ステップのラベル番号と正解ステップのラベル番号との差分に連動した損失関数にすることができる。損失関数としては、平均二乗誤差(MSE:Mean Squared Error)および平均絶対値誤差(MAE:Mean Absolute Error)等が用いられることが多い。
これに対し、観察ステップ分類の場合、観察ステップ1が正解であるのに対して、観察ステップ2であると予測した場合と、観察ステップ3であると予測した場合とでは、前者の方が「惜しい」(正解に近い)間違え方であり、後者のほうは「惜しくない」(正解から遠い)間違え方であるため、後者の場合は、前者の場合よりも、畳み込みニューラルネットワークの学習量(調整量)を大きく扱う必要がある。
Dth>Dの場合、L’=αL
Dth≦Dの場合、L’=βL
ただし、α<βである。
12 超音波内視鏡
14 超音波観測装置
16 内視鏡プロセッサ
18 光源装置
20 モニタ
21a 送水タンク
21b 吸引ポンプ
22 挿入部
24 操作部
26 ユニバーサルコード
28a 送気送水ボタン
28b 吸引ボタン
29 アングルノブ
30 処置具挿入口
32a 超音波用コネクタ
32b 内視鏡用コネクタ
32c 光源用コネクタ
34a 送気送水用チューブ
34b 吸引用チューブ
36 超音波観察部
38 内視鏡観察部
40 先端部
42 湾曲部
43 軟性部
44 処置具導出口
45 処置具チャンネル
46 超音波振動子ユニット
48 超音波振動子
50 超音波振動子アレイ
54 バッキング材層
56 同軸ケーブル
60 FPC
74 音響整合層
76 音響レンズ
82 観察窓
84 対物レンズ
86 固体撮像素子
88 照明窓
90 洗浄ノズル
92 配線ケーブル
100 操作卓
112 ステップ予測部
114 正解ステップ保持部
116 ステップ比較部
118 学習制御部
140 マルチプレクサ
142 受信回路
144 送信回路
146 A/Dコンバータ
148 ASIC
150 シネメモリ
151 メモリコントローラ
152 CPU
154 DSC
158 パルス発生回路
160 位相整合部
162 Bモード画像生成部
164 PWモード画像生成部
166 CFモード画像生成部
168 超音波画像認識部
172 表示制御部
Claims (16)
- 観察対象部位の観察順序が定められている複数の観察ステップの各々において、被検体の体内の前記観察対象部位の医用画像を取得する画像取得部と、
前記各々の観察ステップにおいて、学習結果に基づいて、前記医用画像から、前記医用画像に対応する観察ステップを予測した予測ステップを出力するステップ予測部と、
前記各々の観察ステップに対応する各々の正解ステップを保持する正解ステップ保持部と、
前記各々の観察ステップにおいて、前記予測ステップと前記予測ステップに対応する正解ステップとを比較するステップ比較部と、
前記各々の観察ステップにおいて、前記ステップ比較部による比較の結果に基づいて、前記予測ステップが前記正解ステップに近づくように、前記医用画像と前記予測ステップとの関係を前記ステップ予測部に学習させる学習制御部と、を備える、学習装置。 - 前記観察ステップ、前記予測ステップおよび前記正解ステップは、ラベル番号で表される、請求項1に記載の学習装置。
- 前記ラベル番号は、前記観察対象部位の観察順序に基づいて設定される、請求項2に記載の学習装置。
- ステップ予測部は、損失関数を用いる畳み込みニューラルネットワークであり、
前記学習制御部は、前記予測ステップのラベル番号と前記正解ステップのラベル番号との差分に基づいて計算される前記損失関数の出力を最小化するように、前記医用画像と前記予測ステップとの関係を前記畳み込みニューラルネットワークに学習させる、請求項2または3に記載の学習装置。 - 前記畳み込みニューラルネットワークは、前記予測ステップとして、前記医用画像が前記各々の観察ステップに対応する医用画像である確率を表す複数の要素を含む離散確率分布ベクトルを出力し、
前記正解ステップは、正解の前記観察ステップに対応する要素の確率が1であり、正解ではない前記観察ステップに対応する要素の確率が0である離散確率分布ベクトルであり、
前記損失関数は、前記予測ステップの離散確率分布ベクトルと前記正解ステップの離散確率分布ベクトルとの差分を表す、請求項4に記載の学習装置。 - 前記畳み込みニューラルネットワークは、ソフトマックス関数を用いて、前記複数の要素の確率の合計が1になる離散確率分布ベクトルを出力する、請求項5に記載の学習装置。
- 前記畳み込みニューラルネットワークは、シグモイド関数を用いて、前記複数の要素の各々が、前記各々の観察ステップである確率を表す離散確率分布ベクトルを出力する、請求項5に記載の学習装置。
- 前記畳み込みニューラルネットワークは、前記予測ステップとして、前記ラベル番号を予測したスカラーを出力し、
前記正解ステップは、前記ラベル番号を表すスカラーであり、
前記損失関数は、前記予測ステップのスカラーと前記正解ステップのスカラーとの差分を表す、請求項4に記載の学習装置。 - 前記損失関数は、前記差分が閾値より大きい場合に、前記差分が前記閾値より小さい場合よりも、前記損失関数の出力が大きくなるように調整する、請求項8に記載の学習装置。
- 前記複数の観察ステップは、いずれの観察対象部位も観察していない状態を表す観察ステップを含む、請求項1ないし9のいずれか一項に記載の学習装置。
- 前記観察ステップは、前記観察対象部位の観察順序に従って前記被検体の体内の観察対象部位の医用画像を観察する場合に、前記観察対象部位の観察順序に基づいて設定された順番を表す、請求項1ないし10のいずれか一項に記載の学習装置。
- 前記画像取得部は、前記被検体の体腔内に挿入され、前記被検体の体内から撮像された前記被検体の体内の医用画像を取得する機器である、請求項1ないし11のいずれか一項に記載の学習装置。
- 前記医用画像は超音波画像である、請求項1ないし12のいずれか一項に記載の学習装置。
- 前記医用画像は、超音波内視鏡により前記被検体の体内の観察対象部位が撮像された超音波画像である、請求項13に記載の学習装置。
- 画像取得部が、観察対象部位の観察順序が定められている複数の観察ステップの各々において、被検体の体内の前記観察対象部位の医用画像を取得し、
ステップ予測部が、前記各々の観察ステップにおいて、学習結果に基づいて、前記医用画像から、前記医用画像に対応する観察ステップを予測した予測ステップを出力し、
ステップ比較部が、前記各々の観察ステップにおいて、前記予測ステップと前記予測ステップに対応する正解ステップとを比較し、
学習制御部が、前記各々の観察ステップにおいて、前記ステップ比較部による比較の結果に基づいて、前記予測ステップが前記正解ステップに近づくように、前記医用画像と前記予測ステップとの関係を前記ステップ予測部に学習させる、学習方法。 - 請求項15に記載の学習方法により前記医用画像と前記予測ステップとの関係を複数の前記医用画像について学習し、前記学習結果に基づいて、前記画像取得部によって取得された医用画像から、前記画像取得部によって取得された医用画像に対応する観察ステップを予測した予測ステップを出力する、学習済みモデル。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019203965A JP7292184B2 (ja) | 2019-11-11 | 2019-11-11 | 学習装置、学習方法および学習済みモデル |
US17/082,028 US20210142901A1 (en) | 2019-11-11 | 2020-10-28 | Learning device, learning method, and learned model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019203965A JP7292184B2 (ja) | 2019-11-11 | 2019-11-11 | 学習装置、学習方法および学習済みモデル |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021074321A true JP2021074321A (ja) | 2021-05-20 |
JP7292184B2 JP7292184B2 (ja) | 2023-06-16 |
Family
ID=75847632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019203965A Active JP7292184B2 (ja) | 2019-11-11 | 2019-11-11 | 学習装置、学習方法および学習済みモデル |
Country Status (2)
Country | Link |
---|---|
US (1) | US20210142901A1 (ja) |
JP (1) | JP7292184B2 (ja) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010069018A (ja) * | 2008-09-18 | 2010-04-02 | Olympus Medical Systems Corp | 医用ガイドシステム |
US20170086785A1 (en) * | 2015-09-30 | 2017-03-30 | General Electric Company | System and method for providing tactile feedback via a probe of a medical imaging system |
WO2017175282A1 (ja) * | 2016-04-04 | 2017-10-12 | オリンパス株式会社 | 学習方法、画像認識装置およびプログラム |
JP2018139848A (ja) * | 2017-02-28 | 2018-09-13 | 富士フイルム株式会社 | 内視鏡システム及びその作動方法 |
WO2019156706A1 (en) * | 2018-02-12 | 2019-08-15 | Oracle International Corporation | Automated code generation |
JP2019159654A (ja) * | 2018-03-12 | 2019-09-19 | 国立研究開発法人情報通信研究機構 | 時系列情報の学習システム、方法およびニューラルネットワークモデル |
WO2019176806A1 (ja) * | 2018-03-16 | 2019-09-19 | 富士フイルム株式会社 | 機械学習装置および方法 |
JP2019180866A (ja) * | 2018-04-10 | 2019-10-24 | キヤノンメディカルシステムズ株式会社 | 医用画像処理装置、教師データ作成プログラム及び教師データ作成方法 |
WO2019208793A1 (ja) * | 2018-04-26 | 2019-10-31 | 日本電信電話株式会社 | 移動状況認識モデル学習装置、移動状況認識装置、方法、及びプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008110013A1 (en) * | 2007-03-15 | 2008-09-18 | Centre Hospitalier De L'universite De Montreal | Image segmentation |
WO2019190968A1 (en) * | 2018-03-26 | 2019-10-03 | Pediametrix Llc. | Systems and methods of measuring the body based on image analysis |
US11176428B2 (en) * | 2019-04-01 | 2021-11-16 | Canon Medical Systems Corporation | Apparatus and method for sinogram restoration in computed tomography (CT) using adaptive filtering with deep learning (DL) |
US10769502B1 (en) * | 2019-04-08 | 2020-09-08 | Dropbox, Inc. | Semantic image retrieval |
-
2019
- 2019-11-11 JP JP2019203965A patent/JP7292184B2/ja active Active
-
2020
- 2020-10-28 US US17/082,028 patent/US20210142901A1/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010069018A (ja) * | 2008-09-18 | 2010-04-02 | Olympus Medical Systems Corp | 医用ガイドシステム |
US20170086785A1 (en) * | 2015-09-30 | 2017-03-30 | General Electric Company | System and method for providing tactile feedback via a probe of a medical imaging system |
WO2017175282A1 (ja) * | 2016-04-04 | 2017-10-12 | オリンパス株式会社 | 学習方法、画像認識装置およびプログラム |
JP2018139848A (ja) * | 2017-02-28 | 2018-09-13 | 富士フイルム株式会社 | 内視鏡システム及びその作動方法 |
WO2019156706A1 (en) * | 2018-02-12 | 2019-08-15 | Oracle International Corporation | Automated code generation |
JP2019159654A (ja) * | 2018-03-12 | 2019-09-19 | 国立研究開発法人情報通信研究機構 | 時系列情報の学習システム、方法およびニューラルネットワークモデル |
WO2019176806A1 (ja) * | 2018-03-16 | 2019-09-19 | 富士フイルム株式会社 | 機械学習装置および方法 |
JP2019180866A (ja) * | 2018-04-10 | 2019-10-24 | キヤノンメディカルシステムズ株式会社 | 医用画像処理装置、教師データ作成プログラム及び教師データ作成方法 |
WO2019208793A1 (ja) * | 2018-04-26 | 2019-10-31 | 日本電信電話株式会社 | 移動状況認識モデル学習装置、移動状況認識装置、方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP7292184B2 (ja) | 2023-06-16 |
US20210142901A1 (en) | 2021-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6899804B2 (ja) | 超音波診断装置および超音波診断装置の作動方法 | |
JP7218425B2 (ja) | 超音波内視鏡システムおよび超音波内視鏡システムの作動方法 | |
JP7265593B2 (ja) | 超音波システム、及び、超音波画像生成方法 | |
JP2022040175A (ja) | 超音波診断装置および超音波診断装置の作動方法 | |
JP2021035442A (ja) | 超音波診断システムおよび超音波診断システムの作動方法 | |
US20200245978A1 (en) | Failure diagnosis system of ultrasonic endoscope apparatus, failure diagnosis method of ultrasonic endoscope apparatus, and failure diagnosis program of ultrasonic endoscope apparatus | |
WO2021039101A1 (ja) | 超音波内視鏡システムおよび超音波内視鏡システムの作動方法 | |
JP7094237B2 (ja) | 超音波診断システムおよび超音波診断システムの作動方法 | |
US20200305834A1 (en) | Ultrasound observation apparatus and ultrasonic endoscope system | |
CN107106141B (zh) | 医疗诊断装置及其工作方法以及存储介质 | |
JP7292184B2 (ja) | 学習装置、学習方法および学習済みモデル | |
JP7041014B2 (ja) | 超音波診断装置、及び、超音波診断装置の作動方法 | |
JP6987029B2 (ja) | 超音波診断装置、及び、超音波診断装置の作動方法 | |
JP7300029B2 (ja) | 超音波診断装置、及び、超音波診断装置の作動方法 | |
WO2021019851A1 (ja) | 計測装置、超音波診断装置、計測方法、計測プログラム | |
JP2022016647A (ja) | 超音波診断装置、及び、超音波診断装置の作動方法 | |
CN117915838A (zh) | 超声波内窥镜系统及超声波内窥镜系统的工作方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230406 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230530 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230606 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7292184 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |