JPWO2019130868A1 - 画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラム - Google Patents
画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラム Download PDFInfo
- Publication number
- JPWO2019130868A1 JPWO2019130868A1 JP2019562831A JP2019562831A JPWO2019130868A1 JP WO2019130868 A1 JPWO2019130868 A1 JP WO2019130868A1 JP 2019562831 A JP2019562831 A JP 2019562831A JP 2019562831 A JP2019562831 A JP 2019562831A JP WO2019130868 A1 JPWO2019130868 A1 JP WO2019130868A1
- Authority
- JP
- Japan
- Prior art keywords
- image
- endoscope
- endoscopic
- information
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 187
- 238000003672 processing method Methods 0.000 title claims abstract description 22
- 238000000605 extraction Methods 0.000 claims abstract description 59
- 239000000284 extract Substances 0.000 claims abstract description 21
- 238000003860 storage Methods 0.000 claims description 69
- 238000000034 method Methods 0.000 claims description 59
- 238000003384 imaging method Methods 0.000 claims description 55
- 230000008569 process Effects 0.000 claims description 32
- 210000002429 large intestine Anatomy 0.000 claims description 31
- 230000000007 visual effect Effects 0.000 claims description 30
- 239000013598 vector Substances 0.000 claims description 14
- 238000003702 image correction Methods 0.000 claims description 10
- 210000003384 transverse colon Anatomy 0.000 claims description 7
- 210000001731 descending colon Anatomy 0.000 claims description 6
- 238000012905 input function Methods 0.000 claims description 6
- 210000004204 blood vessel Anatomy 0.000 claims description 5
- 210000004534 cecum Anatomy 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 5
- 210000001815 ascending colon Anatomy 0.000 claims description 3
- 210000001599 sigmoid colon Anatomy 0.000 claims description 3
- 238000001839 endoscopy Methods 0.000 abstract description 15
- 230000006870 function Effects 0.000 description 53
- 238000010191 image analysis Methods 0.000 description 45
- 238000010586 diagram Methods 0.000 description 36
- 230000015654 memory Effects 0.000 description 19
- 238000012806 monitoring device Methods 0.000 description 18
- 230000000694 effects Effects 0.000 description 14
- 238000003780 insertion Methods 0.000 description 14
- 230000037431 insertion Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 11
- 208000037062 Polyps Diseases 0.000 description 9
- 210000001072 colon Anatomy 0.000 description 9
- 238000013135 deep learning Methods 0.000 description 8
- 238000007689 inspection Methods 0.000 description 8
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 8
- 238000009795 derivation Methods 0.000 description 7
- 238000005286 illumination Methods 0.000 description 7
- 238000002595 magnetic resonance imaging Methods 0.000 description 7
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 6
- 230000036544 posture Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 102000001554 Hemoglobins Human genes 0.000 description 4
- 108010054147 Hemoglobins Proteins 0.000 description 4
- 230000009471 action Effects 0.000 description 4
- 238000005452 bending Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000000968 intestinal effect Effects 0.000 description 4
- 239000012530 fluid Substances 0.000 description 3
- 210000001035 gastrointestinal tract Anatomy 0.000 description 3
- 238000004549 pulsed laser deposition Methods 0.000 description 3
- 238000010521 absorption reaction Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 239000007789 gas Substances 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000003325 tomography Methods 0.000 description 2
- 210000000436 anus Anatomy 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 238000003705 background correction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 238000001727 in vivo Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/31—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the rectum, e.g. proctoscopes, sigmoidoscopes, colonoscopes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B23/00—Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
- G02B23/24—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Surgery (AREA)
- Optics & Photonics (AREA)
- Biomedical Technology (AREA)
- Animal Behavior & Ethology (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Astronomy & Astrophysics (AREA)
- General Physics & Mathematics (AREA)
- Endoscopes (AREA)
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
Abstract
Description
図1は内視鏡システムの全体構成を示す概略図である。図1に示した内視鏡システム9は、内視鏡10、光源装置11、プロセッサ装置12、表示装置13、画像処理装置14、入力装置15、及びモニタ装置16を備える。内視鏡システム9は、ネットワーク17を介して記憶装置18と通信可能に接続される。
次に、第1実施形態に係る画像処理装置について説明する。
本実施形態に係る画像処理装置方法は、内視鏡10の動きに合わせて仮想内視鏡画像をモニタ装置16に表示させる。すなわち、画像処理装置14は、内視鏡画像38と仮想内視鏡画像との対応付けを行い、内視鏡画像38と対応付けがされた仮想内視鏡画像をモニタ装置16に表示させる。以下に、画像処理装置について詳細に説明する。
図2は画像処理装置のハードウェアの構成例を示すブロック図である。画像処理装置14は、制御部1、メモリ2、ハードディスク装置3、通信インターフェース4、入力コントローラ5、及びディスプレイコントローラ6を備える。
制御部1は、画像処理装置14の全体制御部、各種演算部、及び記憶制御部として機能する。制御部1は、メモリ2に具備されるROM(read only memory)に記憶されているプログラムを実行する。制御部1は、通信インターフェース4を介して、外部の記憶装置からプログラムをダウンロードし、ダウンロードしたプログラムを実行してもよい。外部の記憶装置は、ネットワーク17を介して画像処理装置14と通信可能に接続されていてもよい。
(Programmable Logic Device)等が挙げられる。FPGA、及びPLDは、製造後に回路構成の変更を可能とする。
が挙げられる。ASICは、特定の処理を実行させるために専用に設計された回路構成を備える。
メモリ2は、図示しないROM、及び図示しないRAMを備える。ROMは、画像処理装置14において実行される各種プログラムを記憶する。ROMは、各種プログラムの実行に用いられるパラメータ、及びファイル等を記憶する。RAMは、データの一時記憶領域、及び制御部1のワーク領域等として機能する。
ハードディスク装置3は、各種データを非一時的に記憶する。具体的には、ハードディスク装置3は、内視鏡10の観察画像、及び図1に示した記憶装置18等の外部の記憶装置から取得した医用画像等を記憶する。ハードディスク装置3は、画像処理装置14の外部に外付けされてもよい。ハードディスク装置3に代わり、又はこれと併用して、大容量の半導体メモリ装置を適用してもよい。
通信インターフェース4は、図1に示した記憶装置18の外部の装置との間のデータ通信を行う。図2に示したIFは、interfaceの省略語である。
入力コントローラ5は、キーボード、及びマウス等の入力装置15から送信される信号を受信し、画像処理装置14に適用される形式の信号に変換するインターフェースである。
ディスプレイコントローラ6は、画像処理装置14において生成された画像を表す信号を、モニタ装置16を用いて表示させる映像信号に変換するインターフェースである。ディスプレイコントローラ6は、画像を表す映像信号をモニタ装置16へ送信する。
図3は第1実施形態に係る画像処理装置の機能を示す機能ブロック図である。図3に示した画像処理装置14は、全体制御部40、画像取得部41、情報取得部42、画像解析処理部43、表示制御部44、及び記憶部47を備える。
全体制御部40は、画像処理装置14の制御プログラムの実行に基づき、画像取得部41、情報取得部42、画像解析処理部43、及び表示制御部44を統括的に制御する。
画像取得部41は、3次元画像取得部41a、及び内視鏡画像取得部41bを備える。以下、3次元画像取得部41a、及び内視鏡画像取得部41bについて詳細に説明する。
3次元画像取得部41aは、CT装置等のモダリティを用いて生成された3次元画像19であり、例えば、図1に示した記憶装置18等に記憶されている3次元画像19を取得する。本実施形態では、3次元画像19として、内視鏡検査の対象者の大腸のCT画像を取得する例について説明する。3次元画像取得部41aは、被検体の3次元画像を入力する3次元画像入力部の一例に相当する。
内視鏡画像取得部41bは、図1に示したプロセッサ装置12を用いて生成された内視鏡画像38を取得する。内視鏡画像取得部41bは、外部の記憶装置に記憶されている内視鏡装置を用いて撮像された内視鏡画像を取得してもよい。内視鏡画像取得部41bは、メモリーカード等の各種情報記憶媒体を介して、上記した内視鏡画像38を取得してもよい。
情報取得部42は、画像処理装置14の処理、及び演算等に用いられる各種情報を取得する。各種情報の例として、内視鏡10の視野方向の情報が挙げられる。内視鏡10の視野方向の情報の例として、内視鏡10に視野方向を検出するセンサの出力信号が挙げられる。情報取得部は内視鏡の視野情報を取得する視野情報取得部の一例に相当する。
画像解析処理部43は、深層学習アルゴリズム45に基づく深層学習を用いて、内視鏡画像取得部41bを用いて取得した内視鏡画像38の解析処理を実行する。内視鏡画像38の解析処理の詳細は後述する。
表示制御部44は、再生制御部44a、及び情報表示制御部44bを備える。以下、再生制御部44a、及び情報表示制御部44bについて詳細に説明する。
再生制御部44aは、モニタ装置16を用いて内視鏡画像38、及び仮想内視鏡画像を再生する際に、画像表示を制御するディスプレイドライバーとして機能する。表示制御部44は、モニタ装置16を用いて、動画像38aの再生中に、動画像38aの任意のフレーム画像38bに対応付けされた仮想内視鏡画像を表示させることが可能である。
情報表示制御部44bは、モニタ装置16を用いて各種情報を表示させる。例えば、情報表示制御部44bは、モニタ装置16を用いて表示させる内視鏡画像38、及び仮想内視鏡画像に文字情報等を重畳表示させることが可能である。文字情報以外の各種情報の例として、記号表示、及び強調表示等が挙げられる。文字情報の適用例として、警告表示が挙げられる。
記憶部47は、画像記憶部48、及びプログラム記憶部49を備える。以下、画像記憶部48、及びプログラム記憶部49について詳細に説明する。
画像記憶部48は、3次元画像取得部41aを用いて取得した3次元画像19を記憶する。画像記憶部48に記憶された3次元画像19は、全体制御部40の制御の下、画像解析処理部43へ読み出される。
プログラム記憶部49は、画像処理装置14を動作させる各種プログラムを記憶する。プログラム記憶部49に記憶された各種プログラムは、全体制御部40の制御の下、各部へ読み出される。
図4は図3に示した画像解析処理部の機能を示す機能ブロック図である。画像解析処理部43は、第1特徴点抽出部51、第2特徴点抽出部52、視点情報取得部53、及び第1仮想内視鏡画像生成部54を備える。以下、上記した各部について詳細に説明する。
第1特徴点抽出部51は、3次元画像19から特徴点を抽出する。特徴点の例として、ポリープ等の病変が挙げられる。被検体が大腸の場合、特徴点の例として、ひだ、各結腸間の変化点、血管が挙げられる。ここでいう血管は、血管の走行パターンが含まれる。
第2特徴点抽出部52は、内視鏡画像38から特徴点を抽出する。内視鏡画像38から抽出される特徴点は3次元画像19と同様であり、ここでの説明は省略する。第2特徴点抽出部52は、内視鏡画像38から抽出された特徴点の情報を視点情報取得部53へ送信する。
視点情報取得部53は、3次元画像19の特徴点、及び内視鏡画像38の特徴点に基づいて、内視鏡画像38と対応付けされる仮想内視鏡画像39を生成する際の視点情報を取得する。視点情報取得部53は、取得した視点情報を第1仮想内視鏡画像生成部54へ送信する。ここでいう視点情報の取得は、視点情報の生成が含まれる。
第1仮想内視鏡画像生成部54は、視点情報取得部53を用いて取得した視点情報に基づいて、仮想内視鏡画像39を生成する。仮想内視鏡画像39は、大腸等の体腔の内壁を表す2次元画像である。換言すると、仮想内視鏡画像39は、規定の視点における規定の視点方向について、仮想的な撮像装置を用いて撮像して得られた2次元画像である。仮想内視鏡画像39は第1仮想内視鏡画像の一例に相当する。
次に、第1実施形態に係る画像解析処理の具体例について説明する。以下に、大腸を被検体とする内視鏡検査を行い、CT装置を用いて予め取得されている大腸のCT画像から仮想内視鏡画像を生成し、内視鏡画像と仮想内視鏡画像との対応付けを行う例について説明する。
図5は大腸の3次元モデルを示す3次元画像の説明図である。図5に示した3次元モデル19aは、例えば、複数のCT画像から生成されたボリュームデータに対応している。図5に示したパス19bは、内視鏡検査における内視鏡10の移動経路に対応する3次元モデル19a上の仮想的な撮像装置の移動経路である。
図8は内視鏡画像の特徴点抽出の一例を示す模式図である。図8には、特徴点80としてポリープが抽出されたフレーム画像38bを図示する。図示は省略するが、図8に示したフレーム画像38bの前後のフレーム画像38bにも、特徴点80としてポリープが抽出される。一方、図8に示したフレーム画像38bと、フレーム画像38bの前後のフレーム画像38bとの内視鏡10の位置は相違する。また、それぞれの撮像方向が異なる場合もあり得る。
内視鏡画像38を撮像した内視鏡10の正確な位置、及び内視鏡10の正確な撮像方向が把握できれば、内視鏡画像38と対応付けされる仮想内視鏡画像39の視点位置、及び視点方向を特定することが可能である。しかし、内視鏡10の正確な位置、及び内視鏡10の正確な姿勢を把握することは困難である。
図12は視点情報取得の一例の説明図である。内視鏡画像38から1つ以上の特徴点を有するフレーム画像38bを特定する。図12に示したフレーム画像38bは4つの特徴点である第1特徴点100a、第2特徴点100b、第3特徴点100c、及び第4特徴点100dを有している。
図13は対応付け後の仮想内視鏡画像の表示例を示す模式図である。図13には、図1に示したモニタ装置16を用いて、内視鏡画像38及び内視鏡画像38と対応付けされた仮想内視鏡画像39を同一の画面に表示させる例を示す。
〔画像処理方法の全体の手順〕
図14は第1実施形態に係る画像処理方法の手順の流れを示すフローチャートである。3次元画像取得工程S10では、図3に示した画像解析処理部43は、3次元画像取得部41aを用いて3次元画像を取得する。
図15は図14に示した視点情報取得工程の手順の流れを示すフローチャートである。第1特徴点抽出工程S40では、図4に示した第1特徴点抽出部51は3次元画像19から特徴点を抽出する。第1特徴点抽出工程S40は、予め3次元画像19に含まれる特徴点を抽出しておき、抽出した特徴点を記憶しておく態様も可能である。
〔ひだの数を用いる具体例〕
図16は内視鏡画像と仮想内視鏡画像との対応付けのバリエーションを示す模式図である。図16に示す例は、ひだの数を用いて内視鏡画像と仮想内視鏡画像とを対応付ける例である。本例は大腸を被検体とする場合に、特に有効である。
仮想内視鏡画像39と対応付けがされた内視鏡画像38の内視鏡10の位置、及び内視鏡10の撮像方向を起点とし、内視鏡10の移動ベクトルに基づいて、次の内視鏡画像38の位置、及び内視鏡10の撮像方向に対応する視点位置、及び視点方向を導出してもよい。内視鏡10の撮像方向は、内視鏡の視野方向の一例に相当する。
内視鏡画像38と仮想内視鏡画像39との対応付けがされた後に新たな対応付けを行う場合、前回の対応付けが行われた内視鏡10の位置から一定範囲内において、新たな対応付けを行う。一定範囲は、内視鏡10の移動距離、及び移動期間の少なくともいずれか一方に基づき規定し得る。例えば、内視鏡10が規定の移動を行った場合に新たな対応付けを実行し得る。
図17は対応付けの更新の説明図である。図17に符号16a、及び符号16bを付して図示したように、内視鏡画像38の観察の進行に従い、内視鏡画像38と対応付けされた仮想内視鏡画像39が更新される。
動画像38aとして表示される内視鏡画像38に対して、内視鏡画像38と対応付けされた仮想内視鏡画像39を順に表示させることが可能である。内視鏡画像38のフレーム画像38bごとに仮想内視鏡画像39が生成される場合、内視鏡画像38と仮想内視鏡画像39とを同期表示させることが可能である。
図18は大腸ナビゲーションの説明図である。大腸ナビゲーションは、例えば、大腸の3次元モデル19aに、内視鏡10の位置、及び内視鏡10の先端面27aが向く方向を表示させ、内視鏡検査の支援情報として使用される。
内視鏡画像38は、図3に示した画像記憶部48に記憶することが可能である。画像記憶部48は、内視鏡画像38を記憶する際に付加情報として視点情報等を付加してもよい。
上記の如く構成された画像処理装置、及び方法によれば、以下の作用効果を奏する。
内視鏡画像38の特徴点と一致する特徴点を有する仮想内視鏡画像39が得られる3次元画像19における視点19eの位置の情報、及び視点19eにおける向きの情報を含む視点情報を取得する。これにより、内視鏡画像38と仮想内視鏡画像39とを正確に対応付けることが可能である。
視点情報に基づいて3次元画像19から仮想内視鏡画像39が生成される。これにより、内視鏡画像38と一致する特徴点を有する仮想内視鏡画像39を生成し得る。
内視鏡10の移動ベクトルから内視鏡10の撮像方向の情報を取得する。また、大腸ナビゲーションから内視鏡10の先端面27aの向く方向を取得する。これにより、内視鏡10の撮像方向、及び内視鏡10の先端面27aの向く方向の少なくともいずれかの取得が可能である。
新たに視点情報を取得した場合に視点情報を更新する。これにより、最新の視点情報を用いた仮想内視鏡画像39を内視鏡画像38に対応付けることが可能となる。
内視鏡画像38と仮想内視鏡画像39とを紐付けして記憶する。これにより、内視鏡画像38、及び仮想内視鏡画像39の少なくともいずれかを利用する際に、両者の連携を維持することが可能である。
〔全体構成〕
図19は第2実施形態に係る画像処理装置における画像解析処理部の機能を示す機能ブロック図である。図19に示した画像解析処理部43aは、図4に示した画像解析処理部43に対して、第2仮想内視鏡画像生成部55、及び内視鏡視野情報取得部56が追加されている。
第2仮想内視鏡画像生成部55は、3次元画像19から擬似的な仮想内視鏡画像である第2仮想内視鏡画像39fを生成する。第2仮想内視鏡画像生成部55は、内視鏡視野情報取得部56を用いて取得した内視鏡10の視野情報10aを用いて、第2仮想内視鏡画像39fを生成する。
内視鏡視野情報取得部56は、内視鏡画像38から内視鏡10の視野情報10aを取得する。内視鏡10の視野情報10aは、内視鏡10の撮像方向の情報が含まれる。内視鏡視野情報取得部56は、内視鏡画像38の2つ以上のフレーム画像38bから、内視鏡10の移動ベクトルを導出し得る。
上記の如く構成された画像処理装置、及び方法によれば、以下の作用効果を奏する。
3次元画像19から第2仮想内視鏡画像39fを生成する。これにより、第2仮想内視鏡画像39fの特徴点、及び内視鏡画像38の特徴点に基づく視点情報の取得が可能である。
内視鏡10の視野情報10aを用いて第2仮想内視鏡画像39fを生成する。これにより、実際の内視鏡10の撮像方向、及び実際の内視鏡10の位置の少なくともいずれかが反映された第2仮想内視鏡画像39fを生成し得る。
〔全体構成〕
図21は第3実施形態に係る画像処理装置における画像解析処理部の機能を示す機能ブロック図である。図21に示した画像解析処理部43bは、図4に示した画像解析処理部43に対して、内視鏡画像修正部57が追加されている。
内視鏡画像38は、各画素についてRGB各色成分の256階調の画素値を有するカラー画像である。ここで、RGBのRは赤を表す。RGBのGは緑を表す。RGBのBは青を表す。
上記の如く構成された画像処理装置、及び方法によれば、以下の作用効果を奏する。
内視鏡画像38から色情報、及びテクスチャ情報の少なくともいずれか一方を除去する。これにより、内視鏡画像38の凹凸情報が抽出される。
内視鏡画像38からB信号を除去する。これにより、内視鏡画像38から色情報、及びテクスチャ情報の少なくともいずれか一方を除去し得る。
内視鏡画像38からR信号を抽出する。これにより、内視鏡画像38から凹凸情報を抽出し得る。
〔全体構成〕
図22は第4実施形態に係る画像処理装置における画像解析処理部の機能を示す機能ブロック図である。図22に示した画像解析処理部43cは、図4に示した画像解析処理部43に対して、警告信号生成部59が追加されている。また、図1に示した内視鏡システム9に対して警告装置60が追加されている。
警告信号生成部59は、内視鏡画像38と仮想内視鏡画像39との対応付けがされていない場合に警告情報を表す警告信号を生成する。換言すると、警告信号生成部59は、内視鏡画像38の特徴点80と一致する特徴点70を有する仮想内視鏡画像39が発見されない場合に、その旨を表す警告信号を生成する。
警告装置60は、警告信号に対応する警告情報を出力する。警告情報の報知の例として、警告を表す文字情報の表示、警告音、及び警告ライトの点灯等が挙げられる。警告を表す文字情報は、図3に示したモニタ装置16を用いてもよい。図1に示した内視鏡システム9は、警告の態様に応じたスピーカ、及びライト等の警告装置60を備える。警告装置60は、上記の報知態様を適宜組み合わせてもよい。
上記の如く構成された画像処理装置、及び方法によれば、以下の作用効果を奏する。
内視鏡画像38の特徴点と一致する特徴点を有する仮想内視鏡画像39が発見されない場合にその旨を報知する。これにより、内視鏡画像38の特徴点と一致する特徴点を有する仮想内視鏡画像39が発見されないことを、術者が把握し得る。
警告装置60は、警告を表す文字情報の表示、警告音、及び警告ライトの点灯の少なくともいずれか1つを報知に適用し得る。これにより、術者は、視覚、及び聴覚の少なくともいずれかを用いて報知を把握し得る。
上述した画像処理方法は、コンピュータを用いて、画像処理方法における各工程に対応する機能を実現させるプログラムとして構成可能である。例えば、コンピュータを、内視鏡画像取得機能、画像解析処理機能、入力制御機能、表示制御機能、及び記憶機能を実現させるプログラムを構成し得る。
〔特徴点抽出の変形例〕
内視鏡画像38の特徴点抽出は、内視鏡画像38の注目領域の検出に相当する。図4に示した第1特徴点抽出部51は、内視鏡画像38の画素の特徴量に基づいて注目すべき領域である注目領域を検出し、検出結果を取得してもよい。
〈第1例〉
内視鏡画像38は、白色帯域の光、又は白色帯域の光として波長帯域が異なる複数の光を照射して取得した通常光画像を適用し得る。
内視鏡画像38は、特定の波長帯域の光を照射して取得した特殊光画像を適用し得る。特定の波長帯域は、白色光の波長帯域よりも狭い波長帯域を適用し得る。
〈第1例〉
特定の波長帯域の第1例は、可視域の青色帯域又は緑色帯域である。第1例の波長帯域は、390ナノメートル以上450ナノメートル以下、又は530ナノメートル以上550ナノメートル以下の波長帯域を含み、且つ第1例の光は、390ナノメートル以上450ナノメートル以下、又は530ナノメートル以上550ナノメートル以下の波長帯域内にピーク波長を有する。
特定の波長帯域の第2例は、可視域の赤色帯域である。第2例の波長帯域は、585ナノメートル以上615ナノメートル以下、又は610ナノメートル以上730ナノメートル以下の波長帯域を含み、且つ第2例の光は、585ナノメートル以上615ナノメートル以下、又は610ナノメートル以上730ナノメートル以下の波長帯域内にピーク波長を有する。
特定の波長帯域の第3例は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、且つ第3例の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する。この第3例の波長帯域は、400±10ナノメートル、440±10ナノメートル、470±10ナノメートル、又は600ナノメートル以上750ナノメートル以下の波長帯域を含み、且つ第3例の光は、400±10ナノメートル、440±10ナノメートル、470±10ナノメートル、又は600ナノメートル以上750ナノメートル以下の波長帯域にピーク波長を有する。
特定の波長帯域の第4例は、生体内の蛍光物質が発する蛍光の観察に用いられ、且つこの蛍光物質を励起させる励起光の波長帯域である。例えば、390ナノメートル以上470ナノメートル以下の波長帯域である。なお、蛍光の観察は蛍光観察と呼ばれる場合がある。
特定の波長帯域の第5例は、赤外光の波長帯域である。この第5例の波長帯域は、790ナノメートル以上820ナノメートル以下、又は905ナノメートル以上970ナノメートル以下の波長帯域を含み、且つ第5例の光は、790ナノメートル以上820ナノメートル以下、又は905ナノメートル以上970ナノメートル以下の波長帯域にピーク波長を有する。
プロセッサ装置12は、白色光、又は白色光として異なる波長帯域を有する複数の光を用いて撮像して得られた通常光画像に基づいて、特定の波長帯域の情報を有する特殊光画像を生成してもよい。なお、ここでいう生成は取得が含まれる。この場合、プロセッサ装置12は、特殊光画像取得部として機能する。そして、プロセッサ装置12は、特定の波長帯域の信号を、通常光画像に含まれる赤、緑、及び青、或いはシアン、マゼンタ、及びイエローの色情報に基づく演算を行うことで得る。
プロセッサ装置12は、通常光画像、及び特殊光画像の少なくともいずれか一方に基づいて、公知の酸素飽和度画像等の特徴量画像を生成してもよい。
本実施形態に示した画像処理装置14を備えた診断支援装置、及び医療行業務支援装置を構成し得る。
本実施形態に示した画像処理装置14を備えるプロセッサ装置12を構成し得る。すなわち、内視鏡10の動作を制御する内視鏡制御部、内視鏡10を用いた撮像を制御する撮像制御部、光源装置11を制御する光源制御部、及び画像処理装置14を備えたプロセッサ装置を構成し得る。画像処理装置14は画像処理部の一例に相当する。
上述した画像処理方法は、コンピュータを用いて、画像処理方法における各工程に対応する機能を実現させるプログラムとして構成可能である。例えば、3次元画像入力機能、実内視鏡画像入力機能、特徴点抽出機能、及び視点情報取得機能を実現させるプログラムを構成し得る。
上述した実施形態で説明した構成要素、及び変形例で説明した構成要素は、適宜組み合わせて用いることができ、また、一部の構成要素を置き換えることもできる。
2 メモリ
3 ハードディスク装置
4 通信インターフェース
5 入力コントローラ
6 ディスプレイコントローラ
9 内視鏡システム
10 内視鏡
10a 視野情報
11 光源装置
12 プロセッサ装置
13 表示装置
14 画像処理装置
15 操作装置
16 モニタ装置
16a、16b、16c 状態
17 ネットワーク
18 画像記憶装置
19 3次元画像
19a 3次元モデル
19b パス
19c 始点
19d 終点
19e 視点
19f 擬似的な仮想内視鏡画像
19h 四角錐
20 挿入部
21 操作部
22 ユニバーサルコード
25 軟性部
26 湾曲部
27 先端部
27a 先端面
28 撮像素子
29 湾曲操作ノブ
30 送気送水ボタン
31 吸引ボタン
32 静止画像撮影指示部
33 処置具導入口
35 ライトガイド
36 信号ケーブル
37a、37b コネクタ
38 内視鏡画像
38a 動画像
38b フレーム画像
38c 静止画像
39、39d、39e 仮想内視鏡画像
39a 画像群
39b 視点画像
39c 静止画像相当画像
39f 第2仮想内視鏡画像
40 全体制御部
41 画像取得部
41a 3次元画像取得部
41b 内視鏡画像取得部
42 情報取得部
43、43a、43b、43c 画像解析処理部
44 表示制御部
44a 再生制御部
44b 情報表示制御部
45 深層学習アルゴリズム
47 記憶部
48 画像記憶部
49 プログラム記憶部
51 第1特徴点抽出部
52 第2特徴点抽出部
53 視点情報取得部
54 第1仮想内視鏡画像生成部
55 第2仮想内視鏡画像生成部
56 内視鏡視野情報取得部
57 内視鏡画像修正部
59 警告信号生成部
60 警告装置
68 通信信号線
70、70a、70b、70c、80、80a、100、110 特徴点
100a、110a 第1特徴点
100b、110b 第2特徴点
100c、110c 第3特徴点
100d、110d 第4特徴点
D 視点方向
P 視点位置
S10からS50 画像処理方法の各工程
Claims (23)
- 被検体の3次元画像を入力する3次元画像入力部と、
内視鏡を用いて前記被検体の観察対象を撮像して得られた実内視鏡画像を入力する実内視鏡画像入力部と、
前記3次元画像、及び前記実内視鏡画像のそれぞれから特徴点を抽出する特徴点抽出部と、
前記3次元画像、及び前記実内視鏡画像のそれぞれの特徴点に基づいて、前記実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び前記視点の方向の情報を含む視点情報を取得する視点情報取得部と、
を備えた画像処理装置。 - 前記視点情報取得部を用いて取得した前記視点情報に基づいて、前記3次元画像から第1仮想内視鏡画像を生成する第1仮想内視鏡画像生成部を備えた請求項1に記載の画像処理装置。
- 前記3次元画像から第2仮想内視鏡画像を生成する第2仮想内視鏡画像生成部を備え、
前記特徴点抽出部は、前記3次元画像の特徴点として前記第2仮想内視鏡画像の特徴点を抽出する請求項1又は2に記載の画像処理装置。 - 前記内視鏡の視野方向の情報を取得する視野方向情報取得部を備え、
前記第2仮想内視鏡画像生成部は、前記視野方向情報取得部を用いて取得した前記内視鏡の視野方向の情報を用いて、前記第2仮想内視鏡画像を生成する請求項3に記載の画像処理装置。 - 前記視野方向情報取得部は、前記内視鏡の移動支援情報から前記視野方向の情報を取得する請求項4に記載の画像処理装置。
- 前記視野方向情報取得部は、前記実内視鏡画像の変化から導出される移動ベクトルを用いて前記視野方向の情報を取得する請求項4に記載の画像処理装置。
- 前記内視鏡の位置の情報を取得する位置情報取得部を備え、
前記第2仮想内視鏡画像生成部は、前記位置情報取得部を用いて取得した前記内視鏡の位置の情報を用いて、前記第2仮想内視鏡画像を生成する請求項3から6のいずれか一項に記載の画像処理装置。 - 前記実内視鏡画像から色情報、及びテクスチャ情報の少なくともいずれかを除去した画像、又は前記実内視鏡画像から凹凸情報を抽出した画像を生成する実内視鏡画像修正部を備え、
前記特徴点抽出部は、前記実内視鏡画像修正部を用いて生成された画像から特徴点を抽出する請求項1から7のいずれか一項に記載の画像処理装置。 - 前記視点情報取得部は、前記内視鏡の位置が異なる2つの実内視鏡画像について、一方の実内視鏡画像と他方の実内視鏡画像との変化から導出される移動ベクトルを用いて、前記一方の実内視鏡画像に対応する前記3次元画像の視点の位置を起点とする移動量を導出して、前記他方の実内視鏡画像に対応する前記3次元画像の視点の位置を特定する請求項1から8のいずれか一項に記載の画像処理装置。
- 前記視点情報取得部は、前記実内視鏡画像の毎フレームに、前記実内視鏡画像の2以上の規定フレーム数ごとに、又は前記内視鏡が規定の移動を行った場合に、前記実内視鏡画像に対応する前記3次元画像の前記視点情報を取得する請求項1から9のいずれか一項に記載の画像処理装置。
- 前記視点情報取得部は、既に前記視点情報を取得した前記実内視鏡画像について、新たに視点情報を取得した場合、前記実内視鏡画像に対応する前記3次元画像の視点情報を更新する請求項1から10のいずれか一項に記載の画像処理装置。
- 前記実内視鏡画像と対応する前記視点情報を非取得の場合に警告する警告部を備えた請求項1から11のいずれか一項に記載の画像処理装置。
- 前記3次元画像入力部は、大腸の3次元画像を入力し、
前記特徴点抽出部は、盲腸入口、上行結腸と横行結腸との間の湾曲部、横行結腸と下行結腸との間の湾曲部、下行結腸とS字結腸との間の湾曲部、ひだ、ポリープ、及び血管の少なくともいずれか1つを前記特徴点として抽出する請求項1から12のいずれか一項に記載の画像処理装置。 - 前記視点情報取得部は、大腸のひだの数に基づいて前記実内視鏡画像に対応する前記3次元画像の前記視点情報を取得する請求項13に記載の画像処理装置。
- 前記特徴点抽出部は、前記3次元画像から予め抽出された特徴点の情報を取得する請求項1から14のいずれか一項に記載の画像処理装置。
- 内視鏡の動作を制御する内視鏡制御部と、
前記内視鏡を用いた撮像を制御する撮像制御部と、
前記内視鏡を用いて撮像して得られた内視鏡画像を処理する画像処理部と、
を備えたプロセッサ装置であって、
前記画像処理部は、
被検体の3次元画像を入力する3次元画像入力部と、
前記内視鏡を用いて前記被検体の観察対象を撮像して得られた実内視鏡画像を入力する実内視鏡画像入力部と、
前記3次元画像、及び前記実内視鏡画像のそれぞれから特徴点を抽出する特徴点抽出部と、
前記3次元画像、及び前記実内視鏡画像のそれぞれの特徴点に基づいて、前記実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び前記視点の方向の情報を含む視点情報を取得する視点情報取得部と、
を備えたプロセッサ装置。 - 内視鏡を備えた内視鏡装置と、
画像処理装置と、
を備えた内視鏡システムであって、
前記画像処理装置は、
被検体の3次元画像を入力する3次元画像入力部と、
前記内視鏡を用いて前記被検体の観察対象を撮像して得られた実内視鏡画像を入力する実内視鏡画像入力部と、
前記3次元画像、及び前記実内視鏡画像のそれぞれから特徴点を抽出する特徴点抽出部と、
前記3次元画像、及び前記実内視鏡画像のそれぞれの特徴点に基づいて、前記実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び前記視点の方向の情報を含む視点情報を取得する視点情報取得部と、
を備えた内視鏡システム。 - 前記3次元画像から生成される仮想内視鏡画像を表示する表示部と、
前記視点情報取得部を用いて取得した前記視点情報に基づいて、前記3次元画像から第1仮想内視鏡画像を生成する第1仮想内視鏡画像生成部と、
を備え、
前記表示部は、新たな前記第1仮想内視鏡画像を表示する際に、先に表示した第1仮想内視鏡画像から前記新たな第1仮想内視鏡画像へ直接切り替えるか、早送りするか、又はモーフィングを用いるかのいずれかを選択する請求項17に記載の内視鏡システム。 - 前記表示部は、前記実内視鏡画像と、前記実内視鏡画像に対応する前記第1仮想内視鏡画像とを同期して表示させる請求項18に記載の内視鏡システム。
- 前記実内視鏡画像を記憶する内視鏡画像記憶部を備え、
前記内視鏡画像記憶部は、前記視点情報を付加した前記実内視鏡画像を記憶する請求項18又は19に記載の内視鏡システム。 - 前記内視鏡画像記憶部は、前記実内視鏡画像に対応する前記第1仮想内視鏡画像を記憶する請求項20に記載の内視鏡システム。
- 被検体の3次元画像を入力する3次元画像入力工程と、
内視鏡を用いて前記被検体の観察対象を撮像して得られた実内視鏡画像を入力する実内視鏡画像入力工程と、
前記3次元画像、及び前記実内視鏡画像のそれぞれから特徴点を抽出する特徴点抽出工程と、
前記3次元画像、及び前記実内視鏡画像のそれぞれの特徴点に基づいて、前記実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び前記視点の方向の情報を含む視点情報を取得する視点情報取得工程と、
を含む画像処理方法。 - コンピュータに、
被検体の3次元画像を入力する3次元画像入力機能、
内視鏡を用いて前記被検体の観察対象を撮像して得られた実内視鏡画像を入力する実内視鏡画像入力機能、
前記3次元画像、及び前記実内視鏡画像のそれぞれから特徴点を抽出する特徴点抽出機能、及び
前記3次元画像、及び前記実内視鏡画像のそれぞれの特徴点に基づいて、前記実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び前記視点の方向の情報を含む視点情報を取得する視点情報取得機能を実現させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017248254 | 2017-12-25 | ||
JP2017248254 | 2017-12-25 | ||
PCT/JP2018/042018 WO2019130868A1 (ja) | 2017-12-25 | 2018-11-13 | 画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019130868A1 true JPWO2019130868A1 (ja) | 2020-12-10 |
JP7050817B2 JP7050817B2 (ja) | 2022-04-08 |
Family
ID=67067016
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019562831A Active JP7050817B2 (ja) | 2017-12-25 | 2018-11-13 | 画像処理装置、プロセッサ装置、内視鏡システム、画像処理装置の動作方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7050817B2 (ja) |
WO (1) | WO2019130868A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220198742A1 (en) * | 2019-09-20 | 2022-06-23 | Hoya Corporation | Processor for endoscope, program, information processing method, and information processing device |
JP7346602B2 (ja) * | 2020-01-21 | 2023-09-19 | オリンパス株式会社 | 内視鏡システム、内視鏡プロセッサ、内視鏡プロセッサの作動方法及び内視鏡プロセッサの作動プログラム |
JP2021141969A (ja) * | 2020-03-10 | 2021-09-24 | 独立行政法人国立病院機構 | 内視鏡装置 |
JP7377769B2 (ja) * | 2020-06-08 | 2023-11-10 | Hoya株式会社 | プログラム、情報処理方法及び情報処理装置 |
CN117255642A (zh) | 2021-07-14 | 2023-12-19 | 奥林巴斯医疗株式会社 | 图像处理装置、内窥镜装置以及图像处理方法 |
JP2024031468A (ja) * | 2022-08-26 | 2024-03-07 | 富士フイルム株式会社 | 画像処理装置及びその作動方法並びに内視鏡システム |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003265408A (ja) * | 2002-03-19 | 2003-09-24 | Mitsubishi Electric Corp | 内視鏡誘導装置および方法 |
WO2007129493A1 (ja) * | 2006-05-02 | 2007-11-15 | National University Corporation Nagoya University | 医療画像観察支援装置 |
WO2011122037A1 (ja) * | 2010-03-31 | 2011-10-06 | 富士フイルム株式会社 | 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム |
JP2012110549A (ja) * | 2010-11-26 | 2012-06-14 | Fujifilm Corp | 医用画像処理装置および方法、並びにプログラム |
WO2012086536A1 (ja) * | 2010-12-24 | 2012-06-28 | オリンパス株式会社 | 内視鏡装置及びプログラム |
WO2014115371A1 (ja) * | 2013-01-28 | 2014-07-31 | オリンパス株式会社 | 画像処理装置、内視鏡装置、画像処理方法及び画像処理プログラム |
JP2014230612A (ja) * | 2013-05-28 | 2014-12-11 | 国立大学法人名古屋大学 | 内視鏡観察支援装置 |
-
2018
- 2018-11-13 JP JP2019562831A patent/JP7050817B2/ja active Active
- 2018-11-13 WO PCT/JP2018/042018 patent/WO2019130868A1/ja active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003265408A (ja) * | 2002-03-19 | 2003-09-24 | Mitsubishi Electric Corp | 内視鏡誘導装置および方法 |
WO2007129493A1 (ja) * | 2006-05-02 | 2007-11-15 | National University Corporation Nagoya University | 医療画像観察支援装置 |
WO2011122037A1 (ja) * | 2010-03-31 | 2011-10-06 | 富士フイルム株式会社 | 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム |
JP2012110549A (ja) * | 2010-11-26 | 2012-06-14 | Fujifilm Corp | 医用画像処理装置および方法、並びにプログラム |
WO2012086536A1 (ja) * | 2010-12-24 | 2012-06-28 | オリンパス株式会社 | 内視鏡装置及びプログラム |
WO2014115371A1 (ja) * | 2013-01-28 | 2014-07-31 | オリンパス株式会社 | 画像処理装置、内視鏡装置、画像処理方法及び画像処理プログラム |
JP2014230612A (ja) * | 2013-05-28 | 2014-12-11 | 国立大学法人名古屋大学 | 内視鏡観察支援装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2019130868A1 (ja) | 2019-07-04 |
JP7050817B2 (ja) | 2022-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7050817B2 (ja) | 画像処理装置、プロセッサ装置、内視鏡システム、画像処理装置の動作方法及びプログラム | |
JP6371729B2 (ja) | 内視鏡検査支援装置、内視鏡検査支援装置の作動方法および内視鏡支援プログラム | |
CN102247114B (zh) | 图像处理装置及图像处理方法 | |
JP7166430B2 (ja) | 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法及びプログラム | |
WO2016143312A1 (ja) | 分岐構造判定装置、方法およびプログラム | |
JP5771757B2 (ja) | 内視鏡システム及び内視鏡システムの作動方法 | |
JP6254053B2 (ja) | 内視鏡画像診断支援装置、システムおよびプログラム、並びに内視鏡画像診断支援装置の作動方法 | |
CN108135453B (zh) | 内窥镜系统和图像处理方法 | |
JP7143504B2 (ja) | 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法及びプログラム | |
JPWO2014136579A1 (ja) | 内視鏡システム及び内視鏡システムの作動方法 | |
JP7387859B2 (ja) | 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法及びプログラム | |
JP6949999B2 (ja) | 画像処理装置、内視鏡システム、画像処理方法、プログラム及び記録媒体 | |
JP6132901B2 (ja) | 内視鏡装置 | |
JP7125479B2 (ja) | 医療画像処理装置、医療画像処理装置の作動方法及び内視鏡システム | |
JP7245360B2 (ja) | 学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサ | |
JP6840263B2 (ja) | 内視鏡システム及びプログラム | |
JP7148534B2 (ja) | 画像処理装置、プログラム、及び内視鏡システム | |
JP7122328B2 (ja) | 画像処理装置、プロセッサ装置、画像処理方法、及びプログラム | |
JP7289241B2 (ja) | ファイリング装置、ファイリング方法及びプログラム | |
JP2011024913A (ja) | 医用画像処理装置、医用画像処理プログラム、及びx線ct装置 | |
JP7146318B1 (ja) | コンピュータプログラム、学習モデルの生成方法、及び手術支援装置 | |
WO2021044910A1 (ja) | 医療画像処理装置、内視鏡システム、医療画像処理方法及びプログラム | |
WO2020184257A1 (ja) | 医用画像処理装置及び方法 | |
JP6199267B2 (ja) | 内視鏡画像表示装置、その作動方法およびプログラム | |
US20230206445A1 (en) | Learning apparatus, learning method, program, trained model, and endoscope system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200609 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200609 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210414 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210928 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220328 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220329 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7050817 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |