JPWO2020129979A1 - 画像処理装置、方法及びプログラム - Google Patents

画像処理装置、方法及びプログラム Download PDF

Info

Publication number
JPWO2020129979A1
JPWO2020129979A1 JP2020561458A JP2020561458A JPWO2020129979A1 JP WO2020129979 A1 JPWO2020129979 A1 JP WO2020129979A1 JP 2020561458 A JP2020561458 A JP 2020561458A JP 2020561458 A JP2020561458 A JP 2020561458A JP WO2020129979 A1 JPWO2020129979 A1 JP WO2020129979A1
Authority
JP
Japan
Prior art keywords
image
area
segmentation
priority
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020561458A
Other languages
English (en)
Other versions
JP7204781B2 (ja
Inventor
悠 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2020129979A1 publication Critical patent/JPWO2020129979A1/ja
Application granted granted Critical
Publication of JP7204781B2 publication Critical patent/JP7204781B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Optics & Photonics (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

対象画像を複数の領域に分割したセグメンテーション画像を取得する画像取得部と、前記セグメンテーション画像において、ユーザが指定した位置の位置情報を受け付ける受付部と、前記受付部が受け付けた前記位置情報が示す前記セグメンテーション画像上の位置に対して、前記複数の領域から割り当てる領域の優先順位を画像情報に基づいて取得する優先順位取得部と、前記優先順位取得部により取得された前記優先順位に基づいて、前記割り当てる領域が選択可能に、前記割り当てる領域の候補を表示部に表示する制御を行なう表示制御部と、を含む画像処理装置、が提供される。

Description

本開示は、セグメンテーション画像において割り当てられた関心領域を修正する画像処理装置、方法及びプログラムに関するものである。
近年、CT(Computed Tomography)装置及びMRI(Magnetic Resonance Imaging)装置等の医療機器の進歩により、より質の高い高解像度の3次元画像を用いての画像診断が可能となってきている。CT装置により取得したCT画像及びMRI装置により取得したMR画像等の医用画像に対して、臓器及び病変等の関心領域を自動でセグメンテーションし、セグメンテーションされた医用画像を可視化することで、診断及び治療等の支援に役立てられている。
上記セグメンテーションは、例えば画像処理技術を用いた自動臓器セグメンテーションエンジンを利用することにより行われている。このように自動で関心領域を抽出する場合、過抽出領域及び未抽出領域が発生する可能性があり、必ずしもセグメンテーションが適切に行われるとは限らない。自動臓器セグメンテーションエンジンを使用したセグメンテーションに失敗した場合には、自動で割り当てられた関心領域を手動で修正する必要がある。しかしながら手動により修正を行う場合には、修正すべき領域として指定した領域をどの関心領域に割り当てるのか選択する必要があり、セグメンテーションにより割り当てられた関心領域の数が多いほど、ユーザによる選択の負担が大きくなる。
そこで、特開2005−73817号公報、特表2012−505008号公報及び特開2003−180678号公報には、セグメンテーションされた医用画像において、セグメンテーションされた関心領域を適正範囲に調整するためのパラメータを調整することにより、関心領域を修正する技術が開示されている。
特開2005−73817号公報 特表2012−505008号公報 特開2003−180678号公報
しかしながら、特開2005−73817号公報、特表2012−505008号公報及び特開2003−180678号公報に記載された技術においては、セグメンテーションの処理条件であるパラメータを調整しているため、例えば1つの関心領域のみ割り当てられた領域を修正したい場合に対応するのは困難である。
本開示は、ユーザの負担を軽減しつつ、ユーザの所望する領域の割り当てを修正できるようにする。
本開示による画像処理装置は、対象画像を複数の領域に分割したセグメンテーション画像を取得する画像取得部と、
セグメンテーション画像において、ユーザが指定した位置の位置情報を受け付ける受付部と、
受付部が受け付けた位置情報が示すセグメンテーション画像上の位置に対して、複数の領域から割り当てる領域の優先順位を画像情報に基づいて取得する優先順位取得部と、
優先順位取得部により取得された優先順位に基づいて、割り当てる領域が選択可能に、割り当てる領域の候補を表示部に表示する制御を行なう表示制御部と、
を含む。
なお、本開示の画像処理装置においては、優先順位取得部は、対象画像を複数の領域に分割する際のセグメンテーションアルゴリズムに基づいて取得された複数の領域の各領域のスコアに基づいて優先順位を取得することができる。
また、本開示の画像処理装置においては、各領域のスコアは、対象画像の各画素に対する存在確率であって、各画素が複数の領域の各領域に存在することを示す存在確率であってもよい。
また、本開示の画像処理装置においては、表示制御部は、入力部から入力される入力情報に基づいて、優先順位の高い順に前記割り当てる領域の候補を表示部に表示する制御を行なうことができる。
また、本開示の画像処理装置においては、表示制御部は、ユーザが指定した位置を、割り当てる領域の候補毎に予め設定された色で表示する制御を行なうことができる。
また、本開示の画像処理装置においては、表示制御部は、ユーザが指定した位置を、割り当てる領域の候補毎にスコアの情報、色情報、及び名称の情報の少なくとも1つの情報に対応付けて表示する制御を行なうことができる。
本開示の画像処理方法は、対象画像を複数の領域に分割したセグメンテーション画像を取得し、
セグメンテーション画像において、ユーザが指定した位置の位置情報を受け付け、
受け付けた位置情報が示すセグメンテーション画像上の位置に対して、複数の領域から割り当てる領域の優先順位を画像情報に基づいて取得し、
取得された優先順位に基づいて、割り当てる領域が選択可能に、割り当てる領域の候補を表示部に表示する制御を行なう。
なお、本開示による画像処理方法をコンピュータに実行させるためのプログラムを提供してもよい。具体的には、本開示の画像処理プログラムは、
対象画像を複数の領域に分割したセグメンテーション画像を取得することと、
セグメンテーション画像において、ユーザが指定した位置の位置情報を受け付けることと、
受け付けた位置情報が示すセグメンテーション画像上の位置に対して、複数の領域から割り当てる領域の優先順位を画像情報に基づいて取得することと、
取得された優先順位に基づいて、割り当てる領域が選択可能に、割り当てる領域の候補を表示部に表示する制御を行なうことと、
をコンピュータに実行させる。
本開示によれば、ユーザの負担を軽減しつつ、ユーザの所望する領域の割り当てを修正することができる。
本開示の実施形態による画像処理装置を適用した、診断支援システムの概要を示すハードウェア構成図 本開示の実施形態による画像処理装置の概略構成を示す図 セグメンテーション画像において修正位置の指定を説明するための図 セグメンテーション画像の各領域を説明するための図 本実施形態において行われる処理を示すフローチャート 割り当てる領域の候補の表示の一例を説明するための図(その1) 割り当てる領域の候補の表示の一例を説明するための図(その2) 割り当てる領域の候補の表示の一例を説明するための図(その3) 割り当てる領域の候補の表示の一例を説明するための図(その4) 割り当てる領域の候補の表示の他の一例を説明するための図
以下、図面を参照して本開示の実施形態について説明する。図1は、本開示の実施形態による画像処理装置を適用した、診断支援システムの概要を示すハードウェア構成図である。図1に示すように、診断支援システムでは、本実施形態による画像処理装置1、3次元画像撮影装置2、及び画像保管サーバ3が、ネットワーク4を経由して通信可能な状態で接続されている。
3次元画像撮影装置2は、被検体の診断対象となる部位を撮影することにより、その部位を表す3次元画像を生成する装置であり、具体的には、CT装置、MRI装置、及びPET(Positron Emission Tomography)装置等である。3次元画像撮影装置2により生成された3次元画像は画像保管サーバ3に送信され、保存される。なお、本実施形態においては、3次元画像撮影装置2はCT装置であり、被検体の診断対象となる部位を含むCT画像を3次元画像として生成する。なお、3次元画像は複数の断層画像からなる。なお、3次元画像が本開示の対象画像に対応する。
画像保管サーバ3は、各種データを保存して管理するコンピュータであり、大容量外部記憶装置及びデータベース管理用ソフトウェアを備えている。画像保管サーバ3は、有線あるいは無線のネットワーク4を介して他の装置と通信を行い、画像データ等を送受信する。具体的には3次元画像撮影装置2で生成された3次元画像の画像データを含む各種データをネットワーク経由で取得し、大容量外部記憶装置等の記録媒体に保存して管理する。なお、画像データの格納形式及びネットワーク4経由での各装置間の通信は、DICOM(Digital Imaging and Communication in Medicine)等のプロトコルに基づいている。
画像処理装置1は、1台のコンピュータに、本実施形態の画像処理プログラムをインストールしたものである。コンピュータは、診断を行う医師が直接操作するワークステーション又はパーソナルコンピュータでもよいし、それらとネットワークを介して接続されたサーバコンピュータでもよい。画像処理プログラムは、DVD(Digital Versatile Disc)あるいはCD−ROM(Compact Disc Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からコンピュータにインストールされる。又は、ネットワークに接続されたサーバコンピュータの記憶装置、もしくはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じて医師が使用するコンピュータにダウンロードされ、インストールされる。
図2は、コンピュータに画像処理プログラムをインストールすることにより実現される画像処理装置の概略構成を示す図である。図2に示すように、画像処理装置1は、標準的なワークステーションの構成として、CPU(Central Processing Unit)11、メモリ12及びストレージ13を備えている。また、画像処理装置1には、液晶ディスプレイ等の表示部14、並びにキーボード及びマウス等の入力部15が接続されている。なお、本実施形態においては、入力部15としてホイール付のマウスを備えている。
ストレージ13はハードディスクドライブ等からなり、ネットワーク4を経由して画像保管サーバ3から取得した3次元画像及び処理に必要な情報を含む各種情報が記憶されている。
また、メモリ12には、画像処理プログラムが記憶されている。画像処理プログラムは、CPU11に実行させる処理として、対象画像から複数の関心領域を抽出し、対象画像を複数の領域に分割したセグメンテーション画像を生成するセグメンテーション処理と、対象画像を複数の領域に分割したセグメンテーション画像を取得する画像取得処理と、セグメンテーション画像において、ユーザが指定した位置の位置情報を受け付ける受付処理と、受け付けた位置情報が示すセグメンテーション画像上の位置に対して、複数の領域から割り当てる領域の優先順位を画像情報に基づいて取得する優先順位取得処理と、取得された優先順位に基づいて、割り当てる領域が選択可能に、割り当てる領域の候補を表示部に表示する制御を行なう表示制御処理とを規定する。
そして、CPU11がプログラムに従いこれらの処理を実行することで、コンピュータは、セグメンテーション処理部20、画像取得部21、受付部22、優先順位取得部23、及び表示制御部24として機能する。
セグメンテーション処理部20は、後述する画像取得部21が取得した3次元画像から複数の関心領域を抽出し、3次元画像を複数の領域に分割したセグメンテーション画像を生成する。このために、セグメンテーション処理部20は、3次元画像から関心領域を抽出するように機械学習がなされた学習済みモデルを備える。学習済みモデルは、診断の対象となる臓器、骨及び軟骨等の構造物を関心領域として抽出するように、ディープラーニング(深層学習)がなされた畳み込みニューラルネットワーク(CNN(Convolutional Neural Network))、及びリカレントニューラルネットワーク(RNN(Recurrent Neural Network))等のニューラルネットワークからなる。本実施形態においては、学習済みモデルが本開示のセグメンテーションアルゴリズムに対応する。なお、診断の対象となる臓器は、心臓、肝臓、肺、腎臓及び脳等が挙げられる。学習済みモデルは、3次元画像が入力されると3次元画像の各画素が関心領域であるか否かを表す判別結果を出力する。判別結果は、各画素が各関心領域に割り当てられる存在確率である。
ここで、「存在確率」は、各画素が各関心領域に存在することを示す確率である。そして、セグメンテーション処理部20は、3次元画像の全領域のうち、最も存在確率の高い領域をその関心領域に割り当てることによりセグメンテーション画像を生成する。本実施形態においては、セグメンテーション処理部20により出力される各画素の存在確率はストレージ13に記憶される。
なお、学習済みモデルは、ディープラーニングがなされたニューラルネットワークの他、例えばサポートベクタマシン(SVM(Support Vector Machine))、アダブースト(AdaBoost)、およびランダムフォレスト(RandomForest)等からなるものであってもよい。また、セグメンテーション処理部20は、機械学習がなされた学習モデルを備えたものに限定されるものではない。例えば、テンプレートマッチング等により関心領域を抽出するものであってもよい。
画像取得部21は、関心領域を含む3次元画像を画像保管サーバ3から取得する。関心領域は、例えば診断の対象となるような、ユーザが注目する臓器、骨及び軟骨等の構造物の領域である。なお、3次元画像が既にストレージ13に記憶されている場合には、画像取得部21は、ストレージ13から3次元画像を取得するようにしてもよい。また、画像取得部21は、セグメンテーション処理部20により生成されたセグメンテーション画像を取得する。
受付部22は、セグメンテーション画像において、ユーザが指定した位置の位置情報を受け付ける。図3はセグメンテーション画像Dkにおいて修正位置の指定を説明するための図である。セグメンテーション画像Dkは、セグメンテーション処理部20により複数の領域に分割された3次元画像を構成する複数の断層画像のうちの1枚の断層画像であり、表示部14に表示される。なお、表示するセグメンテーション画像Dkは、アキシャル断面、サジタル断面及びコロナル断面のいずれの断面の断層画像であってもよい。
図3に示すように、セグメンテーション画像Dkにおいては、セグメンテーション処理部20により各関心領域31〜35が割り当てられている。なお、各関心領域31〜35はマスクとしてセグメンテーション画像Dkに含まれる。マスクは、各関心領域31〜35毎に異なる表示パターンで表されており、輪郭のみを表すものであってもよく、ハッチングが施されたものであってもよく、予め定められた色により塗りつぶされたものであってもよい。以降の説明において、各関心領域31〜35は、セグメンテーション画像Dkにおいて、マスクされた領域を意味するものとする。
図3に示すセグメンテーション画像Dk上において、ユーザは入力部15を用いて、割り当てられた領域において修正したい位置を指定する。位置の指定は、一例として表示部14に表示された円形のカーソルAを用いて行うことができる。なお、カーソルAの形状は円形に限定されるものではなく、矩形、三角形及び矢印形状等、任意の形状とすることができる。また、カーソルAの大きさは、ユーザにより予め任意に設定することができる。カーソルAの大きさ及び形状等は、診断対象となる部位によって予め設定されていてもよい。
受付部22は、ユーザによるカーソルAを用いての修正指示を受け付ける。この場合、ユーザは入力部15のマウスを用いてカーソルAを移動して、修正したい領域上にカーソルAを移動させる。受付部22はカーソルAのセグメンテーション画像Dk上の位置情報を受け付ける。
優先順位取得部23は、受付部22が受け付けた位置情報が示すセグメンテーション画像Dk上の位置に対して、割り当てる領域の優先順位を画像情報に基づいて取得する。セグメンテーション画像Dkは、セグメンテーション処理部20によりセグメンテーション処理が行われた際に、各々の関心領域31〜35が示す部位の名称が付帯情報として付与されている。また、セグメンテーション処理部20により出力された各画素毎の各関心領域に割り当てられる存在確率も、付帯情報として付与されて、ストレージ13に保存されている。
図4はセグメンテーション画像の各領域を説明するための図である。受付部22が受け付けた位置情報が示すセグメンテーション画像Dk上の位置、すなわちカーソルA内の領域は、例えば図4に示すように、関心領域31が示す部位aである存在確率が45%、関心領域32が示す部位bである存在確率が40%、関心領域34が示す部位cである存在確率が10%、関心領域35が示す背景である存在確率が4%、及び、関心領域33が示す部位dである存在確率が1%であるとする。ここで「背景」は、どの部位にも当てはまらない領域とする。例えば、セグメンテーション処理部20が、部位a及び部位bのみをセグメンテーションする場合には、部位a及び部位bに当てはまらない領域が背景となる。なお、部位dを示す関心領域33は、カーソルAから最も離れた領域であるため、最も存在確率が低くなる。
なお、セグメンテーション画像Dkにおいて、存在確率は各画素毎に出力される。従って、カーソルA内の領域に対応する存在確率は、カーソルA内の領域を構成する全画素における存在確率の代表値として求められる。代表値としては、存在確率の平均値、中央値、最大値及び最小値等を用いることができる。また、存在確率が予め定められた閾値以上となる領域についてのみの存在確率の代表値をカーソルA内の領域に対応する存在確率としてもよい。優先順位取得部23は、図4に示す存在確率の高い順に優先順位を高く設定した優先順位を取得する。
表示制御部24は、画像取得部21により取得された3次元画像及びセグメンテーション画像Dk等を表示部14に表示する制御を行なう。また、表示制御部24は、優先順位取得部23によって取得された優先順位に基づいて、割り当てる領域が選択可能に、割り当てる領域の候補を表示部14に表示する制御を行なう。なお、表示制御部24による割り当てる領域の候補の表示部14への表示については、後で詳細に説明する。本実施形態の画像処理装置1は以上のように構成される。
次に、本実施形態の画像処理装置1による一連の処理について説明する。図5は本実施形態において行われる処理を示すフローチャートである。図5に示すように、先ず、画像取得部21がセグメンテーション画像を取得して、表示制御部24が表示部14に表示させる(ステップST1)。次いで、受付部22が、上述したようにして、カーソルAの位置情報を受け付ける(ステップST2)。そして、優先順位取得部23が、上述したようにして、割り当てる領域の候補の優先順位を取得する(ステップST3)。
次に、表示制御部24が割り当てる領域の候補を表示部14に表示させる(ステップST4)。図4に示すように、図3に示すカーソルA内の領域においては、部位aである存在確率が最も高いので、セグメンテーション処理部20によるセグメンテーション処理の処理結果としては、カーソルA内の領域は部位aであり、関心領域31の表示パターンで示される。
しかしながら、セグメンテーション処理部20によるセグメンテーション処理の処理結果は必ずしも正確ではなく、セグメンテーション画像Dkに含まれる実際の関心領域とはならない場合がある。そのような場合、従来では、例えば塗り潰しツール等により手動で領域の修正を行うことがあった。例えば、図4に示す場合には、部位b、部位c、背景、及び部位dが割り当てる領域の候補となるが、この候補が多ければ多いほど、どの領域に割り当てればよいのかの判断が煩雑となり、ユーザへの負担が大きくなってしまっていた。
そこで、本実施形態においては、表示制御部24が割り当てる領域の候補を優先順位の高い順に表示部14に表示させる制御を行なう。図6〜図9は各々、割り当てる領域の候補の表示の一例を説明するための図である。本実施形態においては、優先順位取得部23により取得された割り当てる領域の候補の優先順位は、図4に示すように、優先順位の高い順に、部位b、部位c、背景、及び部位dとなる。
先ず、表示制御部24は、図6に示すように、カーソルA内の領域を、割り当てる領域の候補の優先順位が最も高い「部位b」が示す関心領域32の表示パターンで表示させる。そして、ユーザによりマウスホイールが操作されると、図7に示すように、カーソルA内の領域を、割り当てる領域の候補の優先順位が部位bの次に高い「部位c」が示す関心領域32の表示パターンで表示させる。再度、ユーザによりマウスホイールが操作されると、図8に示すように、カーソルA内の領域を、割り当てる領域の候補の優先順位が部位cの次に高い「背景」が示す領域35の表示パターンで表示させる。
そして、また再度、ユーザによりマウスホイールが操作されると、図9に示すように、カーソルA内の領域を、割り当てる領域の候補の優先順位が背景の次に高い「部位d」が示す領域35の表示パターンで表示させ、次にユーザによりマウスホイールが操作されると、表示制御部24は、図4に示す元の表示状態に戻す。そして、ユーザにより割り当てる領域の候補が選択されるまで、上記の表示制御を繰り返し行う。
次いで、CPU11は、割り当てる領域の候補が選択されたか否かを判断し(ステップST5)、ユーザにより割り当てる領域の候補が選択されたと判断した場合に(ステップST5;YES)、ユーザにより選択された候補の領域に割り当てる領域を変更する。なお、候補を選択する指示は、例えば入力部15であるマウスの右クリック又は予め定められたカーソルの押下とマウスのクリックとの組み合わせ等とすることができるが、これらに限定されるものではない。
一方、ステップST5にて、ユーザにより割り当てる領域の候補が選択されていないと判断した場合に(ステップST5;NO)、一連の処理を終了する。なお、候補を選択しない指示は、例えば入力部15であるエスケープ(Esc)ボタンの押下等とすることができるが、これらに限定されるものではない。
このように、本実施形態によれば、ユーザが指定した位置に対して、割り当てる領域の優先順位に基づいて、割り当てる領域が選択可能に、割り当てる領域の候補が表示部14に表示される。このため、ユーザは、割り当てる領域の候補が多い場合であっても、どの領域に割り当てればよいのかを容易に視認することができるので、ユーザの負担を軽減しつつ、ユーザの所望する領域の割り当てを修正することができる。
なお、上記実施形態において、優先順位取得部23は、各画素に対する存在確率を取得したが本開示の技術はこれに限られない。例えば、セグメンテーション処理部20が対象画像を複数の領域に分割する際に、各画素に対する存在確率ではなく、領域毎に各領域である確率を示すスコアを取得している場合、各領域のスコアに基づいて優先順位を取得してもよい。なお、この場合スコアは確率であってもよい。
また、上記実施形態において、表示制御部24は、カーソルA内の領域を、図4、及び図6〜図9に示す各関心領域31〜35の表示パターンで表示したが、本開示の技術はこれに限られない。例えば、表示制御部24は、カーソルA内の領域を、各関心領域毎に予め定められた色で表示させてもよい。また、表示制御部24は、割り当てる領域の候補毎にスコアの情報、色情報、及び名称の情報の少なくとも1つの情報に対応付けてカーソルA内の領域を表示させてもよい。
図10は割り当てる領域の候補の表示の他の一例を説明するための図である。表示制御部24は、例えば図10に示すように、割り当てる領域毎に優先順位の高い順に番号を付与して表示させ、ユーザにより位置が指定された場合に、指定された位置の近傍に優先順位の高い順に、上記番号及び領域を示す表示パターンをプルダウンメニューにより、選択可能に表示させてもよい。なお、この場合、番号のみをプルダウンメニューにより表示させてもよいし、表示パターンのみをプルダウンメニューにより表示させてもよい。なお、番号に換えて、部位の名称を表示させてもよい。この場合、優先順位の高い部位の名称をプルダウンメニューの上位に表示する。
なお、上記実施形態においては、セグメンテーション処理部20は、画像処理装置1に設けられているが、本開示の技術はこれに限られない。例えば、外部に設けられたセグメンテーション処理部によって生成されたセグメンテーション画像を、ストレージ13及び画像保管サーバ3の少なくとも一方に保存しておき、画像取得部21が保存されたセグメンテーション画像を取得するようにしてもよい。この場合、セグメンテーション画像及びセグメンテーション処理部により出力される各画素に割り当てられる存在確率がストレージ13及び画像保管サーバ3の少なくとも一方に保存される。
また、上記実施形態において、例えば、セグメンテーション処理部20、画像取得部21、受付部22、優先順位取得部23、及び表示制御部24といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)を用いることができる。
1 画像処理装置
2 3次元画像撮影装置
3 画像保管サーバ
4 ネットワーク
11 CPU
12 メモリ
13 ストレージ
14 ディスプレイ
15 入力部
20 セグメンテーション処理部
21 画像取得部
22 受付部
23 優先順位取得部
24 表示制御部
31〜35 関心領域
A カーソル
Dk セグメンテーション画像
2018年12月18日に出願された日本国特許出願2018−236662号の開示は、その全体が参照により本明細書に取り込まれる。
本明細書に記載された全ての文献、特許出願、および技術規格は、個々の文献、特許出願、および技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
上記セグメンテーションは、例えば画像処理技術を用いた自動臓器セグメンテーションエンジンを利用することにより行われている。このように自動で関心領域を抽出する場合、過抽出領域及び未抽出領域が発生する可能性があり、必ずしもセグメンテーションが適切に行われるとは限らない。自動臓器セグメンテーションエンジンを使用したセグメンテーションに失敗した場合には、自動で割り当てられた関心領域を手動で修正する必要がある。しかしながら手動により修正を行う場合には、修正すべき領域として指定した領域どの関心領域割り当てるのか選択する必要があり、セグメンテーションにより割り当てられた関心領域の数が多いほど、ユーザによる選択の負担が大きくなる。
しかしながら、特開2005−73817号公報、特表2012−505008号公報及び特開2003−180678号公報に記載された技術においては、セグメンテーションの処理条件であるパラメータを調整しているため、例えば1つの関心領域のみ割り当てられた領域をユーザが修正したい場合に対応するのは困難である。
また、メモリ12には、画像処理プログラムが記憶されている。画像処理プログラムは、CPU11に実行させる処理として、対象画像から複数の関心領域を抽出し、対象画像を複数の領域に分割したセグメンテーション画像を生成するセグメンテーション処理と、対象画像を複数の領域に分割したセグメンテーション画像を取得する画像取得処理と、セグメンテーション画像において、ユーザが指定した位置の位置情報を受け付ける受付処理と、受け付けた位置情報が示すセグメンテーション画像上の位置に対して割り当てる領域を選択する、複数の領域の優先順位を画像情報に基づいて取得する優先順位取得処理と、取得された優先順位に基づいて、割り当てる領域が選択可能に、割り当てる領域の候補を表示部に表示する制御を行なう表示制御処理とを規定する。
セグメンテーション処理部20は、後述する画像取得部21が取得した3次元画像から複数の関心領域を抽出し、3次元画像を複数の領域に分割したセグメンテーション画像を生成する。このために、セグメンテーション処理部20は、3次元画像から関心領域を抽出するように機械学習がなされた学習済みモデルを備える。学習済みモデルは、診断の対象となる臓器、骨及び軟骨等の構造物を関心領域として抽出するように、ディープラーニング(深層学習)がなされた畳み込みニューラルネットワーク(CNN(Convolutional Neural Network))、及びリカレントニューラルネットワーク(RNN(Recurrent Neural Network))等のニューラルネットワークからなる。本実施形態においては、学習済みモデルが本開示のセグメンテーションアルゴリズムに対応する。なお、診断の対象となる臓器は、心臓、肝臓、肺、腎臓及び脳等が挙げられる。学習済みモデルは、3次元画像が入力されると3次元画像の各画素が関心領域であるか否かを表す判別結果を出力する。判別結果は、各画素各関心領域割り当てられる存在確率である。
ここで、「存在確率」は、各画素が各関心領域に存在することを示す確率である。そして、セグメンテーション処理部20は、3次元画像の全領域のうち、最も存在確率の高い領域をその画素の関心領域として割り当てることによりセグメンテーション画像を生成する。本実施形態においては、セグメンテーション処理部20により出力される各画素の存在確率はストレージ13に記憶される。
なお、セグメンテーション画像Dkにおいて、存在確率は各画素毎に出力される。従って、カーソルA内の領域に対応する存在確率は、カーソルA内の領域を構成する全画素における存在確率の代表値として求められる。代表値としては、存在確率の平均値、中央値、最大値及び最小値等を用いることができる。また、存在確率が予め定められた閾値以上となる画素についてのみの存在確率の代表値をカーソルA内の領域に対応する存在確率としてもよい。優先順位取得部23は、図4に示す存在確率の高い順に優先順位を高く設定した優先順位を取得する。
先ず、表示制御部24は、図6に示すように、カーソルA内の領域を、割り当てる領域の候補の優先順位が最も高い「部位b」示す関心領域32の表示パターンで表示させる。そして、ユーザによりマウスホイールが操作されると、図7に示すように、カーソルA内の領域を、割り当てる領域の候補の優先順位が部位bの次に高い「部位c」示す関心領域34の表示パターンで表示させる。再度、ユーザによりマウスホイールが操作されると、図8に示すように、カーソルA内の領域を、割り当てる領域の候補の優先順位が部位cの次に高い「背景」が示す関心領域35の表示パターンで表示させる。
そして、また再度、ユーザによりマウスホイールが操作されると、図9に示すように、カーソルA内の領域を、割り当てる領域の候補の優先順位が背景の次に高い「部位d」が示す関心領域33の表示パターンで表示させ、次にユーザによりマウスホイールが操作されると、表示制御部24は、図4に示す元の表示状態に戻す。そして、ユーザにより割り当てる領域の候補が選択されるまで、上記の表示制御を繰り返し行う。
次いで、CPU11は、割り当てる領域の候補が選択されたか否かを判断し(ステップST5)、ユーザにより割り当てる領域の候補が選択されたと判断した場合に(ステップST5;YES)、ユーザにより選択された候補の領域に割り当てる領域を変更する(ステップST6)。なお、候補を選択する指示は、例えば入力部15であるマウスの右クリック又は予め定められたキーの押下とマウスのクリックとの組み合わせ等とすることができるが、これらに限定されるものではない。

Claims (8)

  1. 対象画像を複数の領域に分割したセグメンテーション画像を取得する画像取得部と、
    前記セグメンテーション画像において、ユーザが指定した位置の位置情報を受け付ける受付部と、
    前記受付部が受け付けた前記位置情報が示す前記セグメンテーション画像上の位置に対して、前記複数の領域から割り当てる領域の優先順位を画像情報に基づいて取得する優先順位取得部と、
    前記優先順位取得部により取得された前記優先順位に基づいて、前記割り当てる領域が選択可能に、前記割り当てる領域の候補を表示部に表示する制御を行なう表示制御部と、
    を含む画像処理装置。
  2. 前記優先順位取得部は、前記対象画像を複数の領域に分割する際のセグメンテーションアルゴリズムに基づいて取得された前記複数の領域の各領域のスコアに基づいて優先順位を取得する請求項1に記載の画像処理装置。
  3. 前記各領域のスコアは、前記対象画像の各画素に対する存在確率であって、前記各画素が前記複数の領域の各領域に存在することを示す存在確率である請求項2に記載の画像処理装置。
  4. 前記表示制御部は、入力部から入力される入力情報に基づいて、優先順位の高い順に前記割り当てる領域の候補を前記表示部に表示する制御を行なう請求項1から3の何れか1項に記載の画像処理装置。
  5. 前記表示制御部は、ユーザが指定した位置を、前記割り当てる領域の候補毎に予め設定された色で表示する制御を行なう請求項1から4の何れか1項に記載の画像処理装置。
  6. 前記表示制御部は、ユーザが指定した位置を、前記割り当てる領域の候補毎にスコアの情報、色情報、及び名称の情報の少なくとも1つの情報に対応付けて表示する制御を行なう請求項1から5の何れか1項に記載の画像処理装置。
  7. 対象画像を複数の領域に分割したセグメンテーション画像を取得し、
    前記セグメンテーション画像において、ユーザが指定した位置の位置情報を受け付け、
    受け付けた前記位置情報が示す前記セグメンテーション画像上の位置に対して、前記複数の領域から割り当てる領域の優先順位を画像情報に基づいて取得し、
    取得された前記優先順位に基づいて、前記割り当てる領域が選択可能に、前記割り当てる領域の候補を表示部に表示する制御を行なう画像処理方法。
  8. 対象画像を複数の領域に分割したセグメンテーション画像を取得することと、
    前記セグメンテーション画像において、ユーザが指定した位置の位置情報を受け付けることと、
    受け付けた前記位置情報が示す前記セグメンテーション画像上の位置に対して、前記複数の領域から割り当てる領域の優先順位を画像情報に基づいて取得することと、
    取得された前記優先順位に基づいて、前記割り当てる領域が選択可能に、前記割り当てる領域の候補を表示部に表示する制御を行なうことと、
    をコンピュータに実行させる画像処理プログラム。
JP2020561458A 2018-12-18 2019-12-17 画像処理装置、方法及びプログラム Active JP7204781B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018236662 2018-12-18
JP2018236662 2018-12-18
PCT/JP2019/049421 WO2020129979A1 (ja) 2018-12-18 2019-12-17 画像処理装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2020129979A1 true JPWO2020129979A1 (ja) 2021-10-21
JP7204781B2 JP7204781B2 (ja) 2023-01-16

Family

ID=71101803

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020561458A Active JP7204781B2 (ja) 2018-12-18 2019-12-17 画像処理装置、方法及びプログラム

Country Status (3)

Country Link
US (1) US11972570B2 (ja)
JP (1) JP7204781B2 (ja)
WO (1) WO2020129979A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008126070A (ja) * 2006-11-22 2008-06-05 General Electric Co <Ge> 血管プラーク・ビューを自動的に識別して表示する方法及びシステム
JP2011512999A (ja) * 2008-03-04 2011-04-28 トモセラピー・インコーポレーテッド 改良された画像セグメンテーションの方法およびシステム
JP2011110357A (ja) * 2009-11-30 2011-06-09 Hitachi Medical Corp 画像処理方法、画像処理装置及びプログラム
JP2014100569A (ja) * 2012-11-16 2014-06-05 Samsung Electronics Co Ltd 診断装置及び診断方法
JP2015102944A (ja) * 2013-11-22 2015-06-04 コニカミノルタ株式会社 医用情報処理装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5431161A (en) * 1993-04-15 1995-07-11 Adac Laboratories Method and apparatus for information acquistion, processing, and display within a medical camera system
US7923542B2 (en) * 2000-04-28 2011-04-12 Sangamo Biosciences, Inc. Libraries of regulatory sequences, methods of making and using same
ATE374249T1 (de) * 2000-04-28 2007-10-15 Sangamo Biosciences Inc Datenbanken von regulatorischen sequenzen, methoden zu ihrer herstellung und verwendung
EP1362329B1 (en) * 2001-02-13 2019-03-27 Koninklijke Philips N.V. Processing of images in a direction of succession
US6993174B2 (en) 2001-09-07 2006-01-31 Siemens Corporate Research, Inc Real time interactive segmentation of pulmonary nodules with control parameters
JP2005073817A (ja) 2003-08-29 2005-03-24 Hitachi Medical Corp 医用画像表示装置
US7987111B1 (en) * 2006-10-30 2011-07-26 Videomining Corporation Method and system for characterizing physical retail spaces by determining the demographic composition of people in the physical retail spaces utilizing video image analysis
US8355552B2 (en) * 2007-06-20 2013-01-15 The Trustees Of Columbia University In The City Of New York Automated determination of lymph nodes in scanned images
US20110194742A1 (en) * 2008-10-14 2011-08-11 Koninklijke Philips Electronics N.V. One-click correction of tumor segmentation results
US11547499B2 (en) * 2014-04-04 2023-01-10 Surgical Theater, Inc. Dynamic and interactive navigation in a surgical environment
RU2015125820A (ru) * 2015-06-30 2017-01-10 Общество С Ограниченной Ответственностью "Яндекс" Способ и сервер обработки пользовательского запроса на предоставление рекомендованной области интереса
US10636184B2 (en) * 2015-10-14 2020-04-28 Fovia, Inc. Methods and systems for interactive 3D segmentation
US9801601B2 (en) * 2015-12-29 2017-10-31 Laboratoires Bodycad Inc. Method and system for performing multi-bone segmentation in imaging data
EP3392832A1 (en) * 2017-04-21 2018-10-24 General Electric Company Automated organ risk segmentation machine learning methods and systems
CA3056694C (en) * 2017-05-18 2022-01-18 Brainlab Ag Determining a clinical target volume
WO2019204661A1 (en) * 2018-04-18 2019-10-24 Altius Institute For Biomedical Sciences Methods for assessing specificity of cell engineering tools
US10848664B2 (en) * 2018-07-26 2020-11-24 Sony Corporation Image capture device and method for image score-based video quality enhancement

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008126070A (ja) * 2006-11-22 2008-06-05 General Electric Co <Ge> 血管プラーク・ビューを自動的に識別して表示する方法及びシステム
JP2011512999A (ja) * 2008-03-04 2011-04-28 トモセラピー・インコーポレーテッド 改良された画像セグメンテーションの方法およびシステム
JP2011110357A (ja) * 2009-11-30 2011-06-09 Hitachi Medical Corp 画像処理方法、画像処理装置及びプログラム
JP2014100569A (ja) * 2012-11-16 2014-06-05 Samsung Electronics Co Ltd 診断装置及び診断方法
JP2015102944A (ja) * 2013-11-22 2015-06-04 コニカミノルタ株式会社 医用情報処理装置

Also Published As

Publication number Publication date
US20210312631A1 (en) 2021-10-07
WO2020129979A1 (ja) 2020-06-25
JP7204781B2 (ja) 2023-01-16
US11972570B2 (en) 2024-04-30

Similar Documents

Publication Publication Date Title
JP2019153250A (ja) 医療文書作成支援装置、方法およびプログラム
US11139067B2 (en) Medical image display device, method, and program
EP2810217B1 (en) Graph cuts-based interactive segmentation of teeth in 3-d ct volumetric data
JP6824845B2 (ja) 画像処理システム、装置、方法およびプログラム
US20180064409A1 (en) Simultaneously displaying medical images
EP2620885A2 (en) Medical image processing apparatus
US11093699B2 (en) Medical image processing apparatus, medical image processing method, and medical image processing program
US11715279B2 (en) Weighted image generation apparatus, method, and program, determiner learning apparatus, method, and program, region extraction apparatus, method, and program, and determiner
JP3989896B2 (ja) 医用画像処理装置、関心領域抽出方法、ならびに、プログラム
JP2023114463A (ja) 表示装置、方法およびプログラム
US20210256741A1 (en) Region correction apparatus, region correction method, and region correction program
JP7204781B2 (ja) 画像処理装置、方法及びプログラム
JP7262606B2 (ja) 領域同定装置、方法およびプログラム
JP7083427B2 (ja) 修正指示領域表示装置、方法およびプログラム
WO2020137092A1 (ja) 領域特定装置、方法およびプログラム
CN107799166B (zh) 医学成像系统
US20220108451A1 (en) Learning device, method, and program, medical image processing apparatus, method, and program, and discriminator
JP7342267B2 (ja) 領域修正装置、方法およびプログラム
US20230238118A1 (en) Information processing apparatus, information processing system, information processing method, and program
US20240037739A1 (en) Image processing apparatus, image processing method, and image processing program
WO2022054541A1 (ja) 画像処理装置、方法およびプログラム
US20230394673A1 (en) Image processing apparatus, operation method of image processing apparatus, operation program of image processing apparatus, and learning method
US20220122350A1 (en) Learning image generation device, learning image generation method, learning image generation program, learning method, learning device, and learning program
US20240037738A1 (en) Image processing apparatus, image processing method, and image processing program
US20230088616A1 (en) Progression prediction apparatus, progression prediction method, and progression prediction program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210615

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221228

R150 Certificate of patent or registration of utility model

Ref document number: 7204781

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150