JP6527614B2 - Image processing apparatus and operation method of image processing apparatus - Google Patents

Image processing apparatus and operation method of image processing apparatus Download PDF

Info

Publication number
JP6527614B2
JP6527614B2 JP2018053941A JP2018053941A JP6527614B2 JP 6527614 B2 JP6527614 B2 JP 6527614B2 JP 2018053941 A JP2018053941 A JP 2018053941A JP 2018053941 A JP2018053941 A JP 2018053941A JP 6527614 B2 JP6527614 B2 JP 6527614B2
Authority
JP
Japan
Prior art keywords
image
finding
diagnosis
processing apparatus
findings
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018053941A
Other languages
Japanese (ja)
Other versions
JP2018136961A (en
Inventor
中野 雄太
雄太 中野
義夫 飯塚
義夫 飯塚
佐藤 清秀
清秀 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018053941A priority Critical patent/JP6527614B2/en
Publication of JP2018136961A publication Critical patent/JP2018136961A/en
Application granted granted Critical
Publication of JP6527614B2 publication Critical patent/JP6527614B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、3次元医用画像データを処理して表示する技術に関する。   The present invention relates to technology for processing and displaying three-dimensional medical image data.

近年の医用画像データは3次元のボリュームデータが主流である。医師が画像診断を行う際には、断層像を連続的に切り替えて表示(スクロール表示)して、異常陰影がないかどうかを確認する。画像診断によって医師が異常陰影を見つけた場合、異常陰影を含む断層像付近で繰り返しスクロール表示させたり、表示パラメータを調整したりしながら、詳細な観察からその異常陰影の特徴を掴む。そして、異常陰影の特徴を画像所見として入力し、その異常陰影を代表するような(例えば異常陰影のサイズが最大になる)断層像を選んでレポートに貼りつけるなどしてまとめる。   Medical image data in recent years are mainly three-dimensional volume data. When the doctor makes an image diagnosis, the tomograms are continuously switched and displayed (scroll display) to check whether there is an abnormal shadow or not. When the doctor finds an abnormal shadow by image diagnosis, the user can grasp the characteristics of the abnormal shadow from detailed observation while repeatedly scrolling and displaying display parameters in the vicinity of a tomographic image including the abnormal shadow. Then, the features of the abnormal shadow are input as image findings, and a tomographic image representative of the abnormal shadow (for example, the size of the abnormal shadow becomes maximum) is selected and put together in a report or the like.

画像診断において、画像データの3次元化により詳細な診断ができるようになった。しかし、2次元の断層像として表示する際やレポートにまとめる際など、3次元画像データの中から断層像を選ばなければならず、医師の負担が増加している。この一連の作業において、医師の負担を減らすための発明が今までに提案されている。特許文献1では、関心領域内の画像特徴量に基づいて表示パラメータを自動調整する手法を提案している。また、一般的な手法として、3次元画像データ中における関心領域の重心を求め、この重心を通る断面の断層像を表示する手法などが考えられる。   In image diagnosis, three-dimensionalization of image data has enabled detailed diagnosis. However, when displaying as a two-dimensional tomogram or putting it together in a report, it is necessary to select a tomogram from among three-dimensional image data, which increases the burden on the doctor. In this series of work, inventions have been proposed so far to reduce the burden on doctors. Patent Document 1 proposes a method of automatically adjusting display parameters based on image feature amounts in a region of interest. Further, as a general method, a method of obtaining a center of gravity of a region of interest in three-dimensional image data and displaying a tomographic image of a cross section passing through the center of gravity may be considered.

特開2007−143982Japanese Patent Application Publication No. 2007-143982

しかしながら、従来の技術では以下の課題があった。特許文献1では検診時や精密検査時などの状況に応じて表示パラメータを調整する発明であり、3次元画像データから断層像を選ぶということはできない。また、表示する断層像の選択手段として、3次元画像データ中における関心領域の重心を通る断層像を選ぶ方法を用いたとしても、その断層像が必ずしも異常陰影を代表するような断層像とはならない。そのため、結局医師が断層像を選ぶ作業は発生してしまい、医師の負担を減らすことはできない。   However, the prior art has the following problems. Patent Document 1 is an invention of adjusting display parameters in accordance with the conditions at the time of examination, at the time of a detailed examination, etc., and it is impossible to select a tomogram from three-dimensional image data. Further, even if a method of selecting a tomogram passing through the center of gravity of a region of interest in three-dimensional image data is used as a selection means of tomograms to be displayed, such tomograms in which the tomograms necessarily represent abnormal shadows It does not. Therefore, a doctor's task of selecting a tomogram occurs after all, and the burden on the doctor can not be reduced.

本発明は上記の課題を鑑みてなされたものであり、三次元医用画像に関する所見を用いて、診断名を推論する推論手段と、前推論に用いられた所見のうち、前記診断名の推論に寄与した所見を選択する選択手段と、前記選択された所見の特徴を表す少なくとも1つの断層像を、前記三次元医用画像から特定する特定手段と、を有することを特徴とする画像処理装置を提供する。
The present invention has been made in view of the above problems, with observations about the three-dimensional medical image, an inference means for inferring the diagnosis, of the findings previously used Symbol inference, inference of the diagnosis An image processing apparatus comprising: selection means for selecting a finding that has contributed to ; and identification means for identifying at least one tomogram representing the feature of the selected observation from the three-dimensional medical image. provide.

本発明によれば、注目するべき画像所見の特徴を表す断層像を自動で選んで表示することができる。その結果として、医師の負担を減らすことができる。   According to the present invention, it is possible to automatically select and display a tomogram representing the feature of the imaging findings to be focused on. As a result, the burden on the doctor can be reduced.

第1実施例に係る画像処理装置の機器構成例を示す図。FIG. 1 is a block diagram showing an example of the arrangement of an image processing apparatus according to the first embodiment; 画像処理装置の各部をソフトウェアにより実現するコンピュータの基本構成を示す図。FIG. 1 is a diagram showing a basic configuration of a computer that implements each unit of an image processing apparatus by software. 第1実施例における、画像処理装置の処理の概要を示す図。FIG. 2 is a diagram showing an outline of processing of the image processing apparatus in the first embodiment. 画像処理装置の第1実施例の処理手順を示すフローチャート。3 is a flowchart showing the processing procedure of the first embodiment of the image processing apparatus. 画像処理装置の第2実施例の処理手順を示すフローチャート。6 is a flowchart showing the processing procedure of the second embodiment of the image processing apparatus. 画像処理装置の第3実施例の処理手順を示すフローチャート。The flowchart which shows the process sequence of 3rd Example of an image processing apparatus.

以下、添付図面に従って本発明に係る画像処理装置及びその制御方法の好ましい実施形態について説明する。ただし、発明の範囲は図示例に限定されるものではない。   Hereinafter, preferred embodiments of an image processing apparatus and a control method thereof according to the present invention will be described with reference to the attached drawings. However, the scope of the invention is not limited to the illustrated example.

<第1実施例>
本実施例に係る画像処理装置1の構成を図1に従い説明する。画像処理装置1では、3次元医用画像取得部1001がデータベース2から画像を取得する。次に注目所見取得部1002が、ユーザによるこの画像の読影結果として注目した画像所見を取得する。本実施例では、注目所見取得部1002が取得した画像所見を注目所見とする。次に、特徴量種別同定部1003が、取得した注目所見に基づいて算出する画像特徴量種別を同定し、特徴量算出部1004が、同定した画像特徴量を算出する。そして、断層像特定部1005が、夫々の断層像における断層像選択指標を算出し、この断層像選択指標に基づいて断層像を決定する。最後に、表示制御部1006が、特定された断層像の表示を行う。
First Embodiment
The configuration of the image processing apparatus 1 according to the present embodiment will be described according to FIG. In the image processing apparatus 1, the three-dimensional medical image acquisition unit 1001 acquires an image from the database 2. Next, the notable finding acquisition unit 1002 acquires an image finding focused as a result of interpretation of this image by the user. In the present embodiment, the imaging findings acquired by the notable observation acquisition unit 1002 are regarded as the attention findings. Next, the feature amount type identification unit 1003 identifies an image feature amount type to be calculated based on the acquired noted findings, and the feature amount calculation unit 1004 calculates the identified image feature amount. Then, the tomogram identification unit 1005 calculates a tomogram selection index in each tomogram, and determines a tomogram based on the tomogram selection index. Finally, the display control unit 1006 displays the identified tomogram.

図2は、第1実施例に係る画像処理装置をコンピュータで実現する場合の構成例を示す図である。画像処理装置1は、制御部10、モニタ104、マウス105、キーボード106を有する。制御部10は、中央処理装置(CPU)100、主メモリ101、磁気ディスク102、表示メモリ103を有する。そして、CPU100が主メモリ101に格納されたプログラムを実行することにより、データベース2との通信、画像処理装置1の全体制御、等の各種制御が実行される。CPU100は、主として画像処理装置1の各構成要素の動作を制御する。主メモリ101は、CPU100が実行する制御プログラムを格納したり、CPU100によるプログラム実行時の作業領域を提供したりする。磁気ディスク102は、オペレーティングシステム(OS)、周辺機器のデバイスドライブ、後述する診断支援処理等を行うためのプログラムを含む各種アプリケーションソフト等を格納する。表示メモリ103は、表示制御部1006に従って、表示用データを一時記憶する。モニタ104は、例えばCRTモニタや液晶モニタ等であり、表示メモリ103からのデータに基づいて画像を表示する。マウス105及びキーボード106はユーザ(医師)によるポインティング入力及び文字等の入力をそれぞれ行う。上記各構成要素は共有バス107により互いに通信可能に接続されている。   FIG. 2 is a view showing an example of the configuration when the image processing apparatus according to the first embodiment is realized by a computer. The image processing apparatus 1 includes a control unit 10, a monitor 104, a mouse 105, and a keyboard 106. The control unit 10 includes a central processing unit (CPU) 100, a main memory 101, a magnetic disk 102, and a display memory 103. Then, the CPU 100 executes a program stored in the main memory 101 to execute various controls such as communication with the database 2 and overall control of the image processing apparatus 1. The CPU 100 mainly controls the operation of each component of the image processing apparatus 1. The main memory 101 stores a control program executed by the CPU 100, and provides a work area when the CPU 100 executes a program. The magnetic disk 102 stores an operating system (OS), device drives of peripheral devices, various application software including a program for performing a diagnostic support process described later, and the like. The display memory 103 temporarily stores display data according to the display control unit 1006. The monitor 104 is, for example, a CRT monitor or a liquid crystal monitor, and displays an image based on data from the display memory 103. The mouse 105 and the keyboard 106 perform pointing input and input of characters and the like by the user (doctor). The above components are communicably connected to each other by a shared bus 107.

本実施例において、画像処理装置1はLAN(Local Area Network)3を介して、データベース2から医用画像データを読み出すことができる。ここで、データベース2として既存のPACS(Picture Archiving and Communicating System)を利用することができる。なお、3次元医用画像データの種類には、X線CT画像、MRI画像、PET画像、SPECT画像などがある。   In the present embodiment, the image processing apparatus 1 can read medical image data from the database 2 via a LAN (Local Area Network) 3. Here, an existing Picture Archiving and Communicating System (PACS) can be used as the database 2. The types of three-dimensional medical image data include an X-ray CT image, an MRI image, a PET image, and a SPECT image.

なお、上述の機器構成は、一般的なコンピュータ及びその周辺装置を用いて構成することができる。また、図4を用いて後述する本発明に係る画像処理装置の制御手順は、コンピュータ上で実行されるコンピュータプログラムとして実現することができる。   In addition, the above-mentioned apparatus structure can be comprised using a general computer and its peripheral device. Further, the control procedure of the image processing apparatus according to the present invention described later with reference to FIG. 4 can be realized as a computer program executed on a computer.

図3に本実施例の画像処理の概要を示す。図3においてMI3は診断対象となる3次元医用画像であり、データベースから入力されたものである。本実施例では胸部X線CT像を例に挙げ、異常陰影の有無や特徴を画像診断する際に用いる処理装置について説明する。IF3は画像所見入力エリアであり、プルダウンメニューから画像所見を入力することができる。画像所見が入力されると、予め画像所見と対応付けられた画像特徴量の種別が同定される。そして、各断層像について当該画像特徴量を算出して、そこからさらに断層像選択指標を算出する。そして、断層像選択指標に従って、入力された画像所見の特徴を表す断層像が選択される。図3においては、画像所見として「棘状突起」が入力され、予め「棘状突起」に対応付いている画像特徴量から断層像選択指標が算出される。そして算出結果より、断層像T3が選択される。   FIG. 3 shows an outline of the image processing of this embodiment. In FIG. 3, MI3 is a three-dimensional medical image to be diagnosed, which is input from a database. In the present embodiment, a chest X-ray CT image is taken as an example, and a processing apparatus used when making an image diagnosis of the presence or absence of an abnormal shadow or a feature will be described. IF 3 is an imaging findings input area, and imaging findings can be input from the pull-down menu. When the image finding is input, the type of the image feature amount associated with the image finding is identified in advance. And the said image feature-value is calculated about each tomogram, and a tomogram selection index is further calculated from there. Then, according to the tomogram selection index, the tomogram representing the features of the input image findings is selected. In FIG. 3, “Squamous process” is input as the image finding, and a tomogram selection index is calculated from the image feature amount previously associated with “Squamous process”. Then, based on the calculation result, the tomographic image T3 is selected.

図4は本実施例のフローチャートである。画像処理装置1が実行する具体的な処理手順を、このフローチャートに沿って説明する。   FIG. 4 is a flowchart of this embodiment. A specific processing procedure executed by the image processing apparatus 1 will be described along this flowchart.

<ステップS410>
ステップS410において、3次元医用画像取得部1001は、データベース2から3次元医用画像を取得する。本実施例では、取得した画像をそのまま後段の処理に用いてもよいし、ユーザが関心領域(ROI、Region of Interest)を指定し、画像の領域を限定してもよい。領域を限定する場合、例えば不図示のGUIを介して3次元医用画像中から領域を指定し、それを後段の処理で扱う3次元医用画像として置き換えてもよい。
<Step S410>
In step S410, the three-dimensional medical image acquisition unit 1001 acquires a three-dimensional medical image from the database 2. In the present embodiment, the acquired image may be used as it is in the subsequent processing, or the user may designate a region of interest (ROI, Region of Interest) and limit the region of the image. In the case of limiting the area, for example, the area may be designated from the three-dimensional medical image through a GUI (not shown), and the area may be replaced as a three-dimensional medical image to be handled in the subsequent processing.

<ステップS420>
ステップS420において、注目所見取得部1002は、3次元医用画像について、ユーザが不図示のGUIを介して入力した画像所見を注目所見として取得する。本実施例では、取得した3次元医用画像をユーザが画像診断し、図3のIF3に示すような画像所見入力フォームを用いて画像所見を入力する。ここで、入力できる画像所見は例えば、「類球形」、「棘状突起」、「境界不明瞭」などである。ユーザは、これらのうち少なくとも一つ入力する。なお、画像所見の選択方法はこれに限定されるものではない。例えばデータベースに同一患者の過去の診断結果が保存されている場合、その診断結果で入力されている画像所見を注目所見として用いてもよい。
<Step S420>
In step S420, the notable finding acquisition unit 1002 acquires, as a notable finding, an imaging finding input by the user via a GUI (not shown) for a three-dimensional medical image. In the present embodiment, the user diagnoses the acquired three-dimensional medical image, and inputs an image finding using an image finding input form as shown at IF 3 in FIG. 3. Here, the imaging findings that can be input are, for example, "spheroid", "spinoid process", "border boundary unclear", and the like. The user inputs at least one of these. In addition, the selection method of an imaging finding is not limited to this. For example, when past diagnosis results of the same patient are stored in the database, the imaging findings input in the diagnosis results may be used as the attention findings.

<ステップS430>
ステップS430において、特徴量種別同定部1003は、注目所見取得部1002で得た注目所見に基づいて算出する画像特徴量の種別を同定する。本実施例では、夫々の画像所見に対して画像特徴量の種別が予め対応付けられており、選ばれた注目所見から自動的に算出する画像特徴量の種別が決定される。画像所見と画像特徴量種別を対応付けた例は下記の通りである。
「類球形」 :円形度C、縦横比A
「棘状突起」:輪郭線長L、充填率F
「境界不明瞭」:境界エッジ成分の総和E
<Step S430>
In step S430, the feature amount type identification unit 1003 identifies the type of the image feature amount calculated based on the notable finding obtained by the notable finding acquisition unit 1002. In the present embodiment, the type of the image feature amount is associated in advance with each image finding, and the type of the image feature amount to be automatically calculated from the selected notable finding is determined. An example in which the image findings and the image feature amount type are associated is as follows.
"Spherical": Roundness C, aspect ratio A
"Squamous process": contour line length L, filling factor F
"Boundary unclear": Sum of boundary edge components E

<ステップS440>
ステップS440において、特徴量算出部1004は、注目所見取得部1002で得た注目所見に基づいて、3次元医用画像の夫々の断層像に対して、ステップS430で種別を同定した画像特徴量を算出する。
ここで、円形度C、縦横比A、輪郭線長L、充填率Fは3次元医用画像から生成された二値画像から算出される。二値画像の生成法について、本実施例では、3次元医用画像のヒストグラムから判別分析法で閾値を決定し、二値化処理を施す。生成した二値画像を用いて、円形度C、縦横比A、充填率Fは下記の式で算出される。
<Step S440>
In step S440, the feature amount calculation unit 1004 calculates an image feature amount whose type is identified in step S430 with respect to each tomogram of the three-dimensional medical image based on the noted findings obtained by the noted finding acquisition unit 1002. Do.
Here, the degree of circularity C, the aspect ratio A, the outline length L, and the filling rate F are calculated from a binary image generated from a three-dimensional medical image. With regard to the method of generating a binary image, in this embodiment, a threshold value is determined by the discriminant analysis method from the histogram of a three-dimensional medical image, and a binarization process is performed. Using the generated binary image, the degree of circularity C, the aspect ratio A, and the filling factor F are calculated by the following equations.

Figure 0006527614
Figure 0006527614
Figure 0006527614
Figure 0006527614
Figure 0006527614
Figure 0006527614

ここで、Areaは二値画像中の各領域の面積である。また、Ferethは水平方向フェレ径、Feretvは垂直方向フェレ径であり、いずれも二値画像における各領域の外接矩形から算出される。二値画像中に複数領域が存在する場合、本実施例では、一番面積の大きな領域を対象領域とし、画像特徴量を算出する。輪郭線長Lは対象領域の輪郭線の長さとする。エッジ成分の総和Eは対象領域の輪郭線上におけるエッジ成分の総和とする。エッジ成分は3次元医用画像にSobelフィルタを適用し得られる成分とする。   Here, Area is the area of each area in the binary image. Further, Fereth is a horizontal Feret diameter, and Feretv is a vertical Feret diameter, both of which are calculated from circumscribed rectangles of the respective regions in the binary image. When a plurality of regions exist in the binary image, in the present embodiment, the region with the largest area is taken as a target region, and the image feature amount is calculated. The outline length L is the length of the outline of the target area. The sum E of edge components is the sum of edge components on the outline of the target area. Edge components are components obtained by applying a Sobel filter to a three-dimensional medical image.

これらの算出方法で、注目所見に対応付けられた画像特徴量を各断層像において算出する。本実施例ではaxial、coronal、sagitalの各切断方向における断層像群(例えば、1mm間隔で生成した断層像群)について画像特徴量を算出する。なお、画像特徴量を算出する断層像の選び方はこれに限定されるものではない。例えば断層像の切断方向はaxial、coronal、sagitalに限定されるものではなく、自由な切断方向で断層像群を作成してよい。例えば画像の中心を通るx軸、y軸、z軸を設定し、いずれか1つ、ないし2つの軸を回転中心として、10°ずつ180°回転させてできる切断方向の断層像群から画像特徴量を算出してもよい。   By these calculation methods, the image feature amount associated with the notable observation is calculated in each tomogram. In the present embodiment, image feature quantities are calculated for tomographic image groups (for example, tomographic image groups generated at intervals of 1 mm) in respective axial, coronal, sagital cutting directions. Note that how to select a tomographic image for calculating an image feature amount is not limited to this. For example, the cutting direction of tomograms is not limited to axial, coronal, sagital, and a tomogram group may be created with free cutting directions. For example, an image feature is generated from a tomogram group in a cutting direction which is formed by setting an x-axis, a y-axis, and a z-axis passing through the center of the image and rotating 180 degrees by 10 ° about one or two axes. The amount may be calculated.

<ステップS450>
ステップS450において、断層像特定部1005は、特徴量算出部1004で算出した画像特徴量を基に、注目所見の特徴を表す断層像を決定する。本実施例では、ステップS440で算出した画像特徴量から各断層像が「注目所見を表す度合い」を示す値を算出し(数値化し)、これを当該注目所見に基づく「断層像選択指標」とする。例として、前記3つの画像所見に対応する断層像選択指標を算出するための数式の例を下記に示す。
<Step S450>
In step S450, based on the image feature amount calculated by the feature amount calculation unit 1004, the tomogram identification unit 1005 determines a tomogram representing the feature of the notable observation. In the present embodiment, a value indicating “the degree to which the tomogram represents the notable finding” is calculated (digitized) from the image feature amount calculated in step S440, and this is “tomographic image selection index” based on the notable finding Do. As an example, an example of a mathematical expression for calculating a tomogram selection index corresponding to the three image findings is shown below.

Figure 0006527614
Figure 0006527614
Figure 0006527614
ここで,wは予め定めた重みである。本実施例ではw1〜w5 = 1.0としている。
Figure 0006527614
Figure 0006527614
Figure 0006527614
Here, w is a predetermined weight. In the present embodiment, w1 to w5 = 1.0.

なお、指標算出の数式の中に、「注目所見を表す度合い」以外の他の選択基準を組み込んでもよい。例えば、二値画像中の領域の大きさや、関心領域の重心への近さなどを表す項を上記の数式に加算することで、注目所見以外の基準が考慮されるようにしてもよい。   In addition, you may incorporate other selection criteria other than "the degree which represents an attention finding" in the index calculation formula. For example, criteria other than the notable findings may be taken into consideration by adding to the above equation the terms representing the size of the region in the binary image and the proximity of the region of interest to the center of gravity.

これらの式を用いて注目所見に対応する断層像選択指標を各断層像について算出する。そして断層像選択指標が最大となる断層像を表示する断層像として決定する。なお、ステップS420において複数所見が選択された場合には、本実施例では、選ばれた全ての注目所見について断層像選択指標を算出し、指標の合計値が一番大きい断層像を表示する断層像として決定する。そして、レポートのためのデータとしてこれを保存する。   A tomogram selection index corresponding to a notable observation is calculated for each tomogram using these formulas. Then, the tomogram for which the tomogram selection index is maximum is determined as the tomogram to be displayed. In the case where a plurality of findings are selected in step S420, in the present embodiment, a tomographic image selection index is calculated for all selected target findings, and a tomographic image for displaying a tomographic image having the largest total value of the indices is displayed. Determined as an image. And save this as data for the report.

<ステップS460>
ステップS460において、表示制御部1006は、断層像特定部1005で特定された断層像を表示する。
<Step S460>
In step S460, the display control unit 1006 displays the tomogram specified by the tomogram specifying unit 1005.

このように、画像所見に対応付いた画像特徴量を基に表示する断層像を選ぶことで、入力された画像所見の特徴を表す断層像を自動的に選ぶことができる。   Thus, by selecting a tomogram to be displayed based on the image feature amount associated with the image finding, it is possible to automatically select a tomogram representing the feature of the input image finding.

<変形例1>
上記実施例では、ステップS450において、注目所見が複数存在する場合、夫々の断層像選択指標を算出し、その合計値から断層像を決定している。しかし、各断層像選択指標を最大化する断層像を夫々選び、各注目所見に対応付けて表示してもよい。また、この場合、レポートに用いる断層像をこの中からユーザが選択できるようにしてもよい。
<Modification 1>
In the above embodiment, in the case where a plurality of notable findings are present in step S450, each tomogram selection index is calculated, and a tomogram is determined from the total value thereof. However, tomograms that maximize each tomogram selection index may be respectively selected and displayed in association with each notable observation. Also, in this case, the user may be able to select a tomographic image to be used for the report.

<第2実施例>
本実施例では、画像所見の入力において、ユーザの指示を用いずに、3次元医用画像から画像特徴量を算出し、注目所見を自動選択する例を説明する。取得した画像から算出した画像特徴量に基づいて、画像中に含まれるであろう画像所見を同定し、これを注目所見として自動選択することができる。
Second Embodiment
In this embodiment, an example will be described in which an image feature amount is calculated from a three-dimensional medical image and an attention finding is automatically selected without using a user's instruction in inputting an image finding. Based on the image feature quantity calculated from the acquired image, it is possible to identify an image finding which will be included in the image and automatically select it as a notable finding.

装置の構成については第1実施例と同様であるため、説明は省略する。ただし、注目所見取得部1002が3次元医用画像から注目所見を自動選択する点が第1実施例とは異なっている。また、画像処理装置1がソフトウェアの指令に基づき動作する場合には、ROMまたはHDDに格納されたプログラムは図5の処理を実行し、また、そのための機能を実現するためのプログラムである点が異なっている。   The configuration of the apparatus is the same as that of the first embodiment, so the description will be omitted. However, this embodiment differs from the first embodiment in that the focused finding acquisition unit 1002 automatically selects a focused finding from a three-dimensional medical image. Further, when the image processing apparatus 1 operates based on a command of software, the program stored in the ROM or the HDD executes the processing of FIG. 5 and is a program for realizing the function therefor. It is different.

図5に従い、第2実施例に係るステップS520とステップS530の詳細を説明する。なお、ステップS510と、ステップS540からステップS570までの処理については第1実施例の図4のフローチャートにおけるステップS410とステップS430からステップS460までの処理と同様であるため、説明は省略する。   Details of steps S520 and S530 according to the second embodiment will be described with reference to FIG. The processes in steps S510 and S540 to S570 are the same as the processes in steps S410 and S430 to S460 in the flowchart of FIG. 4 of the first embodiment, and thus the description thereof is omitted.

<ステップS520>
ステップS520において、注目所見取得部1002は、3次元画像取得部1001で取得した3次元医用画像から注目所見選択用の特徴量を算出する。
<Step S520>
In step S520, the notable finding acquisition unit 1002 calculates a feature amount for focused observation selection from the three-dimensional medical image acquired by the three-dimensional image acquisition unit 1001.

本実施例では、まず、ステップS450の式(4)〜(6)を用いて各断層像において全ての種類の断層像選択指標を算出する。次に、各断層像から算出した断層像選択指標を断層像枚数分合計し、注目所見選択用の特徴量とする。つまり本実施例では、各3次元医用画像において、類球形指標、分葉状指標、不整形指標、棘状突起指標、境界不整指標など、用意された全種類の指標が算出され、各指標について断層像枚数分合計した値が特徴量として算出される。なお、注目所見選択用の特徴量の算出方法はこれに限定されるものではない。例えば、各断層像において算出した指標の最大値を注目所見選択用の特徴量として用いてもよい。   In the present embodiment, first, tomogram selection indexes of all types are calculated in each tomogram using the equations (4) to (6) in step S450. Next, the tomogram selection indices calculated from the respective tomograms are summed up by the number of tomograms, and are used as feature amounts for selecting a notable finding. That is, in this embodiment, in each three-dimensional medical image, all kinds of prepared indexes such as spheroid index, leaf shape index, irregular index, spinous process index, boundary irregular index etc are calculated, and each index A value obtained by totaling the number of images is calculated as a feature amount. Note that the method of calculating the feature amount for selecting the notable finding is not limited to this. For example, the maximum value of the index calculated in each tomogram may be used as the feature amount for selecting the notable observation.

<ステップS530>
ステップS530において、注目所見取得部1002は、ステップS520で算出した注目所見選択用の特徴量を基に画像中に含まれるであろう画像所見を同定し、これを注目所見として選択する。
<Step S530>
In step S530, the notable finding acquisition unit 1002 identifies an image finding that will be included in the image based on the feature amount for the notable finding selection calculated in step S520, and selects this as a notable finding.

本実施例では、ステップS520で算出した注目所見選択用の特徴量に閾値処理を施すことにより3次元医用画像の画像所見を選択する。各特徴量について予め閾値を設定しておき、閾値以上の特徴量に対応する画像所見を注目所見として選択する。閾値以上の特徴量が複数存在した場合、それら全てを注目所見として扱い、次のステップへ渡す。ただし、同じカテゴリに属する画像所見(例えば「形状」のカテゴリに属する画像所見は「類球形」、「分葉状」、「不整形」)が複数選択された場合、それらのうち特徴量が最大のものを一つ選び、注目所見とする。なお、画像所見の選択方法はこれに限られるものではない。例えば過去の診断結果に対して求めた特徴量と画像所見との組を用いた学習によって、Support Vector MachineやAdaBoostなどで識別器を構築することで、特徴量から画像所見を選択してもよい。   In the present embodiment, the image finding of the three-dimensional medical image is selected by performing threshold processing on the feature amount for the notable finding selection calculated in step S520. A threshold value is set in advance for each feature amount, and an image finding corresponding to the feature amount equal to or more than the threshold is selected as an attention finding. When there are a plurality of feature amounts equal to or greater than the threshold value, all of them are treated as attention findings and passed to the next step. However, when a plurality of image findings belonging to the same category (for example, image findings belonging to the category of “shape” are “aspheric,” “lobular,” “irregular”) are selected, the feature amount is largest among them Choose one and make it a notable finding. The method of selecting the imaging findings is not limited to this. For example, an image finding may be selected from feature amounts by constructing a classifier using Support Vector Machine, AdaBoost, or the like by learning using a combination of feature amounts and image findings obtained with respect to past diagnostic results. .

このように、特徴量から注目所見を選ぶことで、医師による画像所見入力作業が自動化される。つまり、画像所見の入力から、画像所見の特徴を表す断層像を表示するまでの処理が全て自動になる。   As described above, the imaging findings input operation by the doctor can be automated by selecting the attention finding from the feature amount. That is, all the processes from the input of the imaging findings to the display of the tomogram representing the features of the imaging findings become automatic.

<第3実施例>
本実施例では、第1実施例、または第2実施例の方法を用いて注目所見を取得した後、推論器を用いて鑑別診断を行うとともに、診断に寄与した注目所見の特徴を表した断層像を表示する。なお、本実施例では医師は注目所見以外の画像所見も入力しているものとする。
Third Embodiment
In the present embodiment, after obtaining a finding of interest using the method of the first embodiment or the second embodiment, a differential diagnosis is performed using an inference device, and a fault representing the feature of the finding of interest contributing to the diagnosis Display the image. In the present embodiment, it is assumed that the doctor inputs image findings other than the notable findings.

装置の構成については第1実施例と同様であるため、説明は省略する。ただし、注目所見取得部1002が多数の画像所見から注目所見を自動選択する点が第1実施例とは異なっている。また、画像処理装置1がソフトウェアの指令に基づき動作する場合には、ROMまたはHDDに格納されたプログラムは図6の処理を実行し、また、そのための機能を実現するためのプログラムである点が異なっている。   The configuration of the apparatus is the same as that of the first embodiment, so the description will be omitted. However, this embodiment differs from the first embodiment in that the focused finding acquisition unit 1002 automatically selects a focused finding from a large number of image findings. Further, when the image processing apparatus 1 operates based on a command of software, the program stored in the ROM or the HDD executes the processing of FIG. 6 and is a program for realizing the function therefor. It is different.

図6に従い、第3実施例に係るステップS630、S640の詳細を説明する。なお、ステップS610、S620と、ステップS650〜S680までの処理については第1実施例の図4のフローチャートにおけるステップS410、S420とステップS430からステップS460までの処理と同様であるため、説明は省略する。   Details of steps S630 and S640 according to the third embodiment will be described with reference to FIG. The processes of steps S610 and S620 and steps S650 to S680 are the same as the processes of steps S410 and S420 and steps S430 to S460 in the flowchart of FIG. 4 of the first embodiment, and thus the description thereof is omitted. .

<ステップS630>
ステップS630において、注目所見取得部1002は、取得した全ての画像所見を推論器に入力する。推論手段として、ベイジアンネットワーク、ニューラルネットワークなど既存の推論手法が利用できる。本実施例では、推論手段としてベイジアンネットワークを用いる。ベイジアンネットワークは条件付確率を用いた推論モデルであり、本実施例に適用すると、画像所見を入力として各診断名の推論確率が取得できる。本実施例で扱う診断名は「原発性肺癌」、「癌の肺転移」、「その他」である。
<Step S630>
In step S630, the notable finding acquisition unit 1002 inputs all the acquired image findings to the inference unit. As the inference means, existing inference methods such as Bayesian networks and neural networks can be used. In this embodiment, a Bayesian network is used as an inference means. The Bayesian network is an inference model using conditional probability, and when applied to the present embodiment, it is possible to obtain an inference probability of each diagnosis using image findings as an input. The diagnostic names used in this example are "primary lung cancer", "lung metastasis of cancer", and "others".

また、本実施例では、各診断名をDi,各所見をSjとすると、Sjの寄与度を事前確率P(Di)(入力がない場合の各診断名の確率)とSjのみが入力された場合の確率P(Di|Sj)との差を用いて算出する。例えば、診断名Diに対する所見Sjの寄与度 C(Di|Sj)は次式で表される。

Figure 0006527614
In this embodiment, assuming that each diagnosis name is Di and each finding is Sj, only the prior probability P (Di) (probability of each diagnosis name when there is no input) and Sj are input. It calculates using the difference with the probability P (Di | Sj) of a case. For example, the degree of contribution C (Di | Sj) of the finding Sj to the diagnostic name Di is expressed by the following equation.
Figure 0006527614

各診断名における寄与度は、選択肢として用意した全ての画像所見について算出される。本実施例では、ベイジアンネットワークによる推論結果で一番確率の高い診断名(推定診断名)における各画像所見の寄与度を次のステップに送る。   The degree of contribution in each diagnosis is calculated for all the imaging findings prepared as options. In the present embodiment, the degree of contribution of each image finding in the diagnosis with the highest probability (estimated diagnosis) in the inference result by the Bayesian network is sent to the next step.

<ステップS640>
ステップS640において、注目所見取得部1002は、ステップS630で算出した寄与度にしたがって注目所見を選択する。本実施例では、ステップS630で算出した寄与度について閾値処理を行うことにより注目所見を選択する。寄与度について予め閾値を設定しておき、閾値以上の寄与度を得た注目所見が選択される。寄与度が閾値以上の注目所見が複数存在する場合、それら全てが選択される。寄与度が閾値以上の注目所見が存在しない場合、寄与度が最大の注目所見が選択される。なお、この選択方法以外にも、閾値を用いずに寄与度が最大の注目所見を選択してもよい。
<Step S640>
In step S640, the notable finding acquisition unit 1002 selects a notable finding in accordance with the degree of contribution calculated in step S630. In the present embodiment, a notable observation is selected by performing threshold processing on the degree of contribution calculated in step S630. A threshold is set in advance for the degree of contribution, and a notable finding for which the degree of contribution equal to or greater than the threshold is obtained is selected. If there are multiple notable findings whose contribution degree is equal to or higher than the threshold, all of them are selected. If there is no notable finding whose contribution degree is equal to or more than the threshold value, the attention finding with the largest contribution degree is selected. In addition to the selection method, a notable finding having the largest contribution may be selected without using a threshold.

このように、推論器から得られる診断名への寄与度を基に注目所見を選択することで、推論結果を裏付ける画像所見の特徴を表した断層像を表示することができる。   As described above, by selecting the notable observation on the basis of the degree of contribution to the diagnostic name obtained from the inference unit, it is possible to display a tomogram representing the feature of the image findings supporting the inference result.

<変形例2>
上記実施例では、ステップS630において、ベイジアンネットワークによる推論結果で一番確率の高い診断名において寄与度を算出し、注目所見選択の対象としていた。しかし、ユーザ(医師)の入力した診断名における寄与度から注目所見を選択してもよい。具体的には、医師がインプレッションとして入力した診断名とベイジアンネットワークの推論した診断名が違ったとき、医師の選んだ診断名への寄与度を基に注目所見を選択してもよい。これによると、医師の診断の根拠を説明するような画像所見を表す断層像が選択されるという効果が得られる。
<Modification 2>
In the above embodiment, in step S630, the degree of contribution is calculated for the diagnosis with the highest probability in the inference result by the Bayesian network, and is used as the target of the notable finding selection. However, attention findings may be selected from the degree of contribution of the user (doctor) in the input diagnostic name. Specifically, when the diagnosis input by the doctor as an impression is different from the inferred diagnosis by the Bayesian network, the attention findings may be selected based on the degree of contribution to the diagnosis selected by the doctor. According to this, it is possible to obtain an effect that a tomogram representing an imaging finding that explains the basis of a doctor's diagnosis is selected.

<その他の実施例>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施例の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other Embodiments>
The present invention is also realized by executing the following processing. That is, software (program) for realizing the functions of the above-described embodiment is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU or the like) of the system or apparatus reads the program. It is a process to execute.

1 画像処理装置
2 データベース
3 LAN(Local Area Network)
1001 3次元医用画像取得部
1002 注目所見取得部
1003 特徴量種別同定部
1004 特徴量算出部
1005 断層像特定部
1006 表示制御部
1 Image processing apparatus 2 Database 3 LAN (Local Area Network)
1001 Three-dimensional medical image acquisition unit 1002 notable observation acquisition unit 1003 feature amount type identification unit 1004 feature amount calculation unit 1005 tomographic image identification unit 1006 display control unit

Claims (11)

次元医用画像に関する所見を用いて、診断名を推論する推論手段と
推論に用いられた所見のうち、前記診断名の推論に寄与した所見を選択する選択手段と、
前記選択された所見の特徴を表す少なくとも1つの断層像を、前記三次元医用画像から特定する特定手段と、
を有することを特徴とする画像処理装置。
Using the findings concerning the three-dimensional medical image, an inference means for inferring the diagnosis,
Of the findings previously used Symbol reasoning, selection means for selecting the findings contributed to the inference of the diagnosis,
Specifying means for specifying at least one tomogram representing the feature of the selected finding from the three-dimensional medical image ;
An image processing apparatus comprising:
前記特定手段は、前記選択された所見の特徴を表す値である特徴量に基づいて、前記三次元医用画像から前記少なくとも1つの断層像を特定することを特徴とする請求項1に記載の画像処理装置。 The image according to claim 1, wherein the specifying unit specifies the at least one tomogram from the three-dimensional medical image based on a feature amount that is a value representing a feature of the selected finding. Processing unit. 前記推論に用いられた所見ごとに、前記診断名の推論に寄与した度合いを示す寄与度を算出する算出手段
を更に有し、
前記選択手段は、前記寄与度を用いて、前記診断名の推論に寄与した所見を選択することを特徴とする請求項1または2に記載の画像処理装置。
Calculation means for calculating a contribution degree indicating the degree of contribution to the inference of the diagnosis name for each finding used for the inference
And have
It said selection means, using said contribution, the image processing apparatus according to claim 1 or 2, characterized in that selecting the findings contributed to the inference of the diagnosis.
前記選択手段は、前記寄与度が閾値以上の所見を、前記診断名の推論に寄与した所見として選択することを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 3 , wherein the selection unit selects a finding whose contribution degree is equal to or more than a threshold as a finding contributing to the inference of the diagnosis name . 前記選択手段は、前記寄与度が最も高い所見を、前記診断名の推論に寄与した所見として選択することを特徴とする請求項3または4に記載の画像処理装置。 The image processing apparatus according to claim 3 , wherein the selection unit selects a finding with the highest degree of contribution as a finding that has contributed to inference of the diagnosis name . 前記算出手段は、前記所見を用いた場合の前記診断名の推論確率と、前記所見を用いない場合の前記診断名の推論確率との差を用いて、前記寄与度を算出することを特徴とする請求項3乃至5のいずれか1項に記載の画像処理装置。 The calculation means is characterized in that the degree of contribution is calculated using a difference between an inference probability of the diagnosis when using the finding and an inference probability of the diagnosis when not using the finding. The image processing apparatus according to any one of claims 3 to 5 . ユーザから診断名の入力を受け付ける受付手段
を更に有し、
前記選択手段は、前記入力を受け付けた診断名と、前記推論された診断名とが異なる場合に、前記入力を受け付けた診断名の推論に寄与した所見を選択することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
Acceptance means for accepting input of diagnostic name from user
And have
It said selection means includes a diagnosis accepted the input, if the inference diagnostic names are different, according to claim 1, characterized in that selecting the findings contributed to infer the diagnosis accepted the input The image processing apparatus according to any one of items 1 to 6 .
前記特定された断層像を表示部に表示させる表示制御手段を更に有することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 7 , further comprising display control means for causing the display unit to display the identified tomographic image . 前記断層像の切断方向は、アキシャル、コロナル、サジタルのいずれかの切断方向、または自由な切断方向であることを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。The image processing apparatus according to any one of claims 1 to 8, wherein a cutting direction of the tomogram is any of axial, coronal, and sagittal cutting directions, or a free cutting direction. 次元医用画像に関する所見を用いて、診断名を推論する工程と
推論に用いられた所見のうち、前記診断名の推論に寄与した所見を選択する工程と、
前記選択された所見の特徴を表す少なくとも1つの断層像を、前記三次元医用画像から特定する工程と、
を有することを特徴とする画像処理装置の作動方法。
Inferring a diagnostic name using findings on a three- dimensional medical image ;
Of the findings previously used Symbol reasoning, and selecting the findings contributed to the inference of the diagnosis,
At least one tomographic image indicating a feature of the selected findings, and as engineering that identifies from the three-dimensional medical image,
A method of operating an image processing apparatus, comprising:
請求項10に記載の方法をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute the method according to claim 10 .
JP2018053941A 2018-03-22 2018-03-22 Image processing apparatus and operation method of image processing apparatus Active JP6527614B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018053941A JP6527614B2 (en) 2018-03-22 2018-03-22 Image processing apparatus and operation method of image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018053941A JP6527614B2 (en) 2018-03-22 2018-03-22 Image processing apparatus and operation method of image processing apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015252884A Division JP6313741B2 (en) 2015-12-25 2015-12-25 Image processing apparatus and method of operating image processing apparatus

Publications (2)

Publication Number Publication Date
JP2018136961A JP2018136961A (en) 2018-08-30
JP6527614B2 true JP6527614B2 (en) 2019-06-05

Family

ID=63367003

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018053941A Active JP6527614B2 (en) 2018-03-22 2018-03-22 Image processing apparatus and operation method of image processing apparatus

Country Status (1)

Country Link
JP (1) JP6527614B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7349345B2 (en) * 2019-12-23 2023-09-22 富士フイルムヘルスケア株式会社 Image diagnosis support device, image diagnosis support program, and medical image acquisition device equipped with the same

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6212519B1 (en) * 1998-06-30 2001-04-03 Simulconsult, Inc. Systems and methods for quantifying qualitative medical expressions
JP2004351056A (en) * 2003-05-30 2004-12-16 Konica Minolta Medical & Graphic Inc Medical image processing apparatus
JP5153281B2 (en) * 2007-09-28 2013-02-27 キヤノン株式会社 Diagnosis support apparatus and control method thereof
JP5179902B2 (en) * 2008-02-29 2013-04-10 株式会社東芝 Medical image interpretation support device
JP5350201B2 (en) * 2009-12-08 2013-11-27 キヤノン株式会社 Inference apparatus, inference method, and program

Also Published As

Publication number Publication date
JP2018136961A (en) 2018-08-30

Similar Documents

Publication Publication Date Title
US10497118B2 (en) Image processing apparatus and image processing method of a three-dimensional medical image
US10568512B2 (en) Control method of information terminal and computer-readable recording medium
JP5383431B2 (en) Information processing apparatus, information processing method, and program
JP5618787B2 (en) Report creation support apparatus, creation support method thereof, and program
JP6016406B2 (en) Medical diagnosis support apparatus, medical diagnosis support method, and input support system
US10290096B2 (en) Diagnosis support apparatus, information processing method, and storage medium
JP6818424B2 (en) Diagnostic support device, information processing method, diagnostic support system and program
JP5864942B2 (en) Image processing apparatus and image processing method
JP5661890B2 (en) Information processing apparatus, information processing method, and program
JP2011131022A (en) Medical diagnosis supporting apparatus
JP6362061B2 (en) Diagnosis support system, operation method thereof, and program
WO2021108100A1 (en) Medical scan co-registration and methods for use therewith
JP6257564B2 (en) Diagnosis support apparatus, diagnosis support system, operation method and program for diagnosis support apparatus
JP6527614B2 (en) Image processing apparatus and operation method of image processing apparatus
Eckstein et al. Evaluation of search strategies for microcalcifications and masses in 3D images
JP6313741B2 (en) Image processing apparatus and method of operating image processing apparatus
CN108984587B (en) Information processing apparatus, information processing method, information processing system, and storage medium
JP6686085B2 (en) Diagnosis support device, method of operating diagnosis support device, and program
JP6530841B2 (en) DIAGNOSTIC SUPPORT SYSTEM, OPERATION METHOD THEREOF, DIAGNOSTIC SUPPORT DEVICE, AND PROGRAM
JP6403832B2 (en) Diagnosis support apparatus, diagnosis support method and program
WO2022239593A1 (en) Document creation assistance device, document creation assistance method, and document creation assistance program
JP6147304B2 (en) Medical diagnosis support device and medical diagnosis support system
JP5863916B2 (en) Report creation support apparatus, creation support method thereof, and program
JP2014061397A (en) Medical diagnosis support apparatus, medical diagnosis support system, and medical diagnosis support method and program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190510

R151 Written notification of patent or utility model registration

Ref document number: 6527614

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151