JP2021007659A - Medical information processing device and program - Google Patents

Medical information processing device and program Download PDF

Info

Publication number
JP2021007659A
JP2021007659A JP2019123307A JP2019123307A JP2021007659A JP 2021007659 A JP2021007659 A JP 2021007659A JP 2019123307 A JP2019123307 A JP 2019123307A JP 2019123307 A JP2019123307 A JP 2019123307A JP 2021007659 A JP2021007659 A JP 2021007659A
Authority
JP
Japan
Prior art keywords
image
region
extracted
extraction means
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019123307A
Other languages
Japanese (ja)
Other versions
JP7287151B2 (en
Inventor
絵梨 根本
Eri Nemoto
絵梨 根本
仁 二村
Hitoshi Futamura
仁 二村
洋日 松本
Hiroaki Matsumoto
洋日 松本
寛威 南
Hirotake Minami
寛威 南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2019123307A priority Critical patent/JP7287151B2/en
Publication of JP2021007659A publication Critical patent/JP2021007659A/en
Application granted granted Critical
Publication of JP7287151B2 publication Critical patent/JP7287151B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

To assist in collecting a specimen suitable for diagnosis in performing biological examination to a subject, to prevent overlooking in findings, to reduce false positives and false negatives, and to reduce an examination time.SOLUTION: A control part of an information processing device extracts one or more areas, an area having pathologically the same characteristic within a lesion area included in a subject from a first image acquired by photographing the subject being one area. It also extracts, from a second image different from the first image acquired by photographing the subject, an area pathologically the same characteristic as the area extracted from the first image. Then, it associates the second image with information on the area extracted from a lesion area in the second image to output them.SELECTED DRAWING: Figure 4

Description

本発明は、医用情報処理装置及びプログラムに関する。 The present invention relates to a medical information processing device and a program.

臨床の現場でがん患者の個別化治療を推進していくためには、腫瘍の種類や進行期を診断した上で、外科的切除、化学療法、放射線療法等の治療法を決定する必要がある。治療法の決定のため、超音波ガイド下にて針を挿入して腫瘍検体の採取を行い、病理学的な解析が行われている。 In order to promote individualized treatment of cancer patients in the clinical setting, it is necessary to determine the treatment method such as surgical resection, chemotherapy, radiation therapy, etc. after diagnosing the type and advanced stage of the tumor. is there. In order to determine the treatment method, a needle is inserted under ultrasonic guidance to collect a tumor sample, and pathological analysis is performed.

穿刺作業をより容易にするために、超音波プローブに穿刺針を装着するためのアタッチメントや、穿刺専用の超音波プローブが実用化されている。これらを用いることで、超音波スキャン面の中で穿刺針が進入していく経路を特定し、進入予測経路をライン状のマーカーとして表示することが可能であるため、医師等の操作者は、超音波断層像でマーカー上に存在する組織等を観察し、そのマーカー上に血管等が存在していないこと及び穿刺針が病変部(採取ターゲット)に向かっていることを確認しながら、患者体表に対する超音波プローブの適用位置及び角度を探索することができる。 In order to make the puncture work easier, an attachment for attaching a puncture needle to the ultrasonic probe and an ultrasonic probe dedicated to puncture have been put into practical use. By using these, it is possible to identify the path through which the puncture needle enters in the ultrasonic scan surface and display the approach prediction path as a line-shaped marker. Therefore, an operator such as a doctor can use these. Observe the tissue etc. existing on the marker with an ultrasonic tomographic image, and confirm that there are no blood vessels etc. on the marker and that the puncture needle is toward the lesion (collection target), and the patient's body The application position and angle of the ultrasonic probe with respect to the table can be searched.

また、X線CTやMRI等の画像収集装置で収集した3次元ボリュームデータから、操作者により任意に指定された仮想穿刺用超音波プローブの位置及び角度に応じた超音波スキャン面に対応する断面画像を穿刺断面及び情報生成装置で再構成し、モニターに表示することでより高精度な穿刺を実現するシステムも存在する(例えば、特許文献1参照)。 In addition, a cross section corresponding to the ultrasonic scan surface according to the position and angle of the virtual puncture ultrasonic probe arbitrarily specified by the operator from the three-dimensional volume data collected by an image collecting device such as X-ray CT or MRI. There is also a system that realizes more accurate puncture by reconstructing an image with a puncture cross section and an information generator and displaying it on a monitor (see, for example, Patent Document 1).

このように、穿刺生検をガイドするためのシステムは数多く存在し、狙った箇所の細胞・組織を採取するための技術は高度化してきている。 As described above, there are many systems for guiding puncture biopsy, and the technique for collecting cells / tissues at a targeted site is becoming more sophisticated.

ここで、穿刺・針生検に基づく病理学的検査(生体検査)の課題の一つとして、腫瘍内不均一性が挙げられる。一つの腫瘍は多様な遺伝子変異を伴う、不均一な細胞集団から形成されていることが知られており、 Gerlinger らは、同一の腫瘍から良性および予後不良の複数の遺伝子発現パターンを検出したことを報告している(例えば、非特許文献1参照)。すなわち、診断を正確に行うには、腫瘍中の診断に適した箇所を狙って細胞・組織検体を採取する必要がある。 Here, one of the problems of pathological examination (biological examination) based on puncture / needle biopsy is intratumoral heterogeneity. One tumor is known to be formed from a heterogeneous cell population with diverse gene mutations, and Gerlinger et al. Detected multiple benign and poor prognosis gene expression patterns in the same tumor. (See, for example, Non-Patent Document 1). That is, in order to make an accurate diagnosis, it is necessary to collect cell / tissue samples at a location suitable for diagnosis in the tumor.

特開2002−112998号公報JP-A-2002-112998

Gerlinger M et al., “Intratumor Heterogeneity and Branched Evolution Revealed by Multiregion Sequencing”, N Engl J Med, 366: 883-92, 2012.Gerlinger M et al., “Intratumor Heterogeneity and Branched Evolution Revealed by Multiregion Sequencing”, N Engl J Med, 366: 883-92, 2012.

しかしながら、不均一な性質を持つ腫瘍のどの部分から検体を採取するのが適切かを正確に把握して診断に適した検体を採取することは非常に困難であり、一連の作業は医師の過去の知見や技術に大きく依存している。 However, it is very difficult to accurately grasp from which part of the tumor having non-uniform properties it is appropriate to collect a sample suitable for diagnosis, and a series of operations is a doctor's past. It relies heavily on the knowledge and technology of.


また、一般的に、生体組織生検は超音波診断装置のガイド下にて行われているが、超音波診断装置ガイド下での生体検査はリアルタイム性に優れている一方、特に手動スキャンの場合には病変の全体像を瞬時に捉えにくいという課題がある。

In addition, biopsy is generally performed under the guidance of an ultrasonic diagnostic device, but while biopsy under the guidance of an ultrasonic diagnostic device is excellent in real time, especially in the case of manual scanning. Has the problem that it is difficult to instantly grasp the whole picture of the lesion.

本発明は、被検体に対して生体検査を行う際に、診断に適した検体を採取できるように支援することを目的とする。また、より高精細かつ、病変全体の俯瞰性が高い画像を第一画像として病変領域内において同じ病理学的特徴を有する領域の抽出を行い、その結果に基づいて、第二画像から第一画像において抽出された領域と病理学的に同じ特徴を有する領域を抽出することで、病変の全体像を瞬時に捉えやすくし、所見の見落とし防止、偽陽性や偽陰性の低減、及び検査時間の削減を図ることを目的とする。 An object of the present invention is to support the collection of a sample suitable for diagnosis when performing a biopsy on a subject. In addition, a region having the same pathological characteristics is extracted in the lesion region using a higher-definition and highly bird's-eye view image of the entire lesion as the first image, and based on the result, the first image is used from the second image. By extracting a region that has the same pathological characteristics as the region extracted in, it is easy to instantly grasp the whole picture of the lesion, prevent oversight of findings, reduce false positives and false negatives, and reduce examination time. The purpose is to plan.

上記課題を解決するため、請求項1に記載の医用情報処理装置は、
被検体を撮影することにより取得された第一画像を解析して、前記第一画像から前記被検体に含まれる病変領域内において病理学的に同じ特徴を有する領域を一つの領域として、一又は複数の領域を抽出する第一抽出手段と、
前記被検体を撮影することにより取得された前記第一画像とは異なる第二画像を解析して、前記第二画像から前記第一抽出手段により抽出された領域と病理学的に同じ特徴を有する領域を抽出する第二抽出手段と、
前記第二画像と、前記第二抽出手段により抽出された領域に関する情報とを対応付けて出力する出力手段と、
を備える。
In order to solve the above problem, the medical information processing apparatus according to claim 1 is
The first image obtained by photographing the subject is analyzed, and the region having the same pathological characteristics within the lesion region contained in the subject from the first image is regarded as one region or one or more. The first extraction means to extract multiple regions and
A second image different from the first image obtained by photographing the subject is analyzed, and the region has the same pathological characteristics as the region extracted from the second image by the first extraction means. A second extraction means to extract the area,
An output means that outputs the second image in association with information about a region extracted by the second extraction means, and
To be equipped.

請求項2に記載の発明は、請求項1に記載の発明において、
前記第一抽出手段は、組織化学染色、腫瘍マーカー分析、アミノ酸分析、又は遺伝子解析によって決定される病理検査結果と関連付けられた領域抽出処理によって前記第一画像の病変領域内から前記一又は複数の領域を抽出する。
The invention according to claim 2 is the invention according to claim 1.
The first extraction means is one or more of the lesion areas of the first image by a region extraction process associated with a pathological test result determined by histochemical staining, tumor marker analysis, amino acid analysis, or genetic analysis. Extract the area.

請求項3に記載の発明は、請求項2に記載の発明において、
前記第一抽出手段は、画像特徴量と病理検査結果を対応付けて学習させた識別器を用いて前記第一画像の病変領域内から前記一又は複数の領域を抽出する。
The invention according to claim 3 is the invention according to claim 2.
The first extraction means extracts the one or a plurality of regions from the lesion region of the first image by using a discriminator trained by associating an image feature amount with a pathological examination result.

請求項4に記載の発明は、請求項1〜3のいずれか一項に記載の発明において、
前記第二抽出手段は、前記第一抽出手段と同様の手法によって前記第二画像から領域の抽出を行い、前記第一画像から抽出された領域の病理学的な特徴と前記第二画像から抽出された領域の病理学的な特徴を比較又は照合することにより、前記第一抽出手段により抽出された領域と病理学的に同じ特徴を有する領域を抽出する。
The invention according to claim 4 is the invention according to any one of claims 1 to 3.
The second extraction means extracts a region from the second image by the same method as the first extraction means, and extracts from the pathological features of the region extracted from the first image and the second image. By comparing or collating the pathological characteristics of the extracted regions, a region having the same pathological characteristics as the region extracted by the first extraction means is extracted.

請求項5に記載の発明は、請求項1〜4のいずれか一項に記載の発明において、
前記第一抽出手段により複数の領域が抽出された場合に、前記抽出された複数の領域の中から前記第二抽出手段による領域の抽出に用いる対象領域を特定する特定手段を備え、
前記第二抽出手段は、前記第二画像から前記第一抽出手段により抽出された領域のうち前記特定手段により特定された対象領域と病理学的に同じ特徴を有する領域を抽出する。
The invention according to claim 5 is the invention according to any one of claims 1 to 4.
When a plurality of regions are extracted by the first extraction means, a specific means for specifying a target region to be used for extracting the region by the second extraction means from the extracted plurality of regions is provided.
The second extraction means extracts from the second image a region extracted by the first extraction means that has the same pathological characteristics as the target region specified by the specific means.

請求項6に記載の発明は、請求項5に記載の発明において、
前記特定手段は、ユーザーによる領域指定操作、病理検査結果に対して予め定められた優先度、診断の有効性に基づく優先度、及び/又はユーザーにより予め設定された優先度に基づいて前記対象領域を特定する。
The invention according to claim 6 is the invention according to claim 5.
The specific means is a target area based on a user's area designation operation, a predetermined priority for a pathological examination result, a priority based on the effectiveness of diagnosis, and / or a priority preset by the user. To identify.

請求項7に記載の発明は、請求項1〜6のいずれか一項に記載の発明において、
表示手段を有し、
前記出力手段は、前記第二画像及び前記第二抽出手段により抽出された領域に関する情報を前記表示手段に出力し、
前記表示手段は、前記第二画像及び前記第二抽出手段により抽出された領域に関する情報を並べて又は重ねて表示する。
The invention according to claim 7 is the invention according to any one of claims 1 to 6.
Has a display means
The output means outputs the information about the second image and the region extracted by the second extraction means to the display means.
The display means displays the second image and information about the region extracted by the second extraction means side by side or in an overlapping manner.

請求項8に記載の発明は、請求項7に記載の発明において、
前記出力手段は、前記第一画像及び/又は前記第一抽出手段により抽出された領域に関する情報をさらに前記表示手段に出力し、
前記表示手段は、前記第一抽出手段により抽出された領域に関する情報及び前記第二抽出手段により抽出された領域に関する情報を並べて表示するか、前記第一抽出手段により抽出された領域に関する情報を前記第一画像に重ねた画像及び前記第二抽出手段により抽出された領域に関する情報を前記第二画像に重ねた画像を並べて表示するか、又は、前記第二画像に重ねた前記第二抽出手段により抽出された領域に関する情報に、さらに前記第一抽出手段により抽出された領域に関する情報を重ねた画像を表示する。
The invention according to claim 8 is the invention according to claim 7.
The output means further outputs information about the first image and / or the region extracted by the first extraction means to the display means.
The display means displays side by side information about the region extracted by the first extraction means and information about the region extracted by the second extraction means, or displays information about the region extracted by the first extraction means. The image superimposed on the first image and the information about the region extracted by the second extraction means are displayed side by side on the second image, or by the second extraction means superimposed on the second image. An image in which the information on the extracted region is further superimposed with the information on the region extracted by the first extraction means is displayed.

請求項9に記載の発明は、請求項7又は8に記載の発明において、
前記第二抽出手段により抽出された領域の位置に基づいて、生体組織診断のための装置の挿入経路を算出する算出手段を備え、
前記出力手段は、前記算出手段により算出された挿入経路の情報を出力し、
前記表示手段は、出力された前記挿入経路の情報を表示する。
The invention according to claim 9 is the invention according to claim 7 or 8.
A calculation means for calculating the insertion route of the device for biopsy diagnosis based on the position of the region extracted by the second extraction means is provided.
The output means outputs the information of the insertion path calculated by the calculation means, and outputs the information.
The display means displays the output information of the insertion route.

請求項10に記載の発明は、請求項1〜9のいずれか一項に記載の発明において、
前記第二抽出手段により領域が抽出されなかった場合に、領域が抽出されなかった旨を報知する報知手段を備える。
The invention according to claim 10 is the invention according to any one of claims 1 to 9.
When the region is not extracted by the second extraction means, the notification means for notifying that the region is not extracted is provided.

請求項11に記載の発明は、請求項1〜10のいずれか一項に記載の発明において、
前記第一画像は、マンモグラフィー画像、MRI画像、超音波画像、又はトモシンセシス画像であり、
前記第二画像は、超音波画像である。
The invention according to claim 11 is the invention according to any one of claims 1 to 10.
The first image is a mammography image, an MRI image, an ultrasonic image, or a tomosynthesis image.
The second image is an ultrasonic image.

請求項12に記載の発明のプログラムは、
コンピューターを、
被検体を撮影することにより取得された第一画像を解析して、前記第一画像から前記被検体に含まれる病変領域内において病理学的に同じ特徴を有する領域を一つの領域として、一又は複数の領域を抽出する第一抽出手段、
前記被検体を撮影することにより取得された前記第一画像とは異なる第二画像を解析して、前記第二画像から前記第一抽出手段により抽出された領域と病理学的に同じ特徴を有する領域を抽出する第二抽出手段、
前記第二画像と、前記第二抽出手段により抽出された領域に関する情報を対応付けて出力する出力手段、
として機能させる。
The program of the invention according to claim 12
Computer,
The first image obtained by photographing the subject is analyzed, and the region having the same pathological characteristics within the lesion region contained in the subject from the first image is regarded as one region or one or more. First extraction means to extract multiple regions,
A second image different from the first image obtained by photographing the subject is analyzed, and the region has the same pathological characteristics as the region extracted from the second image by the first extraction means. Second extraction means to extract the region,
An output means that outputs the second image in association with information about the area extracted by the second extraction means.
To function as.

本発明によれば、被検体に対して生体検査を行う際に、診断に適した検体を採取できるように支援することが可能となる。また、より高精細かつ、病変全体の俯瞰性が高い画像を第一画像として病変領域内において同じ病理学的特徴を有する領域の抽出を行い、その結果に基づいて、第二画像から第一画像において抽出された領域と病理学的に同じ特徴を有する領域を抽出することで、病変の全体像を瞬時に捉えやすくし、所見の見落とし防止、偽陽性や偽陰性の低減、及び検査時間の削減が可能となる。 According to the present invention, it is possible to support the collection of a sample suitable for diagnosis when performing a biopsy on a subject. In addition, a region having the same pathological characteristics is extracted in the lesion region using a higher-definition and highly bird's-eye view image of the entire lesion as the first image, and based on the result, the first image is used from the second image. By extracting a region that has the same pathological characteristics as the region extracted in, it is easy to instantly grasp the whole picture of the lesion, prevent oversight of findings, reduce false positives and false negatives, and reduce examination time. Is possible.

本発明の実施形態における生体検査支援システムの全体構成を示す図である。It is a figure which shows the whole structure of the biopsy support system in embodiment of this invention. 図1の情報処理装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the information processing apparatus of FIG. 図2の制御部により実行される事前学習処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the pre-learning process executed by the control part of FIG. 図2の制御部により実行される領域情報取得処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the area information acquisition processing executed by the control part of FIG. 図2の制御部により実行される画像解析処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the image analysis processing executed by the control unit of FIG. 第一画像及び第一画像の領域情報の一例を示す図である。It is a figure which shows an example of the area information of a 1st image and a 1st image. 第二画像及び第二画像の領域情報の表示例を示す図である。It is a figure which shows the display example of the area information of the 2nd image and the 2nd image. 第二画像及び第二画像の領域情報とともに、第一画像の領域情報を表示した場合の表示例を示す図であるIt is a figure which shows the display example when the area information of a 1st image is displayed together with the area information of a 2nd image and a 2nd image. 図2の制御部により実行される穿刺経路表示処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the puncture route display processing executed by the control part of FIG. 穿刺経路の算出手法を説明するための図である。It is a figure for demonstrating the calculation method of a puncture path.

以下、図面を参照して本発明の実施形態を詳細に説明する。ただし、発明の範囲は、図示例に限定されない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

〔生体検査支援システム100の構成〕
まず、構成を説明する。
図1に、本実施形態における生体検査支援システム100の全体構成を示す。
図1に示すように、生体検査支援システム100は、第一画像撮影装置1と、第二画像撮影装置2と、情報処理装置(医用情報処理装置)3とがLAN(Local Area Network)等の通信ネットワークNを介して接続されて構成されている。生体検査支援システム100を構成する各装置は、HL7(Health Level Seven)やDICOM(Digital Image and Communications in Medicine)規格に準じており、各装置間の通信は、HL7やDICOMに則って行われる。
[Configuration of biopsy support system 100]
First, the configuration will be described.
FIG. 1 shows the overall configuration of the biopsy support system 100 according to the present embodiment.
As shown in FIG. 1, in the biopsy support system 100, the first image capturing device 1, the second imaging device 2, and the information processing device (medical information processing device) 3 are connected to a LAN (Local Area Network) or the like. It is configured to be connected via a communication network N. Each device constituting the biopsy support system 100 conforms to HL7 (Health Level Seven) and DICOM (Digital Image and Communications in Medicine) standards, and communication between each device is performed according to HL7 and DICOM.

第一画像撮影装置1は、例えば、X線撮影装置(DR(トモシンセシス撮影が可能なものを含む)、CR、CT、透視装置、アンギオ装置等)、超音波診断装置(US)、MRI、PET、又はPET−CT等のモダリティーであり、被検体を撮影して医用画像(第一画像と呼ぶ)を生成する。第一画像撮影装置1は、DICOM規格に則って、付帯情報(患者情報、検査情報、画像ID、スライス番号等)を医用画像の画像ファイルのヘッダーに書き込むことにより、第一画像に付帯情報を付帯させ、情報処理装置3に送信する。
本実施形態では、第一画像撮影装置1が乳房X線撮影装置であり、第一画像が、乳房全体を俯瞰的に観察することができるマンモグラフィー画像であることとして説明するが、これに限定されるものではない。
The first imaging device 1 includes, for example, an X-ray imaging device (DR (including those capable of tomosynthesis imaging), CR, CT, fluoroscopy device, angio device, etc.), an ultrasonic diagnostic device (US), MRI, PET. Or, it is a modality such as PET-CT, and a medical image (referred to as a first image) is generated by photographing a subject. The first image capturing apparatus 1 writes the incidental information (patient information, examination information, image ID, slice number, etc.) in the header of the image file of the medical image in accordance with the DICOM standard, thereby adding the incidental information to the first image. It is attached and transmitted to the information processing device 3.
In the present embodiment, the first image capturing device 1 is a breast X-ray imaging device, and the first image is a mammography image capable of observing the entire breast from a bird's-eye view, but the present invention is limited to this. It's not something.

第二画像撮影装置2は、例えば、X線撮影装置(DR(トモシンセシス撮影が可能なものを含む)、CR、CT、透視装置、アンギオ装置等)、超音波診断装置(US)、MRI、PET、PET−CT等のモダリティーであり、被検体を撮影して医用画像(第二画像と呼ぶ)を生成する。第二画像撮影装置2は、DICOM規格に則って、付帯情報(患者情報、検査情報、画像ID、スライス番号等)を医用画像の画像ファイルのヘッダーに書き込むことにより、第二画像に付帯情報を付帯させ、情報処理装置3に送信する。
本実施形態では、第二画像撮影装置2がハンドヘルド型の超音波診断装置であり、第二画像が乳房の超音波画像であることとして説明するが、これに限定されるものではない。
The second imaging device 2 includes, for example, an X-ray imaging device (DR (including those capable of tomosynthesis imaging), CR, CT, fluoroscopy device, angio device, etc.), an ultrasonic diagnostic device (US), MRI, PET. , PET-CT and the like, and a medical image (called a second image) is generated by photographing a subject. The second image capturing apparatus 2 writes the incidental information (patient information, examination information, image ID, slice number, etc.) in the header of the image file of the medical image in accordance with the DICOM standard, thereby transmitting the incidental information to the second image. It is attached and transmitted to the information processing device 3.
In the present embodiment, the second image capturing device 2 is a handheld type ultrasonic diagnostic device, and the second image is an ultrasonic image of the breast, but the present invention is not limited to this.

情報処理装置3は、第一画像撮影装置1から送信された第一画像及び第二画像撮影装置2から送信された第二画像を解析し、生体検査を支援する支援情報として、病変領域内の領域情報を出力するコンピューター装置である。
図2に、情報処理装置3の機能的構成を示す。図2に示すように、情報処理装置3は、制御部31、操作部32、表示部33、通信部34、記憶部35等を備えて構成されており、各部はバス36により接続されている。
The information processing device 3 analyzes the first image transmitted from the first image capturing device 1 and the second image transmitted from the second imaging device 2, and provides support information in the lesion region to support the biopsy. It is a computer device that outputs area information.
FIG. 2 shows the functional configuration of the information processing device 3. As shown in FIG. 2, the information processing device 3 includes a control unit 31, an operation unit 32, a display unit 33, a communication unit 34, a storage unit 35, and the like, and each unit is connected by a bus 36. ..

制御部31は、CPU、ROM、RAM等から構成され、情報処理装置3の各部の処理動作を統括的に制御する。具体的には、CPUは、ROMに記憶されている各種処理プログラムを読み出してRAMに展開し、当該プログラムとの協働により各種処理を行う。
制御部31は、後述する領域情報取得処理を実行することにより、第一抽出手段、第二抽出手段、出力手段、特定手段、算出手段として機能する。また、表示部33との協働により報知手段として機能する。
The control unit 31 is composed of a CPU, a ROM, a RAM, and the like, and comprehensively controls the processing operation of each unit of the information processing device 3. Specifically, the CPU reads various processing programs stored in the ROM, develops them in the RAM, and performs various processing in cooperation with the programs.
The control unit 31 functions as a first extraction means, a second extraction means, an output means, a specific means, and a calculation means by executing the area information acquisition process described later. In addition, it functions as a notification means in cooperation with the display unit 33.

操作部32は、カーソルキー、文字・数字入力キー及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスを備えて構成され、キーボードに対するキー操作やマウス操作により入力された操作信号を制御部31に出力する。また、操作部32が、表示部33に積層されたタッチパネルにより構成される場合には、ユーザーの指等によるタッチ操作の位置に応じた操作信号を制御部31に出力する。 The operation unit 32 includes a keyboard equipped with cursor keys, character / number input keys, various function keys, and a pointing device such as a mouse, and controls operation signals input by key operations on the keyboard and mouse operations. Output to unit 31. When the operation unit 32 is composed of a touch panel laminated on the display unit 33, the operation signal corresponding to the position of the touch operation by the user's finger or the like is output to the control unit 31.

表示部33は、LCD(Liquid Crystal Display)等のモニターを備えて構成されており、制御部31から入力される表示信号の指示に従って、各種画面を表示する。モニターは、1台であっても複数台であってもよい。 The display unit 33 is configured to include a monitor such as an LCD (Liquid Crystal Display), and displays various screens according to an instruction of a display signal input from the control unit 31. The number of monitors may be one or a plurality.

通信部34は、ネットワークインターフェース等により構成され、通信ネットワークNを介して接続された外部機器との間でデータの送受信を行う。 The communication unit 34 is configured by a network interface or the like, and transmits / receives data to / from an external device connected via the communication network N.

記憶部56は、ハードディスクや不揮発性の半導体メモリー等により構成され、各種データを記憶する。 The storage unit 56 is composed of a hard disk, a non-volatile semiconductor memory, or the like, and stores various data.

〔生体検査支援システム100を用いた生体検査の流れ〕
次に、生体検査支援システム100を用いた生体検査の流れについて説明する。
本実施形態では、乳がんの生体検査を行う場合を例にとり説明する。
[Flow of biopsy using biopsy support system 100]
Next, the flow of the biopsy using the biopsy support system 100 will be described.
In this embodiment, a case where a biopsy of breast cancer is performed will be described as an example.

まず、第一画像撮影装置1にて被検体(被検者の乳房)のX線撮影を行い、第一画像としてのマンモグラフィー画像を生成し、情報処理装置3に送信する。
医師等の検査者(ユーザー)は、マンモグラフィー画像から病変領域の俯瞰的な位置情報を得て、病変領域を狙って超音波診断装置である第二画像撮影装置2で撮影を行って第二画像としての超音波画像を生成し、情報処理装置3に送信する。
情報処理装置3においては、入力された第一画像及び第二画像に基づいて、領域情報取得処理(図4参照)を実行し、第二画像において検出された病変領域内をさらに病理学的な特徴によって分割し、分割された各領域に関する領域情報(領域位置情報、領域特徴情報)を出力する。
医師等の検査者は、情報処理装置3から出力された第二画像及び領域情報に基づいて、病変領域内における穿刺すべき領域を特定して生体検査を行う。
First, an X-ray image of a subject (the breast of a subject) is taken by the first image capturing device 1, a mammography image as the first image is generated, and the mammography image is transmitted to the information processing device 3.
An examiner (user) such as a doctor obtains a bird's-eye view of the lesion area from a mammography image, aims at the lesion area, and takes an image with the second image capturing device 2 which is an ultrasonic diagnostic device to perform a second image. The ultrasonic image is generated and transmitted to the information processing apparatus 3.
In the information processing apparatus 3, the area information acquisition process (see FIG. 4) is executed based on the input first image and the second image, and the lesion area detected in the second image is further pathological. It is divided according to the features, and the area information (area position information, area feature information) related to each divided area is output.
An examiner such as a doctor identifies an area to be punctured in the lesion area based on the second image and area information output from the information processing device 3, and performs a biopsy.

〔識別器の事前学習〕
ここで、領域情報取得処理では、第一画像と第二画像の病変領域内の画像特徴量から病変領域内の病理学的な特徴を推定するための事前学習済みの識別器を用いる。そこで、まず、事前学習済みの識別器を生成するための事前学習処理について説明する。
[Pre-learning of classifier]
Here, in the area information acquisition process, a pre-learned discriminator for estimating the pathological feature in the lesion area from the image feature amount in the lesion area of the first image and the second image is used. Therefore, first, the pre-learning process for generating the pre-learned classifier will be described.

図3は、事前学習処理の流れを示すフローチャートである。図3の事前学習処理は、制御部31と記憶部35に記憶されているプログラムとの協働により実行される。入力画像を第一画像として事前学習処理を実行することにより、第一画像の病変領域の画像特徴量から病変領域内の病理学的な特徴を推定するための識別器が生成される。入力画像を第二画像として事前学習処理を実行することにより、第二画像の病変領域の画像特徴量から病変領域内の病理学的な特徴を推定するための識別器を生成することができる。
なお、この事前学習処理は、外部のコンピューター装置等において行って、得られた識別器を記憶部35に記憶しておくこととしてもよい。
FIG. 3 is a flowchart showing the flow of the pre-learning process. The pre-learning process of FIG. 3 is executed in collaboration with the program stored in the control unit 31 and the storage unit 35. By executing the pre-learning process using the input image as the first image, a discriminator for estimating the pathological feature in the lesion area from the image feature amount of the lesion area in the first image is generated. By executing the pre-learning process using the input image as the second image, it is possible to generate a discriminator for estimating the pathological feature in the lesion area from the image feature amount of the lesion area in the second image.
In addition, this pre-learning process may be performed by an external computer device or the like, and the obtained classifier may be stored in the storage unit 35.

まず、制御部31は、複数の(多量の)入力画像の入力を受け付ける(ステップS1)。 First, the control unit 31 accepts inputs of a plurality of (large amount) input images (step S1).

次いで、制御部31は、各入力画像について、ROI(関心領域)を抽出する(ステップS2)。
本実施形態において、ROIは、病変の存在する病変領域である。ROIの抽出は、CAD(Computer-Aided Diagnosis/Detection:コンピューター支援診断/検出)システムを用いて行うこととしてもよいし、ユーザーが表示部33に表示された入力画像から操作部32を用いて指定してもよい。
Next, the control unit 31 extracts the ROI (region of interest) for each input image (step S2).
In this embodiment, the ROI is the lesion area where the lesion is present. The ROI may be extracted using a CAD (Computer-Aided Diagnosis / Detection) system, or specified by the user using the operation unit 32 from the input image displayed on the display unit 33. You may.

次いで、制御部31は、各入力画像から抽出された各ROI内の画像特徴量を抽出する(ステップS3)。
ステップS3においては、例えば、画素ごとに、濃度、形状、テクスチャー、ウェーブレット変換に基づく多重解像度特徴等の画像特徴量を抽出する。画像特徴量は、一種類を抽出してもよいし、複数種類を抽出してもよい。
Next, the control unit 31 extracts the image feature amount in each ROI extracted from each input image (step S3).
In step S3, for example, the amount of image features such as density, shape, texture, and multi-resolution features based on wavelet transform is extracted for each pixel. One type of image feature amount may be extracted, or a plurality of types may be extracted.

次いで、制御部31は、各入力画像の被写体である被検者の、各入力画像の各ROIに対応する位置から取り出した検体に対して行われた病理検査の結果を正解ラベルとして各ROI内において抽出された画像特徴量に対応付けて記憶部35に記憶させる(ステップS4)。
例えば、各入力画像を表示部33に表示して、ユーザー操作に応じて各ROIに対する正解ラベルを入力させ、ROIから抽出された画像特徴量と入力された正解ラベルを対応付けて記憶部35に記憶させる。
また、例えば、ROIに対応する位置から取り出された検体の病理画像から、画素ごとの特徴マップ(病理検査結果の値を示すマップ)を正解ラベルとして作成し、画素ごとに、ROI内にて抽出される画像特徴量と対応付けて記憶部35に記憶させることとしてもよい。
Next, the control unit 31 uses the result of the pathological examination performed on the sample taken out from the position corresponding to each ROI of each input image of the subject who is the subject of each input image as a correct label in each ROI. It is stored in the storage unit 35 in association with the image feature amount extracted in (step S4).
For example, each input image is displayed on the display unit 33, the correct answer label for each ROI is input according to the user operation, and the storage unit 35 associates the image feature amount extracted from the ROI with the input correct answer label. Remember.
Further, for example, from the pathological image of the sample taken out from the position corresponding to the ROI, a feature map for each pixel (a map showing the value of the pathological test result) is created as a correct answer label, and each pixel is extracted in the ROI. It may be stored in the storage unit 35 in association with the image feature amount to be generated.

ここで、正解ラベルとなる病理検査の結果は、例えば、以下のいずれかが挙げられる。
・各種分子マーカー値(組織化学染色や、腫瘍マーカー分析、アミノ酸分析、遺伝子解析(例えば、マイクロアレイ分析、ポリメラーゼ連鎖反応(PCR)、遺伝子(DNA/RNA)配列解析などによって得られる遺伝子経路活性(gene pathway activation)、ノンコーディングRNA(noncoding RNA)、複数のRNA(multiple RNAs)、一塩基多型(single nucleotide polymorphism)、コピー数多型(copy number polymorphism)、エピジェネティック多型(epigenetic polymorphism)等)によって決定される病理検査結果の値)
・上述の分子マーカー値や形態学的診断によって決定される病理診断名
・上述の分子マーカー値や形態学的診断によって決定される良性か悪性かを示す情報
・上述の分子マーカー値や形態学的診断によって決定される病変の悪性度
・上述の分子マーカー値や形態学的診断によって決定されるステージ分類
Here, for example, any of the following can be mentioned as the result of the pathological examination which becomes the correct answer label.
-Various molecular marker values (histochemical staining, tumor marker analysis, amino acid analysis, gene analysis (for example, microarray analysis, polymerase chain reaction (PCR), gene (DNA / RNA) sequence analysis, etc.) pathway activation, noncoding RNA, multiple RNAs, single nucleotide polymorphism, copy number polymorphism, epigenetic polymorphism, etc.) The value of the pathological test result determined by)
-Pathological diagnosis name determined by the above-mentioned molecular marker value or morphological diagnosis-Information indicating whether it is benign or malignant determined by the above-mentioned molecular marker value or morphological diagnosis-The above-mentioned molecular marker value or morphology Malignancy of lesions determined by diagnosis ・ Stage classification determined by the above-mentioned molecular marker values and morphological diagnosis

なお、病理検査では、取り出した検体が病理学的に不均一な特徴を有している場合、検体内の位置によって異なる検査結果が得られる。よって、一つのROIに対しても、位置によって異なる正解ラベルが対応付けられることがある。 In the pathological examination, if the extracted sample has pathologically non-uniform characteristics, different test results can be obtained depending on the position in the sample. Therefore, different correct labels may be associated with one ROI depending on the position.

そして、制御部31は、画像特徴量と正解ラベルを対応付けて機械学習により学習させて識別器を生成し(ステップS5)、事前学習処理を終了する。
機械学習のアルゴリズムとしては、例えば、ランダムフォレスト、 決定木、サポートベクタマシン、 ロジスティック回帰、k近傍法、トピックモデル、Deep Learningの各種ネットワークモデル(Alex Net、Google Net等)等を用いることができる。なお、Deep Learningの場合は、ステップS3における画像特徴量の抽出は自動的に行われるため、独立して行わない。
Then, the control unit 31 associates the image feature amount with the correct answer label and learns it by machine learning to generate a classifier (step S5), and ends the pre-learning process.
As the machine learning algorithm, for example, random forest, decision tree, support vector machine, logistic regression, k-nearest neighbor method, topic model, various deep learning network models (Alex Net, Google Net, etc.) can be used. In the case of deep learning, since the image feature amount in step S3 is automatically extracted, it is not performed independently.

以上の事前学習処理により、第一画像と第二画像のそれぞれの病変領域の画像特徴量から病理学的な特徴を推定するための識別器をそれぞれ生成することができる。 By the above pre-learning process, it is possible to generate a discriminator for estimating the pathological feature from the image feature amount of each lesion region of the first image and the second image.

〔領域情報取得処理〕
以下、情報処理装置3において実行される領域情報取得処理について説明する。
図4は、領域情報取得処理の流れを示すフローチャートである。図4に示す領域情報取得処理は、制御部31と記憶部35に記憶されているプログラムとの協働により実行される。
[Area information acquisition process]
Hereinafter, the area information acquisition process executed by the information processing apparatus 3 will be described.
FIG. 4 is a flowchart showing the flow of the area information acquisition process. The area information acquisition process shown in FIG. 4 is executed in cooperation with the program stored in the control unit 31 and the storage unit 35.

まず、制御部31は、第一画像の入力を受け付ける(ステップS11)。
次いで、制御部31は、第一画像を対象画像として画像解析処理を実行する(ステップS12)。
First, the control unit 31 accepts the input of the first image (step S11).
Next, the control unit 31 executes the image analysis process with the first image as the target image (step S12).

図5は、画像解析処理の流れを示すフローチャートである。画像解析処理は、制御部31と記憶部35に記憶されているプログラムとの協働により実行される。 FIG. 5 is a flowchart showing the flow of the image analysis process. The image analysis process is executed in collaboration with the program stored in the control unit 31 and the storage unit 35.

まず、対象画像からROIを抽出する(ステップS101)。
ROIは、病変の存在する病変領域である。ROIの抽出は、CADを用いて行うこととしてもよいし、ユーザーが表示部33に表示された対象画像から操作部32を用いて指定してもよい。
First, the ROI is extracted from the target image (step S101).
The ROI is the lesion area where the lesion is present. The ROI may be extracted by using CAD, or the user may specify the ROI from the target image displayed on the display unit 33 by using the operation unit 32.

なお、CADによるROI抽出でROIすなわち病変領域が抽出されなかった場合、制御部31は、例えば、病変領域が抽出されなかった旨を表示部33に表示して、ユーザーに処理を終了するか、手動でROIを指定するか、又は次の画像の解析に移行するか、を選択させる。処理を終了することが選択された場合、制御部31は、画像解析処理を終了するとともに、領域情報取得処理を終了する。次の画像の解析に移行することが選択された場合、制御部31は、次の対象画像の入力を待機して、次の対象画像に対してROIの抽出を行う。また、ユーザーが操作部32を用いてROIを指定する場合においても、例えば、処理の終了を指示する終了ボタン、次の画像の解析への移行を指示するための移行ボタン等を設け、病変領域が存在しなかった場合に、処理を終了したり、次の画像についての解析に移行したりできるようにすることが好ましい。 When the ROI, that is, the lesion area is not extracted by the ROI extraction by CAD, the control unit 31 displays, for example, on the display unit 33 that the lesion area has not been extracted, and ends the process for the user. Have them choose whether to manually specify the ROI or move on to the next image analysis. When it is selected to end the process, the control unit 31 ends the image analysis process and also ends the area information acquisition process. When it is selected to move to the analysis of the next image, the control unit 31 waits for the input of the next target image and extracts the ROI for the next target image. Further, even when the user specifies the ROI using the operation unit 32, for example, an end button for instructing the end of processing, a transition button for instructing the transition to the analysis of the next image, and the like are provided to provide a lesion area. It is preferable to be able to end the process or move on to the analysis of the next image if is not present.

次いで、制御部31は、ROI内の画像特徴量を抽出する(ステップS102)。
ステップS102においては、例えば、画素ごとに、濃度、形状、テクスチャー、ウェーブレット変換に基づく多重解像度特徴等の画像特徴量を抽出する。画像特徴量は、一種類を抽出してもよいし、複数種類を抽出してもよい。
Next, the control unit 31 extracts the image feature amount in the ROI (step S102).
In step S102, for example, an image feature amount such as density, shape, texture, and multi-resolution feature based on wavelet transform is extracted for each pixel. One type of image feature amount may be extracted, or a plurality of types may be extracted.

次いで、制御部31は、事前学習済みの識別器を用いて、ROIに対して特徴量解析を行い、ROI内の画素ごとに病理学的な特徴を示す情報を取得する(ステップS103)。
ステップS103で使用される識別器は、上述の事前学習処理によって生成された識別器である。病理学的な特徴を示す情報とは、上述の各種分子マーカー値、病理診断名、良性か悪性かを示す情報、悪性度、ステージ分類等である。
Next, the control unit 31 performs feature quantity analysis on the ROI using a pre-learned classifier, and acquires information indicating a pathological feature for each pixel in the ROI (step S103).
The classifier used in step S103 is the classifier generated by the pre-learning process described above. The information indicating the pathological characteristics includes the above-mentioned various molecular marker values, pathological diagnosis names, information indicating whether the disease is benign or malignant, the degree of malignancy, stage classification, and the like.

そして、制御部31は、ROI内の画素ごとの病理学的な特徴を示す情報を解析結果として出力し(ステップS104)、図4のステップS13に移行する。 Then, the control unit 31 outputs information indicating the pathological features of each pixel in the ROI as an analysis result (step S104), and proceeds to step S13 of FIG.

図4のステップS13において、制御部31は、画像解析処理の解析結果に基づいて、ROI内から病理学的に同じ特徴を有する領域を一つの領域として、一又は複数の領域の領域抽出を行う(ステップS13)。ROI全体が病理学的に同じ特徴を有する単一の領域である場合はROI全体を一の領域として抽出し、ROI内に複数の病理学的特徴を有する領域が含まれている場合には複数の領域を抽出する。
ここで、「病理学的に同じ特徴を有する」とは、例えば、各種分子マーカー値が病理学的な特徴を示す情報として使用されている場合、値が完全に一致していることに限られず、値が病理学的に同じとみなせる範囲(例えば、診断名やステージ分類等が同じとなる範囲)であるものを含む。
In step S13 of FIG. 4, the control unit 31 extracts one or a plurality of regions from within the ROI, with regions having the same pathological characteristics as one region, based on the analysis result of the image analysis process. (Step S13). If the entire ROI is a single region with the same pathological characteristics, the entire ROI is extracted as one region, and if the ROI contains multiple regions with multiple pathological characteristics, multiple regions are extracted. Extract the area of.
Here, "having the same pathological characteristics" is not limited to, for example, when various molecular marker values are used as information indicating pathological characteristics, the values are not completely the same. , The range in which the values can be regarded as pathologically the same (for example, the range in which the diagnosis name, stage classification, etc. are the same) is included.

次いで、制御部31は、ROI内から抽出された領域の領域情報を出力する(ステップS14)。
例えば、第一画像及び第一画像のROI内から抽出された各領域の領域情報(例えば、抽出された各領域の位置情報、各領域の病理学的な特徴を示す領域特徴情報(例えば、各種分子マーカー値、病理診断名、悪性度、ステージ分類等))を表示部33に出力して表示させる。また、第一画像及び領域情報をプリンター等に出力して用紙に印刷させることとしてもよい。
Next, the control unit 31 outputs the area information of the area extracted from the ROI (step S14).
For example, the region information of each region extracted from the first image and the ROI of the first image (for example, the position information of each extracted region, the region feature information indicating the pathological characteristics of each region (for example, various types) Molecular marker value, pathological diagnosis name, malignancy, stage classification, etc.)) are output to the display unit 33 and displayed. Further, the first image and the area information may be output to a printer or the like and printed on paper.

図6に、ステップS14において出力される第一画像及び領域情報の一例を示す。図6に示すように、ステップS14においては、例えば、第一画像において抽出されたROI(病変領域)を示すアノテーションA1が表示されるとともに、その近傍に、ROI内から抽出された領域の領域情報が出力される。 FIG. 6 shows an example of the first image and area information output in step S14. As shown in FIG. 6, in step S14, for example, the annotation A1 indicating the ROI (lesion region) extracted in the first image is displayed, and the region information of the region extracted from the ROI is displayed in the vicinity thereof. Is output.

ここで、ステップS13においてROI内から複数の領域が抽出された場合、制御部31は、抽出された複数の領域の中から第二画像における領域抽出に用いる対象領域を特定してもよい。これにより、第二画像における領域抽出に用いる対象領域を重要なものに限定することができる。
例えば、以下の一以上に基づいて、対象領域を特定することができる。
・上述の各種分子マーカー値、病理診断名、病変の悪性度、ステージ分類(病期)、良性か悪性か等の病理学的特徴に対して予め設定された優先度(例えば、分子マーカー値が大きい領域ほど優先度が高い等)
・診断の有効性に基づく優先度(得られた病理学的特徴が治療に寄与するかどうか、例えば、治療薬があるか、化学療法や放射線治療の効果があるか等によって優先づけが行われる)
・上記以外の、ユーザーにより予め任意に設定された優先度
・操作部32によるユーザーの領域指定
Here, when a plurality of regions are extracted from the ROI in step S13, the control unit 31 may specify a target region used for region extraction in the second image from the extracted plurality of regions. Thereby, the target area used for the area extraction in the second image can be limited to the important ones.
For example, the target area can be specified based on one or more of the following.
-Preset priorities (for example, molecular marker values) for pathological features such as the above-mentioned various molecular marker values, pathological diagnosis names, lesion malignancy, stage classification (stage), and benign or malignant The larger the area, the higher the priority, etc.)
-Priority based on the effectiveness of the diagnosis (priority is given based on whether the obtained pathological features contribute to treatment, for example, whether there is a therapeutic drug, whether chemotherapy or radiation therapy is effective, etc. )
-Priority other than the above, which is arbitrarily set by the user-User area designation by the operation unit 32

次いで、制御部31は、第二画像撮影装置2からの第二画像の入力を待機する。第二画像が入力されると(ステップS15;YES)、制御部31は、第二画像を対象画像として画像解析処理を実行する(ステップS16)。
画像解析処理は、図5を用いて説明したものと同様であるので説明を援用する。
Next, the control unit 31 waits for the input of the second image from the second image capturing device 2. When the second image is input (step S15; YES), the control unit 31 executes the image analysis process with the second image as the target image (step S16).
Since the image analysis process is the same as that described with reference to FIG. 5, the description is incorporated.

次いで、制御部31は、画像解析処理の解析結果に基づいて、第二画像から、第一画像のROIから抽出された各領域と病理学的に同じ特徴を有する領域を抽出する(ステップS17)。
ステップS17においては、画像解析処理の解析結果に基づいて、第二画像のROI内において病理学的に同じ特徴を有する領域を一つの領域として一又は複数の領域を抽出し、抽出された領域の領域特徴情報と、第一画像のROI内において抽出された領域の領域特徴情報を比較又は照合し、第一画像から抽出された各領域と病理学的に同じ特徴を有する領域を抽出する。
Next, the control unit 31 extracts from the second image a region having the same pathological characteristics as each region extracted from the ROI of the first image, based on the analysis result of the image analysis process (step S17). ..
In step S17, based on the analysis result of the image analysis process, one or a plurality of regions are extracted in the ROI of the second image with the regions having the same pathological characteristics as one region, and the extracted regions are extracted. The region feature information is compared or collated with the region feature information of the region extracted in the ROI of the first image, and a region having the same pathological characteristics as each region extracted from the first image is extracted.

なお、ステップS17においてもステップS14と同様に、制御部31は、その後の処理(例えば、表示等)に用いる対象領域を特定してもよい。
また、ステップS17において、第一画像のROI内から抽出された各領域と病理学的に同じ特徴を有する領域が第二画像のROI内から抽出されなかった場合、制御部31は、その旨を表示部33に表示する。
In step S17 as well as in step S14, the control unit 31 may specify a target area to be used for subsequent processing (for example, display or the like).
Further, in step S17, when a region having the same pathological characteristics as each region extracted from the ROI of the first image is not extracted from the ROI of the second image, the control unit 31 informs that fact. It is displayed on the display unit 33.

次いで、制御部31は、第二画像及び第二画像のROI内から抽出された各領域の領域情報(領域位置情報、領域特徴情報)を対応付けて出力する(ステップS18)。
ここでは、第二画像及び領域情報を対応付けて表示部33に出力する。
Next, the control unit 31 outputs the region information (region position information, region feature information) of each region extracted from the ROI of the second image and the second image in association with each other (step S18).
Here, the second image and the area information are associated and output to the display unit 33.

次いで、制御部31は、第二画像及び第二画像のROI内から抽出された領域の領域情報を対応付けて表示部33に表示させる(ステップS19)。 Next, the control unit 31 causes the display unit 33 to display the area information of the second image and the area extracted from the ROI of the second image in association with each other (step S19).

図7(a)〜(c)は、ステップS19において表示される第二画像及び領域情報の例を示す図である。
ステップS19においては、例えば、図7(a)に示すように、第二画像331と領域情報332が並べて表示される。第二画像331においては、例えば、抽出されたROI(病変領域)を示すアノテーションA2が表示される。領域情報332としては、例えば、第二画像においてアノテーションA2で示されたROI内において抽出された、病理学的に同じ特徴を有する領域ごとの位置を示す領域位置情報332a、領域位置情報332aで表示された各領域の病理学的な特徴を示す領域特徴情報332b等が表示される。
または、図7(b)に示すように、第二画像331上に領域情報332(例えば、領域位置情報332a)を重ねて表示してもよい。また、これとは別に、領域情報332を表示してもよい。
または、図7(c)に示すように、第二画像331上に、ROI内から抽出された領域のうち指定された領域の領域位置情報332aのみを重ねて表示することとしてもよい。
または、図示しないが、領域情報332のみを単独で表示部33に単独で表示してもよい。
7 (a) to 7 (c) are diagrams showing an example of the second image and area information displayed in step S19.
In step S19, for example, as shown in FIG. 7A, the second image 331 and the area information 332 are displayed side by side. In the second image 331, for example, the annotation A2 indicating the extracted ROI (lesion region) is displayed. As the area information 332, for example, the area position information 332a and the area position information 332a, which are extracted in the ROI indicated by the annotation A2 in the second image and indicate the positions of each area having the same pathological characteristics, are displayed. Region feature information 332b and the like indicating the pathological features of each region are displayed.
Alternatively, as shown in FIG. 7B, the area information 332 (for example, the area position information 332a) may be superimposed and displayed on the second image 331. Alternatively, the area information 332 may be displayed separately.
Alternatively, as shown in FIG. 7C, only the area position information 332a of the designated area among the areas extracted from the ROI may be superimposed and displayed on the second image 331.
Alternatively, although not shown, only the area information 332 may be independently displayed on the display unit 33.

このように、第二画像の病変領域内における、第一画像の病変領域内を病理学的な特徴ごとに分割することにより得られた各領域と病理学的に同じ特徴を有する領域の位置や病理学的な特徴が表示されるので、ユーザーは、第二画像の病変領域内のどこに向けて針を差し入れれば、第一画像にて検出された病変領域について診断に適した検体を採取することができるのかをそのユーザーの知見や経験によらずに認識することが可能となる。その結果、診断に適した検体を採取することが可能となり、偽陽性や偽陰性を低減することができる。 In this way, within the lesion area of the second image, the position of the area having the same pathological characteristics as each area obtained by dividing the lesion area of the first image into each pathological feature and Since the pathological features are displayed, the user can insert the needle anywhere in the lesion area of the second image to collect a diagnostically suitable sample for the lesion area detected in the first image. It is possible to recognize whether it can be done without the knowledge and experience of the user. As a result, it becomes possible to collect a sample suitable for diagnosis, and false positives and false negatives can be reduced.

または、第一画像の病変領域内の領域情報を併せて表示することとしてもよい。
例えば、図8(a)に示すように、第二画像331に並べて、第二画像の領域情報332及び第一画像の領域情報333を表示することとしてもよい。図8(a)においては領域情報333として領域特徴情報のみを図示しているが、領域位置情報を別途並べて表示することとしてもよい。
あるいは、図8(b)に示すように、第一画像334に領域位置情報333aを重ねたもの、第二画像331に領域位置情報332aを重ねたもの、第二画像の領域情報332を並べて表示することとしてもよい。さらに第一画像334の領域情報333を併せて表示してもよい。
これにより、第一画像で抽出された病変領域内における病理的に重要な特徴を有する領域が第二画像でも見えているか、第一画像の病変領域内から抽出された各領域が第二画像のどこに対応するか等を確認することが可能となる。
Alternatively, the area information in the lesion area of the first image may also be displayed.
For example, as shown in FIG. 8A, the area information 332 of the second image and the area information 333 of the first image may be displayed side by side with the second image 331. In FIG. 8A, only the area feature information is shown as the area information 333, but the area position information may be separately displayed side by side.
Alternatively, as shown in FIG. 8B, the first image 334 with the area position information 333a superimposed, the second image 331 with the area position information 332a superimposed, and the second image area information 332 are displayed side by side. You may do it. Further, the area information 333 of the first image 334 may be displayed together.
As a result, the regions having pathologically important features in the lesion region extracted in the first image are visible in the second image, or each region extracted from the lesion region in the first image is in the second image. It is possible to confirm where to correspond.

次いで、制御部31は、操作部32により生体組織診断のための装置(穿刺装置と呼ぶ)の挿入経路(穿刺経路と呼ぶ)の表示が指示されたか否かを判断する(ステップS20)。
穿刺経路の表示が指示されていないと判断した場合(ステップS20;NO)、制御部31は、ステップS22に移行する。
Next, the control unit 31 determines whether or not the operation unit 32 has instructed the display of the insertion route (referred to as the puncture route) of the device for biopsy diagnosis (referred to as the puncture device) (step S20).
When it is determined that the display of the puncture route is not instructed (step S20; NO), the control unit 31 proceeds to step S22.

穿刺経路の表示が指示されたと判断した場合(ステップS20;YES)、制御部31は、穿刺経路表示処理を実行する(ステップS21)。
図9は、ステップS21において実行される穿刺経路表示処理を示すフローチャートである。穿刺経路表示処理は、制御部31と記憶部35に記憶されているプログラムとの協働により実行される。
When it is determined that the display of the puncture route is instructed (step S20; YES), the control unit 31 executes the puncture route display process (step S21).
FIG. 9 is a flowchart showing the puncture route display process executed in step S21. The puncture route display process is executed in cooperation with the program stored in the control unit 31 and the storage unit 35.

まず、制御部31は、操作部32により穿刺対象領域(生体組織診断を行う(組織を採取する)対象領域)の指定を受け付ける(ステップS201)。
例えば、ユーザーは、表示部33に表示された領域情報332を見て、ROI内から抽出された領域の中から穿刺対象領域を特定する。なお、上述のように、病理検査結果に対して予め設定された優先度、診断の有効性に基づく優先度、上記以外の、ユーザーにより予め任意に設定された優先度等に基づいて、ROI内から抽出された領域の中から制御部31が自動的に穿刺対象領域を指定してもよい。
First, the control unit 31 receives the designation of the puncture target area (the target area for performing the biopsy diagnosis (collecting the tissue)) by the operation unit 32 (step S201).
For example, the user looks at the area information 332 displayed on the display unit 33 and identifies the puncture target area from the areas extracted from the ROI. As described above, in the ROI, the priority set in advance for the pathological examination result, the priority based on the effectiveness of the diagnosis, the priority other than the above and arbitrarily set in advance by the user, etc. The control unit 31 may automatically specify the puncture target area from the area extracted from.

次いで、制御部31は、穿刺経路を算出する(ステップS202)。
例えば、乳房に対する穿刺であれば、図10(a)に示すように、穿刺対象領域Rまでの穿刺経路が最短かつ胸壁となるべく平行かつ穿刺対象領域Rの長軸方向となるような経路を算出する。例えば、図10(b)に示すように、第二画像における穿刺対象領域Rの中心O1とその体表(プローブ中心)O2との距離をy、体表O2と穿刺装置の挿入位置O3の距離をxとすると、xとyは既知であるから、x、yから穿刺角度θ及び穿刺経路zを算出することができる。
Next, the control unit 31 calculates the puncture route (step S202).
For example, in the case of puncturing the breast, as shown in FIG. 10A, the puncture route to the puncture target area R is calculated so as to be the shortest, parallel to the chest wall, and in the long axis direction of the puncture target area R. To do. For example, as shown in FIG. 10B, the distance between the center O1 of the puncture target region R and its body surface (probe center) O2 in the second image is y, and the distance between the body surface O2 and the insertion position O3 of the puncture device. Let x be, and since x and y are known, the puncture angle θ and the puncture path z can be calculated from x and y.

次いで、制御部31は、算出された穿刺経路の情報を表示部33に表示する(ステップS203)。例えば、穿刺経路の情報を表示部33に出力して第二画像上に表示する。これにより、ユーザーは、穿刺対象領域Rまでの穿刺経路を認識することができ、知見や経験によらずに、精度よく狙った穿刺対象領域に対して穿刺を行うことが可能となる。
穿刺経路の情報の表示が終了すると、制御部31は、ステップS22に移行する。
Next, the control unit 31 displays the calculated puncture route information on the display unit 33 (step S203). For example, the information on the puncture route is output to the display unit 33 and displayed on the second image. As a result, the user can recognize the puncture route to the puncture target area R, and can puncture the target puncture target area with high accuracy regardless of knowledge or experience.
When the display of the puncture route information is completed, the control unit 31 proceeds to step S22.

ステップS22において、制御部31は、通信部34により第二画像撮影装置2から第二画像が受信されたか否かを判断する(ステップS22)。
第二画像が受信されたと判断した場合(ステップS22;YES)、制御部31は、ステップS16に戻り、ステップS16〜S22の処理を繰り返し実行する。
ステップS22において、第二画像が受信されていないと判断した場合(ステップS22;NO)、制御部31は、第二画像の領域情報取得処理を終了する。
In step S22, the control unit 31 determines whether or not the second image has been received from the second image capturing device 2 by the communication unit 34 (step S22).
When it is determined that the second image has been received (step S22; YES), the control unit 31 returns to step S16 and repeatedly executes the processes of steps S16 to S22.
If it is determined in step S22 that the second image has not been received (step S22; NO), the control unit 31 ends the area information acquisition process of the second image.

以上説明したように、情報処理装置3によれば、制御部31は、被検体を撮影することにより取得された第一画像を解析して、第一画像から被検体に含まれる病変領域内において病理学的に同じ特徴を有する領域を一つの領域として、一又は複数の領域を抽出する。また、制御部31は、前記被検体を撮影することにより取得された第一画像とは異なる第二画像を解析して、第一画像から抽出された領域と病理学的に同じ特徴を有する領域を第二画像から抽出する。そして、第二画像と、第二画像の病変領域から抽出された領域に関する情報とを対応付けて出力する。 As described above, according to the information processing apparatus 3, the control unit 31 analyzes the first image acquired by photographing the subject, and within the lesion region included in the subject from the first image. One or more regions are extracted, with regions having the same pathological characteristics as one region. In addition, the control unit 31 analyzes a second image different from the first image acquired by photographing the subject, and has a region having the same pathological characteristics as the region extracted from the first image. Is extracted from the second image. Then, the second image and the information about the region extracted from the lesion region of the second image are associated and output.

したがって、ユーザーは、第一画像において検出された病変領域内において病理的に重要な特徴を有する領域が第二画像のどこにあるかを容易に認識することができるので、第二画像の病変領域内のどこに向けて針を差し入れれば、第一画像にて検出された病変領域から診断に適した検体を採取することができるのかをそのユーザーの知見や経験によらずに認識することが可能となる。その結果、診断に適した検体を採取することが可能となり、偽陽性や偽陰性を低減することができる。
また、より高精細かつ、病変全体の俯瞰性が高く病変の全体像を瞬時に捉えやすい画像を第一画像として、第一画像において病変領域内において同じ病理学的特徴を有する領域の抽出を行い、その結果に基づいて、第二画像から第一画像において抽出された領域と病理学的に同じ特徴を有する領域を抽出することで、病変の全体像を瞬時に捉えやすくなり、所見の見落とし防止、偽陽性や偽陰性の低減、及び検査時間の削減が可能となる。
Therefore, the user can easily recognize where in the second image the region having a pathologically important feature is in the lesion region detected in the first image, and thus in the lesion region of the second image. It is possible to recognize where the needle should be inserted to collect a sample suitable for diagnosis from the lesion area detected in the first image, regardless of the user's knowledge or experience. Become. As a result, it becomes possible to collect a sample suitable for diagnosis, and false positives and false negatives can be reduced.
In addition, a region having the same pathological features is extracted from the lesion region in the first image, with an image having higher definition, a high bird's-eye view of the entire lesion, and an image that makes it easy to instantly capture the entire lesion as the first image. Based on the results, by extracting from the second image a region that has the same pathological characteristics as the region extracted in the first image, it becomes easier to instantly grasp the entire image of the lesion and prevent oversight of findings. , False positives and false negatives can be reduced, and test time can be reduced.

なお、上記実施形態における記述は、本発明に係る好適な生体検査支援システムの一例であり、これに限定されるものではない。 The description in the above embodiment is an example of a suitable biopsy support system according to the present invention, and is not limited thereto.

例えば、上記実施形態においては、第一画像がマンモグラフィー画像、第二画像が超音波画像である場合を例にとり説明したが、上述のように、第一画像と第二画像はこれらに限定されるものではない。第一画像としては、検査部位全体を俯瞰的に観察できる(検査部位全体が含まれる)画像であることが好ましく、例えば、マンモグラフィー画像、MRI画像、超音波画像(特に、自動スキャン型の超音波診断装置により得られた超音波画像)、トモシンセシス画像等が好ましい。第二画像としては、生体検査とともに用いられる画像、例えば、超音波画像(特に、ハンドヘルド型の超音波画像により得られた超音波画像)が好ましい。 For example, in the above embodiment, the case where the first image is a mammography image and the second image is an ultrasonic image has been described as an example, but as described above, the first image and the second image are limited to these. It's not a thing. The first image is preferably an image that allows a bird's-eye view of the entire inspection site (including the entire inspection site). For example, a mammography image, an MRI image, and an ultrasound image (particularly, an automatic scanning type ultrasound). Ultrasound images obtained by a diagnostic device), tomosynthesis images, and the like are preferable. As the second image, an image used together with the biopsy, for example, an ultrasonic image (particularly, an ultrasonic image obtained by a handheld type ultrasonic image) is preferable.

また、上記実施形態においては、第一画像と第二画像はモダリティーが異なる画像として説明したが、撮影時期が異なる画像としてもよい。例えば、過去の検査で撮影された過去画像を第一画像、現在の検査で撮影された現在画像を第二画像として上述の領域情報取得処理を実行すれば、過去画像において検出された病変領域内の所定の特徴をもつ領域と病理学的に同じ特徴を有する領域を現在画像から抽出し、抽出された領域の位置や病理学的な特徴の情報を出力することが可能となる。 Further, in the above embodiment, the first image and the second image have been described as images having different modality, but may be images having different shooting times. For example, if the above-mentioned area information acquisition process is executed with the past image taken in the past examination as the first image and the current image taken in the current examination as the second image, the lesion area detected in the past image is included. It is possible to extract a region having the same pathological characteristics as the region having a predetermined characteristic from the current image, and output information on the position of the extracted region and the pathological characteristics.

また、上記実施形態においては、被検体を乳房として説明したが、これに限定されず、他の部位としてもよい。 Further, in the above embodiment, the subject is described as a breast, but the present invention is not limited to this, and other parts may be used.

また、上記の説明では、本発明に係るプログラムのコンピューター読み取り可能な媒体としてハードディスクや半導体の不揮発性メモリー等を使用した例を開示したが、この例に限定されない。その他のコンピューター読み取り可能な媒体として、CD-ROM等の可搬型記録媒体を適用することが可能である。また、本発明に係るプログラムのデータを通信回線を介して提供する媒体として、キャリアウエーブ(搬送波)も適用される。 Further, in the above description, an example in which a hard disk, a non-volatile memory of a semiconductor, or the like is used as a computer-readable medium of the program according to the present invention has been disclosed, but the present invention is not limited to this example. As another computer-readable medium, a portable recording medium such as a CD-ROM can be applied. A carrier wave is also applied as a medium for providing data of a program according to the present invention via a communication line.

その他、生体検査支援システム100を構成する各装置の細部構成及び細部動作に関しても、本発明の趣旨を逸脱することのない範囲で適宜変更可能である。 In addition, the detailed configuration and detailed operation of each device constituting the biopsy support system 100 can be appropriately changed without departing from the spirit of the present invention.

100 生体検査支援システム
1 第一画像撮影装置
2 第二画像撮影装置
3 情報処理装置
31 制御部
32 操作部
33 表示部
34 通信部
35 記憶部
36 バス
100 Biopsy support system 1 First imaging device 2 Second imaging device 3 Information processing device 31 Control unit 32 Operation unit 33 Display unit 34 Communication unit 35 Storage unit 36 Bus

Claims (12)

被検体を撮影することにより取得された第一画像を解析して、前記第一画像から前記被検体に含まれる病変領域内において病理学的に同じ特徴を有する領域を一つの領域として、一又は複数の領域を抽出する第一抽出手段と、
前記被検体を撮影することにより取得された前記第一画像とは異なる第二画像を解析して、前記第二画像から前記第一抽出手段により抽出された領域と病理学的に同じ特徴を有する領域を抽出する第二抽出手段と、
前記第二画像と、前記第二抽出手段により抽出された領域に関する情報とを対応付けて出力する出力手段と、
を備える医用情報処理装置。
The first image obtained by photographing the subject is analyzed, and the region having the same pathological characteristics within the lesion region contained in the subject from the first image is regarded as one region or one or more. The first extraction means to extract multiple regions and
A second image different from the first image obtained by photographing the subject is analyzed, and the region has the same pathological characteristics as the region extracted from the second image by the first extraction means. A second extraction means to extract the area,
An output means for outputting the second image in association with information about a region extracted by the second extraction means.
Medical information processing device equipped with.
前記第一抽出手段は、組織化学染色、腫瘍マーカー分析、アミノ酸分析、又は遺伝子解析によって決定される病理検査結果と関連付けられた領域抽出処理によって前記第一画像の病変領域内から前記一又は複数の領域を抽出する請求項1に記載の医用情報処理装置。 The first extraction means is one or more of the lesion areas of the first image by a region extraction process associated with a pathological test result determined by histochemical staining, tumor marker analysis, amino acid analysis, or genetic analysis. The medical information processing apparatus according to claim 1, wherein an area is extracted. 前記第一抽出手段は、画像特徴量と病理検査結果を対応付けて学習させた識別器を用いて前記第一画像の病変領域内から前記一又は複数の領域を抽出する請求項2に記載の医用情報処理装置。 The first extraction means according to claim 2, wherein the one or a plurality of regions are extracted from the lesion region of the first image by using a discriminator trained by associating an image feature amount with a pathological test result. Medical information processing device. 前記第二抽出手段は、前記第一抽出手段と同様の手法によって前記第二画像から領域の抽出を行い、前記第一画像から抽出された領域の病理学的な特徴と前記第二画像から抽出された領域の病理学的な特徴を比較又は照合することにより、前記第一抽出手段により抽出された領域と病理学的に同じ特徴を有する領域を抽出する請求項1〜3のいずれか一項に記載の医用情報処理装置。 The second extraction means extracts a region from the second image by the same method as the first extraction means, and extracts from the pathological features of the region extracted from the first image and the second image. Any one of claims 1 to 3 for extracting a region having the same pathological characteristics as the region extracted by the first extraction means by comparing or collating the pathological characteristics of the regions. The medical information processing apparatus described in. 前記第一抽出手段により複数の領域が抽出された場合に、前記抽出された複数の領域の中から前記第二抽出手段による領域の抽出に用いる対象領域を特定する特定手段を備え、
前記第二抽出手段は、前記第二画像から前記第一抽出手段により抽出された領域のうち前記特定手段により特定された対象領域と病理学的に同じ特徴を有する領域を抽出する請求項1〜4のいずれか一項に記載の医用情報処理装置。
When a plurality of regions are extracted by the first extraction means, a specific means for specifying a target region to be used for extracting the region by the second extraction means from the extracted plurality of regions is provided.
The second extraction means claims 1 to 1 to extract a region extracted from the second image by the first extraction means that has the same pathological characteristics as the target region specified by the specific means. The medical information processing apparatus according to any one of 4.
前記特定手段は、ユーザーによる領域指定操作、病理検査結果に対して予め定められた優先度、診断の有効性に基づく優先度、及び/又はユーザーにより予め設定された優先度に基づいて前記対象領域を特定する請求項5に記載の医用情報処理装置。 The specific means is a target area based on a user's area designation operation, a predetermined priority for a pathological examination result, a priority based on the effectiveness of diagnosis, and / or a priority preset by the user. The medical information processing apparatus according to claim 5. 表示手段を有し、
前記出力手段は、前記第二画像及び前記第二抽出手段により抽出された領域に関する情報を前記表示手段に出力し、
前記表示手段は、前記第二画像及び前記第二抽出手段により抽出された領域に関する情報を並べて又は重ねて表示する請求項1〜6のいずれか一項に記載の医用情報処理装置。
Has a display means
The output means outputs the information about the second image and the region extracted by the second extraction means to the display means.
The medical information processing apparatus according to any one of claims 1 to 6, wherein the display means displays the second image and information about the region extracted by the second extraction means side by side or in an overlapping manner.
前記出力手段は、前記第一画像及び/又は前記第一抽出手段により抽出された領域に関する情報をさらに前記表示手段に出力し、
前記表示手段は、前記第一抽出手段により抽出された領域に関する情報及び前記第二抽出手段により抽出された領域に関する情報を並べて表示するか、前記第一抽出手段により抽出された領域に関する情報を前記第一画像に重ねた画像及び前記第二抽出手段により抽出された領域に関する情報を前記第二画像に重ねた画像を並べて表示するか、又は、前記第二画像に重ねた前記第二抽出手段により抽出された領域に関する情報に、さらに前記第一抽出手段により抽出された領域に関する情報を重ねた画像を表示する請求項7に記載の医用情報処理装置。
The output means further outputs information about the first image and / or the region extracted by the first extraction means to the display means.
The display means displays side by side information about the region extracted by the first extraction means and information about the region extracted by the second extraction means, or displays information about the region extracted by the first extraction means. The image superimposed on the first image and the information about the region extracted by the second extraction means are displayed side by side on the second image, or by the second extraction means superimposed on the second image. The medical information processing apparatus according to claim 7, wherein an image in which the information on the extracted region is further superimposed with the information on the region extracted by the first extraction means is displayed.
前記第二抽出手段により抽出された領域の位置に基づいて、生体組織診断のための装置の挿入経路を算出する算出手段を備え、
前記出力手段は、前記算出手段により算出された挿入経路の情報を出力し、
前記表示手段は、出力された前記挿入経路の情報を表示する請求項7又は8に記載の医用情報処理装置。
A calculation means for calculating the insertion route of the device for biopsy diagnosis based on the position of the region extracted by the second extraction means is provided.
The output means outputs the information of the insertion path calculated by the calculation means, and outputs the information.
The medical information processing device according to claim 7 or 8, wherein the display means displays the output information of the insertion path.
前記第二抽出手段により領域が抽出されなかった場合に、領域が抽出されなかった旨を報知する報知手段を備える請求項1〜9のいずれか一項に記載の医用情報処理装置。 The medical information processing apparatus according to any one of claims 1 to 9, further comprising a notifying means for notifying that the region has not been extracted when the region is not extracted by the second extraction means. 前記第一画像は、マンモグラフィー画像、MRI画像、超音波画像、又はトモシンセシス画像であり、
前記第二画像は、超音波画像である請求項1〜10のいずれか一項に記載の医用情報処理装置。
The first image is a mammography image, an MRI image, an ultrasonic image, or a tomosynthesis image.
The medical information processing apparatus according to any one of claims 1 to 10, wherein the second image is an ultrasonic image.
コンピューターを、
被検体を撮影することにより取得された第一画像を解析して、前記第一画像から前記被検体に含まれる病変領域内において病理学的に同じ特徴を有する領域を一つの領域として、一又は複数の領域を抽出する第一抽出手段、
前記被検体を撮影することにより取得された前記第一画像とは異なる第二画像を解析して、前記第二画像から前記第一抽出手段により抽出された領域と病理学的に同じ特徴を有する領域を抽出する第二抽出手段、
前記第二画像と、前記第二抽出手段により抽出された領域に関する情報を対応付けて出力する出力手段、
として機能させるためのプログラム。
Computer,
The first image obtained by photographing the subject is analyzed, and the region having the same pathological characteristics within the lesion region contained in the subject from the first image is regarded as one region or one or more. First extraction means to extract multiple regions,
A second image different from the first image obtained by photographing the subject is analyzed, and the region has the same pathological characteristics as the region extracted from the second image by the first extraction means. Second extraction means to extract the region,
An output means that outputs the second image in association with information about the area extracted by the second extraction means.
A program to function as.
JP2019123307A 2019-07-02 2019-07-02 Medical information processing device and program Active JP7287151B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019123307A JP7287151B2 (en) 2019-07-02 2019-07-02 Medical information processing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019123307A JP7287151B2 (en) 2019-07-02 2019-07-02 Medical information processing device and program

Publications (2)

Publication Number Publication Date
JP2021007659A true JP2021007659A (en) 2021-01-28
JP7287151B2 JP7287151B2 (en) 2023-06-06

Family

ID=74198769

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019123307A Active JP7287151B2 (en) 2019-07-02 2019-07-02 Medical information processing device and program

Country Status (1)

Country Link
JP (1) JP7287151B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018516135A (en) * 2015-06-04 2018-06-21 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. System and method for precision diagnosis and treatment extended by cancer malignancy map
JP2018187384A (en) * 2017-05-09 2018-11-29 キヤノンメディカルシステムズ株式会社 Medical information processing system and medical information processing apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018516135A (en) * 2015-06-04 2018-06-21 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. System and method for precision diagnosis and treatment extended by cancer malignancy map
JP2018187384A (en) * 2017-05-09 2018-11-29 キヤノンメディカルシステムズ株式会社 Medical information processing system and medical information processing apparatus

Also Published As

Publication number Publication date
JP7287151B2 (en) 2023-06-06

Similar Documents

Publication Publication Date Title
EP3241176B1 (en) System for cytopathological and genetic data based treatment protocol identification and tracking
CN104303184B (en) Integrate the Clinical workstations of imaging of medical and biopsy data and use its method
EP2316341B1 (en) Image processing apparatus and method and program
JP5263997B2 (en) Medical report creation device, medical report creation method, and medical report creation program
JP2007502469A (en) System and method for supporting CAD (computer aided diagnosis)
EP3825910B1 (en) Method and apparatus of intelligent analysis for liver tumour
US10916010B2 (en) Learning data creation support apparatus, learning data creation support method, and learning data creation support program
JP6865678B2 (en) Classification of the health status of the tissue of interest based on longitudinal characteristics
EP2828778B1 (en) Clinical workstation integrating medical imaging and biopsy data and methods using same
JP2022058397A (en) Medical image processing device, medical image processing method and medical image processing program
JP2019008349A (en) Learning data generation support apparatus and learning data generation support method and learning data generation support program
JP4755863B2 (en) Interpretation support device, interpretation support method, and program thereof
JP2016195655A (en) Medical image system and program
JP7287151B2 (en) Medical information processing device and program
JP2015221141A (en) Medical image diagnosis support apparatus, operation method for medical image diagnosis support apparatus, and medical image diagnosis support program
WO2022153702A1 (en) Medical image display device, method, and program
JP2024044921A (en) Information processing device, information processing method, and information processing program
Van Sloun et al. Mammography: developing a smarter and safer alternative

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230508

R150 Certificate of patent or registration of utility model

Ref document number: 7287151

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150