JP6642132B2 - Image processing system, image processing method, and image processing program - Google Patents
Image processing system, image processing method, and image processing program Download PDFInfo
- Publication number
- JP6642132B2 JP6642132B2 JP2016044942A JP2016044942A JP6642132B2 JP 6642132 B2 JP6642132 B2 JP 6642132B2 JP 2016044942 A JP2016044942 A JP 2016044942A JP 2016044942 A JP2016044942 A JP 2016044942A JP 6642132 B2 JP6642132 B2 JP 6642132B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- time
- feature amount
- similar
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003672 processing method Methods 0.000 title claims description 10
- 239000013598 vector Substances 0.000 claims description 156
- 238000000034 method Methods 0.000 claims description 27
- 238000000513 principal component analysis Methods 0.000 claims description 13
- 238000013507 mapping Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 30
- 230000000875 corresponding effect Effects 0.000 description 20
- 239000000284 extract Substances 0.000 description 13
- 230000014509 gene expression Effects 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 10
- 230000003902 lesion Effects 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 8
- 206010028980 Neoplasm Diseases 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000000605 extraction Methods 0.000 description 4
- 230000000052 comparative effect Effects 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
Images
Landscapes
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Description
本発明は、画像処理システム等に関する。 The present invention relates to an image processing system and the like.
現在の医療分野では、同一の患者について異なる時期に撮影された疾病部位に関する画像を比較し、比較した画像の差異から患者の病状を診断することが行われている。患者の疾病部位に関する画像を比較して診断することを、比較読影と呼ぶ。 2. Description of the Related Art In the current medical field, images of a diseased part taken at different times for the same patient are compared, and a disease state of the patient is diagnosed based on a difference between the compared images. Diagnosis by comparing images related to a diseased part of a patient is called comparative reading.
比較読影の業務では、診断中の症例に対し、過去の類似症例を検索し検索結果を参照する類似症例検索が行われている。例えば、過去症例のデータベースから病変の画像特徴が類似した過去症例を検索し、表示する。これらの業務に関する従来技術としては、例えば、従来技術1がある。
In the task of comparative image interpretation, a similar case search is performed for a case under diagnosis by searching for similar cases in the past and referring to the search results. For example, a past case having a similar image feature of a lesion is retrieved from a past case database and displayed. As a conventional technology related to these tasks, there is, for example, a
しかしながら、上述した従来技術では、クエリの症例と他の症例との類似度を精度良く算出することができないという問題がある。 However, the above-described related art has a problem that the similarity between a query case and another case cannot be calculated with high accuracy.
図14は、問題を説明するための図である。例えば、疾病部位に関する画像である症例画像が、一人の患者の1つの疾病部位について複数のタイミングで撮影されて取得されたとする。例えば、CT画像やMRI画像は1つの疾病部位につき、1回のタイミングで複数枚の画像が採取される場合が多いので、図14においては各画像が複数枚重なった様子をイメージとして表している。その結果、一人の患者について、複数のタイミングでそれぞれ撮影された画像のセットが形成されることになる。図14では、例えば、囲み線21は、5回のタイミングでそれぞれ撮影された症例画像セットを示す。同様に、他の患者もしくは他の疾病部位についても、過去の複数回にわたる撮影結果の時系列画像群である、症例画像セット22,23が蓄積されているとする。各症例画像セット21〜23を称して、症例画像セット群とすると、比較読影を行うためには、今回の診断対象とする患者の疾病部位の変化が、データベース20に格納されている症例画像セット群内のいずれの症例画像セットに類似しているかを特定し、類似している過去事例と比較して、今回の患者の状態がどうであるかを医師が判断することになる。
FIG. 14 is a diagram for explaining the problem. For example, it is assumed that a case image, which is an image related to a diseased part, is captured and acquired at a plurality of timings for one diseased part of one patient. For example, in a CT image or an MRI image, a plurality of images are often collected at one timing for one diseased part, and therefore, FIG. 14 shows a state in which a plurality of images are overlapped as an image. . As a result, a set of images respectively taken at a plurality of timings is formed for one patient. In FIG. 14, for example, an
ここで、各症例画像セット21〜23と検索対象とする検索対象画像セット25、すなわちクエリの症例に含まれる各画像の撮影間隔が同じであれば、比較は容易であろう。しかし一般的には、どのようなタイミングで疾病部位の撮影を行うかは患者によって異なるし、撮影されるタイミング数も異なる。図14の例では、検索対象画像セット25には3回のタイミングで撮影された画像が存在するイメージを示している。そのため、類似性を判断可能とするためには、患者毎の撮影時期の違いを吸収する仕組みが求められる。 Here, if the case image sets 21 to 23 and the search target image set 25 to be searched, that is, the shooting intervals of the images included in the query case are the same, the comparison will be easy. However, in general, the timing at which an image of a diseased part is to be taken differs from patient to patient, and the number of times at which the image is taken also differs. In the example of FIG. 14, an image in which the search target image set 25 includes images captured at three times is present. Therefore, in order to be able to determine the similarity, a mechanism for absorbing the difference in the imaging timing for each patient is required.
図15は、病変の進行すなわち病変部分の変化の仕方は、非線形であることを説明する図である。各病変画像を特徴空間内における特徴ベクトルとして表現したとして、その特徴ベクトルの軌跡は一般に非線形となる。そのため、線形空間30内における各特徴ベクトル31の軌跡は非線形である。例えば、がんは大きくなればなるほど成長速度が速くなるように、非線形に増大する傾向がある。
FIG. 15 is a diagram for explaining that the progress of the lesion, that is, the way of changing the lesion portion is non-linear. Assuming that each lesion image is represented as a feature vector in the feature space, the trajectory of the feature vector is generally non-linear. Therefore, the trajectory of each
図16は、問題点を説明するための図である。例えば、時刻t0および時刻t4の特徴ベクトルから、時刻t1〜t3の特徴ベクトルを線形補間により求めると、各特徴ベクトルは、線分32に沿って移動する。しかし、実際の特徴ベクトルは、非線形に曲面33にそって移動するため、線形補間による各特徴ベクトルと実際の各特徴ベクトルとの間に乖離が発生する。
FIG. 16 is a diagram for explaining a problem. For example, when the feature vectors at times t1 to t3 are obtained by linear interpolation from the feature vectors at time t0 and time t4, each feature vector moves along the
なお、腫瘍は多様な形状を取りながら非線形に変化するため、特徴ベクトルが形成する高次元曲面は極めて複雑であり画像の特徴ベクトルに関する軌跡の曲線を学習によって推定することも難しい。 Since the tumor changes nonlinearly while taking various shapes, the high-dimensional curved surface formed by the feature vector is extremely complicated, and it is difficult to estimate the curve of the trajectory related to the feature vector of the image by learning.
1つの側面では、本発明は、クエリの症例と他の症例との類似度を精度良く算出することができる画像処理システム、画像処理方法および画像処理プログラムを提供することを目的とする。 In one aspect, an object of the present invention is to provide an image processing system, an image processing method, and an image processing program that can accurately calculate the similarity between a query case and another case.
第1の案では、画像処理システムは、特定部と、生成部と、判断部とを有する。特定部は、各患者につき時間をおいて複数回撮影されることで取得された、複数種類の特徴量で表現されうる個々の症例画像セットを含む症例画像セット群の間で、検索対象とする検索対象画像セットと類似する画像セットを検索する際に、検索対象画像セットの中の第1の時刻に撮影された第一画像と、第1の時刻とは異なる第2の時刻に撮影された第二画像との組について、症例画像セット群の中で、第一画像の特徴量と第二画像の特徴量との組にそれぞれ類似する特徴量を持つ画像の組を含むセットを1以上特定する。生成部は、特定した1以上のセットに含まれる、第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、第一画像と第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成する。判断部は、生成した補間画像に対応する特徴量を用いて、検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する。 In the first plan, the image processing system has a specifying unit, a generating unit, and a determining unit. The identification unit is a search target among case image set groups including individual case image sets that can be expressed by a plurality of types of feature amounts, which are obtained by being imaged a plurality of times at an interval for each patient. When searching for an image set similar to the search target image set, the first image shot at the first time in the search target image set and the first image shot at a second time different from the first time For the set with the second image, at least one set including a set of images having feature amounts similar to the set of the feature amount of the first image and the feature amount of the second image is specified in the case image set group. I do. The generation unit has a shooting time of a first similar image having a feature amount similar to the feature amount of the first image and a feature amount similar to the feature amount of the second image included in the specified one or more sets. An interpolated image corresponding to an image captured at a time between the first image and the second image is obtained by using a feature amount of one or more images captured at a time between the capturing times of the second similar image. One or more feature quantities estimated to have are generated. The determination unit determines the similarity between the search target image set and one or more sets in the case image set group using the feature amount corresponding to the generated interpolation image.
クエリの症例と他の症例との類似度を精度良く算出することができる。 The similarity between the query case and another case can be calculated with high accuracy.
以下に、本願の開示する画像処理システム、画像処理方法および画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。 Hereinafter, embodiments of an image processing system, an image processing method, and an image processing program disclosed in the present application will be described in detail with reference to the drawings. The present invention is not limited by the embodiment.
図1は、本実施例に係る画像処理装置の構成を示す機能ブロック図である。図1に示すように、この画像処理装置100は、通信部110と、入力部120と、表示部130と、記憶部140と、制御部150とを有する。
FIG. 1 is a functional block diagram illustrating the configuration of the image processing apparatus according to the present embodiment. As shown in FIG. 1, the
通信部110は、ネットワーク等を介して他の装置とデータ通信を実行する処理部である。例えば、通信部110は、通信装置に対応する。 The communication unit 110 is a processing unit that executes data communication with another device via a network or the like. For example, the communication unit 110 corresponds to a communication device.
入力部120は、各種の情報を画像処理装置100に入力する入力装置である。例えば、入力部120は、キーボードやマウス、タッチパネル等に対応する。利用者は、入力部120を操作して、クエリの症例等を選択する。
The input unit 120 is an input device that inputs various types of information to the
表示部130は、制御部150の処理結果を表示する表示装置である。表示部130は、液晶ディスプレイや、タッチパネル等に対応する。例えば、表示部130は、制御部150によって検索された、クエリの症例に類似する他の症例の画像を表示する。
The
記憶部140は、画像テーブル141を有する。記憶部140は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。 The storage unit 140 has an image table 141. The storage unit 140 corresponds to a semiconductor memory device such as a random access memory (RAM), a read only memory (ROM), and a flash memory, and a storage device such as a hard disk drive (HDD).
画像テーブル141は、各種の症例に関する時系列画像の情報を格納するテーブルである。図2は、画像テーブルのデータ構造の一例を示す図である。図2に示すように画像テーブル141は、症例数が記録されており、症例数の分だけ、患者ID(Identification)と、撮影時刻数と、データポインタとがセットになった情報が順番に記録されている。データポインタの先には、撮影時刻数の分だけ、撮影時刻、画像データ、腫瘍位置情報、特徴ベクトルがセットになった情報が順番に記録される。 The image table 141 is a table that stores information on time-series images related to various cases. FIG. 2 is a diagram illustrating an example of the data structure of the image table. As shown in FIG. 2, the number of cases is recorded in the image table 141, and information in which a patient ID (Identification), the number of imaging times, and a data pointer are set in order is recorded for the number of cases. Have been. At the end of the data pointer, information in which the imaging time, the image data, the tumor position information, and the feature vector are set in order is recorded for the number of imaging times.
例えば、同一の患者IDに対応づけられた各画像データが、図14で説明した症例画像セット21〜23に対応するものとなる。各患者IDの症例画像セットをまとめたものが、症例画像セット群に対応する。また、後述するように、各症例画像セットの中から、検索対象となる検索対象画像セットが選択される。 For example, each image data associated with the same patient ID corresponds to the case image sets 21 to 23 described with reference to FIG. A set of case image sets of each patient ID corresponds to a case image set group. Further, as described later, a search target image set to be searched is selected from each case image set.
特徴ベクトルは、画像データに含まれる病変部位として、例えば腫瘍の特徴を表すベクトルである。例えば、特徴ベクトルは、腫瘍を囲む矩形の大きさ、矩形の座標、腫瘍の濃度、色等を数値化した情報である。 The feature vector is a vector representing, for example, a feature of a tumor as a lesion site included in the image data. For example, the feature vector is information obtained by digitizing the size of a rectangle surrounding the tumor, the coordinates of the rectangle, the density and color of the tumor, and the like.
制御部150は、特定部151、生成部152、判断部153を有する。制御部150は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、制御部150は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路に対応する。
The
図3は、制御部の処理を説明するための図である。図3に示すように、制御部150は、クエリの症状に対応する時系列画像の特徴ベクトル40,50を受け付ける(ステップS10)。例えば、特徴ベクトル40,50は、特徴空間30a上に存在する。
FIG. 3 is a diagram for explaining the processing of the control unit. As illustrated in FIG. 3, the
制御部150は、特徴ベクトル40,50と、画像テーブル141の各特徴ベクトルとを比較して、類似する特徴ベクトルを求める(ステップS11)。例えば、特徴ベクトル40に類似する特徴ベクトルを、特徴ベクトル41、42,43,44とする。特徴ベクトル50に類似する特徴ベクトルを、特徴ベクトル51,52,53,54とする。
The
制御部150は、類似する各特徴ベクトルが属する時系列画像群の時系列特徴ベクトルを抽出する(ステップS12)。例えば、制御部150は、類似する特徴ベクトルが属する患者IDを、画像テーブル141を基にして特定し、特定した患者IDに属する全ての特徴ベクトルを時系列ベクトル群として抽出する。図3のステップS12に示す例では、制御部150は、特徴ベクトル41〜44、51〜54が属する患者IDをキーにして、特徴ベクトル群61a,62a,63a,64aを抽出する。この例では、4人の患者IDが特定された例を示している。ステップS12によって、特徴ベクトルが形成する高次元曲面31において、クエリの軌跡曲線に関する近傍部分32を得ることができる。
The
制御部150は、クエリの軌跡曲線に関する近傍部分32が有する非線形構造を、カーネル主成分分析によって線形空間30bとして捉える。実際、カーネル主成分分析によって、時系列特徴ベクトル群61a〜64aは、高次元空間を介して、線形空間30bのベクトル群61b〜64bとして捉えられる。
The
制御部150は、時系列特徴ベクトル群61b〜64bに基づいて、クエリの症例に対する近似直線65bを推定することができる(ステップS13)。この近似直線65bは、特徴空間30a上では、近似曲線65aとなる。この近似曲線65aと、他の時系列特徴ベクトル群61a〜64aとの類似度を、線形空間30b上の近似直線65bと、時系列特徴ベクトル群61b〜64bとの距離の計算に基づいて算出することが可能となる。なお、図3の例においては、説明の簡単化のため、1人の患者についての複数枚の時系列画像のうち、2つの画像それぞれの特徴ベクトル40,50を受け付ける例を示したが、受け付ける数は2以上であればいくつであってもよい。
The
続いて、制御部150に含まれる特定部151、生成部152、判断部153の各処理について順に説明する。
Subsequently, each processing of the specifying unit 151, the generating
特定部151は、クエリの症例として、患者IDを受け付けた場合に、受け付けた患者IDと、画像テーブル141とを比較して、患者IDのポインタで示される各時系列画像の特徴ベクトルを2つ以上抽出する。特定部151が抽出する特徴ベクトルは2つに限る必要はなく、2つ以上であればいくつであってもよい。例えば、特定部151が抽出する特徴ベクトルは、各時系列画像のうち、最先の時刻に撮影された画像の特徴ベクトルと、最後の時刻に撮影された画像の特徴ベクトルとを含む。 When receiving the patient ID as a case of the query, the identifying unit 151 compares the received patient ID with the image table 141, and determines two feature vectors of each time-series image indicated by the pointer of the patient ID. Extract above. The number of feature vectors extracted by the specifying unit 151 need not be limited to two, and may be any number as long as it is two or more. For example, the feature vector extracted by the specifying unit 151 includes a feature vector of an image taken at the earliest time and a feature vector of an image taken at the last time in each time-series image.
図4は、クエリの症例に対する特徴ベクトルの抽出を説明するための図である。クエリの症例は、n個の時系列画像を持つとする。上記のように、特定部151は、患者IDを受け付けると、画像テーブル141からn個の時系列画像の特徴ベクトルを抽出する。この結果、得られた特徴ベクトルの列を「yτ1,・・・,yτn」とする。ここで、特徴ベクトルの添え字τiは、観測された時刻を示すものである。図4に示すように、n=2である場合には、クエリの症例に対する時系列画像は、τ1の時系列画像と、τ2の時系列画像となり、特徴ベクトルは、yτ1,yτ2となる。なお、上述のとおり、nは2以上であればよい。 FIG. 4 is a diagram for explaining extraction of a feature vector for a query case. It is assumed that the query case has n time-series images. As described above, when receiving the patient ID, the specifying unit 151 extracts the feature vectors of the n time-series images from the image table 141. As a result, a sequence of the obtained feature vectors is defined as “y τ1 ,..., Y τn ”. Here, the subscript τ i of the feature vector indicates the observed time. As shown in FIG. 4, in the case of n = 2, the time-series images for cases of query, a time-series images of tau 1, becomes time-series images of tau 2, the feature vector, y .tau.1, y .tau.2 Becomes As described above, n may be 2 or more.
特定部151は、クエリの症例に関する特徴ベクトルと、画像テーブル141上の全特徴ベクトルとの距離計算を行うことにより、クエリの症例の時系列画像に類似する時系列画像群を抽出する。 The identification unit 151 extracts a time-series image group similar to the time-series image of the query case by calculating the distance between the feature vector related to the query case and all the feature vectors on the image table 141.
図5は、時系列画像群の抽出を説明するための図である。特定部151は、クエリの症例のn個の特徴ベクトルyτ1,・・・,yτnそれぞれについて、画像テーブル141に含まれる症例の個々の画像に関する特徴ベクトルのうち、最も距離が近い上位N個までの特徴ベクトルを算出する。図5に示す例では、特定部151は、特徴ベクトルyτ1に最も近い上位N位の特徴ベクトルxτ1,1・・・τ1,Nを抽出する。特定部151は、特徴ベクトルyτ2に最も近い上位N位の特徴ベクトルxτ2,1・・・τ2,Nを抽出する。 FIG. 5 is a diagram for explaining extraction of a time-series image group. The identifying unit 151 determines, for each of the n feature vectors y τ1 ,..., Y τn of the query case, among the feature vectors related to the individual images of the cases included in the image table 141, The feature vector up to is calculated. In the example illustrated in FIG. 5, the specifying unit 151 extracts the upper N-th feature vector x τ1,1... Τ1, N closest to the feature vector y τ1 . The identification unit 151 extracts the top N-th feature vector x τ2,1... Τ2, N closest to the feature vector y τ2 .
クエリの症例に関するベクトルに対して、最も近い上位N個の特徴ベクトルを式(1)のように定義する。 The closest top N feature vectors to the vector related to the query case are defined as in equation (1).
特定部151は、式(1)の各特徴ベクトルが属する症例の時系列画像の特徴ベクトル群を全て抽出する。抽出した時系列画像の特徴ベクトル群を式(2)のように定義する。式(2)では、xτi,jが属する症例の時系列画像がpk i,j個からなる時系列画像であるとする。 The specifying unit 151 extracts all the feature vector groups of the time-series image of the case to which each feature vector of Expression (1) belongs. A feature vector group of the extracted time-series image is defined as in Expression (2). In equation (2), x τi, time-series images of cases j belongs to a p k i, the time-series images consisting of j-number.
特定部151は、式(2)で定義した特徴ベクトル群から、クエリの症例の特徴ベクトルに類似する時系列画像の特徴ベクトルを選択する。例えば、特定部151は、式(3)で定義されるベクトルxk τi,Jのうち、少なくとも2個はクエリの症例の時系列の特徴ベクトルと類似しているものを選択する。 The identification unit 151 selects a feature vector of a time-series image similar to the feature vector of the query case from the feature vector group defined by Expression (2). For example, the specifying unit 151 selects, from among the vectors x k τi, J defined by Expression (3), at least two vectors that are similar to the time-series feature vectors of the query cases.
図6は、クエリの症例に類似する時系列の特徴ベクトル群の一例を示す図である。図6に示す例では、クエリの症例に類似する特徴ベクトル群61a〜64aが抽出される。例えば、特徴ベクトル群61aのうち、少なくとも2個の特徴ベクトルが、クエリの症例のいずれかの特徴ベクトルに類似している。特徴ベクトル群62a〜64aも、特徴ベクトル群61aと同様にして、少なくとも2個の特徴ベクトルが、クエリの症例のいずれかの特徴ベクトルに類似している。
FIG. 6 is a diagram illustrating an example of a time-series feature vector group similar to a query case. In the example illustrated in FIG. 6,
以下の説明では、一例として、特定部151が、m個の時系列の特徴ベクトル群を抽出したものとし、各特徴ベクトル群を、式(4)のように定義する。 In the following description, as an example, it is assumed that the specifying unit 151 extracts m time-series feature vector groups, and defines each feature vector group as shown in Expression (4).
続いて、生成部152の説明に移行する。生成部152は、クエリの症例に類似する時系列の特徴ベクトル群がなす非線形構造を、カーネル主成分分析によって高次元空間を介して、線形空間として捉える。その結果、時系列特徴ベクトル群は、線形空間上のベクトル群として捉えられることになる。そして、これらの線形空間上のベクトル群を基にして、クエリの症例に対する近似曲線と時系列特徴ベクトル群との距離を推定することが可能になる。
Subsequently, the process proceeds to the description of the
生成部152は、カーネル関数kを用いて、カーネル行列Kを算出する。ここでは説明の便宜上、クエリの症例に類似する時系列の特徴ベクトル群をx1,・・・xqと表すことにする。ここで、qは、クエリに類似する時系列特徴ベクトル群の個数とする。また、カーネル関数としては、例えば、式(5)によって表されるガウシアンカーネルを用いる。式(5)に含まれるTは、ある定数とする。
The
生成部152が、式(5)によって算出するカーネル行列Kは、式(6)に示すようなq×qの正方行列Kとして計算される。
The kernel matrix K calculated by the
生成部152は、カーネル行列Kに対して、r個の値の大きい上位固有値と、上位固有値に対応する固有ベクトルを算出する。例えば、生成部152は、カーネル行列Kの固有方程式(7)を未知数λの方程式として解いて固有値λを求める。また、各々の固有値λを連立方程式(8)に代入して、固有値λに対応する固有ベクトルvを求める。例えば、上位の固有値をλ1,・・・,λrとし、対応する固有ベクトルをv1,・・・,vrとする。
The
図7は、カーネル主成分分析による写像を説明するための図である。生成部152が、特徴ベクトル群61a〜64aのカーネル行列Kを求め、カーネル行列Kに基づいて、固有値λ、固有ベクトルvを算出することで、特徴ベクトル群61a〜64aは、線形空間30b上のベクトル群61b〜64bとして捉えることができる。
FIG. 7 is a diagram for explaining mapping by kernel principal component analysis. The
続いて、判断部153の説明に移行する。判断部153は、クエリの症例の時系列ベクトル群について、特徴ベクトルを補間した近似曲線を推定し、近似曲線と、他の症例との類似度を、線形区間30b上での距離計算に基づいて算出する処理部である。
Subsequently, the process proceeds to the description of the
図8は、判断部の処理を説明するための図である。判断部153は、特徴ベクトル群61b〜64bに基づいて、クエリの症例と他の時系列特徴ベクトル群との距離を推定する。具体的には、判断部153は、近似曲線65aと、他の時系列特徴ベクトル群61a〜64aとの類似度を、線形空間30b上の近似直線65bと、特徴ベクトル群61b〜64bとの距離の計算に基づいて算出する。
FIG. 8 is a diagram for explaining the processing of the determination unit. The determining
以下において、判断部153の処理を順に説明する。判断部153は、クエリの症例に対して、特徴ベクトルを補間する時刻を決定する。特徴ベクトルに対応する各時刻について、時刻間の長さが一定の値σ以下になるようにする。判断部153は、隣り合う時刻間の長さがσよりも大きい場合に、σよりも小さくなるように、時刻間をs等分する。
Hereinafter, the processing of the
図9は、補間する時刻を決定する処理を説明するための図である。例えば、クエリの症例の撮影時刻τ1,τ2,τ3,τ4,τ5,τ6と、所定の時間幅σとが、図9のように与えられたものとする。判断部153は、τ1,τ2間と、τ4,τ5間とが、σよりも大きいと判定する。判断部153は、τ1,τ2間をs等分していき、初めてσ以下となった時のs等分の長さにより、補間する時刻を決定する。図9に示す例では、τ1,τ2間に、補間する時刻τ11,τ12を決定する。判断部153は、τ1,τ2間に、時刻τ11,τ12を追加する。
FIG. 9 is a diagram illustrating a process of determining a time to be interpolated. For example, it is assumed that the imaging times τ 1 , τ 2 , τ 3 , τ 4 , τ 5 , τ 6 of the query case and the predetermined time width σ are given as shown in FIG. The
同様に、判断部153は、τ4,τ5間をs等分していき、初めてσ以下となった時のs等分の長さにより、補間する時刻を決定する。図9に示す例では、τ4,τ5間に、補間する時刻τ41を決定する。判断部153は、τ4,τ5間に、時刻τ41を追加する。
Similarly, the
判断部153は、画像テーブル141の症例の時系列画像に関する特徴ベクトルと、クエリの症例の特徴ベクトルとの距離をDP(Dynamic Programming)によって算出する。画像テーブル141の症例の時系列画像に関する特徴ベクトルをxt1,・・・,xt1であるとする。判断部153は、時刻間の対応表を生成し、各格子点(τi,tj)あるいは(τik,tj)において、yτiとxtjまたはyτikとxtjの距離を以下の式によって計算する。なお、クエリの症例の時刻τiの特徴ベクトルをyτiとする。
The
判断部153は、τiが補間時刻ではない場合に、式(9)に基づいて、特徴ベクトルyτiと、時刻tjの特徴ベクトルとの距離D(yτi,xtj)を算出する。
When τ i is not the interpolation time, the
判断部153は、τikが補間時刻である場合に、式(10)に基づいて、特徴ベクトルyτikと、時刻tjの特徴ベクトルとの距離D(yτik,xtj)を算出する。ここで、τikは、τiとτi+1をm:nに内分する点であるものとする。
When τ ik is the interpolation time, the determining
上記の式(9)および式(10)について、判断部153は、v(z)の値を、式(11)によって計算する。zは、yτi、yτikまたはxtjに対応する。式(11)に含まれるv1,・・・vrは、上記のカーネル行列Kの固有ベクトルに対応する。
With respect to Expressions (9) and (10), the
図10は、時刻間の対応表の一例を示す図である。対応表60の縦軸は、クエリの症例の撮影時刻と、補間した時刻を示す。対応表60の横軸は、画像テーブル141の症例の撮影時刻を示す。判断部153は、上述した式(9)、式(10)に基づいて、距離D(yτi,xtj)または距離D(yτi,xtj)を算出する。例えば、判断部153は、τiとtjとの組またはτikとtjとの組を作り、各組の距離Dの累積値を算出する。判断部153は、τiとtjとの組またはτikとtjとの組を網羅的に変えながら、累積値が最小となる、τiとtjとの組またはτikとtjとの組をDPに基づき探索する。
FIG. 10 is a diagram illustrating an example of a correspondence table between times. The vertical axis of the correspondence table 60 indicates the photographing time of the query case and the interpolated time. The horizontal axis of the correspondence table 60 indicates the imaging time of the case in the image table 141.
DPの具体的な計算方法は文献(吉村他,”DPマッチング法の逐次適用による日本語署名のオフライン照合法,”信学論(D-II),Vol. J81-D-II No.10, pp.2259-2266, 1998年10月の「2.2.2 DPマッチング処理」)などに記載されている。判断部153は、上記計算方法に基づき、DPを計算する。
The specific calculation method of DP is described in the literature (Yoshimura et al., "Offline Matching Method for Japanese Signatures by Sequential Application of DP Matching Method," IEICE (D-II), Vol. J81-D-II No.10, pp.2259-2266, "2.2.2 DP matching processing" of October 1998). The
図11は、DPによる時刻間の対応結果例を示す図である。図11は、クエリの症例の特徴ベクトルと、画像テーブル141のある患者IDに紐付く時系列画像の特徴ベクトルとのDPの計算結果を示す。図11に示す例では、DPにより、クエリの症例が撮影された時刻τ1の特徴ベクトルyτ1と、画像テーブル141の症例の時系列画像が撮影された時刻t3の特徴ベクトルxt3とが対応付けられる。クエリの症例が撮影された時刻τ2の特徴ベクトルyτ2と、画像テーブル141の症例の時系列画像が撮影された時刻t6の特徴ベクトルxt6とが対応付けられる。クエリの症例が撮影された時刻τ3の特徴ベクトルyτ3と、画像テーブル141の症例の時系列画像が撮影された時刻t6の特徴ベクトルxt6とが対応付けられる。クエリの症例が撮影された時刻τ4の特徴ベクトルyτ4と、画像テーブル141の症例の時系列画像が撮影された時刻t7の特徴ベクトルxt7とが対応付けられる。クエリの症例が撮影された時刻τ5の特徴ベクトルyτ5と、画像テーブル141の症例の時系列画像が撮影された時刻t9の特徴ベクトルxt9とが対応付けられる。クエリの症例が撮影された時刻τ6の特徴ベクトルyτ6と、画像テーブル141の症例の時系列画像が撮影された時刻t9の特徴ベクトルxt9とが対応付けられる。 FIG. 11 is a diagram illustrating an example of a result of correspondence between times by the DP. FIG. 11 shows a DP calculation result of a feature vector of a query case and a feature vector of a time-series image associated with a certain patient ID in the image table 141. In the example shown in FIG. 11, the DP, the feature vector y .tau.1 time tau 1 which case the query is captured, the time-series images of cases of image table 141 and a feature vector x t3 of time t 3 when taken Correlated. A feature vector y .tau.2 cases of captured time tau 2 queries, time-series images of cases of image table 141 are associated with the feature vector x t6 of time t 6, which is photographed. Query feature vector y .tau.3 cases of by time tau 3 shooting, time-series images of cases of image table 141 are associated with the feature vector x t6 of time t 6, which is photographed. The feature vector y τ4 at the time τ 4 at which the query case was captured is associated with the feature vector x t7 at the time t 7 at which the time-series image of the case in the image table 141 was captured. A feature vector y .tau.5 time tau 5 which cases the query is captured, the time-series images of cases of image table 141 are associated with the feature vector x t9 of time t 9, which is photographed. The feature vector y τ6 at the time τ 6 at which the query case was captured is associated with the feature vector x t9 at the time t 9 at which the time-series image of the case in the image table 141 was captured.
また、補間した時刻τ11の特徴ベクトルyτ11と、画像テーブル141の症例の時系列画像が撮影された時刻t4の特徴ベクトルxt4とが対応付けられる。補間した時刻τ12の特徴ベクトルyτ12と、画像テーブル141の症例の時系列画像が撮影された時刻t5の特徴ベクトルxt5とが対応付けられる。補間した時刻τ41の特徴ベクトルyτ41と、画像テーブル141の症例の時系列画像が撮影された時刻t8の特徴ベクトルxt8とが対応付けられる。 Further, the interpolated feature vector y τ11 at time τ 11 is associated with the feature vector x t4 at time t 4 at which the time-series image of the case in the image table 141 was captured. A feature vector y Tau12 of interpolated time tau 12, time-series images of cases of image table 141 are associated with the feature vector x t5 of time t 5 that is photographed. A feature vector y Tau41 of interpolated time tau 41, time-series images of cases of image table 141 are associated with the feature vector x t8 of the captured time t 8 is.
判断部153は、他の患者IDに紐付く時系列画像の特徴ベクトルについても、同様に上記処理を繰り返し実行する。判断部153は、患者ID毎の特徴ベクトルに関する距離Dの累積値を基にして、類似度を判断する。例えば、判断部153は、累積値が小さいほど、類似度が高いと判断する。
The
例えば、判断部153は、クエリの症例の特徴ベクトルと、画像テーブル141のある患者IDに紐付く時系列画像の特徴ベクトルとの類似度とを基にして、類似度が大きい上位N個の時系列画像を、表示部130に表示させる。
For example, based on the similarity between the feature vector of the query case and the feature vector of the time-series image associated with a certain patient ID in the image table 141, the
次に、本実施例に係る画像処理装置100の処理手順について説明する。図12は、本実施例に係る画像処理装置の処理手順を示すフローチャートである。図12に示すように、画像処理装置100の特定部151は、クエリの症例に対応する患者IDを受け付ける(ステップS101)。特定部151は、クエリの症例に対する特徴ベクトルを抽出する(ステップS102)。特定部151は、クエリの症例に類似する時系列画像群の特徴ベクトルを抽出する(ステップS103)。
Next, a processing procedure of the
画像処理装置100の生成部152は、クエリの症例に類似する時系列の特徴ベクトル群に対し、カーネル主成分分析を実行することで、固有ベクトルを算出する(ステップS104)。画像処理装置100の判断部153は、クエリの症例と、画像テーブル141の症例との類似度を計算する(ステップS105)。判断部153は、類似する症例を出力する(ステップS106)。
The
次に、本実施例に係る画像処理装置100の効果について説明する。画像処理装置100は、クエリの症例の時系列画像と類似する時系列画像群を抽出し、抽出した時系列画像群の特徴ベクトルに対してカーネル主成分分析を行い、その結果得られる固有ベクトルによって張られる線形空間上において、クエリの症例の画像を補間し、クエリの症例の時系列画像と、他の時系列画像との類似度を求める。このため、クエリの症例の時系列画像の撮影時刻と、他の時系列画像の撮影時刻との違いを吸収して、クエリの症例の時系列画像に類似する時系列画像を精度良く特定することができる。
Next, effects of the
患者によって、病変部分を撮影する時刻の間隔はまちまちであるため、1症例についての時系列画像は、各画像間の撮影時刻の間隔が異なり、病変の変化の類似性を判断することが難しい。しかしながら、上記のように、類似した時系列画像群を利用して、撮影時刻の間隔の違いを補間するため、クエリの症例と他の症例との類似度合いを判断できる。 Since the time interval for imaging the lesion portion varies depending on the patient, the time-series images of one case have different imaging time intervals between the images, and it is difficult to determine the similarity of the change in the lesion. However, as described above, since the difference in shooting time interval is interpolated using a similar time-series image group, the degree of similarity between the query case and another case can be determined.
例えば、患者の腫瘍部分に関する時系列画像の集合が画像テーブル141として与えられたもとで、クエリの症例の時系列画像が与えられたとき、その撮影時期によらず画像テーブル141に蓄積されている時系列画像との類似度を精度よく算出することができる。特に、病変部分の進行が非線形に推移している場合であっても、その非線形構造を推定して照合するため、高精度に照合できる。 For example, when a set of time-series images related to a tumor part of a patient is given as an image table 141, when a time-series image of a query case is given, when the image is stored in the image table 141 regardless of the imaging time. The degree of similarity with the series image can be calculated with high accuracy. In particular, even when the progression of the lesion portion changes nonlinearly, the non-linear structure is estimated and collated, so that the collation can be performed with high accuracy.
画像処理装置100は、クエリの症例に類似する時系列の特徴ベクトル群をカーネル主成分分析に基づいて線形空間上に写像することで、時系列特徴ベクトル群のなす非線形構造を線形空間として捉える。これにより、カーネル主成分分析に基づく線形空間を基にして、クエリの症例に対する近似曲線を推定することが可能になるため、実際の特徴ベクトルとの乖離の発生を抑止することができる。
The
画像処理装置100は、線形空間上に写像した、画像テーブル141の症例の時系列画像に関する特徴ベクトルと、クエリの症例の特徴ベクトルとの距離を基にして、類似度を特定する。このため、クエリの症例と他の症例との類似度を精度良く算出することができる。
The
ところで、上述した実施例では、画像処理装置100に、記憶部140、特定部151、生成部152、判断部153が含まれる例について説明したが、これに限定されるものではない。例えば、記憶部140を有する第1サーバ、特定部151を有する第2サーバ、生成部152を有する第3サーバ、判断部153を有する第4サーバをネットワーク上に配置して画像処理システムとしてもよい。画像処理システムに含まれる各第1〜第4サーバは、相互にデータ通信を実行して、画像処理装置100と同様の処理を実行する。
By the way, in the above-described embodiment, an example in which the
次に、上記実施例に示した画像処理装置100と同様の機能を実現する画像処理プログラムを実行するコンピュータの一例について説明する。図13は、画像処理プログラムを実行するコンピュータの一例を示す図である。
Next, an example of a computer that executes an image processing program that realizes the same functions as the
図13に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、ディスプレイ203とを有する。また、コンピュータ200は、記憶媒体からプログラム等を読み取る読み取り装置204と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインターフェース装置205とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM206と、ハードディスク装置207とを有する。そして、各装置201〜207は、バス208に接続される。
As illustrated in FIG. 13, the
ハードディスク装置207は、特定プログラム207a、生成プログラム207b、判断プログラム207cを有する。CPU201は、特定プログラム207a、生成プログラム207b、判断プログラム207cを読み出してRAM206に展開する。
The
特定プログラム207aは、特定プロセス206aとして機能する。生成プログラム207bは、生成プロセス206bとして機能する。判断プログラム207cは、判断プロセス206cとして機能する。
The
特定プロセス206aの処理は、特定部151の処理に対応する。生成プロセス206bの処理は生成部152の処理に対応する。判断プロセス206cの処理は、判断部153の処理に対応する。
The processing of the specifying
なお、特定プログラム207a、生成プログラム207b、判断プログラム207cについては、必ずしも最初からハードディスク装置207に記憶させておかなくても良い。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ200が各プログラム207a〜207cを読み出して実行するようにしてもよい。
Note that the
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。 Regarding the embodiment including each of the above examples, the following supplementary notes are further disclosed.
(付記1)各患者につき時間をおいて複数回撮影されることで取得された、複数種類の特徴量で表現されうる個々の症例画像セットを含む症例画像セット群の間で、検索対象とする検索対象画像セットと類似する画像セットを検索する際に、検索対象画像セットの中の第1の時刻に撮影された第一画像と、前記第1の時刻とは異なる第2の時刻に撮影された第二画像との組について、前記症例画像セット群の中で、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量を持つ画像の組を含むセットを1以上特定する特定部と、
特定した1以上のセットに含まれる、前記第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、前記第一画像と前記第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成する生成部と、
生成した補間画像に対応する特徴量を用いて、前記検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する判断部と
を有することを特徴とする画像処理システム。
(Supplementary Note 1) Search results among case image set groups including individual case image sets that can be expressed by a plurality of types of feature amounts, which are obtained by taking a plurality of images of each patient with a time interval. When searching for an image set similar to the search target image set, a first image shot at a first time in the search target image set is shot at a second time different from the first time. A set including an image set having a feature amount similar to the set of the feature amount of the first image and the feature amount of the second image in the case image set group. A specifying unit for specifying one or more of
The photographing time of a first similar image having a feature amount similar to the feature amount of the first image included in one or more specified sets, and a second similarity having a feature amount similar to the feature amount of the second image. An interpolated image corresponding to an image captured at a time between the first image and the second image is provided by using a feature amount of one or more images captured at a time between the image capturing times. A generation unit that generates one or more feature values estimated that
An image processing system comprising: a determination unit configured to determine a degree of similarity between the search target image set and one or more sets in a case image set group using a feature amount corresponding to the generated interpolation image.
(付記2)前記生成部は、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量に対して、カーネル主成分分析を実行することで、前記類似する特徴量を線形空間に写像し、前記線形空間上の前記類似する特徴量を基にして、前記補間画像が有することが推定される特徴量を1以上生成することを特徴とする付記1に記載の画像処理システム。 (Supplementary Note 2) The generation unit performs kernel principal component analysis on a feature amount similar to a set of a feature amount of the first image and a feature amount of the second image, thereby performing the similarity. The feature amount is mapped to a linear space, and one or more feature amounts estimated to be included in the interpolated image are generated based on the similar feature amounts in the linear space. Image processing system.
(付記3)前記判断部は、前記線形空間上の前記類似する特徴量と前記線形空間上の第一画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記第二画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離に基づいて、前記類似度合を判断することを特徴とする付記2に記載の画像処理システム。
(Supplementary Note 3) The determining unit is configured to determine a distance between the similar feature amount in the linear space and a feature amount of the first image in the linear space, and the similar feature amount in the linear space and the second image. 3. The image processing system according to
(付記4)前記検索対象画像セットについて、前記補間画像に対応する時刻の前後に撮影された第三画像と第四画像とが存在し、前記補間画像に対応する時刻が、前記第三画像の撮影時刻と、前記第四画像の撮影時刻とをm対nに内分する点に位置する時刻である場合に、前記判断部は、前記第三画像の特徴量のベクトルにnを乗算した値と、前記第四画像の特徴量のベクトルにmを乗算した値とを加算したベクトルから、前記類似する特徴量のベクトルを減算することで、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離を算出することを特徴とする付記2または3に記載の画像処理システム。
(Supplementary Note 4) For the search target image set, there are a third image and a fourth image photographed before and after the time corresponding to the interpolation image, and the time corresponding to the interpolation image is the time of the third image. When it is a time located at a point that internally divides the shooting time and the shooting time of the fourth image into m: n, the determining unit calculates a value obtained by multiplying the feature amount vector of the third image by n. And a vector obtained by adding a value obtained by multiplying the vector of the feature amount of the fourth image by m to the vector of the similar feature amount to obtain the similar feature amount on the linear space and the interpolation. 4. The image processing system according to
(付記5)コンピュータが実行する画像処理方法であって、
各患者につき時間をおいて複数回撮影されることで取得された、複数種類の特徴量で表現されうる個々の症例画像セットを含む症例画像セット群の間で、検索対象とする検索対象画像セットと類似する画像セットを検索する際に、検索対象画像セットの中の第1の時刻に撮影された第一画像と、前記第1の時刻とは異なる第2の時刻に撮影された第二画像との組について、前記症例画像セット群の中で、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量を持つ画像の組を含むセットを1以上特定し、
特定した1以上のセットに含まれる、前記第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、前記第一画像と前記第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成し、
生成した補間画像に対応する特徴量を用いて、前記検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する
処理を実行することを特徴とする画像処理方法。
(Supplementary Note 5) An image processing method executed by a computer,
A search target image set to be searched among case image set groups including individual case image sets that can be expressed by a plurality of types of feature amounts obtained by capturing a plurality of times at a time for each patient. When searching for an image set similar to the first image, a first image shot at a first time in the search target image set and a second image shot at a second time different from the first time In the case image set group, at least one set including an image set having a feature amount similar to the set of the feature amount of the first image and the feature amount of the second image is specified. And
The photographing time of a first similar image having a feature amount similar to the feature amount of the first image included in one or more specified sets, and a second similarity having a feature amount similar to the feature amount of the second image. An interpolated image corresponding to an image captured at a time between the first image and the second image is provided by using a feature amount of one or more images captured at a time between the image capturing times. Generate one or more features that are estimated to be
An image processing method comprising: performing a process of determining a degree of similarity between the search target image set and one or more sets in a case image set group using a feature amount corresponding to the generated interpolation image.
(付記6)前記生成する処理は、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量に対して、カーネル主成分分析を実行することで、前記類似する特徴量を線形空間に写像し、前記線形空間上の前記類似する特徴量を基にして、前記補間画像が有することが推定される特徴量を1以上生成することを特徴とする付記5に記載の画像処理方法。 (Supplementary Note 6) The generating process performs the kernel principal component analysis on a feature amount similar to a set of a feature amount of the first image and a feature amount of the second image, thereby performing the similarity analysis. Appending to the linear space, generating one or more characteristic amounts estimated to have the interpolated image based on the similar characteristic amounts in the linear space. The image processing method described in the above.
(付記7)前記類似度合いを判断する処理は、前記線形空間上の前記類似する特徴量と前記線形空間上の第一画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記第二画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離に基づいて、前記類似度合を判断することを特徴とする付記6に記載の画像処理方法。 (Supplementary Note 7) The process of determining the degree of similarity includes the step of: determining a distance between the similar feature amount in the linear space and a feature amount of the first image in the linear space; The method according to claim 6, wherein the similarity is determined based on a distance between the feature amount of the second image and a distance between the similar feature amount in the linear space and the feature amount of the interpolation image. Image processing method.
(付記8)前記検索対象画像セットについて、前記補間画像に対応する時刻の前後に撮影された第三画像と第四画像とが存在し、前記補間画像に対応する時刻が、前記第三画像の撮影時刻と、前記第四画像の撮影時刻とをm対nに内分する点に位置する時刻である場合に、前記類似度合いを判断する処理は、前記第三画像の特徴量のベクトルにnを乗算した値と、前記第四画像の特徴量のベクトルにmを乗算した値とを加算したベクトルから、前記類似する特徴量のベクトルを減算することで、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離を算出することを特徴とする付記6または7に記載の画像処理方法。 (Supplementary Note 8) Regarding the search target image set, there are a third image and a fourth image photographed before and after the time corresponding to the interpolation image, and the time corresponding to the interpolation image is the time of the third image. If it is a time located at a point that internally divides the shooting time and the shooting time of the fourth image into m: n, the process of determining the degree of similarity includes: Is subtracted from a vector obtained by adding a value obtained by multiplying the vector obtained by multiplying the vector of the feature amount of the fourth image by m to obtain the similar feature on the linear space. 8. The image processing method according to claim 6, wherein a distance between the amount and a feature amount of the interpolation image is calculated.
(付記9)コンピュータが実行する画像処理プログラムであって、
各患者につき時間をおいて複数回撮影されることで取得された、複数種類の特徴量で表現されうる個々の症例画像セットを含む症例画像セット群の間で、検索対象とする検索対象画像セットと類似する画像セットを検索する際に、検索対象画像セットの中の第1の時刻に撮影された第一画像と、前記第1の時刻とは異なる第2の時刻に撮影された第二画像との組について、前記症例画像セット群の中で、前記第一画像の特徴量と前記第二画像の特徴量との組とにそれぞれ類似する特徴量を持つ画像の組を含むセットを1以上特定し、
特定した1以上のセットに含まれる、前記第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、前記第一画像と前記第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成し、
生成した補間画像に対応する特徴量を用いて、前記検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する
処理を実行することを特徴とする画像処理プログラム。
(Supplementary Note 9) An image processing program executed by a computer,
A search target image set to be searched among case image set groups including individual case image sets that can be expressed by a plurality of types of feature amounts obtained by capturing a plurality of times at a time for each patient. When searching for an image set similar to the first image, a first image shot at a first time in the search target image set and a second image shot at a second time different from the first time In the case image set group, at least one set including an image set having a feature amount similar to the set of the feature amount of the first image and the set of the feature amount of the second image is included in the case image set group. Identify
The photographing time of a first similar image having a feature amount similar to the feature amount of the first image included in one or more specified sets, and a second similarity having a feature amount similar to the feature amount of the second image. An interpolated image corresponding to an image captured at a time between the first image and the second image is provided by using a feature amount of one or more images captured at a time between the image capturing times. Generate one or more features that are estimated to be
An image processing program for executing a process of determining a degree of similarity between the search target image set and one or more sets in a case image set group using a feature amount corresponding to the generated interpolation image.
(付記10)前記生成する処理は、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量に対して、カーネル主成分分析を実行することで、前記類似する特徴量を線形空間に写像し、前記線形空間上の前記類似する特徴量を基にして、前記補間画像が有することが推定される特徴量を1以上生成することを特徴とする付記9に記載の画像処理プログラム。 (Supplementary Note 10) The generating process includes performing a kernel principal component analysis on a feature amount similar to a set of a feature amount of the first image and a feature amount of the second image, thereby obtaining the similarity. Appending 9 to the linear space, and generating one or more characteristic amounts estimated to be included in the interpolated image based on the similar characteristic amounts in the linear space. Image processing program as described.
(付記11)前記類似度合いを判断する処理は、前記線形空間上の前記類似する特徴量と前記線形空間上の第一画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記第二画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離に基づいて、前記類似度合を判断することを特徴とする付記10に記載の画像処理プログラム。 (Supplementary Note 11) The process of determining the degree of similarity includes the step of: determining a distance between the similar feature amount in the linear space and a feature amount of the first image in the linear space; The method according to claim 10, wherein the similarity is determined based on a distance from the feature amount of the second image and a distance between the similar feature amount in the linear space and the feature amount of the interpolation image. Image processing program.
(付記12)前記検索対象画像セットについて、前記補間画像に対応する時刻の前後に撮影された第三画像と第四画像とが存在し、前記補間画像に対応する時刻が、前記第三画像の撮影時刻と、前記第四画像の撮影時刻とをm対nに内分する点に位置する時刻である場合に、前記類似度合いを判断する処理は、前記第三画像の特徴量のベクトルにnを乗算した値と、前記第四画像の特徴量のベクトルにmを乗算した値とを加算したベクトルから、前記類似する特徴量のベクトルを減算することで、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離を算出することを特徴とする付記10または11に記載の画像処理プログラム。 (Supplementary Note 12) Regarding the search target image set, there are a third image and a fourth image photographed before and after the time corresponding to the interpolation image, and the time corresponding to the interpolation image is the time of the third image. If it is a time located at a point that internally divides the shooting time and the shooting time of the fourth image into m: n, the process of determining the degree of similarity includes: Is subtracted from a vector obtained by adding a value obtained by multiplying the vector obtained by multiplying the vector of the feature amount of the fourth image by m to obtain the similar feature on the linear space. 12. The image processing program according to claim 10, wherein a distance between the amount and a feature amount of the interpolation image is calculated.
100 画像処理装置
140 記憶部
141 画像テーブル
150 制御部
151 特定部
152 生成部
153 判断部
REFERENCE SIGNS
Claims (6)
特定した1以上のセットに含まれる、前記第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、前記第一画像と前記第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成する生成部と、
生成した補間画像に対応する特徴量を用いて、前記検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する判断部と
を有することを特徴とする画像処理システム。 A search target image set to be searched among case image set groups including individual case image sets that can be expressed by a plurality of types of feature amounts obtained by capturing a plurality of times at a time for each patient. When searching for an image set similar to the first image, a first image shot at a first time in the search target image set and a second image shot at a second time different from the first time In the case image set group, at least one set including an image set having a feature amount similar to the set of the feature amount of the first image and the feature amount of the second image is specified. A specific part to be
The photographing time of a first similar image having a feature amount similar to the feature amount of the first image included in one or more specified sets, and a second similarity having a feature amount similar to the feature amount of the second image. An interpolated image corresponding to an image captured at a time between the first image and the second image is provided by using a feature amount of one or more images captured at a time between the image capturing times. A generation unit that generates one or more feature values estimated that
An image processing system comprising: a determination unit configured to determine a degree of similarity between the search target image set and one or more sets in a case image set group using a feature amount corresponding to the generated interpolation image.
各患者につき時間をおいて複数回撮影されることで取得された、複数種類の特徴量で表現されうる個々の症例画像セットを含む症例画像セット群の間で、検索対象とする検索対象画像セットと類似する画像セットを検索する際に、検索対象画像セットの中の第1の時刻に撮影された第一画像と、前記第1の時刻とは異なる第2の時刻に撮影された第二画像との組について、前記症例画像セット群の中で、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量を持つ画像の組を含むセットを1以上特定し、
特定した1以上のセットに含まれる、前記第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、前記第一画像と前記第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成し、
生成した補間画像に対応する特徴量を用いて、前記検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する
処理を実行することを特徴とする画像処理方法。 An image processing method executed by a computer,
A search target image set to be searched among case image set groups including individual case image sets that can be expressed by a plurality of types of feature amounts obtained by capturing a plurality of times at a time for each patient. When searching for an image set similar to the first image, a first image shot at a first time in the search target image set and a second image shot at a second time different from the first time In the case image set group, at least one set including an image set having a feature amount similar to the set of the feature amount of the first image and the feature amount of the second image is specified. And
The photographing time of a first similar image having a feature amount similar to the feature amount of the first image included in one or more specified sets, and a second similarity having a feature amount similar to the feature amount of the second image. An interpolated image corresponding to an image captured at a time between the first image and the second image is provided by using a feature amount of one or more images captured at a time between the image capturing times. Generate one or more features that are estimated to be
An image processing method comprising: performing a process of determining a degree of similarity between the search target image set and one or more sets in a case image set group using a feature amount corresponding to the generated interpolation image.
各患者につき時間をおいて複数回撮影されることで取得された、複数種類の特徴量で表現されうる個々の症例画像セットを含む症例画像セット群の間で、検索対象とする検索対象画像セットと類似する画像セットを検索する際に、検索対象画像セットの中の第1の時刻に撮影された第一画像と、前記第1の時刻とは異なる第2の時刻に撮影された第二画像との組について、前記症例画像セット群の中で、前記第一画像の特徴量と前記第二画像の特徴量との組とにそれぞれ類似する特徴量を持つ画像の組を含むセットを1以上特定し、
特定した1以上のセットに含まれる、前記第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、前記第一画像と前記第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成し、
生成した補間画像に対応する特徴量を用いて、前記検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する
処理を実行することを特徴とする画像処理プログラム。 An image processing program executed by a computer,
A search target image set to be searched among case image set groups including individual case image sets that can be expressed by a plurality of types of feature amounts obtained by capturing a plurality of times at a time for each patient. When searching for an image set similar to the first image, a first image shot at a first time in the search target image set and a second image shot at a second time different from the first time In the case image set group, at least one set including an image set having a feature amount similar to the set of the feature amount of the first image and the set of the feature amount of the second image is included in the case image set group. Identify
The photographing time of a first similar image having a feature amount similar to the feature amount of the first image included in one or more specified sets, and a second similarity having a feature amount similar to the feature amount of the second image. An interpolated image corresponding to an image captured at a time between the first image and the second image is provided by using a feature amount of one or more images captured at a time between the image capturing times. Generate one or more features that are estimated to be
An image processing program for executing a process of determining a degree of similarity between the search target image set and one or more sets in a case image set group using a feature amount corresponding to the generated interpolation image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016044942A JP6642132B2 (en) | 2016-03-08 | 2016-03-08 | Image processing system, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016044942A JP6642132B2 (en) | 2016-03-08 | 2016-03-08 | Image processing system, image processing method, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017162124A JP2017162124A (en) | 2017-09-14 |
JP6642132B2 true JP6642132B2 (en) | 2020-02-05 |
Family
ID=59857768
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016044942A Expired - Fee Related JP6642132B2 (en) | 2016-03-08 | 2016-03-08 | Image processing system, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6642132B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7119327B2 (en) * | 2017-10-03 | 2022-08-17 | 富士通株式会社 | Program, information processing method and information processing apparatus |
CN114765073A (en) * | 2021-01-11 | 2022-07-19 | 佳能医疗系统株式会社 | Case search device, case search method, and storage medium |
CN117382435B (en) * | 2023-10-17 | 2024-05-03 | 浙江加力仓储设备股份有限公司 | Vehicle speed control method and system based on dip angle monitoring |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07234927A (en) * | 1994-02-22 | 1995-09-05 | Toshiba Medical Eng Co Ltd | Three-dimensional image display device |
JP2004248960A (en) * | 2003-02-21 | 2004-09-09 | Hitachi Medical Corp | Medical image display device |
JP2007287018A (en) * | 2006-04-19 | 2007-11-01 | Fujifilm Corp | Diagnosis support system |
JP5677521B2 (en) * | 2013-07-10 | 2015-02-25 | キヤノン株式会社 | Information processing apparatus, information processing method, program, and storage medium |
-
2016
- 2016-03-08 JP JP2016044942A patent/JP6642132B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2017162124A (en) | 2017-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11017210B2 (en) | Image processing apparatus and method | |
JP6635648B2 (en) | Medical image processing apparatus, medical image processing method, and classifier training method | |
JP2018530401A5 (en) | ||
JP5240082B2 (en) | Biometric authentication apparatus, authentication accuracy evaluation apparatus, and biometric authentication method | |
JP6642132B2 (en) | Image processing system, image processing method, and image processing program | |
CN110838104B (en) | Multi-time point region of interest matching method, device and storage medium | |
CN111126339A (en) | Gesture recognition method and device, computer equipment and storage medium | |
KR101977231B1 (en) | Community detection method and community detection framework apparatus | |
US10699156B2 (en) | Method and a device for image matching | |
JP6238755B2 (en) | Information processing apparatus, information processing method, and program | |
JP5866064B2 (en) | Image search device, image search method, and recording medium | |
JP2017189337A (en) | Image positioning apparatus and method, and program | |
JP2015170363A (en) | Method of recognition and positioning (registration) of 3d object | |
US11080173B2 (en) | Boundary search test support device and boundary search test support method | |
CN114372970B (en) | Surgical reference information generation method and device | |
US11127158B2 (en) | Image indexing and retrieval using local image patches for object three-dimensional pose estimation | |
JP7309447B2 (en) | MEDICAL IMAGE DIAGNOSTIC APPARATUS, IMAGE PROCESSING APPARATUS, AND ALIGNMENT METHOD | |
CN110647826B (en) | Method and device for acquiring commodity training picture, computer equipment and storage medium | |
Devi et al. | Similarity measurement in recent biased time series databases using different clustering methods | |
WO2016142990A1 (en) | Search program, search method, and search device | |
JP6242726B2 (en) | Biometric information registration method, biometric authentication method, biometric information registration device, biometric authentication device, and program | |
JP6660741B2 (en) | Image extraction device and image extraction method | |
Chida et al. | Enhanced Encoding with Improved Fuzzy Decision Tree Testing Using CASP Templates | |
Xue et al. | Pathology-based vertebral image retrieval | |
JP7148794B2 (en) | LEARNING DATA GENERATION PROGRAM, LEARNING DATA GENERATION DEVICE, AND LEARNING DATA GENERATION METHOD |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181112 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191025 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191203 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191216 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6642132 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |