JP2017162124A - Image processing system, image processing method and image processing program - Google Patents
Image processing system, image processing method and image processing program Download PDFInfo
- Publication number
- JP2017162124A JP2017162124A JP2016044942A JP2016044942A JP2017162124A JP 2017162124 A JP2017162124 A JP 2017162124A JP 2016044942 A JP2016044942 A JP 2016044942A JP 2016044942 A JP2016044942 A JP 2016044942A JP 2017162124 A JP2017162124 A JP 2017162124A
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature amount
- time
- similar
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 50
- 238000003672 processing method Methods 0.000 title claims description 10
- 239000013598 vector Substances 0.000 claims description 157
- 238000000034 method Methods 0.000 claims description 33
- 238000000513 principal component analysis Methods 0.000 claims description 14
- 238000003384 imaging method Methods 0.000 claims description 11
- 238000010586 diagram Methods 0.000 description 30
- 239000000284 extract Substances 0.000 description 12
- 206010028980 Neoplasm Diseases 0.000 description 8
- 230000003902 lesion Effects 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000000605 extraction Methods 0.000 description 4
- 230000000052 comparative effect Effects 0.000 description 3
- 230000001186 cumulative effect Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 201000011510 cancer Diseases 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Landscapes
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
Description
本発明は、画像処理システム等に関する。 The present invention relates to an image processing system and the like.
現在の医療分野では、同一の患者について異なる時期に撮影された疾病部位に関する画像を比較し、比較した画像の差異から患者の病状を診断することが行われている。患者の疾病部位に関する画像を比較して診断することを、比較読影と呼ぶ。 In the current medical field, images of a diseased part taken at different times for the same patient are compared, and the patient's medical condition is diagnosed from the difference in the compared images. Diagnosis by comparing images related to a diseased part of a patient is called comparative interpretation.
比較読影の業務では、診断中の症例に対し、過去の類似症例を検索し検索結果を参照する類似症例検索が行われている。例えば、過去症例のデータベースから病変の画像特徴が類似した過去症例を検索し、表示する。これらの業務に関する従来技術としては、例えば、従来技術1がある。
In the task of comparative interpretation, a similar case search is performed for a case being diagnosed by searching for a similar case in the past and referring to the search result. For example, past cases with similar image characteristics of lesions are retrieved from the past case database and displayed. As a prior art regarding these operations, there is, for example, the
しかしながら、上述した従来技術では、クエリの症例と他の症例との類似度を精度良く算出することができないという問題がある。 However, the above-described conventional technique has a problem that the similarity between the query case and other cases cannot be calculated with high accuracy.
図14は、問題を説明するための図である。例えば、疾病部位に関する画像である症例画像が、一人の患者の1つの疾病部位について複数のタイミングで撮影されて取得されたとする。例えば、CT画像やMRI画像は1つの疾病部位につき、1回のタイミングで複数枚の画像が採取される場合が多いので、図14においては各画像が複数枚重なった様子をイメージとして表している。その結果、一人の患者について、複数のタイミングでそれぞれ撮影された画像のセットが形成されることになる。図14では、例えば、囲み線21は、5回のタイミングでそれぞれ撮影された症例画像セットを示す。同様に、他の患者もしくは他の疾病部位についても、過去の複数回にわたる撮影結果の時系列画像群である、症例画像セット22,23が蓄積されているとする。各症例画像セット21〜23を称して、症例画像セット群とすると、比較読影を行うためには、今回の診断対象とする患者の疾病部位の変化が、データベース20に格納されている症例画像セット群内のいずれの症例画像セットに類似しているかを特定し、類似している過去事例と比較して、今回の患者の状態がどうであるかを医師が判断することになる。
FIG. 14 is a diagram for explaining the problem. For example, it is assumed that a case image, which is an image related to a diseased part, is acquired by photographing a diseased part of one patient at a plurality of timings. For example, since a plurality of images are often collected at one timing for one diseased part in a CT image or MRI image, FIG. 14 shows a state in which a plurality of images are overlapped as an image. . As a result, a set of images taken for each patient at a plurality of timings is formed. In FIG. 14, for example, a surrounding
ここで、各症例画像セット21〜23と検索対象とする検索対象画像セット25、すなわちクエリの症例に含まれる各画像の撮影間隔が同じであれば、比較は容易であろう。しかし一般的には、どのようなタイミングで疾病部位の撮影を行うかは患者によって異なるし、撮影されるタイミング数も異なる。図14の例では、検索対象画像セット25には3回のタイミングで撮影された画像が存在するイメージを示している。そのため、類似性を判断可能とするためには、患者毎の撮影時期の違いを吸収する仕組みが求められる。 Here, if the imaging intervals of the images included in each case image set 21 to 23 and the search target image set 25 to be searched, that is, each image included in the query case, are the same, the comparison will be easy. However, in general, the timing at which a diseased part is imaged differs depending on the patient, and the number of timings for imaging varies. In the example of FIG. 14, the search target image set 25 shows an image in which images taken at three times are present. Therefore, in order to be able to determine the similarity, a mechanism that absorbs the difference in imaging time for each patient is required.
図15は、病変の進行すなわち病変部分の変化の仕方は、非線形であることを説明する図である。各病変画像を特徴空間内における特徴ベクトルとして表現したとして、その特徴ベクトルの軌跡は一般に非線形となる。そのため、線形空間30内における各特徴ベクトル31の軌跡は非線形である。例えば、がんは大きくなればなるほど成長速度が速くなるように、非線形に増大する傾向がある。
FIG. 15 is a diagram for explaining that the progression of the lesion, that is, the method of changing the lesion portion is non-linear. Assuming that each lesion image is expressed as a feature vector in the feature space, the trajectory of the feature vector is generally nonlinear. Therefore, the trajectory of each
図16は、問題点を説明するための図である。例えば、時刻t0および時刻t4の特徴ベクトルから、時刻t1〜t3の特徴ベクトルを線形補間により求めると、各特徴ベクトルは、線分32に沿って移動する。しかし、実際の特徴ベクトルは、非線形に曲面33にそって移動するため、線形補間による各特徴ベクトルと実際の各特徴ベクトルとの間に乖離が発生する。
FIG. 16 is a diagram for explaining the problem. For example, when the feature vectors at times t1 to t3 are obtained from the feature vectors at time t0 and time t4 by linear interpolation, each feature vector moves along the
なお、腫瘍は多様な形状を取りながら非線形に変化するため、特徴ベクトルが形成する高次元曲面は極めて複雑であり画像の特徴ベクトルに関する軌跡の曲線を学習によって推定することも難しい。 Since the tumor changes nonlinearly while taking various shapes, the high-dimensional curved surface formed by the feature vector is extremely complicated, and it is difficult to estimate the trajectory curve related to the feature vector of the image by learning.
1つの側面では、本発明は、クエリの症例と他の症例との類似度を精度良く算出することができる画像処理システム、画像処理方法および画像処理プログラムを提供することを目的とする。 In one aspect, an object of the present invention is to provide an image processing system, an image processing method, and an image processing program that can accurately calculate the similarity between a query case and another case.
第1の案では、画像処理システムは、特定部と、生成部と、判断部とを有する。特定部は、各患者につき時間をおいて複数回撮影されることで取得された、複数種類の特徴量で表現されうる個々の症例画像セットを含む症例画像セット群の間で、検索対象とする検索対象画像セットと類似する画像セットを検索する際に、検索対象画像セットの中の第1の時刻に撮影された第一画像と、第1の時刻とは異なる第2の時刻に撮影された第二画像との組について、症例画像セット群の中で、第一画像の特徴量と第二画像の特徴量との組にそれぞれ類似する特徴量を持つ画像の組を含むセットを1以上特定する。生成部は、特定した1以上のセットに含まれる、第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、第一画像と第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成する。判断部は、生成した補間画像に対応する特徴量を用いて、検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する。 In the first plan, the image processing system includes a specifying unit, a generation unit, and a determination unit. The specific unit is a search target among case image set groups including individual case image sets that can be expressed by a plurality of types of feature amounts, which are acquired by shooting multiple times for each patient. When searching for an image set similar to the search target image set, the first image shot at the first time in the search target image set and the second image different from the first time For the set with the second image, identify one or more sets in the case image set group that include sets of images each having a feature amount similar to the feature amount of the first image and the feature amount of the second image. To do. The generation unit has a shooting time of a first similar image having a feature amount similar to the feature amount of the first image and a feature amount similar to the feature amount of the second image included in the specified one or more sets. An interpolated image corresponding to an image photographed at a time between the first image and the second image is obtained using a feature amount of one or more images photographed at a time between the photographing times of the second similar images. One or more feature quantities estimated to have are generated. The determination unit determines the degree of similarity between the search target image set and one or more sets in the case image set group using the feature amount corresponding to the generated interpolation image.
クエリの症例と他の症例との類似度を精度良く算出することができる。 The similarity between the query case and other cases can be calculated with high accuracy.
以下に、本願の開示する画像処理システム、画像処理方法および画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。 Embodiments of an image processing system, an image processing method, and an image processing program disclosed in the present application will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.
図1は、本実施例に係る画像処理装置の構成を示す機能ブロック図である。図1に示すように、この画像処理装置100は、通信部110と、入力部120と、表示部130と、記憶部140と、制御部150とを有する。 FIG. 1 is a functional block diagram illustrating the configuration of the image processing apparatus according to the present embodiment. As illustrated in FIG. 1, the image processing apparatus 100 includes a communication unit 110, an input unit 120, a display unit 130, a storage unit 140, and a control unit 150.
通信部110は、ネットワーク等を介して他の装置とデータ通信を実行する処理部である。例えば、通信部110は、通信装置に対応する。 The communication unit 110 is a processing unit that performs data communication with other devices via a network or the like. For example, the communication unit 110 corresponds to a communication device.
入力部120は、各種の情報を画像処理装置100に入力する入力装置である。例えば、入力部120は、キーボードやマウス、タッチパネル等に対応する。利用者は、入力部120を操作して、クエリの症例等を選択する。 The input unit 120 is an input device that inputs various types of information to the image processing apparatus 100. For example, the input unit 120 corresponds to a keyboard, a mouse, a touch panel, or the like. The user operates the input unit 120 to select a query case or the like.
表示部130は、制御部150の処理結果を表示する表示装置である。表示部130は、液晶ディスプレイや、タッチパネル等に対応する。例えば、表示部130は、制御部150によって検索された、クエリの症例に類似する他の症例の画像を表示する。 The display unit 130 is a display device that displays the processing result of the control unit 150. The display unit 130 corresponds to a liquid crystal display, a touch panel, or the like. For example, the display unit 130 displays images of other cases similar to the query case searched for by the control unit 150.
記憶部140は、画像テーブル141を有する。記憶部140は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。 The storage unit 140 has an image table 141. The storage unit 140 corresponds to a semiconductor memory element such as a random access memory (RAM), a read only memory (ROM), and a flash memory, and a storage device such as a hard disk drive (HDD).
画像テーブル141は、各種の症例に関する時系列画像の情報を格納するテーブルである。図2は、画像テーブルのデータ構造の一例を示す図である。図2に示すように画像テーブル141は、症例数が記録されており、症例数の分だけ、患者ID(Identification)と、撮影時刻数と、データポインタとがセットになった情報が順番に記録されている。データポインタの先には、撮影時刻数の分だけ、撮影時刻、画像データ、腫瘍位置情報、特徴ベクトルがセットになった情報が順番に記録される。 The image table 141 is a table that stores information on time-series images regarding various cases. FIG. 2 is a diagram illustrating an example of the data structure of the image table. As shown in FIG. 2, the number of cases is recorded in the image table 141, and information in which a patient ID (Identification), the number of imaging times, and a data pointer are set is recorded in order for the number of cases. Has been. At the tip of the data pointer, the set time of the imaging time, image data, tumor position information, and feature vector is recorded in order for the number of imaging times.
例えば、同一の患者IDに対応づけられた各画像データが、図14で説明した症例画像セット21〜23に対応するものとなる。各患者IDの症例画像セットをまとめたものが、症例画像セット群に対応する。また、後述するように、各症例画像セットの中から、検索対象となる検索対象画像セットが選択される。 For example, each piece of image data associated with the same patient ID corresponds to the case image sets 21 to 23 described with reference to FIG. A group of case image sets for each patient ID corresponds to a group of case image sets. Further, as will be described later, a search target image set to be searched is selected from each case image set.
特徴ベクトルは、画像データに含まれる病変部位として、例えば腫瘍の特徴を表すベクトルである。例えば、特徴ベクトルは、腫瘍を囲む矩形の大きさ、矩形の座標、腫瘍の濃度、色等を数値化した情報である。 The feature vector is a vector that represents, for example, a feature of a tumor as a lesion site included in the image data. For example, the feature vector is information obtained by digitizing the size of a rectangle surrounding the tumor, the coordinates of the rectangle, the concentration of the tumor, the color, and the like.
制御部150は、特定部151、生成部152、判断部153を有する。制御部150は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、制御部150は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路に対応する。
The control unit 150 includes a specifying unit 151, a generation unit 152, and a
図3は、制御部の処理を説明するための図である。図3に示すように、制御部150は、クエリの症状に対応する時系列画像の特徴ベクトル40,50を受け付ける(ステップS10)。例えば、特徴ベクトル40,50は、特徴空間30a上に存在する。
FIG. 3 is a diagram for explaining the processing of the control unit. As illustrated in FIG. 3, the control unit 150 receives time-series
制御部150は、特徴ベクトル40,50と、画像テーブル141の各特徴ベクトルとを比較して、類似する特徴ベクトルを求める(ステップS11)。例えば、特徴ベクトル40に類似する特徴ベクトルを、特徴ベクトル41、42,43,44とする。特徴ベクトル50に類似する特徴ベクトルを、特徴ベクトル51,52,53,54とする。
The control unit 150 compares the
制御部150は、類似する各特徴ベクトルが属する時系列画像群の時系列特徴ベクトルを抽出する(ステップS12)。例えば、制御部150は、類似する特徴ベクトルが属する患者IDを、画像テーブル141を基にして特定し、特定した患者IDに属する全ての特徴ベクトルを時系列ベクトル群として抽出する。図3のステップS12に示す例では、制御部150は、特徴ベクトル41〜44、51〜54が属する患者IDをキーにして、特徴ベクトル群61a,62a,63a,64aを抽出する。この例では、4人の患者IDが特定された例を示している。ステップS12によって、特徴ベクトルが形成する高次元曲面31において、クエリの軌跡曲線に関する近傍部分32を得ることができる。
The control unit 150 extracts a time-series feature vector of a time-series image group to which each similar feature vector belongs (step S12). For example, the control unit 150 identifies patient IDs to which similar feature vectors belong based on the image table 141, and extracts all feature vectors belonging to the identified patient IDs as a time-series vector group. In the example shown in step S12 of FIG. 3, the control unit 150 extracts the
制御部150は、クエリの軌跡曲線に関する近傍部分32が有する非線形構造を、カーネル主成分分析によって線形空間30bとして捉える。実際、カーネル主成分分析によって、時系列特徴ベクトル群61a〜64aは、高次元空間を介して、線形空間30bのベクトル群61b〜64bとして捉えられる。
The control unit 150 captures the nonlinear structure of the neighboring
制御部150は、時系列特徴ベクトル群61b〜64bに基づいて、クエリの症例に対する近似直線65bを推定することができる(ステップS13)。この近似直線65bは、特徴空間30a上では、近似曲線65aとなる。この近似曲線65aと、他の時系列特徴ベクトル群61a〜64aとの類似度を、線形空間30b上の近似直線65bと、時系列特徴ベクトル群61b〜64bとの距離の計算に基づいて算出することが可能となる。なお、図3の例においては、説明の簡単化のため、1人の患者についての複数枚の時系列画像のうち、2つの画像それぞれの特徴ベクトル40,50を受け付ける例を示したが、受け付ける数は2以上であればいくつであってもよい。
The control unit 150 can estimate the approximate
続いて、制御部150に含まれる特定部151、生成部152、判断部153の各処理について順に説明する。
Next, each process of the specifying unit 151, the generating unit 152, and the determining
特定部151は、クエリの症例として、患者IDを受け付けた場合に、受け付けた患者IDと、画像テーブル141とを比較して、患者IDのポインタで示される各時系列画像の特徴ベクトルを2つ以上抽出する。特定部151が抽出する特徴ベクトルは2つに限る必要はなく、2つ以上であればいくつであってもよい。例えば、特定部151が抽出する特徴ベクトルは、各時系列画像のうち、最先の時刻に撮影された画像の特徴ベクトルと、最後の時刻に撮影された画像の特徴ベクトルとを含む。 When receiving a patient ID as a query case, the specifying unit 151 compares the received patient ID with the image table 141, and calculates two feature vectors of each time-series image indicated by the patient ID pointer. Extract above. The number of feature vectors extracted by the specifying unit 151 is not limited to two, and may be any number as long as it is two or more. For example, the feature vector extracted by the specifying unit 151 includes a feature vector of an image taken at the earliest time and a feature vector of an image taken at the last time among the time series images.
図4は、クエリの症例に対する特徴ベクトルの抽出を説明するための図である。クエリの症例は、n個の時系列画像を持つとする。上記のように、特定部151は、患者IDを受け付けると、画像テーブル141からn個の時系列画像の特徴ベクトルを抽出する。この結果、得られた特徴ベクトルの列を「yτ1,・・・,yτn」とする。ここで、特徴ベクトルの添え字τiは、観測された時刻を示すものである。図4に示すように、n=2である場合には、クエリの症例に対する時系列画像は、τ1の時系列画像と、τ2の時系列画像となり、特徴ベクトルは、yτ1,yτ2となる。なお、上述のとおり、nは2以上であればよい。 FIG. 4 is a diagram for explaining feature vector extraction for a query case. Assume that the query case has n time-series images. As described above, when receiving the patient ID, the specifying unit 151 extracts feature vectors of n time-series images from the image table 141. As a result, the obtained sequence of feature vectors is defined as “y τ1 ,..., Y τn ”. Here, the suffix τ i of the feature vector indicates the observed time. As shown in FIG. 4, when n = 2, the time series image for the query case is a time series image of τ 1 and a time series image of τ 2 , and the feature vectors are y τ1 and y τ2. It becomes. As described above, n may be 2 or more.
特定部151は、クエリの症例に関する特徴ベクトルと、画像テーブル141上の全特徴ベクトルとの距離計算を行うことにより、クエリの症例の時系列画像に類似する時系列画像群を抽出する。 The specifying unit 151 extracts a time series image group similar to the time series image of the query case by calculating the distance between the feature vector related to the case of the query and all the feature vectors on the image table 141.
図5は、時系列画像群の抽出を説明するための図である。特定部151は、クエリの症例のn個の特徴ベクトルyτ1,・・・,yτnそれぞれについて、画像テーブル141に含まれる症例の個々の画像に関する特徴ベクトルのうち、最も距離が近い上位N個までの特徴ベクトルを算出する。図5に示す例では、特定部151は、特徴ベクトルyτ1に最も近い上位N位の特徴ベクトルxτ1,1・・・τ1,Nを抽出する。特定部151は、特徴ベクトルyτ2に最も近い上位N位の特徴ベクトルxτ2,1・・・τ2,Nを抽出する。 FIG. 5 is a diagram for explaining extraction of a time-series image group. For each of the n feature vectors y τ1 ,..., Y τn of the query case, the specifying unit 151 includes the top N closest feature vectors among the feature vectors related to the individual images of the cases included in the image table 141. The feature vectors up to are calculated. In the example illustrated in FIG. 5, the specifying unit 151 extracts the top N-rank feature vectors x τ1,1... Τ1, N that are closest to the feature vector y τ1 . The identifying unit 151 extracts the top N-th feature vector x τ2,1... Τ2, N that is closest to the feature vector y τ2 .
クエリの症例に関するベクトルに対して、最も近い上位N個の特徴ベクトルを式(1)のように定義する。 The closest top N feature vectors are defined as in Expression (1) with respect to the vector related to the query case.
特定部151は、式(1)の各特徴ベクトルが属する症例の時系列画像の特徴ベクトル群を全て抽出する。抽出した時系列画像の特徴ベクトル群を式(2)のように定義する。式(2)では、xτi,jが属する症例の時系列画像がpk i,j個からなる時系列画像であるとする。 The specifying unit 151 extracts all feature vector groups of time-series images of cases to which each feature vector of Expression (1) belongs. A feature vector group of the extracted time-series images is defined as in Expression (2). In Expression (2), it is assumed that the time series image of the case to which x τi, j belongs is a time series image composed of p k i, j .
特定部151は、式(2)で定義した特徴ベクトル群から、クエリの症例の特徴ベクトルに類似する時系列画像の特徴ベクトルを選択する。例えば、特定部151は、式(3)で定義されるベクトルxk τi,Jのうち、少なくとも2個はクエリの症例の時系列の特徴ベクトルと類似しているものを選択する。 The specifying unit 151 selects a feature vector of a time-series image similar to the feature vector of the query case from the feature vector group defined by Expression (2). For example, the identifying unit 151 selects at least two vectors x k τi, J defined by Expression (3) that are similar to the time series feature vector of the query case.
図6は、クエリの症例に類似する時系列の特徴ベクトル群の一例を示す図である。図6に示す例では、クエリの症例に類似する特徴ベクトル群61a〜64aが抽出される。例えば、特徴ベクトル群61aのうち、少なくとも2個の特徴ベクトルが、クエリの症例のいずれかの特徴ベクトルに類似している。特徴ベクトル群62a〜64aも、特徴ベクトル群61aと同様にして、少なくとも2個の特徴ベクトルが、クエリの症例のいずれかの特徴ベクトルに類似している。
FIG. 6 is a diagram illustrating an example of a time-series feature vector group similar to a query case. In the example illustrated in FIG. 6,
以下の説明では、一例として、特定部151が、m個の時系列の特徴ベクトル群を抽出したものとし、各特徴ベクトル群を、式(4)のように定義する。 In the following description, as an example, it is assumed that the specifying unit 151 has extracted m time-series feature vector groups, and each feature vector group is defined as in Expression (4).
続いて、生成部152の説明に移行する。生成部152は、クエリの症例に類似する時系列の特徴ベクトル群がなす非線形構造を、カーネル主成分分析によって高次元空間を介して、線形空間として捉える。その結果、時系列特徴ベクトル群は、線形空間上のベクトル群として捉えられることになる。そして、これらの線形空間上のベクトル群を基にして、クエリの症例に対する近似曲線と時系列特徴ベクトル群との距離を推定することが可能になる。 Subsequently, the description proceeds to the generation unit 152. The generation unit 152 captures a nonlinear structure formed by a time-series feature vector group similar to a query case as a linear space through a high-dimensional space by kernel principal component analysis. As a result, the time series feature vector group is regarded as a vector group in a linear space. The distance between the approximate curve for the query case and the time-series feature vector group can be estimated based on the vector group in the linear space.
生成部152は、カーネル関数kを用いて、カーネル行列Kを算出する。ここでは説明の便宜上、クエリの症例に類似する時系列の特徴ベクトル群をx1,・・・xqと表すことにする。ここで、qは、クエリに類似する時系列特徴ベクトル群の個数とする。また、カーネル関数としては、例えば、式(5)によって表されるガウシアンカーネルを用いる。式(5)に含まれるTは、ある定数とする。 The generation unit 152 calculates a kernel matrix K using the kernel function k. Here, for convenience of explanation, a time-series feature vector group similar to a query case is represented as x 1 ,..., X q . Here, q is the number of time-series feature vector groups similar to the query. Further, as the kernel function, for example, a Gaussian kernel represented by Expression (5) is used. T included in Equation (5) is a certain constant.
生成部152が、式(5)によって算出するカーネル行列Kは、式(6)に示すようなq×qの正方行列Kとして計算される。 The kernel matrix K calculated by Expression (5) by the generation unit 152 is calculated as a q × q square matrix K as shown in Expression (6).
生成部152は、カーネル行列Kに対して、r個の値の大きい上位固有値と、上位固有値に対応する固有ベクトルを算出する。例えば、生成部152は、カーネル行列Kの固有方程式(7)を未知数λの方程式として解いて固有値λを求める。また、各々の固有値λを連立方程式(8)に代入して、固有値λに対応する固有ベクトルvを求める。例えば、上位の固有値をλ1,・・・,λrとし、対応する固有ベクトルをv1,・・・,vrとする。
The generation unit 152 calculates, for the kernel matrix K, an upper eigenvalue having a large r value and an eigenvector corresponding to the upper eigenvalue. For example, the generation unit 152 obtains the eigenvalue λ by solving the eigen equation (7) of the kernel matrix K as an equation of the unknown λ. Further, each eigenvalue λ is substituted into the simultaneous equations (8) to obtain an eigenvector v corresponding to the eigenvalue λ. For example, the eigenvalues of the upper λ 1, ···, and λ r, the
図7は、カーネル主成分分析による写像を説明するための図である。生成部152が、特徴ベクトル群61a〜64aのカーネル行列Kを求め、カーネル行列Kに基づいて、固有値λ、固有ベクトルvを算出することで、特徴ベクトル群61a〜64aは、線形空間30b上のベクトル群61b〜64bとして捉えることができる。
FIG. 7 is a diagram for explaining mapping by kernel principal component analysis. The generation unit 152 obtains the kernel matrix K of the
続いて、判断部153の説明に移行する。判断部153は、クエリの症例の時系列ベクトル群について、特徴ベクトルを補間した近似曲線を推定し、近似曲線と、他の症例との類似度を、線形区間30b上での距離計算に基づいて算出する処理部である。
Subsequently, the description proceeds to the description of the
図8は、判断部の処理を説明するための図である。判断部153は、特徴ベクトル群61b〜64bに基づいて、クエリの症例と他の時系列特徴ベクトル群との距離を推定する。具体的には、判断部153は、近似曲線65aと、他の時系列特徴ベクトル群61a〜64aとの類似度を、線形空間30b上の近似直線65bと、特徴ベクトル群61b〜64bとの距離の計算に基づいて算出する。
FIG. 8 is a diagram for explaining the processing of the determination unit. The
以下において、判断部153の処理を順に説明する。判断部153は、クエリの症例に対して、特徴ベクトルを補間する時刻を決定する。特徴ベクトルに対応する各時刻について、時刻間の長さが一定の値σ以下になるようにする。判断部153は、隣り合う時刻間の長さがσよりも大きい場合に、σよりも小さくなるように、時刻間をs等分する。
Hereinafter, the process of the
図9は、補間する時刻を決定する処理を説明するための図である。例えば、クエリの症例の撮影時刻τ1,τ2,τ3,τ4,τ5,τ6と、所定の時間幅σとが、図9のように与えられたものとする。判断部153は、τ1,τ2間と、τ4,τ5間とが、σよりも大きいと判定する。判断部153は、τ1,τ2間をs等分していき、初めてσ以下となった時のs等分の長さにより、補間する時刻を決定する。図9に示す例では、τ1,τ2間に、補間する時刻τ11,τ12を決定する。判断部153は、τ1,τ2間に、時刻τ11,τ12を追加する。
FIG. 9 is a diagram for explaining processing for determining a time for interpolation. For example, it is assumed that imaging times τ 1 , τ 2 , τ 3 , τ 4 , τ 5 , τ 6 and a predetermined time width σ of the query case are given as shown in FIG. The
同様に、判断部153は、τ4,τ5間をs等分していき、初めてσ以下となった時のs等分の長さにより、補間する時刻を決定する。図9に示す例では、τ4,τ5間に、補間する時刻τ41を決定する。判断部153は、τ4,τ5間に、時刻τ41を追加する。
Similarly, the
判断部153は、画像テーブル141の症例の時系列画像に関する特徴ベクトルと、クエリの症例の特徴ベクトルとの距離をDP(Dynamic Programming)によって算出する。画像テーブル141の症例の時系列画像に関する特徴ベクトルをxt1,・・・,xt1であるとする。判断部153は、時刻間の対応表を生成し、各格子点(τi,tj)あるいは(τik,tj)において、yτiとxtjまたはyτikとxtjの距離を以下の式によって計算する。なお、クエリの症例の時刻τiの特徴ベクトルをyτiとする。
The
判断部153は、τiが補間時刻ではない場合に、式(9)に基づいて、特徴ベクトルyτiと、時刻tjの特徴ベクトルとの距離D(yτi,xtj)を算出する。
When τ i is not the interpolation time, the
判断部153は、τikが補間時刻である場合に、式(10)に基づいて、特徴ベクトルyτikと、時刻tjの特徴ベクトルとの距離D(yτik,xtj)を算出する。ここで、τikは、τiとτi+1をm:nに内分する点であるものとする。
When τ ik is an interpolation time, the
上記の式(9)および式(10)について、判断部153は、v(z)の値を、式(11)によって計算する。zは、yτi、yτikまたはxtjに対応する。式(11)に含まれるv1,・・・vrは、上記のカーネル行列Kの固有ベクトルに対応する。
With respect to the above formulas (9) and (10), the
図10は、時刻間の対応表の一例を示す図である。対応表60の縦軸は、クエリの症例の撮影時刻と、補間した時刻を示す。対応表60の横軸は、画像テーブル141の症例の撮影時刻を示す。判断部153は、上述した式(9)、式(10)に基づいて、距離D(yτi,xtj)または距離D(yτi,xtj)を算出する。例えば、判断部153は、τiとtjとの組またはτikとtjとの組を作り、各組の距離Dの累積値を算出する。判断部153は、τiとtjとの組またはτikとtjとの組を網羅的に変えながら、累積値が最小となる、τiとtjとの組またはτikとtjとの組をDPに基づき探索する。
FIG. 10 is a diagram illustrating an example of a correspondence table between times. The vertical axis of the correspondence table 60 indicates the imaging time of the query case and the interpolated time. The horizontal axis of the correspondence table 60 indicates the imaging time of the case in the image table 141. The
DPの具体的な計算方法は文献(吉村他,”DPマッチング法の逐次適用による日本語署名のオフライン照合法,”信学論(D-II),Vol. J81-D-II No.10, pp.2259-2266, 1998年10月の「2.2.2 DPマッチング処理」)などに記載されている。判断部153は、上記計算方法に基づき、DPを計算する。
The concrete calculation method of DP is described in the literature (Yoshimura et al., “Offline verification method of Japanese signature by sequential application of DP matching method,” IEICE theory (D-II), Vol. J81-D-II No. 10, pp.2259-2266, “2.2.2 DP matching process” in October 1998). The
図11は、DPによる時刻間の対応結果例を示す図である。図11は、クエリの症例の特徴ベクトルと、画像テーブル141のある患者IDに紐付く時系列画像の特徴ベクトルとのDPの計算結果を示す。図11に示す例では、DPにより、クエリの症例が撮影された時刻τ1の特徴ベクトルyτ1と、画像テーブル141の症例の時系列画像が撮影された時刻t3の特徴ベクトルxt3とが対応付けられる。クエリの症例が撮影された時刻τ2の特徴ベクトルyτ2と、画像テーブル141の症例の時系列画像が撮影された時刻t6の特徴ベクトルxt6とが対応付けられる。クエリの症例が撮影された時刻τ3の特徴ベクトルyτ3と、画像テーブル141の症例の時系列画像が撮影された時刻t6の特徴ベクトルxt6とが対応付けられる。クエリの症例が撮影された時刻τ4の特徴ベクトルyτ4と、画像テーブル141の症例の時系列画像が撮影された時刻t7の特徴ベクトルxt7とが対応付けられる。クエリの症例が撮影された時刻τ5の特徴ベクトルyτ5と、画像テーブル141の症例の時系列画像が撮影された時刻t9の特徴ベクトルxt9とが対応付けられる。クエリの症例が撮影された時刻τ6の特徴ベクトルyτ6と、画像テーブル141の症例の時系列画像が撮影された時刻t9の特徴ベクトルxt9とが対応付けられる。 FIG. 11 is a diagram illustrating an example of a correspondence result between times by DP. FIG. 11 shows a DP calculation result of a feature vector of a query case and a feature vector of a time-series image associated with a patient ID in the image table 141. In the example shown in FIG. 11, the DP, the feature vector y .tau.1 time tau 1 which case the query is captured, the time-series images of cases of image table 141 and a feature vector x t3 of time t 3 when taken It is associated. The feature vector y τ2 at the time τ 2 when the query case is photographed is associated with the feature vector x t6 at the time t 6 when the time series image of the case in the image table 141 is photographed. The feature vector y τ3 at the time τ 3 when the query case is photographed is associated with the feature vector x t6 at the time t 6 when the time series image of the case in the image table 141 is photographed. The feature vector y τ4 at the time τ 4 when the query case is photographed is associated with the feature vector x t7 at the time t 7 when the time series image of the case in the image table 141 is photographed. The feature vector y τ5 at the time τ 5 when the query case is photographed is associated with the feature vector x t9 at the time t 9 when the time series image of the case in the image table 141 is photographed. The feature vector y τ6 at the time τ 6 when the query case is photographed is associated with the feature vector x t9 at the time t 9 when the time series image of the case in the image table 141 is photographed.
また、補間した時刻τ11の特徴ベクトルyτ11と、画像テーブル141の症例の時系列画像が撮影された時刻t4の特徴ベクトルxt4とが対応付けられる。補間した時刻τ12の特徴ベクトルyτ12と、画像テーブル141の症例の時系列画像が撮影された時刻t5の特徴ベクトルxt5とが対応付けられる。補間した時刻τ41の特徴ベクトルyτ41と、画像テーブル141の症例の時系列画像が撮影された時刻t8の特徴ベクトルxt8とが対応付けられる。 Further, the feature vector y Tau11 time tau 11 interpolated, the image sequence of the case of the image table 141 are associated with the feature vector x t4 of time t 4 when being photographed. The interpolated feature vector y τ12 at the time τ 12 is associated with the feature vector x t5 at the time t 5 when the time series image of the case in the image table 141 is captured. A feature vector y Tau41 of interpolated time tau 41, time-series images of cases of image table 141 are associated with the feature vector x t8 of the captured time t 8 is.
判断部153は、他の患者IDに紐付く時系列画像の特徴ベクトルについても、同様に上記処理を繰り返し実行する。判断部153は、患者ID毎の特徴ベクトルに関する距離Dの累積値を基にして、類似度を判断する。例えば、判断部153は、累積値が小さいほど、類似度が高いと判断する。
Similarly, the
例えば、判断部153は、クエリの症例の特徴ベクトルと、画像テーブル141のある患者IDに紐付く時系列画像の特徴ベクトルとの類似度とを基にして、類似度が大きい上位N個の時系列画像を、表示部130に表示させる。
For example, the
次に、本実施例に係る画像処理装置100の処理手順について説明する。図12は、本実施例に係る画像処理装置の処理手順を示すフローチャートである。図12に示すように、画像処理装置100の特定部151は、クエリの症例に対応する患者IDを受け付ける(ステップS101)。特定部151は、クエリの症例に対する特徴ベクトルを抽出する(ステップS102)。特定部151は、クエリの症例に類似する時系列画像群の特徴ベクトルを抽出する(ステップS103)。 Next, a processing procedure of the image processing apparatus 100 according to the present embodiment will be described. FIG. 12 is a flowchart illustrating the processing procedure of the image processing apparatus according to the present embodiment. As illustrated in FIG. 12, the specifying unit 151 of the image processing apparatus 100 receives a patient ID corresponding to a query case (step S101). The identifying unit 151 extracts a feature vector for the query case (step S102). The identifying unit 151 extracts a feature vector of a time-series image group similar to the query case (step S103).
画像処理装置100の生成部152は、クエリの症例に類似する時系列の特徴ベクトル群に対し、カーネル主成分分析を実行することで、固有ベクトルを算出する(ステップS104)。画像処理装置100の判断部153は、クエリの症例と、画像テーブル141の症例との類似度を計算する(ステップS105)。判断部153は、類似する症例を出力する(ステップS106)。
The generation unit 152 of the image processing apparatus 100 calculates an eigenvector by performing kernel principal component analysis on a time-series feature vector group similar to a query case (step S104). The
次に、本実施例に係る画像処理装置100の効果について説明する。画像処理装置100は、クエリの症例の時系列画像と類似する時系列画像群を抽出し、抽出した時系列画像群の特徴ベクトルに対してカーネル主成分分析を行い、その結果得られる固有ベクトルによって張られる線形空間上において、クエリの症例の画像を補間し、クエリの症例の時系列画像と、他の時系列画像との類似度を求める。このため、クエリの症例の時系列画像の撮影時刻と、他の時系列画像の撮影時刻との違いを吸収して、クエリの症例の時系列画像に類似する時系列画像を精度良く特定することができる。 Next, effects of the image processing apparatus 100 according to the present embodiment will be described. The image processing apparatus 100 extracts a time-series image group similar to the time-series image of the query case, performs a kernel principal component analysis on the feature vector of the extracted time-series image group, and performs a stretch using the resulting eigenvector. The query case image is interpolated on the obtained linear space, and the similarity between the time series image of the query case and another time series image is obtained. Therefore, it is possible to accurately identify a time series image similar to the time series image of the query case by absorbing the difference between the shooting time of the time series image of the query case and the shooting time of other time series images. Can do.
患者によって、病変部分を撮影する時刻の間隔はまちまちであるため、1症例についての時系列画像は、各画像間の撮影時刻の間隔が異なり、病変の変化の類似性を判断することが難しい。しかしながら、上記のように、類似した時系列画像群を利用して、撮影時刻の間隔の違いを補間するため、クエリの症例と他の症例との類似度合いを判断できる。 Depending on the patient, the time interval at which the lesion portion is imaged varies, and the time-series images for one case differ in the time interval between image captures, making it difficult to determine the similarity of lesion changes. However, as described above, the difference between the photographing time intervals is interpolated using similar time-series image groups, so that the degree of similarity between the query case and other cases can be determined.
例えば、患者の腫瘍部分に関する時系列画像の集合が画像テーブル141として与えられたもとで、クエリの症例の時系列画像が与えられたとき、その撮影時期によらず画像テーブル141に蓄積されている時系列画像との類似度を精度よく算出することができる。特に、病変部分の進行が非線形に推移している場合であっても、その非線形構造を推定して照合するため、高精度に照合できる。 For example, when a time-series image of a query case is given with a set of time-series images relating to a tumor part of a patient being given as the image table 141, the time-series images are stored in the image table 141 regardless of the photographing time. The degree of similarity with the series image can be calculated with high accuracy. In particular, even when the progression of the lesion part is nonlinear, since the nonlinear structure is estimated and collated, the collation can be performed with high accuracy.
画像処理装置100は、クエリの症例に類似する時系列の特徴ベクトル群をカーネル主成分分析に基づいて線形空間上に写像することで、時系列特徴ベクトル群のなす非線形構造を線形空間として捉える。これにより、カーネル主成分分析に基づく線形空間を基にして、クエリの症例に対する近似曲線を推定することが可能になるため、実際の特徴ベクトルとの乖離の発生を抑止することができる。 The image processing apparatus 100 captures a nonlinear structure formed by the time-series feature vector group as a linear space by mapping a time-series feature vector group similar to the query case on the linear space based on the kernel principal component analysis. As a result, it is possible to estimate an approximate curve for a query case based on a linear space based on kernel principal component analysis, and thus it is possible to suppress the occurrence of deviation from an actual feature vector.
画像処理装置100は、線形空間上に写像した、画像テーブル141の症例の時系列画像に関する特徴ベクトルと、クエリの症例の特徴ベクトルとの距離を基にして、類似度を特定する。このため、クエリの症例と他の症例との類似度を精度良く算出することができる。 The image processing apparatus 100 specifies the similarity based on the distance between the feature vector related to the time series image of the case in the image table 141 and the feature vector of the query case mapped in the linear space. For this reason, the similarity between the query case and other cases can be calculated with high accuracy.
ところで、上述した実施例では、画像処理装置100に、記憶部140、特定部151、生成部152、判断部153が含まれる例について説明したが、これに限定されるものではない。例えば、記憶部140を有する第1サーバ、特定部151を有する第2サーバ、生成部152を有する第3サーバ、判断部153を有する第4サーバをネットワーク上に配置して画像処理システムとしてもよい。画像処理システムに含まれる各第1〜第4サーバは、相互にデータ通信を実行して、画像処理装置100と同様の処理を実行する。
In the above-described embodiment, an example in which the storage unit 140, the specifying unit 151, the generating unit 152, and the determining
次に、上記実施例に示した画像処理装置100と同様の機能を実現する画像処理プログラムを実行するコンピュータの一例について説明する。図13は、画像処理プログラムを実行するコンピュータの一例を示す図である。 Next, an example of a computer that executes an image processing program that realizes the same function as the image processing apparatus 100 described in the above embodiment will be described. FIG. 13 is a diagram illustrating an example of a computer that executes an image processing program.
図13に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、ディスプレイ203とを有する。また、コンピュータ200は、記憶媒体からプログラム等を読み取る読み取り装置204と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインターフェース装置205とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM206と、ハードディスク装置207とを有する。そして、各装置201〜207は、バス208に接続される。
As illustrated in FIG. 13, the
ハードディスク装置207は、特定プログラム207a、生成プログラム207b、判断プログラム207cを有する。CPU201は、特定プログラム207a、生成プログラム207b、判断プログラム207cを読み出してRAM206に展開する。
The
特定プログラム207aは、特定プロセス206aとして機能する。生成プログラム207bは、生成プロセス206bとして機能する。判断プログラム207cは、判断プロセス206cとして機能する。
The
特定プロセス206aの処理は、特定部151の処理に対応する。生成プロセス206bの処理は生成部152の処理に対応する。判断プロセス206cの処理は、判断部153の処理に対応する。
The process of the identification process 206a corresponds to the process of the identification unit 151. The process of the generation process 206 b corresponds to the process of the generation unit 152. The process of the determination process 206c corresponds to the process of the
なお、特定プログラム207a、生成プログラム207b、判断プログラム207cについては、必ずしも最初からハードディスク装置207に記憶させておかなくても良い。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ200が各プログラム207a〜207cを読み出して実行するようにしてもよい。
The
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。 The following supplementary notes are further disclosed with respect to the embodiments including the above examples.
(付記1)各患者につき時間をおいて複数回撮影されることで取得された、複数種類の特徴量で表現されうる個々の症例画像セットを含む症例画像セット群の間で、検索対象とする検索対象画像セットと類似する画像セットを検索する際に、検索対象画像セットの中の第1の時刻に撮影された第一画像と、前記第1の時刻とは異なる第2の時刻に撮影された第二画像との組について、前記症例画像セット群の中で、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量を持つ画像の組を含むセットを1以上特定する特定部と、
特定した1以上のセットに含まれる、前記第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、前記第一画像と前記第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成する生成部と、
生成した補間画像に対応する特徴量を用いて、前記検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する判断部と
を有することを特徴とする画像処理システム。
(Additional remark 1) It is set as a search object among the case image set groups including individual case image sets that can be expressed by a plurality of types of feature values acquired by taking a plurality of times for each patient. When searching for an image set similar to the search target image set, the first image captured at the first time in the search target image set and the second image different from the first time are captured. A set including a set of images each having a feature amount similar to the set of the feature amount of the first image and the feature amount of the second image in the case image set group. A specific part that specifies one or more of
The shooting time of the first similar image having a feature amount similar to the feature amount of the first image and the second similarity having a feature amount similar to the feature amount of the second image included in the specified one or more sets An interpolation image corresponding to an image photographed at a time between the first image and the second image using a feature amount of one or more images photographed at a time between the image photographing times A generating unit that generates one or more feature quantities that are estimated;
An image processing system comprising: a determination unit that determines a degree of similarity between the search target image set and one or more sets in the case image set group using a feature amount corresponding to the generated interpolation image.
(付記2)前記生成部は、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量に対して、カーネル主成分分析を実行することで、前記類似する特徴量を線形空間に写像し、前記線形空間上の前記類似する特徴量を基にして、前記補間画像が有することが推定される特徴量を1以上生成することを特徴とする付記1に記載の画像処理システム。 (Additional remark 2) The said production | generation part performs the said kernel resemblance | analogue by performing a kernel principal component analysis with respect to the feature-value respectively similar to the combination of the feature-value of said 1st image, and the feature-value of said 2nd image The feature amount is mapped to a linear space, and one or more feature amounts estimated to be included in the interpolated image are generated based on the similar feature amount on the linear space. Image processing system.
(付記3)前記判断部は、前記線形空間上の前記類似する特徴量と前記線形空間上の第一画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記第二画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離に基づいて、前記類似度合を判断することを特徴とする付記2に記載の画像処理システム。
(Additional remark 3) The said determination part is the distance of the said similar feature-value on the said linear space and the feature-value of the 1st image on the said linear space, the said similar feature-value on the said linear space, and the said 2nd image The image processing system according to
(付記4)前記検索対象画像セットについて、前記補間画像に対応する時刻の前後に撮影された第三画像と第四画像とが存在し、前記補間画像に対応する時刻が、前記第三画像の撮影時刻と、前記第四画像の撮影時刻とをm対nに内分する点に位置する時刻である場合に、前記判断部は、前記第三画像の特徴量のベクトルにnを乗算した値と、前記第四画像の特徴量のベクトルにmを乗算した値とを加算したベクトルから、前記類似する特徴量のベクトルを減算することで、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離を算出することを特徴とする付記2または3に記載の画像処理システム。
(Additional remark 4) About the said search object image set, the 3rd image and 4th image which were image | photographed before and after the time corresponding to the said interpolation image exist, and the time corresponding to the said interpolation image is the said 3rd image. A value obtained by multiplying the feature vector of the third image by n when the time is located at a point dividing the shooting time and the shooting time of the fourth image into m to n And subtracting the similar feature amount vector from a vector obtained by adding a feature value vector of the fourth image multiplied by m to the similar feature amount in the linear space and the
(付記5)コンピュータが実行する画像処理方法であって、
各患者につき時間をおいて複数回撮影されることで取得された、複数種類の特徴量で表現されうる個々の症例画像セットを含む症例画像セット群の間で、検索対象とする検索対象画像セットと類似する画像セットを検索する際に、検索対象画像セットの中の第1の時刻に撮影された第一画像と、前記第1の時刻とは異なる第2の時刻に撮影された第二画像との組について、前記症例画像セット群の中で、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量を持つ画像の組を含むセットを1以上特定し、
特定した1以上のセットに含まれる、前記第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、前記第一画像と前記第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成し、
生成した補間画像に対応する特徴量を用いて、前記検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する
処理を実行することを特徴とする画像処理方法。
(Supplementary Note 5) An image processing method executed by a computer,
A search target image set to be searched between case image set groups including individual case image sets that can be expressed by a plurality of types of feature values, acquired by shooting multiple times for each patient. When searching for an image set similar to, the first image taken at the first time in the search target image set and the second image taken at a second time different from the first time Identify one or more sets in the case image set group that include sets of images each having a feature amount similar to the feature amount of the first image and the feature amount of the second image. And
The shooting time of the first similar image having a feature amount similar to the feature amount of the first image and the second similarity having a feature amount similar to the feature amount of the second image included in the specified one or more sets An interpolation image corresponding to an image photographed at a time between the first image and the second image using a feature amount of one or more images photographed at a time between the image photographing times Generate one or more features that are estimated to be
An image processing method comprising: executing a process of determining a degree of similarity between the search target image set and one or more sets in the case image set group using a feature amount corresponding to the generated interpolation image.
(付記6)前記生成する処理は、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量に対して、カーネル主成分分析を実行することで、前記類似する特徴量を線形空間に写像し、前記線形空間上の前記類似する特徴量を基にして、前記補間画像が有することが推定される特徴量を1以上生成することを特徴とする付記5に記載の画像処理方法。
(Additional remark 6) The said process to generate | occur | produce performs said principal component analysis by performing a kernel principal component analysis with respect to the feature amount respectively similar to the feature amount of said 1st image, and the feature amount of said
(付記7)前記類似度合いを判断する処理は、前記線形空間上の前記類似する特徴量と前記線形空間上の第一画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記第二画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離に基づいて、前記類似度合を判断することを特徴とする付記6に記載の画像処理方法。 (Supplementary Note 7) The process of determining the degree of similarity includes the distance between the similar feature amount on the linear space and the feature amount of the first image on the linear space, the similar feature amount on the linear space, and The additional degree is characterized in that the degree of similarity is determined based on a distance from the feature amount of the second image and a distance between the similar feature amount in the linear space and the feature amount of the interpolated image. Image processing method.
(付記8)前記検索対象画像セットについて、前記補間画像に対応する時刻の前後に撮影された第三画像と第四画像とが存在し、前記補間画像に対応する時刻が、前記第三画像の撮影時刻と、前記第四画像の撮影時刻とをm対nに内分する点に位置する時刻である場合に、前記類似度合いを判断する処理は、前記第三画像の特徴量のベクトルにnを乗算した値と、前記第四画像の特徴量のベクトルにmを乗算した値とを加算したベクトルから、前記類似する特徴量のベクトルを減算することで、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離を算出することを特徴とする付記6または7に記載の画像処理方法。
(Additional remark 8) About the said search object image set, the 3rd image and 4th image image | photographed before and after the time corresponding to the said interpolation image exist, and the time corresponding to the said interpolation image is the said 3rd image. When the time is located at a point where the shooting time and the shooting time of the fourth image are divided internally into m to n, the process of determining the degree of similarity is performed by adding n to the feature vector of the third image. The similar feature in the linear space is subtracted from a vector obtained by adding the value obtained by multiplying the vector of the feature amount of the fourth image and the value obtained by multiplying the vector of the feature amount of the fourth image by m. The image processing method according to
(付記9)コンピュータが実行する画像処理プログラムであって、
各患者につき時間をおいて複数回撮影されることで取得された、複数種類の特徴量で表現されうる個々の症例画像セットを含む症例画像セット群の間で、検索対象とする検索対象画像セットと類似する画像セットを検索する際に、検索対象画像セットの中の第1の時刻に撮影された第一画像と、前記第1の時刻とは異なる第2の時刻に撮影された第二画像との組について、前記症例画像セット群の中で、前記第一画像の特徴量と前記第二画像の特徴量との組とにそれぞれ類似する特徴量を持つ画像の組を含むセットを1以上特定し、
特定した1以上のセットに含まれる、前記第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、前記第一画像と前記第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成し、
生成した補間画像に対応する特徴量を用いて、前記検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する
処理を実行することを特徴とする画像処理プログラム。
(Supplementary note 9) An image processing program executed by a computer,
A search target image set to be searched between case image set groups including individual case image sets that can be expressed by a plurality of types of feature values, acquired by shooting multiple times for each patient. When searching for an image set similar to, the first image taken at the first time in the search target image set and the second image taken at a second time different from the first time In the case image set group, at least one set including a set of images each having a feature amount similar to the set of the feature amount of the first image and the feature amount of the second image in the group of case images Identify,
The shooting time of the first similar image having a feature amount similar to the feature amount of the first image and the second similarity having a feature amount similar to the feature amount of the second image included in the specified one or more sets An interpolation image corresponding to an image photographed at a time between the first image and the second image using a feature amount of one or more images photographed at a time between the image photographing times Generate one or more features that are estimated to be
An image processing program for executing a process of determining a degree of similarity between the search target image set and one or more sets in a case image set group using a feature amount corresponding to the generated interpolation image.
(付記10)前記生成する処理は、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量に対して、カーネル主成分分析を実行することで、前記類似する特徴量を線形空間に写像し、前記線形空間上の前記類似する特徴量を基にして、前記補間画像が有することが推定される特徴量を1以上生成することを特徴とする付記9に記載の画像処理プログラム。 (Additional remark 10) The said process to produce | generate is performed by performing a kernel principal component analysis with respect to the feature-value respectively similar to the feature-value group of said 1st image, and the feature-value of said 2nd image, and the said similarity Appendix 9 characterized in that one or more feature quantities estimated to be included in the interpolation image are generated based on the similar feature quantities on the linear space. The image processing program described.
(付記11)前記類似度合いを判断する処理は、前記線形空間上の前記類似する特徴量と前記線形空間上の第一画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記第二画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離に基づいて、前記類似度合を判断することを特徴とする付記10に記載の画像処理プログラム。 (Supplementary Note 11) The process of determining the degree of similarity includes the distance between the similar feature amount on the linear space and the feature amount of the first image on the linear space, the similar feature amount on the linear space, and The supplementary note 10 is characterized in that the degree of similarity is determined based on a distance between the feature amount of the second image and a distance between the similar feature amount on the linear space and the feature amount of the interpolated image. Image processing program.
(付記12)前記検索対象画像セットについて、前記補間画像に対応する時刻の前後に撮影された第三画像と第四画像とが存在し、前記補間画像に対応する時刻が、前記第三画像の撮影時刻と、前記第四画像の撮影時刻とをm対nに内分する点に位置する時刻である場合に、前記類似度合いを判断する処理は、前記第三画像の特徴量のベクトルにnを乗算した値と、前記第四画像の特徴量のベクトルにmを乗算した値とを加算したベクトルから、前記類似する特徴量のベクトルを減算することで、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離を算出することを特徴とする付記10または11に記載の画像処理プログラム。
(Additional remark 12) About the said search object image set, the 3rd image and 4th image image | photographed before and after the time corresponding to the said interpolation image exist, and the time corresponding to the said interpolation image is the said 3rd image. When the time is located at a point where the shooting time and the shooting time of the fourth image are divided internally into m to n, the process of determining the degree of similarity is performed by adding n to the feature vector of the third image. The similar feature in the linear space is subtracted from a vector obtained by adding the value obtained by multiplying the vector of the feature amount of the fourth image and the value obtained by multiplying the vector of the feature amount of the fourth image by m. 12. The image processing program according to
100 画像処理装置
140 記憶部
141 画像テーブル
150 制御部
151 特定部
152 生成部
153 判断部
DESCRIPTION OF SYMBOLS 100 Image processing apparatus 140 Storage part 141 Image table 150 Control part 151 Specification part 152
Claims (6)
特定した1以上のセットに含まれる、前記第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、前記第一画像と前記第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成する生成部と、
生成した補間画像に対応する特徴量を用いて、前記検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する判断部と
を有することを特徴とする画像処理システム。 A search target image set to be searched between case image set groups including individual case image sets that can be expressed by a plurality of types of feature values, acquired by shooting multiple times for each patient. When searching for an image set similar to, the first image taken at the first time in the search target image set and the second image taken at a second time different from the first time Identify one or more sets in the case image set group that include sets of images each having a feature amount similar to the feature amount of the first image and the feature amount of the second image. Specific part to do,
The shooting time of the first similar image having a feature amount similar to the feature amount of the first image and the second similarity having a feature amount similar to the feature amount of the second image included in the specified one or more sets An interpolation image corresponding to an image photographed at a time between the first image and the second image using a feature amount of one or more images photographed at a time between the image photographing times A generating unit that generates one or more feature quantities that are estimated;
An image processing system comprising: a determination unit that determines a degree of similarity between the search target image set and one or more sets in the case image set group using a feature amount corresponding to the generated interpolation image.
各患者につき時間をおいて複数回撮影されることで取得された、複数種類の特徴量で表現されうる個々の症例画像セットを含む症例画像セット群の間で、検索対象とする検索対象画像セットと類似する画像セットを検索する際に、検索対象画像セットの中の第1の時刻に撮影された第一画像と、前記第1の時刻とは異なる第2の時刻に撮影された第二画像との組について、前記症例画像セット群の中で、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量を持つ画像の組を含むセットを1以上特定し、
特定した1以上のセットに含まれる、前記第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、前記第一画像と前記第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成し、
生成した補間画像に対応する特徴量を用いて、前記検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する
処理を実行することを特徴とする画像処理方法。 An image processing method executed by a computer,
A search target image set to be searched between case image set groups including individual case image sets that can be expressed by a plurality of types of feature values, acquired by shooting multiple times for each patient. When searching for an image set similar to, the first image taken at the first time in the search target image set and the second image taken at a second time different from the first time Identify one or more sets in the case image set group that include sets of images each having a feature amount similar to the feature amount of the first image and the feature amount of the second image. And
The shooting time of the first similar image having a feature amount similar to the feature amount of the first image and the second similarity having a feature amount similar to the feature amount of the second image included in the specified one or more sets An interpolation image corresponding to an image photographed at a time between the first image and the second image using a feature amount of one or more images photographed at a time between the image photographing times Generate one or more features that are estimated to be
An image processing method comprising: executing a process of determining a degree of similarity between the search target image set and one or more sets in the case image set group using a feature amount corresponding to the generated interpolation image.
各患者につき時間をおいて複数回撮影されることで取得された、複数種類の特徴量で表現されうる個々の症例画像セットを含む症例画像セット群の間で、検索対象とする検索対象画像セットと類似する画像セットを検索する際に、検索対象画像セットの中の第1の時刻に撮影された第一画像と、前記第1の時刻とは異なる第2の時刻に撮影された第二画像との組について、前記症例画像セット群の中で、前記第一画像の特徴量と前記第二画像の特徴量との組とにそれぞれ類似する特徴量を持つ画像の組を含むセットを1以上特定し、
特定した1以上のセットに含まれる、前記第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、前記第一画像と前記第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成し、
生成した補間画像に対応する特徴量を用いて、前記検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する
処理を実行することを特徴とする画像処理プログラム。 An image processing program executed by a computer,
A search target image set to be searched between case image set groups including individual case image sets that can be expressed by a plurality of types of feature values, acquired by shooting multiple times for each patient. When searching for an image set similar to, the first image taken at the first time in the search target image set and the second image taken at a second time different from the first time In the case image set group, at least one set including a set of images each having a feature amount similar to the set of the feature amount of the first image and the feature amount of the second image in the group of case images Identify,
The shooting time of the first similar image having a feature amount similar to the feature amount of the first image and the second similarity having a feature amount similar to the feature amount of the second image included in the specified one or more sets An interpolation image corresponding to an image photographed at a time between the first image and the second image using a feature amount of one or more images photographed at a time between the image photographing times Generate one or more features that are estimated to be
An image processing program for executing a process of determining a degree of similarity between the search target image set and one or more sets in a case image set group using a feature amount corresponding to the generated interpolation image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016044942A JP6642132B2 (en) | 2016-03-08 | 2016-03-08 | Image processing system, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016044942A JP6642132B2 (en) | 2016-03-08 | 2016-03-08 | Image processing system, image processing method, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017162124A true JP2017162124A (en) | 2017-09-14 |
JP6642132B2 JP6642132B2 (en) | 2020-02-05 |
Family
ID=59857768
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016044942A Active JP6642132B2 (en) | 2016-03-08 | 2016-03-08 | Image processing system, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6642132B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019063353A (en) * | 2017-10-03 | 2019-04-25 | 富士通株式会社 | Program, information processing method, and information processing apparatus |
CN117382435A (en) * | 2023-10-17 | 2024-01-12 | 浙江加力仓储设备股份有限公司 | Vehicle speed control method and system based on dip angle monitoring |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07234927A (en) * | 1994-02-22 | 1995-09-05 | Toshiba Medical Eng Co Ltd | Three-dimensional image display device |
JP2004248960A (en) * | 2003-02-21 | 2004-09-09 | Hitachi Medical Corp | Medical image display device |
JP2007287018A (en) * | 2006-04-19 | 2007-11-01 | Fujifilm Corp | Diagnosis support system |
JP2013198817A (en) * | 2013-07-10 | 2013-10-03 | Canon Inc | Information processing apparatus, information processing method, program, and storage medium |
-
2016
- 2016-03-08 JP JP2016044942A patent/JP6642132B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07234927A (en) * | 1994-02-22 | 1995-09-05 | Toshiba Medical Eng Co Ltd | Three-dimensional image display device |
JP2004248960A (en) * | 2003-02-21 | 2004-09-09 | Hitachi Medical Corp | Medical image display device |
JP2007287018A (en) * | 2006-04-19 | 2007-11-01 | Fujifilm Corp | Diagnosis support system |
US20090080734A1 (en) * | 2006-04-19 | 2009-03-26 | Fujifim Corporation | Diagnosis support system |
JP2013198817A (en) * | 2013-07-10 | 2013-10-03 | Canon Inc | Information processing apparatus, information processing method, program, and storage medium |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019063353A (en) * | 2017-10-03 | 2019-04-25 | 富士通株式会社 | Program, information processing method, and information processing apparatus |
JP7119327B2 (en) | 2017-10-03 | 2022-08-17 | 富士通株式会社 | Program, information processing method and information processing apparatus |
CN117382435A (en) * | 2023-10-17 | 2024-01-12 | 浙江加力仓储设备股份有限公司 | Vehicle speed control method and system based on dip angle monitoring |
CN117382435B (en) * | 2023-10-17 | 2024-05-03 | 浙江加力仓储设备股份有限公司 | Vehicle speed control method and system based on dip angle monitoring |
Also Published As
Publication number | Publication date |
---|---|
JP6642132B2 (en) | 2020-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020248581A1 (en) | Graph data identification method and apparatus, computer device, and storage medium | |
US11017210B2 (en) | Image processing apparatus and method | |
JP6129310B2 (en) | Image processing apparatus and image processing method | |
Schrieber et al. | Dotmark–a benchmark for discrete optimal transport | |
CN110838104B (en) | Multi-time point region of interest matching method, device and storage medium | |
WO1999024932A1 (en) | Rapid convolution based large deformation image matching via landmark and volume imagery | |
KR20130025906A (en) | Face feature-point position correction device, face feature-point position correction method, and face feature-point position correction program | |
CN110956131B (en) | Single-target tracking method, device and system | |
CN104919492A (en) | Device for detecting feature-point position, method for detecting feature-point position, and program for detecting feature-point position | |
JP6642132B2 (en) | Image processing system, image processing method, and image processing program | |
CN110517221B (en) | Gap positioning method and device based on real coordinates and storage medium | |
JP5866064B2 (en) | Image search device, image search method, and recording medium | |
CN111445021A (en) | Learning method, learning apparatus, and computer-readable recording medium | |
WO2014206722A1 (en) | Method and apparatus for generating image alignment data | |
JP2017189337A (en) | Image positioning apparatus and method, and program | |
CN109685029A (en) | Flexible article recognition methods, device, equipment and the medium of Complicated Spatial Structure | |
JP6615488B2 (en) | Medical image processing apparatus, medical image processing method, and medical image apparatus | |
CN114372970B (en) | Surgical reference information generation method and device | |
JP6821303B2 (en) | Information processing equipment, information processing methods and programs | |
US10390798B2 (en) | Computer-aided tracking and motion analysis with ultrasound for measuring joint kinematics | |
JP5814714B2 (en) | Image similarity determination device, image similarity determination method, and image similarity determination program | |
Gass et al. | Detection and correction of inconsistency-based errors in non-rigid registration | |
JP7309447B2 (en) | MEDICAL IMAGE DIAGNOSTIC APPARATUS, IMAGE PROCESSING APPARATUS, AND ALIGNMENT METHOD | |
KR101373397B1 (en) | Sampling method for random sample consensus based on constraint satisfaction problem in augmented reality | |
WO2016142990A1 (en) | Search program, search method, and search device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181112 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191025 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191203 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191216 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6642132 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |