JP6642132B2 - Image processing system, image processing method, and image processing program - Google Patents

Image processing system, image processing method, and image processing program Download PDF

Info

Publication number
JP6642132B2
JP6642132B2 JP2016044942A JP2016044942A JP6642132B2 JP 6642132 B2 JP6642132 B2 JP 6642132B2 JP 2016044942 A JP2016044942 A JP 2016044942A JP 2016044942 A JP2016044942 A JP 2016044942A JP 6642132 B2 JP6642132 B2 JP 6642132B2
Authority
JP
Japan
Prior art keywords
image
time
feature amount
similar
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016044942A
Other languages
Japanese (ja)
Other versions
JP2017162124A (en
Inventor
武部 浩明
浩明 武部
正樹 石原
正樹 石原
昌彦 杉村
昌彦 杉村
遠藤 進
進 遠藤
馬場 孝之
孝之 馬場
上原 祐介
祐介 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016044942A priority Critical patent/JP6642132B2/en
Publication of JP2017162124A publication Critical patent/JP2017162124A/en
Application granted granted Critical
Publication of JP6642132B2 publication Critical patent/JP6642132B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

本発明は、画像処理システム等に関する。   The present invention relates to an image processing system and the like.

現在の医療分野では、同一の患者について異なる時期に撮影された疾病部位に関する画像を比較し、比較した画像の差異から患者の病状を診断することが行われている。患者の疾病部位に関する画像を比較して診断することを、比較読影と呼ぶ。   2. Description of the Related Art In the current medical field, images of a diseased part taken at different times for the same patient are compared, and a disease state of the patient is diagnosed based on a difference between the compared images. Diagnosis by comparing images related to a diseased part of a patient is called comparative reading.

比較読影の業務では、診断中の症例に対し、過去の類似症例を検索し検索結果を参照する類似症例検索が行われている。例えば、過去症例のデータベースから病変の画像特徴が類似した過去症例を検索し、表示する。これらの業務に関する従来技術としては、例えば、従来技術1がある。   In the task of comparative image interpretation, a similar case search is performed for a case under diagnosis by searching for similar cases in the past and referring to the search results. For example, a past case having a similar image feature of a lesion is retrieved from a past case database and displayed. As a conventional technology related to these tasks, there is, for example, a conventional technology 1.

特開2004−5364号公報JP-A-2004-5364

しかしながら、上述した従来技術では、クエリの症例と他の症例との類似度を精度良く算出することができないという問題がある。   However, the above-described related art has a problem that the similarity between a query case and another case cannot be calculated with high accuracy.

図14は、問題を説明するための図である。例えば、疾病部位に関する画像である症例画像が、一人の患者の1つの疾病部位について複数のタイミングで撮影されて取得されたとする。例えば、CT画像やMRI画像は1つの疾病部位につき、1回のタイミングで複数枚の画像が採取される場合が多いので、図14においては各画像が複数枚重なった様子をイメージとして表している。その結果、一人の患者について、複数のタイミングでそれぞれ撮影された画像のセットが形成されることになる。図14では、例えば、囲み線21は、5回のタイミングでそれぞれ撮影された症例画像セットを示す。同様に、他の患者もしくは他の疾病部位についても、過去の複数回にわたる撮影結果の時系列画像群である、症例画像セット22,23が蓄積されているとする。各症例画像セット21〜23を称して、症例画像セット群とすると、比較読影を行うためには、今回の診断対象とする患者の疾病部位の変化が、データベース20に格納されている症例画像セット群内のいずれの症例画像セットに類似しているかを特定し、類似している過去事例と比較して、今回の患者の状態がどうであるかを医師が判断することになる。   FIG. 14 is a diagram for explaining the problem. For example, it is assumed that a case image, which is an image related to a diseased part, is captured and acquired at a plurality of timings for one diseased part of one patient. For example, in a CT image or an MRI image, a plurality of images are often collected at one timing for one diseased part, and therefore, FIG. 14 shows a state in which a plurality of images are overlapped as an image. . As a result, a set of images respectively taken at a plurality of timings is formed for one patient. In FIG. 14, for example, an encircling line 21 indicates a set of case images captured at five times. Similarly, it is assumed that case image sets 22 and 23, which are a time-series image group of a plurality of past imaging results, are accumulated for other patients or other diseased sites. When each of the case image sets 21 to 23 is referred to as a case image set group, in order to perform comparative image reading, a change in a diseased part of a patient to be diagnosed this time is stored in the case image set stored in the database 20. The physician determines which case image set in the group is similar, and compares the case image set with the past case similar to the case image set to determine the state of the patient this time.

ここで、各症例画像セット21〜23と検索対象とする検索対象画像セット25、すなわちクエリの症例に含まれる各画像の撮影間隔が同じであれば、比較は容易であろう。しかし一般的には、どのようなタイミングで疾病部位の撮影を行うかは患者によって異なるし、撮影されるタイミング数も異なる。図14の例では、検索対象画像セット25には3回のタイミングで撮影された画像が存在するイメージを示している。そのため、類似性を判断可能とするためには、患者毎の撮影時期の違いを吸収する仕組みが求められる。   Here, if the case image sets 21 to 23 and the search target image set 25 to be searched, that is, the shooting intervals of the images included in the query case are the same, the comparison will be easy. However, in general, the timing at which an image of a diseased part is to be taken differs from patient to patient, and the number of times at which the image is taken also differs. In the example of FIG. 14, an image in which the search target image set 25 includes images captured at three times is present. Therefore, in order to be able to determine the similarity, a mechanism for absorbing the difference in the imaging timing for each patient is required.

図15は、病変の進行すなわち病変部分の変化の仕方は、非線形であることを説明する図である。各病変画像を特徴空間内における特徴ベクトルとして表現したとして、その特徴ベクトルの軌跡は一般に非線形となる。そのため、線形空間30内における各特徴ベクトル31の軌跡は非線形である。例えば、がんは大きくなればなるほど成長速度が速くなるように、非線形に増大する傾向がある。   FIG. 15 is a diagram for explaining that the progress of the lesion, that is, the way of changing the lesion portion is non-linear. Assuming that each lesion image is represented as a feature vector in the feature space, the trajectory of the feature vector is generally non-linear. Therefore, the trajectory of each feature vector 31 in the linear space 30 is non-linear. For example, cancers tend to grow non-linearly, so that the larger they grow, the faster they grow.

図16は、問題点を説明するための図である。例えば、時刻t0および時刻t4の特徴ベクトルから、時刻t1〜t3の特徴ベクトルを線形補間により求めると、各特徴ベクトルは、線分32に沿って移動する。しかし、実際の特徴ベクトルは、非線形に曲面33にそって移動するため、線形補間による各特徴ベクトルと実際の各特徴ベクトルとの間に乖離が発生する。   FIG. 16 is a diagram for explaining a problem. For example, when the feature vectors at times t1 to t3 are obtained by linear interpolation from the feature vectors at time t0 and time t4, each feature vector moves along the line segment 32. However, since the actual feature vector moves nonlinearly along the curved surface 33, a deviation occurs between each feature vector by linear interpolation and each actual feature vector.

なお、腫瘍は多様な形状を取りながら非線形に変化するため、特徴ベクトルが形成する高次元曲面は極めて複雑であり画像の特徴ベクトルに関する軌跡の曲線を学習によって推定することも難しい。   Since the tumor changes nonlinearly while taking various shapes, the high-dimensional curved surface formed by the feature vector is extremely complicated, and it is difficult to estimate the curve of the trajectory related to the feature vector of the image by learning.

1つの側面では、本発明は、クエリの症例と他の症例との類似度を精度良く算出することができる画像処理システム、画像処理方法および画像処理プログラムを提供することを目的とする。   In one aspect, an object of the present invention is to provide an image processing system, an image processing method, and an image processing program that can accurately calculate the similarity between a query case and another case.

第1の案では、画像処理システムは、特定部と、生成部と、判断部とを有する。特定部は、各患者につき時間をおいて複数回撮影されることで取得された、複数種類の特徴量で表現されうる個々の症例画像セットを含む症例画像セット群の間で、検索対象とする検索対象画像セットと類似する画像セットを検索する際に、検索対象画像セットの中の第1の時刻に撮影された第一画像と、第1の時刻とは異なる第2の時刻に撮影された第二画像との組について、症例画像セット群の中で、第一画像の特徴量と第二画像の特徴量との組にそれぞれ類似する特徴量を持つ画像の組を含むセットを1以上特定する。生成部は、特定した1以上のセットに含まれる、第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、第一画像と第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成する。判断部は、生成した補間画像に対応する特徴量を用いて、検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する。   In the first plan, the image processing system has a specifying unit, a generating unit, and a determining unit. The identification unit is a search target among case image set groups including individual case image sets that can be expressed by a plurality of types of feature amounts, which are obtained by being imaged a plurality of times at an interval for each patient. When searching for an image set similar to the search target image set, the first image shot at the first time in the search target image set and the first image shot at a second time different from the first time For the set with the second image, at least one set including a set of images having feature amounts similar to the set of the feature amount of the first image and the feature amount of the second image is specified in the case image set group. I do. The generation unit has a shooting time of a first similar image having a feature amount similar to the feature amount of the first image and a feature amount similar to the feature amount of the second image included in the specified one or more sets. An interpolated image corresponding to an image captured at a time between the first image and the second image is obtained by using a feature amount of one or more images captured at a time between the capturing times of the second similar image. One or more feature quantities estimated to have are generated. The determination unit determines the similarity between the search target image set and one or more sets in the case image set group using the feature amount corresponding to the generated interpolation image.

クエリの症例と他の症例との類似度を精度良く算出することができる。   The similarity between the query case and another case can be calculated with high accuracy.

図1は、本実施例に係る画像処理装置の構成を示す機能ブロック図である。FIG. 1 is a functional block diagram illustrating the configuration of the image processing apparatus according to the present embodiment. 図2は、画像テーブルのデータ構造の一例を示す図である。FIG. 2 is a diagram illustrating an example of the data structure of the image table. 図3は、制御部の処理を説明するための図である。FIG. 3 is a diagram for explaining the processing of the control unit. 図4は、クエリの症例に対する特徴ベクトルの抽出を説明するための図である。FIG. 4 is a diagram for explaining extraction of a feature vector for a query case. 図5は、時系列画像群の抽出を説明するための図である。FIG. 5 is a diagram for explaining extraction of a time-series image group. 図6は、クエリの症例に類似する時系列の特徴ベクトル群の一例を示す図である。FIG. 6 is a diagram illustrating an example of a time-series feature vector group similar to a query case. 図7は、カーネル主成分分析による写像を説明するための図である。FIG. 7 is a diagram for explaining mapping by kernel principal component analysis. 図8は、判断部の処理を説明するための図である。FIG. 8 is a diagram for explaining the processing of the determination unit. 図9は、補間する時刻を決定する処理を説明するための図である。FIG. 9 is a diagram illustrating a process of determining a time to be interpolated. 図10は、時刻間の対応表の一例を示す図である。FIG. 10 is a diagram illustrating an example of a correspondence table between times. 図11は、DPによる時刻間の対応結果例を示す図である。FIG. 11 is a diagram illustrating an example of a result of correspondence between times by the DP. 図12は、本実施例に係る画像処理装置の処理手順を示すフローチャートである。FIG. 12 is a flowchart illustrating the processing procedure of the image processing apparatus according to the present embodiment. 図13は、画像処理プログラムを実行するコンピュータの一例を示す図である。FIG. 13 is a diagram illustrating an example of a computer that executes an image processing program. 図14は、問題点を説明するための図である。FIG. 14 is a diagram for explaining a problem. 図15は、問題点を説明するための図である。FIG. 15 is a diagram for explaining a problem. 図16は、問題点を説明するための図である。FIG. 16 is a diagram for explaining a problem.

以下に、本願の開示する画像処理システム、画像処理方法および画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。   Hereinafter, embodiments of an image processing system, an image processing method, and an image processing program disclosed in the present application will be described in detail with reference to the drawings. The present invention is not limited by the embodiment.

図1は、本実施例に係る画像処理装置の構成を示す機能ブロック図である。図1に示すように、この画像処理装置100は、通信部110と、入力部120と、表示部130と、記憶部140と、制御部150とを有する。   FIG. 1 is a functional block diagram illustrating the configuration of the image processing apparatus according to the present embodiment. As shown in FIG. 1, the image processing apparatus 100 includes a communication unit 110, an input unit 120, a display unit 130, a storage unit 140, and a control unit 150.

通信部110は、ネットワーク等を介して他の装置とデータ通信を実行する処理部である。例えば、通信部110は、通信装置に対応する。   The communication unit 110 is a processing unit that executes data communication with another device via a network or the like. For example, the communication unit 110 corresponds to a communication device.

入力部120は、各種の情報を画像処理装置100に入力する入力装置である。例えば、入力部120は、キーボードやマウス、タッチパネル等に対応する。利用者は、入力部120を操作して、クエリの症例等を選択する。   The input unit 120 is an input device that inputs various types of information to the image processing device 100. For example, the input unit 120 corresponds to a keyboard, a mouse, a touch panel, and the like. The user operates the input unit 120 to select a case or the like of the query.

表示部130は、制御部150の処理結果を表示する表示装置である。表示部130は、液晶ディスプレイや、タッチパネル等に対応する。例えば、表示部130は、制御部150によって検索された、クエリの症例に類似する他の症例の画像を表示する。   The display unit 130 is a display device that displays a processing result of the control unit 150. The display unit 130 corresponds to a liquid crystal display, a touch panel, or the like. For example, the display unit 130 displays an image of another case similar to the case of the query searched by the control unit 150.

記憶部140は、画像テーブル141を有する。記憶部140は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。   The storage unit 140 has an image table 141. The storage unit 140 corresponds to a semiconductor memory device such as a random access memory (RAM), a read only memory (ROM), and a flash memory, and a storage device such as a hard disk drive (HDD).

画像テーブル141は、各種の症例に関する時系列画像の情報を格納するテーブルである。図2は、画像テーブルのデータ構造の一例を示す図である。図2に示すように画像テーブル141は、症例数が記録されており、症例数の分だけ、患者ID(Identification)と、撮影時刻数と、データポインタとがセットになった情報が順番に記録されている。データポインタの先には、撮影時刻数の分だけ、撮影時刻、画像データ、腫瘍位置情報、特徴ベクトルがセットになった情報が順番に記録される。   The image table 141 is a table that stores information on time-series images related to various cases. FIG. 2 is a diagram illustrating an example of the data structure of the image table. As shown in FIG. 2, the number of cases is recorded in the image table 141, and information in which a patient ID (Identification), the number of imaging times, and a data pointer are set in order is recorded for the number of cases. Have been. At the end of the data pointer, information in which the imaging time, the image data, the tumor position information, and the feature vector are set in order is recorded for the number of imaging times.

例えば、同一の患者IDに対応づけられた各画像データが、図14で説明した症例画像セット21〜23に対応するものとなる。各患者IDの症例画像セットをまとめたものが、症例画像セット群に対応する。また、後述するように、各症例画像セットの中から、検索対象となる検索対象画像セットが選択される。   For example, each image data associated with the same patient ID corresponds to the case image sets 21 to 23 described with reference to FIG. A set of case image sets of each patient ID corresponds to a case image set group. Further, as described later, a search target image set to be searched is selected from each case image set.

特徴ベクトルは、画像データに含まれる病変部位として、例えば腫瘍の特徴を表すベクトルである。例えば、特徴ベクトルは、腫瘍を囲む矩形の大きさ、矩形の座標、腫瘍の濃度、色等を数値化した情報である。   The feature vector is a vector representing, for example, a feature of a tumor as a lesion site included in the image data. For example, the feature vector is information obtained by digitizing the size of a rectangle surrounding the tumor, the coordinates of the rectangle, the density and color of the tumor, and the like.

制御部150は、特定部151、生成部152、判断部153を有する。制御部150は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、制御部150は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路に対応する。   The control unit 150 includes a specifying unit 151, a generating unit 152, and a determining unit 153. The control unit 150 corresponds to an integrated device such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control unit 150 corresponds to, for example, an electronic circuit such as a CPU (Central Processing Unit) and an MPU (Micro Processing Unit).

図3は、制御部の処理を説明するための図である。図3に示すように、制御部150は、クエリの症状に対応する時系列画像の特徴ベクトル40,50を受け付ける(ステップS10)。例えば、特徴ベクトル40,50は、特徴空間30a上に存在する。   FIG. 3 is a diagram for explaining the processing of the control unit. As illustrated in FIG. 3, the control unit 150 receives the feature vectors 40 and 50 of the time-series image corresponding to the symptom of the query (Step S10). For example, the feature vectors 40 and 50 exist in the feature space 30a.

制御部150は、特徴ベクトル40,50と、画像テーブル141の各特徴ベクトルとを比較して、類似する特徴ベクトルを求める(ステップS11)。例えば、特徴ベクトル40に類似する特徴ベクトルを、特徴ベクトル41、42,43,44とする。特徴ベクトル50に類似する特徴ベクトルを、特徴ベクトル51,52,53,54とする。   The control unit 150 compares the feature vectors 40 and 50 with the respective feature vectors of the image table 141 to obtain similar feature vectors (step S11). For example, feature vectors similar to the feature vector 40 are set as feature vectors 41, 42, 43, and 44. Feature vectors similar to the feature vector 50 are referred to as feature vectors 51, 52, 53, and 54.

制御部150は、類似する各特徴ベクトルが属する時系列画像群の時系列特徴ベクトルを抽出する(ステップS12)。例えば、制御部150は、類似する特徴ベクトルが属する患者IDを、画像テーブル141を基にして特定し、特定した患者IDに属する全ての特徴ベクトルを時系列ベクトル群として抽出する。図3のステップS12に示す例では、制御部150は、特徴ベクトル41〜44、51〜54が属する患者IDをキーにして、特徴ベクトル群61a,62a,63a,64aを抽出する。この例では、4人の患者IDが特定された例を示している。ステップS12によって、特徴ベクトルが形成する高次元曲面31において、クエリの軌跡曲線に関する近傍部分32を得ることができる。   The control unit 150 extracts a time-series feature vector of a time-series image group to which each similar feature vector belongs (step S12). For example, the control unit 150 specifies a patient ID to which a similar feature vector belongs based on the image table 141, and extracts all the feature vectors belonging to the specified patient ID as a time-series vector group. In the example illustrated in step S12 of FIG. 3, the control unit 150 extracts the feature vector groups 61a, 62a, 63a, and 64a using the patient ID to which the feature vectors 41 to 44 and 51 to 54 belong as a key. This example shows an example in which four patient IDs are specified. By the step S12, in the high-dimensional curved surface 31 formed by the feature vector, it is possible to obtain the neighborhood 32 related to the trajectory curve of the query.

制御部150は、クエリの軌跡曲線に関する近傍部分32が有する非線形構造を、カーネル主成分分析によって線形空間30bとして捉える。実際、カーネル主成分分析によって、時系列特徴ベクトル群61a〜64aは、高次元空間を介して、線形空間30bのベクトル群61b〜64bとして捉えられる。   The control unit 150 captures the nonlinear structure of the neighborhood 32 related to the trajectory curve of the query as a linear space 30b by kernel principal component analysis. In fact, by the kernel principal component analysis, the time-series feature vector groups 61a to 64a are regarded as the vector groups 61b to 64b of the linear space 30b via the high-dimensional space.

制御部150は、時系列特徴ベクトル群61b〜64bに基づいて、クエリの症例に対する近似直線65bを推定することができる(ステップS13)。この近似直線65bは、特徴空間30a上では、近似曲線65aとなる。この近似曲線65aと、他の時系列特徴ベクトル群61a〜64aとの類似度を、線形空間30b上の近似直線65bと、時系列特徴ベクトル群61b〜64bとの距離の計算に基づいて算出することが可能となる。なお、図3の例においては、説明の簡単化のため、1人の患者についての複数枚の時系列画像のうち、2つの画像それぞれの特徴ベクトル40,50を受け付ける例を示したが、受け付ける数は2以上であればいくつであってもよい。   The control unit 150 can estimate the approximate straight line 65b for the query case based on the time-series feature vector groups 61b to 64b (step S13). This approximate straight line 65b becomes an approximate curve 65a in the feature space 30a. The similarity between the approximate curve 65a and the other time-series feature vector groups 61a to 64a is calculated based on the calculation of the distance between the approximate straight line 65b on the linear space 30b and the time-series feature vector groups 61b to 64b. It becomes possible. Note that, in the example of FIG. 3, for simplification of description, an example is shown in which the feature vectors 40 and 50 of two images are received among a plurality of time-series images of one patient. The number may be any number as long as it is two or more.

続いて、制御部150に含まれる特定部151、生成部152、判断部153の各処理について順に説明する。   Subsequently, each processing of the specifying unit 151, the generating unit 152, and the determining unit 153 included in the control unit 150 will be described in order.

特定部151は、クエリの症例として、患者IDを受け付けた場合に、受け付けた患者IDと、画像テーブル141とを比較して、患者IDのポインタで示される各時系列画像の特徴ベクトルを2つ以上抽出する。特定部151が抽出する特徴ベクトルは2つに限る必要はなく、2つ以上であればいくつであってもよい。例えば、特定部151が抽出する特徴ベクトルは、各時系列画像のうち、最先の時刻に撮影された画像の特徴ベクトルと、最後の時刻に撮影された画像の特徴ベクトルとを含む。   When receiving the patient ID as a case of the query, the identifying unit 151 compares the received patient ID with the image table 141, and determines two feature vectors of each time-series image indicated by the pointer of the patient ID. Extract above. The number of feature vectors extracted by the specifying unit 151 need not be limited to two, and may be any number as long as it is two or more. For example, the feature vector extracted by the specifying unit 151 includes a feature vector of an image taken at the earliest time and a feature vector of an image taken at the last time in each time-series image.

図4は、クエリの症例に対する特徴ベクトルの抽出を説明するための図である。クエリの症例は、n個の時系列画像を持つとする。上記のように、特定部151は、患者IDを受け付けると、画像テーブル141からn個の時系列画像の特徴ベクトルを抽出する。この結果、得られた特徴ベクトルの列を「yτ1,・・・,yτn」とする。ここで、特徴ベクトルの添え字τは、観測された時刻を示すものである。図4に示すように、n=2である場合には、クエリの症例に対する時系列画像は、τの時系列画像と、τの時系列画像となり、特徴ベクトルは、yτ1,yτ2となる。なお、上述のとおり、nは2以上であればよい。 FIG. 4 is a diagram for explaining extraction of a feature vector for a query case. It is assumed that the query case has n time-series images. As described above, when receiving the patient ID, the specifying unit 151 extracts the feature vectors of the n time-series images from the image table 141. As a result, a sequence of the obtained feature vectors is defined as “y τ1 ,..., Y τn ”. Here, the subscript τ i of the feature vector indicates the observed time. As shown in FIG. 4, in the case of n = 2, the time-series images for cases of query, a time-series images of tau 1, becomes time-series images of tau 2, the feature vector, y .tau.1, y .tau.2 Becomes As described above, n may be 2 or more.

特定部151は、クエリの症例に関する特徴ベクトルと、画像テーブル141上の全特徴ベクトルとの距離計算を行うことにより、クエリの症例の時系列画像に類似する時系列画像群を抽出する。   The identification unit 151 extracts a time-series image group similar to the time-series image of the query case by calculating the distance between the feature vector related to the query case and all the feature vectors on the image table 141.

図5は、時系列画像群の抽出を説明するための図である。特定部151は、クエリの症例のn個の特徴ベクトルyτ1,・・・,yτnそれぞれについて、画像テーブル141に含まれる症例の個々の画像に関する特徴ベクトルのうち、最も距離が近い上位N個までの特徴ベクトルを算出する。図5に示す例では、特定部151は、特徴ベクトルyτ1に最も近い上位N位の特徴ベクトルxτ1,1・・・τ1,Nを抽出する。特定部151は、特徴ベクトルyτ2に最も近い上位N位の特徴ベクトルxτ2,1・・・τ2,Nを抽出する。 FIG. 5 is a diagram for explaining extraction of a time-series image group. The identifying unit 151 determines, for each of the n feature vectors y τ1 ,..., Y τn of the query case, among the feature vectors related to the individual images of the cases included in the image table 141, The feature vector up to is calculated. In the example illustrated in FIG. 5, the specifying unit 151 extracts the upper N-th feature vector x τ1,1... Τ1, N closest to the feature vector y τ1 . The identification unit 151 extracts the top N-th feature vector x τ2,1... Τ2, N closest to the feature vector y τ2 .

クエリの症例に関するベクトルに対して、最も近い上位N個の特徴ベクトルを式(1)のように定義する。   The closest top N feature vectors to the vector related to the query case are defined as in equation (1).

Figure 0006642132
Figure 0006642132

特定部151は、式(1)の各特徴ベクトルが属する症例の時系列画像の特徴ベクトル群を全て抽出する。抽出した時系列画像の特徴ベクトル群を式(2)のように定義する。式(2)では、xτi,jが属する症例の時系列画像がp i,j個からなる時系列画像であるとする。 The specifying unit 151 extracts all the feature vector groups of the time-series image of the case to which each feature vector of Expression (1) belongs. A feature vector group of the extracted time-series image is defined as in Expression (2). In equation (2), x τi, time-series images of cases j belongs to a p k i, the time-series images consisting of j-number.

Figure 0006642132
Figure 0006642132

特定部151は、式(2)で定義した特徴ベクトル群から、クエリの症例の特徴ベクトルに類似する時系列画像の特徴ベクトルを選択する。例えば、特定部151は、式(3)で定義されるベクトルx τi,Jのうち、少なくとも2個はクエリの症例の時系列の特徴ベクトルと類似しているものを選択する。 The identification unit 151 selects a feature vector of a time-series image similar to the feature vector of the query case from the feature vector group defined by Expression (2). For example, the specifying unit 151 selects, from among the vectors x k τi, J defined by Expression (3), at least two vectors that are similar to the time-series feature vectors of the query cases.

Figure 0006642132
Figure 0006642132

図6は、クエリの症例に類似する時系列の特徴ベクトル群の一例を示す図である。図6に示す例では、クエリの症例に類似する特徴ベクトル群61a〜64aが抽出される。例えば、特徴ベクトル群61aのうち、少なくとも2個の特徴ベクトルが、クエリの症例のいずれかの特徴ベクトルに類似している。特徴ベクトル群62a〜64aも、特徴ベクトル群61aと同様にして、少なくとも2個の特徴ベクトルが、クエリの症例のいずれかの特徴ベクトルに類似している。   FIG. 6 is a diagram illustrating an example of a time-series feature vector group similar to a query case. In the example illustrated in FIG. 6, feature vector groups 61a to 64a similar to the query case are extracted. For example, in the feature vector group 61a, at least two feature vectors are similar to any of the feature vectors of the query case. Similarly to the feature vector group 61a, the feature vector groups 62a to 64a have at least two feature vectors similar to any of the feature vectors of the query case.

以下の説明では、一例として、特定部151が、m個の時系列の特徴ベクトル群を抽出したものとし、各特徴ベクトル群を、式(4)のように定義する。   In the following description, as an example, it is assumed that the specifying unit 151 extracts m time-series feature vector groups, and defines each feature vector group as shown in Expression (4).

Figure 0006642132
Figure 0006642132

続いて、生成部152の説明に移行する。生成部152は、クエリの症例に類似する時系列の特徴ベクトル群がなす非線形構造を、カーネル主成分分析によって高次元空間を介して、線形空間として捉える。その結果、時系列特徴ベクトル群は、線形空間上のベクトル群として捉えられることになる。そして、これらの線形空間上のベクトル群を基にして、クエリの症例に対する近似曲線と時系列特徴ベクトル群との距離を推定することが可能になる。   Subsequently, the process proceeds to the description of the generation unit 152. The generation unit 152 captures a non-linear structure formed by a time-series feature vector group similar to the query case as a linear space via a high-dimensional space by kernel principal component analysis. As a result, the time-series feature vector group is regarded as a vector group in a linear space. Then, it is possible to estimate the distance between the approximate curve for the query case and the time-series feature vector group based on the vector group in the linear space.

生成部152は、カーネル関数kを用いて、カーネル行列Kを算出する。ここでは説明の便宜上、クエリの症例に類似する時系列の特徴ベクトル群をx,・・・xと表すことにする。ここで、qは、クエリに類似する時系列特徴ベクトル群の個数とする。また、カーネル関数としては、例えば、式(5)によって表されるガウシアンカーネルを用いる。式(5)に含まれるTは、ある定数とする。 The generation unit 152 calculates a kernel matrix K using the kernel function k. Here, for convenience of explanation, a time-series feature vector group similar to the case of the query is represented as x 1 ,..., X q . Here, q is the number of time-series feature vector groups similar to the query. As the kernel function, for example, a Gaussian kernel represented by Expression (5) is used. T included in Expression (5) is a certain constant.

Figure 0006642132
Figure 0006642132

生成部152が、式(5)によって算出するカーネル行列Kは、式(6)に示すようなq×qの正方行列Kとして計算される。   The kernel matrix K calculated by the generator 152 according to the equation (5) is calculated as a q × q square matrix K as shown in the equation (6).

Figure 0006642132
Figure 0006642132

生成部152は、カーネル行列Kに対して、r個の値の大きい上位固有値と、上位固有値に対応する固有ベクトルを算出する。例えば、生成部152は、カーネル行列Kの固有方程式(7)を未知数λの方程式として解いて固有値λを求める。また、各々の固有値λを連立方程式(8)に代入して、固有値λに対応する固有ベクトルvを求める。例えば、上位の固有値をλ,・・・,λとし、対応する固有ベクトルをv,・・・,vとする。 The generation unit 152 calculates, for the kernel matrix K, upper-order eigenvalues having larger r values and eigenvectors corresponding to the upper-order eigenvalues. For example, the generation unit 152 obtains an eigenvalue λ by solving the eigen equation (7) of the kernel matrix K as an equation of an unknown number λ. Further, each eigenvalue λ is substituted into the simultaneous equation (8) to obtain an eigenvector v corresponding to the eigenvalue λ. For example, the eigenvalues of the upper λ 1, ···, and λ r, the corresponding eigenvectors v 1, ···, and v r.

Figure 0006642132
Figure 0006642132

Figure 0006642132
Figure 0006642132

図7は、カーネル主成分分析による写像を説明するための図である。生成部152が、特徴ベクトル群61a〜64aのカーネル行列Kを求め、カーネル行列Kに基づいて、固有値λ、固有ベクトルvを算出することで、特徴ベクトル群61a〜64aは、線形空間30b上のベクトル群61b〜64bとして捉えることができる。   FIG. 7 is a diagram for explaining mapping by kernel principal component analysis. The generation unit 152 obtains a kernel matrix K of the feature vector groups 61a to 64a, and calculates an eigenvalue λ and an eigenvector v based on the kernel matrix K, so that the feature vector groups 61a to 64a are vectors in the linear space 30b. It can be grasped as groups 61b to 64b.

続いて、判断部153の説明に移行する。判断部153は、クエリの症例の時系列ベクトル群について、特徴ベクトルを補間した近似曲線を推定し、近似曲線と、他の症例との類似度を、線形区間30b上での距離計算に基づいて算出する処理部である。   Subsequently, the process proceeds to the description of the determination unit 153. The determination unit 153 estimates an approximate curve obtained by interpolating the feature vector for the time series vector group of the query case, and calculates the similarity between the approximate curve and another case based on the distance calculation on the linear section 30b. It is a processing unit for calculating.

図8は、判断部の処理を説明するための図である。判断部153は、特徴ベクトル群61b〜64bに基づいて、クエリの症例と他の時系列特徴ベクトル群との距離を推定する。具体的には、判断部153は、近似曲線65aと、他の時系列特徴ベクトル群61a〜64aとの類似度を、線形空間30b上の近似直線65bと、特徴ベクトル群61b〜64bとの距離の計算に基づいて算出する。   FIG. 8 is a diagram for explaining the processing of the determination unit. The determining unit 153 estimates the distance between the query case and another time-series feature vector group based on the feature vector groups 61b to 64b. Specifically, the determination unit 153 calculates the similarity between the approximate curve 65a and the other time-series feature vector groups 61a to 64a by calculating the distance between the approximate straight line 65b in the linear space 30b and the feature vector groups 61b to 64b. Is calculated based on the calculation of.

以下において、判断部153の処理を順に説明する。判断部153は、クエリの症例に対して、特徴ベクトルを補間する時刻を決定する。特徴ベクトルに対応する各時刻について、時刻間の長さが一定の値σ以下になるようにする。判断部153は、隣り合う時刻間の長さがσよりも大きい場合に、σよりも小さくなるように、時刻間をs等分する。   Hereinafter, the processing of the determination unit 153 will be described in order. The determination unit 153 determines a time at which a feature vector is interpolated for a query case. For each time corresponding to the feature vector, the length between the times is set to be equal to or smaller than a certain value σ. When the length between adjacent times is larger than σ, the determination unit 153 equally divides the time between s so as to become smaller than σ.

図9は、補間する時刻を決定する処理を説明するための図である。例えば、クエリの症例の撮影時刻τ,τ,τ,τ,τ,τと、所定の時間幅σとが、図9のように与えられたものとする。判断部153は、τ,τ間と、τ,τ間とが、σよりも大きいと判定する。判断部153は、τ,τ間をs等分していき、初めてσ以下となった時のs等分の長さにより、補間する時刻を決定する。図9に示す例では、τ,τ間に、補間する時刻τ11,τ12を決定する。判断部153は、τ,τ間に、時刻τ11,τ12を追加する。 FIG. 9 is a diagram illustrating a process of determining a time to be interpolated. For example, it is assumed that the imaging times τ 1 , τ 2 , τ 3 , τ 4 , τ 5 , τ 6 of the query case and the predetermined time width σ are given as shown in FIG. The determination unit 153 determines that the interval between τ 1 and τ 2 and the interval between τ 4 and τ 5 are larger than σ. The determination unit 153 divides τ 1 and τ 2 equally into s, and determines a time to be interpolated based on the length of the s equal when σ is equal to or less than σ for the first time. In the example shown in FIG. 9, times τ 11 and τ 12 to be interpolated are determined between τ 1 and τ 2 . The determination unit 153 adds times τ 11 and τ 12 between τ 1 and τ 2 .

同様に、判断部153は、τ,τ間をs等分していき、初めてσ以下となった時のs等分の長さにより、補間する時刻を決定する。図9に示す例では、τ,τ間に、補間する時刻τ41を決定する。判断部153は、τ,τ間に、時刻τ41を追加する。 Similarly, the determination unit 153 divides τ 4 and τ 5 equally into s, and determines a time to be interpolated based on the length of the s equal when σ or less becomes σ for the first time. In the example shown in FIG. 9, a time τ 41 to be interpolated is determined between τ 4 and τ 5 . The determination unit 153 adds a time τ 41 between τ 4 and τ 5 .

判断部153は、画像テーブル141の症例の時系列画像に関する特徴ベクトルと、クエリの症例の特徴ベクトルとの距離をDP(Dynamic Programming)によって算出する。画像テーブル141の症例の時系列画像に関する特徴ベクトルをxt1,・・・,xt1であるとする。判断部153は、時刻間の対応表を生成し、各格子点(τ,t)あるいは(τik,t)において、yτiとxtjまたはyτikとxtjの距離を以下の式によって計算する。なお、クエリの症例の時刻τの特徴ベクトルをyτiとする。 The determination unit 153 calculates the distance between the feature vector related to the time-series image of the case in the image table 141 and the feature vector of the case of the query by Dynamic Programming (DP). It is assumed that the feature vectors related to the time-series images of the cases in the image table 141 are xt1 , ..., xt1 . The judging unit 153 generates a correspondence table between times, and determines the distance between y τi and x tj or y τik and x tj at each grid point (τ i , t j ) or (τ ik , t j ) as follows. Calculate by formula. Note that the feature vector of the query case at the time τ i is y τi .

判断部153は、τが補間時刻ではない場合に、式(9)に基づいて、特徴ベクトルyτiと、時刻tの特徴ベクトルとの距離D(yτi,xtj)を算出する。 When τ i is not the interpolation time, the determination unit 153 calculates a distance D (y τi , x tj ) between the feature vector y τi and the feature vector at time t j based on Expression (9).

Figure 0006642132
Figure 0006642132

判断部153は、τikが補間時刻である場合に、式(10)に基づいて、特徴ベクトルyτikと、時刻tの特徴ベクトルとの距離D(yτik,xtj)を算出する。ここで、τikは、τとτi+1をm:nに内分する点であるものとする。 When τ ik is the interpolation time, the determining unit 153 calculates a distance D (y τik , x tj ) between the feature vector y τik and the feature vector at time t j based on Expression (10). Here, τ ik is a point that internally divides τ i and τ i + 1 into m: n.

Figure 0006642132
Figure 0006642132

上記の式(9)および式(10)について、判断部153は、v(z)の値を、式(11)によって計算する。zは、yτi、yτikまたはxtjに対応する。式(11)に含まれるv,・・・vは、上記のカーネル行列Kの固有ベクトルに対応する。 With respect to Expressions (9) and (10), the determination unit 153 calculates the value of v (z) by Expression (11). z corresponds to the y τi, y τik or x tj. V 1 included in the formula (11), ··· v r corresponds to the eigenvector of the kernel matrix K.

Figure 0006642132
Figure 0006642132

図10は、時刻間の対応表の一例を示す図である。対応表60の縦軸は、クエリの症例の撮影時刻と、補間した時刻を示す。対応表60の横軸は、画像テーブル141の症例の撮影時刻を示す。判断部153は、上述した式(9)、式(10)に基づいて、距離D(yτi,xtj)または距離D(yτi,xtj)を算出する。例えば、判断部153は、τとtとの組またはτikとtとの組を作り、各組の距離Dの累積値を算出する。判断部153は、τとtとの組またはτikとtとの組を網羅的に変えながら、累積値が最小となる、τとtとの組またはτikとtとの組をDPに基づき探索する。 FIG. 10 is a diagram illustrating an example of a correspondence table between times. The vertical axis of the correspondence table 60 indicates the photographing time of the query case and the interpolated time. The horizontal axis of the correspondence table 60 indicates the imaging time of the case in the image table 141. Determination unit 153, the above-mentioned formula (9), based on equation (10), the distance D (y .tau.i, x tj) or the distance D (y .tau.i, x tj) is calculated. For example, the determination unit 153 creates a pair of τ i and t j or a pair of τ ik and t j and calculates the accumulated value of the distance D of each pair. Determination unit 153, while changing a set of the set or tau ik and t j of the tau i and t j comprehensively, the accumulated value is minimum, a set of the tau i and t j, or tau ik and t j Is searched based on DP.

DPの具体的な計算方法は文献(吉村他,”DPマッチング法の逐次適用による日本語署名のオフライン照合法,”信学論(D-II),Vol. J81-D-II No.10, pp.2259-2266, 1998年10月の「2.2.2 DPマッチング処理」)などに記載されている。判断部153は、上記計算方法に基づき、DPを計算する。   The specific calculation method of DP is described in the literature (Yoshimura et al., "Offline Matching Method for Japanese Signatures by Sequential Application of DP Matching Method," IEICE (D-II), Vol. J81-D-II No.10, pp.2259-2266, "2.2.2 DP matching processing" of October 1998). The determination unit 153 calculates DP based on the above calculation method.

図11は、DPによる時刻間の対応結果例を示す図である。図11は、クエリの症例の特徴ベクトルと、画像テーブル141のある患者IDに紐付く時系列画像の特徴ベクトルとのDPの計算結果を示す。図11に示す例では、DPにより、クエリの症例が撮影された時刻τの特徴ベクトルyτ1と、画像テーブル141の症例の時系列画像が撮影された時刻tの特徴ベクトルxt3とが対応付けられる。クエリの症例が撮影された時刻τの特徴ベクトルyτ2と、画像テーブル141の症例の時系列画像が撮影された時刻tの特徴ベクトルxt6とが対応付けられる。クエリの症例が撮影された時刻τの特徴ベクトルyτ3と、画像テーブル141の症例の時系列画像が撮影された時刻tの特徴ベクトルxt6とが対応付けられる。クエリの症例が撮影された時刻τの特徴ベクトルyτ4と、画像テーブル141の症例の時系列画像が撮影された時刻tの特徴ベクトルxt7とが対応付けられる。クエリの症例が撮影された時刻τの特徴ベクトルyτ5と、画像テーブル141の症例の時系列画像が撮影された時刻tの特徴ベクトルxt9とが対応付けられる。クエリの症例が撮影された時刻τの特徴ベクトルyτ6と、画像テーブル141の症例の時系列画像が撮影された時刻tの特徴ベクトルxt9とが対応付けられる。 FIG. 11 is a diagram illustrating an example of a result of correspondence between times by the DP. FIG. 11 shows a DP calculation result of a feature vector of a query case and a feature vector of a time-series image associated with a certain patient ID in the image table 141. In the example shown in FIG. 11, the DP, the feature vector y .tau.1 time tau 1 which case the query is captured, the time-series images of cases of image table 141 and a feature vector x t3 of time t 3 when taken Correlated. A feature vector y .tau.2 cases of captured time tau 2 queries, time-series images of cases of image table 141 are associated with the feature vector x t6 of time t 6, which is photographed. Query feature vector y .tau.3 cases of by time tau 3 shooting, time-series images of cases of image table 141 are associated with the feature vector x t6 of time t 6, which is photographed. The feature vector y τ4 at the time τ 4 at which the query case was captured is associated with the feature vector x t7 at the time t 7 at which the time-series image of the case in the image table 141 was captured. A feature vector y .tau.5 time tau 5 which cases the query is captured, the time-series images of cases of image table 141 are associated with the feature vector x t9 of time t 9, which is photographed. The feature vector y τ6 at the time τ 6 at which the query case was captured is associated with the feature vector x t9 at the time t 9 at which the time-series image of the case in the image table 141 was captured.

また、補間した時刻τ11の特徴ベクトルyτ11と、画像テーブル141の症例の時系列画像が撮影された時刻tの特徴ベクトルxt4とが対応付けられる。補間した時刻τ12の特徴ベクトルyτ12と、画像テーブル141の症例の時系列画像が撮影された時刻tの特徴ベクトルxt5とが対応付けられる。補間した時刻τ41の特徴ベクトルyτ41と、画像テーブル141の症例の時系列画像が撮影された時刻tの特徴ベクトルxt8とが対応付けられる。 Further, the interpolated feature vector y τ11 at time τ 11 is associated with the feature vector x t4 at time t 4 at which the time-series image of the case in the image table 141 was captured. A feature vector y Tau12 of interpolated time tau 12, time-series images of cases of image table 141 are associated with the feature vector x t5 of time t 5 that is photographed. A feature vector y Tau41 of interpolated time tau 41, time-series images of cases of image table 141 are associated with the feature vector x t8 of the captured time t 8 is.

判断部153は、他の患者IDに紐付く時系列画像の特徴ベクトルについても、同様に上記処理を繰り返し実行する。判断部153は、患者ID毎の特徴ベクトルに関する距離Dの累積値を基にして、類似度を判断する。例えば、判断部153は、累積値が小さいほど、類似度が高いと判断する。   The determination unit 153 repeatedly executes the above-described processing similarly for the feature vector of the time-series image associated with another patient ID. The determination unit 153 determines the similarity based on the accumulated value of the distance D regarding the feature vector for each patient ID. For example, the determining unit 153 determines that the smaller the cumulative value is, the higher the similarity is.

例えば、判断部153は、クエリの症例の特徴ベクトルと、画像テーブル141のある患者IDに紐付く時系列画像の特徴ベクトルとの類似度とを基にして、類似度が大きい上位N個の時系列画像を、表示部130に表示させる。   For example, based on the similarity between the feature vector of the query case and the feature vector of the time-series image associated with a certain patient ID in the image table 141, the determination unit 153 determines the top N most similarities. The sequence image is displayed on the display unit 130.

次に、本実施例に係る画像処理装置100の処理手順について説明する。図12は、本実施例に係る画像処理装置の処理手順を示すフローチャートである。図12に示すように、画像処理装置100の特定部151は、クエリの症例に対応する患者IDを受け付ける(ステップS101)。特定部151は、クエリの症例に対する特徴ベクトルを抽出する(ステップS102)。特定部151は、クエリの症例に類似する時系列画像群の特徴ベクトルを抽出する(ステップS103)。   Next, a processing procedure of the image processing apparatus 100 according to the present embodiment will be described. FIG. 12 is a flowchart illustrating the processing procedure of the image processing apparatus according to the present embodiment. As illustrated in FIG. 12, the specifying unit 151 of the image processing apparatus 100 receives a patient ID corresponding to a query case (Step S101). The specifying unit 151 extracts a feature vector for the query case (step S102). The specifying unit 151 extracts a feature vector of a time-series image group similar to the query case (step S103).

画像処理装置100の生成部152は、クエリの症例に類似する時系列の特徴ベクトル群に対し、カーネル主成分分析を実行することで、固有ベクトルを算出する(ステップS104)。画像処理装置100の判断部153は、クエリの症例と、画像テーブル141の症例との類似度を計算する(ステップS105)。判断部153は、類似する症例を出力する(ステップS106)。   The generation unit 152 of the image processing apparatus 100 calculates an eigenvector by performing kernel principal component analysis on a time-series feature vector group similar to the query case (step S104). The determination unit 153 of the image processing apparatus 100 calculates the similarity between the case of the query and the case of the image table 141 (Step S105). The determination unit 153 outputs a similar case (Step S106).

次に、本実施例に係る画像処理装置100の効果について説明する。画像処理装置100は、クエリの症例の時系列画像と類似する時系列画像群を抽出し、抽出した時系列画像群の特徴ベクトルに対してカーネル主成分分析を行い、その結果得られる固有ベクトルによって張られる線形空間上において、クエリの症例の画像を補間し、クエリの症例の時系列画像と、他の時系列画像との類似度を求める。このため、クエリの症例の時系列画像の撮影時刻と、他の時系列画像の撮影時刻との違いを吸収して、クエリの症例の時系列画像に類似する時系列画像を精度良く特定することができる。   Next, effects of the image processing apparatus 100 according to the present embodiment will be described. The image processing device 100 extracts a time-series image group similar to the time-series image of the case of the query, performs kernel principal component analysis on the feature vector of the extracted time-series image group, and dilates with the eigenvector obtained as a result. In the obtained linear space, the image of the query case is interpolated, and the similarity between the time series image of the query case and another time series image is obtained. For this reason, it is necessary to absorb the difference between the photographing time of the time series image of the query case and the photographing time of the other time series images, and to accurately specify the time series image similar to the time series image of the query case. Can be.

患者によって、病変部分を撮影する時刻の間隔はまちまちであるため、1症例についての時系列画像は、各画像間の撮影時刻の間隔が異なり、病変の変化の類似性を判断することが難しい。しかしながら、上記のように、類似した時系列画像群を利用して、撮影時刻の間隔の違いを補間するため、クエリの症例と他の症例との類似度合いを判断できる。   Since the time interval for imaging the lesion portion varies depending on the patient, the time-series images of one case have different imaging time intervals between the images, and it is difficult to determine the similarity of the change in the lesion. However, as described above, since the difference in shooting time interval is interpolated using a similar time-series image group, the degree of similarity between the query case and another case can be determined.

例えば、患者の腫瘍部分に関する時系列画像の集合が画像テーブル141として与えられたもとで、クエリの症例の時系列画像が与えられたとき、その撮影時期によらず画像テーブル141に蓄積されている時系列画像との類似度を精度よく算出することができる。特に、病変部分の進行が非線形に推移している場合であっても、その非線形構造を推定して照合するため、高精度に照合できる。   For example, when a set of time-series images related to a tumor part of a patient is given as an image table 141, when a time-series image of a query case is given, when the image is stored in the image table 141 regardless of the imaging time. The degree of similarity with the series image can be calculated with high accuracy. In particular, even when the progression of the lesion portion changes nonlinearly, the non-linear structure is estimated and collated, so that the collation can be performed with high accuracy.

画像処理装置100は、クエリの症例に類似する時系列の特徴ベクトル群をカーネル主成分分析に基づいて線形空間上に写像することで、時系列特徴ベクトル群のなす非線形構造を線形空間として捉える。これにより、カーネル主成分分析に基づく線形空間を基にして、クエリの症例に対する近似曲線を推定することが可能になるため、実際の特徴ベクトルとの乖離の発生を抑止することができる。   The image processing apparatus 100 captures a nonlinear structure formed by the time-series feature vector group as a linear space by mapping a time-series feature vector group similar to the query case onto a linear space based on kernel principal component analysis. This makes it possible to estimate an approximate curve for a query case based on a linear space based on kernel principal component analysis, thereby suppressing the occurrence of a deviation from an actual feature vector.

画像処理装置100は、線形空間上に写像した、画像テーブル141の症例の時系列画像に関する特徴ベクトルと、クエリの症例の特徴ベクトルとの距離を基にして、類似度を特定する。このため、クエリの症例と他の症例との類似度を精度良く算出することができる。   The image processing device 100 specifies the similarity based on the distance between the feature vector relating to the time-series image of the case in the image table 141 mapped on the linear space and the feature vector of the case of the query. Therefore, the similarity between the case of the query and another case can be calculated with high accuracy.

ところで、上述した実施例では、画像処理装置100に、記憶部140、特定部151、生成部152、判断部153が含まれる例について説明したが、これに限定されるものではない。例えば、記憶部140を有する第1サーバ、特定部151を有する第2サーバ、生成部152を有する第3サーバ、判断部153を有する第4サーバをネットワーク上に配置して画像処理システムとしてもよい。画像処理システムに含まれる各第1〜第4サーバは、相互にデータ通信を実行して、画像処理装置100と同様の処理を実行する。   By the way, in the above-described embodiment, an example in which the image processing apparatus 100 includes the storage unit 140, the specifying unit 151, the generation unit 152, and the determination unit 153 has been described. However, the present invention is not limited to this. For example, a first server having the storage unit 140, a second server having the identification unit 151, a third server having the generation unit 152, and a fourth server having the determination unit 153 may be arranged on a network to form an image processing system. . Each of the first to fourth servers included in the image processing system performs data communication with each other, and performs the same processing as that of the image processing apparatus 100.

次に、上記実施例に示した画像処理装置100と同様の機能を実現する画像処理プログラムを実行するコンピュータの一例について説明する。図13は、画像処理プログラムを実行するコンピュータの一例を示す図である。   Next, an example of a computer that executes an image processing program that realizes the same functions as the image processing apparatus 100 described in the above embodiment will be described. FIG. 13 is a diagram illustrating an example of a computer that executes an image processing program.

図13に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、ディスプレイ203とを有する。また、コンピュータ200は、記憶媒体からプログラム等を読み取る読み取り装置204と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインターフェース装置205とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM206と、ハードディスク装置207とを有する。そして、各装置201〜207は、バス208に接続される。   As illustrated in FIG. 13, the computer 200 includes a CPU 201 that executes various types of arithmetic processing, an input device 202 that receives input of data from a user, and a display 203. In addition, the computer 200 includes a reading device 204 that reads a program or the like from a storage medium, and an interface device 205 that exchanges data with another computer via a network. Further, the computer 200 has a RAM 206 for temporarily storing various information, and a hard disk device 207. Each of the devices 201 to 207 is connected to the bus 208.

ハードディスク装置207は、特定プログラム207a、生成プログラム207b、判断プログラム207cを有する。CPU201は、特定プログラム207a、生成プログラム207b、判断プログラム207cを読み出してRAM206に展開する。   The hard disk device 207 has a specific program 207a, a generation program 207b, and a determination program 207c. The CPU 201 reads out the specific program 207a, the generation program 207b, and the determination program 207c and expands them on the RAM 206.

特定プログラム207aは、特定プロセス206aとして機能する。生成プログラム207bは、生成プロセス206bとして機能する。判断プログラム207cは、判断プロセス206cとして機能する。   The specific program 207a functions as the specific process 206a. The generation program 207b functions as the generation process 206b. The judgment program 207c functions as a judgment process 206c.

特定プロセス206aの処理は、特定部151の処理に対応する。生成プロセス206bの処理は生成部152の処理に対応する。判断プロセス206cの処理は、判断部153の処理に対応する。   The processing of the specifying process 206a corresponds to the processing of the specifying unit 151. The processing of the generation process 206b corresponds to the processing of the generation unit 152. The processing of the determination process 206c corresponds to the processing of the determination unit 153.

なお、特定プログラム207a、生成プログラム207b、判断プログラム207cについては、必ずしも最初からハードディスク装置207に記憶させておかなくても良い。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ200が各プログラム207a〜207cを読み出して実行するようにしてもよい。   Note that the specific program 207a, the generation program 207b, and the determination program 207c need not always be stored in the hard disk device 207 from the beginning. For example, each program is stored in a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, or an IC card inserted into the computer 200. Then, the computer 200 may read out and execute each of the programs 207a to 207c.

以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。   Regarding the embodiment including each of the above examples, the following supplementary notes are further disclosed.

(付記1)各患者につき時間をおいて複数回撮影されることで取得された、複数種類の特徴量で表現されうる個々の症例画像セットを含む症例画像セット群の間で、検索対象とする検索対象画像セットと類似する画像セットを検索する際に、検索対象画像セットの中の第1の時刻に撮影された第一画像と、前記第1の時刻とは異なる第2の時刻に撮影された第二画像との組について、前記症例画像セット群の中で、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量を持つ画像の組を含むセットを1以上特定する特定部と、
特定した1以上のセットに含まれる、前記第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、前記第一画像と前記第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成する生成部と、
生成した補間画像に対応する特徴量を用いて、前記検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する判断部と
を有することを特徴とする画像処理システム。
(Supplementary Note 1) Search results among case image set groups including individual case image sets that can be expressed by a plurality of types of feature amounts, which are obtained by taking a plurality of images of each patient with a time interval. When searching for an image set similar to the search target image set, a first image shot at a first time in the search target image set is shot at a second time different from the first time. A set including an image set having a feature amount similar to the set of the feature amount of the first image and the feature amount of the second image in the case image set group. A specifying unit for specifying one or more of
The photographing time of a first similar image having a feature amount similar to the feature amount of the first image included in one or more specified sets, and a second similarity having a feature amount similar to the feature amount of the second image. An interpolated image corresponding to an image captured at a time between the first image and the second image is provided by using a feature amount of one or more images captured at a time between the image capturing times. A generation unit that generates one or more feature values estimated that
An image processing system comprising: a determination unit configured to determine a degree of similarity between the search target image set and one or more sets in a case image set group using a feature amount corresponding to the generated interpolation image.

(付記2)前記生成部は、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量に対して、カーネル主成分分析を実行することで、前記類似する特徴量を線形空間に写像し、前記線形空間上の前記類似する特徴量を基にして、前記補間画像が有することが推定される特徴量を1以上生成することを特徴とする付記1に記載の画像処理システム。 (Supplementary Note 2) The generation unit performs kernel principal component analysis on a feature amount similar to a set of a feature amount of the first image and a feature amount of the second image, thereby performing the similarity. The feature amount is mapped to a linear space, and one or more feature amounts estimated to be included in the interpolated image are generated based on the similar feature amounts in the linear space. Image processing system.

(付記3)前記判断部は、前記線形空間上の前記類似する特徴量と前記線形空間上の第一画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記第二画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離に基づいて、前記類似度合を判断することを特徴とする付記2に記載の画像処理システム。 (Supplementary Note 3) The determining unit is configured to determine a distance between the similar feature amount in the linear space and a feature amount of the first image in the linear space, and the similar feature amount in the linear space and the second image. 3. The image processing system according to claim 2, wherein the similarity is determined based on a distance from the characteristic amount of the linear image and a distance between the similar characteristic amount on the linear space and the characteristic amount of the interpolation image. .

(付記4)前記検索対象画像セットについて、前記補間画像に対応する時刻の前後に撮影された第三画像と第四画像とが存在し、前記補間画像に対応する時刻が、前記第三画像の撮影時刻と、前記第四画像の撮影時刻とをm対nに内分する点に位置する時刻である場合に、前記判断部は、前記第三画像の特徴量のベクトルにnを乗算した値と、前記第四画像の特徴量のベクトルにmを乗算した値とを加算したベクトルから、前記類似する特徴量のベクトルを減算することで、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離を算出することを特徴とする付記2または3に記載の画像処理システム。 (Supplementary Note 4) For the search target image set, there are a third image and a fourth image photographed before and after the time corresponding to the interpolation image, and the time corresponding to the interpolation image is the time of the third image. When it is a time located at a point that internally divides the shooting time and the shooting time of the fourth image into m: n, the determining unit calculates a value obtained by multiplying the feature amount vector of the third image by n. And a vector obtained by adding a value obtained by multiplying the vector of the feature amount of the fourth image by m to the vector of the similar feature amount to obtain the similar feature amount on the linear space and the interpolation. 4. The image processing system according to claim 2, wherein a distance between the image and the feature amount is calculated.

(付記5)コンピュータが実行する画像処理方法であって、
各患者につき時間をおいて複数回撮影されることで取得された、複数種類の特徴量で表現されうる個々の症例画像セットを含む症例画像セット群の間で、検索対象とする検索対象画像セットと類似する画像セットを検索する際に、検索対象画像セットの中の第1の時刻に撮影された第一画像と、前記第1の時刻とは異なる第2の時刻に撮影された第二画像との組について、前記症例画像セット群の中で、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量を持つ画像の組を含むセットを1以上特定し、
特定した1以上のセットに含まれる、前記第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、前記第一画像と前記第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成し、
生成した補間画像に対応する特徴量を用いて、前記検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する
処理を実行することを特徴とする画像処理方法。
(Supplementary Note 5) An image processing method executed by a computer,
A search target image set to be searched among case image set groups including individual case image sets that can be expressed by a plurality of types of feature amounts obtained by capturing a plurality of times at a time for each patient. When searching for an image set similar to the first image, a first image shot at a first time in the search target image set and a second image shot at a second time different from the first time In the case image set group, at least one set including an image set having a feature amount similar to the set of the feature amount of the first image and the feature amount of the second image is specified. And
The photographing time of a first similar image having a feature amount similar to the feature amount of the first image included in one or more specified sets, and a second similarity having a feature amount similar to the feature amount of the second image. An interpolated image corresponding to an image captured at a time between the first image and the second image is provided by using a feature amount of one or more images captured at a time between the image capturing times. Generate one or more features that are estimated to be
An image processing method comprising: performing a process of determining a degree of similarity between the search target image set and one or more sets in a case image set group using a feature amount corresponding to the generated interpolation image.

(付記6)前記生成する処理は、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量に対して、カーネル主成分分析を実行することで、前記類似する特徴量を線形空間に写像し、前記線形空間上の前記類似する特徴量を基にして、前記補間画像が有することが推定される特徴量を1以上生成することを特徴とする付記5に記載の画像処理方法。 (Supplementary Note 6) The generating process performs the kernel principal component analysis on a feature amount similar to a set of a feature amount of the first image and a feature amount of the second image, thereby performing the similarity analysis. Appending to the linear space, generating one or more characteristic amounts estimated to have the interpolated image based on the similar characteristic amounts in the linear space. The image processing method described in the above.

(付記7)前記類似度合いを判断する処理は、前記線形空間上の前記類似する特徴量と前記線形空間上の第一画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記第二画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離に基づいて、前記類似度合を判断することを特徴とする付記6に記載の画像処理方法。 (Supplementary Note 7) The process of determining the degree of similarity includes the step of: determining a distance between the similar feature amount in the linear space and a feature amount of the first image in the linear space; The method according to claim 6, wherein the similarity is determined based on a distance between the feature amount of the second image and a distance between the similar feature amount in the linear space and the feature amount of the interpolation image. Image processing method.

(付記8)前記検索対象画像セットについて、前記補間画像に対応する時刻の前後に撮影された第三画像と第四画像とが存在し、前記補間画像に対応する時刻が、前記第三画像の撮影時刻と、前記第四画像の撮影時刻とをm対nに内分する点に位置する時刻である場合に、前記類似度合いを判断する処理は、前記第三画像の特徴量のベクトルにnを乗算した値と、前記第四画像の特徴量のベクトルにmを乗算した値とを加算したベクトルから、前記類似する特徴量のベクトルを減算することで、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離を算出することを特徴とする付記6または7に記載の画像処理方法。 (Supplementary Note 8) Regarding the search target image set, there are a third image and a fourth image photographed before and after the time corresponding to the interpolation image, and the time corresponding to the interpolation image is the time of the third image. If it is a time located at a point that internally divides the shooting time and the shooting time of the fourth image into m: n, the process of determining the degree of similarity includes: Is subtracted from a vector obtained by adding a value obtained by multiplying the vector obtained by multiplying the vector of the feature amount of the fourth image by m to obtain the similar feature on the linear space. 8. The image processing method according to claim 6, wherein a distance between the amount and a feature amount of the interpolation image is calculated.

(付記9)コンピュータが実行する画像処理プログラムであって、
各患者につき時間をおいて複数回撮影されることで取得された、複数種類の特徴量で表現されうる個々の症例画像セットを含む症例画像セット群の間で、検索対象とする検索対象画像セットと類似する画像セットを検索する際に、検索対象画像セットの中の第1の時刻に撮影された第一画像と、前記第1の時刻とは異なる第2の時刻に撮影された第二画像との組について、前記症例画像セット群の中で、前記第一画像の特徴量と前記第二画像の特徴量との組とにそれぞれ類似する特徴量を持つ画像の組を含むセットを1以上特定し、
特定した1以上のセットに含まれる、前記第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、前記第一画像と前記第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成し、
生成した補間画像に対応する特徴量を用いて、前記検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する
処理を実行することを特徴とする画像処理プログラム。
(Supplementary Note 9) An image processing program executed by a computer,
A search target image set to be searched among case image set groups including individual case image sets that can be expressed by a plurality of types of feature amounts obtained by capturing a plurality of times at a time for each patient. When searching for an image set similar to the first image, a first image shot at a first time in the search target image set and a second image shot at a second time different from the first time In the case image set group, at least one set including an image set having a feature amount similar to the set of the feature amount of the first image and the set of the feature amount of the second image is included in the case image set group. Identify
The photographing time of a first similar image having a feature amount similar to the feature amount of the first image included in one or more specified sets, and a second similarity having a feature amount similar to the feature amount of the second image. An interpolated image corresponding to an image captured at a time between the first image and the second image is provided by using a feature amount of one or more images captured at a time between the image capturing times. Generate one or more features that are estimated to be
An image processing program for executing a process of determining a degree of similarity between the search target image set and one or more sets in a case image set group using a feature amount corresponding to the generated interpolation image.

(付記10)前記生成する処理は、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量に対して、カーネル主成分分析を実行することで、前記類似する特徴量を線形空間に写像し、前記線形空間上の前記類似する特徴量を基にして、前記補間画像が有することが推定される特徴量を1以上生成することを特徴とする付記9に記載の画像処理プログラム。 (Supplementary Note 10) The generating process includes performing a kernel principal component analysis on a feature amount similar to a set of a feature amount of the first image and a feature amount of the second image, thereby obtaining the similarity. Appending 9 to the linear space, and generating one or more characteristic amounts estimated to be included in the interpolated image based on the similar characteristic amounts in the linear space. Image processing program as described.

(付記11)前記類似度合いを判断する処理は、前記線形空間上の前記類似する特徴量と前記線形空間上の第一画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記第二画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離に基づいて、前記類似度合を判断することを特徴とする付記10に記載の画像処理プログラム。 (Supplementary Note 11) The process of determining the degree of similarity includes the step of: determining a distance between the similar feature amount in the linear space and a feature amount of the first image in the linear space; The method according to claim 10, wherein the similarity is determined based on a distance from the feature amount of the second image and a distance between the similar feature amount in the linear space and the feature amount of the interpolation image. Image processing program.

(付記12)前記検索対象画像セットについて、前記補間画像に対応する時刻の前後に撮影された第三画像と第四画像とが存在し、前記補間画像に対応する時刻が、前記第三画像の撮影時刻と、前記第四画像の撮影時刻とをm対nに内分する点に位置する時刻である場合に、前記類似度合いを判断する処理は、前記第三画像の特徴量のベクトルにnを乗算した値と、前記第四画像の特徴量のベクトルにmを乗算した値とを加算したベクトルから、前記類似する特徴量のベクトルを減算することで、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離を算出することを特徴とする付記10または11に記載の画像処理プログラム。 (Supplementary Note 12) Regarding the search target image set, there are a third image and a fourth image photographed before and after the time corresponding to the interpolation image, and the time corresponding to the interpolation image is the time of the third image. If it is a time located at a point that internally divides the shooting time and the shooting time of the fourth image into m: n, the process of determining the degree of similarity includes: Is subtracted from a vector obtained by adding a value obtained by multiplying the vector obtained by multiplying the vector of the feature amount of the fourth image by m to obtain the similar feature on the linear space. 12. The image processing program according to claim 10, wherein a distance between the amount and a feature amount of the interpolation image is calculated.

100 画像処理装置
140 記憶部
141 画像テーブル
150 制御部
151 特定部
152 生成部
153 判断部
REFERENCE SIGNS LIST 100 image processing device 140 storage unit 141 image table 150 control unit 151 specifying unit 152 generation unit 153 determination unit

Claims (6)

各患者につき時間をおいて複数回撮影されることで取得された、複数種類の特徴量で表現されうる個々の症例画像セットを含む症例画像セット群の間で、検索対象とする検索対象画像セットと類似する画像セットを検索する際に、検索対象画像セットの中の第1の時刻に撮影された第一画像と、前記第1の時刻とは異なる第2の時刻に撮影された第二画像との組について、前記症例画像セット群の中で、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量を持つ画像の組を含むセットを1以上特定する特定部と、
特定した1以上のセットに含まれる、前記第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、前記第一画像と前記第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成する生成部と、
生成した補間画像に対応する特徴量を用いて、前記検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する判断部と
を有することを特徴とする画像処理システム。
A search target image set to be searched among case image set groups including individual case image sets that can be expressed by a plurality of types of feature amounts obtained by capturing a plurality of times at a time for each patient. When searching for an image set similar to the first image, a first image shot at a first time in the search target image set and a second image shot at a second time different from the first time In the case image set group, at least one set including an image set having a feature amount similar to the set of the feature amount of the first image and the feature amount of the second image is specified. A specific part to be
The photographing time of a first similar image having a feature amount similar to the feature amount of the first image included in one or more specified sets, and a second similarity having a feature amount similar to the feature amount of the second image. An interpolated image corresponding to an image captured at a time between the first image and the second image is provided by using a feature amount of one or more images captured at a time between the image capturing times. A generation unit that generates one or more feature values estimated that
An image processing system comprising: a determination unit configured to determine a degree of similarity between the search target image set and one or more sets in a case image set group using a feature amount corresponding to the generated interpolation image.
前記生成部は、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量に対して、カーネル主成分分析を実行することで、前記類似する特徴量を線形空間に写像し、前記線形空間上の前記類似する特徴量を基にして、前記補間画像が有することが推定される特徴量を1以上生成することを特徴とする請求項1に記載の画像処理システム。   The generator performs a kernel principal component analysis on a feature amount similar to a set of the feature amount of the first image and the feature amount of the second image, thereby linearizing the similar feature amount. The image processing according to claim 1, wherein one or more features that are estimated to be included in the interpolated image are generated based on the similar features in the linear space by mapping to the space. system. 前記判断部は、前記線形空間上の前記類似する特徴量と前記線形空間上の第一画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記第二画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離に基づいて、前記類似度合を判断することを特徴とする請求項2に記載の画像処理システム。   The distance between the similar feature amount on the linear space and the feature amount of the first image on the linear space, the similar feature amount on the linear space and the feature amount of the second image. 3. The image processing system according to claim 2, wherein the similarity is determined based on a distance between the similar feature on the linear space and a feature of the interpolated image. 4. 前記検索対象画像セットについて、前記補間画像に対応する時刻の前後に撮影された第三画像と第四画像とが存在し、前記補間画像に対応する時刻が、前記第三画像の撮影時刻と、前記第四画像の撮影時刻とをm対nに内分する点に位置する時刻である場合に、前記判断部は、前記第三画像の特徴量のベクトルにnを乗算した値と、前記第四画像の特徴量のベクトルにmを乗算した値とを加算したベクトルから、前記類似する特徴量のベクトルを減算することで、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離を算出することを特徴とする請求項2または3に記載の画像処理システム。   For the search target image set, there is a third image and a fourth image photographed before and after the time corresponding to the interpolation image, and the time corresponding to the interpolation image is the photographing time of the third image, If the time is a point located at a point that internally divides the shooting time of the fourth image into m: n, the determination unit may calculate a value obtained by multiplying a vector of the feature amount of the third image by n, By subtracting the similar feature vector from the vector obtained by adding the value obtained by multiplying the feature vector of the four images by m, the similar feature in the linear space and the feature of the interpolated image are subtracted. The image processing system according to claim 2, wherein a distance from the image processing apparatus is calculated. コンピュータが実行する画像処理方法であって、
各患者につき時間をおいて複数回撮影されることで取得された、複数種類の特徴量で表現されうる個々の症例画像セットを含む症例画像セット群の間で、検索対象とする検索対象画像セットと類似する画像セットを検索する際に、検索対象画像セットの中の第1の時刻に撮影された第一画像と、前記第1の時刻とは異なる第2の時刻に撮影された第二画像との組について、前記症例画像セット群の中で、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量を持つ画像の組を含むセットを1以上特定し、
特定した1以上のセットに含まれる、前記第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、前記第一画像と前記第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成し、
生成した補間画像に対応する特徴量を用いて、前記検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する
処理を実行することを特徴とする画像処理方法。
An image processing method executed by a computer,
A search target image set to be searched among case image set groups including individual case image sets that can be expressed by a plurality of types of feature amounts obtained by capturing a plurality of times at a time for each patient. When searching for an image set similar to the first image, a first image shot at a first time in the search target image set and a second image shot at a second time different from the first time In the case image set group, at least one set including an image set having a feature amount similar to the set of the feature amount of the first image and the feature amount of the second image is specified. And
The photographing time of a first similar image having a feature amount similar to the feature amount of the first image included in one or more specified sets, and a second similarity having a feature amount similar to the feature amount of the second image. An interpolated image corresponding to an image captured at a time between the first image and the second image is provided by using a feature amount of one or more images captured at a time between the image capturing times. Generate one or more features that are estimated to be
An image processing method comprising: performing a process of determining a degree of similarity between the search target image set and one or more sets in a case image set group using a feature amount corresponding to the generated interpolation image.
コンピュータが実行する画像処理プログラムであって、
各患者につき時間をおいて複数回撮影されることで取得された、複数種類の特徴量で表現されうる個々の症例画像セットを含む症例画像セット群の間で、検索対象とする検索対象画像セットと類似する画像セットを検索する際に、検索対象画像セットの中の第1の時刻に撮影された第一画像と、前記第1の時刻とは異なる第2の時刻に撮影された第二画像との組について、前記症例画像セット群の中で、前記第一画像の特徴量と前記第二画像の特徴量との組とにそれぞれ類似する特徴量を持つ画像の組を含むセットを1以上特定し、
特定した1以上のセットに含まれる、前記第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、前記第一画像と前記第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成し、
生成した補間画像に対応する特徴量を用いて、前記検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する
処理を実行することを特徴とする画像処理プログラム。
An image processing program executed by a computer,
A search target image set to be searched among case image set groups including individual case image sets that can be expressed by a plurality of types of feature amounts obtained by capturing a plurality of times at a time for each patient. When searching for an image set similar to the first image, a first image shot at a first time in the search target image set and a second image shot at a second time different from the first time In the case image set group, at least one set including an image set having a feature amount similar to the set of the feature amount of the first image and the set of the feature amount of the second image is included in the case image set group. Identify
The photographing time of a first similar image having a feature amount similar to the feature amount of the first image included in one or more specified sets, and a second similarity having a feature amount similar to the feature amount of the second image. An interpolated image corresponding to an image captured at a time between the first image and the second image is provided by using a feature amount of one or more images captured at a time between the image capturing times. Generate one or more features that are estimated to be
An image processing program for executing a process of determining a degree of similarity between the search target image set and one or more sets in a case image set group using a feature amount corresponding to the generated interpolation image.
JP2016044942A 2016-03-08 2016-03-08 Image processing system, image processing method, and image processing program Expired - Fee Related JP6642132B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016044942A JP6642132B2 (en) 2016-03-08 2016-03-08 Image processing system, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016044942A JP6642132B2 (en) 2016-03-08 2016-03-08 Image processing system, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2017162124A JP2017162124A (en) 2017-09-14
JP6642132B2 true JP6642132B2 (en) 2020-02-05

Family

ID=59857768

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016044942A Expired - Fee Related JP6642132B2 (en) 2016-03-08 2016-03-08 Image processing system, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP6642132B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7119327B2 (en) * 2017-10-03 2022-08-17 富士通株式会社 Program, information processing method and information processing apparatus
CN114765073A (en) * 2021-01-11 2022-07-19 佳能医疗系统株式会社 Case search device, case search method, and storage medium
CN117382435B (en) * 2023-10-17 2024-05-03 浙江加力仓储设备股份有限公司 Vehicle speed control method and system based on dip angle monitoring

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07234927A (en) * 1994-02-22 1995-09-05 Toshiba Medical Eng Co Ltd Three-dimensional image display device
JP2004248960A (en) * 2003-02-21 2004-09-09 Hitachi Medical Corp Medical image display device
JP2007287018A (en) * 2006-04-19 2007-11-01 Fujifilm Corp Diagnosis support system
JP5677521B2 (en) * 2013-07-10 2015-02-25 キヤノン株式会社 Information processing apparatus, information processing method, program, and storage medium

Also Published As

Publication number Publication date
JP2017162124A (en) 2017-09-14

Similar Documents

Publication Publication Date Title
US11017210B2 (en) Image processing apparatus and method
JP6635648B2 (en) Medical image processing apparatus, medical image processing method, and classifier training method
JP2018530401A5 (en)
JP5240082B2 (en) Biometric authentication apparatus, authentication accuracy evaluation apparatus, and biometric authentication method
JP6642132B2 (en) Image processing system, image processing method, and image processing program
CN110838104B (en) Multi-time point region of interest matching method, device and storage medium
CN111126339A (en) Gesture recognition method and device, computer equipment and storage medium
KR101977231B1 (en) Community detection method and community detection framework apparatus
US10699156B2 (en) Method and a device for image matching
JP6238755B2 (en) Information processing apparatus, information processing method, and program
JP5866064B2 (en) Image search device, image search method, and recording medium
JP2017189337A (en) Image positioning apparatus and method, and program
JP2015170363A (en) Method of recognition and positioning (registration) of 3d object
US11080173B2 (en) Boundary search test support device and boundary search test support method
CN114372970B (en) Surgical reference information generation method and device
US11127158B2 (en) Image indexing and retrieval using local image patches for object three-dimensional pose estimation
JP7309447B2 (en) MEDICAL IMAGE DIAGNOSTIC APPARATUS, IMAGE PROCESSING APPARATUS, AND ALIGNMENT METHOD
CN110647826B (en) Method and device for acquiring commodity training picture, computer equipment and storage medium
Devi et al. Similarity measurement in recent biased time series databases using different clustering methods
WO2016142990A1 (en) Search program, search method, and search device
JP6242726B2 (en) Biometric information registration method, biometric authentication method, biometric information registration device, biometric authentication device, and program
JP6660741B2 (en) Image extraction device and image extraction method
Chida et al. Enhanced Encoding with Improved Fuzzy Decision Tree Testing Using CASP Templates
Xue et al. Pathology-based vertebral image retrieval
JP7148794B2 (en) LEARNING DATA GENERATION PROGRAM, LEARNING DATA GENERATION DEVICE, AND LEARNING DATA GENERATION METHOD

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191216

R150 Certificate of patent or registration of utility model

Ref document number: 6642132

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees