JP2017162124A - Image processing system, image processing method and image processing program - Google Patents

Image processing system, image processing method and image processing program Download PDF

Info

Publication number
JP2017162124A
JP2017162124A JP2016044942A JP2016044942A JP2017162124A JP 2017162124 A JP2017162124 A JP 2017162124A JP 2016044942 A JP2016044942 A JP 2016044942A JP 2016044942 A JP2016044942 A JP 2016044942A JP 2017162124 A JP2017162124 A JP 2017162124A
Authority
JP
Japan
Prior art keywords
image
feature amount
time
similar
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016044942A
Other languages
Japanese (ja)
Other versions
JP6642132B2 (en
Inventor
武部 浩明
Hiroaki Takebe
浩明 武部
正樹 石原
Masaki Ishihara
正樹 石原
昌彦 杉村
Masahiko Sugimura
昌彦 杉村
遠藤 進
Susumu Endo
進 遠藤
馬場 孝之
Takayuki Baba
孝之 馬場
上原 祐介
Yusuke Uehara
祐介 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016044942A priority Critical patent/JP6642132B2/en
Publication of JP2017162124A publication Critical patent/JP2017162124A/en
Application granted granted Critical
Publication of JP6642132B2 publication Critical patent/JP6642132B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately calculate similarity between a case of a query and other case.SOLUTION: When an image set similar to a search object image set which is a search object, is searched in a case image set group acquired by photographing by multi times, with a time interval for each patient, an image processing device 100 performs following processing of: identification of one or more sets including a set of images having a feature amount similar to a set of a feature amount of the first image and a feature amount of the second image, in a case image set group, for the set of the first image which is photographed at a first time and a second image photographed at a second time different from the first time, in the search object image set; and determination of similarity between the search object image set and one or more sets in the case image set group, using a feature amount of one or more images photographed at a time between a photographing time of a first similar image similar to the feature amount of the first image, and a photographing time of a second similar image similar to the feature amount of the second image, included in the identified one or more sets.SELECTED DRAWING: Figure 12

Description

本発明は、画像処理システム等に関する。   The present invention relates to an image processing system and the like.

現在の医療分野では、同一の患者について異なる時期に撮影された疾病部位に関する画像を比較し、比較した画像の差異から患者の病状を診断することが行われている。患者の疾病部位に関する画像を比較して診断することを、比較読影と呼ぶ。   In the current medical field, images of a diseased part taken at different times for the same patient are compared, and the patient's medical condition is diagnosed from the difference in the compared images. Diagnosis by comparing images related to a diseased part of a patient is called comparative interpretation.

比較読影の業務では、診断中の症例に対し、過去の類似症例を検索し検索結果を参照する類似症例検索が行われている。例えば、過去症例のデータベースから病変の画像特徴が類似した過去症例を検索し、表示する。これらの業務に関する従来技術としては、例えば、従来技術1がある。   In the task of comparative interpretation, a similar case search is performed for a case being diagnosed by searching for a similar case in the past and referring to the search result. For example, past cases with similar image characteristics of lesions are retrieved from the past case database and displayed. As a prior art regarding these operations, there is, for example, the prior art 1.

特開2004−5364号公報JP 2004-5364 A

しかしながら、上述した従来技術では、クエリの症例と他の症例との類似度を精度良く算出することができないという問題がある。   However, the above-described conventional technique has a problem that the similarity between the query case and other cases cannot be calculated with high accuracy.

図14は、問題を説明するための図である。例えば、疾病部位に関する画像である症例画像が、一人の患者の1つの疾病部位について複数のタイミングで撮影されて取得されたとする。例えば、CT画像やMRI画像は1つの疾病部位につき、1回のタイミングで複数枚の画像が採取される場合が多いので、図14においては各画像が複数枚重なった様子をイメージとして表している。その結果、一人の患者について、複数のタイミングでそれぞれ撮影された画像のセットが形成されることになる。図14では、例えば、囲み線21は、5回のタイミングでそれぞれ撮影された症例画像セットを示す。同様に、他の患者もしくは他の疾病部位についても、過去の複数回にわたる撮影結果の時系列画像群である、症例画像セット22,23が蓄積されているとする。各症例画像セット21〜23を称して、症例画像セット群とすると、比較読影を行うためには、今回の診断対象とする患者の疾病部位の変化が、データベース20に格納されている症例画像セット群内のいずれの症例画像セットに類似しているかを特定し、類似している過去事例と比較して、今回の患者の状態がどうであるかを医師が判断することになる。   FIG. 14 is a diagram for explaining the problem. For example, it is assumed that a case image, which is an image related to a diseased part, is acquired by photographing a diseased part of one patient at a plurality of timings. For example, since a plurality of images are often collected at one timing for one diseased part in a CT image or MRI image, FIG. 14 shows a state in which a plurality of images are overlapped as an image. . As a result, a set of images taken for each patient at a plurality of timings is formed. In FIG. 14, for example, a surrounding line 21 indicates a case image set captured at each of five times. Similarly, it is assumed that case image sets 22 and 23 that are time-series image groups of a plurality of past imaging results are accumulated for other patients or other diseased sites. If each case image set 21 to 23 is referred to as a case image set group, a change in the diseased part of the patient to be diagnosed this time is stored in the database 20 in order to perform comparative interpretation. Which case image set in the group is similar is identified, and compared with past cases that are similar to each other, the doctor determines how the patient's current state is.

ここで、各症例画像セット21〜23と検索対象とする検索対象画像セット25、すなわちクエリの症例に含まれる各画像の撮影間隔が同じであれば、比較は容易であろう。しかし一般的には、どのようなタイミングで疾病部位の撮影を行うかは患者によって異なるし、撮影されるタイミング数も異なる。図14の例では、検索対象画像セット25には3回のタイミングで撮影された画像が存在するイメージを示している。そのため、類似性を判断可能とするためには、患者毎の撮影時期の違いを吸収する仕組みが求められる。   Here, if the imaging intervals of the images included in each case image set 21 to 23 and the search target image set 25 to be searched, that is, each image included in the query case, are the same, the comparison will be easy. However, in general, the timing at which a diseased part is imaged differs depending on the patient, and the number of timings for imaging varies. In the example of FIG. 14, the search target image set 25 shows an image in which images taken at three times are present. Therefore, in order to be able to determine the similarity, a mechanism that absorbs the difference in imaging time for each patient is required.

図15は、病変の進行すなわち病変部分の変化の仕方は、非線形であることを説明する図である。各病変画像を特徴空間内における特徴ベクトルとして表現したとして、その特徴ベクトルの軌跡は一般に非線形となる。そのため、線形空間30内における各特徴ベクトル31の軌跡は非線形である。例えば、がんは大きくなればなるほど成長速度が速くなるように、非線形に増大する傾向がある。   FIG. 15 is a diagram for explaining that the progression of the lesion, that is, the method of changing the lesion portion is non-linear. Assuming that each lesion image is expressed as a feature vector in the feature space, the trajectory of the feature vector is generally nonlinear. Therefore, the trajectory of each feature vector 31 in the linear space 30 is non-linear. For example, cancer tends to increase non-linearly so that the larger the cancer, the faster the growth rate.

図16は、問題点を説明するための図である。例えば、時刻t0および時刻t4の特徴ベクトルから、時刻t1〜t3の特徴ベクトルを線形補間により求めると、各特徴ベクトルは、線分32に沿って移動する。しかし、実際の特徴ベクトルは、非線形に曲面33にそって移動するため、線形補間による各特徴ベクトルと実際の各特徴ベクトルとの間に乖離が発生する。   FIG. 16 is a diagram for explaining the problem. For example, when the feature vectors at times t1 to t3 are obtained from the feature vectors at time t0 and time t4 by linear interpolation, each feature vector moves along the line segment 32. However, since the actual feature vector moves nonlinearly along the curved surface 33, a divergence occurs between each feature vector obtained by linear interpolation and each actual feature vector.

なお、腫瘍は多様な形状を取りながら非線形に変化するため、特徴ベクトルが形成する高次元曲面は極めて複雑であり画像の特徴ベクトルに関する軌跡の曲線を学習によって推定することも難しい。   Since the tumor changes nonlinearly while taking various shapes, the high-dimensional curved surface formed by the feature vector is extremely complicated, and it is difficult to estimate the trajectory curve related to the feature vector of the image by learning.

1つの側面では、本発明は、クエリの症例と他の症例との類似度を精度良く算出することができる画像処理システム、画像処理方法および画像処理プログラムを提供することを目的とする。   In one aspect, an object of the present invention is to provide an image processing system, an image processing method, and an image processing program that can accurately calculate the similarity between a query case and another case.

第1の案では、画像処理システムは、特定部と、生成部と、判断部とを有する。特定部は、各患者につき時間をおいて複数回撮影されることで取得された、複数種類の特徴量で表現されうる個々の症例画像セットを含む症例画像セット群の間で、検索対象とする検索対象画像セットと類似する画像セットを検索する際に、検索対象画像セットの中の第1の時刻に撮影された第一画像と、第1の時刻とは異なる第2の時刻に撮影された第二画像との組について、症例画像セット群の中で、第一画像の特徴量と第二画像の特徴量との組にそれぞれ類似する特徴量を持つ画像の組を含むセットを1以上特定する。生成部は、特定した1以上のセットに含まれる、第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、第一画像と第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成する。判断部は、生成した補間画像に対応する特徴量を用いて、検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する。   In the first plan, the image processing system includes a specifying unit, a generation unit, and a determination unit. The specific unit is a search target among case image set groups including individual case image sets that can be expressed by a plurality of types of feature amounts, which are acquired by shooting multiple times for each patient. When searching for an image set similar to the search target image set, the first image shot at the first time in the search target image set and the second image different from the first time For the set with the second image, identify one or more sets in the case image set group that include sets of images each having a feature amount similar to the feature amount of the first image and the feature amount of the second image. To do. The generation unit has a shooting time of a first similar image having a feature amount similar to the feature amount of the first image and a feature amount similar to the feature amount of the second image included in the specified one or more sets. An interpolated image corresponding to an image photographed at a time between the first image and the second image is obtained using a feature amount of one or more images photographed at a time between the photographing times of the second similar images. One or more feature quantities estimated to have are generated. The determination unit determines the degree of similarity between the search target image set and one or more sets in the case image set group using the feature amount corresponding to the generated interpolation image.

クエリの症例と他の症例との類似度を精度良く算出することができる。   The similarity between the query case and other cases can be calculated with high accuracy.

図1は、本実施例に係る画像処理装置の構成を示す機能ブロック図である。FIG. 1 is a functional block diagram illustrating the configuration of the image processing apparatus according to the present embodiment. 図2は、画像テーブルのデータ構造の一例を示す図である。FIG. 2 is a diagram illustrating an example of the data structure of the image table. 図3は、制御部の処理を説明するための図である。FIG. 3 is a diagram for explaining the processing of the control unit. 図4は、クエリの症例に対する特徴ベクトルの抽出を説明するための図である。FIG. 4 is a diagram for explaining feature vector extraction for a query case. 図5は、時系列画像群の抽出を説明するための図である。FIG. 5 is a diagram for explaining extraction of a time-series image group. 図6は、クエリの症例に類似する時系列の特徴ベクトル群の一例を示す図である。FIG. 6 is a diagram illustrating an example of a time-series feature vector group similar to a query case. 図7は、カーネル主成分分析による写像を説明するための図である。FIG. 7 is a diagram for explaining mapping by kernel principal component analysis. 図8は、判断部の処理を説明するための図である。FIG. 8 is a diagram for explaining the processing of the determination unit. 図9は、補間する時刻を決定する処理を説明するための図である。FIG. 9 is a diagram for explaining processing for determining a time for interpolation. 図10は、時刻間の対応表の一例を示す図である。FIG. 10 is a diagram illustrating an example of a correspondence table between times. 図11は、DPによる時刻間の対応結果例を示す図である。FIG. 11 is a diagram illustrating an example of a correspondence result between times by DP. 図12は、本実施例に係る画像処理装置の処理手順を示すフローチャートである。FIG. 12 is a flowchart illustrating the processing procedure of the image processing apparatus according to the present embodiment. 図13は、画像処理プログラムを実行するコンピュータの一例を示す図である。FIG. 13 is a diagram illustrating an example of a computer that executes an image processing program. 図14は、問題点を説明するための図である。FIG. 14 is a diagram for explaining the problem. 図15は、問題点を説明するための図である。FIG. 15 is a diagram for explaining the problem. 図16は、問題点を説明するための図である。FIG. 16 is a diagram for explaining the problem.

以下に、本願の開示する画像処理システム、画像処理方法および画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。   Embodiments of an image processing system, an image processing method, and an image processing program disclosed in the present application will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.

図1は、本実施例に係る画像処理装置の構成を示す機能ブロック図である。図1に示すように、この画像処理装置100は、通信部110と、入力部120と、表示部130と、記憶部140と、制御部150とを有する。   FIG. 1 is a functional block diagram illustrating the configuration of the image processing apparatus according to the present embodiment. As illustrated in FIG. 1, the image processing apparatus 100 includes a communication unit 110, an input unit 120, a display unit 130, a storage unit 140, and a control unit 150.

通信部110は、ネットワーク等を介して他の装置とデータ通信を実行する処理部である。例えば、通信部110は、通信装置に対応する。   The communication unit 110 is a processing unit that performs data communication with other devices via a network or the like. For example, the communication unit 110 corresponds to a communication device.

入力部120は、各種の情報を画像処理装置100に入力する入力装置である。例えば、入力部120は、キーボードやマウス、タッチパネル等に対応する。利用者は、入力部120を操作して、クエリの症例等を選択する。   The input unit 120 is an input device that inputs various types of information to the image processing apparatus 100. For example, the input unit 120 corresponds to a keyboard, a mouse, a touch panel, or the like. The user operates the input unit 120 to select a query case or the like.

表示部130は、制御部150の処理結果を表示する表示装置である。表示部130は、液晶ディスプレイや、タッチパネル等に対応する。例えば、表示部130は、制御部150によって検索された、クエリの症例に類似する他の症例の画像を表示する。   The display unit 130 is a display device that displays the processing result of the control unit 150. The display unit 130 corresponds to a liquid crystal display, a touch panel, or the like. For example, the display unit 130 displays images of other cases similar to the query case searched for by the control unit 150.

記憶部140は、画像テーブル141を有する。記憶部140は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。   The storage unit 140 has an image table 141. The storage unit 140 corresponds to a semiconductor memory element such as a random access memory (RAM), a read only memory (ROM), and a flash memory, and a storage device such as a hard disk drive (HDD).

画像テーブル141は、各種の症例に関する時系列画像の情報を格納するテーブルである。図2は、画像テーブルのデータ構造の一例を示す図である。図2に示すように画像テーブル141は、症例数が記録されており、症例数の分だけ、患者ID(Identification)と、撮影時刻数と、データポインタとがセットになった情報が順番に記録されている。データポインタの先には、撮影時刻数の分だけ、撮影時刻、画像データ、腫瘍位置情報、特徴ベクトルがセットになった情報が順番に記録される。   The image table 141 is a table that stores information on time-series images regarding various cases. FIG. 2 is a diagram illustrating an example of the data structure of the image table. As shown in FIG. 2, the number of cases is recorded in the image table 141, and information in which a patient ID (Identification), the number of imaging times, and a data pointer are set is recorded in order for the number of cases. Has been. At the tip of the data pointer, the set time of the imaging time, image data, tumor position information, and feature vector is recorded in order for the number of imaging times.

例えば、同一の患者IDに対応づけられた各画像データが、図14で説明した症例画像セット21〜23に対応するものとなる。各患者IDの症例画像セットをまとめたものが、症例画像セット群に対応する。また、後述するように、各症例画像セットの中から、検索対象となる検索対象画像セットが選択される。   For example, each piece of image data associated with the same patient ID corresponds to the case image sets 21 to 23 described with reference to FIG. A group of case image sets for each patient ID corresponds to a group of case image sets. Further, as will be described later, a search target image set to be searched is selected from each case image set.

特徴ベクトルは、画像データに含まれる病変部位として、例えば腫瘍の特徴を表すベクトルである。例えば、特徴ベクトルは、腫瘍を囲む矩形の大きさ、矩形の座標、腫瘍の濃度、色等を数値化した情報である。   The feature vector is a vector that represents, for example, a feature of a tumor as a lesion site included in the image data. For example, the feature vector is information obtained by digitizing the size of a rectangle surrounding the tumor, the coordinates of the rectangle, the concentration of the tumor, the color, and the like.

制御部150は、特定部151、生成部152、判断部153を有する。制御部150は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、制御部150は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路に対応する。   The control unit 150 includes a specifying unit 151, a generation unit 152, and a determination unit 153. The control unit 150 corresponds to an integrated device such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA). The control unit 150 corresponds to an electronic circuit such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit).

図3は、制御部の処理を説明するための図である。図3に示すように、制御部150は、クエリの症状に対応する時系列画像の特徴ベクトル40,50を受け付ける(ステップS10)。例えば、特徴ベクトル40,50は、特徴空間30a上に存在する。   FIG. 3 is a diagram for explaining the processing of the control unit. As illustrated in FIG. 3, the control unit 150 receives time-series image feature vectors 40 and 50 corresponding to the symptom of the query (step S10). For example, the feature vectors 40 and 50 exist on the feature space 30a.

制御部150は、特徴ベクトル40,50と、画像テーブル141の各特徴ベクトルとを比較して、類似する特徴ベクトルを求める(ステップS11)。例えば、特徴ベクトル40に類似する特徴ベクトルを、特徴ベクトル41、42,43,44とする。特徴ベクトル50に類似する特徴ベクトルを、特徴ベクトル51,52,53,54とする。   The control unit 150 compares the feature vectors 40 and 50 with each feature vector in the image table 141 to obtain a similar feature vector (step S11). For example, feature vectors similar to the feature vector 40 are assumed to be feature vectors 41, 42, 43, 44. Feature vectors similar to the feature vector 50 are referred to as feature vectors 51, 52, 53, and 54.

制御部150は、類似する各特徴ベクトルが属する時系列画像群の時系列特徴ベクトルを抽出する(ステップS12)。例えば、制御部150は、類似する特徴ベクトルが属する患者IDを、画像テーブル141を基にして特定し、特定した患者IDに属する全ての特徴ベクトルを時系列ベクトル群として抽出する。図3のステップS12に示す例では、制御部150は、特徴ベクトル41〜44、51〜54が属する患者IDをキーにして、特徴ベクトル群61a,62a,63a,64aを抽出する。この例では、4人の患者IDが特定された例を示している。ステップS12によって、特徴ベクトルが形成する高次元曲面31において、クエリの軌跡曲線に関する近傍部分32を得ることができる。   The control unit 150 extracts a time-series feature vector of a time-series image group to which each similar feature vector belongs (step S12). For example, the control unit 150 identifies patient IDs to which similar feature vectors belong based on the image table 141, and extracts all feature vectors belonging to the identified patient IDs as a time-series vector group. In the example shown in step S12 of FIG. 3, the control unit 150 extracts the feature vector groups 61a, 62a, 63a, and 64a using the patient IDs to which the feature vectors 41 to 44 and 51 to 54 belong as keys. In this example, four patient IDs are specified. By step S12, the vicinity part 32 regarding the trajectory curve of the query can be obtained on the high-dimensional curved surface 31 formed by the feature vector.

制御部150は、クエリの軌跡曲線に関する近傍部分32が有する非線形構造を、カーネル主成分分析によって線形空間30bとして捉える。実際、カーネル主成分分析によって、時系列特徴ベクトル群61a〜64aは、高次元空間を介して、線形空間30bのベクトル群61b〜64bとして捉えられる。   The control unit 150 captures the nonlinear structure of the neighboring portion 32 related to the query trajectory curve as a linear space 30b by kernel principal component analysis. Actually, by the kernel principal component analysis, the time series feature vector groups 61a to 64a are regarded as the vector groups 61b to 64b of the linear space 30b through the high-dimensional space.

制御部150は、時系列特徴ベクトル群61b〜64bに基づいて、クエリの症例に対する近似直線65bを推定することができる(ステップS13)。この近似直線65bは、特徴空間30a上では、近似曲線65aとなる。この近似曲線65aと、他の時系列特徴ベクトル群61a〜64aとの類似度を、線形空間30b上の近似直線65bと、時系列特徴ベクトル群61b〜64bとの距離の計算に基づいて算出することが可能となる。なお、図3の例においては、説明の簡単化のため、1人の患者についての複数枚の時系列画像のうち、2つの画像それぞれの特徴ベクトル40,50を受け付ける例を示したが、受け付ける数は2以上であればいくつであってもよい。   The control unit 150 can estimate the approximate straight line 65b for the query case based on the time-series feature vector groups 61b to 64b (step S13). The approximate line 65b becomes an approximate curve 65a on the feature space 30a. The similarity between this approximate curve 65a and the other time series feature vector groups 61a to 64a is calculated based on the calculation of the distance between the approximate straight line 65b on the linear space 30b and the time series feature vector groups 61b to 64b. It becomes possible. In the example of FIG. 3, for simplification of explanation, an example in which the feature vectors 40 and 50 of two images are received among a plurality of time-series images for one patient is shown. The number may be any number as long as it is 2 or more.

続いて、制御部150に含まれる特定部151、生成部152、判断部153の各処理について順に説明する。   Next, each process of the specifying unit 151, the generating unit 152, and the determining unit 153 included in the control unit 150 will be described in order.

特定部151は、クエリの症例として、患者IDを受け付けた場合に、受け付けた患者IDと、画像テーブル141とを比較して、患者IDのポインタで示される各時系列画像の特徴ベクトルを2つ以上抽出する。特定部151が抽出する特徴ベクトルは2つに限る必要はなく、2つ以上であればいくつであってもよい。例えば、特定部151が抽出する特徴ベクトルは、各時系列画像のうち、最先の時刻に撮影された画像の特徴ベクトルと、最後の時刻に撮影された画像の特徴ベクトルとを含む。   When receiving a patient ID as a query case, the specifying unit 151 compares the received patient ID with the image table 141, and calculates two feature vectors of each time-series image indicated by the patient ID pointer. Extract above. The number of feature vectors extracted by the specifying unit 151 is not limited to two, and may be any number as long as it is two or more. For example, the feature vector extracted by the specifying unit 151 includes a feature vector of an image taken at the earliest time and a feature vector of an image taken at the last time among the time series images.

図4は、クエリの症例に対する特徴ベクトルの抽出を説明するための図である。クエリの症例は、n個の時系列画像を持つとする。上記のように、特定部151は、患者IDを受け付けると、画像テーブル141からn個の時系列画像の特徴ベクトルを抽出する。この結果、得られた特徴ベクトルの列を「yτ1,・・・,yτn」とする。ここで、特徴ベクトルの添え字τは、観測された時刻を示すものである。図4に示すように、n=2である場合には、クエリの症例に対する時系列画像は、τの時系列画像と、τの時系列画像となり、特徴ベクトルは、yτ1,yτ2となる。なお、上述のとおり、nは2以上であればよい。 FIG. 4 is a diagram for explaining feature vector extraction for a query case. Assume that the query case has n time-series images. As described above, when receiving the patient ID, the specifying unit 151 extracts feature vectors of n time-series images from the image table 141. As a result, the obtained sequence of feature vectors is defined as “y τ1 ,..., Y τn ”. Here, the suffix τ i of the feature vector indicates the observed time. As shown in FIG. 4, when n = 2, the time series image for the query case is a time series image of τ 1 and a time series image of τ 2 , and the feature vectors are y τ1 and y τ2. It becomes. As described above, n may be 2 or more.

特定部151は、クエリの症例に関する特徴ベクトルと、画像テーブル141上の全特徴ベクトルとの距離計算を行うことにより、クエリの症例の時系列画像に類似する時系列画像群を抽出する。   The specifying unit 151 extracts a time series image group similar to the time series image of the query case by calculating the distance between the feature vector related to the case of the query and all the feature vectors on the image table 141.

図5は、時系列画像群の抽出を説明するための図である。特定部151は、クエリの症例のn個の特徴ベクトルyτ1,・・・,yτnそれぞれについて、画像テーブル141に含まれる症例の個々の画像に関する特徴ベクトルのうち、最も距離が近い上位N個までの特徴ベクトルを算出する。図5に示す例では、特定部151は、特徴ベクトルyτ1に最も近い上位N位の特徴ベクトルxτ1,1・・・τ1,Nを抽出する。特定部151は、特徴ベクトルyτ2に最も近い上位N位の特徴ベクトルxτ2,1・・・τ2,Nを抽出する。 FIG. 5 is a diagram for explaining extraction of a time-series image group. For each of the n feature vectors y τ1 ,..., Y τn of the query case, the specifying unit 151 includes the top N closest feature vectors among the feature vectors related to the individual images of the cases included in the image table 141. The feature vectors up to are calculated. In the example illustrated in FIG. 5, the specifying unit 151 extracts the top N-rank feature vectors x τ1,1... Τ1, N that are closest to the feature vector y τ1 . The identifying unit 151 extracts the top N-th feature vector x τ2,1... Τ2, N that is closest to the feature vector y τ2 .

クエリの症例に関するベクトルに対して、最も近い上位N個の特徴ベクトルを式(1)のように定義する。   The closest top N feature vectors are defined as in Expression (1) with respect to the vector related to the query case.

Figure 2017162124
Figure 2017162124

特定部151は、式(1)の各特徴ベクトルが属する症例の時系列画像の特徴ベクトル群を全て抽出する。抽出した時系列画像の特徴ベクトル群を式(2)のように定義する。式(2)では、xτi,jが属する症例の時系列画像がp i,j個からなる時系列画像であるとする。 The specifying unit 151 extracts all feature vector groups of time-series images of cases to which each feature vector of Expression (1) belongs. A feature vector group of the extracted time-series images is defined as in Expression (2). In Expression (2), it is assumed that the time series image of the case to which x τi, j belongs is a time series image composed of p k i, j .

Figure 2017162124
Figure 2017162124

特定部151は、式(2)で定義した特徴ベクトル群から、クエリの症例の特徴ベクトルに類似する時系列画像の特徴ベクトルを選択する。例えば、特定部151は、式(3)で定義されるベクトルx τi,Jのうち、少なくとも2個はクエリの症例の時系列の特徴ベクトルと類似しているものを選択する。 The specifying unit 151 selects a feature vector of a time-series image similar to the feature vector of the query case from the feature vector group defined by Expression (2). For example, the identifying unit 151 selects at least two vectors x k τi, J defined by Expression (3) that are similar to the time series feature vector of the query case.

Figure 2017162124
Figure 2017162124

図6は、クエリの症例に類似する時系列の特徴ベクトル群の一例を示す図である。図6に示す例では、クエリの症例に類似する特徴ベクトル群61a〜64aが抽出される。例えば、特徴ベクトル群61aのうち、少なくとも2個の特徴ベクトルが、クエリの症例のいずれかの特徴ベクトルに類似している。特徴ベクトル群62a〜64aも、特徴ベクトル群61aと同様にして、少なくとも2個の特徴ベクトルが、クエリの症例のいずれかの特徴ベクトルに類似している。   FIG. 6 is a diagram illustrating an example of a time-series feature vector group similar to a query case. In the example illustrated in FIG. 6, feature vector groups 61a to 64a similar to the query case are extracted. For example, at least two feature vectors in the feature vector group 61a are similar to any feature vector of a query case. Similarly to the feature vector group 61a, the feature vector groups 62a to 64a are similar to any one of the feature vectors of the query cases.

以下の説明では、一例として、特定部151が、m個の時系列の特徴ベクトル群を抽出したものとし、各特徴ベクトル群を、式(4)のように定義する。   In the following description, as an example, it is assumed that the specifying unit 151 has extracted m time-series feature vector groups, and each feature vector group is defined as in Expression (4).

Figure 2017162124
Figure 2017162124

続いて、生成部152の説明に移行する。生成部152は、クエリの症例に類似する時系列の特徴ベクトル群がなす非線形構造を、カーネル主成分分析によって高次元空間を介して、線形空間として捉える。その結果、時系列特徴ベクトル群は、線形空間上のベクトル群として捉えられることになる。そして、これらの線形空間上のベクトル群を基にして、クエリの症例に対する近似曲線と時系列特徴ベクトル群との距離を推定することが可能になる。   Subsequently, the description proceeds to the generation unit 152. The generation unit 152 captures a nonlinear structure formed by a time-series feature vector group similar to a query case as a linear space through a high-dimensional space by kernel principal component analysis. As a result, the time series feature vector group is regarded as a vector group in a linear space. The distance between the approximate curve for the query case and the time-series feature vector group can be estimated based on the vector group in the linear space.

生成部152は、カーネル関数kを用いて、カーネル行列Kを算出する。ここでは説明の便宜上、クエリの症例に類似する時系列の特徴ベクトル群をx,・・・xと表すことにする。ここで、qは、クエリに類似する時系列特徴ベクトル群の個数とする。また、カーネル関数としては、例えば、式(5)によって表されるガウシアンカーネルを用いる。式(5)に含まれるTは、ある定数とする。 The generation unit 152 calculates a kernel matrix K using the kernel function k. Here, for convenience of explanation, a time-series feature vector group similar to a query case is represented as x 1 ,..., X q . Here, q is the number of time-series feature vector groups similar to the query. Further, as the kernel function, for example, a Gaussian kernel represented by Expression (5) is used. T included in Equation (5) is a certain constant.

Figure 2017162124
Figure 2017162124

生成部152が、式(5)によって算出するカーネル行列Kは、式(6)に示すようなq×qの正方行列Kとして計算される。   The kernel matrix K calculated by Expression (5) by the generation unit 152 is calculated as a q × q square matrix K as shown in Expression (6).

Figure 2017162124
Figure 2017162124

生成部152は、カーネル行列Kに対して、r個の値の大きい上位固有値と、上位固有値に対応する固有ベクトルを算出する。例えば、生成部152は、カーネル行列Kの固有方程式(7)を未知数λの方程式として解いて固有値λを求める。また、各々の固有値λを連立方程式(8)に代入して、固有値λに対応する固有ベクトルvを求める。例えば、上位の固有値をλ,・・・,λとし、対応する固有ベクトルをv,・・・,vとする。 The generation unit 152 calculates, for the kernel matrix K, an upper eigenvalue having a large r value and an eigenvector corresponding to the upper eigenvalue. For example, the generation unit 152 obtains the eigenvalue λ by solving the eigen equation (7) of the kernel matrix K as an equation of the unknown λ. Further, each eigenvalue λ is substituted into the simultaneous equations (8) to obtain an eigenvector v corresponding to the eigenvalue λ. For example, the eigenvalues of the upper λ 1, ···, and λ r, the corresponding eigenvectors v 1, ···, and v r.

Figure 2017162124
Figure 2017162124

Figure 2017162124
Figure 2017162124

図7は、カーネル主成分分析による写像を説明するための図である。生成部152が、特徴ベクトル群61a〜64aのカーネル行列Kを求め、カーネル行列Kに基づいて、固有値λ、固有ベクトルvを算出することで、特徴ベクトル群61a〜64aは、線形空間30b上のベクトル群61b〜64bとして捉えることができる。   FIG. 7 is a diagram for explaining mapping by kernel principal component analysis. The generation unit 152 obtains the kernel matrix K of the feature vector groups 61a to 64a and calculates the eigenvalue λ and the eigenvector v based on the kernel matrix K, so that the feature vector groups 61a to 64a are vectors in the linear space 30b. It can be grasped as groups 61b to 64b.

続いて、判断部153の説明に移行する。判断部153は、クエリの症例の時系列ベクトル群について、特徴ベクトルを補間した近似曲線を推定し、近似曲線と、他の症例との類似度を、線形区間30b上での距離計算に基づいて算出する処理部である。   Subsequently, the description proceeds to the description of the determination unit 153. The determination unit 153 estimates an approximate curve obtained by interpolating the feature vector for the time series vector group of the query case, and calculates the similarity between the approximate curve and another case based on the distance calculation on the linear section 30b. A processing unit to calculate.

図8は、判断部の処理を説明するための図である。判断部153は、特徴ベクトル群61b〜64bに基づいて、クエリの症例と他の時系列特徴ベクトル群との距離を推定する。具体的には、判断部153は、近似曲線65aと、他の時系列特徴ベクトル群61a〜64aとの類似度を、線形空間30b上の近似直線65bと、特徴ベクトル群61b〜64bとの距離の計算に基づいて算出する。   FIG. 8 is a diagram for explaining the processing of the determination unit. The determination unit 153 estimates the distance between the query case and another time-series feature vector group based on the feature vector groups 61b to 64b. Specifically, the determination unit 153 determines the similarity between the approximate curve 65a and the other time-series feature vector groups 61a to 64a, and the distance between the approximate straight line 65b on the linear space 30b and the feature vector groups 61b to 64b. Based on the calculation of

以下において、判断部153の処理を順に説明する。判断部153は、クエリの症例に対して、特徴ベクトルを補間する時刻を決定する。特徴ベクトルに対応する各時刻について、時刻間の長さが一定の値σ以下になるようにする。判断部153は、隣り合う時刻間の長さがσよりも大きい場合に、σよりも小さくなるように、時刻間をs等分する。   Hereinafter, the process of the determination unit 153 will be described in order. The determination unit 153 determines the time for interpolating the feature vector for the query case. For each time corresponding to the feature vector, the length between the times is set to a certain value σ or less. When the length between adjacent times is larger than σ, the determination unit 153 divides the time into s equal parts so as to be smaller than σ.

図9は、補間する時刻を決定する処理を説明するための図である。例えば、クエリの症例の撮影時刻τ,τ,τ,τ,τ,τと、所定の時間幅σとが、図9のように与えられたものとする。判断部153は、τ,τ間と、τ,τ間とが、σよりも大きいと判定する。判断部153は、τ,τ間をs等分していき、初めてσ以下となった時のs等分の長さにより、補間する時刻を決定する。図9に示す例では、τ,τ間に、補間する時刻τ11,τ12を決定する。判断部153は、τ,τ間に、時刻τ11,τ12を追加する。 FIG. 9 is a diagram for explaining processing for determining a time for interpolation. For example, it is assumed that imaging times τ 1 , τ 2 , τ 3 , τ 4 , τ 5 , τ 6 and a predetermined time width σ of the query case are given as shown in FIG. The determination unit 153 determines that the interval between τ 1 and τ 2 and the interval between τ 4 and τ 5 are larger than σ. The determination unit 153 divides τ 1 and τ 2 into s equal parts, and determines the time to interpolate based on the length of s equal parts when it becomes equal to or less than σ for the first time. In the example shown in FIG. 9, interpolated times τ 11 and τ 12 are determined between τ 1 and τ 2 . The determination unit 153 adds times τ 11 and τ 12 between τ 1 and τ 2 .

同様に、判断部153は、τ,τ間をs等分していき、初めてσ以下となった時のs等分の長さにより、補間する時刻を決定する。図9に示す例では、τ,τ間に、補間する時刻τ41を決定する。判断部153は、τ,τ間に、時刻τ41を追加する。 Similarly, the determination unit 153 divides τ 4 and τ 5 into s equal parts, and determines the interpolation time based on the length of s equal parts when it becomes equal to or less than σ for the first time. In the example shown in FIG. 9, a time τ 41 to be interpolated is determined between τ 4 and τ 5 . The determination unit 153 adds a time τ 41 between τ 4 and τ 5 .

判断部153は、画像テーブル141の症例の時系列画像に関する特徴ベクトルと、クエリの症例の特徴ベクトルとの距離をDP(Dynamic Programming)によって算出する。画像テーブル141の症例の時系列画像に関する特徴ベクトルをxt1,・・・,xt1であるとする。判断部153は、時刻間の対応表を生成し、各格子点(τ,t)あるいは(τik,t)において、yτiとxtjまたはyτikとxtjの距離を以下の式によって計算する。なお、クエリの症例の時刻τの特徴ベクトルをyτiとする。 The determination unit 153 calculates the distance between the feature vector related to the time-series image of the case in the image table 141 and the feature vector of the case of the query by DP (Dynamic Programming). Let x t1 ,..., X t1 be feature vectors related to time series images of cases in the image table 141. The determination unit 153 generates a correspondence table between times, and at each lattice point (τ i , t j ) or (τ ik , t j ), the distance between y τi and x tj or y τik and x tj is expressed as follows: Calculate by formula. Note that the feature vector of the query case time τ i is y τi .

判断部153は、τが補間時刻ではない場合に、式(9)に基づいて、特徴ベクトルyτiと、時刻tの特徴ベクトルとの距離D(yτi,xtj)を算出する。 When τ i is not the interpolation time, the determination unit 153 calculates a distance D (y τi , x tj ) between the feature vector y τi and the feature vector at the time t j based on Expression (9).

Figure 2017162124
Figure 2017162124

判断部153は、τikが補間時刻である場合に、式(10)に基づいて、特徴ベクトルyτikと、時刻tの特徴ベクトルとの距離D(yτik,xtj)を算出する。ここで、τikは、τとτi+1をm:nに内分する点であるものとする。 When τ ik is an interpolation time, the determination unit 153 calculates a distance D (y τik , x tj ) between the feature vector y τik and the feature vector at the time t j based on Expression (10). Here, τ ik is a point that internally divides τ i and τ i + 1 into m: n.

Figure 2017162124
Figure 2017162124

上記の式(9)および式(10)について、判断部153は、v(z)の値を、式(11)によって計算する。zは、yτi、yτikまたはxtjに対応する。式(11)に含まれるv,・・・vは、上記のカーネル行列Kの固有ベクトルに対応する。 With respect to the above formulas (9) and (10), the determination unit 153 calculates the value of v (z) according to the formula (11). z corresponds to the y τi, y τik or x tj. V 1 ,..., V r included in Equation (11) correspond to the eigenvectors of the kernel matrix K described above.

Figure 2017162124
Figure 2017162124

図10は、時刻間の対応表の一例を示す図である。対応表60の縦軸は、クエリの症例の撮影時刻と、補間した時刻を示す。対応表60の横軸は、画像テーブル141の症例の撮影時刻を示す。判断部153は、上述した式(9)、式(10)に基づいて、距離D(yτi,xtj)または距離D(yτi,xtj)を算出する。例えば、判断部153は、τとtとの組またはτikとtとの組を作り、各組の距離Dの累積値を算出する。判断部153は、τとtとの組またはτikとtとの組を網羅的に変えながら、累積値が最小となる、τとtとの組またはτikとtとの組をDPに基づき探索する。 FIG. 10 is a diagram illustrating an example of a correspondence table between times. The vertical axis of the correspondence table 60 indicates the imaging time of the query case and the interpolated time. The horizontal axis of the correspondence table 60 indicates the imaging time of the case in the image table 141. The determination unit 153 calculates the distance D (y τi , x tj ) or the distance D (y τi , x tj ) based on the above formulas (9) and (10). For example, the determination unit 153 creates a pair of τ i and t j or a pair of τ ik and t j and calculates a cumulative value of the distance D of each pair. The determination unit 153 comprehensively changes the pair of τ i and t j or the pair of τ ik and t j, and the pair of τ i and t j or τ ik and t j that minimizes the cumulative value. And a pair is searched based on DP.

DPの具体的な計算方法は文献(吉村他,”DPマッチング法の逐次適用による日本語署名のオフライン照合法,”信学論(D-II),Vol. J81-D-II No.10, pp.2259-2266, 1998年10月の「2.2.2 DPマッチング処理」)などに記載されている。判断部153は、上記計算方法に基づき、DPを計算する。   The concrete calculation method of DP is described in the literature (Yoshimura et al., “Offline verification method of Japanese signature by sequential application of DP matching method,” IEICE theory (D-II), Vol. J81-D-II No. 10, pp.2259-2266, “2.2.2 DP matching process” in October 1998). The determination unit 153 calculates DP based on the above calculation method.

図11は、DPによる時刻間の対応結果例を示す図である。図11は、クエリの症例の特徴ベクトルと、画像テーブル141のある患者IDに紐付く時系列画像の特徴ベクトルとのDPの計算結果を示す。図11に示す例では、DPにより、クエリの症例が撮影された時刻τの特徴ベクトルyτ1と、画像テーブル141の症例の時系列画像が撮影された時刻tの特徴ベクトルxt3とが対応付けられる。クエリの症例が撮影された時刻τの特徴ベクトルyτ2と、画像テーブル141の症例の時系列画像が撮影された時刻tの特徴ベクトルxt6とが対応付けられる。クエリの症例が撮影された時刻τの特徴ベクトルyτ3と、画像テーブル141の症例の時系列画像が撮影された時刻tの特徴ベクトルxt6とが対応付けられる。クエリの症例が撮影された時刻τの特徴ベクトルyτ4と、画像テーブル141の症例の時系列画像が撮影された時刻tの特徴ベクトルxt7とが対応付けられる。クエリの症例が撮影された時刻τの特徴ベクトルyτ5と、画像テーブル141の症例の時系列画像が撮影された時刻tの特徴ベクトルxt9とが対応付けられる。クエリの症例が撮影された時刻τの特徴ベクトルyτ6と、画像テーブル141の症例の時系列画像が撮影された時刻tの特徴ベクトルxt9とが対応付けられる。 FIG. 11 is a diagram illustrating an example of a correspondence result between times by DP. FIG. 11 shows a DP calculation result of a feature vector of a query case and a feature vector of a time-series image associated with a patient ID in the image table 141. In the example shown in FIG. 11, the DP, the feature vector y .tau.1 time tau 1 which case the query is captured, the time-series images of cases of image table 141 and a feature vector x t3 of time t 3 when taken It is associated. The feature vector y τ2 at the time τ 2 when the query case is photographed is associated with the feature vector x t6 at the time t 6 when the time series image of the case in the image table 141 is photographed. The feature vector y τ3 at the time τ 3 when the query case is photographed is associated with the feature vector x t6 at the time t 6 when the time series image of the case in the image table 141 is photographed. The feature vector y τ4 at the time τ 4 when the query case is photographed is associated with the feature vector x t7 at the time t 7 when the time series image of the case in the image table 141 is photographed. The feature vector y τ5 at the time τ 5 when the query case is photographed is associated with the feature vector x t9 at the time t 9 when the time series image of the case in the image table 141 is photographed. The feature vector y τ6 at the time τ 6 when the query case is photographed is associated with the feature vector x t9 at the time t 9 when the time series image of the case in the image table 141 is photographed.

また、補間した時刻τ11の特徴ベクトルyτ11と、画像テーブル141の症例の時系列画像が撮影された時刻tの特徴ベクトルxt4とが対応付けられる。補間した時刻τ12の特徴ベクトルyτ12と、画像テーブル141の症例の時系列画像が撮影された時刻tの特徴ベクトルxt5とが対応付けられる。補間した時刻τ41の特徴ベクトルyτ41と、画像テーブル141の症例の時系列画像が撮影された時刻tの特徴ベクトルxt8とが対応付けられる。 Further, the feature vector y Tau11 time tau 11 interpolated, the image sequence of the case of the image table 141 are associated with the feature vector x t4 of time t 4 when being photographed. The interpolated feature vector y τ12 at the time τ 12 is associated with the feature vector x t5 at the time t 5 when the time series image of the case in the image table 141 is captured. A feature vector y Tau41 of interpolated time tau 41, time-series images of cases of image table 141 are associated with the feature vector x t8 of the captured time t 8 is.

判断部153は、他の患者IDに紐付く時系列画像の特徴ベクトルについても、同様に上記処理を繰り返し実行する。判断部153は、患者ID毎の特徴ベクトルに関する距離Dの累積値を基にして、類似度を判断する。例えば、判断部153は、累積値が小さいほど、類似度が高いと判断する。   Similarly, the determination unit 153 repeatedly executes the above process for the feature vectors of the time-series images associated with other patient IDs. The determination unit 153 determines the similarity based on the accumulated value of the distance D related to the feature vector for each patient ID. For example, the determination unit 153 determines that the similarity is higher as the cumulative value is smaller.

例えば、判断部153は、クエリの症例の特徴ベクトルと、画像テーブル141のある患者IDに紐付く時系列画像の特徴ベクトルとの類似度とを基にして、類似度が大きい上位N個の時系列画像を、表示部130に表示させる。   For example, the determination unit 153 uses the top N number of cases where the degree of similarity is large based on the degree of similarity between the feature vector of the query case and the feature vector of the time-series image associated with a patient ID in the image table 141. The series image is displayed on the display unit 130.

次に、本実施例に係る画像処理装置100の処理手順について説明する。図12は、本実施例に係る画像処理装置の処理手順を示すフローチャートである。図12に示すように、画像処理装置100の特定部151は、クエリの症例に対応する患者IDを受け付ける(ステップS101)。特定部151は、クエリの症例に対する特徴ベクトルを抽出する(ステップS102)。特定部151は、クエリの症例に類似する時系列画像群の特徴ベクトルを抽出する(ステップS103)。   Next, a processing procedure of the image processing apparatus 100 according to the present embodiment will be described. FIG. 12 is a flowchart illustrating the processing procedure of the image processing apparatus according to the present embodiment. As illustrated in FIG. 12, the specifying unit 151 of the image processing apparatus 100 receives a patient ID corresponding to a query case (step S101). The identifying unit 151 extracts a feature vector for the query case (step S102). The identifying unit 151 extracts a feature vector of a time-series image group similar to the query case (step S103).

画像処理装置100の生成部152は、クエリの症例に類似する時系列の特徴ベクトル群に対し、カーネル主成分分析を実行することで、固有ベクトルを算出する(ステップS104)。画像処理装置100の判断部153は、クエリの症例と、画像テーブル141の症例との類似度を計算する(ステップS105)。判断部153は、類似する症例を出力する(ステップS106)。   The generation unit 152 of the image processing apparatus 100 calculates an eigenvector by performing kernel principal component analysis on a time-series feature vector group similar to a query case (step S104). The determination unit 153 of the image processing apparatus 100 calculates the similarity between the query case and the case of the image table 141 (step S105). The determination unit 153 outputs a similar case (step S106).

次に、本実施例に係る画像処理装置100の効果について説明する。画像処理装置100は、クエリの症例の時系列画像と類似する時系列画像群を抽出し、抽出した時系列画像群の特徴ベクトルに対してカーネル主成分分析を行い、その結果得られる固有ベクトルによって張られる線形空間上において、クエリの症例の画像を補間し、クエリの症例の時系列画像と、他の時系列画像との類似度を求める。このため、クエリの症例の時系列画像の撮影時刻と、他の時系列画像の撮影時刻との違いを吸収して、クエリの症例の時系列画像に類似する時系列画像を精度良く特定することができる。   Next, effects of the image processing apparatus 100 according to the present embodiment will be described. The image processing apparatus 100 extracts a time-series image group similar to the time-series image of the query case, performs a kernel principal component analysis on the feature vector of the extracted time-series image group, and performs a stretch using the resulting eigenvector. The query case image is interpolated on the obtained linear space, and the similarity between the time series image of the query case and another time series image is obtained. Therefore, it is possible to accurately identify a time series image similar to the time series image of the query case by absorbing the difference between the shooting time of the time series image of the query case and the shooting time of other time series images. Can do.

患者によって、病変部分を撮影する時刻の間隔はまちまちであるため、1症例についての時系列画像は、各画像間の撮影時刻の間隔が異なり、病変の変化の類似性を判断することが難しい。しかしながら、上記のように、類似した時系列画像群を利用して、撮影時刻の間隔の違いを補間するため、クエリの症例と他の症例との類似度合いを判断できる。   Depending on the patient, the time interval at which the lesion portion is imaged varies, and the time-series images for one case differ in the time interval between image captures, making it difficult to determine the similarity of lesion changes. However, as described above, the difference between the photographing time intervals is interpolated using similar time-series image groups, so that the degree of similarity between the query case and other cases can be determined.

例えば、患者の腫瘍部分に関する時系列画像の集合が画像テーブル141として与えられたもとで、クエリの症例の時系列画像が与えられたとき、その撮影時期によらず画像テーブル141に蓄積されている時系列画像との類似度を精度よく算出することができる。特に、病変部分の進行が非線形に推移している場合であっても、その非線形構造を推定して照合するため、高精度に照合できる。   For example, when a time-series image of a query case is given with a set of time-series images relating to a tumor part of a patient being given as the image table 141, the time-series images are stored in the image table 141 regardless of the photographing time. The degree of similarity with the series image can be calculated with high accuracy. In particular, even when the progression of the lesion part is nonlinear, since the nonlinear structure is estimated and collated, the collation can be performed with high accuracy.

画像処理装置100は、クエリの症例に類似する時系列の特徴ベクトル群をカーネル主成分分析に基づいて線形空間上に写像することで、時系列特徴ベクトル群のなす非線形構造を線形空間として捉える。これにより、カーネル主成分分析に基づく線形空間を基にして、クエリの症例に対する近似曲線を推定することが可能になるため、実際の特徴ベクトルとの乖離の発生を抑止することができる。   The image processing apparatus 100 captures a nonlinear structure formed by the time-series feature vector group as a linear space by mapping a time-series feature vector group similar to the query case on the linear space based on the kernel principal component analysis. As a result, it is possible to estimate an approximate curve for a query case based on a linear space based on kernel principal component analysis, and thus it is possible to suppress the occurrence of deviation from an actual feature vector.

画像処理装置100は、線形空間上に写像した、画像テーブル141の症例の時系列画像に関する特徴ベクトルと、クエリの症例の特徴ベクトルとの距離を基にして、類似度を特定する。このため、クエリの症例と他の症例との類似度を精度良く算出することができる。   The image processing apparatus 100 specifies the similarity based on the distance between the feature vector related to the time series image of the case in the image table 141 and the feature vector of the query case mapped in the linear space. For this reason, the similarity between the query case and other cases can be calculated with high accuracy.

ところで、上述した実施例では、画像処理装置100に、記憶部140、特定部151、生成部152、判断部153が含まれる例について説明したが、これに限定されるものではない。例えば、記憶部140を有する第1サーバ、特定部151を有する第2サーバ、生成部152を有する第3サーバ、判断部153を有する第4サーバをネットワーク上に配置して画像処理システムとしてもよい。画像処理システムに含まれる各第1〜第4サーバは、相互にデータ通信を実行して、画像処理装置100と同様の処理を実行する。   In the above-described embodiment, an example in which the storage unit 140, the specifying unit 151, the generating unit 152, and the determining unit 153 are included in the image processing apparatus 100 has been described. However, the present invention is not limited to this. For example, a first server having the storage unit 140, a second server having the specifying unit 151, a third server having the generating unit 152, and a fourth server having the determining unit 153 may be arranged on the network to form an image processing system. . Each of the first to fourth servers included in the image processing system performs data communication with each other, and executes the same processing as that of the image processing apparatus 100.

次に、上記実施例に示した画像処理装置100と同様の機能を実現する画像処理プログラムを実行するコンピュータの一例について説明する。図13は、画像処理プログラムを実行するコンピュータの一例を示す図である。   Next, an example of a computer that executes an image processing program that realizes the same function as the image processing apparatus 100 described in the above embodiment will be described. FIG. 13 is a diagram illustrating an example of a computer that executes an image processing program.

図13に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、ディスプレイ203とを有する。また、コンピュータ200は、記憶媒体からプログラム等を読み取る読み取り装置204と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインターフェース装置205とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM206と、ハードディスク装置207とを有する。そして、各装置201〜207は、バス208に接続される。   As illustrated in FIG. 13, the computer 200 includes a CPU 201 that executes various arithmetic processes, an input device 202 that receives data input from a user, and a display 203. The computer 200 also includes a reading device 204 that reads programs and the like from a storage medium, and an interface device 205 that exchanges data with other computers via a network. The computer 200 also includes a RAM 206 that temporarily stores various information and a hard disk device 207. The devices 201 to 207 are connected to the bus 208.

ハードディスク装置207は、特定プログラム207a、生成プログラム207b、判断プログラム207cを有する。CPU201は、特定プログラム207a、生成プログラム207b、判断プログラム207cを読み出してRAM206に展開する。   The hard disk device 207 has a specific program 207a, a generation program 207b, and a determination program 207c. The CPU 201 reads the specific program 207 a, the generation program 207 b, and the determination program 207 c and develops them in the RAM 206.

特定プログラム207aは、特定プロセス206aとして機能する。生成プログラム207bは、生成プロセス206bとして機能する。判断プログラム207cは、判断プロセス206cとして機能する。   The specific program 207a functions as a specific process 206a. The generation program 207b functions as a generation process 206b. The determination program 207c functions as a determination process 206c.

特定プロセス206aの処理は、特定部151の処理に対応する。生成プロセス206bの処理は生成部152の処理に対応する。判断プロセス206cの処理は、判断部153の処理に対応する。   The process of the identification process 206a corresponds to the process of the identification unit 151. The process of the generation process 206 b corresponds to the process of the generation unit 152. The process of the determination process 206c corresponds to the process of the determination unit 153.

なお、特定プログラム207a、生成プログラム207b、判断プログラム207cについては、必ずしも最初からハードディスク装置207に記憶させておかなくても良い。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ200が各プログラム207a〜207cを読み出して実行するようにしてもよい。   The specific program 207a, the generation program 207b, and the determination program 207c are not necessarily stored in the hard disk device 207 from the beginning. For example, each program is stored in a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, and an IC card inserted into the computer 200. Then, the computer 200 may read and execute each of the programs 207a to 207c.

以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。   The following supplementary notes are further disclosed with respect to the embodiments including the above examples.

(付記1)各患者につき時間をおいて複数回撮影されることで取得された、複数種類の特徴量で表現されうる個々の症例画像セットを含む症例画像セット群の間で、検索対象とする検索対象画像セットと類似する画像セットを検索する際に、検索対象画像セットの中の第1の時刻に撮影された第一画像と、前記第1の時刻とは異なる第2の時刻に撮影された第二画像との組について、前記症例画像セット群の中で、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量を持つ画像の組を含むセットを1以上特定する特定部と、
特定した1以上のセットに含まれる、前記第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、前記第一画像と前記第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成する生成部と、
生成した補間画像に対応する特徴量を用いて、前記検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する判断部と
を有することを特徴とする画像処理システム。
(Additional remark 1) It is set as a search object among the case image set groups including individual case image sets that can be expressed by a plurality of types of feature values acquired by taking a plurality of times for each patient. When searching for an image set similar to the search target image set, the first image captured at the first time in the search target image set and the second image different from the first time are captured. A set including a set of images each having a feature amount similar to the set of the feature amount of the first image and the feature amount of the second image in the case image set group. A specific part that specifies one or more of
The shooting time of the first similar image having a feature amount similar to the feature amount of the first image and the second similarity having a feature amount similar to the feature amount of the second image included in the specified one or more sets An interpolation image corresponding to an image photographed at a time between the first image and the second image using a feature amount of one or more images photographed at a time between the image photographing times A generating unit that generates one or more feature quantities that are estimated;
An image processing system comprising: a determination unit that determines a degree of similarity between the search target image set and one or more sets in the case image set group using a feature amount corresponding to the generated interpolation image.

(付記2)前記生成部は、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量に対して、カーネル主成分分析を実行することで、前記類似する特徴量を線形空間に写像し、前記線形空間上の前記類似する特徴量を基にして、前記補間画像が有することが推定される特徴量を1以上生成することを特徴とする付記1に記載の画像処理システム。 (Additional remark 2) The said production | generation part performs the said kernel resemblance | analogue by performing a kernel principal component analysis with respect to the feature-value respectively similar to the combination of the feature-value of said 1st image, and the feature-value of said 2nd image The feature amount is mapped to a linear space, and one or more feature amounts estimated to be included in the interpolated image are generated based on the similar feature amount on the linear space. Image processing system.

(付記3)前記判断部は、前記線形空間上の前記類似する特徴量と前記線形空間上の第一画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記第二画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離に基づいて、前記類似度合を判断することを特徴とする付記2に記載の画像処理システム。 (Additional remark 3) The said determination part is the distance of the said similar feature-value on the said linear space and the feature-value of the 1st image on the said linear space, the said similar feature-value on the said linear space, and the said 2nd image The image processing system according to claim 2, wherein the degree of similarity is determined based on a distance from a feature amount of the image and a distance between the similar feature amount in the linear space and the feature amount of the interpolated image. .

(付記4)前記検索対象画像セットについて、前記補間画像に対応する時刻の前後に撮影された第三画像と第四画像とが存在し、前記補間画像に対応する時刻が、前記第三画像の撮影時刻と、前記第四画像の撮影時刻とをm対nに内分する点に位置する時刻である場合に、前記判断部は、前記第三画像の特徴量のベクトルにnを乗算した値と、前記第四画像の特徴量のベクトルにmを乗算した値とを加算したベクトルから、前記類似する特徴量のベクトルを減算することで、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離を算出することを特徴とする付記2または3に記載の画像処理システム。 (Additional remark 4) About the said search object image set, the 3rd image and 4th image which were image | photographed before and after the time corresponding to the said interpolation image exist, and the time corresponding to the said interpolation image is the said 3rd image. A value obtained by multiplying the feature vector of the third image by n when the time is located at a point dividing the shooting time and the shooting time of the fourth image into m to n And subtracting the similar feature amount vector from a vector obtained by adding a feature value vector of the fourth image multiplied by m to the similar feature amount in the linear space and the interpolation 4. The image processing system according to appendix 2 or 3, wherein a distance from the feature amount of the image is calculated.

(付記5)コンピュータが実行する画像処理方法であって、
各患者につき時間をおいて複数回撮影されることで取得された、複数種類の特徴量で表現されうる個々の症例画像セットを含む症例画像セット群の間で、検索対象とする検索対象画像セットと類似する画像セットを検索する際に、検索対象画像セットの中の第1の時刻に撮影された第一画像と、前記第1の時刻とは異なる第2の時刻に撮影された第二画像との組について、前記症例画像セット群の中で、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量を持つ画像の組を含むセットを1以上特定し、
特定した1以上のセットに含まれる、前記第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、前記第一画像と前記第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成し、
生成した補間画像に対応する特徴量を用いて、前記検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する
処理を実行することを特徴とする画像処理方法。
(Supplementary Note 5) An image processing method executed by a computer,
A search target image set to be searched between case image set groups including individual case image sets that can be expressed by a plurality of types of feature values, acquired by shooting multiple times for each patient. When searching for an image set similar to, the first image taken at the first time in the search target image set and the second image taken at a second time different from the first time Identify one or more sets in the case image set group that include sets of images each having a feature amount similar to the feature amount of the first image and the feature amount of the second image. And
The shooting time of the first similar image having a feature amount similar to the feature amount of the first image and the second similarity having a feature amount similar to the feature amount of the second image included in the specified one or more sets An interpolation image corresponding to an image photographed at a time between the first image and the second image using a feature amount of one or more images photographed at a time between the image photographing times Generate one or more features that are estimated to be
An image processing method comprising: executing a process of determining a degree of similarity between the search target image set and one or more sets in the case image set group using a feature amount corresponding to the generated interpolation image.

(付記6)前記生成する処理は、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量に対して、カーネル主成分分析を実行することで、前記類似する特徴量を線形空間に写像し、前記線形空間上の前記類似する特徴量を基にして、前記補間画像が有することが推定される特徴量を1以上生成することを特徴とする付記5に記載の画像処理方法。 (Additional remark 6) The said process to generate | occur | produce performs said principal component analysis by performing a kernel principal component analysis with respect to the feature amount respectively similar to the feature amount of said 1st image, and the feature amount of said 2nd image Appendix 5 characterized in that one or more feature quantities estimated to be included in the interpolated image are generated on the basis of the similar feature quantities on the linear space. The image processing method as described.

(付記7)前記類似度合いを判断する処理は、前記線形空間上の前記類似する特徴量と前記線形空間上の第一画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記第二画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離に基づいて、前記類似度合を判断することを特徴とする付記6に記載の画像処理方法。 (Supplementary Note 7) The process of determining the degree of similarity includes the distance between the similar feature amount on the linear space and the feature amount of the first image on the linear space, the similar feature amount on the linear space, and The additional degree is characterized in that the degree of similarity is determined based on a distance from the feature amount of the second image and a distance between the similar feature amount in the linear space and the feature amount of the interpolated image. Image processing method.

(付記8)前記検索対象画像セットについて、前記補間画像に対応する時刻の前後に撮影された第三画像と第四画像とが存在し、前記補間画像に対応する時刻が、前記第三画像の撮影時刻と、前記第四画像の撮影時刻とをm対nに内分する点に位置する時刻である場合に、前記類似度合いを判断する処理は、前記第三画像の特徴量のベクトルにnを乗算した値と、前記第四画像の特徴量のベクトルにmを乗算した値とを加算したベクトルから、前記類似する特徴量のベクトルを減算することで、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離を算出することを特徴とする付記6または7に記載の画像処理方法。 (Additional remark 8) About the said search object image set, the 3rd image and 4th image image | photographed before and after the time corresponding to the said interpolation image exist, and the time corresponding to the said interpolation image is the said 3rd image. When the time is located at a point where the shooting time and the shooting time of the fourth image are divided internally into m to n, the process of determining the degree of similarity is performed by adding n to the feature vector of the third image. The similar feature in the linear space is subtracted from a vector obtained by adding the value obtained by multiplying the vector of the feature amount of the fourth image and the value obtained by multiplying the vector of the feature amount of the fourth image by m. The image processing method according to appendix 6 or 7, wherein a distance between the amount and the feature amount of the interpolated image is calculated.

(付記9)コンピュータが実行する画像処理プログラムであって、
各患者につき時間をおいて複数回撮影されることで取得された、複数種類の特徴量で表現されうる個々の症例画像セットを含む症例画像セット群の間で、検索対象とする検索対象画像セットと類似する画像セットを検索する際に、検索対象画像セットの中の第1の時刻に撮影された第一画像と、前記第1の時刻とは異なる第2の時刻に撮影された第二画像との組について、前記症例画像セット群の中で、前記第一画像の特徴量と前記第二画像の特徴量との組とにそれぞれ類似する特徴量を持つ画像の組を含むセットを1以上特定し、
特定した1以上のセットに含まれる、前記第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、前記第一画像と前記第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成し、
生成した補間画像に対応する特徴量を用いて、前記検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する
処理を実行することを特徴とする画像処理プログラム。
(Supplementary note 9) An image processing program executed by a computer,
A search target image set to be searched between case image set groups including individual case image sets that can be expressed by a plurality of types of feature values, acquired by shooting multiple times for each patient. When searching for an image set similar to, the first image taken at the first time in the search target image set and the second image taken at a second time different from the first time In the case image set group, at least one set including a set of images each having a feature amount similar to the set of the feature amount of the first image and the feature amount of the second image in the group of case images Identify,
The shooting time of the first similar image having a feature amount similar to the feature amount of the first image and the second similarity having a feature amount similar to the feature amount of the second image included in the specified one or more sets An interpolation image corresponding to an image photographed at a time between the first image and the second image using a feature amount of one or more images photographed at a time between the image photographing times Generate one or more features that are estimated to be
An image processing program for executing a process of determining a degree of similarity between the search target image set and one or more sets in a case image set group using a feature amount corresponding to the generated interpolation image.

(付記10)前記生成する処理は、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量に対して、カーネル主成分分析を実行することで、前記類似する特徴量を線形空間に写像し、前記線形空間上の前記類似する特徴量を基にして、前記補間画像が有することが推定される特徴量を1以上生成することを特徴とする付記9に記載の画像処理プログラム。 (Additional remark 10) The said process to produce | generate is performed by performing a kernel principal component analysis with respect to the feature-value respectively similar to the feature-value group of said 1st image, and the feature-value of said 2nd image, and the said similarity Appendix 9 characterized in that one or more feature quantities estimated to be included in the interpolation image are generated based on the similar feature quantities on the linear space. The image processing program described.

(付記11)前記類似度合いを判断する処理は、前記線形空間上の前記類似する特徴量と前記線形空間上の第一画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記第二画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離に基づいて、前記類似度合を判断することを特徴とする付記10に記載の画像処理プログラム。 (Supplementary Note 11) The process of determining the degree of similarity includes the distance between the similar feature amount on the linear space and the feature amount of the first image on the linear space, the similar feature amount on the linear space, and The supplementary note 10 is characterized in that the degree of similarity is determined based on a distance between the feature amount of the second image and a distance between the similar feature amount on the linear space and the feature amount of the interpolated image. Image processing program.

(付記12)前記検索対象画像セットについて、前記補間画像に対応する時刻の前後に撮影された第三画像と第四画像とが存在し、前記補間画像に対応する時刻が、前記第三画像の撮影時刻と、前記第四画像の撮影時刻とをm対nに内分する点に位置する時刻である場合に、前記類似度合いを判断する処理は、前記第三画像の特徴量のベクトルにnを乗算した値と、前記第四画像の特徴量のベクトルにmを乗算した値とを加算したベクトルから、前記類似する特徴量のベクトルを減算することで、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離を算出することを特徴とする付記10または11に記載の画像処理プログラム。 (Additional remark 12) About the said search object image set, the 3rd image and 4th image image | photographed before and after the time corresponding to the said interpolation image exist, and the time corresponding to the said interpolation image is the said 3rd image. When the time is located at a point where the shooting time and the shooting time of the fourth image are divided internally into m to n, the process of determining the degree of similarity is performed by adding n to the feature vector of the third image. The similar feature in the linear space is subtracted from a vector obtained by adding the value obtained by multiplying the vector of the feature amount of the fourth image and the value obtained by multiplying the vector of the feature amount of the fourth image by m. 12. The image processing program according to appendix 10 or 11, wherein a distance between the amount and the feature amount of the interpolated image is calculated.

100 画像処理装置
140 記憶部
141 画像テーブル
150 制御部
151 特定部
152 生成部
153 判断部
DESCRIPTION OF SYMBOLS 100 Image processing apparatus 140 Storage part 141 Image table 150 Control part 151 Specification part 152 Generation part 153 Determination part

Claims (6)

各患者につき時間をおいて複数回撮影されることで取得された、複数種類の特徴量で表現されうる個々の症例画像セットを含む症例画像セット群の間で、検索対象とする検索対象画像セットと類似する画像セットを検索する際に、検索対象画像セットの中の第1の時刻に撮影された第一画像と、前記第1の時刻とは異なる第2の時刻に撮影された第二画像との組について、前記症例画像セット群の中で、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量を持つ画像の組を含むセットを1以上特定する特定部と、
特定した1以上のセットに含まれる、前記第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、前記第一画像と前記第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成する生成部と、
生成した補間画像に対応する特徴量を用いて、前記検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する判断部と
を有することを特徴とする画像処理システム。
A search target image set to be searched between case image set groups including individual case image sets that can be expressed by a plurality of types of feature values, acquired by shooting multiple times for each patient. When searching for an image set similar to, the first image taken at the first time in the search target image set and the second image taken at a second time different from the first time Identify one or more sets in the case image set group that include sets of images each having a feature amount similar to the feature amount of the first image and the feature amount of the second image. Specific part to do,
The shooting time of the first similar image having a feature amount similar to the feature amount of the first image and the second similarity having a feature amount similar to the feature amount of the second image included in the specified one or more sets An interpolation image corresponding to an image photographed at a time between the first image and the second image using a feature amount of one or more images photographed at a time between the image photographing times A generating unit that generates one or more feature quantities that are estimated;
An image processing system comprising: a determination unit that determines a degree of similarity between the search target image set and one or more sets in the case image set group using a feature amount corresponding to the generated interpolation image.
前記生成部は、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量に対して、カーネル主成分分析を実行することで、前記類似する特徴量を線形空間に写像し、前記線形空間上の前記類似する特徴量を基にして、前記補間画像が有することが推定される特徴量を1以上生成することを特徴とする請求項1に記載の画像処理システム。   The generating unit performs kernel principal component analysis on a feature amount similar to each of the feature amount of the first image and the feature amount of the second image, thereby linearly converting the similar feature amount. 2. The image processing according to claim 1, wherein one or more feature amounts that are mapped to a space and estimated to be included in the interpolated image are generated based on the similar feature amounts on the linear space. system. 前記判断部は、前記線形空間上の前記類似する特徴量と前記線形空間上の第一画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記第二画像の特徴量との距離、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離に基づいて、前記類似度合を判断することを特徴とする請求項2に記載の画像処理システム。   The determination unit includes a distance between the similar feature amount on the linear space and the feature amount of the first image on the linear space, the similar feature amount on the linear space, and a feature amount of the second image. The image processing system according to claim 2, wherein the degree of similarity is determined based on a distance between the feature amount and the distance between the similar feature amount in the linear space and the feature amount of the interpolated image. 前記検索対象画像セットについて、前記補間画像に対応する時刻の前後に撮影された第三画像と第四画像とが存在し、前記補間画像に対応する時刻が、前記第三画像の撮影時刻と、前記第四画像の撮影時刻とをm対nに内分する点に位置する時刻である場合に、前記判断部は、前記第三画像の特徴量のベクトルにnを乗算した値と、前記第四画像の特徴量のベクトルにmを乗算した値とを加算したベクトルから、前記類似する特徴量のベクトルを減算することで、前記線形空間上の前記類似する特徴量と前記補間画像の特徴量との距離を算出することを特徴とする請求項2または3に記載の画像処理システム。   For the search target image set, there are a third image and a fourth image captured before and after the time corresponding to the interpolation image, and the time corresponding to the interpolation image is the imaging time of the third image, When the time is located at a point that internally divides the shooting time of the fourth image into m to n, the determination unit multiplies the vector of feature values of the third image by n, Subtracting the similar feature amount vector from a vector obtained by adding the feature value vector of four images to a value obtained by multiplying m, thereby obtaining the similar feature amount in the linear space and the feature amount of the interpolated image. 4. The image processing system according to claim 2, wherein a distance between the first and second images is calculated. コンピュータが実行する画像処理方法であって、
各患者につき時間をおいて複数回撮影されることで取得された、複数種類の特徴量で表現されうる個々の症例画像セットを含む症例画像セット群の間で、検索対象とする検索対象画像セットと類似する画像セットを検索する際に、検索対象画像セットの中の第1の時刻に撮影された第一画像と、前記第1の時刻とは異なる第2の時刻に撮影された第二画像との組について、前記症例画像セット群の中で、前記第一画像の特徴量と前記第二画像の特徴量との組にそれぞれ類似する特徴量を持つ画像の組を含むセットを1以上特定し、
特定した1以上のセットに含まれる、前記第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、前記第一画像と前記第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成し、
生成した補間画像に対応する特徴量を用いて、前記検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する
処理を実行することを特徴とする画像処理方法。
An image processing method executed by a computer,
A search target image set to be searched between case image set groups including individual case image sets that can be expressed by a plurality of types of feature values, acquired by shooting multiple times for each patient. When searching for an image set similar to, the first image taken at the first time in the search target image set and the second image taken at a second time different from the first time Identify one or more sets in the case image set group that include sets of images each having a feature amount similar to the feature amount of the first image and the feature amount of the second image. And
The shooting time of the first similar image having a feature amount similar to the feature amount of the first image and the second similarity having a feature amount similar to the feature amount of the second image included in the specified one or more sets An interpolation image corresponding to an image photographed at a time between the first image and the second image using a feature amount of one or more images photographed at a time between the image photographing times Generate one or more features that are estimated to be
An image processing method comprising: executing a process of determining a degree of similarity between the search target image set and one or more sets in the case image set group using a feature amount corresponding to the generated interpolation image.
コンピュータが実行する画像処理プログラムであって、
各患者につき時間をおいて複数回撮影されることで取得された、複数種類の特徴量で表現されうる個々の症例画像セットを含む症例画像セット群の間で、検索対象とする検索対象画像セットと類似する画像セットを検索する際に、検索対象画像セットの中の第1の時刻に撮影された第一画像と、前記第1の時刻とは異なる第2の時刻に撮影された第二画像との組について、前記症例画像セット群の中で、前記第一画像の特徴量と前記第二画像の特徴量との組とにそれぞれ類似する特徴量を持つ画像の組を含むセットを1以上特定し、
特定した1以上のセットに含まれる、前記第一画像の特徴量と類似する特徴量を持つ第一類似画像の撮影時刻と、該第二画像の特徴量と類似する特徴量を持つ第二類似画像の撮影時刻との間の時刻に撮影された1以上の画像の特徴量を用いて、前記第一画像と前記第二画像との間の時刻に撮影された画像に相当する補間画像が有することが推定される特徴量を1以上生成し、
生成した補間画像に対応する特徴量を用いて、前記検索対象画像セットと症例画像セット群内の1以上のセットとの類似度合を判断する
処理を実行することを特徴とする画像処理プログラム。
An image processing program executed by a computer,
A search target image set to be searched between case image set groups including individual case image sets that can be expressed by a plurality of types of feature values, acquired by shooting multiple times for each patient. When searching for an image set similar to, the first image taken at the first time in the search target image set and the second image taken at a second time different from the first time In the case image set group, at least one set including a set of images each having a feature amount similar to the set of the feature amount of the first image and the feature amount of the second image in the group of case images Identify,
The shooting time of the first similar image having a feature amount similar to the feature amount of the first image and the second similarity having a feature amount similar to the feature amount of the second image included in the specified one or more sets An interpolation image corresponding to an image photographed at a time between the first image and the second image using a feature amount of one or more images photographed at a time between the image photographing times Generate one or more features that are estimated to be
An image processing program for executing a process of determining a degree of similarity between the search target image set and one or more sets in a case image set group using a feature amount corresponding to the generated interpolation image.
JP2016044942A 2016-03-08 2016-03-08 Image processing system, image processing method, and image processing program Active JP6642132B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016044942A JP6642132B2 (en) 2016-03-08 2016-03-08 Image processing system, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016044942A JP6642132B2 (en) 2016-03-08 2016-03-08 Image processing system, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2017162124A true JP2017162124A (en) 2017-09-14
JP6642132B2 JP6642132B2 (en) 2020-02-05

Family

ID=59857768

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016044942A Active JP6642132B2 (en) 2016-03-08 2016-03-08 Image processing system, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP6642132B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019063353A (en) * 2017-10-03 2019-04-25 富士通株式会社 Program, information processing method, and information processing apparatus
CN117382435A (en) * 2023-10-17 2024-01-12 浙江加力仓储设备股份有限公司 Vehicle speed control method and system based on dip angle monitoring

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07234927A (en) * 1994-02-22 1995-09-05 Toshiba Medical Eng Co Ltd Three-dimensional image display device
JP2004248960A (en) * 2003-02-21 2004-09-09 Hitachi Medical Corp Medical image display device
JP2007287018A (en) * 2006-04-19 2007-11-01 Fujifilm Corp Diagnosis support system
JP2013198817A (en) * 2013-07-10 2013-10-03 Canon Inc Information processing apparatus, information processing method, program, and storage medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07234927A (en) * 1994-02-22 1995-09-05 Toshiba Medical Eng Co Ltd Three-dimensional image display device
JP2004248960A (en) * 2003-02-21 2004-09-09 Hitachi Medical Corp Medical image display device
JP2007287018A (en) * 2006-04-19 2007-11-01 Fujifilm Corp Diagnosis support system
US20090080734A1 (en) * 2006-04-19 2009-03-26 Fujifim Corporation Diagnosis support system
JP2013198817A (en) * 2013-07-10 2013-10-03 Canon Inc Information processing apparatus, information processing method, program, and storage medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019063353A (en) * 2017-10-03 2019-04-25 富士通株式会社 Program, information processing method, and information processing apparatus
JP7119327B2 (en) 2017-10-03 2022-08-17 富士通株式会社 Program, information processing method and information processing apparatus
CN117382435A (en) * 2023-10-17 2024-01-12 浙江加力仓储设备股份有限公司 Vehicle speed control method and system based on dip angle monitoring
CN117382435B (en) * 2023-10-17 2024-05-03 浙江加力仓储设备股份有限公司 Vehicle speed control method and system based on dip angle monitoring

Also Published As

Publication number Publication date
JP6642132B2 (en) 2020-02-05

Similar Documents

Publication Publication Date Title
WO2020248581A1 (en) Graph data identification method and apparatus, computer device, and storage medium
US11017210B2 (en) Image processing apparatus and method
JP6129310B2 (en) Image processing apparatus and image processing method
Schrieber et al. Dotmark–a benchmark for discrete optimal transport
CN110838104B (en) Multi-time point region of interest matching method, device and storage medium
WO1999024932A1 (en) Rapid convolution based large deformation image matching via landmark and volume imagery
KR20130025906A (en) Face feature-point position correction device, face feature-point position correction method, and face feature-point position correction program
CN110956131B (en) Single-target tracking method, device and system
CN104919492A (en) Device for detecting feature-point position, method for detecting feature-point position, and program for detecting feature-point position
JP6642132B2 (en) Image processing system, image processing method, and image processing program
CN110517221B (en) Gap positioning method and device based on real coordinates and storage medium
JP5866064B2 (en) Image search device, image search method, and recording medium
CN111445021A (en) Learning method, learning apparatus, and computer-readable recording medium
WO2014206722A1 (en) Method and apparatus for generating image alignment data
JP2017189337A (en) Image positioning apparatus and method, and program
CN109685029A (en) Flexible article recognition methods, device, equipment and the medium of Complicated Spatial Structure
JP6615488B2 (en) Medical image processing apparatus, medical image processing method, and medical image apparatus
CN114372970B (en) Surgical reference information generation method and device
JP6821303B2 (en) Information processing equipment, information processing methods and programs
US10390798B2 (en) Computer-aided tracking and motion analysis with ultrasound for measuring joint kinematics
JP5814714B2 (en) Image similarity determination device, image similarity determination method, and image similarity determination program
Gass et al. Detection and correction of inconsistency-based errors in non-rigid registration
JP7309447B2 (en) MEDICAL IMAGE DIAGNOSTIC APPARATUS, IMAGE PROCESSING APPARATUS, AND ALIGNMENT METHOD
KR101373397B1 (en) Sampling method for random sample consensus based on constraint satisfaction problem in augmented reality
WO2016142990A1 (en) Search program, search method, and search device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191216

R150 Certificate of patent or registration of utility model

Ref document number: 6642132

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150