JP5655327B2 - Program and information processing apparatus - Google Patents

Program and information processing apparatus Download PDF

Info

Publication number
JP5655327B2
JP5655327B2 JP2010051576A JP2010051576A JP5655327B2 JP 5655327 B2 JP5655327 B2 JP 5655327B2 JP 2010051576 A JP2010051576 A JP 2010051576A JP 2010051576 A JP2010051576 A JP 2010051576A JP 5655327 B2 JP5655327 B2 JP 5655327B2
Authority
JP
Japan
Prior art keywords
image
patient
parameter
deformation
conversion function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010051576A
Other languages
Japanese (ja)
Other versions
JP2011182960A (en
Inventor
文渊 戚
文渊 戚
福井 基文
基文 福井
加藤 典司
典司 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2010051576A priority Critical patent/JP5655327B2/en
Publication of JP2011182960A publication Critical patent/JP2011182960A/en
Application granted granted Critical
Publication of JP5655327B2 publication Critical patent/JP5655327B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)

Description

本発明は、プログラムおよび情報処理装置に関する。   The present invention relates to a program and an information processing apparatus.

医療用画像に基づく診断を支援する技術が知られている。例えば、特許文献1には、異常な陰影(特徴)を有する画像を優先的に表示させる画像保管通信システムが開示されている。特許文献1に記載の技術では、入力された画像の特徴を検出すると、その特徴を示す情報を当該入力画像に付加し、このように付加された情報に基づいて、表示させる画像を選択する。   Techniques that support diagnosis based on medical images are known. For example, Patent Literature 1 discloses an image storage communication system that preferentially displays an image having an abnormal shadow (feature). In the technique described in Patent Document 1, when a feature of an input image is detected, information indicating the feature is added to the input image, and an image to be displayed is selected based on the added information.

特許文献2に記載の技術では、撮影された患者の画像における病変位置や病変種類などの特徴量を検出し、当該画像および当該特徴量をデータベースに格納し、患者の画像および特徴量をデータベースから取得して表示させたり、指定された画像について、データベースから取得した特徴量および当該患者の画像の情報を含む仮レポート報告書を作成したりする。   In the technique described in Patent Document 2, a feature amount such as a lesion position and a lesion type in a captured patient image is detected, the image and the feature amount are stored in a database, and the patient image and the feature amount are stored from the database. Acquire and display the specified image, or create a provisional report including information about the feature amount acquired from the database and the image of the patient.

特許文献3には、病気または医学的状態についての分類された重症度レベルを持つ画像のデータベースを、人による重症度の指定に基づいて作成しておき、患者画像とデータベース内の画像との比較によって、病気または医学的状態の重症度を求める技術が開示されている。   In Patent Document 3, a database of images having a classified severity level for a disease or medical condition is created based on the designation of severity by a person, and a comparison between a patient image and an image in the database is made. Discloses a technique for determining the severity of a disease or medical condition.

特許文献4には、患者を撮影して得られた医用画像から異常陰影候補の画像領域を検出し、発病した複数の患者について得られた異常陰影候補の検出結果を用いて、診断対象の患者の将来の発病の可能性を示す予測値を算出する技術が開示されている。   Patent Document 4 discloses a patient to be diagnosed by detecting an image region of an abnormal shadow candidate from a medical image obtained by photographing a patient, and using detection results of the abnormal shadow candidate obtained for a plurality of patients who are ill. A technique for calculating a predicted value indicating the possibility of future disease occurrence is disclosed.

特開平05−205018号公報Japanese Patent Laid-Open No. 05-205018 特開2003−33327号公報JP 2003-33327 A 特開2007−105461号公報JP 2007-105461 A 特開2007−135683号公報JP 2007-135683 A

ところで、医療の診断においては、患者を撮影した画像に基づいて、患者の現在の症状を特定するだけでなく、その後の撮影対象の状態の変化を予測することが望まれる場合がある。   By the way, in medical diagnosis, it may be desired not only to identify the current symptom of a patient based on an image obtained by imaging the patient, but also to predict a change in the state of the subsequent imaging target.

本発明の目的は、患者を撮影した画像における撮影対象の状態の変化を予測することを支援するプログラムおよび情報処理装置を提供することである。   An object of the present invention is to provide a program and an information processing apparatus that assist in predicting a change in the state of an imaging target in an image obtained by imaging a patient.

請求項1に係る発明は、処理対象の画像である対象画像の特徴を表す特徴量を算出するステップと、過去に撮影された患者の画像のそれぞれの特徴を表す特徴量を記憶した特徴量記憶手段を参照し、前記対象画像の前記特徴量と前記患者の画像のそれぞれの前記特徴量とを用いて前記対象画像に類似する前記患者の画像を特定するステップと、前記過去に撮影された患者の画像を用いて求められた、患者の画像の時間による変化を表す情報を記憶した変化情報記憶手段から、前記特定するステップで特定された画像の時間による変化を表す情報を取得し、取得した情報を用いて、撮影対象部位の全体の変化を表現する関数、及び病変領域の非線形の変化を表現する関数を含む、画像の変換関数を生成するステップと、前記生成するステップで生成された変換関数を用いて前記対象画像を変換した画像を出力するステップと、をコンピュータに実行させるためのプログラムである。 The invention according to claim 1 is a feature amount storage that stores a feature amount representing a feature of a target image that is an image to be processed, and a feature amount representing each feature of a patient image captured in the past. Means for identifying the patient image similar to the target image using the feature amount of the target image and the feature amount of each of the patient images, and the patient photographed in the past The information indicating the change with time of the image specified in the specifying step is acquired from the change information storage means storing the information indicating the change with time of the patient image obtained using the image of using the information, the function representing the total change in the imaging target site, and a function representing the change in nonlinear lesion area, and generating an image conversion function, in said step of generating And outputting an image obtained by converting the target image using the transform function has been made, is a program for causing a computer to execute the.

請求項2に係る発明は、請求項1に係る発明において、前記変化情報記憶手段は、患者を撮影した第一の画像と、当該第一の画像の撮影時期以降に当該患者を撮影した第二の画像に変換する変換関数を定めるパラメータであって当該第一の画像および当該第二の画像を用いて算出されたパラメータと、当該第一の画像の撮影時期から当該第二の画像の撮影時期までの経過時間と、を関連づけて記憶し、前記特徴量記憶手段は、前記第一の画像のそれぞれの前記特徴量を記憶し、前記特定するステップにおいて、前記対象画像に類似する前記第一の画像が特定され、前記画像の変換関数を生成するステップにおいて、前記特定するステップで特定された第一の画像に関連づけられたパラメータであって前記経過時間関連づけられたパラメータを前記変化情報記憶手段から取得し、取得したパラメータを用いて前記対象画像の変換関数を生成する。 The invention according to claim 2 is the invention according to claim 1, wherein the change information storage means includes a first image obtained by photographing the patient and a second image obtained by photographing the patient after the photographing time of the first image. A parameter for determining a conversion function to be converted into the first image, the parameter calculated using the first image and the second image, and the shooting time of the second image from the shooting time of the first image The feature amount storage means stores the feature amount of each of the first images, and in the specifying step, the first amount similar to the target image is stored. image is specified, in the step of generating the conversion function of the image, the first time before Symbol course a parameter associated with the image specified in the step of the identified associated parameters Obtained from the change information storing means, for generating a transform function of the target image using the obtained parameter.

請求項3に係る発明は、請求項2に係る発明において、前記対象画像および前記第一の画像のそれぞれの前記特徴量は、当該画像において病変を含む領域であると判定された病変領域の特徴を表し、前記パラメータは、前記第一の画像における前記病変領域の画像を前記第二の画像における前記病変領域の画像に変換する変換関数を定めるパラメータである。   According to a third aspect of the present invention, in the second aspect of the invention, the feature amount of each of the target image and the first image is a feature of a lesion area determined to be a region including a lesion in the image. The parameter is a parameter that defines a conversion function for converting the image of the lesion area in the first image into the image of the lesion area in the second image.

請求項4に係る発明は、請求項2または3に係る発明において、患者と、患者を撮影した画像と、当該画像の撮影時期と、を関連づけて記憶した画像記憶手段に記憶された画像のうちの少なくとも1つを初期状態画像とし、当該初期状態画像の撮影時期以降に当該初期状態画像の患者を撮影した画像を前記画像記憶手段から取得し、取得した画像と前記初期状態画像とを用いて、前記初期状態画像を当該取得した画像に変換する変換関数を定めるパラメータを算出するステップと、前記初期状態画像を前記第一の画像とし、前記パラメータを算出するステップで前記画像記憶手段から取得した画像を前記第二の画像として、前記第一の画像とした前記初期状態画像と、前記パラメータを算出するステップで算出したパラメータと、前記初期状態画像の撮影時期から前記第二の画像とした画像の撮影時期までの経過時間と、を互いに関連づけて前記変化情報記憶手段に対して出力するステップと、を前記コンピュータにさらに実行させる。   According to a fourth aspect of the present invention, in the invention according to the second or third aspect, among the images stored in the image storage means that stores the patient, the image obtained by photographing the patient, and the photographing time of the image in association with each other. At least one of the initial state images is taken as an initial state image, an image obtained by photographing the patient of the initial state image after the photographing time of the initial state image is obtained from the image storage means, and the obtained image and the initial state image are used. The initial state image is obtained from the image storage means in a step of calculating a parameter for determining a conversion function for converting the acquired initial image into the obtained image, and the initial state image is the first image. Using the image as the second image, the initial state image as the first image, the parameter calculated in the step of calculating the parameter, and the initial state And outputting to the change information storing means the elapsed time, the in association with each other from the photographing time of the image to the photographing time of image and said second image, further the computer to execute a.

請求項5に係る発明は、請求項2から4のいずれか1項に係る発明において、前記対象画像の撮影時期から、前記画像の変換関数を生成するステップで用いられたパラメータに関連づけられた経過時間が経過したときに前記対象画像に係る患者を撮影した画像である結果画像を取得するステップと、前記画像の変換関数を生成するステップで用いられたパラメータを前記結果画像に基づいて評価して求めた評価値を当該パラメータに関連づけて前記変化情報記憶手段に対して出力するステップと、をさらに前記コンピュータに実行させ、前記画像の変換関数を生成するステップにおいて、前記取得したパラメータの前記評価値をさらに用いて前記画像の変換関数を生成する。 The invention according to claim 5 is the invention according to any one of claims 2 4 from capturing timing of the target image, associated associated with the parameters used in the step of generating the conversion function of the image The parameter used in the step of obtaining a result image that is an image of a patient related to the target image when the elapsed time has passed and the step of generating a conversion function of the image is evaluated based on the result image Outputting the evaluation value obtained in association with the parameter to the change information storage means, and further causing the computer to execute the step of generating a conversion function of the image. The evaluation function is further used to generate a conversion function for the image.

請求項6に係る発明は、処理対象の画像である対象画像の特徴を表す特徴量を算出する算出手段と、過去に撮影された患者の画像のそれぞれの特徴を表す特徴量を記憶した特徴量記憶手段を参照し、前記対象画像の前記特徴量と前記患者の画像のそれぞれの前記特徴量とを用いて前記対象画像に類似する前記患者の画像を特定する特定手段と、前記過去に撮影された患者の画像を用いて求められた、患者の画像の時間による変化を表す情報を記憶した変化情報記憶手段から、前記特定手段が特定した画像の時間による変化を表す情報を取得し、取得した情報を用いて、撮影対象部位の全体の変化を表現する関数、及び病変領域の非線形の変化を表現する関数を含む、画像の変換関数を生成する生成手段と、前記生成手段が生成した変換関数を用いて前記対象画像を変換した画像を出力する出力手段と、を備えることを特徴とする情報処理装置である。 According to a sixth aspect of the present invention, there is provided a calculation unit that calculates a feature amount that represents a feature of a target image that is an image to be processed, and a feature amount that stores a feature amount that represents each feature of a patient image captured in the past. Referring to storage means, specifying means for specifying the patient image similar to the target image using the feature quantity of the target image and the feature quantity of each of the patient images; Obtained from the change information storage means storing the information representing the change of the patient image over time, which was obtained using the patient image, and obtained the information representing the change over time of the image specified by the specifying means A generating unit that generates a conversion function of an image including a function that expresses a change in the whole region to be imaged using information and a function that expresses a non-linear change in a lesion area; and a conversion function generated by the generating unit The And output means for outputting an image obtained by converting the target image have an information processing apparatus, characterized in that it comprises a.

請求項1または6に係る発明によると、患者を撮影した画像における撮影対象の状態の変化を予測することを支援できる。   According to the invention which concerns on Claim 1 or 6, it can assist estimating the change of the state of the imaging | photography object in the image which image | photographed the patient.

請求項2に係る発明によると、経過時間毎の撮影対象の状態を予測した画像をユーザに提示できる。   According to the invention which concerns on Claim 2, the image which estimated the state of the imaging | photography object for every elapsed time can be shown to a user.

請求項3に係る発明によると、患者を撮影した画像における病変領域の時間による変化を予測することを支援できる。   According to the third aspect of the present invention, it is possible to assist in predicting a change in a lesion area over time in an image obtained by imaging a patient.

請求項4に係る発明によると、患者を撮影した画像から、ある時間の経過による画像の変化を表すパラメータを算出して記録できる。   According to the invention which concerns on Claim 4, the parameter showing the change of the image by progress of a certain time can be calculated and recorded from the image which image | photographed the patient.

請求項5に係る発明によると、ある経過時間における撮影対象の状態を予測した画像の生成に用いられたパラメータを、当該経過時間が経過した時点で実際に撮影された画像を用いて評価して求めた評価値を用いて、画像の変換関数を生成できる。   According to the invention according to claim 5, the parameter used for generating the image in which the state of the photographing target at a certain elapsed time is predicted is evaluated using the image actually taken when the elapsed time has passed. An image conversion function can be generated using the obtained evaluation value.

診断支援装置の構成の例を示す機能ブロック図である。It is a functional block diagram which shows the example of a structure of a diagnostic assistance apparatus. 読影レポートDBのデータ内容の例を示す図である。It is a figure which shows the example of the data content of interpretation report DB. 特徴量DBのデータ内容の例を示す図である。It is a figure which shows the example of the data content of feature-value DB. 変形係数を求める処理の手順の例を説明するための図である。It is a figure for demonstrating the example of the procedure of the process which calculates | requires a deformation coefficient. 変形モデルDBのデータ内容の例を示す図である。It is a figure which shows the example of the data content of deformation | transformation model DB. 予測画像DBのデータ内容の例を示す図である。It is a figure which shows the example of the data content of prediction image DB. 変形モデル生成処理の手順の例を示すフローチャートである。It is a flowchart which shows the example of the procedure of a deformation | transformation model production | generation process. 予測画像生成処理の手順の例を示すフローチャートである。It is a flowchart which shows the example of the procedure of a predicted image generation process. 予測画像生成処理において変形モデルDBから取得される変形ベクトルの例を示す図である。It is a figure which shows the example of the deformation | transformation vector acquired from deformation | transformation model DB in a prediction image generation process. 各種のデータベースを更新する処理の手順の例を示すフローチャートである。It is a flowchart which shows the example of the procedure of the process which updates various databases. 変形係数の重みを求める処理の手順の例を示すフローチャートである。It is a flowchart which shows the example of the procedure of the process which calculates | requires the weight of a deformation coefficient. コンピュータのハードウエア構成の例を示す図である。It is a figure which shows the example of the hardware constitutions of a computer.

図1に、本発明の一実施形態の例の情報処理装置として機能する診断支援装置10の構成の例を示す。診断支援装置10は、入力受付部100、過去病例DB(データベース)102、読影レポートDB104、特徴量算出部106、特徴量DB108、変形モデル生成部110、変形モデルDB112、類似画像検索部114、予測画像生成部116、予測画像DB118、および出力処理部120を備える。   FIG. 1 shows an example of the configuration of a diagnosis support apparatus 10 that functions as an information processing apparatus according to an embodiment of the present invention. The diagnosis support apparatus 10 includes an input reception unit 100, a past case DB (database) 102, an interpretation report DB 104, a feature amount calculation unit 106, a feature amount DB 108, a deformation model generation unit 110, a deformation model DB 112, a similar image search unit 114, and a prediction An image generation unit 116, a predicted image DB 118, and an output processing unit 120 are provided.

入力受付部100は、診断支援装置10に対するユーザの指示などを表す入力を受け付ける。ユーザによる入力は、マウスやキーボードなどの図示しない入力装置を介して入力受付部100により取得される。また、入力受付部100は、診断支援装置10の処理対象となる医用画像の入力を受け付けることもある。医用画像は、患者を撮影して得られる画像であり、例えば、X線写真、MRI(Magnetic Resonance Imaging)画像、またはCT(Computed Tomography)画像など、医療の診断に用いられる各種の画像のいずれであってもよい。入力受付部100は、例えば、診断支援装置10に通信手段を介して接続された他の情報処理装置から医用画像を受信したり、医用画像を形成する装置から医用画像を取得したりする。   The input receiving unit 100 receives an input representing a user instruction or the like to the diagnosis support apparatus 10. Input by the user is acquired by the input receiving unit 100 via an input device (not shown) such as a mouse or a keyboard. In addition, the input receiving unit 100 may receive an input of a medical image to be processed by the diagnosis support apparatus 10. A medical image is an image obtained by imaging a patient. For example, any of various images used for medical diagnosis such as an X-ray photograph, an MRI (Magnetic Resonance Imaging) image, or a CT (Computed Tomography) image. There may be. For example, the input reception unit 100 receives a medical image from another information processing apparatus connected to the diagnosis support apparatus 10 via a communication unit, or acquires a medical image from an apparatus that forms a medical image.

過去病例DB102は、過去に撮影された医用画像の画像データを記憶するデータベースである。画像データは、画素ごとに色相、輝度、または明度などの値を有するデジタル画像データであってよい。以下の説明では、画像データを単に「画像」と呼ぶこともある。また、本実施形態の例において、過去病例DB102に記憶される画像には、それぞれ、画像を識別するための識別情報である画像IDが付与されているものとする。例えば、当該画像の名称および過去病例DB102における当該画像の格納位置を含む情報を画像IDとして用いてもよい。   The past disease case DB 102 is a database that stores image data of medical images taken in the past. The image data may be digital image data having a value such as hue, luminance, or brightness for each pixel. In the following description, the image data may be simply referred to as “image”. In the example of the present embodiment, it is assumed that an image ID that is identification information for identifying an image is assigned to each image stored in the past disease case DB 102. For example, information including the name of the image and the storage position of the image in the past case DB 102 may be used as the image ID.

読影レポートDB104は、過去病例DB102に記憶された各画像について、診断に関する情報を記憶するデータベースである。図2に、読影レポートDB104の内容の例を示す。図2の例の読影レポートDB104には、各画像の画像IDに対応づけて、患者ID、疾病ID、処置ID、撮影日、患者情報、および所見の各項目の内容が登録される。患者IDは、対応する画像データの撮影対象の患者を識別するための識別情報である。疾病IDは、対応する患者の疾病の種類を識別するための識別情報である。処置IDは、対応する患者に対して行われた処置(投薬や手術など)を識別するための識別情報である。撮影日は、対応する画像IDの画像が撮影された日付を表す。「撮影日」の代わりに、画像が撮影された時期を表す「撮影時期」の項目を設け、日付と共に撮影の時刻を登録しておいてもよい。患者情報は、対応する患者の氏名、年齢、および性別など、患者に関する情報を表す。所見は、対応する画像IDの画像についての医師の見解を表す。以上に例示した各項目の値は、画像IDを指定する情報と共にユーザにより入力され、指定された画像IDに対応づけて読影レポートDB104に登録される。なお、読影レポートDB104には、過去病例DB102に記憶された各画像についての上述の情報だけでなく、後述の予測画像生成部116が生成した予測画像に関する情報をさらに記憶しておいてもよい。   The interpretation report DB 104 is a database that stores information related to diagnosis for each image stored in the past case DB 102. FIG. 2 shows an example of the contents of the interpretation report DB 104. In the interpretation report DB 104 in the example of FIG. 2, the contents of each item of patient ID, disease ID, treatment ID, photographing date, patient information, and findings are registered in association with the image ID of each image. The patient ID is identification information for identifying a patient to be imaged of corresponding image data. The disease ID is identification information for identifying the type of disease of the corresponding patient. The treatment ID is identification information for identifying a treatment (medicine, surgery, etc.) performed on the corresponding patient. The shooting date represents the date when the image with the corresponding image ID was shot. Instead of “shooting date”, an item of “shooting time” indicating the time when the image was shot may be provided, and the shooting time may be registered together with the date. Patient information represents information about the patient, such as the name, age, and gender of the corresponding patient. The finding represents a doctor's view of the image with the corresponding image ID. The value of each item illustrated above is input by the user together with information specifying the image ID, and is registered in the interpretation report DB 104 in association with the specified image ID. Note that the interpretation report DB 104 may further store not only the above-described information about each image stored in the past disease example DB 102 but also information related to a predicted image generated by the predicted image generation unit 116 described later.

再び図1を参照し、特徴量算出部106は、医用画像の特徴を表す特徴量を算出する。特徴量算出部106は、過去病例DB102に記憶された画像の特徴量を算出することもあるし、入力受付部100が取得した画像の特徴量を算出することもある。本実施形態の例では、特徴量算出部106は、画像における病変の領域を特定し、特定した病変領域の画像中の位置、大きさ、および形状を表す値を当該画像の特徴量として算出する。画像における病変の領域を特定する手法としては、医用画像における病変領域(異常領域)の特定において従来から用いられている手法を用いればよい。例えば、画像中に存在する円形状の陰影を強調する処理を行った上でモルフォロジカルフィルタを用いて腫瘍影などの孤立陰影を抽出する手法(特開2004−336378号公報を参照)や、健康な人物を撮影して得られた画像のデータと処理対象の画像のデータとを比較することで処理対象の画像のデータの異常領域を特定する手法などを用いればよい。特徴量算出部106は、画像について算出した特徴量を当該画像の画像IDと対応づけて特徴量DB108に登録する。   Referring to FIG. 1 again, the feature amount calculation unit 106 calculates a feature amount representing the feature of the medical image. The feature amount calculation unit 106 may calculate the feature amount of the image stored in the past case DB 102, or may calculate the feature amount of the image acquired by the input receiving unit 100. In the example of the present embodiment, the feature amount calculation unit 106 specifies a lesion area in the image, and calculates a value representing the position, size, and shape of the specified lesion area in the image as the feature amount of the image. . As a technique for specifying a lesion area in an image, a technique conventionally used in specifying a lesion area (abnormal area) in a medical image may be used. For example, a method of extracting isolated shadows such as tumor shadows using a morphological filter after performing processing to emphasize circular shadows existing in an image (see JP 2004-336378 A), health A method of identifying an abnormal region in the data of the processing target image by comparing the data of the image obtained by photographing a person and the data of the processing target image may be used. The feature amount calculation unit 106 registers the feature amount calculated for the image in the feature amount DB 108 in association with the image ID of the image.

特徴量DB108は、画像の特徴量を記憶するデータベースである。図3は、本実施形態の例における特徴量DB108のデータ内容の例を示す。図3の例の表では、各画像の画像IDに対応づけて、その画像IDの画像について特徴量算出部106が算出した特徴量が登録されている。特徴量は、病変の位置、病変の大きさ、および病変の形状の各項目を含む。病変の位置は、画像における病変領域の位置を表し、例えば、画像に対して定義された座標系における、病変領域の中心点の座標で表される。病変の大きさは、例えば、画像における病変領域の面積を表す。あるいは、例えば、画像全体の面積に対する病変領域の面積の割合を病変の大きさの値としてもよい。病変の形状は、例えば、画像中の病変領域の形状の種類(円形、楕円形、多角形など)を表す値であってもよいし、病変領域の形状を近似した関数であってもよい。あるいは、画像において特定された病変領域の画像データを当該画像から抽出し、抽出した画像データ自体を病変の形状として登録しておいてもよい。   The feature amount DB 108 is a database that stores image feature amounts. FIG. 3 shows an example of the data contents of the feature amount DB 108 in the example of the present embodiment. In the table of the example of FIG. 3, the feature amount calculated by the feature amount calculation unit 106 for the image with the image ID is registered in association with the image ID of each image. The feature amount includes items of a lesion position, a lesion size, and a lesion shape. The position of the lesion represents the position of the lesion area in the image, for example, the coordinates of the center point of the lesion area in the coordinate system defined for the image. The size of the lesion represents, for example, the area of the lesion area in the image. Alternatively, for example, the ratio of the area of the lesion area to the area of the entire image may be used as the value of the lesion size. The shape of the lesion may be, for example, a value representing the shape of the lesion area in the image (such as a circle, an ellipse, or a polygon), or may be a function that approximates the shape of the lesion area. Alternatively, image data of a lesion area specified in an image may be extracted from the image, and the extracted image data itself may be registered as a lesion shape.

図1の説明に戻り、変形モデル生成部110は、医用画像の時間変化のモデルである変形モデルを生成する。本実施形態の例の変形モデル生成部110は、過去病例DB102、読影レポートDB104、および特徴量DB108を参照し、同じ患者を撮影した画像の時系列における非線形の変化を表す変形係数を求める。   Returning to the description of FIG. 1, the deformation model generation unit 110 generates a deformation model that is a model of temporal change of a medical image. The deformation model generation unit 110 according to the example of the present embodiment refers to the past case DB 102, the interpretation report DB 104, and the feature amount DB 108, and obtains a deformation coefficient that represents a non-linear change in time series of images obtained by photographing the same patient.

以下、変形係数を求める手順の例を説明する。変形モデル生成部110は、読影レポートDB104において特定の患者ID、疾病ID、および処置IDの組に対応づけられた画像IDを特定する。さらに、特定した画像IDの画像を過去病例DB102から読み出し、特定した画像IDの特徴量を特徴量DB108から読み出す。本例では、図4に示すように、1人の肺癌患者の肺を撮影した画像I0,I1,I2を過去病例DB102から読み出し、各画像I0,I1,I2の特徴量(病変領域(円r0,r1,r2で囲んだ領域)の位置、大きさ、および形状)を特徴量DB108から読み出したとする。また、画像I0,I1,I2は、この順に3ヶ月間隔で撮影されたものであるとする。変形モデル生成部110は、読影レポートDB104に登録された各画像の撮影日から、画像I0,I1,I2の撮影の順番および時間間隔を求める。変形モデル生成部110は、画像Iiにおける病変領域の画像を画像Ijにおける病変領域の画像に変換する変換関数Tを定義するパラメータを、画像Iiから画像Ijへの変形係数として求める(ここで、i,j=0,1,2;i<jとする)。本例では、この変換関数Tは、2つの変換マトリクスTglobal,Tlocalにより、T=Tglobal+Tlocalとして表される変換マトリクスであるとする。 Hereinafter, an example of a procedure for obtaining the deformation coefficient will be described. The deformation model generation unit 110 specifies an image ID associated with a set of a specific patient ID, disease ID, and treatment ID in the interpretation report DB 104. Further, the image of the specified image ID is read from the past disease case DB 102, and the feature amount of the specified image ID is read from the feature amount DB 108. In this example, as shown in FIG. 4, images I0, I1, and I2 obtained by photographing the lungs of one lung cancer patient are read from the past disease case DB 102, and feature amounts (lesion regions (circles r0) of the images I0, I1, and I2 are read. , R1, r2)), the position, size, and shape) are read from the feature value DB 108. The images I0, I1, and I2 are taken in this order at intervals of three months. The deformation model generation unit 110 obtains the shooting order and time interval of the images I0, I1, and I2 from the shooting date of each image registered in the interpretation report DB 104. The deformation model generation unit 110 obtains, as a deformation coefficient from the image Ii to the image Ij, a parameter that defines the conversion function T for converting the image of the lesion area in the image Ii into the image of the lesion area in the image Ij (where i , J = 0, 1, 2; i <j). In this example, it is assumed that this conversion function T is a conversion matrix expressed as T = T global + T local by two conversion matrices T global and T local .

変換マトリクスTglobalは、画像における撮影対象部位の全体の変化を表現する。同じ患者の同じ撮影対象部位を撮影した画像であっても、撮影のタイミングが異なると、完全に同一の画像になるとは限らない。このような画像間の差異を表現するため、本例の変換マトリクスTglobalは、式(1)に示すとおり、アフィン変換を表す行列とする。
[数1]

Figure 0005655327
ここで、(x,y)は、変換前の画像Iiにおける一画素の座標を表す。式(1)のθ11,θ12,θ21,θ22,θ13,θ23は、変換マトリクスTglobalを定義するパラメータである。 The conversion matrix T global expresses the entire change of the imaging target part in the image. Even images obtained by photographing the same subject to be photographed of the same patient may not be completely the same if the photographing timing is different. In order to express such a difference between images, the transformation matrix T global of this example is a matrix representing affine transformation as shown in Expression (1).
[Equation 1]
Figure 0005655327
Here, (x, y) represents the coordinates of one pixel in the image Ii before conversion. In Equation (1), θ 11 , θ 12 , θ 21 , θ 22 , θ 13 , and θ 23 are parameters that define the conversion matrix T global .

変換マトリクスTlocalは、画像における病変領域の変化を表現する。本例の変換マトリクスTlocalは、自由形状変形(Free Form Deformation,FFD)による変換を表す。具体的には、画像における病変領域において、Nx×Nyのメッシュによる制御点を生成し、この制御点を用いる式(2)の変換マトリクスTlocalにより、病変領域の変化を表す。
[数2]

Figure 0005655327
ただし、
[数3]
Figure 0005655327
である。また、式(2)において、関数BはB−スプライン関数である。式(2)の変換マトリクスTlocalを定義するパラメータは、Nx,Nyである。 The transformation matrix T local represents the change of the lesion area in the image. The conversion matrix T local in this example represents conversion by free form deformation (FFD). Specifically, in the lesion area in the image, a control point by an Nx × Ny mesh is generated, and the change of the lesion area is represented by the transformation matrix T local of Expression (2) using this control point.
[Equation 2]
Figure 0005655327
However,
[Equation 3]
Figure 0005655327
It is. Moreover, in Formula (2), the function B is a B-spline function. The parameters that define the transformation matrix T local in equation (2) are Nx, Ny.

変形モデル生成部110は、画像Iiおよび画像Ijと、各画像の特徴量(病変領域の位置、大きさ、形状)と、を用いて、変換マトリクスTglobal,Tlocalのパラメータθ11,θ12,θ21,θ22,θ13,θ23,Nx,Nyの値を求める。例えば、画像Iiにおける病変領域の画像と画像Ijの病変領域における画像との間の相互情報量(Mutual Information,MI)を最大化するパラメータθ11,θ12,θ21,θ22,θ13,θ23,Nx,Nyの値を求める。相互情報量は、次の式(3)により表される。
[数4]

Figure 0005655327
式(3)において、H(I(S)),H(I(S))は、それぞれ、画像Ii,Ijの病変領域の画像のエントロピーを表す。また、H(I(S),I(S))は、画像Iiおよび画像Ijの病変領域の画像の結合エントロピーを表す。 The deformation model generation unit 110 uses the images Ii and Ij and the feature amount (position, size, and shape of the lesion area) of each image, and the parameters θ 11 and θ 12 of the transformation matrices T global and T local. , Θ 21 , θ 22 , θ 13 , θ 23 , Nx, Ny are obtained. For example, the parameters θ 11 , θ 12 , θ 21 , θ 22 , θ 13 , and the like that maximize the mutual information (Mutual Information, MI) between the image of the lesion area in the image Ii and the image in the lesion area of the image Ij. The values of θ 23 , Nx, Ny are obtained. The mutual information amount is expressed by the following equation (3).
[Equation 4]
Figure 0005655327
In Expression (3), H (I (S i )) and H (I (S j )) represent the entropy of the lesion areas of the images Ii and Ij, respectively. H (I (S i ), I (S j )) represents the combined entropy of the image Ii and the image of the lesion area of the image Ij.

式(3)の相互情報量を最大化するよう求めたパラメータの値を、変形モデル生成部110は、画像Iiから画像Ijへの変形係数P=(θ11,θ12,θ21,θ22,θ13,θ23,Nx,Ny)とする。変形モデル生成部110は、画像Iiから画像Ijへの変形係数Pを求めると、画像Iiを初期状態Sとし、画像Iiの撮影時期と画像Ijの撮影時期との間の時間間隔を経過時間tとし、求めた変形係数Pを初期状態Sおよび経過時間tと関連づけて変形モデルDB112に登録する。以下では、初期状態S、変形係数P、および経過時間tにより表されるベクトル(S,P,t)を「変形ベクトル」と呼ぶ。また、過去病例DB102に記憶された複数の画像のそれぞれを初期状態とする変形ベクトルの集合を「変形モデル」と呼ぶ。 Using the parameter values obtained to maximize the mutual information amount of Expression (3), the deformation model generation unit 110 uses the deformation coefficients P = (θ 11 , θ 12 , θ 21 , θ 22 from the image Ii to the image Ij. , Θ 13 , θ 23 , Nx, Ny). When the deformation model generation unit 110 obtains the deformation coefficient P from the image Ii to the image Ij, the image Ii is set to the initial state S, and the time interval between the shooting time of the image Ii and the shooting time of the image Ij is set as the elapsed time t. And the obtained deformation coefficient P is registered in the deformation model DB 112 in association with the initial state S and the elapsed time t. Hereinafter, the vector (S, P, t) represented by the initial state S, the deformation coefficient P, and the elapsed time t is referred to as a “deformation vector”. In addition, a set of deformation vectors whose initial state is each of a plurality of images stored in the past disease case DB 102 is referred to as a “deformation model”.

変形モデルDB112は、変形モデル生成部110が生成した変形モデルを記憶するデータベースである。図5に、変形モデルDB112のデータ内容の一例を示す。図5の例の表では、患者ID、疾病ID、処置ID、初期状態S、および(変形係数P,経過時間t)の各項目が互いに関連づけられている。図5の例の表の一行は、1つの画像を初期状態として求められた変形ベクトルの情報を表すレコードである。図5の例の表において、患者ID、疾病ID、および処置IDの値は、対応する初期状態Sの画像に関連づけて読影レポートDB104に登録された値であり、変形モデル生成部110により読影レポートDB104から取得されて変形モデルDB112に登録される。また、本例において、初期状態Sの値は、対応する画像の画像IDであるとする。また、図5の例の表において、(変形係数P,経過時間t)の項目における各列は、同じ経過時間を含む変形ベクトルの情報を表す。文字列「N/A」は、対応する行の初期状態の画像について対応する列の経過時間の変形ベクトルが生成されていないことを表す。つまり、当該行の初期状態の画像の撮影日から当該列の経過時間が経過した時に撮影された画像であって、当該初期状態の画像と同じ患者ID、疾病ID、および処置IDの組合せに関連づけられる画像が過去病例DB102に登録されていないことを表す。   The deformation model DB 112 is a database that stores the deformation model generated by the deformation model generation unit 110. FIG. 5 shows an example of data contents of the deformation model DB 112. In the table of the example of FIG. 5, the items of patient ID, disease ID, treatment ID, initial state S, and (deformation coefficient P, elapsed time t) are associated with each other. One row of the table in the example of FIG. 5 is a record representing information on the deformation vector obtained with one image as an initial state. In the example table of FIG. 5, the values of the patient ID, the disease ID, and the treatment ID are values registered in the interpretation report DB 104 in association with the corresponding image in the initial state S, and the interpretation model generation unit 110 interprets the interpretation report. Obtained from the DB 104 and registered in the deformation model DB 112. In this example, it is assumed that the value of the initial state S is the image ID of the corresponding image. Further, in the table of the example of FIG. 5, each column in the item of (deformation coefficient P, elapsed time t) represents information of a deformation vector including the same elapsed time. The character string “N / A” indicates that the deformation vector of the elapsed time of the corresponding column is not generated for the image in the initial state of the corresponding row. In other words, the image is taken when the elapsed time of the column has elapsed from the date of photographing the initial state image of the row, and is associated with the same combination of the patient ID, disease ID, and treatment ID as the initial state image. The image to be displayed is not registered in the past disease case DB 102.

類似画像検索部114は、過去病例DB102に登録された画像のうち、入力受付部100が処理対象として受け付けたクエリ画像に類似する画像を検索する。類似画像検索部114は、例えば、特徴量算出部106が算出したクエリ画像の特徴量と、特徴量DB108に登録された各画像の特徴量と、の間の類似度を求め、類似度が予め設定された閾値より大きい画像を類似画像として特定する。2つの特徴量間の類似度は、例えば、各特徴量をベクトル形式で表し、2つの特徴量のベクトル間の類似の程度を表す値を算出することで得られる。ベクトル間の類似の程度を表す値として、例えば、相関係数またはユークリッド距離などを算出すればよい。   The similar image search unit 114 searches for images similar to the query image received as a processing target by the input receiving unit 100 among the images registered in the past case DB 102. For example, the similar image search unit 114 obtains a similarity between the feature amount of the query image calculated by the feature amount calculation unit 106 and the feature amount of each image registered in the feature amount DB 108, and the similarity is calculated in advance. An image larger than the set threshold is specified as a similar image. The degree of similarity between two feature quantities can be obtained, for example, by representing each feature quantity in a vector format and calculating a value representing the degree of similarity between the two feature quantity vectors. As a value representing the degree of similarity between vectors, for example, a correlation coefficient or Euclidean distance may be calculated.

予測画像生成部116は、入力受付部100が処理対象として受け付けたクエリ画像の撮影時期から、ある時間が経過したときの撮影対象の状態を予測した画像である予測画像を生成する。予測画像生成部116は、類似画像検索部114により検索された、クエリ画像の類似画像のそれぞれを初期状態Sとする変形ベクトルを変形モデルDB112から取得する。取得した変形ベクトルのうち、同じ経過時間を含む変形ベクトルの集合ごとに、当該集合の変形ベクトルに含まれる変形係数を平均し、この結果の値を変形パラメータとする。以下の説明において、「変形パラメータ」の語は、画像の変換関数を定義するパラメータであって、複数の変形ベクトルに含まれる変形係数を用いて求められるパラメータを意味する。予測画像生成部116は、変形パラメータにより定義される変換関数T=Tglobal+Tlocal(式(1),式(2)参照)を用いてクエリ画像を変換し、変換した画像を予測画像とする。このように生成された予測画像は、変形パラメータの生成に用いられた変形ベクトルに含まれる経過時間が経過した時点での、クエリ画像の撮影対象の状態を予測した画像であると言える。 The predicted image generation unit 116 generates a predicted image that is an image obtained by predicting the state of the shooting target when a certain time has elapsed from the shooting time of the query image received as the processing target by the input receiving unit 100. The predicted image generation unit 116 acquires, from the deformation model DB 112, a deformation vector having the initial state S for each of the similar images of the query image searched by the similar image search unit 114. Of the acquired deformation vectors, for each set of deformation vectors including the same elapsed time, the deformation coefficients included in the deformation vectors of the set are averaged, and the value of the result is used as a deformation parameter. In the following description, the term “deformation parameter” refers to a parameter that defines an image conversion function and is obtained using a deformation coefficient included in a plurality of deformation vectors. The predicted image generation unit 116 converts the query image using a conversion function T = T global + T local (see formula (1) and formula (2)) defined by the deformation parameter, and uses the converted image as the predicted image. . It can be said that the predicted image generated in this way is an image obtained by predicting the state of the query image to be captured when the elapsed time included in the deformation vector used to generate the deformation parameter has elapsed.

予測画像DB118は、予測画像を記憶するデータベースである。予測画像DB118は、元のクエリ画像に対応づけて、経過時間と当該経過時間に係る予測画像とを記憶する。図6に、予測画像DB118のデータ内容の一例を示す。図6の例の表では、各クエリ画像の画像IDに対応づけて、「経過時間」の項目の時間が経過した場合について生成された予測画像の識別情報である予測画像IDが登録されている。予測画像IDの代わりに、該当する予測画像の予測画像DB118における格納位置を登録しておいてもよい。   The predicted image DB 118 is a database that stores predicted images. The predicted image DB 118 stores an elapsed time and a predicted image related to the elapsed time in association with the original query image. In FIG. 6, an example of the data content of prediction image DB118 is shown. In the table of the example of FIG. 6, a predicted image ID that is identification information of a predicted image generated when the time of the “elapsed time” item has elapsed is registered in association with the image ID of each query image. . Instead of the predicted image ID, the storage position of the corresponding predicted image in the predicted image DB 118 may be registered.

出力処理部120は、予測画像を出力する処理を行う。出力処理部120は、例えば、予測画像DB118に記憶された予測画像を図示しない表示装置に表示させる。このとき、当該予測画像の基になったクエリ画像、対応する経過時間、およびクエリ画像の撮影対象の患者に関する情報などを予測画像と共に表示装置に表示させてもよい。また、出力処理部120は、予め定義された書式に従って、予測画像を含む文書である予測レポートを生成して出力してもよい。予測レポートは、予測画像と予測画像に関連する各種の情報とを含む。予測画像に関連する各種の情報とは、例えば、予測の基になったクエリ画像、経過時間、撮影対象の患者、疾病、処置、および検査結果などである。予測レポートは、例えば、XML(Extensible Markup Language)形式の文書であってよい。予測レポートの出力先は、読影レポートDB104であってもよいし、診断支援装置10に接続された他の情報処理装置であってもよい。   The output processing unit 120 performs processing for outputting a predicted image. For example, the output processing unit 120 displays the predicted image stored in the predicted image DB 118 on a display device (not shown). At this time, the query image that is the basis of the predicted image, the corresponding elapsed time, information on the patient to be imaged of the query image, and the like may be displayed on the display device together with the predicted image. Further, the output processing unit 120 may generate and output a prediction report that is a document including a predicted image in accordance with a predefined format. The prediction report includes a prediction image and various types of information related to the prediction image. The various types of information related to the predicted image include, for example, a query image that is the basis of prediction, elapsed time, a patient to be imaged, a disease, a treatment, and a test result. The prediction report may be, for example, a document in an XML (Extensible Markup Language) format. The output destination of the prediction report may be the interpretation report DB 104 or another information processing apparatus connected to the diagnosis support apparatus 10.

図7は、診断支援装置10において行われる変形モデル生成処理の手順の例を示すフローチャートである。図7の例の手順が開始される前に、過去病例DB102には過去に撮影された画像が登録済みであり、読影レポートDB104には、過去病例DB102に登録済みの各画像についての情報(図2参照)が登録済みであるとする。   FIG. 7 is a flowchart illustrating an example of a procedure of a deformation model generation process performed in the diagnosis support apparatus 10. Before the procedure of the example of FIG. 7 is started, images taken in the past have been registered in the past case DB 102, and information about each image registered in the past case DB 102 is stored in the interpretation report DB 104 (see FIG. 7). 2) is registered.

図7を参照し、まず、診断支援装置10の特徴量算出部106は、過去病例DB102に記憶された各画像の特徴量を算出する(ステップS10)。本例において、特徴量算出部106は、各画像における病変領域を特定し、その病変領域の位置、大きさ、および形状を当該画像の特徴量として求める。特徴量算出部106は、算出した特徴量を、各画像の画像IDに対応づけて特徴量DB108に登録する(ステップS12)。   Referring to FIG. 7, first, the feature amount calculation unit 106 of the diagnosis support apparatus 10 calculates the feature amount of each image stored in the past case DB 102 (step S10). In this example, the feature amount calculation unit 106 specifies a lesion area in each image, and obtains the position, size, and shape of the lesion area as the feature amount of the image. The feature amount calculation unit 106 registers the calculated feature amount in the feature amount DB 108 in association with the image ID of each image (step S12).

特徴量の算出および特徴量DBへの登録が終了すると、変形モデル生成部110は、過去病例DB102に記憶された画像のうちの1つを、変形ベクトルにおける初期状態の画像として選択する(ステップS14)。   When the calculation of the feature amount and the registration in the feature amount DB are completed, the deformation model generation unit 110 selects one of the images stored in the past disease case DB 102 as an initial state image in the deformation vector (step S14). ).

次に、選択された初期状態の画像からの変化を表す画像の有無を判定する(ステップS16)。本例では、読影レポートDB104を参照し、当該初期状態の画像と同じ患者ID、疾病ID、および処置IDの組合せに関連づけられた画像のうち、当該初期状態の画像の撮影日の後に撮影された画像の有無を判定する。   Next, it is determined whether or not there is an image representing a change from the selected image in the initial state (step S16). In this example, with reference to the interpretation report DB 104, images taken after the shooting date of the image in the initial state among the images associated with the same combination of the patient ID, the disease ID, and the treatment ID as the image in the initial state are taken. The presence or absence of an image is determined.

初期状態の画像からの変化を表す画像が存在すれば(ステップS16でYES)、変形モデル生成部110は、当該変化を表す画像のそれぞれについて、初期状態の画像からの変化を表す変形ベクトルを生成する(ステップS18)。本例のステップS18では、初期状態の画像を画像Iiとし、ステップS16で存在が確認された画像のそれぞれを画像Ijとし、式(1)〜式(3)を用いる上述の手順に従って、変換関数T(=Tglobal+Tlocal)のパラメータを求める。そして、ステップS16で存在が確認された画像のそれぞれについて、求めたパラメータを変形係数Pとし、当該画像の撮影日と初期状態の画像の撮影日との間の差を経過時間tとする変形ベクトル(S,P,t)を生成する(Sは初期状態の画像の画像ID)。一具体例として、初期状態の画像が図4の例の画像I0であるとすると、ステップS16で、画像I0からの変化を表す画像として画像I1および画像I2の存在が確認される。この場合、ステップS18で、式(1)〜式(3)を用いて、画像I0から画像I1への変換関数Tのパラメータ(PI0→I1)と画像I0から画像I2への変換関数Tのパラメータ(PI0→I2)とを求める。さらに、画像I0から画像I1への変化を表す変形ベクトル(I0,PI0→I1,3ヶ月)と画像I0から画像I2への変化を表す変形ベクトル(I0,PI0→I2,6ヶ月)とを生成する。 If there is an image representing a change from the image in the initial state (YES in step S16), the deformation model generation unit 110 generates a deformation vector representing a change from the image in the initial state for each of the images representing the change. (Step S18). In step S18 of this example, the image in the initial state is set as the image Ii, each of the images confirmed to exist in step S16 is set as the image Ij, and the conversion function is performed according to the above procedure using the equations (1) to (3). A parameter of T (= T global + T local ) is obtained. Then, for each of the images whose existence has been confirmed in step S16, the obtained parameter is a deformation coefficient P, and a deformation vector having the difference between the shooting date of the image and the shooting date of the initial image as elapsed time t (S, P, t) is generated (S is the image ID of the image in the initial state). As a specific example, if the image in the initial state is the image I0 in the example of FIG. 4, the presence of the image I1 and the image I2 is confirmed as an image representing a change from the image I0 in step S16. In this case, in step S18, the parameters (P I0 → I1 ) of the conversion function T from the image I0 to the image I1 and the conversion function T from the image I0 to the image I2 are calculated using the equations (1) to (3). The parameter (P I0 → I2 ) is obtained. Furthermore, a deformation vector (I0, P I0 → I1 , 3 months) representing a change from the image I0 to the image I1, and a deformation vector (I0, P I0 → I2 , 6 months) representing a change from the image I0 to the image I2. Is generated.

なお、ステップS18において、変形係数を求める計算において用いられる画像Iiおよび各画像Ijは、過去病例DB102から取得され、これらの画像の特徴量は、特徴量DB108から取得される。   In step S18, the image Ii and each image Ij used in the calculation for obtaining the deformation coefficient are acquired from the past disease case DB 102, and the feature amounts of these images are acquired from the feature amount DB 108.

初期状態の画像からステップS16で存在が確認された画像それぞれへの変化を表す変形ベクトルを生成すると、変形モデル生成部110は、生成した変形ベクトルを変形モデルDB112に登録する(ステップS20)。本例において、変形モデル生成部110は、初期状態の画像に係る患者ID、疾病ID、および処置IDの組合せに関連づけて、初期状態の画像の画像IDと、生成した各変形ベクトルの変形係数Pおよび経過時間tの組と、を変形モデルDB112に登録する(図5参照)。   When a deformation vector representing a change from the image in the initial state to each of the images confirmed to exist in step S16 is generated, the deformation model generation unit 110 registers the generated deformation vector in the deformation model DB 112 (step S20). In this example, the deformation model generation unit 110 associates the image ID of the initial state image with the combination of the patient ID, the disease ID, and the treatment ID related to the initial state image, and the deformation coefficient P of each generated deformation vector. And a set of elapsed time t are registered in the deformation model DB 112 (see FIG. 5).

ステップS20の後、または、ステップS14で選択された初期状態の画像からの変化を表す画像が存在しない場合(ステップS16でNO)、過去病例DB102中の全画像のそれぞれを初期状態として処理済みであるか否かを判定する(ステップS22)。処理済みであれば(ステップS22でYES)、図7の例の手順の処理は終了し、処理済みでなければ(ステップS22でNO)、未処理の画像に対しステップS14〜ステップS20の処理が行われる。   After step S20 or when there is no image representing a change from the image in the initial state selected in step S14 (NO in step S16), each of all images in the past disease case DB 102 has been processed as the initial state. It is determined whether or not there is (step S22). If the processing has been completed (YES in step S22), the processing of the procedure in the example of FIG. 7 ends. If not (NO in step S22), the processing in steps S14 to S20 is performed on the unprocessed image. Done.

図7の例の手順の処理により、変形モデルDB112には、過去病例DB102に記憶された各画像の時間による変化を表す変形ベクトルの集合(変形モデル)が記憶される。この変形モデルを用いて、診断支援装置10は、過去病例DB102に未登録の画像について、ある時間が経過したときの当該画像の撮影対象の状態を表す予測画像を生成する。   7, the deformation model DB 112 stores a set of deformation vectors (deformation model) representing changes with time of each image stored in the past disease case DB 102. Using this deformation model, the diagnosis support apparatus 10 generates a predicted image representing the state of the imaging target of an image that has not been registered in the past case DB 102 when a certain time has elapsed.

図8は、診断支援装置10において行われる予測画像生成処理の手順の例を示すフローチャートである。   FIG. 8 is a flowchart illustrating an example of a procedure of predicted image generation processing performed in the diagnosis support apparatus 10.

図8を参照し、入力受付部100により、処理対象の画像であるクエリ画像が取得される(ステップS30)。クエリ画像は、患者を撮影した医用画像であり、過去病例DB102に未登録の画像である。また、ステップS30において、クエリ画像に係る患者の疾病IDおよび処置IDの少なくとも一方をクエリ画像と共に取得してもよい。   Referring to FIG. 8, the input receiving unit 100 acquires a query image that is a processing target image (step S30). The query image is a medical image obtained by photographing a patient, and is an image that is not registered in the past disease example DB 102. In step S30, at least one of the disease ID and treatment ID of the patient related to the query image may be acquired together with the query image.

次に、特徴量算出部106は、ステップS30で取得されたクエリ画像の特徴量を算出する(ステップS32)。本例では、クエリ画像における病変領域を特定し、その病変領域の位置、大きさ、形状が特徴量として算出される。   Next, the feature amount calculation unit 106 calculates the feature amount of the query image acquired in step S30 (step S32). In this example, the lesion area in the query image is specified, and the position, size, and shape of the lesion area are calculated as the feature amount.

クエリ画像の特徴量が算出されると、類似画像検索部114は、過去病例DB102中の画像のうちクエリ画像に類似する画像を検索する(ステップS34)。本例では、類似画像検索部114は、クエリ画像の特徴量と、特徴量DB108に記憶された各画像の特徴量と、の間の類似度を求め、類似度が予め設定された閾値より大きい画像の画像IDを特定する。特定された画像IDの画像は、過去病例DB102に記憶された画像である。以下の説明のための具体例として、ステップS34で、類似画像Ia,Ib,Ic,…,Inが検索されたとする。なお、ステップS30でクエリ画像に係る患者の疾病IDおよび処置IDの少なくとも一方を取得していた場合、ステップS34では、当該疾病IDおよび当該処置ID(の少なくとも一方)に関連づけられた画像のみを検索対象とすればよい。   When the feature amount of the query image is calculated, the similar image search unit 114 searches for an image similar to the query image among the images in the past disease case DB 102 (step S34). In this example, the similar image search unit 114 obtains a similarity between the feature amount of the query image and the feature amount of each image stored in the feature amount DB 108, and the similarity is larger than a preset threshold value. The image ID of the image is specified. The image with the specified image ID is an image stored in the past case DB 102. As a specific example for the following description, it is assumed that similar images Ia, Ib, Ic,. If at least one of the disease ID and the treatment ID of the patient related to the query image is acquired in step S30, only the image associated with the disease ID and the treatment ID (at least one) is searched in step S34. It should be the target.

予測画像生成部116は、変形モデルDB112から、ステップS34で検索した類似画像のそれぞれを初期状態とする変形ベクトルを取得する(ステップS36)。図9に、上述の具体例の場合に取得される変形ベクトルの例を示す。図9の例の表の一行は、類似画像Ia,Ib,Ic,…,Inそれぞれを初期状態とする変形ベクトルの情報を表す。図9の例の表において、(変形係数P,経過時間t)の項目における各列は、同じ経過時間ti(i=1,2,…,m)を含む変形ベクトルの情報を表す。また、図9において、文字列「N/A」は、対応する行の初期状態の画像について対応する列の経過時間の変形ベクトルが生成されていないことを表す。   The predicted image generation unit 116 acquires a deformation vector having each of the similar images searched in step S34 as an initial state from the deformation model DB 112 (step S36). FIG. 9 shows an example of the deformation vector acquired in the case of the above specific example. A row of the table in the example of FIG. 9 represents information on deformation vectors having the similar images Ia, Ib, Ic,. In the table of the example of FIG. 9, each column in the item of (deformation coefficient P, elapsed time t) represents information of a deformation vector including the same elapsed time ti (i = 1, 2,..., M). In FIG. 9, the character string “N / A” represents that the deformation vector of the elapsed time of the corresponding column is not generated for the image in the initial state of the corresponding row.

再び図8を参照し、ステップS36の後、予測画像生成部116は、取得した変形ベクトルを用いて、これらの変形ベクトルに含まれる経過時間tごとに、当該経過時間が経過した時点でのクエリ画像の変化を表す変形パラメータを生成する(ステップS38)。図9の具体例の場合、(変形係数P,経過時間t)の項目の各列について、変形係数Pの値の平均を求め、求めた平均値を当該列の経過時間tに関する変形パラメータPtとする。つまり、経過時間ti(i=1,2,…,m)に関する変形パラメータPtiは、経過時間tiの変形係数Pai,Pbi,…,Pniの平均である。また、本実施形態の例において、変形ベクトルにおける各変形係数Pは、式(1)の変換マトリクスTglobalのパラメータθ11,θ12,θ21,θ22,θ13,θ23と、式(2)の変換マトリクスTlocalのパラメータNx,Nyと、を含むことから、経過時間tiに関する変形パラメータPtiは、θ11,θ12,θ21,θ22,θ13,θ23,Nx,Nyの各値の平均を含む。 Referring again to FIG. 8, after step S <b> 36, the predicted image generation unit 116 uses the acquired modified vectors to query for the elapsed time t for each elapsed time t included in these modified vectors. A deformation parameter representing a change in the image is generated (step S38). In the case of the specific example of FIG. 9, the average of the value of the deformation coefficient P is obtained for each column of the item (deformation coefficient P, elapsed time t), and the obtained average value is used as the deformation parameter Pt for the elapsed time t of the column. To do. That is, the deformation parameter Pti regarding the elapsed time ti (i = 1, 2,..., M) is an average of the deformation coefficients Pai, Pbi,. Further, in the example of the present embodiment, each deformation coefficient P in the deformation vector is expressed by the parameters θ 11 , θ 12 , θ 21 , θ 22 , θ 13 , θ 23 of the transformation matrix T global of equation (1) and the equation ( 2) including parameters Nx and Ny of the transformation matrix T local, the deformation parameters Pti relating to the elapsed time ti are θ 11 , θ 12 , θ 21 , θ 22 , θ 13 , θ 23 , Nx, and Ny. Includes the average of each value.

各経過時間に関する変形パラメータを生成すると、予測画像生成部116は、生成した変形パラメータにより定義される変換関数Tを用いてクエリ画像を変換した結果の画像を生成し、生成した画像を各経過時間についての予測画像とする(ステップS40)。図9を参照する上述の具体例では、各経過時間t1,t2,…,tmに関する変形パラメータPt1,Pt2,…,Ptmのそれぞれに含まれるθ11,θ12,θ21,θ22,θ13,θ23,Nx,Nyの値により定まる各変換関数T=Tglobal+Tlocalを用いてクエリ画像を変換することで、各経過時間t1,t2,…,tmについての予測画像を生成する。 When the deformation parameter related to each elapsed time is generated, the predicted image generation unit 116 generates an image as a result of converting the query image using the conversion function T defined by the generated deformation parameter, and the generated image is converted to each elapsed time. (Step S40). In the specific example described above with reference to FIG. 9, θ 11 , θ 12 , θ 21 , θ 22 , θ 13 included in the deformation parameters Pt 1, Pt 2,. , Θ 23 , Nx, Ny are used to convert the query image using each conversion function T = T global + T local to generate a predicted image for each elapsed time t1, t2,.

予測画像生成部116は、各経過時間と当該経過時間について生成した予測画像とを関連づけて予測画像DB118に登録する。   The predicted image generation unit 116 registers each elapsed time and the predicted image generated for the elapsed time in association with each other in the predicted image DB 118.

また、ステップS40で生成された予測画像は、出力処理部120により出力される(ステップS42)。ステップS42において、出力処理部120は、例えば、生成された予測画像と、当該予測画像に関連づけられる経過時間と、を対応づけて図示しない表示装置に表示させる。このとき、予測画像と共にクエリ画像も表示させてよい。あるいは、例えば、予め定義された書式に従って各予測画像の予測レポートを生成し、生成した予測レポートを読影レポートDB104に登録してもよい。また例えば、生成した予測レポートを表示装置に表示させたり、診断支援装置10に接続された他の情報処理装置に送信したりしてもよい。ステップS42の後、図8の例の手順の処理は終了する。   Further, the predicted image generated in step S40 is output by the output processing unit 120 (step S42). In step S42, for example, the output processing unit 120 displays the generated predicted image and the elapsed time associated with the predicted image on a display device (not shown) in association with each other. At this time, the query image may be displayed together with the predicted image. Alternatively, for example, a prediction report of each prediction image may be generated according to a predefined format, and the generated prediction report may be registered in the interpretation report DB 104. Further, for example, the generated prediction report may be displayed on the display device or transmitted to another information processing device connected to the diagnosis support device 10. After step S42, the process of the procedure in the example of FIG. 8 ends.

なお、以上で説明した図8の例の予測画像生成処理では、ステップS34で検索された類似画像のそれぞれを初期状態とする変形ベクトルのすべてを変形モデルDB112から取得し、これらの変形ベクトルに含まれる経過時間のすべてに関し、それぞれ予測画像を求める。予測画像生成処理の他の例では、変形ベクトルを取得する処理(ステップS36)の前に、入力受付部100において経過時間の指定を受け付け、ステップS36で、各類似画像を初期状態とする変形ベクトルのうち、指定された経過時間を含む変形ベクトルだけを変形モデルDB112から取得してもよい。この例において、ステップS38以降の処理を上述と同様に行うと、指定された経過時間が経過した時点でのクエリ画像の撮影対象の状態を表す予測画像が生成されて出力される。   In the predicted image generation process in the example of FIG. 8 described above, all of the deformation vectors having the initial states of the similar images searched in step S34 are acquired from the deformation model DB 112 and included in these deformation vectors. A predicted image is obtained for each of the elapsed times. In another example of the predicted image generation process, prior to the process of acquiring the deformation vector (step S36), the input reception unit 100 receives designation of the elapsed time, and in step S36, the deformation vector having each similar image as an initial state. Of these, only the deformation vector including the specified elapsed time may be acquired from the deformation model DB 112. In this example, if the processing after step S38 is performed in the same manner as described above, a predicted image representing the state of the query target of the query image when the specified elapsed time has elapsed is generated and output.

また、予測画像生成処理のさらに他の例では、生成した予測画像、当該予測画像の生成に用いた変形パラメータ、および当該変形パラメータの生成に用いた変形ベクトルなど、予測画像生成処理で求められる各種の情報を図示しないキャッシュ記憶装置に記憶しておいてもよい。この例では、ステップS36〜ステップS40の各処理において、取得対象または生成対象の情報がキャッシュ記憶装置に記憶済みであれば、その情報をキャッシュ記憶装置から取得すればよい。例えば、ステップS34の検索結果の類似画像を初期状態とする変形ベクトルがキャッシュ記憶装置に記憶済みであれば、その変形ベクトルをキャッシュ記憶装置から読み出して変形パラメータの生成(ステップS38)を行う。また例えば、ステップS36で取得した変形ベクトルと同じ変形ベクトルから生成された変形パラメータがキャッシュ記憶装置に記憶済みであれば、変形パラメータの生成処理を省略して、キャッシュ記憶装置から読み出した変形パラメータを用いて予測画像の生成(ステップS40)を行う。また、ステップS38で生成すべき変形パラメータと同じ変形パラメータを用いて生成された予測画像がキャッシュ記憶装置に記憶済みである場合に、その予測画像をクエリ画像の予測画像としてステップS42で出力し、ステップS38,S40を省略してもよい。キャッシュ記憶装置を利用すると、キャッシュ記憶装置を利用しない場合と比較して処理が高速化される。   Further, in still another example of the predicted image generation process, various types of predicted image generation processes, such as the generated predicted image, the deformation parameter used to generate the predicted image, and the deformation vector used to generate the deformation parameter, are used. This information may be stored in a cache storage device (not shown). In this example, if the acquisition target or generation target information has already been stored in the cache storage device in each of the processes in steps S36 to S40, the information may be acquired from the cache storage device. For example, if the modified vector having the similar image of the search result in step S34 as the initial state has already been stored in the cache storage device, the modified vector is read from the cache storage device and a modified parameter is generated (step S38). Also, for example, if a deformation parameter generated from the same deformation vector as that acquired in step S36 has already been stored in the cache storage device, the deformation parameter generation process is omitted, and the deformation parameter read from the cache storage device is The predicted image is generated (step S40). Further, when the predicted image generated using the same deformation parameter as the deformation parameter to be generated in step S38 is already stored in the cache storage device, the predicted image is output as the predicted image of the query image in step S42. Steps S38 and S40 may be omitted. When the cache storage device is used, the processing speed is increased as compared with the case where the cache storage device is not used.

図8の例の手順による予測画像生成処理の対象となったクエリ画像を用いて、過去病例DB102、読影レポートDB104、特徴量DB108、および変形モデルDB112の各データベースを更新してもよい。図10は、各データベースを更新する処理の手順の例を示すフローチャートである。図10の例の手順の処理は、例えば、図8の例の手順の処理の終了後に開始される。   The past disease example DB 102, the interpretation report DB 104, the feature amount DB 108, and the modified model DB 112 may be updated using the query image that is the target of the predicted image generation processing according to the procedure of the example of FIG. FIG. 10 is a flowchart illustrating an example of a processing procedure for updating each database. The process of the procedure in the example of FIG. 10 is started after the process of the procedure in the example of FIG.

図10を参照し、まず、クエリ画像に新たな画像IDが付与され、この新たな画像IDと共に当該クエリ画像が過去病例DB102に登録される(ステップS50)。   Referring to FIG. 10, first, a new image ID is given to the query image, and the query image is registered in the past disease case DB 102 together with the new image ID (step S50).

次に、ステップS50で当該クエリ画像に付与された新たな画像IDと関連づけて、図8のステップS32で算出されたクエリ画像の特徴量を特徴量DB108に登録する(ステップS52)。   Next, the feature amount of the query image calculated in step S32 of FIG. 8 is registered in the feature amount DB 108 in association with the new image ID given to the query image in step S50 (step S52).

ステップS52の後、当該クエリ画像に関連づけて読影レポートDB104に登録される各項目の情報を取得する(ステップS54)。各項目の情報は、例えば、入力受付部100においてユーザの入力を受け付けることで取得される。図2の例の読影レポートDB104の場合、当該クエリ画像の撮影対象の患者の患者ID、当該患者の疾病の疾病ID、当該患者に対して行われた処置の処置ID、当該クエリ画像の撮影日、および当該クエリ画像に関する医師の所見の各項目の内容が取得される。   After step S52, information on each item registered in the image interpretation report DB 104 in association with the query image is acquired (step S54). Information on each item is acquired, for example, by receiving user input in the input receiving unit 100. In the case of the interpretation report DB 104 in the example of FIG. 2, the patient ID of the patient to be imaged of the query image, the disease ID of the disease of the patient, the treatment ID of the treatment performed on the patient, the date of imaging of the query image , And the contents of each item of the doctor's findings regarding the query image.

ステップS54で取得された情報は、ステップS50で当該クエリ画像に付与された新たな画像IDに関連づけて読影レポートDB104に登録される(ステップS56)。   The information acquired in step S54 is registered in the image interpretation report DB 104 in association with the new image ID assigned to the query image in step S50 (step S56).

以上で説明したステップS50〜ステップS56の処理により、過去病例DB102、読影レポートDB104、および特徴量DB108が更新される。以下、変形モデルDB112を更新するステップS58〜ステップS62の処理を説明する。   The past disease case DB 102, the interpretation report DB 104, and the feature amount DB 108 are updated by the processing in steps S50 to S56 described above. Hereinafter, the process of step S58 to step S62 for updating the deformation model DB 112 will be described.

変形モデル生成部110は、まず、クエリ画像の撮影時期よりも前に撮影された画像であって、クエリ画像と同じ患者を撮影した画像を過去病例DB102から取得する(ステップS58)。本実施形態の例では、ステップS58で、変形モデル生成部110は、読影レポートDB104を参照し、クエリ画像の撮影日よりも前の撮影日に関連づけられた画像IDのうち、クエリ画像と同じ患者ID、疾病ID、および処置IDの組合せに関連づけられた画像IDを取得する。そして、取得した画像IDの画像を過去病例DB102から取得する。   First, the deformation model generation unit 110 acquires an image captured before the query image capturing time, which is an image of the same patient as the query image, from the past case DB 102 (step S58). In the example of the present embodiment, in step S58, the deformation model generation unit 110 refers to the interpretation report DB 104, and among the image IDs associated with the shooting date before the shooting date of the query image, the same patient as the query image. An image ID associated with a combination of ID, disease ID, and treatment ID is acquired. And the image of acquired image ID is acquired from past disease example DB102.

次に、変形モデル生成部110は、ステップS58で取得した画像のそれぞれを初期状態の画像とし、当該初期状態の画像からクエリ画像への変化を表す変形ベクトルを生成する(ステップS60)。変形ベクトルの生成の処理の詳細は、図7のステップS18を参照して説明したのと同様であってよい。   Next, the deformation model generation unit 110 sets each of the images acquired in step S58 as an initial state image, and generates a deformation vector representing a change from the initial state image to the query image (step S60). The details of the deformation vector generation process may be the same as described with reference to step S18 of FIG.

ステップS60の後、変形モデル生成部110は、生成した変形ベクトルを変形モデルDB112に登録する(ステップS62)。すなわち、変形モデルDB112において、ステップS58で取得した画像のそれぞれを初期状態とするレコードにステップS60で求めた変形係数Pおよび経過時間tの組を追加登録する。   After step S60, the deformation model generation unit 110 registers the generated deformation vector in the deformation model DB 112 (step S62). That is, in the deformation model DB 112, a set of the deformation coefficient P and the elapsed time t obtained in step S60 is additionally registered in a record in which each of the images acquired in step S58 is in an initial state.

図10の例の手順により、クエリ画像を過去の画像として各種のデータベースが更新され、更新後の各種データベースの内容が、その後の他のクエリ画像についての予測画像の生成に用いられる。   The various databases are updated using the query image as a past image by the procedure of the example in FIG. 10, and the contents of the various databases after the update are used to generate predicted images for other query images thereafter.

予測画像の生成の後、当該予測画像に係る経過時間が経過したときに、実際に同一患者の画像が撮影される場合がある。このとき撮影された画像を用いて、予測画像の予測の精度を評価し、この評価結果をその後の予測画像生成処理に反映させてもよい。例えば、図8のステップS38において、変形ベクトル中の変形係数を単純に平均して変形パラメータを生成する代わりに、前述の評価結果に基づいて各変形ベクトル中の変形係数を重み付けし、変形係数の加重平均を変形パラメータとしてもよい。変形係数の重みは、例えば、図11に示す手順により求められる。   After the predicted image is generated, when the elapsed time related to the predicted image has elapsed, an image of the same patient may actually be captured. The accuracy of prediction of the predicted image may be evaluated using the image taken at this time, and the evaluation result may be reflected in the subsequent predicted image generation processing. For example, in step S38 in FIG. 8, instead of simply averaging the deformation coefficients in the deformation vector to generate the deformation parameters, the deformation coefficients in the deformation vectors are weighted based on the above-described evaluation results, A weighted average may be used as a deformation parameter. The weight of the deformation coefficient is obtained, for example, by the procedure shown in FIG.

図11を参照し、入力受付部100において、画像および当該画像に関する情報を取得する(ステップS70)。本例では、画像に関する情報として、患者ID、疾病ID、処置ID、および撮影日を取得するものとする。   Referring to FIG. 11, the input receiving unit 100 acquires an image and information related to the image (step S <b> 70). In this example, a patient ID, a disease ID, a treatment ID, and an imaging date are acquired as information about the image.

次に、ステップS70で取得した画像に対応する予測画像を特定する(ステップS72)。ステップS72の処理は、例えば、次の手順で実行される。まず、ステップS70で取得した患者ID、疾病ID、および処置IDの組合せに関連づけられた画像IDと、その撮影日と、を読影レポートDB104から取得する。そして、取得した画像IDと、その撮影日からステップS70で取得した撮影日までの経過時間と、の組に関連づけて予測画像DB118に登録された予測画像IDを特定する。特定された予測画像IDの予測画像は、ステップS70で取得した画像に対応する予測画像である。なお、対応する予測画像をユーザが把握している場合、上述のステップS72の処理の代わりに、ユーザによる予測画像IDの入力を受け付けてもよい。   Next, a predicted image corresponding to the image acquired in step S70 is specified (step S72). The process of step S72 is executed by the following procedure, for example. First, the image ID associated with the combination of the patient ID, the disease ID, and the treatment ID acquired in step S70 and the photographing date are acquired from the interpretation report DB 104. Then, the prediction image ID registered in the prediction image DB 118 in association with the set of the acquired image ID and the elapsed time from the shooting date to the shooting date acquired in step S70 is specified. The predicted image with the specified predicted image ID is a predicted image corresponding to the image acquired in step S70. In addition, when the user grasps the corresponding predicted image, the input of the predicted image ID by the user may be accepted instead of the process of step S72 described above.

対応する予測画像を特定すると、ステップS70で取得した画像を用いて、ステップS72で特定した予測画像の生成に用いられた変形ベクトルを評価する(ステップS74)。ステップS74の処理の手順の例を以下で説明する。まず、当該予測画像の生成に用いられた変形ベクトルを特定する。予測画像の生成に用いられた変形ベクトルは、例えば、当該予測画像の生成時のクエリ画像(当該予測画像に関連づけて予測画像DB118に登録された画像IDの画像)の類似画像を過去病例DB102から検索し、検索した類似画像を初期状態とし、当該予測画像に関連づけられた経過時期を含む変形ベクトルを変形モデルDB112から検索することで特定すればよい。あるいは、予測画像生成処理(図8)において、生成した予測画像に関連づけて、この予測画像の生成に用いた変形ベクトルを予測画像DB118に記憶しておけば、ステップS74では、予測画像DB118から対応する予測画像の生成に用いられた変形ベクトルを取得するだけでよい。予測画像の生成に用いられた変形ベクトルが特定されると、各変形ベクトルについて、初期状態の画像を過去病例DB102から読み出す。読み出した画像を、当該変形ベクトルにおける変形係数で定義される変換関数を用いて変換し、その変換後の画像の特徴量を求める。また、ステップS70で取得した画像の特徴量も求め、ステップS70で取得した画像の特徴量と、上述の変換後の画像の特徴量と、の間の類似度を求める。この類似度を変換後の画像に係る変形ベクトルの評価値とする。   When the corresponding predicted image is specified, the deformation vector used to generate the predicted image specified in step S72 is evaluated using the image acquired in step S70 (step S74). An example of the processing procedure of step S74 will be described below. First, the deformation vector used to generate the predicted image is specified. The deformation vector used for generating the predicted image is obtained by, for example, obtaining a similar image of a query image (image ID registered in the predicted image DB 118 in association with the predicted image) from the past disease case DB 102 when the predicted image is generated. What is necessary is just to specify it by searching, making the searched similar image into an initial state, and searching the deformation | transformation model DB112 for the deformation | transformation vector containing the elapsed time linked | related with the said prediction image. Alternatively, in the predicted image generation process (FIG. 8), if the deformation vector used to generate this predicted image is stored in the predicted image DB 118 in association with the generated predicted image, in step S74, the predicted image DB 118 corresponds. It is only necessary to acquire the deformation vector used to generate the predicted image to be generated. When the deformation vector used to generate the predicted image is specified, an image in the initial state is read from the past disease case DB 102 for each deformation vector. The read image is converted using a conversion function defined by the deformation coefficient in the deformation vector, and the feature amount of the image after the conversion is obtained. Also, the feature amount of the image acquired in step S70 is obtained, and the similarity between the feature amount of the image obtained in step S70 and the feature amount of the image after the conversion described above is obtained. This similarity is used as the evaluation value of the deformation vector related to the converted image.

予測画像の生成に用いられた各変形ベクトルに関連づけて、ステップS74で求めた各変形ベクトルの評価に基づく重みを変形モデルDB112に登録する(ステップS76)。重みの値は、ステップS74で求めた評価が高いほど大きな値になるように決定すればよい。例えば、上述のステップS74の処理手順の例の場合、ステップS70で取得した画像の特徴量と、各変形ベクトルについての変換後の画像の特徴量と、の間の類似度が大きいほど、当該変形ベクトルに関連づけられる重みの値を大きくすればよい。この類似度が大きいほど、当該変形ベクトルの変形係数は、クエリ画像の撮影時期から当該変形ベクトルの経過時間が経過したときに実際に撮影された画像により類似した画像へクエリ画像を変換する変換関数を定義するパラメータであると言える。ステップS76の後、図11の例の手順の処理は終了する。   The weight based on the evaluation of each deformation vector obtained in step S74 is registered in the deformation model DB 112 in association with each deformation vector used for generating the predicted image (step S76). The weight value may be determined so as to increase as the evaluation obtained in step S74 increases. For example, in the case of the example of the processing procedure in step S74 described above, the greater the similarity between the feature amount of the image acquired in step S70 and the feature amount of the image after conversion for each deformation vector, the greater the deformation. What is necessary is just to enlarge the value of the weight linked | related with a vector. The higher the similarity is, the more the deformation coefficient of the deformation vector is converted to a query function that converts the query image into an image that is more similar to the actually captured image when the elapsed time of the deformation vector has elapsed from the capturing time of the query image. It can be said that it is a parameter that defines After step S76, the process of the procedure in the example of FIG. 11 ends.

本発明の実施の形態は、以上で説明した各種の実施形態および変形例に限定されない。例えば、診断支援装置10が備える各種のデータベースの具体的な態様は、上述した例と異なっていてよい。例えば、各データベースにおける画像IDの登録を省略し、患者IDと撮影日との組を画像の識別情報として用いてもよい。また例えば、読影レポートDB104において、図2に例示する項目の他に、当該患者に対して行われた検査の種類とその結果などを登録しておいてもよい。また、過去病例DB102、読影レポートDB104、および特徴量DB108のうちの2以上のデータベースを1つのデータベースとして纏めてもよい。   Embodiments of the present invention are not limited to the various embodiments and modifications described above. For example, specific modes of various databases included in the diagnosis support apparatus 10 may be different from the above-described example. For example, registration of an image ID in each database may be omitted, and a pair of a patient ID and an imaging date may be used as image identification information. Further, for example, in the interpretation report DB 104, in addition to the items illustrated in FIG. 2, the types of examinations performed on the patient and the results thereof may be registered. Further, two or more databases among the past case DB 102, the interpretation report DB 104, and the feature DB 108 may be collected as one database.

また、上述の実施形態では、変換関数Tとして、式(1)のTglobalおよび式(2)のTlocalにより表される変換関数T=Tglobal+Tlocalを用いるが、他の形式で表される変換関数Tを用いてもよい。1つの画像を他の画像に変換する関数を表し、1以上のパラメータにより定義される関数であれば、上述と異なる形式の変換関数Tを用いて、上述の説明と同様の処理手順により変形モデルの生成および予測画像の生成を実行してよい。また、上述の実施形態では、変換関数Tは、患者を撮影した画像における病変領域の画像データを変換する関数であるが、患者を撮影した画像の全体を変換する関数を変換関数Tとして用いてもよい。 In the above-described embodiment, as the conversion function T, the conversion function T = T global + T local represented by T global in Expression (1) and T local in Expression (2) is used. The conversion function T may be used. A function for converting one image into another image, and a function defined by one or more parameters, using a conversion function T of a format different from that described above, a modified model by the same processing procedure as described above Generation and prediction image generation may be performed. In the above-described embodiment, the conversion function T is a function for converting image data of a lesion area in an image obtained by imaging a patient, but a function for converting the entire image obtained by imaging a patient is used as the conversion function T. Also good.

また、上述の実施形態では、初期状態の画像と同じ患者ID、疾病ID、および処置IDの組合せに関連づけられた画像について変形ベクトルを生成するが、少なくとも患者IDが初期状態の画像と同じであれば、疾病IDまたは処置IDが異なる画像について変形ベクトルを生成してもよい。   In the above-described embodiment, the deformation vector is generated for the image associated with the same combination of the patient ID, the disease ID, and the treatment ID as the image in the initial state, but at least the patient ID is the same as the image in the initial state. For example, a deformation vector may be generated for images having different disease IDs or treatment IDs.

以上に例示した診断支援装置10は、例えば、図12に示すようなハードウエア構成を備えるコンピュータにて上述の診断支援装置10の各部の機能又は処理内容を記述したプログラムを実行することにより実現される。図12の例のコンピュータは、CPU(中央演算装置)80、画像処理に関する演算を行うGPU(Graphics Processing Unit)81、メモリ(一次記憶)82、各種I/O(入出力)インタフェース84等がバス86を介して接続された回路構成を有する。また、バス86に対し、例えばI/Oインタフェース84経由で、ハードディスクドライブ(HDD)88やCDやDVD、フラッシュメモリなどの各種規格の可搬型の不揮発性記録媒体を読み取るためのディスクドライブ90が接続される。このようなドライブ88又は90は、メモリに対する外部記憶装置として機能する。実施形態の処理内容が記述されたプログラムがCDやDVD等の記録媒体を経由して、又はネットワーク経由で、HDD88等の固定記憶装置に保存され、コンピュータにインストールされる。固定記憶装置に記憶されたプログラムがメモリに読み出されCPUまたはGPUにより実行されることにより、実施形態の処理が実現される。GPUは、類似画像の検索や画像の特徴量の算出など、画像処理に関する演算を担当する。CPUとGPUとで、画像処理に関する演算を並列化して行ってもよい。   The diagnosis support apparatus 10 exemplified above is realized, for example, by executing a program describing the function or processing content of each part of the diagnosis support apparatus 10 described above on a computer having a hardware configuration as shown in FIG. The 12 includes a CPU (Central Processing Unit) 80, a GPU (Graphics Processing Unit) 81 that performs operations related to image processing, a memory (primary storage) 82, various I / O (input / output) interfaces 84, and the like. 86. The circuit configuration is connected via 86. Further, a hard disk drive (HDD) 88, a disk drive 90 for reading portable nonvolatile recording media of various standards such as a CD, a DVD, and a flash memory is connected to the bus 86 via, for example, an I / O interface 84. Is done. Such a drive 88 or 90 functions as an external storage device for the memory. A program in which the processing content of the embodiment is described is stored in a fixed storage device such as the HDD 88 via a recording medium such as a CD or DVD or via a network, and is installed in a computer. The program stored in the fixed storage device is read into the memory and executed by the CPU or GPU, thereby realizing the processing of the embodiment. The GPU is in charge of operations related to image processing such as retrieval of similar images and calculation of image feature amounts. Operations related to image processing may be performed in parallel by the CPU and GPU.

なお、以上の説明では、診断支援装置10を1台のコンピュータにより実現する例の実施形態を説明したが、診断支援装置10の上述の例の各種の機能を複数のコンピュータに分散させて実現してもよい。   In the above description, the embodiment of the example in which the diagnosis support apparatus 10 is realized by one computer has been described. However, the various functions of the above-described example of the diagnosis support apparatus 10 are realized by being distributed to a plurality of computers. May be.

10 診断支援装置、80 CPU、81 GPU、82 メモリ、84 I/Oインタフェース、86 バス、88 HDD、90 ディスクドライブ、100 入力受付部、102 過去病例DB、104 読影レポートDB、106 特徴量算出部、108 特徴量DB、110 変形モデル生成部、112 変形モデルDB、114 類似画像検索部、116 予測画像生成部、118 予測画像DB、120 出力処理部。   DESCRIPTION OF SYMBOLS 10 Diagnosis support apparatus, 80 CPU, 81 GPU, 82 Memory, 84 I / O interface, 86 bus, 88 HDD, 90 Disk drive, 100 Input reception part, 102 Past disease example DB, 104 Interpretation report DB, 106 Feature-value calculation part , 108 feature amount DB, 110 deformation model generation unit, 112 deformation model DB, 114 similar image search unit, 116 prediction image generation unit, 118 prediction image DB, 120 output processing unit.

Claims (6)

処理対象の画像である対象画像の特徴を表す特徴量を算出するステップと、
過去に撮影された患者の画像のそれぞれの特徴を表す特徴量を記憶した特徴量記憶手段を参照し、前記対象画像の前記特徴量と前記患者の画像のそれぞれの前記特徴量とを用いて前記対象画像に類似する前記患者の画像を特定するステップと、
前記過去に撮影された患者の画像を用いて求められた、患者の画像の時間による変化を表す情報を記憶した変化情報記憶手段から、前記特定するステップで特定された画像の時間による変化を表す情報を取得し、取得した情報を用いて、撮影対象部位の全体の変化を表現する関数、及び病変領域の非線形の変化を表現する関数を含む、画像の変換関数を生成するステップと、
前記生成するステップで生成された変換関数を用いて前記対象画像を変換した画像を出力するステップと、
をコンピュータに実行させるためのプログラム。
Calculating a feature amount representing a feature of a target image that is an image to be processed;
With reference to a feature amount storage unit that stores feature amounts representing features of patient images taken in the past, the feature amounts of the target image and the feature amounts of the patient images are used. Identifying an image of the patient similar to the target image;
The change information storage means that stores the information indicating the change of the patient's image with time, which is obtained using the patient image taken in the past, represents the change with time of the image specified in the specifying step. Generating information, and using the acquired information, generating a conversion function of the image including a function expressing the entire change of the imaging target region, and a function expressing a non-linear change of the lesion area ;
Outputting an image obtained by converting the target image using the conversion function generated in the generating step;
A program that causes a computer to execute.
前記変化情報記憶手段は、患者を撮影した第一の画像と、当該第一の画像の撮影時期以降に当該患者を撮影した第二の画像に変換する変換関数を定めるパラメータであって当該第一の画像および当該第二の画像を用いて算出されたパラメータと、当該第一の画像の撮影時期から当該第二の画像の撮影時期までの経過時間と、を関連づけて記憶し、
前記特徴量記憶手段は、前記第一の画像のそれぞれの前記特徴量を記憶し、
前記特定するステップにおいて、前記対象画像に類似する前記第一の画像が特定され、
前記画像の変換関数を生成するステップにおいて、前記特定するステップで特定された第一の画像に関連づけられたパラメータであって前記経過時間が関連づけられたパラメータを前記変化情報記憶手段から取得し、取得したパラメータを用いて前記対象画像の変換関数を生成する、
ことを特徴とする請求項1に記載のプログラム。
The change information storage means is a parameter for determining a first image obtained by photographing a patient and a conversion function for converting the first image after the photographing time of the first image into a second image obtained by photographing the patient. And the parameter calculated using the second image and the second image and the elapsed time from the photographing time of the first image to the photographing time of the second image are stored in association with each other,
The feature amount storage means stores the feature amount of each of the first images,
In the specifying step, the first image similar to the target image is specified;
In the step of generating the conversion function of the image, a parameter associated with the first image identified in the identifying step and associated with the elapsed time is acquired from the change information storage unit, and acquired. A conversion function of the target image is generated using the obtained parameters.
The program according to claim 1.
前記対象画像および前記第一の画像のそれぞれの前記特徴量は、当該画像において病変を含む領域であると判定された病変領域の特徴を表し、
前記パラメータは、前記第一の画像における前記病変領域の画像を前記第二の画像における前記病変領域の画像に変換する変換関数を定めるパラメータである、
ことを特徴とする請求項2に記載のプログラム。
The feature amount of each of the target image and the first image represents a feature of a lesion area determined to be an area including a lesion in the image,
The parameter is a parameter that defines a conversion function for converting an image of the lesion area in the first image into an image of the lesion area in the second image.
The program according to claim 2, wherein:
患者と、患者を撮影した画像と、当該画像の撮影時期と、を関連づけて記憶した画像記憶手段に記憶された画像のうちの少なくとも1つを初期状態画像とし、当該初期状態画像の撮影時期以降に当該初期状態画像の患者を撮影した画像を前記画像記憶手段から取得し、取得した画像と前記初期状態画像とを用いて、前記初期状態画像を当該取得した画像に変換する変換関数を定めるパラメータを算出するステップと、
前記初期状態画像を前記第一の画像とし、前記パラメータを算出するステップで前記画像記憶手段から取得した画像を前記第二の画像として、前記第一の画像とした前記初期状態画像と、前記パラメータを算出するステップで算出したパラメータと、前記初期状態画像の撮影時期から前記第二の画像とした画像の撮影時期までの経過時間と、を互いに関連づけて前記変化情報記憶手段に対して出力するステップと、
を前記コンピュータにさらに実行させる、
ことを特徴とする請求項2または3に記載のプログラム。
At least one of the images stored in the image storage means that stores the patient, the image obtained by photographing the patient, and the photographing time of the image in association with each other is set as the initial state image, and the initial state image is taken after the photographing time. A parameter for determining a conversion function for acquiring an image obtained by photographing the patient of the initial state image from the image storage means, and converting the initial state image into the acquired image using the acquired image and the initial state image. Calculating steps,
The initial state image as the first image, the image acquired from the image storage means in the step of calculating the parameter as the second image, the initial state image as the first image, and the parameter The parameter calculated in the step of calculating and the elapsed time from the shooting time of the initial state image to the shooting time of the image as the second image are output to the change information storage means in association with each other When,
Further executing the computer,
The program according to claim 2 or 3, characterized in that.
前記対象画像の撮影時期から、前記画像の変換関数を生成するステップで用いられたパラメータに関連づけられた経過時間が経過したときに前記対象画像に係る患者を撮影した画像である結果画像を取得するステップと、
前記画像の変換関数を生成するステップで用いられたパラメータを前記結果画像に基づいて評価して求めた評価値を当該パラメータに関連づけて前記変化情報記憶手段に対して出力するステップと、
をさらに前記コンピュータに実行させ、
前記画像の変換関数を生成するステップにおいて、前記取得したパラメータの前記評価値をさらに用いて前記画像の変換関数を生成する、
ことを特徴とする請求項2から4のいずれか1項に記載のプログラム。
A result image that is an image of a patient related to the target image is acquired when the elapsed time associated with the parameter used in the step of generating the conversion function of the image has elapsed from the shooting time of the target image. Steps,
Outputting the evaluation value obtained by evaluating the parameter used in the step of generating the conversion function of the image based on the result image to the change information storage unit in association with the parameter;
Is further executed by the computer,
In the step of generating the image conversion function, the image conversion function is generated using the evaluation value of the acquired parameter.
The program according to any one of claims 2 to 4, wherein:
処理対象の画像である対象画像の特徴を表す特徴量を算出する算出手段と、
過去に撮影された患者の画像のそれぞれの特徴を表す特徴量を記憶した特徴量記憶手段を参照し、前記対象画像の前記特徴量と前記患者の画像のそれぞれの前記特徴量とを用いて前記対象画像に類似する前記患者の画像を特定する特定手段と、
前記過去に撮影された患者の画像を用いて求められた、患者の画像の時間による変化を表す情報を記憶した変化情報記憶手段から、前記特定手段が特定した画像の時間による変化を表す情報を取得し、取得した情報を用いて、撮影対象部位の全体の変化を表現する関数、及び病変領域の非線形の変化を表現する関数を含む、画像の変換関数を生成する生成手段と、
前記生成手段が生成した変換関数を用いて前記対象画像を変換した画像を出力する出力手段と、
を備えることを特徴とする情報処理装置。
Calculation means for calculating a feature amount representing a feature of a target image that is an image to be processed;
With reference to a feature amount storage unit that stores feature amounts representing features of patient images taken in the past, the feature amounts of the target image and the feature amounts of the patient images are used. Identifying means for identifying an image of the patient similar to a target image;
Information representing a change with time of the image specified by the specifying means is obtained from a change information storing means storing information showing a change with time of the patient's image obtained using the patient image taken in the past. Generating means for generating an image conversion function including a function that expresses a change in the whole region to be imaged and a function that expresses a non-linear change in a lesion area using the acquired information;
An output unit that outputs an image obtained by converting the target image using the conversion function generated by the generation unit;
An information processing apparatus comprising:
JP2010051576A 2010-03-09 2010-03-09 Program and information processing apparatus Active JP5655327B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010051576A JP5655327B2 (en) 2010-03-09 2010-03-09 Program and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010051576A JP5655327B2 (en) 2010-03-09 2010-03-09 Program and information processing apparatus

Publications (2)

Publication Number Publication Date
JP2011182960A JP2011182960A (en) 2011-09-22
JP5655327B2 true JP5655327B2 (en) 2015-01-21

Family

ID=44789951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010051576A Active JP5655327B2 (en) 2010-03-09 2010-03-09 Program and information processing apparatus

Country Status (1)

Country Link
JP (1) JP5655327B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190046471A (en) * 2017-10-26 2019-05-07 삼성전자주식회사 Method for processing of medical image and medical image processing apparatus thereof
JP7179521B2 (en) * 2018-08-02 2022-11-29 キヤノンメディカルシステムズ株式会社 MEDICAL IMAGE PROCESSING APPARATUS, IMAGE GENERATION METHOD, AND IMAGE GENERATION PROGRAM
JPWO2021066039A1 (en) * 2019-09-30 2021-04-08
WO2021246047A1 (en) * 2020-06-04 2021-12-09 富士フイルム株式会社 Progression prediction device, method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009045121A (en) * 2007-08-14 2009-03-05 Fujifilm Corp Medical image processing system, medical image processing method, and program
JP5159242B2 (en) * 2007-10-18 2013-03-06 キヤノン株式会社 Diagnosis support device, diagnosis support device control method, and program thereof

Also Published As

Publication number Publication date
JP2011182960A (en) 2011-09-22

Similar Documents

Publication Publication Date Title
KR101898575B1 (en) Method for predicting future state of progressive lesion and apparatus using the same
US8380013B2 (en) Case image search apparatus, method and computer-readable recording medium
JP4021179B2 (en) Diagnosis support program, computer-readable recording medium storing diagnosis support program, diagnosis support apparatus, and diagnosis support method
US10249042B2 (en) Method and apparatus for providing medical information service on basis of disease model
US6925199B2 (en) Computer readable recording medium recorded with diagnosis supporting program, diagnosis supporting apparatus and diagnosis supporting method
JP5383431B2 (en) Information processing apparatus, information processing method, and program
JP6807820B2 (en) Image search device, method and program
JP2021106887A (en) Medical image display device, method and program
CN109426834B (en) Information processing apparatus, information processing method, and information processing system
JP5789211B2 (en) Similar image retrieval apparatus, method and program
JP2007286945A (en) Similar image search apparatus and method, and program
JP6719421B2 (en) Learning data generation support device, learning data generation support method, and learning data generation support program
JP2007280229A (en) Similar case retrieval device, similar case retrieval method and program
JP2010211413A (en) Case image registration device, method, program and case image retrieval device, method, program, and system
CN108471994B (en) Mobile FFR simulation
US11200674B2 (en) Image processing apparatus, method, and storage medium for enabling user to REC0GNT7E change over time represented by substraction image
KR101919847B1 (en) Method for detecting automatically same regions of interest between images taken on a subject with temporal interval and apparatus using the same
JP2007275440A (en) Similar image retrieval system, method, and program
CN112435341A (en) Training method and device for three-dimensional reconstruction network, and three-dimensional reconstruction method and device
KR101898580B1 (en) Method for facilitating image view and apparatus using the same
JP5655327B2 (en) Program and information processing apparatus
JP5902196B2 (en) Method, apparatus and computer program for retrieving medical images
JP6738305B2 (en) Learning data generation support device, learning data generation support device operating method, and learning data generation support program
CN115861656A (en) Method, apparatus and system for automatically processing medical images to output an alert
CN111226287A (en) Method for analyzing a medical imaging dataset, system for analyzing a medical imaging dataset, computer program product and computer readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141028

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141110

R150 Certificate of patent or registration of utility model

Ref document number: 5655327

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350