JP2021007510A - Information processor, information processing method, and program - Google Patents

Information processor, information processing method, and program Download PDF

Info

Publication number
JP2021007510A
JP2021007510A JP2019121957A JP2019121957A JP2021007510A JP 2021007510 A JP2021007510 A JP 2021007510A JP 2019121957 A JP2019121957 A JP 2019121957A JP 2019121957 A JP2019121957 A JP 2019121957A JP 2021007510 A JP2021007510 A JP 2021007510A
Authority
JP
Japan
Prior art keywords
image
time
candidate
imaging date
candidate images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019121957A
Other languages
Japanese (ja)
Inventor
岳人 青山
Takehito Aoyama
岳人 青山
久保 武
Takeshi Kubo
武 久保
豊 江本
Yutaka Emoto
豊 江本
瑞穂 西尾
Mizuho Nishio
瑞穂 西尾
太 赤坂
Futoshi Akasaka
太 赤坂
亮 石川
Ryo Ishikawa
亮 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019121957A priority Critical patent/JP2021007510A/en
Publication of JP2021007510A publication Critical patent/JP2021007510A/en
Priority to JP2023172591A priority patent/JP2023168534A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an information processor capable of selecting a medical image to be compared from a plurality of medical images according to a condition related to an imaging date and time.SOLUTION: An information processor 10 which has a selection part 55 selecting a second image to be compared with a first image from a plurality of candidate images includes: an imaging date and time acquisition part 53 acquiring imaging dates and times when the plurality of candidate images were captured; and a condition setting part 54 setting a condition related to the imaging dates and times. The selection part 55 selects at least one candidate image as a second image from the plurality of candidate images on the basis of the condition related to the imaging dates and times set by the condition setting part 54 and the imaging dates and times of the plurality of candidate images.SELECTED DRAWING: Figure 1

Description

本発明は、種々のモダリティで撮像された医用画像を処理する情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method and a program for processing medical images captured by various modality.

医療分野において、医師は、種々のモダリティで撮像された医用画像を用いて診断を行う。特に、被検体の状態の経過観察のため、異なる時刻に同一のモダリティで撮像された複数の医用画像を医師が比較することにより、被検体の経時的な変化の観察が行われている。被検体の経時的な変化の観察を支援する方法として、特許文献1では、診断対象の医用画像(診断対象画像)と比較対象の医用画像(比較画像)との差分を描出した医用画像(差分画像)を生成し、被検体の経時的な変化を表示する技術が開示されている。 In the medical field, doctors make a diagnosis using medical images taken by various modality. In particular, in order to follow up the state of the subject, a doctor compares a plurality of medical images taken at different times with the same modality to observe changes in the subject over time. As a method of supporting the observation of changes over time of a subject, in Patent Document 1, a medical image (difference) depicting a difference between a medical image to be diagnosed (diagnosis target image) and a medical image to be compared (comparison image). A technique for generating an image) and displaying a change over time of a subject is disclosed.

特開2013−126575号公報Japanese Unexamined Patent Publication No. 2013-126575

しかしながら、被検体の経時的な変化を複数の医用画像を用いて観察する場合、異なる時点に撮像された複数の医用画像の中から適切な比較画像を選択する必要があった。 However, when observing changes over time of a subject using a plurality of medical images, it is necessary to select an appropriate comparative image from a plurality of medical images captured at different time points.

そこで、本発明は、撮像日時に関する条件により複数の医用画像から比較対象の医用画像を選択することができる情報処理装置を提供することを目的とする。 Therefore, an object of the present invention is to provide an information processing device capable of selecting a medical image to be compared from a plurality of medical images depending on conditions related to the imaging date and time.

本発明の目的を達成するために、第一の画像との比較対象である第二の画像を、複数の候補画像から選択する選択手段を有した情報処理装置は、複数の候補画像を撮像した撮像日時を取得する取得手段と、撮像日時に関する条件を設定する条件設定手段とを有し、選択手段は、条件設定手段によって設定された撮像日時に関する条件と複数の候補画像の撮像日時に基づいて、複数の候補画像から少なくとも一つの候補画像を第二の画像として選択する。 In order to achieve the object of the present invention, an information processing apparatus having a selection means for selecting a second image to be compared with the first image from a plurality of candidate images has captured a plurality of candidate images. It has an acquisition means for acquiring an imaging date and time and a condition setting means for setting conditions related to the imaging date and time, and the selection means is based on the conditions related to the imaging date and time set by the condition setting means and the imaging date and time of a plurality of candidate images. , At least one candidate image is selected as the second image from the plurality of candidate images.

本発明によれば、撮像日時に関する条件により複数の医用画像から比較対象の医用画像を選択することができる。 According to the present invention, a medical image to be compared can be selected from a plurality of medical images depending on the conditions relating to the imaging date and time.

本発明の実施例1の情報処理装置の構成を示す図。The figure which shows the structure of the information processing apparatus of Example 1 of this invention. 本発明の条件設定部による撮像日時に関する条件を示す図。The figure which shows the condition about the imaging date and time by the condition setting part of this invention. 本発明の実施例1の動作を示すフローチャート。The flowchart which shows the operation of Example 1 of this invention. 本発明の実施例2の情報処理装置の構成を示す図。The figure which shows the structure of the information processing apparatus of Example 2 of this invention. 本発明の実施例2の動作を示すフローチャート。The flowchart which shows the operation of Example 2 of this invention. 本発明の診断対象画像の撮像範囲と候補画像の撮像範囲との関係の一例を示す図。The figure which shows an example of the relationship between the imaging range of the image to be diagnosed and the imaging range of a candidate image of the present invention. 本発明の診断対象画像の撮像範囲と候補画像の撮像範囲との関係の一例を示す図。The figure which shows an example of the relationship between the imaging range of the image to be diagnosed and the imaging range of a candidate image of the present invention. 本発明の診断対象画像の撮像範囲と候補画像の撮像範囲との関係の一例を示す図。The figure which shows an example of the relationship between the imaging range of the image to be diagnosed and the imaging range of a candidate image of the present invention. 本発明の診断対象画像の撮像範囲と候補画像の撮像範囲との関係の一例を示す図。The figure which shows an example of the relationship between the imaging range of the image to be diagnosed and the imaging range of a candidate image of the present invention.

以下、添付図面を参照して本発明の好適な実施例について説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

実施例1の情報処理装置10について、図1〜図3を用いて説明する。本発明の実施例に係る情報処理装置10は、医療機関における医師や放射線技師などのユーザに対して以下の機能を提供する。すなわち、情報処理装置10は、ユーザが医療的な処置を行おうとする患者(被検体)に関する、診断対象画像と比較画像との比較処理を行い、比較処理の結果をユーザに提供する。 The information processing apparatus 10 of the first embodiment will be described with reference to FIGS. 1 to 3. The information processing device 10 according to the embodiment of the present invention provides the following functions to users such as doctors and radiologists in medical institutions. That is, the information processing device 10 performs a comparison process between the diagnosis target image and the comparison image of the patient (subject) for which the user intends to perform medical treatment, and provides the user with the result of the comparison process.

本実施例では、診断対象画像の撮像時点と異なる時点で同一の被検体を撮像した医用画像(候補画像)が複数存在する場合について説明する。情報処理装置10が複数の候補画像の中から診断対象画像との比較に好適な医用画像を比較画像として選択し、診断対象画像と比較画像との比較処理を行う。ここで、比較処理とは、例えば、夫々の医用画像をユーザが比較可能なように表示することや、診断対象画像と候補画像間の差分処理を行い、差分画像を表示することである。 In this embodiment, a case where there are a plurality of medical images (candidate images) in which the same subject is imaged at a time different from the time when the image to be diagnosed is imaged will be described. The information processing device 10 selects a medical image suitable for comparison with the diagnosis target image from a plurality of candidate images as a comparison image, and performs a comparison process between the diagnosis target image and the comparison image. Here, the comparison process is, for example, to display each medical image so that the user can compare it, or to perform a difference process between the diagnosis target image and the candidate image and display the difference image.

情報処理装置10は、現在の時点で撮像された医用画像、若しくは最新の医用画像(診断対象画像)と、診断対象画像よりも過去に撮像された医用画像(比較画像)との比較により被検体の病変の発生や進行を描出する。 The information processing apparatus 10 is a subject by comparing a medical image captured at the present time or the latest medical image (diagnosis target image) with a medical image (comparative image) captured in the past than the diagnosis target image. Depict the development and progression of lesions.

情報処理装置10は、複数の候補画像を撮像した撮像日時を取得し、撮像日時に関する条件を設定する。そして、該設定された条件と複数の候補画像の撮像日時に基づいて、複数の候補画像から比較画像を選択する。そして、情報処理装置10は、診断対象画像と比較画像との差分を描出した差分画像を生成し、被検体の経時的な変化を表示部36に表示する。なお、以下の説明において、撮像日時とは、撮像日と撮像時刻の双方を表す情報だけでなく、撮像日のみを表す情報を含むものとする。また、撮像時刻のみを表す情報を含むものとする。例えば、起点となる所定の時刻(例えば、1970年1月1日0時0分0秒)からの経過時間のみを記録した情報も含むものとする。また、撮像日とは、一般には撮像年月日のことであるが、撮像年月のみを表す情報であってもよい。 The information processing device 10 acquires the imaging date and time when a plurality of candidate images are captured, and sets conditions related to the imaging date and time. Then, a comparison image is selected from the plurality of candidate images based on the set conditions and the imaging date and time of the plurality of candidate images. Then, the information processing device 10 generates a difference image that depicts the difference between the image to be diagnosed and the comparison image, and displays the change over time of the subject on the display unit 36. In the following description, the imaging date and time shall include not only information representing both the imaging date and the imaging time, but also information representing only the imaging date. In addition, it shall include information indicating only the imaging time. For example, it is assumed to include information recording only the elapsed time from a predetermined time as a starting point (for example, 0:00:00 on January 1, 1970). The imaging date is generally the imaging date, but may be information representing only the imaging date.

図1は、本発明の医用情報処理システムの全体構成と情報処理装置10の構成を示す図である。医用情報処理システムは、情報処理装置10と医用画像データベース23を含む。情報処理装置10と医用画像データベース23は、通信手段を介して互いに通信可能に接続されている。本実施例においては、通信手段はLAN(Local Area Network)21で構成されるが、WAN(Wide Area Network)であってもよい。また、通信手段の接続方法は有線接続であってもよいし、無線接続であってもよい。 FIG. 1 is a diagram showing the overall configuration of the medical information processing system of the present invention and the configuration of the information processing device 10. The medical information processing system includes an information processing device 10 and a medical image database 23. The information processing device 10 and the medical image database 23 are communicably connected to each other via a communication means. In this embodiment, the communication means is composed of a LAN (Local Area Network) 21, but may be a WAN (Wide Area Network). Further, the connection method of the communication means may be a wired connection or a wireless connection.

医用画像データベース23は、複数の被検体に関する複数の医用画像とその付帯情報を保持する。医用画像とは、例えばCT装置やMRI装置等のモダリティで撮像した画像であり、二次元や三次元、モノクロームやカラーなどの様々な画像が対象となりうる。医用画像の付帯情報とは、被検体ID(患者ID)、撮像日時、撮像部位、再構成条件や管電圧値・管電流値などの撮像条件などの情報である。これ以外にも、検査目的、検査対象の臓器名、検査対象の疾患名なども付帯情報となりうる。 The medical image database 23 holds a plurality of medical images related to a plurality of subjects and incidental information thereof. The medical image is an image captured by a modality such as a CT device or an MRI device, and various images such as two-dimensional, three-dimensional, monochrome, and color can be targeted. The incidental information of the medical image is information such as a subject ID (patient ID), an imaging date and time, an imaging site, a reconstruction condition, and an imaging condition such as a tube voltage value and a tube current value. In addition to this, the purpose of the test, the name of the organ to be tested, the name of the disease to be tested, and the like can be incidental information.

各々の医用画像およびその付帯情報には、他の情報との識別を可能にするために、固有の識別子(検査ID)が付され、検査IDに基づいて情報処理装置10による情報の読み出しが行われる。医用画像が複数の二次元断面画像(断層画像)によって構成される三次元ボリューム画像の場合には、各二次元断面画像(断層画像)および、断層画像の集合である三次元ボリューム画像の夫々に対して検査IDが付されている。医用画像データベース23は、情報の読み出し以外にも、情報処理装置10と連携して医用画像の一覧表示や、サムネイル表示、検索、情報の書き込み等の機能を提供する。なお、本実施例において、医用画像とは医用画像データのことを示す。 A unique identifier (inspection ID) is attached to each medical image and its incidental information in order to enable identification from other information, and the information processing device 10 reads out the information based on the inspection ID. Will be. When the medical image is a three-dimensional volume image composed of a plurality of two-dimensional cross-sectional images (tomographic images), each of the two-dimensional cross-sectional images (tomographic images) and the three-dimensional volume image which is a set of tomographic images On the other hand, an inspection ID is attached. In addition to reading information, the medical image database 23 provides functions such as list display of medical images, thumbnail display, search, and writing of information in cooperation with the information processing device 10. In this embodiment, the medical image refers to medical image data.

情報処理装置10は、医用画像データベース23が保持する情報を、LAN21を介して取得する。情報処理装置10は、通信IF31、ROM32、RAM33、記憶部34、操作部35、表示部36、制御部50を具備する。 The information processing device 10 acquires the information held by the medical image database 23 via the LAN 21. The information processing device 10 includes a communication IF 31, a ROM 32, a RAM 33, a storage unit 34, an operation unit 35, a display unit 36, and a control unit 50.

通信IF(Interface)31は、例えば、LANカード等で実現され、LAN21を介した外部装置(医用画像データベース23)と情報処理装置10との間の通信を行う。ROM(Read Only Memory)32は、不揮発性のメモリ等で実現され、各種プログラム等を記憶する。RAM(Random Access Memory)33は、揮発性のメモリ等で実現され、各種情報を一時的に記憶する。記憶部34は、例えば、HDD(Hard Disk Drive)等で実現され、各種情報を記憶する。操作部35は、例えば、キーボードやマウス等で実現され、ユーザは操作部35を介して各種情報を入力することができる。表示部36は、例えば、ディスプレイである。操作部35や表示部36は、制御部50からの制御によりグラフィカルユーザインターフェース(GUI)としての機能を有している。 The communication IF (Interface) 31 is realized by, for example, a LAN card or the like, and communicates between the external device (medical image database 23) and the information processing device 10 via the LAN 21. The ROM (Read Only Memory) 32 is realized by a non-volatile memory or the like, and stores various programs or the like. The RAM (Random Access Memory) 33 is realized by a volatile memory or the like, and temporarily stores various information. The storage unit 34 is realized by, for example, an HDD (Hard Disk Drive) or the like, and stores various information. The operation unit 35 is realized by, for example, a keyboard or a mouse, and the user can input various information via the operation unit 35. The display unit 36 is, for example, a display. The operation unit 35 and the display unit 36 have a function as a graphical user interface (GUI) under the control of the control unit 50.

制御部50は、例えば、CPU(Central Processing Unit)で実現され、情報処理装置10における処理を統括制御する。制御部50は、診断対象画像取得部51、候補画像取得部52、撮像日時取得部53、条件設定部54、選択部55、画像処理部56、表示制御部57を具備する。 The control unit 50 is realized by, for example, a CPU (Central Processing Unit), and controls the processing in the information processing apparatus 10 in an integrated manner. The control unit 50 includes a diagnosis target image acquisition unit 51, a candidate image acquisition unit 52, an imaging date / time acquisition unit 53, a condition setting unit 54, a selection unit 55, an image processing unit 56, and a display control unit 57.

診断対象画像取得部51は、操作部35によって入力されるユーザの操作に従って、通信IF31とLAN21を介して医用画像データベース23から、診断対象画像として、被検体の医用画像を取得する。そして、診断対象画像取得部51は、取得した診断対象画像を付帯情報とともに画像処理部56へ出力する。 The diagnosis target image acquisition unit 51 acquires a medical image of a subject as a diagnosis target image from the medical image database 23 via the communication IF 31 and LAN 21 according to the user's operation input by the operation unit 35. Then, the diagnosis target image acquisition unit 51 outputs the acquired diagnosis target image to the image processing unit 56 together with the incidental information.

候補画像取得部52は、診断対象画像取得部51が取得した診断対象画像に対する比較画像の候補となる医用画像(候補画像)として、同じ被検体を過去に撮像した医用画像を、通信IF31とLAN21を介して医用画像データベース23から複数取得する。そして、候補画像取得部52は、取得した複数の候補画像の付帯情報を撮像日時取得部53に出力し、複数の候補画像を選択部55に出力する。 The candidate image acquisition unit 52 uses the communication IF 31 and LAN 21 as medical images (candidate images) that are candidates for comparison images with respect to the image to be diagnosed acquired by the image acquisition unit 51 to obtain medical images of the same subject in the past. A plurality of images are acquired from the medical image database 23 via the above. Then, the candidate image acquisition unit 52 outputs the incidental information of the acquired plurality of candidate images to the imaging date / time acquisition unit 53, and outputs the plurality of candidate images to the selection unit 55.

撮像日時取得部53は、複数の候補画像の撮像日時を取得する。複数の候補画像に付与されている付帯情報には、撮像日時が含まれているため、撮像日時取得部53は、複数の候補画像に付与されている付帯情報を読み込むことにより、複数の候補画像の撮像日時を取得することができる。 The imaging date / time acquisition unit 53 acquires the imaging date / time of a plurality of candidate images. Since the incidental information given to the plurality of candidate images includes the imaging date and time, the imaging date / time acquisition unit 53 reads the incidental information attached to the plurality of candidate images to obtain the plurality of candidate images. It is possible to acquire the imaging date and time of.

条件設定部54は、複数の候補画像から比較対象の医用画像(比較画像)を選択するために、撮像日時に関する条件を設定する。具体的には、条件設定部54は、診断対象画像の撮像日時を基準にした撮像日時を設定する。 The condition setting unit 54 sets conditions related to the imaging date and time in order to select a medical image (comparison image) to be compared from a plurality of candidate images. Specifically, the condition setting unit 54 sets the imaging date and time based on the imaging date and time of the image to be diagnosed.

図2は、条件設定部54による撮像日時に関する条件を示す例である。撮像日時とは、被検体を撮像した日付と時刻を含むものであるが、ここでは説明簡略化のため、日付を用いて説明する。条件設定部54は、例えば、最も新しい撮像日時(診断対象画像の撮像日時に最も近い過去の撮像日時)を撮像日時に関する条件として設定することができる。これによると、比較読影の基本である直近の検査との比較を行うことができる。この条件の場合、選択部55は、最も新しい撮像日時に該当する候補画像を比較画像として選択する。図2の例では、診断対象画像の撮像日時が2019/4/15である。複数の候補画像1〜5の中で候補画像5の撮像日時が2018/10/20であり最も新しい撮像日時の候補画像であるため、選択部55によって候補画像5が選択される。選択部55は、選択された候補画像5を比較画像として画像処理部56に出力する。また、最も古い撮像日時(診断対象画像の撮像日時から最も遠い過去の撮像日時)を撮像日時に関する条件として設定することができる。これによると、診断対象画像からみて最も変化が生じている画像を比較画像として選択できる。この条件の場合、選択部55は、最も古い撮像日時に該当する候補画像を比較画像として選択する。 FIG. 2 is an example showing conditions related to the imaging date and time by the condition setting unit 54. The imaging date and time includes the date and time when the subject was imaged, but here, for the sake of brevity, the date will be used. The condition setting unit 54 can set, for example, the latest imaging date and time (the past imaging date and time closest to the imaging date and time of the image to be diagnosed) as a condition related to the imaging date and time. According to this, it is possible to make a comparison with the latest examination, which is the basis of comparative interpretation. Under this condition, the selection unit 55 selects the candidate image corresponding to the latest imaging date and time as the comparison image. In the example of FIG. 2, the imaging date and time of the image to be diagnosed is April 15, 2019. Among the plurality of candidate images 1 to 5, the imaging date and time of the candidate image 5 is 2018/10/20, which is the newest candidate image of the imaging date and time, so the candidate image 5 is selected by the selection unit 55. The selection unit 55 outputs the selected candidate image 5 as a comparison image to the image processing unit 56. Further, the oldest imaging date and time (the past imaging date and time farthest from the imaging date and time of the image to be diagnosed) can be set as a condition regarding the imaging date and time. According to this, the image in which the most change occurs from the image to be diagnosed can be selected as the comparison image. Under this condition, the selection unit 55 selects the candidate image corresponding to the oldest imaging date and time as the comparison image.

また、条件設定部54は、診断対象画像の撮像日時を基準にして、所定の期間内の撮像日時を撮像日時に関する条件として設定することができる。例えば、所定の期間として、期間の下限を設定することができる。例えば、診断対象画像の撮像日時から所定期間(例えば1年)以上間隔が空いた検査であることを条件として設定できる。これによると、注目する病変の発生にある程度の時間を要することがわかっている場合に、適切な期間に実施された検査の候補画像を比較画像として選択できる。また、さらに、所定の期間内において、最も新しい撮像日時であることを撮像日時に関する追加条件として設定することができる。これによると、期間の条件を満たす中で診断対象画像と一番近い、余分な変化が生じていない検査の候補画像を比較画像として選ぶことができる。 Further, the condition setting unit 54 can set the imaging date and time within a predetermined period as the condition related to the imaging date and time based on the imaging date and time of the image to be diagnosed. For example, the lower limit of the period can be set as a predetermined period. For example, it can be set on condition that the examination is separated from the imaging date and time of the image to be diagnosed by a predetermined period (for example, one year) or more. According to this, when it is known that it takes a certain amount of time for the lesion of interest to occur, a candidate image of a test performed at an appropriate period can be selected as a comparative image. Further, it is possible to set the latest imaging date and time as an additional condition regarding the imaging date and time within a predetermined period. According to this, it is possible to select as a comparison image a candidate image for an examination that is closest to the image to be diagnosed and has no extra change while satisfying the condition of the period.

また反対に、所定の期間として、期間の上限を設定することができる。例えば、図2(a)に示すように、条件設定部54は、診断対象画像の撮像日時2019/4/15を基準にして、例えば2年以内と期間を設定することができる。これによると、比較画像との期間が離れすぎていることで過去に発生した変化までもが差分画像に表れてしまうことに起因するノイズの増加を軽減できる。あるいは、所定の期間として、1年以上2年未満のような上限と下限を有する期間を設定することができる。所定の期間を条件として設定した場合、選択部55は、所定の期間内の撮像日時に該当する候補画像を比較画像として選択する。図2(a)の例では、複数の候補画像の中で候補画像4の撮像日時が2018/9/5であり、候補画像5の撮像日時が2018/10/20であるため、選択部55によって、候補画像4と候補画像5が選択される。選択部55は、選択された候補画像4と候補画像5を比較画像として画像処理部56に出力する。また、さらに、所定の期間内において、最も過去の撮像日時であることを撮像日時に関する追加条件として設定することができる。これによると、期間の条件を満たす中で最も変化が大きくなるような検査を選ぶことができる。この場合、図2(a)の例では、候補画像4が比較画像として選択される。 On the contrary, the upper limit of the period can be set as a predetermined period. For example, as shown in FIG. 2A, the condition setting unit 54 can set a period of, for example, within 2 years based on the imaging date / time 2019/4/15 of the image to be diagnosed. According to this, it is possible to reduce the increase in noise caused by the fact that even changes that have occurred in the past appear in the difference image because the period is too far from the comparison image. Alternatively, as a predetermined period, a period having an upper limit and a lower limit such as one year or more and less than two years can be set. When a predetermined period is set as a condition, the selection unit 55 selects a candidate image corresponding to the imaging date and time within the predetermined period as a comparison image. In the example of FIG. 2A, since the imaging date and time of the candidate image 4 is 2018/9/5 and the imaging date and time of the candidate image 5 is 2018/10/20 among the plurality of candidate images, the selection unit 55 Selects the candidate image 4 and the candidate image 5. The selection unit 55 outputs the selected candidate image 4 and the candidate image 5 to the image processing unit 56 as comparison images. Further, it is possible to set the earliest imaging date and time as an additional condition regarding the imaging date and time within a predetermined period. According to this, it is possible to select the test that changes the most among the conditions of the period. In this case, in the example of FIG. 2A, the candidate image 4 is selected as the comparison image.

なお、条件設定部54は、撮像日時に関する条件として、優先度が異なる複数の条件を設定できるようにしてもよい。例えば、第1優先度の条件を満たす候補画像が存在しない場合には、第2優先度の条件を満たす候補画像を選択するような、複数段階の条件を設定することができる。例えば、撮像日時が1年以上2年未満であることを第1優先度の条件、2年以上3年未満を第2優先度の条件とすることができる。また、3年以上4年未満を第3優先度の条件とするなど、3つ以上の任意の数の条件を優先度付して設定してもよい。これによると、理想的な条件の比較画像が存在しない場合であっても、次善の条件を満たす比較画像を選択できるため、画像の比較ができないケースを削減できるという効果がある。 The condition setting unit 54 may be able to set a plurality of conditions having different priorities as conditions relating to the imaging date and time. For example, when there is no candidate image satisfying the condition of the first priority, a plurality of stages of conditions can be set such that a candidate image satisfying the condition of the second priority is selected. For example, the first priority condition can be that the imaging date and time is 1 year or more and less than 2 years, and the second priority condition can be 2 years or more and less than 3 years. Further, an arbitrary number of three or more conditions may be set with priority, such as setting 3 years or more and less than 4 years as the condition of the third priority. According to this, even when a comparison image with ideal conditions does not exist, a comparison image satisfying the next best condition can be selected, so that there is an effect that cases where the images cannot be compared can be reduced.

また、条件設定部54は、診断対象画像の撮像日時との間に手術等の所定の治療を挟まない撮像日時を撮像日時に関する条件として設定することもできる。この条件の場合、選択部55は、診断対象画像の撮像日時との間に手術等の所定の治療を挟まない撮像日時に該当する候補画像を比較画像として選択する。 Further, the condition setting unit 54 can set an imaging date and time as a condition relating to the imaging date and time so that a predetermined treatment such as surgery is not inserted between the imaging date and time of the image to be diagnosed. Under this condition, the selection unit 55 selects as a comparison image a candidate image corresponding to the imaging date and time that does not sandwich a predetermined treatment such as surgery between the imaging date and time of the image to be diagnosed.

候補画像の撮像日時と診断対象画像の撮像日時の間で手術等の治療が行われると、候補画像と診断対象画像における治療部位周辺の画素値が大きく異なり、候補画像が比較対象に相応しくない。図2(b)は、候補画像4の撮像日時と候補画像5の撮像日時間に手術が行われたことを示している。複数の候補画像の中で候補画像5の撮像日時が診断対象画像の撮像日時の間で手術等の治療を挟まない撮像日時の候補画像であるため、選択部55によって候補画像5が選択される。選択部55は、選択された候補画像5を比較画像として画像処理部56に出力する。なお、手術等の所定の治療を挟まず、かつ、なるべく古い撮像日時であることを撮像日時に関する条件としてもよい。これによると、手術等の大きな変化が起きない範囲で、診断対象画像からみて最も変化が生じている画像を比較画像として選択できる。 When treatment such as surgery is performed between the imaging date and time of the candidate image and the imaging date and time of the diagnosis target image, the pixel values around the treatment site in the candidate image and the diagnosis target image are significantly different, and the candidate image is not suitable for comparison. FIG. 2B shows that the operation was performed at the imaging date and time of the candidate image 4 and the imaging date and time of the candidate image 5. Since the imaging date and time of the candidate image 5 among the plurality of candidate images is a candidate image of the imaging date and time that does not sandwich treatment such as surgery between the imaging dates and times of the diagnosis target image, the candidate image 5 is selected by the selection unit 55. The selection unit 55 outputs the selected candidate image 5 as a comparison image to the image processing unit 56. It should be noted that the condition regarding the imaging date and time may be that the imaging date and time is as old as possible without interposing a predetermined treatment such as surgery. According to this, the image in which the most change occurs from the image to be diagnosed can be selected as the comparison image within the range where no major change such as surgery occurs.

また、条件設定部54は、所定の治療を開始する前で、なるべく新しい撮像日時を撮像日時に関する条件として設定することもできる。この条件の場合、選択部55は、指定された所定の治療の日時を元に、それ以前で、かつ、最も新しい撮像日時の候補画像を比較画像として選択する。これによると、治療の効果による変化を観察したい場合に適切な比較画像を選択できる。 Further, the condition setting unit 54 can set as new an imaging date and time as possible as a condition regarding the imaging date and time before starting a predetermined treatment. In the case of this condition, the selection unit 55 selects a candidate image of an earlier and newest imaging date and time as a comparison image based on the specified predetermined treatment date and time. According to this, an appropriate comparative image can be selected when it is desired to observe the change due to the effect of the treatment.

また、条件設定部54は、診断対象画像の撮像日時との間にモダリティの機種が変更されていない撮像日時を撮像日時に関する条件として設定することもできる。 Further, the condition setting unit 54 can also set an imaging date and time in which the modality model has not been changed between the imaging date and time of the image to be diagnosed as a condition related to the imaging date and time.

この条件の場合、選択部55は、診断対象画像の撮像日時との間にモダリティの機種が変更されていない撮像日時に該当する候補画像を比較画像として選択する。 Under this condition, the selection unit 55 selects as a comparison image a candidate image corresponding to the imaging date and time for which the modality model has not been changed between the imaging date and time of the image to be diagnosed.

候補画像の撮像日時と診断対象画像の撮像日時の間でモダリティの機種変更が行われると、候補画像と診断対象画像における画質が大きく異なり、候補画像が比較対象に相応しくないからである。図2(c)は、候補画像3の撮像日時と候補画像4の撮像日時間にモダリティの機種変更が行われたことを示している。複数の候補画像の中で候補画像4の撮像日時と候補画像5の撮像日時が診断対象画像の撮像日時の間でモダリティの機種変更を挟まない撮像日時の候補画像であるため、選択部55によって候補画像4又は候補画像5が選択される。選択部55は、選択された候補画像4又は候補画像5を比較画像として画像処理部56に出力する。なお、モダリティが機種変更されておらず、かつ、なるべく古い撮像日時であることを撮像日時に関する条件としてもよい。これによると、モダリティの機種変更による大きな変化が起きない範囲で、診断対象画像からみて最も変化が生じている画像を比較画像として選択できる。また、ここではモダリティの機種変更を例として記載したが、それ以外にも、撮像プロトコルの変更や再構成アルゴリズムのバージョンアップなど、画像の品質に影響を与えるイベントであれば、いずれのイベントの日時を条件として用いてもよい。 This is because if the modality model is changed between the imaging date and time of the candidate image and the imaging date and time of the diagnosis target image, the image quality of the candidate image and the diagnosis target image is significantly different, and the candidate image is not suitable for comparison. FIG. 2C shows that the modality model was changed at the imaging date and time of the candidate image 3 and the imaging date and time of the candidate image 4. Among the plurality of candidate images, the imaging date and time of the candidate image 4 and the imaging date and time of the candidate image 5 are candidate images of the imaging date and time without interposing the model change of the modality between the imaging date and time of the image to be diagnosed. Image 4 or candidate image 5 is selected. The selection unit 55 outputs the selected candidate image 4 or the candidate image 5 to the image processing unit 56 as a comparison image. It should be noted that the condition regarding the imaging date and time may be that the modality has not been changed and the imaging date and time is as old as possible. According to this, the image in which the most change occurs from the image to be diagnosed can be selected as the comparison image within the range in which a large change does not occur due to the model change of the modality. In addition, although the modality model change is described here as an example, if it is an event that affects the image quality, such as a change in the imaging protocol or a version upgrade of the reconstruction algorithm, the date and time of any event. May be used as a condition.

なお、撮像日時に関する条件は、以上の条件を組み合わせたものであってもよい。 The conditions relating to the imaging date and time may be a combination of the above conditions.

ここで、一般に、同一撮像日時の検査において複数の画像が撮像されるため、撮像日時の条件だけでは、候補画像から1つの比較画像を特定できない場合がある。また、撮像日時の条件を満たす検査が複数存在する場合にも、撮像日時の条件だけでは候補画像から1つの比較画像を特定できない。このような場合に、選択部55は、撮像日時以外の他の条件を設定することで、比較画像をさらに絞り込む構成であってもよい。この場合、条件設定部54は、撮像日時の条件を満たす候補画像の中から、撮像日時以外の他の条件(撮像範囲、撮像部位、撮像条件など)で比較画像を選択するようにできる。撮像部位であれば、肺野、腹部、頭部などを設定することができる。例えば、条件設定部54は、診断対象画像の撮像部位と同じ撮像部位の候補画像を選択するための条件を設定することができる。例えば、診断対象画像が腹部の画像であれば、条件設定部54は、撮像部位が腹部であることを条件として設定し、選択部55は、腹部の候補画像を比較画像として選択する。同様に、診断対象画像が頭部の画像であれば、条件設定部54は、撮像部位が頭部であることを条件として設定し、選択部55は、頭部の候補画像を比較画像として選択する。同様に、検査目的や検査対象の疾患名等が診断対象画像と一致することを、選択の条件としてもよい。 Here, in general, since a plurality of images are captured in the inspection of the same imaging date and time, one comparative image may not be specified from the candidate images only by the condition of the imaging date and time. Further, even when there are a plurality of tests that satisfy the conditions of the imaging date and time, one comparison image cannot be identified from the candidate images only by the conditions of the imaging date and time. In such a case, the selection unit 55 may be configured to further narrow down the comparison image by setting conditions other than the imaging date and time. In this case, the condition setting unit 54 can select a comparison image from the candidate images satisfying the conditions of the imaging date and time under conditions other than the imaging date and time (imaging range, imaging site, imaging conditions, etc.). If it is an imaging site, the lung field, abdomen, head, and the like can be set. For example, the condition setting unit 54 can set conditions for selecting a candidate image of the same imaging region as the imaging region of the image to be diagnosed. For example, if the image to be diagnosed is an image of the abdomen, the condition setting unit 54 sets the imaging site on the condition that the abdomen is the abdomen, and the selection unit 55 selects the candidate image of the abdomen as the comparison image. Similarly, if the image to be diagnosed is an image of the head, the condition setting unit 54 sets the imaging site on the condition that the image is the head, and the selection unit 55 selects the candidate image of the head as the comparison image. To do. Similarly, the selection condition may be that the test purpose, the name of the disease to be tested, and the like match the image to be diagnosed.

また、撮像条件であれば、再構成条件、スライス厚、造影条件(造影剤の有無)などを、比較画像の選択条件として設定することができる。例えば、条件設定部54は、差分処理に適した撮像条件の画像であるということを、比較画像を選択するための条件として設定することができる。例えば、スライス厚が5mm以下であること、再構成関数が縦隔条件であること、非造影であること、管電圧や管電流の範囲、等を条件として設定できる。また、条件設定部54は、診断対象画像の撮像条件と同じ撮像条件で撮像した画像であるということを、比較画像を選択するための条件として設定することができる。例えば、診断対象画像のスライス厚が2.5mmであれば、条件設定部54は、スライス厚が2.5mmであることを、候補画像から比較画像を選択するための条件として設定する。このとき、選択部55は、複数の候補画像の中から、スライス厚が2.5mmである候補画像を比較画像として選択する。同様に、診断対象画像と再構成関数、管電圧、管電流が一致していること、あるいは、差異が所定の範囲内であることを、比較画像を選択するための条件として設定することもできる。また、複数の項目を組み合わせた条件を設定してもよい。この場合、例えば、各項目の一致度をもとにして、それらの積や和による総合的な評価値を算出し、最良の評価値を与える候補画像を比較画像として選択するようにできる。あるいは、評価値が所定の閾値を上回る全ての候補画像を比較画像として選択するようにできる。なお、上記の例では、撮影日時の条件を満たす候補画像の中から、撮影日時以外の他の条件によって比較画像を選択する場合について説明したが、条件を適用する順番はこれに限定されるものではない。例えば、撮影日時以外の条件によって候補画像を絞り込んだうえで、撮影日時の条件に基づいて比較画像を選択するようにしてもよい。特に、撮像日時の条件が「最も古い」や「最も新しい」の場合には、撮影日時以外の条件による絞り込みを先に行うことが望ましい。例えば、撮影日時以外の条件を満たす候補画像の中から、撮像日時が最も古い候補画像を選択したり、撮像日時が最も新しい候補画像を選択したりといった条件を設定することができる。これによると、撮像日時以外の条件を満たす候補画像の中から、目的(例えば、これまでに患者に生じた変化を見たい、や、前回の同一目的検査からの変化を見たい)に応じた比較を行うことができる。 Further, if it is an imaging condition, a reconstruction condition, a slice thickness, a contrast condition (presence or absence of a contrast agent), and the like can be set as selection conditions for a comparative image. For example, the condition setting unit 54 can set that the image has imaging conditions suitable for the difference processing as a condition for selecting the comparison image. For example, the slice thickness can be set as 5 mm or less, the reconstruction function can be set as a mediastinal condition, non-contrast, a range of tube voltage and tube current, and the like. Further, the condition setting unit 54 can set that the image is captured under the same imaging conditions as the imaging condition of the image to be diagnosed as a condition for selecting the comparison image. For example, if the slice thickness of the image to be diagnosed is 2.5 mm, the condition setting unit 54 sets that the slice thickness is 2.5 mm as a condition for selecting a comparison image from the candidate images. At this time, the selection unit 55 selects a candidate image having a slice thickness of 2.5 mm as a comparison image from the plurality of candidate images. Similarly, it is possible to set that the image to be diagnosed and the reconstruction function, the tube voltage, and the tube current match, or that the difference is within a predetermined range, as a condition for selecting the comparison image. .. Moreover, you may set the condition which combined a plurality of items. In this case, for example, a comprehensive evaluation value based on the product or sum of each item can be calculated based on the degree of matching of each item, and a candidate image giving the best evaluation value can be selected as a comparison image. Alternatively, all candidate images whose evaluation values exceed a predetermined threshold value can be selected as comparison images. In the above example, a case where a comparison image is selected from candidate images satisfying the shooting date and time according to conditions other than the shooting date and time has been described, but the order in which the conditions are applied is limited to this. is not it. For example, the candidate images may be narrowed down according to conditions other than the shooting date and time, and then the comparison image may be selected based on the shooting date and time conditions. In particular, when the conditions of the imaging date and time are "oldest" or "newest", it is desirable to narrow down by conditions other than the shooting date and time first. For example, it is possible to set conditions such as selecting the candidate image having the oldest imaging date and time or selecting the candidate image having the latest imaging date and time from the candidate images satisfying conditions other than the shooting date and time. According to this, from among the candidate images that satisfy conditions other than the imaging date and time, according to the purpose (for example, want to see the changes that have occurred in the patient so far, or want to see the changes from the previous same-purpose examination). You can make a comparison.

そして、画像処理部56は、診断対象画像と比較画像(選択された候補画像)との比較処理(差分処理)を行い、比較処理の比較結果を表示制御部57へ出力する。具体的には、画像処理部56は、診断対象画像と比較画像との差分を描出した差分画像を生成する。表示処理部57は、比較結果(差分画像)を表示部36に表示させる。 Then, the image processing unit 56 performs comparison processing (difference processing) between the diagnosis target image and the comparison image (selected candidate image), and outputs the comparison result of the comparison processing to the display control unit 57. Specifically, the image processing unit 56 generates a difference image that depicts the difference between the diagnosis target image and the comparison image. The display processing unit 57 causes the display unit 36 to display the comparison result (difference image).

なお、制御部50が具備する各部の少なくとも一部は独立した装置として実現してもよい。また、夫々が機能を実現するソフトウェアとして実現してもよい。この場合、機能を実現するソフトウェアは、クラウドをはじめとするネットワークを介したサーバ上で動作してもよい。本実施例では各部はローカル環境におけるソフトウェアにより夫々実現されているものとする。 At least a part of each unit included in the control unit 50 may be realized as an independent device. In addition, each may be realized as software that realizes a function. In this case, the software that realizes the function may operate on a server via a network such as the cloud. In this embodiment, it is assumed that each part is realized by software in the local environment.

また、図1に示す情報処理装置10の構成はあくまで一例である。例えば、情報処理装置10の記憶部34が医用画像データベース23の機能を具備し、記憶部34が複数の被検体に関する複数の医用画像とその付帯情報を保持してもよい。 Further, the configuration of the information processing apparatus 10 shown in FIG. 1 is merely an example. For example, the storage unit 34 of the information processing device 10 may have the function of the medical image database 23, and the storage unit 34 may hold a plurality of medical images related to a plurality of subjects and their incidental information.

次に、図3を用いて、本実施例における情報処理装置10による動作を詳細に説明する。なお、以下では、医用画像としてCT画像を用いる場合を例として説明するが、本発明の実施はこれに限定されるものではない。また、診断対象画像と候補画像は、必ずしも同一被検体・同一モダリティの画像である必要はない。 Next, the operation by the information processing apparatus 10 in this embodiment will be described in detail with reference to FIG. In the following, a case where a CT image is used as a medical image will be described as an example, but the implementation of the present invention is not limited to this. Further, the image to be diagnosed and the candidate image do not necessarily have to be images of the same subject and the same modality.

(ステップS1010)<診断対象画像の取得>
本ステップにおいて、診断対象画像取得部51は、処理の対象とする診断対象画像(第一の画像)を医用画像データベース23から取得する処理を実行する。この処理は、操作部35や表示部36により提供されるGUIによりユーザから操作を受け付けることで実行される。この処理により診断対象画像取得部51は診断対象画像を医用画像データベース23から読み出し、情報処理装置10はROM32、RAM33、記憶部34などを用いて保持する。本実施例では診断対象画像として、複数の断層画像によって構成される三次元のCT画像を取得する場合を例として説明する。ただし本発明の実施はこれに限定されるものではなく、二次元のCT画像や単純X線画像、MRI画像、被検体の病変部のカメラ画像等であってもよい。なお、診断対象画像は被検体ID(患者ID)、撮像日時、撮像部位、撮像パラメータなどの付帯情報が付与されている。
(Step S1010) <Acquisition of image to be diagnosed>
In this step, the diagnosis target image acquisition unit 51 executes a process of acquiring the diagnosis target image (first image) to be processed from the medical image database 23. This process is executed by accepting an operation from the user by the GUI provided by the operation unit 35 and the display unit 36. By this process, the diagnosis target image acquisition unit 51 reads the diagnosis target image from the medical image database 23, and the information processing device 10 holds the diagnosis target image using the ROM 32, the RAM 33, the storage unit 34, and the like. In this embodiment, a case where a three-dimensional CT image composed of a plurality of tomographic images is acquired as a diagnosis target image will be described as an example. However, the implementation of the present invention is not limited to this, and may be a two-dimensional CT image, a simple X-ray image, an MRI image, a camera image of a lesion portion of a subject, or the like. The image to be diagnosed is given additional information such as a subject ID (patient ID), an imaging date and time, an imaging site, and imaging parameters.

(ステップS1020)<複数の候補画像の取得>
本ステップにおいて、候補画像取得部52は、ステップS1010で取得した診断対象画像との比較の候補となる医用画像(候補画像)を医用画像データベース23から複数取得する処理を実行する。この処理の一例として、候補画像取得部52は、医用画像データベース23に記録されている複数の医用画像の中から、診断対象画像と同じ被検体の医用画像を候補画像として取得する。具体的には、候補画像取得部52は、診断対象画像の付帯情報である被検体IDと同一の被検体IDを付帯情報として持つ医用画像を、医用画像データベース23が具備する検索機能を用いて取得する。
(Step S1020) <Acquisition of a plurality of candidate images>
In this step, the candidate image acquisition unit 52 executes a process of acquiring a plurality of medical images (candidate images) as candidates for comparison with the diagnosis target image acquired in step S1010 from the medical image database 23. As an example of this process, the candidate image acquisition unit 52 acquires a medical image of the same subject as the diagnosis target image as a candidate image from a plurality of medical images recorded in the medical image database 23. Specifically, the candidate image acquisition unit 52 uses the search function provided in the medical image database 23 to obtain a medical image having the same subject ID as the subject ID, which is the incidental information of the image to be diagnosed, as the incidental information. get.

候補画像を取得する方法は上記の方法に限らない。例えば、候補画像取得部52は、診断対象画像の撮像日時を参照し、それよりも古い(過去の)医用画像に限って取得してもよい。本実施例では上記の方法により、診断対象画像の撮像時点よりも過去の時点に撮像された同一被検体の医用画像であり、かつ、診断対象画像と同じモダリティ(本実施例の具体例ではCT装置)で撮像された医用画像に限定して候補画像を取得するものとする。 The method of acquiring the candidate image is not limited to the above method. For example, the candidate image acquisition unit 52 may refer to the imaging date and time of the image to be diagnosed and acquire only the older (past) medical image. In this embodiment, it is a medical image of the same subject imaged at a time earlier than the time when the image to be diagnosed is captured by the above method, and has the same modality as the image to be diagnosed (CT in the specific example of this example). Candidate images shall be acquired only for medical images captured by the device).

(ステップS1030)<複数の候補画像の撮像日時を取得>
本ステップにおいて、撮像日時取得部53は、候補画像取得部52によって取得された複数の候補画像の撮像日時を取得する。候補画像とともに記録される撮像日時は、それぞれの候補画像のヘッダ領域に付帯情報として記録されている。撮像日時取得部53は、複数の候補画像の付帯情報を読み込むことにより、複数の候補画像の撮像日時を取得する。ここで、撮像日時取得部53は、候補画像が取得された検査の実施日(検査日付)を取得し、それを、当該検査で取得した夫々の候補画像の撮像日時として用いてもよい。また、候補画像の画像再構成を行った日付や最初に読影を行った日付など、撮像日時と相関する情報を撮像日時として代用してもよい。
(Step S1030) <Acquisition of imaging dates and times of a plurality of candidate images>
In this step, the imaging date / time acquisition unit 53 acquires the imaging date / time of a plurality of candidate images acquired by the candidate image acquisition unit 52. The imaging date and time recorded together with the candidate image is recorded as incidental information in the header area of each candidate image. The imaging date / time acquisition unit 53 acquires the imaging date / time of the plurality of candidate images by reading the incidental information of the plurality of candidate images. Here, the imaging date / time acquisition unit 53 may acquire the date (inspection date) of the inspection in which the candidate image was acquired and use it as the imaging date / time of each candidate image acquired in the inspection. Further, information that correlates with the imaging date and time, such as the date when the candidate image is reconstructed or the date when the image is first read, may be substituted as the imaging date and time.

(ステップS1035)<撮像日時に関する条件を設定>
本ステップにおいて、条件設定部54は、複数の候補画像から比較画像を選択するための、撮像日時に関する条件を設定する。例えば、不図示のGUIを介して、前掲した撮像日時に関する条件のバリエーションの中からユーザに条件を選択させることで、条件の設定を行う。あるいは、設定ファイルに予め記載された条件を読み込む構成であってもよい。なお、撮像日時以外の他の条件についても、本ステップで条件設定部54が設定することが望ましい。
(Step S1035) <Set conditions related to imaging date and time>
In this step, the condition setting unit 54 sets conditions related to the imaging date and time for selecting a comparison image from a plurality of candidate images. For example, the conditions are set by having the user select the conditions from the variations of the conditions related to the imaging date and time described above via a GUI (not shown). Alternatively, the configuration may be such that the conditions described in advance in the setting file are read. It is desirable that the condition setting unit 54 also sets conditions other than the imaging date and time in this step.

(ステップS1040)<比較画像を選択>
本ステップにおいて、選択部55は、条件設定部54によって設定された撮像日時に関する条件と、複数の候補画像の撮像日時に基づいて、複数の候補画像の中から比較画像を選択する。
(Step S1040) <Select a comparison image>
In this step, the selection unit 55 selects a comparison image from a plurality of candidate images based on the conditions regarding the imaging date and time set by the condition setting unit 54 and the imaging date and time of the plurality of candidate images.

なお、選択部55による処理では、必ずしも比較画像を1つに絞り込まなくてもよく、複数の比較画像が選択されてもよい。この場合、選択部55によって選択された複数の比較画像の中から、画像処理部56に出力する比較画像をユーザが不図示のGUIを介して選択できる構成であってもよい。また、選択された複数の比較画像の夫々を、全て画像処理部56に出力する構成であってもよい。 In the process by the selection unit 55, it is not always necessary to narrow down the comparison images to one, and a plurality of comparison images may be selected. In this case, the user may select the comparison image to be output to the image processing unit 56 from the plurality of comparison images selected by the selection unit 55 via a GUI (not shown). Further, the configuration may be such that all of the selected plurality of comparative images are output to the image processing unit 56.

(ステップS1050)<比較処理>
本ステップにおいて、画像処理部56は、診断対象画像と比較画像との比較処理を実行する。具体的には、画像処理部56は、診断対象画像と比較画像との画像間の差分処理を行い、比較結果として差分画像を算出する。ここで、選択部55が比較画像を複数選択している場合には、画像処理部56は、夫々の比較画像に対して診断対象画像と比較画像の差分画像を生成する。すなわち、画像処理部56は、診断対象画像である第一の画像と比較画像である第二の画像とを比較することで、第一の画像と第二の画像との差分画像を生成する。診断対象画像と比較画像との差分処理は、診断対象画像と比較画像において描出される被検体の位置や形状の違いや、画像間の画質の違いなどの画像診断にとって不要な画像の差異を補正した上で実行されることが望ましい。画像間の差異の補正は、公知のいかなる手法を用いて実行してもよく、ここでは、詳細な説明は省略する。
(Step S1050) <Comparison process>
In this step, the image processing unit 56 executes a comparison process between the image to be diagnosed and the comparison image. Specifically, the image processing unit 56 performs difference processing between the images to be diagnosed and the comparison image, and calculates the difference image as the comparison result. Here, when a plurality of comparison images are selected by the selection unit 55, the image processing unit 56 generates a difference image between the diagnosis target image and the comparison image for each comparison image. That is, the image processing unit 56 generates a difference image between the first image and the second image by comparing the first image which is the diagnosis target image and the second image which is the comparison image. The difference processing between the image to be diagnosed and the comparison image corrects the difference in the image that is unnecessary for image diagnosis, such as the difference in the position and shape of the subject drawn in the image to be diagnosed and the comparison image, and the difference in image quality between the images. It is desirable to execute after The correction of the difference between the images may be performed by any known method, and detailed description thereof will be omitted here.

なお、比較結果を算出する処理は上記の差分処理に限らない。例えば、画像処理部56は、診断対象画像と比較画像について、重畳画像を生成してもよい。この場合、診断対象画像と比較画像に異なる色チャンネルを割り当て、それらを混合したカラー画像として重畳画像を生成できる。また、診断対象画像と被検体の形状が一致するように比較画像を変形した変形画像を生成してもよい。 The process of calculating the comparison result is not limited to the above difference process. For example, the image processing unit 56 may generate a superposed image for the diagnosis target image and the comparison image. In this case, different color channels can be assigned to the diagnosis target image and the comparison image, and a superimposed image can be generated as a color image in which they are mixed. Further, a deformed image obtained by deforming the comparative image so that the image to be diagnosed and the shape of the subject match may be generated.

(ステップS1060)<比較結果の表示>
本ステップにおいて、表示制御部57は、ステップS1050の処理によって得た比較結果を表示部36に表示する処理を実行する。具体例としては、表示制御部57が、診断対象画像、比較画像、差分画像の夫々に対してボリュームレンダリングし、ボリュームレンダリングにより作成される画像(以下、ボリュームレンダリング画像)の夫々を表示部36に並べて表示する。
(Step S1060) <Display of comparison result>
In this step, the display control unit 57 executes a process of displaying the comparison result obtained by the process of step S1050 on the display unit 36. As a specific example, the display control unit 57 volume-renders each of the diagnosis target image, the comparison image, and the difference image, and displays each of the images created by the volume rendering (hereinafter, volume-rendered image) on the display unit 36. Display side by side.

比較結果の表示方法は上記の方法に限らず、表示制御部57が各画像における任意の位置の断層画像を表示部36に表示し、ユーザの操作により表示する断層画像を変更してもよい。表示制御部57は、診断対象画像と比較画像の夫々における対応する位置を特定し、当該位置の断層画像を表示する(対応断面を表示する)等の処理を行うことができる。すなわち、ユーザが表示する診断対象画像の断層画像を変更した場合、表示制御部57は当該断層画像の位置に対応する比較画像の位置の断層画像を表示部36に表示する。またステップS1050において診断対象画像と比較画像との位置合わせを行った場合には、表示制御部57は、当該位置合わせの結果に基づいて、診断対象画像と差分画像とにおける表示する断層画像を連動して切り替える等の処理を行うことが望ましい。 The method of displaying the comparison result is not limited to the above method, and the display control unit 57 may display the tomographic image at an arbitrary position in each image on the display unit 36 and change the tomographic image to be displayed by the user's operation. The display control unit 57 can specify a corresponding position in each of the diagnosis target image and the comparison image, and perform processing such as displaying a tomographic image of the position (displaying the corresponding cross section). That is, when the tomographic image of the diagnosis target image displayed by the user is changed, the display control unit 57 displays the tomographic image at the position of the comparative image corresponding to the position of the tomographic image on the display unit 36. When the diagnosis target image and the comparison image are aligned in step S1050, the display control unit 57 interlocks the tomographic image to be displayed between the diagnosis target image and the difference image based on the alignment result. It is desirable to perform processing such as switching.

以上、本発明によれば、診断対象画像(第一の画像)との比較対象である比較画像(第二の画像)を、複数の候補画像から選択する選択部55を有する情報処理装置10であって、複数の候補画像を撮像した撮像日時を取得する撮像日時取得部53と、撮像日時に関する条件を設定する条件設定部54とを備え、選択部55は、条件設定部54によって設定された撮像日時に関する条件と複数の候補画像の撮像日時に基づいて、複数の候補画像から少なくとも1つの候補画像を比較画像(第二の画像)として選択する。よって、選択部55は撮像日時に関する条件により複数の候補画像から比較対象の候補画像(比較画像)を選択することができ、表示部36は比較画像による比較結果を速やかに表示することができる。 As described above, according to the present invention, the information processing apparatus 10 having the selection unit 55 for selecting the comparison image (second image) to be compared with the diagnosis target image (first image) from a plurality of candidate images. The image pickup date and time acquisition unit 53 for acquiring the imaging date and time for capturing a plurality of candidate images and the condition setting unit 54 for setting the conditions related to the imaging date and time are provided, and the selection unit 55 is set by the condition setting unit 54. At least one candidate image is selected as a comparison image (second image) from the plurality of candidate images based on the conditions regarding the imaging date and time and the imaging date and time of the plurality of candidate images. Therefore, the selection unit 55 can select a candidate image (comparison image) to be compared from a plurality of candidate images depending on the conditions related to the imaging date and time, and the display unit 36 can quickly display the comparison result by the comparison image.

以上、本実施例によれば、ユーザに煩わしい操作を要求することなく、診断対象画像と好適に比較できる比較画像を選択し、それらの画像の比較処理の結果をユーザに提供できる効果がある。 As described above, according to this embodiment, there is an effect that comparison images that can be suitably compared with the images to be diagnosed can be selected and the result of the comparison processing of those images can be provided to the user without requiring the user to perform troublesome operations.

なお、上記の実施例では、選択した比較画像と診断対象画像の比較処理の結果を表示していたが、結果の表示は必ずしも必要ではない。例えば、比較処理の結果と比較画像を同定する情報を、診断対象画像と関連付けて医用画像データベース23に保存する処理だけを行う構成であってもよい。この場合、別の画像ビューアを用いて診断対象画像を観察する際に、紐づけられた比較処理の結果と比較画像の夫々を読み込んで表示することができる。また、比較処理の実施も必ずしも必要ではない。例えば、選択した比較画像を同定する情報を診断対象画像と紐づけて医用画像データベース23に保存する処理だけを行う構成であってもよい。この場合、別の画像ビューアを用いて診断対象画像を観察する際に、紐づけられた比較画像を読み込んで比較可能な形態で表示したり、診断対象画像と比較画像との間の重畳画像や差分画像を生成したりできる。 In the above embodiment, the result of the comparison processing between the selected comparison image and the image to be diagnosed is displayed, but the display of the result is not always necessary. For example, the configuration may be such that only the process of associating the result of the comparison process and the information for identifying the comparison image with the image to be diagnosed and storing it in the medical image database 23 may be performed. In this case, when observing the image to be diagnosed using another image viewer, the result of the associated comparison process and each of the comparison images can be read and displayed. Moreover, it is not always necessary to carry out the comparison process. For example, the configuration may be such that only the process of associating the information for identifying the selected comparative image with the image to be diagnosed and storing it in the medical image database 23 may be performed. In this case, when observing the image to be diagnosed using another image viewer, the linked comparison image is read and displayed in a comparable form, or a superimposed image between the image to be diagnosed and the comparison image is displayed. You can generate a difference image.

次に、実施例2の情報処理装置10について、図4〜図9を用いて説明する。実施例1と異なる点は、複数の候補画像の組み合わせについて評価を行い、該組み合わせを選択する点である。図4は、本発明の医用情報処理システムの全体構成と情報処理装置10の構成を示す図である。ここでは、図1と異なる構成について主に説明する。 Next, the information processing apparatus 10 of the second embodiment will be described with reference to FIGS. 4 to 9. The difference from the first embodiment is that a combination of a plurality of candidate images is evaluated and the combination is selected. FIG. 4 is a diagram showing the overall configuration of the medical information processing system of the present invention and the configuration of the information processing device 10. Here, a configuration different from that of FIG. 1 will be mainly described.

候補画像取得部52は、診断対象画像取得部51が取得した診断対象画像に対する比較画像の候補となる医用画像(候補画像)を、通信IF31とLAN21を介して医用画像データベース23から複数取得する。そして、候補画像取得部52は、取得した複数の候補画像を組み合わせ生成部60と選択部55へ出力する。 The candidate image acquisition unit 52 acquires a plurality of medical images (candidate images) that are candidates for comparison images with respect to the diagnosis target image acquired by the diagnosis target image acquisition unit 51 from the medical image database 23 via the communication IF 31 and LAN 21. Then, the candidate image acquisition unit 52 outputs the acquired plurality of candidate images to the combination generation unit 60 and the selection unit 55.

組み合わせ生成部60は、候補画像取得部52が取得した候補画像の組み合わせを少なくとも1つ生成する。ここで、候補画像の組み合わせとは、1つまたは複数の候補画像を組み合わせたものである。また、組み合わせ生成部60が生成する候補画像の組み合わせの中には、複数(すなわち2つ以上)の候補画像を組み合わせたものが、少なくとも1つ含まれるものとする。そして、組み合わせ生成部60は、生成した候補画像の組み合わせを評価部61に出力する。 The combination generation unit 60 generates at least one combination of candidate images acquired by the candidate image acquisition unit 52. Here, the combination of candidate images is a combination of one or a plurality of candidate images. Further, it is assumed that at least one combination of a plurality of (that is, two or more) candidate images is included in the combination of the candidate images generated by the combination generation unit 60. Then, the combination generation unit 60 outputs the combination of the generated candidate images to the evaluation unit 61.

評価部61は、組み合わせ生成部60が生成した候補画像の組み合わせの夫々について、診断対象画像との比較の適切さに関する評価値の算出を行う。そして、評価部61は、算出した各評価値を選択部55へ出力する。 The evaluation unit 61 calculates an evaluation value regarding the appropriateness of comparison with the image to be diagnosed for each combination of the candidate images generated by the combination generation unit 60. Then, the evaluation unit 61 outputs each calculated evaluation value to the selection unit 55.

選択部55は、各評価値に基づいて、候補画像の組み合わせの中から、診断対象画像と比較する候補画像の組み合わせを選択する。選択された候補画像の組み合わせは、1つ以上の候補画像から構成される。以下では、選択された候補画像の組み合わせは、比較画像の組と称し、比較画像の組を構成する候補画像を比較画像とする。そして、選択部55は、比較画像の組を画像処理部56へ出力する。 The selection unit 55 selects a combination of candidate images to be compared with the diagnosis target image from the combinations of candidate images based on each evaluation value. The combination of the selected candidate images is composed of one or more candidate images. Hereinafter, the combination of the selected candidate images is referred to as a set of comparison images, and the candidate images constituting the set of comparison images are referred to as comparison images. Then, the selection unit 55 outputs the set of comparison images to the image processing unit 56.

画像処理部56は、診断対象画像と比較画像の組との比較処理を行い、比較処理の比較結果を表示制御部57へ出力する。表示制御部57は、画像処理部56の比較結果を表示部36に表示させる。 The image processing unit 56 performs comparison processing between the image to be diagnosed and the set of comparison images, and outputs the comparison result of the comparison processing to the display control unit 57. The display control unit 57 causes the display unit 36 to display the comparison result of the image processing unit 56.

次に図5を用いて、本実施例における情報処理装置10による全体の処理手順を詳細に説明する。ステップS1010、S1020、S1050、S1060は、図3と概ね同じステップとなる。 Next, with reference to FIG. 5, the entire processing procedure by the information processing apparatus 10 in this embodiment will be described in detail. Steps S1010, S1020, S1050, and S1060 are substantially the same steps as in FIG.

ここでは、候補画像をI_r,i (1≦i≦N)と表記する。Nは、ステップS1020により取得される候補画像の数を表す。本実施例ではN=3の場合を具体例として以後の説明を行う。 Here, the candidate image is expressed as I_r, i (1 ≦ i ≦ N). N represents the number of candidate images acquired in step S1020. In this embodiment, the following description will be given with the case of N = 3 as a specific example.

なお、本ステップによって取得される候補画像の数Nが1の場合には、後述するステップS2000〜S2020の処理を省略し、取得した候補画像を後の詳述する比較画像の組とみなして、ステップS1050以降の処理を実行してもよい。 When the number N of the candidate images acquired in this step is 1, the processing of steps S2000 to S2020 described later is omitted, and the acquired candidate images are regarded as a set of comparative images to be described in detail later. The processing after step S1050 may be executed.

(ステップS2000)<候補画像の組み合わせを生成>
本ステップにおいて、組み合わせ生成部60は、ステップS1020で取得したN個の候補画像から、2つ以上の候補画像の組み合わせを少なくとも1つ含む、1つ以上の候補画像の組み合わせを複数生成する。すなわち、組み合わせ生成部60は、複数の候補画像のうち、2つ以上の候補画像を含む複数の組み合わせを設定する設定手段に相当する。本実施例においては、候補画像の組み合わせは、異なる2つの候補画像の組み合わせにより生成する例を示す。N=3の具体例であれば、次の3つの組み合わせ <I_r,1 , I_r,2> 、 <I_r,1 , I_r,3> 、 <I_r,2 , I_r,3>を生成する。本実施例では、候補画像の組み合わせをP_j (1≦j≦M)と表記する。ここで、Mは組み合わせの総数である。本実施例では、M=3の場合を例として以後の説明を行う。
(Step S2000) <Generate a combination of candidate images>
In this step, the combination generation unit 60 generates a plurality of combinations of one or more candidate images including at least one combination of two or more candidate images from the N candidate images acquired in step S1020. That is, the combination generation unit 60 corresponds to a setting means for setting a plurality of combinations including two or more candidate images among the plurality of candidate images. In this embodiment, the combination of the candidate images shows an example of being generated by the combination of two different candidate images. In the case of a specific example of N = 3, the following three combinations <I_r, 1, I_r, 2>, <I_r, 1, I_r, 3>, <I_r, 2, I_r, 3> are generated. In this embodiment, the combination of candidate images is expressed as P_j (1 ≦ j ≦ M). Here, M is the total number of combinations. In this embodiment, the following description will be given by taking the case of M = 3 as an example.

(ステップS2010)<評価値の算出>
本ステップにおいて、評価部61は、ステップS2000で生成した候補画像の組み合わせの夫々に対して、診断対象画像との比較に関する評価値を算出する処理を実行する。本実施例では、評価対象とする候補画像の組み合わせの撮像範囲と診断対象画像の撮像範囲との重複範囲(共通撮像範囲)に基づいて、評価値を算出する場合を具体例として説明する。
(Step S2010) <Calculation of evaluation value>
In this step, the evaluation unit 61 executes a process of calculating an evaluation value for comparison with the diagnosis target image for each combination of candidate images generated in step S2000. In this embodiment, a case where the evaluation value is calculated based on the overlapping range (common imaging range) between the imaging range of the combination of the candidate images to be evaluated and the imaging range of the image to be diagnosed will be described as a specific example.

ここで、図6〜図9を用いて本ステップの処理を詳細に説明する。図6〜図9は、診断対象画像の撮像範囲と候補画像の撮像範囲との関係を示す図である。図6において、400は、本実施例における被検体である。410は、ステップS1010で取得した診断対象画像の撮像範囲における、被検体400の体軸方向の範囲を示している。ここでは、診断対象画像の撮像範囲として、被検体400の胸部から腹部の範囲を含む場合を示している。また、図6において、420、430、440は夫々、ステップS1020で取得した候補画像I_r,1、I_r,2、I_r,3の夫々の(体軸方向の)撮像範囲を示している。ここではI_r,1が被検体の頭部、I_r,2が腹部、I_r,3が胸部を夫々撮像した候補画像である場合を示している。 Here, the process of this step will be described in detail with reference to FIGS. 6 to 9. 6 to 9 are diagrams showing the relationship between the imaging range of the image to be diagnosed and the imaging range of the candidate image. In FIG. 6, 400 is a subject in this example. Reference numeral 410 denotes a range in the body axis direction of the subject 400 in the imaging range of the image to be diagnosed acquired in step S1010. Here, the case where the imaging range of the image to be diagnosed includes the range from the chest to the abdomen of the subject 400 is shown. Further, in FIG. 6, 420, 430, and 440 show the imaging ranges (in the body axis direction) of the candidate images I_r, 1, I_r, 2, and I_r, 3 acquired in step S1020, respectively. Here, I_r and 1 are candidate images of the head of the subject, I_r and 2 are the abdomen, and I_r and 3 are the chest images.

図7において450は、候補画像の組み合わせP_1(候補画像I_r,1、 I_r,2の組み合わせ)の撮像範囲(420と430の和の範囲)と、診断対象画像の撮像範囲410との重複範囲を示している。つまり、450は、候補画像の組み合わせP_1を用いて、診断対象画像との画像間の比較処理が実行できる範囲を表している。図7では、診断対象画像と候補画像I_r,1は撮像範囲が重複せず、診断対象画像と候補画像I_r,2は一部の撮像範囲が重複していることを示している。したがって、診断対象画像と候補画像I_r,2との撮像範囲の重複が、診断対象画像と候補画像の組み合わせP_1との重複範囲となる。 In FIG. 7, 450 indicates the overlapping range between the imaging range (the range of the sum of 420 and 430) of the candidate image combination P_1 (combination of candidate images I_r, 1, I_r, 2) and the imaging range 410 of the image to be diagnosed. Shown. That is, 450 represents a range in which comparison processing between images with the image to be diagnosed can be executed using the combination P_1 of candidate images. FIG. 7 shows that the diagnostic target image and the candidate image I_r, 1 do not overlap in the imaging range, and the diagnostic target image and the candidate image I_r, 2 show that a part of the imaging range overlaps. Therefore, the overlap of the imaging range between the diagnosis target image and the candidate images I_r, 2 is the overlapping range of the combination P_1 of the diagnosis target image and the candidate image.

図8において460は、候補画像の組み合わせP_2(候補画像I_r,1、 I_r,3の組み合わせ)の撮像範囲(420と440の和の範囲)に関して、図7と同様の表現で診断対象画像の撮像範囲410との重複範囲を示している。図8では、診断対象画像と候補画像I_r,1は撮像範囲が重複せず、診断対象画像と候補画像I_r,3は一部の撮像範囲が重複していることを示している。したがって、診断対象画像と候補画像I_r,3との撮像範囲の重複が、診断対象画像と候補画像の組み合わせP_2との重複範囲となる。 In FIG. 8, 460 captures the image to be diagnosed with the same expression as in FIG. 7 with respect to the imaging range (the range of the sum of 420 and 440) of the combination P_2 of the candidate images (combination of candidate images I_r, 1, I_r, 3). The overlapping range with the range 410 is shown. FIG. 8 shows that the diagnostic target image and the candidate image I_r, 1 do not overlap in the imaging range, and the diagnostic target image and the candidate image I_r, 3 show that a part of the imaging range overlaps. Therefore, the overlap of the imaging range between the diagnosis target image and the candidate images I_r, 3 is the overlapping range of the combination P_2 of the diagnosis target image and the candidate image.

図9において470は、候補画像の組み合わせP_3(候補画像I_r,2、 I_r,3の組み合わせ)の撮像範囲(430と440の和の範囲)に関して、図7と同様の表現で診断対象画像の撮像範囲410との重複範囲を示している。図9では、診断対象画像の撮像範囲410と候補画像I_r,2およびI_r,3の撮像範囲430、440の一部が重複していることを示している。本ステップにおいて評価部61は、図7の450、図8の460、図9の470の夫々の範囲(重複範囲)の大きさを算出し、当該重複範囲の大きさに基づいて候補画像の組み合わせの夫々に対して評価値E_j (1≦j≦M)を算出する。評価値E_jは、図7、図8、図9に示したような重複範囲の被検体400の体軸方向の長さであってもよいし、重複範囲の体積であってもよい。また、診断対象画像の撮像範囲の全体に対する重複範囲の割合であってもよい。すなわち、評価部61は、複数の組み合わせの夫々について、第一の画像との重複範囲を算出する重複範囲算出手段、及び、重複範囲に基づいて、複数の組み合わせの夫々に対して評価値を算出する評価値算出手段の一例に相当する。特に、評価部61は、重複範囲として、組み合わせに含まれる2つ以上の候補画像の撮像範囲の和の範囲と第一の画像の撮像範囲との重複範囲を算出することを特徴とする重複範囲算出手段の一例に相当する。 In FIG. 9, 470 captures the image to be diagnosed with the same expression as in FIG. 7 with respect to the imaging range (the range of the sum of 430 and 440) of the candidate image combination P_3 (combination of candidate images I_r, 2, I_r, 3). The overlapping range with the range 410 is shown. FIG. 9 shows that the imaging range 410 of the image to be diagnosed and a part of the imaging ranges 430 and 440 of the candidate images I_r, 2 and I_r, 3 overlap. In this step, the evaluation unit 61 calculates the size of each range (overlapping range) of 450 in FIG. 7, 460 in FIG. 8, and 470 in FIG. 9, and combines candidate images based on the size of the overlapping range. The evaluation value E_j (1 ≦ j ≦ M) is calculated for each of the above. The evaluation value E_j may be the length of the subject 400 in the overlapping range in the body axis direction as shown in FIGS. 7, 8 and 9, or may be the volume of the overlapping range. Further, it may be the ratio of the overlapping range to the entire imaging range of the image to be diagnosed. That is, the evaluation unit 61 calculates the evaluation value for each of the plurality of combinations based on the overlap range calculation means for calculating the overlap range with the first image for each of the plurality of combinations and the overlap range. It corresponds to an example of the evaluation value calculation means. In particular, the evaluation unit 61 calculates, as the overlapping range, the overlapping range between the sum range of the imaging ranges of two or more candidate images included in the combination and the imaging range of the first image. It corresponds to an example of the calculation means.

上記の説明は、診断対象画像および候補画像の撮像範囲の相対的な位置関係が明らかであることを前提としている。もし各画像の撮像範囲の相対的な位置関係が明らかでない場合には、本ステップにおいて情報処理装置10が画像間の位置合わせを実行することで、相対的な位置関係を算出できる。この位置合わせ処理は周知のいかなる手法を用いて実行してもよく、ここでは詳細な説明は省略する。 The above description is based on the premise that the relative positional relationship between the imaging range of the image to be diagnosed and the candidate image is clear. If the relative positional relationship of the imaging range of each image is not clear, the information processing device 10 can calculate the relative positional relationship by executing the alignment between the images in this step. This alignment process may be performed by any well-known method, and detailed description thereof will be omitted here.

また、各画像の撮像範囲の相対的な位置関係の算出は、画像間の位置合わせによる方法に限らず、各画像の付帯情報に基づいて算出してもよい。例えば、診断対象画像および候補画像に、「撮像部位」の情報が付帯している場合、その情報に基づいて画像間の位置関係を算出することができる。例えば、診断対象画像の撮像部位に関する付帯情報が「胸部、腹部」であり、候補画像I_r,1の撮像部位に関する付帯情報が「頭部」であり、候補画像I_r,2の撮像部位に関する付帯情報が「腹部」であり、候補画像I_r,3の撮像部位に関する付帯情報が「胸部」であったとする。この場合、候補画像の組み合わせP_1(I_r,1とI_r,2の組み合わせ)の撮像範囲は「頭部および腹部」であり、診断対象画像との重複範囲は「腹部」であることが推定される。また、候補画像の組み合わせP_2(I_r,1とI_r,3の組み合わせ)の撮像範囲は「頭部および胸部」であり、診断対象画像との重複範囲は「胸部」であることが推定される。また、候補画像の組み合わせP_3(I_r,2とI_r,3の組み合わせ)の撮像範囲は「胸部および腹部」であり、診断対象画像との重複範囲は「胸部および腹部」であることが推定される。この場合、評価部61は、重複範囲に含まれる部位の数(重複範囲が「胸部」や「腹部」の場合は1、「胸部および腹部」の場合は2)を評価値とすることができる。また、「胸部」や「腹部」といった人体の各部位に関して所定の係数を事前に設定し、上記の各重複範囲に当該係数を乗じて評価値を算出してもよい。より具体的な一例としては、「胸部」や「腹部」等に関して、標準的な人体における当該部位の大きさを係数として設定する。これによれば、より簡便な方法で重複範囲の大きさを算出し、それを評価値とすることができる。 Further, the calculation of the relative positional relationship of the imaging range of each image is not limited to the method of alignment between images, and may be calculated based on the incidental information of each image. For example, when the diagnosis target image and the candidate image are accompanied by information on the “imaging site”, the positional relationship between the images can be calculated based on the information. For example, the incidental information regarding the imaging site of the image to be diagnosed is "chest, abdomen", the incidental information regarding the imaging site of the candidate image I_r, 1 is the "head", and the incidental information regarding the imaging site of the candidate image I_r, 2. Is the "abdomen", and the incidental information regarding the imaging site of the candidate images I_r, 3 is the "chest". In this case, it is estimated that the imaging range of the candidate image combination P_1 (combination of I_r, 1 and I_r, 2) is "head and abdomen", and the overlapping range with the image to be diagnosed is "abdomen". .. Further, it is estimated that the imaging range of the candidate image combination P_2 (combination of I_r, 1 and I_r, 3) is "head and chest", and the overlapping range with the image to be diagnosed is "chest". Further, it is estimated that the imaging range of the candidate image combination P_3 (combination of I_r, 2 and I_r, 3) is "chest and abdomen", and the overlapping range with the image to be diagnosed is "chest and abdomen". .. In this case, the evaluation unit 61 can use the number of sites included in the overlapping range (1 when the overlapping range is "chest" or "abdomen", 2 when the overlapping range is "chest and abdomen") as the evaluation value. .. Further, a predetermined coefficient may be set in advance for each part of the human body such as "chest" and "abdomen", and the evaluation value may be calculated by multiplying each of the above overlapping ranges by the coefficient. As a more specific example, with respect to the "chest", "abdomen" and the like, the size of the relevant part in a standard human body is set as a coefficient. According to this, the size of the overlapping range can be calculated by a simpler method and used as an evaluation value.

以上に説明した方法により、評価部61は、ステップS2010により生成された候補画像の組み合わせP_jの夫々に対して評価値E_j (1≦j≦M)を算出する。 By the method described above, the evaluation unit 61 calculates the evaluation value E_j (1 ≦ j ≦ M) for each of the combination P_j of the candidate images generated in step S2010.

(ステップS2020)<比較画像の組を選択>
本ステップにおいて、選択部55は、ステップS2010で算出した各評価値に基づいて、M個の候補画像の組み合わせの中から診断対象画像との比較に好適な候補画像の組み合わせを選択する処理を実行する。具体的には、選択部55は、M個の候補画像の組み合わせに対する評価値E_j(1≦j≦M)の中で、評価値が最も高い組み合わせを選択する。選択した候補画像の組み合わせは、比較画像の組となり、比較画像の組を構成する候補画像は比較画像となる。すなわち、選択部55は、第一の画像との比較対象である複数の第二の画像を、複数の候補画像の中から選択する選択手段の一例に相当する。特に、選択部55は、評価値に基づいて、複数の組み合わせのうちいずれかを複数の第二の画像として選択することを特徴とする選択手段の一例に相当する。
(Step S2020) <Select a set of comparative images>
In this step, the selection unit 55 executes a process of selecting a combination of candidate images suitable for comparison with the image to be diagnosed from among the combinations of M candidate images based on each evaluation value calculated in step S2010. To do. Specifically, the selection unit 55 selects the combination having the highest evaluation value among the evaluation values E_j (1 ≦ j ≦ M) for the combination of M candidate images. The combination of the selected candidate images becomes a set of comparison images, and the candidate images constituting the set of comparison images become a comparison image. That is, the selection unit 55 corresponds to an example of selection means for selecting a plurality of second images to be compared with the first image from a plurality of candidate images. In particular, the selection unit 55 corresponds to an example of selection means characterized in that any one of a plurality of combinations is selected as a plurality of second images based on the evaluation value.

(ステップS1050)<比較処理>
本ステップにおいて、画像処理部56は、診断対象画像と比較画像の組との比較処理を実行して、比較結果を算出する。具体的には、例えば、画像処理部56は診断対象画像と比較画像の組との画像間の差分処理を行い、比較結果として差分画像を算出する。すなわち、画像処理部56は、第一の画像と第二の画像とを比較することで、第一の画像と第二の画像との差分画像を生成する生成手段の一例に相当する。本実施例において、比較画像の組は複数の比較画像により構成される。本ステップにおける処理方法の一例としては、画像処理部56が、比較画像の組に含まれる複数の比較画像の夫々と、診断対象画像との差分処理を行う方法が考えられる。この場合、複数の比較画像の夫々と診断対象画像との差分画像が算出され、これらの差分画像の組を本ステップの処理結果とすることができる。診断対象画像と複数の比較画像の夫々との差分処理は、診断対象画像と複数の比較画像の夫々とに描出される被検体の位置や形状の違いや、画像間の画質の違いなどの画像診断にとって不要な画像の差異を補正した上で実行されることが望ましい。また、比較処理は複数の比較画像の夫々の撮像範囲と診断対象画像の撮像範囲との重複範囲だけを処理対象とすることができる。重複範囲は、ステップS2000およびステップS2010の処理結果から容易に取得できるため、詳細な説明は省略する。なお、比較画像の組を構成する複数の比較画像をスティッチング処理によって1つの比較画像に合成した上で、合成した比較画像と診断対象画像との比較処理を実行してもよい。この時、複数の比較画像が重複する領域に関しては、重複する領域を含む何れかの比較画像を選択して合成するようにできる。また、診断対象画像と撮像日時の近い比較画像を選択するようにしたり、診断対象画像と撮像条件が近い比較画像を選択するようにしたり、または、他よりも良好な画質の比較画像を選択するようにしたりできる。また、何れかの比較画像を選択して合成する以外にも、重複する画像間を滑らかに加重平均して合成する方法も本発明の実施の形態となりうる。
(Step S1050) <Comparison process>
In this step, the image processing unit 56 executes a comparison process between the image to be diagnosed and the set of the comparison image, and calculates the comparison result. Specifically, for example, the image processing unit 56 performs difference processing between the images of the image to be diagnosed and the set of the comparison image, and calculates the difference image as the comparison result. That is, the image processing unit 56 corresponds to an example of a generation means for generating a difference image between the first image and the second image by comparing the first image and the second image. In this embodiment, the set of comparative images is composed of a plurality of comparative images. As an example of the processing method in this step, a method in which the image processing unit 56 performs difference processing between each of the plurality of comparative images included in the set of comparative images and the image to be diagnosed can be considered. In this case, a difference image between each of the plurality of comparison images and the image to be diagnosed is calculated, and a set of these difference images can be used as the processing result of this step. The difference processing between the image to be diagnosed and the plurality of comparison images is an image such as the difference in the position and shape of the subject drawn in each of the image to be diagnosed and the plurality of comparison images, and the difference in image quality between the images. It is desirable to correct the difference in images that is unnecessary for diagnosis. Further, in the comparison processing, only the overlapping range between the imaging range of each of the plurality of comparative images and the imaging range of the image to be diagnosed can be processed. Since the overlapping range can be easily obtained from the processing results of steps S2000 and S2010, detailed description thereof will be omitted. It should be noted that a plurality of comparison images constituting a set of comparison images may be combined into one comparison image by stitching processing, and then the comparison processing between the combined comparison image and the image to be diagnosed may be executed. At this time, with respect to the region where the plurality of comparison images overlap, any comparison image including the overlapping region can be selected and combined. In addition, a comparison image whose imaging target image is close to the diagnosis target image may be selected, a comparison image whose imaging condition is close to the diagnosis target image may be selected, or a comparison image having better image quality than others may be selected. You can do it. Further, in addition to selecting and synthesizing any of the comparative images, a method of synthesizing by smoothly weighted averaging between overlapping images can also be an embodiment of the present invention.

なお、比較結果を算出する処理は上記の差分処理に限らない。例えば、画像処理部56が、診断対象画像と複数の比較画像の夫々について、重畳画像を生成してもよい。この場合、診断対象画像と比較画像に異なる色チャンネルを割り当て、それらを混合したカラー画像として重畳画像を生成できる。 The process of calculating the comparison result is not limited to the above difference process. For example, the image processing unit 56 may generate superimposed images for each of the diagnosis target image and the plurality of comparison images. In this case, different color channels can be assigned to the diagnosis target image and the comparison image, and a superimposed image can be generated as a color image in which they are mixed.

(ステップS1060)<比較結果の表示>
本ステップにおいて、表示制御部57は、ステップS1050の処理によって得た比較結果を表示部36に表示する処理を実行する。具体例としては、表示制御部57が、診断対象画像、比較画像の組、比較結果である差分画像の組の夫々に対してボリュームレンダリングし、ボリュームレンダリングにより作成される画像(以下、ボリュームレンダリング画像)の夫々を表示部36に並べて表示する方法が考えられる。その際、比較画像の組や差分画像の組については、表示制御部57が比較画像の組や差分画像の組を構成する複数の比較画像や差分画像の夫々に対してボリュームレンダリングし、複数のボリュームレンダリング画像を並べて表示してもよい。これ以外にも、表示制御部57が、例えば、ステップS1050の結果等に基づいて各組を構成する複数の画像をスティッチング処理により1つの三次元画像に合成したうえでボリュームレンダリングを実行してもよい。
(Step S1060) <Display of comparison result>
In this step, the display control unit 57 executes a process of displaying the comparison result obtained by the process of step S1050 on the display unit 36. As a specific example, the display control unit 57 volume-renders each of the diagnosis target image, the comparison image set, and the difference image set as the comparison result, and the image created by the volume rendering (hereinafter, the volume rendering image). ) Can be displayed side by side on the display unit 36. At that time, with respect to the set of comparison images and the set of difference images, the display control unit 57 volume-renders each of the plurality of comparison images and the set of difference images constituting the set of comparison images and the set of difference images, and a plurality of sets. Volume rendered images may be displayed side by side. In addition to this, the display control unit 57 executes volume rendering after synthesizing a plurality of images constituting each set into one three-dimensional image by stitching, for example, based on the result of step S1050 or the like. May be good.

比較結果の表示方法は上記の方法に限らず、表示制御部57が各画像における任意の位置の断層画像を表示部36に表示し、ユーザの操作により表示する断層画像を変更してもよい。この場合、診断対象画像と比較画像の組との位置関係に基づいて、表示制御部57が診断対象画像と比較画像の組の夫々における対応する位置を特定し、当該位置の断層画像を表示する(対応断面を表示する)等の処理を行うことが望ましい。すなわち、ユーザが表示する診断対象画像の断層画像を変更した場合、表示制御部57は当該断層画像の位置に対応する比較画像の組の位置の断層画像を表示部36に表示する。またステップS1050において診断対象画像と比較画像の組との位置合わせを行った場合には、表示制御部57は、当該位置合わせの結果に基づいて、診断対象画像と差分画像とにおける表示する断層画像を連動して切り替える等の処理を行うことが望ましい。 The method of displaying the comparison result is not limited to the above method, and the display control unit 57 may display the tomographic image at an arbitrary position in each image on the display unit 36 and change the tomographic image to be displayed by the user's operation. In this case, the display control unit 57 identifies the corresponding position in each of the diagnosis target image and the comparison image set based on the positional relationship between the diagnosis target image and the comparison image set, and displays the tomographic image at that position. It is desirable to perform processing such as (display the corresponding cross section). That is, when the tomographic image of the diagnosis target image displayed by the user is changed, the display control unit 57 displays the tomographic image of the position of the set of comparative images corresponding to the position of the tomographic image on the display unit 36. Further, when the alignment of the diagnosis target image and the set of the comparison image is performed in step S1050, the display control unit 57 displays the tomographic image in the diagnosis target image and the difference image based on the alignment result. It is desirable to perform processing such as switching in conjunction with.

また、情報処理装置10は、複数の候補画像の組み合わせを複数設定する組み合わせ生成部60と、複数の組み合わせに含まれる前記候補画像と診断対象画像(第一の画像)との重複範囲を算出する重複範囲算出手段(評価部61)と、重複範囲に基づいて、複数の組み合わせから少なくとも1つの組み合わせを選択する選択部55とを有し、選択部55は、さらに、該選択された組み合わせに含まれる候補画像を比較画像(第二の画像)として選択する。 Further, the information processing apparatus 10 calculates the overlap range between the combination generation unit 60 that sets a plurality of combinations of a plurality of candidate images and the candidate image included in the plurality of combinations and the diagnosis target image (first image). It has an overlap range calculating means (evaluation unit 61) and a selection unit 55 that selects at least one combination from a plurality of combinations based on the overlap range, and the selection unit 55 is further included in the selected combination. The candidate image to be selected is selected as the comparison image (second image).

以上、本実施例によれば、ユーザに煩わしい操作を要求することなく、診断対象画像と好適に比較できる複数の比較画像を選択し、それらの画像の比較処理の結果をユーザに提供できる効果がある。 As described above, according to this embodiment, there is an effect that a plurality of comparison images that can be suitably compared with the image to be diagnosed can be selected and the result of the comparison processing of those images can be provided to the user without requiring the user to perform troublesome operations. is there.

(変形例2−1:候補画像の組み合わせ<数・候補画像の数に基づく評価>)
本実施例のステップS2000の処理では、候補画像を組み合わせとして、2つの候補画像を組み合わせる場合を例として説明したが、本実施例はこれに限らない。例えば、3つまたはそれ以上の候補画像を組み合わせてもよい。この場合、ステップS2010の処理では、評価部61は、3つまたはそれ以上の候補画像の組み合わせの撮像範囲と、診断対象画像の撮像範囲との比較によって評価値を算出する。また、各候補画像の組み合わせに含まれる候補画像の数は、所定の定数であってもよいし、互いに異なる数であってもよい。また、この場合は、候補画像の組み合わせは必ずしも複数の候補画像を組み合わせる場合に限らず、1つの候補画像を候補画像の組み合わせの1つとして扱うようにしてもよい。例えば、候補画像の総数Nが3の場合、組み合わせ生成部60は、候補画像の組み合わせとして、候補画像を1つだけ含む組み合わせを3種類、2つ含む組み合わせを3種類、3つ含む組み合わせを1種類、夫々生成する。そして、組み合わせの総数M=7として以後の処理を実行してもよい。この場合、組み合わせる候補画像の数が多い程、重複範囲は広くなる傾向にある。そのため、ステップS2010で算出する評価値は、重複範囲の情報に加えて、評価対象の候補画像の組み合わせに含まれる候補画像の数にも基づいて算出することが望ましい。例えば、重複範囲による評価値がほぼ同等(各評価値の差異が所定の閾値以下)な2つの候補画像の組み合わせが存在する場合に、評価部61がより少ない数の候補画像で構成される候補画像の組み合わせの評価値を高くするなどの方法が考えられる。例えば、診断対象画像の全範囲が重複範囲となる候補画像の組み合わせの中で、選択部55がより少ない数の候補画像で構成される候補画像の組み合わせを比較画像の組として選択するなどの方法であってもよい。あるいは、重複範囲に基づく評価値に、組み合わせる候補画像の数に応じて予め定めた補正係数(組み合わせる画像の数が多い程、小さくなる値)を乗算した値を、補正後の評価値として用いる構成であってもよい。これによれば、ステップS1050による比較処理はより少ない数の比較画像に対して実行することが可能となるため、ステップS1050の処理を効率化するとともに、より品質の高い比較結果を得られる効果がある。
(Modification example 2-1: Combination of candidate images <Evaluation based on number / number of candidate images>)
In the process of step S2000 of this embodiment, a case where two candidate images are combined by combining candidate images has been described as an example, but this embodiment is not limited to this. For example, three or more candidate images may be combined. In this case, in the process of step S2010, the evaluation unit 61 calculates the evaluation value by comparing the imaging range of the combination of three or more candidate images with the imaging range of the image to be diagnosed. Further, the number of candidate images included in each combination of candidate images may be a predetermined constant or may be different from each other. Further, in this case, the combination of the candidate images is not necessarily limited to the case of combining a plurality of candidate images, and one candidate image may be treated as one of the combinations of the candidate images. For example, when the total number N of the candidate images is 3, the combination generation unit 60 includes three types of combinations containing only one candidate image, three types of combinations containing two, and one combination containing three candidate images. Generate each type. Then, the subsequent processing may be executed with the total number of combinations M = 7. In this case, the larger the number of candidate images to be combined, the wider the overlapping range tends to be. Therefore, it is desirable that the evaluation value calculated in step S2010 is calculated based on the number of candidate images included in the combination of the candidate images to be evaluated in addition to the information on the overlapping range. For example, when there is a combination of two candidate images whose evaluation values due to the overlapping range are almost the same (the difference between the evaluation values is equal to or less than a predetermined threshold value), the evaluation unit 61 is a candidate composed of a smaller number of candidate images. A method such as increasing the evaluation value of the combination of images can be considered. For example, among the combinations of candidate images in which the entire range of the images to be diagnosed overlaps, the selection unit 55 selects a combination of candidate images composed of a smaller number of candidate images as a set of comparison images. It may be. Alternatively, a value obtained by multiplying the evaluation value based on the overlapping range by a predetermined correction coefficient (a value that becomes smaller as the number of combined images increases) according to the number of candidate images to be combined is used as the corrected evaluation value. It may be. According to this, since the comparison processing in step S1050 can be executed for a smaller number of comparison images, the processing in step S1050 can be made more efficient and a higher quality comparison result can be obtained. is there.

(変形例2−2:評価値の算出方法<画質・撮像条件>)
本実施例におけるステップS2010の処理は、診断対象画像の撮像範囲と候補画像の組み合わせの撮像範囲との重複範囲に基づいた評価(以下、重複範囲評価)による評価値を算出する場合を例として説明したが、本発明の実施はこれに限らない。
(Modification 2-2: Evaluation value calculation method <Image quality / imaging conditions>)
The process of step S2010 in this embodiment will be described as an example of calculating an evaluation value based on an evaluation based on an overlap range between the imaging range of the image to be diagnosed and the imaging range of the combination of candidate images (hereinafter, overlapping range evaluation). However, the implementation of the present invention is not limited to this.

例えば、重複範囲の評価とは別に、評価部61が候補画像の組み合わせに含まれる各候補画像の画質に基づく評価(以下、画質評価)を行い、重複範囲評価と画質評価とによる評価を統合して、評価値を算出してもよい。すなわち、評価部61は、複数の組み合わせに含まれる夫々の候補画像の画質を評価する画質評価手段の一例に相当する。具体的には、評価部61が各候補画像の組み合わせに含まれる夫々の候補画像のノイズレベルを推定し、ノイズレベルの高い候補画像が含まれる組み合わせに対する評価値を低くする。例えば、重複範囲評価による評価値に、候補画像のノイズレベルに応じて予め定めた補正係数(ノイズレベルが高い程、小さくなる値)を乗算した値を、補正後の評価値として用いる構成でもよい。この時、評価部61は、夫々の候補画像と診断対象画像との間の重複範囲の大きさを算出し、重複範囲の大きい候補画像のノイズレベルを、より重要視して評価値を算出することが望ましい。また、評価部61は、診断対象画像の撮像範囲と少なくとも一部が重複する候補画像のうち、最もノイズレベルの高い候補画像のノイズレベルを重要視して評価値を算出してもよい。これ以外にも、例えば、評価部61は、同一の候補画像の組み合わせに含まれる複数の候補画像の画質が異なる場合に、当該組み合わせの評価値を低くしてもよい。例えば、重複範囲による評価値に、候補画像の画質に応じて予め定めた補正係数(画質の評価値が低い程、小さくなる値)を乗算した値を、補正後の評価値として用いる構成でもよい。 For example, apart from the evaluation of the overlapping range, the evaluation unit 61 performs an evaluation based on the image quality of each candidate image included in the combination of the candidate images (hereinafter, image quality evaluation), and integrates the evaluation based on the overlapping range evaluation and the image quality evaluation. The evaluation value may be calculated. That is, the evaluation unit 61 corresponds to an example of an image quality evaluation means for evaluating the image quality of each candidate image included in a plurality of combinations. Specifically, the evaluation unit 61 estimates the noise level of each candidate image included in each combination of candidate images, and lowers the evaluation value for the combination including the candidate images having a high noise level. For example, a value obtained by multiplying the evaluation value by the overlap range evaluation by a predetermined correction coefficient (a value that becomes smaller as the noise level is higher) according to the noise level of the candidate image may be used as the corrected evaluation value. .. At this time, the evaluation unit 61 calculates the size of the overlapping range between each candidate image and the image to be diagnosed, and calculates the evaluation value with more emphasis on the noise level of the candidate image having a large overlapping range. Is desirable. Further, the evaluation unit 61 may calculate the evaluation value by emphasizing the noise level of the candidate image having the highest noise level among the candidate images that at least partially overlap the imaging range of the image to be diagnosed. In addition to this, for example, the evaluation unit 61 may lower the evaluation value of the combination when the image quality of the plurality of candidate images included in the same combination of candidate images is different. For example, a value obtained by multiplying the evaluation value based on the overlapping range by a correction coefficient (a value that becomes smaller as the evaluation value of the image quality is lower) according to the image quality of the candidate image may be used as the evaluation value after correction. ..

また、上記の方法に限らず、評価部61は、例えば、候補画像の付帯情報である再構成条件や、X線放射装置の管電圧、管電流などの撮像条件に基づいて候補画像を評価してもよい。また、評価部61は、候補画像の解像度(二次元スライスの画素サイズやスライス間隔など)に基づいて候補画像を評価してもよい。例えば、評価部61は、スライス間隔が狭い候補画像の評価値が高くなるように、当該組み合わせの評価値を補正してもよい。また、評価部61は、同一の候補画像の組み合わせに含まれる複数の候補画像の撮像条件が異なる場合に、当該組み合わせの評価値を低くしてもよい。 Further, not limited to the above method, the evaluation unit 61 evaluates the candidate image based on, for example, reconstruction conditions which are incidental information of the candidate image, and imaging conditions such as tube voltage and tube current of the X-ray radiating device. You may. Further, the evaluation unit 61 may evaluate the candidate image based on the resolution of the candidate image (pixel size of the two-dimensional slice, slice interval, etc.). For example, the evaluation unit 61 may correct the evaluation value of the combination so that the evaluation value of the candidate image having a narrow slice interval becomes high. Further, the evaluation unit 61 may lower the evaluation value of the combination when the imaging conditions of the plurality of candidate images included in the same combination of candidate images are different.

また、上記の説明では候補画像の画質に基づいて評価する方法を例として説明したが、これ以外にも、診断対象画像の画質に基づいて評価してもよい。例えば、評価部61は上記に説明した方法と同様の方法で診断対象画像の画質を評価し、候補画像の画質の評価と、診断対象画像の画質の評価との両方の評価に基づいて評価値を算出することができる。より具体的には、診断対象画像の画質よりも低い画質の候補画像を含む候補画像の組み合わせの評価値を低くしてもよい。これ以外にも、診断対象画像の画質に近い画質の候補画像を含む候補画像の組み合わせの評価値を高くしてもよい。 Further, in the above description, the method of evaluation based on the image quality of the candidate image has been described as an example, but other than this, the evaluation may be performed based on the image quality of the image to be diagnosed. For example, the evaluation unit 61 evaluates the image quality of the diagnosis target image by the same method as described above, and evaluates the evaluation value based on both the evaluation of the image quality of the candidate image and the evaluation of the image quality of the diagnosis target image. Can be calculated. More specifically, the evaluation value of the combination of candidate images including the candidate image having a lower image quality than the image quality of the diagnosis target image may be lowered. In addition to this, the evaluation value of the combination of candidate images including the candidate image having an image quality close to that of the image to be diagnosed may be increased.

また、評価部61は、候補画像の組み合わせに含まれる各候補画像の検査目的、検査対象の臓器名、検査対象の疾患名等の付帯情報を検査情報として医用画像データベースより取得し、当該検査情報に基づいて候補画像を評価してもよい。例えば、診断対象画像の検査情報に近い検査情報を付帯情報として有する候補画像を含む候補画像の組み合わせの評価値が高くなるように評価値を補正する構成でもよい。すなわち、評価部61は、複数の組み合わせに含まれる夫々の候補画像の検査情報を取得する検査情報取得手段の一例に相当する。また、診断対象画像と候補画像の付帯情報の一致度に応じて定めた補正係数(一致度が低い程小さくなる値)を評価値に乗算した値を、補正後の評価値として用いる構成でもよい。 Further, the evaluation unit 61 acquires incidental information such as the inspection purpose of each candidate image included in the combination of the candidate images, the name of the organ to be inspected, the name of the disease to be inspected as the inspection information from the medical image database, and the inspection information. The candidate image may be evaluated based on. For example, the evaluation value may be corrected so that the evaluation value of the combination of the candidate images including the candidate image having the inspection information close to the inspection information of the diagnosis target image as incidental information becomes high. That is, the evaluation unit 61 corresponds to an example of the inspection information acquisition means for acquiring the inspection information of each candidate image included in the plurality of combinations. Further, a value obtained by multiplying the evaluation value by a correction coefficient (a value that becomes smaller as the degree of matching decreases) determined according to the degree of coincidence between the image to be diagnosed and the incidental information of the candidate image may be used as the corrected evaluation value. ..

(変形例2−3:選択方法)
本実施例におけるステップS2020では、選択部55が、ステップS2010で算出した評価値が最も高い候補画像の組み合わせを1つ選択する場合を例として説明したが、本発明はこれに限らない。例えば、ステップS2020では、選択部55が、比較画像の組として、所定の値よりも評価値が高い候補画像の組み合わせを、複数選択してもよい。この場合、画像処理部56は、複数の比較画像の組の夫々に対して同様の比較処理を実行し、比較画像の組の数と同じ数の比較結果を算出してもよい。以上の方法によれば、所定の条件をクリアした複数の比較画像の組に対する比較結果の中からユーザが望ましい比較結果を任意に選択して観察できる効果がある。
(Modification 2-3: Selection method)
In step S2020 in this embodiment, a case where the selection unit 55 selects one combination of candidate images having the highest evaluation value calculated in step S2010 has been described as an example, but the present invention is not limited to this. For example, in step S2020, the selection unit 55 may select a plurality of combinations of candidate images having an evaluation value higher than a predetermined value as a set of comparison images. In this case, the image processing unit 56 may perform the same comparison processing on each of the plurality of sets of comparison images, and calculate the same number of comparison results as the number of sets of comparison images. According to the above method, there is an effect that the user can arbitrarily select and observe a desired comparison result from the comparison results for a plurality of comparison image sets that clear the predetermined conditions.

(変形例2−4:比較方法)
本実施例におけるステップS1050の処理では、画像処理部56が、診断対象画像と比較画像の組との比較処理として差分画像や重畳画像を生成する場合を例として説明したが、本発明の実施はこれに限らない。例えば、画像処理部56が、比較画像の組を構成する各比較画像の夫々に対して、各比較画像に描出された解剖構造と診断対象画像に描出された解剖構造とが略一致するように変形位置合わせ処理を実施し、当該変形位置合わせ処理の結果に基づいて各比較画像を変形させた画像を比較処理の結果としてもよい。これによれば、診断対象画像の中でユーザが注目する部位に対応する比較画像の組を構成する各比較画像における位置を、ユーザが容易に把握できる効果がある。
(Modification 2-4: Comparison method)
In the process of step S1050 in the present embodiment, the case where the image processing unit 56 generates a difference image or a superimposed image as a comparison process between the image to be diagnosed and the set of the comparison image has been described as an example, but the embodiment of the present invention has been described. Not limited to this. For example, the image processing unit 56 makes the anatomical structure drawn in each comparative image and the anatomical structure drawn in the image to be diagnosed substantially match each of the comparative images constituting the set of comparative images. The deformation alignment process may be performed, and an image obtained by transforming each comparison image based on the result of the deformation alignment process may be used as the result of the comparison process. According to this, there is an effect that the user can easily grasp the position in each comparison image constituting the set of comparison images corresponding to the portion of interest of the user in the diagnosis target image.

本発明の実施はこれに限らず、ステップS1060において、表示制御部57が診断対象画像と比較画像の組とを並べて表示部36に表示する構成としてもよい。同一被検体における複数の候補画像の中から、診断対象画像との比較に好適な画像として選択された比較画像の組を、診断対象画像と容易に比較可能な形態で表示できる効果がある。 The implementation of the present invention is not limited to this, and in step S1060, the display control unit 57 may be configured to display a set of the diagnosis target image and the comparison image side by side on the display unit 36. There is an effect that a set of comparative images selected as an image suitable for comparison with the diagnosis target image from a plurality of candidate images in the same subject can be displayed in a form that can be easily compared with the diagnosis target image.

また、情報処理装置10は、選択した比較画像の組を同定する情報を、診断対象画像と紐づけて医用画像データベース23に保存する処理だけを行う構成であってもよい。この場合、別の画像ビューアを用いて診断対象画像を観察する際に、紐づけられた比較画像の組を読み込んで比較可能な形態で表示したり、診断対象画像と比較画像の組との間の重畳画像や差分画像を生成したりすることができる。 Further, the information processing apparatus 10 may be configured to perform only a process of associating the information for identifying the selected set of comparative images with the image to be diagnosed and storing the information in the medical image database 23. In this case, when observing the image to be diagnosed using another image viewer, the linked comparison image set is read and displayed in a comparable form, or between the diagnosis target image and the comparison image set. It is possible to generate a superimposed image or a difference image of.

(変形例2−5:関連付けて保存する)
本実施例では、ステップS1060の処理として、表示制御部57が、診断対象画像と比較画像の組との比較処理結果を表示する場合を例として説明したが、本発明の実施はこれに限らない。例えば、画像処理部56がステップS1050で算出した比較結果を医用画像データベース23に保存し、ユーザからの操作等により制御部37が取得してもよい。そして、医用画像データベース23から取得した比較結果に対して、表示制御部57がステップS1060と同様の処理により表示する仕組みを備えてもよい。この場合、制御部37は、比較処理結果を、ステップS1010で取得した診断対象画像や、ステップS2020で選択した比較画像の組に含まれる比較画像と関連付けて保存することが望ましい。
(Modification 2-5: Save in association)
In the present embodiment, as the process of step S1060, the case where the display control unit 57 displays the comparison processing result of the diagnosis target image and the set of the comparison image has been described as an example, but the implementation of the present invention is not limited to this. .. For example, the comparison result calculated by the image processing unit 56 in step S1050 may be stored in the medical image database 23 and acquired by the control unit 37 by an operation or the like from the user. Then, the display control unit 57 may provide a mechanism for displaying the comparison result acquired from the medical image database 23 by the same processing as in step S1060. In this case, it is desirable that the control unit 37 saves the comparison processing result in association with the diagnosis target image acquired in step S1010 and the comparison image included in the set of comparison images selected in step S2020.

本実施例に係る情報処理装置10は、ユーザが医療的な処置を行おうとする被検体に関する、診断対象画像と比較画像との比較処理を行い、比較処理の結果をユーザに提供する。具体例として、診断対象画像の撮像日時と異なる日に同一の被検体を撮像した画像(以下、候補画像)が複数存在する場合について説明する。本実施例に係る情報処理装置10は、診断対象画像の撮像日時および候補画像の撮像日時に関する情報に基づいて、複数の候補画像の中から診断対象画像との比較に好適な画像を比較画像として選択する。 The information processing apparatus 10 according to the present embodiment performs a comparison process between a diagnosis target image and a comparison image of a subject for which the user intends to perform medical treatment, and provides the user with the result of the comparison process. As a specific example, a case where there are a plurality of images (hereinafter, candidate images) in which the same subject is imaged on a day different from the imaging date and time of the image to be diagnosed will be described. The information processing apparatus 10 according to the present embodiment uses an image suitable for comparison with the diagnosis target image from a plurality of candidate images as a comparison image based on the information regarding the imaging date and time of the diagnosis target image and the acquisition date and time of the candidate image. select.

本実施例にかかる医用情報処理システムの全体構成は、実施例2の説明で用いた図4と同様である。ただし、評価部61が行う処理の詳細のみが実施例2と異なっている。また、本実施例に係る情報処理装置10が実行する処理手順は、実施例2の説明で用いた図5と同様である。図5におけるステップS1010からステップS2000において、情報処理装置10は、実施例2と同様の処理を実行する。ここでは詳細な説明は省略する。 The overall configuration of the medical information processing system according to the present embodiment is the same as that of FIG. 4 used in the description of the second embodiment. However, only the details of the processing performed by the evaluation unit 61 are different from those of the second embodiment. Further, the processing procedure executed by the information processing apparatus 10 according to the present embodiment is the same as that of FIG. 5 used in the description of the second embodiment. From step S1010 to step S2000 in FIG. 5, the information processing apparatus 10 executes the same processing as in the second embodiment. A detailed description will be omitted here.

(ステップS2010)
本ステップにおいて、評価部61は、ステップS2000で生成した候補画像の組み合わせの夫々に対して、診断対象画像との比較に関する評価値を算出する処理を実行する。
(Step S2010)
In this step, the evaluation unit 61 executes a process of calculating an evaluation value for comparison with the diagnosis target image for each combination of candidate images generated in step S2000.

本実施例では、評価部61は、実施例2のステップS2010と同様の方法で算出した評価値(重複範囲に基づく評価値)に加え、以下の評価値も算出する。すなわち、評価部61は、評価対象とする候補画像の組み合わせに含まれる各候補画像の撮像日時(撮像日)と、診断対象画像の撮像日時に基づく評価値(撮像日時に基づく評価値)も算出する。そして、評価部61は、上記の二つの評価値を統合(例えば加算や乗算)した評価値を算出する。 In this embodiment, the evaluation unit 61 also calculates the following evaluation values in addition to the evaluation values (evaluation values based on the overlapping range) calculated by the same method as in step S2010 of the second embodiment. That is, the evaluation unit 61 also calculates the imaging date and time (imaging date) of each candidate image included in the combination of the candidate images to be evaluated and the evaluation value (evaluation value based on the imaging date and time) based on the imaging date and time of the diagnosis target image. To do. Then, the evaluation unit 61 calculates an evaluation value obtained by integrating (for example, addition or multiplication) of the above two evaluation values.

撮像日時に基づく評価値を算出する具体例として、診断対象画像の撮像日時と、候補画像の組み合わせに含まれる各候補画像の撮像日時(撮像日)との違いに基づいて、評価値を算出する方法が考えられる。より具体的には、診断対象画像の撮像日時と、候補画像の組み合わせに含まれる候補画像の撮像日時の代表値(候補画像の組み合わせの代表撮像日時)との間の期間(経過期間)が長い場合に、評価値として高い値を算出するようにできる。ここで、代表値とは、候補画像の組み合わせに含まれる候補画像の撮像日時の平均や、最も古いまたは最も新しい撮像日時などである。これによれば、後述するステップS2020において、診断対象画像の撮像日時を基準として経過時間の長い候補画像の組み合わせが優先的に選択されるようになる。なお、診断対象画像の撮像日時と候補画像の組み合わせの代表撮像日時とに基づく条件としては、これ以外にも、実施例1に記載した、診断対象画像の撮像日時と候補画像の撮像日時とに基づく各種の条件を用いることができる。ここで、診断対象画像との間に手術等の所定の治療を挟まないことを条件とする場合には、候補画像の組み合わせの代表撮像日時として、候補画像の組み合わせに含まれる最も古い候補画像の撮像日時を設定することが望ましい。 As a specific example of calculating the evaluation value based on the imaging date and time, the evaluation value is calculated based on the difference between the imaging date and time of the image to be diagnosed and the imaging date and time (imaging date) of each candidate image included in the combination of the candidate images. A method is conceivable. More specifically, the period (elapsed period) between the imaging date and time of the image to be diagnosed and the representative value of the imaging date and time of the candidate image included in the combination of the candidate images (the representative imaging date and time of the combination of the candidate images) is long. In this case, a high value can be calculated as the evaluation value. Here, the representative value is an average of the imaging dates and times of the candidate images included in the combination of the candidate images, the oldest or latest imaging date and time, and the like. According to this, in step S2020 described later, the combination of the candidate images having a long elapsed time is preferentially selected based on the imaging date and time of the image to be diagnosed. In addition to this, the conditions based on the imaging date and time of the diagnosis target image and the representative imaging date and time of the combination of the candidate images include the imaging date and time of the diagnosis target image and the imaging date and time of the candidate image described in Example 1. Various conditions based on can be used. Here, when it is a condition that a predetermined treatment such as surgery is not inserted between the image to be diagnosed and the image to be diagnosed, the oldest candidate image included in the combination of candidate images is set as the representative imaging date and time of the combination of candidate images. It is desirable to set the imaging date and time.

なお、評価部61による評価値の算出方法は上記に例示した方法に限らない。例えば、評価部61は、候補画像の組み合わせに含まれる候補画像の撮像日時(撮像日)のばらつき(例えば、最も古い撮像日時と最も新しい撮像日時の間隔)が大きい場合には評価値として低い値を算出するようにしてもよい。この場合、評価値は診断対象画像の撮像日時には依存しない。また、評価部61は、診断対象画像の撮像日時と最も古い候補画像の撮像日時の期間と、診断対象画像の撮像日時と最も新しい候補画像の撮像日時の期間との間の比率が大きい場合に評価値として低い値を算出するようにしてもよい。これによれば、撮像日時の差異が小さい候補画像で構成された組み合わせが優先的に選択されるようになる。これによると、候補画像間の差異がなるべく小さくなるような候補画像の組み合わせが優先的に選択される。 The method of calculating the evaluation value by the evaluation unit 61 is not limited to the method exemplified above. For example, the evaluation unit 61 has a low evaluation value when the variation in the imaging date and time (imaging date) of the candidate images included in the combination of the candidate images is large (for example, the interval between the oldest imaging date and time and the newest imaging date and time). May be calculated. In this case, the evaluation value does not depend on the imaging date and time of the image to be diagnosed. Further, the evaluation unit 61 determines that the ratio between the period between the imaging date and time of the diagnosis target image and the imaging date and time of the oldest candidate image and the period between the imaging date and time of the diagnosis target image and the imaging date and time of the newest candidate image is large. A low value may be calculated as the evaluation value. According to this, the combination composed of the candidate images having a small difference in the imaging date and time is preferentially selected. According to this, a combination of candidate images is preferentially selected so that the difference between the candidate images is as small as possible.

なお、撮像日時に関する条件は、上記の条件を組み合わせたものであってもよい。 The conditions relating to the imaging date and time may be a combination of the above conditions.

なお、評価部61が撮像日時に関するいずれの条件で評価値を算出するかは、予め固定の条件であってもよいし、実施例1と同様に、不図示の条件設定部を設けてユーザが目的に応じて設定できるようにしてもよい。 It should be noted that the condition under which the evaluation unit 61 calculates the evaluation value regarding the imaging date and time may be a fixed condition in advance, or the user may provide a condition setting unit (not shown) as in the first embodiment. It may be possible to set it according to the purpose.

ステップS2020からステップS1060において、情報処理装置10は、実施例2と同様の処理を実行する。ここでは詳細な説明は省略する。 From step S2020 to step S1060, the information processing apparatus 10 executes the same processing as in the second embodiment. A detailed description will be omitted here.

以上、本実施例では、診断対象画像(第一の画像)との比較対象である比較画像(第二の画像)を、複数の候補画像から選択する選択部55を有する情報処理装置10であって、複数の候補画像を撮像した撮像日時を取得する撮像日時取得部53と、複数の候補画像の組み合わせを複数設定する組み合わせ生成部60と、撮像日時に関する条件を設定する条件設定部54と、条件設定部54によって設定された撮像日時に関する条件と候補画像の撮像日時に基づいて、該複数の組み合わせから少なくとも一つの組み合わせを選択する選択部55とを有し、選択部55は、さらに、該選択された組み合わせに含まれる候補画像を比較画像(第二の画像)として選択する。また、評価部61は、撮像日時に関する条件に対する複数の候補画像の撮像日時の評価値をそれぞれ取得し、選択部55は、評価値に基づいて、複数の候補画像から少なくとも一つの候補画像を選択してもよい。 As described above, in this embodiment, the information processing device 10 has a selection unit 55 for selecting a comparison image (second image) to be compared with the diagnosis target image (first image) from a plurality of candidate images. An imaging date / time acquisition unit 53 that acquires an imaging date / time when a plurality of candidate images are captured, a combination generation unit 60 that sets a plurality of combinations of a plurality of candidate images, and a condition setting unit 54 that sets conditions related to the imaging date / time. The selection unit 55 further includes a selection unit 55 that selects at least one combination from the plurality of combinations based on the conditions regarding the imaging date and time set by the condition setting unit 54 and the imaging date and time of the candidate image. The candidate image included in the selected combination is selected as the comparison image (second image). Further, the evaluation unit 61 acquires the evaluation values of the imaging dates and times of the plurality of candidate images for the conditions relating to the imaging date and time, and the selection unit 55 selects at least one candidate image from the plurality of candidate images based on the evaluation values. You may.

以上に説明した手順により、本実施例における情報処理装置10の処理が実行される。本実施例では、診断対象画像および候補画像の撮像日時に基づき、より好適に比較できる複数の比較画像を選択し、それらの画像の比較処理の結果をユーザに提供できる効果がある。 According to the procedure described above, the processing of the information processing apparatus 10 in this embodiment is executed. In this embodiment, there is an effect that a plurality of comparative images that can be compared more preferably can be selected based on the imaging date and time of the diagnosis target image and the candidate image, and the result of the comparison processing of those images can be provided to the user.

(変形例3−1)
本実施例では、ステップS2010として実行する評価値の算出処理において、診断対象画像の撮像日時および候補画像の撮像日時を用いる場合を例として説明したが、本発明の実施はこれに限らない。例えば、ステップ2000において候補画像の組み合わせを生成する際に、診断対象画像の撮像日時と候補画像の撮像日時との間の期間の長さに条件を設け、該条件を満たす候補画像の組み合わせを生成するようにしてもよい。または、候補画像間の撮像日時のばらつき等に条件を設け、該条件を満たす候補画像の組み合わせを生成するようにしてもよい。それ以外にも、診断対象画像の撮像日時と候補画像の撮像日時との間の期間における、被検体への手術や治療の実施の有無に関する条件を設け、該条件を満たす候補画像の組み合わせを生成するようにしてもよい。例えば、候補画像の組み合わせを生成する際に、当該組み合わせを構成する複数の比較画像の撮像日時が所定の範囲内(例えば1年以内)となるようにできる。これによれば、所定の条件を満たさない候補画像の組み合わせの生成処理や、評価値の算出処理を省略することが可能となり、処理の効率化が期待できる。
(Modification 3-1)
In the present embodiment, the case where the imaging date and time of the image to be diagnosed and the imaging date and time of the candidate image are used in the evaluation value calculation process executed in step S2010 has been described as an example, but the implementation of the present invention is not limited to this. For example, when generating a combination of candidate images in step 2000, a condition is set for the length of the period between the imaging date and time of the diagnosis target image and the imaging date and time of the candidate image, and the combination of candidate images satisfying the condition is generated. You may try to do it. Alternatively, conditions may be set for variations in the imaging date and time between the candidate images, and a combination of candidate images satisfying the conditions may be generated. In addition to that, conditions regarding whether or not surgery or treatment is performed on the subject during the period between the imaging date and time of the image to be diagnosed and the imaging date and time of the candidate image are set, and a combination of candidate images satisfying the conditions is generated. You may try to do it. For example, when generating a combination of candidate images, the imaging date and time of a plurality of comparative images constituting the combination can be set within a predetermined range (for example, within one year). According to this, it is possible to omit the process of generating a combination of candidate images that does not satisfy a predetermined condition and the process of calculating an evaluation value, and it is expected that the processing efficiency will be improved.

(変形例3−2)
評価部61は、診断対象画像と候補画像の造影条件に基づいて評価値を算出するようにできる。具体的には、診断対象画像の造影条件と同じ造影条件の候補画像で構成される候補画像の組み合わせに対しては高い評価値を算出するようにできる。これ以外にも、例えば、候補画像の組み合わせに含まれる複数の候補画像の造影条件のばらつきに基づいて評価値を算出するようにできる。例えば、造影条件として造影の有無を扱う場合、造影有りの(あるいは、造影の時相が同じ)画像だけで構成された候補画像の組み合わせや、造影無しの画像だけで構成された候補画像の組み合わせの評価値を高くするようにできる。また、診断対象画像の造影条件と候補画像の造影条件の差異に基づく評価と、候補画像の組み合わせを構成する複数の候補画像の造影条件のばらつきの両方に基づいて評価値を算出するようにできる。例えば、診断対象画像の造影条件と同じ造影条件の画像だけで構成された候補画像の組み合わせに対して、より高い評価値を算出するようにできる。また診断対象画像および候補画像がMRI画像である場合には、画像のシーケンスの種類(例としてT1やT2など)に基づき、造影条件の例として説明した方法と同様の方法で評価値を算出するようにしてもよい。これらの方法によれば、診断対象画像と画像特性が整合した候補画像で構成された候補画像の組み合わせに高い評価値が算出され、結果的に好適な比較処理の結果をユーザに提供できる効果がある。
(Modification example 3-2)
The evaluation unit 61 can calculate the evaluation value based on the contrast conditions of the image to be diagnosed and the candidate image. Specifically, a high evaluation value can be calculated for a combination of candidate images composed of candidate images having the same contrast conditions as the contrast conditions of the image to be diagnosed. In addition to this, for example, the evaluation value can be calculated based on the variation in the contrast conditions of the plurality of candidate images included in the combination of the candidate images. For example, when treating the presence or absence of contrast as a contrast condition, a combination of candidate images composed only of images with contrast (or the same time phase of contrast) or a combination of candidate images composed only of images without contrast. The evaluation value of can be increased. Further, the evaluation value can be calculated based on both the evaluation based on the difference between the contrast condition of the image to be diagnosed and the contrast condition of the candidate image and the variation of the contrast condition of a plurality of candidate images constituting the combination of the candidate images. .. For example, a higher evaluation value can be calculated for a combination of candidate images composed only of images having the same contrast conditions as the image to be diagnosed. When the diagnosis target image and the candidate image are MRI images, the evaluation value is calculated by the same method as described as an example of the contrast condition based on the type of image sequence (for example, T1 or T2). You may do so. According to these methods, a high evaluation value is calculated for the combination of the candidate image composed of the image to be diagnosed and the candidate image having the same image characteristics, and as a result, a suitable comparison processing result can be provided to the user. is there.

(変形例3−3)
ステップS2010において評価部61は、候補画像と診断対象画像との撮像の重複範囲には基づかず、各画像の撮像日時に基づいて評価値を算出するようにしてもよい。ここで、各画像の撮像日時に基づいて評価値を算出する方法は、前述した方法で行うことができる。これによれば、ステップS2000で生成した複数の候補画像の組み合わせの夫々の間で、診断対象画像との重複範囲がほぼ同一であることが既知である場合など、重複範囲による評価値が重要でない場合に、より効率的に処理を行うことができる効果がある。
(Modification example 3-3)
In step S2010, the evaluation unit 61 may calculate the evaluation value based on the imaging date and time of each image, not based on the overlapping range of the imaging of the candidate image and the image to be diagnosed. Here, the method of calculating the evaluation value based on the imaging date and time of each image can be performed by the method described above. According to this, the evaluation value based on the overlapping range is not important, such as when it is known that the overlapping range with the image to be diagnosed is almost the same among the combinations of the plurality of candidate images generated in step S2000. In some cases, there is an effect that the processing can be performed more efficiently.

<その他の実施例>
上述した複数の変形例のうち少なくとも二つを組み合わせることも可能である。
<Other Examples>
It is also possible to combine at least two of the plurality of modifications described above.

また、開示の技術は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インターフェイス機器、撮像装置、webアプリケーション等)から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。 Further, the disclosed technology can take an embodiment as a system, an apparatus, a method, a program, a recording medium (storage medium), or the like. Specifically, it may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or it may be applied to a device composed of one device. Good.

また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。すなわち、前述した実施例の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。 Needless to say, the object of the present invention is achieved by doing the following. That is, a recording medium (or storage medium) in which a software program code (computer program) that realizes the functions of the above-described embodiment is recorded is supplied to the system or device. Needless to say, the storage medium is a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or device reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the function of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

10 情報処理装置
21 LAN
23 医用画像データベース
31 通信IF
32 ROM
33 RAM
34 記憶部
35 操作部
36 表示部
50 制御部
51 診断対象画像取得部
52 比較候補画像取得部
53 撮影日時取得部
54 条件設定部
55 選択部
56 画像処理部
57 表示制御部
10 Information processing device 21 LAN
23 Medical image database 31 Communication IF
32 ROM
33 RAM
34 Storage unit 35 Operation unit 36 Display unit 50 Control unit 51 Diagnosis target image acquisition unit 52 Comparison candidate image acquisition unit 53 Shooting date and time acquisition unit 54 Condition setting unit 55 Selection unit 56 Image processing unit 57 Display control unit

Claims (18)

第一の画像との比較対象である第二の画像を、複数の候補画像から選択する選択手段を有する情報処理装置であって、
前記複数の候補画像を撮像した撮像日時を取得する取得手段と、
撮像日時に関する条件を設定する条件設定手段とを有し、
前記選択手段は、前記条件設定手段によって設定された撮像日時に関する条件と前記複数の候補画像の撮像日時に基づいて、前記複数の候補画像から少なくとも一つの候補画像を前記第二の画像として選択することを特徴とする情報処理装置。
An information processing device having a selection means for selecting a second image to be compared with the first image from a plurality of candidate images.
An acquisition means for acquiring the imaging date and time when the plurality of candidate images were captured, and
It has a condition setting means for setting conditions related to the imaging date and time.
The selection means selects at least one candidate image from the plurality of candidate images as the second image based on the conditions regarding the imaging date and time set by the condition setting means and the imaging date and time of the plurality of candidate images. An information processing device characterized by this.
前記条件設定手段は、前記第一の画像と最も近い撮像日時であることを前記撮像日時に関する条件として設定し、前記選択手段は、前記複数の候補画像から、前記第一の画像と撮像日時が最も近いという前記条件を満たす候補画像を前記第二の画像として選択することを特徴とする請求項1に記載の情報処理装置。 The condition setting means sets that the imaging date and time is the closest to the first image as a condition regarding the imaging date and time, and the selection means sets the first image and the imaging date and time from the plurality of candidate images. The information processing apparatus according to claim 1, wherein a candidate image satisfying the condition of being closest is selected as the second image. 前記条件設定手段は、最も新しい撮像日時であることを前記撮像日時に関する条件として設定し、前記選択手段は、前記複数の候補画像から、最も新しい撮像日時であるという前記条件を満たす候補画像を前記第二の画像として選択することを特徴とする請求項1に記載の情報処理装置。 The condition setting means sets the newest imaging date and time as a condition regarding the imaging date and time, and the selection means selects a candidate image satisfying the condition that it is the newest imaging date and time from the plurality of candidate images. The information processing apparatus according to claim 1, wherein the image is selected as a second image. 前記条件設定手段は、前記第一の画像の撮像日時を基準にして、所定の期間内の撮像日時であることを前記撮像日時に関する条件として設定し、前記選択手段は、前記複数の候補画像から、前記所定の期間内の撮像日時であるという前記条件を満たす候補画像を前記第二の画像として選択することを特徴とする請求項1に記載の情報処理装置。 The condition setting means sets as a condition regarding the imaging date and time that the imaging date and time is within a predetermined period based on the imaging date and time of the first image, and the selection means is selected from the plurality of candidate images. The information processing apparatus according to claim 1, wherein a candidate image satisfying the condition that the imaging date and time is within the predetermined period is selected as the second image. 前記条件設定手段は、前記第一の画像の撮像日時との間に所定の治療を挟まない撮像日時であることを前記撮像日時に関する条件として設定し、前記選択手段は、前記複数の候補画像から、前記第一の画像の撮像日時との間に前記所定の治療を挟まない撮像日時であるという前記条件を満たす候補画像を前記第二の画像として選択することを特徴とする請求項1に記載の情報処理装置。 The condition setting means sets as a condition regarding the imaging date and time that a predetermined treatment is not sandwiched between the imaging date and time of the first image, and the selection means is selected from the plurality of candidate images. The second image is described in claim 1, wherein a candidate image satisfying the condition that the imaging date and time does not sandwich the predetermined treatment between the imaging date and time of the first image is selected as the second image. Information processing equipment. 前記条件設定手段は、前記第一の画像の撮像日時との間にモダリティの機種変更を挟まない撮像日時であることを前記撮像日時に関する条件として設定し、前記選択手段は、前記複数の候補画像から、前記第一の画像の撮像日時との間にモダリティの機種変更を挟まない撮像日時であるという前記条件を満たす候補画像を前記第二の画像として選択することを特徴とする請求項1に記載の情報処理装置。 The condition setting means sets as a condition relating to the imaging date and time that the imaging date and time does not include a model change of the modality between the imaging date and time of the first image, and the selection means sets the plurality of candidate images. Therefore, claim 1 is characterized in that a candidate image satisfying the condition that the date and time of imaging is such that the model of the modality is not changed between the date and time of imaging of the first image is selected as the second image. The information processing device described. 前記選択手段は、撮像日時以外の付帯情報に基づいて、前記複数の候補画像から少なくとも一つの候補画像を選択することを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the selection means selects at least one candidate image from the plurality of candidate images based on incidental information other than the imaging date and time. 前記撮像日時以外の付帯情報は、撮像範囲、撮像部位、撮像条件、再構成条件、スライス厚、造影条件の少なくとも1つを含むことを特徴とする請求項7に記載の情報処理装置。 The information processing apparatus according to claim 7, wherein the incidental information other than the imaging date and time includes at least one of an imaging range, an imaging site, an imaging condition, a reconstruction condition, a slice thickness, and a contrast condition. 前記撮像日時に関する条件に対する前記複数の候補画像の撮像日時の評価値をそれぞれ取得する評価手段をさらに備え、前記選択手段は、前記評価値に基づいて、前記複数の候補画像から少なくとも一つの候補画像を選択することを特徴とする請求項1に記載の情報処理装置。 The evaluation means for acquiring the evaluation values of the imaging dates and times of the plurality of candidate images with respect to the conditions relating to the imaging date and time is further provided, and the selection means is at least one candidate image from the plurality of candidate images based on the evaluation values. The information processing apparatus according to claim 1, wherein the information processing apparatus is selected. 前記第一の画像と前記第二の画像とから差分画像を生成する生成手段を更に備えることを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 9, further comprising a generation means for generating a difference image from the first image and the second image. 第一の画像との比較対象である第二の画像を、複数の候補画像の中から選択する選択手段を有する情報処理装置であって、
前記複数の候補画像を撮像した撮像日時を取得する取得手段と、
前記複数の候補画像の組み合わせを複数設定する設定手段と、
撮像日時に関する条件を設定する条件設定手段と、
前記条件設定手段によって設定された撮像日時に関する条件と前記候補画像の撮像日時に基づいて、該複数の組み合わせから少なくとも一つの組み合わせを選択する組み合わせ選択手段とを有し、
前記選択手段は、前記組み合わせ選択手段が選択した組み合わせに含まれる前記候補画像を前記第二の画像として選択することを特徴とする情報処理装置。
An information processing device having a selection means for selecting a second image to be compared with the first image from a plurality of candidate images.
An acquisition means for acquiring the imaging date and time when the plurality of candidate images were captured, and
A setting means for setting a plurality of combinations of the plurality of candidate images, and
Condition setting means for setting conditions related to the imaging date and time, and
It has a combination selection means for selecting at least one combination from the plurality of combinations based on the conditions regarding the imaging date and time set by the condition setting means and the imaging date and time of the candidate image.
The information processing apparatus is characterized in that the selection means selects the candidate image included in the combination selected by the combination selection means as the second image.
第一の画像との比較対象である第二の画像を、複数の候補画像の中から選択する選択手段を有する情報処理装置であって、
前記複数の候補画像の組み合わせを複数設定する設定手段と、
前記複数の組み合わせに含まれる前記候補画像と前記第一の画像との重複範囲を算出する重複範囲算出手段と、
前記重複範囲に基づいて、前記複数の組み合わせから少なくとも一つの組み合わせを選択する組み合わせ選択手段とを有し、
前記選択手段は、前記組み合わせ選択手段が選択した組み合わせに含まれる前記候補画像を前記第二の画像として選択することを特徴とする情報処理装置。
An information processing device having a selection means for selecting a second image to be compared with the first image from a plurality of candidate images.
A setting means for setting a plurality of combinations of the plurality of candidate images, and
Overlapping range calculating means for calculating the overlapping range between the candidate image and the first image included in the plurality of combinations, and
It has a combination selection means for selecting at least one combination from the plurality of combinations based on the overlap range.
The information processing apparatus is characterized in that the selection means selects the candidate image included in the combination selected by the combination selection means as the second image.
第一の画像との比較対象である第二の画像を、複数の候補画像から選択する情報処理方法であって、
前記複数の候補画像を撮像した撮像日時を取得するステップと、
撮像日時に関する条件を設定するステップと、
該設定された条件と複数の候補画像の撮像日時に基づいて、前記複数の候補画像から少なくとも一つの候補画像を前記第二の画像として選択するステップとを有することを特徴とする情報処理方法。
An information processing method for selecting a second image to be compared with the first image from a plurality of candidate images.
The step of acquiring the imaging date and time when the plurality of candidate images were captured, and
Steps to set conditions related to imaging date and time,
An information processing method comprising: selecting at least one candidate image from the plurality of candidate images as the second image based on the set conditions and the imaging date and time of the plurality of candidate images.
第一の画像との比較対象である第二の画像を、複数の候補画像から選択する情報処理方法であって、
前記複数の候補画像を撮像した撮像日時を取得するステップと、
前記複数の候補画像の組み合わせを複数設定するステップと、
撮像日時に関する条件を設定するステップと、
前記撮像日時に関する条件と前記候補画像の撮像日時に基づいて、該複数の組み合わせから少なくとも一つの組み合わせを選択するステップと、
該選択された組み合わせに含まれる前記候補画像を前記第二の画像として選択するステップとを有することを特徴とする情報処理方法。
An information processing method for selecting a second image to be compared with the first image from a plurality of candidate images.
The step of acquiring the imaging date and time when the plurality of candidate images were captured, and
The step of setting a plurality of combinations of the plurality of candidate images and
Steps to set conditions related to imaging date and time,
A step of selecting at least one combination from the plurality of combinations based on the conditions relating to the imaging date and time and the imaging date and time of the candidate image.
An information processing method comprising a step of selecting the candidate image included in the selected combination as the second image.
第一の画像との比較対象である第二の画像を、複数の候補画像から選択する情報処理方法であって、
前記複数の候補画像の組み合わせを複数設定するステップと、
前記複数の組み合わせに含まれる前記候補画像と前記第一の画像との重複範囲を算出するステップと、
前記重複範囲に基づいて、前記複数の組み合わせから少なくとも一つの組み合わせを選択するステップと、
該選択された組み合わせに含まれる前記候補画像を前記第二の画像として選択するステップを有することを特徴とする情報処理方法。
An information processing method for selecting a second image to be compared with the first image from a plurality of candidate images.
The step of setting a plurality of combinations of the plurality of candidate images and
A step of calculating the overlap range between the candidate image and the first image included in the plurality of combinations, and
A step of selecting at least one combination from the plurality of combinations based on the overlap range, and
An information processing method comprising a step of selecting the candidate image included in the selected combination as the second image.
請求項13乃至請求項15のいずれか一項の情報処理方法をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute the information processing method according to any one of claims 13 to 15. 第一の画像との比較対象である第二の画像を、複数の候補画像の中から選択する選択手段を有する情報処理装置であって、
前記候補画像の夫々を撮像した撮像日時を取得する取得手段とを有し、
前記選択手段は、被検体に対する治療や手術の日付と前記候補画像の夫々の撮像日時との前後関係に基づいて、前記候補画像から前記第二の画像を選択することを特徴とする情報処理装置。
An information processing device having a selection means for selecting a second image to be compared with the first image from a plurality of candidate images.
It has an acquisition means for acquiring the imaging date and time when each of the candidate images is imaged.
The information processing apparatus is characterized in that the selection means selects the second image from the candidate images based on the context of the date and time of treatment or surgery on the subject and the imaging date and time of each of the candidate images. ..
第一の画像との比較対象である第二の画像を、複数の候補画像の中から選択する選択手段を有する情報処理装置であって、
前記候補画像の夫々を撮像した撮像日時を取得する取得手段と、
前記候補画像の組み合わせを複数設定する設定手段と、
前記候補画像の組み合わせに含まれる候補画像間の撮像日時の間隔に基づいて、前記候補画像の組み合わせのいずれかを選択する組み合わせ選択手段とを有し、
前記選択手段は、前記組み合わせ選択手段が選択した前記候補画像の組み合わせに含まれる候補画像を前記第二の画像として選択することを特徴とする情報処理装置。
An information processing device having a selection means for selecting a second image to be compared with the first image from a plurality of candidate images.
An acquisition means for acquiring the imaging date and time when each of the candidate images was imaged, and
A setting means for setting a plurality of combinations of the candidate images, and
It has a combination selection means for selecting any of the combinations of the candidate images based on the interval of the imaging date and time between the candidate images included in the combination of the candidate images.
The information processing apparatus is characterized in that the selection means selects a candidate image included in the combination of the candidate images selected by the combination selection means as the second image.
JP2019121957A 2019-06-28 2019-06-28 Information processor, information processing method, and program Pending JP2021007510A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019121957A JP2021007510A (en) 2019-06-28 2019-06-28 Information processor, information processing method, and program
JP2023172591A JP2023168534A (en) 2019-06-28 2023-10-04 Information processor, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019121957A JP2021007510A (en) 2019-06-28 2019-06-28 Information processor, information processing method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023172591A Division JP2023168534A (en) 2019-06-28 2023-10-04 Information processor, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2021007510A true JP2021007510A (en) 2021-01-28

Family

ID=74198385

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019121957A Pending JP2021007510A (en) 2019-06-28 2019-06-28 Information processor, information processing method, and program
JP2023172591A Pending JP2023168534A (en) 2019-06-28 2023-10-04 Information processor, information processing method, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023172591A Pending JP2023168534A (en) 2019-06-28 2023-10-04 Information processor, information processing method, and program

Country Status (1)

Country Link
JP (2) JP2021007510A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005277558A (en) * 2004-03-23 2005-10-06 Canon Inc Image processing method, image processor, computer program, and recording medium
JP2006055368A (en) * 2004-08-20 2006-03-02 Fuji Photo Film Co Ltd Time-series subtraction processing apparatus and method
JP2007307290A (en) * 2006-05-22 2007-11-29 Konica Minolta Medical & Graphic Inc Medical image reading system
JP2011143159A (en) * 2010-01-18 2011-07-28 Toshiba Corp Medical image display device, medical diagnostic system, and control program for image data display
JP2012198723A (en) * 2011-03-18 2012-10-18 Fujitsu Ltd Information providing program, information providing device and information providing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005277558A (en) * 2004-03-23 2005-10-06 Canon Inc Image processing method, image processor, computer program, and recording medium
JP2006055368A (en) * 2004-08-20 2006-03-02 Fuji Photo Film Co Ltd Time-series subtraction processing apparatus and method
JP2007307290A (en) * 2006-05-22 2007-11-29 Konica Minolta Medical & Graphic Inc Medical image reading system
JP2011143159A (en) * 2010-01-18 2011-07-28 Toshiba Corp Medical image display device, medical diagnostic system, and control program for image data display
JP2012198723A (en) * 2011-03-18 2012-10-18 Fujitsu Ltd Information providing program, information providing device and information providing method

Also Published As

Publication number Publication date
JP2023168534A (en) 2023-11-24

Similar Documents

Publication Publication Date Title
JP5637928B2 (en) Medical image display device
US8457378B2 (en) Image processing device and method
JP4891577B2 (en) Medical image display device
RU2595766C2 (en) Image identification and distortion reduction
JP5026939B2 (en) Image processing apparatus and program thereof
JP2010211413A (en) Case image registration device, method, program and case image retrieval device, method, program, and system
US20100266184A1 (en) Medical image management apparatus and method, and recording medium
US11200674B2 (en) Image processing apparatus, method, and storage medium for enabling user to REC0GNT7E change over time represented by substraction image
US10726548B2 (en) Confidence determination in a medical imaging video clip measurement based upon video clip image quality
JP6772123B2 (en) Image processing equipment, image processing methods, image processing systems and programs
JP6738305B2 (en) Learning data generation support device, learning data generation support device operating method, and learning data generation support program
JP7170000B2 (en) LEARNING SYSTEMS, METHODS AND PROGRAMS
JP6995535B2 (en) Image processing equipment, image processing methods and programs
JP5363962B2 (en) Diagnosis support system, diagnosis support program, and diagnosis support method
JP7409624B2 (en) Information processing device, information processing method, and program
JP2021007510A (en) Information processor, information processing method, and program
JP7086630B2 (en) Information processing equipment, information processing methods, and programs
JP7275961B2 (en) Teacher image generation program, teacher image generation method, and teacher image generation system
JP2006026396A (en) Image processing system and method, control program, and storage medium
JP7471795B2 (en) Information processing device, information processing method, and program
JP6656207B2 (en) Information processing apparatus, control method thereof, and program
JP2021194139A (en) Image display device and program
JP2012147901A (en) Image display device, control method thereof, and computer program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190708

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220516

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230414

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231004

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231018

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20231222