WO2012161149A1 - 画像処理装置及び方法 - Google Patents

画像処理装置及び方法 Download PDF

Info

Publication number
WO2012161149A1
WO2012161149A1 PCT/JP2012/062892 JP2012062892W WO2012161149A1 WO 2012161149 A1 WO2012161149 A1 WO 2012161149A1 JP 2012062892 W JP2012062892 W JP 2012062892W WO 2012161149 A1 WO2012161149 A1 WO 2012161149A1
Authority
WO
WIPO (PCT)
Prior art keywords
image processing
image
processing
history
target
Prior art date
Application number
PCT/JP2012/062892
Other languages
English (en)
French (fr)
Inventor
純一 宮越
俊太郎 由井
和喜 松崎
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to US14/119,386 priority Critical patent/US20140153833A1/en
Priority to EP12789201.6A priority patent/EP2716225A4/en
Priority to CN201280024895.1A priority patent/CN103561656A/zh
Publication of WO2012161149A1 publication Critical patent/WO2012161149A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Definitions

  • the present invention relates to a technique for automatically setting a procedure for extracting a target area from an image by a combination of a plurality of image processes.
  • an analysis protocol an image analysis procedure to be applied to image data of an image diagnostic apparatus (for example, a CT (computed tomography) apparatus) is determined according to an inspection purpose and an inspection site, and parameters acquired by preprocessing are used.
  • An apparatus for obtaining a desired processing result by image processing is disclosed, that is, the document discloses a technique for selecting an image processing execution procedure in advance based on image data and image supplementary information and sequentially executing the procedure. It is disclosed.
  • the execution order is automatically determined in advance before the start of image processing (image analysis). That is, the execution order is fixed in advance. For this reason, when it is desired to change the processing contents in the middle of the image processing, it is necessary for the user himself to individually input instructions for changing the processing contents. In particular, when the desired processing result is not obtained by the image processing being executed, it may be necessary to change the processing content after the next time.
  • the present inventor provides a mechanism that can automatically and sequentially determine the contents of image processing to be sequentially applied to the processing target image.
  • the present invention automatically determines the contents of image processing to be executed next time or later based on the history of image processing results applied up to the previous time for the processing target image.
  • the present invention it is possible to automatically determine the content of the image processing from the next time through comparison with a history of image processing results accumulated in large quantities. Thereby, it is possible to reduce the operation burden on the user when extracting the target area from the processing target image through image processing.
  • FIG. 2 is a diagram showing a functional block configuration of an image processing system according to Embodiment 1.
  • FIG. FIG. 10 is a diagram illustrating an example of a display screen provided through the image processing apparatus according to the first exemplary embodiment.
  • 10 is a flowchart illustrating a processing procedure executed by the image processing apparatus according to the first exemplary embodiment. The figure explaining the relationship between the target area
  • any of the image processing apparatuses described below assumes a case where a plurality of image processes are sequentially applied in order to extract a target area from a processing target image.
  • the image processing apparatus searches the database for an image processing procedure having a history similar to the history of the processing results acquired until immediately before, and automatically determines the content of the image processing to be applied next from the search results. It is common in the point to be determined. That is, each image processing apparatus statistically determines the image processing to be applied next based on the information of image processing procedures used in the past accumulated in a large amount in the database.
  • the results of judgments sequentially determined by technical experts based on experience and processing results are stored as image processing procedures. Therefore, a past image processing procedure having a history similar to the processing result history for the processing target image being currently processed is searched, and the next image processing used in the detected image processing procedure is directly used as the current processing. Is statistically meaningful for target region extraction.
  • the target region is automatically extracted from the processing target image by repeating this determination process.
  • FIG. 1 shows a functional block configuration of the image processing system according to the first embodiment.
  • the image processing system according to the first exemplary embodiment includes an image processing apparatus 100, a processing flow model database 102, an image database 103, and an image display apparatus 104.
  • the processing flow model database 102 stores image processing procedures executed in the past and image processing procedures registered as standard models.
  • “procedure” refers to information that defines the execution order of a plurality of image processes.
  • the image processing procedure is also referred to as a processing result (hereinafter referred to as “target region feature amount”) obtained when each image processing is executed. ) History (hereinafter also referred to as “procedure feature amount”).
  • the image database 103 stores image data to be processed.
  • medical image data is stored.
  • contrast CT data is stored.
  • the image data is not limited to contrast CT data.
  • the image processing apparatus 100 includes an image processing unit 121, a target area feature quantity extraction unit 111, a target area feature quantity storage unit 112, and a next image processing determination unit 120.
  • the image processing apparatus 100 has a computer as a basic configuration, and each processing unit shown in FIG. 1 is realized as a function of a program executed on the arithmetic device.
  • the image processing unit 121 provides a function of applying the image processing specified in the image processing 204 to the inspection image 200 or the result image obtained by the image processing up to the previous time.
  • a program corresponding to each image processing is stored in a storage area (not shown), and is read and executed when the image processing is executed. Further, the image processing unit 121 has a storage area for storing a processing target image (such as the inspection image 200 described above) and a work area for a program. Note that the image processing unit 121 outputs the final processing result 206 to the image display device 104. For this reason, the image processing unit 121 is also equipped with a function related to a user interface.
  • the target area feature quantity extraction unit 111 provides a function of extracting a target area feature quantity (size and number of target areas) 202 from a result image obtained by image processing by the image processing unit 121.
  • the target area feature quantity storage unit 112 provides a storage area for storing the extracted target area feature quantity 202.
  • a semiconductor storage device or a hard disk device is used for the storage area.
  • the next image processing determination unit 120 compares the procedure feature amount 203 that defines the change of the target region feature amount 202 between procedures with the past processing flow model 205, and performs image processing 204 to be applied next to the processing target image. Provides the ability to determine
  • FIG. 2 shows a representative view of a display screen displayed on the screen of the image display device 104.
  • the display screen includes an extraction result display screen 280 and a processing procedure display screen 281.
  • information on the processing result is superimposed on the contrast CT image of the organ to be diagnosed.
  • a liver CT image 250 is displayed as a contrast CT image.
  • a target region 260 that is an affected part of liver cancer and a region extracted by image processing are displayed as an extraction result 270.
  • the display content of the extraction result display screen 280 is updated as the image processing proceeds.
  • the processing procedure display screen 281 displays the image processing procedure being executed.
  • FIG. 2 shows that the third image processing has been completed.
  • FIG. 3 shows an outline of the image diagnosis support process executed by the image processing apparatus 100.
  • liver cancer for example, ischemic liver cancer or polycytic liver cancer
  • the target area is not limited to this, and any lesion area may be used as long as its type can be designated based on a medical viewpoint.
  • FIG. 4 shows changes over time in the target area feature quantity and the procedure feature quantity (amount of change in the target area feature quantity between procedures) acquired as the image diagnosis support process shown in FIG. 3 progresses.
  • the difference in the number of times each process is executed is represented by a number in parentheses added to the end.
  • the target area feature amount is managed by the size and number of the target areas. Therefore, in FIG. 4, changes in the size and number of target areas as the process proceeds are represented by line graphs.
  • the feature amount of the target area is defined by volume or area.
  • a doctor as an operator selects a processing target image from the image database 103 (processing 300). Specifically, a contrast CT image is selected.
  • the doctor initializes the procedure feature amount (process 301).
  • the initial setting is a process for determining the size of the target area and the initial value 350 of the number of target areas, which are procedure feature amounts. In this embodiment, both are initialized to “0”.
  • the next image processing determination unit 120 executes processing for determining the next image processing to be executed (processing 302 (1)).
  • the initial value is “0”, and there is no change amount of the procedure feature value, so the image processing unit 121 is notified of general-purpose liver cancer extraction image processing (level set algorithm).
  • the image processing unit 121 executes an extraction process to which, for example, a level set algorithm is applied (process 303 (1)).
  • the image processing unit 121 transfers information regarding the region determined to be the target region 260 based on the processing result to the target region feature quantity extracting unit 111 as the target region data 201.
  • the target area feature quantity extraction unit 111 extracts the target area feature quantities (that is, size and number) included in the processing target image from the given target area data 201 (process 304 (1)).
  • the extracted target area feature quantity 202 is stored in the target area feature quantity storage unit 112.
  • the next image processing determination unit 120 searches the target area feature quantity storage unit 112 and extracts the change amount of each target area feature quantity (size and number) as the procedure feature quantity 203 (process 305 (1)). .
  • the next image processing determination unit 120 compares the extracted procedure feature amount 203 with a preset threshold value 351 (processing 306 (1)).
  • the procedure feature amount 203 is equal to or smaller than the threshold value (in the case of FIG. 4, both the size and the number are equal to or smaller than the threshold value)
  • the next image processing determination unit 120 instructs the image processing unit 121 to end the processing.
  • the image processing unit 121 displays the processing result 206 on the display screen of the image display device 104.
  • the next image processing determination unit 120 is based on the procedure feature amount 203 up to the time point.
  • the image processing to be executed is determined, and the image processing unit 121 is instructed (processing 302 (2)).
  • the next image processing determination unit 120 searches the processing flow model database 102 with the procedure feature amount 203, and sets the next image processing specified for the processing flow model having a high similarity to the image currently being processed. Decide which image processing to apply. For example, in the case of FIG. 4, the image filter (cyst removal) is determined as the second image processing. In the case of FIG. 4, a level set (treatment mark) is determined as the third image processing.
  • the processes 302 to 306 are repeatedly executed until the procedure feature amount 203 becomes equal to or less than the predetermined threshold value 351. That is, while a negative result is obtained in the process 306, a process flow having a high degree of coincidence with the history of the procedure feature amount 203 acquired until each execution of the process 302 is extracted from the process flow model database 102, and the process The next image processing registered for the flow model is given as the image processing 204 to be applied next by the image processing unit 121.
  • the image processing apparatus 100 By executing such processing, the image processing apparatus 100 according to the present embodiment automatically determines the image processing until a desired processing result is obtained after the initial setting operation by the operator, and sets the processing target image. Can be applied to.
  • FIG. 5 shows an example of processing operation.
  • FIG. 5 shows a specific example 400 of the procedure feature quantity 203 and a specific example 401 of the processing flow model 205 stored in the processing flow model database 102.
  • process flow models 402A and 402B are depicted.
  • each processing flow model is composed of procedure feature amounts 403A and 403B and next image processing 404A and 404B.
  • the procedure feature values 403A and 403B record changes in the size and number of target areas up to a certain execution time.
  • FIG. 5 shows a processing flow model in which, for example, when there is a processing flow model in which image processing has been executed five times, the procedure feature amount up to the first time and the next image processing executed in the second time are recorded.
  • a process flow model that records the procedure feature value up to the second time and the next image process executed at the third time, and a process flow that records the procedure feature value up to each time and the next image process executed at the next time in the same manner. This corresponds to the case where a model is prepared.
  • “end” is recorded as the next image process in the process flow model for the procedure feature amount up to the fifth.
  • next image processing is uniquely determined when a processing procedure model having a high similarity to the procedure feature amount that has appeared for the currently processed image is detected.
  • a processing flow model may be used that stores the procedure feature value of all execution times and information of image processing executed at each execution time.
  • the procedure feature quantity of the process procedure model is collated in the range up to the previous execution time to be determined, and when a process procedure model with a high degree of similarity is detected, the image executed in the next execution time
  • the next image processing determining unit 120 may read the processing.
  • the next image processing determination unit 120 calculates the similarity between the processing flow model 205 and the procedure feature quantity 203 based on, for example, the sum of squares of differences between two corresponding procedure feature quantities. In this case, the smaller the sum of squared differences, the higher the similarity.
  • the method of calculating the similarity is not limited to the sum of squared differences, and a sum of absolute differences may be used.
  • the degree of similarity with the specific example 400 is closer to the graph of the processing flow model 402A. Therefore, the next image processing determination unit 120 sets the priority of the processing flow model 402A having a high degree of similarity higher than that of the processing flow model 402B. Thereafter, the next image processing determination unit 120 selects the next image processing (that is, the level set (treatment mark)) of the processing flow model 402 ⁇ / b> A having a high priority, and outputs it to the image processing unit 121.
  • the operator performs any additional operation after inputting the initial condition. Even if it is not necessary, a required target area can be extracted from the processing target image. Therefore, it is possible to eliminate the need for an operation for correcting the image processing content by the operator during execution of image processing that is still highly necessary in the conventional apparatus. Thereby, the work burden on the operator can be reduced, and the time until the target area is extracted can be shortened.
  • FIG. 6 shows a functional block configuration of an image processing system according to the second embodiment.
  • an input device 105 that gives an initial processing input 207 to the next image processing determination unit 120 is added, and the next image processing determination is made.
  • the unit 120 operates with reference to the initial process input 207 input by the operator.
  • FIG. 7 shows an outline of the image diagnosis support process executed by the image processing apparatus 100.
  • the process 307 is executed instead of the process 301. That is, the process 307 is executed after the process 300 and before the process 302.
  • the initial value of the procedure feature amount is set by processing 301.
  • the image process executed for the first time is a predetermined process based on the set initial value.
  • the determination of the image processing is executed by the next image processing determination unit 120, and the intention of the operator is determined based on the image processing. It cannot be reflected in the decision.
  • the operator can specifically select or specify the image process to be executed for the first time through the input device 105.
  • the designation may be performed before the process 300, and the initial process input 207 input in advance in the process 307 may be taken into the next image process determination unit 120.
  • the operator can select a level set (general purpose), a filter (cyst removal), a level set (treatment mark), etc. as the initial process input 207.
  • the image processing apparatus 100 according to the second embodiment As described above, if the image processing apparatus 100 according to the second embodiment is employed, the image processing desired by the operator can be selected or designated as the initial image processing. Thereby, in addition to the effect of the first embodiment, it is possible to realize an image processing apparatus capable of providing image processing in accordance with the operator's intention.
  • Embodiment 3 In the present embodiment, another processing function suitable for being mounted on the next image processing determining unit 120 configuring the image processing system (FIG. 1) according to Embodiment 1 will be described.
  • the data content of the processing flow model stored in the processing flow model database 102 is also different from that in Embodiment 1.
  • FIG. 8 shows an outline of processing executed by the next image processing determination unit 120 according to this embodiment.
  • the processing flow model database 102 stores information (score) related to the reliability as part of the data constituting the processing flow model.
  • the score is used as a correction amount (weight) when evaluating the similarity of the procedure feature amount.
  • the score is 100 when the reliability is the highest value (maximum), and 0 when the reliability is the minimum value.
  • the score of the processing flow model 402A is “10”
  • the score of the processing flow model 402B is “80”.
  • next image processing determination unit 120 determines the next image processing to be applied to the processing target image through the following processing (processing 3021).
  • the next image processing determination unit 120 compares the procedure feature amount 203 acquired for the processing target image with the processing flow model 205, and calculates the similarity between the processing flow models 402A and 402B.
  • the degree of similarity is expressed as a ratio, and is an index that is expressed as 100% when completely matching, and is expressed as 0% when completely mismatching.
  • the next image processing determination unit 120 determines the priority order of each processing flow model using the reliability and the similarity.
  • the reliability and similarity are added together, and the value normalized by 100 is set as the priority.
  • the priority can be calculated by the following equation.
  • the priority order is opposite to that in the first embodiment. That is, the priority of the processing flow model 402B is first and the priority of the processing flow model 402A is second. Accordingly, the next image processing determination unit 120 outputs the region growing (general purpose) stored as the next image processing 403B of the processing flow model 402B to the image processing unit 121.
  • an extraction result with higher accuracy than in Embodiment 1 is presented to the operator. Can do.
  • Example 4 In the present embodiment, another processing function suitable for being mounted on the next image processing determining unit 120 configuring the image processing system (FIG. 1) according to Embodiment 1 will be described.
  • FIG. 9 shows a detailed procedure of processing executed by the next image processing determination unit 120 according to this embodiment.
  • the next image processing determination unit 120 uses the image processing algorithm applied to each execution time as the third procedure feature amount.
  • the next image processing unit 120 in the present embodiment calculates the priority by calculating the similarity of the processing flow model using the size of the target area, the number of target areas, and the image processing algorithm, and determines the priority.
  • a method of outputting the next image processing of the processing flow model having a higher rank to the image processing unit 121 is employed.
  • each processing flow model stored in the processing flow model database 102 includes an image processing algorithm in its procedure feature amount.
  • the image processing algorithm stores parameters used in addition to the image processing algorithm executed each time.
  • the present invention is not limited to the above-described embodiments, and includes various modifications.
  • the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described.
  • each of the above-described configurations, functions, processing units, processing means, and the like may be partly or entirely realized as, for example, an integrated circuit or other hardware.
  • Each of the above-described configurations, functions, and the like may be realized by the processor interpreting and executing a program that realizes each function. That is, it may be realized as software.
  • Information such as programs, tables, and files for realizing each function can be stored in a memory, a hard disk, a storage device such as an SSD (Solid State Drive), or a storage medium such as an IC card, an SD card, or a DVD.
  • control lines and information lines indicate what is considered necessary for explanation, and do not represent all control lines and information lines necessary for the product. In practice, it can be considered that almost all components are connected to each other.
  • DESCRIPTION OF SYMBOLS 100 ... Image processing apparatus, 102 ... Processing flow model database, 103 ... Image database, 104 ... Image display apparatus, 105 ... Input means apparatus, 111 ... Target area feature-value extraction part, 112 ... Target area feature-value storage part, 120 ... Next image processing determination unit 121 ... Image processing unit 200 ... Inspection image 201 ... Destination area data 202 ... Destination area feature amount 203 ... Procedure feature amount 204 ... Image processing 205 ... Processing flow model 206 ... Processing Result: 207 ... Initial processing input, 250 ... Liver CT image, 260 ... Target region, 270 ... Target region extraction result, 280 ... Extraction result display screen, 281 ... Processing procedure display screen, 350 ... Initial value, 351 ... Threshold value.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

 複数の画像処理の組み合わせにより目的領域を画像内から抽出する技術に関し、操作者が画像処理手順を入力しなくても、自動的に画像処理手順を設定可能にする。このため、本発明では、処理対象画像に対する直前回までに適用された画像処理結果の履歴に基づいて、次回以降に実行する画像処理の内容を自動的に決定する。

Description

画像処理装置及び方法
 本発明は、複数の画像処理の組み合わせにより目的領域を画像内から抽出するための手順を自動的に設定するための技術に関する。
 画像診断装置等の進歩に伴い、医用画像や医用情報は著しく増加している。その結果、医用画像や医用情報の蓄積量は膨大になっている。一方で、蓄積量の増加は、医用画像を診断に使用する臨床医や放射線科医に対する負担の増加を招いている。結果的に、蓄積された医用画像や医用情報が十分に活用されない状況が生じている。
 そこで、医用画像の有効活用と診断や治療の質を向上する目的で、1つの医用画像に適用する複数の画像処理と、その実行手順を事前に決定する手法が提案されている(例えば、特許文献1参照)。
 前記文献には、画像診断装置(例えばCT(computed tomography)装置の画像データに適用する解析プロトコル(画像解析の手順)を検査目的及び検査部位に応じて決定し、前処理で取得したパラメータを用いた画像処理により所望の処理結果を得る装置が開示されている。すなわち、前記文献には、予め画像処理の実行手順を画像データ及び画像付帯情報に基づいて選択し、それを順次実行する技術が開示されている。
特開2009-82452号公報
 前述した文献に係る装置の場合、画像処理(画像解析)の開始前に、その実行順序が予め自動的に決定される。すなわち、実行順序が予め固定される。このため、画像処理の途中で処理内容を変更したい場合には、使用者自身が処理内容の変更を個別に指示入力する必要がある。特に、実行中の画像処理により所望の処理結果が得られていない場合、次回以降の処理内容の変更が必要となる場合がある。
 しかし、使用者による個別の操作入力を必要とするのでは、使用者の負担を軽減することはできない。
 本発明者は、以上の課題を鋭意検討した結果、処理対象画像に対して順次適用する画像処理の内容を逐次自動的に決定できる仕組みを提供する。
 本発明は、処理対象画像に対する直前回までに適用された画像処理結果の履歴に基づいて、次回以降に実行する画像処理の内容を自動的に決定する。
 本発明によれば、次回以降の画像処理の内容を、大量に蓄積されている画像処理結果の履歴との照合を通じ、自動的に決定することができる。これにより、処理対象画像から目的領域を画像処理を通じて抽出する際における使用者の操作負担を低減することができる。
 上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
形態例1に係る画像処理システムの機能ブロック構成を示す図。 形態例1に係る画像処理装置を通じて提供される表示画面例を示す図。 形態例1に係る画像処理装置で実行される処理手順を示すフローチャート。 形態例1に係る目的領域特徴量と手順特徴量の関係を説明する図。 形態例1に係る次処理決定部の処理内容を説明する図。 形態例2に係る画像処理システムの機能ブロック構成を示す図。 形態例2に係る画像処理装置で実行される処理手順を示すフローチャート。 形態例3に係る次処理決定部の処理内容を説明する図。 形態例4に係る目的領域特徴量と手順特徴量の関係を説明する図。
 以下、図面に基づいて、本発明の実施の形態を説明する。なお、本発明の実施態様は、後述する形態例に限定されるものではなく、その技術思想の範囲において、種々の変形が可能である。
 (1)共通構成
 以下に説明する画像処理装置は、いずれも、処理対象画像から目的領域を抽出するために、複数の画像処理を順番に適用する場合を想定する。各形態例に係る画像処理装置は、直前回までに取得された処理結果の履歴と類似する履歴を有する画像処理手順をデータベースから検索し、検索結果から次に適用する画像処理の内容を自動的に決定する点において共通する。すなわち、各画像処理装置は、データベースに大量に蓄積されている過去に使用された画像処理手順の情報に基づいて、次に適用する画像処理を統計的に決定する。
 ここで、データベースには、経験や処理結果等に基づいて技術専門家が逐次決定した判断の結果が画像処理手順として保存されている。従って、現在処理中の処理対象画像に対する処理結果の履歴と類似する履歴を有する過去の画像処理手順を検索し、検出された画像処理手順で使用された次の回の画像処理をそのまま現在の処理に適用することは、目的領域の抽出に対して統計上の意味がある。各形態例に係る画像処理装置では、この決定処理を繰り返すことにより、処理対象画像から目的領域を自動的に抽出する。
 (2)形態例1
 (2-1)システム構成
 図1に、形態例1に係る画像処理システムの機能ブロック構成を示す。形態例1に係る画像処理システムは、画像処理装置100と、処理フローモデルデータベース102と、画像データベース103と、画像表示装置104とで構成される。
 処理フローモデルデータベース102には、過去に実行された画像処理手順や標準モデルとして登録された画像処理手順が保存されている。本明細書において「手順」とは、複数の画像処理の実行順序を規定する情報をいう。この形態例の場合、画像処理手順には、各画像処理が実行された時点で得られる処理結果(以下、「目的領域特徴量」ともいう。
)の履歴(以下、「手順特徴量」ともいう。)も含まれる。
 画像データベース103には、処理対象とする画像データが保存される。この形態例の場合、医用画像データが保存されている。例えば造影CTデータが保存されている。勿論、画像データは、造影CTデータに限らない。
 画像処理装置100は、画像処理部121、目的領域特徴量抽出部111、目的領域特徴量記憶部112、次画像処理決定部120で構成される。この形態例の場合、画像処理装置100はコンピュータを基本構成とし、図1に示す各処理部は演算装置上で実行されるプログラムの機能として実現される。
 画像処理部121は、検査画像200又は直前回までの画像処理で得られた結果画像に対し、画像処理204で指定された画像処理を適用する機能を提供する。個々の画像処理に対応するプログラムは不図示の記憶領域に格納されており、画像処理の実行時に読み出され、実行される。また、画像処理部121は、処理対象画像(前述した検査画像200等)を記憶する記憶領域やプログラムの作業領域を有している。なお、画像処理部121は、最終的な処理結果206を画像表示装置104に出力する。このため、画像処理部121には、ユーザインタフェースに関する機能も搭載されている。
 目的領域特徴量抽出部111は、画像処理部121による画像処理により得られる結果画像から目的領域特徴量(目的領域の大きさと数)202を抽出する機能を提供する。目的領域特徴量記憶部112は、抽出された目的領域特徴量202を格納する記憶領域を提供する。当該記憶領域には、例えば半導体記憶装置、ハードディスク装置等を使用する。
 次画像処理決定部120は、目的領域特徴量202の手順間の変化を規定する手順特徴量203と過去の処理フローモデル205とを比較し、処理対象画像に対して次に適用する画像処理204を決定する機能を提供する。
 (2-2)表示画面例
 図2に、画像表示装置104の画面上に表示される表示画面の代表図を示す。表示画面は、抽出結果表示画面280と処理手順表示画面281で構成される。抽出結果表示画面280には、診断対象とする臓器の造影CT画像に処理結果の情報が重畳的に表示される。図2の場合、造影CT画像として肝臓CT画像250が表示されている。肝臓CT画像250には、肝臓がんの患部である目的領域260と、画像処理により抽出された領域が抽出結果270として表示されている。抽出結果表示画面280の表示内容は、画像処理の進行に伴って更新される。処理手順表示画面281は、実行中の画像処理の手順が表示されている。図2は、3つ目の画像処理が終了したことを表している。
 (2-3)画像診断支援処理(目的領域自動抽出処理)
 図3に、画像処理装置100で実行される画像診断支援処理の概要を示す。以下の説明では、操作者が、被験者の造影CT画像から目的領域である肝臓がん(例えば乏血性肝癌、多血性肝癌)を抽出したい場合を想定する。勿論、目的領域はこれに限らず、その種類を医学的見地に基づいて指定可能な病変部であれば良い。
 また、図4に、図3に示す画像診断支援処理の進行に応じて取得される目的領域特徴量と手順特徴量(目的領域特徴量の手順間の変化量)の経時変化を示す。なお、図4においては、各処理の実行回の違いを末尾に付加する括弧内の数字で表現している。なお、形態例1の場合、目的領域特徴量は目的領域の大きさと数の2つで管理される。従って、図4では、処理の進行に伴う目的領域の大きさと数の変化を折れ線グラフによりそれぞれ表している。この明細書において、目的領域の特徴量の大きさとは、体積又は面積で規定されるものとする。
 以下、形態例1に係る画像処理装置100で実行される画像診断支援処理の詳細内容を説明する。
 まず、操作者としての医者が、処理対象画像を画像データベース103から選択する(処理300)。具体的には、造影CT画像を選択する。
 次に、医者が、手順特徴量を初期設定する(処理301)。ここでの初期設定とは、手順特徴量である目的領域の大きさと目的領域の数の初期値350を決める処理である。この形態例の場合、いずれも「0」に初期化する。
 手順特徴量が定まると、次画像処理決定部120が、次に実行する画像処理を決定する処理を実行する(処理302(1))。ただし、最初の処理では、初期値は「0」であり、手順特徴量の変化量は無いため、汎用的な肝癌抽出の画像処理(レベルセットアルゴリズム)を画像処理部121に通知する。この結果、画像処理部121は、例えばレベルセットアルゴリズムを適用した抽出処理を実行する(処理303(1))。
 画像処理部121は、当該処理結果より目的領域260と判定された領域に関する情報を、目的領域データ201として目的領域特徴量抽出部111に転送する。目的領域特徴量抽出部111は、与えられた目的領域データ201から処理対象画像に含まれる目的領域特徴量(すなわち、大きさと数)をそれぞれ抽出する(処理304(1))。抽出された目的領域特徴量202は、目的領域特徴量記憶部112に記憶される。
 この後、次画像処理決定部120は、目的領域特徴量記憶部112を検索し、各目的領域特徴量(大きさと数)の変化量を手順特徴量203として抽出する(処理305(1))。
 次に、次画像処理決定部120は、抽出された手順特徴量203を予め設定した閾値351と比較する(処理306(1))。手順特徴量203が閾値以下の場合(図4の場合、大きさと数のいずれについても閾値以下の場合)、次画像処理決定部120は、処理の終了を画像処理部121に指示する。この場合、画像処理部121は、処理結果206を画像表示装置104の表示画面に表示する。
 一方、手順特徴量203が閾値以下でない場合(図4の場合、大きさと数の両方又は一方が閾値を越える場合)、次画像処理決定部120は、当該時点までの手順特徴量203に基づいて次に実行する画像処理を決定し、画像処理部121に指示する(処理302(2))。ここで、次画像処理決定部120は、手順特徴量203で処理フローモデルデータベース102を検索し、類似度の高い処理フローモデルについて規定されている次回の画像処理を、現在処理対象としている画像に適用する画像処理に決定する。例えば図4の場合、画像フィルタ(のう胞除去)が2回目の画像処理として決定される。因みに、図4の場合には、3回目の画像処理としてレベルセット(治療痕)が決定される。
 このように、本形態例の場合には、処理302~処理306の処理が、手順特徴量203が所定の閾値351以下になるまで繰り返し実行される。すなわち、処理306で否定結果が得られている間、処理302の各実行時までに取得された手順特徴量203の履歴と一致度の高い処理フローが処理フローモデルデータベース102から抽出され、当該処理フローモデルについて登録されている次回の画像処理が、画像処理部121が次に適用する画像処理204として与えられる。
 このような処理を実行することにより、本形態例における画像処理装置100は、操作者による初期設定操作の後は、所望の処理結果が得られるまで自動的に画像処理を決定して処理対象画像に適用することができる。
 (2-4)画像処理の自動決定動作
 ここでは、手順特徴量203から次の画像処理を自動的に決定する際に実行される処理動作の具体例を説明する。
 図5に、処理動作例を示す。図5には、手順特徴量203の具体例400と、処理フローモデルデータベース102に格納されている処理フローモデル205の具体例401を示している。図5の場合、処理フローモデル402A及び402Bを描いている。
 図5の場合、各処理フローモデルは、手順特徴量403A及び403Bと次画像処理404A及び404Bで構成される。手順特徴量403A及び403Bには、ある実行回までの目的領域の大きさと数の変化が記録されている。
 また、次画像処理404A及び404Bには、手順特徴量403A及び403Bが対応する実行回の次に実行された画像処理の内容が格納されている。すなわち、図5は、例えば5回の画像処理が実行された処理フローモデルが存在する場合に、その1回目までの手順特徴量と2回目に実行された次画像処理を記録した処理フローモデル、2回目までの手順特徴量と3回目に実行された次画像処理を記録した処理フローモデル、以下同様に各回までの手順特徴量とその次の回に実行された次画像処理を記録した処理フローモデルを用意した場合に相当する。なお、この例の場合、6回目の処理は存在しないので、5回目までの手順特徴量に対する処理フローモデルでは、その次画像処理として「終了」が記録される。
 この場合、現在処理している画像について出現した手順特徴量と類似度の高い処理手順モデルが検出されると、次画像処理が一意に確定する。
 もっとも、処理フローモデルとして、全実行回の手順特徴量と各実行回に実行された画像処理の情報を記憶したものを使用しても良い。この場合、決定しようとする実行回の直前回までの範囲で処理手順モデルの手順特徴量を照合し、類似度の高い処理手順モデルが検出されると、その次の実行回に実行された画像処理を次画像処理決定部120が読み出せば良い。
 この形態例の場合、次画像処理決定部120は、処理フローモデル205と手順特徴量203との類似度を、例えば対応する2つの手順特徴量の差分自乗和に基づいて計算する。この場合、差分自乗和が小さいほど類似度が高いことを意味する。勿論、類似度の算出方法は差分自乗和に限らず、差分絶対値和を用いても良い。図5の場合、具体例400との類似度は、処理フローモデル402Aのグラフの方が近い。従って、次画像処理決定部120は、類似度の大きい処理フローモデル402Aの優先度を処理フローモデル402Bよりも高く設定する。この後、次画像処理決定部120は、優先度が高い処理フローモデル402Aの次画像処理(すなわち、レベルセット(治療痕))を選択し、画像処理部121に出力する。
 以上説明したように、形態例1に係る画像処理装置100の採用により、処理対象画像から目的領域を自動抽出したい場合にも、操作者は初期条件を入力した後は、何ら追加の操作を行わなくても必要とされる目標領域を処理対象画像内から抽出することができる。従って、従来装置では未だ必要性の高い画像処理実行中における操作者による画像処理内容の修正操作を不要にできる。これにより、操作者に対する作業負担を軽減し、目的領域が抽出されるまでの時間も短縮することができる。
 (3)形態例2
 図6に、形態例2に係る画像処理システムの機能ブロック構成を示す。図6には、図1との対応部分に同一符号を付して示す。形態例2に係る画像処理システムが形態例1に係る画像処理システムと異なる点は、次画像処理決定部120に初回処理入力207を与える入力装置105が追加されている点と、次画像処理決定部120が操作者の入力した初回処理入力207を参照して動作する点である。
 図7に、画像処理装置100で実行される画像診断支援処理の概要を示す。なお、図7には、図3との対応部分に同一符号を付して表している。図7と図3を比較して分かるように、この形態例の場合、処理301に代えて処理307が実行される。すなわち、処理307は、処理300の後、処理302の前に実行される。
 形態例1の場合には、処理301により、手順特徴量の初期値が設定された。この場合、設定された初期値により、初回に実行される画像処理は予め決められた処理となる。勿論、与える初期値によっては、初回に実行される画像処理を変更することも可能であるが、画像処理の決定は次画像処理決定部120が実行しており、操作者の意図を画像処理の決定に反映させることはできない。
 一方、本形態例の場合は、処理307において、操作者が入力装置105を通じて初回に実行される画像処理を具体的に選択又は指定することができる。もっとも、当該指定は処理300の前に実行されており、処理307で事前に入力された初回処理入力207が次画像処理決定部120に取り込まれるのでも良い。
 この形態例の場合、操作者は、初回処理入力207として、レベルセット(汎用)、フィルタ(のう胞除去)、レベルセット(治療痕)等を選択することができる。
 以上説明したように、形態例2に係る画像処理装置100を採用すれば、操作者が希望する画像処理を初回画像処理として選択又は指定することができる。これにより、形態例1の効果に加え、操作者の意図に沿った画像処理を提供できる画像処理装置を実現することができる。
 (4)形態例3
 本形態例においては、形態例1に係る画像処理システム(図1)を構成する次画像処理決定部120に搭載して好適な他の処理機能について説明する。なお、この形態例の場合、処理フローモデルデータベース102に格納される処理フローモデルのデータ内容も形態例1とは異なっている。
 図8に、本形態例に係る次画像処理決定部120で実行される処理の概要を示す。図8には、図5との対応部に同一符号を付して示している。本形態例の場合、処理フローモデルデータベース102には、処理フローモデルを構成するデータの一部として、その信頼度に関する情報(スコア)が格納されている。スコアは、手順特徴量の類似度を評価する際の修正量(重み)として使用される。ここで、スコアは、信頼度が最高値(最大)の場合を100、最小値の場合を0とする。因みに、図5の場合、処理フローモデル402Aのスコアは「10」であり、処理フローモデル402Bのスコアは「80」である。
 この形態例の場合、次画像処理決定部120は、以下に示す処理を通じ、処理対象画像に対して次に適用する画像処理を決定する(処理3021)。
 まず、次画像処理決定部120は、処理対象画像について取得された手順特徴量203と処理フローモデル205を比較し、処理フローモデル402A及び402Bの類似度を計算する。類似度は割合で示され、完全に一致している場合は100%で表され、完全に不一致の場合は0%で表される指標である。
 次に、次画像処理決定部120は、信頼度と類似度を用い、各処理フローモデルの優先順位を決定する。この形態例の場合、信頼度と類似度を和算し、100で規格化した値を優先度とする。ここで、処理フローモデルの信頼度をA1、その重みをw1、類似度をA2、その重みをw2としてすると、優先度は次式で計算することができる。
 優先度=(w1・A1+w2・A2)/(w1+w2)
 因みに、重みw1=w2=1とすると、図8における処理フローモデル402Aの優先度は、45(=(10+80)/2)となる。一方、図8における処理フローモデル402Bの優先度は60(=(80+40)/2)となる。
 この場合、優先順位は、形態例1とは反対になる。すなわち処理フローモデル402Bの優先順位が1位、処理フローモデル402Aの優先順位が2位となる。従って、次画像処理決定部120は、処理フローモデル402Bの次画像処理403Bとして記憶されているリージョングローイング(汎用)を画像処理部121に出力する。
 本形態例に示すように、類似判定の対象となる処理フローモデルに対してアルゴリズムの信頼性を示す指標を導入することにより、形態例1よりも高い精度による抽出結果を操作者に提示することができる。
 (5)形態例4
 本形態例においては、形態例1に係る画像処理システム(図1)を構成する次画像処理決定部120に搭載して好適な他の処理機能について説明する。
 図9に、本形態例に係る次画像処理決定部120で実行される処理の詳細手順を示す。この形態例の場合、次画像処理決定部120は、各実行回に適用した画像処理のアルゴリズムを、第3の手順特徴量として使用する。すなわち、本形態例における次画像処理部120は、目的領域の大きさ、目的領域の数、画像処理のアルゴリズムを使用して処理フローモデルの類似度を計算して優先順位を決定し、最も優先順位の高い処理フローモデルの次画像処理を画像処理部121に出力する手法を採用する。
 勿論、その前提として、処理フローモデルデータベース102に格納される各処理フローモデルには、その手順特徴量に画像処理アルゴリズムが含まれているものとする。なお、画像処理アルゴリズムには、各回に実行された画像処理アルゴリズムに加え、使用したパラメータも格納されている。
 本形態例の場合、画像処理アルゴリズムの実行順序を考慮した抽出精度の高い結果を操作者に提供することができる。
 (6)他の形態例
 なお、本発明は上述した形態例に限定されるものでなく、様々な変形例が含まれる。例えば、上述した形態例は、本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある形態例の一部を他の形態例の構成に置き換えることが可能であり、また、ある形態例の構成に他の形態例の構成を加えることも可能である。また、各形態例の構成の一部について、他の構成を追加、削除又は置換することも可能である。
 また、上述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路その他のハードウェアとして実現しても良い。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することにより実現しても良い。すなわち、ソフトウェアとして実現しても良い。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリやハードディスク、SSD(Solid State Drive)等の記憶装置、ICカード、SDカード、DVD等の記憶媒体に格納することができる。
 また、制御線や情報線は、説明上必要と考えられるものを示すものであり、製品上必要な全ての制御線や情報線を表すものでない。実際にはほとんど全ての構成が相互に接続されていると考えて良い。
 100…画像処理装置、102…処理フローモデルデータベース、103…画像データベース、104…画像表示装置、105…入力手段装置、111…目的領域特徴量抽出部、112…目的領域特徴量記憶部、120…次画像処理決定部、121…画像処理部、200…検査画像、201…目的領域データ、202…目的領域特徴量、203…手順特徴量、204…画像処理、205…処理フローモデル、206…処理結果、207…初回処理入力、250…肝臓CT画像、260…目的領域、270…目的領域の抽出結果、280…抽出結果表示画面、281…処理手順表示画面、350…初期値、351…閾値。

Claims (12)

  1.  複数の画像処理を適用して、処理対象画像から目的領域を抽出する画像処理装置であって、
     前記目的領域は、前記処理対象画像における周辺領域とは異なる部位であり、
     前記処理対象画像に第1の画像処理手順を適用した際の処理結果に関する第1の履歴を記憶する処理部と、
     前記第1の画像処理手順の後に適用する画像処理の候補と、各候補に対応する第2の画像処理手順を適用した際の処理結果に関する第2の履歴とを蓄積するデータベースから前記第2の履歴を読み出して前記第1の履歴との類似度を評価し、高い評価結果が得られた第2の履歴に対応する画像処理を次の候補に決定する処理部と、
     決定された画像処理に基づいて目的領域の抽出処理を実行する処理部と
     を有する画像処理装置。
  2.  請求項1に記載の画像処理装置において、
     前記履歴が、一つ以上の画像処理を行った際に、各処理で抽出された目的領域に関する特徴量の変化情報である
     ことを特徴とする画像処理装置。
  3.  請求項2に記載の画像処理装置において、
     前記特徴量が、目的領域の数又は大きさである
     ことを特徴とする画像処理装置。
  4.  請求項2に記載の画像処理装置において、
     前記特徴量が、画像処理アルゴリズムの情報である、
     ことを特徴とする画像処理装置。
  5.  請求項2~4のいずれか1項に記載の画像処理装置において、
     前記処理対象画像が医用画像であり、前記目的領域が病変部である
     ことを特徴とする画像処理装置。
  6.  請求項1に記載の画像処理装置において、
     前記データベースには、前記第2の画像処理手順に対応付けられた評価指標が記憶されており、
     前記第1の履歴と前記第2の履歴の類似度を評価する場合、前記評価指標も含めて前記類似度を評価する
     ことを特徴とする画像処理装置。
  7.  複数の画像処理を適用して、処理対象画像から目的領域を抽出する計算機において実行される画像処理方法であって、
     前記目的領域は、前記処理対象画像における周辺領域とは異なる部位であり、
     前記処理対象画像に第1の画像処理手順を適用した際の処理結果に関する第1の履歴を記憶する処理と、
     前記第1の画像処理手順の後に適用する画像処理の候補と、各候補に対応する第2の画像処理手順を適用した際の処理結果に関する第2の履歴とを蓄積するデータベースから前記第2の履歴を読み出して前記第1の履歴との類似度を評価し、高い評価結果が得られた第2の履歴に対応する画像処理を次の候補に決定する処理と、
     決定された画像処理に基づいて目的領域の抽出処理を実行する処理と
     を有する画像処理方法。
  8.  請求項7に記載の画像処理方法において、
     前記履歴が、一つ以上の画像処理を行った際に、各処理で抽出された目的領域に関する特徴量の変化情報である
     ことを特徴とする画像処理方法。
  9.  請求項8に記載の画像処理方法において、
     前記特徴量が、目的領域の数又は大きさである
     ことを特徴とする画像処理方法。
  10.  請求項8に記載の画像処理方法において、
     前記特徴量が、画像処理アルゴリズムの情報である、
     ことを特徴とする画像処理方法。
  11.  請求項8~10のいずれか1項に記載の画像処理方法において、
     前記処理対象画像が医用画像であり、前記目的領域が病変部である
     ことを特徴とする画像処理方法。
  12.  請求項7に記載の画像処理方法において、
     前記データベースには、前記第2の画像処理手順に対応付けられた評価指標が記憶されており、
     前記第1の履歴と前記第2の履歴の類似度を評価する場合、前記評価指標も含めて前記類似度を評価する
     ことを特徴とする画像処理方法。
PCT/JP2012/062892 2011-05-24 2012-05-21 画像処理装置及び方法 WO2012161149A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US14/119,386 US20140153833A1 (en) 2011-05-24 2012-05-21 Image processing apparatus and method
EP12789201.6A EP2716225A4 (en) 2011-05-24 2012-05-21 APPARATUS AND METHOD FOR IMAGE PROCESSING
CN201280024895.1A CN103561656A (zh) 2011-05-24 2012-05-21 图像处理装置以及方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011116145A JP5665655B2 (ja) 2011-05-24 2011-05-24 画像処理装置及び方法
JP2011-116145 2011-05-24

Publications (1)

Publication Number Publication Date
WO2012161149A1 true WO2012161149A1 (ja) 2012-11-29

Family

ID=47217226

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/062892 WO2012161149A1 (ja) 2011-05-24 2012-05-21 画像処理装置及び方法

Country Status (5)

Country Link
US (1) US20140153833A1 (ja)
EP (1) EP2716225A4 (ja)
JP (1) JP5665655B2 (ja)
CN (1) CN103561656A (ja)
WO (1) WO2012161149A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11800056B2 (en) 2021-02-11 2023-10-24 Logitech Europe S.A. Smart webcam system
US11800048B2 (en) 2021-02-24 2023-10-24 Logitech Europe S.A. Image generating system with background replacement or modification capabilities

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0844851A (ja) * 1994-07-28 1996-02-16 Hitachi Medical Corp 医用画像診断装置
JP2001094829A (ja) * 1999-09-17 2001-04-06 Canon Inc 画像処理装置、画像処理システム、画像処理方法、及び記憶媒体
JP2005230456A (ja) * 2004-02-23 2005-09-02 Kokuritsu Seishin Shinkei Center 脳疾患の診断支援方法及び装置
JP2005270318A (ja) * 2004-03-24 2005-10-06 Konica Minolta Medical & Graphic Inc 画像処理システム
JP2009082452A (ja) 2007-09-28 2009-04-23 Terarikon Inc 解析プロトコルに基づいた前処理装置を具備する三次元画像表示装置

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1265190B1 (en) * 1993-12-10 2009-06-24 Ricoh Company, Ltd. Image recognition method for extracting/recognizing specific image from input image signal
EP0774730B1 (en) * 1995-11-01 2005-08-24 Canon Kabushiki Kaisha Object extraction method, and image sensing apparatus using the method
US6351660B1 (en) * 2000-04-18 2002-02-26 Litton Systems, Inc. Enhanced visualization of in-vivo breast biopsy location for medical documentation
US6999607B2 (en) * 2001-02-20 2006-02-14 Cytokinetics, Inc. Method and apparatus for automated cellular bioinformatics
US7430303B2 (en) * 2002-03-29 2008-09-30 Lockheed Martin Corporation Target detection method and system
US7146057B2 (en) * 2002-07-10 2006-12-05 Northrop Grumman Corporation System and method for image analysis using a chaincode
US8045770B2 (en) * 2003-03-24 2011-10-25 Cornell Research Foundation, Inc. System and method for three-dimensional image rendering and analysis
JP4845382B2 (ja) * 2004-02-06 2011-12-28 キヤノン株式会社 画像処理装置及びその制御方法、並びに、コンピュータプログラム及びコンピュータ可読記憶媒体
US7783094B2 (en) * 2005-06-02 2010-08-24 The Medipattern Corporation System and method of computer-aided detection
EP1913868A1 (en) * 2006-10-19 2008-04-23 Esaote S.p.A. System for determining diagnostic indications
JP4616874B2 (ja) * 2007-09-28 2011-01-19 富士フイルム株式会社 画像表示装置、画像表示方法、および画像表示プログラム
US8792698B2 (en) * 2008-02-25 2014-07-29 Hitachi Medical Corporation Medical imaging processing device, medical image processing method, and program
US8099299B2 (en) * 2008-05-20 2012-01-17 General Electric Company System and method for mapping structural and functional deviations in an anatomical region
JP5581574B2 (ja) * 2008-07-09 2014-09-03 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
JP5423305B2 (ja) * 2008-10-16 2014-02-19 株式会社ニコン 画像評価装置及びカメラ
US20100124364A1 (en) * 2008-11-19 2010-05-20 Zhimin Huo Assessment of breast density and related cancer risk
JP5455379B2 (ja) * 2009-01-07 2014-03-26 株式会社東芝 医用画像処理装置、超音波診断装置、及び医用画像処理プログラム
JP5509773B2 (ja) * 2009-01-21 2014-06-04 オムロン株式会社 パラメータ決定支援装置およびパラメータ決定支援プログラム
JP5284863B2 (ja) * 2009-04-30 2013-09-11 独立行政法人理化学研究所 画像処理装置、画像処理方法およびプログラム
JP5761601B2 (ja) * 2010-07-01 2015-08-12 株式会社リコー 物体識別装置
PT2779089T (pt) * 2010-07-30 2019-02-19 Fund D Anna Sommer Champalimaud E Dr Carlos Montez Champalimaud Sistemas e métodos para segmentação e processamento de imagens de tecidos e extração de características dos mesmos para tratar, diagnosticar ou prever condições médicas
JP5904711B2 (ja) * 2011-02-01 2016-04-20 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP5385486B2 (ja) * 2011-09-08 2014-01-08 オリンパスメディカルシステムズ株式会社 画像処理装置及び画像処理装置の作動方法
EP4057215A1 (en) * 2013-10-22 2022-09-14 Eyenuk, Inc. Systems and methods for automated analysis of retinal images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0844851A (ja) * 1994-07-28 1996-02-16 Hitachi Medical Corp 医用画像診断装置
JP2001094829A (ja) * 1999-09-17 2001-04-06 Canon Inc 画像処理装置、画像処理システム、画像処理方法、及び記憶媒体
JP2005230456A (ja) * 2004-02-23 2005-09-02 Kokuritsu Seishin Shinkei Center 脳疾患の診断支援方法及び装置
JP2005270318A (ja) * 2004-03-24 2005-10-06 Konica Minolta Medical & Graphic Inc 画像処理システム
JP2009082452A (ja) 2007-09-28 2009-04-23 Terarikon Inc 解析プロトコルに基づいた前処理装置を具備する三次元画像表示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2716225A4

Also Published As

Publication number Publication date
JP5665655B2 (ja) 2015-02-04
CN103561656A (zh) 2014-02-05
EP2716225A4 (en) 2014-12-31
JP2012239836A (ja) 2012-12-10
US20140153833A1 (en) 2014-06-05
EP2716225A1 (en) 2014-04-09

Similar Documents

Publication Publication Date Title
US11538575B2 (en) Similar case retrieval apparatus, similar case retrieval method, non-transitory computer-readable storage medium, similar case retrieval system, and case database
JP6438395B2 (ja) 効果的な表示及び報告のための画像資料に関連する以前の注釈の自動検出及び取り出し
WO2018070285A1 (ja) 画像処理装置、及び画像処理方法
JP4901358B2 (ja) 医用画像データにおける注目点の自動検出装置
JP7264486B2 (ja) 画像解析方法、画像解析装置、画像解析システム、画像解析プログラム、記録媒体
JP2014512897A (ja) 医療データの知的リンキング方法及びシステム
CN111445449A (zh) 感兴趣区域的分类方法、装置、计算机设备和存储介质
US20120053443A1 (en) Surgery-assistance apparatus and method, and computer-readable recording medium storing program
US20160093045A1 (en) Medical image storage processing apparatus, method, and medium
KR20210060923A (ko) 의료용 인공 신경망 기반 대표 영상을 제공하는 의료 영상 판독 지원 장치 및 방법
Friman et al. Coronary centerline extraction using multiple hypothesis tracking and minimal paths
JP5665655B2 (ja) 画像処理装置及び方法
JP6827707B2 (ja) 情報処理装置および情報処理システム
JP5871104B2 (ja) 病変判定装置、類似症例検索装置、病変判定装置の駆動方法、類似症例検索装置の駆動方法、およびプログラム
CN104105441B (zh) 区域提取处理系统
JP6570460B2 (ja) 評価装置、方法およびプログラム
US20180121813A1 (en) Non-leading computer aided detection of features of interest in imagery
JP6862286B2 (ja) 情報処理装置、情報処理方法、情報処理システム及びプログラム
JP6768415B2 (ja) 画像処理装置、画像処理方法およびプログラム
WO2018079246A1 (ja) 画像解析装置、方法およびプログラム
WO2022070574A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2022070573A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
US10535135B2 (en) Image processing apparatus, control method thereof, and storage medium
CN115115657A (zh) 病灶分割方法及装置、电子设备及存储介质
JP2010151574A (ja) ローパスフィルタのカットオフ周波数決定方法、決定プログラム、および決定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12789201

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2012789201

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14119386

Country of ref document: US