JP2014079312A - Image processing apparatus and program - Google Patents

Image processing apparatus and program Download PDF

Info

Publication number
JP2014079312A
JP2014079312A JP2012227972A JP2012227972A JP2014079312A JP 2014079312 A JP2014079312 A JP 2014079312A JP 2012227972 A JP2012227972 A JP 2012227972A JP 2012227972 A JP2012227972 A JP 2012227972A JP 2014079312 A JP2014079312 A JP 2014079312A
Authority
JP
Japan
Prior art keywords
pixel
predetermined
value
evaluation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012227972A
Other languages
Japanese (ja)
Inventor
Kenta Shimamura
謙太 嶋村
Hiroshi Yamato
宏 大和
Osamu Toyama
修 遠山
Shintaro Muraoka
慎太郎 村岡
Sho Noji
翔 野地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2012227972A priority Critical patent/JP2014079312A/en
Publication of JP2014079312A publication Critical patent/JP2014079312A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processing technique achieving an appropriate diagnosis and an improvement in diagnostic efficiency by a moving image.SOLUTION: An image processing apparatus 3 comprises: a pixel determination unit 120 that includes an object pixel determination part 121 for determining an object pixel in each object area of a plurality of frame images IG constituting a moving image; a period classification unit 130 that detects an object area period as a periodic time change of the object area and classifies a plurality of frame images IG into the object area period cycle; a period evaluation unit 140 that includes an object pixel evaluation part 240 for evaluating each object area period on the basis of a pixel value of the object pixel and acquires a periodic evaluation result of the object pixel for each object area period; and a period selection unit 150 that selects a specific object area period on the basis of the periodic evaluation result and acquires a frame image classified into the specific object area period as a specific periodic frame image.

Description

本発明は、人体または動物の身体が撮影された動態画像の画像処理技術に関する。   The present invention relates to an image processing technique for a dynamic image in which a human or animal body is photographed.

医療現場では、X線等を用いて内臓や骨格等に含まれる患部を撮影することにより、各種検査や診断が行われている。そして、近年では、デジタル技術の適用により、X線等を用いて患部の動きを捉えた動画像(複数のフレーム画像から構成される画像群)を比較的容易に取得することが可能となっている。   In a medical field, various examinations and diagnoses are performed by photographing an affected part included in an internal organ, a skeleton, or the like using X-rays or the like. In recent years, by applying digital technology, it is possible to relatively easily acquire a moving image (an image group composed of a plurality of frame images) that captures the motion of an affected area using X-rays or the like. Yes.

そこでは、FPD(flat panel detector)等の半導体イメージセンサを利用し、診断対象領域を含む被写体領域に対し動態画像を撮影できるため、従来のX線撮影による静止画撮影及び診断では実施できなかった診断対象領域などの動き解析による診断を実施することが可能になってきた。とりわけ、血流の診断では、末梢などの特定エリアの血管に血流がどのように流れているか、或いは、流れていないのかを確認することが診断上重要な意味があるため、動画による血流診断が必要とされている。   In this case, since a dynamic image can be taken with respect to a subject area including a diagnosis target area using a semiconductor image sensor such as an FPD (flat panel detector), it has not been possible with conventional still image photography and diagnosis by X-ray photography. It has become possible to carry out diagnosis based on motion analysis of a diagnosis target region or the like. In particular, in blood flow diagnosis, it is important for diagnosis to confirm how blood flow is flowing in blood vessels in a specific area such as the periphery or not. Diagnosis is needed.

そこで、近年、動態画像による診断を行うための種々な画像処理技術が提案されている。例えば、特許文献1が開示する技術では、X線コンピュータ断層撮影装置において、複数心拍周期のうちビュー(X線管の回転角度)が同じ投影データを加重加算して断層像を再構成する技術が開示されている。   Thus, in recent years, various image processing techniques for performing diagnosis using dynamic images have been proposed. For example, in the technique disclosed in Patent Document 1, in an X-ray computed tomography apparatus, a technique for reconstructing a tomographic image by weighted addition of projection data having the same view (rotation angle of the X-ray tube) among a plurality of heartbeat cycles. It is disclosed.

また、特許文献2が開示する技術では、撮影動態システムにおいて、呼気・心拍の周期毎に振幅や周期を特徴量として算出し、特徴量に基づいて診断支援情報を生成及び表示する技術が開示されている。   In addition, the technique disclosed in Patent Document 2 discloses a technique for calculating the amplitude and the period as a feature amount for each expiration / heartbeat period and generating and displaying diagnosis support information based on the feature amount in the imaging dynamic system. ing.

更に、特許文献3が開示する技術では、血流動態解析技術において、造影剤による動脈の時間濃度曲線を2箇所で測定し、伝達関数から血流動態情報を算出する技術が開示されている。   Furthermore, the technique disclosed in Patent Document 3 discloses a technique for measuring blood flow dynamics information from a transfer function by measuring a time concentration curve of an artery with a contrast medium at two locations in a blood flow dynamic analysis technique.

ところで、X線動態撮影では、X線撮影機器の撮影能力や被曝量削減等のために撮影フレームレートが十分でないことから、所望の領域に血流波形が十分見てとれるとは限らず、動画全て(全フレーム画像)の中からよく見える周期を探し出した上で診断しなくてはならず、診断に時間と手間を要する。また、疾患患者の中には心拍数が極端に高い場合もあり、X線動態画像を解析することで得られる血流情報は、被写体の実血流速度に対しフレームレート不足になる傾向があり、診察対象領域の血流や心拍波形が観察しづらいケースがあるため診断効率が悪く、さらには、血流波形は身体内部の位置によって位相や振幅が異なるため、全領域にわたって最適な表現を得ることが難しいという問題がある。   By the way, in the X-ray dynamic imaging, since the imaging frame rate is not sufficient for the imaging capability of the X-ray imaging equipment, the exposure dose reduction, etc., the blood flow waveform is not always seen in a desired region. Diagnosis must be made after searching for a visible cycle from all (all frame images), and time and labor are required for the diagnosis. In addition, heart rate may be extremely high among patients with diseases, and blood flow information obtained by analyzing X-ray dynamic images tends to be insufficient in frame rate relative to the actual blood flow velocity of the subject. In some cases, it is difficult to observe the blood flow and heartbeat waveform in the examination target area, so the diagnosis efficiency is poor. In addition, the blood flow waveform varies in phase and amplitude depending on the position inside the body, so the optimal expression is obtained over the entire area. There is a problem that it is difficult.

特開2012−61324号公報JP 2012-61324 A 特開2009−273671号公報JP 2009-273671 A 特開2011−131041号公報JP 2011-131041 A

これに対して、上記特許文献1の従来技術では、異なる周期のデータを強引に加重加算するため、周期毎の位置合わせの精度要求が非常に高く、データが劣化する課題がある。   On the other hand, in the prior art of the above-mentioned patent document 1, since data of different periods is forcibly weighted and added, there is a very high accuracy requirement for alignment for each period, and there is a problem that the data deteriorates.

また、上記特許文献2の従来技術では、周期毎の肺機能や心機能の正常/異常に関する評価が行われるが、周期毎にフレームレート不足か否かの評価については開示されていない。このため、周期毎に対して一律に該評価が行われることになるため、周期毎に診断支援情報の信頼性が異なる課題がある。   Moreover, in the prior art of the above-mentioned Patent Document 2, evaluation regarding normal / abnormal pulmonary function and cardiac function for each cycle is performed, but evaluation of whether or not the frame rate is insufficient for each cycle is not disclosed. For this reason, since the evaluation is performed uniformly for each period, there is a problem that the reliability of the diagnosis support information is different for each period.

更に、上記特許文献3の従来技術についても、周期毎に対してフレームレート不足か否かの評価については開示されていない。   Furthermore, the prior art of Patent Document 3 also does not disclose an evaluation of whether or not the frame rate is insufficient for each period.

本発明は、このような事情に鑑みてなされたものであり、人体または動物の身体内部における所定領域の物理的状態が周期的に時間変化する状態を時間順次に捉えた動画像に対して、複雑な処理を施すことなく、所定領域の状態変化に対して動画による適切な診断及び診断効率の向上を実現する画像処理技術を提供することを目的とする。   The present invention has been made in view of such circumstances, and for a moving image in which a state in which a physical state of a predetermined region in a human body or an animal body periodically changes in time is sequentially captured, An object of the present invention is to provide an image processing technique that realizes appropriate diagnosis by moving images and improvement of diagnosis efficiency with respect to a state change of a predetermined region without performing complicated processing.

上記課題を解決するために、請求項1の発明は、人体または動物の身体内部における所定領域の物理的状態が周期的に時間変化する状態をフレーム撮影周期毎に捉えた複数のフレーム画像から構成される動画像を取得する動画像取得手段を備え、前記複数のフレーム画像のそれぞれの所定領域内における所定画素を決定する所定画素決定部を含む画素決定手段と、前記所定領域の周期的な時間変化となる所定領域周期を検出し、前記複数のフレーム画像を該所定領域周期単位に分類する周期分類手段と、前記所定画素の画素値である所定画素値に基づき前記所定領域周期毎に評価する所定画素評価部を含み、前記所定領域周期毎に前記所定画素の周期評価結果を得る周期評価手段と、前記周期評価結果に基づいて特定の所定領域周期を選択し、該特定の所定領域周期に分類されたフレーム画像を特定周期フレーム画像とする周期選択手段と、を更に備えることを特徴とする。   In order to solve the above-mentioned problem, the invention of claim 1 is composed of a plurality of frame images in which a physical state of a predetermined region in a human body or an animal body periodically changes over time at each frame shooting period. A pixel determining unit that includes a moving image acquiring unit that acquires a moving image to be processed, and includes a predetermined pixel determining unit that determines a predetermined pixel in each predetermined region of the plurality of frame images; and a periodic time of the predetermined region Detecting a predetermined region period that changes, period classification means for classifying the plurality of frame images into units of the predetermined region period, and evaluating each predetermined region period based on a predetermined pixel value that is a pixel value of the predetermined pixel A period evaluation unit that includes a predetermined pixel evaluation unit and obtains a period evaluation result of the predetermined pixel for each of the predetermined area periods; and a specific predetermined area period is selected based on the period evaluation result And further comprising a cycle selection means for a frame classified images to the specific predetermined regions cycle as specific cycle frame image.

また、請求項2の発明は、請求項1に記載の画像処理装置であって、前記所定画素評価部は、前記所定領域周期内における前記所定画素値の時間方向に対する濃度変化を示す所定画素時間濃度変化を算出する所定画素時間濃度変化算出部と、(a1)前記所定画素時間濃度変化における最大値及び最小値のうち、少なくとも1つの値、(a2)前記所定画素時間濃度変化における最大微分値及び最小微分値のうち、少なくとも1つの値、(a3)前記所定画素時間濃度変化における極値となる値、(a4)前記所定画素時間濃度変化を生成するフレーム画像のうち前記所定画素値が第1所定値以上となるフレーム画像数、(a5)前記所定画素時間濃度変化のうち第2所定値以上における画素値を時間方向に積分した画素積分値、(a6)前記所定画素時間濃度変化と予め準備した基準変化モデルとの相関値、の前記判断要素(a1)〜(a6)のうち、少なくとも1つの判断要素に基づいて所定画素評価値を算出する所定画素評価値算出部と、を含み、前記周期評価手段は、前記所定画素評価値を前記周期評価結果として決定する周期評価結果決定部を含む。   The invention of claim 2 is the image processing apparatus according to claim 1, wherein the predetermined pixel evaluation unit is a predetermined pixel time indicating a density change in the time direction of the predetermined pixel value within the predetermined region period. A predetermined pixel time density change calculation unit for calculating a density change; (a1) at least one of the maximum value and the minimum value in the predetermined pixel time density change; and (a2) a maximum differential value in the predetermined pixel time density change. And at least one of the minimum differential values, (a3) a value that is an extreme value in the predetermined pixel time density change, and (a4) the predetermined pixel value in the frame image that generates the predetermined pixel time density change is (1) the number of frame images that are equal to or greater than a predetermined value; (a5) a pixel integral value obtained by integrating pixel values at a second predetermined value or more in the predetermined pixel time density change in the time direction; A predetermined pixel evaluation value for calculating a predetermined pixel evaluation value based on at least one of the determination elements (a1) to (a6) of the correlation value between a predetermined pixel time density change and a reference change model prepared in advance. And a cycle evaluation result determination unit that determines the predetermined pixel evaluation value as the cycle evaluation result.

また、請求項3の発明は、請求項2に記載の画像処理装置であって、前記基準変化モデルは、前記フレーム画像上の血管領域における血流方向に沿った複数の画素の画素値の空間方向における濃度変化を示す空間濃度変化を用いて作成することを特徴とする。   The invention according to claim 3 is the image processing device according to claim 2, wherein the reference change model is a space of pixel values of a plurality of pixels along a blood flow direction in a blood vessel region on the frame image. It is created by using a spatial density change indicating a density change in the direction.

また、請求項4の発明は、請求項2に記載の画像処理装置であって、前記画素決定手段は、前記フレーム画像上における前記所定画素とは異なる参照画素を決定する参照画素決定部、を更に含み、前記所定画素評価部は、前記所定領域周期内における前記参照画素の画素値である参照画素値の時間方向に対する濃度変化を示す参照画素時間濃度変化を算出する参照画素時間濃度変化算出部と、(b1)前記参照画素時間濃度変化における最大値及び最小値のうち、少なくとも1つの値、(b2)前記参照画素時間濃度変化における最大微分値及び最小微分値のうち、少なくとも1つの値、(b3)前記参照画素時間濃度変化における極大値及び極小値のうち、少なくとも1つの値、(b4)前記参照画素時間濃度変化を構成するフレーム画像のうち前記参照画素値が第3所定値以上となるフレーム画像数、(b5)前記参照画素時間濃度変化のうち第4所定値以上における画素値を時間方向に積分した画素積分値、(b6)前記参照画素時間濃度変化と予め準備した基準変化モデルとの相関値、の前記判断要素(b1)〜(b6)のうち、前記所定画素評価値の算出に用いた前記判断要素(a1)〜(a6)に対応する判断要素に基づき参照画素評価値として算出する参照画素評価値算出部と、前記所定画素評価値と前記参照画素評価値との差を空間相関値として算出する第1の空間相関値算出処理を実行する空間相関値算出部と、を更に含み、前記周期評価結果決定部は、前記空間相関値に基づいて前記周期評価結果の有効性を判断することを特徴とする。   The invention according to claim 4 is the image processing device according to claim 2, wherein the pixel determining means includes a reference pixel determining unit that determines a reference pixel different from the predetermined pixel on the frame image. The predetermined pixel evaluation unit further includes a reference pixel time density change calculating unit that calculates a reference pixel time density change indicating a density change with respect to a time direction of a reference pixel value that is a pixel value of the reference pixel within the predetermined region period. (B1) at least one value among the maximum value and the minimum value in the reference pixel time density change, and (b2) at least one value among the maximum differential value and the minimum differential value in the reference pixel time density change, (B3) At least one value of a maximum value and a minimum value in the reference pixel time density change, and (b4) a frame image constituting the reference pixel time density change. Of these, the number of frame images in which the reference pixel value is equal to or greater than a third predetermined value, (b5) a pixel integral value obtained by integrating pixel values at the fourth predetermined value or more in the reference pixel time density change in the time direction, (b6) Of the determination elements (b1) to (b6) of the correlation value between the reference pixel time density change and the reference change model prepared in advance, the determination elements (a1) to (a6) used for calculating the predetermined pixel evaluation value ) And a first spatial correlation value that calculates a difference between the predetermined pixel evaluation value and the reference pixel evaluation value as a spatial correlation value. A spatial correlation value calculation unit that executes a calculation process, wherein the period evaluation result determination unit determines the validity of the period evaluation result based on the spatial correlation value.

また、請求項5の発明は、請求項2に記載の画像処理装置であって、前記画素決定手段は、前記フレーム画像上における前記所定画素とは異なる参照画素を決定する参照画素決定部、を更に含み、前記所定画素評価部は、前記所定領域周期内における前記参照画素値の時間方向に対する濃度変化を示す参照画素時間濃度変化を算出する参照画素時間濃度変化算出部と、前記所定画素時間濃度変化の周期的変化と前記参照画素時間濃度変化の周期的変化とを比較して得られる該所定画素値と該参照画素値との差の総和を空間相関値として算出する第2の空間相関値算出処理を実行する空間相関値算出部と、を更に含み、前記周期評価結果決定部は、前記空間相関値に基づいて前記周期評価結果の有効性を判断することを特徴とする。   The invention according to claim 5 is the image processing apparatus according to claim 2, wherein the pixel determining means includes a reference pixel determining unit that determines a reference pixel different from the predetermined pixel on the frame image. The predetermined pixel evaluation unit further includes a reference pixel time density change calculating unit that calculates a reference pixel time density change indicating a density change in the time direction of the reference pixel value within the predetermined region period; and the predetermined pixel time density A second spatial correlation value for calculating a sum of differences between the predetermined pixel value and the reference pixel value obtained by comparing a periodic change of the change and a periodic change of the reference pixel time density change as a spatial correlation value A spatial correlation value calculation unit that executes a calculation process, wherein the period evaluation result determination unit determines the validity of the period evaluation result based on the spatial correlation value.

また、請求項6の発明は、請求項4または請求項5に記載の画像処理装置であって、前記所定画素評価部は、前記空間相関値を得る前処理として、(c1)前記所定画素時間濃度変化の位相と前記参照画素時間濃度変化の位相とのズレを一致させる補正、(c2)心臓領域からの距離に応じて前記所定画素時間濃度変化及び/または前記参照画素時間濃度変化の位相及び振幅を調整する補正、の前記補正(c1)及び(c2)のうち、少なくとも1つの補正を前記参照画素時間濃度変化の算出後に行う位相振幅補正部、を更に含む。   The invention according to claim 6 is the image processing device according to claim 4 or 5, wherein the predetermined pixel evaluation unit performs (c1) the predetermined pixel time as preprocessing for obtaining the spatial correlation value. (C2) correction for matching the deviation between the phase of density change and the phase of change in reference pixel time density, and (c2) the phase change of the predetermined pixel time density and / or the phase of reference pixel time density according to the distance from the heart region A phase amplitude correction unit that performs at least one of the corrections (c1) and (c2) for adjusting the amplitude after calculating the reference pixel time density change is further included.

また、請求項7の発明は、請求項4に記載の画像処理装置であって、前記参照画素決定部は、前記所定画素との空間的な距離が所定の距離値以下となる画素を前記参照画素として決定することを特徴とする。   The invention according to claim 7 is the image processing apparatus according to claim 4, wherein the reference pixel determining unit refers to a pixel whose spatial distance to the predetermined pixel is equal to or smaller than a predetermined distance value. It is determined as a pixel.

また、請求項8の発明は、請求項4に記載の画像処理装置であって、前記参照画素決定部が前記参照画素の候補となる参照候補画素を複数決定し、前記所定画素評価部は、前記所定領域周期内における前記参照候補画素の画素値である参照候補画素値の時間方向に対する濃度変化を示す参照候補画素時間濃度変化を算出し、前記参照候補画素時間濃度変化のうち、最大値が所定の閾値以上を満足する変化を参照画素時間濃度変化として決定する。   The invention according to claim 8 is the image processing apparatus according to claim 4, wherein the reference pixel determination unit determines a plurality of reference candidate pixels that are candidates for the reference pixel, and the predetermined pixel evaluation unit includes: A reference candidate pixel time density change indicating a density change with respect to a time direction of a reference candidate pixel value which is a pixel value of the reference candidate pixel within the predetermined region period is calculated, and the maximum value among the reference candidate pixel time density changes is A change that satisfies a predetermined threshold or more is determined as a reference pixel time density change.

また、請求項9の発明は、請求項2に記載の画像処理装置であって、前記所定画素は複数の画素を含み、前記所定画素評価値は複数の所定画素評価値を含み、前記所定画素評価値算出部が前記複数の所定画素に対して前記複数の所定画素評価値を算出し、前記周期評価手段は、(d1)前記複数の所定画素評価値の総和、(d2)前記複数の所定画素評価値のうち、所定値以上の前記所定画素評価値の総和、(d3)前記複数の所定画素評価値のうちの最高値、(d4)前記複数の所定画素間における前記所定画素時間濃度変化の類似性、の前記統計値(d1)〜(d4)のうち、少なくとも1つの統計値に基づいて統計所定画素評価値を算出する統計所定画素評価値算出部、を更に含み、前記周期評価手段は、前記統計所定画素評価値を前記周期評価結果として決定する周期評価結果決定部を含む。   The invention according to claim 9 is the image processing apparatus according to claim 2, wherein the predetermined pixel includes a plurality of pixels, the predetermined pixel evaluation value includes a plurality of predetermined pixel evaluation values, and the predetermined pixel. The evaluation value calculation unit calculates the plurality of predetermined pixel evaluation values for the plurality of predetermined pixels, and the period evaluation unit includes (d1) a sum of the plurality of predetermined pixel evaluation values, and (d2) the plurality of predetermined pixels. Among pixel evaluation values, the sum of the predetermined pixel evaluation values greater than or equal to a predetermined value, (d3) the highest value among the plurality of predetermined pixel evaluation values, (d4) change in the predetermined pixel time density between the plurality of predetermined pixels A statistical predetermined pixel evaluation value calculation unit that calculates a statistical predetermined pixel evaluation value based on at least one statistical value among the statistical values (d1) to (d4) of the similarity The previous statistical predetermined pixel evaluation value Including periodic evaluation result determination unit which determines a period evaluation results.

また、請求項10の発明は、請求項4または請求項5に記載の画像処理装置であって、前記所定画素は複数の画素を含み、前記所定画素評価値は複数の所定画素評価値を含み、前記所定画素評価値算出部が前記複数の所定画素に対して前記複数の所定画素評価値を算出し、前記参照画素は前記複数の所定画素とは異なり、複数の所定画素に対応する複数の参照画素を含み、前記空間相関値算出部が前記複数の参照画素に対して前記第1あるいは第2の空間相関値算出処理を実行して前記複数の所定画素評価値に対応する前記複数の空間相関値を算出し、前記周期評価手段は、前記複数の所定画素評価値のうち、前記複数の空間相関値に基づき有効と判断された所定数の有効所定画素評価値あるいは所定数の有効所定画素に対し、(d1)前記所定数の有効所定画素評価値の総和、(d2)前記所定数の有効所定画素評価値のうち、所定値以上の前記所定画素評価値の総和、(d3)前記所定数の有効所定画素評価値のうちの最高値、(d4)前記所定数の有効所定画素間における前記所定画素時間濃度変化の類似性、の前記統計値(d1)〜(d4)のうち、少なくとも1つの統計値に基づいて統計所定画素評価値を算出する統計所定画素評価値算出部、を更に含み、前記周期評価手段は、前記統計所定画素評価値を前記周期評価結果として決定する周期評価結果決定部を含む。   The invention according to claim 10 is the image processing apparatus according to claim 4 or 5, wherein the predetermined pixel includes a plurality of pixels, and the predetermined pixel evaluation value includes a plurality of predetermined pixel evaluation values. The predetermined pixel evaluation value calculation unit calculates the plurality of predetermined pixel evaluation values for the plurality of predetermined pixels, and the reference pixel is different from the plurality of predetermined pixels and corresponds to a plurality of predetermined pixels. The plurality of spaces each including a reference pixel, wherein the spatial correlation value calculation unit executes the first or second spatial correlation value calculation processing on the plurality of reference pixels and corresponds to the plurality of predetermined pixel evaluation values. A correlation value is calculated, and the period evaluation means includes a predetermined number of effective predetermined pixel evaluation values or a predetermined number of effective predetermined pixels determined to be effective based on the plurality of spatial correlation values among the plurality of predetermined pixel evaluation values. (D1) A sum total of constant effective predetermined pixel evaluation values, (d2) of the predetermined number of effective predetermined pixel evaluation values, a total sum of the predetermined pixel evaluation values equal to or greater than a predetermined value, and (d3) the predetermined number of effective predetermined pixel evaluation values. A statistical value based on at least one statistical value among the statistical values (d1) to (d4) of the highest value among them, and (d4) similarity of the predetermined pixel time density change between the predetermined number of effective predetermined pixels. A statistical predetermined pixel evaluation value calculating unit that calculates a predetermined pixel evaluation value; and the cycle evaluation unit includes a cycle evaluation result determining unit that determines the statistical predetermined pixel evaluation value as the cycle evaluation result.

また、請求項11の発明は、請求項1ないし請求項10のうち、いずれか1項記載の画像処理装置であって、前記特定周期フレーム画像を含むフレーム画像に対して動画像解析を行い、該動画像解析結果を得る解析手段、を更に備える。   The invention according to claim 11 is the image processing device according to any one of claims 1 to 10, wherein the moving image analysis is performed on the frame image including the specific period frame image, Analyzing means for obtaining the moving image analysis result is further provided.

また、請求項12の発明は、請求項11に記載の画像処理装置であって、前記特定周期フレーム画像または前記動画像解析結果を表示する表示手段、を更に備える。   The invention according to claim 12 is the image processing apparatus according to claim 11, further comprising display means for displaying the specific period frame image or the moving image analysis result.

また、請求項13の発明は、請求項11に記載の画像処理装置であって、前記特定周期フレーム画像または前記動画像解析結果を記憶する記憶手段、を更に備える。   The invention according to claim 13 is the image processing apparatus according to claim 11, further comprising storage means for storing the specific periodic frame image or the moving image analysis result.

また、請求項14の発明は、請求項11に記載の画像処理装置であって、前記特定周期フレーム画像または前記動画像解析結果を通信する通信手段、を更に備える。   The invention according to claim 14 is the image processing apparatus according to claim 11, further comprising communication means for communicating the specific period frame image or the moving image analysis result.

また、請求項15の発明は、請求項1ないし請求項14のうち、いずれか1項記載の画像処理装置であって、前記所定領域は、血管領域を含む。   The invention of claim 15 is the image processing apparatus according to any one of claims 1 to 14, wherein the predetermined region includes a blood vessel region.

また、請求項16の発明は、請求項11に記載の画像処理装置であって、前記所定画素決定部が血管に沿って移動しながら所定画素を順次変更して決定し、変更された前記所定画素毎に得られた前記特定周期フレーム画像または前記動画像解析結果を隣接配置表示または重畳表示する表示手段、を更に備える。   The invention of claim 16 is the image processing apparatus according to claim 11, wherein the predetermined pixel determining unit sequentially changes and determines predetermined pixels while moving along a blood vessel, and the changed predetermined The image processing apparatus further includes display means for displaying the specific periodic frame image or the moving image analysis result obtained for each pixel adjacently or in a superimposed manner.

また、請求項17の発明は、請求項1ないし請求項16のうち、いずれか1項記載の画像処理装置であって、前記動画像の撮影中に前記身体が空間的に動く場合において、前記動画像取得手段にて取得された直後のフレーム画像間における各画素の空間的位置を時間方向に対応づける処理を行い、該処理後のフレーム画像を前記画素決定手段に出力する位置対応処理手段、を更に備える。   The invention of claim 17 is the image processing device according to any one of claims 1 to 16, wherein the body moves spatially during the shooting of the moving image. Position correspondence processing means for performing a process of associating the spatial position of each pixel between the frame images immediately after acquired by the moving image acquisition means in the time direction, and outputting the processed frame image to the pixel determination means; Is further provided.

更に、請求項18の発明は、画像処理装置に含まれるコンピュータによって実行されることにより、前記コンピュータを、請求項1から請求項17のうち、いずれか1項記載の画像処理装置として機能させるプログラムである。   The invention of claim 18 is a program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 17 when executed by a computer included in the image processing apparatus. It is.

請求項1ないし請求項17の発明によれば、所定領域の周期的な時間変化となる所定領域周期を検出し、複数のフレーム画像を該所定領域周期単位に分類し、所定画素値に基づき所定領域周期毎に評価し、周期評価結果を得る周期評価手段と、周期評価結果に基づいて特定の所定領域周期を選択し、該特定の所定領域周期に分類されたフレーム画像を特定周期フレーム画像として得る周期選択手段と、を備える。すなわち、所定画素値に基づき各所定領域周期を評価することで、診断に必要か否かの判断や重要な周期か否かの判断を行うことが可能となる。その結果、医者等の専門家が、複数のフレーム画像のうち特定周期フレーム画像を選択的に精査することにより、所定領域周期内の所定領域の状態変化に対して、動画診断を適切かつ効率的に行うことが可能となる。また、動画読影による診断時間の短縮化が図れ、ユーザにとっての利便性が向上する。   According to the first to seventeenth aspects of the present invention, a predetermined region period that is a periodic time change of the predetermined region is detected, a plurality of frame images are classified into the predetermined region period units, and the predetermined region value is determined based on the predetermined pixel value. A period evaluation unit that evaluates each area period and obtains a period evaluation result, selects a specific predetermined area period based on the period evaluation result, and sets a frame image classified into the specific predetermined area period as a specific period frame image Obtaining cycle selection means. That is, by evaluating each predetermined region period based on a predetermined pixel value, it is possible to determine whether it is necessary for diagnosis or whether it is an important period. As a result, an expert such as a doctor selectively examines a specific period frame image among a plurality of frame images, thereby appropriately and efficiently performing a video diagnosis for a state change of a predetermined area within a predetermined area period. Can be performed. Further, the diagnosis time can be shortened by moving image interpretation, and convenience for the user is improved.

請求項2の発明によれば、所定画素評価部は、所定画素時間濃度変化算出部と所定画素評価値算出部とを備えることにより、例えば、所定画素評価値として、判断要素(a1)における最大値または最大値と最小値との差を算出する場合は、所定画素時間濃度変化の最も重要な情報である波形ピークの高さを捉えることができる。また、判断要素(a2)(a3)における最大微分値、最小微分値、極値(極大値、極小値)に基づき所定画素評価値を算出する場合は、所定画素時間濃度変化の波形の形状を知ることが可能となる。さらに、判断要素(a6)における所定画素時間濃度変化と基準変化モデルとの相関値に基づき所定画素評価値を算出する場合は、所定画素時間濃度変化の全体的な表現能を求めることが可能となる。   According to the invention of claim 2, the predetermined pixel evaluation unit includes the predetermined pixel time density change calculation unit and the predetermined pixel evaluation value calculation unit, so that, for example, as the predetermined pixel evaluation value, the maximum in the determination element (a1) When calculating the value or the difference between the maximum value and the minimum value, the height of the waveform peak, which is the most important information of the predetermined pixel time density change, can be captured. Further, when the predetermined pixel evaluation value is calculated based on the maximum differential value, the minimum differential value, and the extreme value (maximum value and minimum value) in the determination elements (a2) and (a3), the waveform shape of the predetermined pixel time density change is changed. It becomes possible to know. Furthermore, when the predetermined pixel evaluation value is calculated based on the correlation value between the predetermined pixel time density change and the reference change model in the determination element (a6), it is possible to obtain the overall expressibility of the predetermined pixel time density change. Become.

このように、所定画素評価値を周期評価結果として決定することにより、診断に必要か否かの判断や重要な所定領域周期か否かの判断を適切に行うことが可能となる。   As described above, by determining the predetermined pixel evaluation value as the period evaluation result, it is possible to appropriately determine whether it is necessary for diagnosis or whether it is an important predetermined region period.

請求項3の発明によれば、基準変化モデルを空間濃度変化に基づいて作成することにより、対象画素時間濃度変化と基準変化モデルとの相関値を適切に求めることが可能となる。   According to the invention of claim 3, by creating the reference change model based on the spatial density change, it is possible to appropriately obtain the correlation value between the target pixel time density change and the reference change model.

請求項4または請求項5の発明によれば、周期評価結果決定部は空間相関値に基づいて周期評価結果の有効性を判断する。これにより、所定画素とその周囲の画素との相関を見ることでき、所定画素値がノイズなのか有意な信号なのかを判定することが可能となる。   According to the invention of claim 4 or claim 5, the cycle evaluation result determination unit determines the validity of the cycle evaluation result based on the spatial correlation value. Thereby, the correlation between the predetermined pixel and the surrounding pixels can be seen, and it can be determined whether the predetermined pixel value is noise or a significant signal.

請求項6の発明によれば、所定画素評価部は空間相関値を得る前処理として位相振幅補正部を更に含む。これにより、フレーム画像上における所定画素と参照画素との位置の違いによる位相や振幅の違いを補正し、所定画素時間濃度変化の周期的変化と参照画素時間濃度変化の周期的変化とを同位相内の変化として比較することが可能となる。その結果、周期評価手段は、周期評価結果の有効性を精度良く判断することができる。   According to the invention of claim 6, the predetermined pixel evaluation section further includes a phase amplitude correction section as preprocessing for obtaining a spatial correlation value. As a result, the difference in phase and amplitude due to the difference in position between the predetermined pixel and the reference pixel on the frame image is corrected, and the periodic change in the predetermined pixel time density change and the periodic change in the reference pixel time density change are in phase. It is possible to compare them as changes within. As a result, the cycle evaluation unit can accurately determine the effectiveness of the cycle evaluation result.

請求項7の発明によれば、所定画素との空間的な距離が所定距離値以下となる画素を参照画素として決定することにより、所定画素の信号と似通った信号の画素を参照画素として決定することが可能となる。これにより、周期評価結果の有効性の判断を行うに相応しい空間相関値が得られ、適切な評価を行うことが可能となる。   According to the seventh aspect of the present invention, a pixel having a signal similar to the signal of the predetermined pixel is determined as a reference pixel by determining a pixel whose spatial distance to the predetermined pixel is equal to or smaller than a predetermined distance value as a reference pixel. It becomes possible. As a result, a spatial correlation value suitable for determining the validity of the periodic evaluation result is obtained, and appropriate evaluation can be performed.

請求項8の発明によれば、参照候補画素時間濃度変化のうち、最大値が所定の閾値以上を満足する変化を参照画素時間濃度変化として決定することにより、複数の参照候補画素のうち、ノイズをもつ画素を除外して参照画素を決定することができるため、周期評価結果の有効性の判断を行うに相応しい空間相関値が得られ、適切な評価を行うことが可能となる。   According to the eighth aspect of the present invention, by determining, as the reference pixel time density change, a change in which the maximum value satisfies a predetermined threshold value or more among the reference candidate pixel time density changes, the noise among the plurality of reference candidate pixels is determined. Since the reference pixel can be determined by excluding the pixels having the symbol, it is possible to obtain a spatial correlation value suitable for determining the validity of the period evaluation result, and to perform appropriate evaluation.

請求項9の発明によれば、周期評価結果は統計所定画素評価値を含むことにより、フレーム画像上の広範囲領域から適切な周期選択の判定を行うことができる。すなわち、所定領域内の最も統計所定画素評価値の高い(周期的な波形特徴を捉えた)画素群に基づいて、周期評価結果を出力することが可能となる。   According to the ninth aspect of the present invention, the period evaluation result includes the statistical predetermined pixel evaluation value, so that an appropriate period selection can be determined from a wide area on the frame image. That is, it is possible to output a periodic evaluation result based on a pixel group having the highest statistical predetermined pixel evaluation value in the predetermined region (capturing a periodic waveform feature).

また、統計値(d2)所定値以上の所定画素評価値の総和、統計値(d3)所定画素評価値のうちの最高値、統計値(d4)複数の所定画素間における所定画素時間濃度変化の類似性、のうち、少なくとも1つの統計値に基づいて統計所定画素評価値を算出する場合、所定画素評価値の低いまたは所望の信号が存在しない領域(画素)を所定画素から外す判断を行うことができる。これにより、所定画素評価値の低いまたは所望の信号が存在しない領域(画素)が取り除かれるため、計算時間の短縮化が図れ、安定的かつ高速にノイズ除去が可能となる。   Further, the sum of the predetermined pixel evaluation values equal to or greater than the statistical value (d2), the statistical value (d3) the highest value among the predetermined pixel evaluation values, and the statistical value (d4) the change in the predetermined pixel time density between the predetermined pixels. When calculating a predetermined statistical pixel evaluation value based on at least one statistical value of similarity, a determination is made to exclude an area (pixel) having a low predetermined pixel evaluation value or a desired signal from a predetermined pixel. Can do. As a result, a region (pixel) having a low predetermined pixel evaluation value or no desired signal is removed, so that the calculation time can be shortened and noise can be stably and rapidly removed.

請求項10の発明によれば、複数の空間相関値に基づいて複数の所定画素評価値の有効性を判断する。これにより、複数の所定画素それぞれとその周囲の画素との相関を見ることでき、複数の所定画素値がノイズなのか有意な信号なのかを判定した後、有効と判断された所定数の有効所定画素評価値または所定数の有効所定画素に基づき、統計所定画素評価値を精度良く算出することが可能となる。   According to the invention of claim 10, the effectiveness of a plurality of predetermined pixel evaluation values is determined based on a plurality of spatial correlation values. As a result, the correlation between each of the plurality of predetermined pixels and the surrounding pixels can be seen, and after determining whether the plurality of predetermined pixel values are noise or significant signals, a predetermined number of effective predetermined pixels determined to be valid Based on the pixel evaluation value or a predetermined number of effective predetermined pixels, the statistical predetermined pixel evaluation value can be accurately calculated.

請求項11の発明によれば、特定周期フレーム画像に対してのみ動画像解析を行えば、解析処理時間の短縮化が図れる。   According to the invention of claim 11, if the moving image analysis is performed only on the specific periodic frame image, the analysis processing time can be shortened.

請求項12の発明によれば、特定周期フレーム画像のみまたは前記動画像解析結果のみを表示することにより、診断時間の短縮化が図れる。   According to the invention of claim 12, the diagnosis time can be shortened by displaying only the specific periodic frame image or only the moving image analysis result.

一方、特定の所定領域周期以外のフレーム画像を完全に削除するのではなく、特定の所定領域周期の特定周期フレーム画像のみを通常の速度で表示し、その他のフレーム画像は高速表示もしくは間引き表示を行うことが可能となる。また、特定の所定領域周期以外のフレーム画像においても動画像解析を行い、特定の所定領域周期の動画像解析結果のみを通常の速度で表示し、その他のフレーム画像の動画像解析結果は高速表示もしくは間引き表示を行うことが可能となる。   On the other hand, instead of completely deleting frame images other than a specific predetermined area period, only a specific period frame image of a specific predetermined area period is displayed at a normal speed, and other frame images are displayed at high speed or thinned out. Can be done. Also, moving image analysis is performed on frame images other than a specific predetermined region period, and only moving image analysis results of a specific predetermined region period are displayed at a normal speed, and moving image analysis results of other frame images are displayed at high speed. Alternatively, thinning display can be performed.

請求項13の発明によれば、特定周期フレーム画像のみまたは前記動画像解析結果のみを記憶することにより、記憶領域を小さくすることが可能となり、記憶容量を節約することが可能となる。   According to the invention of claim 13, by storing only the specific period frame image or only the moving image analysis result, the storage area can be reduced, and the storage capacity can be saved.

請求項14の発明によれば、特定周期フレーム画像のみまたは前記動画像解析結果のみを通信することにより、通信負荷を抑えることができるとともに、通信時間の短縮化が図れる。   According to the fourteenth aspect of the present invention, communication load can be suppressed and communication time can be shortened by communicating only a specific periodic frame image or only the moving image analysis result.

請求項15の発明によれば、所定領域が血管領域であることにより、所望の血管領域の所定画素における血流量、血液量等を描出した血流周期を選択することができる。   According to the fifteenth aspect of the present invention, since the predetermined region is a blood vessel region, it is possible to select a blood flow cycle in which a blood flow amount, a blood amount and the like in a predetermined pixel of the desired blood vessel region are depicted.

例えば、時間濃度変化の最大微分値から血流の急激な変化を、時間濃度変化の極大値からa波、v波等の小さな波形を捉えることが可能となる。また、上記の判断要素(a4)のフレーム画像数や判断要素(a5)の画素積分値を得ることにより血液量を評価することが可能となる。   For example, it is possible to capture a rapid change in blood flow from the maximum differential value of the time concentration change and a small waveform such as a wave or v wave from the maximum value of the time concentration change. In addition, the blood volume can be evaluated by obtaining the number of frame images of the determination element (a4) and the pixel integration value of the determination element (a5).

このため、所定画素の血流周期内の血流の状態変化に対して、効率的な医療診断が可能となる。また、血管領域における動画読影による診断時間の短縮化が図れ、ユーザにとっての利便性が向上する。   For this reason, an efficient medical diagnosis is possible with respect to a change in the state of blood flow within a blood flow cycle of a predetermined pixel. In addition, the diagnosis time can be shortened by moving image interpretation in the blood vessel region, and convenience for the user is improved.

請求項16の発明によれば、所定画素決定部が血管に沿って移動しながら所定画素を順次変更して決定し、変更された所定画素毎に得られた特定周期フレーム画像または動画像解析結果を隣接配置表示または重畳表示する。これにより、患部が特定できない場合においても、重畳表示により順次患部の探索が可能となり、効率的な医療診断が可能となる。   According to the invention of claim 16, the predetermined pixel determining unit sequentially changes and determines the predetermined pixels while moving along the blood vessel, and the specific periodic frame image or moving image analysis result obtained for each changed predetermined pixel Is displayed adjacently or superimposed. Thereby, even when the affected part cannot be specified, the affected part can be sequentially searched by the superimposed display, and an efficient medical diagnosis can be performed.

請求項17の発明によれば、動画像の撮影中に身体が空間的に動く場合において、動画像取得手段にて取得された直後のフレーム画像間における各画素の空間的位置を時間方向に対応づける処理を行い、該処理後のフレーム画像を画素決定手段に出力する位置対応処理手段を更に備える。すなわち、身体の空間的な動きを対応点探索処理等により補正することで、フレーム画像間における所定画素の時間方向の位置関係を補正することが可能となる。これにより、撮影中に身体が空間的に動いても、特定の所定領域周期内の所定領域の状態変化に対して、精度の良い医療診断が可能となる。   According to the invention of claim 17, in the case where the body moves spatially during moving image shooting, the spatial position of each pixel between the frame images immediately after being acquired by the moving image acquisition means is associated with the time direction. And a position correspondence processing unit that outputs the processed frame image to the pixel determination unit. That is, by correcting the spatial movement of the body by corresponding point search processing or the like, it is possible to correct the positional relationship of the predetermined pixels in the time direction between the frame images. Thereby, even if the body moves spatially during imaging, accurate medical diagnosis can be performed with respect to a state change of a predetermined region within a specific predetermined region period.

請求項18の発明によれば、請求項1から請求項17の発明と同じ効果を得ることができる。   According to the invention of claim 18, the same effect as that of the invention of claims 1 to 17 can be obtained.

第1実施形態に係る放射線動態画像撮影システム100の全体構成を示す図である。1 is a diagram illustrating an overall configuration of a radiation dynamic image capturing system 100 according to a first embodiment. 血流波形の一般的特性を例示する図である。It is a figure which illustrates the general characteristic of a blood-flow waveform. 血流波形と撮影タイミングとにおける問題点を説明する図である。It is a figure explaining the problem in a blood-flow waveform and imaging | photography timing. 第1実施形態に係る画像処理装置3の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the image processing apparatus 3 which concerns on 1st Embodiment. 対象領域内における対象画素の決定方法を例示する図である。It is a figure which illustrates the determination method of the object pixel in an object area | region. 複数のフレーム画像を対象画素の血流周期単位に分類する際の該対象画素の血流周期を血流波形で説明する図である。It is a figure explaining the blood-flow period of this object pixel at the time of classifying a plurality of frame images into the blood-flow period unit of an object pixel with a blood-flow waveform. 第1実施形態に係る周期評価部140の詳細を示すブロック図である。It is a block diagram which shows the detail of the period evaluation part 140 which concerns on 1st Embodiment. 対象画素時間濃度変化を例示する図である。It is a figure which illustrates object pixel time density change. 対象画素時間濃度変化及び判断要素を例示する図である。It is a figure which illustrates object pixel time density change and a judgment element. 特定の血流周期に分類された特定周期フレーム画像を選択することを説明する図である。It is a figure explaining selecting a specific cycle frame image classified into a specific blood flow cycle. 第1実施形態において実現される画像処理装置3の基本動作を説明するフローチャートである。It is a flowchart explaining the basic operation | movement of the image processing apparatus 3 implement | achieved in 1st Embodiment. 第2実施形態に係る画像処理装置3Aの機能構成を示すブロック図である。It is a block diagram which shows the function structure of 3 A of image processing apparatuses which concern on 2nd Embodiment. 第2実施形態に係る周期評価部140Aの詳細を示すブロック図である。It is a block diagram which shows the detail of 140 A of period evaluation parts which concern on 2nd Embodiment. 第2実施形態に係る周期評価部140A’の詳細を示すブロック図である。It is a block diagram which shows the detail of period evaluation part 140A 'concerning 2nd Embodiment. 参照画素の選択方法の変形例を説明するブロック図である。It is a block diagram explaining the modification of the selection method of a reference pixel. 対象画素時間濃度変化と参照画素時間濃度変化との位相関係を例示する図である。It is a figure which illustrates the phase relationship of object pixel time density change and reference pixel time density change. 第2実施形態において実現される画像処理装置3Aの基本動作を説明するフローチャートである。It is a flowchart explaining the basic operation | movement of 3 A of image processing apparatuses implement | achieved in 2nd Embodiment. 第3実施形態に係る画像処理装置3Bの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the image processing apparatus 3B which concerns on 3rd Embodiment. 複数の対象画素の決定方法を例示する図である。It is a figure which illustrates the determination method of a some target pixel. 第3実施形態に係る周期評価部140Bの詳細を示すブロック図である。It is a block diagram which shows the detail of the period evaluation part 140B which concerns on 3rd Embodiment. 第3実施形態において実現される画像処理装置3Bの基本動作を説明するフローチャートである。It is a flowchart explaining the basic operation | movement of the image processing apparatus 3B implement | achieved in 3rd Embodiment. 第4実施形態に係る画像処理装置3Cの機能構成を示すブロック図である。It is a block diagram which shows the function structure of 3 C of image processing apparatuses which concern on 4th Embodiment. 第4実施形態に係る周期評価部140Cの詳細を示すブロック図である。It is a block diagram which shows the detail of the period evaluation part 140C which concerns on 4th Embodiment. 第4実施形態に係る周期評価部140C’の詳細を示すブロック図である。It is a block diagram which shows the detail of the period evaluation part 140C 'concerning 4th Embodiment. 第4実施形態において実現される画像処理装置3Cの基本動作を説明するフローチャートである。It is a flowchart explaining basic operation | movement of 3 C of image processing apparatuses implement | achieved in 4th Embodiment. 第5実施形態に係る画像処理装置3Dの機能構成を示すブロック図である。It is a block diagram which shows the function structure of 3D of image processing apparatuses which concern on 5th Embodiment. 血流位相解析結果を例示する図である。It is a figure which illustrates a blood flow phase analysis result. 肺血管領域の血流信号値の時間変化を示す波形を例示する図である。It is a figure which illustrates the waveform which shows the time change of the blood-flow signal value of a pulmonary vascular region. 血管に沿って移動しながら対象画素を順次変更して決定する場合を説明する図である。It is a figure explaining the case where a target pixel is changed and determined sequentially, moving along a blood vessel. 第5実施形態において実現される画像処理装置3Dの基本動作を説明するフローチャートである。It is a flowchart explaining the basic operation | movement of 3D of image processing apparatuses implement | achieved in 5th Embodiment. 第6実施形態に係る画像処理装置3Eの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the image processing apparatus 3E which concerns on 6th Embodiment. 動画像の撮影中に身体が空間的に動く場合のフレーム画像間における各画素の空間的位置関係を説明する模式図である。It is a schematic diagram explaining the spatial positional relationship of each pixel between frame images when a body moves spatially during shooting of a moving image. 第6実施形態において実現される画像処理装置3Eの基本動作を説明するフローチャートである。It is a flowchart explaining the basic operation | movement of the image processing apparatus 3E implement | achieved in 6th Embodiment. 空間濃度変化に基づいた基準変化モデルNMの作成方法について説明する図である。It is a figure explaining the production method of the reference | standard change model NM based on a space density change.

<1.第1実施形態>
本発明の第1実施形態に係る放射線動態画像撮影システムについて以下説明する。
<1. First Embodiment>
The radiation dynamic imaging system according to the first embodiment of the present invention will be described below.

<1−1.放射線動態画像撮影システムの全体構成>
第1実施形態に係る放射線動態画像撮影システムは、人体または動物の身体を被写体として、被写体の対象領域(所定領域)の物理的状態が周期的に時間変化する状況に対して放射線画像の撮影を行う。
<1-1. Overall Configuration of Radiation Dynamic Imaging System>
The radiation dynamic image capturing system according to the first embodiment captures a radiographic image with respect to a situation in which the physical state of a target region (predetermined region) of a subject periodically changes over time using a human or animal body as a subject. Do.

図1は、第1実施形態に係る放射線動態画像撮影システムの全体構成を示す図である。図1に示すように、放射線動態画像撮影システム100は、撮影装置1と、撮影制御装置2(撮影用コンソール)と、画像処理装置3(診断用コンソール)とを備える。撮影装置1と、撮影制御装置2とが通信ケーブル等により接続され、撮影制御装置2と、画像処理装置3とがLAN(Local Area Network)等の通信ネットワークNTを介して接続されて構成されている。放射線動態画像撮影システム100を構成する各装置は、DICOM(Digital Image and Communications in Medicine)規格に準じており、各装置間の通信は、DICOMに則って行われる。   FIG. 1 is a diagram illustrating an overall configuration of a radiation dynamic image capturing system according to the first embodiment. As shown in FIG. 1, the radiation dynamic image capturing system 100 includes an image capturing device 1, an image capturing control device 2 (imaging console), and an image processing device 3 (diagnosis console). The imaging device 1 and the imaging control device 2 are connected by a communication cable or the like, and the imaging control device 2 and the image processing device 3 are connected via a communication network NT such as a LAN (Local Area Network). Yes. Each device constituting the radiation dynamic image capturing system 100 conforms to the DICOM (Digital Image and Communications in Medicine) standard, and communication between the devices is performed in accordance with DICOM.

<1−1−1.撮影装置1の構成>
撮影装置1は、例えば、X線撮影装置等によって構成され、呼吸に伴う被写体Mの胸部の動態を撮影する装置である。動態撮影は、被写体Mの胸部に対し、X線等の放射線を繰り返して照射しつつ、時間順時に複数の画像を取得することにより行う。この連続撮影により得られた一連の画像を動態画像(動画像)と呼ぶ。また、動態画像を構成する複数の画像のそれぞれをフレーム画像と呼ぶ。
<1-1-1. Configuration of photographing apparatus 1>
The imaging apparatus 1 is configured by, for example, an X-ray imaging apparatus or the like, and is an apparatus that captures the chest dynamics of the subject M accompanying breathing. Dynamic imaging is performed by acquiring a plurality of images in chronological order while repeatedly irradiating the chest of the subject M with radiation such as X-rays. A series of images obtained by this continuous shooting is called a dynamic image (moving image). Each of the plurality of images constituting the dynamic image is called a frame image.

図1に示すように、撮影装置1は、照射部(放射線源)11と、放射線照射制御装置12と、撮像部(放射線検出部)13と、読取制御装置14と、サイクル検出部15と、サイクル検出装置16とを備えて構成されている。   As shown in FIG. 1, the imaging device 1 includes an irradiation unit (radiation source) 11, a radiation irradiation control device 12, an imaging unit (radiation detection unit) 13, a reading control device 14, a cycle detection unit 15, The cycle detection device 16 is provided.

照射部11は、放射線照射制御装置12の制御に従って、被写体Mに対し放射線(X線)を照射する。図示例は人体用のシステムであり、被写体Mは検査対象者に相当する。以下では被写体Mを「被検者」とも呼ぶ。   The irradiation unit 11 irradiates the subject M with radiation (X-rays) under the control of the radiation irradiation control device 12. The illustrated example is a system for the human body, and the subject M corresponds to the person to be inspected. Hereinafter, the subject M is also referred to as a “subject”.

放射線照射制御装置12は、撮影制御装置2に接続されており、撮影制御装置2から入力された放射線照射条件に基づいて照射部11を制御して放射線撮影を行う。   The radiation irradiation control device 12 is connected to the imaging control device 2, and performs radiation imaging by controlling the irradiation unit 11 based on the radiation irradiation conditions input from the imaging control device 2.

撮像部13は、FPD等の半導体イメージセンサにより構成され、照射部11から照射されて被検者Mを透過した放射線を電気信号(画像情報)に変換する。   The imaging unit 13 is configured by a semiconductor image sensor such as an FPD, and converts the radiation irradiated from the irradiation unit 11 and transmitted through the subject M into an electrical signal (image information).

読取制御装置14は、撮影制御装置2に接続されている。読取制御装置14は、撮影制御装置2から入力された画像読取条件に基づいて撮像部13の各画素のスイッチング部を制御して、当該各画素に蓄積された電気信号の読み取りをスイッチングしていき、撮像部13に蓄積された電気信号を読み取ることにより、画像データを取得する。そして、読取制御装置14は、取得した画像データ(フレーム画像)を撮影制御装置2に出力する。画像読取条件は、例えば、フレームレート、フレーム間隔、画素サイズ、画像サイズ(マトリックスサイズ)等である。フレームレートは、1秒あたりに取得するフレーム画像数であり、パルスレートと一致している。フレーム間隔は、連続撮影において、1回のフレーム画像の取得動作開始から次のフレーム画像の取得動作開始までの時間であり、パルス間隔と一致している。   The reading control device 14 is connected to the imaging control device 2. The reading control device 14 controls the switching unit of each pixel of the imaging unit 13 based on the image reading condition input from the imaging control device 2, and switches the reading of the electric signal accumulated in each pixel. Then, the image data is acquired by reading the electrical signal accumulated in the imaging unit 13. Then, the reading control device 14 outputs the acquired image data (frame image) to the imaging control device 2. The image reading conditions are, for example, a frame rate, a frame interval, a pixel size, an image size (matrix size), and the like. The frame rate is the number of frame images acquired per second and matches the pulse rate. The frame interval is the time from the start of one frame image acquisition operation to the start of the next frame image acquisition operation in continuous shooting, and coincides with the pulse interval.

ここで、放射線照射制御装置12と読取制御装置14とは互いに接続され、互いに同期信号をやりとりして放射線照射動作と画像の読み取りの動作を同調させるようになっている。   Here, the radiation irradiation control device 12 and the reading control device 14 are connected to each other, and exchange synchronization signals to synchronize the radiation irradiation operation and the image reading operation.

サイクル検出装置16は、被検者Mの呼吸サイクルを検出して撮影制御装置2の制御部21に出力する。また、サイクル検出装置16は、被検者Mの呼吸サイクルを検出するサイクル検出センサ(不図示)と、サイクル検出センサにより検出された呼吸サイクルの時間を測定し制御部21に出力する計時部(不図示)とを備える。   The cycle detection device 16 detects the breathing cycle of the subject M and outputs it to the control unit 21 of the imaging control device 2. In addition, the cycle detection device 16 includes a cycle detection sensor (not shown) that detects the breathing cycle of the subject M, and a timing unit (not shown) that measures the time of the breathing cycle detected by the cycle detection sensor and outputs the time to the control unit 21. (Not shown).

<1−1−2.撮影制御装置2の構成>
撮影制御装置2は、放射線照射条件や画像読取条件を撮影装置1に出力して撮影装置1による放射線撮影及び放射線画像の読み取り動作を制御するとともに、撮影装置1により取得された動態画像を撮影技師によるポジショニングの確認や診断に適した画像であるか否かの確認用に表示する。
<1-1-2. Configuration of Shooting Control Device 2>
The imaging control device 2 outputs radiation irradiation conditions and image reading conditions to the imaging device 1 to control radiation imaging and radiographic image reading operations by the imaging device 1, and also captures dynamic images acquired by the imaging device 1. Displayed for confirmation of whether the image is suitable for confirmation of positioning or diagnosis.

図1に示すように、撮影制御装置2は、制御部21と、記憶部22と、操作部23と、表示部24と、通信部25とを備えて構成され、各部はバス26により接続されている。   As shown in FIG. 1, the photographing control device 2 includes a control unit 21, a storage unit 22, an operation unit 23, a display unit 24, and a communication unit 25, and each unit is connected by a bus 26. ing.

制御部21は、CPU(Central Processing Unit)やRAM(Random Access Memory)等により構成される。制御部21のCPUは、操作部23の操作に応じて、記憶部22に記憶されているシステムプログラムや各種処理プログラムを読み出してRAM内に展開し、展開されたプログラムに従って後述する撮影制御処理を始めとする各種処理を実行し、撮影制御装置2各部の動作や、撮影装置1の動作を集中制御する。   The control unit 21 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and the like. The CPU of the control unit 21 reads the system program and various processing programs stored in the storage unit 22 in accordance with the operation of the operation unit 23, expands them in the RAM, and performs shooting control processing described later according to the expanded programs. Various processes including the beginning are executed to centrally control the operation of each part of the imaging control device 2 and the operation of the imaging device 1.

記憶部22は、不揮発性の半導体メモリやハードディスク等により構成される。記憶部22は、制御部21で実行される各種プログラムやプログラムにより処理の実行に必要なパラメータ、或いは処理結果等のデータを記憶する。   The storage unit 22 is configured by a nonvolatile semiconductor memory, a hard disk, or the like. The storage unit 22 stores various programs executed by the control unit 21 and data such as parameters necessary for execution of processing by the programs or processing results.

操作部23は、カーソルキー、数字入力キー、及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスとを備えて構成され、キーボードに対するキー操作、マウス操作、あるいは、タッチパネルを介して入力された指示信号を制御部21に出力する。   The operation unit 23 includes a keyboard having cursor keys, numeric input keys, various function keys, and the like, and a pointing device such as a mouse. The operation unit 23 is input via a keyboard key operation, a mouse operation, or a touch panel. The indicated instruction signal is output to the control unit 21.

表示部24は、カラーLCD(Liquid Crystal Display)等のモニタにより構成され、制御部21から入力される表示信号の指示に従って、操作部23からの入力指示やデータ等を表示する。   The display unit 24 is configured by a monitor such as a color LCD (Liquid Crystal Display), and displays an input instruction, data, and the like from the operation unit 23 in accordance with an instruction of a display signal input from the control unit 21.

通信部25は、LANアダプタやモデムやTA(Terminal Adapter)等を備え、通信ネットワークNTに接続された各装置との間のデータ送受信を制御する。   The communication unit 25 includes a LAN adapter, a modem, a TA (Terminal Adapter), and the like, and controls data transmission / reception with each device connected to the communication network NT.

<1−1−3.画像処理装置3の構成>
画像処理装置3は、撮像装置1から送信された動態画像を、撮影制御装置2を介して取得し、医師等が読影診断するための画像を表示する。
<1-1-3. Configuration of Image Processing Device 3>
The image processing device 3 acquires the dynamic image transmitted from the imaging device 1 via the imaging control device 2 and displays an image for a doctor or the like to perform an interpretation diagnosis.

図1に示すように、画像処理装置3は、制御部31と、記憶部32と、操作部33と、表示部34と、通信部35と、解析部36とを備えて構成され、各部はバス37により接続されている。   As shown in FIG. 1, the image processing apparatus 3 includes a control unit 31, a storage unit 32, an operation unit 33, a display unit 34, a communication unit 35, and an analysis unit 36. They are connected by a bus 37.

制御部31は、CPU、RAM等により構成される。制御部31のCPUは、操作部33の操作に応じて、記憶部32に記憶されているシステムプログラムや、各種処理プログラムを読み出してRAM内に展開し、展開されたプログラムに従って各種処理を実行し、画像処理装置3各部の動作を集中制御する(詳細は後述する)。   The control unit 31 includes a CPU, a RAM, and the like. The CPU of the control unit 31 reads the system program and various processing programs stored in the storage unit 32 in accordance with the operation of the operation unit 33, expands them in the RAM, and executes various processes according to the expanded programs. The operation of each part of the image processing apparatus 3 is centrally controlled (details will be described later).

記憶部32は、不揮発性の半導体メモリやハードディスク等により構成される。記憶部32は、制御部31で実行される各種プログラムやプログラムにより処理の実行に必要なパラメータ、或いは処理結果等のデータを記憶する。例えば、記憶部32は、後述する画像処理を実行するための画像処理プログラムを記憶している。これらの各種プログラムは、読取可能なプログラムコードの形態で格納され、制御部31は、当該プログラムコードに従った動作を逐次実行する。   The storage unit 32 is configured by a nonvolatile semiconductor memory, a hard disk, or the like. The storage unit 32 stores various programs executed by the control unit 31 and data such as parameters necessary for execution of processing by the programs or processing results. For example, the storage unit 32 stores an image processing program for executing image processing to be described later. These various programs are stored in the form of readable program codes, and the control unit 31 sequentially executes operations according to the program codes.

操作部33は、カーソルキー、数字入力キー、及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスを備えて構成され、キーボードに対するキー操作やマウス操作、あるいは、タッチパネルを介して入力された指示信号を制御部31に出力する。   The operation unit 33 includes a keyboard having cursor keys, numeric input keys, various function keys, and the like, and a pointing device such as a mouse. The operation unit 33 is input via a keyboard key operation, a mouse operation, or a touch panel. The instruction signal is output to the control unit 31.

表示部34は、カラーLCD等のモニタにより構成され、制御部31から入力される表示信号の指示に従って、操作部33からの入力指示、データ、及び、後述する表示用画像を表示する。   The display unit 34 is configured by a monitor such as a color LCD, and displays an input instruction from the operation unit 33, data, and a display image to be described later in accordance with an instruction of a display signal input from the control unit 31.

通信部35は、LANアダプタやモデムやTA等を備え、通信ネットワークNTに接続された各装置との間のデータ送受信を制御する。   The communication unit 35 includes a LAN adapter, a modem, a TA, and the like, and controls data transmission / reception with each device connected to the communication network NT.

解析部36は、読取制御装置14から出力された画像データ又は記憶部32に一旦記憶された画像データに対して、例えば、後述で詳述する血流位相解析(図27及び図28参照)のような画像解析を実施する。そして、解析部36による解析の結果生成された画像情報を記憶部32、表示部34、通信部35に出力する。なお、第1実施形態に係る画像処理装置3では、解析部36を備えることが必須の構成ではない。   The analysis unit 36 performs, for example, blood flow phase analysis (see FIGS. 27 and 28) described in detail later on the image data output from the reading control device 14 or image data temporarily stored in the storage unit 32. Perform such image analysis. Then, the image information generated as a result of analysis by the analysis unit 36 is output to the storage unit 32, the display unit 34, and the communication unit 35. In the image processing apparatus 3 according to the first embodiment, it is not essential to include the analysis unit 36.

<1−2.血流波形の一般的特性と従来の動画診断における問題点>
この実施形態における画像処理装置3の詳細を説明する前提として、血流波形の一般的特性と従来技術における動画診断の問題点とを説明しておく。
<1-2. General characteristics of blood flow waveform and problems in conventional video diagnosis>
As a premise for explaining the details of the image processing apparatus 3 in this embodiment, general characteristics of the blood flow waveform and problems of the moving image diagnosis in the prior art will be described.

図2は、1周期分の血流波形の一般的特性を例示する図であり、横軸は時間方向を示し、縦軸は濃淡を表す画素値を示す。なお、画素値の時系列波形(血流波形)については、図2を含め全図において、実際検出された画素値の時系列波形を反転させて示している。このため、心臓の拍動に応じて心臓から肺野内に血液が拍出されることでX線の減衰量が増加し実際の画素値は減少するが、以下の全図においては、増加するように示されている。   FIG. 2 is a diagram illustrating a general characteristic of a blood flow waveform for one cycle, where the horizontal axis indicates the time direction, and the vertical axis indicates pixel values representing light and shade. Note that the time-series waveform of pixel values (blood flow waveform) is shown by inverting the time-series waveform of pixel values actually detected in all the drawings including FIG. For this reason, the amount of X-ray attenuation increases and the actual pixel value decreases as blood is pumped from the heart into the lung field in accordance with the heartbeat, but it increases in all the following figures. Is shown in

図2で示されるように、1周期分の血流波形は、ピークB1、ピークレンジB2及びピークレンジの積分値(一定値v0以上の画素値を時間方向に積分した値)B3で示される特徴を有する。また、これらの特徴は血流動態を定量的に表す指標であり、ピークB1は血流量(血流振幅)を示し、ピークレンジB2は通過時間(血流通過時間)を示し、ピークレンジの積分値B3は血液量を示す。   As shown in FIG. 2, the blood flow waveform for one cycle is characterized by a peak B1, a peak range B2, and an integrated value of the peak range (a value obtained by integrating pixel values of a certain value v0 or more in the time direction) B3. Have These features are indexes that quantitatively represent blood flow dynamics. Peak B1 indicates blood flow (blood flow amplitude), peak range B2 indicates passage time (blood flow passage time), and integration of the peak range. The value B3 indicates the blood volume.

図3は、ピークB1周辺に特化した血流波形とそれに同期した撮影タイミングとを示す図である。なお、撮影タイミングの間隔は、動画像に含まれるフレーム撮影周期FPに相当する。   FIG. 3 is a diagram showing a blood flow waveform specialized around the peak B1 and imaging timing synchronized therewith. Note that the shooting timing interval corresponds to the frame shooting period FP included in the moving image.

例えば、医者等の専門家が血流量(血流振幅)を動画より診断する場合、ピークB1を撮影タイミングとして含んでいる必要がある。しかしながら、図3で示されるような場合では、撮影タイミングが血流波形のピークB1にはなくピークB1の周辺の位置ts1,ts2にあるため、血流量(血流振幅)を正しく検出することができず、適切な動態診断を行うことができない。また、撮影タイミングが所望の要件を満足する周期(フレーム画像)を探し出す作業は時間と手間を要する。   For example, when an expert such as a doctor diagnoses a blood flow volume (blood flow amplitude) from a moving image, the peak B1 needs to be included as an imaging timing. However, in the case as shown in FIG. 3, since the imaging timing is not at the peak B1 of the blood flow waveform but at positions ts1 and ts2 around the peak B1, it is possible to correctly detect the blood flow (blood flow amplitude). It is not possible to perform an appropriate dynamic diagnosis. Further, it takes time and effort to find a period (frame image) in which the photographing timing satisfies a desired requirement.

このような背景の下、ピークB1、ピークレンジB2及びピークレンジの積分値B3といったパラメータをフレーム画像がより描出している特定の周期に対して、適切に、血流量、血液量、血流通過時間を検出した上で、動態診断を行うことが望まれている。   Under such circumstances, blood flow volume, blood volume, and blood flow passage are appropriately applied to a specific cycle in which parameters such as peak B1, peak range B2, and integrated value B3 of the peak range are depicted in the frame image. It is desired to perform dynamic diagnosis after detecting time.

そこで、本発明では、該特定の周期に対応するフレーム画像を選択することにより、該周期内の対象領域の状態変化に対して、動態診断を適切かつ効率的に行うことを可能とする。   Therefore, in the present invention, by selecting a frame image corresponding to the specific period, it is possible to appropriately and efficiently perform a dynamic diagnosis with respect to a state change of a target region within the period.

以下では、第1実施形態における画像処理装置3の詳細について説明する。   Below, the detail of the image processing apparatus 3 in 1st Embodiment is demonstrated.

<1−3.画像処理装置3の具体的構成>
本発明の第1実施形態における放射線動態画像撮影システム100の画像処理装置3は、複数のフレーム画像のうち特定の周期に対するフレーム画像を選択することにより、動画診断を適切かつ効率的に行うことが可能となる。
<1-3. Specific Configuration of Image Processing Device 3>
The image processing device 3 of the radiation dynamic image capturing system 100 according to the first embodiment of the present invention can perform moving image diagnosis appropriately and efficiently by selecting a frame image for a specific period from among a plurality of frame images. It becomes possible.

以下では、画像処理装置3で実現される機能的な構成について説明する。   Below, the functional structure implement | achieved by the image processing apparatus 3 is demonstrated.

<1−3−1.画像処理装置3の機能構成>
図4は、放射線動態画像撮影システム100における画像処理装置3において、CPU等が各種プログラムに従って動作することにより制御部31で実現される機能構成を他の構成とともに示す図である。この実施形態の画像処理装置3は、主として心臓および両肺を含む胸部が撮影された動態画像を使用する。
<1-3-1. Functional configuration of image processing apparatus 3>
FIG. 4 is a diagram showing a functional configuration realized by the control unit 31 together with other configurations in the image processing apparatus 3 in the radiation dynamic image capturing system 100 when the CPU or the like operates according to various programs. The image processing apparatus 3 of this embodiment uses a dynamic image in which a chest including mainly the heart and both lungs is photographed.

制御部31では、主に、動画像取得部110と、画素決定部120と、周期分類部130と、周期評価部140と、周期選択部150と、から構成される。   The control unit 31 mainly includes a moving image acquisition unit 110, a pixel determination unit 120, a period classification unit 130, a period evaluation unit 140, and a period selection unit 150.

以下では、図4で示されたような制御部31の機能的な構成が、あらかじめインストールされたプログラムの実行によって、実現されるものとして説明するが、専用のハードウエア構成で実現されても良い。   Hereinafter, the functional configuration of the control unit 31 as illustrated in FIG. 4 will be described as being realized by executing a program installed in advance, but may be realized with a dedicated hardware configuration. .

以降、動画像取得部110、画素決定部120、周期分類部130、周期評価部140、周期選択部150が行う各処理についての具体的内容を、図4を参照しながら順次説明する。   Hereinafter, specific contents of each process performed by the moving image acquisition unit 110, the pixel determination unit 120, the period classification unit 130, the period evaluation unit 140, and the period selection unit 150 will be sequentially described with reference to FIG.

<1−3−1−1.動画像取得部110>
動画像取得部110では、撮像装置1の読取制御装置14によって撮影された人体または動物の身体内部における対象領域の物理的状態が周期的に時間変化する状態をフレーム撮影周期毎に捉えた複数のフレーム画像から構成される動画像を取得する。本実施形態では、対象領域は血管領域として説明する。また、ここでいう「物理的状態」という用語は、血流の濃度(血流の有無)などを意味する内容で用いている。
<1-3-1-1. Moving Image Acquisition Unit 110>
In the moving image acquisition unit 110, a plurality of states in which a physical state of a target region in a human or animal body photographed by the reading control device 14 of the imaging device 1 is periodically changed with time are captured for each frame photographing cycle. A moving image composed of frame images is acquired. In the present embodiment, the target region is described as a blood vessel region. In addition, the term “physical state” here is used to indicate the concentration of blood flow (the presence or absence of blood flow).

なお、図4は、撮像装置1と画像処理装置3との間に、撮影制御装置2が介在し、撮影制御装置2の記憶部22に記憶された検出データ(フレーム画像)が通信部25を介して、画像処理装置3の通信部35に出力される。   In FIG. 4, the imaging control device 2 is interposed between the imaging device 1 and the image processing device 3, and the detection data (frame image) stored in the storage unit 22 of the imaging control device 2 passes through the communication unit 25. To the communication unit 35 of the image processing apparatus 3.

<1−3−1−2.画素決定部120>
画素決定部120では、複数のフレーム画像のそれぞれの血管領域(対象領域)内における対象画素(所定画素)を決定する対象画素決定部(所定画素決定部)を備える。
<1-3-1-2. Pixel Determination Unit 120>
The pixel determining unit 120 includes a target pixel determining unit (predetermined pixel determining unit) that determines a target pixel (predetermined pixel) in each blood vessel region (target region) of a plurality of frame images.

対象領域および対象画素の決定方法は大別すると、手動、自動、手動アシストの3種類が挙げられる。(i)手動の場合は、医者等の専門家が指定した対象領域について対象画素を決定するとする。(ii)自動の場合は、診断情報から患部として抽出された位置に基づいて決定する。ここで、診断情報は、患者を現在診断した結果のカルテ情報などから選択してもよく、過去に患部であった場所を使っても良い。(iii)手動アシストの場合は、手動で指定した対象領域に対して、必要な範囲に拡大もしくは縮小することで、対象画素を決定する。   The method for determining the target area and the target pixel can be broadly classified into three types: manual, automatic, and manual assist. (I) In the case of manual operation, it is assumed that the target pixel is determined for the target region designated by an expert such as a doctor. (Ii) In the case of automatic, it determines based on the position extracted as an affected part from diagnostic information. Here, the diagnosis information may be selected from medical record information obtained as a result of the current diagnosis of the patient, or a place that was an affected part in the past may be used. (Iii) In the case of manual assist, the target pixel is determined by enlarging or reducing the manually specified target area to a necessary range.

図5は、自動の場合を例にして、対象領域内における対象画素の決定方法を説明する図である。図5で示されるように、診断情報を過去の解析画像IAから患部として診断された対象領域TAに基づいて、フレーム画像IG上の対象領域TAとする。そして、対象領域TA内において対象画素TPを決定する。   FIG. 5 is a diagram for explaining a method of determining a target pixel in the target region, taking the automatic case as an example. As shown in FIG. 5, the diagnosis information is set as a target area TA on the frame image IG based on the target area TA diagnosed as a diseased part from the past analysis image IA. Then, the target pixel TP is determined in the target area TA.

<1−3−1−3.周期分類部130>
周期分類部130では、血管領域(対象領域)の周期的な時間変化となり、上記のフレーム撮影周期FP(図3参照)とは独立した血流周期(対象領域周期、具体的には対象画素TPの血流周期)を検出し、複数のフレーム画像を該対象画素TPの血流周期(対象領域周期)単位毎に分類する。ここにおける時間変化の検出とは、血流の濃度などの物理的状態についての時間的変化の検出を意味する。
<1-3-1-3. Period classification unit 130>
In the period classification unit 130, the blood vessel area (target area) changes periodically in time, and the blood flow period (target area period, specifically, the target pixel TP) is independent of the frame imaging period FP (see FIG. 3). And the plurality of frame images are classified for each blood flow cycle (target region cycle) of the target pixel TP. The detection of a temporal change here means detection of a temporal change in a physical state such as a blood flow concentration.

すなわち、周期分類部130では、被検者Mの血管領域の周期的な時間変化、すなわち、対象領域の血流の位相情報や周波数(周期)情報を検出した後、対象画素TPの血流周期単位で複数のフレーム画像IGを分類する。図6は、複数のフレーム画像IGを血流周期単位に分類する際の該血流周期を血流波形で説明する図である。図6で示されるように、後述する方法で検出された被検者Mの血管領域の周期的な時間変化TF1により血流周期PC1〜PC3を検出し、該血流周期PC1〜PC3毎に複数のフレーム画像IGを分類する。ここで、血流周期PC1〜PC3の決定方法は、例えば、時間変化TF1の最高値HPを基準に立ち上がりを探索して決定する方法等が採用可能である。   That is, the period classification unit 130 detects the periodic time change of the blood vessel region of the subject M, that is, the blood flow phase information and frequency (cycle) information of the target region, and then the blood flow cycle of the target pixel TP. A plurality of frame images IG are classified in units. FIG. 6 is a diagram for explaining the blood flow cycle when the plurality of frame images IG are classified into blood flow cycle units using a blood flow waveform. As shown in FIG. 6, blood flow cycles PC1 to PC3 are detected based on a periodic time change TF1 of the blood vessel region of the subject M detected by a method described later, and a plurality of blood flow cycles PC1 to PC3 are detected for each blood flow cycle PC1 to PC3. The frame image IG is classified. Here, as a method for determining the blood flow periods PC1 to PC3, for example, a method of searching for and determining the rise based on the maximum value HP of the time change TF1 can be employed.

被検者Mの血管領域の周期的な時間変化TF1(血流による位相情報)の算出方法として、血管領域の時間濃度変化により求める方法がある。   As a method of calculating the periodic time change TF1 (phase information due to blood flow) of the blood vessel region of the subject M, there is a method of obtaining it by the time concentration change of the blood vessel region.

血管領域の時間濃度変化として、対象となる血管領域の画素のうち、信号の明確な画素における時間濃度変化を用いる。すなわち、周期分類部130は、動画像を構成する複数のフレーム画像IG上の該画素の時間濃度変化を算出し、対象領域の時間濃度変化とする。画素の時間濃度変化を算出する方法としては、例えば、フレーム画像IG間の差分をとることで対象となる血管領域における信号の明確な画素の濃度変化を血流情報とすることができる。また、特開2011−131041号公報に記載されているような血流動態解析手法等を採用することもできる。   As the time density change of the blood vessel region, the time density change in a pixel with a clear signal among the pixels of the target blood vessel region is used. That is, the period classification unit 130 calculates the time density change of the pixel on the plurality of frame images IG constituting the moving image and sets it as the time density change of the target region. As a method for calculating the temporal density change of the pixels, for example, by taking the difference between the frame images IG, the density change of the clear pixel of the signal in the target blood vessel region can be used as the blood flow information. In addition, a blood flow dynamic analysis method described in JP2011-131041A can be employed.

以上のように、周期分類部130では、動画像で捉えられた血管領域における画素の時間濃度変化に基づき、対象領域の時間濃度変化とすることで、対象画素TPの血流周期を自動的に検出可能である。   As described above, the period classification unit 130 automatically sets the blood flow period of the target pixel TP by setting the time density change of the target region based on the time density change of the pixel in the blood vessel region captured in the moving image. It can be detected.

一方、被検者Mの対象領域の血管領域における血流周期を用いずに、心臓の周期的な時間変化TF1(心拍による位相情報)を検出し、心拍周期を用いる方法もある。心拍周期抽出の方法としては、大別すると2つの方法がある。   On the other hand, there is also a method of detecting the periodic time change TF1 (phase information by heartbeat) of the heart and using the heartbeat cycle without using the blood flow cycle in the blood vessel region of the subject region of the subject M. As a method for extracting a heartbeat cycle, there are roughly two methods.

第1の心拍周期抽出方法は、心電計を用いる場合である。例えば、図1の撮影装置1による撮影動作を同期させて、被写体Mの心拍の位相(心臓の周期的な時間変化TF1)を心電計より検出することで、心拍周期を抽出することができる。   The first heart cycle extraction method is a case where an electrocardiograph is used. For example, the heartbeat period can be extracted by synchronizing the photographing operation by the photographing apparatus 1 of FIG. 1 and detecting the heartbeat phase (periodic time change TF1 of the heart) of the subject M from the electrocardiograph. .

第2の心拍周期抽出方法は、動画像取得部110によって取得された撮影画像を用いて、心臓壁の動き量を算出することで、心拍情報とする方法である。例えば、心臓の輪郭を検出する手法(例えば、"Image feature analysis and computer-aided diagnosis in digital radiography: Automated analysis of sizes of heart and lung in chest images", Nobuyuki Nakamori et al., Medical Physics, Volume 17, Issue 3, May,1990, pp.342-350.等参照)等を採用し、心臓の周期的な時間変化TF1を検出することで、心拍周期を抽出することができる。   The second heartbeat period extraction method is a method for obtaining heartbeat information by calculating the amount of motion of the heart wall using the captured image acquired by the moving image acquisition unit 110. For example, a method for detecting the outline of the heart (eg, “Image feature analysis and computer-aided diagnosis in digital radiography: Automated analysis of sizes of heart and lung in chest images”, Nobuyuki Nakamori et al., Medical Physics, Volume 17, (See Issue 3, May, 1990, pp. 342-350, etc.) and the like, and by detecting the periodic time change TF1 of the heart, the heartbeat period can be extracted.

<1−3−1−4.周期評価部140>
周期評価部140では、対象画素TPの画素値である対象画素値に基づき血流周期PC毎に評価する対象画素評価部240を備え、血流周期PC毎に対象画素の周期評価結果CRを得る(図4参照)。
<1-3-1-4. Period Evaluation Unit 140>
The cycle evaluation unit 140 includes a target pixel evaluation unit 240 that evaluates for each blood flow cycle PC based on the target pixel value that is the pixel value of the target pixel TP, and obtains a cycle evaluation result CR of the target pixel for each blood flow cycle PC. (See FIG. 4).

図7は、第1実施形態に係る周期評価部140(図4参照)の詳細を示すブロック図である。図7で示されるように、周期評価部140は、対象画素評価部240と周期評価結果決定部340とを備えて構成される。   FIG. 7 is a block diagram showing details of the period evaluation unit 140 (see FIG. 4) according to the first embodiment. As illustrated in FIG. 7, the period evaluation unit 140 includes a target pixel evaluation unit 240 and a period evaluation result determination unit 340.

<1−3−1−4−1.対象画素評価部240>
対象画素評価部240は、対象画素時間濃度変化算出部241と対象画素評価値算出部242とを備えて構成される。
<1-3-1-4-1. Target Pixel Evaluation Unit 240>
The target pixel evaluation unit 240 includes a target pixel time density change calculation unit 241 and a target pixel evaluation value calculation unit 242.

<1−3−1−4−1−1.対象画素時間濃度変化算出部241>
対象画素時間濃度変化算出部241では、血流周期PC内における対象画素値の時間方向に対する濃度変化を示す対象画素時間濃度変化を算出する。対象画素時間濃度変化の算出方法は、対象画素TPに対して先述の時間濃度変化と同様の方法で算出可能である。
<1-3-1-4-1-1. Target Pixel Time Density Change Calculation Unit 241>
The target pixel time density change calculation unit 241 calculates a target pixel time density change indicating a density change in the time direction of the target pixel value in the blood flow cycle PC. The calculation method of the target pixel time density change can be calculated by the same method as the above-described time density change for the target pixel TP.

図8は、対象画素時間濃度変化を例示する図であり、横軸が撮影時間を示し、縦軸が画素値を示す。なお、点線波形は基準変化モデルNMを示し、破線の縦線間隔はフレーム撮影周期FPを示す。ここで、基準変化モデルNMとは、医学的な先見的知識から算出された理想形状モデルであり、予め作成されている。作成方法としては、先述の時間濃度変化と同様に、フレーム動画IG上の血管(対象)領域における信号値が明確な画素から求めた時間濃度変化により作成する方法等が考えられる。   FIG. 8 is a diagram illustrating a change in the target pixel time density, in which the horizontal axis indicates the shooting time and the vertical axis indicates the pixel value. The dotted line waveform indicates the reference change model NM, and the dotted vertical line interval indicates the frame shooting period FP. Here, the reference change model NM is an ideal shape model calculated from medical a priori knowledge, and is created in advance. As a creation method, a method of creating by a time density change obtained from a pixel having a clear signal value in a blood vessel (target) region on the frame moving image IG can be considered as in the case of the time density change described above.

また、基準変化モデルNMの他の作成方法としては、空間濃度変化に基づいて作成する方法もある。ここでいう空間濃度変化とは、フレーム画像IG上の血管領域における血流方向に沿った複数の画素の画素値の空間方向における濃度変化を示す。   As another method for creating the reference change model NM, there is a method for creating it based on a change in the spatial density. The spatial density change here means a density change in the spatial direction of the pixel values of a plurality of pixels along the blood flow direction in the blood vessel region on the frame image IG.

図34は、空間濃度変化に基づいた基準変化モデルNMの作成方法について説明する図である。図34(a)はフレーム画像IG上の対象領域TA(対象画素TP)と血管領域RGとの位置関係を例示し、図34(b)は血管領域RG内における血流方向AR2に沿った複数の画素rg1〜rg4を例示し、図34(c)の左図は複数の画素rg1〜rg4から生成された空間濃度変化NSを例示し、右図は作成された基準変化モデルNMを例示する。なお、図34(c)の左図の横軸は空間方向(血流方向AR2)を示し、縦軸は画素値(血流値)を示す。また、図34(c)の右図の横軸は時間方向を示し、縦軸は画素値(血流値)を示す。   FIG. 34 is a diagram for explaining a method of creating a reference change model NM based on a change in spatial density. FIG. 34A illustrates the positional relationship between the target area TA (target pixel TP) on the frame image IG and the vascular area RG, and FIG. 34B illustrates a plurality of the blood flow directions AR2 in the vascular area RG. 34, the left diagram of FIG. 34C illustrates the spatial density change NS generated from the plurality of pixels rg1 to rg4, and the right diagram illustrates the created reference change model NM. In addition, the horizontal axis of the left figure of FIG.34 (c) shows a spatial direction (blood flow direction AR2), and a vertical axis | shaft shows a pixel value (blood flow value). In addition, the horizontal axis of the right diagram in FIG. 34C indicates the time direction, and the vertical axis indicates the pixel value (blood flow value).

図34で示されるように、空間濃度変化NSは、フレーム画像IG上の信号値が明確である、例えば、心臓付近に位置する血管領域RGにおける血流方向に沿った複数の画素rg1〜rg4の空間方向における濃度変化を指す。具体的に、空間方向における濃度変化は、複数の画素rg1〜rg4それぞれの濃度または濃度の差分値(血流値)を算出することで求められる(図34(c)の左図参照)。そして、血流方向AR2に沿って求められた空間濃度変化NSの縦軸、横軸の倍率を所定の方法の下で変換することで、対象領域TA(対象画素TP)における推定の時間濃度変化が得られ、これが基準変化モデルNMとなる(図34(c)の右図参照)。具体的には、特開2011−131041号公報に記載されているような血流動態解析手法等を用いて作成することができる。   As shown in FIG. 34, the spatial density change NS has a clear signal value on the frame image IG. For example, a plurality of pixels rg1 to rg4 along the blood flow direction in the blood vessel region RG located near the heart. Refers to changes in density in the spatial direction. Specifically, the change in density in the spatial direction is obtained by calculating the density of each of the plurality of pixels rg1 to rg4 or the difference value (blood flow value) of the density (see the left figure in FIG. 34C). Then, the estimated temporal concentration change in the target area TA (target pixel TP) is obtained by converting the vertical axis and horizontal axis magnifications of the spatial density change NS obtained along the blood flow direction AR2 under a predetermined method. Is obtained and becomes the reference change model NM (see the right figure in FIG. 34C). Specifically, it can be created using a blood flow dynamic analysis method or the like as described in JP2011-131041A.

図8(a)で示されるように、フレーム画像IG上の対象領域TA内の対象画素TPが対象画素決定部121により決定される。そして、図8(b)で示されるように、該対象画素TPに対して対象画素時間濃度変化NTが血流周期毎に算出される。すなわち、血流周期PC1内では、対象画素時間濃度変化NT1が算出され、血流周期PC2内では、対象画素時間濃度変化NT2が算出され、血流周期PC3内では、対象画素時間濃度変化NT3が算出される。なお、図8の血流周期PC1〜PC3は、説明の都合上、血流の1周期全体(図2参照)のうち、ピークレンジB2周辺のみを示している。   As shown in FIG. 8A, the target pixel TP in the target area TA on the frame image IG is determined by the target pixel determination unit 121. Then, as shown in FIG. 8B, the target pixel time density change NT is calculated for each target blood flow cycle with respect to the target pixel TP. That is, the target pixel time density change NT1 is calculated within the blood flow cycle PC1, the target pixel time density change NT2 is calculated within the blood flow cycle PC2, and the target pixel time density change NT3 is calculated within the blood flow cycle PC3. Calculated. For convenience of explanation, the blood flow periods PC1 to PC3 in FIG. 8 show only the vicinity of the peak range B2 in one whole blood flow period (see FIG. 2).

<1−3−1−4−1−2.対象画素評価値算出部242>
対象画素評価値算出部242では、(a1)対象画素時間濃度変化NTにおける最大値及び最小値のうち、少なくとも1つの値、(a2)対象画素時間濃度変化NTにおける最大微分値及び最小微分値のうち、少なくとも1つの値、(a3)対象画素時間濃度変化NTにおける極大値及び極小値のうち、少なくとも1つの値、(a4)対象画素時間濃度変化NTを生成するフレーム画像IGのうち対象画素値が第1画素値(第1所定値)以上となるフレーム画像数、(a5)対象画素時間濃度変化NTのうち第2画素値(第2所定値)以上における画素値を時間方向に積分した画素積分値、(a6)対象画素時間濃度変化NTと予め準備した基準変化モデルNMとの相関値、の判断要素(a1)〜(a6)のうち、少なくとも1つの判断要素に基づいて対象画素評価値を算出する。
<1-3-1-4-1-2. Target Pixel Evaluation Value Calculation Unit 242>
In the target pixel evaluation value calculation unit 242, (a1) at least one value among the maximum value and the minimum value in the target pixel time density change NT, and (a2) the maximum differential value and the minimum differential value in the target pixel time density change NT. Among these, at least one value, (a3) at least one value among the maximum value and the minimum value in the target pixel time density change NT, and (a4) the target pixel value in the frame image IG that generates the target pixel time density change NT. Is the number of frame images in which is equal to or greater than the first pixel value (first predetermined value), and (a5) pixels in which the pixel values at or above the second pixel value (second predetermined value) of the target pixel time density change NT are integrated in the time direction At least one determination element among the determination elements (a1) to (a6) of the integral value and (a6) the correlation value between the target pixel time density change NT and the reference change model NM prepared in advance. Based calculates the target pixel evaluation value.

このように、対象画素評価値は、各々の判断要素のみを用いて付与することができる一方で、判断要素(a1)〜(a6)のうちの幾つかの判断要素の組合せ、または、判断要素(a1)〜(a6)全てを用いて、対象画素評価値を付与することも可能である。すなわち、m(mは6以下の正の整数)個の判断要素に対して各々の評価値et(1)〜et(m)が存在する場合、対象画素評価値ftは、評価値et(1)〜et(m)に対する係数をα(1)〜α(m)とすると、以下の式(1)より算出される。   As described above, the target pixel evaluation value can be given using only each determination element, while a combination of some determination elements among the determination elements (a1) to (a6) or a determination element It is also possible to assign the target pixel evaluation value using all of (a1) to (a6). That is, when each evaluation value et (1) to et (m) exists for m (m is a positive integer equal to or less than 6) determination elements, the target pixel evaluation value ft is the evaluation value et (1 ) To et (m), α (1) to α (m) are calculated from the following equation (1).

図9は、図8の対象画素時間濃度変化NT及びその判断要素を例示する図であり、横軸が撮影時間を示し、縦軸が画素値を示す。図9で示されるように、例えば、血流周期PC1〜PC3内で判断要素(a1)の対象画素時間濃度変化NTにおける最大値を算出する場合は、点E1により血流周期PC1に最も高い評価値etが付与される。また、血流周期PC1〜PC3内で判断要素(a2)の対象画素時間濃度変化NTにおける最大微分値を算出する場合は、微分値E2により血流周期PC1に最も高い評価値etが付与される。このように、判断要素(a1)(a2)は、例えば、最も大きな画素値の周期を取り出したい場合等に有効である。   FIG. 9 is a diagram illustrating the target pixel time density change NT and its determination element in FIG. 8, where the horizontal axis indicates the shooting time and the vertical axis indicates the pixel value. As shown in FIG. 9, for example, when the maximum value in the target pixel time density change NT of the determination element (a1) is calculated in the blood flow periods PC1 to PC3, the highest evaluation is performed on the blood flow period PC1 by the point E1. The value et is given. When calculating the maximum differential value in the target pixel time density change NT of the determination element (a2) within the blood flow cycle PC1 to PC3, the highest evaluation value et is given to the blood flow cycle PC1 by the differential value E2. . As described above, the determination elements (a1) and (a2) are effective, for example, when it is desired to extract the period of the largest pixel value.

また、血流周期PC1〜PC3内で判断要素(a4)対象画素時間濃度変化NTを生成するフレーム画像IGのうち対象画素値が第1画素値v1以上となるフレーム画像数を算出する場合は、血流周期PC2の領域E4および血流周期PC3の領域E4’のフレーム画像の数が“2”であるため、血流周期PC2,PC3に血流周期PC1と比較して高い評価値etが付与される。また、血流周期PC1〜PC3内で判断要素(a5)対象画素時間濃度変化NTのうち第2画素値v2以上における画素値を時間方向に積分した画素積分値を算出する場合は、画素積分値E5により血流周期PC2に最も高い評価値etが付与される。このように、判断要素(a4)(a5)は、第1画素値v1や第2画素値v2のように一定値以上のフレーム画像の存在を確認することで、例えば、ノイズのチェックや信号値の把握を行う場合等に有効である。なお、図9は、第1画素値v1と第2画素値v2とを同じ画素値にしたが、異なる画素値でもよい。   When calculating the number of frame images in which the target pixel value is equal to or greater than the first pixel value v1 among the frame images IG that generate the determination element (a4) target pixel time density change NT within the blood flow periods PC1 to PC3, Since the number of frame images in the region E4 of the blood flow cycle PC2 and the region E4 ′ of the blood flow cycle PC3 is “2”, a higher evaluation value et is given to the blood flow cycles PC2 and PC3 than the blood flow cycle PC1. Is done. In addition, when calculating a pixel integration value obtained by integrating the pixel values of the second pixel value v2 or more in the determination element (a5) target pixel time density change NT in the blood flow cycle PC1 to PC3 in the time direction, the pixel integration value E5 gives the highest evaluation value et to the blood flow cycle PC2. As described above, the determination elements (a4) and (a5) check the presence of a frame image having a certain value or more like the first pixel value v1 and the second pixel value v2, for example, noise check and signal value. This is effective when grasping the above. In FIG. 9, the first pixel value v1 and the second pixel value v2 are set to the same pixel value, but may be different pixel values.

また、血流周期PC1〜PC3内で判断要素(a3)対象画素時間濃度変化NTにおける極大値(第2極大値)を算出する場合は、点E3の極大値により血流周期PC3に最も高い評価値etが付与される。このように、判断要素(a3)は、例えば、v波wv(図3参照)を診断したい場合等に有効である。   Further, when the local maximum value (second maximum value) in the determination element (a3) target pixel time density change NT is calculated within the blood flow cycle PC1 to PC3, the highest evaluation of the blood flow cycle PC3 based on the local maximum value of the point E3. The value et is given. Thus, the determination element (a3) is effective when, for example, it is desired to diagnose the v-wave wv (see FIG. 3).

更に、血流周期PC1〜PC3内で判断要素(a6)対象画素時間濃度変化NTと予め準備した基準変化モデルNMとの相関値を算出する場合は、対象画素時間濃度変化NTと基準変化モデルNMとの差が最も小さい血流周期PC1に最も高い評価値etが付与される。このように、判断要素(a6)は、例えば、周期全体の表現を重要視する場合等に有効である。   Further, when calculating the correlation value between the determination element (a6) target pixel time density change NT and the reference change model NM prepared in advance in the blood flow periods PC1 to PC3, the target pixel time density change NT and the reference change model NM. The highest evaluation value et is given to the blood flow cycle PC1 having the smallest difference from the above. Thus, the determination element (a6) is effective, for example, when importance is attached to the expression of the entire cycle.

<1−3−1−4−2.周期評価結果決定部340>
周期評価結果決定部340では、対象画素評価部240にて算出された対象画素評価値ftを周期評価結果CRとして決定する。したがって、周期評価結果決定部340では、対象画素評価値ftが高ければ周期評価結果CRを高く付与し、対象画素評価値ftが低ければ周期評価結果CRを低く付与することが可能となる。
<1-3-1-4-2. Period Evaluation Result Determination Unit 340>
The cycle evaluation result determination unit 340 determines the target pixel evaluation value ft calculated by the target pixel evaluation unit 240 as the cycle evaluation result CR. Therefore, in the cycle evaluation result determination unit 340, if the target pixel evaluation value ft is high, the cycle evaluation result CR can be given high, and if the target pixel evaluation value ft is low, the cycle evaluation result CR can be given low.

<1−3−1−5.周期選択部150>
周期選択部150では、周期評価結果CRに基づいて特定の血流周期を選択し、複数のフレーム画像IGのうち、該特定の血流周期に分類されたフレーム画像IGを特定周期フレーム画像として得る。そして、周期選択部150は、得られた特定周期フレーム画像を、記憶部32、表示部34、通信部35にて出力する(図4参照)。
<1-3-1-5. Period selection unit 150>
In the cycle selection unit 150, a specific blood flow cycle is selected based on the cycle evaluation result CR, and a frame image IG classified into the specific blood flow cycle is obtained as a specific cycle frame image among the plurality of frame images IG. . And the period selection part 150 outputs the acquired specific period frame image in the memory | storage part 32, the display part 34, and the communication part 35 (refer FIG. 4).

図10は、特定の血流周期に分類された特定周期フレーム画像を選択することを説明する図である。図10で示されるように、特定の血流周期SPCに分類されたフレーム画像SGを選択し、表示部34にてフレーム画像SGを表示する。   FIG. 10 is a diagram for describing selection of a specific cycle frame image classified into a specific blood flow cycle. As shown in FIG. 10, a frame image SG classified into a specific blood flow period SPC is selected, and the frame image SG is displayed on the display unit 34.

なお、特定周期フレーム画像SGを一旦記憶部32に記憶した後、解析部36(図1参照)にて記憶していた特定周期フレーム画像SGを解析し、得られた特定周期解析画像SAを表示部34にて表示してもよい。   Note that after the specific period frame image SG is temporarily stored in the storage unit 32, the specific period frame image SG stored in the analysis unit 36 (see FIG. 1) is analyzed, and the obtained specific period analysis image SA is displayed. You may display in the part 34. FIG.

<1−4.画像処理装置3(3’)の基本動作>
図11は、本実施形態に係る画像処理装置3(3’)において実現される基本動作を説明するフローチャートである。既に各部の個別機能の説明は行ったため(図4参照)、ここでは全体の流れのみ説明する。
<1-4. Basic Operation of Image Processing Device 3 (3 ′)>
FIG. 11 is a flowchart for explaining a basic operation realized in the image processing apparatus 3 (3 ′) according to the present embodiment. Since the individual functions of each unit have already been described (see FIG. 4), only the overall flow will be described here.

図11に示すように、まず、ステップS1において、制御部31(31’)の動画像取得部110が、撮像装置1の読取制御装置14によって撮影された動画像(複数のフレーム画像IG)を、撮影制御装置2を介して取得する。   As shown in FIG. 11, first, in step S <b> 1, the moving image acquisition unit 110 of the control unit 31 (31 ′) captures a moving image (a plurality of frame images IG) captured by the reading control device 14 of the imaging device 1. Obtained via the imaging control device 2.

ステップS2では、画素決定部120の対象画素決定部121が、複数のフレーム画像IGのそれぞれの対象領域TA内における対象画素TPを決定する(図5参照)。   In step S2, the target pixel determining unit 121 of the pixel determining unit 120 determines the target pixel TP in each target area TA of the plurality of frame images IG (see FIG. 5).

ステップS3では、周期分類部130(130’)が、対象画素の血流周期PCを検出し、複数のフレーム画像IGを該血流周期PC単位に分類する(図6参照)。具体的に、周期的な時間変化の検出方法は、周期分類部130に関しては、動画像におけるフレーム画像IGの画素の時間濃度変化解析に基づき検出される。   In step S3, the period classification unit 130 (130 ') detects the blood flow period PC of the target pixel, and classifies the plurality of frame images IG into units of the blood flow period PC (see FIG. 6). Specifically, the periodic time change detection method is detected with respect to the period classification unit 130 based on the time density change analysis of the pixels of the frame image IG in the moving image.

ステップS4では、周期評価部140の対象画素評価部240が、複数のフレーム画像IGそれぞれにおける対象画素TPの画素値である対象画素値に基づき血流周期PC毎に評価することにより対象画素評価値ftを算出し、周期評価結果決定部340が、対象画素評価値ftを周期評価結果CRとして決定する(図7〜図9参照)。   In step S4, the target pixel evaluation unit 240 of the cycle evaluation unit 140 evaluates for each blood flow cycle PC based on the target pixel value that is the pixel value of the target pixel TP in each of the plurality of frame images IG, thereby performing the target pixel evaluation value. ft is calculated, and the cycle evaluation result determination unit 340 determines the target pixel evaluation value ft as the cycle evaluation result CR (see FIGS. 7 to 9).

ステップS5では、周期選択部150が、周期評価結果CRに基づいて特定の血流周期を選択し、該特定の血流周期に分類されたフレーム画像を特定周期フレーム画像SGとして得る(図10参照)。   In step S5, the cycle selection unit 150 selects a specific blood flow cycle based on the cycle evaluation result CR, and obtains a frame image classified into the specific blood flow cycle as a specific cycle frame image SG (see FIG. 10). ).

最後に、ステップS6において、周期選択部150が、ステップS5において選択した特定周期フレーム画像SGを記憶部32、表示部34、通信部35にて出力し(図4参照)、本動作フローが終了される。   Finally, in step S6, the cycle selection unit 150 outputs the specific cycle frame image SG selected in step S5 in the storage unit 32, the display unit 34, and the communication unit 35 (see FIG. 4), and this operation flow ends. Is done.

以上、画像処理装置3(3’)では、対象となる血管領域の周期的な時間変化となり、フレーム撮影周期FPとは独立した血流周期PCを検出し、複数のフレーム画像IGを該血流周期PC単位に分類し、対象画素値に基づき血流周期PC毎に評価し、周期評価結果CRを得る周期評価部140と、周期評価結果CRに基づいて特定の血流周期SPCを選択し、該特定の血流周期SPCに分類されたフレーム画像を特定周期フレーム画像SGとして得る周期選択部150と、を備える。すなわち、対象画素値に基づき各血流周期PCを評価することで、診断に必要か否かの判断や重要な周期か否かの判断を行うことが可能となる。その結果、医者等の専門家が、複数のフレーム画像IGのうち特定周期フレーム画像SGを選択的に精査することにより、血流周期PC内の対象領域の状態変化に対して、動画診断を適切かつ効率的に行うことが可能となる。また、動画読影による診断時間の短縮化が図れ、ユーザにとっての利便性が向上する。   As described above, in the image processing device 3 (3 ′), a periodic time change of a target blood vessel region is detected, the blood flow cycle PC independent of the frame imaging cycle FP is detected, and a plurality of frame images IG are detected as the blood flow. Classify into cycle PC units, evaluate for each blood flow cycle PC based on the target pixel value, and select a specific blood flow cycle SPC based on the cycle evaluation result CR; A cycle selection unit 150 that obtains a frame image classified into the specific blood flow cycle SPC as a specific cycle frame image SG. That is, by evaluating each blood flow period PC based on the target pixel value, it is possible to determine whether it is necessary for diagnosis or whether it is an important period. As a result, an expert such as a doctor appropriately examines a specific period frame image SG among a plurality of frame images IG, thereby appropriately performing a moving picture diagnosis for a state change of a target region in the blood flow period PC. And it becomes possible to carry out efficiently. Further, the diagnosis time can be shortened by moving image interpretation, and convenience for the user is improved.

また、対象画素評価部121は、対象画素時間濃度変化算出部241と対象画素評価値算出部242とを備えることにより、例えば、対象画素評価値ftとして、判断要素(a1)における最大値または最大値と最小値との差を算出する場合は、対象画素時間濃度変化NTの最も重要な情報である波形ピークの高さを捉えることができる。また、判断要素(a2)(a3)における最大微分値、最小微分値、極大値、極小値に基づき対象画素評価値ftを算出する場合は、対象画素時間濃度変化NTの波形の形状を知ることが可能となる。さらに、判断要素(a6)における対象画素時間濃度変化NTと基準変化モデルNMとの相関値に基づき対象画素評価値ftを算出する場合は、対象画素時間濃度変化NTの全体的な表現能を求めることが可能となる。   In addition, the target pixel evaluation unit 121 includes the target pixel time density change calculation unit 241 and the target pixel evaluation value calculation unit 242, so that, for example, as the target pixel evaluation value ft, the maximum value or the maximum value in the determination element (a1). When calculating the difference between the value and the minimum value, the height of the waveform peak, which is the most important information of the target pixel time density change NT, can be captured. In addition, when calculating the target pixel evaluation value ft based on the maximum differential value, minimum differential value, maximum value, and minimum value in the determination elements (a2) and (a3), the shape of the waveform of the target pixel time density change NT is known. Is possible. Further, when the target pixel evaluation value ft is calculated based on the correlation value between the target pixel time density change NT and the reference change model NM in the determination element (a6), the overall expressibility of the target pixel time density change NT is obtained. It becomes possible.

このように、対象画素評価値ftを周期評価結果CRとして決定することにより、診断に必要か否かの判断や重要な血流周期か否かの判断を適切に行うことが可能となる。   Thus, by determining the target pixel evaluation value ft as the cycle evaluation result CR, it is possible to appropriately determine whether it is necessary for diagnosis or whether it is an important blood flow cycle.

また、基準変化モデルNMを空間濃度変化NSに基づいて作成することにより、対象画素時間濃度変化NTと基準変化モデルNMとの相関値を適切に求めることが可能となる。   Also, by creating the reference change model NM based on the spatial density change NS, it is possible to appropriately obtain the correlation value between the target pixel time density change NT and the reference change model NM.

また、特定周期フレーム画像SGのみを表示することにより、診断時間の短縮化が図れる。一方、特定の血流周期SPC以外のフレーム画像IGを完全に削除するのではなく、特定の血流周期SPCの特定周期フレーム画像SGのみを通常の速度で表示し、その他のフレーム画像IGは高速表示もしくは間引き表示を行うことが可能となる。   Moreover, the diagnosis time can be shortened by displaying only the specific period frame image SG. On the other hand, the frame image IG other than the specific blood flow cycle SPC is not completely deleted, but only the specific cycle frame image SG of the specific blood flow cycle SPC is displayed at a normal speed, and the other frame images IG are high-speed. Display or thinning display can be performed.

また、特定周期フレーム画像SGのみを記憶することにより、記憶領域を小さくすることが可能となり、記憶容量を節約することが可能となる。   Further, by storing only the specific periodic frame image SG, the storage area can be reduced, and the storage capacity can be saved.

一方、特定の血流周期SPCのフレーム画像SGのみを可逆(非)圧縮保存を行い、特定の血流周期SPC以外のフレーム画像SGは非可逆圧縮保存を行うことが可能となる。   On the other hand, only the frame image SG of a specific blood flow cycle SPC can be reversibly (non-) compressed, and the frame images SG other than the specific blood flow cycle SPC can be subjected to irreversible compression storage.

また、フレーム画像IGの画像情報の劣化が好ましくない場合は、動画像に加えて特定周期フレーム画像IGの撮影時間(またはフレームナンバー)を記憶しておくことで、再現表示時に所望の表示を効率的に行うことが可能となる。   In addition, when degradation of the image information of the frame image IG is not desirable, the desired display can be efficiently performed during reproduction display by storing the shooting time (or frame number) of the specific periodic frame image IG in addition to the moving image. Can be performed automatically.

また、特定周期フレーム画像SGのみを通信することにより、通信負荷を抑えることができるとともに、通信時間の短縮化が図れる。   Further, by communicating only the specific periodic frame image SG, the communication load can be suppressed and the communication time can be shortened.

一方、特定の血流周期SPCのフレーム画像SGのみを可逆(非)圧縮送信を行い、特定の血流周期SPC以外のフレーム画像SGは非可逆圧縮送信を行うことが可能となる。   On the other hand, it is possible to perform lossless (non-) compression transmission only for the frame image SG of a specific blood flow cycle SPC, and to perform lossy compression transmission for frame images SG other than the specific blood flow cycle SPC.

さらに、対象領域TAが血管領域であることにより、所望の血管領域における血流量、血液量等を描出した血流周期PCを選択することができる。   Furthermore, since the target area TA is a blood vessel area, it is possible to select a blood flow cycle PC depicting a blood flow volume, a blood volume, etc. in a desired blood vessel area.

例えば、時間濃度変化の最大微分値から血流の急激な変化を、時間濃度変化の極大値からa波wa(大きさが2番目の極大値に相当)、v波wv(大きさが3番目の極大値に相当)(図3参照)等の小さな波形を捉えることが可能となる。また、上記の判断要素(a4)のフレーム画像数や判断要素(a5)の画素積分値を得ることにより血液量を評価することが可能となる。   For example, a rapid change in blood flow from the maximum differential value of time concentration change, a wave wa (a magnitude corresponding to the second maximum value), v wave wv (a magnitude of 3rd from the maximum value of the time density change) It is possible to capture a small waveform such as (see FIG. 3). In addition, the blood volume can be evaluated by obtaining the number of frame images of the determination element (a4) and the pixel integration value of the determination element (a5).

このため、血流周期PC内の血管領域TAの状態変化に対して、効率的な医療診断が可能となる。また、該血管領域TAにおける動画読影による診断時間の短縮化が図れ、ユーザにとっての利便性が向上する。   For this reason, an efficient medical diagnosis is possible with respect to the state change of the blood vessel region TA in the blood flow cycle PC. Further, the diagnosis time can be shortened by moving image interpretation in the blood vessel region TA, and convenience for the user is improved.

<2.第2実施形態>
図12は、本発明の第2実施形態として構成された画像処理装置3Aで用いられる制御部31Aの機能構成を示す図である。この制御部31Aは、第1実施形態の画像処理装置3における制御部31(図4参照)の代替として使用される。第1実施形態と異なる点は、第1実施形態の画素決定部120に対応する画素決定部120Aが参照画素決定部122を更に備え、第1実施形態の周期評価部140が周期評価部140A(または周期評価部140A’)に変更される点である。なお、残余の構成は画像処理装置3と同様である。
<2. Second Embodiment>
FIG. 12 is a diagram illustrating a functional configuration of the control unit 31A used in the image processing apparatus 3A configured as the second embodiment of the present invention. The control unit 31A is used as an alternative to the control unit 31 (see FIG. 4) in the image processing apparatus 3 of the first embodiment. The difference from the first embodiment is that a pixel determination unit 120A corresponding to the pixel determination unit 120 of the first embodiment further includes a reference pixel determination unit 122, and the period evaluation unit 140 of the first embodiment includes a period evaluation unit 140A ( Or it is a point changed to period evaluation part 140A '). The remaining configuration is the same as that of the image processing apparatus 3.

<2−1.画素決定部120A>
画素決定部120Aでは、対象画素決定部121の機能構成に加え、フレーム画像IG上における対象画素TPとは異なる参照画素RP(後述の図16参照)を決定する参照画素決定部122を更に備える。
<2-1. Pixel Determination Unit 120A>
In addition to the functional configuration of the target pixel determination unit 121, the pixel determination unit 120A further includes a reference pixel determination unit 122 that determines a reference pixel RP (see FIG. 16 described later) different from the target pixel TP on the frame image IG.

参照画素決定部122は、対象画素TPとの空間的な距離が所定の距離値以下となる画素を参照画素RPとして決定する。   The reference pixel determination unit 122 determines a pixel whose spatial distance from the target pixel TP is equal to or less than a predetermined distance value as the reference pixel RP.

<2−2.周期評価部140A>
図13は、第2実施形態に係る周期評価部140Aの詳細を示すブロック図である。図13で示されるように、周期評価部140Aは対象画素評価部240Aと周期評価結果決定部340Aとから構成される。
<2-2. Period Evaluation Unit 140A>
FIG. 13 is a block diagram illustrating details of the period evaluation unit 140A according to the second embodiment. As illustrated in FIG. 13, the period evaluation unit 140A includes a target pixel evaluation unit 240A and a period evaluation result determination unit 340A.

<2−2−1.対象画素評価部240A>
対象画素評価部240Aでは、対象画素評価部240と同様の対象画素時間濃度変化算出部241と対象画素評価値算出部242との機能構成に加え、参照画素時間濃度変化算出部243と、位相振幅補正部244と、参照画素評価値算出部245と、空間相関値算出部246と、を更に備える。
<2-2-1. Target Pixel Evaluation Unit 240A>
In the target pixel evaluation unit 240A, in addition to the functional configuration of the target pixel time density change calculation unit 241 and the target pixel evaluation value calculation unit 242, which are the same as those of the target pixel evaluation unit 240, the reference pixel time density change calculation unit 243, and the phase amplitude A correction unit 244, a reference pixel evaluation value calculation unit 245, and a spatial correlation value calculation unit 246 are further provided.

<2−2−1−1.参照画素時間濃度変化算出部243>
参照画素時間濃度変化算出部243では、血流周期PC内における参照画素RPの画素値である参照画素値の時間方向に対する濃度変化を示す参照画素時間濃度変化NRを算出する。すなわち、各血流周期PCにおいて、図8で示される対象画素時間濃度変化NTと同様に、参照画素RPにおいても参照画素時間濃度変化NRが算出される(後述の図16参照)。
<2-2-1. Reference Pixel Time Density Change Calculation Unit 243>
The reference pixel time density change calculation unit 243 calculates a reference pixel time density change NR indicating a density change in the time direction of the reference pixel value that is a pixel value of the reference pixel RP in the blood flow cycle PC. That is, in each blood flow cycle PC, the reference pixel time density change NR is calculated also in the reference pixel RP as in the target pixel time density change NT shown in FIG. 8 (see FIG. 16 described later).

<2−2−1−2.位相振幅補正部244>
図16は、対象画素時間濃度変化NTと参照画素時間濃度変化NRとの位相及び振幅の関係を例示する図であり、図16(a)はフレーム画像IG上における対象画素TPと参照画素RPとの位置関係を示し、図16(b)は対象画素TPに対する対象画素時間濃度変化NTを示し、図16(c)は参照画素RPに対する参照画素時間濃度変化NRを示す。図16(b)及び図16(c)で示されるように、参照画素時間濃度変化NRの位相及び振幅は、対象画素時間濃度変化NTの位相及び振幅と一致していないことが見て取れる。
<2-2-1-2. Phase Amplitude Correction Unit 244>
FIG. 16 is a diagram illustrating the phase and amplitude relationship between the target pixel time density change NT and the reference pixel time density change NR. FIG. 16A shows the target pixel TP and the reference pixel RP on the frame image IG. FIG. 16B shows the target pixel time density change NT with respect to the target pixel TP, and FIG. 16C shows the reference pixel time density change NR with respect to the reference pixel RP. As shown in FIGS. 16B and 16C, it can be seen that the phase and amplitude of the reference pixel time density change NR do not coincide with the phase and amplitude of the target pixel time density change NT.

これについては、具体的に、図6を再度参照して説明する。図6で示されるように、身体内部の異なる3つの位置で血流を測定した場合、血流波形は周期的な時間変化TF1,TF2,TF3として測定される。時間変化TF1,TF2,TF3の順で心臓からの距離が離れている場合、時間変化TF1では最も振幅のピークB1(図2参照)が大きく、時間変化TF2,TF3の順で小さくなる。また、逆に、時間変化TF1では最もピークレンジB2(図2参照)が小さく、時間変化TF2,TF3の順で大きくなる。   This will be specifically described with reference to FIG. 6 again. As shown in FIG. 6, when the blood flow is measured at three different positions inside the body, the blood flow waveform is measured as periodic time changes TF1, TF2, and TF3. When the distance from the heart is long in the order of time changes TF1, TF2, and TF3, the time change TF1 has the largest amplitude peak B1 (see FIG. 2) and decreases in the order of time changes TF2 and TF3. Conversely, the peak range B2 (see FIG. 2) is the smallest in the time change TF1, and increases in the order of the time changes TF2 and TF3.

このように、血流波形は身体内部の位置(一般的には、心臓からの距離)によって位相や振幅が異なるため、同時刻に撮影されたフレーム画像IGにおいて、単純に対象画素TPと参照画素RPとの画素値の比較が行えないことを意味する。   Thus, since the blood flow waveform has different phases and amplitudes depending on the position inside the body (generally, the distance from the heart), in the frame image IG photographed at the same time, simply the target pixel TP and the reference pixel This means that the pixel value cannot be compared with RP.

そこで、位相振幅補正部244では、後述の空間相関値を得る前処理として、(c1)対象画素時間濃度変化NTの位相と参照画素時間濃度変化NRの位相とのズレを一致させる補正、(c2)心臓からの距離に応じて対象画素時間濃度変化NT及び/または参照画素時間濃度変化NRの位相及び振幅を調整する補正、の補正(c1)及び(c2)のうち、少なくとも1つの補正を参照画素時間濃度変化NRの算出後に行う。   Therefore, in the phase amplitude correction unit 244, (c1) correction for matching the difference between the phase of the target pixel time density change NT and the phase of the reference pixel time density change NR as preprocessing to obtain a spatial correlation value described later, (c2 ) Refer to at least one of corrections (c1) and (c2) of corrections that adjust the phase and amplitude of the target pixel time density change NT and / or the reference pixel time density change NR according to the distance from the heart This is performed after the calculation of the pixel time density change NR.

図16の場合においては、参照画素時間濃度変化NRに対して上記補正(c2)を行っている。すなわち、参照画素時間濃度変化NRを矢印ARの方向に移動させる(位相をずらし)とともに、各画素値を減衰補正して振幅を調整している。このように、参照画素時間濃度変化NRの位相及び振幅を、対象画素時間濃度変化NTの位相及び振幅に合わせることにより、対象画素時間濃度変化NTと比較可能なように新たに参照画素時間濃度変化NR’を生成している。   In the case of FIG. 16, the correction (c2) is performed on the reference pixel time density change NR. That is, the reference pixel time density change NR is moved in the direction of the arrow AR (the phase is shifted), and each pixel value is corrected for attenuation to adjust the amplitude. Thus, by matching the phase and amplitude of the reference pixel time density change NR with the phase and amplitude of the target pixel time density change NT, a new reference pixel time density change is made so that it can be compared with the target pixel time density change NT. NR ′ is generated.

なお、図16では、参照画素時間濃度変化NRに対してのみ補正し参照画素時間濃度変化NR’を生成したが、対象画素時間濃度変化NTに対してのみ補正し参照画素時間濃度変化NT’を生成してもよい。また、対象画素時間濃度変化NTと参照画素時間濃度変化NRとの両方に対して補正し対象画素時間濃度変化NT’と参照画素時間濃度変化NR’とを生成してもよい。   In FIG. 16, the reference pixel time density change NR ′ is generated by correcting only for the reference pixel time density change NR. However, the reference pixel time density change NT ′ is corrected only for the target pixel time density change NT. It may be generated. Alternatively, the target pixel time density change NT ′ and the reference pixel time density change NR ′ may be generated by correcting both the target pixel time density change NT and the reference pixel time density change NR.

このように、位相振幅補正部244にて上記の補正が行われた対象画素時間濃度変化NT(NT’)は対象画素評価値算出部242に出力され、参照画素時間濃度変化NR(NR’)は参照画素評価値算出部245に出力される。   Thus, the target pixel time density change NT (NT ′) subjected to the above correction by the phase amplitude correction unit 244 is output to the target pixel evaluation value calculation unit 242, and the reference pixel time density change NR (NR ′). Is output to the reference pixel evaluation value calculation unit 245.

<2−2−1−3.参照画素評価値算出部245>
参照画素評価値算出部245では、(b1)参照画素時間濃度変化NR(NR’)における最大値及び最小値のうち、少なくとも1つの値、(b2)参照画素時間濃度変化NR(NR’)における最大微分値及び最小微分値のうち、少なくとも1つの値、(b3)参照画素時間濃度変化NR(NR’)における極大値及び極小値のうち、少なくとも1つの値、(b4)参照画素時間濃度変化NR(NR’)を構成するフレーム画像IGのうち参照画素値が第3所定値以上となるフレーム画像数、(b5)参照画素時間濃度変化NR(NR’)のうち第4所定値以上における画素値を時間方向に積分した画素積分値、(b6)参照画素時間濃度変化NR(NR’)と予め準備した基準変化モデルNMとの相関値、の判断要素(b1)〜(b6)のうち、対象画素評価値ftの算出に用いた判断要素(a1)〜(a6)に対応する判断要素に基づき参照画素評価値frとして算出する。
<2-2-1-3. Reference Pixel Evaluation Value Calculation Unit 245>
In the reference pixel evaluation value calculation unit 245, (b1) at least one of the maximum value and the minimum value in the reference pixel time density change NR (NR ′), and (b2) the reference pixel time density change NR (NR ′). At least one value among the maximum differential value and the minimum differential value, (b3) at least one value among the maximum value and the minimum value in the reference pixel time density change NR (NR ′), and (b4) the reference pixel time density change. The number of frame images in which the reference pixel value is greater than or equal to the third predetermined value in the frame image IG constituting NR (NR ′), and (b5) pixels in the reference pixel time density change NR (NR ′) that are greater than or equal to the fourth predetermined value Among the determination elements (b1) to (b6), the pixel integration value obtained by integrating the values in the time direction, and (b6) the correlation value between the reference pixel time density change NR (NR ′) and the reference change model NM prepared in advance. Calculated as the reference pixel evaluation value fr based on the determination element corresponding to determination factor used for calculating the elephant pixel evaluation value ft (a1) ~ (a6).

すなわち、参照画素評価値frは、対象画素評価値ftと同様に、各々の判断要素のみを用いて付与することができる他、判断要素(b1)〜(b6)のうちの幾つかの判断要素の組合せ、または、判断要素(b1)〜(b6)全てを用いて、参照画素評価値frを付与することも可能である。したがって、参照画素評価値frは、対象画素評価値ftと同様に、m個の判断要素に対して各々の評価値er(1)〜er(m)が存在する場合、対象画素評価値frは、評価値er(1)〜er(m)に対する係数をα(1)〜α(m)とすると、以下の式(2)より算出される。   That is, the reference pixel evaluation value fr can be given using only each of the determination elements as well as the target pixel evaluation value ft, and some of the determination elements (b1) to (b6) It is also possible to assign the reference pixel evaluation value fr using a combination of the above or all of the determination elements (b1) to (b6). Therefore, the reference pixel evaluation value fr is the same as the target pixel evaluation value ft. When the evaluation values er (1) to er (m) exist for m determination elements, the target pixel evaluation value fr is When the coefficients for the evaluation values er (1) to er (m) are α (1) to α (m), they are calculated from the following equation (2).

なお、参照画素RPの各評価値er(1)〜er(m)の判断要素は、対象画素評価値算出部242で算出される対象画素TPの各評価値et(1)〜et(m)の判断要素と対応している。すなわち、例えば、対象画素評価値ftを判断要素(a1)と(a4)とから算出した場合は、参照画素評価値frにおいても判断要素(b1)と(b4)とから算出され、対象画素評価値ftを判断要素(a1)〜(a6)全てを用いて算出した場合は、参照画素評価値frにおいても判断要素(b1)〜(b6)全てを用いて算出される。   The evaluation elements er (1) to er (m) of the reference pixel RP are the evaluation values et (1) to et (m) of the target pixel TP calculated by the target pixel evaluation value calculation unit 242. This corresponds to the judgment element. That is, for example, when the target pixel evaluation value ft is calculated from the determination elements (a1) and (a4), the reference pixel evaluation value fr is also calculated from the determination elements (b1) and (b4), and the target pixel evaluation is performed. When the value ft is calculated using all the determination elements (a1) to (a6), the reference pixel evaluation value fr is also calculated using all the determination elements (b1) to (b6).

図16の場合では、位相振幅補正部244から出力された対象画素時間濃度変化NTと参照画素時間濃度変化NR’との比較になる。そして、ここでは、各々の時間濃度変化NT、NR’の最大値(点E1)及び極大値(点E3)を判断要素として用いる。このため、対象画素評価値ftは判断要素(a1)と(a3)とから求められ、参照画素評価値frは判断要素(b1)と(b3)とから求められる。   In the case of FIG. 16, the target pixel time density change NT output from the phase amplitude correction unit 244 is compared with the reference pixel time density change NR ′. Here, the maximum value (point E1) and the maximum value (point E3) of each of the time density changes NT and NR 'are used as determination elements. Therefore, the target pixel evaluation value ft is obtained from the determination elements (a1) and (a3), and the reference pixel evaluation value fr is obtained from the determination elements (b1) and (b3).

<2−2−1−4.空間相関値算出部246>
空間相関値算出部246では、対象画素評価値ftと参照画素評価値frとの差を空間相関値fsとして算出する第1の空間相関値算出処理を実行する。すなわち、空間相関値fsは、fs=|ft−fr|により算出される。
<2-2-1-4. Spatial correlation value calculation unit 246>
The spatial correlation value calculation unit 246 executes a first spatial correlation value calculation process that calculates the difference between the target pixel evaluation value ft and the reference pixel evaluation value fr as the spatial correlation value fs. That is, the spatial correlation value fs is calculated by fs = | ft−fr |.

<2−2−2.周期評価結果決定部340A>
周期評価結果決定部340Aでは、対象画素TPの対象画素評価値ftを周期評価結果CRとするとともに、空間相関値fsに基づいて周期評価結果CRの有効性を判断(ノイズの有無を判断)する(図13参照)。すなわち、空間相関値fsは値が小さい程、対象画素TPの画素値は参照画素RPの画素値と類似している(周囲画素との相関が良い)ことを示し、空間相関値fsの値が大きければ、対象画素TPの画素値は参照画素RPの画素値とは異なる(周囲画素との相関が悪い)ことを示している。このため、空間相関値fsを算出することで、対象画素決定部121にて決定された対象画素TPがノイズを含んでいるか否かの判断を効率的に行う事が可能となる。
<2-2-2. Period Evaluation Result Determination Unit 340A>
In the period evaluation result determination unit 340A, the target pixel evaluation value ft of the target pixel TP is set as the period evaluation result CR, and the validity of the period evaluation result CR is determined based on the spatial correlation value fs (the presence or absence of noise is determined). (See FIG. 13). That is, as the spatial correlation value fs is smaller, the pixel value of the target pixel TP is more similar to the pixel value of the reference pixel RP (the correlation with the surrounding pixels is better), and the value of the spatial correlation value fs is smaller. If it is larger, it indicates that the pixel value of the target pixel TP is different from the pixel value of the reference pixel RP (correlation with surrounding pixels is poor). For this reason, by calculating the spatial correlation value fs, it is possible to efficiently determine whether or not the target pixel TP determined by the target pixel determination unit 121 includes noise.

したがって、周期評価結果決定部340Aでは、対象画素評価値ftが高く且つ空間相関値fsが小さければ(相関が良ければ)周期評価結果CRを高く付与し、対象画素評価値ftが高くても空間相関値fsが大きければ(相関が悪ければ)周期評価結果CRを低く付与することが可能となる。   Therefore, in the cycle evaluation result determination unit 340A, if the target pixel evaluation value ft is high and the spatial correlation value fs is small (if the correlation is good), the cycle evaluation result CR is given high, and even if the target pixel evaluation value ft is high, the space is evaluated. If the correlation value fs is large (if the correlation is bad), the period evaluation result CR can be given low.

<2−3.周期評価部140A’>
周期評価部140A’は、周期評価部140Aと同様に空間相関値を算出することで周期評価結果CRの有効性を判断するが、その空間相関値の算出方法が異なる。
<2-3. Period Evaluation Unit 140A ′>
The cycle evaluation unit 140A ′ determines the validity of the cycle evaluation result CR by calculating the spatial correlation value in the same manner as the cycle evaluation unit 140A, but the calculation method of the spatial correlation value is different.

図14は、第2実施形態に係る周期評価部140A’の詳細を示すブロック図である。図14で示されるように、周期評価部140A’は、対象画素評価部240A’と周期評価結果決定部340A’とから構成される。周期評価部140A’が周期評価部140Aと異なる点は、対象画素評価値ftと参照画素評価値frとを用いず直接に空間相関値fs’が算出される点である。   FIG. 14 is a block diagram illustrating details of the period evaluation unit 140A ′ according to the second embodiment. As illustrated in FIG. 14, the period evaluation unit 140A ′ includes a target pixel evaluation unit 240A ′ and a period evaluation result determination unit 340A ′. The period evaluation unit 140A 'differs from the period evaluation unit 140A in that the spatial correlation value fs' is directly calculated without using the target pixel evaluation value ft and the reference pixel evaluation value fr.

<2−3−1.対象画素評価部240A’の空間相関値算出部246’>
対象画素評価部240A’における空間相関値算出部246’では、対象画素時間濃度変化NTの周期的変化と参照画素時間濃度変化RTの周期的変化とを比較して得られる該対象画素値と該参照画素値との差の総和を空間相関値fs’として算出する第2の空間相関値算出処理を実行する(図14参照)。ここで、対象画素時間濃度変化NTの周期的変化と参照画素時間濃度変化RTの周期的変化とは、位相振幅補正部244が出力する対象画素時間濃度変化NT(NT’)と参照画素時間濃度変化NR(NR’)とを指す。
<2-3-1. Spatial correlation value calculation unit 246 ′ of target pixel evaluation unit 240A ′>
In the spatial correlation value calculation unit 246 ′ in the target pixel evaluation unit 240A ′, the target pixel value obtained by comparing the periodic change of the target pixel time density change NT and the periodic change of the reference pixel time density change RT with the target pixel value A second spatial correlation value calculation process is performed to calculate the sum of differences from the reference pixel value as the spatial correlation value fs ′ (see FIG. 14). Here, the periodic change of the target pixel time density change NT and the periodic change of the reference pixel time density change RT are the target pixel time density change NT (NT ′) and the reference pixel time density output from the phase amplitude correction unit 244. It refers to the change NR (NR ′).

すなわち、空間相関値fs’は、血流周期PC内の比較すべき対象画素TP及び参照画素RPがそれぞれL個(Lは正の整数)ずつ存在する場合、対象画素TPに対する各々の対象画素値Tv(1)〜Tv(L)と参照画素RPに対する各々の参照画素値Rv(1)〜Rv(L)とを用いて、以下の式(3)より算出される。   That is, when there are L target pixels TP and reference pixels RP (L is a positive integer) to be compared in the blood flow cycle PC, the spatial correlation value fs ′ is the value of each target pixel for the target pixel TP. Using Tv (1) to Tv (L) and the respective reference pixel values Rv (1) to Rv (L) for the reference pixel RP, the calculation is performed by the following equation (3).

すなわち、図16の場合における第2の空間相関値算出処理では、対象画素時間濃度変化NTの7個の対象画素TPに対する各々の対象画素値Tv(1)〜Tv(7)と参照画素時間濃度変化NR’の7個の参照画素RPに対する各々の参照画素値Rv(1)〜Rv(7)との差の総和を空間相関値fs’として算出する。   That is, in the second spatial correlation value calculation process in the case of FIG. 16, the target pixel values Tv (1) to Tv (7) and the reference pixel time density for the seven target pixels TP of the target pixel time density change NT. The sum of the differences between the reference pixel values Rv (1) to Rv (7) for the seven reference pixels RP of the change NR ′ is calculated as the spatial correlation value fs ′.

<2−3−2.周期評価結果決定部340A’>
周期評価結果決定部340A’では、対象画素TPの対象画素評価値ftを周期評価結果CRとするとともに、空間相関値fs’に基づいて周期評価結果CRの有効性を判断(ノイズの有無を判断)する(図14参照)。すなわち、空間相関値fs’は値が小さい程、対象画素TPの画素値は参照画素RPの画素値と類似している(周囲画素との相関が良い)ことを示し、空間相関値fs’の値が大きければ、対象画素TPの画素値は参照画素RPの画素値とは異なる(周囲画素との相関が悪い)ことを示している。このため、空間相関値fs’を算出することで、対象画素決定部121にて決定された対象画素TPがノイズを含んでいるか否かの判断を効率的に行う事が可能となる。
<2-3-2. Period evaluation result determination unit 340A ′>
The period evaluation result determination unit 340A ′ uses the target pixel evaluation value ft of the target pixel TP as the period evaluation result CR, and determines the validity of the period evaluation result CR based on the spatial correlation value fs ′ (determines the presence or absence of noise). (See FIG. 14). That is, as the spatial correlation value fs ′ is smaller, the pixel value of the target pixel TP is more similar to the pixel value of the reference pixel RP (correlation with surrounding pixels is better), and the spatial correlation value fs ′ A large value indicates that the pixel value of the target pixel TP is different from the pixel value of the reference pixel RP (correlation with surrounding pixels is poor). Therefore, by calculating the spatial correlation value fs ′, it is possible to efficiently determine whether or not the target pixel TP determined by the target pixel determination unit 121 includes noise.

したがって、周期評価結果決定部340A’では、対象画素評価値ftが高く且つ空間相関値fs’が小さければ(相関が良ければ)周期評価結果CRを高く付与し、対象画素評価値ftが高くても空間相関値fs’が大きければ(相関が悪ければ)周期評価結果CRを低く付与することが可能となる。   Therefore, in the cycle evaluation result determination unit 340A ′, if the target pixel evaluation value ft is high and the spatial correlation value fs ′ is small (if the correlation is good), the cycle evaluation result CR is given high, and the target pixel evaluation value ft is high. If the spatial correlation value fs ′ is large (if the correlation is bad), the period evaluation result CR can be given low.

<2−4.画像処理装置3A(3A’)の基本動作>
続いて、図17は、第2実施形態に係る画像処理装置3A(3A’)の動作フローを例示した図である。なお、図17のうち、ステップSA1,SA3,SA5は図11のステップS1,S3,S5と同様であるため、その説明は省略する。
<2-4. Basic Operation of Image Processing Device 3A (3A ′)>
Next, FIG. 17 is a diagram illustrating an operation flow of the image processing apparatus 3A (3A ′) according to the second embodiment. In FIG. 17, steps SA1, SA3, and SA5 are the same as steps S1, S3, and S5 in FIG.

この第2実施形態では、第1実施形態では存在しなかった参照画素決定部122が付加され、周期評価部140が周期評価部140A(140A’)に置換されたことで、下記の工程のみが変更される。   In the second embodiment, the reference pixel determination unit 122 that did not exist in the first embodiment is added, and the cycle evaluation unit 140 is replaced with the cycle evaluation unit 140A (140A ′), so that only the following steps are performed. Be changed.

すなわち、第1実施形態と同様の工程として、ステップSA1を経て、図17で示されるように、ステップSA2にて、画素決定部120において、対象画素決定部121が、複数のフレーム画像IGそれぞれの対象領域TA内における対象画素TPを決定するとともに、参照画素決定部122が対象画素TPと比較すべき参照画素RPを決定する。   That is, as a process similar to the first embodiment, after step SA1, as shown in FIG. 17, in step SA2, the pixel determination unit 121 causes the target pixel determination unit 121 to display each of the plurality of frame images IG. The target pixel TP in the target area TA is determined, and the reference pixel determination unit 122 determines a reference pixel RP to be compared with the target pixel TP.

また、ステップSA4では、周期評価部140A(140A’)の対象画素評価部240A(240A’)が、血流周期PC毎に、対象画素評価値ft及び空間相関値fs(fs’)を算出し、周期評価結果決定部340Aが、対象画素評価値ftを周期評価結果CRとするとともに、空間相関値fs(fs’)に基づいて周期評価結果CRの有効性を判断する(図13,図14,図16参照)。そして、残余の工程は第1実施形態と同様となる。   In step SA4, the target pixel evaluation unit 240A (240A ′) of the cycle evaluation unit 140A (140A ′) calculates the target pixel evaluation value ft and the spatial correlation value fs (fs ′) for each blood flow cycle PC. The period evaluation result determination unit 340A sets the target pixel evaluation value ft as the period evaluation result CR and determines the validity of the period evaluation result CR based on the spatial correlation value fs (fs ′) (FIGS. 13 and 14). , FIG. 16). The remaining steps are the same as in the first embodiment.

以上のように第2実施形態に係る画像処理装置3A(3A’)では、周期評価結果決定部340A(340A’)は空間相関値fs(fs’)に基づいて周期評価結果CRの有効性を判断する。これにより、対象画素TPとその周囲の画素との相関を見ることでき、対象画素値がノイズなのか有意な信号なのかを判定することが可能となる。   As described above, in the image processing device 3A (3A ′) according to the second embodiment, the period evaluation result determination unit 340A (340A ′) determines the validity of the period evaluation result CR based on the spatial correlation value fs (fs ′). to decide. Thereby, the correlation between the target pixel TP and the surrounding pixels can be seen, and it is possible to determine whether the target pixel value is noise or a significant signal.

また、対象画素評価部240A(240A’)は空間相関値fs(fs’)を得る前処理として位相振幅補正部244を更に備える。これにより、フレーム画像IG上における対象画素TPと参照画素RPとの位置の違いによる位相や振幅の違いを補正し、対象画素時間濃度変化NTの周期的変化と参照画素時間濃度変化NRの周期的変化とを同位相内の変化として比較することが可能となる。その結果、周期評価部140A(140A’)は、周期評価結果CRの有効性を精度良く判断することができる。   The target pixel evaluation unit 240A (240A ′) further includes a phase amplitude correction unit 244 as preprocessing for obtaining the spatial correlation value fs (fs ′). Thereby, the difference in phase and amplitude due to the difference in position between the target pixel TP and the reference pixel RP on the frame image IG is corrected, and the periodic change of the target pixel time density change NT and the periodic change of the reference pixel time density change NR are corrected. The change can be compared as a change in the same phase. As a result, the cycle evaluation unit 140A (140A ′) can accurately determine the effectiveness of the cycle evaluation result CR.

また、対象画素TPとの空間的な距離が所定距離値以下となる画素を参照画素RPとして決定することにより、対象画素TPの信号と似通った信号の画素を参照画素RPとして決定することが可能となる。これにより、周期評価結果CRの有効性の判断を行うに相応しい空間相関値が得られ、適切な評価を行うことが可能となる。   In addition, by determining a pixel whose spatial distance from the target pixel TP is equal to or smaller than a predetermined distance value as the reference pixel RP, a pixel having a signal similar to the signal of the target pixel TP can be determined as the reference pixel RP. It becomes. As a result, a spatial correlation value suitable for determining the validity of the period evaluation result CR can be obtained, and appropriate evaluation can be performed.

<2−5.参照画素RPの選択方法の変形例>
参照画素RPの選択方法として、上述では、対象画素TPとの空間的な距離から参照画素RPを決定(選択)したが、参照画素RPを選択する方法の変形例として次のような方法を採用することもできる。すなわち、参照画素決定部122が参照画素RPの候補となる参照候補画素を複数決定し、対象画素評価部240A(240A’)が、血流周期PC内における参照候補画素の画素値である参照候補画素値の時間方向に対する濃度変化を示す参照候補画素時間濃度変化を算出し、参照候補画素時間濃度変化のうち、最大値が所定の閾値以上を満足する1つの変化を参照画素時間濃度変化NRとして決定してもよい。
<2-5. Modified example of selection method of reference pixel RP>
In the above description, the reference pixel RP is determined (selected) from the spatial distance from the target pixel TP as a method for selecting the reference pixel RP. However, the following method is adopted as a modification of the method for selecting the reference pixel RP. You can also That is, the reference pixel determining unit 122 determines a plurality of reference candidate pixels that are candidates for the reference pixel RP, and the target pixel evaluating unit 240A (240A ′) is a reference candidate that is the pixel value of the reference candidate pixel in the blood flow cycle PC. A reference candidate pixel time density change indicating a density change in the time direction of the pixel value is calculated, and one change in which the maximum value satisfies a predetermined threshold or more among the reference candidate pixel time density changes is defined as a reference pixel time density change NR. You may decide.

図15は、参照画素RPの選択方法の変形例を説明するブロック図である。図15で示されるように、参照画素時間濃度変化算出部243”が、血流周期PC内における参照候補画素の画素値である参照候補画素値の時間方向に対する濃度変化を示す参照候補画素時間濃度変化を算出し、参照画素確定部247が、参照候補画素時間濃度変化のうち、最大値が所定の閾値以上を満足する1つの変化を参照画素時間濃度変化NRとして決定する。   FIG. 15 is a block diagram illustrating a modification of the method for selecting the reference pixel RP. As shown in FIG. 15, the reference pixel time density change calculation unit 243 ″ indicates the reference candidate pixel time density indicating the density change in the time direction of the reference candidate pixel value that is the pixel value of the reference candidate pixel in the blood flow cycle PC. The change is calculated, and the reference pixel determination unit 247 determines, as the reference pixel time density change NR, one change in which the maximum value satisfies a predetermined threshold value or more among the reference candidate pixel time density changes.

このように、参照候補画素時間濃度変化のうち、最大値が所定の閾値以上を満足する変化を参照画素時間濃度変化NRとして決定することにより、複数の参照候補画素のうち、ノイズをもつ画素を除外して参照画素RPを決定することができるため、周期評価結果CRの有効性の判断を行うに相応しい空間相関値fs(fs’)が得られ、適切な評価を行うことが可能となる。   As described above, by determining, as the reference pixel time density change NR, a change in which the maximum value among the reference candidate pixel time density changes satisfies a predetermined threshold or more, a pixel having noise among a plurality of reference candidate pixels is determined. Since the reference pixel RP can be determined by excluding it, a spatial correlation value fs (fs ′) suitable for determining the validity of the period evaluation result CR can be obtained, and appropriate evaluation can be performed.

<3.第3実施形態>
図18は、本発明の第3実施形態として構成された画像処理装置3Bで用いられる制御部31Bの機能構成を示す図である。この制御部31Bは、第1実施形態の画像処理装置3における制御部31(図4参照)の代替として使用される。第1実施形態と異なる点は、画素決定部120が画素決定部120Bに変更され、周期評価部140が周期評価部140Bに変更される点である。なお、残余の構成は画像処理装置3と同様である。
<3. Third Embodiment>
FIG. 18 is a diagram illustrating a functional configuration of the control unit 31B used in the image processing apparatus 3B configured as the third embodiment of the present invention. The control unit 31B is used as an alternative to the control unit 31 (see FIG. 4) in the image processing apparatus 3 of the first embodiment. The difference from the first embodiment is that the pixel determining unit 120 is changed to the pixel determining unit 120B, and the cycle evaluating unit 140 is changed to the cycle evaluating unit 140B. The remaining configuration is the same as that of the image processing apparatus 3.

<3−1.画素決定部120B>
画素決定部120Bにおける対象画素決定部121Bでは、決定される対象画素TPは複数の画素である。対象画素TPが複数の画素である場合、対象領域TA内の画素すべてを対象画素TPとしても良いが、より安定的かつ高速に処理するために対象領域TAの一部を対象画素TPとして用いることが考えられる。
<3-1. Pixel Determination Unit 120B>
In the target pixel determination unit 121B in the pixel determination unit 120B, the target pixel TP to be determined is a plurality of pixels. When the target pixel TP is a plurality of pixels, all the pixels in the target area TA may be set as the target pixel TP, but a part of the target area TA is used as the target pixel TP for more stable and high-speed processing. Can be considered.

図19は、複数の対象画素TPの決定方法を例示する図であり、図19(a)ではフレーム画像IG上の対象領域TAを示し、図19(b)及び図19(c)では対象領域TA内の複数の対象画素TPの選択方法を説明する図である。図19(b)で示されるように、対象領域TA内の血管ではない領域EXは画素変動が少ないため除外し、一定値以上の画素変動のある画素TPa〜TPdを対象画素TPとして選択することができるほか、ハイパスフィルタにより、血流とは無関係の呼吸などによる画素変動を除外してもよい。一方、図19(c)で示されるように、血流方向に対して垂直方向に沿って複数の画素TPe〜TPgを対象画素TPとして選択してもよく、この方法を採用すれば、上述したように、位相及び振幅の調整が不要になるため、時間濃度変化NTの相互類似性の観点から有効である。   FIG. 19 is a diagram illustrating a method for determining a plurality of target pixels TP. FIG. 19A shows the target area TA on the frame image IG, and FIGS. 19B and 19C show the target area. It is a figure explaining the selection method of several target pixel TP in TA. As shown in FIG. 19 (b), the region EX that is not a blood vessel in the target region TA is excluded because the pixel variation is small, and pixels TPa to TPd having pixel variations of a certain value or more are selected as the target pixel TP. In addition, pixel variation due to respiration unrelated to blood flow may be excluded by a high-pass filter. On the other hand, as shown in FIG. 19C, a plurality of pixels Tpe to TPg may be selected as the target pixel TP along the direction perpendicular to the blood flow direction. As described above, since adjustment of the phase and amplitude is not necessary, it is effective from the viewpoint of mutual similarity of the time density change NT.

<3−2.周期評価部140B>
図20は、第3実施形態に係る周期評価部140Bの詳細を示すブロック図である。図20で示されるように、周期評価部140Bは、対象画素評価部240Bと周期評価結果決定部340Bとを備えて構成される。
<3-2. Period Evaluation Unit 140B>
FIG. 20 is a block diagram illustrating details of the period evaluation unit 140B according to the third embodiment. As shown in FIG. 20, the cycle evaluation unit 140B includes a target pixel evaluation unit 240B and a cycle evaluation result determination unit 340B.

<3−2−1.対象画素評価部240B>
対象画素評価部240Bは、対象画素時間濃度算出部241Bと対象画素評価値算出部242Bとを備えて構成される。
<3-2-1. Target Pixel Evaluation Unit 240B>
The target pixel evaluation unit 240B includes a target pixel time density calculation unit 241B and a target pixel evaluation value calculation unit 242B.

対象画素評価値算出部242Bでは、対象画素決定部121Bにより決定された複数の対象画素TPに対して複数の対象画素評価値ftを算出する。   The target pixel evaluation value calculation unit 242B calculates a plurality of target pixel evaluation values ft for the plurality of target pixels TP determined by the target pixel determination unit 121B.

具体的には、図20で示されるように、対象画素時間濃度変化算出部241Bが、対象画素決定部121Bにより決定された複数の対象画素TP(1)〜TP(n)(nは正の整数)に対して、それぞれ対象画素時間濃度変化NT(1)〜NT(n)を算出する。そして、対象画素評価値算出部242Bが、第1及び第2実施形態の対象画素評価値算出部242と同様の算出処理を行うことにより、該対象画素時間濃度変化NT(1)〜NT(n)に対して、それぞれ対象画素評価値ft(1)〜ft(n)を算出する。   Specifically, as illustrated in FIG. 20, the target pixel time density change calculation unit 241B performs a plurality of target pixels TP (1) to TP (n) (n is a positive value) determined by the target pixel determination unit 121B. The target pixel time density change NT (1) to NT (n) is calculated for each (integer). Then, the target pixel evaluation value calculation unit 242B performs the same calculation processing as the target pixel evaluation value calculation unit 242 of the first and second embodiments, so that the target pixel time density change NT (1) to NT (n ), The target pixel evaluation values ft (1) to ft (n) are calculated.

<3−2−2.周期評価結果決定部340B>
周期評価結果決定部340Bは、統計対象画素評価値算出部341Bを備えて構成される(図20参照)。統計対象画素評価値算出部341Bでは、以下の統計値(d1)〜(d4)のうち、少なくとも1つの統計値Ftに基づいて統計対象画素評価値Stを算出する。
<3-2-2. Period Evaluation Result Determination Unit 340B>
The period evaluation result determination unit 340B includes a statistical object pixel evaluation value calculation unit 341B (see FIG. 20). The statistical target pixel evaluation value calculation unit 341B calculates a statistical target pixel evaluation value St based on at least one statistical value Ft among the following statistical values (d1) to (d4).

(d1)複数の対象画素評価値ft(1)〜ft(n)の総和に基づいて統計値Ftを算出する。すなわち、統計値Ftは、対象画素評価値ft(1)〜ft(n)に対する係数をβ(1)〜β(n)とすると、以下の式(4)より算出される。   (D1) The statistical value Ft is calculated based on the sum of the plurality of target pixel evaluation values ft (1) to ft (n). That is, the statistical value Ft is calculated by the following equation (4), where β (1) to β (n) are coefficients for the target pixel evaluation values ft (1) to ft (n).

(d2)複数の対象画素評価値ft(1)〜ft(n)のうち、一定値(所定値)以上の対象画素評価値ftの総和に基づいて統計値Ftを算出する。ここで、一定値をXとすれば、上式4と同様に、以下の式(5)より算出される。   (D2) The statistical value Ft is calculated based on the sum of the target pixel evaluation values ft that are equal to or greater than a predetermined value (predetermined value) among the plurality of target pixel evaluation values ft (1) to ft (n). Here, if the constant value is X, it is calculated from the following equation (5) as in the above equation (4).

(d3)複数の対象画素評価値ft(1)〜ft(n)のうちの最高値に基づいて統計値Ftを算出する。すなわち、以下の式(6)より算出される。   (D3) The statistical value Ft is calculated based on the highest value among the plurality of target pixel evaluation values ft (1) to ft (n). That is, it is calculated from the following equation (6).

(d4)複数の対象画素TP(1)〜TP(n)間における対象画素時間濃度変化NT(1)〜NT(n)の類似性に基づいて統計値Ftを算出する。ここで、類似性とは、上述の空間相関値fs(fs’)(図16参照)と同様の手法を用いることができる。すなわち、前述の図16の場合では、1つの対象画素TPの対象画素時間濃度変化NTと1つの参照画素RPの参照画素時間濃度変化NRとの空間的な類似性を空間相関値fs(fs’)より算出したが、この統計値(d4)では、複数の対象画素TPの複数の対象画素時間濃度変化NT間の空間的な類似性を空間相関値より算出する。   (D4) The statistical value Ft is calculated based on the similarity of the target pixel time density changes NT (1) to NT (n) between the plurality of target pixels TP (1) to TP (n). Here, as the similarity, a method similar to the above-described spatial correlation value fs (fs ′) (see FIG. 16) can be used. That is, in the case of FIG. 16, the spatial similarity between the target pixel time density change NT of one target pixel TP and the reference pixel time density change NR of one reference pixel RP is represented by the spatial correlation value fs (fs ′ In this statistical value (d4), the spatial similarity between the plurality of target pixel time density changes NT of the plurality of target pixels TP is calculated from the spatial correlation value.

以上の(d1)〜(d4)のほか、複数の対象画素TP(1)〜TP(n)間における判断要素(a1)〜(a6)の評価値etを比較した類似度に基づいて統計値Ftを算出してもよい。   In addition to the above (d1) to (d4), the statistical value is based on the similarity obtained by comparing the evaluation values et of the determination elements (a1) to (a6) among the plurality of target pixels TP (1) to TP (n). Ft may be calculated.

このように、統計対象画素評価値Stは、各々の統計値Ftのみを用いて付与することができる一方で、統計値(d1)〜(d4)のうちの幾つかの統計値Ftの組合せ、または、統計値(d1)〜(d4)全てを用いて、統計対象画素評価値Stを付与することも可能である。すなわち、m2(m2は4以下の正の整数)個の統計値Ft(1)〜Ft(m2)が存在する場合、統計対象画素評価値Stは、統計値Ft(1)〜Ft(m2)に対する係数をα2(1)〜α2(m2)とすると、以下の式(7)より算出される。   As described above, the statistical object pixel evaluation value St can be given using only each statistical value Ft, while a combination of several statistical values Ft among the statistical values (d1) to (d4), Alternatively, the statistical object pixel evaluation value St can be assigned using all of the statistical values (d1) to (d4). That is, when there are m2 (m2 is a positive integer of 4 or less) statistical values Ft (1) to Ft (m2), the statistical target pixel evaluation value St is the statistical value Ft (1) to Ft (m2). Assuming that the coefficient with respect to is α2 (1) to α2 (m2), it is calculated from the following equation (7).

最後に、周期評価結果決定部340B(周期評価部140B)が、統計対象画素評価値Stを周期評価結果CRとして決定する。   Finally, the cycle evaluation result determination unit 340B (cycle evaluation unit 140B) determines the statistical object pixel evaluation value St as the cycle evaluation result CR.

<3−3.画像処理装置3Bの基本動作>
続いて、図21は、第3実施形態に係る画像処理装置3Bの動作フローを例示した図である。なお、図21のうち、ステップSB1,SB3,SB5は図11のステップS1,S3,S5と同様であるため、その説明は省略する。
<3-3. Basic Operation of Image Processing Device 3B>
Subsequently, FIG. 21 is a diagram illustrating an operation flow of the image processing apparatus 3B according to the third embodiment. In FIG. 21, steps SB1, SB3, and SB5 are the same as steps S1, S3, and S5 of FIG.

この第3実施形態では、第1実施形態とは異なり、対象画素TPを複数決定されたことで、下記の工程のみが変更される。   In the third embodiment, unlike the first embodiment, only the following steps are changed by determining a plurality of target pixels TP.

すなわち、第1実施形態と同様の工程として、ステップSB1を経て、図21で示されるように、ステップSB2にて、画素決定部120Bにおいて、対象画素決定部121Bが、複数のフレーム画像IGのそれぞれの対象領域TA内において、複数の対象画素TPを決定する(図19参照)。   That is, as a process similar to that of the first embodiment, after step SB1, as shown in FIG. 21, in step SB2, the target pixel determination unit 121B in each of the plurality of frame images IG in the pixel determination unit 120B. In the target area TA, a plurality of target pixels TP are determined (see FIG. 19).

また、ステップSB4では、周期評価部140Bの対象画素評価部240Bが、血流周期PC毎に、複数の対象画素TP(1)〜TP(n)(nは正の整数)に対して、それぞれ対象画素評価値ft(1)〜ft(n)を算出し、続いて、周期評価結果決定部340Bの統計対象画素評価値算出部341Bが、対象画素評価値ft(1)〜ft(n)を用いて算出された統計値Ft(上記の統計値(d1)〜(d4)のうち、少なくとも1つの統計値Ftに対応)に基づいて統計対象画素評価値Stを算出する(図20参照)。そして、残余の工程は第1実施形態と同様となる。   Further, in step SB4, the target pixel evaluation unit 240B of the cycle evaluation unit 140B performs a plurality of target pixels TP (1) to TP (n) (n is a positive integer) for each blood flow cycle PC. The target pixel evaluation values ft (1) to ft (n) are calculated, and then the statistical target pixel evaluation value calculation unit 341B of the cycle evaluation result determination unit 340B performs the target pixel evaluation values ft (1) to ft (n). The statistical object pixel evaluation value St is calculated based on the statistical value Ft calculated by using (corresponding to at least one statistical value Ft among the above statistical values (d1) to (d4)) (see FIG. 20). . The remaining steps are the same as in the first embodiment.

以上のように第3実施形態に係る画像処理装置3Bでは、周期評価結果CRは統計対象画素評価値Stであることにより、フレーム画像IG上の広範囲領域から適切な周期選択の判定を行うことができる。すなわち、対象領域TA内の最も統計対象画素評価値Stの高い(周期的な波形特徴を捉えた)画素群に基づいて、周期評価結果CRを出力することが可能となる。   As described above, in the image processing device 3B according to the third embodiment, the cycle evaluation result CR is the statistical object pixel evaluation value St, so that it is possible to determine appropriate cycle selection from a wide area on the frame image IG. it can. That is, it is possible to output the periodic evaluation result CR based on the pixel group having the highest statistical target pixel evaluation value St (capturing periodic waveform features) in the target area TA.

また、上記の統計値(d2)一定値(所定値)X以上の対象画素評価値ftの総和、統計値(d3)対象画素評価値ftのうちの最高値、統計値(d4)複数の対象画素TP(1)〜TP(n)間における対象画素時間濃度変化NT(1)〜NT(n)の類似性、のうち、少なくとも1つの統計値Ftに基づいて統計所定画素評価値Stを算出する場合、対象画素評価値ftの低いまたは所望の信号が存在しない領域(画素)を対象画素から外す判断を行うことができる。これにより、対象画素評価値ftの低いまたは所望の信号が存在しない領域(画素)が取り除かれるため、計算時間の短縮化が図れ、安定的かつ高速にノイズ除去が可能となる。   Also, the sum of the target pixel evaluation values ft of the statistical value (d2) above a certain value (predetermined value) X, the statistical value (d3) the highest value among the target pixel evaluation values ft, and a plurality of statistical values (d4) The statistical predetermined pixel evaluation value St is calculated based on at least one statistical value Ft among the similarities of the target pixel time density changes NT (1) to NT (n) between the pixels TP (1) to TP (n). In this case, it is possible to determine that a region (pixel) having a low target pixel evaluation value ft or no desired signal is excluded from the target pixel. As a result, a region (pixel) where the target pixel evaluation value ft is low or a desired signal does not exist is removed, so that the calculation time can be shortened and noise can be stably and rapidly removed.

<4.第4実施形態>
図22は、本発明の第4実施形態として構成された画像処理装置3Cで用いられる制御部31Cの機能構成を示す図である。この制御部31C(31C’)は、第2実施形態の画像処理装置3A(3A’)における制御部31A(31A’)(図4参照)の代替として使用される。第2実施形態と異なる点は、画素決定部120Aが画素決定部120Cに変更され、周期評価部140A(140A’)が周期評価部140C(140C’)に変更される点である。なお、残余の構成は画像処理装置3A(3A’)と同様である。
<4. Fourth Embodiment>
FIG. 22 is a diagram illustrating a functional configuration of a control unit 31C used in the image processing apparatus 3C configured as the fourth embodiment of the present invention. The control unit 31C (31C ′) is used as an alternative to the control unit 31A (31A ′) (see FIG. 4) in the image processing apparatus 3A (3A ′) of the second embodiment. The difference from the second embodiment is that the pixel determining unit 120A is changed to the pixel determining unit 120C, and the cycle evaluation unit 140A (140A ′) is changed to the cycle evaluation unit 140C (140C ′). The remaining configuration is the same as that of the image processing apparatus 3A (3A ′).

<4−1.画素決定部120C>
画素決定部120Cでは、対象画素決定部121Cと参照画素決定部122Cとを備えて構成される。
<4-1. Pixel Determination Unit 120C>
The pixel determining unit 120C includes a target pixel determining unit 121C and a reference pixel determining unit 122C.

対象画素決定部121Cでは、対象画素決定部121Bと同様に、決定される対象画素TPは複数の画素である。なお、複数の対象画素TP(1)〜TP(n)(nは整数)の選択方法は、図19で説明した通りである。   In the target pixel determining unit 121C, the target pixel TP to be determined is a plurality of pixels as in the target pixel determining unit 121B. The method for selecting the plurality of target pixels TP (1) to TP (n) (n is an integer) is as described in FIG.

参照画素決定部122Cでは、参照画素決定部122と同様に、複数の対象画素TP(1)〜TP(n)それぞれに対応する参照画素RP(1)〜RP(n)を決定する。なお、各々の対象画素TPと参照画素RPとの関係は上記で説明した通りである。すなわち、複数の対象画素TP(1)〜TP(n)とは異なり、複数の対象画素TP(1)〜TP(n)に対応する複数の参照画素RP(1)〜RP(n)を決定する。   Similar to the reference pixel determination unit 122, the reference pixel determination unit 122C determines reference pixels RP (1) to RP (n) corresponding to the plurality of target pixels TP (1) to TP (n), respectively. The relationship between each target pixel TP and the reference pixel RP is as described above. That is, unlike the plurality of target pixels TP (1) to TP (n), the plurality of reference pixels RP (1) to RP (n) corresponding to the plurality of target pixels TP (1) to TP (n) are determined. To do.

<4−2.周期評価部140C,周期評価部140C’>
図23及び図24は、第4実施形態に係る周期評価部140C及び140C’の詳細をそれぞれ示すブロック図である。図23で示されるように、周期評価部140Cは対象画素評価部240Cと周期評価結果決定部340Cとを備えて構成され、図24で示されるように、周期評価部140C’は対象画素評価部240C’と周期評価結果決定部340C’とを備えて構成される。
<4-2. Period evaluation unit 140C, period evaluation unit 140C ′>
23 and 24 are block diagrams showing details of the period evaluation units 140C and 140C ′ according to the fourth embodiment, respectively. As shown in FIG. 23, the cycle evaluation unit 140C includes a target pixel evaluation unit 240C and a cycle evaluation result determination unit 340C. As shown in FIG. 24, the cycle evaluation unit 140C ′ includes the target pixel evaluation unit. 240C ′ and a period evaluation result determination unit 340C ′.

<4−2−1.対象画素評価部240C>
対象画素評価部240Cでは、対象画素評価部240A(図13参照)と同様の機能構成を備えるが、対象画素評価部240Aと異なる点は、複数の対象画素TP(1)〜TP(n)に対してそれぞれ対象画素評価値ft(1)〜ft(n)及び空間相関値fs(1)〜fs(n)を算出する点である(図23参照)。
<4-2-1. Target Pixel Evaluation Unit 240C>
The target pixel evaluation unit 240C includes a functional configuration similar to that of the target pixel evaluation unit 240A (see FIG. 13), but is different from the target pixel evaluation unit 240A in the plurality of target pixels TP (1) to TP (n). On the other hand, target pixel evaluation values ft (1) to ft (n) and spatial correlation values fs (1) to fs (n) are calculated (see FIG. 23).

具体的には、図23で示されるように、対象画素時間濃度変化算出部241Cが、対象画素決定部121Cにより決定された複数の対象画素TP(1)〜TP(n)に対して、それぞれ対象画素時間濃度変化NT(1)〜NT(n)を算出するとともに、参照画素時間濃度変化算出部243Cが、参照画素決定部122Cにより決定された複数の参照画素RP(1)〜RP(n)に対して、それぞれ参照画素時間濃度変化NR(1)〜NR(n)を算出する。   Specifically, as illustrated in FIG. 23, the target pixel time density change calculation unit 241C performs each of the plurality of target pixels TP (1) to TP (n) determined by the target pixel determination unit 121C. While calculating the target pixel time density changes NT (1) to NT (n), the reference pixel time density change calculating unit 243C has a plurality of reference pixels RP (1) to RP (n) determined by the reference pixel determining unit 122C. ), Reference pixel time density changes NR (1) to NR (n) are calculated.

続いて、位相振幅補正部244Cが、第2実施形態の位相振幅補正部244と同様の算出処理を対象画素時間濃度変化NT(1)〜NT(n)と参照画素時間濃度変化NR(1)〜NR(n)とのn個のペアに対してそれぞれ行う。そして、対象画素評価値算出部242Cが、第2実施形態の対象画素評価値算出部242と同様の算出処理を行うことにより、該対象画素時間濃度変化NT(1)〜NT(n)(または、NT’(1)〜NT’(n))に対して、それぞれ対象画素評価値ft(1)〜ft(n)を算出するとともに、参照画素評価値算出部245Cが、第2実施形態の参照画素評価値算出部245と同様の算出処理を行うことにより、該参照画素時間濃度変化NR(1)〜NR(n)(または、NR’(1)〜NR’(n))に対して、それぞれ参照画素評価値fr(1)〜fr(n)を算出する。   Subsequently, the phase amplitude correction unit 244C performs the same calculation processing as the phase amplitude correction unit 244 of the second embodiment on the target pixel time density change NT (1) to NT (n) and the reference pixel time density change NR (1). To n pairs with ~ NR (n). Then, the target pixel evaluation value calculation unit 242C performs the same calculation process as the target pixel evaluation value calculation unit 242 of the second embodiment, so that the target pixel time density change NT (1) to NT (n) (or , NT ′ (1) to NT ′ (n)), the target pixel evaluation values ft (1) to ft (n) are calculated respectively, and the reference pixel evaluation value calculation unit 245C of the second embodiment By performing the same calculation process as that of the reference pixel evaluation value calculation unit 245, the reference pixel time density changes NR (1) to NR (n) (or NR ′ (1) to NR ′ (n)) are performed. , Reference pixel evaluation values fr (1) to fr (n) are calculated.

さらに、空間相関値算出部246Cが、第1の空間相関値算出処理を実行して複数の対象画素評価値ft(1)〜ft(n)に対応する複数の空間相関値fs(1)〜fs(n)を算出する。   Furthermore, the spatial correlation value calculation unit 246C executes a first spatial correlation value calculation process to perform a plurality of spatial correlation values fs (1) to fs (1) to ft (n) corresponding to the plurality of target pixel evaluation values ft (1) to ft (n). fs (n) is calculated.

<4−2−2.対象画素評価部240C’>
対象画素評価部240C’においては、対象画素評価部240A’(図14参照)と同様の機能構成を備えるが、対象画素評価部240A’と異なる点は、複数の対象画素TP(1)〜TP(n)に対してそれぞれ対象画素評価値ft(1)〜ft(n)及び空間相関値fs’(1)〜fs’(n)を算出する点である(図24参照)。
<4-2-2. Target Pixel Evaluation Unit 240C ′>
The target pixel evaluation unit 240C ′ has a functional configuration similar to that of the target pixel evaluation unit 240A ′ (see FIG. 14), but is different from the target pixel evaluation unit 240A ′ in that a plurality of target pixels TP (1) to TP The target pixel evaluation values ft (1) to ft (n) and spatial correlation values fs ′ (1) to fs ′ (n) are calculated for (n), respectively (see FIG. 24).

具体的には、図24で示されるように、対象画素評価部240Cと同様に、位相振幅補正部244Cが対象画素時間濃度変化NT(1)〜NT(n)(または、NT’(1)〜NT’(n))及び参照画素時間濃度変化NR(1)〜NR(n)(または、NR’(1)〜NR’(n))を算出処理後、空間相関値算出部246C’が、第2の空間相関値算出処理を実行して複数の対象画素評価値ft(1)〜ft(n)に対応する複数の空間相関値fs’(1)〜fs’(n)を算出する。   Specifically, as shown in FIG. 24, similarly to the target pixel evaluation unit 240C, the phase amplitude correction unit 244C performs the target pixel time density change NT (1) to NT (n) (or NT ′ (1). ˜NT ′ (n)) and the reference pixel time density change NR (1) to NR (n) (or NR ′ (1) to NR ′ (n)), the spatial correlation value calculation unit 246C ′ The second spatial correlation value calculation process is executed to calculate a plurality of spatial correlation values fs ′ (1) to fs ′ (n) corresponding to the plurality of target pixel evaluation values ft (1) to ft (n). .

<4−2−3.周期評価結果決定部340C>
続いて、周期評価結果決定部340Cは統計対象画素評価値算出部341Cを備えて構成される(図23参照)。
<4-2-3. Period Evaluation Result Determination Unit 340C>
Subsequently, the cycle evaluation result determination unit 340C includes a statistical object pixel evaluation value calculation unit 341C (see FIG. 23).

統計対象画素評価値算出部341Cでは、統計対象画素評価値算出部341B(図20参照)と同様の機能構成を備えるが、統計対象画素評価値算出部341Bと異なる点は、図23で示されるように、空間相関値fs(1)〜fs(n)を考慮して、統計対象画素評価値Stを算出する点である。   The statistical target pixel evaluation value calculation unit 341C has the same functional configuration as that of the statistical target pixel evaluation value calculation unit 341B (see FIG. 20), but is different from the statistical target pixel evaluation value calculation unit 341B in FIG. Thus, the statistical object pixel evaluation value St is calculated in consideration of the spatial correlation values fs (1) to fs (n).

すなわち、統計対象画素評価値算出部341C(周期評価結果決定部340C)では、複数の対象画素評価値ft(1)〜ft(n)のうち、複数の空間相関値fs(1)〜fs(n)に基づき有効と判断された所定数の有効対象画素評価値ftあるいは所定数の有効対象画素TPに対し、(d1)所定数の有効対象画素評価値ftの総和、(d2)所定数の有効対象画素評価値ftのうち、所定値以上の対象画素評価値ftの総和、(d3)所定数の有効対象画素評価値ftのうちの最高値、(d4)所定数の有効対象画素TP間における対象画素時間濃度変化NTの類似性、の統計値(d1)〜(d4)のうち、少なくとも1つの統計値に基づいて統計所定画素評価値Stを算出する。   That is, in the statistical target pixel evaluation value calculation unit 341C (periodic evaluation result determination unit 340C), among the plurality of target pixel evaluation values ft (1) to ft (n), a plurality of spatial correlation values fs (1) to fs ( n) (d1) the sum of a predetermined number of effective target pixel evaluation values ft for a predetermined number of effective target pixel evaluation values ft or a predetermined number of effective target pixels TP determined to be effective based on n), and (d2) a predetermined number of Among the effective target pixel evaluation values ft, the sum of target pixel evaluation values ft that are equal to or greater than a predetermined value, (d3) the highest value among a predetermined number of effective target pixel evaluation values ft, and (d4) between a predetermined number of effective target pixel TPs The statistical predetermined pixel evaluation value St is calculated based on at least one of the statistical values (d1) to (d4) of the similarity of the target pixel time density change NT.

そして、周期評価結果決定部340C(周期評価部140C)が、統計対象画素評価値Stを周期評価結果CRとして決定する(図22参照)。   Then, the cycle evaluation result determination unit 340C (cycle evaluation unit 140C) determines the statistical object pixel evaluation value St as the cycle evaluation result CR (see FIG. 22).

<4−2−4.周期評価結果決定部340C’>
また、周期評価結果決定部340C’は、統計対象画素評価値算出部341C’を備えて構成される(図24参照)。
<4-2-4. Period Evaluation Result Determination Unit 340C ′>
Further, the period evaluation result determination unit 340C ′ includes a statistical object pixel evaluation value calculation unit 341C ′ (see FIG. 24).

統計対象画素評価値算出部341C’においても、統計対象画素評価値算出部341C(図23参照)と同様の機能構成を備えるが、統計対象画素評価値算出部341Cと異なる点は、図24で示されるように、空間相関値fs’(1)〜fs’(n)を考慮して、統計対象画素評価値Stを算出する点である。すなわち、統計対象画素評価値算出部341C’(周期評価結果決定部340C’)では、複数の対象画素評価値ft(1)〜ft(n)のうち、複数の空間相関値fs’(1)〜fs’(n)に基づき有効と判断された所定数の有効対象画素評価値ftあるいは所定数の有効対象画素TPに対し、上記統計値(d1)〜(d4)のうち、少なくとも1つの統計値に基づいて統計対象画素評価値Stを算出する。   The statistical target pixel evaluation value calculation unit 341C ′ also has the same functional configuration as the statistical target pixel evaluation value calculation unit 341C (see FIG. 23), but is different from the statistical target pixel evaluation value calculation unit 341C in FIG. As shown, the statistical object pixel evaluation value St is calculated in consideration of the spatial correlation values fs ′ (1) to fs ′ (n). That is, in the statistical target pixel evaluation value calculation unit 341C ′ (periodic evaluation result determination unit 340C ′), among the plurality of target pixel evaluation values ft (1) to ft (n), a plurality of spatial correlation values fs ′ (1). At least one of the statistical values (d1) to (d4) for a predetermined number of effective target pixel evaluation values ft or a predetermined number of effective target pixels TP determined to be effective based on .about.fs' (n). The statistical object pixel evaluation value St is calculated based on the value.

そして、周期評価結果決定部340C’(周期評価部140C’)が、統計対象画素評価値Stを周期評価結果CRとして決定する(図22参照)。   Then, the cycle evaluation result determination unit 340C ′ (cycle evaluation unit 140C ′) determines the statistical object pixel evaluation value St as the cycle evaluation result CR (see FIG. 22).

<4−3.画像処理装置3C(3C’)の基本動作>
図25は、第4実施形態に係る画像処理装置3C(3C’)の動作フローを例示した図である。なお、図25のうち、ステップSC1,SC3,SC5は図17のステップSA1,SA3,SA5と同様であるため、その説明は省略する。
<4-3. Basic Operation of Image Processing Device 3C (3C ′)>
FIG. 25 is a diagram illustrating an operation flow of the image processing apparatus 3C (3C ′) according to the fourth embodiment. In FIG. 25, steps SC1, SC3, and SC5 are the same as steps SA1, SA3, and SA5 in FIG.

この第4実施形態では、第2実施形態とは異なり、対象画素TPが複数決定されたことで、下記の工程のみが変更される。   In the fourth embodiment, unlike the second embodiment, only the following steps are changed by determining a plurality of target pixels TP.

すなわち、第2実施形態と同様の工程として、ステップSC1を経て、図25で示されるように、ステップSC2にて、画素決定部120Cにおいて、対象画素決定部121Cが、複数のフレーム画像IGのそれぞれの対象領域TA内において、複数の対象画素TP(1)〜TP(n)を決定とともに、参照画素決定部122Cがそれに対応する複数の参照画素RP(1)〜RP(n)を決定する。   That is, as a process similar to the second embodiment, through step SC1, as shown in FIG. 25, in step SC2, in the pixel determining unit 120C, the target pixel determining unit 121C includes each of the plurality of frame images IG. In the target area TA, a plurality of target pixels TP (1) to TP (n) are determined, and the reference pixel determination unit 122C determines a plurality of reference pixels RP (1) to RP (n) corresponding thereto.

また、ステップSC4では、周期評価部140C(140C’)の対象画素評価部240C(240C’)が、血流周期PC毎に、対象画素評価値ft(1)〜ft(n)及び空間相関値fs(1)〜fs(n)(fs’(1)〜fs’(n))を算出し、統計対象画素評価値算出部341C(341C’)が、該複数の空間相関値fs(fs’)に基づき有効と判断された所定数の有効対象画素評価値ftあるいは所定数の有効対象画素TPに対し、上記統計値(d1)〜(d4)のうち、少なくとも1つの統計値に基づいて統計対象画素評価値Stを算出する(図23,図24参照)。そして、周期評価結果決定部340C(340C’)が、統計対象画素評価値Stを周期評価結果CRとして決定する(図22参照)。そして、残余の工程は第2実施形態と同様となる。   In step SC4, the target pixel evaluation unit 240C (240C ′) of the cycle evaluation unit 140C (140C ′) performs the target pixel evaluation values ft (1) to ft (n) and the spatial correlation value for each blood flow cycle PC. fs (1) to fs (n) (fs ′ (1) to fs ′ (n)) are calculated, and the statistical object pixel evaluation value calculation unit 341C (341C ′) calculates the plurality of spatial correlation values fs (fs ′ ) For a predetermined number of effective target pixel evaluation values ft or a predetermined number of effective target pixels TP determined to be effective based on at least one of the statistical values (d1) to (d4). The target pixel evaluation value St is calculated (see FIGS. 23 and 24). Then, the cycle evaluation result determination unit 340C (340C ′) determines the statistical object pixel evaluation value St as the cycle evaluation result CR (see FIG. 22). The remaining steps are the same as in the second embodiment.

以上のように第4実施形態に係る画像処理装置3C(3C’)では、複数の空間相関値fs(1)〜fs(n)(fs’(1)〜fs’(n))に基づいて複数の対象画素評価値ftの有効性を判断する。これにより、複数の対象画素TPそれぞれとその周囲の画素との相関を見ることでき、複数の対象画素値がノイズなのか有意な信号なのかを判定をした後、有効と判断された所定数の有効対象画素評価値ftまたは所定数の有効所定画素TPに基づき、統計対象画素評価値Stを精度良く算出することが可能となる。   As described above, in the image processing device 3C (3C ′) according to the fourth embodiment, a plurality of spatial correlation values fs (1) to fs (n) (fs ′ (1) to fs ′ (n)) are used. The effectiveness of the plurality of target pixel evaluation values ft is determined. As a result, the correlation between each of the plurality of target pixels TP and the surrounding pixels can be seen, and after determining whether the plurality of target pixel values are noise or significant signals, a predetermined number of determined to be valid Based on the valid target pixel evaluation value ft or a predetermined number of valid predetermined pixels TP, the statistical target pixel evaluation value St can be calculated with high accuracy.

<5.第5実施形態>
図26は、本発明の第5実施形態として構成された画像処理装置3Dの機能構成を示す図である。第1実施形態と異なる点は、画像処理装置3Dでは、周期選択部150により選択された特定周期フレーム画像SGが解析部36を介して記憶部32,表示部34,通信部35に出力される点である。すなわち、解析部36は特定周期フレーム画像SGに対して動画像解析処理を行った後、得られた特定周期解析画像SAを記憶部32,表示部34,通信部35に出力する。なお、残余の構成は画像処理装置3と同様である。
<5. Fifth Embodiment>
FIG. 26 is a diagram showing a functional configuration of an image processing apparatus 3D configured as the fifth embodiment of the present invention. The difference from the first embodiment is that in the image processing device 3D, the specific cycle frame image SG selected by the cycle selection unit 150 is output to the storage unit 32, the display unit 34, and the communication unit 35 via the analysis unit 36. Is a point. That is, the analysis unit 36 performs moving image analysis processing on the specific cycle frame image SG, and then outputs the obtained specific cycle analysis image SA to the storage unit 32, the display unit 34, and the communication unit 35. The remaining configuration is the same as that of the image processing apparatus 3.

解析部36では、特定周期フレーム画像SGを含むフレーム画像に対して動画像解析を行い、該動画像解析結果(特定周期解析画像SA)を得る。以下では、解析部36にて実施される動画像解析例として、血流位相解析について説明する。   The analysis unit 36 performs moving image analysis on the frame image including the specific cycle frame image SG, and obtains the moving image analysis result (specific cycle analysis image SA). Hereinafter, blood flow phase analysis will be described as an example of moving image analysis performed by the analysis unit 36.

<5−1.血流位相解析>
解析部36は、周期選択部150によって選択された特定周期フレーム画像SGを用いて、血流位相解析を行うことで特定周期解析画像SA(動画像解析結果)を得る。ここで、血流位相とは、血流が流れている位置に応じた血流の有無を示す位相情報である。本発明で用いる血流位相解析処理(血流情報生成処理)に関しては、例えば、本出願人による出願である「特願2011−115601号(出願日:平成23年5月24日)」を採用することができる。
<5-1. Blood flow phase analysis>
The analysis unit 36 obtains a specific cycle analysis image SA (moving image analysis result) by performing a blood flow phase analysis using the specific cycle frame image SG selected by the cycle selection unit 150. Here, the blood flow phase is phase information indicating the presence or absence of blood flow according to the position where the blood flow is flowing. Regarding blood flow phase analysis processing (blood flow information generation processing) used in the present invention, for example, “Japanese Patent Application No. 2011-115601 (filing date: May 24, 2011)” filed by the present applicant is adopted. can do.

図27は、血流位相解析結果を例示する図であり、肺全体の血流の有無に伴う時空間変化の解析結果を例示する図であり、特定周期解析画像SAの下に付されたバーは血流の有無を示している。一般的に、血流位相解析では、心臓の収縮によって右心室から大動脈を介して血液が急激に吐出されることにより肺野血管が拡がるので、この拡がりを、動態画像を解析することにより抽出して肺全体の血流の有無に関する診断支援情報として出力するものである。即ち、肺野において血管が拡張すると、肺血管が拡がった領域の放射線透過量が、肺野(肺胞)領域を透過する放射線透過量よりも比較的大きく減少するので、この領域に対応する放射線検出部13の出力信号値が低下する。このような心臓の拍動に呼応した肺血管の拡がりは、心臓近傍の動脈から末梢へ伝播する。そこで、動態画像を構成する一連の特定周期フレーム画像SG間の放射線検出部13の画素(ピクセル)単位、または、複数画素からなる小領域単位(画素ブロック単位)を互いに対応付け、画素単位又は小領域単位毎に、信号値が最も低くなったフレーム画像SGを求め、そのフレーム画像SGの該当する領域を肺血管が血流により拡張したタイミングを示す信号として色付けする。そして、図27で示されるように、色付け後の一連の特定周期解析画像SA(特定周期フレーム画像SG)を表示部34に順次表示することで、血流の状態を医師等が視認できるようになる。なお、図27で示される白色箇所は、実際は赤色等で色付けされている。   FIG. 27 is a diagram illustrating a blood flow phase analysis result, a diagram illustrating an analysis result of a spatio-temporal change associated with the presence or absence of blood flow in the entire lung, and a bar attached below the specific period analysis image SA. Indicates the presence or absence of blood flow. In general, in blood flow phase analysis, blood vessels are rapidly discharged from the right ventricle through the aorta due to contraction of the heart, so that the blood vessels in the lung expand. Therefore, this expansion is extracted by analyzing the dynamic image. This is output as diagnostic support information regarding the presence or absence of blood flow in the entire lung. That is, when a blood vessel dilates in the lung field, the amount of radiation transmitted in the region where the pulmonary blood vessel has expanded is relatively smaller than the amount of radiation transmitted through the lung field (alveolar region). The output signal value of the detector 13 decreases. The spread of pulmonary blood vessels in response to the pulsation of the heart propagates from the artery near the heart to the periphery. Therefore, the pixel (pixel) unit of the radiation detection unit 13 between a series of specific periodic frame images SG constituting the dynamic image, or a small area unit (pixel block unit) composed of a plurality of pixels is associated with each other, so For each region unit, the frame image SG having the lowest signal value is obtained, and the corresponding region of the frame image SG is colored as a signal indicating the timing when the pulmonary blood vessels are expanded by blood flow. Then, as shown in FIG. 27, a series of specific period analysis images SA (specific period frame images SG) after coloring are sequentially displayed on the display unit 34 so that a doctor or the like can visually recognize the state of blood flow. Become. Note that the white portions shown in FIG. 27 are actually colored in red or the like.

各画素(小領域)において、血流により肺血管が拡張したタイミングを示す信号(血流信号という)は、その画素(小領域)の信号値の時間変化を示す波形(出力信号波形という)の極小値を求めることにより取得することができる。この血流信号は心臓の拍動周期と同じ間隔で表れるが、不整脈等の異常個所があると、心臓の拍動周期と異なる間隔で血流に伴う血管の拡張と関係なく極小値が表れる場合がある。そこで、心臓の拍動を示す拍動信号波形と各小領域の出力信号波形との相関係数を求めることにより、精度良く血流信号を抽出する。   In each pixel (small region), a signal (referred to as a blood flow signal) indicating the timing at which a pulmonary blood vessel is expanded by blood flow is a waveform (referred to as an output signal waveform) indicating a temporal change in the signal value of that pixel (small region). It can be obtained by obtaining the minimum value. This blood flow signal appears at the same interval as the heartbeat cycle, but if there is an abnormal part such as an arrhythmia, a minimum value appears at a different interval from the heart beat cycle regardless of blood vessel dilation There is. Therefore, the blood flow signal is accurately extracted by obtaining the correlation coefficient between the pulsation signal waveform indicating the pulsation of the heart and the output signal waveform of each small region.

以下では、肺血管領域における血流情報の検出として、肺血管領域の出力信号波形と血流信号抽出方法との概要を説明する。図28は、肺血管領域の血流信号値の時間変化を示す波形を例示する図である。図28(a)では、時間順次に取得された一連の特定周期フレーム画像SGにおいて、診断対象領域に相当する肺血管領域IRの位置を示し、図28(b)では、横軸を動態画像の撮影開始からの経過時間(フレーム番号)とし、縦軸を肺血管領域IRにおける信号値(代表値)とした座標空間上に各フレーム画像SGの肺血管領域IRの信号値(代表値)がプロットされたグラフを示す。   In the following, an outline of an output signal waveform of the pulmonary blood vessel region and a blood flow signal extraction method will be described as detection of blood flow information in the pulmonary blood vessel region. FIG. 28 is a diagram illustrating a waveform showing a temporal change in a blood flow signal value in a pulmonary blood vessel region. FIG. 28A shows the position of the pulmonary blood vessel region IR corresponding to the diagnosis target region in a series of specific periodic frame images SG acquired sequentially in time. In FIG. 28B, the horizontal axis shows the dynamic image. The signal value (representative value) of the pulmonary vascular region IR of each frame image SG is plotted on the coordinate space where the elapsed time (frame number) from the start of imaging is taken and the vertical axis is the signal value (representative value) in the pulmonary vascular region IR. The graph is shown.

ここで、図28(b)のグラフでは、呼吸と血流との位相が混在した状態であるため、次のフィルタリング処理によって、呼吸と血流のそれぞれ互いの影響を排除する。すなわち、当該フィルタリング処理では、呼吸等による低周波数な信号変化を除去し、血流による信号値の時間変化を抽出する。例えば、小領域毎の信号値の時間変化に対して、安静呼吸画像群では低域カットオフ周波数0.7Hz、深呼吸画像群では低域カットオフ周波数0.5Hzでハイパスフィルタリングを行う。若しくは、さらに高周波数のノイズ成分を除去するために2.5Hzの高域カットオフ周波数で高周波数も遮断するバンドパスフィルタによってフィルタリングを行っても良い。   Here, in the graph of FIG. 28B, since the phases of respiration and blood flow are mixed, the influences of respiration and blood flow are excluded by the following filtering process. That is, in the filtering process, a low-frequency signal change due to breathing or the like is removed, and a temporal change in the signal value due to blood flow is extracted. For example, with respect to the time change of the signal value for each small region, high-pass filtering is performed at a low-frequency cut-off frequency of 0.7 Hz in the quiet breathing image group and at a low-frequency cut-off frequency of 0.5 Hz in the deep-breathing image group. Alternatively, filtering may be performed by a band-pass filter that cuts off a high frequency at a high-frequency cutoff frequency of 2.5 Hz in order to remove a noise component at a higher frequency.

ここで、当該カットオフ周波数は、固定値とするよりも、撮影された動態画像毎に最適化することが好ましい。例えば、一連の特定周期フレーム画像SG(図28(a)参照)の心臓領域の信号変化から、心臓の収縮期の時間と拡張期(弛緩期)の時間を算出する。そして、拡張期の時間の逆数に所定の係数を乗じた値をハイパスフィルタもしくはバンドパスフィルタで低周波数を遮断するカットオフ周波数として設定し、また、バンドパスフィルタの場合は、収縮期の時間の逆数に所定の係数を乗じた値を、高周波数を遮断する高域カットオフ周波数として設定する。更に、低域カットオフ周波数は、呼吸による周波数成分を考慮し、一連の特定周期フレーム画像SGから横隔膜の位置の値や肺野領域の面積値あるいは特徴点間距離を解析し、安静換気の場合は安静呼気位及び安静吸気位となるフレーム画像SGを検出し、安静呼気位のフレームとその次の安静吸気位のフレームの間のフレーム数から吸気期の時間を求め、その逆数と、当該拡張期の時間の平均値に所定の係数を乗じた値を低域のカットオフ周波数として設定してもよい。このとき安静換気の場合、自動的に設定されるカットオフ周波数は、低域カットオフ周波数は0.2〜1.0Hzの間に、高域カットオフ周波数は、2.0Hz以上に制限することが好ましい。また、別途測定された安静時における1分間の呼吸数、脈拍数等のバイタルサインを患者情報として入力しておき、これらの値からカットオフ周波数が算出されるようにしてもよい。例えば、患者情報として入力された1分間の呼吸数を1秒間の呼吸数に変換し、その呼吸数に所定の係数を乗じた値を低域カットオフ周波数としてもよい。そして、入力された1分間の脈拍数を1秒間の脈拍数に変換し、1秒間の呼吸数に所定の係数を乗じた値を高域カットオフ周波数としてもよい。更に、1秒間の呼吸数と1秒間の心拍数の平均値に所定の係数を乗じた値を低域カットオフ周波数として設定するようにしてもよい。   Here, the cutoff frequency is preferably optimized for each captured dynamic image, rather than a fixed value. For example, the systolic time and the diastolic (relaxation) time of the heart are calculated from signal changes in the heart region of a series of specific periodic frame images SG (see FIG. 28A). A value obtained by multiplying the reciprocal of the diastole time by a predetermined coefficient is set as a cut-off frequency for cutting off low frequencies with a high-pass filter or a band-pass filter. In the case of a band-pass filter, the value of the systolic time is set. A value obtained by multiplying the reciprocal by a predetermined coefficient is set as a high-frequency cutoff frequency that cuts off the high frequency. In addition, the low frequency cut-off frequency considers the frequency component due to respiration, analyzes the position value of the diaphragm, the area value of the lung field region or the distance between feature points from a series of specific periodic frame images SG, and in the case of rest ventilation Detects the frame image SG at the resting expiratory position and the resting inspiratory position, obtains the time of the inspiratory period from the number of frames between the frame of the resting expiratory position and the frame of the next resting inspiratory position, the reciprocal thereof and the expansion A value obtained by multiplying the average value of the period time by a predetermined coefficient may be set as the low-frequency cutoff frequency. At this time, in the case of rest ventilation, the cut-off frequency that is automatically set is limited to a low cut-off frequency of 0.2 to 1.0 Hz and a high cut-off frequency of 2.0 Hz or more. Is preferred. Alternatively, vital signs such as a one-minute respiratory rate and pulse rate measured at rest may be input as patient information, and the cutoff frequency may be calculated from these values. For example, a low frequency cut-off frequency may be a value obtained by converting a respiration rate per minute input as patient information into a respiration rate per second and multiplying the respiration rate by a predetermined coefficient. Then, the input 1-minute pulse rate may be converted into a 1-second pulse rate, and a value obtained by multiplying the 1-second respiration rate by a predetermined coefficient may be used as the high-frequency cutoff frequency. Further, a value obtained by multiplying the average value of the respiration rate for one second and the heart rate for one second by a predetermined coefficient may be set as the low-frequency cutoff frequency.

<5−2.解析部36を利用した血流診断例>
図29は、血流診断例を説明する図である。患部箇所が既知の場合は患部箇所を対象領域TAとして対象画素TPを決定して特定の血流周期SPCを選択するが、患部箇所が未知の場合は対象領域TAを明確に指定できない。
<5-2. Example of blood flow diagnosis using analysis unit 36>
FIG. 29 is a diagram illustrating an example of blood flow diagnosis. When the affected area is known, the target pixel TP is determined by setting the affected area as the target area TA and a specific blood flow cycle SPC is selected. However, when the affected area is unknown, the target area TA cannot be clearly specified.

そこで、図29で示されるように、血管BVに沿って移動しながら対象領域TA(すなわち、対象画素TP)を順次変更して決定する。具体的には、血流上流(心臓に近い側)から順に血流に沿って対象領域TA(対象画素TP)を領域TA1(画素TP1)、領域TA2(画素TP2)、領域TA3(画素TP3)のように順次移動させ、各対象領域TA1,TA2,TA3に対して、順次、特定周期フレーム画像SG1,SG2,SG3を得て、特定周期フレーム画像SG1,SG2,SG3を表示部34に表示する。   Therefore, as shown in FIG. 29, the target area TA (that is, the target pixel TP) is sequentially changed and determined while moving along the blood vessel BV. Specifically, the region TA1 (pixel TP1), the region TA2 (pixel TP2), the region TA2 (pixel TP2), and the region TA3 (pixel TP3) are sequentially aligned along the bloodstream from the upstream of the blood flow (side closer to the heart). The specific periodic frame images SG1, SG2, SG3 are obtained sequentially for each of the target areas TA1, TA2, TA3, and the specific periodic frame images SG1, SG2, SG3 are displayed on the display unit 34. .

あるいは、解析部36が特定周期フレーム画像SG1,SG2,SG3に対してそれぞれ血流位相解析を行うことで、特定周期解析画像SA1,SA2,SA3を表示部34に表示する。   Or the analysis part 36 displays specific period analysis image SA1, SA2, SA3 on the display part 34 by performing a blood-flow phase analysis with respect to specific period frame image SG1, SG2, SG3, respectively.

ここで、特定周期フレーム画像SG1,SG2,SG3または特定周期解析画像SA1,SA2,SA3の表示方法は、対象領域TA1,TA2,TA3ごとに隣接配置表示するほか、特定周期解析画像SA1,SA2,SA3を重畳表示(図29参照)してもよい。これにより、特定周期解析画像SA1,SA2,SA3または特定周期解析画像SA1,SA2,SA3から、患部箇所を示す画像を得ることができるほか、血管狭窄などの患部箇所を発見することが可能となる。   Here, the display method of the specific cycle frame images SG1, SG2, SG3 or the specific cycle analysis images SA1, SA2, SA3 is displayed adjacent to each of the target areas TA1, TA2, TA3, as well as the specific cycle analysis images SA1, SA2, and SA3. SA3 may be superimposed (see FIG. 29). Thereby, it is possible to obtain an image showing the affected area from the specific period analysis images SA1, SA2, SA3 or the specific period analysis images SA1, SA2, SA3, and it is possible to find the affected area such as vascular stenosis. .

<5−3.画像処理装置3Dの基本動作>
続いて、図30は、第5実施形態に係る画像処理装置3Dの動作フローを例示した図である。なお、図30のうち、ステップSD1〜SD4は図11のステップS1〜S4と同様であるため、その説明は省略する。
<5-3. Basic Operation of Image Processing Device 3D>
Subsequently, FIG. 30 is a diagram illustrating an operation flow of the image processing device 3D according to the fifth embodiment. In FIG. 30, steps SD1 to SD4 are the same as steps S1 to S4 in FIG.

この第5実施形態では、第1実施形態とは異なり、解析部36を介して記憶部32,表示部34,通信部35に出力されるため、下記の工程のみが変更される。   In the fifth embodiment, unlike the first embodiment, since the data is output to the storage unit 32, the display unit 34, and the communication unit 35 via the analysis unit 36, only the following steps are changed.

すなわち、第1実施形態と同様の工程として、ステップSD1〜SD4を経て、図31で示されるように、ステップSD5では、ステップSD4にて得られた周期評価結果CRに基づいて周期選択部150が特定周期フレーム画像SGとして得た後、解析部36が該特定周期フレーム画像SGに対して動画像解析を行う(図27及び図28参照)。   That is, as a process similar to the first embodiment, through steps SD1 to SD4, as shown in FIG. 31, in step SD5, the cycle selection unit 150 is based on the cycle evaluation result CR obtained in step SD4. After obtaining the specific periodic frame image SG, the analysis unit 36 performs moving image analysis on the specific periodic frame image SG (see FIGS. 27 and 28).

ステップSD6では、解析部36が動画像解析結果(特定周期解析画像SA)を得て、記憶部32,表示部34,通信部35に出力し(図26参照)、本動作フローが終了される。   In step SD6, the analysis unit 36 obtains the moving image analysis result (specific period analysis image SA) and outputs it to the storage unit 32, the display unit 34, and the communication unit 35 (see FIG. 26), and this operation flow is finished. .

以上のように第5実施形態に係る画像処理装置3Dでは、特定周期フレーム画像SGに対してのみ動画像解析を行えば、解析処理時間の短縮化が図れる。   As described above, in the image processing device 3D according to the fifth embodiment, the analysis processing time can be shortened by performing the moving image analysis only on the specific periodic frame image SG.

また、特定周期フレーム画像SGに対する特定周期解析画像SA(動画像解析結果)のみを表示することにより、診断時間の短縮化が図れる。   Further, by displaying only the specific cycle analysis image SA (moving image analysis result) for the specific cycle frame image SG, the diagnosis time can be shortened.

一方、特定の血流周期SPC以外のフレーム画像IGにおいても動画像解析を行い、特定の血流周期SPCの特定周期解析画像SAのみを通常の速度で表示し、その他のフレーム画像IGの動画像解析結果は高速表示もしくは間引き表示を行うことが可能となる。   On the other hand, moving image analysis is also performed on the frame image IG other than the specific blood flow period SPC, only the specific period analysis image SA of the specific blood flow period SPC is displayed at a normal speed, and the moving images of the other frame images IG are displayed. The analysis result can be displayed at high speed or thinned out.

また、特定周期フレーム画像SGに対する特定周期解析画像SAのみを記憶することにより、記憶領域を小さくすることが可能となり、記憶容量を節約することが可能となる。一方、特定の血流周期SPC以外のフレーム画像IGにおいても動画像解析を行い、特定の血流周期SPCの特定周期解析画像SAのみを可逆(非)圧縮保存を行い、特定の血流周期SPC以外の動画像解析結果は非可逆圧縮保存を行うことが可能となる。   Further, by storing only the specific cycle analysis image SA for the specific cycle frame image SG, the storage area can be reduced, and the storage capacity can be saved. On the other hand, moving image analysis is also performed on the frame image IG other than the specific blood flow cycle SPC, and only the specific cycle analysis image SA of the specific blood flow cycle SPC is reversibly (non-) compressed and stored. It is possible to perform lossy compression storage for moving image analysis results other than.

また、特定周期フレーム画像SGに対する特定周期解析画像SAのみを通信することにより、通信負荷を抑えることができるとともに、通信時間の短縮化が図れる。一方、特定の血流周期SPC以外のフレーム画像IGにおいても動画像解析を行い、特定の血流周期SPCの特定周期解析画像SAのみを可逆(非)圧縮送信を行い、特定の血流周期SPC以外の動画像解析結果は非可逆圧縮送信を行うことが可能となる。   Further, by communicating only the specific cycle analysis image SA with respect to the specific cycle frame image SG, it is possible to suppress the communication load and shorten the communication time. On the other hand, the moving image analysis is performed also in the frame image IG other than the specific blood flow cycle SPC, and only the specific cycle analysis image SA of the specific blood flow cycle SPC is reversibly (non-) compressed to transmit the specific blood flow cycle SPC. It is possible to perform lossy compression transmission for moving image analysis results other than.

さらに、対象画素決定部121が血管に沿って移動しながら対象画素TPを順次変更して決定し、変更された対象画素TP毎に得られた特定周期フレーム画像SGまたは特定周期解析画像SAを隣接配置表示または重畳表示する。これにより、患部が特定できない場合においても、重畳表示により順次患部の探索が可能となり、効率的な医療診断が可能となる。   Further, the target pixel determining unit 121 sequentially changes and determines the target pixel TP while moving along the blood vessel, and adjoins the specific cycle frame image SG or the specific cycle analysis image SA obtained for each changed target pixel TP. Display layout or overlay. Thereby, even when the affected part cannot be specified, the affected part can be sequentially searched by the superimposed display, and an efficient medical diagnosis can be performed.

<6.第6実施形態>
図31は、本発明の第6実施形態として構成された画像処理装置3Eで用いられる制御部31Eの機能構成を示す図である。この制御部31Eは、第1実施形態の画像処理装置3における制御部31(図4参照)の代替として使用される。第1実施形態と異なる点は、位置対応処理部115が付加される点である。なお、残余の構成は画像処理装置3と同様である。
<6. Sixth Embodiment>
FIG. 31 is a diagram illustrating a functional configuration of the control unit 31E used in the image processing device 3E configured as the sixth embodiment of the present invention. The control unit 31E is used as an alternative to the control unit 31 (see FIG. 4) in the image processing apparatus 3 of the first embodiment. The difference from the first embodiment is that a position correspondence processing unit 115 is added. The remaining configuration is the same as that of the image processing apparatus 3.

<6−1.位置対応処理部115>
図32は、動画像の撮影中に被験者Mの身体が空間的に動く場合のフレーム画像IG間における各画素の空間的位置関係を説明する模式図である。ここで、図32(a)ではフレーム画像IGにおける画素PXの時間濃度変化を示し、図32(b)では時間を隔てた画素PXのフレーム画像IGにおける空間的位置関係を示す。
<6-1. Position correspondence processing unit 115>
FIG. 32 is a schematic diagram for explaining the spatial positional relationship of each pixel between the frame images IG when the body of the subject M moves spatially during moving image shooting. Here, FIG. 32A shows a temporal density change of the pixel PX in the frame image IG, and FIG. 32B shows a spatial positional relationship in the frame image IG of the pixel PX separated by time.

図32(a)で示されるように、画素PXの時間濃度変化のうち、時間t=taにおけるフレーム画像IGの画素PXを画素PXaとし、時間t=tbにおけるフレーム画像IGの画素PXを画素PXbとし、時間t=tcにおけるフレーム画像IGの画素PXを画素PXcとする。そして、動画像の撮影中に被験者Mの身体が空間的に動かない場合は、当然ながら、画素PXa,PXb,PXcのフレーム画像IGの空間的位置は一致している。しかしながら、撮影中に被験者Mの身体が空間的に動く場合は、図32(b)で示されるように、画素PXa,PXb,PXcのフレーム画像IGの空間的位置は一致しない。   As shown in FIG. 32A, among the temporal density changes of the pixel PX, the pixel PX of the frame image IG at the time t = ta is defined as the pixel PXa, and the pixel PX of the frame image IG at the time t = tb is defined as the pixel PXb. And the pixel PX of the frame image IG at time t = tc is defined as a pixel PXc. If the body of the subject M does not move spatially during moving image shooting, the spatial positions of the frame images IG of the pixels PXa, PXb, and PXc are naturally the same. However, when the body of the subject M moves spatially during imaging, the spatial positions of the frame images IG of the pixels PXa, PXb, and PXc do not match as shown in FIG.

このように、動画像撮影中に被験者Mの身体が空間的に動くことにより、フレーム画像IGにおける各画素が時間方向で見たときに、空間的に動くことが想定される。これにより、対象画素TPを決定したとしても、各フレーム画像IG間で身体の異なる位置を指定することになり、正確な解析を行うことができない。   Thus, it is assumed that the body of the subject M moves spatially during moving image shooting, so that each pixel in the frame image IG moves spatially when viewed in the time direction. As a result, even if the target pixel TP is determined, different positions of the body are designated between the frame images IG, and accurate analysis cannot be performed.

そこで、動画像の撮影中に被験者Mの身体が空間的に動く場合において、位置対応処理部115では、動画像取得部110にて取得された直後のフレーム画像IG間における各画素の空間的位置を時間方向に対応づける処理を行い、該処理後のフレーム画像IGを画素決定部120に出力する。   Therefore, in the case where the body of the subject M moves spatially during the shooting of the moving image, the position correspondence processing unit 115 causes the spatial position of each pixel between the frame images IG immediately after being acquired by the moving image acquisition unit 110. Is performed in the time direction, and the processed frame image IG is output to the pixel determining unit 120.

具体的に、位置対応処理部115は、被験者Mの動きを各フレーム画像IG間で追跡して対応づける。ここで、各フレーム画像IG間で追跡して対応づける方法として、例えば、既存の方法である対応点探索処理等(例えば、本出願人による特開2012−079251号公報等参照)を採用することができる。   Specifically, the position correspondence processing unit 115 tracks and associates the movement of the subject M between the frame images IG. Here, as a method of tracking and associating between the respective frame images IG, for example, an existing method of corresponding point search processing or the like (for example, refer to Japanese Patent Application Laid-Open No. 2012-079251 by the applicant) is adopted. Can do.

対応点探索処理とは、対応点基準画像上の任意の注目点に対応する対応点参照画像上の点(対応点)を探索して求める。なお、対応点参照画像とは、対応点基準画像に対応する画像である。具体的には、撮影された動画像のうち、時間的に前のフレーム画像IGが対応点基準画像であり、時間的に後のフレーム画像IGが対応点参照画像である。例えばテンプレートマッチングでの対応点探索では、この対応点基準画像上の注目点に対してテンプレートが設定され、このテンプレートと対応する対応点参照画像上のウインドウが探索され、この探索されたウインドウから対応点が求められる。   The corresponding point search process is obtained by searching for a point (corresponding point) on the corresponding point reference image corresponding to an arbitrary target point on the corresponding point reference image. The corresponding point reference image is an image corresponding to the corresponding point standard image. Specifically, among the captured moving images, the temporally previous frame image IG is the corresponding point reference image, and the temporally subsequent frame image IG is the corresponding point reference image. For example, in corresponding point search by template matching, a template is set for a point of interest on the corresponding point reference image, a window on the corresponding point reference image corresponding to the template is searched, and the corresponding window is searched from the searched window. A point is required.

<6−3.画像処理装置3Eの基本動作>
続いて、図33は、第6実施形態に係る画像処理装置3Eの動作フローを例示した図である。ここでは、動画像の撮影中に被験者Mの身体が空間的に動く場合を想定している。なお、図33のうち、ステップSE1,SE3〜SE6は図33のステップS1〜S5と同様であるため、その説明は省略する。
<6-3. Basic Operation of Image Processing Device 3E>
Subsequently, FIG. 33 is a diagram illustrating an operation flow of the image processing apparatus 3E according to the sixth embodiment. Here, it is assumed that the body of the subject M moves spatially during moving image shooting. In FIG. 33, steps SE1, SE3 to SE6 are the same as steps S1 to S5 of FIG.

この第6実施形態では、第1実施形態とは異なり、位置対応処理部115が付加されたことで、下記の工程が追加される。   In the sixth embodiment, unlike the first embodiment, the following process is added by adding the position correspondence processing unit 115.

すなわち、第1実施形態と同様の工程として、ステップSE1を経て、図33で示されるように、ステップSE2では、位置対応処理部115が、ステップSE1にて取得されたフレーム画像IG間における各画素の空間的位置を時間方向に対応づける処理を行い、該処理後のフレーム画像IGを画素決定部120に出力する(図31及び図32参照)。そして、残余の工程は第1実施形態と同様となる。   That is, as a process similar to that of the first embodiment, after step SE1, as shown in FIG. 33, in step SE2, the position correspondence processing unit 115 causes each pixel between the frame images IG acquired in step SE1. Is performed, and the frame image IG after the processing is output to the pixel determining unit 120 (see FIGS. 31 and 32). The remaining steps are the same as in the first embodiment.

以上のように第6実施形態に係る画像処理装置3Eでは、動画像の撮影中に被験者Mの身体が空間的に動く場合において、動画像取得部110にて取得された直後のフレーム画像IG間における各画素の空間的位置を時間方向に対応づける処理を行い、該処理後のフレーム画像IGを画素決定部120に出力する位置対応処理部115を更に備える。すなわち、身体の空間的な動きを対応点探索処理等により補正することで、フレーム画像IG間における対象画素TPの時間方向の位置関係を補正することが可能となる。これにより、撮影中に身体が空間的に動いても、特定の血流周期SPC内の対象領域TAの状態変化に対して、精度の良い医療診断が可能となる。   As described above, in the image processing device 3E according to the sixth embodiment, when the body of the subject M moves spatially during shooting of a moving image, the frame image IG immediately after being acquired by the moving image acquisition unit 110 The image processing apparatus further includes a position correspondence processing unit 115 that performs processing for associating the spatial position of each pixel in the time direction and outputs the frame image IG after the processing to the pixel determination unit 120. That is, it is possible to correct the positional relationship in the time direction of the target pixel TP between the frame images IG by correcting the spatial movement of the body by corresponding point search processing or the like. Thereby, even if the body moves spatially during imaging, accurate medical diagnosis can be performed with respect to the state change of the target area TA within the specific blood flow cycle SPC.

<7.変形例>
以上、本発明の実施形態について説明してきたが、本発明は、上記実施形態に限定されるものではなく、様々な変形が可能である。
<7. Modification>
As mentioned above, although embodiment of this invention has been described, this invention is not limited to the said embodiment, A various deformation | transformation is possible.

※ 本実施形態では、画像処理装置3,3’,3A(3A’),3B,3C(3C’),3D,3Eを個別に実施されるように各実施形態に分けて記載したが、これらの個別機能は、互いに矛盾しない限り、相互に組み合わせてもよい。   * In this embodiment, the image processing apparatuses 3, 3 ′, 3A (3A ′), 3B, 3C (3C ′), 3D, and 3E are described separately so that they are individually implemented. The individual functions may be combined with each other as long as they do not contradict each other.

※ 本実施形態では、ステップS2(SA2,SB2,SC2,SD2,SE2)を実施してから、ステップS3(SA3,SB3,SC3,SD3,SE3)を実施したが、この順番は、逆に行うことも可能である。   * In this embodiment, step S2 (SA2, SB2, SC2, SD2, SE2) is performed and then step S3 (SA3, SB3, SC3, SD3, SE3) is performed, but this order is reversed. It is also possible.

※ 被写体は、人体だけでなく、動物の身体であってもよい。   * The subject may be an animal body as well as a human body.

1 撮影装置
2 撮影制御装置
3,3’,3A(3A’),3B,3C(3C’),3D,3E 画像処理装置
31,31’,31A(31A’),31B,31C(31C’),31D,31E 制御部
32 記憶部
34 表示部
35 通信部
36 解析部
100,100’,100A(100A’),100B,100C(100C’),100D,100E 放射線動態画像撮影システム
110 動画像取得部
115 位置対応処理部
120,120A,120B,120C 画素決定部
121,121A,121B,121C 対象画素決定部
122,121C 参照画素決定部
130 周期分類部
140,140A(140A’),140B,140C(140C’),140D,140E 周期評価部
240,240A(240A’),240B,240C(240C’) 対象画素評価部
244 位相振幅補正部
340,340A(340A’),340B,340C(340C’) 周期評価結果決定部
150 周期選択部
TA 対象領域
TP 対象画素
TN 対象画素時間濃度変化
ft 対象画素評価値
RP 参照画素
RN 参照画素時間濃度変化
fr 参照画素評価値
fs,fs’ 空間相関値
St 統計対象画素評価値
M 被写体(被検者)
IG フレーム画像
SG 特定周期フレーム画像
SA 特定周期解析画像
PC 血流周期
SPC 特定の血流周期
CR 周期評価結果
DESCRIPTION OF SYMBOLS 1 Shooting device 2 Shooting control device 3, 3 ′, 3A (3A ′), 3B, 3C (3C ′), 3D, 3E Image processing devices 31, 31 ′, 31A (31A ′), 31B, 31C (31C ′) , 31D, 31E Control unit 32 Storage unit 34 Display unit 35 Communication unit 36 Analysis unit 100, 100 ′, 100A (100A ′), 100B, 100C (100C ′), 100D, 100E Radiation dynamic imaging system 110 Moving image acquisition unit 115 Position correspondence processing unit 120, 120A, 120B, 120C Pixel determination unit 121, 121A, 121B, 121C Target pixel determination unit 122, 121C Reference pixel determination unit 130 Period classification unit 140, 140A (140A ′), 140B, 140C (140C) '), 140D, 140E Period evaluation section 240, 240A (240A'), 240B, 240C 240C ′) Target pixel evaluation unit 244 Phase amplitude correction unit 340, 340A (340A ′), 340B, 340C (340C ′) Period evaluation result determination unit 150 Period selection unit TA Target region TP Target pixel TN Target pixel Time density change ft Target Pixel evaluation value RP Reference pixel RN Reference pixel time density change fr Reference pixel evaluation value fs, fs' Spatial correlation value St Statistical target pixel evaluation value M Subject (subject)
IG frame image SG specific cycle frame image SA specific cycle analysis image PC blood flow cycle SPC specific blood flow cycle CR cycle evaluation result

Claims (18)

人体または動物の身体内部における所定領域の物理的状態が周期的に時間変化する状態をフレーム撮影周期毎に捉えた複数のフレーム画像から構成される動画像を取得する動画像取得手段を備え、
前記複数のフレーム画像のそれぞれの所定領域内における所定画素を決定する所定画素決定部を含む画素決定手段と、
前記所定領域の周期的な時間変化となる所定領域周期を検出し、前記複数のフレーム画像を該所定領域周期単位に分類する周期分類手段と、
前記所定画素の画素値である所定画素値に基づき前記所定領域周期毎に評価する所定画素評価部を含み、前記所定領域周期毎に前記所定画素の周期評価結果を得る周期評価手段と、
前記周期評価結果に基づいて特定の所定領域周期を選択し、該特定の所定領域周期に分類されたフレーム画像を特定周期フレーム画像とする周期選択手段と、
を更に備えることを特徴とする、
画像処理装置。
A moving image acquisition means for acquiring a moving image composed of a plurality of frame images capturing a state in which a physical state of a predetermined region in a human body or an animal body periodically changes in time every frame shooting period;
A pixel determining unit including a predetermined pixel determining unit that determines a predetermined pixel in each predetermined region of the plurality of frame images;
A period classification unit that detects a predetermined area period that is a periodic time change of the predetermined area, and classifies the plurality of frame images into the predetermined area period units;
A period evaluation unit that includes a predetermined pixel evaluation unit that evaluates for each predetermined area period based on a predetermined pixel value that is a pixel value of the predetermined pixel, and obtains a period evaluation result of the predetermined pixel for each predetermined area period;
A period selecting means for selecting a specific predetermined area period based on the period evaluation result and setting the frame image classified into the specific predetermined area period as a specific period frame image;
Further comprising:
Image processing device.
請求項1に記載の画像処理装置であって、
前記所定画素評価部は、
前記所定領域周期内における前記所定画素値の時間方向に対する濃度変化を示す所定画素時間濃度変化を算出する所定画素時間濃度変化算出部と、
(a1)前記所定画素時間濃度変化における最大値及び最小値のうち、少なくとも1つの値、
(a2)前記所定画素時間濃度変化における最大微分値及び最小微分値のうち、少なくとも1つの値、
(a3)前記所定画素時間濃度変化における極値となる値、
(a4)前記所定画素時間濃度変化を生成するフレーム画像のうち前記所定画素値が第1所定値以上となるフレーム画像数、
(a5)前記所定画素時間濃度変化のうち第2所定値以上における画素値を時間方向に積分した画素積分値、
(a6)前記所定画素時間濃度変化と予め準備した基準変化モデルとの相関値、
の前記判断要素(a1)〜(a6)のうち、少なくとも1つの判断要素に基づいて所定画素評価値を算出する所定画素評価値算出部と、
を含み、
前記周期評価手段は、
前記所定画素評価値を前記周期評価結果として決定する周期評価結果決定部を含む、
画像処理装置。
The image processing apparatus according to claim 1,
The predetermined pixel evaluation unit includes:
A predetermined pixel time density change calculating unit that calculates a predetermined pixel time density change indicating a density change in the time direction of the predetermined pixel value within the predetermined region period;
(A1) At least one value among the maximum value and the minimum value in the predetermined pixel time density change,
(A2) at least one value among the maximum differential value and the minimum differential value in the predetermined pixel time density change,
(A3) an extreme value in the predetermined pixel time density change,
(A4) The number of frame images in which the predetermined pixel value is equal to or greater than a first predetermined value among the frame images that generate the predetermined pixel time density change,
(A5) a pixel integration value obtained by integrating pixel values at a second predetermined value or more in the predetermined pixel time density change in the time direction;
(A6) a correlation value between the predetermined pixel time density change and a reference change model prepared in advance;
A predetermined pixel evaluation value calculation unit that calculates a predetermined pixel evaluation value based on at least one of the determination elements (a1) to (a6),
Including
The period evaluation means includes
A cycle evaluation result determination unit that determines the predetermined pixel evaluation value as the cycle evaluation result;
Image processing device.
請求項2に記載の画像処理装置であって、
前記基準変化モデルは、
前記フレーム画像上の血管領域における血流方向に沿った複数の画素の画素値の空間方向における濃度変化を示す空間濃度変化を用いて作成することを特徴とする、
画像処理装置。
The image processing apparatus according to claim 2,
The reference change model is
It is created using a spatial density change indicating a density change in a spatial direction of pixel values of a plurality of pixels along a blood flow direction in a blood vessel region on the frame image,
Image processing device.
請求項2に記載の画像処理装置であって、
前記画素決定手段は、
前記フレーム画像上における前記所定画素とは異なる参照画素を決定する参照画素決定部、
を更に含み、
前記所定画素評価部は、
前記所定領域周期内における前記参照画素の画素値である参照画素値の時間方向に対する濃度変化を示す参照画素時間濃度変化を算出する参照画素時間濃度変化算出部と、
(b1)前記参照画素時間濃度変化における最大値及び最小値のうち、少なくとも1つの値、
(b2)前記参照画素時間濃度変化における最大微分値及び最小微分値のうち、少なくとも1つの値、
(b3)前記参照画素時間濃度変化における極大値及び極小値のうち、少なくとも1つの値、
(b4)前記参照画素時間濃度変化を構成するフレーム画像のうち前記参照画素値が第3所定値以上となるフレーム画像数、
(b5)前記参照画素時間濃度変化のうち第4所定値以上における画素値を時間方向に積分した画素積分値、
(b6)前記参照画素時間濃度変化と予め準備した基準変化モデルとの相関値、
の前記判断要素(b1)〜(b6)のうち、前記所定画素評価値の算出に用いた前記判断要素(a1)〜(a6)に対応する判断要素に基づき参照画素評価値として算出する参照画素評価値算出部と、
前記所定画素評価値と前記参照画素評価値との差を空間相関値として算出する第1の空間相関値算出処理を実行する空間相関値算出部と、
を更に含み、
前記周期評価結果決定部は、
前記空間相関値に基づいて前記周期評価結果の有効性を判断することを特徴とする、
画像処理装置。
The image processing apparatus according to claim 2,
The pixel determining means includes
A reference pixel determining unit that determines a reference pixel different from the predetermined pixel on the frame image;
Further including
The predetermined pixel evaluation unit includes:
A reference pixel time density change calculating unit for calculating a reference pixel time density change indicating a density change with respect to a time direction of a reference pixel value that is a pixel value of the reference pixel within the predetermined region period;
(B1) At least one value of the maximum value and the minimum value in the reference pixel time density change,
(B2) At least one value of the maximum differential value and the minimum differential value in the reference pixel time density change,
(B3) at least one of a maximum value and a minimum value in the reference pixel time density change,
(B4) The number of frame images in which the reference pixel value is equal to or greater than a third predetermined value among the frame images constituting the reference pixel time density change,
(B5) a pixel integration value obtained by integrating pixel values at a fourth predetermined value or more in the reference pixel time density change in the time direction;
(B6) a correlation value between the reference pixel time density change and a reference change model prepared in advance;
Reference pixels to be calculated as reference pixel evaluation values based on the determination elements corresponding to the determination elements (a1) to (a6) used for calculating the predetermined pixel evaluation value among the determination elements (b1) to (b6) An evaluation value calculation unit;
A spatial correlation value calculation unit that executes a first spatial correlation value calculation process that calculates a difference between the predetermined pixel evaluation value and the reference pixel evaluation value as a spatial correlation value;
Further including
The period evaluation result determination unit
The effectiveness of the period evaluation result is determined based on the spatial correlation value,
Image processing device.
請求項2に記載の画像処理装置であって、
前記画素決定手段は、
前記フレーム画像上における前記所定画素とは異なる参照画素を決定する参照画素決定部、
を更に含み、
前記所定画素評価部は、
前記所定領域周期内における前記参照画素値の時間方向に対する濃度変化を示す参照画素時間濃度変化を算出する参照画素時間濃度変化算出部と、
前記所定画素時間濃度変化の周期的変化と前記参照画素時間濃度変化の周期的変化とを比較して得られる該所定画素値と該参照画素値との差の総和を空間相関値として算出する第2の空間相関値算出処理を実行する空間相関値算出部と、
を更に含み、
前記周期評価結果決定部は、
前記空間相関値に基づいて前記周期評価結果の有効性を判断することを特徴とする、
画像処理装置。
The image processing apparatus according to claim 2,
The pixel determining means includes
A reference pixel determining unit that determines a reference pixel different from the predetermined pixel on the frame image;
Further including
The predetermined pixel evaluation unit includes:
A reference pixel time density change calculating unit for calculating a reference pixel time density change indicating a density change in the time direction of the reference pixel value in the predetermined region period;
A total sum of differences between the predetermined pixel value and the reference pixel value obtained by comparing the periodic change of the predetermined pixel time density change and the periodic change of the reference pixel time density change is calculated as a spatial correlation value. A spatial correlation value calculation unit that executes the spatial correlation value calculation process of 2;
Further including
The period evaluation result determination unit
The effectiveness of the period evaluation result is determined based on the spatial correlation value,
Image processing device.
請求項4または請求項5に記載の画像処理装置であって、
前記所定画素評価部は、前記空間相関値を得る前処理として、
(c1)前記所定画素時間濃度変化の位相と前記参照画素時間濃度変化の位相とのズレを一致させる補正、
(c2)心臓領域からの距離に応じて前記所定画素時間濃度変化及び/または前記参照画素時間濃度変化の位相及び振幅を調整する補正、
の前記補正(c1)及び(c2)のうち、少なくとも1つの補正を前記参照画素時間濃度変化の算出後に行う位相振幅補正部、
を更に含む、
画像処理装置。
The image processing apparatus according to claim 4 or 5, wherein
The predetermined pixel evaluation unit, as preprocessing for obtaining the spatial correlation value,
(C1) correction for matching a shift between the phase of the predetermined pixel time density change and the phase of the reference pixel time density change;
(C2) Correction for adjusting the phase and amplitude of the predetermined pixel time density change and / or the reference pixel time density change according to the distance from the heart region,
A phase amplitude correction unit that performs at least one of the corrections (c1) and (c2) after calculating the reference pixel time density change,
Further including
Image processing device.
請求項4に記載の画像処理装置であって、
前記参照画素決定部は、
前記所定画素との空間的な距離が所定の距離値以下となる画素を前記参照画素として決定することを特徴とする、
画像処理装置。
The image processing apparatus according to claim 4,
The reference pixel determining unit includes:
A pixel whose spatial distance to the predetermined pixel is a predetermined distance value or less is determined as the reference pixel,
Image processing device.
請求項4に記載の画像処理装置であって、
前記参照画素決定部が前記参照画素の候補となる参照候補画素を複数決定し、
前記所定画素評価部は、
前記所定領域周期内における前記参照候補画素の画素値である参照候補画素値の時間方向に対する濃度変化を示す参照候補画素時間濃度変化を算出し、前記参照候補画素時間濃度変化のうち、最大値が所定の閾値以上を満足する変化を参照画素時間濃度変化として決定する、
画像処理装置。
The image processing apparatus according to claim 4,
The reference pixel determining unit determines a plurality of reference candidate pixels that are candidates for the reference pixel,
The predetermined pixel evaluation unit includes:
A reference candidate pixel time density change indicating a density change with respect to a time direction of a reference candidate pixel value which is a pixel value of the reference candidate pixel within the predetermined region period is calculated, and the maximum value among the reference candidate pixel time density changes is A change that satisfies a predetermined threshold or more is determined as a reference pixel time density change;
Image processing device.
請求項2に記載の画像処理装置であって、
前記所定画素は複数の画素を含み、前記所定画素評価値は複数の所定画素評価値を含み、前記所定画素評価値算出部が前記複数の所定画素に対して前記複数の所定画素評価値を算出し、
前記周期評価手段は、
(d1)前記複数の所定画素評価値の総和、
(d2)前記複数の所定画素評価値のうち、所定値以上の前記所定画素評価値の総和、
(d3)前記複数の所定画素評価値のうちの最高値、
(d4)前記複数の所定画素間における前記所定画素時間濃度変化の類似性、
の前記統計値(d1)〜(d4)のうち、少なくとも1つの統計値に基づいて統計所定画素評価値を算出する統計所定画素評価値算出部、
を更に含み、
前記周期評価手段は、
前記統計所定画素評価値を前記周期評価結果として決定する周期評価結果決定部を含む、
画像処理装置。
The image processing apparatus according to claim 2,
The predetermined pixel includes a plurality of pixels, the predetermined pixel evaluation value includes a plurality of predetermined pixel evaluation values, and the predetermined pixel evaluation value calculation unit calculates the plurality of predetermined pixel evaluation values for the plurality of predetermined pixels. And
The period evaluation means includes
(D1) the sum of the plurality of predetermined pixel evaluation values;
(D2) among the plurality of predetermined pixel evaluation values, a total sum of the predetermined pixel evaluation values equal to or greater than a predetermined value;
(D3) the highest value among the plurality of predetermined pixel evaluation values;
(D4) similarity of the predetermined pixel time density change between the plurality of predetermined pixels;
A statistical predetermined pixel evaluation value calculation unit that calculates a statistical predetermined pixel evaluation value based on at least one of the statistical values (d1) to (d4),
Further including
The period evaluation means includes
A cycle evaluation result determination unit that determines the statistical predetermined pixel evaluation value as the cycle evaluation result;
Image processing device.
請求項4または請求項5に記載の画像処理装置であって、
前記所定画素は複数の画素を含み、前記所定画素評価値は複数の所定画素評価値を含み、前記所定画素評価値算出部が前記複数の所定画素に対して前記複数の所定画素評価値を算出し、
前記参照画素は前記複数の所定画素とは異なり、複数の所定画素に対応する複数の参照画素を含み、前記空間相関値算出部が前記複数の参照画素に対して前記第1あるいは第2の空間相関値算出処理を実行して前記複数の所定画素評価値に対応する前記複数の空間相関値を算出し、
前記周期評価手段は、前記複数の所定画素評価値のうち、前記複数の空間相関値に基づき有効と判断された所定数の有効所定画素評価値あるいは所定数の有効所定画素に対し、
(d1)前記所定数の有効所定画素評価値の総和、
(d2)前記所定数の有効所定画素評価値のうち、所定値以上の前記所定画素評価値の総和、
(d3)前記所定数の有効所定画素評価値のうちの最高値、
(d4)前記所定数の有効所定画素間における前記所定画素時間濃度変化の類似性、
の前記統計値(d1)〜(d4)のうち、少なくとも1つの統計値に基づいて統計所定画素評価値を算出する統計所定画素評価値算出部、
を更に含み、
前記周期評価手段は、
前記統計所定画素評価値を前記周期評価結果として決定する周期評価結果決定部を含む、
画像処理装置。
The image processing apparatus according to claim 4 or 5, wherein
The predetermined pixel includes a plurality of pixels, the predetermined pixel evaluation value includes a plurality of predetermined pixel evaluation values, and the predetermined pixel evaluation value calculation unit calculates the plurality of predetermined pixel evaluation values for the plurality of predetermined pixels. And
The reference pixel is different from the plurality of predetermined pixels and includes a plurality of reference pixels corresponding to the plurality of predetermined pixels, and the spatial correlation value calculation unit performs the first or second space with respect to the plurality of reference pixels. Performing a correlation value calculation process to calculate the plurality of spatial correlation values corresponding to the plurality of predetermined pixel evaluation values;
The period evaluation unit is configured to output a predetermined number of effective predetermined pixel evaluation values or a predetermined number of effective predetermined pixels determined to be effective based on the plurality of spatial correlation values among the plurality of predetermined pixel evaluation values.
(D1) a sum of the predetermined number of effective predetermined pixel evaluation values;
(D2) among the predetermined number of effective predetermined pixel evaluation values, a sum of the predetermined pixel evaluation values equal to or greater than a predetermined value;
(D3) the highest value of the predetermined number of effective predetermined pixel evaluation values;
(D4) similarity of the predetermined pixel time density change between the predetermined number of effective predetermined pixels;
A statistical predetermined pixel evaluation value calculation unit that calculates a statistical predetermined pixel evaluation value based on at least one of the statistical values (d1) to (d4),
Further including
The period evaluation means includes
A cycle evaluation result determination unit that determines the statistical predetermined pixel evaluation value as the cycle evaluation result;
Image processing device.
請求項1ないし請求項10のうち、いずれか1項記載の画像処理装置であって、
前記特定周期フレーム画像を含むフレーム画像に対して動画像解析を行い、該動画像解析結果を得る解析手段、
を更に備える、
画像処理装置。
An image processing apparatus according to any one of claims 1 to 10, wherein
Analyzing means for performing a moving image analysis on a frame image including the specific periodic frame image, and obtaining the moving image analysis result;
Further comprising
Image processing device.
請求項11に記載の画像処理装置であって、
前記特定周期フレーム画像または前記動画像解析結果を表示する表示手段、
を更に備える、
画像処理装置。
The image processing apparatus according to claim 11,
Display means for displaying the specific periodic frame image or the moving image analysis result;
Further comprising
Image processing device.
請求項11に記載の画像処理装置であって、
前記特定周期フレーム画像または前記動画像解析結果を記憶する記憶手段、
を更に備える、
画像処理装置。
The image processing apparatus according to claim 11,
Storage means for storing the specific periodic frame image or the moving image analysis result;
Further comprising
Image processing device.
請求項11に記載の画像処理装置であって、
前記特定周期フレーム画像または前記動画像解析結果を通信する通信手段、
を更に備える、
画像処理装置。
The image processing apparatus according to claim 11,
Communication means for communicating the specific periodic frame image or the moving image analysis result;
Further comprising
Image processing device.
請求項1ないし請求項14のうち、いずれか1項記載の画像処理装置であって、
前記所定領域は、血管領域を含む、
画像処理装置。
The image processing device according to any one of claims 1 to 14,
The predetermined region includes a blood vessel region,
Image processing device.
請求項11に記載の画像処理装置であって、
前記所定画素決定部が血管に沿って移動しながら所定画素を順次変更して決定し、変更された前記所定画素毎に得られた前記特定周期フレーム画像または前記動画像解析結果を隣接配置表示または重畳表示する表示手段、
を更に備える、
画像処理装置。
The image processing apparatus according to claim 11,
The predetermined pixel determining unit sequentially changes and determines predetermined pixels while moving along a blood vessel, and the specific periodic frame image or the moving image analysis result obtained for each of the changed predetermined pixels is displayed adjacently or Display means for superimposed display;
Further comprising
Image processing device.
請求項1ないし請求項16のうち、いずれか1項記載の画像処理装置であって、
前記動画像の撮影中に前記身体が空間的に動く場合において、
前記動画像取得手段にて取得された直後のフレーム画像間における各画素の空間的位置を時間方向に対応づける処理を行い、該処理後のフレーム画像を前記画素決定手段に出力する位置対応処理手段、
を更に備える、
画像処理装置。
The image processing device according to any one of claims 1 to 16, wherein
In the case where the body moves spatially during the shooting of the moving image,
Position correspondence processing means for performing processing for associating the spatial position of each pixel between the frame images immediately after acquired by the moving image acquisition means in the time direction, and outputting the processed frame image to the pixel determination means ,
Further comprising
Image processing device.
画像処理装置に含まれるコンピュータによって実行されることにより、前記コンピュータを、請求項1から請求項17のうち、いずれか1項記載の画像処理装置として機能させるプログラム。   A program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 17, when executed by a computer included in the image processing apparatus.
JP2012227972A 2012-10-15 2012-10-15 Image processing apparatus and program Pending JP2014079312A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012227972A JP2014079312A (en) 2012-10-15 2012-10-15 Image processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012227972A JP2014079312A (en) 2012-10-15 2012-10-15 Image processing apparatus and program

Publications (1)

Publication Number Publication Date
JP2014079312A true JP2014079312A (en) 2014-05-08

Family

ID=50784128

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012227972A Pending JP2014079312A (en) 2012-10-15 2012-10-15 Image processing apparatus and program

Country Status (1)

Country Link
JP (1) JP2014079312A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017067765A (en) * 2015-10-02 2017-04-06 東芝メディカルシステムズ株式会社 Medical image processing device and positron emission tomography device
JP2017200565A (en) * 2016-05-03 2017-11-09 コニカミノルタ株式会社 Dynamic analysis apparatus and dynamic analysis system
JP2018000587A (en) * 2016-07-03 2018-01-11 キヤノン株式会社 Information acquisition device, imaging device and information acquisition method
JP2018110637A (en) * 2017-01-10 2018-07-19 コニカミノルタ株式会社 Dynamic image processing system
US10052075B2 (en) 2015-11-27 2018-08-21 Shimadzu Corporation Image processing apparatus and radiation imaging apparatus
JP2020175227A (en) * 2020-07-30 2020-10-29 コニカミノルタ株式会社 Dynamic image processing system
JP2021045367A (en) * 2019-09-19 2021-03-25 コニカミノルタ株式会社 Image processing device and program
WO2021141135A1 (en) * 2020-01-09 2021-07-15 学校法人東京女子医科大学 Functional ischemia detection technique by coronary artery ct4d flow imaging

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017067765A (en) * 2015-10-02 2017-04-06 東芝メディカルシステムズ株式会社 Medical image processing device and positron emission tomography device
US10052075B2 (en) 2015-11-27 2018-08-21 Shimadzu Corporation Image processing apparatus and radiation imaging apparatus
JP2017200565A (en) * 2016-05-03 2017-11-09 コニカミノルタ株式会社 Dynamic analysis apparatus and dynamic analysis system
JP2018000587A (en) * 2016-07-03 2018-01-11 キヤノン株式会社 Information acquisition device, imaging device and information acquisition method
JP2018110637A (en) * 2017-01-10 2018-07-19 コニカミノルタ株式会社 Dynamic image processing system
US10748286B2 (en) 2017-01-10 2020-08-18 Konica Minolta, Inc. Dynamic image processing apparatus
US11238590B2 (en) 2017-01-10 2022-02-01 Konica Minolta, Inc. Dynamic image processing apparatus
JP2021045367A (en) * 2019-09-19 2021-03-25 コニカミノルタ株式会社 Image processing device and program
JP7287210B2 (en) 2019-09-19 2023-06-06 コニカミノルタ株式会社 Image processing device and program
WO2021141135A1 (en) * 2020-01-09 2021-07-15 学校法人東京女子医科大学 Functional ischemia detection technique by coronary artery ct4d flow imaging
JP2020175227A (en) * 2020-07-30 2020-10-29 コニカミノルタ株式会社 Dynamic image processing system

Similar Documents

Publication Publication Date Title
JP6512338B2 (en) Image processing apparatus and program
JP5408399B1 (en) Image generation device
JP6222228B2 (en) Image processing apparatus and program
JP2014079312A (en) Image processing apparatus and program
JP5408400B1 (en) Image generating apparatus and program
JP6350522B2 (en) Image processing apparatus and program
JP6323451B2 (en) Image processing apparatus and program
JP6597548B2 (en) Dynamic analysis system
JP5578297B1 (en) Image processing apparatus and program
JP6217241B2 (en) Chest diagnosis support system
JP6418091B2 (en) Chest image display system and image processing apparatus
JP6743662B2 (en) Dynamic image processing system
US11189025B2 (en) Dynamic image analysis apparatus, dynamic image analysis method, and recording medium
JP2013040829A (en) Volume data processor and method
US20190180440A1 (en) Dynamic image processing device
JP2020171475A (en) Dynamic image analysis apparatus, dynamic image analysis method, and program
US20210304409A1 (en) Image processing apparatus, image processing method, and storage medium
WO2021002478A1 (en) Diagnosis assisting program
JP2017217047A (en) Image display system
JP2020062394A (en) Image processing device