JP5550411B2 - Method for estimating patient change patterns - Google Patents

Method for estimating patient change patterns Download PDF

Info

Publication number
JP5550411B2
JP5550411B2 JP2010072911A JP2010072911A JP5550411B2 JP 5550411 B2 JP5550411 B2 JP 5550411B2 JP 2010072911 A JP2010072911 A JP 2010072911A JP 2010072911 A JP2010072911 A JP 2010072911A JP 5550411 B2 JP5550411 B2 JP 5550411B2
Authority
JP
Japan
Prior art keywords
pattern
video
signal
breathing
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010072911A
Other languages
Japanese (ja)
Other versions
JP2010240400A (en
Inventor
ファティー・エム・ポリクリ
テン−ヨク・リー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US12/639,777 external-priority patent/US8781183B2/en
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2010240400A publication Critical patent/JP2010240400A/en
Application granted granted Critical
Publication of JP5550411B2 publication Critical patent/JP5550411B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Ultra Sonic Daignosis Equipment (AREA)

Description

本発明は、包括的には変化パターンを推定することに関し、より詳細には、超音波検査を用いて取得されるビデオから変化パターンを推定して視覚化することに関する。   The present invention relates generally to estimating change patterns, and more particularly to estimating and visualizing change patterns from video acquired using ultrasonography.

患者の呼吸パターンを使用して粒子線治療を最適化することができる。「吸息」及び「呼息」に対応するパターンを推定することが意図される。推定は、粒子線のエネルギーを制御するために動的且つリアルタイムであるべきであり、それによって、最大線量が任意の異常組織に送達され、一方で正常組織に対する線量は最小限にされる。   Patient respiration patterns can be used to optimize particle beam therapy. It is intended to estimate a pattern corresponding to “inspiration” and “expiration”. The estimation should be dynamic and real-time to control the energy of the particle beam, so that the maximum dose is delivered to any abnormal tissue while the dose to normal tissue is minimized.

呼吸情報の代わりに、描写される目標組織の変化パターンを利用して、そのような治療システムの適応ゲーティング(gating:ゲート開閉)を達成することもできる。たとえば、現在の状態、たとえば腫瘍の超音波画像が、安全放射状態、すなわち腫瘍が望ましい位置にある超音波画像と比較される。これらの状態が一致する場合、放射線が当てられる。しかしながら、これらの状態における変化は、腫瘍が望ましい位置にない可能性があることを示し、したがって放射線を当てるべきでない。   Instead of breathing information, the depicted target tissue change pattern can also be used to achieve adaptive gating of such treatment systems. For example, the current state, eg, an ultrasound image of the tumor, is compared to a safe radiation state, ie, an ultrasound image where the tumor is in the desired location. If these conditions match, radiation is applied. However, changes in these conditions indicate that the tumor may not be in the desired location and should therefore not be irradiated.

推定の精度の評価も、容易ではないが重要である。理論上、正確な信号が入手可能である場合、該正確な信号と、推定されるパターンとの間のユークリッド距離、相互相関、又は位相相関のような統計的量を求めることができる。しかしながら、正確な信号は処置中に入手可能でない。   Evaluation of the accuracy of estimation is also important, though not easy. In theory, if an accurate signal is available, statistical quantities such as Euclidean distance, cross-correlation, or phase correlation between the accurate signal and the estimated pattern can be determined. However, an accurate signal is not available during the procedure.

結果として、変化パターンを評価する唯一の方法は、視覚化によるものである。超音波ビデオから変化パターンが推定されると、信号パターンは、相関を測定するために、ビデオと視覚的に比較されなくてはならない。呼吸の場合、この視覚化は、ビデオ内の「吸息・呼息」の予期されるパターンが推定されるパターンと一致するか否か、又はパターンが逸脱しているか否かを明らかにしなくてはならない。   As a result, the only way to assess change patterns is by visualization. Once the change pattern is estimated from the ultrasound video, the signal pattern must be visually compared with the video to measure the correlation. In the case of breathing, this visualization does not reveal whether the expected pattern of “inspiration / expiration” in the video matches the estimated pattern or whether the pattern deviates. Must not.

すなわち、放射線治療技師は、処置中の呼吸パターンにおけるいかなる逸脱した変化も検出すると共に、治療を継続するべきか又は終了するべきかの決定を行うための効果的な視覚化を必要としている。   That is, the radiotherapist needs effective visualization to detect any deviant changes in the breathing pattern during the procedure and to decide whether to continue or end therapy.

推定される変化パターンの位相及び周波数が、ビデオ内に見られる臓器の運動と一致しているか否かを判断するための効果的な視覚化を提供することも望まれている。2Dビデオ及び変化パターン信号を所与とすると、目的は、ビデオ内の基本的な運動の周期性を強調すると共に、2Dビデオ内の運動と1D信号との間の相関を効果的に比較することである。しかしながら、長いビデオは見るのに時間がかかる。   It would also be desirable to provide an effective visualization for determining whether the phase and frequency of the estimated change pattern is consistent with the organ motion seen in the video. Given a 2D video and a change pattern signal, the goal is to emphasize the periodicity of the basic motion in the video and to effectively compare the correlation between the motion in the 2D video and the 1D signal. It is. However, long videos take time to watch.

ビデオ監視アプリケーションは、ビデオを静的時空間ボリュームとして表すことによって、事象を視覚化することができる。従来のボリュームレンダリング技法は、勾配又は運動フローのような低レベルの画像特徴がボリュームから抽出された後、これらの特徴を強化して、基本的な事象を視覚化したものだった。たとえば、静的領域に高い透明度を割り当てる伝達関数を用いた直接ボリュームレンダリングによって、シーン内の背景を隠すことができ、グリフ又は流線の積分のようなフロー視覚化技法を適用して、抽出された運動フローを視覚化することができる。これらの技法における共通目標は、環境内の運動を視覚化することである。   Video surveillance applications can visualize events by representing video as a static space-time volume. Traditional volume rendering techniques have visualized basic events after low-level image features, such as gradients or motion flows, have been extracted from the volume and then enhanced. For example, direct volume rendering with a transfer function that assigns high transparency to static areas can hide the background in the scene and can be extracted by applying flow visualization techniques such as glyph or streamline integration. Can visualize the movement flow. A common goal in these techniques is to visualize movement in the environment.

超音波ビデオを従来の動画として見る場合、ユーザは、周期性、特に、医療用画像において共通の、パターンにおけるサイクルの継続時間及び位相シフトを正確に明らかにすることはできない。これは、呼吸の位相及び周波数が動的であるためである。動きのある2Dパターンと1D信号との間の相関を長い時間間隔にわたって調査することも困難である。たとえば、ビデオ及び信号は、ビデオの或る部分では正相関するが、別の部分では負相関する場合がある。ユーザは、相関の位相が継続的に遅れている場合に、そのような差異を即座に再生(recall)及び検出することができない。   When viewing an ultrasound video as a conventional movie, the user cannot accurately account for the periodicity, particularly the cycle duration and phase shift in the pattern, which is common in medical images. This is because the phase and frequency of respiration are dynamic. It is also difficult to investigate the correlation between a moving 2D pattern and a 1D signal over a long time interval. For example, video and signals may be positively correlated in one part of the video but negatively correlated in another part. The user cannot recall and detect such differences immediately when the phase of the correlation is continuously lagging.

従来のビデオ表現は、2D表示スクリーンを、X,Y座標空間として利用し、画像(フレーム)を経時的に変化させ、一方で1D信号y=f(t)のプロットは、多くの場合、2D表示スクリーンを、T,Y座標空間として利用する。この差異によって、特にビデオフレームが変化しているとき、2D空間ビデオと1D時間信号パターンとの比較が直観的でなくなる。数千個のフレームを有するビデオが長いボリュームとして表現される場合、Y,T座標空間において任意の時点にスクリーン上に表示することができるのは、ビデオの一部分のみである。   Conventional video representations use a 2D display screen as an X, Y coordinate space and change the image (frame) over time, while plots of 1D signal y = f (t) are often 2D The display screen is used as a T, Y coordinate space. This difference makes comparison between 2D spatial video and 1D temporal signal patterns less intuitive, especially when video frames are changing. If a video with thousands of frames is represented as a long volume, only a portion of the video can be displayed on the screen at any point in the Y, T coordinate space.

したがって、2Dビデオ及び1D変化信号を同時に視覚化することが望まれている。   It is therefore desirable to visualize 2D video and 1D change signals simultaneously.

患者の変化パターンを利用して、粒子線を使用した放射線治療を最適化することができる。本発明の実施の形態は、超音波ビデオから患者の変化パターンを推定する方法を提供する。グラフィック処理ユニット(GPU)を使用することによって、変化パターンをリアルタイムに推定及び視覚化することができる。   Patient change patterns can be used to optimize radiation therapy using particle beams. Embodiments of the present invention provide a method for estimating patient change patterns from ultrasound video. By using a graphics processing unit (GPU), the change pattern can be estimated and visualized in real time.

実施の形態は、推定される変化パターンと超音波ビデオとの間の相関を明らかにするための視覚化方式を提供する。変化パターンは信号、すなわち1Dの離散時間信号又は時系列信号を形成する。視覚化は、異常を検出するためのオンラインインタフェースを備える。オフライン方法は長いビデオの静的概観を提供し、それによって、変化パターン及びビデオの双方の相関、周波数、及び位相シフトを検出することができる。   The embodiments provide a visualization scheme for revealing the correlation between the estimated change pattern and the ultrasound video. The change pattern forms a signal, ie a 1D discrete time signal or a time series signal. Visualization comprises an online interface for detecting anomalies. The off-line method provides a static overview of the long video, whereby both the change pattern and the video correlation, frequency, and phase shift can be detected.

しかしながら、患者の正確な変化パターンは処置中に入手可能でない。したがって、超音波検査を使用して患者のビデオを取得する。そして、粒子線を制御して、異常組織に送達される線量を最大にすることができ、一方で正常組織に対する線量が最小限にされる。   However, the patient's exact pattern of change is not available during the procedure. Therefore, the patient's video is acquired using ultrasonography. The particle beam can then be controlled to maximize the dose delivered to the abnormal tissue while minimizing the dose to normal tissue.

具体的には、方法が患者の変化パターン、特に呼吸パターンにおける変化を推定する。
超音波ビデオをピクチャグループ(GOP)に分割する。第1のGOPからの画素を使用して変化モデルを初期化する。該変化モデルに基づいて、次のGOPに関する変化パターンを推定し、変化モデルを、該変化パターンに適合するように変化させる。終了条件に達するまで推定及び更新を繰り返す。
Specifically, the method estimates changes in the patient's change pattern, particularly the breathing pattern.
Divide the ultrasound video into picture groups (GOP). The change model is initialized using the pixels from the first GOP. Based on the change model, a change pattern for the next GOP is estimated, and the change model is changed to match the change pattern. Repeat the estimation and update until the end condition is reached.

本発明の実施形態による、変化パターンを推定するためのシステム及び方法のブロック図である。1 is a block diagram of a system and method for estimating a change pattern according to an embodiment of the invention. FIG. 本発明の実施形態による、Y及びT座標空間における3D超音波ビデオボリュームのスライスの画像である。3 is an image of a slice of a 3D ultrasound video volume in Y and T coordinate space, according to an embodiment of the invention. 本発明の実施形態による、変化帯域エネルギー(change band energies)の逆位相画像である。4 is an anti-phase image of change band energies according to an embodiment of the present invention. 本発明の実施形態による、変化パターンを推定する方法のブロック図である。FIG. 3 is a block diagram of a method for estimating a change pattern according to an embodiment of the present invention. 本発明の実施形態によるオンライン視覚化インタフェースの画像である。3 is an image of an online visualization interface according to an embodiment of the present invention. 本発明の実施形態によるオフライン視覚化インタフェースの画像である。4 is an image of an offline visualization interface according to an embodiment of the present invention. 本発明の実施形態によるオフライン視覚化インタフェースの画像である。4 is an image of an offline visualization interface according to an embodiment of the present invention. 本発明の実施形態によるオフライン視覚化インタフェースの画像である。4 is an image of an offline visualization interface according to an embodiment of the present invention. 本発明の実施形態による視覚化方法のブロック図である。FIG. 3 is a block diagram of a visualization method according to an embodiment of the present invention.

本発明の実施形態は、患者の変化パターンを推定するための方法及びシステムを提供する。変化パターンを、放射線治療中の粒子線の制御、及び変化と治療との間の相互作用が重要な要素である他の用途に使用することができる。実施形態は、パターンを視覚化すると共に、該パターンを超音波ビデオに相関付ける方法も提供する。「患者」という用語は、吸息・呼息する任意の生体を包括的に指すことができることを理解されたい。心臓のような他の臓器の周期パターンも視覚化することができることにも留意されたい。   Embodiments of the present invention provide methods and systems for estimating patient change patterns. The change pattern can be used for particle beam control during radiation therapy and other applications where the interaction between change and treatment is an important factor. Embodiments also provide a method for visualizing a pattern and correlating the pattern to an ultrasound video. It should be understood that the term “patient” can refer generically to any living body that inhales and exhales. It should also be noted that periodic patterns of other organs such as the heart can be visualized.

システム
図1は、本発明の実施形態を使用する放射線治療構成を示している。患者101の異常組織100は、患者が吸息・呼息している(104)間に、遠隔治療装置103によって生成される粒子線102を用いて処置される。超音波センサ110は超音波ビデオ111の形式の時系列データを作成する。プロセッサ120は、変化パターンを推定する方法400のステップを実施する。ユーザ、たとえば放射線治療技師に対して、結果を表示装置上にレンダリングすることができる。この結果を使用して、粒子線を制御することもできる。
System FIG. 1 illustrates a radiotherapy configuration using an embodiment of the present invention. The abnormal tissue 100 of the patient 101 is treated with the particle beam 102 generated by the teletherapy device 103 while the patient inhales and exhales (104). The ultrasonic sensor 110 creates time series data in the form of an ultrasonic video 111. The processor 120 performs the steps of the method 400 for estimating the change pattern. The results can be rendered on a display device for a user, eg, a radiation therapy technician. This result can also be used to control the particle beam.

分析
ビデオにおいて、時間間隔tにわたって画素強度のスペクトルを分析することによって、変化パターンを検出する。本方法は、経時的にパターンを更新することによって、変化の動特性を追跡することができる。グラフィック処理ユニット(GPU)121を備えるプロセッサを使用して、スペクトルをリアルタイムに分析する。
Analysis Change patterns are detected in the video by analyzing the spectrum of pixel intensity over time interval t. The method can track the dynamics of the change by updating the pattern over time. A processor with a graphics processing unit (GPU) 121 is used to analyze the spectrum in real time.

視覚化は、オンライン(リアルタイム)視覚化インタフェースと、オフライン視覚化インタフェースとを備える。オンラインインタフェースによって、ユーザは、変化信号とビデオフレームとを比較することによって放射線治療をモニタリングすることが可能になる。ユーザは1D信号をビデオフレームと位置合わせして、ビデオ内の基本的な運動と変化信号との間の相関を最大にする。ユーザは同じ2D座標系内の相関を迅速に比較することができ、相関がなくなったときを検出することができる。オフライン視覚化によって、変化信号及び超音波ビデオの概観が提供される。   Visualization comprises an online (real-time) visualization interface and an offline visualization interface. The online interface allows the user to monitor radiation therapy by comparing change signals with video frames. The user aligns the 1D signal with the video frame to maximize the correlation between the basic motion in the video and the change signal. The user can quickly compare correlations within the same 2D coordinate system and can detect when the correlation is gone. Offline visualization provides an overview of change signals and ultrasound video.

ビデオは2D空間に投影され、変化において同一段階に相当するパターンの小さな複合データ群(small multiples:スモールマルチプル)が生成される。ユーザは相違するパターンを迅速に識別すると共に、変化信号の周期性及び位相を求めることができる。   The video is projected into 2D space, and small multiples (small multiples) of patterns corresponding to the same stage in change are generated. The user can quickly identify different patterns and determine the periodicity and phase of the change signal.

変化推定
図2において、本発明の方法を裏付ける直観が示されている。図2は、超音波ビデオ最初の512個のビデオフレームの中央においてカスケード表示された行を示している。水平寸法をフレームインデックスとして表すことによって、水平時間方向に沿って準正弦波パターンを見ることができ、これは、その強度が経時的に変化信号に相関しているはずである画素が存在することを示唆している。
Change Estimation In FIG. 2, the intuition supporting the method of the present invention is shown. FIG. 2 shows the rows cascaded in the middle of the first 512 video frames of the ultrasound video. By representing the horizontal dimension as a frame index, we can see the quasi-sinusoidal pattern along the horizontal time direction, because there are pixels whose intensity should be correlated to the changing signal over time. It suggests.

この直観に基づいて本方法を設計する。本方法は、その強度が有限数の時間間隔にわたって変化信号の強度に類似する画素セットを選択する。   The method is designed based on this intuition. The method selects a set of pixels whose intensity is similar to the intensity of the change signal over a finite number of time intervals.

専門用語
連続するビデオフレームのセットは、自動的にピクチャグループ(GOP)に分割される。GOP内のビデオフレームの数は、任意の定数又は適応的に変化する数にセットすることができる。高速フーリエ変換(FFT)に基づく技法を利用するために、その数は、2の累乗、すなわち2にセットすることが好ましい。
Terminology A set of consecutive video frames is automatically divided into picture groups (GOP). The number of video frames in a GOP can be set to any constant or adaptively changing number. In order to utilize a technique based on Fast Fourier Transform (FFT), the number is preferably set to a power of 2, i.e. 2n .

GOPは、最大全てのフレーム(最も古いフレーム、すなわちGOP内の最初のフレームは除く)と時間的に重複することができる。代替的に、GOPは重複しない。重複量によって、計算複雑度及び推定信号の平滑度が決まる。GOP間の重複が大きくなると、結果として推定値が平滑になるが、しかしながら、このような重複によって、重複が全くない場合よりも多くの計算資源も必要となる。   The GOP can overlap in time with at most all frames (except the oldest frame, ie the first frame in the GOP). Alternatively, GOPs do not overlap. The amount of overlap determines the computational complexity and the smoothness of the estimated signal. Larger overlap between GOPs results in smoother estimates, however, such overlap requires more computational resources than if there was no overlap at all.

GOPのフレームは、入力フレーム全体、又は入力フレームにおける特定の関心領域(ROI)とすることができる。ROIはフレーム間で追跡されるか、又は各入力フレーム内の同じ位置に対応することができる。   The frame of the GOP can be the entire input frame or a specific region of interest (ROI) in the input frame. The ROI can be tracked from frame to frame or can correspond to the same location within each input frame.

経時的な画素強度は、部分的に、変化パターン信号に対応する。したがって、信号の周波数及びスペクトルは経時的な画素強度に対応する。   The pixel intensity over time partially corresponds to the change pattern signal. Thus, the frequency and spectrum of the signal corresponds to the pixel intensity over time.

下記の説明において考察する変化パターンは呼吸運動に起因する。呼吸の周波数範囲は呼吸帯域(respiration band)であり、10サイクル/分〜18サイクル/分である(この範囲は、人物の年齢、健康状態等に依拠して、最低5サイクル、最大30サイクルとすることができる)。信号では、呼吸帯域におけるエネルギーは呼吸帯域エネルギー(RBE)である。図3に示すように、信号は逆位相を有する2つのセットに分類されるため、平均信号の振幅は小さい。   The change patterns considered in the following description are due to respiratory motion. The frequency range of respiration is a respiration band, which is 10 cycles / minute to 18 cycles / minute (this range is a minimum of 5 cycles and a maximum of 30 cycles depending on the age, health condition, etc. of the person). can do). In the signal, the energy in the respiratory band is the respiratory band energy (RBE). As shown in FIG. 3, since the signals are classified into two sets having opposite phases, the amplitude of the average signal is small.

同じ長さの信号から成るセットの平均スペクトルを所与とすると、呼吸帯域における最大振幅を有する周波数は、信号のセットの主要呼吸周波数として定義される。平均スペクトルにおける主要呼吸周波数の位相は、信号のセットの主要呼吸位相として定義される。経時的なパターンの種類は、ビデオ内で観察されるような、組織の調和運動及び変形を含むことができる。以下のセクションにおいて、「パターン」を使用してビデオ内の全ての活動を参照することにする。   Given the average spectrum of a set of signals of the same length, the frequency with the largest amplitude in the respiratory band is defined as the primary respiratory frequency of the set of signals. The phase of the main respiratory frequency in the average spectrum is defined as the main respiratory phase of the set of signals. Pattern types over time can include tissue harmonic motion and deformation, as observed in the video. In the following section, we will use “patterns” to refer to all activities in the video.

方法
図4に示すように、方法400は、ビデオ111の最初のGOP112からの(吸息・呼息運動、呼吸に関する)変更モデル411を初期化する(410)。モデルは、基本的な(吸息・呼息のような)周期運動パターンを表すと想定される、GOP内の画素の集合である。換言すれば、本発明のモデルは画素のサブセットであり、画像領域内の各GOPにおいて変化する可能性がある。
Method As shown in FIG. 4, the method 400 initializes 410 a modified model 411 (inspiration / expiratory movement, breathing) from the first GOP 112 of the video 111. A model is a collection of pixels in a GOP that is assumed to represent a basic (inspiration / expiration) periodic motion pattern. In other words, the model of the present invention is a subset of pixels and can change at each GOP in the image area.

本方法は、モデルに基づいて、次のGOPに関する変化(呼吸)パターン421を推定する(420)。   The method estimates a change (breathing) pattern 421 for the next GOP based on the model (420).

モデルを、このGOPに関する患者の動態の変化(呼吸)(change (respiration) dynamics)に適合するように更新する(430)。   The model is updated (430) to fit the patient's change (respiration) dynamics for this GOP.

そして、本方法は、終了条件、たとえばビデオの終了に達するまで、次のGOPに関する推定及び更新を繰り返す。   The method then repeats the estimation and update for the next GOP until an end condition is reached, eg, the end of the video.

初期化
下記の説明において呼吸モデルを考察する。一方で、本方法は全ての周期的な変化をカバーし、したがってこれを変化モデルと呼ぶ。
Initialization Consider the breathing model in the following description. On the other hand, the method covers all periodic changes and is therefore called a change model.

ROIはフレーム全体として選択される。ROIは、ユーザによって、望ましい周期的な変化、たとえば呼吸パターンを描画する画像内の領域として選択されることもできる。   The ROI is selected as the entire frame. The ROI can also be selected by the user as a region in the image that depicts a desired periodic change, eg, a breathing pattern.

変化モデルは、最初のGOPにおけるその強度が、呼吸に対応する周波数における明確な周期パターンを含む画素セットに基づいて初期化される。GOP内の各画素のRBEが求められる。閾値よりも大きいRBEを有する画素が、呼吸をモデリングする候補として選択され、ここで候補画像の数及び閾値をユーザが特定することができる。閾値処理の代わりに、最も高いRBEを有する一定数の画素を選択することもできる。   The change model is initialized based on a set of pixels whose intensity in the first GOP contains a distinct periodic pattern at a frequency corresponding to respiration. The RBE of each pixel in the GOP is obtained. Pixels with an RBE greater than the threshold are selected as candidates for modeling respiration, where the number of candidate images and the threshold can be specified by the user. Instead of thresholding, a certain number of pixels with the highest RBE can be selected.

候補画素の強度は、呼吸に対応する周波数におけるパターンを含む。したがって、平均信号は患者の呼吸を表すことができる。   The intensity of the candidate pixel includes a pattern at a frequency corresponding to respiration. Thus, the average signal can represent the patient's breathing.

全ての候補画素の平均信号の振幅は、図3に示すように、候補画素の位相を互いに逆にすることができるため、小さくすることができる。図3は、最初のGOPからの最も高いRBEを有する信号を示している。信号の2つのグループの位相は互いに逆であるため、それらの振幅は平均化の間に相殺され、不安定な信号が生じる。これは、超音波ビデオが多くの場合に雑音が多いためである。したがって、類似した位相を有する候補画素のみが選択されて呼吸をモデリングする。   The average signal amplitude of all candidate pixels can be reduced because the phases of the candidate pixels can be reversed as shown in FIG. FIG. 3 shows the signal with the highest RBE from the first GOP. Since the phases of the two groups of signals are opposite to each other, their amplitudes cancel out during averaging, resulting in an unstable signal. This is because the ultrasound video is often noisy. Therefore, only candidate pixels with similar phases are selected to model respiration.

1つの単純な(naive)オプションは、K平均法によるクラスタリング(ここではK=2)のような従来のクラスタリングプロセスを使用して画素をグループ化する。しかしながら、K平均法によるプロセスは反復性であり、時間がかかる。したがって、より単純なプロセスを使用して画素をクラスタリングする。まず、候補画素の平均スペクトルが求められた後、全ての候補画素の主要呼吸周波数として、この平均スペクトルにおける呼吸帯域の中で最大の振幅を有する周波数が求められる。   One naive option groups pixels using a conventional clustering process, such as K-means clustering (here K = 2). However, the K-means process is iterative and time consuming. Therefore, a simpler process is used to cluster the pixels. First, after the average spectrum of candidate pixels is obtained, the frequency having the maximum amplitude in the respiration band in this average spectrum is obtained as the main respiration frequency of all candidate pixels.

次に、全ての候補の主要呼吸周波数における位相の中から、有力な位相が求められる。本発明のプロセスは、位相に関する極性ヒストグラムの構築を使用する。最も多くのカウントを有するビンの位相が有力な位相として選択される。そして、このビン内の位相を有する画素が呼吸をモデリングするために選択される。   Next, a dominant phase is determined from the phases at the main respiratory frequency of all candidates. The process of the present invention uses the construction of a polarity histogram for the phase. The phase of the bin with the most counts is selected as the dominant phase. The pixel with the phase in this bin is then selected to model respiration.

推定
下記のGOPのそれぞれについて、対応する呼吸信号が、フレーム内の選択された候補画素の平均強度として推定される。選択された画素は、次のGOP内の最後のフレームが処理されるまで使用される。
Estimation For each of the following GOPs, the corresponding respiratory signal is estimated as the average intensity of the selected candidate pixels in the frame. The selected pixel is used until the last frame in the next GOP is processed.

更新
次のGOPの最後のフレームに達すると、このGOPから、変化モデルを更新するための新たな画素セットが選択される。新たに選択された画素の平均信号は、呼吸に対応する明確な周期パターンを含むと共に、前回のGOP内の推定信号から次のGOP内の推定信号への連続的な遷移を形成する。
Update When the last frame of the next GOP is reached, a new pixel set for updating the change model is selected from this GOP. The average signal of the newly selected pixel includes a distinct periodic pattern corresponding to respiration and forms a continuous transition from the estimated signal in the previous GOP to the estimated signal in the next GOP.

呼吸信号の連続的な位相遷移を生成するために、この次のGOPにおいて、前回選択された画素の主要呼吸周波数及び主要呼吸位相が求められる。次に、このGOPにおけるそれらのRBEに従って画素がソートされる。そして、画素はRBEの高いものから低いものへの順番で処理される。   In order to generate a continuous phase transition of the respiratory signal, the main respiratory frequency and the main respiratory phase of the previously selected pixel are determined in this next GOP. The pixels are then sorted according to their RBE in this GOP. The pixels are processed in order from the highest RBE to the lowest.

各画素について、主要呼吸周波数の位相と主要呼吸位相との間の差異が閾値未満である場合、該画素が選択される。選択は、特定の数の画素が選択された後、終了する。   For each pixel, if the difference between the phase of the main respiratory frequency and the main respiratory phase is less than the threshold, the pixel is selected. The selection ends after a certain number of pixels have been selected.

実施態様
本方法の主要な性能のボトルネックは、画素毎のスペクトルの計算である。本方法を加速するために、GPUにおいて、リアルタイムでステップを実施する。
Implementation The main performance bottleneck of the method is the calculation of the spectrum per pixel. To accelerate the method, steps are performed in real time on the GPU.

視覚化
本発明の視覚化の目的は、超音波ビデオ内の組織の運動及び変形と、推定呼吸信号との間の相関を明らかにすることである。オンライン視覚化によって、ビデオ内の観察可能なパターンと推定呼吸信号とを効果的に比較することができる。オフライン視覚化は、単一画像内のビデオと呼吸信号との間の相関、並びに呼吸信号の周波数及び位相シフトの双方を明らかにするための概観を生成する。
Visualization The purpose of the visualization of the present invention is to reveal the correlation between tissue motion and deformation in the ultrasound video and the estimated respiratory signal. Online visualization can effectively compare the observable pattern in the video with the estimated respiratory signal. Offline visualization generates an overview to reveal the correlation between video and respiratory signals within a single image, as well as both the frequency and phase shift of the respiratory signal.

オンライン視覚化インタフェース
単純な解決策は、ビデオ及び呼吸信号を異なる複数のウィンドウに同時に表示する。しかしながら、ウィンドウ間でユーザの焦点を切り換えることは非効率的である。これは、ビデオフレーム及び呼吸信号が多くの場合に異なる2D座標空間を使用し、したがって包括的な視覚を確立することが困難であるためである。
Online Visualization Interface A simple solution is to display video and respiratory signals simultaneously in different windows. However, switching the user focus between windows is inefficient. This is because video frames and breathing signals often use different 2D coordinate spaces and therefore it is difficult to establish comprehensive vision.

本発明のオンライン視覚化インタフェースは、超音波ビデオから抽出した様々な情報を提示するための複数の表示ウィンドウを有する。1つのウィンドウにおいて、ビデオ及び呼吸信号の双方を同時に表示する。ここで、呼吸信号及びビデオフレームは、ビデオ内の呼吸信号と周期運動との間の相関を最大にするように重ね合わせられる。   The online visualization interface of the present invention has a plurality of display windows for presenting various information extracted from the ultrasound video. In one window, both video and respiratory signals are displayed simultaneously. Here, the respiration signal and the video frame are overlaid to maximize the correlation between the respiration signal in the video and the periodic motion.

図5に示すように、ティスプレイのうちの1つにおいて、ユーザは、たとえばビデオフレーム内の主要な明確な周期運動の方向に沿って、軸を特定することができる。この軸を信号軸501と呼ぶ。続いて、呼吸信号の振幅を、前回の信号がより小さな縮尺且つ異なる色で示されるように信号軸に沿ってプロットし、運動の方向を示す。信号軸の両端は、信号の値範囲に線形にマッピングすることができる。信号の各時間間隔tはその値に従って線形にプロットされた軸とすることができる。   As shown in FIG. 5, in one of the displays, the user can specify an axis, for example, along the direction of the main distinct periodic motion in the video frame. This axis is called a signal axis 501. Subsequently, the amplitude of the respiratory signal is plotted along the signal axis so that the previous signal is shown in a smaller scale and a different color to indicate the direction of motion. Both ends of the signal axis can be linearly mapped to the signal value range. Each time interval t of the signal can be an axis that is linearly plotted according to its value.

各時間間隔はブロッチ503としてプロットされる。ブロッチの半径は時刻と現在の時間ステップとの間の距離に反比例する。この表示ウィンドウによって、複数の信号軸、たとえば501及び502を定義して知覚を改善することが可能になる。図3に示すように、2つの信号軸(501及び502)がフレームの上に表示される。インタフェースは画素毎のRBEも表示する。換言すれば、元の超音波フレーム内のRBE及び画素強度は、たとえば乗算によって、表示ウィンドウ内で混合される。これは、吸息・呼息運動を推定するのに使用される最も有益な画素の視覚的理解を増強する。   Each time interval is plotted as blotch 503. The radius of the blotch is inversely proportional to the distance between the time and the current time step. This display window allows multiple signal axes, eg, 501 and 502, to be defined to improve perception. As shown in FIG. 3, two signal axes (501 and 502) are displayed on the frame. The interface also displays the RBE for each pixel. In other words, the RBE and pixel intensity in the original ultrasound frame are mixed in the display window, for example by multiplication. This enhances the visual understanding of the most useful pixels used to estimate inspiratory and expiratory movements.

インタフェースをより効果的なものにするために、単一の表示画像内の複数のビデオフレームにわたって呼吸パターンを示す。ビデオフレーム毎に、画像強度を信号軸に沿って単一のカラムにサンプリングし、このカラムを画像の終端に付ける。画像を対応する信号と共に表示することによって、ユーザは単一のビュー内で幾つかのフレームにわたって周期運動及び信号を視覚化することができ、これは逸脱した呼吸を検出するのに有用であり得る。   In order to make the interface more effective, the breathing pattern is shown across multiple video frames within a single display image. For each video frame, the image intensity is sampled along a signal axis into a single column and this column is attached to the end of the image. By displaying images with corresponding signals, the user can visualize periodic motion and signals over several frames within a single view, which can be useful to detect deviating breaths. .

図6A〜図6Cは、この拡張された視覚化の3つの異なる結果を示している。3つの図に関するビデオ及び信号軸は同じであるが、時間間隔は異なる。   Figures 6A-6C show three different results of this expanded visualization. The video and signal axes for the three figures are the same, but the time intervals are different.

図6Aは、ユーザが信号軸を運動と位置合わせした後の画像を提示する。これは、推定信号の周期性が、運動と高度に正相関していることを示している。呼吸の推定は、ビデオフレーム内のパターンの空間分布に依拠しないため、これは予期しないことである。   FIG. 6A presents the image after the user has aligned the signal axis with the motion. This indicates that the periodicity of the estimated signal is highly positively correlated with motion. This is unexpected because respiration estimation does not rely on the spatial distribution of patterns in the video frame.

図6Bは、パターンが画像内で非周期的であり、推定信号が不安定であるケースを示している。   FIG. 6B shows the case where the pattern is aperiodic in the image and the estimated signal is unstable.

図6Cは、図6Aの状態と対照的に、信号とパターンとの間の相関が負相関又は逆位相関であることを示している。図6B及び図6C双方におけるケースは逸脱しており、処置中にユーザ対話を必要とする。   FIG. 6C shows that the correlation between the signal and the pattern is a negative or inverted correlation, in contrast to the situation of FIG. 6A. The cases in both FIG. 6B and FIG. 6C are deviating and require user interaction during the procedure.

図7は、本発明の視覚化方法の概観を示している。入力ビデオフレームがフレームウィンドウ701内に表示される。ユーザが特定した関心領域(ROI)702が抽出される。複数のフレームのROIがビデオボリューム703として時空間データに組み合わされ、表示ウィンドウ706内に表示される。   FIG. 7 shows an overview of the visualization method of the present invention. An input video frame is displayed in the frame window 701. A region of interest (ROI) 702 specified by the user is extracted. The ROIs of a plurality of frames are combined with the spatiotemporal data as a video volume 703 and displayed in the display window 706.

呼吸推定子法(respiration estimator method)400は、ROIから呼吸信号f(t)704を推定する。推定信号及び選択される画素は、信号ウィンドウ705内に表示される。   A respiration estimator method 400 estimates a respiration signal f (t) 704 from the ROI. The estimated signal and the selected pixel are displayed in the signal window 705.

そして、ROI及び推定信号は、オンライン視覚化インタフェース706において相関して視覚化される。拡張視覚化インタフェース707において、オンライン視覚化インタフェースにおける時間−信号に沿った信号及び画素強度が表示され、ビデオ内の周期パターンと信号とが相関して視覚化される。   The ROI and estimated signal are then correlated and visualized in the online visualization interface 706. In the extended visualization interface 707, the signal and pixel intensity along the time-signal in the online visualization interface is displayed and the periodic pattern in the video and the signal are correlated and visualized.

オフライン視覚化
オフライン視覚化は、超音波ビデオ及び推定呼吸信号の双方の概観として、静的画像をレンダリングする。ビデオと信号との間の相関を明らかにすることに加えて、概観は、呼吸信号の周波数及び位相も明らかにする。
Offline visualization Offline visualization renders static images as an overview of both the ultrasound video and the estimated respiratory signal. In addition to revealing the correlation between video and signal, the overview also reveals the frequency and phase of the respiratory signal.

ビデオ全体は、まず3Dボリュームとして扱われ、そしてビデオ内と同じ周期パターンを含む2D画像に投影される。次に、呼吸信号に従って2D画像が重み付けされる。これは、信号のピークに対応する画像パターンをフィルタリングすることに等しい。最後に、重み付けされた画像は表示境界の周囲でラップされ、フィルタリングされたパターンがあまり圧縮及び歪曲されていない状態でビデオ全体が効果的に表示される。   The entire video is first treated as a 3D volume and projected onto a 2D image that contains the same periodic pattern as in the video. Next, the 2D image is weighted according to the respiratory signal. This is equivalent to filtering the image pattern corresponding to the peak of the signal. Finally, the weighted image is wrapped around the display boundary, effectively displaying the entire video with the filtered pattern being less compressed and distorted.

この投影は、画像のx軸をビデオの時間次元と位置合わせする。換言すれば、この投影画像のカラム数はビデオフレームの数に比例し、ビデオにおける時間的傾向は、左から右へ垂直に表示される。   This projection aligns the x-axis of the image with the time dimension of the video. In other words, the number of columns of this projected image is proportional to the number of video frames, and the temporal trend in the video is displayed vertically from left to right.

y軸の投影は、各カラムのコンテンツを決める異なる複数のオプションを有することができる。カラムを所与とすると、該カラムのコンテンツは、ビデオボリュームを通る時間軸に平行なスライスを切り出すか、又は信号軸に沿って経時的にサンプリングされた画素強度を使用することによって得ることができる。カラムのコンテンツは、最大強度投影(MIP)又は直接ボリュームレンダリング(DVR)のような従来のボリュームレンダリング技法を介して、センサ110の座標のz軸を時間軸に垂直にし、センサのx軸を時間軸に平行にすることによって得ることもできる。   The y-axis projection can have different options that determine the contents of each column. Given a column, the content of the column can be obtained by cutting a slice parallel to the time axis through the video volume, or by using pixel intensity sampled over time along the signal axis. . The content of the column is obtained by using conventional volume rendering techniques such as Maximum Intensity Projection (MIP) or Direct Volume Rendering (DVR) to have the sensor 110 coordinate z-axis perpendicular to the time axis and the sensor x-axis to time. It can also be obtained by being parallel to the axis.

長いビデオシーケンスの場合、このレンダリングは単一のパスでは完了することができない。したがって、ビデオボリュームは一連の画像としてレンダリングされ、長い画像を形成するように登録される。レンダリング中に直交投影を使用して、透視投影に起因する歪曲を回避する。   For long video sequences, this rendering cannot be completed in a single pass. Thus, the video volume is rendered as a series of images and registered to form a long image. Use orthogonal projection during rendering to avoid distortion due to perspective projection.

投影画像は、呼吸信号に従って重み付けされる。まず、信号の値は、範囲[0,1]に線形に正規化される。画像内の各行は、正規化された信号内の対応する時間ステップの重み付けされた値によって乗算される。この重み付けによって、対応する信号がピーク付近にあり、他の画像カラムを上回っている画像カラムを強調することができる。連続的に強調される画像カラムは、ビデオ内のパターンの投影を含む。   The projected image is weighted according to the respiratory signal. First, the signal value is linearly normalized to the range [0, 1]. Each row in the image is multiplied by the weighted value of the corresponding time step in the normalized signal. By this weighting, it is possible to emphasize an image column in which the corresponding signal is near the peak and exceeds the other image columns. Continuously enhanced image columns include the projection of patterns in the video.

これらのパターン間の類似度を視覚的に比較することによって、ユーザは、信号とビデオ内の運動との間の相関が一貫しているか否かを容易に観察することができる。各パターンの長さ、及び連続したパターン間の距離は、推定信号の周波数も反映する。   By visually comparing the similarity between these patterns, the user can easily observe whether the correlation between the signal and the motion in the video is consistent. The length of each pattern and the distance between successive patterns also reflect the frequency of the estimated signal.

カラム数は時間間隔数に比例するため、画像が長くなりすぎて、視覚化効率を低減させる場合がある。これは、各パターンがディスプレイ上の限られた空間しかカバーすることができないためである。各パターンが表示スクリーン上の十分な空間をカバーすることができることを保証するために、長い画像は表示境界の周囲でラップされる。このラップは、2Dスクリーン空間を効果的に利用すると共に、信号の位相を直観的に明らかにすることができる。   Since the number of columns is proportional to the number of time intervals, the image may be too long, reducing visualization efficiency. This is because each pattern can only cover a limited space on the display. To ensure that each pattern can cover enough space on the display screen, the long image is wrapped around the display boundary. This wrap makes effective use of 2D screen space and intuitively reveals the phase of the signal.

様々な時間ステップ間でラップされた画像内に明確な対角線が現れる場合、周波数はその期間中一定である。   If a clear diagonal appears in the image wrapped between the various time steps, the frequency is constant during that period.

本発明を、好ましい実施形態の例として説明してきたが、本発明の精神及び範囲内で他のさまざまな適合及び変更を行えることが理解されるべきである。したがって、本発明の真の精神及び範囲内に入るようなこのようなすべての変形及び変更を包含することが、添付の特許請求の範囲の目的である。   Although the invention has been described by way of examples of preferred embodiments, it is to be understood that various other adaptations and modifications can be made within the spirit and scope of the invention. Accordingly, it is the object of the appended claims to cover all such variations and modifications as fall within the true spirit and scope of the invention.

Claims (14)

超音波ビデオの患者の変化パターンを推定する方法であって、該方法はプロセッサによって実施され、
超音波センサによって取得された前記患者のビデオをピクチャグループに分割するステップと、
第1のピクチャグループからの画素グループを変化モデルとして選択するステップと、
前記変化モデルに基づいて、次のピクチャグループに関する変化パターンを推定するステップと、
前記変化モデルを、前記変化パターンに適合するように更新するステップと、
終了条件に達するまで前記推定及び前記更新を繰り返すステップと、
を含む、方法。
A method for estimating a patient change pattern in an ultrasound video, the method being performed by a processor,
Dividing the patient video acquired by an ultrasonic sensor into picture groups ;
Selecting a pixel group from the first picture group as a change model;
Estimating a change pattern for a next picture group based on the change model;
Updating the change model to match the change pattern;
Repeating the estimation and the updating until an end condition is reached;
Including a method.
前記ピクチャグループは時間的に重複する、請求項1に記載の方法。   The method of claim 1, wherein the picture groups overlap in time. 前記変化パターンは、前記患者の呼吸パターンを示す、請求項1に記載の方法。   The method of claim 1, wherein the change pattern indicates a breathing pattern of the patient. 初期化は、前記第1のピクチャグループ内の画素セットであって、該画素セットの強度が、呼吸に対応する周波数において明確に周期的なパターンを含む、画素セットに基づく、請求項1に記載の方法。   The initialization is based on a set of pixels in the first picture group, wherein the intensity of the set includes a distinct periodic pattern at a frequency corresponding to respiration. the method of. 前記呼吸の周波数範囲は呼吸帯域であり、該呼吸帯域におけるエネルギーは呼吸帯域エネルギーであり、前記方法は、
前記ピクチャグループ内の前記画素毎に前記呼吸帯域エネルギーを求めること、並びに
前記変化モデルの初期化に関して、閾値よりも大きい呼吸帯域エネルギー及び類似した位相を有する画素を選択すること、
をさらに含む、請求項4に記載の方法。
The breathing frequency range is a breathing band, the energy in the breathing band is breathing band energy, and the method comprises:
Determining the breathing band energy for each pixel in the picture group, and selecting a pixel having a breathing band energy greater than a threshold and a similar phase with respect to initialization of the change model;
The method of claim 4, further comprising:
前記変化パターンは前記患者の呼吸パターンを示し、該呼吸パターンの周波数範囲は呼吸帯域であり、該呼吸帯域におけるエネルギーは呼吸帯域エネルギーであり、前記方法は、
前記ピクチャグループ内の前記画素毎に前記呼吸帯域エネルギーを求めること、及び
前記変化モデルの初期化に関して、最も大きい呼吸帯域エネルギーを有する画素数を選択すること、
をさらに含む、請求項4に記載の方法。
The change pattern indicates a breathing pattern of the patient, the frequency range of the breathing pattern is a breathing band, the energy in the breathing band is breathing band energy, and the method includes:
Determining the respiratory band energy for each of the pixels in the picture group, and selecting the number of pixels having the largest respiratory band energy for initialization of the change model;
The method of claim 4, further comprising:
前記初期化された変化モデル内の前記選択された画素を類似した位相にグループ化することをさらに含む、請求項4に記載の方法。   5. The method of claim 4, further comprising grouping the selected pixels in the initialized change model into similar phases. 前記位相に関するビンの極性ヒストグラムを構築すること、及び
前記ビンが最大のカウントを有する位相を有力な位相として選択すること、
をさらに含む、請求項4に記載の方法。
Constructing a bin polarity histogram for the phase; and selecting the phase with the largest count as the dominant phase.
The method of claim 4, further comprising:
前記パターンは前記選択された画素の平均強度として推定される、請求項4に記載の方法。   The method of claim 4, wherein the pattern is estimated as an average intensity of the selected pixels. 前記パターンに従って粒子線を制御することをさらに含む、請求項1に記載の方法。   The method of claim 1, further comprising controlling a particle beam according to the pattern. 前記ピクチャグループ毎に前記パターンを信号としてリアルタイムに視覚化することをさらに含む、請求項1に記載の方法。   The method of claim 1, further comprising visualizing the pattern as a signal for each picture group in real time. 前記視覚化は前記ビデオ及び前記信号を単一の表示ウィンドウ内に同時に表示する、請求項11に記載の方法。   The method of claim 11, wherein the visualization displays the video and the signal simultaneously in a single display window. 前記ビデオ全体及び前記パターンを信号としてオフラインで視覚化することをさらに含む、請求項1に記載の方法。   The method of claim 1, further comprising visualizing the entire video and the pattern as a signal offline. 前記ビデオのフレームを前記信号に従って重み付けすることをさらに含む、請求項13に記載の方法。   The method of claim 13, further comprising weighting the frames of video according to the signal.
JP2010072911A 2009-03-31 2010-03-26 Method for estimating patient change patterns Active JP5550411B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US16536909P 2009-03-31 2009-03-31
US61/165,369 2009-03-31
US12/639,777 US8781183B2 (en) 2009-03-31 2009-12-16 Enhanced visualizations for ultrasound videos
US12/639,777 2009-12-16

Publications (2)

Publication Number Publication Date
JP2010240400A JP2010240400A (en) 2010-10-28
JP5550411B2 true JP5550411B2 (en) 2014-07-16

Family

ID=43094143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010072911A Active JP5550411B2 (en) 2009-03-31 2010-03-26 Method for estimating patient change patterns

Country Status (1)

Country Link
JP (1) JP5550411B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2772884A1 (en) * 2013-02-28 2014-09-03 Koninklijke Philips N.V. Apparatus and method for detecting subjects on the basis of vital signs

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005095640A (en) * 2004-10-28 2005-04-14 Hitachi Ltd Method and apparatus for applying radiation
KR100815977B1 (en) * 2005-04-20 2008-03-24 주식회사 메디슨 Method and system for estimating motion from continuous images
DE602006018229D1 (en) * 2005-08-24 2010-12-30 Medison Co Ltd Apparatus and method for processing an ultrasound image
JP2008035971A (en) * 2006-08-02 2008-02-21 Ge Medical Systems Global Technology Co Llc Ultrasonic diagnosing device and motion factor calculating method
KR100961856B1 (en) * 2007-03-08 2010-06-09 주식회사 메디슨 Ultrasound system and method for forming ultrasound image

Also Published As

Publication number Publication date
JP2010240400A (en) 2010-10-28

Similar Documents

Publication Publication Date Title
EP3405105B1 (en) Method and apparatus for estimating heart rate
CN109247923B (en) Non-contact type pulse real-time estimation method and device based on video
EP3405110B1 (en) Method and apparatus for estimating breathing rate
US9901317B2 (en) Image processing apparatus for acquiring a dynamic image and storage medium
US8837789B2 (en) Systems, methods, apparatuses, and computer program products for computer aided lung nodule detection in chest tomosynthesis images
US9665935B2 (en) Image processing device and program
EP3264985B1 (en) Tomography imaging apparatus and method of reconstructing tomography image
US9721180B2 (en) Estimating respiratory phase from a video of a subject
WO2015148391A1 (en) Systems, methods, and devices for removing prospective motion correction from medical imaging scans
US20140316247A1 (en) Method, apparatus, and system for tracking deformation of organ during respiration cycle
JP6253085B2 (en) X-ray moving image analysis apparatus, X-ray moving image analysis program, and X-ray moving image imaging apparatus
US8781183B2 (en) Enhanced visualizations for ultrasound videos
CN111867471A (en) Diagnostic aid
CN107533755A (en) For improving the apparatus and method of medical image quality
US10242452B2 (en) Method, apparatus, and recording medium for evaluating reference points, and method, apparatus, and recording medium for positional alignment
US10223790B2 (en) Dynamic analysis system
CN111448589B (en) Device, system and method for detecting body movement of a patient
Centonze et al. Feature extraction using MS Kinect and data fusion in analysis of sleep disorders
Cooper et al. Quantifying the image quality and dose reduction of respiratory triggered 4D cone-beam computed tomography with patient-measured breathing
JP5550411B2 (en) Method for estimating patient change patterns
US7894571B2 (en) System and method for using prospective evaluation of displacement and velocity of a respiratory trace in a five dimensional parameter space to reduce artifacts and dosage in four dimensional computed tomography
JP2010057795A (en) Image display device and program
JP2009297077A (en) Image processing apparatus
JP6852545B2 (en) Image display system and image processing equipment
WO2001067960A2 (en) System and method for processing an image sequence

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140422

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140520

R150 Certificate of patent or registration of utility model

Ref document number: 5550411

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250