JP2009512053A - 画像シーケンスの動き推定及び補償 - Google Patents
画像シーケンスの動き推定及び補償 Download PDFInfo
- Publication number
- JP2009512053A JP2009512053A JP2008535173A JP2008535173A JP2009512053A JP 2009512053 A JP2009512053 A JP 2009512053A JP 2008535173 A JP2008535173 A JP 2008535173A JP 2008535173 A JP2008535173 A JP 2008535173A JP 2009512053 A JP2009512053 A JP 2009512053A
- Authority
- JP
- Japan
- Prior art keywords
- image
- motion
- moving object
- images
- dynamic imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4007—Interpolation-based scaling, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
Abstract
本発明は、移動物体の動的画像化のための方法、システム、及びコンピュータプログラムに関する。まず最初に、画像Im及びIm+1の共通部分の要素の間の動きが計算される。動き補償のステップ1において、前記要素が、適切な変換を使用して実行される。Im+1は、変換されなければならない画像であると仮定すると、mからm+1までのその動きは、逆動き推定式Iを適用して補償され、その結果、位置mにおいて再フォーマットされた画像式IIがもたらされる。ステップ2において、グレイ値補間が、画像Im及び変換画像I'm+1に基づいて実行され、その結果、0<i≦jに対してj補間画像式IIIがもたらされる。ステップ3において、空間補間が実行され、移動物体の動的画像化に対する一連の画像がもたらされる。空間補間が計算され、位置iにおいて画像式IIIが位置され、その結果、0<i≦jに対してj画像式IVがもたらされ、変換重み付けファクタw=i/jがもたらされる。
Description
本発明は、移動物体の動的(ダイナミック)画像化のための方法であって、前記方法は、
− 前記物体を表す各輝度を備える要素を有する、前記移動物体の画像にアクセスするステップと、
− 連続画像の少なくとも共通部分の前記要素の間の動きを計算するステップと
を有する方法に関する。
− 前記物体を表す各輝度を備える要素を有する、前記移動物体の画像にアクセスするステップと、
− 連続画像の少なくとも共通部分の前記要素の間の動きを計算するステップと
を有する方法に関する。
本発明は更に、移動物体の動的画像化を可能にするためのシステムにも関する。
また本発明は更に、移動物体の動的画像化のためのコンピュータプログラムにも関する。
冒頭の段落に記載の方法の実施例は、米国特許第US 2002/0180761号公報から知られている。知られている方法は、適切なデータ取得モードに従って時間的に間隔をおいて位置される画像、特に医療用画像の連続表示で構成される。知られている方法は、このように得られた連続画像の動的画像化における画像化物体のぎくしゃくした動きを補償するように構成される。このため、知られている方法において、画像の元のセットの、隣接する画像フレームの間の高密度の動きベクトル場(フィールド)(motion vector field)が計算される。高密度の動きベクトル場はそれから、元のデータセットの画像の間に補間画像を生成するために使用される。補間画像はそれから、動的画像化モードにおいて見られ得るぎくしゃくした動きを平滑化(スムージング)するために元の画像でインタレース(飛越し走査)される。
知られている方法の不利点は、当該方法が、高密度のベクトルの動きの計算に基づいて元のデータセットの単なる掛け算をもたらすことにある。かなり不規則な動きパターンを伴う物体に対して、知られている方法は不十分であり、計算を実行するための、必要とされる重い計算リソースのためにむしろ遅くなる。更に当該方法は、動的画像化モードにおいてぎくしゃくした動きを除去するために複数の画像を単に多重化するのに十分でない。
本発明の目的は、ぎくしゃくした動きが、物体の複雑な動きパターンに対してさえかなり除去される、移動物体の動的画像化のための方法を提供することにある。
このため、本発明のよる方法は更に、
− 前記計算された動きに基づいて前記要素のための動き補償を実行するステップと、
− 前記動き補償に基づいて前記要素の各輝度を更に計算するステップと、
− 前記移動物体の動的画像化のために一連の画像をもたらす前記連続画像の部分の間の空間補間を計算するステップと
を有する。
− 前記計算された動きに基づいて前記要素のための動き補償を実行するステップと、
− 前記動き補償に基づいて前記要素の各輝度を更に計算するステップと、
− 前記移動物体の動的画像化のために一連の画像をもたらす前記連続画像の部分の間の空間補間を計算するステップと
を有する。
磁気共鳴映像装置(magnetic resonance imaging apparatus)、X線ユニット、コンピュータ断層撮影ユニット(computer tomography unit)等のような医療用ユニットは、多くの場合、移動可能な物体、とりわけジョイント部(継ぎ目)の動態画像化(kinematic imaging)のために使用され得る4次元(4D)検査を提供する時系列の"n"3次元(3D)画像を取得するために使用される。しかしながら、4D画像のスライス毎の表示は非能率的で扱われにくくなると共に動きを推定することを不可能にする。シネループ(cine-loop)において単にスライスデータを示すことは、動きの視覚(映像)分析を妨げる、フレームの間の"ぎくしゃくさ(ジャーク(jerk))"によって損なわれるであろう。これらのぎくしゃくさは、動きを完全にカバーすることのない、制限された数の取得3D体積によってもたらされる。しかしながら、臨床用途の場合、かなり早い態様で画像体積の円滑な視覚化をもたらし、更に臨床評価のために、正確に引き出された画像をもたらすことが必要とされる。
本発明は、知られている方法とは異なり、一方でロバスト且つ正確な方法を提供すると共に、他方で重い計算及び計算時間を必要としない方法を提供する。本発明の技術的な手段は、画像の間の動きを補償するために各3D体積の適切な補間が実行され、それによって従来技術の制限が克服され得るという洞察に基づいている。静止画像に対して通常使用される線形補間が、動きによって引き起こされるシャドーイングアーチファクト(shadowing artefact)を結果としてもたらすことは理解されている。本発明の技術的な手段は、動態画像に対して、後続する3D画像の間の動きの推定に基づく動き補間手法(アプローチ)が適しているという更なる洞察に基づいている。これによって、シャドーイングアーチファクトが推定される。
そのため本発明による方法は、以下のステップを有する。
動き推定
時間t∈{1,2,… k)において取得されるn3D画像Itの時系列の場合、例えばB−スプライン(B-Spline)のそれ自体知られている方法、又は例えば適応ガウス力(adaptive gaussian force)のそれ自体知られている方法のように、伸縮画像位置合わせ(elastic image registration)によって0< m < kに対してImからIm+1までの動きが推定される。
時間t∈{1,2,… k)において取得されるn3D画像Itの時系列の場合、例えばB−スプライン(B-Spline)のそれ自体知られている方法、又は例えば適応ガウス力(adaptive gaussian force)のそれ自体知られている方法のように、伸縮画像位置合わせ(elastic image registration)によって0< m < kに対してImからIm+1までの動きが推定される。
動き補償
動き補間を実行するため、後続する画像Im及びIm+1は予め、m< n < m+1の場合に共通(目標)位置nに位置されなければならない。各々の位置nに対して、二つの変換がなされなければならず、これは動き推定
及び
に基づいている。
動き補間を実行するため、後続する画像Im及びIm+1は予め、m< n < m+1の場合に共通(目標)位置nに位置されなければならない。各々の位置nに対して、二つの変換がなされなければならず、これは動き推定
より効率的には、たった一つの画像だけしか変換されず、計算時間が更にずっと節減される。Im+1は、変換されなければならない画像であると仮定すると、mからm+1までのその動きは、逆動き推定
を適用して補償され、その結果、位置mにおける再フォーマット(整形)された画像
がもたらされる。
グレイ(中間調)値補間
グレイ値に関して画素の輝度(強度)を表すことは通常の手法である。本発明による方法において、グレイ値補間は、画像Im及び変換画像I'm+1から計算され、その結果、0<i≦jに対してj補間画像
がもたらされる。好ましくは、線形グレイ値補間が使用され、これは
によって与えられる。
グレイ値に関して画素の輝度(強度)を表すことは通常の手法である。本発明による方法において、グレイ値補間は、画像Im及び変換画像I'm+1から計算され、その結果、0<i≦jに対してj補間画像
本発明による方法が4次元データセットを参照して記載されるが、他の時系列、例えば2D+tにもうまく適用され得ることは注意される。本発明による方法が、何れの特定のデータ取得システムにも限定されず、時系列をもたらす非常に様々な画像化様相(モダリティ)、例えばMR, CT, US, PET, SPECT, 又はそれらの何れかの組み合わせにうまく適用され得ることも注意される。動きは、適切な分割(セグメンテーション)によって、とりわけモデルに基づく画像の分割を使用しても推定されることが可能であり、若しくは例えば分割された解剖学上の物体(対象)の表面部の適切な位置合わせ(位置決め)によっても推定されることが可能であり、又は画像内で識別され得る解剖学的マーカ若しくは基準マーカに基づいても推定されることが可能であることは更に注意される。線形補間手法及び非線形補間手法が、グレイ値及び動き補間のために使用され得る。グレイ値に基づく重み付け及び/又は動きに基づく重み付けは動き補間を向上させ得る。
本発明によるシステムは、
−移動物体を表す各輝度を備える要素を有する、前記移動物体の画像にアクセスする
ための入力部と、
−連続画像の少なくとも共通部分の前記要素の間の動きを計算し、
−前記計算された動きに基づいて前記要素のための動き補償を実行し、
−前記動き補償に基づいて前記要素の各輝度を更に計算し、
−前記連続画像の部分の間の空間補間を計算して、前記移動物体の動的画像化のために一連の画像をもたらす
ためのプロセッサと
を有する。
−移動物体を表す各輝度を備える要素を有する、前記移動物体の画像にアクセスする
ための入力部と、
−連続画像の少なくとも共通部分の前記要素の間の動きを計算し、
−前記計算された動きに基づいて前記要素のための動き補償を実行し、
−前記動き補償に基づいて前記要素の各輝度を更に計算し、
−前記連続画像の部分の間の空間補間を計算して、前記移動物体の動的画像化のために一連の画像をもたらす
ためのプロセッサと
を有する。
好ましくは、本発明によるシステムは、前記移動物体の動的画像化の結果を表示するためのディスプレイユニットを更に有する。更に好ましくは、本発明によるシステムは、前記移動物体の画像を取得するためのデータ取得ユニットをまた更に有する。適切なデータ取得ユニットの例は、磁気共鳴映像ユニット(MR)、コンピュータ断層撮影ユニット(CT)、超音波ユニット(US)、陽電子[ポジトロン]放射断層撮影デバイス(positron-emitting device (PET))、光子放射型(コンピュータ)断層撮影法(single photon emitting computer tomography (SPECT))、又はそれらの何れかの組み合わせを含む。本発明によるシステムの更に有利な実施例は、図3を参照して議論されるであろう。
本発明によるコンピュータプログラムは、
− 移動物体を表す各輝度を備える要素を有する、前記移動物体の画像にアクセスするステップと、
− 連続画像の少なくとも共通部分の前記要素の間の動きを計算するステップと、
− 前記計算された動きに基づいて前記要素のための動き補償を実行するステップと、
− 前記動き補償に基づいて前記要素の各輝度を更に計算するステップと、
− 前記連続画像の部分の間の空間補間を計算して、前記移動物体の動的画像化のために一連の画像をもたらすステップと
をプロセッサに実行させるための命令を有する。
− 移動物体を表す各輝度を備える要素を有する、前記移動物体の画像にアクセスするステップと、
− 連続画像の少なくとも共通部分の前記要素の間の動きを計算するステップと、
− 前記計算された動きに基づいて前記要素のための動き補償を実行するステップと、
− 前記動き補償に基づいて前記要素の各輝度を更に計算するステップと、
− 前記連続画像の部分の間の空間補間を計算して、前記移動物体の動的画像化のために一連の画像をもたらすステップと
をプロセッサに実行させるための命令を有する。
好ましくは、本発明によるコンピュータプログラムは、ディスプレイ上に前記移動物体の動的画像化の結果を映像(視覚)化するステップを前記プロセッサに実行させるための命令を更に有する。本発明によるコンピュータプログラムの動作は、図3を参照してより詳細に議論されるであろう。
図1は、本発明による方法の実施例を概略的に示す。予備ステップ(図示略)において、移動物体I(t)の画像、例えばジョイント部がアクセスされ、連続画像Im (t)及びIm+1(t)の少なくとも共通部分の要素の間の動きが計算される。例えばt∈{1,2,… k)において取得されるn3D画像Itの時系列の場合、好ましくは、例えばB−スプラインのそれ自体知られている方法、又は例えば適応ガウス力のそれ自体知られている方法のように、伸縮画像位置合わせによって0< m < kに対してImからIm+1までの動きが推定される。前記方法の実現のために、連続画像の間の実質的な時間インタバルでのデータ取得モードに対して時間(テンポラル)シーケンスにおける最隣接部の間の動きを計算することが厳密に必要とされないことは注意されるが、画像Im (t)及びIm+1(t)の各々の連続対の間の動きを計算することは好ましい。また、分割の動き結果を計算するために、表面部の位置合わせ又は目印(ランドマーク)若しくは基準マーカの識別が使用され得る。本発明による方法のステップ1において、動き補償は、計算された動きに基づいて前記要素に対して実行される。本発明の範囲内で、前記要素は、画素、画像領域、ボクセル、又は体積要素の何れかとして理解される。動き補間を実行するため、後続する画像Im及びIm+1は予め、m< n < m+1の場合に共通(目標)位置nに位置されなければならない。各々の位置nに対して、二つの変換がなされなければならず、これは動き推定
及び
に基づいている。
より効率的には、たった一つの画像だけしか変換されず、計算時間が更にずっと節減される。Im+1は、変換されなければならない画像であると仮定すると、mからm+1までのその動きは、逆動き推定
を適用して補償され、その結果、位置mにおける再フォーマット(整形)された画像
がもたらされる。
本発明による方法のステップ2において、グレイ値に関して画素の輝度を表すことは通常の手法であるので、グレイ値補間が実行される。本発明による方法において、グレイ値補間は、画像Im及び変換画像I'm+1から計算され、その結果、0<i≦jに対してj補間画像
がもたらされる。好ましくは、線形グレイ値補間が使用され、これは
によって与えられる。しかしながら、非線形補間のような他の手法もこの目的に適している。
最終的に、本発明による方法のステップ3において、空間補間が実行され、移動物体の動的画像化の一連の画像をもたらされる。空間補間が計算され、位置iにおいて画像
が位置され、その結果、0<i≦jに対してj画像
がもたらされ、変換重み付けファクタ
がもたらされる。
図2は、本発明によるシステムの実施例を概略的に示す。本発明によるシステム10は、物体を表す各輝度を備える要素を有する、移動物体(図示略)の画像にアクセスするように構成される入力部15を備えるコンピュータ15を有する。各画像輝度をグレイ値として表すことは通常の手法である。システム20は、適切なデータ取得ユニット17、例えば磁気共鳴映像ユニット(MR)、コンピュータ断層撮影ユニット(CT)、超音波ユニット(US)、陽電子放射断層撮影デバイス(PET)、光子放射型(コンピュータ)断層撮影法 (SPECT)、又はそれらの何れかの組み合わせを更に有していてもよい。本発明によるシステムのコンピュータ15は、連続画像の少なくとも共通部分の要素の間の動きを計算し、前記計算された動きに基づいて前記要素のための動き補償を実行し、前記動き補償に基づいて前記要素の各輝度(グレイ値)を更に計算し、前記移動物体の動的画像化のために一連の画像をもたらす前記連続画像の部分の間の空間補間を計算するように構成されるプロセッサ14を更に有する。このステップの場合、図1を参照して記載される本発明による方法が使用される。好ましくは、コンピュータ15の動作は、プロセッサに前記ステップを実行させるための命令を有するコンピュータプログラム16によって制御される。本発明によるコンピュータプログラムのフローチャートが図3を参照して議論されるであろう。好ましくは、システム20は、このようにして得られる、移動物体の動的画像化の結果を表示するように構成されるディスプレイユニット19を更に有する。画像化の方法はそれ自体従来技術において知られており、ここでは詳細に説明されないであろう。適切なユーザによる正確なデータ評価を可能にするために、完全自動表示(ビューイング)モード、例えばシネループを使用することは好ましい。
図3は、本発明によるコンピュータプログラムのフローチャートの実施例を概略的に示す。本発明によるコンピュータプログラム20は、移動物体を表す各輝度を備える要素を有する、前記移動物体の画像にアクセスするステップ21をプロセッサに実行させるための命令を有する。好ましくは、コンピュータプログラムは、適切なコンピュータ制御可能なデータ取得ユニットによるデータ取得のステップ21をプロセッサに開始させるための命令を更に有する。適切なデータ取得ユニットの例は、例えば磁気共鳴映像ユニット(MR)、コンピュータ断層撮影ユニット(CT)、超音波ユニット(US)、陽電子放射断層撮影デバイス(PET)、光子放射型(コンピュータ)断層撮影法 (SPECT)、又はそれらの何れかの組み合わせを含む。
本発明によるコンピュータプログラム20は、適切な計算アルゴリズムを使用して、連続画像の少なくとも共通部分の要素の間の動きをプロセッサに計算させる命令を更に有する。時間t∈{1,2,… k)において取得されるn3D画像Itの時系列の場合、有利なことに、例えばB−スプラインのそれ自体知られている方法、又は例えば適応ガウス力のそれ自体知られている方法のように、伸縮画像位置合わせを使用して、0< m < kに対してImからIm+1までの動きが推定される。代わりに、コンピュータプログラム20は、例えば適切なデータ分割の結果に基づいて、前記画像内の各関心共通部分を識別するための命令23を更に有していてもよい。
本発明によるコンピュータプログラムは、計算された動きに基づく画素のための動き補償をプロセッサに実行させるための命令24を更に有する。動き補間を実行するため、後続する画像Im及びIm+1は予め、m< n < m+1の場合に共通(目標)位置nに位置されなければならない。各々の位置nに対して、二つの変換がなされなければならず、これは動き推定
及び
に基づいている。より効率的には、たった一つの画像だけしか変換されず、計算時間が更にずっと節減される。Im+1は、変換されなければならない画像であると仮定すると、mからm+1までのその動きは、逆動き推定
を適用して補償され、その結果、位置mにおける再フォーマット(整形)された画像
がもたらされる。
コンピュータプログラムの命令25は、動き補償に基づいて要素の各々をプロセッサに更に計算させる。グレイ値に関して画素の輝度を表すことは通常の手法である。本発明による方法において、グレイ値補間は、画像Im及び変換画像I'm+1から計算され、その結果、0<i≦jに対してj補間画像
がもたらされる。好ましくは、線形グレイ値補間が使用され、これは
によって与えられる。代わりに、非線形補間が使用され得る。
Claims (10)
- 移動物体の動的画像化のための方法であって、前記方法は、
− 前記物体を表す各輝度を備える要素を有する、前記移動物体の画像にアクセスするステップと、
− 連続画像の少なくとも共通部分の前記要素の間の動きを計算するステップと、
− 前記計算された動きに基づいて前記要素のための動き補償を実行するステップと、
− 前記動き補償に基づいて前記要素の各輝度を更に計算するステップと、
− 前記連続画像の部分の間の空間補間を計算して、前記移動物体の動的画像化のために一連の画像をもたらすステップと
を有する方法。 - 前記動きは、前記画像の分割の結果に基づいて計算される請求項1に記載の方法。
- 前記動きは、前記物体の部分の位置合わせの結果に基づいて計算される請求項1に記載の方法。
- 前記動きは、前記画像における識別可能なマーカに基づいて計算される請求項1に記載の方法。
- ディスプレイ上に前記移動物体の動的画像化の結果を映像化するステップを更に有する請求項1乃至4の何れか一項に記載の方法。
- 移動物体の動的画像化を可能にするためのシステムであって、前記システムは、
−前記物体を表す各輝度を備える要素を有する、前記移動物体の画像にアクセスする
ための入力部と、
−連続画像の少なくとも共通部分の前記要素の間の動きを計算し、
−前記計算された動きに基づいて前記要素のための動き補償を実行し、
−前記動き補償に基づいて前記要素の各輝度を更に計算し、
−前記連続画像の部分の間の空間補間を計算して、前記移動物体の動的画像化のために一連の画像をもたらす
ためのプロセッサと
を有するシステム。 - 前記移動物体の動的画像化の結果を表示するためのディスプレイを更に有する請求項6に記載のシステム。
- 前記画像を取得するためのデータ取得ユニットを更に有する請求項6又は7に記載のシステム。
- 移動物体を表す各輝度を備える要素を有する、前記移動物体の画像にアクセスするステップと、
連続画像の少なくとも共通部分の前記要素の間の動きを計算するステップと、
前記計算された動きに基づいて前記要素のための動き補償を実行するステップと、
前記動き補償に基づいて前記要素の各輝度を更に計算するステップと、
前記連続画像の部分の間の空間補間を計算して、前記移動物体の動的画像化のために一連の画像をもたらすステップと
をプロセッサに実行させるためのコンピュータプログラム。 - ディスプレイ上に前記移動物体の動的画像化の結果を映像化するステップを前記プロセッサに実行させるための命令を更に有する請求項9に記載のコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP05109613 | 2005-10-17 | ||
PCT/IB2006/053784 WO2007046047A1 (en) | 2005-10-17 | 2006-10-16 | Motion estimation and compensation of image sequences |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009512053A true JP2009512053A (ja) | 2009-03-19 |
Family
ID=37831430
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008535173A Pending JP2009512053A (ja) | 2005-10-17 | 2006-10-16 | 画像シーケンスの動き推定及び補償 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20080246776A1 (ja) |
EP (1) | EP1941455A1 (ja) |
JP (1) | JP2009512053A (ja) |
CN (1) | CN101292265A (ja) |
WO (1) | WO2007046047A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013505778A (ja) * | 2009-09-25 | 2013-02-21 | ジオソフト,インコーポレーテッド | 運動情報を用いた医用画像解析のためのコンピュータ可読媒体、システム、および方法 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080205719A1 (en) * | 2005-06-15 | 2008-08-28 | Koninklijke Philips Electronics, N.V. | Method of Model-Based Elastic Image Registration For Comparing a First and a Second Image |
WO2010118629A1 (en) * | 2009-04-17 | 2010-10-21 | The Hong Kong University Of Science And Technology | Method, device and system for facilitating motion estimation and compensation of feature-motion decorrelation |
US9094606B2 (en) * | 2011-07-04 | 2015-07-28 | Waikatolink Limited | Motion compensation in range imaging |
US9398855B2 (en) * | 2013-05-30 | 2016-07-26 | Siemens Aktiengesellschaft | System and method for magnetic resonance imaging based respiratory motion correction for PET/MRI |
CN105611166A (zh) * | 2015-12-29 | 2016-05-25 | 努比亚技术有限公司 | 一种实现图片拍摄的方法及终端 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5806521A (en) * | 1996-03-26 | 1998-09-15 | Sandia Corporation | Composite ultrasound imaging apparatus and method |
JP2004128702A (ja) * | 2002-09-30 | 2004-04-22 | Toshiba Corp | フレーム補間方法 |
WO2004075987A1 (en) * | 2003-02-28 | 2004-09-10 | Koninklijke Philips Electronics, N.V. | Motion-tracking improvements for hifu ultrasound therapy |
JP2005157924A (ja) * | 2003-11-27 | 2005-06-16 | Tech Res & Dev Inst Of Japan Def Agency | 画像の動き検出装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU1983397A (en) * | 1996-02-29 | 1997-09-16 | Acuson Corporation | Multiple ultrasound image registration system, method and transducer |
US6162174A (en) * | 1998-09-16 | 2000-12-19 | Siemens Medical Systems, Inc. | Method for compensating for object movement in ultrasound images |
US6169817B1 (en) * | 1998-11-04 | 2001-01-02 | University Of Rochester | System and method for 4D reconstruction and visualization |
US6535570B2 (en) * | 1999-06-17 | 2003-03-18 | Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of National Defence Of Her Majesty's Canadian Government | Method for tracing organ motion and removing artifacts for computed tomography imaging systems |
US6690386B2 (en) | 2001-05-31 | 2004-02-10 | Dynapel Systems, Inc. | Medical image display system |
-
2006
- 2006-10-16 EP EP06821191A patent/EP1941455A1/en not_active Withdrawn
- 2006-10-16 CN CNA2006800385169A patent/CN101292265A/zh active Pending
- 2006-10-16 JP JP2008535173A patent/JP2009512053A/ja active Pending
- 2006-10-16 WO PCT/IB2006/053784 patent/WO2007046047A1/en active Application Filing
- 2006-10-16 US US12/089,715 patent/US20080246776A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5806521A (en) * | 1996-03-26 | 1998-09-15 | Sandia Corporation | Composite ultrasound imaging apparatus and method |
JP2004128702A (ja) * | 2002-09-30 | 2004-04-22 | Toshiba Corp | フレーム補間方法 |
WO2004075987A1 (en) * | 2003-02-28 | 2004-09-10 | Koninklijke Philips Electronics, N.V. | Motion-tracking improvements for hifu ultrasound therapy |
JP2005157924A (ja) * | 2003-11-27 | 2005-06-16 | Tech Res & Dev Inst Of Japan Def Agency | 画像の動き検出装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013505778A (ja) * | 2009-09-25 | 2013-02-21 | ジオソフト,インコーポレーテッド | 運動情報を用いた医用画像解析のためのコンピュータ可読媒体、システム、および方法 |
Also Published As
Publication number | Publication date |
---|---|
EP1941455A1 (en) | 2008-07-09 |
WO2007046047A1 (en) | 2007-04-26 |
US20080246776A1 (en) | 2008-10-09 |
CN101292265A (zh) | 2008-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3210163B1 (en) | Gaze-tracking driven region of interest segmentation | |
CN107886508B (zh) | 差分减影方法和医学图像处理方法及系统 | |
US8326086B2 (en) | Elastic image registration | |
US20110075896A1 (en) | Computer readable medium, systems and methods for medical image analysis using motion information | |
US9035941B2 (en) | Image processing apparatus and image processing method | |
US20120121154A1 (en) | Method and System for Propagation of Myocardial Infarction from Delayed Enhanced Cardiac Imaging to Cine Magnetic Resonance Imaging Using Hybrid Image Registration | |
Dougherty et al. | Alignment of CT lung volumes with an optical flow method | |
JP2002306483A (ja) | 医用画像診断装置及びその方法 | |
US9224204B2 (en) | Method and apparatus for registration of multimodal imaging data using constraints | |
JP2004105737A (ja) | 心臓磁気共振潅流データのための統合的画像記録方法 | |
CN113330486A (zh) | 深度估计 | |
JP2009512053A (ja) | 画像シーケンスの動き推定及び補償 | |
Straka et al. | Simultaneous shape and pose adaption of articulated models using linear optimization | |
JP6747785B2 (ja) | 医用画像処理装置及び医用画像処理方法 | |
Alam et al. | Evaluation of medical image registration techniques based on nature and domain of the transformation | |
US8009910B2 (en) | Method, a system, a computer program product and a user interface for segmenting image sets | |
US8805122B1 (en) | System, method, and computer-readable medium for interpolating spatially transformed volumetric medical image data | |
CN111598927B (zh) | 一种定位重建方法和装置 | |
Aghajani et al. | Intensity based image registration by minimizing the complexity of weighted subtraction under illumination changes | |
Piella et al. | Multiview diffeomorphic registration for motion and strain estimation from 3D ultrasound sequences | |
Liu et al. | Moving propagation of suspicious myocardial infarction from delayed enhanced cardiac imaging to cine MRI using hybrid image registration | |
Fan et al. | Local force model for cardiac dynamics analysis from volumetric image sequences | |
Porras et al. | Myocardial motion estimation combining tissue Doppler and B-mode echocardiographic images | |
JP2018084997A (ja) | 画像処理装置、画像処理方法 | |
Wu et al. | Parallel Optical Flow Processing of 4D Cardiac CT Data on Multicore Clusters |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091016 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110802 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120105 |