JP6509025B2 - 画像処理装置、及びその方法 - Google Patents

画像処理装置、及びその方法 Download PDF

Info

Publication number
JP6509025B2
JP6509025B2 JP2015096525A JP2015096525A JP6509025B2 JP 6509025 B2 JP6509025 B2 JP 6509025B2 JP 2015096525 A JP2015096525 A JP 2015096525A JP 2015096525 A JP2015096525 A JP 2015096525A JP 6509025 B2 JP6509025 B2 JP 6509025B2
Authority
JP
Japan
Prior art keywords
image processing
information
processing apparatus
unit
motion information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015096525A
Other languages
English (en)
Other versions
JP2016209335A (ja
JP2016209335A5 (ja
Inventor
健太 高野橋
健太 高野橋
昌宏 荻野
昌宏 荻野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2015096525A priority Critical patent/JP6509025B2/ja
Priority to CN201610293468.3A priority patent/CN106154193B/zh
Publication of JP2016209335A publication Critical patent/JP2016209335A/ja
Publication of JP2016209335A5 publication Critical patent/JP2016209335A5/ja
Application granted granted Critical
Publication of JP6509025B2 publication Critical patent/JP6509025B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Description

本発明はX線透視撮影等の医用画像撮影装置に係り、特にその画像処理技術に関する。
体内プローブなどのデバイスを用いた手技を補助するための機器においては、デバイスの位置を補正するため、特許文献1に記載の技術がある。この公報には、「体内プローブ追跡システムにおける患者の動きの補正に関する。体のX線透視画像が受信される。X線透視画像において体の硬組織を特定することと、X線透視画像における体の動きが第2座標系において測定される。第1座標系における体内プローブの受信した位置が、第2座標系で特定された動きを用いて補正される。」という記載がある。
特開2014−100567号公報
A Tutorial on Support Vector Machines for Pattern Recognition」,Journal of Data Mining and Knowledge Discovery,Vol.2,Issue 2,1998
上記の通り、特許文献1においては、X線透視撮影の際、被検体の動きを検出し、検出した動きを使用して、体内プローブの受信した位置を補正している。しかしながら、特許文献1においては、被検体内の体内プローブの画像を出力して表示する場合が考慮されていない。そのため、体内プローブなどのデバイスの空間的な座標が補正されるという効果に留まる。そのため、術者によるデバイスの操作性の向上に結び付けることができなかった。
本発明の目的は、上記の課題を解決し、デバイスの動きが見やすくなるように画像の動きを補正することにより、術者のデバイス操作性の向上を図ることが可能な画像処理装置、及び方法を提供することにある。
上記の目的を達成するため、本発明においては、画像処理装置であって,デバイスを含む被検体の取得画像データが入力される画像処理部と、画像処理部で補正された補正画像データが入力される表示出力部とを備え、画像処理部は、取得画像データからデバイスの動き情報と、被検体の各部の動き情報とを取得し、取得したデバイスの動き情報と被検体の各部の動き情報とを用いて,被検体の各部の動き情報から、デバイスの動き情報に影響を与える動き情報を抽出し、抽出されたデバイスの動き情報に影響を与える動き情報を用いて、取得画像データの補正を行い、補正画像データを出力する構成の画像処理装置を提供する。
また、上記の目的を達成するため、本発明においては、画像処理装置であって,デバイスを含む人体の取得画像データが入力される画像処理部と、画像処理部で補正された補正画像データが入力される表示出力部とを備え、画像処理部は、取得画像データから、デバイスの情報を取得するデバイス情報取得部と,取得画像データから、人体各部の情報を取得する人体各部の情報取得部と,取得画像データから、人体の病変の情報を取得する病変情報取得部と,デバイスの動き情報と人体各部の動き情報とを用いて,人体各部の動き情報の中からデバイスの動き情報に影響を与える動き情報を抽出するデバイス関連動き情報抽出部と,人体各部の動き情報の中から病変の動き情報に影響を与える動き情報を抽出する病変関連動き情報抽出部と,デバイスの動きに影響を与える動き情報と、病変の動き情報に影響を与える動き情報を用いて、取得画像データに対して補正処理を行う補正処理部とを含む構成の画像処理装置を提供する。
更に、上記の目的を達成するため、本発明においては、画像処理装置における画像処理方法であって,画像処理装置は、デバイスを含む被検体の取得画像データからデバイスの動き情報と、被検体の各部の動き情報とを取得し、取得したデバイスの動き情報と被検体の各部の動き情報とを用いて,被検体の各部の動き情報から、デバイスの動き情報に影響を与える動き情報を抽出し、抽出されたデバイスの動き情報に影響を与える動き情報を用いて、取得画像データの補正を行い、補正画像データを出力する構成の画像処理方法を提供する。
本発明によれば、術者が意図するデバイスの動きを残しつつ、画像の動きが補正されることにより、デバイスの操作性向上をはかることができる。
実施例1に係る、画像処理部の一構成を示すブロック図である。 実施例1に係る、X線透視撮影装置の一構成を示すブロック図である。 実施例1に係る、被検体各部の情報の一例を示す概念図である。 実施例2に係る、画像処理部の一構成を示すブロック図である。
以下、種々の実施例を図面に従い、順次説明する。なお、本明細書において、デバイスとは、被検体に外部から導入される内視鏡、カテーテル、鉗子などの総称である。
実施例1は、画像処理装置であって,デバイスを含む被検体の画像を取得する画像取得部からの取得画像データが入力される画像処理部と、画像処理部で補正された画像データが入力される表示出力部とを備え、画像処理部は、取得画像データからデバイスの動き情報と、被検体の各部の動き情報とを取得し、取得したデバイスの動き情報と被検体の各部の動き情報とを用いて,被検体の各部の動き情報から、デバイスの動き情報に影響を与える動き情報を抽出し、抽出されたデバイスの動き情報に影響を与える動き情報を用いて、取得画像データの補正処理を行い、補正された画像データを出力する構成の画像処理装置、及び画像処理方法の実施例である。
図1、図2は、それぞれ実施例1に係る画像処理部、X線透視撮像装置の一構成を示すブロック図である。
図2に示すように、本実施例に係るX線透視撮影装置1は、X線を発生して照射するX線管2と、X線管2と電気的に接続される高電圧発生部4と、高電圧発生部4と電気的に接続されるX線制御部3と、X線管2のX線照射方向に配置される絞り5、X線保補償フィルタ6及びテーブル8と、X線補償フィルタ6及び絞り5と電気的に接続される絞り・フィルタ制御部7と、絞り5及びX線補償フィルタ6、及び寝台であるテーブル8を介在してX線管2と対向配置される画像取得部9、を有する。ここで、X線管2、絞り5、X線補償フィルタ6、テーブル8、及び画像取得部9は、X線透視撮影装置1の撮影部を構成する。
更に、画像取得部9と電気的に接続される画像処理部10と、画像処理部10と電気的に接続される表示出力部11と、テーブル8及び画像取得部9と電気的に接続される撮影機構移動部として機能する機構制御部12と、X線制御部3、高電圧発生部4、絞り・フィルタ制御部7、画像取得部9、画像処理部10および機構制御部12と電気的に接続され、各々の処理や制御を指示する中央処理部13と、中央処理部と電気的に接続されるユーザ・インタフェース部15、を有する。
高電圧発生部4はX線管2に与える高電圧を発生させる。X線管2は被検体14に向けてX線を照射する。X線制御部3は高電圧発生部4を制御し、X線管2から照射されるX線の線質を制御する。絞り5はX線管2で発生したX線が照射される領域を、X線吸収率の高い金属の移動によって制御する。X線補償フィルタ6は、X線吸収率の高い物質で構成され、被検体のX線吸収率の低い部位に到達するX線を減衰させることで、ハレーションを軽減する。テーブル8は人体などの被検体14を乗せる寝台である。
画像取得部9は、X線管2から照射され被検体を透過したX線の強度分布に応じた画像データを出力する。画像取得部9は一般にX線平面型検出器により構成され、X線検出素材とTFT(Thin Film Transistor)アレイを組み合わせた機構により、X線によってX線検出素材内に発生した電荷をTFTのスイッチング走査により読み出し、ディジタル信号として画像データを出力する。画像取得部9は、この画像データを静止画として生成することも、また、時間的に異なるタイミングで撮像した複数の画像データを生成し、動画像として生成することも可能である。後者の場合、画像データは、一般には毎秒30フレームや毎秒15フレームなど一定の時間間隔で撮像される。
本実施例における画像処理部10は、画像取得部9から出力された画像データの補正処理を行う。この画像処理部10は、中央処理部13の指示・制御に基づき、後で詳述する補正処理を実行する。画像処理部10は、好適にはデジタルシグナルプロセッサ(DSP)で構成できるが、あるいは中央処理部13自身がプログラム処理することでこの補正処理を実現しても良い。表示出力部11は、補正処理後のX線撮像画像データを表示する。機構制御部12は、撮影機構移動部として機能し、テーブル8及びX線平面検出器9を移動して被検体14の撮影に適した位置へ移動するよう制御する。
中央処理部13は、上述した電気的に接続される構成要素を制御するコンピュータである。ユーザ・インタフェース部15は中央処理部13からの指示に従いユーザに情報を提示し、あるいはユーザから情報を受け付け電気信号として中央処理部12へ出力する。ユーザ・インタフェース部15は押しボタン、キーボード、マウス、タッチパネル、ディスプレイなどにより構成される。本実施例では、ユーザ・インタフェース部15における表示装置(ディスプレイ)と、画像データを出力する表示出力部11とを独立させているが、表示領域を分割したり情報表示を時間的に遷移させたりすることで、物理的に共通化することは可能である。
次に、図1に示した本実施例の画像処理部10の補正処理機能を説明する。画像処理部10は、画像取得部9から出力された画像データ111から、内視鏡、カテーテル、鉗子などのデバイスの位置と動き情報を検出してデバイス情報112として出力するデバイス情報取得部102と、画像取得部9から出力された画像データ111から人体各部の情報を検出して人体各部の情報113を出力する人体各部の動き情報取得部103と、デバイス情報取得部102から出力されたデバイス情報112と人体各部の情報取得部103から出力された人体各部の情報113を入力とし、人体各部の情報113の中からデバイス情報112と関連する動き情報を抽出し、デバイスの動き情報に影響を与える動き情報114として出力するデバイス関連動き情報取得部104と、デバイス関連動き情報取得部104から出力されたデバイスの動き情報に影響を与える動き情報114と、画像取得部9から出力された画像データ111を入力とし、デバイスの動き情報に影響を与える動き情報114にもとづいて画像データ111を補正し、補正画像データ115を出力する補正処理部105を含む。
次いで画像処理部10を構成する各ブロックの機能動作の詳細を順次説明する。デバイス情報取得部102は、まず、入力された画像データ111からデバイスの位置を特定し、次いでデバイスの位置の時間変化から動きを推定し、デバイスの位置と動きをデバイス情報112として出力する。デバイスの位置を特定する手法としては機械学習による手法を用いるが、これに限ったものではない。以下、機械学習による手法を説明する。内視鏡などのデバイスは、一般にX線の透過を遮る素材で構成されているため、画像データ上で人体の各部と比較すると特徴的な輝度を有することが多い。また、明らかに人体各部とは異なる形状を有していることも多い。このようなデバイスに固有の特徴を機械学習により識別することで、画像データ中からデバイスの位置を特定することができる。
テバイス情報取得部102は、画像をある領域(パッチ画像)ごとに分割し、そのパッチ画像にデバイスが含まれるか否かを機械学習により判別することで、デバイスの位置を特定する。一般に、機械学習は認識したい物体を学習する学習フェーズと、実際に入力された画像が意図するものか判別する予測フェーズがある。学習フェーズの処理はX線透視撮影装置1の画像処理部10によって実施しても、図中に記載しないオフライン処理、例えば、X線透視撮影装置とは独立したパーソナルコンピュータ(PC)上であらかじめ実施し、学習結果をDSPなどの画像処理部10の中の図示しないメモリに格納するように構成しても良い。また、予測フェーズはX線透視撮影装置1の画像処理部10によって実施するように構成すると良い。
デバイス情報取得部102は、学習フェーズでは、大量のサンプル画像をパッチ画像に分割し、それぞれのパッチ画像に対して目視などの方法でデバイスが画像に含まれているか否かをラベル付け(例えば、有:1,無:−1)した後、識別器がパッチ画像とラベルの関係を学習する。一方、予測フェーズでは入力された画像データ111をパッチ画像に分割し識別器に入力することで、パッチ画像にデバイスが含まれるか否かがラベルに基づいて出力される。
次いで各フェーズの動作の詳細について説明する。まず、学習フェーズの動作について説明する。学習フェーズでは最初に画像から特徴を抽出する。特徴はHOG(Histogram of Oriented Gradients)と輝度ヒストグラムの組み合わせなどを用いることが考えられるが、これに限ったものではない、以下、HOGと輝度ヒストグラムの算出方法を順に説明し、最後にその組み合わせ方法について説明する。
HOGは画像の勾配強度と勾配方向をもとにした特徴量である。HOGの算出方法を順に説明する。まず、ある画像を小さな(水平方向5画素、垂直方向5画素程度)のブロックに区切りブロックごとに勾配強度と勾配方向を求める。画像データをI、画像データ上の座標をu、vとしたとき、式(1)に基づき、勾配強度mと勾配方向θは、それぞれ式(2)、式(3)によって算出する。
Figure 0006509025
Figure 0006509025
Figure 0006509025
さらに、適当な角度ごとに勾配方向を量子化して、勾配強度をそれぞれのビン値に加算した勾配方向ヒストグラムを生成する。例えは20度単位で量子化した場合は、ヒストグラムのビン数は9であるから、勾配方向ヒストグラムは9次元の特徴ベクトルとなる。
算出した勾配方向ヒストグラムを隣接ブロック(水平方向3ブロック、垂直方向3ブロック)間で連結し81次元の特徴ベクトルを生成し、ビン値を正規化する。この操作を画像全体に対して適用しつつ得られた特徴ベクトルを連結することで、最終的に数百から数千次元程度のHOG特徴ベクトルを得る。
輝度ヒストグラムは画像の輝度をもとにした特徴量である。ある画像の画素値を適当な単位で量子化し、量子化した値で輝度ヒストグラムを生成する。その後、輝度ヒストグラムのビン値を正規化する。例えば、画像のビット深度が256段階で16単位ごとに量子化した場合、ヒストグラムのビン数は16であるから、輝度ヒストグラムは16次元の特徴ベクトルとなる。上記の手法で算出したHOGと輝度ヒストグラムを連結して最終的な特徴ベクトルとする。
次にこの特徴ベクトルによって識別器で学習を行う手法を説明する。ここでは、前記の特徴ベクトルとラベルの組み合わせを多数用意して訓練サンプルとし、識別器を用いて学習するものとする。識別器にはSVM(Support Vector Machine)を用いるが、これに限ったものではない。以下、SVMを概説する。
SVMは線形な閾値により2クラスのパターン識別器を構成する手法であり、入力された訓練サンプルを用いて、各特徴ベクトル間の距離が最大となるような超平面を算出する。この超平面のパラメータが学習結果となり、画像処理部10内にある図示しないメモリに格納される。SVMの詳細は、例えば非特許文献1に記載がある。
一方、予測フェーズでは、入力画像データからパッチ画像を例えばラスタスキャンで切り出し、学習フェーズと同様に特徴ベクトルを算出する。次に特徴ベクトルを学習済みの識別器に入力し、出力としてラベルを得て、デバイスの有無を判断する。このとき、画像に含まれるデバイスの最大数をあらかじめ規定しておくことで、画像中から誤って複数のデバイスを検出することを防ぐことが可能である。例えば、デバイスがあると判断されたパッチ画像が複数あった場合、前記の超平面からの距離や、直前のフレームで算出されていたデバイスの位置からの距離、などの基準を用いてデバイスの位置を規定数にまで絞り込むことが可能となる。また、1フレーム前のデバイスの位置と以下で説明する動きの和から現フレームでのデバイスの位置を予測し、複数のパッチ画像を絞り込むことも可能である。
次いで、図1のデバイス情報取得部102によるデバイスの動きを検出する方法について説明する。ここではデバイスの動きをフレーム間差分で求める方法について説明するが、これに限ったものではない。以下、フレーム間差分の手法を説明する。まず、前述のデバイスの位置の算出手法を入力された画像データ111の各フレームに逐次適用することで、各フレームにおけるデバイスの位置を算出する。次に、ある時刻と一つ前の時刻のフレーム間のデバイスの位置の差分を計算し、各時刻におけるデバイスの動き情報とみなす。
また、時系列に並べたデバイスの動き情報に対して、移動平均フィルタなどを用いて時間方向のフィルタリングを適用すると、デバイスの動き情報はデバイスの位置の誤検出に対して頑健になり、さらに後述する補正画像データ115に対して、術者のデバイス操作に遊びを持たせた動き補正がなされるため、より好適にデバイス操作が可能となる。最終的にデバイス情報取得部102は、入力された画像データ111から上記の手法を用いて、デバイスの位置と動きを算出しデバイス情報112として出力する。
人体各部の動き情報取得部103は、入力された画像データ111から人体各部の動き情報113を生成して出力する。
図3は人体各部の動き情報取得部103が出力する人体各部の情報113を示す模式図である。人体各部の情報113には、画像データをk個(図中では5個、領域201から領域205)に分割したときの領域の情報と、それぞれの領域201〜205の代表的な動き211〜215が含まれる。具体的に領域の情報とは、各画素が領域201〜205のどの領域に属するかを示すラベル(例えば1からk)の情報である。なお、図3では、領域205が内視鏡や鉗子などのデバイスの領域を示し、動き215がデバイスの動きを示しており、これらの情報も人体各部の情報113に含まれている。以下、画像データ111から人体各部の情報113を生成する手法についてより具体的に説明する。
まず、画像データ111を各領域に分割する手法について説明する。領域分割手法としてはクラスタリングの一種であるk−means法などを用いることができるが、これに限ったものではない。以下、k−means法について概説する。
k−means法は与えられたデータをk個のクラスタに分類する手法である。k−means法は次のステップで実行される。
各データに対してランダムにクラスタを割り当てる。
各クラスタにおける中心を算術平均により求める。
中心と各データの距離を求め、各データをもっとも距離が近いクラスタに割り当て直す。
1から3までの処理をクラスタの割り当てが更新されなくなるまで繰り返す。
ここでは、画像データの各画素値をデータとする。画素値間の距離は、例えば画素値の差の絶対値により算出する。クラスタに任意の順番で1からkのラベルを付与すれば、各座標に対してどの領域に属するかを示すラベルを割り当てることができる。
次いで領域ごとの動きを求める手法について説明する。ここではすべての画素について動きを求めた後に、領域ごとの動きを算出する手法について説明するが、これに限ったものではない。
画素単位の動き情報の検出手法としてはブロックマッチング法などを用いることができるが、これに限ったものではない。以下、ブロックマッチング法を説明する。
入力された画像データ111において、注目座標wにおける動きベクトルdは、評価値eを用いて式(3)によって算出する。
Figure 0006509025
ここで、Φは動きベクトルの探索範囲の座標の集合である。また、評価値eは式(4)によって算出する。
Figure 0006509025
ここでΩはマッチング範囲の座標の集合、Wは正規化因子である。
人体各部の動き情報取得部103は、画像中のすべての画素に対して式4を適用して、動きベクトルを算出する。なお、ここでは画素単位で動きベクトルを求めるものとして説明したが、画像を任意の大きさで分割した単位で動きを求めても良い。
次いで分割された各領域に対して動きベクトルを割り当てる手法について説明する。上記の手法により、各画素には、どの領域に割り当てられているかを示すラベル(1〜k)と、動きベクトルが設定されている。よって各領域の全画素に対して動きベクトルの算術平均を求めることで、各領域の代表的な動き211〜215を算出することができる。
デバイス関連動き情報取得部104は、デバイスの動き情報112と人体各部の情報113を入力とし、人体各部の情報113からデバイスの動き情報に影響を与える動き情報114を抽出して出力する。以下、人体各部の情報113からデバイスの動き情報に影響を与える動き情報114を抽出する手法について説明する。
まず、デバイス関連動き情報取得部104は、人体各部の情報113を図示しない、画像処理部10に内蔵するメモリ、又は中央処理部13に付属するメモリに、あらかじめ決定したフレーム数分だけ保持する。すなわち、前記のメモリは、新たに人体各部の情報113が入力されたときに、最も過去の人体各部の情報113を廃棄し、新たな人体各部の情報113を記憶するように構成する。
次に、ある時刻の人体各部の情報113の各領域201〜205と、ひとつ前の時刻の各領域を対応づける。具体的にはデバイス関連動き情報取得部104は、次のステップを実行する。
時刻tにおける領域nのすべての座標を抽出する
抽出した座標で時刻t−1の領域を参照し、領域を示すラベルの頻度を計算する。
もっとも頻度が高い領域を領域nと関連付ける
以上の操作を時刻tのすべての領域に対して実施する。
上述の処理をメモリ内の各時刻の人体各部の情報113に対して実施することで、最新の時刻における領域と、過去の時刻における領域をすべて関連付けることができる。
次に、人体各部の情報113から、デバイスそのものと考えられる領域を除外する。例えば、図3においては動き情報211〜215のうち、デバイス自体の動きを示す215を除外する。具体的な手法としては、デバイスの動き情報112に含まれるデバイスの位置情報を基に、その位置に相当する領域(図3にあっては、領域205)に割り当てられている動き(図3にあっては、動き215)を人体各部の動き情報113から除外する。以降の記述では、人体各部の情報113とはデバイス自体を除外したもの、として記述する。
次に各領域の動きとデバイスの動きの類似度を算出する。類似度の算出方法は種々の方法が考えられるが、ここでは動きベクトル同士の内積によって算出するものとする。この類似度はメモリに格納されたすべての時刻のデータに対して計算する。さらに各関連付けられた領域ごとに、メモリに格納されている過去から現在までの類似度の代表値を計算する。ここでは類似度の代表値を最大値の探索により算出するものとする。そして、全領域中で類似度の代表値がもっとも高い領域(図3では、領域204)に割り当てられた動き(図3にあっては、動き214)を、デバイスの動き情報に影響を与える動き情報114として出力する。
補正処理部105は、デバイスの動き情報に影響を与える動き情報114に基づいて画像データ111を補正し、補正画像データ115として出力する。具体的には、画像データ111をデバイスの動き情報に影響を与える動き情報114とは逆の方向に平行移動させることで、画像のブレを安定させる補正を行う。
すなわち、画像データ111をI、デバイスの動き情報に影響を与える動き情報114をd’としたとき、補正された画像データI’は式4によって算出される。
Figure 0006509025
以上詳述した本実施例の構成により、デバイスに関連する人体の動きに合わせるように動き補正されるため、術者が意図するデバイスの動きを残しつつ、画像全体の動き安定化を図ることができ、術者にとって、操作対象であるデバイスがより見やすい画像を出力することが可能となる。
なお、先に説明したデバイス情報取得部102における学習フェーズにおいて、デバイスがパッチ画像に含まれているか否かを判断する基準としては、デバイスの特に特徴的なパターンが画像に含まれていることを基準にしても良い。例えば、内視鏡や鉗子などのデバイスに取り付けられたX線不透過マーカーなどのマーカーを特徴的なパターンとみなして認識しても良い。X線不透過マーカーを用いた場合は、X線透視撮影装置で得られるX線画像上では特に視認性が高いため、より安定したデバイスの位置の特定が可能となる。
あるいは、デバイスがパッチ画像に含まれているか否かを判断する基準としては、デバイスの先端の一定領域がパッチ画像に含まれていることを基準としても良い。この場合、術者が注目すると考えられる内視鏡や鉗子などのデバイスの先端がデバイスの位置として検出され、人体各部の動き情報取得部103における動き抽出処理が、術者の注目する領域をもとに基準に行われることになるため、術者にとってより好適な補正画像の出力が可能となる。
あるいは、デバイスがパッチ画像に含まれているか否かを判断する基準としては、デバイスの非可動領域がパッチに含まれていることを基準としても良い。一般にデバイスは、それ自体が変形することがあり、また鉗子などの可動部分を備えた器具が取り付けられていることがある。この場合、デバイスの非可動領域、例えば、鉗子の接続部などはX線画像上でも常に一定の形状で可視化されていることが期待でき、学習と予測が容易になるため、より安定したデバイスの位置の特定が可能となる。
また、デバイス情報取得部102における学習は、想定されるデバイスごとに行っても良い。すなわち、前述の手法を用いて、想定されるデバイス分だけ独立に学習を行い、複数の学習データを得る。生成された複数の学習データは画像取得部9や中央処理部13の図示しないメモリに格納しておき、予想フェーズにおいて学習データを切り替えて利用する。学習データの選択はユーザ・インタフェース部15に対するユーザの指示をもとに行う。例えば、あらかじめデバイスの種類と学習データを紐付けておき、ユーザ・インタフェース部15はデバイスの種類をユーザに選択させ、デバイスの種類に対応した学習データを出力すると良い。さらに、病状や手技の種類から利用されるデバイスが想定できるのであれば、病状や手技の種類と利用デバイスの学習データを紐付けておき、同様にユーザ・インタフェース部15はユーザに選択させると良い。この場合、デバイスの種類が増えても正確なデバイスの位置および動きの検出が可能となる。
また、デバイス情報取得部102はユーザ・インタフェース部15による指示によってデバイスの位置を特定しても良い。具体的には、ユーザ・インタフェース部15をタッチパネル・ディスプレイによる構成とし、ユーザ・インタフェース部15は補正画像データ115をユーザに提示し、デバイス領域へのタッチ操作を求める。ユーザ・インタフェース部15はタッチされた座標から補正画像データ115上の座標に変換し、デバイスの位置とみなす。この場合、デバイス情報取得部102におけるデバイスの位置の予測が成功しないようなシーンにおいても、ユーザ・インタフェース部15を使ったユーザの補助操作により好適な補正画像を生成することが可能となる。
更に、図2の絞り5をデバイスの動き情報に影響を与える動き情報114に基づいて移動させても良い。すなわち、絞り・フィルタ制御部7は、画像処理部10から中央処理部13を通じてデバイスの動き情報に影響を与える動き情報114を受け取る構成とする。この構成において、絞り・フィルタ制御部7はデバイスの動き情報に影響を与える動き情報114に基づいて、絞り5の開口領域を変形させる。具体的には、絞り5の開口領域をデバイスの動き情報に影響を与える動き情報114が示す位置に平行移動させて、次のフレームの撮影を行う。この場合、補正処理部105による補正に合わせて、X線管2からの発生されるX線の照射領域が移動するため、より好適な照射領域の補正画像の出力が可能となる。
また更に、上記の構成に加えて、画像処理部10の補正処理部105もデバイス情報112を受け取る構成とし、補正処理部105はデバイス情報112に含まれるデバイスの位置に基づいて、デバイスが画像データの中心になるように画像データを補正して、補正画像データ115として表示出力部11に出力しても良い。この補正は、所定の信号をトリガにして行うものとする。この所定の信号は、ユーザ・インタフェース部15がユーザの指示を受け付けることで生成しても良い。あるいは所定の信号は、補正処理部105内にタイマを設けてあらかじめ決定しておいた一定時間ごとに生成しても良い。あるいは所定の信号は、デバイス情報112に含まれるデバイスの位置に基づいて、あらかじめ設定した領域内にデバイスが位置するときに生成しても良い。例えば、この設定領域を表示部11の画面の端から一定の距離の範囲内とすることにより、デバイスが画像データ111の端に到達し、デバイスが進む先の領域が見えなくなることを防ぐことが可能となる。
更にまた、上記の補正は絞り5によって行っても良い。具体的には、絞り・フィルタ制御部が中央処理部13を介して、画像処理部10からデバイス情報112を受け取る構成に変更し、絞り・フィルタ制御部7は、上述した所定の信号をトリガにデバイス情報112に含まれるデバイスの位置に基づいて、デバイスがX線の照射範囲の中心に位置するように、絞り5を変形するよう制御してもよい。この場合、デバイスがX線の照射範囲の端に到達し、デバイスが進む先の領域が見えなくなることを防ぐことが可能となる。
以上説明した本実施例の装置によれば、画像からデバイスの情報と人体などの被検体各部の情報を検出し、被検体各部の動きの中からデバイスの動き情報に影響を与える動き情報を抽出し、抽出された動き情報を用いて動き補正処理を行うことができ、術者に対してデバイスの動きが見やすくことができ、操作性の向上を図ることができる。
本実施例は、実施例1においてデバイスの動きに基づいて補正処理を行っていたものを、デバイスと病変の動きに基づいた補正処理に変更したものである。すなわち、実施例2は、画像処理装置であって,デバイスを含む人体の取得画像データが入力される画像処理部と、
画像処理部で補正された補正画像データが入力される表示出力部とを備え、画像処理部は、取得画像データから、デバイスの情報を取得するデバイス情報取得部と,取得画像データから、人体各部の情報を取得する人体各部の情報取得部と,取得画像データから、人体の病変の情報を取得する病変情報取得部と,デバイスの動き情報と人体各部の動き情報とを用いて,人体各部の動き情報の中からデバイスの動き情報に影響を与える動き情報を抽出するデバイス関連動き情報抽出部と,人体各部の動き情報の中から病変の動き情報に影響を与える動き情報を抽出する病変関連動き情報抽出部と,デバイスの動きに影響を与える動き情報と、病変の動き情報に影響を与える動き情報を用いて、取得画像データに対して補正処理を行う補正処理部とを含む構成の画像処理装置の実施例である。
図4は本実施例に係る画像処理部30の構成を示すブロック図である。以降、実施例1から変更があるブロックのみ、以下に示す。
画像処理部30は実施例1で説明した、デバイス情報取得部102と、人体各部の情報取得部103と、デバイス関連動き情報取得部104に加え、画像取得部9から出力された画像データ111から病変の位置と動き情報を検出して病変情報311として出力する病変情報取得部301と、病変情報取得部301から出力された病変情報311と、人体各部の情報取得部103から出力された人体各部の情報113を入力とし、人体各部の情報113の中から病変情報311関連する動き情報、すなわち病変の動き情報に影響を与える動き情報312を抽出して出力する病変関連動き情報取得部302と、デバイス関連動き情報取得部104から出力されたデバイスの動き情報に影響を与える動き情報114と、病変関連動き情報取得部302から出力された病変の動き情報に影響を与える動き情報312と、画像取得部9から出力された取得画像データ111を入力とし、デバイスの動き情報に影響を与える動き情報114と病変の動き情報に影響を与える動き情報312にもとづいて取得画像データ111を補正し、補正画像データ313を出力する補正処理部303を含む。
病変情報取得部301は、取得画像データ111から病変の動きと位置を検出し、それらを病変情報311として出力する。このとき病変の動きと位置の検出は、例えば実施例1においてデバイス情報取得部102の処理として説明した機械学習を用いた手法で実施することが可能である。すなわち、対象をデバイスではなく病変として学習および予測を行えば良い。
なお、病変関連動き情報取得部302は、病変情報311と人体各部の情報113を入力とし、人体各部の情報113から病変情報311に関連する動き情報を抽出して、病変の動き情報に影響を与える動き情報312として出力する。このとき動き情報の抽出は、例えば実施例1において、デバイス関連動き情報取得部104の処理として説明した手法で実現することが可能である。
補正処理部303は、画像データ111とデバイスの動き情報に影響を与える動き情報114と病変の動き情報に影響を与える動き情報312に基づいて、取得画像データ111を補正して、補正画像データ313として出力する。例えば、デバイスの動き情報に影響を与える動き情報114と病変の動き情報に影響を与える動き情報312の平均となる動きを用いて、取得画像データ111を平均となる動きとは逆の方向に平行移動させることで、画像のブレを安定させる補正を行う。
すなわち、画像データをI、デバイス関連動き情報をd1、病変関連動き情報をd2としたとき、補正された画像データI’は式6によって算出される。
Figure 0006509025
以上説明した本実施例の構成により、デバイスの動きと病変の動きに基づいた動き安定化が行われるため、デバイスと病変の両方の動きが見やすい映像を出力することが可能となる。
また、病変情報取得部301の機械学習において、手技が想定する病変の種類が複数あるのであれば、実施例1においてデバイスが複数想定される場合の処理と同様に、あらかじめ想定される病変ごとに学習を行って、ユーザからの選択に基づいて学習結果を切り替えて予測を行っても良い。この場合、想定される病変の種類が増えても正確な病変の位置および動きの検出が可能となる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明のより良い理解のために詳細に説明したのであり、必ずしも説明の全ての構成を備えるものに限定されものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることが可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
更に、上述した各構成、機能、処理部等は、それらの一部又は全部を実現するプログラムを作成する例を説明したが、それらの一部又は全部を例えば集積回路で設計する等によりハードウェアで実現しても良いことは言うまでもない。
なお、以上説明した本発明の各種の実施例には、特許請求の範囲に記載の発明以外に種々の発明が開示されている。その一部を例示すると下記のとおりである。
<例示1>
画像処理装置であって,
デバイスを含む人体の取得画像データが入力される画像処理部と、
前記画像処理部で補正された補正画像データが入力される表示出力部とを備え、
前記画像処理部は、
前記取得画像データから、前記デバイスの動き情報を取得するデバイス情報取得部と,
前記取得画像データから、前記人体各部の情報を取得する被検体各部の情報取得部と,
前記デバイスの動き情報と前記人体各部の動き情報とを用いて,前記人体各部の動き情報の中から前記デバイスの動き情報に影響を与える動き情報を抽出するデバイス関連動き情報抽出部と,
前記デバイスの動き情報に影響を与える動き情報を用いて、前記取得画像データに対して補正処理を行う補正処理部と,を含む、
ことを特徴とする画像処理装置。
<例示2>
例示1に記載の画像処理装置であって、
前記デバイス情報取得部は、前記デバイスに設けられたマーカーを基準として前記デバイスの動き情報を取得する、
ことを特徴とする画像処理装置。
<例示3>
例示1に記載の画像処理装置であって、
前記デバイス情報取得部は、前記デバイスの先端の一定領域を基準として前記デバイスの動き情報を取得する、
ことを特徴とする画像処理装置。
<例示4>
例示1に記載の画像処理装置であって、
前記デバイス情報取得部は、前記デバイスの非可動領域を基準として前記デバイスの動き情報を取得する、
ことを特徴とする画像処理装置。
<例示5>
例示1に記載の画像処理装置であって、
前記抽出された動き情報を用いて、前記取得画像データを取得する撮影部と、
前記撮影部における撮影範囲を移動させる撮影機構移動部、を更に備える、
ことを特徴とする画像処理装置。
<例示6>
例示5に記載の画像処理装置であって、
前記撮影機構移動部は、前記撮影部の絞りの開口領域を変更する、
ことを特徴とする画像処理装置。
<例示7>
例示5に記載の画像処理装置であって、
前記撮影機構移動部は前記撮影部のテーブルを移動する、
ことを特徴とする画像処理装置。
<例示8>
例示5に記載の画像処理装置であって、
前記撮影機構移動部は前記撮影部の画像取得部を移動する、
ことを特徴とする画像処理装置。
<例示9>
例示5記載の画像処理装置であって、
前記撮影機構移動部は、前記デバイスの動き情報に基づいて、前記デバイスが撮影範囲の中央に位置するように撮影範囲を補正する、
ことを特徴とする画像処理装置。
<例示10>
例示1に記載の画像処理装置であって、
前記補正処理部は、前記デバイス情報に基づいて、前記デバイスが前記取得画像データに基づく画面の中央に位置するように補正する、
ことを特徴とする画像処理装置。
<例示11>
例示10に記載の画像処理装置であって、
前記補正を、ユーザから指示されたタイミング、あるいはあらかじめ決定した時間間隔に基づいて実行する、
ことを特徴とする画像処理装置。
<例示12>
例示10に記載の画像処理装置であって、
前記補正を、前記デバイスが前記画面のあらかじめ決定した領域に位置したことをトリガとして実行する、
ことを特徴とする画像処理装置。
1 X線透視撮影装置
2 X線管
3 X線制御部
4 高電圧発生部
5 絞り
6 X線補償フィルタ
7 絞り・フィルタ制御部
8 テーブル
9 画像取得部
10、30 画像処理部
11 表示出力部
12 機構制御部
13 中央処理部
14 被検体
15 ユーザ・インタフェース部
102 デバイス情報取得部
103 人体各部の情報取得部
104 デバイス関連動き情報取得部
105、303 補正処理部
111 取得画像データ
112 デバイス情報
113 人体各部の情報
114 デバイスの動き情報に影響を与える動き情報
115 補正画像データ
301 病変情報取得部
302 病変関連動き情報取得部

Claims (15)

  1. 画像処理装置であって,
    デバイスを含む被検体の取得画像データが入力される画像処理部と、
    前記画像処理部で補正された補正画像データが入力される表示出力部とを備え、
    前記画像処理部は、
    前記取得画像データから前記デバイスの動き情報と、前記被検体の各部の動き情報とを取得し、
    取得した前記デバイスの動き情報と前記被検体の各部の動き情報とを用いて,前記被検体の各部の動き情報から、前記デバイスの動き情報に影響を与える動き情報を抽出し、
    抽出された前記デバイスの動き情報に影響を与える動き情報に基づく動きとは逆方向に平行移動させることで、前記取得画像データの補正を行い、前記補正画像データを出力する、
    ことを特徴とする画像処理装置。
  2. 請求項1に記載の画像処理装置であって、
    前記画像処理部は、
    前記取得画像データから、前記デバイスの動き情報を取得するデバイス情報取得部と,
    前記取得画像データから、前記被検体各部の情報を取得する被検体各部の情報取得部と,
    前記デバイスの動き情報と前記被検体各部の動き情報とを用いて,前記被検体各部の動き情報の中から前記デバイスの動き情報に影響を与える動き情報を抽出するデバイス関連動き情報抽出部と,
    前記デバイスの動き情報に影響を与える動き情報を用いて、前記取得画像データに対して補正処理を行う補正処理部と,を含む、
    ことを特徴とする画像処理装置。
  3. 請求項2に記載の画像処理装置であって、
    前記デバイス情報取得部は、前記デバイスに設けられたマーカーを基準として前記デバイスの動き情報を取得する、
    ことを特徴とする画像処理装置。
  4. 請求項2に記載の画像処理装置であって、
    前記デバイス情報取得部は、前記デバイスの先端の一定領域を基準として前記デバイスの動き情報を取得する、
    ことを特徴とする画像処理装置。
  5. 請求項2に記載の画像処理装置であって、
    前記デバイス情報取得部は、前記デバイスの非可動領域を基準として前記デバイスの動き情報を取得する、
    ことを特徴とする画像処理装置。
  6. 請求項1に記載の画像処理装置であって、
    前記抽出された動き情報を用いて、前記取得画像データを取得する撮影部と、
    前記撮影部における撮影範囲を移動させる撮影機構移動部、を更に備える、
    ことを特徴とする画像処理装置。
  7. 請求項6に記載の画像処理装置であって、
    前記撮影機構移動部は、前記撮影部の絞りの開口領域を変更する、
    ことを特徴とする画像処理装置。
  8. 請求項6に記載の画像処理装置であって、
    前記撮影機構移動部は前記撮影部のテーブルを移動する、
    ことを特徴とする画像処理装置。
  9. 請求項6に記載の画像処理装置であって、
    前記撮影機構移動部は前記撮影部の画像取得部を移動する、
    ことを特徴とする画像処理装置。
  10. 請求項6記載の画像処理装置であって、
    前記撮影機構移動部は、前記デバイスの動き情報に基づいて、前記デバイスが撮影範囲の中央に位置するように撮影範囲を補正する、
    ことを特徴とする画像処理装置。
  11. 請求項1に記載の画像処理装置であって、
    前記画像処理部は、前記デバイスの動き情報に基づいて、前記デバイスが前記取得画像データに基づく画面の中央に位置するように補正する、
    ことを特徴とする画像処理装置。
  12. 請求項10に記載の画像処理装置であって、
    前記補正を、ユーザから指示されたタイミング、あるいはあらかじめ決定した時間間隔に基づいて実行する、
    ことを特徴とする画像処理装置。
  13. 請求項10に記載の画像処理装置であって、
    前記補正を、前記デバイスが前記撮影範囲のあらかじめ決定した領域に位置したことをトリガとして実行する、
    ことを特徴とする画像処理装置。
  14. 画像処理装置であって,
    デバイスを含む人体の取得画像データが入力される画像処理部と、
    前記画像処理部で補正された補正画像データが入力される表示出力部とを備え、
    前記画像処理部は、
    前記取得画像データから、前記デバイスの情報を取得するデバイス情報取得部と,
    前記取得画像データから、前記人体各部の情報を取得する人体各部の情報取得部と,
    前記取得画像データから、前記人体の病変の情報を取得する病変情報取得部と,
    前記デバイスの動き情報と前記人体各部の動き情報とを用いて,前記人体各部の動き情報の中から前記デバイスの動き情報に影響を与える動き情報を抽出するデバイス関連動き情報抽出部と,
    前記人体各部の動き情報の中から前記病変の動き情報に影響を与える動き情報を抽出する病変関連動き情報抽出部と,
    前記デバイスの動きに影響を与える動き情報と、前記病変の動き情報に影響を与える動き情報の平均となる動きとは逆の方向に平行移動させることで、前記取得画像データに対して補正処理を行う補正処理部と,を含む、
    ことを特徴とする画像処理装置。
  15. 画像処理装置における画像処理方法であって,
    前記画像処理装置は、
    デバイスを含む被検体の取得画像データから前記デバイスの動き情報と、前記被検体の各部の動き情報とを取得し、
    取得した前記デバイスの動き情報と前記被検体の各部の動き情報とを用いて,前記被検体の各部の動き情報から、前記デバイスの動き情報に影響を与える動き情報を抽出し、
    抽出された前記デバイスの動き情報に影響を与える動き情報に基づく動きとは逆方向に平行移動させることで、前記取得画像データの補正を行い、補正された画像データを出力する、
    ことを特徴とする画像処理方法。
JP2015096525A 2015-05-11 2015-05-11 画像処理装置、及びその方法 Active JP6509025B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015096525A JP6509025B2 (ja) 2015-05-11 2015-05-11 画像処理装置、及びその方法
CN201610293468.3A CN106154193B (zh) 2015-05-11 2016-05-05 图像处理装置及其方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015096525A JP6509025B2 (ja) 2015-05-11 2015-05-11 画像処理装置、及びその方法

Publications (3)

Publication Number Publication Date
JP2016209335A JP2016209335A (ja) 2016-12-15
JP2016209335A5 JP2016209335A5 (ja) 2018-01-11
JP6509025B2 true JP6509025B2 (ja) 2019-05-08

Family

ID=57353005

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015096525A Active JP6509025B2 (ja) 2015-05-11 2015-05-11 画像処理装置、及びその方法

Country Status (2)

Country Link
JP (1) JP6509025B2 (ja)
CN (1) CN106154193B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7216487B2 (ja) * 2018-06-21 2023-02-01 キヤノン株式会社 画像処理装置およびその制御方法
JP7129058B2 (ja) * 2018-07-17 2022-09-01 大日本印刷株式会社 医用画像診断支援装置、プログラム及び医用画像診断支援方法
JP6986160B2 (ja) * 2018-08-10 2021-12-22 オリンパス株式会社 画像処理方法および画像処理装置
JP7438834B2 (ja) * 2019-04-22 2024-02-27 キヤノンメディカルシステムズ株式会社 医用画像処理装置、x線診断装置及びプログラム
JP7317639B2 (ja) * 2019-09-05 2023-07-31 富士フイルムヘルスケア株式会社 放射線画像処理システム及び画像処理方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4610560B2 (ja) * 2003-05-21 2011-01-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ カテーテルをナビゲートする機器及び方法
JP5523791B2 (ja) * 2008-10-27 2014-06-18 株式会社東芝 X線診断装置および画像処理装置
WO2010075640A1 (zh) * 2008-12-31 2010-07-08 上海贝尔股份有限公司 基于码本的多基站联合预编码方法、移动终端和基站
JP2012055498A (ja) * 2010-09-09 2012-03-22 Olympus Corp 画像処理装置、内視鏡装置、画像処理プログラム及び画像処理方法
JP5496852B2 (ja) * 2010-10-26 2014-05-21 富士フイルム株式会社 電子内視鏡システム、電子内視鏡システムのプロセッサ装置、及び電子内視鏡システムの作動方法
JP5663331B2 (ja) * 2011-01-31 2015-02-04 オリンパス株式会社 制御装置、内視鏡装置、絞り制御方法及びプログラム
JP6062174B2 (ja) * 2011-07-22 2017-01-18 東芝メディカルシステムズ株式会社 X線診断装置及び制御プログラム
JP2013041387A (ja) * 2011-08-15 2013-02-28 Sony Corp 画像処理装置、画像処理方法、撮像装置、電子機器、及び、プログラム
KR101461099B1 (ko) * 2012-11-09 2014-11-13 삼성전자주식회사 자기공명영상장치 및 기능적 영상획득방법

Also Published As

Publication number Publication date
JP2016209335A (ja) 2016-12-15
CN106154193A (zh) 2016-11-23
CN106154193B (zh) 2018-11-09

Similar Documents

Publication Publication Date Title
JP6509025B2 (ja) 画像処理装置、及びその方法
CN107249464B (zh) 荧光成像中的鲁棒钙化跟踪
CN106999130B (zh) 用于确定在投影图像中介入仪器的位置的装置
US20170024883A1 (en) Ultrasound image processing apparatus and medium
EP3170144B1 (en) Device, system and method for segmenting an image of a subject
CN105266831B (zh) 对x光源的调节变量进行姿势控制的调节的设备和方法
JP4785133B2 (ja) 画像処理装置
US20160259898A1 (en) Apparatus and method for providing reliability for computer aided diagnosis
CN111526795B (zh) 放射线摄像装置、图像处理装置及图像确定方法
US11069060B2 (en) Image processing apparatus and radiographic image data display method
JP6945322B2 (ja) 画像処理装置及びx線診断装置
US10083503B2 (en) Image area specification device and method, and X-ray image processing device and method
US10089728B2 (en) Radiation-image processing device and method
JP7143794B2 (ja) 画像処理装置、画像処理システム及びプログラム
JP6262251B2 (ja) 対象内の目標要素の空間的寸法を決定する空間的寸法決定装置
JP5308848B2 (ja) シーン変化検出装置、シーン変化検出プログラムおよびシーン変化検出方法
US11461900B2 (en) Dynamic image analysis system and dynamic image processing apparatus
US11676271B2 (en) Dynamic image analysis apparatus extracting specific frames including a detection target from a dynamic image, dynamic analysis system, and storage medium
US20240090864A1 (en) Radiographic imaging support system, radiographic imaging support method, and recording medium
JP7341679B2 (ja) 医用画像処理装置、x線診断装置及び医用画像処理プログラム
JP2020027506A (ja) 医用情報処理装置及び医用情報処理方法、プログラム
US11723619B2 (en) System and method for indication and selection of region of interest for x-ray dose adjustment
EP4059434A1 (en) Dose adjustment method and x-ray system
EP4335374A1 (en) X-ray diagnostic apparatus and x-ray diagnostic method
US20230052910A1 (en) Image processing device, display control method, and recording medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171122

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190402

R150 Certificate of patent or registration of utility model

Ref document number: 6509025

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250